Vous êtes sur la page 1sur 696

Manuel García Ferrando,

Francisco Alvira, Luis E. Alonso


y Modesto Escobar (comps.)

El análisis de la
realidad social
Métodos y técnicas de
investigación
Cuarta edición

Alianza Editorial
Reservados todos los derechos. El contenido de esta obra está protegido por la Ley,
que establece penas de prisión y/o multas, además de las correspondientes indemni-
zaciones por daños y perjuicios, para quienes reprodujeren, plagiaren, distribuyeren
o comunicaren públicamente, en todo o en parte, una obra literaria, artística o cientí-
fica, o su transformación, interpretación o ejecución artística fijada en cualquier tipo
de soporte o comunicada a través de cualquier medio, sin la preceptiva autorización.

Edición electrónica, 2015


www.alianzaeditorial.es

© de la compilación: Manuel García Ferrando, Francisco Alvira Martín,


Luis E. Alonso Benito y Modesto Escobar Mercado, 2015
© Alianza Editorial, S. A. Madrid, 2015
Juan Ignacio Luca de Tena, 15. 28027 Madrid
ISBN: 978-84-206-8789-6
Edición en versión digital 2015
Índice

Nota introductoria a la cuarta edición (2015)............................................ 7


Introducción (1986).................................................................................... 11

primera parte. El diseño de la investigación social........................................ 15


1. Cinco vías de acceso a la realidad social. Miguel Beltrán...................... 17
2. Perspectivas de la investigación social: el diseño en las tres perspecti-
vas. Jesús Ibáñez.................................................................................. 42
3. Diseños y estrategias de investigación social. Francisco Alvira y Ara-
celi Serrano.......................................................................................... 76
4. La investigación social ante su segunda revolución digital. Pablo Na-
varro y Antonio Ariño......................................................................... 110

Segunda parte. La articulación de la investigación social.............................. 143


5. Observación sociológica, realidad y reflexividad. Manuel García Fe-
rrando y Cristóbal Torres..................................................................... 145
6. La perspectiva de género en la investigación social. Capitolina Díaz
Martínez.............................................................................................. 176
7. La medición: validez y fiabilidad. Consuelo del Val Cid....................... 202
8. El muestreo aplicado. Valentín Martínez............................................. 237

5
El análisis de la realidad social

9. La evaluación de intervenciones sociales: proyectos, programas y po-


líticas. Francisco Alvira Martín y María José Aguilar Idáñez.............. 270
10. La investigación-acción participativa. Javier Callejo y Antonio Vied-
ma........................................................................................................ 295

Tercera parte. La obtención de datos............................................................ 329


11. La encuesta. Manuel García Ferrando y Ramón Llopis Goig.............. 331
12. Tipos de encuestas. Vidal Díaz de Rada............................................... 363
13. La entrevista abierta como práctica social. Luis Enrique Alonso......... 390
14. Cómo se realiza una investigación mediante grupos de discusión.
Jesús Ibáñez......................................................................................... 418
15. El método biográfico: historias de vida. Juan Zarco............................ 435
16. Etnografía virtual/digital (EVD). Igor Sádaba..................................... 455
17. La explotación de datos secundarios. Josu Mezo................................. 485

Cuarta parte. El análisis de datos................................................................. 523


18. Introducción al análisis de datos. Francisca Blanco Moreno................ 525
19. El análisis multivariable. Modesto Escobar.......................................... 561
20. El análisis de contenido tradicional. Eduardo López-Aranguren......... 594
21. La teoría fundamentada (grounded theory) y el análisis cualitativo
asistido por ordenador. Miguel S. Valles.............................................. 617
22. Introducción al análisis sociológico del sistema de discursos. Fernan-
do Conde............................................................................................. 641
23. Bases socio-metodológicas del análisis de redes sociales. Carlos Loza-
res y Joan Miquel Verd......................................................................... 664

6
Nota introductoria
a la cuarta edición (2015)

Es especialmente grato para nosotros poder presentar una cuarta edición


radicalmente renovada de este libro. Que en el panorama de las ciencias
sociales españolas se haya asentado una referencia como ésta, y haya co-
nocido sus tres ediciones y muchas reimpresiones anteriores, indica un
interés continuado y creciente en nuestro país por la formación en los
problemas metodológicos y técnicos fundamentales de la investigación
social, y que, a su nivel, parte de este interés ha sido canalizado por una
obra como ésta, pensada, diseñada y escrita en español y por españoles
para ser utilizada como una herramienta formativa eficaz en nuestros
centros universitarios.
Después de casi treinta años de la primera edición, y quince desde su
última gran remodelación, era evidente que muchas cosas tenían que ser
cambiadas para entregar de nuevo el libro a la imprenta, pero otras mu-
chas cosas permanecen, sobre todo su clara apuesta por un radical plura-
lismo metodológico y cognitivo, así como su voluntad de equilibrio en el
aprendizaje y uso de las técnicas cuantitativas y cualitativas. De esta ma-
nera, el espíritu que presidió la publicación de este libro desde su primera
edición, entonces también con el impulso del inolvidable e imprescindi-
ble Jesús Ibáñez, se reafirma y se renueva: la vigilancia epistemológica, el
conocimiento metodológico y la capacitación en múltiples técnicas no es

7
El análisis de la realidad social

el privilegio de sofisticados especialistas, académicos sino el paso funda-


mental en la formación de todo sociólogo, y en general de todo científico
social, para el desempeño correcto de su oficio.
En cuanto a las novedades de esta edición son también, cuantitativa y
cualitativamente muchas. El impacto de la sociedad digital en los modos
de hacer —y de enseñar— sociología ha transformado a fondo, lógica-
mente, este libro, tanto temáticamente, en sus reflexiones metodológicas
fundamentales, como en el desarrollo de técnicas especialmente pensadas
o adaptadas al entorno virtual. Todo ello ha supuesto un incremento no-
table de contenidos en forma de nuevos capítulos, pero también su méto-
do expositivo se ha visto considerablemente renovado al colocar parte de
sus materiales complementarios en una página web habilitada por la edi-
torial Alianza.
Pero aquí no acaban las novedades, de una manera perfectamente
consciente se trata de recoger también los nuevos compromisos de la in-
vestigación social con su entorno cívico. La entrada del enfoque de géne-
ro, de las metodologías participativas o los temas de evaluación de políti-
cas y programas, etc., indica una vocación expresa e inequívoca de
vincular a este libro con las lógicas prácticas de la investigación relacio-
nadas directamente con los problemas sociales y con su repercusión en
los actores reales presentes en el campo. Asimismo, se han introducido
capítulos nuevos que apuntan a formas de investigar consolidadas en los
últimos años y que han desarrollado dispositivos tecnológicos novedosos
o profundamente transformados con respecto a ediciones anteriores; los
métodos de investigación cambian con la sociedad que los enmarca, pero
la sociedad se transforma también con los cambios introducidos en su
manera de investigarse; este proceso reflexivo recorre todo el libro y ha
organizado buena parte de los cambios introducidos en esta edición.
Los capítulos han aumentado de manera muy importante y los conte-
nidos se han diversificado y complejizado si tomamos como referencia la
primera edición de este libro, lo que no deja de ser un reflejo del propio
aumento de la complejidad social que lo contextualiza. Algunos autores
y materiales de ediciones anteriores se han mantenido convenientemente
actualizados, otros han desaparecido y otros muchos han aparecido por
primera vez en esta edición —lo mismo ocurre con algunos compilado-
res—, lo que indica que nos encontramos casi ante una obra práctica-
mente nueva, pero que al mismo tiempo guarda muchos de los principios
de su proyecto original. El análisis de la realidad social es, pues, un pro-
ducto vivo, con voluntad de permanecer adaptándose radicalmente a su
entorno, pero, a la vez, siendo fiel a su proyecto de origen.

8
Nota introductoria a la cuarta edición (2015)

Esperamos y confiamos que sea una herramienta útil para seguir ha-
ciendo atractiva la investigación social a muchas generaciones que em-
piezan, pero también esperamos que aquellas otras generaciones que tie-
nen más experiencia encuentren claves en este texto para su mayor y mejor
profesionalización; hemos tenido especialmente en cuenta a aquellos que
vuelven a la investigación social con una curiosidad científica renovada y
nuestro objetivo es que puedan aquí actualizar y poner al día sus conoci-
mientos. A todos ellos, feliz lectura.

9
Introducción (1986)

La necesidad para los sociólogos de investigar y crear conocimientos, en


lugar de limitarse a aplicarlos como hacen otros tipos de profesionales,
ha conducido a que los planes de estudio de las facultades de ciencias so-
ciales incluyan cursos introductorios y avanzados sobre metodología y
técnicas de investigación social. Y ello es así porque la sociología, como
tal ciencia, no dispone de un número suficiente de leyes y generalizacio-
nes. Ciertamente, desde la recopilación efectuada por Berelson y Steiner*
se han producido desarrollos espectaculares a este respecto aunque sólo
sea en algunos campos muy específicos —teoría de las organizaciones,
algunos aspectos de psicología social, etc.
La búsqueda de generalizaciones y leyes es problemática, aunque esto
no signifique que se deba abandonar. Y lo es por el carácter histórico de
gran parte del conocimiento sociológico, aplicable por tanto en un deter-
minado espacio/tiempo, y también por la potencialidad de intervención y
cambio que el ser humano posee.
El estudiante de sociología debe aprender a investigar, tanto para po-
der llevar a cabo una práctica investigadora adecuada como también
para poder enjuiciar críticamente las aportaciones de otros sociólogos.
Precisamente en los últimos tiempos han arreciado las críticas sobre la

*  B. Berelson y G. A. Steiner, Human Behavior, Nueva York, Harcourt, 1964.

11
El análisis de la realidad social

dirección en la que se mueve la sociología. La actual forma de investiga-


ción ha sido criticada por diversas razones, algunas de ellas esgrimidas
desde los inicios del propio debate metodológico en las ciencias sociales,
y otras, en cambio, basadas en desarrollos más recientes de investigación:
falta de claridad conceptual y de precisión teórica, problemas de validez
y fiabilidad, escasa identificación de las variables e hipótesis relevantes,
falta de controles de muestreo, excesiva preocupación por la medición
cuantitativa y los problemas estrictamente técnicos, reduccionismo indi-
vidualista y olvido de la estructura social, excesiva dependencia de los
poderes dominantes, sesgos ideológicos y un largo etcétera.
Se trata, en general, de críticas muchas de ellas presentes en la polémi-
ca que desde sus comienzos fundacionales ha enfrentado a los partida-
rios de una perspectiva metodológica más cualitativa para la sociología
con los partidarios de una metodología más cuantitativa, inspirada en el
modelo de las ciencias naturales. Los primeros, destacando la importan-
cia del lenguaje y de la interpretación de los hechos humanos; los segun-
dos, buscando la formulación de las teorías, la contrastación empírica y
la medición objetiva de los fenómenos.
Hay que reconocer, con todo, que en la actualidad los términos de la
polémica original han cambiado profundamente, y aunque no se pueda
hablar abiertamente de un acercamiento entre unas posturas y otras, sí
existe al menos un reconocimiento explícito por ambas partes de los ar-
gumentos de los otros y, sobre todo, una aceptación del carácter proble-
mático de todo saber social.
El lenguaje es, a la vez, instrumento y objeto de la investigación so-
cial. Un objeto físico o biológico existe antes de ser nombrado, y el nom-
bre no lo modifica profundamente. Un objeto sociológico empieza a
existir —como objeto sociológico— al ser nombrado: lo que caracteriza
al delito, por ejemplo, es el que haya sido definido como delito por al-
guien que tiene el poder performativo para definirlo así. El orden social
es del orden del decir, está regulado por dictados e interdicciones. Al ser
el lenguaje objeto e instrumento, y al formar parte el sociólogo de la so-
ciedad que analiza, el lenguaje —teórico y empírico— de la sociología es
paradójico. Es paradójica toda sentencia autorreferente a toda función
que es función de sí misma («el conjunto de todos los conjuntos», el
mentiroso que «dice que miente», la orden «no me obedezcas»). La ver-
dad ha resultado siempre de la articulación de dos pruebas., adecuación
a la realidad (prueba empírica) y coherencia del discurso (prueba teóri-
ca). Hoy sabemos que ambas pruebas son imposibles, porque son para-
dójicas. Es paradójica —según Heinsenberg— la prueba empírica porque

12
Introducción (1986)

exige medir la materia con instrumentos hechos de materia (incertidum-


bre): en nuestro caso, medir el lenguaje con el lenguaje —el lenguaje es
instrumento y objeto—. Es paradójica —según Gödel— la prueba teóri-
ca porque exige hablar del habla o pensar el pensamiento (incompleti-
tud): en nuestro caso, la sociedad se piensa a sí misma por medio de al-
gunas de sus partes que son los sociólogos. No hay verdades totales ni
definitivas: toda verdad es parcial y transitoria. El que el lenguaje socio-
lógico sea paradójico no implica que la actividad de los sociólogos sea
imposible; antes al contrario, lo que es imposible es que paren esa activi-
dad, que dejen de preguntar. Un conjunto transfinito es coordinable con
sus partes (por eso se llaman autorreflexivos); así, el conjunto de los nú-
meros naturales es coordinable con el conjunto de los números pares.
Son conjuntos autorreflexivos la sociedad y cada individuo humano; por
eso los individuos podemos pensar la sociedad, el conjunto transfinito
que es la sociedad es coordinable con el conjunto transfinito que somos
cada uno. Somos reflexivos —podemos reflexionar sobre la sociedad—
en cuanto somos transfinitos, en cuanto no dejamos de pensar. Cuanto
más pensemos, más nos faltará por pensar. Las ciencias sociales son dis-
positivos siempre provisionales, siempre abiertos.
Para acercarse a la realidad social, el investigador puede seleccionar
una sola perspectiva o articular varias. Y aunque nunca podrá resolver la
paradoja de que cuanto más se acerque a la realidad social, más se le es-
capa —porque su acercamiento forma parte de la realidad social—, si ar-
ticula varias perspectivas el investigador podrá al menos acceder a un nú-
mero mayor de dimensiones de esa siempre compleja realidad social. En
consecuencia, podrá comprenderla mejor.
Habitualmente, los libros de texto de introducción a la metodología y a
las técnicas de investigación social suelen presentar con preferencia una
perspectiva u otra de aproximación a la realidad social, olvidando o al me-
nos dejando en un segundo plano las restantes perspectivas. El presente li-
bro, por el contrario, aspira a ofrecer una visión de conjunto de las dife-
rentes perspectivas de investigación social utilizadas de un lado y de otro,
con el propósito manifiesto de que el estudiante y el estudioso de las cien-
cias sociales encuentren en él una aproximación lo suficientemente riguro-
sa, precisa y crítica a los procedimientos más utilizados de investigación de
la realidad social. Aproximación que, por otra parte, aspiramos permita ir
más allá de la simple y, con frecuencia, ingenua dicotomía cuantitativo/
cualitativo, para situar los problemas de la investigación social en planos
epistemológicos más profundos, desde los que acceder mejor al significado
de la siempre problemática y cambiante realidad social.

13
El análisis de la realidad social

No se pretende, con todo, ofrecer un listado exhaustivo de todos los


métodos y técnicas de investigación social, ni responder a todas las críti-
cas que han sido dirigidas al desarrollo de los procedimientos de investi-
gación social. Pero sí, como se ha dicho anteriormente, presentar una vi-
sión articulada y equilibrada de las perspectivas de investigación social
más utilizadas en la actualidad. Para ello, los compiladores, catedráticos
de Sociología en el Departamento de Métodos y Técnicas de Investiga-
ción Social, de la Facultad de Ciencias Políticas y Sociología de la Uni-
versidad Complutense, han solicitado la colaboración de otros profeso-
res universitarios con amplia experiencia de investigación en el campo de
las ciencias sociales en materias en que han mostrado sobrada competen-
cia profesional.
El resultado ha sido la compilación de quince capítulos y dos apéndi-
ces en los que han intervenido catorce autores. Los capítulos se han orga-
nizado en tres partes, dedicadas respectivamente a presentar los proble-
mas metodológicos y de técnicas de investigación que plantean el diseño
de la investigación social, la obtención de datos sociológicos y su análi-
sis. De esta manera se pretende cubrir el temario de lo que puede ser un
curso introductorio de nivel intermedio de técnicas de investigación so-
cial.

MANUEL GARCÍA FERRANDO


JESÚS IBÁÑEZ ALONSO
FRANCISCO ALVIRA MARTÍN

14
Primera parte

El diseño de la
investigación social
1.  Cinco vías de acceso
a la realidad social

Miguel Beltrán

1.  Objeto y método(s) de la sociología

La peculiaridad, complejidad y polivalencia del objeto de conocimiento


de las ciencias sociales le confieren una excepcional especificidad: en di-
cho objeto de conocimiento está incluido el propio estudioso, y se trata
de un objeto que posee subjetividad y reflexividad propias, así como voli-
ción y libertad de los individuos que lo componen; tal objeto de conoci-
miento no es «natural», sino el producto histórico del juego de dichos in-
dividuos en una interacción de lo que el animal humano tiene de
herencia genética y de herencia cultural; un objeto, en fin, reactivo a la
observación y al conocimiento, de una complejidad inimaginable, y com-
puesto de individuos que hablan y se comunican entre sí. Lo que implica
que es necesaria una epistemología pluralista que responda a la variedad
de tales facetas. Y a este pluralismo cognitivo no puede convenir un mé-
todo, un solo método, ni siquiera el diseñado para el estudio de la reali-
dad físico-natural (que es aplicable a algunas de las facetas de la realidad
social, por descontado, pero solamente a algunas de ellas). Por ello, al
pluralismo cognitivo propio de las ciencias sociales, y particularmente de
la sociología, corresponde un pluralismo metodológico que diversifica
los modos de aproximación, descubrimiento y justificación en atención a
la faceta o dimensión de la realidad social que se estudia, en el bien en-

17
El diseño de la investigación social

tendido que ello no implica la negación o la trivialización del método o


su concepción anárquica, sino, por el contrario, la garantía de la fideli-
dad al objeto y la negativa a su reproducción mecánica, a considerarlo
como naturalmente dado del mismo modo en que nos es dado el mundo
físico-natural.
De aquí que más que del método de la sociología se hable en estas pá-
ginas de los métodos de la sociología, y no, desde luego, como intercam-
biables y aleatorios, o en el sentido del «todo vale» de Feyerabend (1974:
passim), sino como adecuados en cada caso al aspecto del objeto que se
trata de indagar. Que en eso consiste el pluralismo metodológico propio
de la sociología.

2.  El método histórico

Es posible que a los sociólogos nos suceda lo que según Hobsbawm le


pasaba a Marshall, que «sabía que la economía necesita de la historia,
pero no sabía cómo introducir la historia en sus análisis», por lo que no
jugaba en ellos más que un modesto papel, poco más que decorativo
(Hobsbawm, 1997: 95). En efecto, la ciencia de la realidad social ha de
recurrir sistemáticamente a la historia. Pero cuando me refiero aquí al
método histórico no quiero decir que la sociología deba incluir entre sus
técnicas de investigación las que son propias del historiador profesional
para reconstruir el pasado e interpretarlo, sino sólo que el sociólogo ha
de interrogarse, e interrogar a la realidad social, acerca del cursus sufrido
por aquello que estudia, sobre cómo ha llegado a ser como es, e incluso
por qué ha llegado a serlo. No se trata de que el sociólogo se introduzca
en campo ajeno o mimetice la actividad del historiador, sino de que ex-
treme su conciencia de la fluidez heraclitiana de su objeto de conoci-
miento, sea cual fuere su tempo, de forma que la variable tiempo se tenga
siempre presente en el estudio de la realidad social. Y no se trata con ello
de consagrar el brocardo baconiano, según el cual veritas temporis filia,
sino más bien de negar a lo social dado la condición de natural y de pro-
fundizar en la conciencia de su contingencia; dicho más brevemente, la
sociología posibilita al menos el cuestionamiento de la necesidad en lo
que se refiere a la organización y los procesos sociales y, literalmente,
permite percibir la historicidad de los fenómenos sociales estudiados. Por
eso tiene tan poco sentido una sociología ahistórica que no se pregunte
de dónde vienen los procesos y las instituciones sociales (y adónde van),
sino que los examine fuera del tiempo. Este tipo de sociología carente de

18
1. Cinco vías de acceso a la realidad social

sensibilidad histórica cree que estudia el presente, cuando éste no tiene


más existencia que la puramente conceptual de línea divisoria imaginaria
entre el pasado y el futuro: esta repetida idea, con la que es difícil no es-
tar de acuerdo, es particularmente aplicable al objeto de la sociología,
pues la sociedad humana ha cambiado tanto de un país a otro y de un si-
glo a otro que se impone considerarla ante todo como un fenómeno his-
tórico (Carr, 1978: 43). De aquí el asombro de Braudel de que los soció-
logos hayan podido escaparse del tiempo, de la duración (1968: 97), lo
que consiguen o bien refugiándose en lo más estrictamente episódico y
événementiel, o bien en los fenómenos de repetición que tienen como
edad la de la larga duración. Y por ello Braudel formula una invitación a
los sociólogos, que apoya de una parte en la consideración de ciencia
global que la sociología tenía para los clásicos y, de otra, en la supera-
ción por los historiadores de una historia limitada a los acontecimientos:
invitación a considerar que sociología e historia constituyen «una sola y
única aventura del espíritu, no el envés y el revés de un mismo paño, sino
este paño mismo en todo el espesor de sus hilos» (1968: 115). La historia,
en efecto, le parece a Braudel una dimensión de la ciencia social, forman-
do cuerpo con ella; desde principios de este siglo, y especialmente en
Francia gracias a los esfuerzos de Berr, Febvre y Bloch, «la historia se ha
dedicado a captar tanto los hechos de repetición como los singulares,
tanto las realidades conscientes como las inconscientes. A partir de en-
tonces, el historiador ha querido ser —y se ha hecho— economista, so-
ciólogo, antropólogo, demógrafo, psicólogo, lingüista [...]; la historia se
ha apoderado, bien o mal pero de manera decidida, de todas las ciencias
de lo humano; ha pretendido ser [...] una imposible ciencia global del
hombre» (Braudel, 1968: 113-114).
Pues bien, no se trata, evidentemente, de asumir esta suerte de impe-
rialismo que caracteriza la primera época de los Annales y reimplantarlo
en la sociología, sino sólo de reconocer con Braudel que con frecuencia
historia y sociología se identifican y se confunden, especialmente por el
carácter global de ambas, y de manera particular en el plano de los fenó-
menos de larga duración y en el del análisis de la estructura global de la
sociedad. Esto era bien comprendido y practicado por la mayoría de los
«padres fundadores» de la sociología, en tanto que la parte más impor-
tante de la investigación llevada a cabo en los años de la que se llamó
«sociología moderna» fue puramente de fenómenos episódicos o atem-
poralmente examinados. Me parece que es preciso reaccionar contra tal
ahistoricismo, y no dudo en suscribir la opinión de Carr: «Cuanto más
sociológica se haga la historia y cuanto más histórica se haga la sociolo-

19
El diseño de la investigación social

gía, tanto mejor para ambas» (1978: 89). Dicho con las palabras de
Hobsbawm, «la ciencia social moderna [...] descuida la experiencia hu-
mana, sobre todo la histórica [...]. Y tal análisis ahistórico, o incluso an-
tihistórico, es con frecuencia inconsciente de ser ciego» (1997: 27), ciego
para descubrir las pautas y los mecanismos del cambio.
Es evidente que cuando reclamo para la sociología la necesaria sensi-
bilidad histórica, e incluso un método histórico, no estoy defendiendo la
necesidad de que los sociólogos hagan predicción histórica, sino más
bien postdicción histórica: esto es, que se esfuercen en ver la formación de
los fenómenos sociales a lo largo del lapso de tiempo conveniente, y que
perciban la duración de la realidad social, tanto en el período corto
como largo, como el ámbito preciso para hablar de los cambios experi-
mentados. Aunque, desde luego, nada se opone a la predicción, salvo que
ésta se convierta en la proclamación profética de un sino histórico tras-
cendente. Es claro que, tanto en el caso de la postdicción como en el de
la predicción, el sociólogo que busca en la historia está buscando facto-
res causales; no, desde luego, la causa que explique maravillosamente lo
que se estudia, sino el conjunto de múltiples causas que siempre rodean
confusamente el proceso de que se trate, por más que en el mejor de los
casos pueda discernirse una cierta jerarquía causal. Y tampoco el soció-
logo que recurre al método histórico ha de limitarse al establecimiento de
puras secuencias temporales que pueden ser perfectamente irrelevantes
en términos causales, sino que ha de explorar en lo posible la variedad de
instancias que hayan podido influir, condicionar o determinar el fenóme-
no que se trae entre manos. Téngase en cuenta que cuando hablo aquí de
indagación de causas estoy muy lejos de sugerir un planteamiento meca-
nicista de la causación que privilegie la exclusividad (una causa) y el au-
tomatismo (la necesidad del sequitur: por el contrario, creo que es mucho
más realista y más científico, aunque mucho menos concluyente, postu-
lar que de ordinario lo que habrá será una multiplicidad de causas ope-
rando en un campo variable y complejo la producción más o menos pro-
bable de determinadas consecuencias; pero por impreciso que pueda
parecer este planteamiento, siempre será más consistente que la conside-
ración de los fenómenos como producidos de la nada en ese momento, o
que la atribución dogmática de una causa porque alguien con autoridad
lo haya dicho, o porque tal mecanismo causal figura en la panoplia de al-
guno de los grandes modelos abstractos al uso. Creo que debe darse
como buena en sociología la recomendación de Polibio: «Donde sea po-
sible encontrar la causa de lo que ocurre, no debe recurrirse a los dioses».
Y seguramente tampoco donde no lo sea, que la ciencia no debe descar-

20
1. Cinco vías de acceso a la realidad social

gar sus responsabilidades sobre quien no ha de protestar por ello. Por úl-
timo, he de hacer notar que cuando indico que el recurso a la historia
implica la búsqueda sin ambages de la explicación causal, no excluyo con
ello en modo alguno la pretensión de comprender el fenómeno en sentido
weberiano: como creo haber puesto de relieve en otro lugar (1979: 368-
382), explicación causal y comprensión no se oponen, y no hay duda de
que las conclusiones que Weber trata de establecer son causales. En todo
caso, y para la justificación del recurso a la historia que aquí me interesa,
tanto en lo que tiene de explicativo como de comprensivo, y tanto en el
estudio del presente como en el intento de predicción del futuro, creo que
Lledó ha expresado magistralmente lo que quiero decir: «Parece, pues,
que el sentido de la historia humana no es la visión pasiva del hecho his-
tórico, sino la actualización de ese hecho en el entramado total de sus co-
nexiones, para atender a lo que el hombre ha expresado en él. Y esa aten-
ción es posible cuando se interpreta el transcurrir humano desde el
pasado que lo proyecta, pero también desde el futuro que lo acoge y de-
termina» (1978: 61-62). Texto al que mis únicas reservas, timoratas si se
quiere, son la utilización del término «total» —por la irrealizable ambi-
ción que implica—, y la noción de que el futuro «determina» el transcu-
rrir humano —por la áspera paradoja que contiene—. Y, por continuar
con Lledó, de los aspectos que propone para la consideración del pasa-
do, entiendo que el más propio al recurso del sociólogo es el que concibe
el pasado como gestador del presente: «lo que somos es, sencillamente, lo
que hemos sido»; de aquí que Bloch pudiera afirmar que la incompren-
sión del presente nace fatalmente de la ignorancia del pasado (véase Lle-
dó, 1978: 71-77). La sociología no puede versar sobre el presente sino
buscando su génesis en el pasado: si ha de haber una sociología del pre-
sente ha de apoyarse en una historia del presente, esto es, en una historia.
El paciente lector habrá observado mi reiteración, hablando como es-
toy del método histórico en sociología, en referirme a ésta como sociolo-
gía del presente. Ello tiene por objeto descartar en este contexto cual-
quier veleidad hacia la sociología de la historia, empeño respetable si los
hay pero que no tiene nada que ver con la necesidad en que insisto aquí
de que el sociólogo tome en cuenta la génesis de lo que estudia. La Sozio-
logie der Geschichte es muy otra cosa, y es claro que al propugnar el mé-
todo histórico en sociología no me refiero a hacer sociología del pasado,
sino a hacer historia de la sociedad presente, y ello en la medida necesa-
ria para poner de manifiesto su génesis: lo que propongo es percibir el
objeto de conocimiento como elemento de un conjunto que está cam-
biando permanentemente, del que es inseparable y del que recibe su sen-

21
El diseño de la investigación social

tido. Obviamente, articular el objeto en su contexto y señalar los cam-


bios de ambos en la flecha del tiempo no es tarea fácil: pero siempre será
más realista y más productiva científicamente que tratar de describir y
explicar el objeto aislado e inmóvil.

3.  El método comparativo

Tradicionalmente se ha venido diciendo que el método comparativo sus-


tituye en las ciencias sociales al imposible o muy difícil método experi-
mental, propio de muchas de las ciencias físico-naturales. En efecto, en el
experimento controlado de laboratorio el químico puede añadir o elimi-
nar una sustancia o cambiar algo, y observar el resultado que se produ-
ce; el sociólogo, en cambio, no puede añadir o suprimir nada en una so-
ciedad para comprobar su efecto: el científico social sólo muy raramente
puede manipular las variables de manera directa, en tanto que gracias al
método comparativo puede «manipular» indirectamente las variables
que le interesa controlar. Pues bien, esto es verdad sólo dentro de ciertos
límites; por una parte, son muchas las ciencias físico-naturales que no
tienen acceso a la experimentación controlada de laboratorio, como la
astronomía; por otra parte, esa «manipulación» indirecta de las variables
que se dice ofrece el método comparativo no es sino una metáfora, ni si-
quiera una analogía: el científico social que compara no manipula nada.
Dejemos, pues, de lamentar que las ciencias sociales no puedan experi-
mentar en un laboratorio, lamento que es simplemente resultado del sen-
timiento de inferioridad que aqueja a muchos científicos sociales respec-
to de los físico-naturales, nacido del equivocado planteamiento de que el
modelo de la ciencia social es la ciencia de la naturaleza. Y, consecuente-
mente, examinemos el método comparativo en sí mismo, no como ersatz
de una experimentación imposible.
El método comparativo es consecuencia de la conciencia de la diversi-
dad: la variedad de formas y procesos, de estructuras y comportamientos
sociales, tanto en el espacio como en el tiempo, lleva necesariamente a la
curiosidad del estudioso el examen simultáneo de dos o más objetos que
tienen a la vez algo en común y algo diferente; pero la satisfacción de tal
curiosidad no va más allá de la taxonomía y la tipificación, y cuando se
habla del método comparativo en las ciencias sociales parece que quiere
irse más lejos de esas básicas operaciones de toda ciencia.
Naturalmente, carece de sentido comparar dos cosas cualesquiera: es
habitual la prudente norma de recomendar un grado suficiente de analo-

22
1. Cinco vías de acceso a la realidad social

gía estructural y de similar complejidad entre los fenómenos que hayan


de confrontarse, así como la necesidad de no desgajar arbitrariamente de
su contexto las instituciones, procesos u objetos culturales que se compa-
ren; pero, como bien dice Duverger, «si se llevaran hasta el fin las exigen-
cias de la analogía se haría imposible todo estudio comparativo» (1962:
418), pues terminarían comparándose sólo cosas idénticas. La compara-
ción se interesa tanto por las diferencias como por las semejanzas (tanto
más por las primeras cuanto la analogía sea mayor), y no siempre versa
sobre objetos diferentes pertenecientes a épocas o ámbitos separados,
sino que en ocasiones se comparan los resultados obtenidos del estudio
de un mismo fenómeno desde perspectivas diferentes: pero, en contra del
parecer de Duverger, dudo que deba emplearse el término «comparati-
vo» para calificar este último tipo de trabajo.
Como señala Rokkan, el interés de los «padres fundadores» por el
método comparativo se perdió entre sus seguidores, y sólo en los años
cincuenta surge de nuevo, esta vez motivado por los esfuerzos en favor de
la integración internacional, de la cooperación política y económica, y
de los programas de ayuda a los países del tercer mundo: esas nuevas de-
mandas de las relaciones internacionales incrementaron la necesidad de
conocimientos acerca de las condiciones sociales, económicas, culturales
y políticas de los más distintos países del mundo y, consecuentemente,
estimularon la investigación comparativa sistemática (1966: 4).
La cuestión de qué pueda o deba compararse, en términos de si ha de
ser la totalidad de los sistemas o algunas de sus partes, ha sido objeto de
discusión, especialmente en el campo de la ciencia política. Riggs, por
ejemplo, entiende que de no tomar en consideración el sistema político
como un todo, debilitaríamos innecesariamente nuestra capacidad de ver
la Gestalt de la política (1970: 76 y 78 ss.). LaPalombara, por el contra-
rio, mantiene que debe seleccionarse un segmento del sistema y organi-
zar a su alrededor las proposiciones teóricas que constituyan el foco para
la indagación empírica (1970: 133), en una posición muy análoga a la del
Merton de las teorías de alcance medio, a quien expresamente cita. Pero
tal discusión, sea cual fuere su valor en el ámbito de la ciencia política,
no es trasladable sin más a la sociología: piénsese lo que significaría estu-
diar el sistema social como un todo, y compararlo sin más con otro todo.
Dejando aparte el problema, más filosófico que otra cosa, de si la socie-
dad como tal, globalmente considerada, es susceptible de ser objeto de
conocimiento de la sociología (esto es, de si es posible una «sociología de
la sociedad»), lo cierto es que la totalidad social sólo ha sido estudiada a
través de esquemas y modelos reductores —cuando no reduccionistas—

23
El diseño de la investigación social

que de hecho la segmentan en algunas líneas o características que se con-


sideran más relevantes que, o determinantes de, las demás. Y todo esto,
evidentemente, en el bien entendido de que el estudio en cuestión es em-
pírico (aunque no necesariamente cuantitativista), esto es, que se remite
a determinadas realidades a cuya comparación se apela. De hecho, la
tradición sociológica se apoya sistemáticamente en exámenes de la reali-
dad social a un nivel de análisis inferior al de la totalidad social, excesi-
vamente compleja para dejarse prender en las mallas de la más ambicio-
sa investigación; lo que no excluye que el investigador respalde su trabajo
con una teoría de la totalidad social. Pienso, pues, que las investigaciones
de alcance medio, que prácticamente son las únicas posibles, necesitan
teorías a su medida, también de alcance medio; pero que aquéllas y éstas
requieren imperiosamente ser respaldadas por teorías de largo alcance,
incluso por teorías generales de la totalidad social en la problemática
medida en que sean posibles. Pero dejemos esto ahora, pues lo único que
quiero destacar aquí es que en ciencia política podrá o no ser posible y
conveniente el estudio y la comparación de sistemas políticos en su con-
junto, considerados como un todo; pero en sociología tal empeño referi-
do a totalidades sociales, en lugar de a rasgos o dimensiones determina-
dos, no parece viable.
La necesidad de no ser excesivamente ambiciosos en el acotado de lo
que se compara ha llevado a cierta desconfianza de las comparaciones
interculturales, e incluso de las internacionales aun dentro de la misma
área cultural, originándose así una corriente de interés en favor de las
comparaciones internacionales de diferencias intranacionales. Como di-
cen Linz y De Miguel, la comparación puede versar sobre dos aspectos
de un mismo país, sobre dos aspectos de dos países diferentes, o sobre el
resultado de la comparación de dos aspectos de un país con el resultado
de la comparación de dichos dos aspectos en otro país (1966: 270). Y
todo ello porque, siendo las sociedades a comparar muy heterogéneas,
cualquier «media» (estadística o no) enmascarará la situación real. La
comparación internacional, y no digamos la intercultural, ha de tener
siempre in mente la existencia de diferencias intranacionales más o me-
nos grandes, tan grandes a veces que despojan de sentido a todo intento
comparativo que no cuente con ellas, y cuya ignorancia conduce a extra-
polaciones completamente gratuitas de, por ejemplo, el proceso de desa-
rrollo económico experimentado por una sociedad a otra diferente. «La
heterogeneidad interna, la diferenciación regional y los desequilibrios en
el desarrollo constituyen algunas de las características esenciales de mu-
chas sociedades, y son responsables de muchos de sus problemas» (Linz

24
1. Cinco vías de acceso a la realidad social

y De Miguel, 1966: 272): no pueden, pues, ignorarse en el caso de preten-


der llevar a cabo comparaciones internacionales, e incluso deben consti-
tuir expresamente el objetivo de tales comparaciones.
No sé si, como alguien ha dicho, la sociología comparativa está de
moda (Caïs, 1997: 7). Pero, desde luego, el incluir el método comparativo
entre las principales «cinco vías» para el acceso a la realidad social no
responde a moda alguna, sino a la convicción de que la ciencia social exi-
ge examinar y comparar muchas sociedades, nunca limitarse a contem-
plar la propia.

4.  El método crítico-racional

Defendiendo posiciones de formalismo ético y de moral universalista


frente al neoconservadurismo, Habermas cree exponerse «a la acusación
de ser un crítico utópico, ansioso de poder, que trata de dictar e imponer
a los infelices sujetos el conocimiento de lo que habrían de considerar sus
“verdaderos” intereses» (1991: 91). No voy a recoger aquí la argumenta-
ción con que se exonera de tal imputación, sino sólo a destacar mi con-
vicción de que la sociología puede y debe acceder de manera normativa a
esa dimensión de la realidad social en la que se establecen y discuten los
fines para la vida buena, y de que con ello carece de toda pretensión de
decirle a la gente qué es lo que le conviene, limitándose a «señalar crite-
rios de racionalidad conforme a los que enjuiciar el ethos de las formas
de vida existentes» (Habermas, 1991: 82). Trato, pues, de propugnar aquí
que las ciencias sociales, y en particular la sociología, tienen como parte
de su objeto de conocimiento la consideración de los fines sociales, cuya
discusión racional les es propia, negando así que éstos hayan de ser rele-
gados a una discusión meramente ideológica. Pero vayamos por partes a
tan difícil cuestión.
En 1937 señalaba Horkheimer en un famoso artículo que «las varias
escuelas de sociología tienen idéntica concepción de la teoría, y ésta es la
de las ciencias naturales [...]. En esta concepción de la teoría, la función
social realmente cumplida por la ciencia no se hace manifiesta; no se ex-
plica lo que la teoría significa para la vida humana» (1976: 209 y 212).
Tal planteamiento, rechazado por el autor, parte de que los científicos se
dedican a actividades meramente clasificatorias y consideran la realidad
social como extrínseca, enfrentándola como científicos y no como ciuda-
danos; consecuentemente, la realidad se concibe como consistente en da-
tos que han de ser manejados, sin mayor implicación de la actividad

25
El diseño de la investigación social

científica en la organización racional de la actividad humana para la


construcción de un mundo que satisfaga las necesidades de los hombres.
Frente a esta concepción tradicional o positivista de la ciencia, Horkhei-
mer opone la teoría crítica, que «nunca busca simplemente un incremen-
to del conocimiento como tal: su objetivo es la emancipación del hombre
de la esclavitud» (1976: 224). El mismo autor sostuvo en 1947 que el po-
sitivismo científico implica consagrar la que llama razón subjetiva o ins-
trumental y rechazar la razón objetiva: se considera que la tarea de la ra-
zón «consiste en hallar medios para lograr los objetivos propuestos en
cada caso» (1973: 7), sin reparar en qué consiste en cada caso el objetivo
específico propuesto; la razón tiene así que habérselas tan sólo «con la
adecuación de modos de procedimiento a fines que son más o menos
aceptados y que presuntamente se sobreentienden» (1973: 15). Los fines
no son, pues, manejables por la razón instrumental, esto es, por la cien-
cia positivista: constituyen algo dado, sobreentendido; la ciencia se ocu-
pa de clasificar y deducir, de adecuar medios a fines. En contraste con
ello, la ciencia articulada como razón objetiva debe enfocarse sobre «la
idea del bien supremo, del problema del designio humano y de cómo rea-
lizar las metas supremas» (1973: 17). De no ser así resultaría que «no
existe ninguna meta racional en sí, y no tiene sentido entonces discutir la
superioridad de una meta frente a otras con referencia a la razón» (1973:
17-18), lo que implicaría la abdicación de la ciencia de lo que constituye su
objetivo más importante: cooperar con la filosofía en la determinación de
las metas del hombre. Si tal abdicación se produce (y se produce, en efecto,
en la ciencia social positivista que se pretende value free), entonces «el pen-
sar no sirve para determinar si algún objetivo es de por sí deseable [...]; los
principios conductores de la ética y la política [...] llegan a depender de
otros factores que no son la razón. Han de ser asunto de elección y de pre-
dilección, y pierde sentido el hablar de la verdad cuando se trata de deci-
siones prácticas» (1973: 19). «Los fines ya no se determinan a la luz de la
razón [...], nuestras metas, sean cuales fueren, dependen de predilecciones y
aversiones que de por sí carecen de sentido» (1973: 42 y 47).
Cuando el positivismo relega los fines humanos a las tinieblas exterio-
res (esto es, cuando niega que la ciencia pueda ocuparse de valores «va-
liendo»), limita la razón al papel puramente instrumental de enjuiciar la
adecuación de medios diversos a fines dados. Lo que el positivismo con-
sagra es la no racionalidad de la esfera de los fines, y lo que la teoría crí-
tica reivindica es justamente la restitución de los fines del hombre al ám-
bito de la racionalidad, esto es, de la ciencia: recuperar para los fines
humanos, para los valores y para el deber ser, un lugar en la ciencia; esto

26
1. Cinco vías de acceso a la realidad social

es, que la ciencia recobre su competencia para la consideración racional


de los fines del hombre, lo que implica reclamar para la ciencia el ejerci-
cio de la reflexión racional, y no sólo la práctica del empirismo positivis-
ta que se niega a ir más allá de los hechos. Esto es lo que significa en últi-
mo extremo la expresión «teoría crítica», frente a la «celebración de la
sociedad tal como es», en la conocida frase de Mills.
Pues bien, este reclamar para la ciencia social el ejercicio de la racio-
nalidad en la consideración de los fines, en este caso de los fines sociales,
es tanto como decir que uno de los métodos de la sociología ha de ser el
crítico-racional. Se trata, como a la vista está, de discutir y apreciar la
racionalidad de los fines, cuestión de la que la ciencia positivista no quie-
re saber nada, ya que es una cuestión de valores, por lo que se limita a la
de la racionalidad de los medios en términos de su adecuación a fines da-
dos: es decir, a una racionalidad instrumental planteada como cuestión
meramente técnica.
Pero debe quedar claro desde el primer momento que la consideración
de la racionalidad de los fines no implica ningún contenido dogmático,
en el sentido —vulgar si se quiere— de que la ciencia social hubiera de
suplantar la decisión política, llegándose con ello a la engañosa utopía
del gobierno de los sabios. Por el contrario, de lo que se trata es del ejer-
cicio racional de la crítica de fines, de la negación a lo existente de su
postulada condición de orden natural necesario, de mostrar el pedestal
de barro en que descansan los idola de todo tipo. La consideración de la
racionalidad de los fines sociales no tiene por objeto absolutizar ninguno
de ellos, sino más bien corromper la fe en el pretendido carácter absoluto
de alguno de ellos. Y me apresuro a decir que no se trata de que a la cien-
cia social pueda darle igual un fin que otro: siempre la justicia será mejor
que la injusticia o la libertad mejor que la opresión, y la ciencia social de-
berá señalar la injusticia implícita en posiciones que se pretenden justas,
o los recortes a la libertad que se presenten como conquistas de la liber-
tad. No hay, pues, vestigio alguno de relativismo axiológico en la nega-
ción del dogmatismo, sino sólo la constatación de que el papel normativo
de la ciencia social es más bien de crítica que de propuesta, y que, en el
caso de esta última, tratará de defender valores y no programas políticos
concretos. No se trata, pues, de arropar con el eventual prestigio de la
ciencia opciones políticas concretas que se presentarían públicamente
como decididas, sino de someter a discusión racional los fines propuestos
y sus alternativas. Y no cabrá normalmente esperar una posición unáni-
me de la comunidad científica en cada punto sujeto a discusión, del mis-
mo modo que no existe tal unanimidad ni siquiera en el pretendido ám-

27
El diseño de la investigación social

bito neutral exento de valoraciones en que la ciencia social positivista


afirma moverse. El método crítico-racional no comporta el que la ciencia
social como tal asuma la tarea de fijar los fines sociales, sino sólo que los
fines sociales sean susceptibles de una consideración científica racional y
crítica. E insisto una vez más: contra el método crítico-racional no hay
más argumento que el empírico-positivista de rechazar el mundo de los
valores, argumento de cuya inanidad estoy completamente convencido
por razones que no es del caso repetir aquí. Y siendo esto así, nada exige
a la ciencia social que renuncie a la razón objetiva o sustantiva, recluyén-
dose en una mera razón instrumental que acepte como dados y considere
indiscutibles los fines sociales establecidos por puras razones de preferen-
cia o de intereses; por el contrario, la ciencia social debe reivindicar su
discusión.
No estará de más indicar que cuando Weber habla de Zweckrationali-
tät, o racionalidad de fines, se está refiriendo a una de las formas que
puede revestir la acción social, dos de las cuales considera racionales:
una de ellas lo es como respuesta a las exigencias que sus convicciones
imponen al actor, quien actúa de acuerdo con ellas sin consideración a
las consecuencias previsibles de sus actos: ésta es la acción racional con
arreglo a valores. La otra, racional con arreglo a fines, es racional en la
medida en que sopesa y calcula las consecuencias previsibles de la acción
que tiene por objeto alcanzar un fin determinado. En cierta medida,
pues, y por paradójico que parezca, podría decirse que la racionalidad de
fines de que habla Weber es en realidad una racionalidad de medios, ins-
trumental, pues más bien que determinar los fines lo que hace es perse-
guir fines ya determinados; en tanto que la que llama Wertrationalität, o
racionalidad de valores, consiste en la constitución de un valor en el pa-
pel de fin: más que alcanzar un fin propiamente dicho, la acción racional
con arreglo a valores lo que pretende es dar satisfacción a un valor «va-
lioso», sean cuales fueren sus consecuencias. Como vemos, pues, ninguno
de los dos tipos de racionalidad considerados se postula como capaz de
seleccionar racionalmente entre fines alternativos: si acaso, y de manera
oscura, lo pretende la racionalidad con respecto a fines, pero —si no lo
entiendo mal— como adecuación de fines de orden intermedio para
otros fines de orden superior, esto es, como mera racionalidad instru-
mental. Resultaría así confirmada la posición weberiana de atribuir la
decisión entre fines al homo volens valorador, y no al discernimiento ra-
cional de la ciencia: ciencia y política serían así dos vocaciones separa-
das, y la primera no tendría nada que decir en el ámbito de la segunda,
salvo meras consideraciones técnicas. Pues bien, en otro lugar he conclui-

28
1. Cinco vías de acceso a la realidad social

do que Weber no resuelve satisfactoriamente el problema de una ciencia


social wertfrei, pese a la muy prolija y complicada fórmula con que esta-
blece la relación de la ciencia social con los valores (véase Beltrán, 1979:
36-55), y no es de extrañar que encontremos de nuevo la misma limita-
ción, tanto más cuando Weber se refiere a las formas de racionalidad de
la acción social y no a la racionalidad de la ciencia. La consecuencia, a
mi modo de ver, es que Weber considera la elección entre fines alternati-
vos como algo que pertenece primordialmente, si no totalmente, al ámbi-
to externo a la acción que estima racional; para la orientada a valores, el
objetivo de la acción es dar satisfacción a un valor exigido, o autoexigi-
do, al actor, y por tanto previo al planteamiento de la acción; para la
orientada a fines, el objetivo de la acción es alcanzar determinado estado
de consecuencias, y lo racional es justamente el proceso por el que se al-
canzan las consecuencias queridas y no otras. Pues bien, lo que me pare-
ce que falta en la consideración weberiana es la acción racional de crítica
y valoración de fines, con vistas a su selección racional; y me temo que
falta porque, heredero en este punto tanto de la tradición positivista
como de la neokantiana, Weber entiende que el tema de la elección de fi-
nes entra de lleno en el campo en que se libra la «guerra de los dioses» y
no en el campo de la ciencia. Con lo que, para evitar la embarazosa con-
clusión de que la elección ha de ser irracional, no queda otro camino que
el de la ambigüedad: como es el caso de Aron cuando sostiene que «la
necesidad de la elección [...] no implica que el pensamiento esté pendien-
te de decisiones esencialmente irracionales y que la existencia se cumpla
en una libertad no sometida ni siquiera a la Verdad» (1967: 77). Pues
bien, no basta escribir la palabra «verdad» con mayúscula para resolver
el problema: éste sólo se resuelve (planteando otros, naturalmente) al re-
conocer a la ciencia social la dimensión metodológica crítico-racional
que aquí se postula.
Reconocimiento que, ciertamente, no puede ser pacífico ni aproblemá-
tico, como lo acredita la polémica histórica que enfrenta al racionalismo
con otras posiciones filosóficas, fundamentalmente el empirismo; aquí
nos interesa sólo, claro es, el racionalismo gnoseológico, si bien en una
versión moderada que no excluye el empirismo, del mismo modo que los
grandes empiristas ingleses, como Locke y Hume, no se opusieron al ra-
cionalismo, sino a su hipertrofia (particularmente a sus formas metafísi-
cas, que sostienen la racionalidad de lo real). El racionalismo, pues, ha
de considerarse en el contexto de una teoría del conocimiento que no se
agote en el empirismo; su apoyo radica sobre todo en la tradición ilustra-
da, que concibe a la razón como luz mediante la que el hombre puede di-

29
El diseño de la investigación social

solver la oscuridad que le rodea. Como indica Ferrater, «la razón del si-
glo xviii es a la vez una actitud epistemológica que integra la experiencia
y una norma para la acción moral y social» (1979: 2762): de aquí la inse-
parable referencia crítica que acompaña al racionalismo, y la denomina-
ción de «crítico-racional» que vengo utilizando para el método a que me
refiero. No se trata, pues, de enfrentar como mutuamente excluyentes a
racionalismo y empirismo, pues a fin de cuentas el empirismo no es un
simple contacto sensible con lo exterior, sino que es un modo específico
de ejercitar la luz de la razón; y una y otra posición, racionalista y empi-
rista, están en la base de métodos que aquí se predican como propios de
la sociología. Una y otra son, a mi modo de ver, posiciones complemen-
tarias, y el papel del racionalismo consiste precisamente en ir más allá de
lo dado, en penetrar en el mundo de los valores y de las opciones morales
para el necesario ejercicio de la crítica de fines.

5.  El método cuantitativo

No todas las ciencias físico-naturales descansan íntegramente sobre la


apreciación cuantitativa de los fenómenos, pues una parte mayor o me-
nor de su investigación y del conocimiento que producen es cualitativa.
No obstante, podría decirse que tales ciencias son primordialmente
cuantitativistas, en el sentido de que la medición, el resumen estadístico,
la prueba de sus hipótesis y, en general, el lenguaje matemático constitu-
yen características habituales de su trabajo. Es desde este punto de vista
desde el que puede decirse que las ciencias físico-naturales se caracteri-
zan por el empleo de métodos cuantitativos, e incluso cabe afirmar con
cierta licencia que utilizan generalmente «el método cuantitativo»: con-
tar, pesar y medir, con todo el extraordinario grado de sofisticación y re-
finamiento que caracteriza a tan simples operaciones cuando son lleva-
das a cabo por la ciencia. Los fenómenos y las relaciones entre
fenómenos deben expresarse de forma matemática, esto es, cuantitativa-
mente, y la prueba de las hipótesis se expresa igualmente en términos de
probabilidad frente a las leyes del azar, también cuantitativamente; sólo
de esta forma toman en consideración las ciencias físico-naturales la des-
cripción o explicación de un fenómeno, o la acreditación de una hipóte-
sis. Los protocolos de la investigación científico-natural consisten habi-
tualmente en mediciones de lo observado, en apreciaciones estadísticas
de relevancia, en determinaciones matemáticas de la relación existente
entre unas y otras variables, y en valoraciones o test probabilísticos de las

30
1. Cinco vías de acceso a la realidad social

conclusiones o predicciones establecidas. De esta forma, y por diferentes


que sean sus objetos de conocimiento, las ciencias físico-naturales tienen
en común una actitud y unos procedimientos de naturaleza cuantitativa,
aptos por tanto para ser formalizados matemáticamente. Por supuesto,
tales procedimientos no son los únicos que estas ciencias manejan, pero
sí son los más importantes; junto al que aquí vengo llamando «método
cuantitativo», también se utilizan otros métodos, pero no son éstos los
característicos de la ciencia natural.
Las ciencias sociales, por su parte, pueden y deben utilizar el método
cuantitativo, pero sólo para aquellos aspectos de su objeto que lo exijan
o lo permitan. Desde dos puntos de vista se ha vulnerado esta adecua-
ción del método con el objeto: por una parte, un cierto humanismo deli-
rante ha rechazado con frecuencia cualquier intento de considerar cuan-
titativamente fenómenos humanos o sociales, apelando a una pretendida
dignidad de la criatura humana que la constituiría en inconmensurable;
del lado contrario, una actitud compulsiva de constituir a las ciencias so-
ciales como miembros de pleno derecho de la familia científica físico-
natural ha llevado a despreciar toda consideración de fenómenos que no
sea rigurosamente cuantitativa y formalizable matemáticamente: «si no
mide, no es científico». Espero que resulte obvio que una y otra actitud,
la humanista y la naturalista (por llamarlas así), traicionan la peculiari-
dad del objeto de conocimiento de las ciencias sociales, que impone en
unos de sus aspectos la consideración cuantitativa y la impide en otros;
es el objeto el que ha de determinar el método adecuado para su estudio,
y no espurias consideraciones éticas desprovistas de base racional o cien-
tifismos obsesionados con el prestigio de las ciencias de la naturaleza.
El hombre y la sociedad humana presentan múltiples facetas a las que
conviene el método cuantitativo: todas aquellas en que la cantidad y su
incremento o decremento constituyen el objeto de la descripción o el
problema que ha de ser explicado; esta afirmación, que a primera vista es
una platitud, implica, sin embargo, que, si bien el problema puede ser de
cantidad, quizá la explicación no tenga por qué ser cuantitativa; piénse-
se, por ejemplo, en un problema demográfico (cuantitativo) y en su expli-
cación sociológica (que muy bien puede no ser cuantitativa, esto es, suje-
ta a medición, a apreciación estadística y a prueba probabilística). Pero,
en todo caso, lo que aquí me importa es destacar la necesaria utilización
del que vengo llamando método cuantitativo para el estudio de determi-
nados aspectos de la realidad social. Y se me perdonará si indico lo que
es verdad de perogrullo: método cuantitativo y empirismo no son la mis-
ma cosa. En efecto, el método cuantitativo es siempre empírico, pero no

31
El diseño de la investigación social

es cierto lo contrario, pues empírica es también la investigación cualitati-


va, en la medida en que no es puramente especulativa, sino que hace re-
ferencia a determinados hechos. Y no empírica, o no inmediatamente
empírica, sería aquella investigación o reflexión de corte filosófico, lógi-
co o valorativo en que el referente fáctico fuese lejano o pretextual. No
creo necesario insistir en que el método crítico-racional, del que me he
ocupado anteriormente, debe ser considerado empírico, ya que se ocupa
de propuestas concernientes a los fines de la vida social, por más que en
él jueguen inevitablemente elementos valorativos: pero su objeto de co-
nocimiento (las propuestas que se someten a discusión crítica) «está
ahí». La sociología es una ciencia empírica, y el que pueda utilizar la vía
crítico-racional para acceder a ciertos aspectos de la realidad social pone
de manifiesto que, aun siendo empírica, no se acomoda al modelo de las
ciencias físico-naturales, ya que la complejidad de su objeto se lo impide.
Pues bien, la investigación sociológica que haya de habérselas con datos
que sean susceptibles de ser contados, pesados o medidos tendrá que utili-
zar una metodología cuantitativa, aplicada bien sobre datos preexistentes,
ofrecidos por muy diversas fuentes (practicando así lo que llamamos «aná-
lisis secundario»), bien sobre datos producidos ad hoc por el propio inves-
tigador (datos que llamamos primarios). Las técnicas de medida, de cons-
trucción de índices e indicadores, de manejo estadístico de masas más o
menos grandes de datos, de análisis matemático de dichos datos casi siem-
pre con vocación de análisis causal, y de contrastación probabilística de hi-
pótesis, son o pueden ser comunes tanto al análisis secundario como al de
datos primarios. He utilizado para nombrar a tales operaciones el término
de «técnicas», pues entiendo que no son sino modos, pasos o procesos del
método cuantitativo, subordinados a su propósito; en la práctica se habla,
sin embargo, de cosas tales como «el método del path analysis» o «el méto-
do de Kolmogorov-Smirnov», cuando más que de métodos propiamente
dichos se trata de meras técnicas o, incluso, de simples procedimientos.
Pero no discutamos aquí sobre palabras, y quede remitido el lector a la
abundante literatura metodológica cuantitativista existente.
Definía anteriormente el trabajo con datos primarios como el método
cuantitativo que versa sobre datos ad hoc producidos por el propio inves-
tigador; la forma más característica de tal producción es la encuesta, en
la que se acostumbra a interrogar a una muestra de individuos estadísti-
camente representativa de la población que interesa estudiar, pidiéndoles
respuesta, por lo general de entre un repertorio cerrado, a una serie de
preguntas acerca de sus actitudes y opiniones sobre determinadas cues-
tiones, así como acerca de ciertos atributos, variables, conocimientos y

32
1. Cinco vías de acceso a la realidad social

actuaciones que les corresponden, conciernen, o han llevado a cabo pre-


viamente. Señala Rokkan que en la primera fase de la utilización de en-
trevistas en masa, empleadas con fines de estudios de mercado, los infor-
mes elaborados se limitaban a indicar el porcentaje de entrevistados que
contestaban de acuerdo con cada uno de los items propuestos (esto es, a
ofrecer los datos que hoy llamamos «marginales»), con lo que: «el mode-
lo subyacente de público era plebiscitario e igualitario. Los investigado-
res de la opinión partieron de la premisa básica de la democracia de su-
fragio universal: “un ciudadano, un voto, un valor”. Igualaron los votos
con otras expresiones de la opinión, y dieron el mismo valor numérico a
cada una de tales expresiones, tanto si se articulaban con independencia
de cualquier entrevista como si se manifestaban en el curso de una de
ellas. La suma total de expresiones era presentada como una estimación
de la “opinión pública” acerca de la cuestión de que se tratase. El objeti-
vo perseguido con toda claridad no era solamente clasificatorio y enume-
rativo, sino identificar “la voluntad popular” a través de entrevistas por
muestreo, en lugar de hacerlo a través de elecciones y referenda. Para los
pioneros como George Gallup y Elmo Roper, la encuesta era esencial-
mente una nueva técnica de control democrático; las entrevistas contri-
buían a sacar a la luz la voluntad de la “mayoría no organizada ni articu-
lada”, como un poder compensador de la presión ejercida por muchos
intereses minoritarios» (1966: 16).
El modelo «un ciudadano, una opinión» fue siendo gradualmente
abandonado, de modo que hacia el final de la década de los cincuenta la
práctica de los investigadores de la opinión comenzó a reflejar los mode-
los diferenciados de formación de la opinión elaborados por psicólogos,
sociólogos y politólogos; en resumidas cuentas, lo que se abría paso era
la noción de la existencia de distintos «públicos» en el seno del electora-
do: la preocupación por la edad, el sexo, el nivel de educación del res-
pondente, su interés respecto de la cuestión planteada, etcétera, se con-
virtieron en criterios básicos para la valoración de las respuestas
obtenidas, corrigiéndose en este sentido la primitiva concepción de la
opinión pública como un simple agregado aritmético de respuestas. Por
otra parte, un mejor conocimiento de los mecanismos de la entrevista
ponía de manifiesto cómo el entrevistador mismo condicionaba las res-
puestas del entrevistado, y con qué frecuencia éste formulaba sus res-
puestas prácticamente al azar, sin que expresaran convicción alguna ni
estuvieran apoyadas por una mínima información y reflexión previas.
Por otra parte, la encuesta como técnica de investigación característi-
ca del método cuantitativo viene siendo objeto de variadas discusiones,

33
El diseño de la investigación social

de las que no estará de más recoger aquí, aunque sólo sea como ejemplo,
que Richard Lewontin, biólogo especialista en genética de poblaciones y
reputado epistemólogo, llevó a cabo una minuciosa crítica de una en-
cuesta sobre las prácticas sexuales en los Estados Unidos. En ella señala
que la entrevista es una interacción social en la que el entrevistado no
dice necesariamente la verdad al entrevistador, ya que incluso no se la
dice a sí mismo. A juicio de Lewontin, se intenta hacer sociología como
si fuera una ciencia físico-natural, olvidando que la primera tiene un ob-
jeto de conocimiento más complejo que las segundas, del mismo modo
que la biología lo tiene de mayor complejidad que la física: «Los sociólo-
gos se ocupan de los fenómenos más complejos y difíciles en los organis-
mos más complejos y recalcitrantes, sin la libertad de manipularlos de que
gozan los científicos naturales» en sus laboratorios (Lewontin, 1995: 9, 44),
con lo que su situación es mucho más desfavorable para la práctica cien-
tífica que la de sus colegas de las ciencias físico-naturales.
Dejando aparte los muchos problemas que plantea la formación de
escalas y la determinación de índices y tipos, el análisis de la agregación
cuantitativa de opiniones individuales goza de una larga tradición de
simplicidad a través de su presentación en forma de tabulaciones porcen-
tuales cruzadas, en las que una de las entradas corresponde a la variable
presuntamente independiente, y la otra a la dependiente; pero incluso las
más complejas tablas de este tipo, con tres o quizá cuatro variables, no
son capaces sino de establecer la dirección de la relación entre dos de
ellas o dos grupos de ellas, sin muchas posibilidades de apreciar el juego
conjunto y diferenciado de una serie más o menos grande de variables in-
dependientes o intervinientes (dificultad que, dicho sea de paso, afecta de
parecida manera a la correlación y regresión simples). De aquí que este
tipo de análisis esté siendo sustituido últimamente por formas mucho
más refinadas de análisis multivariable, que persigue precisamente la
identificación de procesos multicausales, atribuyendo a cada una de las
variables presuntamente independientes su cuota de responsabilidad en
el proceso estudiado. El inconveniente obvio de tales procedimientos es
el exceso de fe en su sofisticación estadística, que lleva al olvido de que
toda la complejidad analítica descansa sobre una construcción hipotética
llevada a cabo por el investigador, sobre la definición de sus variables y
su modo de relación, y en último extremo sobre la calidad de los datos
de base. Parece como si una vez ordenados los datos en una matriz su-
frieran un doble proceso de abstracción y purificación que los convirtiera
sin más en «científicos», o como si una vez formalizadas las relaciones
entre variables en un grafo se convirtieran en relaciones indiscutibles;

34
1. Cinco vías de acceso a la realidad social

pero éste es el riesgo de cientifismo que siempre acecha al método cuanti-


tativo, y contra el que hará bien en estar críticamente prevenido el inves-
tigador.

6.  El método cualitativo

El método cualitativo es uno de los métodos científicos propios de las


ciencias sociales, y en este caso sólo de las ciencias sociales, ya que sólo
la especie humana vive dentro de una realidad que no es sólo material,
sino simbólica. En efecto, la realidad social está constituida por elemen-
tos materiales y simbólicos, en una mezcla interactiva que sólo a efectos
analíticos es separable. Voy a tratar, pues, de un método, que requiere po-
der dirigir a la realidad social una mirada hermenéutica, una mirada ca-
paz de percibir el significado que las cosas (y los discursos) tienen para
nosotros: su dimensión cualitativa.
Tanto por lo que se refiere al objeto de conocimiento como al método
que le sea adecuado, cantidad y cualidad se sitúan en dos planos comple-
tamente diferentes, y basta con afirmar el método cualitativo junto al
cuantitativo, dejando que sea el objeto de conocimiento el que lo justifi-
que y reclame en función de sus propias necesidades, perfectamente dife-
renciadas. Esta determinación por el objeto, esto es, por el aspecto o
componente del objeto de que se quiera dar razón, implica que uno y
otro método han de calificarse de empíricos, aunque en uno, el cualitati-
vo, se trate de «establecer identidades y diferencias» y el lenguaje sea ele-
mento constitutivo del objeto, mientras que en el otro, el cuantitativo, se
«cuenten unidades» y no se haga cuestión del lenguaje; pero en ambos
casos es necesaria la observación del objeto como «proceso de produc-
ción de datos» (en feliz expresión de Ibáñez: 1979: 38), aun cuando, tam-
bién en ambos casos, no pueda ocultarse al investigador que no hay da-
tos inmediatos, sino que todos están lingüísticamente producidos, esto
es, mediados. En efecto, como señala Ibáñez, no sólo los datos primarios
son ante todo una enunciación lingüística (la encuesta no registra como
datos otros fenómenos que los que ella misma produce), sino incluso los
secundarios, producidos en todo caso por medios técnicos que implican
determinaciones verbales. Desde este punto de vista sí puede sostenerse
la preeminencia del método cualitativo sobre el cuantitativo, en la medi-
da en que opera a partir de la «renuncia a la ilusión de la transparencia
del lenguaje»; en tanto que el método cuantitativo se contenta con la
ruptura estadística, sin llegar a ser consciente de que los hechos que ma-

35
El diseño de la investigación social

neja se manifiestan en un lenguaje estructurado. Pero, insisto, no me in-


teresa aquí establecer prelaciones, sino concurrencias; los métodos empí-
ricos cuantitativo y cualitativo son, cada uno de ellos, necesarios in sua
esfera, in suo ordine, para dar razón de aspectos, componentes o planos
específicos del objeto de conocimiento. No sólo no se excluyen mutua-
mente, sino que se requieren y complementan, tanto más cuanto que el
propósito de abarcar la totalidad del objeto sea más decidido.
Aun a riesgo de parecer reiterativo quiero insistir en una confusión
que es consecuencia del diferente uso que la expresión «datos cualitati-
vos» tiene a veces en sociología y en estadística. Para la primera son cua-
litativos los datos de los discursos, lo que tiene relevancia para el signifi-
cado, las representaciones, las construcciones simbólicas, y todo lo
relativo al lenguaje y al sentido que éste vehicula; por decirlo con las pa-
labras de Alonso, la investigación cualitativa «se instala de este modo en
el lenguaje, pero no sólo en su dimensión indicativa, sino en su función
creativa de irradiación de sentido» (1998: 29); dicho sumariamente, la di-
mensión cualitativa de la realidad social reside básicamente en los discur-
sos producidos por los sujetos sociales. En cambio, para los estadísticos
son datos cualitativos o atributos los que manifiestan propiedades nomi-
nales (estado civil, por ejemplo) u ordinales (nivel de estudios, por ejem-
plo) que expresan la presencia de una determinada cualidad o de un
principio de ordenación, pudiéndose «medir» sólo su frecuencia, y lle-
vándose a cabo el análisis de su asociación o independencia mediante ta-
blas de contingencia; todo ello por contraste con los datos cuantitativos,
correspondientes a variables medidas en escalas de intervalo (salarios,
por ejemplo) o en escalas de razón con punto de origen de valor cero
(edad, por ejemplo), apreciándose su eventual asociación o independen-
cia mediante la correlación, y la forma que revista tal dependencia me-
diante la regresión.
Una de las prácticas cualitativas más características es el llamado
«grupo de discusión», al que Ibáñez dedica su libro, y que es definido
como «una confesión colectiva» (1979: 45) que deja inmediatamente de
serlo, o de parecerlo, ya que «el sujeto del enunciado dejará de ser el suje-
to de la enunciación: se hablará en grupo, en segunda o tercera persona,
de cualquier cosa» (1979: 123); esta técnica, heredera con la también
cualitativa entrevista en profundidad de la sesión de psicoanálisis o clíni-
ca, se emparenta con las técnicas de grupo ampliamente utilizadas en el
campo de las relaciones humanas. Para Ibáñez, en el grupo de discusión
se dan dos niveles de discurso: uno primero o empírico, en el que el gru-
po se manifiesta, y otro segundo o teórico, que habla del discurso de pri-

36
1. Cinco vías de acceso a la realidad social

mer nivel y que permite interpretarlo o analizarlo. «La interpretación es


una lectura: tiende a descifrar lo que la realidad dice —como si la reali-
dad hablara—. El análisis es una escritura: desconstruye el “discurso”
(ideología) de la realidad, reconstruyendo con sus piezas otro discurso
[...]; el grupo es el lugar privilegiado para la lectura de la ideología domi-
nante» (1979: 126). La discusión que tiene lugar en el grupo, provocada
por el investigador, convierte en objeto de conocimiento la ideología del
grupo, y ello, según cree Ibáñez, con una importante particularidad: así
como la encuesta no traspasa el contenido de la conciencia, el grupo de
discusión explora el inconsciente (1979: 130). Además, así como el dise-
ño de la encuesta es cerrado (todo está previsto de antemano, salvo la
distribución de frecuencias), el del grupo de discusión es abierto, y en el
proceso de investigación está integrada la realidad concreta del investiga-
dor. Las personas que han de formar parte de un grupo de discusión (en-
tre cinco y diez) requieren un cierto equilibrio entre homogeneidad y he-
terogeneidad que haga posible y fructífera la interacción verbal; su
selección no se confía al azar, sino que, determinadas previamente las cla-
ses de informantes y su distribución en grupos (y son necesarios relativa-
mente pocos grupos para llevar a cabo una investigación), se les invita a
participar a través de canales concretos, particulares y preexistentes; el in-
vestigador o «preceptor» propone la cuestión a discutir y se abstiene des-
pués de toda intervención, salvo las estrictamente necesarias para catalizar
o controlar la discusión, que se registra para su análisis posterior: «El gru-
po (microsituación) produce un discurso que se refiere al mundo (macrosi-
tuación)» (1979: 347). En dicho análisis, el investigador es un sujeto en
proceso que se integra en el proceso de investigación; para reducir a uni-
dad la masa de datos obtenida no cuenta con ningún procedimiento algo-
ritmizado, ni con reglas a priori que le indiquen cómo ha de proceder, sino
con su intuición y con una constante vigilancia epistemológica que analice
las condiciones que le mueven a interpretar como lo hace. Como dice el
autor: «La interpretación es una lectura: escucha de una realidad que ha-
bla. Por eso parte de la intuición. Como punto de partida, el investigador
intuye [...] Pero, en una segunda operación (análisis), debe evaluar esas in-
tuiciones. Frotar sus intuiciones contra las teorías construidas —o cons-
truibles—, verificarlas en un proceso que articula su dimensión sistemática
(coherencia con el conjunto de los campos teóricos) y su dimensión opera-
toria (aplicabilidad a los fenómenos)» (Ibáñez, 1979: 350-551).
Me he detenido, si bien de manera superficial, en el grupo de discu-
sión para el que son imprescindibles, además de los de Ibáñez, los trata-
mientos de Ortí (véase más adelante), Alonso (1998) y Martín Criado

37
El diseño de la investigación social

(1998), porque me parece que constituye una de las formas más caracte-
rísticas del método cualitativo, en la que el análisis del lenguaje, la impli-
cación del investigador y el (discutible) acceso al inconsciente suponen
rasgos fuertemente diferenciales con respecto al método cuantitativo.
Pero el grupo de discusión no es la única práctica ampliamente utilizada
del método cualitativo: el propio Ibáñez nos indica el parentesco de la
discusión de grupo con técnicas como la focussed interview (Merton, Fis-
ke y Kendall, 1956) o la clinical interview (Adorno et al., 1950), conoci-
das como técnicas de entrevista en profundidad: se trata de una técnica
intensiva en la que se abordan no solamente las opiniones del individuo
interrogado, sino incluso su propia personalidad; la entrevista «enfoca-
da» parte de una determinada experiencia del sujeto cuyos efectos quie-
ren analizarse (en el modelo propuesto por Merton y sus colaboradores,
la exposición a un determinado flujo de información que provee de
guión a la entrevista), en tanto que la «clínica» parte de unas opiniones o
actitudes del sujeto cuyas motivaciones se desea determinar (en el caso
de la personalidad autoritaria se exploran los fundamentos de la actitud
previamente determinada, con objeto de obtener un «diagnóstico»). El
guión de la entrevista, y la intervención en ella del investigador, puede
ser más o menos detallado: en el caso mínimo (non-directive interviews) el
papel del investigador se reduce a iniciar la entrevista, que se desarrolla
en la práctica como un monólogo del entrevistado, reorientado por el in-
vestigador sólo cuando resulta imprescindible. Las entrevistas pueden ser
únicas o múltiples, produciendo estas últimas una importante masa de
información que, de ser biográfica, da lugar a una técnica próxima cono-
cida como «historia de vida». Todas estas técnicas o prácticas trabajan
sobre el registro que recoge las manifestaciones del entrevistado, y en to-
das ellas la interpretación y el análisis revisten caracteres análogos a los
que se han apuntado para el grupo de discusión, con la radical diferencia
de que en éste «es el grupo el que habla», mientras que en las diversas
formas de la entrevista en profundidad lo hacen los individuos.
Otra difundida forma del método cualitativo es la observación partici-
pante, en la que el objeto de conocimiento se ofrece directa y globalmen-
te al observador, integrado más o menos profunda y activamente en los
procesos o grupos que trata de estudiar; la ambivalencia espectador-
actor abre una amplia dimensión en el grado de participación del investi-
gador: desde la presencia del antropólogo en la comunidad en que lleva a
cabo su trabajo de campo, que cifra su éxito en hacerse «adoptar» por
aquellos a quienes estudia, hasta las investigaciones llevadas a cabo en
un determinado medio por quienes forman parte de él. En todo caso, en

38
1. Cinco vías de acceso a la realidad social

la medida en que la observación participante subraye la participación, el


investigador recurre a la introspección de su propia experiencia como
fuente privilegiada de conocimiento de la realidad estudiada. La obser-
vación, cualquiera que sea el grado de participación que practique el in-
vestigador, versa normalmente sobre conductas, sobre acciones o ínte-
racciones en situaciones socialmente definidas: como señalan Mayntz,
Holm y Hübner, «la observación se refiere siempre a un comportamiento
dotado tanto de un sentido subjetivo como de una significación social
objetiva. Por eso pertenece necesariamente a la observación la compren-
sión o la interpretación acertada del sentido subjetivo y de la significa-
ción social de una acción determinada [...]. La captación reflexiva del
sentido subjetivo, que se manifiesta en el comportamiento observado, y
de su significación social objetiva es, pues, una premisa indispensable de
la objetividad científica de la observación en general» (1975: 113-114):
objetividad que aquí descansa, evidentemente, en alcanzar el sentido in-
tersubjetivo atribuible a la acción de que se trate, en lograr, como míni-
mo, la formulación en términos «emic» de lo que sucede. Como lo expre-
só claramente Whyte en uno de los estudios de observación participante
más conocidos, Street Corner Society, «lo que la gente me dijo me ayudó
a explicar lo que había sucedido, y lo que yo observé me ayudó a explicar
lo que la gente me dijo» (1961: 51).
La realidad social sería, pues, una realidad con significados comparti-
dos intersubjetivamente y expresados en el lenguaje; significados que no
son simplemente creencias o valores subjetivos, sino elementos constitu-
tivos de la realidad social. Y como dice Gadamer, «la tarea de la herme-
néutica es clarificar este milagro de la comprensión, que no consiste en
una misteriosa comunión de almas, sino en compartir un significado co-
mún» (1976: 118). Si la realidad social está compuesta tanto de hechos
como de significados comunes, éstos han de ser comprendidos si se quie-
re dar cuenta de aquélla; la práctica social ha de interpretarse, y ello des-
de los significados que el propio investigador comparta o logre compar-
tir. La hermenéutica, heredera de la tradición de la exégesis bíblica, y
habituada por tanto al hermetismo, al simbolismo y al juego de los signi-
ficados convencionales, busca penetrar a través del lenguaje en el mundo
de significados constitutivos de la realidad social que la subyace, y que
comparten quienes la componen y, con ellos, el propio investigador. Sea
cual fuere el estatuto que se atribuya a la hermenéutica (de método, de
teoría, de ciencia, incluso la pretensión metateórica de Gadamer), y de-
jando al margen su disputa con la teoría crítica, y en concreto las obje-
ciones de Habermas basadas en la deformación del contexto histórico

39
El diseño de la investigación social

comunicativo (véase la discusión en Wellmer, 1979: 32 ss.), lo cierto es


que la conciencia hermenéutica, o la crítica hermenéutica, ofrece una
forma de acceso a la complejidad de la realidad social que de otra forma
no sería posible. Como he indicado en otro lugar (1979: 107), la realidad
social es completamente diferente de la realidad físico-natural: aquélla
está llena de significados (más exactamente, es en buena parte significa-
dos) que es preciso comprender para explicarla.

7.  Conclusión acerca del pluralismo metodológico

El panorama que antecede de los modos que pueden adoptar los méto-
dos de la sociología tiene predominantemente el carácter de una ejempli-
ficación de su variedad, no de un catálogo exhaustivo, entre otras razo-
nes por las combinaciones que son posibles entre dichos métodos, lo que
nada tiene que ver con la interdisciplinariedad: las cuestiones metodoló-
gicas aquí tratadas son estrictamente intradisciplinares, y la combinación
de métodos tiene que ver con lo que se conoce como triangulación (que
no es del caso discutir ahora: véase Smith, 1975: 271 y ss.); la enumera-
ción de los métodos histórico, comparativo, crítico-racional, cuantitativo
y cualitativo no pretende la completitud (podría hablarse además, por
ejemplo, de un método sociográfico), y menos aún las formas concretas
de cada uno de ellos que se mencionan. Precisamente lo que he querido
poner de manifiesto es la diversidad metodológica exigida por una socio-
logía que no quiera confinarse en una definición unidimensional de su
objeto; si a la complejidad del objeto corresponde necesariamente un
planteamiento epistemológico que he venido calificando de pluralismo
cognitivo, ello impone como correlato necesario un pluralismo metodo-
lógico que permita acceder a la concreta dimensión del objeto a la que en
cada caso haya de hacerse frente. La propuesta, pues, aquí formulada es
la adecuación del método a la dimensión considerada en el objeto, y ello
no de manera arbitraria e intercambiable, sino con el rigor que el propio
objeto demanda para que su tratamiento pueda calificarse de científico.
Pues bien, ¿cómo reclama el objeto de conocimiento el método que ha de
seguirse con él? Para decirlo con pocas palabras, lo hace con la mera ma-
nifestación de su naturaleza, que —como sostiene Adorno— «debe gra-
vitar con todo su peso en el método, y ostentar en él su propia vigencia»
(1973: 84). El investigador convenientemente entrenado ha de considerar
cuidadosamente aquello que pretende tomar como objeto, de tal modo
que pueda optar por el método adecuado para el caso, ya que no todos

40
1. Cinco vías de acceso a la realidad social

sirven para todo: un método erróneamente escogido puede crear de ma-


nera no prevista una respuesta propia, silenciando o deformando la de la
realidad social, que es la que busca el investigador.

Aun a riesgo de incurrir en enfadosa reiteración, creo que no estará de


más repetir que «científico» no significa aquí «científico-natural», pues
la sociología que toma como modelo a las ciencias de la naturaleza trai-
ciona su objeto, que no es la realidad físico-natural sino algo muy distin-
to, la realidad social. Ésta, en su extraordinaria complejidad, contiene
dimensiones que pueden considerarse incluidas en un ámbito epistemo-
lógico común con la realidad físico-natural, y para ellas valdrán los mé-
todos y la actitud propia de las ciencias que se desenvuelven en dicho
ámbito. Pero el conjunto de la realidad social lo excede con mucho, y
para tal exceso carece de validez la mimetización de «las otras ciencias».
De aquí la peculiaridad de la sociología, que no se constituye como una
de las viejas «ciencias del espíritu» porque no trata sólo de cuestiones es-
pirituales (valga la forma de llamarlas), pero tampoco como ciencia físico-
natural, ya que su objeto se niega a dejarse encasillar en tal categoría. En
ello consiste la incómoda especificidad de la sociología, que ha de aco-
modarse a su objeto utilizando desde la perspectiva etológica hasta la ra-
cionalista crítica. No es por azar o por falta de madurez, por charlatane-
ría o porque se trate de una ciencia multiparadigmática, que bajo el
nombre de sociología se hacen tantas diferentes sociologías, sino porque
su proteico objeto de conocimiento así lo reclama.  

Bibliografía recomendada
Alonso, L. E. (1998): La mirada cualitativa en sociología, Madrid, Fundamentos.
Braudel, F. (1968): La historia y las ciencias sociales, Madrid, Alianza.
García Ferrando, M. (2004): Socioestadística. Introducción a la estadística en so-
ciología, Madrid, Alianza.
Horkheimer, M. (1973): Crítica de la razón instrumental, Buenos Aires, Sur.
Sartori, G., y Morlino, L. (eds.) (1994): La comparación en las ciencias sociales,
Madrid, Alianza.

41
El diseño de la investigación social

2.  Perspectivas de la
investigación social:
el diseño en las tres
perspectivas

Jesús Ibáñez

1. Introducción

Generalmente, la palabra «diseño» nos remite a una operación tecnológi-


ca: el diseño dentro de una técnica que se ha elegido (por ejemplo, una
encuesta estadística o un grupo de discusión). Pero ¿por qué se ha elegi-
do esa técnica y no otra? El investigador social suele elegir, sin pensar de-
masiado en la elección, la técnica que tiene más a mano: bien por razo-
nes personales (uno es experto en esta técnica), bien por razones
organizativas (uno trabaja en una organización constituida para trabajar
con esta técnica), bien por razones institucionales (uno pertenece a una
institución interesada en vender esa técnica).
La tecnología nos da razón de cómo se hace. Pero antes de plantear el
problema de cómo se hace, hay que haber planteado los problemas de por
qué se hace así (nivel metodológico) y para qué o para quién se hace (nivel
epistemológico). Bourdieu (1976) señala tres operaciones necesarias para el
dominio científico de los hechos sociales: una «conquista contra la ilusión
del saber inmediato» (epistemológica), una «construcción teórica» (metodo-
lógica) y una «comprobación empírica» (tecnológica). Las tres operaciones
están jerarquizadas. Cada una da razón de las siguientes, construye un meta-
lenguaje sobre ellas1. Bourdieu se inspira en Bachelard (1949), para quien el
hecho científico se conquista, se construye y se comprueba.

42
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

Las tres perspectivas de la investigación social —que más adelante


analizaremos—, la distributiva, la estructural y la dialéctica, puntúan de
modo diferente estos niveles: la perspectiva distributiva puntúa sobre
todo el nivel tecnológico (es empirista), la perspectiva estructural puntúa
sobre todo el nivel metodológico (articula empirismo y formalismo), la
perspectiva dialéctica puntúa sobre todo el nivel epistemológico (articula
empirismo, formalismo e intuicionismo). Para que la discusión sea com-
pleta, nos situaremos en la perspectiva dialéctica.
Vamos a hablar del diseño, integrando los tres niveles (epistemológi-
co, metodológico, tecnológico), las tres operaciones (conquista, cons-
trucción, comprobación) y las tres modalidades (cómo, por qué, para
qué o para quién).
En primer lugar, discutiremos la transformación del requerimiento
explícito en demanda implícita. Es una operación epistemológica: el re-
querimiento es formulado en términos ideológicos y hay que traducirlo a
términos científicos (es una operación de «conquista contra la ilusión del
saber inmediato»). En segundo lugar, discutiremos la elección de la pers-
pectiva metodológica adecuada para responder a la demanda implícita, y
de las técnicas concretas dentro de esa perspectiva. Es una operación me-
todológica: una «construcción teórica». En tercer lugar, discutiremos el
diseño propiamente dicho dentro de la técnica seleccionada —teniendo en
cuenta los presupuestos epistemológicos y metodológicos—. Es una ope-
ración tecnológica: una «comprobación empírica».

2.  Del requerimiento explícito a la demanda implícita

Las expresiones requerimiento (commande) explícito y demanda (deman-


de) implícita proceden de Herbert (1966).
La práctica técnica —como la que realizamos los investigadores so-
ciales— está referida a fines que se realizan fuera de la propia técnica:
«llena una necesidad, una carencia, una demanda, que se definen fuera
de la práctica misma». Este «fuera» puede pertenecer al espacio de una
teoría (así ocurre en las ciencias naturales: se puede utilizar la técnica
para verificar o falsear una teoría —como dicen que hizo Galileo cuando
arrojaba distintos objetos desde la torre de Pisa—) o al espacio de una
ideología (como hacemos los sociólogos cuando realizamos investigacio-
nes mediante encuesta estadística o grupo de discusión —dispositivos de
investigación que son metáforas de dispositivos de dominación—). Aun-
que la teoría está articulada con la ideología, se desgaja de ella, pero se

43
El diseño de la investigación social

alimenta de ella. Aunque la ideología está articulada con la totalidad so-


cial organizada (con lo que los marxistas llaman modo de producción).
La demanda implícita expresa siempre el desajuste entre las relacio-
nes sociales y el estado de la producción: la demanda es de transformación
permanente de las relaciones sociales. La demanda es formulada por al-
guien en forma de requerimiento, por un cliente o jefe (o por instancias
superiores en el propio investigador): quedan determinados, a la vez, la
producción y el consumo del objeto. Hay una relación de complementa-
riedad entre el requerimiento (particular) y la demanda («ondulatoria»:
el requerimiento discreto es un punto en una onda continua).
En las ciencias naturales, entre el requerimiento y la demanda se in-
terpone una teoría: en el continuo de la teoría tienen su lugar los requeri-
mientos particulares. El requerimiento articula inmediatamente con la
teoría, y sólo mediatamente con la ideología que la funda. La articula-
ción entre la teoría y las técnicas es interior a la formación científica. En
las ciencias sociales, el requerimiento articula inmediatamente con la
ideología: las llamadas teorías sociológicas —subtendidas por el enfren-
tamiento dual sociología/socialismo— son metáforas de la ideología do-
minante (los dispositivos tecnológicos son metáforas de metáforas).
El que en las ciencias sociales las técnicas no articulen con la teoría,
sino con la ideología, no es una casualidad. Las necesidades de la socie-
dad no siempre son compatibles con los deseos de los individuos: la fun-
ción de la ideología consiste en hacer deseables por los individuos las ne-
cesidades de la sociedad, para lo cual tiene que producir una
representación de ella que rellene los huecos y aplane las contradicciones
(el orden social aparece, a la luz de la ideología, como continuo y cohe-
rente). En el diálogo de Platón «Las leyes», dice un personaje: «…supo-
niendo que tengáis leyes bastante buenas, una de las mejores será la que
prohíba a los jóvenes preguntar cuáles de ellas son justas y cuáles no».
No se puede preguntar por las leyes: el orden social, para que sea efecti-
vo, ha de ser inconsciente para los ciudadanos. Sólo cuando las necesida-
des de manipulación dentro del orden social exigen desvelar alguno de
sus aspectos, como cuando la manipulación a conciencia del efecto de so-
ciedad y del efecto de lenguaje por la publicidad, en la sociedad de con-
sumo, exige —y permite— poner de manifiesto cómo funcionan esos
efectos, el orden social se hace parcialmente consciente (Ibáñez, 1979).
Vamos a analizar algunos ejemplos de transformación en términos
de demanda social implícita de requerimientos explícitos de investiga-
ción:

44
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

a) El primer caso se refiere a quién —y para qué— va a utilizar la in-


formación producida por la investigación. La palabra informa-
ción articula dos significados, informarse de (información) y dar
forma a (neguentropía). El que información y neguentropía sean
equivalentes cuantitativamente (la fórmula es

I = N log2h= –E

donde N indica el número de selecciones necesarias entre h com-


ponentes para conocer el estado de un sistema en un momento t);
el que las fórmulas sean isomorfas, no implica que cualitativa-
mente los conceptos coincidan. Tenemos, por una parte, una ob-
servación (descripción del estado —pasado— de un sistema), por
otra parte una acción (prescripción del estado —futuro— de un
sistema): la medida de la información es función de las posibilida-
des que produce en el sentido de la transformación del sistema
hacia una mayor organización (hacia el aumento de la neguentro-
pía). Cuando observamos algo transformamos su neguentropía en
información (la cantidad irá de 0, si no es discernible ni describi-
ble, a 1, si es completamente discernible y describible). Cuando
actuemos sobre algo —organizándolo o reorganizándolo— trans-
formamos la información en neguentropía. Una investigación so-
cial extrae, por la observación, información, y devuelve, por la ac-
ción, neguentropía.
  Muchos investigadores extrapolan a todas las situaciones. Re-
cubren el vacío informativo, en el plano técnico, de sus informes
con una cobertura retórica impresionante: encuadernación en
piel con letras de oro grabadas a fuego, complicadas e incompren-
sibles fórmulas matemáticas, apelaciones al carácter profunda-
mente científico de la investigación (si fuera realmente científica
no sería necesario llamarla científica como no es necesario llamar
natural a un zumo hecho de naranja exprimida).

b) El segundo caso se refiere al por qué la investigación se hace como


se hace. Supongamos que un investigador recibe este requerimiento
del cliente —empresa comercializadora o publicitaria—: «Quiero
que me haga usted una encuesta para ver cuál de estos dos anun-
cios gusta más a mis clientes potenciales». La transformación del
requerimiento en demanda exige poner en cuestión las tres expre-
siones en cursiva: clientes potenciales, gusta más, encuesta.

45
El diseño de la investigación social

  El requerimiento se funda en discursos ideológicos: el consumi-


dor es el rey del mercado (su gusto es ley), la encuesta es por an-
tonomasia la técnica de investigación (los consumidores son
autónomos), el que compra un producto está en condiciones de
calcular la máxima satisfacción por el mínimo coste. Pero las co-
sas no son como se dice.
  El que un anuncio guste no es ni suficiente ni necesario para que
sea eficaz. La eficacia de un anuncio exige una comunicación que
articule componentes manifiestos y conscientes con componentes
latentes2 e inconscientes (la publicidad es siempre subliminal). La
madre no compra braguitas de plástico para que su hijo esté sano y
disfrute de la vida: las compra para disfrutar ella de una vida más
cómoda (ésa es la motivación), pero debe justificarse —la sociedad
la ha diseñado de acuerdo con un modelo de madre que incluye el
sacrificio por su hijo— diciendo que lo que es cómodo para ella es
sano para el niño (ésa es la racionalización). A esta demanda con-
tradictoria respondería un anuncio que dijera la racionalización (lo
sano y feliz que va a estar el niño) y mostrara la motivación (lo des-
cansada que va a estar la madre): por ejemplo, una voz en off dice
el mensaje consciente, e imágenes de una señora rozagante mues-
tran el mensaje inconsciente (subliminal). La publicidad está hecha
para manipular al consumidor: si a éste le dan a elegir entre dos
anuncios, elegirá —y en la elección se conjugarán mecanismos
conscientes e inconscientes— el que menos le manipule. Tiene que
elegir el manipulador, no el manipulado (cuando a Bertoldo le die-
ron a elegir un árbol para ahorcarlo no encontró árbol a gusto).

c) El tercer caso se refiere a cómo se hace.


Un investigador recibe el siguiente requerimiento del Ministerio
de Sanidad: «Hágame una encuesta para saber cuántos ciudada-
nos españoles tienen agua corriente y agua caliente».
El para qué y para quién es fácil de inferir: la transformación que
puede facilitar esta información puede ser un plan del ministerio
para fomentar la instalación de agua corriente y agua caliente en
las viviendas españolas. El por qué no plantea problemas: la en-
cuesta estadística es la técnica más adecuada para obtener esta in-
formación. Pero el cómo ha de ser puesto en cuestión.
  Tener o no tener agua corriente o agua caliente no es un atribu-
to del individuo sino de la familia o del hogar (hay una corres-
pondencia casi biunívoca entre el conjunto de familias y el con-

46
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

junto de hogares). Será necesario una muestra de hogares, no de


individuos: y cualquier individuo entre los que habitan el hogar
podrá responder al cuestionario. Cuando diseñamos una muestra
ponemos en juego dos tipos de unidades: unidades respondentes
(los sujetos que responden al cuestionario) y unidades referentes
(los objetos de los que hablan esos sujetos). En este caso, pregun-
tando a un individuo de cada familia incluida en la muestra sobre
las características del hogar en que habitan (existencia o no de
instalaciones de agua corriente y agua caliente) podríamos saber
lo que el ministerio nos ha pedido.

3.  Perspectivas de la investigación social

Una vez que hemos traducido el requerimiento explícito en términos de


demanda implícita, una vez que hemos reducido los componentes ideoló-
gicos del requerimiento, debemos seleccionar la técnica o las técnicas de
investigación que nos van a permitir responder a esta demanda: que nos
van a producir las informaciones requeridas por las transformaciones de-
mandadas.
Podemos considerar tres perspectivas metodológicas de la investiga-
ción social: distributiva, estructural y dialéctica (Ibáñez, 1986a).
El lenguaje es, a la vez, instrumento y objeto de la investigación so-
cial. Hay sistemas físicos (energéticos) y sistemas lingüísticos (informáti-
cos), según que las conexiones en el sistema sean energéticas o informáti-
cas. Los sistemas físicos son dinámicos; son lingüísticos los sistemas
biológicos (conexión mediante códigos genéticos) y los sistemas sociales
(conexión mediante códigos lingüísticos). El orden social es del orden del
decir: está generado por dictados o prescripciones e interdicciones o
proscripciones. La investigación social implica clausura lingüística, ha-
blamos del lenguaje con el lenguaje.
Un análisis del lenguaje permite separar un componente semiótico
(lo que hay de fuerza en el habla) y un componente simbólico (lo que hay
de significado en el habla). Respectivamente, lo que dice (semántica) y lo
que hace (pragmática). Por ejemplo, de las dos obras más conocidas de
Marx, El capital es un análisis teórico del modo de producción capitalis-
ta y pone en juego sobre todo el componente semántico, y el Manifiesto
comunista es un panfleto movilizador y pone en juego sobre todo el com-
ponente pragmático. Y podemos separar, dentro del componente simbó-
lico, una dimensión referencial o deíctica (el lenguaje apuntando a la rea-

47
El diseño de la investigación social

lidad translingüística) y una dimensión estructural o anafórica (el


lenguaje apuntando al lenguaje). Una palabra —como un nombre pro-
pio, o un nombre común afectado de deícticos— puede intercambiarse,
bien por una cosa (es la dimensión referencial: la expresión «esta mesa»
se intercambia por el objeto mesa que está más próximo al emisor), bien
por otra palabra o expresión (es la dimensión estructural: la expresión
«mesa» se intercambia por otra expresión que constituye su definición,
como «mueble, por lo común de madera, que se compone de una tabla
lisa sostenida por uno o varios pies, y que sirve para comer, escribir, ju-
gar u otros usos» —del mismo modo que la moneda «duro» se intercam-
bia por una cosa, una naranja, o por otras monedas, cinco pesetas).
La perspectiva distributiva, cuya aplicación más general es la encues-
ta estadística, aplica la dimensión referencial del componente simbólico:
permite decir de cosas o estructuras espacio-temporales translingüísticas
(investigación de hechos) —por eso la llamamos deíctica—. La perspecti-
va estructural, cuya aplicación más general es el grupo de discusión, apli-
ca la dimensión estructural del componente simbólico: permite decir del
lenguaje mediante el lenguaje (investigación de «opiniones») —por eso la
llamamos anafórica—. La perspectiva dialéctica, cuya aplicación más ge-
neral es el socioanálisis, aplica el componente semiótico: permite hacer
con el lenguaje.
Si analizamos los juegos de lenguaje que constituyen el dispositivo de
producción de datos en las tres perspectivas, tendremos: entrevista (inte-
racción entre un entrevistador y un entrevistado: relación no simétrica)
en la encuesta estadística; discusión (interacción sólo verbal entre unos
pocos: relación simétrica) en el grupo de discusión; asamblea (interacción
no sólo verbal entre muchos) en el socioanálisis. En el grupo de discusión
—y, por supuesto, en la encuesta— se intercambian significados o infor-
maciones, en el socioanálisis se intercambian también fuerzas o energías:
la asamblea modifica la realidad —la correlación de fuerzas— más que
el grupo de discusión (juega directamente con la energía, en vez de jugar
sólo con la información —que también pone en juego alguna energía).
Una investigación extrae información mediante la observación y de-
vuelve neguentropía mediante la acción. Participa visiblemente en la ob-
servación, pero no participa visiblemente en la acción (la acción pertene-
ce a los clientes o jefes). Pero los dispositivos de investigación social
implican una acción sobre la sociedad que transforma la sociedad. Tie-
nen una cara visible semántica (observación) y una cara invisible prag-
mática (acción): respectivamente, lo que dice y lo que hace la investiga-
ción. Vamos a ver primero lo que dice y luego lo que hace.

48
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

3.1  Modos de observación

Los dispositivos de investigación social permiten observar dispositivos


de acción social que tengan la misma forma.
Veamos un ejemplo. Hay distintos modos de participación política.
Hay dispositivos de participación política que tienen la misma forma que
la encuesta (las elecciones), hay dispositivos que tienen la misma forma
que el grupo de discusión (las conversaciones entre ciudadanos) y hay
dispositivos que tienen la misma forma que el socioanálisis (las acciones
de masas: asambleas, manifestaciones, etc.). Si observamos un dispositi-
vo de acción con un dispositivo de investigación de nivel inferior, lo des-
truimos al observarlo. Rompemos los enlaces o conexiones —estructura-
les— entre los elementos: así, si —por ejemplo— observamos un
dispositivo conversacional o de acción de masas con un dispositivo dis-
tributivo, rompemos las conexiones, informáticas en el primer caso, tam-
bién energéticas en el segundo. Un grupo o una masa no son una suma,
sino un producto: por eso se dice que la unión hace la fuerza.
Una investigación sobre la participación de los españoles en la vida
política exigiría poner en juego los tres tipos de dispositivos de observa-
ción (la lucha armada sólo es medida por la lucha armada, no admite
modelos de simulación). Dispositivos distributivos, como la encuesta, in-
vestigarían el comportamiento electoral (único en dirección al pasado y
múltiple —hay muchos futuros posibles— en dirección al futuro). Dispo-
sitivos estructurales, como el grupo de discusión, investigarían el com-
portamiento conversacional —fundamental en la génesis de la llamada
«opinión pública»— (en la conversación o discusión se enfrentan los di-
ferentes discursos difundidos por los distintos medios de comunicación).
Dispositivos dialécticos, como el socioanálisis, investigarían el comporta-
miento en acciones de masas (que, como demuestran las recientes movi-
das pacifistas, inciden en muchas decisiones).
Cada dispositivo de información, cada perspectiva metodológica,
cada técnica, tiene un campo de observación propio.
Dentro de la perspectiva distributiva, hay técnicas que implican la pro-
ducción primaria de datos (como la encuesta estadística), que producen los
datos dentro del proceso de investigación, y técnicas que implican la recolec-
ción —secundaria— de datos, producidos fuera del proceso de investigación.
Las primeras pueden funcionar respecto a las segundas como suple-
mentos (cuando no se dispone de datos) o como complementos (cuando
hay que poner en cuestión el proceso —censurado— que ha producido los
datos).

49
El diseño de la investigación social

Dentro de la perspectiva estructural, hay técnicas de producción pri-


maria de datos (como el grupo de discusión y la entrevista llamada en pro-
fundidad) y técnicas de recolección secundaria de datos (como el análisis
estructural de textos). La dispersión de un conjunto semiótico se unifica,
bien en dirección a un eje genético —postulando un autor (subjetivo)—,
bien en dirección a una estructura profunda —postulando un sentido
(objetivo)—: la entrevista en profundidad se inscribe en la búsqueda de
un eje genético, el grupo de discusión se inscribe en la búsqueda de una
estructura profunda. Supongamos que estamos investigando la margina-
ción: hay grupos marginados (como las minorías étnicas: negros en Esta-
dos Unidos o gitanos en España) e individuos marginados (como los an-
cianos o los delincuentes); los grupos marginados proceden de una
intrusión (por captura —como los negros— o infiltración —como los gi-
tanos—), mientras que los individuos marginados proceden de una des-
viación (no son productivos —como los ancianos— o son antiproducti-
vos —como los delincuentes—). El grupo de discusión será más adecuado
para investigar a los grupos marginados, la entrevista en profundidad será
más adecuada para investigar a los individuos marginados (como lo serán
también las historias de vida). El análisis estructural de textos (un editorial
de El País, un noticiario de televisión, etc.) es un complemento del grupo
de discusión: el primero investiga emisiones públicas, el segundo investiga
emisiones privadas (en las que dejan huella las emisiones públicas).
Dentro de la perspectiva dialéctica, hay una técnica que funciona a
nivel micro (el socioanálisis) y una «técnica» que funciona a nivel macro
(la revolución). El socioanálisis es análisis institucional en situación (in
vivo). Hay dos instituciones que nunca funcionan: la psiquiátrica (mien-
tras el médico se empeñe en curar al loco) y la pedagógica (mientras el
profesor se empeñe en enseñar al alumno). El orden social necesita su re-
forma, para evitar la revolución. Hay que dar la palabra al loco y al estu-
diante, pero hasta un cierto límite: de modo que no contagien a toda la
sociedad. Así surgió el socioanálisis. Pero cuando una sesión socianalíti-
ca contagió por resonancia a toda la sociedad (Mayo del 68), el socioa-
nálisis fue puesto en cuarentena. No son perfectamente continentes las
fronteras que separan el socioanálisis de la revolución.

3.2  Modo de acción

Los dispositivos de investigación son dispositivos de acción: dicen algo


sobre la sociedad, pero también algo en la sociedad.

50
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

La investigación es una operación de la caza. Investigar viene de «ües-


tigo» (seguir las huellas que deja una presa en el camino). Los dispositi-
vos de investigación son dispositivos de predación: son capturados los
cuerpos (en la selección de la muestra, o en la reunión del grupo, o en la
elección de una institución) y son capturadas las almas —las hablas—
(en la entrevista, en la discusión, en la asamblea).
La investigación social es un modo de tomar medidas de la sociedad,
en el doble sentido de tomar medidas a (observación) y tomar medidas
sobre (acción). Las medidas que se toman son —según niveles de cuanti-
ficación— del tipo clasificación (nominal), del tipo ordenación (ordinal)
o del tipo medición (interval, de razón o absoluta). Sólo es posible y ne-
cesario clasificar, ordenar y medir cuando hay más de una alternativa.
En sistemas dinámicos (físicos) sólo hay una alternativa, en sistemas
«lingüísticos» (regulados por códigos genéticos a nivel biológico, por có-
digos lingüísticos a nivel social) hay varias alternativas. Hay una correla-
ción uno-a-varios entre dos estados del sistema. Los sistemas «lingüísti-
cos» están regulados por un dispositivo de doble articulación: un nivel
dinámico o hard-ware (que funciona como segunda articulación) es con-
trolado por un nivel lingüístico o software (que funciona como primera
articulación). El soft-ware (o logical) es una clasificación simplificada del
hard-ware (o material). Para clasificar, ordenar y medir, la evolución pro-
duce diversos dispositivos de soft-ware: los sociólogos formamos parte de
uno de esos dispositivos (Ibáñez, 1985b).
Veamos cómo capturan los cuerpos y las almas las diferentes pers-
pectivas de la investigación social. Las tres perspectivas de la investiga-
ción social están doblemente articuladas: disponen de dos pinzas, una
que captura los cuerpos (selección de las personas que van a interactuar
lingüísticamente) y una que captura las almas (sometimiento de esas per-
sonas a peculiares juegos de lenguaje).
En la perspectiva distributiva, cuyo modelo general es la encuesta es-
tadística, la red utilizada como dispositivo de captura de datos tiene for-
ma de matriz: esa matriz —cada columna corresponde a un respondente,
cada fila a una pregunta— es una figuración de las dos dimensiones de
estriaje del espacio social. La dimensión vertical apunta a los individuos
supuestos pilares fijos del orden social (y al organigrama), según la ideo-
logía del capitalismo de producción, la dimensión horizontal apunta al
juego de lenguaje (pregunta/respuesta) a que son sometidos. En la pers-
pectiva estructural, cuyo modelo general es el grupo de discusión, la red
utilizada como dispositivo de captura experimenta una expansión —en
sentido topológico, una exfoliación— en las dos dimensiones: de indivi-

51
El diseño de la investigación social

duo a grupo (y al sociograma), de pregunta/respuesta a conversación se-


gún la ideología del capitalismo de consumo. Esta expansión es la figura
de un espacio de mayor libertad (aunque sea una libertad sólo táctica,
una retirada estratégica de los dispositivos de constricción, una libertad
de primera especie o restringida). La unidad no se constituye en el pre-
sente, sino en el pasado o en el porvenir (en el pasado mediante la perse-
cución de un eje genético, en el porvenir mediante la persecución de una
estructura profunda). En ambos casos —como eje genético o estructura
profunda— la unidad funciona como límite, abortada en el presente, vale
precisamente por su ausencia (como todos los equivalentes generales de
valor —padre, en el intercambio de sujetos; moneda, en el intercambio
de objetos; lengua, en el intercambio de mensajes—: el presente no vale
nada, sólo vale lo ausente —sólo necesitamos un vale para lograr lo
ausente).
En la perspectiva distributiva —en su técnica más general, la encuesta
estadística—, la primera pinza es la selección de la muestra y la segunda
pinza es la entrevista con cuestionario. Veamos qué acción ejecutan, qué
transformación producen en las formas sociales, la forma-muestra y la
forma-cuestionario.
La muestra es una caza de cuerpos. El predador es el entrevistador
(en realidad, es un auxiliar de cetrería del verdadero predador), la presa
es el entrevistado. La entrevista es una intersección entre las líneas de
universo de entrevistador y entrevistado. La probabilidad de intersección
es función de las respectivas posiciones de clase. Entre la muestra teórica
—en la que todos tienen la misma probabilidad— y la muestra empírica
hay grandes diferencias. No todos los presuntos entrevistados tienen la
misma probabilidad de ser entrevistados. El poder se reserva el azar (es
impredecible) y atribuye la norma (predice). La entrevista implica dos
operaciones, la localización del presunto entrevistado y la entrevista pro-
piamente dicha. Tienen mayor probabilidad de ser localizados los que es-
tán asentados mucho tiempo en un espacio (porteros o comerciantes), y
los que recorren rutas regulares en el espacio-tiempo (probos funciona-
rios o amas de casa): los que se mueven mucho o irregularmente —sus
trayectorias son brownianas— son difíciles de localizar. Una vez locali-
zados, tienen mayor probabilidad de ser entrevistados (en general, asalta-
dos por policías o vendedores o pedigüeños) los que están en posición de
objeto, los que no tienen derecho a la palabra: los poderosos que tienen
ese derecho, y los rebeldes que luchan por ese derecho, son difíciles de
entrevistar. Los poderosos disponen de barreras defensivas (guardias, pe-
rros, porteros, mayordomos). Los rebeldes son capaces de decir «No».

52
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

En la muestra aparecen sobrerrepresentados los objetos, subrepresenta-


dos los sujetos. No importa: sólo los que son objeto son objetivo para el
cazador; las encuestas se inscriben en estrategias de manipulación y sólo
los objetos son manipulables. No todos los entrevistadores tienen la mis-
ma probabilidad de entrevistar. Según su posición de clase (en clases so-
cioeconómicas, de edad, de sexo, etc.), unos pueden llegar más fácilmen-
te a unos sectores y otros a otros (un chico con pantalón vaquero y
melenas a un barrio estudiantil, un caballero con corbata y raya al medio
a un barrio residencial).
La entrevista es una caza de almas: por la boca muere el pez —si
muerde el anzuelo—, y también el ser humano. El juego de lenguaje a
que es sometido el entrevistado —la forma-cuestionario— es: por su for-
ma, un juego pregunta-respuesta (un test); por su contenido, una simpli-
ficación del lenguaje —un dispositivo semántico-pragmático de homoge-
neización—. Sujeto es el que pregunta y objeto el que se limita a
responder (aunque por dentro vaya la procesión: un resto latente de con-
testación). La situación elemental de interacción social es una «conversa-
ción entre interlocutores A y B, en un lenguaje L» (Pask, 1976): lo que
implica, por una parte, que la relación de los interlocutores sea simétrica
(que se intercambie el papel de sujeto) y que la operación de unos sobre
otros sea reversible (que haya retroacción recíproca); por otra parte, que
el lenguaje sea común a los interlocutores (para que haya comunicación).
La entrevista supone una relación antisimétrica y una operación irrever-
sible e irretroactiva (el que responde no puede preguntar al que pregun-
ta) y el entrevistador impone su lenguaje (el lenguaje de sus amos) al en-
trevistado. Lo que implica, semánticamente, que sólo se retienen las
respuestas manifiestas y se dejan de lado las contestaciones latentes (el
mismo día en que las calles de Portugal estallaban de claveles, los perió-
dicos de Lisboa publicaban los resultados de una encuesta que mostraba
que los portugueses eran apolíticos), pragmáticamente que los individuos
se acostumbraban a sólo responder, a sólo elegir entre las respuestas (o los
candidatos) que se les proponen. Las preguntas y las respuestas han de
formularse en un lenguaje que sea, por una parte, comprensible por to-
dos; por otra parte, igualmente comprensible por todos (no ambiguo ni
contradictorio).
Decía Luhmann que un sistema tan complejo como el capitalismo de
consumo o sociedad postmoderna necesita para funcionar dos condicio-
nes: no todos los mensajes pueden circular libremente entre todos los ciu-
dadanos, lo que implica que, por una parte (y semánticamente) se reduz-
ca el número de ciudadanos a los que llegan, como emisores y/o

53
El diseño de la investigación social

receptores, los mensajes y se simplifiquen, en extensión y en comprensión,


esos mensajes, y que, por otra parte (y pragmáticamente), se orienten las
aspiraciones de los ciudadanos en dirección a los fines del sistema (Luh-
mann, 1969). La encuesta estadística, por su forma-muestra y su forma-
cuestionario, así como otros dispositivos (las elecciones) isomorfos a ella,
contribuye a que prevalezcan estas condiciones. Es el hilo rojo de lo que
llaman modernización.
En la perspectiva estructural —en su técnica más general, el grupo de
discusión—, la primera pinza es la convocatoria del grupo (selección de
participantes y encarrilamiento hacia el local de reunión), la segunda
pinza es la discusión en el grupo. Veamos qué acción ejercen la forma-
grupo y la forma-discusión.
La forma-grupo implica: los individuos son conjuntados (puestos
juntos), y el microconjunto representa al macroconjunto. La muestra en
una encuesta es un conjunto algebraico (sin fronteras que mantenga jun-
tos a los elementos del conjunto), el conjunto de los participantes en una
discusión en grupo es un conjunto topológico (cercado por una fronte-
ra). Lo que hace posible que el grupo pueda devenir grupo-sujeto (tomar
la palabra). En cierta ocasión realicé una investigación con madres de
minusválidos: el grupo de discusión fue el germen de una asociación de
familiares de minusválidos. Pero la frontera que separa el interior del ex-
terior del grupo (el microconjunto del macroconjunto) es artificial: ha
sido trazada arbitrariamente por el investigador, y sólo va a permanecer
—aunque puede quedar alguna huella— durante el tiempo de la discu-
sión (al contrario de lo que sucede con los grupos espontáneos). Es una
frontera casi perfecta continente: impide que la acción del grupo se pro-
pague a la sociedad global. Es una acción limitada y controlable (la fron-
tera espacial del grupo está doblada por una frontera temporal, que se
ciñe al tiempo de la discusión). Aunque no es imposible que el grupo per-
manezca, es poco probable. Por otra parte, el grupo —al contrario que la
entrevista— es confortable: se pasa bien en el grupo. Es una técnica tácti-
camente expansiva y liberadora, aunque estratégicamente constrictiva y
represora (la información que produzca se le va a devolver enajenada, en
forma de manipulación publicitaria o propagandística). Este microcon-
junto tan artificial y tan precario va a representar al macroconjunto: los
participantes se sienten el ombligo del mundo, el grupo es un supuesto
centro de reflexiones (y, en cierto modo, de decisiones). Lo que no deja
de tener consecuencias: semánticamente que la macroestructura social es
dejada de lado (psicosociologismo), pragmáticamente que es un dispositi-
vo de privatización de lo público (ya no hay mítines ni asambleas, las dis-

54
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

posiciones se toman en pequeño comité —incluso el Parlamento está


siendo punteado). El grupo representa semánticamente, no pragmática-
mente.
La forma-discusión implica: se conserva, pero no se hace otra cosa
que conversar. Para que el diálogo sea posible, deben reunir ciertas con-
diciones los sujetos (que dialogan) y los objetos (sobre los que dialogan):
los sujetos deben estar en relación simétrica (deben poder intercambiar
su papel de sujeto de la enunciación: no es posible, por ejemplo, el diálo-
go entre padres e hijos o entre propietarios y proletarios), y los objetos no
deben afectar profundamente ni al interés ni al deseo de los sujetos. To-
das las relaciones, por excluyentes que sean, dejan abierto un portillo al
diálogo (padres e hijos o propietarios y proletarios pueden hablar de fút-
bol), todos los conflictos, por irreconciliables que sean los deseos y/o in-
tereses de los contendientes, dejan abierto un portillo a la transacción (se
pueden negociar ciertos rincones, ciertos ritmos, de la carrera de arma-
mentos). Lo que introduce la limitación no es el hecho de conversar, sino
el hecho de no hacer otra cosa que conversar (lo que implica la pérdida
del derecho a hacer otras cosas). Lo que no deja de tener consecuencias:
semánticamente se retiene el decir pero se deja de lado el hacer, pragmáti-
camente es un dispositivo de inhibición del paso a la acción (hay que ana-
lizar las cosas más que actuar sobre ellas, la acción es un acting-out, todo
se puede negociar y consensuar). Dicen que cuando los bárbaros irrum-
pieron en el Imperio Romano de Oriente, los sabios estaban discutiendo
sobre los ángeles (si los ángeles tienen sexo, cuántos ángeles caben en la
punta de un alfiler).
En la perspectiva dialéctica —en su técnica más general, el socioaná-
lisis—, la primera pinza es la selección de la institución, la segunda pinza
es el enfrentamiento en asamblea de los estamentos. Veamos qué acción
ejercen la forma-institución y la forma-asamblea.
La institución es recolectada, no producida: es una investigación in
vivo. Pero la selección de la institución responde a un requerimiento pun-
tual (de la dirección o respaldado por la dirección) que, a su vez, respon-
de a una demanda (de transformación o reforma de la institución). La
producción y el consumo de la investigación quedan así determinadas.
La estrategia en la que se inscribe la investigación es la reforma de una
institución particular. La acción que ejerce la investigación es ilimitada
dentro de la institución (en el sentido de que no le pone límites, sino que
más bien tiende a desplazar los que tiene), pero limitada —a una institu-
ción— en el sistema institucional. Pero las fronteras que separan a una
institución del resto del sistema institucional no son apenas continentes,

55
El diseño de la investigación social

pues el proceso de investigación no refuerza, ni dobla con otras fronte-


ras, las fronteras existentes. Un socioanálisis catalizó —como vimos— la
revolución de Mayo del 68 (fuera del proceso de investigación, un dispo-
sitivo isomorfo con él puede catalizar un movimiento revolucionario: así,
el dictador colombiano Rojas Pinilla fue derribado por el movimiento
que produjo por resonancia una manifestación estudiantil). Así como el
grupo de discusión deja fuera del campo de investigación al macrogrupo
—ateniéndose sólo a su reflejo en el microgrupo—, el socioanálisis inclu-
ye en su campo de observación (y de acción) las relaciones —las fronte-
ras— entre la institución y el sistema institucional. Lo que implica: se-
mánticamente que se acerca al límite posible de potencia de la
investigación social, pragmáticamente que no pone frenos ni bridas a la
acción social (puede extender, por resonancia, su campo de aplicación).
La asamblea es la situación de interacción verbal que genera enlaces
—conexiones— más fuertes entre los participantes, y potencia y amplifi-
ca la fuerza de esos enlaces: una asamblea puede terminar en posición
activa, continuada por una manifestación o movida similar (contrasta la
acción catalítica de la asamblea con la acción catártica de la discusión).
La fuerza del conjunto se potencia de la muestra al grupo; del grupo a la
asamblea: así como se extiende la amplitud de su campo de acción. Lo
que implica: semánticamente que integra la investigación del decir (infor-
mático) y el hacer (energético) y que incluye en su campo la investigación
de lo posible, pragmáticamente que es un dispositivo estratégicamente ex-
pansivo y liberador.

3.3  Selección de modos de observación y acción

Según quién demanda y qué demande, tanto en dirección a la observación


o información como en dirección a la acción o neguentropía, tanto en di-
rección semántica como pragmática, deberemos seleccionar las perspecti-
vas metodológicas y las técnicas.
Hemos visto cómo el análisis de la demanda reduce los componentes
ideológicos del requerimiento, pero los reduce en la cabeza del investiga-
dor y no en la del cliente o jefe. Los clientes y jefes suelen ser más reticen-
tes al empleo de técnicas estructurales que al empleo de técnicas distribu-
tivas —les aberra la posibilidad de que sus «subordinados» lleguen a
formar conjunto, aunque sea precario— (de técnicas dialécticas ni se ha-
bla). Cuando el cliente o el jefe requieren técnicas distributivas para ha-
cer frente a una situación que demanda técnicas estructurales, puede ser

56
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

que el cliente o jefe acepte la propuesta del investigador o que no la acep-


te (o lo que es más frecuente, que la acepte el interlocutor directo pero no
la acepten en instancias superiores de su empresa o institución). En mi
práctica profesional, he tenido muchas veces que acudir a una solución
de compromiso: en esos casos, he diseñado una investigación a base de
técnicas estructurales (por ejemplo, grupos de discusión), y la he comple-
mentado con una encuesta —que, por estar más implantada en la ideolo-
gía dominante, tiene mayor eficacia retórica, es más creíble— (los grupos
de discusión producen el componente técnico de la información, la en-
cuesta produce el componente mítico). En casos como éste, por razones
tanto técnicas como éticas, se debe advertir al cliente o jefe: lo que le va a
ayudar a solucionar su problema es esto, pero si usted quiere gastar tiem-
po y dinero podemos hacer también esto —daño no le va a hacer.
La selección de perspectivas puede ser excluyente —una sola— o in-
clusiva —una combinación de varias—. La combinación puede estar ar-
ticulada exterior o interiormente, en paralelo o en serie.
La investigación puede ser expresión de un contexto teoremático o de
un contexto problemático. El orden teoremático es el de las constantes o
esencias fijas —discontinuas—, el orden problemático es el del flujo de
sus variaciones continuas (Deleuze y Guattari, 1980: 455). Los lenguajes
científicos tienen estructura teoremática, pero sus contextos de aplica-
ción tienen estructura problemática (no me importa lo que dice Katona,
yo lo que quiero es vender sopas). Lo que nos conduce de una dimensión
anafórica (lo que dice Fulano y Fulano) a una dimensión deíctica (lo que
tenemos que hacer aquí y ahora para resolver el problema al que nos en-
frentamos). Cuando investigamos desde un contexto teoremático, sole-
mos seleccionar una sola perspectiva y una sola técnica (estamos ence-
rrados en el formulismo metodológico). Cuando investigamos desde un
contexto problemático, debemos hacer una articulación más o menos
compleja de perspectivas y técnicas.
Un caso de articulación mínima: cuando, por razones técnicas o míti-
cas, hay que realizar una encuesta de opinión, es necesaria una investiga-
ción estructural como fase previa (generalmente, algún grupo de discu-
sión). De lo contrario, la investigación reflejará la opinión del que
redactó el cuestionario, no la de aquellos a los que se aplica.
Cabe también una articulación máxima. Una encuesta opera con uni-
dades en distintas dimensiones (gente, productos de la actividad de la gen-
te, espacio, tiempo…) y a diferentes niveles en cada dimensión [en la di-
mensión «gente»: individuos, conjuntos de individuos (familias), conjuntos
de conjuntos de individuos —conjuntos de familias— (entidades de pobla-

57
El diseño de la investigación social

ción), etc.]. Se puede diseñar una encuesta que analice estructuralmente


cada unidad y distributivamente la distribución de los conjuntos de unidades.
Por ejemplo: si tomamos como unidades «conjuntos profesor/alumnos»,
podemos realizar un análisis de cada unidad, estructural de la relación
alumno/alumno (por ejemplo, mediante un test sociométrico), dialéctico
de la relación profesor/alumnos (un pequeño socioanálisis) —así detecta-
remos, respectivamente, la estructura y el sistema; y un análisis del conjun-
to de unidades (ver cómo se distribuyen los tipos de estructura y/o siste-
ma). Las limitaciones de las diferentes perspectivas, aunque hay límites
objetivos, suelen ser subjetivas (falta de imaginación sociológica de los in-
vestigadores —que es, por supuesto, inducida socialmente).
La selección de técnicas dentro de una perspectiva es un problema re-
lativamente trivial.
En la perspectiva distributiva podemos producir primariamente da-
tos (encuesta) o recogerlos secundariamente. En general, recurrimos a la
producción primaria cuando no hay datos disponibles para la recolec-
ción secundaria. La expresión «no hay datos» articula varios sentidos:
no los hay, los hay pero no son fiables (bien en un contexto técnico, bien
en un contexto ideológico). Los errores técnicos suelen ser actos fallidos
ideológicos. El mismo requerimiento puede expresar diferentes deman-
das: no es el mismo el requerimiento de «datos estadísticos sobre el
paro» —medir el paro— desde la cúspide que desde la base. Las medidas
sobre el paro que se vayan a emprender desde la cúspide constituirán un
simple maquillaje del paro (suavizar las cifras, disimular el paro). Las
medidas sobre el paro que se vayan a emprender desde la base tenderán a
solucionar el problema del paro, bien a nivel individual (subvenciones a
parados), bien a nivel colectivo (general inversión que genere puestos de
trabajo). Los índices que miden las fluctuaciones del coste de la vida sue-
len ser más altos cuando proceden de los sindicatos que cuando proce-
den de las patronales o de los gobiernos. El requerimiento responde a di-
ferentes demandas: demandas de manipulación técnica de las patronales
(subir menos los salarios), demanda de manipulación ideológica de los
gobiernos (demostrar el éxito de su política económica) —ambas son de-
mandas de manipulación dentro de la estructura y el sistema—, deman-
das de transformación de la estructura (si son reformistas) o del sistema
(si son revolucionarios), de los sindicatos. No hay índice objetivo: sólo es
objetivo dentro de unos objetivos (si es adecuado para esos objetivos).
En la perspectiva estructural podemos producir primariamente tex-
tos (mediante entrevistas individuales —en profundidad— o mediante
grupos de discusión) o recogerlos secundariamente (análisis estructural

58
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

de textos). La recolección secundaria se refiere más bien al plano de los


emisores —a los que tienen derecho a la palabra—, la producción prima-
ria al plano de los receptores —a las minorías silenciadas—. A estas mi-
norías, pues son objetos y están privados de la palabra, hay que darles
—por un día— la palabra. En su cuerpo ha sido grabada la ley, a nivel
generativo o de lengua o de competencia: hay que hacerles hablar, a nivel
fenomenal o de habla o de actuación para deducir del habla la lengua, de
la actuación la competencia, de lo fenomenal; lo generativo. Cuando el
objeto de manipulación sea un objeto total (un individuo) o busquemos
un eje genético, será más adecuada la entrevista en profundidad. Cuando
el objeto de manipulación sea un grupo (un objeto parcial) o busquemos
una estructura profunda, será más adecuado un grupo de discusión. In-
cluso es posible el empalme en serie de grupos de discusión y entrevistas
en profundidad: el grupo es, filogenética y ontogénicamente, anterior al
individuo; después de la discusión, pueden ser entrevistados los partici-
pantes, para ver qué efectos ha producido en ellos.
En la perspectiva dialéctica, sólo hay una técnica más o menos codi-
ficada3 (el socioanálisis). Pero podemos considerar que se inscribe en esta
perspectiva toda intervención in vivo. Bien a nivel de los individuos o del
grupo (dinámica de grupos), bien a nivel de las estructuras o de la orga-
nización (intervención a lo Touraine), bien a nivel de los sistemas o de la
institución (socioanálisis). Cuanto más bajo sea el nivel, más débil será la
intervención (y menos peligrosa para el statu quo). Lo instituido presio-
nará para bajar de nivel, lo instituyente presionará para subir de nivel.

4.  Diseño del diseño

Un proceso de investigación puede ser abierto o cerrado a la informa-


ción. Es cerrado cuando el proceso de investigación sólo produce las in-
formaciones previstas en el diseño (previamente programadas). Es abier-
to en la medida en que puede producir informaciones no previstas en el
diseño. Hay dos modos de informar un sistema: inyectarle información
desde fuera (mediante un programa), o hacerle capaz de producir infor-
mación desde dentro (de integrar el azar) —Von Foerster, 1960—. En el
campo pedagógico, al primer modo le llamamos enseñar, y al segundo
modo, aprender. Los profesores académicos enseñan, inyectan informa-
ción al alumno y verifican la inyección mediante un examen memorísti-
co; los profesores críticos enseñan a aprender, incitan a los alumnos a
pensar. El primer modo es eficaz cuando el futuro es una copia del pasa-

59
El diseño de la investigación social

do, cuando no hay cambios en el medio (y el genotipo se aplica siempre


en el mismo fenotipo); el segundo modo es eficaz cuando el futuro no es
una copia del pasado, cuando hay cambios en el medio (y la correspon-
dencia entre genotipo y fenotipo es no biunívoca). La utilidad de una
memoria depende de la medida en que el futuro copie el pasado: es vital
cuando el futuro es función del pasado, es mortal cuando el futuro es in-
dependiente del pasado (y en los demás casos, que son casi todos, es par-
cialmente vital y parcialmente mortal —y, en todo caso, ha de ser com-
plementada por la imaginación).
En la perspectiva distributiva, por ejemplo en la encuesta estadística,
las informaciones que van a ser producidas han de haber sido diseñadas
previamente, han de haber sido pro-gramadas (el investigador como algo-
ritmo o robot —cumple órdenes—). Los datos tienen una estructura de
matriz tridimensional (Galtung, 1966): un conjunto inestructurado de
respuestas (valores) a un conjunto inestructurado de preguntas (varia-
bles) hechas a un conjunto inestructurado de individuos (unidades). Las
tres dimensiones de la matriz han de haber sido diseñadas de antemano:
en dirección a los valores los cuadros de resultados y el tratamiento a
que han de ser sometidos (test de significación, análisis dimensional o
causal), en dirección a las unidades el conjunto de individuos que van a
ser entrevistados —la muestra— (y su relación con el universo, para que
sea posible la extrapolación), en dirección a las variables el conjunto de
preguntas que se les van a hacer —el cuestionario— (la redacción de
cada pregunta y la secuencia de las preguntas). La suerte está echada an-
tes de empezar la investigación propiamente dicha (los llamados trabajos
de campo). En las perspectivas estructural o dialéctica, por ejemplo en el
grupo de discusión o en el socioanálisis, el diseño es coextensivo al proceso
de investigación: los participantes (en la discusión, en la asamblea) pue-
den plantear sus propias preguntas.
Un proceso abierto de discusión es posible si el investigador es inte-
grado, como sujeto en proceso, en el proceso de investigación. A medida
que pasamos de la perspectiva distributiva a la estructural, y a la dialécti-
ca, hay una integración mayor de investigador.
Podemos distinguir, con Bateson, dos niveles en un proceso de comu-
nicación: un nivel de contenido (referencial), en cuanto transmite infor-
maciones o computa, y un nivel relacional, en cuanto impone relaciones
u ordena. El primer nivel, que implica comunicaciones digitales, es de
tipo lógico más bajo que el segundo nivel, que implica comunicaciones
análogas. El nivel relacional es una interacción entre sujetos. El nivel de
contenido es objetivo4.

60
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

En la perspectiva distributiva, el sujeto es limpiamente evacuado. La


objetividad es la intersección de intrasubjetividad (el mismo sujeto ob-
serva lo mismo en distintas ocasiones) e intersubjetividad (distintos suje-
tos observan lo mismo): se trata de un sujeto idéntico, idéntico cada uno
a cada otro, idéntico cada uno a sí mismo (no cambia). Es un punto fijo
sin extensión ni duración, un sujeto trascendental. El proceso está regido
por un algoritmo o programa inyectado desde fuera. La singularidad sub-
jetiva del investigador es reducida como «ecuación personal».
En la perspectiva estructural, el sujeto es integrado parcial y transito-
riamente. Parcialmente, en cuanto es incorporado, aunque sólo a nivel de
contenido de las comunicaciones, tiene que decidir lo que sin su decisión
sería indecidible, la pertinencia de los datos que capta o de las interpreta-
ciones que les impone. Transitoriamente, en cuanto es incorporado sólo
tácticamente a nivel relacional de las comunicaciones: por táctica admite
como interlocutores válidos a los sujetos que están en su campo de ob-
servación, pero dentro de una estrategia que tiende a remachar su objeti-
vación.
En la perspectiva dialéctica se pretende integrar al sujeto total y defi-
nitivamente, pues integra los niveles de contenido y relacional. Las otras
dos perspectivas operan in vitro, produciendo cortes topocronológicos
arbitrarios: esta perspectiva opera in vivo, alcanzando el techo de la obje-
tividad y el techo de la relacionalidad5. Traspasa los límites internos, co-
municando la actividad intelectual, puesta en juego al nivel de contenido,
y la afectividad, puesta en juego al nivel relacional, y los límites con el ex-
terior, aboliendo la separación sujeto (investigador)/objeto (investigados).
Históricamente, hay tres momentos en el proceso de la integración
sujeto (investigador)/objeto (investigado). El primer momento corres-
ponde al desarrollo de las ciencias naturales (físicas y biológicas): se en-
frentan a una realidad no hablante, tratan a los objetos como a objetos.
En este momento hay una neta separación entre el sujeto y los objetos.
El segundo momento corresponde al desarrollo de las ciencias humanas:
se enfrentan a una realidad hablante silenciándola, tratan a los sujetos
como objetos. En este momento permanece la separación estratégica en-
tre el sujeto y los objetos, pero el sujeto se aproxima tácticamente a los
objetos para hacerlos hablar (aunque objetive su habla, reduciéndola a
mero comportamiento). El tercer momento corresponde al desarrollo de
las ciencias sociales: se enfrentan a una realidad hablante potenciando su
habla, tratan a los sujetos como sujetos. En este momento queda aboli-
da la separación entre sujeto y objeto. Este proceso es resumido —al
modo en que la ontogénesis resume la filogénesis— en el desarrollo de

61
El diseño de la investigación social

las técnicas de investigación social: los tres momentos corresponden,


respectivamente, al desarrollo de las perspectivas distributiva, estructu-
ral y dialéctica.
El investigador social forma parte de la sociedad que investiga, es un
dispositivo autorreflexivo (un espejo) que la sociedad se pone —hay que
tener en cuenta que el reflejo articula un componente semántico o copia
y un componente pragmático o mapa, una observación o información y
una acción o neguentropía—. ¿Cómo es posible que, si es interior, se
ponga en el exterior de la sociedad para observarla y actuar sobre ella?
¿Cómo, si es una parte, puede comprender al todo —la sociedad?
La verdad científica ha intentado articular dos pruebas: la prueba
empírica (adecuación a la realidad) y la prueba teórica (coherencia del
discurso). Heisenberg nos demuestra que la prueba empírica es imposi-
ble: no se puede determinar a la vez la posición y el estado de movimien-
to de una partícula (de ahí la complementariedad partícula/onda, si de-
terminamos la posición tendremos una partícula, si determinamos el
estado de movimiento tendremos una onda, pero nunca tendremos a la
vez la partícula y la onda). Gödel nos demuestra que la prueba teórica es
imposible: no puede haber una teoría que sea a la vez consistente (que
todos sus enunciados sean demostrables) y completa (que contenga to-
dos los enunciados verdaderos —siempre habrá un enunciado al menos
que sea verdadero pero que no se pueda probar—). La prueba empírica y
la prueba teórica son paradójicas. Es paradójico todo enunciado que se
refiere a sí mismo (autorreferente): el conjunto de todos los conjuntos
—paradoja sintáctica—, el mentiroso dice «yo miento» —paradoja se-
mántica—, el padre dice al hijo «no me obedezcas» —paradoja pragmá-
tica—. Son sentencias autorreferentes la prueba empírica (pues hay que
medir la materia con instrumentos hechos de materia) y la prueba teóri-
ca (pues hay que pensar el pensamiento o hablar del habla). La verifica-
ción, en ambas dimensiones, nos introduce en un proceso de regresividad
ilimitada. La prueba empírica: en una nueva medición puedo tener en
cuenta la distorsión que produzco en lo medido al medirlo, pero en otra
nueva medición tendré que tener en cuenta la distorsión producida por la
medición anterior, etc. La prueba teórica: puedo introducir la sentencia
godeliana —cuya verdad es no demostrable en esa teoría— como axioma
de una metateoría, que a su vez producirá sentencias godelianas que ha-
brá que introducir como axiomas en una metametateoría, etc.
Sólo un sujeto humano, parlante o sexuado (esto es castrado), puede
enfrentarse con las paradojas. Sexuado: sujeto dividido en pos de un obje-
to perdido, que nunca podrá coincidir consigo mismo —siempre estará en

62
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

proceso o devenir—, que nunca podrá alcanzar el objeto. Es la definición


de un sistema abierto, abierto siempre a la búsqueda de nuevos fines (o
valores). Porque no puede alcanzar la verdad no dejará de perseguirla,
porque no hay respuesta definitiva no dejará de preguntar.
Al investigar el orden social transformo el orden social y me trans-
formo yo. La transformación que se opera en mí es la medida de la trans-
formación que se opera en la sociedad. Como la sociedad es un conjunto
autorreflexivo, puede ponerse en correspondencia con una de sus partes
(que soy yo). Un sujeto en proceso es la única medida de un proceso social
(Ibáñez, 1986a).
En un proceso cerrado de investigación, como el que ocurre en la pers-
pectiva distributiva, el diseño o programa ha de ser explícito: se puede ense-
ñar a investigar, decir a un investigador cómo debe diseñar las investigacio-
nes. En un proceso abierto de investigación, como ocurre en la perspectiva
estructural y sobre todo dialéctica, el diseño o programa está implícito en el
proceso de investigación (en el proceso del sujeto de la investigación en el
proceso de investigación): no se puede enseñar a investigar, no se puede de-
cir a priori a un investigador cómo debe diseñar las investigaciones. El di-
seño será modificado a la vista de sucesos imprevistos que ocurran a lo lar-
go del proceso. Es la diferencia entre lo que tradicionalmente se ha
llamado técnicas y artes. Una técnica se puede transmitir mediante una co-
municación al nivel de contenido: así, mediante protocolos, cómo realizar
un análisis químico o cómo cocinar un plato (o cómo realizar una encues-
ta). Un arte sólo se puede transmitir mediante una comunicación a nivel
relacional: así, cómo pintar un cuadro o cómo operar una úlcera (o cómo
realizar un grupo de discusión). En este caso se puede aprender mediante
una relación interpersonal prolongada con uno que sabe: el pintor, el ciru-
jano o el sociólogo que trabaja con grupos de discusión suelen estar mu-
chos años al lado de un «maestro» (también pueden aprender emborro-
nando telas, matando enfermos o mareando a la gente).
Un observador, que puntúa semánticamente, y un actor, que puntúa
pragmáticamente, están en un punto-momento de observación y/o ac-
ción. Ese punto-momento expresa un poder: y hay que explicitar ese po-
der. El proceso de esta explicitación se desarrolla en tres momentos: ab-
soluto, relativo y reflexivo. En el momento absoluto el poder está
implícito, el observador/actor está fuera del sistema que observa y sobre
el que actúa y no tiene en cuenta que está fuera (simula ocupar el lugar de
Dios). En el momento relativo el poder es parcialmente explicitado, el
observador/actor está fuera y reconoce que está fuera (reconoce la posibi-
lidad de muchos observadores cada uno con su perspectiva: pasamos del

63
El diseño de la investigación social

monoteísmo al politeísmo). En el momento reflexivo el observador /actor


está dentro del sistema que observa y sobre el que actúa (y se reconoce
como dispositivo de autorreflexividad de este sistema) —Pask, 1976—.
Son, respectivamente, las concepciones de la mecánica clásica (Newton),
relativista (Einstein) y cuántica (Heisenberg). Dentro de las técnicas de
investigación social, el primer momento corresponde a la perspectiva dis-
tributiva, el segundo momento corresponde a la perspectiva estructural,
y el tercer momento corresponde a la perspectiva dialéctica. Cuanto más
puntúa un investigador, menos tiene en cuenta sus puntuaciones.
Veamos qué puntuaciones realizan los investigadores en cada una de
las tres perspectivas.

4.1  Diseño en la perspectiva dialéctica

La principal operación de diseño es la recolección de analizadores natura-


les y la producción de analizadores artificiales.
El análisis —lo mismo el socioanálisis que el psicoanálisis— transfor-
ma en abierto lo cubierto (pone de manifiesto lo latente, simula lo disimu-
lado). La sexualidad adulta o la explotación feudal (patentes) no necesi-
tan análisis: sí lo necesitan la sexualidad infantil o la explotación
capitalista (disimuladas). Lo reprimido por los dispositivos de disimula-
ción es la libido a nivel individual y la revolución a nivel social (la deman-
da de una transformación permanente de las relaciones sociales, implica-
da por el hecho de que los sistemas sociales son sistemas abiertos). Una
relación analítica pone en juego tres instancias: un analista, un analizan-
te (individual o institucional) y un(os) analizador(es). Un analizador es
un dispositivo que desvela lo disimulado en el analizante.
Hay analizadores espontáneos («naturales» o recolectados) y analiza-
dores artificiales («culturales» o producidos). Son, por ejemplo, analiza-
dores naturales: «el niño (que) nos habla de la separación entre la forma-
ción y la brutal entrada en la vida «adulta», la vida del capital. La mujer
(que) nos habla de la separación entre la búsqueda de la felicidad y la
ambición social. El enfermo (que) nos habla de la separación entre con-
templación y acción. El loco (que) nos habla de la separación entre lo
normal y lo patológico. El anciano (que) nos habla del deterioro de la
noción de adulto, separando un período —cada vez más corto— de exis-
tencia vendible al capital y un período de supervivencia, de existencia su-
perflua» (Lourau, 1975: 285). «El movimiento obrero ha sido el analiza-
dor de la sociedad industrial naciente del sistema capitalista. Porque lo

64
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

han comprendido, pero sin decirlo explícitamente, analistas como Marx


o Proudhon, han podido producir un análisis de esta sociedad realizado
a partir de su analizador social» (Lapassade, 1971: 24-25). Para catalizar
el efecto analítico se construyen analizadores artificiales. Así, por ejem-
plo, el ceremonial psicoanalítico (diván, horarios, dinero, obligación de
decir todo lo que pasa por la cabeza) o el ceremonial socioanalítico (pre-
sencia del socioanalista en la institución, asambleas, murales o vídeos
—como superficies de inscripción del deseo—, movidas en general) cons-
tituyen dispositivos analizadores. Con ambos tipos de analizadores se
construye un campo analizable: un campo analizable permite el análisis
del analizante (transferencia) y del analista (contratransferencia).
Los analizadores surgidos espontáneamente (naturales) no forman
un campo analizable; permite el análisis del analizante —persona en el
psicoanálisis, institución en el socioanálisis—, pero no el del analista. En
realidad, lo que falta en el campo es el analista: el movimiento obrero en-
contró su analista en Marx, la polimorfa perversión sexual infantil en-
contró su analista en Freud. Ambos analistas, porque autoanalizados.
El socioanalista recolecta analizadores naturales y produce analiza-
dores artificiales: esta operación potencia el efecto catalítico de los anali-
zadores naturales, y el conjunto de analizadores naturales y artificiales
constituye un dispositivo analizador.
Un dispositivo analizador induce a la provocación. «Provocar» quiere
decir literalmente «hacer hablar», hacer pasar a la palabra (para que se
diga lo no dicho e, incluso, se intente decir lo no decible —paso a la ac-
ción o acting out—). Las camarillas universitarias, por ejemplo, son visi-
blemente conjuntos maestro/discípulos y son invisiblemente conjuntos
padrino/pandilla: esta expresión —de un profesor de la Facultad de
Ciencias Políticas y Sociología— constituye una provocación. El socio­
análisis, mediante la recolección y producción de analizadores, recolecta
y produce provocadores, individuos particulares, a quienes su situación
en la organización permite alcanzar la singularidad de «provocadores».
En el estado actual de los métodos de investigación sociológica no es po-
sible dilucidar el problema del poder, el problema del dinero y el proble-
ma de la ideología, que viene a mezclarse de manera inextricable con los
dos primeros, sin que intervenga en la situación analítica cualquiera de
las figuras bajo las cuales se presenta el analizador: «genio travieso»
(sembrador de duda radical), «espíritu perverso», «sufre-dolores» o «chi-
vo expiatorio», «oveja apestada» o «aguafiestas», el «gracioso de la pan-
dilla», el especialista en «bromas pesadas», o el «maniático del espíritu
de contradicción» (Lourau, 1975: 282).

65
El diseño de la investigación social

La presencia del socioanalista en la institución es ya provocadora: sin


asignación localizable en la división social del trabajo, su presencia es su-
perflua y expresa el exceso de significante que pone de manifiesto el de-
fecto de significado (manifiesta la estructura, convergencia de una serie
significante en exceso y una serie significada en defecto —Deleuze, 1971:
71-73—)6.Toda estructura incluye un ámbito de disimulación, y el so-
cioanálisis constituye un dispositivo de simulación que desvela lo disimu-
lado.
En la perspectiva dialéctica, el diseño alcanza su mínima expresión.
No sólo porque se reduce al mínimo en el momento de la producción o
emisión (recolección y producción de analizadores), sino también y sobre
todo porque se anula en el momento del consumo o recepción. El socio­
analista (como cualquier analista) está, en relación al material —pala-
bras o acciones— recolectado o producido, en permanente posición de
escucha. El término «escucha» expresa, en Freud, la atención flotante del
analista en psicoanálisis. Es la contrapartida de la obligación para el
analizante de decir todo lo que pasa por su cabeza: el analista tiene la
«obligación» de oír todo lo que pasa por la boca —y, en general, por el
cuerpo— del analizante. Escucha es lo contrario de atención (una aten-
ción flotante es una no atención): el que atiende sólo puede oír lo que es-
pera oír desde el horizonte de sus deseos y/o intereses, el que escucha
puede oírlo todo. «Yo no busco, encuentro» —decía Picasso—. El que
atiende busca, el que escucha encuentra. Sólo se puede encontrar lo que
no se puede buscar: porque, si lo pudiéramos buscar, ya lo habríamos en-
contrado.
La posición de escucha expresa la máxima abertura posible del sujeto
de la investigación.

4.2  Diseño en la perspectiva estructural

En la perspectiva estructural quedan restringidos el campo de la provo-


cación y el campo de la escucha: pasamos de una provocación y escucha
generalizadas a una provocación y escucha restringidas. Provocación y
escucha quedan acotadas por unos objetivos determinados. Pasamos de
una estrategia de liberación (una acción sociológica ilimitada en su inten-
ción) a una estrategia de control (una acción psicosociológica de inten-
ción limitada). En la perspectiva dialéctica, la información producida por
el proceso de investigación queda en poder de los investigados: así, como
individuos o como grupos, acrecen su probabilidad de devenir sujetos.

66
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

En la perspectiva estructural —y, por supuesto, en la distributiva— la in-


formación producida por el proceso investigador es retenida por la ins-
tancia investigadora y les es devuelta a los investigadores —por la instan-
cia cliente— en forma enajenada (la neguentropía se integra en
dispositivos de «manipulación»).
Veamos el ámbito al que queda acotado el diseño en las técnicas cla-
ve de investigación dentro de esta perspectiva: grupo de discusión, entre-
vista llamada en profundidad y análisis de textos.

a) En el grupo de discusión —que es la técnica más general y comple-


ta dentro de esta perspectiva—, la provocación queda acotada a la
formación del grupo y a la propuesta de un tema para la discusión,
y la escucha queda acotada sólo a lo que sea pertinente para ese
tema.
 La formación de grupos, selección y agrupamiento de partici-
pantes no responde a criterios estadísticos, sino estructurales (no
se trata de una muestra de términos o elementos, sino de una
«muestra» de relaciones). Investigamos a nivel de la lengua, no a
nivel de las hablas (nivel al que investiga la perspectiva distributi-
va). Cuando hablamos, aplicamos la lengua y —en el mismo sen-
tido en que un genotipo contiene muchos fenotipos posibles (pero
no todos)— una lengua contiene muchas hablas posibles pero no
todas. El orden constante de la lengua contiene un flujo variable
de hablas. Una ideología es una lengua acotada, un conjunto de
restricciones en la lengua común. Cuando hablamos somos habla-
dos por las ideologías que la sociedad ha grabado (escrito) en
nuestro cuerpo. Cada ideología está estructura por un discurso:
encadenamiento de proposiciones, del orden lógico del razona-
miento, del orden físico de la probabilidad o del orden moral de la
promesa. Articulando —a modo de Frankenstein— trozos (a me-
nudo contradictorios) de esos discursos, construimos cada uno
nuestro discurso «personal».
  No es posible el diseño previo de la interpretación y el análisis
de los textos producidos por las discusiones en los grupos7. La
posición del investigador sigue siendo de escucha: sólo así podrá
encontrar lo que no busca, sólo así el proceso de investigación
será un proceso abierto. Pero el ámbito de la escucha —lo mismo
que el ámbito de la provocación— queda acotado por los objeti-
vos de la investigación: lo mismo que —aquí— la ley para el ana-
lizante no es decir todo, sino sólo lo que es pertinente al tema: la

67
El diseño de la investigación social

ley para el analista no es escuchar todo, sino sólo lo que es perti-


nente al tema. Sin embargo, el criterio de pertinencia es —tam-
bién— un criterio abierto: lo que parece no pertinente puede ser-
lo si registra una condensación metafórica o un desplazamiento
metonímico. Podemos esperar en el texto los mismos desliza-
mientos que producimos en la propuesta del tema. Por ejemplo:
en una investigación sobre edulcorantes no azucarados, las ex-
presiones «la política descafeinada del Gobierno» o «cada día
hay más enfermos de cáncer» no parecen pertinentes; pero lo
son, la primera registra una condensación metafórica (semejanza
entre un partido político light y un alimento light), y la segunda
registra un desplazamiento metonímico (contigüidad —por cau-
sación— entre los alimentos light, que llevan componentes sinté-
ticos, y el cáncer).

b) En la entrevista abierta —que es la degeneración del contexto si-


tuacional del grupo de discusión a una simple interacción entre-
vistador/entrevistado— la provocación queda igualmente acotada
a la selección de la persona entrevistada y a la propuesta de un
tema para hablar, y la escucha queda igualmente acotada sólo a lo
que sea pertinente para ese tema.
  Aquí hay que deshacer un equívoco. Con el nombre de entrevis-
ta en profundidad se designa habitualmente una entrevista simple-
mente mal estructurada (la «guía» para la entrevista es sólo un
cuestionario mal diseñado). La entrevista abierta procede de la
psicoterapia no directiva inspirada en Carl Rogers: él mismo fue el
primero que sugirió su utilización en la investigación social (Ro-
gers, 1945). La entrevista, lo mismo que el grupo, experimenta
una transformación radical al pasar del ámbito de la psicoterapia
al ámbito de la investigación8. En psicoterapia (individual o gru-
pal) toda la información producida pasa a la instancia analizante:
allí se transforma en neguentropía, como mayor y mejor capaci-
dad de producir su propia información (como posibilidad de ser
sujeto). En investigación (mediante entrevistas individuales o gru-
pos de discusión) toda la información producida queda retenida
en la instancia analista: aquí se transforma en neguentropía,
como capacidad de inyectar información en la instancia analiza-
da (el analizante se convierte en analizado, y queda permanente-
mente en situación de objeto). En la perspectiva dialéctica la in-
formación pasa siempre al analizante: un grupo de discusión o

68
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

una entrevista abierta se transforman a la perspectiva dialéctica si


se comunica a la instancia analizante la información producida9.
«Cuando se hace una serie de entrevistas no directivas en oportu-
nidad de una investigación y se comunican los resultados al gru-
po que está dirigiendo la investigación (laboratorio, empresa, Go-
bierno), es evidente que este grupo sólo constituye una parte del
grupo total al que concierne el problema: no es el equivalente del
cliente en psicoterapia individual. El equivalente del cliente com-
prendería este grupo al que habría de agregar, por lo menos, el
conjunto de las personas entrevistadas. Al favorecer el desarrollo
de comunicaciones unilaterales en favor de un subgrupo, el entre-
vistador aumenta la cantidad de información de que dispone este
grupo con relación a los otros y, en consecuencia, su poder de
control sobre los acontecimientos: por el contrario, no favorece el
desarrollo de la regulación y del control en el nivel del grupo to-
tal» (Pagès, 1976: 125). Sin embargo, salvo esta restricción sobre
la distribución de la información —que acota el ámbito de la pro-
vocación y la escucha—, la entrevista abierta debe ser en toda su
extensión una técnica abierta (valga la redundancia). El uso de
cuestionarios o guías está fuera de lugar.
  Hemos visto que con el grupo de discusión buscamos —cons-
truimos— una estructura profunda (una arqueología, en sentido
foucaultiano) y con la entrevista abierta buscamos —construi-
mos— un eje genético (una genealogía, en sentido foucaultiano).
Así como en la formación del grupo de discusión intentamos satu-
rar la estructura (lugares de enunciación de discursos), en la selec-
ción de personas a entrevistar intentamos saturar la génesis (tiem-
pos de enunciación de discursos). Mediante la entrevista abierta
investigamos las distintas hablas que aplican una misma lengua.
Podemos hablar unos con otros (discusión) o uno consigo mismo
(reflexión). Como ejemplo del primer caso, si queremos realizar
una investigación sobre el automóvil, podemos investigar me-
diante grupos de discusión la significación del automóvil en nues-
tra sociedad —cómo los discursos publicitarios producen una
«imagen» del automóvil—, y mediante entrevistas abiertas los
procesos de compra-uso-venta… —cómo esa imagen se aplica en
decisiones y acciones, y cómo se modifica por la experiencia—
(aquí, el nivel de competencia es grupal, y el nivel de actuación es
individual). Es obvio que, en la selección de personas a entrevis-
tar, habrá que saturar los momentos críticos de esos procesos: pri-

69
El diseño de la investigación social

mera adquisición de automóvil (de las diferentes marcas y mode-


los), adquisiciones sucesivas (de los mismos u otras marcas y
modelos). Como ejemplo del segundo caso, si queremos realizar
una investigación sobre la respuesta de los médicos a la ley de in-
compatibilidades, nos encontramos con dos modos muy distintos
de praxis médica, práctica liberal (individual) y práctica institu-
cional (grupal): entre los médicos institucionales —más solida-
rios— el nivel de competencia es grupal, entre los médicos libera-
les —más insolidarios— el nivel de competencia es individual (en
ambos tipos, el nivel de actuación es individual). Para buscar
—construir— la estructura profunda, podríamos utilizar grupos
de discusión para los médicos institucionales (la «opinión» se for-
ma mediante dispositivos conversacionales unos-con-otros), y po-
dríamos utilizar entrevistas abiertas para los médicos liberales (la
«opinión» se forma mediante dispositivos conversacionales uno-
consigo-mismo). Por lo demás, si queremos investigar los proce-
sos de compatibilización e incompatibilización de unos y otros,
podríamos utilizar entrevistas abiertas (aquí —pues incluyen un
componente documental— se aproximan a las historias de vida).
Cuando nos encontramos con praxis individuales —propias del
capitalismo de producción— la entrevista abierta funciona como
sucedáneo del grupo de discusión (no es posible poner a discutir
dentro del proceso de investigación a los que nunca discuten fuera
del proceso de investigación).
 La propuesta del tema para hablar plantea más problemas que
en el grupo de discusión. En el grupo de discusión, la propuesta es
puntual: el preceptor le transmite una información inicial al gru-
po y las sucesivas informaciones son producidas por el propio
grupo (el dispositivo conversacional unos-con-otros pone en juego
relaciones transitivas de comunicación, que generan una compe-
tencia entre los interlocutores —como dice Lacan, lucha por
apropiarse la esencia humana10—: es una situación recíprocamen-
te retroactiva, lo que uno dice modifica al otro que a su vez dice y
modifica a uno…). El preceptor no interviene en la discusión del
grupo aportando nuevas informaciones, solamente le devuelve al
grupo las informaciones producidas por él, bien reflexivamente o
reformulando (repitiendo literalmente palabras y/o gestos, re-
comunicando: devolver al grupo el deseo manifestado), bien
refractivamente o interpretando (interpretando algunas palabras
y/o gestos, meta-comunicando: devolver en forma manifiesta al

70
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

grupo el deseo expresado en forma latente —la interpretación


hace manifiesto o abierto lo latente o cubierto, simula lo disimula-
do—). En la entrevista abierta no basta con la propuesta puntual
inicial: la información inicial que el entrevistador le transmite al
entrevistado cataliza un proceso que enseguida se agota —retor-
no al equilibrio— (el dispositivo conversacional uno-consigo-mis-
mo pone en juego relaciones reflexivas de comunicación: hay un
amortiguamiento de la retroacción). El grupo tiene más capaci-
dad de producir información que el individuo. Por eso es más di-
fícil la labor del entrevistador —en una entrevista abierta— que
la del preceptor —en un grupo de discusión—. El entrevistador
tiene que actuar para provocar al entrevistado a hablar, evitando
conducir o canalizar su habla. Los modos generales de actuación
siguen siendo la reformulación y la interpretación: pero los tienen
que poner en juego con más frecuencia que en el grupo de discu-
sión. El movimiento del entrevistador por la entrevista es tan deli-
cado y problemático como el de un caracol reptando a lo largo
del filo de una navaja barbera. Cualquier diseño previo de sus in-
tervenciones —cualquier cuestionario o guía— provocará el cor-
te, y el habla del entrevistado se derramará en el discurso del en-
trevistador.
  Lo mismo que el preceptor en el grupo de discusión, el entre-
vistador en la entrevista abierta estará siempre a la escucha, abier-
to a cualquier emergente inesperado: tanto en el proceso de la en-
trevista como en el proceso de su interpretación y análisis. Las
condiciones de esa escucha son las mismas que en el caso del gru-
po de discusión: pero es precisa una escucha más sensible durante
la entrevista que durante la discusión en el grupo. Lo mismo que
allí, aquí tampoco se puede diseñar la escucha: hay que diseñar
siempre sobre la marcha.

c) En el análisis de textos —que es la degeneración máxima del con-


texto existencial— la provocación es anulada y la escucha es res-
tringida a su dimensión espacial.
Esta técnica está incluida como una etapa en las técnicas anterio-
res: la discusión y la entrevista son registradas magnéticamente y
transcritas mecanográficamente, resultando un texto-para-analizar.
Sólo que en el análisis de textos el diseño no alcanza al proceso de
producción, sólo al producto (selección del texto-para-analizar).

71
El diseño de la investigación social

Esta selección plantea un problema nuevo. El investigador es quien


puntúa ese texto, quien establece la frontera que cierra el texto. El texto
se unifica por esa frontera: la frontera mantiene juntos a los elementos
del conjunto, el que diseña la frontera produce la unidad o conjunto11. En
el grupo de discusión puntúa el grupo, en la entrevista abierta puntúa el
entrevistado (salvo la formación del grupo o selección del entrevistado y
la propuesta de tema, que son puntuados por el investigador). Hay con-
juntos-para-analizar a los que cierra el propio proceso de su producción:
un libro (o la colección de libros de un autor, o de una editorial, o de un
género literario), un ejemplar de periódico (o la colección de un periódi-
co, o la colección de las colecciones de todos los periódicos). Pero cual-
quier selección que rompa esos conjuntos es producida por la puntua-
ción arbitraria del investigador: el investigador puede demostrar lo que
quiera, mediante el análisis de textos, si puntúa adecuadamente (de ahí el
carácter traicionero de las citas).
En el grupo de discusión y en la entrevista abierta, la escucha es
temporal a lo largo del proceso de producción (este componente tempo-
ral de la escucha es necesario, pues el investigador incide, mediante re-
formulaciones y/o interpretaciones, en el proceso), y espacial en el mo-
mento de análisis e interpretación del producto (pues puede volver
cuantas veces quiera sobre el texto mecanografiado). En general, la
emisión es temporal (por eso es difícil hablar —y es imposible decir
nada— cuando uno prepara su discurso) y la recepción es espacial (por
eso hay que mecanografiar la discusión o la entrevista): la escucha tem-
poral, de los analistas en general, es una operación a contrapelo. En el
análisis de textos, pues el proceso de producción ha degenerado, sólo
hay escucha espacial.
La escucha espacial es reposada. El analista puede diseñar a voluntad
sus itinerarios por el texto, puede regular el ritmo de avance y puede re-
troceder. Lo que facilita el diseño: no un diseño previo, sino un diseño
diseñado a lo largo de esos recorridos. Pero, en el diseño de ese diseño, el
investigador puede incluir —del modo como incluimos en nuestra habla
sintagmas cristalizados o idiolectos— elementos codificados de diseño12.

4.3  Diseño en la perspectiva distributiva

En la perspectiva distributiva, la provocación y la escucha son anuladas.


La ideología es el obstáculo epistemológico en general, y en espe-
cial para las ciencias sociales. La ideología es un efecto de sentido, y el

72
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

«sentido —decía Lacan— tiene que ver con la religión» (por eso inten-
taba atenerse al matema). El desarrollo de las técnicas de investigación
social exige la reducción del sentido —siempre impregnado de «sentido
común»—. Esta reducción es operada por dos rupturas epistemológi-
cas: la ruptura estadística, que genera la perspectiva distributiva, dejan-
do de lado el lenguaje, y la ruptura lingüística, que en dirección semánti-
ca genera la perspectiva estructural y en dirección pragmática genera la
perspectiva dialéctica (renunciando a la ilusión de transparencia del
lenguaje, como observación y como acción), analizando el lenguaje. En
la perspectiva distributiva —fundada en una metodología estadística—
no hay provocación (a decir) ni escucha (a lo dicho) porque no se dice
nada.
Hay ciencias sedentarias, cuyo método es la reproducción iterativa y
cuya estructura es axiomática, y ciencias nómadas que persiguen itine-
rantemente e in vivo condiciones cambiantes (estructura problemática).
La perspectiva distributiva es una perspectiva sedentaria: son nómadas,
la perspectiva estructural —tácticamente— y la perspectiva dialéctica
—estratégicamente—. Las opciones nómada y sedentaria no constituyen
una alternativa excluyente, sino inclusiva: las ciencias nómadas inventan,
las ciencias sedentarias organizan, sometiéndolo a método y teoría, lo in-
ventado; las invenciones de las ciencias nómadas en su itinerario proble-
mático son incluidas como axiomas en sus dispositivos teoremáticos por
las ciencias sedentarias (del mismo modo que una metateoría incluye
como axioma una sentencia godeliana de la teoría).
En la perspectiva distributiva, el diseño domina todo el proceso de in-
vestigación: en una encuesta, por ejemplo, la suerte está echada cuando
empieza la investigación propiamente dicha —los trabajos de campo—
(han sido diseñados la muestra, el cuestionario y los dispositivos de aná-
lisis). Nada se deja al azar: de lo que se trata es de reducir el azar (en las
perspectivas estructural y dialéctica hay aberturas al azar). Lo que a un
nivel es azar (por ejemplo, moneda al aire), a otro nivel es orden (colec-
ción de monedas al aire). En última instancia todo es azar o caos: en el
caos se desarrollan vacuolas locales y transitorias de orden (nosotros for-
mamos parte de una de esas vacuolas). Con la investigación —y especial-
mente con el diseño de la investigación)— intentamos buscar y/o cons-
truir orden en el caos o azar. Por eso la estadística es la forma general del
diseño, y todo diseño es en última instancia estadístico.

73
El diseño de la investigación social

Notas
1  Hay una inversión al llegar al tercer nivel: la tecnología y la metodología se
atienen a lo dicho y lo sabido —son positivas—, la epistemología persigue lo no
dicho y no sabido —es negativa— (como la perspectiva dialéctica de la investi-
gación social es negativa, frente a la positividad de las perspectivas distributiva y
estructural).
2  Alfonso Ortí llama «profundo» al nivel inconsciente. Reserva el término
«latente» para lo que Chomsky (1970) llama «estructura profunda», alcanzable
mediante una transformación racional.
3  Cuanto más alto es su nivel lógico, menos codificadas están las técnicas.
Alfonso Ortí llama, por eso, al grupo de discusión «práctica» y no técnica.
4  Los términos originales son report (=descripción) y command (=prescrip-
ción).
5  Costa Pinto (1963: 15) afirma que «la objetividad de la ciencia de la socie-
dad (en una época como ésta en que vivimos un proceso de transformaciones
aceleradas) consiste, sobre todo, en no tener compromisos con el orden social
que se transforma».
6  En el mismo sentido en que la presencia de un extraño en la familia consti-
tuye un analizador en Llama un inspector de Priestley.
7  Llamamos discurso a un modelo teórico de encadenamiento sintáctico y
texto a su aplicación empírica (que puede suponer mezcla de discursos). Algo
parecido a la diferencia, en Marx, entre modo de producción y formación social.
8  Aparte del texto de Rogers citado, y el que inmediatamente se citará de Pa-
ges, no hay bibliografía sobre la entrevista abierta. Jorge Gómez Alcalá (psico­
analista de inspiración lacaniana) ha impartido seminarios sobre la entrevista en
profundidad en el Departamento de Métodos y Técnicas de Investigación Social
de la Facultad de Ciencias Políticas y Sociología (Gómez Alcalá, «Escucha psi-
coanalítica», en Reyes, 1988).
9  Aquí tratamos el grupo de discusión y la entrevista abierta sólo en lo que
se refiere a sus usos dentro de la perspectiva estructural. Se usan en la perspecti-
va estructural cuando son requeridos por una instancia instituida; se usarían
dentro de la perspectiva dialéctica si fueran requeridos por una instancia institu-
yente.
10  Lacan modifica el cogito cartesiano, lo hace de reflexivo transitivo: en vez
de «pienso, luego existo», «primero, los hombres saben lo que no es un hombre;
segundo, los hombres se reconocen entre ellos para ser hombres; tercero, yo me
afirmo ser un hombre, por miedo de ser convencido por los demás de no ser un
hombre» (1966: 213).
11  No hay conjunto sin frontera. Así, la serie ordenada de los números natu-
rales no formaba conjunto hasta que Cantor —mediante un teorema de existen-
cia— definió un ordinal no finito (transfinito): ese número transfinito es la fron-
tera que cierra el conjunto de los infinitos números finitos. Así, ni los sujetos, ni

74
2. Perspectivas de la investigación social: el diseño en las tres perspectivas

los objetos, ni los mensajes, forman conjunto hasta que son cercados por una
frontera —elemento de la colección que pasa al otro lado— que los conjunta
(Dios o Padre, Moneda, Lengua: equivalentes generales de valor). La castración
es el teorema de nuestra existencia (Sibony, 1974: 216).
12 Véanse Lozano, Peña-Martín y Abril (1982), Vidal Beneyto (1979), Ibá-
ñez (1985a).

Bibliografía recomendada
Alonso, L. E. (1998): La mirada cualitativa en sociología, Madrid, Fundamentos.
Callejo, J. (2001): El Grupo de Discusión: introducción a una práctica de investiga-
ción, Barcelona, Ariel.
Ibáñez, J. (1979): Más allá de la sociología. El grupo de discusión: técnica y críti-
ca, Madrid, Siglo XXI.
— (1986): Del algoritmo al sujeto. Perspectivas de la investigación social, Ma-
drid, Siglo XXI.
— y otros (1991): Nuevos avances en la investigación social, Barcelona, Anthro-
pos
— (1994): El regreso del sujeto. Investigación social de segundo orden, Madrid,
Siglo XXI.

75
El diseño de la investigación social

3.  Diseños y estrategias de


investigación social

Francisco Alvira
Araceli Serrano

1. Introducción

En el capítulo anterior, Jesús Ibáñez planteaba «el diseño como una ope-
ración tecnológica: el diseño dentro de una técnica que se ha elegido, por
ejemplo, la encuesta» relacionando la selección de diseños con las dife-
rentes perspectivas de investigación social que él enumera. En este capí-
tulo nos centramos en presentar los diseños de investigación de un modo
abierto, como algo que se perfila al llevar a cabo la investigación, de
modo que sirva para reflexionar sobre cómo investigar adaptando las
metodologías a los objetos/objetivos de la propia investigación.
Elegido un tema de investigación y concretado dicho tema en pregun-
tas, objetivos o hipótesis de modo que éste sea investigable viene el mo-
mento de elaborar el plan, proyecto, diseño de investigación.
Plan es el término más amplio para indicar qué se va a investigar,
cómo se va a hacer, así como detallar los recursos necesarios. De hecho,
plan y proyecto, a todos los efectos, son términos equivalentes mientras
que diseño se refiere a la estrategia metodológica que integra de manera
coherente y adecuada métodos y técnicas de recogida/producción de da-
tos, análisis previsto de los mismos y preguntas, objetivos o hipótesis a
investigar. La elección de un diseño de investigación implica la búsqueda
de la mejor estrategia metodológica a la vista de la población estudiada,

76
3. Diseños y estrategias de investigación social

del objeto de estudio y de las preguntas, objetivos o hipótesis de investi-


gación, todo ello con vista a poder contestar adecuadamente a las pre-
guntas, lograr los objetivos de investigación o contrastar las hipótesis, en
un contexto de investigación concreto (es decir, teniendo en cuenta tam-
bién los constreñimientos derivados de la disponibilidad de recursos para
la realización de la investigación).
El proyecto de investigación engloba normalmente el diseño de la inves-
tigación que responde a la articulación metodológica (recogida/produc-
ción de datos y materiales y análisis) más adecuada para cubrir los objeti-
vos de investigación. Un proyecto de investigación, además de precisar el
diseño o estrategia metodológica que se va a utilizar, añade normalmente
otros elementos como la concreción del tema a investigar, la revisión de la
literatura, así como los aspectos más prácticos como tiempo, dinero y
equipo de investigación. El diseño es la parte central/clave de la investiga-
ción en la que se sustenta el resto. Cresswell y Plano (2007: 58), por ejem-
plo, identifican el diseño con «los procedimientos para la recogida, análi-
sis, interpretación de datos y escritura del informe».
Es decir, el diseño de una investigación es la estrategia metodológica,
la parte esencial de la investigación que se constituye como la combina-
ción adecuada de método(s) de recogida y análisis de datos que permite
la consecución de los objetivos de la manera más eficiente posible.
En este sentido la perspectiva cualitativa plantea siempre diseños de
investigación abiertos y flexibles («diseños emergentes») en los que el
proceso de investigación es más interactivo e iterativo. En la perspectiva
cuantitativa aplicada los diferentes aspectos y fases de la investigación
suelen estar más cerrados debido a las constricciones de tiempo y dinero,
pero aun así existe una cierta flexibilidad e interacción.
Pero ¿existen diseños estandarizados y protocolizados que, al igual
que un traje, se adaptan a objetos/objetivos de investigación concretos?
O ¿debe hacerse trajes a medida cada vez que se lleva a cabo una investi-
gación y, por tanto, hay que considerar los diseños como emergentes?
Diseño es tanto un verbo como un sustantivo, lo que implica que pue-
de verse como algo ya hecho, una estrategia metodológica ya utilizada, o
como algo que se va haciendo, una estrategia metodológica que se desa-
rrolla y concreta al investigar.
En la metodología de investigación en Ciencias Sociales, la palabra di-
seño aparece, casi siempre, ligada a la perspectiva cuantitativa, especial-
mente a la experimentación y cuasi experimentación. En esta perspecti-
va, con objetivos de investigación (objetivos o hipótesis) claramente
formulados, sí que existen diseños que se acomodan a objetivos específi-

77
El diseño de la investigación social

cos, de forma que encontramos diseños que son más adecuados que
otros para lograr cumplir los objetivos o contrastar las hipótesis de una
investigación. En esta perspectiva es posible detallar diseños relativamen-
te cerrados adecuados para investigaciones con determinados tipos de
objetivos, tal y como se señalaba en la primera edición de este libro.
Así, si el objetivo de nuestra investigación es explicativo, identificar
causas y efectos, contrastar hipótesis relacionales, asegurarse de que una
intervención tiene (o no tiene) determinados efectos, es posible identifi-
car diseños adecuados para ello y, en función de una serie de criterios,
decidir cuál es el mejor para nuestra investigación. Incluso en la perspec-
tiva, crecientemente aceptada, de la utilización de métodos combinados
o de la estrategia multimétodo (mixed methods) existe ya una tradición
consistente en hablar de diferentes posibles diseños: diseño de triangula-
ción, diseño exploratorio, diseño explicativo y diseño «embedded»
(Creswell y Plano, 2007), por poner algunos ejemplos.
Pero en la metodología cualitativa, y también en las perspectivas no
tan específicamente centradas en la experimentación y cuasi experimen-
tación, los diseños son abiertos, muchas veces emergentes, de forma que
se van haciendo (y reelaborando) a medida que progresa la investigación.
Por ello, nosotros hemos preferido hablar de estrategias metodológicas
en vez de diseños, aunque al detallar estrategias específicas utilicemos a
veces la etiqueta de diseño.
Así, entendemos que no existe un único diseño adecuado para una de-
terminada pregunta/objetivo o hipótesis de investigación pero que sí es
posible realizar la aproximación al «mejor posible» definido como aquel
que maximiza la «adecuación a todos los criterios/dimensiones reconoci-
dos para juzgar/valorar las investigaciones» (Gering, 2011: 632) y que se
adecúa a los constreñimientos concretos (de carácter presupuestario y
temporal, así como de accesibilidad de las poblaciones) que cada investi-
gación lleva acompañada.

2. Clasificación de las diferentes estrategias y diseños


de investigación social
2.1  La perspectiva experimentalista y cuasi experimentalista

Existen muchas maneras de clasificar o listar tipos de diseños. Podría hablar-


se de cientos de diseños diferentes, tantos como combinaciones posibles de
métodos, técnicas, criterios de selección de muestras o unidades y formas de

78
3. Diseños y estrategias de investigación social

análisis, ajustados todos ellos a unos objetivos de investigación y a unos con-


dicionantes (contextuales, presupuestarios y temporales de la misma). Pero
en términos generales, en la literatura especializada se mencionan unos
cuantos diseños a los que se nombra y etiqueta como tales1. La clasificación
que durante mucho tiempo fue la que más repetidamente se manejaba en los
textos especializados era la que propusieron Campbell y Stanley (1967).
Esta perspectiva, ampliada por Cook y Campbell (1979), parte de la
idea de que el diseño de investigación ideal, el mejor, es el experimental y
elaboran una tipología de diseños pre-experimentales, experimentales y
cuasi experimentales, terminología que muestra claramente que el centro,
el contenido básico de la tipología es la experimentación.

Diseños experimentales
Un experimento es una investigación en la que se:
• Manipula una o varias variables (tratamiento experimental) para
que se apliquen a unas unidades de análisis (sujetos experimenta-
les). La manipulación es la esencia del experimento, pero en CCSS
se suele añadir otra característica, no imprescindible.
• Controla el contexto/situación de la investigación de modo que
no puedan afectar a los sujetos experimentales otras variables y
utiliza otros sujetos no afectados por el tratamiento experimental
como comparación (contrafactual).

Es un diseño de investigación orientado a la contrastación de hipóte-


sis casuales, y desde esta finalidad/objetivo, se postula claramente como
el tipo ideal de diseño. No obstante, no hay que olvidar que los investi-
gadores pueden tener objetivos muy diversos: descriptivos, predictivos,
exploratorios…
En esta perspectiva centrada en la experimentación, los diseños se es-
quematizan utilizando una serie de símbolos:

0 = observación / recogida de información


X = variable(s) independiente(s) / tratamiento
A = aleatorización

Los diferentes tipos de diseños se presentan según se formen o no alea-


toriamente los grupos de estudio, según exista o no grupo de comparación
y según el número de mediciones (O) que se haga. Un diseño experimental
clásico sería el de medición solo postest (después del tratamiento experi-
mental) con grupo de control equivalente. Se representa así:

79
El diseño de la investigación social

A X O
A O

El esquema indica que hay al menos dos grupos, uno experimental al


que se aplica la variable independiente (X) y otro de control en el que no
aparece (X), que los dos grupos se han formado al azar para igualarlos al
inicio de la investigación (A) y que solo se recoge información (O) des-
pués del tratamiento experimental, esto es, después de la aplicación de la
variable independiente.
Otro diseño experimental muy utilizado añade una medición antes al
diseño anterior. Se puede reflejar gráficamente de la siguiente forma:

A O X O
A O O

Existen multitud de diseños experimentales (factoriales, de cuadrado


latino, etc.) utilizados especialmente en psicología que se pueden consul-
tar en otras fuentes.
En el anexo virtual al capítulo se incluye un ejemplo clásico de experi-
mento para evaluar la intervención policial en los casos de «violencia do-
mestica»2 en la ciudad de Minneapolis con tres tratamientos y asignación
aleatoria a cada tratamiento de los casos que surgen en un período de
tiempo. De este modo, se puede hacer un seguimiento de los casos en
cada tratamiento para ver el efecto de la intervención policial.
Los diseños cuasi experimentales son aquellos que no cumplen alguno
de los requisitos que caracterizan a los experimentales, pero sí utilizan
procedimientos que normalmente llevan a un alto grado de validez inter-
na (véase el ultimo apartado en este capítulo), como, por ejemplo,
repetición de las mediciones y/o búsqueda de grupos de comparación
equivalentes. En este sentido, queremos destacar dos muy utilizados en
la investigación social:

El diseño de series temporales que se puede reflejar gráficamente del


modo siguiente:

OOOOOOXOOOOOO

que implica muchas mediciones antes y después de la intervención/apli-


cación de un tratamiento/una variable(s) independiente(s), es decir una
posible causa de algo y

80
3. Diseños y estrategias de investigación social

Diseño de medición antes y después con grupo de comparación no equiva-


lente que podría esquematizarse así

O X O
O O

que parece igual que el experimental, pero en el que al no haberse forma-


do los grupos aleatoriamente no es posible afirmar categóricamente que
se controlan las hipótesis alternativas. Los avances en la formación del
grupo de comparación, por ejemplo, utilizando el método de «priority
score matching», hacen que la igualación de los grupos se aproxime mu-
cho a la equivalencia.
En el capítulo 9, «La evaluación de intervenciones sociales: proyectos,
programas y políticas», se pueden ver ejemplos de estos diseños utiliza-
dos en la evaluación de impacto/resultados y también en el anexo virtual.
En este anexo se incluye un ejemplo de diseño de series temporales para
evaluar las campañas de la Dirección General de Tráfico y su efecto so-
bre el número de accidentes; se dispone de una serie prolongada del
número de accidentes antes de la puesta en marcha de las campañas y
también después de las mismas. El ejemplo de diseño pretest/postest con
grupo de comparación no equivalente se centra en el análisis y evaluación
del programa Progresa/Oportunidades en México.
Entre los llamados diseños pre-experimentales, aquellos con escaso
control de los factores que ponen en peligro la validez interna, el diseño
de medición antes y después sin grupo de comparación es uno de los más
usuales.

O X O

Éste es el caso de los paneles utilizando encuestas que se llevan a cabo


antes y después de una campaña política, o de una campaña de venta o
publicidad. Su habitual utilización incluye, muchas veces, ampliar el nú-
mero de mediciones antes y después, aproximándose así al diseño de se-
ries temporales, así como un mayor control de factores que afectan a la
validez interna.
El diseño de panel utiliza una misma muestra de la población y el mis-
mo instrumento de medida (cuestionario en las encuestas) repitiendo la
medición a lo largo del tiempo con la misma muestra y el mismo cues-
tionario. El problema de la «mortalidad» (pérdida de muestra por aban-
dono del panel) de la muestra se suele resolver aumentándola en un de-

81
El diseño de la investigación social

terminado porcentaje y renovándola parcialmente una vez transcurrido


determinado número de mediciones.
Conviene señalar que la debilidad de este diseño en cuanto a la vali-
dez interna proviene de la ausencia de un grupo de comparación, es
decir, un contrafactual. Ahora bien, no siempre es necesario buscar un
contrafactual. Este es el caso en el que hay un grado de certidumbre alto
de que la muestra estudiada no variará si no se introduce la o las varia-
bles independientes (como ejemplo, véase el panel de hogares de la UE
http://www.ine.es/daco/daco42/panelhog/notaphoge.htm y también el
que se incluye en el archivo en la Web).
Otros diseños preexperimentales incluyen la encuesta descriptiva, el
estudio de un caso, los estudios transversales… es decir, todos aquellos
diseños en los que hay una sola medición, a veces con una comparación
explícita o implícita cuyos objetivos de investigación se encaminan más a
la descripción que a la explicación, en los que se pueden identificar rela-
ciones entre variables utilizando análisis multivariable.

2.2 Las aperturas contemporáneas en las propuestas de estrategias


y diseños

La dificultad, y las críticas, de la aplicación de los diseños experimentales


y cuasi-experimentales en el ámbito de las CCSS3, así como el desarrollo
fundamental de los paradigmas constructivistas, interpretativos y dialéc-
tico-participativos en los últimos cuarenta años que ha venido acompa-
ñado de un intenso desarrollo de la metodología cualitativa y de las es-
trategias de investigación derivadas de la misma, han llevado a que la
anterior clasificación haya sido profundamente transformada, renovada
y ampliada. Aunque en algunas áreas, como en el caso de la evaluación
del impacto de políticas y programas, todavía está muy presente la clasi-
ficación ampliada de Cook y Campbell (1979), son escasos los textos es-
pecializados en metodología en el área de la sociología que en la actuali-
dad partan de aquella clásica taxonomía, existiendo por el contrario una
multiplicación de los criterios bajo los cuales se efectúan las clasificacio-
nes y una proliferación de las propuestas de modalidades y tipos de es-
trategias.
A los clásicos diseños experimentales previamente propuestos se aña-
de una serie de propuestas, también de carácter experimental o cuasi-ex-
perimental, insertas en el seno de las aproximaciones etnometodológicas
que parten de la potencialidad de posibilitar el desvelamiento de las tipi-

82
3. Diseños y estrategias de investigación social

ficaciones del sentido común y de las normas básicas que rigen la inte-
racción cotidiana a través de la propuesta de la ruptura de dichas nor-
mas. Así, las estrategias basadas en los experimentos etnometodológicos4
se asientan en la ruptura de la cotidianeidad. El complejo tejido de pre-
supuestos y normas dados por supuesto sobre los que se asienta la «nor-
malidad percibida» de la cotidianeidad, así como la capacidad para hacer
inteligibles las interacciones, puede, desde esta perspectiva, investigarse y
visibilizarse manipulando la secuencia de su desarrollo. Estas experimen-
taciones o manipulaciones servirán para analizar las condiciones en las
que normas y sucesos se perciben como normales, así como buscar pro-
cedimientos para volver a la normalidad en el caso de que ésta se rompa.
Lo fundamental, desde esta perspectiva, es ver cómo se construye el or-
den social en la interacción y la forma que plantean para estudiarlo con-
sistiría en ver los métodos por los que esas construcciones y esas interac-
ciones se producen y se entienden. Dichos presupuestos normativos, así
como las expectativas que en circunstancias normales o no problemáticas
permanecen en estado invisible (y que pasan inadvertidas) quedan en evi-
dencia a partir de estos experimentos de ruptura como propuesta estraté-
gica de esta perspectiva. A partir de estas reflexiones clásicas formuladas
desde la etnometodología, varias han sido las propuestas de estrategias
de investigación asentadas en las mismas5.
Los diseños basados en el estudio de caso(s) se amplían y diversifican,
basando su desarrollo no únicamente en el objetivo de la medición en un
momento concreto sino que pasan a incluirse una multiplicidad de casos
diversos susceptibles de constituir la base del diseño: casos en los que se
desarrolla una metodología etnográfica, casos a los que se aplican técni-
cas conversacionales como la entrevista o el grupo de discusión, casos en
los que se aplican encuestas de carácter precodificado, etc. En fin, una
multiplicidad de propuestas diversas de casos en los que la característica
común es la de basarse en descripciones exhaustivas de unos pocos ejem-
plos. Así, el caso vendría a ser un objeto de estudio con unas fronteras
más o menos claras que se considera relevante para comprobar, ilustrar o
construir teoría o, en otras ocasiones, por su valor intrínseco6; vendría a
ser un sistema único, acotado y específico (Stake, 2013). Los casos deben
ser pocos (a veces uno solo) y mantener su integridad como configura-
ciones de partes relacionadas entre ellas de forma significativa (un caso
tendría así un funcionamiento específico, constituyendo un sistema inte-
grado). Para Lijhpart (1975) un caso es un tipo de entidad (comunidad,
grupo, nación, individuo) en proceso de observación, es decir, problema-
tizada conceptualmente. Implica un estudio intensivo del o de los casos

83
El diseño de la investigación social

seleccionados y una cierta renuncia a su poder generalizador; es decir, su


finalidad es fundamentalmente ideográfica con el objetivo de compren-
der unidades complejas tratadas como un todo interrelacionado e indivi-
sible, haciendo un esfuerzo por no perder el carácter unitario de la enti-
dad. Las estrategias basadas en los estudios de caso(s) son así atribuidas
a métodos diversos: al método comparativo, al etnográfico, al biográfico
o al histórico, por ejemplo, y puede constituir una estrategia asentada en
una multiplicidad de técnicas y tácticas diversas, tanto cualitativas como
cuantitativas: documentos, registros de archivos, entrevistas abiertas, ob-
servación participante, grupos de discusión, datos secundarios, análisis
documental, etc.7.
La propuesta de carácter diacrónico y longitudinal que recogen Cook
y Campbell en su taxonomía, y que se materializa fundamentalmente a
través del diseño de series temporales y en los diseños de panel, mantiene
un cierto paralelismo con una serie de propuestas diversas que, apoyán-
dose en paradigmas y presupuestos de tipo cualitativo, rescatan el valor
de la metodología histórico-genealógica, así como los diseños que se apo-
yan en métodos biográficos a la hora de considerar ese carácter procesual
del desarrollo de los fenómenos sociales y lo que ha venido a llamarse los
estudios englobados bajo el paraguas de la llamada investigación cualita-
tiva longitudinal.
Las estrategias de investigación de carácter genealógico vendrían a ca-
racterizarse por centrar especialmente su foco en el desarrollo, transfor-
mación y cambio sufrido por aquello que se estudia, esto es, en conside-
rar cómo determinado aspecto de la realidad social ha llegado a ser
como es. Vendría a constituir una manifestación concreta de lo que en
términos más generales podríamos denominar como método histórico
(véase Beltrán, en el capítulo 1 de este mismo libro), centrado en analizar
la importancia de la historicidad de los objetos sociales para poder con-
siderar sus diversas manifestaciones y comprender cómo el proceso de su
génesis contribuye a su caracterización8. Así, la historia que constituye el
objeto de atención desde esta perspectiva no es una historia lineal, sino
compuesta de discontinuidades y rupturas. De esta manera, siguiendo a
Foucault, el presente no se considerará solo lo contemporáneo, sino que
vendría a ser un efecto heredado, esto es, el resultado de toda una serie
de transformaciones que es preciso reconstruir para poder comprender,
así como detectar sus indicios, marcas y huellas, para poder captar lo
que hay de inédito en la actualidad. En este tipo de diseños, asentados en
el método propuesto fundamentalmente por Foucault en varias de sus
obras, será necesario partir de la problematización de los fenómenos so-

84
3. Diseños y estrategias de investigación social

ciales, «sacudir las certezas» que se nos presentan como evidentes, mos-
trando cómo la realidad es contradictoria y aporética, localizar e inter-
pretar el contexto en el que surgió, las principales transformaciones que
ha sufrido, así como las supervivencias de elementos en sus manifestacio-
nes presentes (y a través de este proceso de problematización intentar es-
clarecer los lazos existentes entre saber y poder). Para Robert Castel
(1997) un objetivo fundamental de este tipo de estrategias consistirá en
intentar localizar el origen o punto de arranque y especificar los momen-
tos singulares que actúan como catalizadores de cambios sociales. El tipo
de instrumentos, técnicas y prácticas que se ponen en juego en este tipo
de diseños es múltiple y puede variar desde el uso de documentos de di-
verso carácter (contratos, instrucciones, sentencias, obras de arte, prensa,
diarios, ordenanzas, leyes, etc.) hasta elementos de la cultura material
(edificios, herramientas, estructuras espaciales, etc.), pasando por el uso
de datos secundarios de carácter histórico (series cronológicas, censos,
registros, etc.).
Las estrategias de carácter biográfico, inscritas en el llamado método
biográfico9, asentadas tanto en el uso de las historias de vida como en la
realización de diarios, autodiarios, confesiones, memorias, biografías,
blogs biográficos, documentos de autopresentación o de comunicación
interpersonal (incluyendo el género epistolar), fotografías, vídeos y todo
tipo de documentos personales. Esta aproximación hace referencia a una
manera de mirar lo social que atiende a la reconstrucción socio-histórica
a través de la reconstrucción de las vidas de los sujetos. Su objetivo fun-
damental es producir información sobre la sociedad y la política a partir
de las vidas y experiencias de las personas, para construir las conexiones
entre el tiempo personal (la biografía) y el tiempo histórico. El objetivo
básico consistiría en analizar cómo la historia social se encarna en los su-
jetos y sus vidas; ver cómo se filtra la historia, la estructura social, los
acontecimientos en los individuos. De esta manera, lo importante sería
reconstruir los hechos sociales, las representaciones, los posicionamien-
tos a partir de las subjetividades, de cómo los vivieron diversos indivi­
duos, esto es, a partir de sus interpretaciones de su vida y su tiempo. Es
especialmente interesante en el análisis de aspectos que impliquen un de-
sarrollo temporal, una trayectoria, un ciclo vital, un cambio histórico.
Para un desarrollo más amplio de esta estrategia se puede consultar el
capítulo 16, dedicado a la misma en el presente volumen10.
Bajo la amplia etiqueta de Investigación Cualitativa Longitudinal
(ICL) (Caïs, Folguera y Formoso, 2014) se recogen diversas propuestas
en dos direcciones diferentes: estudios asentados en el cambio en perso-

85
El diseño de la investigación social

nas, grupos y colectividades y aquellos centrados en observar cómo el


cambio social incide en ellos. Se incluirían aquí los diseños basados en
dispositivos puestos en marcha a lo largo del tiempo con unos objetivos
comunes de investigación social (relatos o historias de vida a los mismos
sujetos en períodos diferentes, entrevistas sucesivas que permiten recons-
truir relatos de vida, entrevistas o grupos de discusión en momentos tem-
porales diversos y con personas diferentes, etnografías a lo largo de pe-
ríodos dilatados, entrevistas a diversas generaciones, etc.). Los rasgos
que caracterizan (McLeod y Thomson, 2009) un diseño ICL son: planifi-
cación con cierta antelación para poder incluir el paso del tiempo como
aspecto central, incluir métodos y técnicas cualitativas de producción y
recolección de información, así como de su análisis y consideración del
tiempo y el cambio social como elementos fundamentales en su desarro-
llo (Caïs, Folguera y Formoso, 2014: 19)11.
Existen otra serie de diseños y estrategias cuyo objetivo es transfor-
mar la realidad social a través de una toma de conciencia crítica de los
enmascaramientos, de los procesos de dominación y del fomento de pro-
cesos participativos12. En esta línea, encontramos que las estrategias par-
ticipativas vendrían a caracterizarse por una idea básica según la cual los
«objetos» (sujetos) investigados pasan a ser realmente sujetos y agentes
de transformación a través de la toma de conciencia y de la participación
activa en el mismo proceso de investigación, restituyendo los mismos es-
pacios de la construcción del espacio investigable, esto es, de los propios
objetivos de la investigación. Así, se vendrían a caracterizar por un hin-
capié en lo colectivo, lo colaborativo y en el trabajo en grupo durante
todo el proceso investigador. En estas propuestas, el objetivo de la inves-
tigación será la transformación social, la resolución de problemas y la ge-
neración de propuestas de intervención (a través del aprendizaje y la
participación). Es una metodología muy pegada a las formas de inter-
vención social comunitaria y por ello muy aplicada en política social y
especialmente en contextos locales. Se parte de la necesidad de recurrir a
metodologías y técnicas que permitan replantear la relación entre los
agentes implicados en el proceso investigador, desvelando los intereses en
juego y facilitando el protagonismo de los colectivos previamente exclui-
dos de la actividad investigadora (y de la misma definición de los espa-
cios problemáticos y de la demanda de conocimiento) y que son, sin em-
bargo, sus potenciales beneficiarios. Una característica básica de este
tipo de estrategias consistirá en el objetivo de unir la reflexión y la ac-
ción, o la teoría y la praxis a través del uso del método dialéctico. Supo-
ne una estrategia general de intervención que se puede plasmar en mu-

86
3. Diseños y estrategias de investigación social

chas prácticas concretas que dependerán de la creatividad de los


protagonistas y de las circunstancias presentes en cada caso. Tanto las
técnicas cualitativas como las cuantitativas y aquellas más específica-
mente llamadas participativas son los recursos tácticos y los instrumen-
tos que pueden ponerse al servicio de esta aproximación con finalidad in-
terventora y transformadora de lo social. Muchos son los ejemplos que
se pueden localizar en la aplicación de estas prácticas; algunos son refe-
renciados en el anexo de este capítulo13 y otros en el capítulo 11 del pre-
sente volumen.
Las diversas estrategias y diseños de investigación social se pueden
clasificar desde muchos criterios diferentes. Un criterio que aúna diver-
sos elementos de los que anteriormente se han ido señalando es el que
considera la división entre estrategias y diseños de carácter cuantitativo,
estrategias de carácter cualitativo, y, por último, estrategias y diseños de
carácter combinado, multimétodo o mixtos (Creswell, 2009: 3-21). Como
se señala reiteradamente, las aproximaciones cualitativas y cuantitativas
no pueden de ninguna manera ser vistas como categorizaciones discretas
(caracterizadas por sus atributos contrapuestos) sino que deberían ser
contempladas como polos extremos en un continuum de atributos que
solo analíticamente pueden ser contempladas como oposiciones bipo-
lares (Newman y Benz, 1998) o lo que en otras ocasiones se pone de re-
lieve, la contraposición es una contraposición falsa que se relaciona, en
mayor medida, con la diferente capacidad de unas y otras estrategias a la
hora de acceder a diversos niveles de la realidad social. Pasamos a desar-
rollar más pormenorizadamente las estrategias multimétodo, que en otros
contextos han tendido a denominarse mixtas.

3. Las estrategias multimétodo y la articulación


metodológica

En este apartado se desarrolla, primeramente, una propuesta de clarifica-


ción conceptual intentando desenmarañar la profusión y confusión ter-
minológica que caracteriza el actual panorama de la reflexión sobre la
investigación multimétodo o lo que en la literatura metodológica muchas
veces ha tendido a denominarse el Tercer momento metodológico (Den-
zin, 2006), asentado en el llamado paradigma de los métodos mixtos (mi-
xed methods) (Guba, Creswell, Teddlie y Tashakkori, Johnson, On-
wuegbuzie y Turner, etc.). Existen referencias relativamente recientes
encaminadas a sentar las bases de la reflexión contemporánea sobre las

87
El diseño de la investigación social

estrategias multimétodo14, si bien la enorme extensión de la experiencia


práctica de la articulación metodológica en el mundo profesional con-
trasta con la prácticamente ausencia de dicha perspectiva en los currícula
académicos y con la inexistencia de materiales que den cuenta de las mo-
dalidades, problemáticas y retos que se plantean en la combinación de
las estrategias cuantitativa y cualitativa (y de las consiguientes técnicas
correspondientes)15.
En primer lugar, queremos señalar que optamos por la denominación
«investigación multimétodo» (Hunter y Brewer, 2003) cuando la propues-
ta de estrategia consiste en el uso conjunto de métodos cuantitativos y
cualitativos. En este sentido, optamos por esta terminología sobre aquel-
la más frecuentemente utilizada en el ámbito anglosajón que hace refer-
encia a la conceptualización centrada en los paradigmas (retomando el
debate de los años ochenta16) y que aboga por el llamado nuevo paradig-
ma de los métodos mixtos.
Nos distanciamos así de usos que suponemos más restringidos a de-
terminadas formas de manifestarse esta multimodalidad que se propone;
diálogo de paradigmas, combinación de métodos, triangulación, articu-
lación o suplementación. A todos ellos les suponemos usos más restrin-
gidos que aquel por el que se opta en esta aproximación. De hecho, en
un momento posterior, retomaremos alguno de estos conceptos para
hablar de tipologías concretas dentro de la etiqueta global de la estrate-
gia de investigación multimétodo, así como de objetivos disímiles en sus
diferentes usos.
Otra de las elecciones conceptuales que caracteriza esta aproximación
hace referencia al concepto de articulación metodológica. Siguiendo, en
este sentido, a Callejo y Viedma (2005), se entiende que articulación
tiene un sentido que va más allá de la acumulación de experiencias
empíricas, o de un uso conjunto de métodos. La articulación implica un
cierto grado de trabajo conjunto, implicación o retroalimentación de las
experiencias y resultados obtenidos con ambas metodologías (cuantitati-
vas y cualitativas). Entendemos que, en general, en la investigación mul-
timétodo podemos encontrar muy diferentes grados de articulación de
los métodos, en lo que podría ser un gradiente o un continuum en la di-
mensión de la articulación. De esta manera, es posible encontrar un nivel
mínimo de articulación (que sería la inexistencia de articulación, en el
caso de la pura yuxtaposición de los métodos), pasando por manifesta-
ciones intermedias en cuanto al grado de articulación, hasta llegar a la
máxima articulación en el caso de las diferentes formas de manifestarse
la triangulación.

88
3. Diseños y estrategias de investigación social

Retomando la idea ya propuesta en un trabajo anterior (Serrano,


Blanco, Alvira y otros, 2011), se realiza una propuesta analítica de cla-
sificación de tipos de investigaciones multimétodo que pretende poner
un poco de orden en el confuso panorama de las propuestas de modali-
dades de estrategias. La clasificación que se propone se articula en torno
a dos dimensiones diferentes:

• La dimensión de los objetivos del uso conjunto de las metodolo-


gías (y en función de ello se consideran cuatro usos diversos: la
complementación, el apoyo17, la triangulación y el cruce de lógi-
cas).
• La dimensión temporal; de forma que se consideran de manera se-
parada las investigaciones en las que los dos métodos se usan en
paralelo o de forma concurrente (simultáneamente) de aquellas en
las que la combinación se produce en fases sucesivas, que hemos
denominado modalidad encadenada o secuencial18.

En función del cruce de estas dos dimensiones se propone la clasifica-


ción de las diversas formas de usar conjuntamente técnicas cuantitativas
y cualitativas que se esquematiza en el Cuadro 1.
A partir de dichas dimensiones, se pueden constatar diversas estrate-
gias en la investigación multimétodo.
Una primera modalidad de articulación responde a una forma de
complementariedad en paralelo (o de trabajo simultáneo con ambas me-
todologías); es lo que hemos denominado complementación concurrente
con retroalimentación. Es el tipo de modalidad que generalmente se co-
rresponde con un uso conjunto de metodologías que intentan abordar
objetivos disímiles o bien aspectos diversos de un mismo fenómeno. En
estos casos, en muchas ocasiones, se trabaja con equipos separados que
van abordando sus respectivas propuestas de investigación, trabajos de
campo y análisis de forma paralela, y que, en última instancia, establecen
un espacio para el intercambio y la integración de resultados (que gene-
ralmente aparecen expuestos de forma conjunta en el apartado de las
conclusiones). En esta modalidad de trabajo multimétodo se abre un es-
pacio para la síntesis y superación de las conclusiones parciales elabora-
das a partir de investigaciones desarrolladas en paralelo19.
En una segunda modalidad no se produciría ningún tipo de retroali-
mentación y, por lo tanto, ninguna forma de articulación de las perspec-
tivas. Es el tipo que hemos denominado complementación concurrente

89
Cuadro 1.  Clasificación en función de los objetivos del uso conjunto

90
COMPLEMENTACIÓN APOYO TRIANGULACIÓN CRUCE DE
(diferentes objetivos específicos/niveles se (implica una cierta subordinación de uno de (ver coincidencias/ LÓGICAS
abordan desde distintas metodologías) los métodos al otro). Embedded Strategy divergencias de los DE ANÁLISIS

FASES O
TIEMPOS
Complementación por deficiencia (Ortí) (Creswell) resultados)

SE RETROALIMENTAN (SE AFECTAN) APOYO TESTIMONIAL VALIDACIÓN Análisis


(función retórica) (Callejo) (comprobar la cuantitativos
citas o imágenes puntuales que vivifican concurrencia de textos/
una aproximación cuantitativa; datos que de los resultados) imágenes
YUXTAPOSICIÓN puntualmente ilustran un análisis obtenidos
(NO SE LLEGAN A AFECTAR, cualitativo con me-

(en paralelo)
SIQUIERA EN LAS todología

CONCURRENTE
El diseño de la investigación social

CONCLUSIONES) cualitativa

ISOMORFISMO:
1º CUALITATIVO à 2º CUANTITATIVO CUALITATIVO SIRVE DE APOYO LOS ESPACIOS
– ver primero la estructura de unas actitudes y AL CUANTITATIVO TOPOLÓGICOS
después su distribución – para generar hipótesis (Conde)
– para diseñar cuestionarios (triangulación en el
1º CUANTITATIVO à 2º CUALITATIVO – para pretestar cuestionarios análisis)
– ver distribución y después profundizar en – para controlar aplicación de encuestas espacios de
alguno de los subgrupos (supervisión) transición
– para diseñar muestras entre las técnicas
MÚLTIPLES ENCADENAMIENTOS – para interpretar resultados de análisis Análisis
(Diversas combinaciones) (Frecuente en sorprendentes topológicas: cualitativo
estudio de casos; frecuente en la

(en fases sucesivas)


correspondencias, de preguntas
Investigación-Acción-Participativa) CUANTITATIVO SIRVE DE APOYO no métrico y los abiertas de un
AL CUALITATIVO mapas discursivos cuestionario
– para describir contexto (generalmente

ENCADENADA O SECUENCIAL
y los campos
con datos secundarios) semánticos
– para seleccionar muestra (o caso)

Fuente: Elaboración propia a partir de Serrano, Blanco, Alvira y otros (2011).


3. Diseños y estrategias de investigación social

con yuxtaposición de los resultados. En este caso ambas perspectivas se


desarrollan de forma paralela, incluso en muchas ocasiones, por parte de
equipos diferentes y conforman partes del informe de resultados diferen-
ciadas, incluso en las conclusiones. Esta modalidad constituiría el mo-
mento cero del continuum de la articulación (por ausencia de la misma)20.
Otra forma de complementación, asentada en la consideración de la
complejidad de los objetos sociales y los múltiples niveles implicados en
toda aproximación a cualquier fenómeno social («complementación por
deficiencia», como lo denomina Ortí, 2010), pero, en este caso, abordán-
dolo en forma de encadenamiento, secuencia o trabajo en fases sucesivas,
sería la modalidad que podemos denominar de complementación encade-
nada (o secuencial) en el sentido de que la investigación se desarrolla en
fases consecutivas que mantienen entre sí relaciones de dependencia.
Unas influyen o afectan a las otras fases, sin que haya una subordinación
específica de ninguno de los métodos a otro. En el caso de esta modali-
dad habría tres formas de encadenarse:

— Comenzando por la investigación cualitativa, se daría paso a la


cuantitativa (como en el caso frecuente en el que en una primera
parte de la investigación se aborda la estructura de unas determi-
nadas actitudes y en una segunda fase se intenta ver su distribu-
ción)21.
— Comenzando por la investigación cuantitativa para dar paso, en
un segundo momento, a una fase cualitativa (como es el caso de
investigaciones en las que se comienza por aplicar una encuesta y
se sigue, en un segundo momento con una profundización e inda-
gación más intensiva en relación a un subgrupo concreto)22. A ve-
ces también la fase cuantitativa previa se orienta a seleccionar la
muestra cualitativa o bien, de manera mucho más frecuente, a
contextualizar la segunda aproximación de carácter cualitativa23.
— Encadenando fases cuantitativas y cualitativas según se va posibi-
litando el acceso a materiales de diverso tipo que se constituyen en
etapas parciales, pasos o «indicios» de una determinada aproxima-
ción a un fenómeno social (múltiples encadenamientos)24. Es ésta
una forma de trabajo y planteamiento de la investigación muy fre-
cuente en el estudio de casos, así como en trabajos realizados con
escasez de recursos como son, por ejemplo, las tesis doctorales25,
así como también en las investigaciones basadas en la estrategia de
la Investigación-Acción-Participativa.

91
El diseño de la investigación social

Teniendo en cuenta otro espacio en la dimensión de los objetivos del


uso conjunto estaría la estrategia de investigación multimétodo en la que
predomina una de las dos metodologías y la otra se plantea como una apoya-
tura o como una técnica o conjunto de técnicas auxiliares (y por lo tanto
subordinadas a la orientación que se considera principal en una investiga-
ción determinada). Es el tipo de estrategia que Creswell (2009: 214) deno-
mina «embedded».
Podemos encontrar diversos grados de intensidad en el apoyo de una
de las metodologías sobre la otra. En un extremo se localizaría un plan-
teamiento con un predominio prácticamente absoluto de una de las me-
todologías con una aparición de la otra como simple apoyo testimonial o
como función retórica (en los términos usados por Callejo y Viedma,
2005)26. Vendría a ser un tipo de estrategia en el que el nivel de articula-
ción metodológica es mínimo.
Otra forma de usar conjuntamente ambas metodologías es aquella
en la que, al igual que en el caso anterior, una de las metodologías sirve
de apoyo a la otra. Un caso sería aquel en el que la metodología cualita-
tiva sirve de apoyo a la cuantitativa (bien para generar hipótesis, para
diseñar cuestionarios —uso que constituye uno de los más frecuentes
en investigación aplicada al mercado—, para pretestar cuestionarios,
para supervisar la aplicación de los mismos, para ayudar en el diseño
de muestras o bien para interpretar unos resultados sorprendentes27).
Otra situación sería aquella en la que se invierte esta primacía. Serían
los casos de las investigaciones en las que las técnicas cuantitativas son
usadas como soportes de la aproximación prioritaria más puramente
cualitativa (en algunos casos se usa para describir el contexto, en otras
ocasiones para seleccionar la muestra o el caso concreto en un estudio
de casos28). Una de las estrategias más frecuentes es el uso de datos se-
cundarios para situar contextualmente una investigación prioritaria-
mente cualitativa29.
Otras modalidades particulares serían aquellas que propiamente po-
dríamos denominar como triangulación30, pudiéndose diferenciar entre
dos tipos diferentes. Uno de ellos entendido como un uso conjunto de las
metodologías cuantitativas y cualitativas en la persecución de los mismos
objetivos, con la finalidad de ver hasta qué punto unos resultados y otros
coinciden. Es decir, es un objetivo basado fundamentalmente en un in-
tento de validación de resultados y que, por lo tanto, persigue el objetivo
de conseguir tomar confianza en unos determinados resultados31. En la
misma línea de la articulación orientada hacia la triangulación anterior-
mente propuesta, pero en un sentido muy diferente, contamos con una

92
3. Diseños y estrategias de investigación social

particular modalidad de articulación metodológica propuesta por Conde


(1987). Es una reflexión hecha por este autor acerca del isomorfismo lo-
calizable entre las aproximaciones cualitativas, especialmente en el aspec-
to analítico de las posibilidades de reconstrucción de sistemas de discur-
sos que se pueden ilustrar a través de mapas discursivos, y las
modalidades más topológicas o relacionales del análisis multivariable de
datos cuantitativos (como son, por ejemplo, el análisis multivariable de co-
rrespondencias y el análisis no métrico)32.
Por último, encontramos otra modalidad que genéricamente podría-
mos denominar como cruce de lógicas. Según esta formulación, la articu-
lación vendría del lado del uso de una lógica cualitativa en el uso de unos
materiales y dispositivos cuantitativos (como, por ejemplo, es el caso de
intentos de hacer análisis de discurso de preguntas abiertas de cuestiona-
rio)33. Otra posibilidad más frecuente en la investigación sociológica,
vendría de la mano del uso de la lógica de análisis cuantitativo cuando el
material que vamos a trabajar es material cualitativo, como textos de
transcripciones de grupos o entrevistas, ensayos, redacciones o artículos
de prensa, libros de texto o material audiovisual34. Esta modalidad sería
la opción fundamental en las investigaciones que plantean la realización
de un «análisis de contenido clásico», muy frecuente, por ejemplo, en el
estudio del contenido de los medios de comunicación35.
En términos generales, si bien la propuesta clasificatoria que se ha
realizado orienta (con finalidad analítica) sobre diferentes manifestacio-
nes y modalidades de las estrategias multimétodo, en las investigaciones
concretas se pueden localizar simultáneamente varias de estas modalida-
des conviviendo o que se van desarrollando en el propio proceso de in-
vestigación a la luz de los obstáculos, resultados y aprendizajes que se
van desarrollando. Así, puede suceder que, en una investigación, aunque
haya una modalidad preponderante, se localizan momentos, fases o «he-
chos» y maneras de trabajar que le hacen aproximarse a algunas otras de
las modalidades que se han propuesto.

4. Criterios de evaluación de las estrategias


de investigación social

4.1  Criterios de validez desde la perspectiva cuantitativa

Los criterios para valorar estrategias metodológicas son múltiples y di-


versos, puesto que la elección de una estrategia metodológica es en sí

93
El diseño de la investigación social

misma una tarea compleja y multidimensional. No existe consenso so-


bre los criterios ni tampoco es posible desarrollar una lista exhaustiva
que, por otra parte, no sería muy útil en tanto en cuanto los diferentes
criterios suelen entrar en contradicción, de modo que adaptarse a uno
puede significar no cumplir otro, lo que ya pasaba dentro del esquema
parsimonioso de Cook y Campbell (1979) (por ejemplo entre validez in-
terna y externa). Por ello hemos seleccionado aquí los criterios para va-
lorar las estrategias metodológicas más relevantes y que son utilizados
actualmente.
Dos de los criterios más obvios son el de adecuación del diseño/estra-
tegia a las preguntas, objetivos o hipótesis de la investigación y el de via-
bilidad práctica en cuanto a recursos, tiempo previsto, etc. Aquí desarro-
llaremos los criterios menos obvios y más metodológicos.
Creemos que deben distinguirse los criterios de validez y la explica-
ción de los mismos, de los procedimientos o técnicas a usar para lograr
cumplir con un criterio y así lo mostramos en la presentación de los mis-
mos.
Los cuatro criterios propuestos por Cook y Campbell (1979) que si-
guen totalmente vigentes son:

Criterio de validez interna: Un diseño de investigación tiene validez in-


terna cuando afirmar que existe o no relación entre dos variables o que
nuestra investigación nos permitirá realizar esa afirmación, presenta
una justificación suficientemente fuerte para que no se pueda refutar.
El análisis de la validez interna de un diseño está relacionado con el es-
tablecimiento de relaciones causales, de modo que si el diseño permite
de un modo efectivo concluir inequívocamente que dos variables (o
más) están relacionadas —o no lo están— entonces dicho diseño ten-
drá validez interna. El problema de la validez interna es, pues, en gran
medida, un problema de control de las posibles variables perturbado-
ras, del control de posibles explicaciones alternativas o rivales a una re-
lación entre variables que nosotros queremos demostrar. Esto resulta
muchas veces difícil porque no se conocen o no es fácil identificar to-
das las posibles explicaciones alternativas. En el grafico siguiente, don-
de la Realidad es el mundo real y la Apariencia es nuestra investigación,
se muestran algunos posibles tipos de explicaciones alternativas no
controladas.
Estimar e incrementar la validez interna de un diseño es un proceso
deductivo en el cual el/la investigador/a tiene que pensar sistemáticamen-
te cómo pueden afectar a los datos cada una de las amenazas a la validez

94
3. Diseños y estrategias de investigación social

REALIDAD   APARIENCIA  
1. Espureidad  
X  
X   Y  
Z  

Y  
2. Interacción  

X  

Z   X   Z  

Y   3. Supresión  
Y  
+  

X   X   Y  
-  
+   Z    

interna. Si todas las amenazas se pueden eliminar, es posible hacer con-


clusiones con un determinado grado de confianza sobre si una relación
es o no causal, es decir, aumentar la validez interna. Siendo un listado
abierto, éstas son las amenazas que pueden afectar a la validez interna:

• Historia: cambios externos a la investigación que pueden afectar a


la/s variable/s dependiente/s.
• Maduración: cambios endógenos a los sujetos que participan en la
investigación.
• Aprendizaje o reactividad: en caso de haber medición repetida,
cambios producidos por la propia medición.
• Instrumentación: cambios en el instrumento de medida o en la apli-
cación del mismo.
• Regresión estadística: en el caso de haber elegido a los sujetos por
mostrar puntuaciones extremas en determinadas variables.
• Selección: impacto debido a diferentes características iniciales de las
unidades de análisis.
• Mortalidad si el diseño utiliza grupos de comparación.
• Ambigüedad sobre la dirección de la causalidad.
• Interacción entre maduración, historia o instrumentación y selección.
• Difusión de tratamiento entre grupos de tratamiento y no trata-
miento.

95
El diseño de la investigación social

El control de explicaciones alternativas o variables perturbadoras se


puede realizar:

• en el propio diseño, eligiendo uno que controle los factores ante-


riormente señalados que amenazan la consecución de validez inter-
na y/o
• a «posteriori» en el análisis, utilizando métodos de análisis multiva-
riable para controlar las explicaciones o hipótesis alternativas. Para
esto previamente hay que identificar estas explicaciones alternativas y
recoger información sobre ellas y controlarlas en el análisis.

Criterio de validez de conclusión estadística: Hay validez estadística cuan-


do se utilizan técnicas de análisis estadístico adecuadas y con suficiente
poder y las mediciones son fiables. Los factores que afectan a la validez
de conclusión estadística son, entre otros:

• Bajo poder estadístico.


• Violación de los supuestos de los test y/o análisis estadísticos.
• Fiabilidad de las medidas.
• Fiabilidad en la administración del tratamiento.
• Heterogeneidad aleatoria de las unidades de análisis.

El criterio de validez estadística se logra cuando se utilizan medicio-


nes fiables (véase el capítulo 7) y cuando se utilizan adecuadamente las
técnicas de análisis de datos (véanse los capítulos 18 y 19).

Criterio de validez de constructo: Grado de adecuación conseguido en la


operacionalización y medición de los conceptos/constructos clave de la
investigación. Los factores que afectan a la validez de constructo son:

• Delimitación conceptual inadecuada.


• Sesgo por utilizar un solo método de medición.
• Sesgo por utilizar un solo un tipo de operacionalización.
• Capacidad de generalización restringida a otros constructos.

Los problemas de validez de constructo se resuelven con una buena


operacionalización y una adecuada medición (véase el capítulo 7).

Criterio de validez externa: Capacidad de generalización de los resultados


de la investigación. Posibilidad de generalización de los resultados tanto
a la población de la muestra como a otros tiempos y contextos.

96
3. Diseños y estrategias de investigación social

Los factores que afectan a la validez externa son siempre interaccio-


nes entre variables:

• Interacción entre selección y tratamiento.


• Interacción entre el contexto / situación y el tratamiento.
• Interacción entre la historia y el tratamiento.
No existe ningún procedimiento para lograr la validez externa total
puesto que es imposible generalizar en el tiempo. No obstante, se puede
aumentar la validez externa utilizando muestras aleatorias para generali-
zar a la población objeto de nuestro estudio (véase el capítulo 8), utilizar
también muestras aleatorias para los contextos de la investigación y re-
plicar la investigación en el caso de la generalización en el tiempo. Cuan-
do sea posible utilizar muestras aleatorias se pueden utilizar muestras he-
terogéneas.

4.2  Criterios de validez desde la perspectiva cualitativa

Desde el final de los años sesenta y de manera muy especial desde los
ochenta, los debates sobre la calidad impregnan las perspectivas inter-
pretativas, constructivistas y crítico dialécticas.
Muchas han sido las controversias y diversos los posicionamientos.
Encontramos desde algunos intentos de aplicar miméticamente los clási-
cos criterios vinculados a la calidad a las investigaciones cualitativas has-
ta la propuesta más radical que plantea que hablar de la calidad en la in-
vestigación cualitativa implica errores básicos de planteamiento. En este
sentido, encontramos autores y corrientes que se plantean que los crite-
rios anteriormente expuestos de validez u otros similares son sólo opera-
tivos dentro de la investigación cuantitativa y no funcionarían dentro de
otros esquemas de investigación. Sin embargo, se ha venido desarrollan-
do toda una línea de reflexión en la que se propone que, además de estos
criterios, desde otras perspectivas y paradigmas, se pueden proponer una
serie de criterios adicionales (Yin, 1994) o alternativos (Lincoln y Guba,
1985)36. Dichas propuestas tratan de integrarse en un espacio de reflex-
ión en el que se proponen criterios de calidad también para las investiga-
ciones basadas en estrategias que integren la aproximación cualitativa.
Es un intento de limitar el «todo vale» que se presenta en ocasiones en
las investigaciones que se aproximan desde la etiqueta de «cualitativas»
(Callejo, 1998: 93). Cabe, en este sentido, rescatar el productivo concepto
acuñado y desarrollado por Bachelard y retomado por Pierre Bourdieu y

97
El diseño de la investigación social

colaboradores de «vigilancia epistemológica», en el sentido de adoptar


una posición de examen continuo sobre las condiciones y los límites de la
validez del conocimiento producido en una investigación37.
Predomina la postura de quienes argumentan que los criterios usados
por los investigadores cualitativos deben evitar reflejar miméticamente
las propuestas anteriormente vistas, redefiniéndose y, a ser posible, susti-
tuyéndose por unos adecuados a la investigación cualitativa. Los traba-
jos de Lofland y Lofland (1984), Lincoln y Guba (1985), Hammersley
(1992) y Glazer (2002), entre otros, ilustran los intentos de elaboración
de criterios específicos de la perspectiva cualitativa y señalan la impor-
tancia de definir la finalidad de la investigación para poder valorar su re-
levancia y validez. En esta línea se encaminan los criterios propuestos
por Lincoln y Guba (1985) de credibilidad 38, transferibilidad, confiabili-
dad y confirmabilidad.
Según estos autores, la credibilidad debe entenderse como confianza
en los resultados de una investigación y su adecuación a la realidad de la
que pretenden dar cuenta y, generalmente, se relaciona con el recono-
cimiento de los resultados por parte de las personas que participaron en
el estudio y por quienes han experimentado o han estado en contacto
con el fenómeno investigado. En general, se señala que para lograrla se
recurre a diversos procedimientos o técnicas como la triangulación, la
coherencia estructural, la adecuación referencial, la contextualización
persistente, la implicación prolongada o el uso de un diario reflexivo.
Por otra parte, se considera que se pueden identificar los posiciona-
mientos personales, prenociones o creencias de los propios investigado-
res. Un intento de tomar conciencia de los mismos y hacerlos explícitos
ha venido a denominarse confirmabilidad. La misma no puede garanti-
zarse, pero se espera que la participación prolongada, la reflexividad, el
trabajo colectivo y el uso de diferentes fuentes de información puedan
contribuir, en cierta forma, a acercarnos a procesos de objetivación com-
partida. La confirmabilidad, o lo que en otros casos se ha denominado
también auditabilidad, se refiere a la forma en la cual un investigador
puede seguir la pista, o ruta, de lo que hizo otro. Para ello es necesario
un registro sistemático y el acceso a la documentación de los materiales,
las decisiones e ideas que ese investigador tuvo en relación con el estudio.
Esta estrategia permite reexaminar los referentes empíricos y llegar a
conclusiones similares, siempre y cuando se tengan perspectivas análo-
gas. Se señala, no obstante, que las inconsistencias, las contradicciones y
las discrepancias pueden desvelar interpretaciones del fenómeno, apor-
tando una mayor riqueza de significados. Sin embargo, es exigible cierto

98
3. Diseños y estrategias de investigación social

grado de confiabilidad y consistencia, concebida ésta como dependencia


o posibilidad de llegar a resultados similares a partir de las mismas infor-
maciones y perspectivas.
Por último, se plantea también en el seno de estas perspectivas que
más que hablar de validez externa convendría utilizar el criterio de trans-
feribilidad, entendida como el grado en que las afirmaciones derivadas de
un contexto determinado pueden aplicarse, en mayor o menor medida, a
otro contexto. La transferibilidad es, así, la posibilidad de trasladar los
resultados a otros contextos o grupos similares. La especificación de las
condiciones bajo las cuales se desarrolló la investigación se convierte en
un elemento importante en este ámbito, ya que, aunque se considera que
los procesos de la investigación realizada dependen del contexto en el
que se inscriben y que la experiencia es irrepetible en sí misma y difícil-
mente aplicable en su integridad —y que otra investigación se movería en
otras coordenadas y en otro ambiente distinto—, no es menos cierto que,
generalmente, intentamos que nuestro estudio trascienda y se proyecte
más allá del espacio, contexto o grupos en los que se ha basado dicha in-
vestigación.
En otras ocasiones, y por parte de otros autores, se ha propuesto tam-
bién hablar del concepto de validez pragmática. Ya Weber proponía que
ningún método es superior a otro y que cada uno es legítimo en relación
al marco de los supuestos en que se fundamenta y con respecto a los re-
sultados que obtiene. Para Weber el método está sometido a la ley de la
eficacia, de modo que no se puede decidir a priori si uno es más válido
que el otro. Serían, en este sentido, los resultados obtenidos los que seña-
larían la legitimidad de un método cuyo papel es hacer progresar el co-
nocimiento y no el de ser fiel a un ideal preconcebido de conocimiento.
Es, en este sentido, la validez reivindicada por una parte de los investiga-
dores más experimentados en la investigación cualitativa cuando propo-
nen que «la investigación cualitativa sirve» (Callejo, 2001: 162).
Sin embargo, estas posturas que han tratado de proponer criterios
paralelos o alternativos a los tradicionales asentados en la validez han
sido recurrentemente cuestionadas con la argumentación de que simple-
mente se ha producido una traslación de las preocupaciones, regulacio-
nes o afirmaciones clásicas al ámbito de la investigación cualitativa. Así,
los esquemas propuestos se mantienen conceptualmente muy cercanos a
los criterios convencionales.
Otros autores han tendido a denegar la posibilidad de proponer o
postular cualquier tipo de criterio aplicable en su conjunto a la investiga-
ción cualitativa y se ha abogado, en mayor medida, por la consideración

99
El diseño de la investigación social

de las tácticas y las estrategias concretas que se habilitan en esa búsque-


da de la calidad y la confianza en una investigación cualitativa.
Algunos de estos procedimientos son, como ejemplo y sin intención de
ser exhaustivos, la triangulación, la saturación, la reflexividad, el trabajo
colectivo y la publicidad (o transparencia) de las características contextua-
les y técnicas de la aplicación de las técnicas, así como de los materiales
que en ella se generan39. De cualquier forma, encontramos propuestas de
criterios muy divergentes en torno a los cuales existen grandes discrepan-
cias. Veamos algunas de las más recurrentemente mencionadas.
La triangulación de métodos, técnicas y/o investigadores vendría a ser
una de las tácticas más frecuentemente localizadas (véanse, por ejemplo,
Denzin, 2006, o Vela Peón, 2013). En términos generales, el trabajo en
equipo, dentro del cual sea posible el intercambio y la confrontación de
propuestas, impresiones, apreciaciones e interpretaciones, así como la
apuesta dialógica (y, por lo tanto, dialogada) en la construcción del co-
nocimiento (a la hora de tomar decisiones en torno a los instrumentos,
crear guiones, seleccionar informantes, etc.) constituye un elemento bási-
co que contribuye a ganar confianza en la adecuación de una propuesta
y desarrollo de una investigación determinada, así como en sus conclu-
siones. La triangulación de métodos es también otra de las posibilidades
reiteradamente propuestas. La combinación de métodos, así como la de
las técnicas, muchas veces se orienta más hacia la complementariedad en
la producción de información que hacia la validación. No obstante, aun-
que muchas veces el objetivo de la complementación no sea el de validar,
de facto lo que encontramos es que parte de los resultados de un proceso
de investigación se va reforzando en sus formulaciones a partir del uso
de diversos métodos y técnicas40. En cierta manera, la estrategia multi-
método, en la cual se utilizan métodos cualitativos para mejorar la cali-
dad de los instrumentos cuantitativos, vendría a constituir una manera
de facilitar la validez de constructo, es decir, de garantizar que los instru-
mentos habilitados se aproximan a aquello que pretende estudiar (como
sucede, por ejemplo, en la realización de grupos de discusión para dise-
ñar cuestionarios, tan habitual en la investigación de mercados, o cuando
se utilizan estrategias participativas para conseguir delimitar formulacio-
nes de ítems problemáticos, o cuando se acude a fuentes secundarias de
datos para intentar aportar evidencia para construir una muestra estruc-
tural o para seleccionar un caso). También en muchas ocasiones, como
se ha considerado previamente, se utilizan aproximaciones cualitativas
para intentar validar resultados de carácter cuantitativo o viceversa, o se
combinan técnicas diferentes con este mismo objetivo.

100
3. Diseños y estrategias de investigación social

Por otra parte, la saturación viene a ser otra de las tácticas frecuente-
mente utilizada para hablar de validez en la investigación cualitativa (Muc-
chielli, 1991). Callejo (1998) señala cómo, en términos generales, tiende a
hablarse de saturación en tres sentidos diferentes. Uno sería el momento o
punto en el que se da por finalizado el trabajo empírico, en tanto que el
proceso de recabar nuevas informaciones e indicios ya no aporta elementos
interpretativos relevantes a la investigación41. En otra dimensión, la satura-
ción se relacionaría con la búsqueda de generalización (validez externa en
la terminología anteriormente señalada o transferibilidad en el sentido an-
tes apuntado, o criterio de representatividad de la muestra); se haría así re-
ferencia a la seguridad de poder generalizar a partir de la muestra seleccio-
nada, en tanto en cuanto encontramos que las aportaciones de nuevos
informantes (o espacios de observación o de recogida de materiales) o nue-
vos casos ya no aportan elementos adicionales a los ya derivados de los in-
formantes (o casos) precedentes. Además, la saturación vendría a propo-
nerse también como práctica iterativa para la confirmación de conceptos
(validez de constructo, siguiendo la terminología antes propuesta), buscán-
dose llenar de contenido empírico los elementos que conforman un siste-
ma conceptual previo (Callejo, 1998: 97); es ésta la acepción preferente en
la línea de estudio que ha venido a denominarse como Teoría fundamenta-
da. Es por ello que, a la hora de seleccionar el número de casos o infor-
mantes o a la de intentar conseguir seguridad en las interpretaciones deri-
vadas del análisis, o a la de ganar confianza en los conceptos y
categorizaciones empleadas, el concepto de saturación se transforma en un
criterio fundamental. Jesús Ibáñez lo planteó en el caso del diseño con
grupos de discusión, Bertaux en relación al método biográfico42, y Glazer
y Strauss en el seno de la corriente llamada Teoría fundamentada, en el
caso de la selección siguiendo criterios de representatividad teórica (y con
ello hablaron de la saturación teórica). Los criterios por los que se podría
conseguir dicha validación hacia la generalización, la adecuación y la rele-
vancia del sistema conceptual son el de pertinencia, búsqueda de diversi-
dad (de activación de las voces posibles, de los espacios diversos, de los re-
latos cruzados, de las principales diferencias, la acumulación de los
mismos siguiendo criterios de relevancia) y de la activación de los diferen-
tes puntos de vista43. Junto con estas miradas sobre la saturación se señala
una tercera derivada del desarrollo de distintas investigaciones sucesivas en
el mismo campo de estudio de prácticas, de opiniones o posicionamientos
ideológicos (Callejo, 1998:102).
Las formas de proponer la selección de los informantes, casos o con-
textos (las cuestiones más comúnmente llamadas de muestreo) cuando

101
El diseño de la investigación social

con ellas se persigue alcanzar algún tipo de representatividad, ya sea es-


tructural o teórica, constituye una de las formas básicas de garantizar la
transferibilidd de los resultados.
En otras ocasiones se desarrolla la propuesta de la integración de ca-
sos extremos (como forma de muestreo intencional) como manera de
contribuir al incremento de la validación de las estrategias de investig-
ación. En esta modalidad se intenta evaluar la «plausibilidad, credibili-
dad y coherencia de las afirmaciones realizadas por los informantes a la
luz de las condiciones y la naturaleza distinta en la que se encuentran los
mismos» (Vela Peón, 2013: 86). En otros casos se aboga por la búsqueda
de casos negativos (constituyendo ésta otra modalidad de muestreo inten-
cional) para depurar un modelo construido que explique o interprete un
proceso social de forma que se posibilite la generalización (Reséndiz
García, 2013: 152). En uno y otro caso se plantea la relevancia de casos
cruciales generalmente con finalidad teorética, esto es, desde el punto de
vista de la propuesta de objetivos de carácter teórico (ilustración, con-
strucción y/o contraste de teoría) (Mitchell, 1983).
Por otra parte, coincidimos con autores como Malterud (2001) en la
necesidad y conveniencia de incluir el proceso de reflexividad como estrategia
básica en la evaluación de la calidad de la investigación cualitativa. El regis-
tro sistemático de las condiciones en las cuales se desarrolló la investigación,
así como el proceso de reflexividad constante en torno a dichas condiciones,
atento a cómo la investigación modifica al investigador (como «sujeto en
proceso» que señaló Ibáñez), cómo el/lo investigado es transformado en
el proceso, cómo el mismo contexto se transforma con el desarrollo y con
los resultados de la investigación, así como la atención y vigilancia sobre la
influencia que el propio investigador, desde sus coordenadas y ligaduras,
ejerce sobre el objeto, el proceso y los resultados de investigación, constituye
un elemento básico que contribuye a tomar conciencia (autocrítica) de las
mismas condiciones de producción del conocimiento y a dotarnos de indi-
cios para poder valorarla (y así validarla)44. Dicha conciencia autocrítica de-
bería estar presente en todas y cada una de las fases de la investigación. En
este sentido, la táctica del uso continuado de un cuaderno de campo45 o en
un diario reflexivo a lo largo de todo el proceso de investigación se convierte
en un instrumento fundamental en el quehacer de todo investigador así
como en el camino pendiente para hacer más transparentes no solo los pro-
cedimientos sino también los procesos, las interacciones, las transformacio-
nes a lo largo de todo el proceso de investigación.
De esta manera, la publicitación y la transparencia en relación con las
decisiones tomadas a lo largo del proceso de investigación, así como las

102
3. Diseños y estrategias de investigación social

condiciones básicas en las que se desarrolló el trabajo de campo, constitu-


yen un elemento crucial en esta consideración. En buena medida, este ob-
jetivo de transparencia se pone de relieve en la práctica cada vez más habi-
tual de incluir en toda la investigación información sobre dichos criterios
de selección así como sobre el contexto y las circunstancias en las que se
desarrolla el trabajo de campo. Valles (2005) menciona algunos ejemplos
de estas prácticas, que irían desde una mención mínima en el contenido de
las así llamadas fichas técnicas de los estudios, hasta el desarrollo de am-
plios y pormenorizados apéndices o apartados metodológicos en una par-
te importante de los estudios o, incluso, la aportación de la disponibilidad
de los materiales que constituyen la base del estudio, de forma que otros
investigadores puedan utilizar (y, cuando sea pertinente, confrontar y/o re-
utilizar) dichos materiales empíricos. Este hincapié en la disponibilidad y
«publicidad» de los materiales y la explicitación transparente de los proce-
sos se inserta en lo que se ha venido a llamar «mentalidad de archivo» (Va-
lles, 2005 y 2014). Esta práctica, mucho más frecuente en otros contextos
nacionales (como es el caso británico), se encuentra en una situación toda-
vía incipiente en nuestro contexto español.
En otros casos, se ha propuesto la devolución de los propios resultados
de la investigación a los mismos informantes que contribuyeron en la
misma como criterio de validación (Vela Peón, 2013: 86); es también lo
que algunos autores han denominado como validez de los respondentes
(Fielding y Fielding, 1990) o lo que Lincoln y Guba (1985) trabajaron
bajo la etiqueta de credibilidad. Si bien es cierto que la devolución de los
resultados de la investigación es un elemento fundamental en todo pro-
ceso investigativo (y con mayor motivo en los dialéctico-participativos),
también es necesario considerar que tiene un alcance relativo como tácti-
ca de validación de resultados en la investigación cualitativa. No pode-
mos olvidar que el proceso de análisis desde esta perspectiva es un proceso
que implica interpretación de segundo orden (y, por lo tanto, interpreta-
ción de las interpretaciones) y que, consiguientemente, dado que los di-
versos sujetos y grupos objeto de estudio se consideran desde su «posi-
ción situada» y que son seleccionados en la investigación intentando
conseguir diversificación en dichas posiciones, los resultados de una in-
vestigación no necesariamente han de coincidir o ser congruentes con las
interpretaciones de los diversos actores sociales participantes en el estu-
dio (menos aun considerándolo de forma consensual). Así pues, esta tác-
tica de la devolución es interesante tenerla en cuenta como criterio de va-
lidación (especialmente como espacio de validación con informantes
clave o expertos, insertos o especialmente conocedores de la problemática)

103
El diseño de la investigación social

siempre y cuando se tengan en cuenta estas limitaciones expuestas. Cons-


tituirá, en este sentido, una táctica valiosa como espacio de confronta-
ción de los resultados de una investigación, así como táctica de contraste
cuando permanezcamos exclusivamente en el nivel informacional del
análisis. No será en este sentido relevante cuando el tipo de análisis que
hagamos pretenda acceder a otros niveles, como por ejemplo al nivel es-
tructural o socio-hermenéutico (Alonso, 1998) o al análisis del sistema
de discursos (Conde, 2009) o cuando pretendamos acceder no sólo al ni-
vel de lo denotado, sino también de lo connotado o, en términos de Ruiz
(2014), al discurso implícito (discurso insinuado, ocultado, fallido o sub-
yacente) o, como apunta Martín Criado (2014), al análisis de contradic-
ciones, censuras, justificaciones o estrategias de búsqueda de consistencia
de los hablantes en situación de interacción social.

5.  A modo de conclusión

En la actualidad la decisión de elegir un diseño/estrategia para una inves-


tigación se ha vuelto más compleja y llena de incertidumbre. No existe
una equivalencia unívoca entre unos objetivos de investigación determi-
nados y un mejor diseño o estrategia investigadora. Éste es uno de los
puntos que hemos dejado claro en este capítulo.
Sí que existe un elenco de diseños/estrategias que pueden servir de
guía para la elección del más apropiado a la vista de los objetivos y del
contexto en el que va a desarrollarse la investigación.
Los diferentes criterios para valorar o dar calidad a una investigación
que se han desarrollado de un modo abierto en este capítulo sirven preci-
samente para ayudar en la elección de la estrategia/diseño más apropia-
do. Criterios y diseños/estrategias deben contemplarse conjuntamente
para realizar una elección adecuada.

Notas
1 Que un determinado tipo de diseños metodológicos tiendan a etiquetarse
como tal depende en muchas ocasiones de la frecuencia del uso así como de su
relevancia en el ámbito de la reflexión metodológica.
2  Ésta es la expresión original que mantenemos.
3  Exceptuando la psicología, y en ésta de forma limitada, los experimentos
han encontrado gran resistencia en su aplicación al ámbito de las ciencias sociales.

104
3. Diseños y estrategias de investigación social

4  Para una nota aclaratoria de la consideración que el propio Garfinkel, re-


ferente básico de la etnometodología, hacía de los experimentos, véase la nota 1
del anexo al presente capítulo.
5 Un ejemplo contemporáneo en el que se aplica este tipo de estrategia lo
constituye el estudio de Izquierdo-Martín (2005). Para más información sobre
este estudio, véase la referencia 1 en el anexo del presente capítulo).
6  La definición concreta de caso permanece en un espacio de constante de-
bate. Para los principales debates relacionados con la estrategia del estudio de
caso, véase la nota 2 del anexo.
7  Para consultar referencias a ejemplos de estrategias basadas en los estudios
de caso, tanto clásicos como contemporáneos, véase la nota 3.
8  Para referencias a ejemplos clásicos, así como contemporáneos en esta for-
ma de diseñar investigación, véase la nota 4 del anexo.
9  Hay que señalar que, debido a la variedad de los caminos y la multiplici-
dad de los razonamientos que posibilita, «lo biográfico» remite a múltiples con-
sideraciones no siempre coincidentes: para algunos es una técnica (Balán, 1974;
Jelín, 1976), para otros un método (Ferraroti, 1979, 1988), para otros, incluso,
un enfoque (también Ferraroti, 1991, y Bertaux, 1988).
10  Algunos ejemplos de investigaciones (algunas clásicas, otras contemporá-
neas) basadas en el uso de esta estrategia se pueden encontrar en la nota 5 del
anexo.
11  Algunos ejemplos de estos usos los encontramos referenciados en la nota
6 del anexo al presente capítulo.
12  Si bien esta estrategia es susceptible, también, de ser utilizada con finali-
dad puramente retórica, esto es con finalidades de gestión, fortalecimiento de
actores y justificación ideológica, como analizan Ortí y Díaz (2010).
13 Véase la nota 7 del anexo al presente capítulo.
14  Para algunas de estas referencias, véase la nota 8 del anexo.
15  Actualmente podemos concluir que el uso combinado de ambas perspec-
tivas en el seno de una misma investigación ha pasado a convertirse en un lugar
comúnmente aceptado y que se ha llegado, incluso, a un momento en el que po-
demos hablar de la «deseabilidad social» de la investigación multimétodo. En la
literatura metodológica se multiplican las referencias a las virtudes de la combi-
nación de ambos métodos e, incluso, frecuentemente, en las valoraciones de los
proyectos de investigación realizadas por diversas instituciones se incluye como
criterio de evaluación de las propuestas, o como requisito imprescindible en bue-
na cantidad de pliegos de condiciones.
16 Véase la referencia a la polémica generada, a los términos del debate, así
como a alguno de los autores referentes básicos, en la nota 9 del anexo al pre-
sente capítulo.
17  Creswell (2009) denomina a esta modalidad «embedded strategy», siempre
y cuando uno de los métodos se utilice de forma secundaria (subordinada, po-
dríamos decir nosotros) en relación al otro método.

105
El diseño de la investigación social

18  Los conceptos «concurrente» y «secuencial» son propuestos por Creswell


(2009).
19  Para un ejemplo de esta modalidad de estrategia multimétodo, véase la
referencia 2 del anexo correspondiente al presente capítulo.
20 Véase un ejemplo de este uso en la referencia 3 del anexo a este capítulo y
la referencia 4 en dicho anexo.
21 Véase un ejemplo de este uso en la referencia 5 del anexo del presente ca-
pítulo.
22 Un ejemplo clásico que hace un uso secuencial de los métodos siguiendo
esta modalidad encadenada sería la que desarrollan Adorno y sus colaboradores
(1950) en la obra La personalidad autoritaria.
23 Véase el estudio propuesto en la referencia 6 del anexo como ejemplo de
este tipo de usos.
24 Un ejemplo clásico asentado en estos múltiples encadenamientos lo tene-
mos en la obra Los parados de Marienthal de Lazarsfeld y colaboradores (1931).
Véase un comentario sobre esta investigación en la referencia 7 del anexo que
acompaña este capítulo.
25  Para ilustrar con un ejemplo este tipo de encadenamientos múltiples pro-
ponemos el trabajo de Pérez Yruela y Col (2005) comentado en la referencia 8
del anexo de este capítulo.
26  Es el caso en el que se presentan verbatines o fotografías como mera ilus-
tración retórica de algo que se argumenta a partir del uso de metodología cuan-
titativa; o el caso más frecuente de investigaciones predominantemente cualitati-
vas en las que se incluye algún dato que puntualmente sirve para reforzar una
afirmación o para ubicar contextualmente una propuesta.
27 Un estudio prototípico en la línea del desarrollo de una fase cualitativa
como paso previo para la realización del cuestionario es la reseñada en la refe-
rencia 9 en el anexo. Otro estudio que, en esta línea, utiliza metodología cualita-
tiva para mejorar la redacción de preguntas censales se encuentra comentado en
la referencia 10 del anexo al presente capítulo.
28  Como se hizo, por ejemplo, en la clásica obra de Los parados de Marienthal
de Lazarsfeld y Yahoda ya anteriormente comentada, o el clásico caso de la selec-
ción de la ciudad de Muncie por los Lynd como prototipo de ciudad «media» en sus
obras Middletown: A Study in Modern American Culture, publicada en 1929, y
Middletown in Transition: A Study in Cultural Conflicts, publicada en 1937.
29  Podemos encontrar una gran multiplicidad de estudios que se basan en
esta estrategia. Por mencionar solo algunos, véanse las referencias 11 y 12 del
anexo al presente capítulo.
30  Triangulación es un término que en muchas ocasiones tiende a proponer-
se como concepto equiparable al de combinación o articulación de metodolo-
gías. Desde nuestro punto de vista, conviene diferenciar esta acepción restrin-
giéndola a su significado original (propuesto por Denzin) en relación al uso
conjunto de métodos (cuantitativo y cualitativo) para considerar la concurrencia

106
3. Diseños y estrategias de investigación social

de los resultados e intentar así aumentar la confianza y la validez de un estudio.


Como ya se ha comentado en múltiples ocasiones, el concepto de triangulación
proviene de la navegación y de la estrategia miliar y viene a relacionarse con la
utilización de múltiples puntos de referencia para localizar la posición exacta de
un objeto en el espacio.
31 Un ejemplo de este uso en el que el objetivo es la validación de los resulta-
dos lo encontramos comentado en el anexo en la referencia 13. Otro ejemplo de
este uso de la triangulación de métodos lo encontramos en la primera parte del
texto anteriormente referenciado (Pérez Yruela y Col, 2002) cuyo comentario se
puede localizar en la referencia 8 del anexo. En este texto se desarrolló una prime-
ra fase de entrevistas a expertos para construir una tipología de hogares pobres y
excluidos, cuyos resultados se validaron a través del uso de técnicas de análisis
multivariable a partir de datos secundarios en los que se recoge información bási-
ca para construir dicha tipología en los hogares. En este caso en concreto los re-
sultados de ambas aproximaciones coincidieron. También podemos localizar un
estudio (en curso) en el que los resultados no convergen, sino que, al contrario, di-
vergen de forma significativa (Cano, 2014). En este estudio se comparan las res-
puestas a un cuestionario sobre preferencias en estilos de vida de mujeres con las
respuestas de estas mismas mujeres en situación de entrevista abierta.
32  Aplicaciones de estas formas de combinar y comparar análisis se pueden
ver en los textos señalados en las referencias 13 y 14 del anexo.
33 Véase un ejemplo de análisis cualitativo de preguntas abiertas de cuestio-
nario en la referencia 15 del anexo.
34 Una reflexión que, asentándose en el análisis cuantitativo de transcripcio-
nes de entrevistas, se vincula con la anterior modalidad propuesta en torno al
isomorfismo de las aproximaciones topológicas cuantitativas y cualitativas, se
realiza en el texto de Belzunegui, Brunet y Pastor (2012).
35  Se puede encontrar una vasta ejemplificación de este uso. Sólo por men-
cionar algunos ejemplos, incluimos dos estudios comentados brevemente en las
referencias 16 y 17 del anexo que acompaña al presente texto.
36  La proliferación de criterios, las descripciones enumerativas y acumulati-
vas de los mismos que, en frecuentes ocasiones, han llegado, incluso, a proponer
largas listas de preguntas a responder para valorar la investigación cualitativa,
así como la falta de aplicabilidad de muchos de estos en la práctica de la investi-
gación cualitativa concreta ha llevado a algunos autores a huir de cualquier in-
tento de establecer criterios válidos en el conjunto de la investigación y a hablar
más bien de prácticas y tendencias, así como de algunas estrategias.
37  Según lo plantean estos autores, vendría a ser aquella actividad que ejerce
el investigador persiguiendo reconocer la clara separación entre el discurso cien-
tífico y el sentido común (distanciándose así de este), aplicando, para evitar caer
en la sociología espontánea, técnicas de objetivación (construcción teórica, críti-
ca constante de los conceptos, recurso a las estadísticas, etc). Para estos autores
se trata más bien de una actitud que el investigador debe desarrollar a lo largo

107
El diseño de la investigación social

de todo el proceso que de un criterio o conjunto de criterios aplicables a la inves-


tigación.
38  Concepto introducido en el debate por Glazer y Strauss.
39  Se localizan en la literatura una infinidad de propuestas tácticas entre las
que también se apunta: la implicación prolongada, la descripción densa, la audi-
toría, etc.
40  Interesantes ejemplos de estos reforzamientos nos los ofrecen Caïs, Fol-
guera y Formoso (2014) en su consideración del uso del grupo de discusión
como herramienta de consolidación de resultados en investigaciones basadas en
investigación cualitativa longitudinal, como por ejemplo en la construcción su-
cesiva de relatos de vida.
41  Callejo (1998: 96) apunta dos metáforas útiles para comprender esta ver-
sión del concepto de saturación. Una vinculada a la terquedad de la realidad
que se nos manifiesta una y otra vez garantizando la correspondencia entre lo
observado y la realidad (validez interna en términos clásicos) y otra sería la de
la curva de la demanda, de modo que la demanda de conocimiento encuentra
grandes satisfacciones en sus primeros consumos (informantes), satisfacción que
decrece paulatinamente hasta alcanzar un punto (de saturación) a partir del cual
se acelera la caída. En el mismo texto señalará su desacuerdo con la existencia
de un «punto de saturación» alegando que no hay saturación total, sino que,
como mucho, pueden encontrarse grados de saturación en un trabajo empírico y
que dicha saturación estará presente en todo el largo proceso de desarrollo de la
misma, no en un momento concreto.
42  Para Bertaux la saturación es un proceso que no opera en el campo de la
observación sino en el de la representación. Así, para este autor solo tiene senti-
do cuando se analizan varios casos previamente seleccionados por su pertinen-
cia para saturar los diversos posicionamientos y puntos de vista. El elemento
básico para conseguir dicha saturación se basaría en diversificar al máximo el
número y tipo de informantes (y los espacios de la observación).
43  Para Callejo (1996), la saturación no debería incluirse como criterio de
validación (esto es, de adecuación entre objetivos y pruebas empíricas consegui-
das, sino en el de la fiabilidad (redundancia de los datos obtenidos de la misma
manera o con los mismos instrumentos). Así pues, para este autor la saturación
no nos ofrece «pruebas» sino «confianza» en que el procedimiento no se encuen-
tra sesgado por circunstancias puntuales del investigador o por la particularidad
de los informantes (1996: 105).
44  En este sentido, como apunta Calderón (2001), los sesgos a prevenir des-
de esta perspectiva procederían, por tanto, más de la no explicitación de las pre-
concepciones del investigador y de su influencia que de la inevitable presencia de
las mismas.
45  Cuaderno de campo que no remite únicamente al instrumento privilegia-
do del quehacer etnográfico, sino a un instrumento deseablemente generalizable
en el conjunto de la investigación social.

108
3. Diseños y estrategias de investigación social

Bibliografía recomendada
Callejo Gallego, J. (1998): «Sobre el uso conjunto de prácticas cualitativas y
cuantitativas», Revista Internacional de Sociología, 21, Madrid, Instituto de
Sociología «Jaime Balmes», CSIC.
Cook, T. D., y Campbell, D. T. (1979): Quasi-experimentation. Design and
analysis issues for field settings, Boston, Houghton Mifflin Co.
Creswell, J. W., y Plano Clark, V. L. (2007): Designing and conducting mixed
methods research, Thousand Oaks, Londres, Nueva Delhi, Sage.
Lincoln, Y. S., y Guba, E. G. (1985): Naturalistic Inquiry, Londres, Sage.

109
El diseño de la investigación social

4.  La investigación social


ante su segunda revolución
digital

Pablo Navarro
Antonio Ariño

1. Introducción1

Desde finales del siglo xx la investigación social (y, en especial, la de na-


turaleza propiamente sociológica) ha recibido por dos veces el impacto
del fenomenal desarrollo experimentado en este tiempo por las llamadas
TIC (Tecnologías de la Información y la Comunicación). El primero de
esos impactos fue el que supuso la aparición y difusión del ordenador
personal, que proporcionó una nueva y poderosa herramienta computa-
cional a la producción y tratamiento de datos sociológicos. El segundo
impacto ha sido la constitución de Internet como espacio hegemónico no
solo de la información y la comunicación humanas, sino también de la
interacción entre individuos y grupos, así como de la propia generativi-
dad2 y «organizabilidad»3 de la vida social —y todo ello, en una escala
congénitamente global.
Conviene entender lo que ambos impactos tienen en común, pero
también el distinto alcance de cada uno de ellos. Lo que tienen en común
es la «sustancia digital-computacional»4 que sirve de fundamento, tanto
en uno como en otro caso, a la configuración y manejo de la información
sociológica. Comprender las diferencias entre los dos impactos señala-
dos, por su parte, exigirá un examen más detenido. En primer lugar, pro-
cederemos a dar cuenta, siquiera sea de forma muy sumaria, de lo que
supuso para la sociología su «primera revolución digital».

110
4. La investigación social ante su segunda revolución digital

2.  La primera revolución digital de la investigación social

En primer lugar, el uso generalizado del ordenador personal convirtió en


obsoletos todos aquellos procedimientos tradicionales (y, por cierto, ana-
lógicos) de acopio y procesado de información (fichas garrapateadas a
mano, cuadernos de campo, casetes de audio, etc.) que los investigado-
res sociales veníamos concibiendo como inexcusable punto de partida de
cualquier tarea de acopio de información para un posterior uso científi-
co. Ahora, las notas de campo las escribimos directamente en una table-
ta, las trabajosas fichas han pasado a mejor vida y el audio es captado
directamente como un archivo digital.
Pero el ordenador personal no sólo facilitó la producción y manejo de
la materialidad de los datos: ha entrañado también una revolución en la
utilización epistémica (es decir, como fuentes de conocimiento científico)
de esos datos. Porque sólo la difusión del ordenador digital moderno ha
permitido elevar a su propia potencia el ulterior tratamiento estadístico
de tales datos. Sin la generalización del uso de ordenadores personales
nunca se habrían convertido en mayoritarias las técnicas estadísticas
complejas que hoy son habituales en el ámbito de la pesquisa sociológi-
ca. Por consiguiente, el ordenador personal ha transformado no sólo téc-
nica, sino también epistemológicamente, el proceso mismo de la investi-
gación social: los objetivos de nuestros análisis, y los criterios de
aceptabilidad científica de éstos, han resultado profundamente afectados
por la progresiva disponibilidad de ordenadores personales cada vez más
potentes y baratos (así como de programas de tratamiento de los datos
crecientemente diversificados y poderosos). No hará falta abundar más
en esta rápida ojeada a las consecuencias que la primera revolución digi-
tal de la investigación sociológica, ocasionada por el advenimiento del
ordenador personal, ha tenido para nuestra disciplina. Pero veamos en
qué está consistiendo esa «segunda revolución digital» que hemos pre-
sentado como asociada al hecho de Internet y que añade a la primera as-
pectos radicalmente novedosos.

3.  La segunda revolución digital de la investigación social

La segunda revolución digital que en estas primeras décadas del siglo xxi
está comenzando a incidir sobre la investigación sociológica5 tiene un ca-
lado todavía más profundo que la primera. No se trata de una revolución
instrumental (con profundas repercusiones epistemológicas, es cierto),

111
El diseño de la investigación social

como en definitiva ha sido la transformación impulsada por el ordena-


dor personal. Se trata de una revolución sustancial o, si se prefiere, onto-
lógica: afecta al objeto mismo del conocimiento sociológico, y no sólo al
procedimiento por el que tal objeto se investiga. Obsérvese que ese obje-
to solía ser —incluso en la época de la primera revolución digital (la del
ordenador)— preexistente con respecto al instrumento computacional
utilizado en su estudio, e independiente de éste. La segunda revolución
digital que aquí se anuncia significa la fusión, a efectos prácticos, entre el
objeto de estudio y los instrumentos que deben dilucidar tal objeto.
Para decirlo de la manera más concisa posible, la segunda revolución
digital de la investigación sociológica tiene como punto de partida una cir-
cunstancia inédita: lo digital no va a darse sólo en el proceso de investiga-
ción, sino en la constitución misma del objeto investigado. Y ello como
consecuencia de un hecho de dimensiones colosales: el hecho de que va a
ser la entera galaxia de la información antrópica en formato digital —es
decir, la abigarrada actividad que bulle, a escala planetaria, en Internet—
el objeto directo y principal de la investigación sociológica. Esa actividad
está llamada a convertirse, cada vez más, en el objeto canónico de la inves-
tigación propia de nuestra disciplina. Pero ocurre, además, que Internet no
está destinada a ser sólo el objeto «por defecto» de tal investigación, sino
también su propio instrumento heurístico fundamental: la actividad social
registrada digitalmente en Internet va a ser estudiada, precisamente, por
medio de Internet; es la Red misma la que aportará —la que está aportan-
do ya— los instrumentos específicos posibilitadores de tal estudio.
Así, Internet se dispone a ser tanto el objeto como el instrumento de una
nueva modalidad —en realidad, de un nuevo entorno— de investigación so-
ciológica que, inevitablemente, va a reclamar la hegemonía en el entero cam-
po de nuestra disciplina. Dicho de otro modo, Internet se halla en trance de
convertirse tanto en el objeto privilegiado como en el instrumento «by de-
fault» del conocimiento sociológico, y ello en un futuro nada lejano —más
bien en un futuro que está invadiendo ya nuestro presente.

4.  Internet como «doble» de la vida social

Todavía no somos enteramente conscientes de las repercusiones que está


teniendo Internet en nuestra cada vez más globalizada civilización. Esto es
en cierto modo inevitable, pues Internet no es una realidad acabada, sino
todo lo contrario: está continuamente expandiendo y profundizando su in-
flujo sobre nuestras vidas y nuestras sociedades. Por eso, y en tanto que so-

112
4. La investigación social ante su segunda revolución digital

ciólogos, convendría que adoptásemos, en relación con la evolución futura


de la Red, una perspectiva lo bastante previsora como para no quedarnos
cortos en nuestra percepción de un fenómeno a todas luces imparable.
Así, parece aconsejable asumir a este respecto lo que podríamos llamar el
«postulado de exhaustividad»: todo lo que ocurre en la sociedad va a te-
ner, a no mucho tardar, su reflejo cada vez más minucioso en la Red. Di-
cho en corto: todo va a estar en Internet, tanto los objetos —desde los as-
censores a las latas de refrescos— como los sujetos y sus acciones.
Hace ya años se anunció el advenimiento de la «Internet de las cosas»
(«The Internet of Things»6). Pero, aunque menos trompeteada, podríamos
vaticinar también la progresiva constitución de una «Internet de las perso-
nas» («The Internet of People», como ha sido ya denominada7): somos las
personas, con todas nuestras peculiaridades y recovecos, las que también
vamos a estar detallada y casi exhaustivamente especificadas en Internet.
Y ello porque la Red no puede dejar de registrar y memorizar todas aque-
llas acciones e interacciones —desde la compra de un libro a la más fugaz
de nuestras llamadas telefónicas— que, como usuarios, realicemos a través
de ella. De manera que nuestra entera personalidad va a reflejarse, querá-
moslo o no, seamos conscientes de ello o no, en el ciberespacio; y lo va a
hacer con una minuciosidad turbadora. Así pues, tanto las cosas (y sus ac-
tividades) como las personas (y sus acciones) van a estar registradas en In-
ternet de manera virtualmente exhaustiva y panóptica.
En resumen, cabe pronosticar sin temor a equivocarse que la entera
realidad vinculada de algún modo al quehacer humano va a tener, antes
de lo que podamos sospechar, su «doble» digital. Ahora bien, obsérvese
que ese reflejo, copia o Doppelgänger digital tiene claras ventajas prácti-
cas —y asimismo, como veremos, epistémicas— con respecto al corres-
pondiente «original» en el «mundo real». (Entre paréntesis: el concepto
de «mundo real», entendido por contraposición al «mundo digital» —a
veces también denominado «virtual»— va a ver difuminado su sentido
hasta casi perderlo; y ello en la medida en que tal «mundo digital» está
llamado a entreverarse de manera cada vez más omnipresente, minuciosa
y «real en sus consecuencias» con aquello que en los tiempos predigitales
entendíamos por «mundo real».) Las mencionadas ventajas no son otras
que las que se desprenden de la óptima manipulabilidad computacional
que tiene el «doble digital» frente al «original real». Es ese doble digital
el que se dispone a actuar, a casi todos los efectos, como el «proxy»
(como una representación más o menos isomórfica) de la realidad social
«original» en cuestión. Se trata de una relación análoga a la que en la era
Gutenberg ha venido existiendo entre el texto impreso y el correspon-

113
El diseño de la investigación social

diente manuscrito original8: el primero ha funcionado en esa era, y a casi


todos los efectos, como «proxy» del segundo.
Cada vez más, estudiar Internet va a ser estudiar la sociedad, y estudiar
la sociedad sólo va a ser posible investigando Internet. Este hecho, inevita-
blemente, planteará a los investigadores concernidos toda una constela-
ción de problemas —técnicos, epistemológicos y teóricos—que las ciencias
sociales en general, y la sociología en particular, habrán inexcusablemente
de afrontar. Se trata de problemas de dimensiones intimidantes, pero que
solo podrán ser esquivados al precio de convertir la sociología en una cien-
cia anquilosada y en buena medida declinante —y de dejar el campo libre
a otras disciplinas nuevas, desde la del «large scale data analysis» (que tra-
ta de descubrir patrones significativos en grandes conjuntos de datos) a la
del «parsing» (que se centra en el análisis sintáctico automatizado de tex-
tos). Estas y otras disciplinas que están desarrollándose con una rapidez
inusitada en nuestros días sí parecen dispuestas a aceptar —en contraste
con la sociología estándar, demasiado anclada en una visión predigital de
su objeto— el desafío que los aludidos problemas entrañan.
Estamos hablando de problemas expresables mediante interrogantes
como los siguientes: ¿cómo transformar las masas ingentes de datos que
Internet produce y relaciona en conocimientos sociológicamente signifi-
cativos? ¿Cómo, en primer lugar, podrán los sociólogos acceder a esos
datos, y de qué modo —y con qué limitaciones— podrán manejarlos?
¿Cuáles serán las herramientas técnicas y epistémicas que deberán desa-
rrollar y poner al servicio del correspondiente análisis? ¿De qué manera
y mediante qué instrumentos podrán esos análisis adquirir relevancia
teórica? Éstos son a nuestro juicio algunos de los retos que la investiga-
ción sociológica debe comenzar a abordar en el inmediato futuro. En lo
que sigue, intentaremos esbozar una primera clarificación de esos proble-
mas; unos problemas que, por su complejidad y trascendencia, habrán de
ser objeto de una reflexión mucho más amplia y detallada. Esta re-
flexión, desde luego, tendrá que ser colectivamente asumida por aquellos
sociólogos interesados en mantener la vigencia de nuestra disciplina en
este nuevo tiempo que la era digital abre también en nuestro campo.

5. Los nuevos objetos sociales de naturaleza digital que


están constituyéndose en el universo IP

Si nuestra vida digital como usuarios de Internet se presta en principio a


ser el punto de partida de análisis sociológicos de interés, no es sólo por-

114
4. La investigación social ante su segunda revolución digital

que tal vida está estructurada por nuestras preferencias, acciones y acti-
vidades estrictamente individuales. Es también porque la misma interac-
túa con un amplio universo de «objetos digitales» que nos vinculan a
otros ciberagentes. Es este contexto sociodigital en el que se recorta nues-
tra trayectoria individual en la Red el que permite interpretar esa trayec-
toria en términos propiamente sociológicos. Veremos en qué consisten
esos «objetos socio-digitales» a los que se hace referencia, pero primero
prestemos atención al entorno que los alberga, y que no es otro que lo
que llamaremos el universo IP.

5.1 El universo IP

Hoy en día el entorno general que abarca, relaciona y presta unidad a la


información digital antrópica (es decir, producida y utilizable por seres
humanos en su condición de tales9) es lo que llamaremos el universo IP.
Es un universo que incluiría toda la información digital directamente co-
nectable (al menos en principio) a través del protocolo IP («Internet Pro-
tocol») y de la familia de protocolos asociados a éste (los llamados «pro-
tocolos TCP/IP»). Ese universo es, además, el espacio central, si no
exclusivo, de esa especialidad sociológica en proceso de constitución que
postulamos y a la que daremos el nombre de sociología digital10.
El universo IP11 se halla en una fase de expansión aparentemente im-
parable, acelerada y omnívora: nada —ningún aspecto de nuestro mun-
do físico, pero también de nuestra variopinta sociedad glocal— parece a
salvo de resultar engullido por ese universo. Desde hace algún tiempo, en
efecto, nos encontramos en lo que se ha llamado el proceso de convergen-
cia IP (la integración a través de los protocolos de Internet, y en una sola
red, de datos, voz, vídeo y cualquier otra modalidad de información ima-
ginable). El potencial de conectividad y por tanto de accesibilidad y de
combinabilidad (de procesabilidad conjunta) que tal convergencia entra-
ña convierte su avance en irresistible. Salirse del universo IP supone un
«coste de desconexión» sencillamente inasumible para casi todos los pro-
pósitos imaginables en este contexto.

5.2 El universo IP como matriz de un sistema de nuevos objetos


sociales de naturaleza digital (objetos socio-digitales u objetos SD)

Si el universo IP, y todo lo que contiene y representa, tiene interés desde


un punto de vista propiamente sociológico es por el conjunto de opera-

115
El diseño de la investigación social

ciones sociales que posibilita y pone en movimiento. En efecto, concebir


ese universo —al que también llamaremos Internet o la Red, indistinta-
mente— tan sólo como un gigantesco sistema de información y comuni-
cación supone soslayar sus dimensiones más enjundiosas desde un punto
de vista propiamente social. Pues, como ya se ha adelantado de pasada,
Internet ha devenido en la actualidad, asimismo, el espacio hegemónico
de la interacción y de la propia organización y generatividad social hu-
manas —y todo ello, en una escala congénitamente global.
Ese complejo sistema social que en realidad es Internet se halla en rá-
pida expansión a través de un triple proceso de emulación, de fertiliza-
ción cruzada y de interconexión. En primer lugar, el universo IP repro-
duce por emulación cada vez más aspectos del mundo predigital: así
como las cartas han sido emuladas (y en gran medida sustituidas) por el
correo electrónico, y las viejas enciclopedias en papel por la Wikipedia,
las diversas demandas y ofertas de interacción e intercambio social —des-
de las que responden a necesidades de alojamiento o de transporte hasta
las que reflejan la articulación de grupos de interés de todo tipo, o de
movimientos de protesta traducibles en manifestaciones callejeras— han
encontrado en Internet un dominio en el que pueden no ya ser emuladas,
sino resultar extraordinariamente potenciadas.
Además, el universo IP evidencia asimismo una notable capacidad
para impulsar procesos de «fertilización cruzada» entre esquemas opera-
tivos en la Red. Así ocurre, por ejemplo, cuando mecanismos como los
motores de búsqueda se acoplan con dispositivos de traducción automá-
tica, o cuando nuestras pautas de uso de Internet modifican el perfil de
la propaganda personalizada que recibimos por ese medio.
En tercer lugar, la Red tiene una capacidad congénita (resultado de su
propia naturaleza digital-computacional) para interconectar todos los
datos que el universo IP es capaz de engullir (en realidad, para convertir
esos datos en una suerte de neuronas artificiales exhaustivamente inter-
conectadas, haciendo de ellos datos hiperenlazables). Estos datos, dota-
dos de una estructura relacional más o menos rica, pueden ser explota-
dos mediante consultas semánticas, y son así capaces de revelar patrones
significativos en principio ocultos —de regenerar como explícita infor-
mación sólo implícitamente presente en ellos12.
La expansión del universo IP como consecuencia de ese triple proceso
de emulación, de fertilización cruzada y de interconexión es lo que está
planteando un gigantesco desafío a la investigación social —un desafío
que con toda probabilidad va a entrañar una revolución en los presu-
puestos, técnicas y métodos de esa investigación13—. Y si esto es así, es

116
4. La investigación social ante su segunda revolución digital

porque en esa expansión la Red está evidenciando una portentosa capa-


cidad sociogénica, que se manifiesta fundamentalmente a través de la ge-
neración en Internet de una enorme variedad de nuevos objetos sociales
de naturaleza digital (Objetos Socio-Digitales u Objetos SD).

5.3 Los objetos SD como estructura social subyacente de Internet

Por objeto social entendemos, en general, un presupuesto agencial objetivo


de naturaleza social (y no meramente física, como en principio sería el
caso, digamos, de un fenómeno meteorológico). Abundan los ejemplos de
«objetos sociales» en el mundo predigital: así, el objeto social «saludo» o el
objeto social «horario». Uno sabe que en determinadas circunstancias
debe saludar a alguien, y que en otras debe respetar ciertos horarios, etc.
Esa realidad socialmente presupuesta que es un objeto social sirve de
referente, focaliza, concentra y de algún modo posibilita cierta familia de
acciones e interacciones sociales. Los objetos sociales pueden ser con-
ceptos colectivamente compartidos, como el concepto «préstamo» (y la
correspondiente acción y verbo, «prestar»), o bien conceptos no sólo am-
pliamente compartidos, sino que también presuponen el uso de algún ar-
tilugio o conjunto de artilugios para llegar a resultar eficaces. Así ocurre,
digamos, con el objeto social «imprenta». Obsérvese que el objeto social
imprenta no es el artilugio de ese nombre en su mera materialidad, sino
ese artilugio más su definición socioagencial (es decir, más el uso social
del mismo, uso que se supone asimismo compartido por un determinado
medio social).
Desde la aparición del ordenador digital moderno (un buen ejemplo,
también, de objeto social), y especialmente desde la constitución y el ful-
gurante desarrollo de Internet, han venido apareciendo un número cre-
ciente de objetos sociales de naturaleza digital. Se trata de realidades que
en este caso no son tan sólo conceptos, sino genuinos artilugios de induc-
ción, producción y procesamiento de actividad humana, y que toman
cuerpo en un formato digital-computacional. El correo electrónico, por
conocido, podría ser un socorrido ejemplo de esta clase de objetos socia-
les. Se trata de realidades capaces de focalizar, concentrar y en cierto
modo posibilitar familias específicas de acciones e interacciones sociales
que, sin la existencia de tales objetos, no podrían realizarse con la efica-
cia y la eficiencia que ellos aportan.
Estos objetos son sociales porque, más allá de sus características tec-
nológicas (más allá del modo como se especifican y funcionan técnica-

117
El diseño de la investigación social

mente en el universo de Internet), son empleados por una amplia base de


usuarios y para un variado abanico de propósitos personales, entre los
que inevitablemente se cuentan interacciones sociales directas o indirec-
tas (es, en efecto, imposible utilizar el correo electrónico sin interactuar,
al menos en la intención, con alguien, aunque sea una persona descono-
cida e inalcanzable por otro medio).
Pero estos objetos son asimismo de naturaleza intrínsecamente digital,
porque es su existencia en un formato digital-computacional, y en el eco-
sistema digital-telemático que representa Internet, lo que concede a tales
objetos la mayor parte de sus potencialidades. Es ese formato, y su in-
clusión en el referido ecosistema, lo que convierte a tales objetos (o, más
bien, al contenido que generan) en materia prima de todo tipo de proce-
samiento computacional. Este procesamiento, en principio, sería capaz
de relacionar (y de «hacer entrar en resonancia», por así decirlo) ese con-
tenido digital (por ejemplo, el del objeto social correo electrónico) con
cualquier otro contenido digital generado por objetos análogos (diga-
mos, el producido por alguna red social). Estos son los objetos sociales
que denominamos sociodigitales o, para abreviar, objetos SD. Entre tales
objetos se cuentan, además de alguno ya mencionado, como el correo
electrónico, otros más recientes, como Facebook, Couchsurfing, Uber o
Dropbox, entre otros muchos.
No hace falta subrayar la naturaleza social de tales objetos, pues es
evidente su papel no sólo como mediadores sino también como genuinos
organizadores de interacciones sociales14. Lo que tal vez deba subrayarse
es el potencial que insufla a esos objetos SD su formato digital. Pues es
justamente ese formato el que permite que los contenidos de tales obje-
tos sean omnímodamente procesables en el universo IP y resulten así re-
lacionables y relacionados, al menos virtualmente, con todos los demás
contenidos y procesos presentes en ese universo —un universo, por cier-
to, no sólo gigantesco sino en continua expansión.

5.4 El universo IP como entorno propio (productivo y reproductivo) de


los nuevos objetos SD

Veamos cuáles son algunas de las características más definitorias de es-


tos objetos SD que nos ocupan. Ellos son, en primer lugar, objetos con-
génitamente globales (o, mejor, glocales). Son asimismo referentes y con-
centradores de actividad social. Por último, conviene atender a las
funciones que asumen tales objetos SD, así como a sus tipos. Examinare-

118
4. La investigación social ante su segunda revolución digital

mos cada uno de estos rasgos definitorios de los objetos SD en sendos


epígrafes.

a) El carácter congénitamente global de los objetos SD

Un rasgo muy notorio de estos objetos es su carácter congénitamente glo-


bal. Los objetos SD, por el mero hecho de formar parte del universo IP,
tienen un alcance inevitablemente planetario. Y ello con independencia
de su densidad y distribución geográfica real en un momento dado: la
«densidad» de su presencia en la Red puede ser más bien tenue; y es posi-
ble que esté fuertemente localizada. Y, sin embargo, aun esos incipientes
objetos SD tienen, sin remedio, una «constitución virtual» de dimensio-
nes planetarias. Imaginemos que comienza a constituirse un nuevo obje-
to SD; pensemos, sin ir más lejos, en las primeras fases de desarrollo del
correo electrónico. Cuando Ray Tomlison y otros diseñaron —a media-
dos de los setenta— el correo electrónico en el formato que todavía usa-
mos15, el disfrute de este servicio sólo estaba al alcance de unos centena-
res de usuarios, muy concentrados en determinados centros de desarrollo
tecnológico. Y, sin embargo, se trataba ya de un objeto SD de dimensión
virtualmente global, como quedó evidenciado por su explosiva expan-
sión posterior. Es la integración en el universo IP, y no el número ni la lo-
calización efectiva de usuarios en un momento determinado de su desa-
rrollo, lo que presta un carácter congénitamente global a cualquier
objeto SD.
Todo lo que existe en Internet existe en una dimensión (al menos vir-
tualmente) global. Por eso, los objetos SD son objetos intrínsecamente
globales. Son, en este sentido, genuinos objetos-mundo (objetos de di-
mensión planetaria y que se rigen y evolucionan a través de una dinámi-
ca unitaria global16). Pero, además, como veremos a continuación, los
objetos SD se constituyen como auténticos referentes y condensadores
de actividad social en esa dimensión global en la que se constituyen.

b) Los nuevos objetos SD como referentes y condensadores (agregadores


y relacionadores) sociales

Los objetos SD son realidades que, como «referentes objetivos», indu-


cen, orientan, reciben, condensan, distribuyen y suministran informa-
ción antrópica. Sobre la base de esa información, tales objetos posibili-
tan y median algún tipo de comunicación entre agentes sociales. Son
asimismo instrumentos de acción y de interacción social, así como im-

119
El diseño de la investigación social

pulsores de formas emergentes de organización, todo ello en la esfera so-


cial y a escala glocal (es decir, a cualquier escala, de la más local a la glo-
bal, y de la micro a la macro).
La incardinación de los objetos SD en Internet permite que los datos
y metadatos propios de cada objeto SD puedan ser relacionados con los
de cualquier otro, y procesados junto con estos de todas las maneras
imaginables. Esta intrínseca «relacionabilidad» de los objetos SD (y en
concreto de sus contenidos) constituye el fundamento de la «generativi-
dad» de esos objetos, es decir, de su capacidad para crear efectos sociales
emergentes. En la medida en que tales objetos no se limitan a agregar
contenidos sociodigitales, sino que son también capaces de relacionarlos,
producen nueva información semántica que cabe reciclar socialmente en
una dirección sociogénica (de creación de nuevos vínculos y entidades
sociales). Por ejemplo, es posible agregar la información acerca de mi
persona que está de hecho presente en un conjunto de objetos SD. A par-
tir de ahí, cabría obtener un perfil personal mío prácticamente exhaustivo,
que podría compararse con otros perfiles personales análogos. De este
modo, yo podría orientarme con una gran precisión en el espacio digital
socioagencial, y establecer contacto (en principio digital, pero no por ello
menos real) con personas que tienen un alto grado de afinidad conmigo
en algún aspecto que me interese. Obsérvese que esas personas, en princi-
pio desconocidas, no serían localizables ni accesibles por mí de no ser
por la resonancia establecida entre su perfil personal sociodigital y el mío
—resonancia generada a través del análisis relacional de los menciona-
dos objetos SD.

c) Funciones de los objetos SD

Los objetos sociales de carácter digital son muy diversos. Como ya se ha


apuntado, realizan varias funciones:

1. Condensan, relacionan y suministran información antrópica (a


saber, utilizable, bien directamente, bien a través de transforma-
ciones más o menos elaboradas, por individuos humanos).
2. Posibilitan y median diversas formas de comunicación (en el sen-
tido de comunicación consciente, verbal textual, verbal oral, grá-
fica o videomediada) entre individuos y grupos.
3. Instrumentan procesos de acción y de interacción entre agentes.
4. Coordinan acciones de agentes incluso sin comunicación (cons-
ciente) entre ellos y sin que ellos mismos se percaten de su propia

120
4. La investigación social ante su segunda revolución digital

interrelación (es lo que ocurre, por ejemplo, en las interacciones


mediadas a través de «sistemas de recomendación»17).
5. Vertebran capacidades colaborativas y organizacionales que de
otro modo no podrían articularse (es decir, desarrollan eso que he-
mos denominado, anteriormente, «organizabilidad social»18). En
esta función, algunos de los objetos que nos ocupan son auténticos
elementos (re-)estructurantes y (re-)organizadores de la vida social;
son creadores de organizaciones de nuevo tipo, pero cada vez más
centrales, diferenciadas, articuladas, involucradoras y relevantes
para nuestras sociedades en proceso de globalización19.
6. Registran de manera potencialmente exhaustiva los sucesos que
se producen en la Red. En efecto, todos estos objetos digitales,
por una parte, vinculan, integran y (re-)configuran cada vez más
aspectos de la vida de sectores crecientes de la población global.
Pero, por otro lado, y a través de su propio funcionamiento, acu-
mulan masas ingentes de datos, cumpliendo así otra función so-
ciogénica básica: la función de acumulación automática de infor-
mación al menos mínimamente estructurada. Esta función es
resultado del hecho de que la actividad de Internet se auto-regis-
tra con una facilidad pasmosa.
7. La auto-memoria potencialmente exhaustiva de la que está dotada
Internet es, en efecto, una de las propiedades básicas de la Red.
Mientras que en el mundo predigital (que bien podríamos llamar
clásico) una cosa es la realidad y otra la representación de ella, en
el mundo de Internet, la mera inacción o actualización de lo real
lleva incorporada, de manera por lo general automática, su pro-
pia representación (digital) casi completa.

Los objetos SD son, pues, tanto el referente como la herramienta po-


sibilitadora de la acción del usuario de internet en su condición de inter-
nauta (así como de la operación robotizada, impersonal, de sistemas co-
nectables a la Red, en el actual proceso de convergencia IP20). Esos
objetos son el referente de esa acción en la medida en que un conoci-
miento (aunque sea somero) de los mismos es condición a priori de tal
acción. Así, para tener la intención de mandar un corr.el (correo electró-
nico) es preciso saber que tal cosa existe, y disponer de un concepto si-
quiera sea rudimentario de su función. Mas para ejecutar esa intención
es indispensable disponer de la herramienta correspondiente, pongamos
por caso un programa cliente de corr.el y un mínimo conocimiento de su
manejo.

121
El diseño de la investigación social

Los objetos SD son también herramientas posibilitadoras de acciones


de sus usuarios. Pero al mismo tiempo resultan materialmente constitui-
dos por tales acciones (que los llenan de contenido). Ahora bien, una vez
esos objetos son producidos materialmente (en su contenido) por el con-
junto de sus usuarios, tales objetos resultan deglutidos por la Red y que-
dan fuera del control de aquellos, como un fondo de conocimiento implí-
cito casi totalmente alienado respecto a cualquier internauta particular.
Empero, ese fondo de conocimiento implícito encierra un enorme valor
virtual (valor de despliegue de sus potencialidades dentro de un cierto
marco sistémico, representado por el universo IP21). Poner en acto el po-
tencial de ese fondo de conocimiento implícito sería, tal vez, el reto prin-
cipal de una sociología digital22.
Obsérvese que los objetos SD son no sólo concentradores digitales de
acciones humanas, sino también de actividades humanas de las que a me-
nudo no somos apenas conscientes. No es difícil establecer la diferencia
entre acciones y actividades humanas de manera razonablemente clara:
las primeras involucran un agente que de manera consciente actúa como
tal; las segundas suponen una conducta o una mera actividad de nuestro
cuerpo —así, nuestro ritmo cardíaco— no necesariamente consciente o
propositiva. Una compra sería una acción; un desplazamiento físico de-
tectado por GPS sería más bien una actividad detectable y registrable en
la Red. Es evidente que si el registro involuntario de nuestras acciones
constituye ya una clara invasión de nuestra privacidad, el registro de
nuestras actividades (no agenciales, y que por ello suelen ser inconscien-
tes o semiconscientes) representa una transgresión de nuestra intimidad.

d) Tipos de objetos SD

Cabe clasificar los objetos SD de acuerdo con un buen número de crite-


rios, y el empleo de uno u otro resultará más o menos útil según cuál sea
el propósito de nuestra clasificación. Por ejemplo, los objetos SD se pue-
den ordenar atendiendo al tipo de acción que median y articulan (acción
interpersonal, económica, colaborativa, consultiva —de consulta de in-
formación—, etc.). Esos objetos pueden asimismo clasificarse según la
esfera de actividad social a la que pertenecen —laboral, política, educati-
va, de entretenimiento, etc.—, o bien de acuerdo con los perfiles sociode-
mográficos y geográficos de sus usuarios. No es éste lugar para elaborar,
más allá de estas breves indicaciones, el conjunto de criterios clasificato-
rios que podrían resultar útiles para ordenar el variopinto y cada vez
más numeroso universo de los objetos SD.

122
4. La investigación social ante su segunda revolución digital

Sin embargo, sí será conveniente subrayar lo siguiente: los diferentes


esquemas clasificatorios con los que decidamos estructurar nuestra vi-
sión sociológica propenderán a articularse en un esquema general que,
en el límite, intentará abarcarlos a todos, haciéndolos entrar en una pro-
gresiva resonancia teórica. Esa articulación general, de hecho, suminis-
trará la ontología socioestructural que la investigación sociológica en
este terreno digital (investigación a la que nos referimos con el término,
ya propuesto, de sociología digital) deberá presuponer, y a la que habrá
de adecuar sus instrumentos operativos. Después haremos algún comen-
tario adicional acerca de la relación entre tal ontología socioestructural y
los aludidos instrumentos.
Comentaremos aquí tan sólo que, desde un punto de vista epistemoló-
gico, cabría concebir los objetos SD como otras tantas facetas de un «ojo
compuesto» similar a los que suelen tener los artrópodos, y en particular
insectos como las mariposas. Cada faceta (omatidio) de ese ojo compues-
to captaría un aspecto aparentemente aislado de la realidad social, tal y
como se manifiesta en el universo IP; y sólo la síntesis de las diferentes
realidades captadas por las distintas facetas de ese «ojo de Internet» po-
dría darnos una cumplida cuenta —inteligible en términos propiamente
sociológicos— de la actividad social que la Red acoge e instrumenta. De
acuerdo con este símil, la tarea de una posible sociología de la Red sería
convertir las representaciones fracturadas —y casi enteramente ininteli-
gibles en sí mismas— que nos proporcionan los «omatidios» —los obje-
tos SD individuales— de ese gran ojo telemático, en una imagen articula-
da, tendencialmente completa, consistente y teóricamente comprensible
—así como relevante— para la mirada sociológica. Elaborar tal «síntesis
de la mirada» es el mayor reto —a la vez técnico y teórico— que tiene
ante sí esa postulada ciencia a la que damos el nombre de sociología di-
gital.

6.  El usuario como productor de datos en el universo IP

Llamaremos «usuario» —o, a veces, «internauta»— al agente individual


—un agente, no se olvide, de naturaleza inevitablemente social— que, de
manera directa o indirecta, consciente o inconsciente, y en el curso de su
acción o de su actividad, sea ésta del tipo que fuere, introduce datos en el
universo IP —o bien los recaba y/o recibe en este contexto—. Conviene
subrayar que el agente que llamamos «usuario» es indisociable del agente
«creador» de los datos que pueblan la Red. En los comienzos de Internet

123
El diseño de la investigación social

tenía algún sentido distinguir entre los usuarios y los creadores de los
contenidos on line. Pero la evolución misma de Internet en la dirección
de una cada vez mayor variedad de procesos y servicios, evolución que
facilita un grado creciente de interactividad en la Red, hace esa distin-
ción usuario/creador cada vez más obsoleta. Es verdad que hay usuarios
macrocreadores (con una influencia a gran escala de sus creaciones) y
usuarios cuya contribución a Internet es mínima. Pero ésta es una dife-
rencia de grado, más que de sustancia. Internet moviliza y vincula un co-
lectivo enorme de usuarios-creadores que, al mismo tiempo que utilizan
los recursos facilitados por la Red, son los creadores de los contenidos de
ésta —en definitiva, son los productores de los datos que pueblan el uni-
verso IP.

a) La relación del usuario con los contenidos que emplea y con los que produce

El usuario (término que emplearemos en adelante, de acuerdo con la


aclaración anterior, en el doble sentido de usuario y de creador de los da-
tos de la Red) utiliza y produce dos tipos de datos: los correspondientes
a la «información de comunicación» que efectivamente crea o consume,
y los que se corresponden con lo que habría que considerar, más bien,
como «información de procesamiento»23. Esta última, en circunstancias
normales, no suele comunicar nada a los otros usuarios a los que va diri-
gida. Pero es la que permite gestionar la presentación, la distribución y el
acceso de esa «información de comunicación» en la que está efectiva-
mente interesado el usuario típico.
La distinción entre «información de comunicación» e «información de
procesamiento» se puede clarificar mediante un simple ejemplo: el cuerpo
de un mensaje de correo electrónico —un elemento del que, en el empleo
primario y más simple de este servicio, el usuario emisor del mensaje siem-
pre es consciente— sería «información de comunicación». El agente invo-
lucrado en la redacción y envío de ese correo es en principio consciente de
esta información, que interpreta y comprende directamente —en su for-
mulación en algún lenguaje natural— y cuyo contenido, normalmente, ha
creado él mismo. Otra cosa bien distinta es la «información de procesa-
miento» que necesariamente acompaña a ese mensaje —y sin la cual éste
no podría ser enviado ni alcanzar exitosamente su destino—. Esta infor-
mación (por ejemplo, los encabezados de Internet que especifican los nom-
bres y las direcciones de los servidores por los que debe pasar/ha pasado el
mensaje, el formato del texto empleado, los protocolos usados, etc.) ocupa
a menudo más espacio que la información de comunicación representada

124
4. La investigación social ante su segunda revolución digital

por el cuerpo del mensaje. Pero ni el emisor ni el destinatario de éste suelen


tener conocimiento de ella.
La información de procesamiento adquiere sobre todo la forma de
metadatos24 incrustados de manera generalmente automática e invisible
en —o alrededor de— la información de comunicación, que representa-
ría la parte del contenido informacional que es directamente inteligible
para el usuario.
Por consiguiente, el usuario productor/consumidor de datos digitales
sólo es clara e inmediatamente consciente de una parte de esos datos que
entrega a (y recibe de) la Red: aquellos que se corresponden con la «in-
formación de comunicación» que ese usuario efectivamente produce y
consume. El resto son datos «donados» (y recabados) de forma incons-
ciente al (y del) universo IP. En efecto, el usuario está constantemente ge-
nerando, y utilizando inadvertidamente, metadatos de los que él casi
nada sabe. Obsérvese además que el procesamiento de conjuntos de da-
tos pertenecientes al universo IP puede producir nuevos datos de nivel
superior, y este bucle recursivo de producción de datos a partir de datos
preexistentes puede reiterarse, en principio, indefinidamente. Éste es el
mecanismo que, nutrido por el permanente aporte de datos realizado por
los usuarios del sistema, dota a la Red de unas capacidades generativas
sin parangón, mucho más complejas y potentes que las administradas
por cualquier otro sistema social anterior. La generatividad en cuestión
constituye el fundamento de las propiedades sociales emergentes que ca-
racterizan al universo IP, y que se manifiestan en la constitución de es-
tructuras de sincronización (o, lo que es equivalente, de dependencia cau-
sal) inéditas entre los agentes que pueblan ese universo y que actúan
como usuarios del mismo.

b) Datos públicos, datos abiertos y datos personales

Es evidente que el universo IP se ha convertido en un descomunal reposi-


torio de datos públicos. Pero también es, y cada vez en mayor medida, un
gigantesco almacén de datos personales25. Los datos públicos serían, en
una definición máximamente abarcadora y en el contexto digital que es-
tamos presuponiendo, aquellos que están a disposición de los usuarios
en general, sin más requisitos que la capacidad que tienen éstos de acce-
der al universo IP. Cuando la accesibilidad a tales datos depende de algu-
na forma general (a saber, aplicable de manera no discriminativa: por
igual para todos los potenciales usuarios) de condicionalidad (por ejem-
plo, económica, geográfica, etc.), cabría hablar de datos semipúblicos.

125
El diseño de la investigación social

La forma más útil que adoptan los datos públicos en el universo IP es


la de datos abiertos26. Un dato abierto es no sólo público, sino publicable,
en la medida en que se ofrece en un formato digital accesible y digital-
mente manipulable por cualquier usuario (con unas mínimas restriccio-
nes, que suelen consistir en licencias27). Los datos abiertos serían la for-
ma óptima (en el sentido de más utilizable, tanto extensiva como
intensivamente) de los datos públicos en el universo IP.
Los datos personales (personal data) son, de acuerdo con una defini-
ción que puede tomarse como estándar, «datos relacionados con un indi-
viduo vivo identificable, o que puede ser identificado, a partir bien de
esos datos, bien de éstos en conjunción con otra información que es, o es
probable que sea, posesión del controlador de tales datos»28.
El problema es que el concepto de «dato personal» no es absoluto,
sino relativo. Es relativo, justamente, a la capacidad del «controlador de
los datos» para establecer vínculos entre los conjuntos de datos en su po-
der —vínculos a través de los cuales sea posible identificar efectivamente
a una persona—. Esto significa que en este terreno de los datos persona-
les se cumple de forma inexorable una versión digital del «efecto Ma-
teo»29 —así llamado en alusión al siguiente pasaje del evangelio de San
Mateo: “al que tiene se le dará más y tendrá en abundancia, pero al que no
tiene, se le quitará aun lo que tiene”, Mateo, 13, 11-13—. En el universo
IP, de manera análoga, cuantos más datos posee un controlador —espe-
cialmente, si son datos procedentes de distintos dominios, pero que se
pueden enlazar sinérgicamente—, mayor es su poder de identificación
personal. No sólo es el número, sino también y sobre todo la «heteroge-
neidad conectable» de los datos, y su posible articulación, lo que incre-
menta el potencial identificador de un conjunto determinado de piezas
de información en manos de cierto «data controller».

c) El big bang de los datos personales

Además de la gran convergencia IP (convergencia entre servicios distin-


tos —Web, telefonía, televisión, etc.— que adoptan progresivamente los
protocolos TCP/IP como medio de conexión y de distribución de sus
contenidos), a la que ya hemos hecho referencia, hay otra convergencia
que está abriéndose camino en nuestros días. Esta segunda convergencia,
de no menor calado que la primera, es la decisiva (aunque casi invisible)
confluencia entre «Big Data» —Grandes (conjuntos de) Datos— y «Per-
sonal Data». El concepto de «Big Data» hace referencia sobre todo a la
magnitud superlativa de los conjuntos de datos que produce hoy en día

126
4. La investigación social ante su segunda revolución digital

la ciencia y en general nuestra entera vida social —a través fundamental-


mente de su reflejo digital en Internet—. Por lo que respecta a la ciencia
actual, baste señalar que el centro de física de partículas más potente del
mundo, el CERN, puede presumir de contar con un almacén de datos
cuyo contenido sobrepasa ahora mismo los 100 petabytes30 (un petabyte
equivale a 1015 bytes).
En relación con los datos que atañen a la vida social en general (y de
los que formarían parte tanto los datos científicos como los datos perso-
nales), el crecimiento ha sido también explosivo. Según algunos cálcu-
los31, la cantidad de información producida en el «Universo Digital»32 (la
cantidad de información creada y replicada en todo el mundo y en un
año, en todo tipo de formatos digitales) pasará, en la década que va de
2005 a 2015, de 130 exabytes a 7.910 exabytes (un exabyte equivale a 1018
bytes), multiplicándose así por más de sesenta veces; mientras que la
masa de información producida en el referido «Universo Digital» pasa-
rá, según EMC, de 0,8 zettabytes en 2009 a 35 zettabytes en 2020 (un
zettabyte equivale a 1021 bytes), con un crecimiento anual en torno al
50%33.
Pero si el incremento de la cantidad de datos digitales es ciertammente
apabullante, todavía lo es más el crecimiento de esa clase especial de da-
tos digitales que son los datos personales. Podría decirse que, a este res-
pecto, asistimos a un «Big Bang» (el de los datos personales) dentro de
otro «Big Bang» (el de los datos digitales en general). Algunas estimacio-
nes calculan que hasta un 75% de todos los datos digitales son creados
por los usuarios-consumidores que interactúan con el Universo Digital34.
Las huellas de nuestra propia individualidad que dejamos en la Red
(nuestras «huellas dactilares digitales») son más precisas cuanto más nu-
merosas y diversas sean, hasta el punto de que pueden dotar a Internet
de una propiedad que podríamos denominar «panopticidad»35: la capa-
cidad de verlo todo (o, al menos, de registrarlo todo y dejar esa informa-
ción disponible para su posible interpretación). Hay programas recientes,
por ejemplo, que no contentos con radiografiar el presente con una gra-
nularidad que alcanzaría el nivel del individuo, se proponen predecir el
futuro de los usuarios —es decir, nuestro futuro—. Son programas pre-
dictores de, por ejemplo, nuestra ubicación futura a lo largo de los próxi-
mos meses, a partir del análisis de una secuencia de lecturas de la locali-
zación por GPS de nuestros teléfonos móviles. Las aplicaciones sociales
de este minucioso registro de acciones y actividades personales son casi
estupefacientes, y muestran un poder sociogénico exuberante36.

127
El diseño de la investigación social

d) Datos en bruto y datos estructurados

Uno de los obstáculos que más dificultan una utilización eficaz (y ya po-
sible en principio) de los datos digitales en general, y de los personales en
especial, es la condición de «datos desestructurados» que unos y otros
tienen a menudo. Se denominan «datos no estructurados» (unstructured
data) a aquellos que no se nos muestran encasillados en una estructura
previa de datos (definida mediante campos, o bien a través de marbetes o
tags) que permita la interpretación maquínica (por ordenador) de tales
datos. Normalmente, los datos no estructurados requieren una interpre-
tación humana, a menos que sean tratados mediante diversas técnicas de
parsing (de análisis sintáctico)37. Por ejemplo, el dato (la secuencia de
símbolos alfanuméricos presente en un texto) «2015» puede interpretar-
se, bien como una suma de dinero, bien como una fecha (entre otras co-
sas). A menos que ese dato esté estructurado mediante alguna técnica in-
terpretativa como las mencionadas, que permita entender su significado
real, tendremos que recurrir a un intérprete humano para dilucidar su
significado exacto. Un intérprete humano competente es incomparable-
mente más eficaz —por el momento al menos— que cualquier mecanis-
mo interpretativo computacional. Pero es, también, mucho más caro y
lento: ni siquiera todos los intérpretes humanos en potencia disponibles
a escala mundial podrían interpretar una mínima parte del diluvio de da-
tos que inunda nuestro universo digital.
Se calcula que el porcentaje de datos no estructurados en una organi-
zación típica puede rondar el 80% del total38. De ese total, solo el 0,5%
son sometidos a análisis39. Probablemente la razón fundamental que ex-
plicaría esa relativa inapetencia analítica resida en el hecho de que gran
parte de esos datos no aprovechados son datos no estructurados y, por
consiguiente, datos inabordables, a un coste razonable, desde un punto
de vista interpretativo.
Los datos estructurados, como ya se habrá intuido, son aquellos que
«residen en un campo fijo dentro de un registro o archivo... Esto incluye
los datos contenidos en bases de datos relacionales y en hojas de cálcu-
lo... Los datos estructurados dependen de la creación de un modelo de
datos —un modelo de los tipos de datos que serán registrados y de
cómo estos serán almacenados, procesados y accedidos»40.
Puede también hablarse de «datos semiestructurados», que serían
aquellos que «no se acoplan a la estructura formal de modelos de datos
asociados con bases de datos relacionales o otras formas de tablas de da-
tos, pero aun así contienen “marbetes” (tags) u otras anotaciones para

128
4. La investigación social ante su segunda revolución digital

separar elementos semánticos e imponer jerarquías de registros y campos


en los datos»41.
Lo importante en este punto es captar un principio interpretativo bá-
sico: en el universo digital, los datos ofrecidos a primera vista se estruc-
turan por medio de nuevos datos (por así decirlo, «profundos») que de
algún modo interpretan los datos de primer nivel (o «de superficie»).
Esos datos interpretativos de otros datos (es decir, que fijan el sentido y
ayudan a entender el significado de estos últimos) reciben, como ya se
avanzó, el nombre de «metadatos». Los metadatos constituyen otro
ejemplo de crecimiento exponencial en el universo digital. Se trata de un
Big Bang adicional impulsado por los otros ya comentados: a medida
que se acelera la expansión del universo de los datos digitales (primer Big
Bang), y, dentro de este universo, se dispara todavía más la presencia de
datos personales (segundo Big Bang), resulta cada vez más insoslayable,
tanto para no perderse cual despistada aguja en ese gigantesco pajar in-
formacional como para sacar cumplido provecho de él, hacerlo inteligi-
ble mediante una proliferación vertiginosa de metadatos (tercer Big
Bang). Crecientemente, «los usuarios experimentados asumen la perspec-
tiva de que los metadatos que acopian acerca del contenido que manipu-
lan son probablemente más valiosos que el contenido mismo»42. Nada
tiene de extraño que las operaciones sobre metadatos representen más
del 50 % de los accesos a archivos de una estación de trabajo típica43.

e) El universo relacional de los datos

Lo que proporciona una potencia informacional inigualable a los datos


que pueblan la Red, y de los que, en una porción considerable, son pro-
ductores conscientes o inconscientes sus propios usuarios estándar, es la
capacidad que la misma Red posee de relacionarlos de maneras poten-
cialmente infinitas. Es esta capacidad de relacionamiento la que produce
información nueva, y sostiene uno de los bucles recursivos que funda-
mentan la generatividad (la capacidad de crear nuevas relaciones, inte-
racciones y objetos) de la Red.
Hemos visto que la condición fundamental para que ese relacionamien-
to pueda producirse la proporciona el carácter estructurado de los datos
involucrados. Es esa estructuración la que da valor a tales datos, al ser ella
la que los hace, en principio, semánticamente accesibles y relacionables de
manera maquínica. Ahora bien, la estructuración de los datos puede reali-
zarse a muy diversas escalas. Puede operar en el dominio de una empresa o
institución concreta. Mientras los datos se estructuran a escala local, sólo

129
El diseño de la investigación social

son relacionables a esa misma escala. Por consiguiente, para que la relacio-
nabilidad de los datos —posibilitada por su estructuración según un dise-
ño común— adquiera su máximo valor, esa relacionabilidad deberá ge-
neralizarse —en el límite, hacerse universal, abarcar todo el universo
IP— sobre la base de una estructura de datos de algún modo unificada.
Sólo esta estructura permitirá la agregación, comparación y análisis de ta-
les datos a una escala auténticamente global —y sólo así adquirirán esos
datos su máximo valor, al ser relacionables con cualquier otro dato en el
universo IP—. Así como Internet es global, la estructura de los datos debe
también serlo para que la relacionabilidad de los mismos tenga un hori-
zonte planetario, y puedan entrar en resonancia creativa a una escala asi-
mismo global. Estamos asistiendo, en esa dirección, a la emergencia de un
universo relacional de los datos constituido a escala planetaria e instru-
mentado a través de estructuras de metadatos de alcance igualmente pla-
netario. La concepción más avanzada de esta tendencia se expresa a través
de la noción de datos enlazados (Linked Data).

f) Datos enlazados

El concepto de datos enlazados44 permite construir la Web de los datos.


Ésta no es otra cosa que la Web primitiva, la de los documentos, pero pro-
fundizada hasta el nivel de sus contenidos semánticos, que esa nueva Red
debe ser ahora capaz de visibilizar, analizar y relacionar maquínicamente y
de manera tan exhaustiva como sea posible. Esta segunda Web, legítima
heredera y sucesora de la anterior, constituiría así una gigantesca base de
datos interconectados y distribuidos en el entero dominio http. En esa Web
renovada los datos se vinculan y exploran de manera similar a la utilizada
para vincular los documentos HTML, pero en una forma adaptada a las
peculiaridades y requerimientos del ciberespacio semántico45.

7. El análisis (ontológico y estadístico) de los objetos SD


como metodología básica de la sociología digital

Para convertir los objetos SD en fuentes de datos interpretables (y, espe-


cíficamente, en fuentes de datos sociológicamente interpretables) es pre-
ciso estructurar esos datos por medio de una ontología. Una ontología,
en el sentido que recibe ese término en informática, es una especificación
formal de los tipos de entidades, así como de las propiedades y relaciones
existentes entre ellas, que se postulan como constitutivas de un cierto do-

130
4. La investigación social ante su segunda revolución digital

minio de discurso. Por ejemplo, en el dominio, digamos, «relaciones fa-


miliares», las entidades básicas serían, razonablemente, individuos hu-
manos con la condición esencial de ser «mujer» u «hombre», y con
propiedades como «en edad reproductiva/no reproductiva», «con/sin
descendencia», etc.. Además, esas entidades vendrían definidas por rela-
ciones como «ser hijo/a de», «ser hermano/a de», etc. Obsérvese que esas
relaciones son más o menos específicas, en el sentido de que recortan un
espacio de posibilidades y desechan como imposibles otros espacios al-
ternativos. Por ejemplo, en el referido dominio de las relaciones familia-
res, la relación «a es padre de b » sería imposible en la medida en que tu-
viéramos noticia fiable de que en realidad b es abuelo de a.
La existencia de una ontología de dominio capaz de estructurar la
masa de datos propia de un determinado objeto SD permitiría propor-
cionar a ese cúmulo de datos una alta dosis de generatividad, por medio
por ejemplo de la utilización de un SQL (Structured Query Language,
Lenguaje de Consulta Estructurado)46. Es decir, posibilitaría convertir en
conocimiento explícito relaciones implícitas e inadvertidas entre esos da-
tos. Tal ontología haría posible, por ejemplo, llegar a conocer que e es
tataranieto de a (sobre la base del conocimiento de la relación transitiva
de filiación entre e, d, c, b y a). Permitiría, también, comprobar la cohe-
rencia de los datos, y depurar sus posibles inconsistencias.
Sobre la base de esa ontología de dominio, propia de cada objeto SD
y más o menos especificada, es posible aplicar todos los recursos del aná-
lisis estadístico, generando evidencias susceptibles, en principio, de ser
interpretadas en términos sociológicos47.

a) De la interpretación humana de los datos a la interpretación primaria-


mente maquínica de los mismos (o hacia una semántica maquinizable en
primera instancia)

Lo interesante en este punto es advertir que esas evidencias, e incluso,


hasta cierto punto, esas interpretaciones sociológicas, pueden generarse
maquínicamente. La Internet inicial estaba pensada para ser interpreta-
da semántica y pragmáticamente —tanto en primera como en última
instancia— por humanos. Es decir, sus documentos sólo eran procesa-
bles e inteligibles (más allá del nivel puramente sintáctico, a saber, en
tanto que meras ristras de símbolos) por y para lectores humanos. La
nueva Internet, como hemos visto, está crecientemente diseñada para
suministrar información sintáctica, pero también semántica y pragmáti-
ca, directamente procesable (en primera instancia) por máquinas; unas

131
El diseño de la investigación social

máquinas capaces de (re-)elaborar esa información según los intereses e


indicaciones de los usuarios finales humanos, así como de transformarla
para su ulterior interpretación (que podríamos considerar secundaria)
por éstos.

b) De los objetos SD al universo SD, ámbito global de estudio de la socio-


logía digital

Los objetos SD pueden relacionarse en su nivel no sólo sintáctico, sino


también semántico y pragmático, por medio de esas estructuras de «da-
tos enlazados» de las que ya hemos hablado. Esto equivale a la unifica-
ción de los diversos dominios de discurso correspondientes a diversos
objetos SD, en un universo SD tendencialmente omniabarcador.
La dinámica de este universo SD vendría definida por la operación
particular de los diversos objetos SD, pero también por sus interrelacio-
nes. A este respecto, y para entender esa dinámica de conjunto del aludi-
do universo, convendría concebirla por analogía con el modo como ope-
ra un ecosistema natural: cada objeto SD sería una «especie» cuya
dinámica tendría una doble vertiente: interna y externa, consistiendo
esta última en las relaciones que el objeto indicado mantiene con otros
del mismo género. Cada objeto SD, en efecto, se reproduce no sólo por
medio de los «inputs» que proceden de sus usuarios, sino asimismo a tra-
vés de las relaciones que mantiene con otros objetos análogos. Así, la di-
námica de «YouTube» podría tener una fuerte dependencia respecto de
la dinámica del buscador «Google», y ésta respecto de la que caracteriza
a «Google Maps», por poner un ejemplo fácilmente asequible. Es decir,
desde el punto de vista ecosistémico que se sugiere, los diversos objetos
SD se alimentarían los unos de (y a) los otros a través de bucles que, po-
siblemente, configurarían algo parecido a un «conjunto autocatalítico»
en el sentido de Kauffman48.

c) La explotación computacional del universo SD: su potencial y sus peligros

Sobre ese genuino «universo SD» se podría operar computacionalmente


de manera transversal —conjugando la información semántica y prag-
mática atesorada por la totalidad de los objetos SD que en ese universo
conviven, cooperan y compiten—. Esa operación se extendería, en prin-
cipio, sobre todas las formas de computación posibles (o poco menos49).
Imagínese el espacio de posibilidades que para la clarificación sociológi-
ca de la vida social —cada vez más minuciosamente representada en el

132
4. La investigación social ante su segunda revolución digital

universo IP— podría suponer la disponibilidad de ese universo SD en


forma a la vez estructurada y accesible.
La construcción de ese universo es teórica y técnicamente posible, y
son tantas las ventajas que su existencia reportaría que poca duda cabe
acerca de su ineluctable constitución —respetando, como se verá, ciertas
cautelas— a medio plazo. Lo único que parece oponerse a la implanta-
ción de tal universo es... la condición humana misma. Y es que estamos
hablando, a todas luces, de una herramienta de autoconocimiento social
demasiado potente para que su presencia y uso no nos inquiete. (Obsér-
vese que en este caso nos hallaríamos, no ante la circunstancia de un
«hombre que sabía demasiado»50, sino ante la desazonadora realidad de
una Red que «conocería demasiado».) En efecto, la erección de esa gi-
gantesca estructura panóptica de carácter sociodigital, si bien favorecería
en muchos aspectos el buen desenvolvimiento de la vida social, resultaría
inaceptable en otros. De hecho, revolucionaría enteramente las reglas de
juego de la interacción entre individuos y grupos, y sobre todo entraña-
ría un peligro cierto, al someter nuestras vidas a una condición de «pa-
nopticidad absoluta» que muy pocos estarían dispuestos a aceptar.
Pero dejando de lado esas contraindicaciones nada menores, todo pa-
rece indicar que, sean cuales fueren las dificultades que deba enfrentar, la
construcción de ese universo SD —sin duda modificado de manera que
evite en lo posible las aludidas contraindicaciones— va a ser una reali-
dad, quizá en unas pocas décadas. Y ese universo, precisamente, consti-
tuirá el espacio natural de estudio y desarrollo de esa sociología digital
que parece destinada a convertirse en la nueva corriente principal de
nuestra disciplina.

8. El problema de la accesibilidad, la posesión y el uso


de los datos: posibilidades y realidades

El gran problema que obstaculiza el aprovechamiento sociológico de la


enorme masa de conocimiento social implícito que hoy en día representa
Internet no es, como acabamos de apuntar, de carácter técnico, sino de
naturaleza legal, política y, en definitiva, ética51.
Nos enfrentamos, en primer lugar, a un problema de acceso: ¿quiénes
pueden acceder a ese conocimiento o, mejor dicho, a los datos que cons-
tituyen su materia prima? La respuesta a esta interrogación es sencilla:
pueden acceder a esos datos quienes los poseen de hecho. Y la posesión
de los datos en cuestión por sus dueños efectivos está asegurada por una

133
El diseño de la investigación social

telaraña de impedimentos que en muchos casos consolidan una situación


de auténtico monopolio: hay obstáculos de orden técnico (no disponer
de los oportunos privilegios de acceso, etc.) pero también obstáculos le-
gales (ser el propietario de los datos), políticos (la cibercensura que prac-
tican determinados Estados) y éticos (no poder desvelar, por un compro-
miso de confidencialidad, ciertos datos).
Todos estos problemas están destinados a convertirse en puntos ca-
lientes del debate sociopolítico y ético de nuestro tiempo, como ocurrió
con la libertad de prensa en fases anteriores de la modernidad. ¿Deben
ser los datos propiedad de sus productores (mayoritariamente, los usua-
rios), o bien de quienes, en su caso, financian esa producción (por ejem-
plo, las instituciones cuyos fondos subvencionan la elaboración de datos
científicos), o tal vez de sus receptores y custodios (las empresas privadas
e instituciones públicas que actúan como operadoras de los distintos ob-
jetos SD)? Este debate, sin embargo, es demasiado complejo como para
que aquí intentemos siquiera bosquejarlo. Sólo subrayaremos el impulso
creciente que está adquiriendo el movimiento «Raw Data Now»52, que se
propone «accesibilizar» y en cierto modo «socializar» los datos que la
sociedad misma produce y acumula en la Red.

9. El horizonte de problemas que deberá abordar una


(posible y necesaria) sociología digital

Dentro de los límites de este capítulo no es factible desarrollar, ni siquie-


ra de manera sucinta, los muy variados problemas que el enfoque que se
propone entraña. Sólo será posible mencionar, o poco más, algunos de
esos problemas, con el objeto de apuntar en la dirección de una reflexión
mucho más amplia. Veamos algunas de las cuestiones que deberá hacer
frente una sociología digital que quiera en verdad llegar a su mayoría de
edad epistemológica.
La sociología digital debe, en primer lugar, construirse las herramien-
tas de acopio y relacionamiento de los datos digitales que han de propor-
cionarle su base empírica. Esas herramientas habrán de desarrollarse de
manera que incluyan utensilios de localización y focalización de tales da-
tos. No basta, en efecto, con localizar los datos (y con estar en condicio-
nes de accederlos). Hace falta también focalizar esos datos de acuerdo
con cierto propósito sociológico que se estime alcanzable a través de
ellos. Las aludidas herramientas, de hecho, han sido ya en parte elabora-
das por las grandes «compañías observadoras»53 de Internet (la más po-

134
4. La investigación social ante su segunda revolución digital

tente es sin duda Google). En este terreno de lo que se trataría sería de


«accesibilizar» (a través de un conjunto de buenas prácticas ampliamente
consensuadas) los contenidos ya acopiados, así como sus mecanismos de
relacionamiento.
Para que la sociología digital disponga de un terreno epistemológico
firme, será también precisa la elaboración de indicadores sociológicamen-
te significativos y adecuados para la interpretación de los datos sociodi-
gitales. En este campo habrá que abordar un complejo y largo proceso de
progresivo refinamiento de los instrumentos de análisis. Este proceso ha-
brá de proceder muchas veces por ensayo y error, pero utilizando dos
principios metodológicos bien acreditados: el de la expansión lateral por
analogía de los elementos del análisis y el de fertilización cruzada entre
los mismos.
Para finalizar este breve apunte convendrá subrayar que en el nuevo
dominio de la sociología digital los procesos de elaboración teórica y de
corroboración de teorías reclamarán el desarrollo de estándares episte-
mológicos novedosos. Esos estándares serán probablemente más exigen-
tes que los que han sido comunes en la investigación sociológica tradicio-
nal. De un lado, demandarán mayor precisión en unos análisis ahora
más «pegados a los datos» (justamente porque estos datos van a tener un
«poder de resolución» más elevado); de otro, cabe pronosticar que esos
análisis van a cobrar sentido en un marco conceptual bastante más for-
malizado que el que ha sido habitual hasta el momento en nuestra disci-
plina.

Notas
1  Este capítulo es una elaboración teórica y pedagógica que se inscribe en el
proyecto de investigación «Los Nuevos Objetos-Mundo Sociales (NOMS)», fi-
nanciado por la ayuda CSO2011-25942 del Ministerio de Economía y Competi-
tividad, adjudicada dentro del Plan Nacional de I + D + i (2008-2011), Progra-
ma de Investigación Fundamental, Subprograma de Investigación Fundamental
no orientada. Se ha beneficiado asimismo de una estancia de Pablo Navarro en
el Center for Civic Media del Media Lab, MIT, estancia sufragada por una ayu-
da BEST de la Generalitat valenciana.
2 Véase Zitrain, Jonathan, 2009: The Future of the Internet, Londres, Pen-
guin Books, pp. 687 y ss.
3  El concepto de «organizabilidad» trata de captar la idea de «capacidad de
organizarse en formas emergentes (nuevas y en algún aspecto más potentes que
las anteriores)». No todas las sociedades humanas tienen, en este sentido, el mis-

135
El diseño de la investigación social

mo grado de «organizabilidad»: sólo algunas, como consecuencia del desarrollo


y diseminación de ciertos objetos sociales críticos —así, el dinero, o la impren-
ta—, adquieren una súbita y poderosa capacidad de acceder a formas más eleva-
das de organización social, que las distinguen de las sociedades anteriores y es-
tablecen una genuina bifurcación en el proceso civilizatorio. Este concepto de
«organizabilidad» es afín al concepto de evolvability (literalmente, «evoluciona-
bilidad») en biología. Adviértase, sin embargo, que el concepto biológico de
«evolucionabilidad» (como el propio concepto de «organizabilidad social» que
proponemos) está lejos de ser simple. Véase una discusión básica del primero en
http://en.wikipedia.org/wiki/Evolvability.
4  Los términos «digital» y «computacional» son en buena medida equiva-
lentes, o más bien representan las dos caras de una misma moneda. Aluden, res-
pectivamente, al «formato» y al «procesamiento» de cierto tipo de información
de carácter no analógico. El formato digital (en realidad, binario) presenta la in-
formación como meras ristras de ceros y unos, es decir, como el tipo de «materia
informacional» inmediatamente procesable por el computador digital moderno.
Lo «computacional», por su parte, alude al conjunto potencialmente infinito de
transformaciones que el referido computador puede operar, sobre parte de esa
información en formato digital (los datos), a través de otra parte de dicha infor-
mación digital (los programas). Por razones, entre otras, de eufonía, en este tra-
bajo preferiremos utilizar la palabra «digital» antes que el término «computa-
cional», si bien siempre que se emplee la primera, ésta deberá entenderse —a
menos que el contexto indique lo contrario— en el sentido de «digital-computa-
cional».
5  Savage, M. y Burrows, R. (2007): «The Coming Crisis of Empirical Sociol-
ogy», http://soc.sagepub.com/content/41/5/885.full.pdf+html.
6  http://link.springer.com/chapter/10.1007/978-1-4419-8237-7_13#page-1.
7  http://internetofpeople.eu/; https://www.linkedin.com/pulse/2014052211
5847-178173598-the-internet-of-things-is-really-the-internet-of-people; http://
ipat.gatech.edu/internet_of_things; http://www.im.ethz.ch/people/fmichahelles/
talks/iotconf_fmichahelles.pdf; http://www.cybermatics.org/SWC2015/IoP/
IoP2015.htm.
8  En la era Gutenberg la «editio princeps» de una obra, sobre todo clásica,
ha fungido como «original» o al menos como «referente canónico» de la corres-
pondiente obra producida en forma manuscrita por su autor.
9  Hay otras dimensiones de la información producida por los seres humanos
que no tienen carácter antrópico en el sentido indicado. Es decir, que no son pro-
ducto de los seres humanos en su condición de tales (a saber, en su condición de
agentes). Un ejemplo de información humana no antrópica sería la que posee
nuestro cuerpo acerca de los antígenos a los que hemos sido expuestos a lo largo
de nuestro recorrido vital como organismos biológicos. Ésta es una información
que elabora y preserva nuestro sistema inmunitario, y constituiría información hu-
mana en un sentido lato; pero no sería información antrópica en la acepción que

136
4. La investigación social ante su segunda revolución digital

aquí damos al concepto —o lo sería sólo en la medida en que quedara reflejada


como saber científico en los textos de inmunología, y nos interpelara como agen-
tes desde esa condición de conocimiento científico conscientemente accesible.
10  El término «sociología computacional» podría emplearse con un signifi-
cado casi equivalente al de «sociología digital». Sin embargo, preferimos el se-
gundo, además de por las razones de eufonía ya apuntadas, por el siguiente he-
cho, de mayor calado: lo más característico de la «sociología digital» no es que
emplee técnicas computacionales complejas e intensivas o que maneje un gran-
dísimo número de datos. Es, más bien, que se propone como disciplina la diluci-
dación de un tipo peculiar de objetos sociales, de los que trataremos a conti-
nuación y a los que denominaremos «objetos sociales digitales», «objetos
sociodigitales» u «objetos SD». Es este hecho, y no la escala ni las característi-
cas propiamente técnicas de los procesos de computación involucrados —que
podrían ser de similar complejidad, digamos, en el campo de la astrofísica—, lo
que nos aconseja optar por el término «sociología digital».
11  Lo que denominamos «el universo IP» es Internet en su definición más am-
plia. En el uso cotidiano del término, los distintos tipos de usuarios suelen enten-
der por «Internet» conjuntos de fenómenos muy diversos, dependiendo del pecu-
liar empleo que unos u otros hacen de la Red —hay usuarios, por ejemplo, que
utilizan Internet en actividades más bien esotéricas de «grid computing», mientras
que otros la emplean sobre todo para interactuar en redes sociales—. El universo
IP equivale a Internet en su acepción más abarcadora. Es en este sentido como
haremos esa expresión equivalente tanto a «Internet» como a «la Red».
12  Feigenbaum, L. y otros (2008): «La red semántica en acción», Investiga-
ción y Ciencia, núm. 377.
13  Beer, D. y Burrows, R. (2007): «Sociology and, of and in Web 2.0: Some
Initial Considerations», http://www.socresonline.org.uk/12/5/17.html.
14 Un ejemplo de esa capacidad de socio-organización que adopta formas
emergentes (nuevas e impredecibles, pero de considerable potencial desde un
punto de vista sociogénico), y que es típica de los objetos SD, nos lo ofrece una
herramienta digital como Waze (https://www.waze.com/es/). Waze es una aplica-
ción de control colaborativo del tráfico por parte de los propios conductores,
propiedad de Google y que cuenta ya con 50 millones de usuarios en 200 países.
Esta aplicación —generadora de un objeto SD específico y nada desdeñable—
permite, entre otras cosas, que los conductores se alerten los unos a los otros
acerca de dónde están localizados los controles policiales de velocidad y alcoho-
lemia. Como resultado de la irrupción de esta herramienta de autoorganización
social, los cuerpos policiales (que ahora se sienten «espiados» a una escala y con
una eficacia antes desconocidas) están teniendo que revisar sus esquemas de ac-
tuación con el fin de mantener su capacidad disuasoria.
15  http://www.nethistory.info/History%20of%20the%20Internet/email.html.
16  Navarro, P., «Los Nuevos Objetos-Mundo sociales (NOMS)», Revista Es-
pañola de Sociología (en curso de publicación).

137
El diseño de la investigación social

17  https://www.coursera.org/course/recsys.
18  El caso del objeto SD «Uber», un sistema de transporte colaborativo ges-
tionado por la Red, ha saltado a los grandes medios recientemente como ejem-
plo —conflictivo: con su lado bueno y su lado malo— de esas capacidades orga-
nizativas inéditas que emergen en nuestra sociedad gracias al potencial
sociogénico —a la organizatividad intrínseca— del universo IP.
19  Newman, M. E. J. (2004): «Detecting community structure in networks»,
h t t p : / / l i n k . s p r i n g e r. c o m / a r t i c l e / 1 0 . 1 1 4 0 % 2 Fe p j b % 2 Fe 2 0 0 4 - 0 0 1 2 4 -
y?LI=true#page-1.
20  Me refiero a sistemas como los de las cámaras de videovigilancia que, en
la medida en que, como probablemente ocurra a medio plazo, pasen a trabajar
con el protocolo IP, llegarán a formar parte técnicamente de Internet (http://
www.cisco.com/c/en/us/solutions/enterprise/ip-video-surveillance/index.html).
21  El carácter enajenado y enajenante de los contenidos entregados a la Red
por sus usuarios recuerda al que atribuye Marx a la mercancía. Esa condición
enajenada ocasiona intentos de recuperación, por parte de tales usuarios, de algu-
na forma de control sobre ese contenido por ellos mismos producido —la mayor
parte de las veces de manera involuntaria—. Esos intentos de control —aunque
sea el que representa el borrado de los contenidos en cuestión— se expresan en re-
clamaciones como la del «derecho al olvido» en Internet (http://www.derechoalol-
vido.eu/).
22  Esto es lo que intenta hacer una diversidad cada vez mayor de herramien-
tas de «revelado epistémico» de ese fondo implícito de conocimiento, como por
ejemplo What We Watch (http://whatwewatch.mediameter.org/), que permite ex-
traer conclusiones acerca de la distancia cultural entre distintos países a partir
de los patrones de visualización de los vídeos de YouTube.
23  Navarro, P. (2002): «Información, comunicación, conocimiento y agencia
en la era de la socialidad artificial», en J. M. García Blanco y P. Navarro (eds.),
¿Más allá de la modernidad? Las dimensiones de la información, la comunicación
y sus nuevas tecnologías, Madrid, CIS, pp. 105-133.
24  http://whatis.techtarget.com/definition/metadata; http://en.wikipedia.org/
wiki/Metadata.
25 VV. AA. (2014): «El “Big Data” se vuelve Personal» — Informe especial,
MIT Technology Review, http://www.technologyreview.es/informesespeciales/
specialreport.aspx?id=99.
26 «Los datos abiertos son datos que pueden ser utilizados, reutilizados y re-
distribuidos libremente por cualquier persona, y que se encuentran sujetos, cuando
más, al requerimiento de atribución y de compartirse de la misma manera en que
aparecen» (http://opendatahandbook.org/es/what-is-open-data/). Véase Ariño
Villarroya, A. (2008): El movimiento Open, Valencia, PUV; (2015): «Moviliza-
ciones por la Red. Las evoluciones del movimiento Open», pendiente de publi-
cación.
27  http://opendatacommons.org/licenses/.

138
4. La investigación social ante su segunda revolución digital

28  http://www.dataprotection.ie/docs/What-is-Personal-Data-/210.htm. Para


una discusión más pormenorizada del concepto de «dato personal», http://ec.
europa.eu/justice/policies/privacy/docs/wpdocs/2007/wp136_en.pdf.
29  Perc, M. (2014): «The Matthew Effect in empirical data», http://rsif.royal-
societypublishing.org/content/11/98/20140378.short. El efecto Mateo fue formu-
lado por Robert K. Merton para el ámbito de la sociología de la ciencia, (http://
www.garfield.library.upenn.edu/merton/matthew1.pdf).
30  http://home.web.cern.ch/about/updates/2013/02/cern-data-centre-passes-
100-petabytes. Incidentalmente, conviene señalar que no fue en absoluto casual
que la idea de la Web se engendrase (gracias a la visión de Berners-Lee y Cailliau,
fundamentalmente) dentro de este monumental centro de actividad científica que
es el CERN.
31  http://www.emc.com/collateral/about/news/idc-emc-digital-universe-
2011-infographic.pdf.
32  El universo digital abarcaría toda la información antrópica en formato
digital existente en nuestro mundo. El componente central de tal universo sería
el universo IP, pero se trata de un concepto algo más amplio. Por ejemplo, los
CD musicales que tenemos en casa formarían parte del universo digital, aunque
no, en principio, del universo IP.
33  http://www.emc.com/collateral/analyst-reports/idc-digital-universe-are-
you-ready.pdf.
34  «A medida que la cantidad de datos se incrementa exponencialmente,
casi todos ellos llevan las huellas dactilares digitales de alguien. Cuanto mayor
es la cantidad de datos personales disponibles, más informativos se vuelven esos
datos. Muchos de estos datos son invisibles para la gente y parecen impersona-
les. Pero no lo son: lo que la moderna ciencia de datos está descubriendo es que
casi cualquier tipo de datos puede usarse, como si fuese una huella dactilar, para
identificar la persona que los creó» (Patrick Tucker, http://www.datascienceassn.
org/sites/default/files/Big%20Data%20Gets%20Personal.pdf, pp. 2 y 4).
35  Cabría definir la «panopticidad» como la condición de poseer una visión
panóptica (del griego «panoptés», «todovidente»), es decir, una «visión total,
exhaustiva».
36  Así, esa exhaustiva capacidad de ubicación espacial de cada individuo
permitiría instrumentar elaboradas formas de propaganda personalizada (co-
mercial o de otro tipo), consistente en anuncios de este tenor: «¿Necesita cortar-
se el pelo? En cuatro días pasará a 100 metros de una peluquería que en ese mo-
mento le ofrecerá un descuento especial de 5 dólares» (ibíd.).
37  http://en.wikipedia.org/wiki/Parsing.
38  http://breakthroughanalysis.com/2008/08/01/unstructured-data-and-the-
80-percent-rule/.
39  «The Data Made Me Do It», Antonio Regalado, http://www.datascien-
ceassn.org/sites/default/files/Big%20Data%20Gets%20Personal.pdf, p. 2.
40  http://www.webopedia.com/TERM/S/structured_data.html.

139
El diseño de la investigación social

41  http://en.wikipedia.org/wiki/Semi-structured_data.
42 http://www.tvtechnology.com/insight/0083/virtualizing-the-growth-of-
metadata/221644#sthash.jjJ2mwqc.dpuf.
43  http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.102.6901&rep=
rep1&type=pdf.
44  http://en.wikipedia.org/wiki/Linked data; «Datos Enlazados» trata de utili-
zar la Web para conectar datos relacionados que no han sido vinculados previa-
mente, o de usar la Web para disminuir los obstáculos que dificultan el enlace de
datos actualmente vinculados mediante otros métodos. Más en concreto, Wikipe-
dia define «Datos Enlazados» como «un término que se emplea para describir
unas buenas prácticas recomendadas para mostrar, compartir y conectar unidades
de datos, información y conocimiento en la Web Semántica mediante la utiliza-
ción de URIs y RDF» (http://linkeddata.org/). Según otra definición general,
«Los Datos Enlazados es la forma que tiene la Web Semántica de vincular los dis-
tintos datos que están distribuidos en la Web, de forma que se referencian de la
misma forma que lo hacen los enlaces de las páginas web» (http://www.w3c.es/
Divulgacion/GuiasBreves/LinkedData); véanse también los tutorials en http://
www.linkeddatatools.com/semantic-web-basics y la charla de Tim Berners-Lee en
http://www.ted.com/talks/tim_berners_lee_the_year_open_data_went_worldwide.
45  Halford, S., Pope, C. y Veal, M. (2012): «Digital Futures? Sociological
Challenges and Opportunities in the Emerging Semantic Web», http://soc.sage-
pub.com/content/early/2012/11/02/0038038512453798.full.pdf.
46  http://es.wikipedia.org/wiki/SQL. Tutoriales disponibles en http://www.
sqlcourse.com/intro.html y https://class.stanford.edu/courses/DB/SQL/SelfPa-
ced/courseware/ch-sql/seq-vid-introduction_to_sql/.
47  Karpf, D. (2011): «Social Science Research Methods In Internet Time»,
http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1929095; Bruggeman, J.,
Traag, V. A. y Uitermark, J. (2010): «Detecting Communities through Network
Data», http://asr.sagepub.com/content/77/6/1050.abstract; Zhe L. y Weber, I.
(2014): «Is Twitter a Public Sphere for Online Conflicts? A Cross-Ideological
and Cross-Hierarchical Look», http://link.springer.com/chapter/10.1007/978-3-
319-13734-6_25#page-1; Magno, G. y Weber, I. (2014): «International Gender
Differences and Gaps in Online Social Networks», http://link.springer.com/
chapter/10.1007/978-3-319-13734-6_9#page-1; Michel, J-B. y otros (2011):
«Quantitative Analysis of Culture Using Millions of Digitized Books», http://
link.springer.com/article/10.1140%2Fepjb%2Fe2004-00124-y?LI=true#page-1.
48  Kauffman, S. A. The Origins of Orde, Oxford UK, Oxford University
Press, 1993; Hordijk, W. «Autocatalytic Sets: From the Origin of Life to the
Economy», BioScience, November 2013 / Vol. 63 No. 11, pp. 877-881, http://
bioscience.oxfordjournals.org/content/63/11/877.full.pdf+html.
49  Parece que la realidad misma de Internet plantea un desafío al concepto
clásico de computabilidad establecido por Turing. Algunos autores proponen
considerar, a este respecto, el concepto de «computación en evolución interacti-

140
4. La investigación social ante su segunda revolución digital

va» («Evolving Interactive Computing») como más adecuado para captar la ge-
nuina enjundia computacional de la Red (http://www.ercim.eu/publication/Er-
cim_News/enw50/wiedermann.html).
50  Chesterton, G. K., The Man Who Knew Too Much, http://www.guten-
berg.org/cache/epub/1720/pg1720.html.
51  Consúltese, a este respecto, otra charla más reciente de Tim Berners-Lee,
http://www.ted.com/talks/tim_berners_lee_a_magna_carta_for_the_web.
52  http://en.wikipedia.org/wiki/Raw_data; http://blog.okfn.org/2007/11/07/
give-us-the-data-raw-and-give-it-to-us-now/; http://www.ted.com/talks/tim_ber-
ners_lee_on_the_next_web; http://www.wired.co.uk/news/archive/2012-11/09/
raw-data.
53  Así, YouTube ha desarrollado un «instrumento de autoobservación» con-
siderablemente elaborado, YouTube Trends, https://www.youtube.com/trends-
dashboard.

Bibliografía recomendada
Astudillo, F. J. (2014): Sociología Digital, https://sociologiadigital.wordpress.
com/2013/08/17/metodos-digitales-repensando-la-sociologia/.
Berners-Lee, T. (2010): http://www.ted.com/talks/tim_berners_lee_the_year_
open_data_went_worldwide.
Christakis, N., y Fowler, H. (2010): Conectados, Madrid, Taurus.
Feigenbaum, L., y otros (2008): «La red semántica en acción», Investigación y
Ciencia, núm. 377.
Lupton, D. (2012): «Digital Sociology: An Introduction»:  https://www.acade-
mia.edu/1830701/Digital_Sociology_An_Introduction.

141
Segunda parte

La articulación de la
investigación social
5.  Observación sociológica,
realidad y reflexividad

Manuel García Ferrando


Cristóbal Torres

1. Introducción

En los cuatro capítulos anteriores que integran la primera parte, dedica-


da al diseño de la investigación social, se ha puesto de manifiesto el ca-
rácter plural de las orientaciones teóricas y metodológicas que siguen los
investigadores sociales que, desde la sociología, se adentran en el estudio
científico de la realidad social. Un objeto de estudio que exige la utiliza-
ción de una variedad de diseños de investigación que, como destacan Al-
vira y Serrano en su capítulo anterior, no tiene más límites que la imagi-
nación del investigador.
Pero una vez elaborado el plan, proyecto o diseño de la investigación
social que se pretende llevar a cabo, el proceso de obtención, recogida,
análisis e interpretación de las observaciones/datos queda sometido a
procedimientos rigurosos de carácter científico que, convenientemente
articulados siguiendo estrictos criterios observacionales, de medición,
muestreo, evaluativos y de apertura estructural, han dado lugar al desa-
rrollo de procedimientos científicos de obtención y análisis de datos, que
constituyen el instrumental tecnológico-científico que utilizan sociólogas
y sociólogos en su quehacer investigador de la compleja y siempre cam-
biante realidad social.

145
La articulación de la investigación social

Tales procedimientos de obtención y análisis de datos se presentan y


desarrollan, respectivamente, en la tercera y cuarta parte del presente
texto, en tanto que los procedimientos de carácter científico, cuya poste-
rior articulación va haciendo posible la constitución y el perfecciona-
miento de las referidas técnicas, se estudian en esta segunda parte, que
hemos denominado, en consecuencia, la articulación de la investigación
social. Una segunda parte que se inicia con este capítulo 5 que se ocupa
principalmente del planteamiento científico de la observación sociológi-
ca y del estudio de los tipos y técnicas de observación que se utilizan en
la investigación social; pero antes de proceder a su presentación, hemos
considerado apropiado dedicar un apartado al estudio de lo que se en-
tiende por conocimiento científico de la realidad, así como a la evolución
histórica del método científico. Y en el siguiente apartado, también he-
mos considerado pertinente adentrarnos en el estudio de ese rasgo tan
propio del objeto de la sociología y cada vez más característico de las so-
ciedades contemporáneas que es la reflexividad, así como de su posible
incidencia en los componentes metodológicos de la investigación social.
De este modo, la presentación del estudio de la observación sociológica
(metodología) queda enmarcada en dos dimensiones de la ciencia, como
son la realidad y la reflexividad (ontología y epistemología), que facilita
su tratamiento pedagógico y su comprensión metodológica.

2.  Realidad y conocimiento científico

¿Qué es la realidad? Y ¿cómo se la conoce científicamente? Han sido dos


preguntas que han entretenido al pensamiento (ontológico, epistemológi-
co y metodológico) desde que la ciencia comenzó a bosquejarse como un
tipo de conocimiento diferenciado del resto de formas sociales de conoci-
miento (religión, ideología o sentido común). No es extraño ello por
cuanto un conocimiento que se define como verdadero (éste es el signifi-
cado, saber, de las palabras latinas scientia y scire) debe prestar central
atención a la cuestión de si se corresponde con la realidad, lo que por
ende supone identificar la naturaleza y el sentido del objeto del que se
ocupa. La tradición clásica, que comienza en el siglo xvii con autores
como Bacon, Descartes y Locke, y que ha llegado hasta nuestros días,
entendió que la realidad es un «objeto» que está más allá de la subjetivi-
dad de cada individuo, y que se concreta en «hechos» a los que se consi-
deran como «objetivos», es decir, de una naturaleza distinta de los suje-
tos cognoscentes. De esta manera, la realidad es («algo») una entidad

146
5. Observación sociológica, realidad y reflexividad

(mundo) preexistente e independiente de las intenciones o deseos de los


humanos, que sólo puede conocerse de manera verdadera (descubrirse)
mediante el recurso a un procedimiento de estricto y obligado cumpli-
miento, el método científico.
La identificación y la depuración a lo largo de la historia de un méto-
do científico, cuyo primer hito fundamental se concreta con la Revolu-
ción Científica del siglo xvii, y el segundo ya en el siglo xx, con la irrup-
ción del neopositivismo encarnado por el llamado Círculo de Viena,
suponen la identificación de una serie de rasgos demarcativos del conoci-
miento científico (frente al resto de formas sociales de conocimiento) de
índole normativa y universal, de los que se sigue un procedimiento estric-
to (el método científico) que permite la aprehensión empírica del hecho,
objeto o realidad en cuestión, junto con la explicación de la misma. Para
esta tradición clásica, la conjunción de los principios de racionalidad y
significatividad cognoscitiva constituye los criterios demarcativos funda-
mentales del método científico (Echeverría, 1989).
La racionalidad supone que se trata de un conocimiento inicialmente
formado por juicios e ideas que, combinadas mediante reglas lógicas y
procesos de confirmación (verificación) empírica, como son la observa-
ción o la experimentación, con los hechos de la realidad (la evidencia
empírica), permiten inferir o deducir nuevas ideas que se concretan lógi-
camente en nociones, conceptos, proposiciones y, finalmente, teorías.
Así, la tesis fundamental del positivismo y neopositivismo supone que la
realidad es objetiva y que puede representarse de manera fidedigna y vá-
lida (verdadera), si se aplican ambos principios del método científico que
pueden concretarse, de manera somera, en rasgos como el de ser claro,
preciso, analítico, contrastable, explicativo, legal y predictivo (Bunge,
1981). Todo un compendio de caracterización formal de la que puede de-
rivarse un conjunto de procedimientos concretos que fijan el método y el
hábito científico y que, durante mucho tiempo, han permitido definir a la
ciencia como un conocimiento singular y diferenciado, a la vez que privi-
legiado, para conocer la realidad. En definitiva, el método científico es lo
que hace posible el conocimiento verdadero de una realidad que se en-
tiende como objetiva.
Esta concepción de la realidad, del método y del conocimiento cientí-
fico resultante se encarnó, durante el segundo tercio del siglo xx, en la
llamada Concepción Heredada, que se convirtió en hegemónica en la
metodología de la ciencia hasta finales de la década de los sesenta del si-
glo pasado. Como rasgos principales de la misma pueden destacarse su
acentuado realismo (la ciencia descubre un mundo objetivo que es previo

147
La articulación de la investigación social

e independiente de los juicios humanos), su principio de acumulatividad


del conocimiento científico (las teorías no se abandonan sino que, a lo
sumo, se perfeccionan e insertan en una más general), la radical separa-
ción entre la observación y la teoría (entre la verificación y la racionali-
dad), su radical empirismo (mediante la observación) para fundamentar
las teorías científicas, la precisión e invarianza de los conceptos y térmi-
nos teóricos y, finalmente, la defensa de la unidad de la ciencia que redu-
ce las diferentes ciencias a los principios físicos y químicos más básicos
(Hacking, 1985: 7-15).
Este panorama de la filosofía y la metodología de la ciencia fue pues-
to en cuestión desde distintas perspectivas ya en la década de los cin-
cuenta. Entre las mismas puede destacarse, de un lado, la tesis de la car-
ga teórica de Hanson (1985) que sostuvo que las observaciones siempre
están cargadas de patrones conceptuales por lo que la evidencia empírica
no es un criterio del todo concluyente en la corroboración científica,
dado que una teoría no sólo puede incorporar teorías de medida, obser-
vación o clasificación sino que, también, establece qué considera como
evidencia adecuada. Y, de otro, la tesis Duhem-Quine (1962) o de la in-
fradeterminación de las teorías científicas por la evidencia, que afirma
que es posible mantener una teoría frente a una evidencia que la niega
recurriendo a cambios en alguna otra parte de la teoría, dado que ésta se
inserta en redes conceptuales más amplias. De ahí se deduce que siempre
cabe la posibilidad de adoptar alternativas teóricas que sean consistentes
con la evidencia empírica disponible y que no supongan un rechazo de
una teoría inicialmente no corroborada.
Este escenario de críticas, que en gran medida fueron articuladas y
multiplicadas con la aparición en 1962 de la obra de Thomas S. Kuhn,
La estructura de las revoluciones científicas (1977), propició un intenso
debate a lo largo de la década de los sesenta del siglo pasado que acabó
con el definitivo abandono de la Concepción Heredada en el Congreso
de Urbana de 1969 (Suppe, 1979), y del direccionamiento de buena parte
de la filosofía de la ciencia hacia la indagación en ámbitos más propios
de la formalización lógica y menos del método y el hábito científico,
como, por ejemplo, ocurre en la corriente de la concepción estructural de
las teorías científicas.
Desde la perspectiva estricta del campo de la metodología, fueron las
tesis de Karl Popper las que acabaron por modificar de manera sustan-
cial la mayor parte de las iniciales posiciones del neopositivismo. Popper,
un filósofo vienés que comenzó su trayectoria en pleno apogeo del positi-
vismo lógico del Círculo de Viena, elaboró su teoría falsacionista ya en el

148
5. Observación sociológica, realidad y reflexividad

temprano año de 1934 con su obra La lógica de la investigación científica


(1962). Sostiene Popper que la cuestión más importante para la ciencia
es garantizar el crecimiento del conocimiento. Algo que es posible por
dos principios fundamentales que caracterizan el método de la ciencia: la
falsación y la discusión racional y crítica.
La falsación supone la permanente posibilidad de identificar alguna
evidencia empírica que contradiga las proposiciones formuladas por una
teoría. La objetividad del conocimiento no descansa en la verificación o
contrastación de una evidencia empírica un número determinado de ve-
ces (n), sino en la posibilidad de encontrar en una n+1 vez algún tipo de
evidencia que refute la proposición previamente contrastada. La no ma-
terialización de esta posibilidad permite estimar que, por el momento, la
hipótesis ha sido contrastada o corroborada empíricamente. De esta ma-
nera la corroboración es siempre provisional, dado que la posibilidad de
la falsación es permanente. De otro, la discusión racional y crítica es más
necesaria si cabe porque el principio de falsación es válido como criterio
lógico pero insuficiente en la dinámica que combina el método con el há-
bito científico. Así, siempre es posible encontrar formas de eludir, por
ejemplo, mediante la introducción de hipótesis ad hoc o reformulando
las previas, la falsación. Por ello, el debate científico debe estar presidido
por reglas convencionales que impidan prácticas de evitación de los tests
empíricos cruciales y que permitan que el conocimiento científico au-
mente aspectos tales como su grado de falsabilidad, corpus conjetural de
contenido empírico y teórico, verosimilitud y, en definitiva, la profundi-
dad de los problemas planteados y la fortaleza de las soluciones y expli-
caciones que sostiene.
De ahí que Popper entienda que el conocimiento científico no implica
una verdad cerrada e inmutable sino un corpus conjetural y falible de
contenidos empíricos y lógicos verosímiles. Es decir, que supone una ma-
yor o menor determinada correspondencia o semejanza con la verdad y,
por tanto, un distinto grado de verosimilitud. Algo que lo hace conjetu-
ral y falible, es decir, revisable a lo largo de la historia puesto que descan-
sa en el componente social del método científico. Todo lo cual indica que
el conocimiento científico es fruto de la contrastación intersubjetiva de la
evidencia empírica, y de la discusión racional y crítica entre los científi-
cos que se ocupan de escrutar cada ámbito o campo de la realidad (To-
rres, 2006).
El animado debate en la filosofía y metodología de la ciencia en el úl-
timo tercio del siglo xx, tras el impacto de las obras de Popper y Kuhn,
ha ido poniendo de manifiesto aspectos tan destacables como las más

149
La articulación de la investigación social

amplias redes en las que se insertan las teorías concretas a las que se lla-
man programas o tradiciones de investigación (respectivamente, Lakatos,
1983, y Laudan, 1986), lo que complejiza cualquier proceso de falsación
empírica, o el papel a lo largo de la historia de la imaginación y del re-
curso a transgredir reglas metodológicas estrictas con tal de hacer avan-
zar la ciencia (el anarquismo metodológico de Feyerabend, 1986). Inclu-
sive ha permitido la emergencia de un empirismo constructivo (Fraassen,
1997) que sostiene que para la ciencia lo relevante no es la realidad o lo
verdadero sino sólo lo que es empíricamente contrastable, o de un realis-
mo crítico (Bhaskar, 1975) que compatibiliza un realismo ontológico (la
realidad existe con independencia de su conocimiento) con la idea del co-
nocimiento científico como resultado de la actividad social humana.
En esta línea destaca la tesis de John Ziman (1972) que subraya el
componente público y consensual del método científico como elemento
distintivo del mismo y del consiguiente quehacer de los científicos. Es
decir, la disponibilidad pública de las proposiciones que aspiran a tener
el marchamo de científicas supone la base primaria para la validación
del conocimiento científico. Proposiciones que deben reunir un mínimo
suficiente de contrastabilidad empírica y coherencia lógica para poder
ser tomadas en cuenta en el debate entre los científicos. Algo que es
consistente con los cánones clásicos del método. Pero para que la cien-
cia avance no basta cumplir estos cánones y, con ello, tener ideas fructí-
feras, elaborar tests empíricos o formular nuevos problemas, sino que
también es necesario ponerlos a disposición pública de la actividad or-
ganizada que supone la tarea científica. Y ello es así porque el conoci-
miento científico no emerge sin más con una idea racional o con una
prueba empírica aislada, sino de un mecanismo social propio del méto-
do científico que, además, contextualiza y perfila el hábito científico.
Ese mecanismo es la consideración del consenso como elemento defini-
torio de lo que se tiene como conocimiento verdadero o aceptado en la
comunidad científica. Así, el conocimiento científico es un corpus so-
cialmente compartido y convalidado que surge de un proceso que, de-
pendiendo de los rasgos sustantivos de dicho corpus y del contexto so-
cial de cada campo científico, puede ser más o menos largo y difícil, y
cuya resolución expresa en cada momento dado del quehacer científico
un acuerdo intersubjetivo de los científicos respecto de lo que se consi-
dera como relevante, adecuado y explicativo de la evidencia empírica
disponible.

150
5. Observación sociológica, realidad y reflexividad

3.  Reflexividad y observación científica de la realidad

El desarrollo de las ciencias de la naturaleza y de las ciencias sociales a lo


largo del siglo xx y hasta nuestros días ha colocado a la ciencia en gene-
ral como observadora tanto de la naturaleza como de la sociedad en una
situación que es difícilmente comprensible para la mentalidad científica
clásica. Una ciencia que desde el siglo xvii venía proporcionando una
imagen de la naturaleza guiada por leyes matemáticas y con unos mode-
los mecánicos representables mentalmente por el sentido común (al me-
nos desde el triunfo del pensamiento ilustrado entre la ciudadanía) se vio
sencillamente rebasada por la física relativista de Einstein y por la mecá-
nica cuántica de Plank y Bohr, entre otros.
La teoría de la relatividad especial de Einstein vino a decir que lo que
mide un observador en su propio sistema de referencia no es igual que lo
que mide otro observador desde su diferente sistema de referencia, lo que
ha colocado al observador del mundo físico en una situación radical-
mente distinta de la corriente cartesiana que ha sido la base filosófica de
la ciencia moderna. Por otro lado, en el submundo atómico de las partí-
culas no se puede generar un modelo mecánico, porque la observación
que realiza el científico influye en lo observado (Ortoli y Pharabod,
2001). Se trata de una limitación que recoge el principio de incertidum-
bre o indeterminación de Heisenberg, que impide la observación precisa
del universo cuántico (Arenzana, 2008: 94).
Este desarrollo de la física configura un doble (micro y macro) mundo
físico o real que se encuentra relacionado íntimamente con el mundo
subjetivo de la percepción, de manera parecida a lo que ha venido ocu-
rriendo en el campo de las ciencias sociales, en las que las corrientes críti-
cas y cualitativas han cuestionado las formas de proceder de las corrien-
tes neopositivistas desde la segunda mitad del siglo xx, en un proceso
similar a lo que hemos visto en el epígrafe anterior sobre realidad y co-
nocimiento científico.
En efecto, el inicial desarrollo de la sociología alrededor, primero, de
Marx y, después, de Durkheim supuso el establecimiento de la idea de
una realidad objetiva que, sobre todo, se equiparaba con la identificación
de las estructuras sociales (respectivamente, modos de producción y he-
chos sociales). Sin embargo, pronto se entendió que la «objetiva» reali-
dad social no era ajena a los deseos e intenciones humanas, dado que la
propuesta de Durkheim de los hechos sociales como objeto propio de la
sociología descansaba en el rasgo de la producción colectiva (aparte de
externos y coactivos), e incluso en Marx las ideas tenían un destacado

151
La articulación de la investigación social

papel para la praxis revolucionaria y la transformación de la infraestruc-


tura. Sin embargo, fueron las tesis de Weber sobre la acción social las
que subrayaron que la realidad social es el resultado de las propiedades
que tienen las acciones individuales y el sentido compartido que las mis-
mas incorporan. Algo que no se restringía al limitado margen de la sub-
jetividad de los actores sociales y su espacio micro, sino que en determi-
nadas circunstancias concretas, como magistralmente ejemplificó Weber
en su conocido ensayo sobre la ética protestante y el espíritu del capita-
lismo, dichas propiedades son emergentes y pueden contribuir de manera
significativa a cambiar el mundo. De esta manera, Weber no sólo mostró
las ventajas heurísticas de la noción de «acción social», sino que puso de
relieve la importancia que las ideas tienen para que los actores sociales
construyan y modifiquen la realidad social. Línea argumental en la que
convergen otros autores clásicos como Georg Herbert Mead (1972) con
su tesis sobre la interacción social significativa, concretada en conceptos
como yo, mí u otro generalizado, y que se construye sobre la base de la
singular naturaleza simbólica de la acción social y de su orientación re-
flexiva (opuesta a la conducta refleja) como clave del conocer y actuar de
los humanos, y que continuaran todos aquellos que impulsaron la llama-
da Escuela de Chicago. Línea cuya cristalización más reseñable en el
pensamiento sociológico de mediados del siglo pasado sería lo que Mer-
ton (1980) etiquetó, en su célebre artículo de 1948 sobre las profecías que
se autocumplen, como el teorema de Thomas que establece que «si los
individuos definen las situaciones como reales, son reales en sus conse-
cuencias».
Lo que el teorema refiere es que en la realidad social las definiciones
públicas de una situación, es decir el conocimiento de la misma, se con-
vierten en parte integrante de la misma y, en consecuencia, afectan a los
acontecimientos posteriores. Aun cuando, como también indicó Merton,
esta asunción debe tener el contrapeso de que aunque los hombres no de-
finan las situaciones como reales, éstas siguen, sin embargo, siendo reales
en sus consecuencias, y en general los límites que marcan la facticidad de
las estructuras sociales, hay que subrayar que la acuñación del teorema
de Thomas y la exploración de Merton de las paradojas de la realidad
social (profecías que se autocumplen y autofalsan) supusieron la consoli-
dación de la reflexividad como un elemento consustancial a la misma, no
sólo en el plano micro de la acción social sino, al menos, también en el
nivel meso de la realidad social, como, por ejemplo, ocurre en las quie-
bras bancarias, las dinámicas del voto político o los conflictos raciales.
Bajo este supuesto, cuando con la crisis de la sociología el duopolio que

152
5. Observación sociológica, realidad y reflexividad

la teoría sociológica mantuvo hasta mediados de los años sesenta del si-
glo pasado entre el marxismo y el estructural-funcionalismo parsoniano
comenzó a resquebrajarse, y las sociologías de la vida cotidiana o micro-
sociologías (interaccionismo simbólico de Blumer, enfoque dramatúrgico
de Goffman, sociología fenomenológica de Berger y Luckmann o la et-
nometodología de Garfinkel) asentaron su relevancia en el análisis de la
realidad social a partir de los años sesenta y setenta, se propició lo que
Ashmore (1989) ha etiquetado como el giro reflexivo de la sociología, y
que Giddens integró y sintetizó en unas nuevas reglas del método socio-
lógico (1987) y de estructuración de la sociedad (1995).
De esta manera, la reflexividad se entiende como una propiedad de
los humanos asociada a su capacidad de pensar y hacer (Callejo, 1999)
que permite a los sujetos tanto autorreferenciar la acción realizada como
concebir las consecuencias que genera en su interacción y, con ello, alte-
rar la propia situación previamente definida y establecida, y en la que el
lenguaje se considera no tanto como reflejo de la realidad, sino como
constructor o conformador de la propia realidad (Lamo de Espinosa,
1998: 637), de la misma forma que lo hacen los valores y los amplios gra-
dos de libertad propios de la condición humana. Así, la reflexividad se
concibe como un rasgo propio de la naturaleza del objeto de la sociolo-
gía que no sólo afecta a su propia conformación natural, sino que tam-
bién permite la generación de una nueva dimensión en la realidad social
como es la etnosociología, entendida aquí como el corpus de la sociolo-
gía que es incorporado de manera creciente por los propios actores so-
ciales para interpretar y redefinir sus propias vidas cotidianas (Santoro,
2003). Y que también alcanza a la propia metodología de las ciencias so-
ciales en tanto que el desarrollo de una actividad específica para conocer
la realidad social genera, de manera natural, una reactividad (reacción)
del propio objeto estudiado (Campbell, 1957; Espeland y Sauder, 2007).
De esta manera, la reactividad puede entenderse como un subtipo de la
más amplia reflexividad que se genera al tomar contacto las técnicas de
investigación con el objeto de la indagación sociológica, tanto si éste está
formado de manera directa por sujetos (ámbito micro de la investiga-
ción) como si se refiere a estructuras sociales (dimensión meso de la in-
dagación) que son permeables a nuevas formas de acción social.
Por otro lado, el problema de la reflexividad no se restringe a estos
ámbitos micro y meso de la realidad social sino que se proyecta, al igual
que ocurría en la teoría de la relatividad de Einstein para el universo, en
el ámbito macro que conforman las sociedades. De esta manera, para al-
gunos autores, la reflexividad sería un rasgo definitorio del cambio social

153
La articulación de la investigación social

como proponen Giddens y Beck al teorizar sobre la modernización re-


flexiva (Beck et al., 1994), e incluso de la propia sociedad, convertida ya
en una sociedad reflexiva como propone Lamo de Espinosa (1990), y es
que como afirma este mismo autor, en las sociedades del conocimiento
«la reflexividad es ya la norma y no la excepción en ciencia social»,
(Lamo de Espinosa, 1994: 625). La razón de que se haya producido este
cambio descansa en el hecho de que al tratarse de sociedades del conoci-
miento, también lo son del autoconocimiento social, lo que conduce a que
el argumento de que toda predicción altera la acción social de los sujetos
predichos se haya visto reforzado en las sociedades contemporáneas
(Lamo de Espinosa, 1994).
Todas estas manifestaciones de la relevancia de la reflexividad coinci-
den en la consideración de que, en las sociedades de la información y del
conocimiento de finales del siglo xx y comienzos del siglo xxi, las «insti-
tuciones productoras de ciencia, tecnología e información tienen una po-
sición clave y un papel central» (Ernest García, 2014: 50), con lo que la
información y el conocimiento son tanto los inputs de los procesos pro-
ductivos y de estructuración social como también sus productos o resul-
tados, en un proceso continuo y rutinizado de innovación y cambio ca-
racterístico de este tipo de sociedades (Torres, 2005). Algo que ha
permitido el surgimiento de la globalización, no sólo como consumación
de un lento proceso de mundialización de las sociedades nacionales, sino
sobre todo como el reflexivo hecho de que la sociedad, la política y la
economía funcionen a escala planetaria como una unidad en tiempo real
(Castells, 1997).
En definitiva, todo un cúmulo de consideraciones que ha conducido a
asumir la reflexividad como consustancial, tanto en la labor de genera-
ción y validación del conocimiento científico sobre la realidad social
(Coleman, 1990: 610) como definitoria también del conocimiento socio-
lógico en tanto que sociología reflexiva, como proponen Bourdieu y
Wacquant (2005, e. o. 1992), de tal manera que la reflexividad se ha con-
vertido en uno de los puntos de referencia de la sociología del siglo xxi.
Pero al describir los efectos de esa centralidad de la reflexividad sobre
la estructuración y el cambio social, algunos autores destacan aspectos
parcialmente diferentes y a veces divergentes que pueden producir en al-
gunos casos cierto desconcierto. Baste citar en este sentido la interpreta-
ción que hace Wacquant de la reflexividad en Bourdieu cuando señala
que «tiende a aumentar el alcance y la solidez del conocimiento científico
social, una meta que por sí misma lo pone en desacuerdo con modelos
fenomenológicos, textuales y otras formas posmodernas de reflexividad,

154
5. Observación sociológica, realidad y reflexividad

ya que la reflexividad implica la exploración sistemática de las categorías


impensadas del pensamiento que delimitan lo pensable y predeterminan
el pensamiento y guían así mismo la realización de la indagación social.
Se trata, con ello, de neutralizar el inconsciente científico colectivo fijado
a las teorías, problemas y categorías del juicio académico» (Bourdieu y
Wacquant, 2005: 75).
No parece que resulte fácil ni pedagógico trasladar esta interpretación
de la reflexividad de Bourdieu a la metodología y técnicas de investiga-
ción social que los sociólogos deben emplear para proceder a «la realiza-
ción de la indagación social», en un contexto ontológico y epistemológi-
co relativista en el que la noción de objetividad clásica cartesiana y
neopositivista ha quedado obsoleta. Y es que cuanto más compleja sea
la realidad natural o social cuya dinámica se desea conocer científica-
mente, mayor será la necesidad de tener en cuenta la transformación del
sistema objeto, natural o social, como sujeto que ejerce su influencia en
el propio investigador.
Pero la ciencia, por su propia definición y naturaleza, no puede re-
nunciar a la objetividad, una objetividad que se ha trasladado al méto-
do general de la ciencia, y a los métodos particulares que utiliza cada
tipo de ciencia (Bunge, 1979: 24-30), pues donde no hay método científi-
co no hay ciencia. Un método que, como destaca Bunge, no es infalible
ya que puede perfeccionarse mediante la estimación de los resultados a
los que conduce, y también hacerlo, mediante el análisis directo. Tam-
poco es autosuficiente ya que requiere algún conocimiento previo al que
pueda reajustarse, al tiempo que se complementa mediante métodos es-
peciales adaptados a las peculiaridades de cada tipo de ciencia, de la na-
turaleza o social. Además, la propia reflexividad invita a los intelectua-
les, en palabras de Bourdieu, «a reconocer y trabajar para neutralizar
los determinismos específicos a los cuales están sometidos sus pensa-
mientos más íntimos, y conforma una concepción del oficio de la inves-
tigación destinada a fortificar su asidero epistemológico» (Bourdieu y
Wacquant, 2005: 83). Se trata, pues, de una invitación muy oportuna y
relevante la que hace Bourdieu a extremar la vigilancia epistemológica
en cualquier campo del trabajo científico, una vigilancia que tiene en el
recurso al método y en la clarificación del marco teórico su mejor apoyo
y continuidad.
Por otro lado, la cada vez más poderosa e influyente presencia mediá-
tica y práctica de los resultados y hallazgos de las ciencias físicas de la
naturaleza, con su consiguiente impacto tanto en las vidas cotidianas de
la población como en la reconfiguración y recreación de los mundos so-

155
La articulación de la investigación social

ciales, invita a extremar esa vigilancia epistemológica reflexiva a la que


nos conduce Bourdieu, en ese interfaz en el que confluyen los resultados
de las ciencias de la naturaleza y de las ciencias sociales. Éste es el caso,
por ejemplo, de lo que ocurre con hallazgos de gran impacto mediático y
social en campos de investigación tan diversos como los orígenes del
Universo, el cambio climático y el calentamiento global, la neurociencia
y el funcionamiento del cerebro, o la manipulación genética de los ali-
mentos; todos ellos son ejemplos, entre otros muchos, de resultados cien-
tíficos que preocupan cada vez más al conjunto de la población y no sólo
a los científicos. Un impacto cuyo estudio, por otra parte, ofrece nuevas
posibilidades de investigación sociológica siguiendo, evidentemente, los
métodos y técnicas de investigación social que se han venido desarrollan-
do y perfeccionando a lo largo del último siglo de afianzamiento del co-
nocimiento sociológico, siguiendo el proceso de perfeccionamiento meto-
dológico al que se refiere Bunge. Unos métodos y técnicas de
investigación social que se presentan de la forma más pedagógica y rigu-
rosa posible en los diferentes capítulos del presente libro.

4.  El planteamiento científico de la observación sociológica

Cuando hablamos de observación sociológica en el ámbito de la investi-


gación social, nos estamos refiriendo al tipo de observación científica
propio de la sociología, del mismo modo que podemos hablar de obser-
vación psicológica o de observación botánica al referirnos a la observa-
ción científica que realizan, en sus respectivos ámbitos de estudio y tra-
bajo, psicólogos y botánicos. La observación ordinaria o natural ha sido y
continúa siendo el procedimiento básico que ha venido y viene utilizan-
do la humanidad para acceder al conocimiento de su entorno y de sí mis-
ma, pero desde que apareciera y se desarrollara la ciencia a partir del si-
glo xvii en Europa, tal como hemos visto en el anterior apartado 2, la
observación científica se ha convertido en el estilo de pensamiento y ac-
ción más universal de todos los estilos, aunque todavía continúe siendo
de aplicación minoritaria en numerosos ámbitos de estudio de la vida so-
cial.
Como señala Mario Bunge en su conocido tratado sobre la estrategia
y filosofía de la investigación científica (Bunge, 1979, e. o. 1969), la ob-
servación científica es percepción intencionada e ilustrada. Se trata de una
percepción selectiva e interpretativa en la cual las ideas tienen al menos
tanto peso como las impresiones sensibles, lo que la convierte en el tipo

156
5. Observación sociológica, realidad y reflexividad

más simple de experiencia científica y en el procedimiento empírico bási-


co. Las ideas que dan soporte a la observación científica deben formar
parte de algún tipo de teoría contrastable, ya que solamente este tipo de
teoría contiene los medios de someter la verdad a prueba y reforzarla.
En el ámbito de las ciencias sociales abundan las explicaciones racio-
nales de hechos sociales que siguen una secuencia hipotético-deductiva y
que contienen una o más generalizaciones e información. De hecho, una
buena parte de los debates teóricos que han tenido lugar en el ámbito de
la sociología del conocimiento, de la ciencia y de la cultura, y que conti-
núan animando el debate teórico sociológico contemporáneo (como
ejemplo destacado puede citarse el texto de Lamo de Espinosa, González
y Torres, La sociología del conocimiento y de la ciencia, 1994), contienen
explicaciones racionales de carácter hipotético-deductivo sobre las que se
han ocupado, y continúan haciéndolo en la actualidad, buena parte de
los autores de referencia en el ámbito de la teoría sociológica. Sin embar-
go, resulta difícil separar con claridad en las teorías que se recogen en el
referido texto las que contienen generalizaciones e información de carác-
ter científico, en el sentido de contrastabilidad a que se refiere Mario
Bunge, de aquellas otras teorías que, más allá de su valor intelectual, de
su originalidad y corrección filosófica, no son teorías contrastables en el
sentido que explicita este autor y que se trata en el presente capítulo.
Y es que una explicación racional-no científica u ordinaria puede ser
incluso más correcta e intelectualmente atractiva y estimulante que una
explicación racional científica, pero no es esto lo que centra nuestra aten-
ción en este capítulo al referirnos a la observación científica, pues «la
ciencia no tiene el monopolio de la verdad, sino de los medios de some-
ter la verdad a prueba y reforzarla» (Bunge, 1979: 568). La explicación
racional ordinaria también puede ser interesante y estimulante porque de
su estudio se puede obtener información adicional acerca de lo que no es
ciencia, e incluso porque puede presentarse en la práctica de ésta. Pero
siempre ha de quedar clara la diferencia entre un tipo u otro de explica-
ción: la ordinaria es extrasistemática, pues no tiene lugar en el seno de
algún sistema conceptual contrastable y perfectible, en tanto que la expli-
cación científica es siempre sistemática al producirse en el seno de un sis-
tema conceptual que sí es contrastable y perfectible.
La relativa escasez de explicaciones científicas contrastables en el ám-
bito de la sociología y, en general, en el ámbito más amplio de las cien-
cias sociales, puede ayudar a comprender la vigencia del modelo de tra-
bajo metodológico que estableciera el economista y filósofo inglés John
Stuart Mill en su fundacional y clásica obra, titulada escuetamente Lógi-

157
La articulación de la investigación social

ca (1843), al sintetizar las ideas metodológicas sobre «las condiciones ge-


nerales para la averiguación de la verdad», unas ideas que contribuyeron
a establecer un plan programático para las ciencias sociales (Nagel, 1950: 3),
y que continúan manteniendo su vigencia en estas primeras décadas del
siglo xxi. Y es que la preocupación básica de Mill fue la de extraer con-
clusiones válidas a partir de los datos, esto es, avanzar en la mejora del
análisis de éstos, dejando en segundo plano la producción y obtención de
tales datos, una situación que ya Costner, al hacer un balance de la meto-
dología sociológica a comienzos de la década de los setenta del pasado
siglo, concluyera que «el conocimiento metodológico en relación a la
producción de datos continúa sin estar sistematizado» (Costner, 1971: X).
Una falta de sistematización que estaría originada por el relativamen-
te escaso número de teorías sociológicas científicamente contrastables en
comparación con el predominio de teorías sociológicas que, a pesar de su
mayor número y difusión, en algunos casos no favorecen precisamente o
ni siquiera permiten la contrastabilidad científica. Una situación que
conduce inevitablemente al estancamiento relativo de la observación so-
ciológica, como práctica favorecedora de procedimientos de producción
y obtención de nuevos datos sociológicos, en comparación con el ámbito
del análisis de datos que no deja de verse estimulado por el avance de
nuevas tecnologías informáticas y computacionales, así como por el cre-
cimiento exponencial de información estadística de todo tipo.
Se puede afirmar, pues, que la relativa escasez de teorías contrastables
es, en buena medida, un rasgo característico en todos los debates teóricos
que han venido acompañando al avance de la institucionalización acadé-
mica y científica de la sociología en el último siglo. Lo que ha conducido
a que una vez aceptados y consolidados como referenciales los tres para-
digmas teóricos y metodológicos clásicos de Marx, Durkheim y Weber
(Morrison, 1995; García Ferrando, 2014, e. o. 1980), la disputa sobre el
método de la sociología empírica y la subsiguiente propuesta de teorías
sociológicas sobre el avance de la modernidad, primero en la sociedad in-
dustrial, más tarde en la sociedad postindustrial y en la actualidad en la
sociedad de la información y del conocimiento, hayan venido acompaña-
das de debates metodológicos que no han cambiado sustancialmente
desde que la concepción científica del mundo del Círculo de Viena se en-
frentara a otras propuestas teóricas sociológicas más especulativas y me-
nos interesadas en la contrastación empírica de sus construcciones con-
ceptuales.
Una sencilla anécdota puede muy bien ejemplificar lo que represen-
tan estas dos formas contrapuestas de entender la sociología y que,

158
5. Observación sociológica, realidad y reflexividad

como veremos seguidamente, continúan caracterizando en cierto modo


el debate teórico y metodológico de la sociología occidental desde las
últimas décadas del siglo xx hasta las primeras del siglo xxi. Como cita
el propio Paul Lazarsfeld en uno de sus últimos libros (Lazarsfeld,
1972), un antiguo estudiante suyo y de C. Wright Mills en la Universi-
dad de Columbia en Nueva York, a mediados de los años cincuenta del
siglo xx, dijo una vez lo siguiente: «Una de mis fantasías favoritas es un
diálogo entre Mills y Lazarsfeld en el que el primero lee al segundo el
primer párrafo de la Imaginación Sociológica del propio Mills: “Hoy en
día los hombres advierten con frecuencia que sus vidas privadas son una
serie de trampas…”. A lo que Lazarsfeld replica inmediatamente:
“Cuántos hombres, qué clase de hombres, desde cuándo se sienten así”».
No resulta difícil imaginar que las respuestas que podría dar actual-
mente un sociólogo orientado metodológicamente por la concepción
científica que sostiene Mario Bunge, ante las propuestas teóricas de bue-
na parte de los sociólogos contemporáneos que vienen reflexionando so-
bre el avance de los procesos de globalización, como, por ejemplo,
Anthony Giddens y el mundo desbocado (Giddens, 2000), Ulrick Beck y
la sociedad global del riesgo (Beck, 1998), Castells y la sociedad en red
(Castells, 2006), Bauman y la modernidad líquida (Bauman, 1999 y
2013), o Edgar Morin y el abismo de la globalización (Morin, 2010), po-
drían estar dadas muy probablemente de manera parecida a la respuesta
imaginada de Lazarsfeld: ¿cuándo comenzó el mundo a desbocarse y con
qué efectos?, ¿qué tipo de riesgos vienen acompañando al avance de la
globalización?, ¿cuándo y cómo comenzaron a tejerse las redes del capi-
talismo global y con qué efectos?, ¿hacia qué tipo de abismos nos condu-
ce la globalización?, ¿cuándo y cómo comenzó a licuarse la sociedad de
la modernidad sólida?
Y es que el enérgico rechazo de Robert K. Merton a mediados del si-
glo xx a la propuesta parsoniana de una gran teoría sociológica de corte
funcionalista, proponiendo, en cambio, como la mejor manera de hacer
progresar el conocimiento sociológico, la elaboración «de un gran núme-
ro de teorías específicas para ciertos tipos de fenómenos y en explorar
sus relaciones mutuas» (Merton, 1948: 165), continúa manteniendo toda
su actualidad y vigencia en las primeras décadas del siglo xxi, del mismo
modo que ocurre con otra propuesta mertoniana de impulsar orientacio-
nes teóricas de alcance intermedio y de llevar a cabo investigaciones que
se limitaran a los problemas de verificación empírica (Merton, 1964: 73).
Parece, pues, razonable y conveniente que continuemos centrando
nuestra atención en un libro de texto como éste, dedicado al estudio de

159
La articulación de la investigación social

los métodos y técnicas de investigación social, en el tipo de observación


sociológica que comparte con el estudio de la observación en el resto de
ciencias sociales y naturales el carácter estrictamente científico de sus
procedimientos de trabajo, basados en teorías contrastables que puedan
ser corroboradas empíricamente (Popper, 1967: 256).

4.1  El método general de la ciencia

Suele ocurrir con alguna frecuencia que los científicos, en su trabajo in-
vestigador, no se preocupen especialmente por explicitar y sistematizar
las reglas del procedimiento científico que utilizan. Como señalara Tho-
mas Kuhn en su ya clásica obra La estructura de las revoluciones científi-
cas (Kuhn, 1975, e. o. 1962), no se llega a ser consciente con frecuencia
de cuestiones metodológicas y teóricas básicas hasta que fracasan el mé-
todo y la teoría dominantes. Y posiblemente estemos asistiendo actual-
mente, con el avance de la revolución digital, como han puesto de mani-
fiesto en un capítulo anterior Pablo Navarro y Antonio Ariño, a un
momento crucial por lo que se refiere a la diferencia que existe entre
ciencia y no-ciencia en el ámbito de la sociología. Una diferencia que
como hemos visto anteriormente tiene su origen en el adecuado uso del
método científico, un método que en sus elementos básicos es general
para todas las ciencias, y que se complementa con los métodos especiales
que van desarrollando en el correspondiente trabajo investigador las
ciencias particulares.
Quizás no se suele prestar suficiente atención en los debates metodoló-
gicos a la propuesta de Mario Bunge (1979: 8-40) de clasificación de las
ciencias, y la correspondiente diferenciación entre el método general de to-
das ellas y los métodos especiales de cada ciencia particular. Por eso con-
viene recordar que por lo que se refiere a los tipos de ciencia, la primera y
básica clasificación se refiere a la que corresponde al ámbito del estudio,
esto es, a las que sólo estudian ideas, que es el ámbito de las ciencias forma-
les, y las que estudian, por su parte, hechos, que es lo propio de las ciencias
factuales. La lógica y la matemática son ciencias formales, pues no se refie-
ren a nada que se encuentre en la realidad, mientras que el resto de las
ciencias, tales como la física, la biología, la sociología o la historia de
las ideas, por ejemplo, son ciencias factuales, pues se refieren a hechos que
se supone ocurren en el mundo, por lo que tienen que recurrir a la expe-
riencia para contrastar sus conceptos, proposiciones y teorías sobre los he-
chos de los que se ocupan.

160
5. Observación sociológica, realidad y reflexividad

En esta clasificación de las ciencias, el método general de la ciencia se


refiere al modo de tratar problemas intelectuales, no cosas, ni instrumen-
tos, ni personas, por lo que puede, y debe, utilizarse en todos los campos
del conocimiento. Pero al pasar al ámbito de las variadas y cada vez más
numerosas ciencias factuales, la naturaleza del objeto estudiado, sea la
sociedad, las plantas, los animales, el cosmos, la historia de las ideas, el
impacto de la revolución digital, o cualquier otro ámbito del mundo real,
dicta los posibles métodos especiales de cada ciencia particular, una di-
versidad de métodos que se manifiesta al atender a los objetos y técnicas
particulares de cada ciencia, pero que desaparece, conviene insistir en
ello, en cuanto se llega al método general que subyace a todas aquellas
técnicas. Un método científico general que parte de teorías contrastables,
que orientan la producción de datos científicos mediante procedimientos
observacionales que son propios de cada tipo de ciencia, sea de índole
natural o de índole social.
Pero antes de centrarnos en el estudio de los métodos particulares que
son propios de la sociología, puede ser conveniente dedicar un poco más
de atención al método general de la ciencia tal como propusiera el soció-
logo vienés Otto Neurath hace casi un siglo, propuesta que mantiene to-
talmente su vigencia si se pretende avanzar en la consolidación de la so-
ciología como ciencia y profesión, tratando de superar ese sentimiento
profundo de ilegitimidad científica que, como ha señalado más reciente-
mente el sociólogo francés François Dubet, continúa estando difundido
en el campo de las ciencias sociales en general y en el ámbito de la socio-
logía en particular, «porque no se está seguro de estar haciendo ciencia»
(Dubet, 2012: 29).
Para Neurath, la concepción científica del mundo se encuentra co-
nectada profundamente con un modo de pensamiento que descansa en
la experiencia y rechaza la especulación (Neurath 1973, e. o. 1931: 319 ss).
El trabajo de investigación en todas las ramas de la ciencia está mejor
caracterizado por sus actitudes básicas, sus puntos de vista y la direc-
ción de la investigación, y no tanto por tesis que les sean propias. Y
todo ello orientado a la unificación de la ciencia y a la armonización de
los logros de los investigadores en sus diversos campos científicos, sin
olvidar, como señala Neurath, que en la ciencia no existen «profundi-
dades», pues en su búsqueda de claridad, la ciencia empírica rechaza
las distancias oscuras y las profundidades insondables. Todo es asequi-
ble al hombre; y el hombre es la medida de todas las cosas. En esto
existe, según Neurath, una afinidad con los sofistas y no con los plató-
nicos; con los epicúreos y no con los pitagóricos, y con todos aquellos

161
La articulación de la investigación social

que adoptan una posición terrenal en el aquí y ahora. La concepción


científica del mundo no conoce, pues, enigmas sin solución. La clarifi-
cación de los problemas filosóficos tradicionales conduce en parte a
desenmascararlos como seudoproblemas, a transformarlos parcialmen-
te en problemas empíricos y a someterlos al criterio de la ciencia (Neurath,
1973: 306).
El método de este trabajo de clarificación para Neurath es el análisis
lógico de Bertrand Russell, que se ha deslizado gradualmente en la filo-
sofía mediante el escrutinio lógico de las matemáticas, y que según el
propio Russell representa el mismo tipo de avance que introdujera Gali-
leo en la física, como es la sustitución de generalidades amplias y no veri-
ficadas surgidas por un cierto recurso a la imaginación, por resultados
fragmentados, detallados y verificables (Neurath, 1973; Russell, 1976).
Es precisamente el método del análisis lógico lo que diferencia en esencia
el empiricismo del Círculo de Viena de la versión anterior de empiricis-
mo, que tenía una orientación más psicológico-biológica. Si alguien afir-
ma que «existe un Dios», no se le dice que su afirmación es falsa o verda-
dera sino que se le pregunta qué es lo que significa esa afirmación. Se
trata de evitar de este modo, según Neurath, debates metafísicos y, en su
lugar, formular afirmaciones sobre lo que es dado empíricamente en tér-
minos sociológicos o psicológicos, puesto que una descripción científica
sólo puede contener la estructura (forma del orden) de los objetos, pero
no «su esencia».
Cada rama de la ciencia debe orientarse en su desarrollo al examen
epistemológico de sus fundamentos y al análisis lógico de sus conceptos.
Insiste Neurath en que para el caso de las ciencias sociales y especial-
mente para la sociología, hay que evitar las consideraciones metafísicas,
porque su objeto de estudio son las personas y las cosas, y los modos en
que se ordenan entre sí. Una sociología que se ocupa tanto de relaciones
entre las personas y de sus relaciones con su entorno como de los com-
portamientos que se pueden observar y «fotografiar» científicamente
(Neurath, 1973: 361). Y dado que es cierto que se dispone de pocas leyes
sociológicas generales, habrá que seguir recurriendo a leyes sobre el com-
portamiento individual y a otras leyes, pero siempre tratando de encon-
trar maneras de trabajar con evidencias empíricas, al tiempo que se va
avanzando en el estudio de la composición de los grupos de individuos
con sus costumbres y entornos socioculturales correspondientes. Bastará
con estudiar los cambios que se van produciendo en cada entorno socio-
cultural para así poder explicar las diferencias observables entre unos
grupos (o sociedades) y otros.

162
5. Observación sociológica, realidad y reflexividad

Una tarea fundamental de la sociología consiste, pues, en focalizar


grupos con ciertos hábitos y costumbres que manifiestan una estructura
definitiva a pesar de los cambios individuales, así como determinar agru-
paciones peculiares de costumbres y establecer las relaciones que existen
entre ellas. Si bien reconoce Neurath que todavía los sociólogos no han
sido capaces de clasificar los hábitos de los diferentes grupos sociales,
por lo que habrá que comenzar por el establecimiento de catálogos de
hábitos y costumbres, separando los que tienen una base técnica de
aquellos otros que son hábitos tradicionales (Neurath, 1973: 374). Por
eso la sociología debe avanzar científicamente, interesándose por la vida
activa y concreta.

5. La observación de hechos y la construcción de datos


sociológicos

En el contexto de la concepción científica del mundo la observación


científica, en tanto que procedimiento empírico básico y como el tipo
más simple de experiencia científica, tiene como objeto un hecho actual;
y el producto de un acto de observación científica es un dato, esto es, una
proposición singular o existencial que expresa algunos rasgos del resulta-
do de la acción de observar. Se ofrece, pues, un orden natural, el orden
hecho-observación-dato.
Conviene recordar que hay dos tipos de objetos: los objetos ideales
que se denominan ideas y aquellos otros que se refieren a objetos concre-
tos que se denominan hechos. Ya vimos anteriormente que las ciencias
formales, como la lógica o la matemática, se ocupan de ideas y, en conse-
cuencia, manejan conceptos, fórmulas y teorías como sistemas de fórmu-
las, en tanto que las ciencias factuales como la sociología se ocupan de
hechos, esto es, de todo aquello de lo que se sepa o se suponga, con algún
fundamento, que pertenece a la realidad. De acuerdo con este criterio
son hechos, por ejemplo, un libro y el acto de leerlo, pero no las ideas ex-
presadas en él; las ideas se convierten en hechos, en este caso, gracias exclusi-
vamente a que son pensadas e impresas. Ideas que también pueden utili-
zarse para dirigir la atención a la observación de hechos concretos
(Bunge, 1979: 717).
Conviene recordar, una vez más, que la observación científica, a dife-
rencia de la observación natural o en bruto, es selectiva e interpretativa;
es selectiva al tener una finalidad concreta, y es también interpretativa

163
La articulación de la investigación social

porque es ilustrada, al estar basada en un sistema conceptual. Para el


caso de la sociología, el papel de las ideas en la observación es bien ma-
nifiesto, ya que la mayoría de los conceptos sociológicos básicos, como
por ejemplo clase social, ideología, valores, grupo de referencia, sociali-
zación primaria, exclusión social, secularización, ambivalencia sociológi-
ca, desigualdad social y tantos otros, sólo son observables de manera in-
directa, un tipo de observación que sólo es posible mediante y a través de
una teoría. Y en consecuencia, cuanto más precisa sea la teoría, tanto
más rigurosa será esa inferencia.
En el capítulo anterior sobre perspectivas de la investigación social,
Jesús Ibáñez se apoya en el conocido libro de Bourdieu, Chamboredon y
Passeron (1976) sobre el oficio de sociólogo para presentar las operacio-
nes que se utilizan para el dominio científico de los hechos sociales. A su
vez, estos tres sociólogos se inspiraron en la contundente afirmación de
Bachelard (1949) de que el hecho científico se conquista, se construye y se
comprueba. Pese a la etimología del término «dato» (del latín datum, lo
que se da), los datos sociológicos, al igual que el resto de los datos cientí-
ficos, no son nada dado, ya que más bien hay que producirlos. Lo cual
no significa, como señala Bunge (1979: 742), que no sea posible la exis-
tencia de hechos objetivos, pues la mayor parte de los hechos existen por
sí mismos. Pero para apresarlos, esto es, para convertirlos en objetos del
conocimiento, el científico tiene que recurrir a variados e imaginativos
procedimientos, que los sitúen sobre el fondo de un conocimiento espe-
cializado que, a veces, puede sugerir ciertas hipótesis que es necesario
contrastarlas buscando («construyendo») nuevos datos. Unos datos que
una vez producidos («recogidos») podrán ser utilizados como evidencia
en favor o en contra de la hipótesis formulada.
Antes de llevar a cabo una observación tratando de producir eviden-
cias, hay que dejar claro qué clase de datos se van a considerar como evi-
dencias, pues de no precisarlos por anticipado se abre camino a aceptar
teorías sin rigor y a debates con escaso provecho científico. Así, por
ejemplo, un sociólogo no aceptará como evidencia conclusiva en favor de
una teoría sobre el cambio en un período determinado de las condicio-
nes de trabajo en un sector empresarial concreto los informes emitidos
por los sindicatos y por la dirección empresarial a lo largo del período
estudiado, ya que son, en principio, incontrolables. Por eso, el sociólogo
tendrá que explicitar previamente el tipo de datos que debe obtener, con
el fin de fundamentar una formulación científica sobre los cambios que
han tenido lugar, en este caso, en las condiciones de trabajo del sector
empresarial investigado.

164
5. Observación sociológica, realidad y reflexividad

A veces, las teorías científicas se proponen originalmente sin suficiente


evidencia empírica, pero una vez formuladas pueden mover a científicos
del campo en cuestión a buscar datos para confirmarlas o rechazarlas.
Esto es lo que ocurrió con los primeros escritos de Darwin (The Descent
of Man, 1871; El origen de las especies, 1988), que propuso la teoría so-
bre la evolución del hombre sin aportar evidencia empírica directa, aun-
que desde entonces no ha cesado la aportación de nuevos hallazgos con-
firmatorios de esta trascendental teoría para la biología moderna. Y esto
mismo bien podría ocurrir con algunas de las teorías sociológicas citadas
anteriormente sobre el avance de la globalización desde las últimas déca-
das del siglo xx, en el caso de que impulsaran a los sociólogos actuales a
buscar nuevas evidencias relevantes para su contrastación empírica, lo
que exigiría enfatizar la contrastabilidad de sus formulaciones originales.
Una contrastabilidad que tendría que seguir la propuesta de Merton de
desarrollar teorías de alcance medio para ámbitos concretos de la reali-
dad social, o bien habría que plantear proposiciones teóricas, convenien-
temente formalizadas, sobre el tipo de cambio social que está impulsan-
do la globalización. Unas proposiciones que deberían permitir, en
cualquier caso, la elaboración de hipótesis contrastables.

5.1  Observabilidad, objetificación e hipótesis de investigación

En el proceso de observación pueden reconocerse esencialmente cinco ele-


mentos: el objeto de la observación, el sujeto u observador, las circunstancias
de la observación (entorno o medio ambiente del objeto y del sujeto), los
medios de observación (sentidos, instrumentos auxiliares y el sujeto), y el
cuerpo de conocimiento en el cual se encuentran relacionados los elementos
anteriores. Los medios de observación y el cuerpo de conocimiento los
agrupa Bunge bajo la denominación de instrumentos de observación (con-
cretos y conceptuales), lo cual deja el proceso de observación con cuatro
elementos (Bunge, 1979: 729). La observabilidad, como concepto que trata
de especificar qué es objetivamente observable, depende de que se dispon-
ga de un instrumento registrador x, con un conjunto de circunstancias y,
así como un conjunto de instrumentos de observación z. Con ello, puntua-
liza Bunge, no se elimina al sujeto, sino más bien se reduce la posibilidad
de algunas de las ilusiones perceptuales de éste.
El papel de las ideas en la observación científica es especialmente ma-
nifiesto en el caso de los objetos indirectamente observables, esto es, en el
caso de inferencia desde el síntoma a la causa por medio de hipótesis de

165
La articulación de la investigación social

investigación. Así, por ejemplo, una manifestación de personas que pro-


testa en demanda de algún servicio social revela la existencia de una ca-
rencia o disfunción en el funcionamiento de dicho servicio; la aglomera-
ción de personas retirando sus fondos en un banco revela la pérdida de
confianza de los clientes en su gestión financiera; cuando en unas elec-
ciones una formación política de reciente creación obtiene un resultado
destacado e inesperado que se aproxima o supera los resultados obteni-
dos por partidos políticos establecidos, revela la existencia de un desen-
canto social en un segmento importante del electorado, etc.
El hallazgo de indicios u objetivadores de cosas o acontecimientos
ocultos es una importante tarea de la ciencia, una tarea anterior a la ob-
servación, la cual, a su vez, somete a prueba la conjetura de que esos ob-
jetos directamente observables son, en realidad, manifestaciones de
otros. Puede decirse que una propiedad observable es un índice fiable de
otra propiedad sólo en el caso de la existencia de una relación determina-
da y constante entre ambas, de tal modo que todo cambio observable de
la primera pueda interpretarse como, o atribuirse a, un cambio determi-
nado de la segunda. La propiedad cuya existencia o cuyo valor se infiere
de este modo se denomina propiedad indirectamente observable. Así, pues,
la observación indirecta sólo es posible a través de y por medio de la teo-
ría, una teoría que cuanto más precisa sea, permitirá hacer inferencias
más fiables.
Habida cuenta, pues, de que la mayoría de los hechos acerca de los
cuales sabemos algo no son observables directamente sino de modo vica-
rio, esto es, sólo pueden inferirse a través de la mediación de hechos per-
ceptibles y por medio de hipótesis, ha conducido a que sea una práctica
habitual la objetificación de hechos inobservables mediante el estableci-
miento de la relación de estos hechos con otros hechos perceptibles, que
sirven como indicadores de los primeros, partiendo de la suposición de
que los acompañan o son responsables de su existencia. La afirmación o
supuesto de que efectivamente se cumple una relación legítima entre los
hechos observables y los hechos inobservables es una hipótesis, aunque
suele decirse por una misteriosa razón, puntualiza Bunge con cierta iro-
nía, que es una definición operativa u operacional (Bunge, 1979: 737).
De este modo, la relación objeto-indicador, que es una relación física, se
expresa por una hipótesis de investigación que permite inferir el objeto a
partir de observaciones llevadas a cabo sobre un indicador.
En buena medida, los axiomas de las teorías científicas, a diferencia
de la evidencia empírica relevante para ellos, no suelen referirse directa-
mente a hechos observables. Inferimos el estatus o posición social de una

166
5. Observación sociológica, realidad y reflexividad

persona por la forma en que se viste, por el lugar en que vive, por el au-
tomóvil que conduce, por su manera de manifestarse y por otros muchos
indicadores objetivos de estatus social, que es en sí mismo inobservable.
Por eso, dada la hipótesis de que «el sujeto y pertenece a la clase social A
en la jerarquía social dominante en su sociedad», se puede contrastar
mediante la observación de ciertas propiedades del sujeto y, utilizándose
estos datos como evidencia para dicha hipótesis porque aceptamos cier-
tas generalizaciones referentes a la relación entre los indicadores y el es-
tatus social. Así pues, en el ámbito de la ciencia, esas relaciones entre in-
dicadores y las correspondientes variables inobservables son postuladas
por la teoría, y se someten a prueba de modo independiente en la medida
de lo posible.

6.  Principios generales de la observación sociológica

En el campo de la sociología, al igual que en cualquier otro campo cien-


tífico, las observaciones de carácter científico están sometidas a una serie
de normas o reglas de funcionamiento. Galtung, en un texto referencial
sobre teoría y métodos de investigación social, señala los tres principios
que ha de satisfacer toda observación científica: a) el principio de la in-
trasubjetividad o fiabilidad, que hace referencia a que la observación re-
petida de las mismas respuestas por el mismo observador debe producir
los mismos datos; b) el principio de la intersubjetividad, que se refiere a
que la observación repetida de las mismas respuestas por parte de dife-
rentes observadores debe producir los mismos datos; y c) el principio de
la validez, que destaca el hecho de que los datos deben obtenerse de tal
manera que se puedan realizar inferencias legítimas desde el nivel mani-
fiesto al nivel latente (Galtung, 1967: 29). En realidad, los principios de
fiabilidad y validez son de aplicación universal a toda actividad científica
que implique operacionalización de conceptos y medida de atributos.
En otro texto también referencial para la sociología empírica, René
Köning sostiene que el supuesto más general para el desarrollo científico
de la observación sociológica es el principio de la constancia de la obser-
vación. Un principio que se refiere al afianzamiento de la constancia de
un fenómeno como precedente a toda observación planificada, de tal
manera que se libere su percepción tanto de las engañosas ilusiones de la
evidencia íntima (peligro que corre constantemente la intuición fenome-
nológica al pretender prescindir de la realidad) como de la difusa expe-

167
La articulación de la investigación social

riencia del simple mirar sin concentración. El control de la constancia es


posible a través de: 1) la repetición de actos orientados de observación;
2) la repetición de actos de observación por otras personas que observan
el mismo fenómeno, bien al mismo tiempo o bien en momentos diferen-
tes al propio observador; 3) esto último se realza al recurrir a otros mate-
riales, por ejemplo, resultados de observaciones anteriores que han que-
dado registradas por escrito (Köning, 1973: 145).
Por otro lado, hay que señalar que la observación científica no se pue-
de hacer como observación aislada, sino como una serie de observacio-
nes que aseguren la constancia y consistencia del fenómeno. Este princi-
pio ya fue enunciado por Durkheim en la siguiente regla: «No tomar
jamás como objeto de investigaciones sino un grupo de fenómenos defi-
nidos previamente por ciertos caracteres exteriores que le son comunes, e
incluir en la misma investigación a todos los que corresponden a esta de-
finición» (1972, e. o. 1895: 67). La existencia de lo que llamara Durkheim
«representaciones colectivas», esto es, de normas sociales como se diría
en nuestro lenguaje actual, asegura la existencia de fenómenos sociales
estructurados o realidades sociales que, referidas a conjuntos de indivi-
duos, poseen existencia propia. La existencia de «realidades sociales»
más allá de la voluntad individual es lo que permite que siga vigente otra
regla relacionada con la observación de los hechos sociales que enuncia-
ra hace un siglo Durkheim: «Cuando el sociólogo se propone explorar
un orden cualquiera de hechos sociales, debe esforzarse por abordarlos
desde un ángulo en que se presenten aislados de sus manifestaciones in-
dividuales» (1895: 77).
Además del principio de la constancia en la observación, hay que con-
siderar otros dos principios que completan la teoría de la observación
que propone Köning: el principio de control y el principio de orientación
dirigida de los actos de observación científica. El principio de control se re-
fiere a los requisitos necesarios para un refinamiento planificado de
nuestras observaciones por medio de técnicas de observación especial-
mente desarrolladas para ello, en orden a que la observación tenga ca-
rácter científico. La necesidad de someterse a un control estricto es parti-
cularmente necesaria en el campo de la sociología, por la especial
relación que se produce entre observador y observado, como ya hemos
señalado anteriormente en este mismo capítulo al referirnos a la reflexi-
vidad en el apartado 3. Las normas del grupo que internalizan los soció-
logos a lo largo de sus propios procesos de socialización les proporcio-
nan unas estructuras de orientación que si bien son completamente
necesarias para que puedan desenvolverse en el seno del grupo, pueden

168
5. Observación sociológica, realidad y reflexividad

resultar perjudiciales a la hora de interpretar las conductas de los demás.


A este efecto se le suele llamar comúnmente el sesgo del observador (Si-
mon, 1969: 86), y debe reducirse al mínimo con el fin de hacer posibles
los principios de la intrasubjetividad y de la validez.
El propio Simon propone dos caminos para contrarrestar el casi inevi-
table sesgo sociocultural del observador: las «tácticas» desarrolladas con la
práctica de la investigación social y la clarificación teórica. Las «tácticas»
más válidas se decantan al ser utilizadas en el proceso de la investigación,
mientras que la clarificación teórica es condición previa para todo acto de
investigación. El recurso a la vigilancia epistemológica que propone Bour-
dieu como la mejor manera de neutralizar los determinismos específicos
de los sociólogos sería en tal sentido la «táctica» más válida que puede se-
guirse para neutralizar el referido sesgo del observador. A este respecto, Kö-
ning señala que «sólo podrá realizarse el progreso del conocimiento por
medio de un ir y venir en ciertas circunstancias entre la orientación del
mundo del actor, por una parte, y del observador científico, por otra»
(1973: 147). Para hacer con provecho tales idas y venidas en sociología,
sólo existe un medio que no es otro que la continua referencia de la obser-
vación a la estructura conceptual analítica de cada teoría sociológica. Es
así como Köning formula el principio de orientación dirigida de los actos de
observación científica, en el que se basa el axioma general de la metodolo-
gía sociológica: «No puede existir una observación científica sin previas
discusiones teóricas» (1973: 148).
La idea de la conceptualización teórica como un acto previo al de la
observación es congruente con la concepción de la moderna filosofía
postanalítica de la ciencia (Popper, Kuhn, Hanson, Feyerabend), a la que
nos hemos referido en el apartado 2 de este mismo capítulo, que acepta
que la realidad no es repetible ni reproducible directamente, sino tan sólo
reconstruible desde una cierta posición teórica.

7.  Tipos de observación sociológica

Siguiendo los esquemas propuestos por Köning (1973: 154) y Duverger


(1962: 113-114) se pueden utilizar dos criterios diferentes para establecer
los diversos tipos de observación sociológica: la posición del material de
la observación respecto a la realidad y la posición del observador respec-
to a dicha realidad.
En base a la posición del material de la observación distinguiremos
entre la observación directa y la observación indirecta, mientras que en

169
La articulación de la investigación social

base a la posición del observador distinguiremos entre la observación


participante y la observación no participante. Combinando ambos crite-
rios se obtienen los siguientes tipos de observación:

1) La observación directa participante. Se trata de una observación


global en la que el observador interviene en la vida del grupo,
participando en mayor o menor grado en sus actividades. Cuando
la participación es claramente activa, se tiene el método de traba-
jo preferentemente utilizado por los antropólogos sociales en su
campo de trabajo, pero si la participación es pasiva, el observador
se limita al papel de espectador, «si bien de un espectador que se
ve, por la fuerza de los acontecimientos, incorporado al espectá-
culo que se encuentra en escena entre los actores» (Duverger,
1962: 330).
2) La observación directa no participante, que conviene diferenciar de
la observación extensiva o encuesta de la observación intensiva de
pequeños grupos o individuos aislados. Algunos autores, tales
como el propio Duverger, denominan a estas formas de obtención
de datos métodos de interrogación, ya que la información se obtie-
ne mediante el cuestionamiento, oral o escrito, de los individuos.
3) La observación indirecta, que, por su propia definición, no puede
ser participante o no participante. Corresponde a la observación
indirecta el empleo de documentos y, en general, todo tipo de ma-
teriales escritos, tanto de naturaleza cuantitativa como cualitativa.

En la observación directa, resulta a veces difícil precisar las diferen-


cias que separan una técnica u otra de observación, pues como ya señaló
en su momento Duverger, «existen técnicas con modalidades semejantes
que son comunes a la observación intensiva y a la extensiva; por ejemplo:
las entrevistas mediante cuestionarios utilizados en las encuestas extensivas
(por sondeos) son una variedad particular de la técnica general de las en-
trevistas muy empleadas en la observación intensiva» (Duverger, 1962: 114).
Las historias de vida también se pueden considerar como un caso límite
de obtención de datos que se apoya en la observación no participante in-
tensiva y en la observación participante. Pero más que buscar un esque-
ma de clasificación que integre exhaustivamente todas las variantes exis-
tentes de observación, lo importante es diferenciar analíticamente unas
técnicas de investigación de otras, aunque en la práctica de la investiga-
ción se utilicen las técnicas de una manera más amplia y flexible, y a ve-
ces entrecruzada.

170
5. Observación sociológica, realidad y reflexividad

Otro tipo de observación que goza de una larga tradición en el desa-


rrollo de la investigación social es la observación sistemática y estructura-
da de fenómenos sociales que tienen lugar espontáneamente o son provo-
cados por el investigador. En concreto se refiere a la observación y
registro, de acuerdo con procedimientos explícitos, de acciones sociales y
comportamientos previamente especificados. Tanto la observación en sí
como el registro de los hechos observados deben adaptarse a unas reglas
de procedimiento que, al seguirlas, permiten el uso de la lógica de la infe-
rencia científica y satisfacen los principios de intrasubjetividad, de inter-
subjetividad y de validez de la observación científica.
Las diversas técnicas e instrumentos diseñados para realizar observa-
ción sistemática y estructurada suelen medir, por lo general, la forma,
duración, frecuencia, antecedentes y consecuencias de comportamientos
individuales y de estructuras sociales, y también las relaciones que se es-
tablecen entre comportamientos, actitudes y estructuras sociales (Smith,
1975: 201). Se pueden observar sistemática y estructuralmente fenóme-
nos sociales naturales, esto es, sucesos y sus consecuencias, incluyendo
las propiedades de las organizaciones sociales, que pueden ser observa-
dos directamente según tienen lugar, como, por ejemplo, el comporta-
miento de los trabajadores industriales en las salas de montaje estudiado
por Elton Mayo (1946), o fenómenos sociales provocados, esto es, suce-
sos y sus consecuencias que tienen lugar en un entorno seleccionado por
el investigador, en el que los actores sociales se comportan según unas re-
glas establecidas previamente por el propio investigador. Éste sería el
caso de los estudios de interacción social en pequeños grupos conduci-
dos por R. R. Bales en la «habitación de observaciones» del Laboratorio
de Harvard (Bales, 1950).
La Escuela de Chicago de sociología urbana ofrece otro excelente
ejemplo de utilización de la observación sistemática, estructurada y di-
recta del comportamiento social de los residentes en entornos urbanos
(Park y Burguess, 1921), especialmente por lo que se refiere a entornos o
barrios populares y problemáticos. Se trata de una tradición de investiga-
ción sociológica que se había visto superada a partir de los años cuarenta
y cincuenta del siglo xx por el estudio, mediante la realización de encues-
tas, de la percepción y valoración de los residentes en barrios problemáti-
cos sobre los desórdenes y problemas sociales dominantes, pero que to-
davía trata de mantener vivo su espíritu de implicación directa con los
problemas sociales urbanos mediante la realización de estudios de cam-
po que recuperan un estilo de investigación sociológica más participati-
va, personal y directa.

171
La articulación de la investigación social

Éste es el caso de la investigación llevada a cabo en la última década


del siglo xx por miembros del Departamento de Sociología Urbana de la
Universidad de Chicago (Samson y Raudenbusch, 1999) sobre los oríge-
nes y consecuencias de las alteraciones del orden público en barrios pro-
blemáticos de la ciudad de Chicago. Partiendo de una teoría sobre la efi-
cacia colectiva y las restricciones estructurales de las políticas urbanas de
los últimos años dirigidas a aminorar los desórdenes públicos y tasas de
criminalidad, el trabajo de campo emprendido condujo a la grabación en
vídeo de escenas de la vida cotidiana en 23.000 tramos de calle de barrios
problemáticos de la ciudad de Chicago. Estas grabaciones permitieron
disponer de un registro permanente susceptible de ser codificado y rein-
terpretado, con el que se elaboraron escalas de desorganización física y
social en 196 barrios de la ciudad. Además, se utilizaron datos censales,
informes policiales, y también se llevó a cabo una encuesta entre 3.500
residentes en los barrios estudiados. El resultado de estos «esfuerzos he-
roicos en la recogida de datos», en palabras de los directores de la inves-
tigación (Samson y Raudenbusch, 1999: 605), ha sido una reformulación
teórica y la propuesta de recomendaciones prácticas dirigidas a reorien-
tar las políticas urbanas en la ciudad de Chicago en los comienzos del si-
glo xxi.

8. Coda: el papel de la sociología en el fortalecimiento


del método científico

A lo largo de las páginas anteriores hemos argumentado sobre las rela-


ciones entre la realidad, la reflexividad y el método científico, con aten-
ción muy especial hacia la observación y los rasgos metodológicos nece-
sarios para que dicha observación alcance la etiqueta de científica en la
disciplina sociológica. La conclusión principal que puede obtenerse es
que, a lo largo del siglo xx y hasta el presente, se ha producido una tran-
sición desde una posición hegemónica del neopositivismo, que tuvo un
protagonismo central en la consolidación y progreso del conocimiento
científico sobre la realidad física y social, a una situación mucho más
plural y compleja de perspectivas y corrientes en los distintos niveles de
la ontología, la epistemología y la metodología.
Pero con independencia de si, en el plano ontológico, la realidad pue-
da entenderse como objetiva o intersubjetiva y reflexiva, o de si en el ám-
bito epistemológico el conocimiento de la misma se contemple como ra-
cionalista o relativista, el resultado final sigue siendo el mantenimiento

172
5. Observación sociológica, realidad y reflexividad

de un corpus normativo de reglas metodológicas que, asumiendo y ha-


ciendo frente a la reactividad presente en todo objeto en el que se inda-
gue, posibiliten la generación y validación de un conocimiento singular,
más válido y fiable, sobre la referida realidad, es decir, la ciencia. Un co-
nocimiento científico que, merced a estas reglas de estricta observancia,
alcanza la ruptura epistemológica frente al resto de formas sociales de
conocimiento y, con ello, obtiene una mayor verosimilitud en el conoci-
miento de la realidad, con independencia de cómo ésta se entienda.
No obstante, esta concepción normativa de la metodología no impide
una sociología de la metodología que atienda, no al método entendido
como canon de reglas, sino al hábito metodológico que los científicos de-
sarrollan en el curso de sus propias investigaciones sociales y de las contro-
versias que se generan en sus respectivos campos de trabajo. Hábito que,
aunque tome al referido canon como eje referencial, puede aproximarse o
alejarse del mismo por una variada casuística. Pero esta cuestión, aparte
de constituir un campo fecundo para la sociología del conocimiento y la
sociología de la sociología, también constituye una valiosa oportunidad
para que los hallazgos de estas especialidades tengan una función prope-
déutica en la construcción de una mejor y más sólida metodología en las
ciencias sociales en general, y en la sociología en particular.
Por otro lado, hemos visto anteriormente que la reflexividad es ya la
norma en ciencia social en las actuales sociedades del siglo xxi, al ser la
información y el conocimiento la clave de la articulación económica, po-
lítica y social de las sociedades contemporáneas desarrolladas. Pero a pe-
sar del amplio acuerdo existente sobre la centralidad de la reflexividad en
el nivel macro (procesos de globalización), no disponemos todavía de un
conocimiento empíricamente contrastado sobre cómo incorporar la no-
ción de reflexividad a la metodología y a las técnicas de investigación so-
cial que se utilizan en los estudios sobre los procesos micro y meso de
cambio social. La clásica propuesta mertoniana de hacer progresar el co-
nocimiento sociológico mediante la elaboración de teorías específicas
para fenómenos concretos, y la exploración de sus relaciones mutuas,
conduciendo para ello investigaciones que se limiten a los problemas de
corroboraciones empíricas que hemos visto anteriormente en el apartado
4 de este capítulo, puede ser un sugerente camino para incorporar el es-
tudio de la reflexividad y de los mecanismos de reactividad que provoca,
en aquellos ámbitos del cambio social en los que se supone que ambos
fenómenos juegan un papel preponderante.
Sabemos, en efecto, que las personas son seres reflexivos que conti-
nuamente observan e interpretan el mundo y ajustan, en consecuencia,

173
La articulación de la investigación social

sus acciones, mediante los correspondientes mecanismos de reactividad.


Por eso es tan importante comprender el carácter y las consecuencias de
la reflexividad en aquellos procesos que afectan a ámbitos concretos de
la vida social, tales como los sistemas de estatus, relaciones de género,
ámbitos laborales, la reproducción de la desigualdad o cualquier otro
proceso social en el que se supone que la reflexividad juega un papel rele-
vante. La adquisición de un mejor conocimiento empírico de los meca-
nismos de reflexividad y reactividad que operan continuamente en la
vida social, tiene que producirse necesariamente mediante diseños de in-
vestigación que permitan obtener datos empíricos que sustenten las evi-
dencias buscadas con las que dar respuestas a las preguntas de investiga-
ción. Los diseños de investigación, en tanto que planes globales de
investigación que integran de un modo coherente y adecuadamente co-
rrecto tanto las técnicas de recogida de datos que se van a utilizar como
los análisis previstos y los objetivos que se pretenden alcanzar, tratan de
ofrecer una respuesta de manera clara y no ambigua a las preguntas
planteadas en la investigación, mediante la creación de una estructura ló-
gica. Y es que, en último término, el diseño de investigación opera como
un camino lógico que establece las relaciones guardadas entre evidencias,
preguntas y respuestas de investigación (De Vaus, 2001).
Para estudiar empíricamente la reflexividad y la reactividad se puede
utilizar el método y la técnica de investigación social que mejor se adap-
te, en el ámbito de los objetivos buscados, al estudio del ámbito social en
el que se pretende avanzar en el conocimiento empírico de ambos fenó-
menos. En este sentido, la investigación llevada a cabo por Espeland y
Sander (2007), en el marco de lo que ambos autores denominan la «ex-
plosión de las auditorías» que ha tenido lugar desde las dos últimas dé-
cadas del siglo xx, ofrece un excelente ejemplo del análisis empírico de la
reflexividad y de la reactividad en iniciativas de carácter público que
afectan sensiblemente y de manera creciente a personas e instituciones
sociales.
La emergencia de una «cultura auditora global» como consecuencia
de la amplia difusión de evaluaciones de sistemas educativos en los dife-
rentes niveles de enseñanza, de resultados de empresas, de universidades,
hospitales y de otras muchas organizaciones, ha conducido al creciente
uso de indicadores cuantitativos que tratan de medir los resultados y ac-
tuaciones de tales instituciones. Esta práctica está teniendo consecuen-
cias positivas tales como hacer más accesible la información a usuarios y
clientes, de impulsar a las organizaciones al establecimiento de planes de
mejora, a la ampliación de la disciplina del mercado a instituciones de

174
5. Observación sociológica, realidad y reflexividad

carácter público que habitualmente operan fuera de los mecanismos de


competencia, pero también tienen consecuencias no intencionadas que
pueden revestir un carácter negativo, tales como la pérdida de discreción
en los profesionales evaluados, así como la tendencia de los actores a
«aprender a ser evaluados», centrándose más en los valores cuantitativos
de los indicadores que en la calidad de los indicadores que tratan de eva-
luar. Además, cuando el proceso conduce al establecimiento de una clasi-
ficación (ranking), contribuye a redistribuir los recursos, a redefinir el
trabajo que se lleva a cabo y a la regulación del juego (Espeland y San-
der, 2007: 10-34).
Es de destacar que este tipo de investigaciones no pretende desarrollar
una teoría general sobre la reflexividad y la reactividad, sino ofrecer un
marco heurístico que permita intercambiar información y reflexiones en-
tre los agentes implicados en procesos de evaluación en diferentes cam-
pos de conocimiento, así como en cualquier otro tipo de iniciativas de
carácter público que tengan efectos diferenciados en los ámbitos, públi-
cos o privados, a los que se dirigen. Se trata, pues, de unos campos de es-
tudio que ofrecen nuevas perspectivas para el avance del conocimiento
sociológico y el fortalecimiento de la metodología de la investigación so-
cial.

Bibliografía recomendada
Bunge, M. (1979): La investigación científica: su estrategia y su filosofía, Barcelo-
na, Ariel.
Echevarría, J. (1989): Introducción a la metodología de la ciencia, Barcelona, Bar-
canova.
García Ferrando, M. (2014): Sobre el método. Problemas de la investigación em-
pírica en sociología, Madrid, CIS.
Lamo de Espinosa, E. (1990): La sociedad reflexiva: sujeto y objeto del conoci-
miento, Madrid, CIS.
Lamo de Espinosa, E., González, J. Mª., y Torres, C. (1994): La sociología de la
ciencia y del conocimiento, Madrid, Alianza Editorial.
Popper, Karl R. (1977): Búsqueda sin término. Una autobiografía intelectual, Ma-
drid, Editorial Tecnos.
Ziman, J. (1972): El conocimiento público, México, FCE.

175
La articulación de la investigación social

6.  La perspectiva de género


en la investigación social

Capitolina Díaz Martínez

1. Introducción

Una perspectiva es una forma de ver que es al mismo tiempo una forma
de no ver. Se ven unos objetos y no se ven otros (muchas veces ocultos
por los primeros). Las ciencias sociales (como el resto de las disciplinas
científicas) han tenido tradicionalmente una perspectiva que de forma
bastante general y sistemática ha dejado fuera de su campo de visión a
las mujeres y lo que a ellas afecta. Y, con frecuencia, cuando la ciencia ha
enfocado a las mujeres como objeto de estudio, las ha sexualizado en ex-
ceso, esto es, ha analizado preferentemente aquello que tienen de diferen-
te con los varones. Me atrevería a decir que las ciencias, tanto naturales
como sociales —la sociología entre estas últimas—, han padecido, y en
parte aún padecen, una suerte de gineagnosia, que sería el hecho de no
ver a las mujeres o, más bien, verlas pero no reconocerlas, no darles el
sentido, el valor que tienen, como les pasa a las personas enfermas de ag-
nosia, que ven, pero no reconocen.
La perspectiva de género es una mirada sobre la vida social y política di-
rigida a poner de manifiesto cómo las normas, las prácticas y las estructuras
sociales, políticas y económicas, en principio, pueden afectar y, de hecho
normalmente lo hacen, de manera diferente a mujeres y varones y/o a ciertos
grupos de mujeres. Esa diferencia suele convertirse en discriminación.

176
6. La perspectiva de género en la investigación social

La perspectiva de género en la investigación social se expresa a través


de un cuerpo teórico —la teoría feminista— y de una metodología no se-
xista que guía las decisiones en la investigación y que nos permite reflejar
y prestar atención a las dinámicas de poder, a las relaciones sociales, a
los procesos de producción del conocimiento y a los contextos en los que
se produce la investigación. Si mantenemos una perspectiva de género a
lo largo de todo el proceso investigador, aparecerán no sólo las mujeres
(contaremos a las mujeres), sino que apareceran sus «cuentos», sus narra-
tivas, lo que cuentan las mujeres (contaremos con el punto de vista y la ex-
periencia de las mujeres en relación al fenómeno en estudio) y, por últi-
mo, aparecerá como resultado un análisis social menos sesgado que
aquel que no percibe la potencial diferencia social entre mujeres y varo-
nes de un mismo grupo social y aun de grupos de mujeres entre sí. Pro-
duciremos así una ciencia social más ajustada a su objeto real, una cien-
cia en la que las mujeres cuentan. Ellas mismas cuentan su historia y la de
la sociedad a la que pertenecen y contribuyen. En la visión sociológica
dominante hasta el momento, por lo general, los que cuentan son los
hombres o un grupo determinado de ellos y sus narraciones, «sus cuen-
tos».
Afirma Feyerabend que «cada lenguaje teórico lleva incorporado su
propio lenguaje observacional». Consecuentemente, la teoría feminista,
cuando se aplica al análisis de la realidad social, genera su propio len-
guaje observacional. El lenguaje observacional propio de la perspectiva
de género, de acuerdo con Sandra Harding (1987) —filósofa estudiosa de
los cambios epistémicos en las ciencias de los años sesenta y setenta del
siglo pasado—, ha desarrollado una serie de características que lo singu-
larizan. Detallaremos dos de las más notables.
En primer lugar, entiende Harding que para conocer el papel social de
las mujeres, sus actividades, las relaciones de género, etc., es preciso in-
cluir mujeres en la investigación social. Siendo no sólo importante, sino
imprescindible incluir mujeres en la investigación social, la mera adición,
por sí misma, no resuelve los problemas de sexismo y androcentrismo
presentes en las ciencias sociales tradicionales. La inclusión de mujeres
en la investigación social se puede realizar, básicamente, de dos modos. O
bien incluyendo mujeres al igual que hombres en los estudios de cual-
quier fenómeno social a estudiar y, en el caso de que alguno de los dos
sexos no apareciera como afectado, averiguando por qué. O bien estu-
diando a las mujeres de forma específica. Esta segunda modalidad se
hace, en parte, para compensar su ausencia en los estudios convenciona-
les (léase androcéntricos). Ambas modalidades presentan limitaciones.

177
La articulación de la investigación social

Los estudios específicos sobre mujeres suelen ser, con frecuencia, so-
bre mujeres notables o sobre mujeres víctimas de la dominación masculi-
na. Los estudios sobre mujeres notables en el campo científico, literario,
artístico o político, si bien muy importantes porque rescatan para la his-
toria del conocimiento aquellas mujeres que han hecho aportaciones im-
portantes tanto a las ciencias como a la vida pública, han de tener en
cuenta que estas mujeres de ciencia, en cualquier dominio del pensa-
miento, han realizado su labor en un contexto definido por un «colegio
invisible» que establecía lo que era o no aceptable como ciencia (arte, li-
teratura, etc.). Los estudios sobre mujeres con aportaciones notables a la
vida pública deben tomar en consideración que lo que se ha definido
como relevante, en esta esfera pública, son actividades en las que los va-
rones han sobresalido. Difícilmente se muestran como valiosas las activi-
dades de reproducción de la vida, la maternidad, la sexualidad, el cuida-
do y la atención a otras personas. Por lo general, las ciencias sociales no
han valorado la contribución de estas actividades a la forma de sociedad
en la que vivimos, al sostenimiento de nuestras instituciones públicas y al
tipo de organización política de la que nos hemos dotado. Por ello, a la
suma de mujeres notables a la investigación habría que añadir la revisión
crítica del medio en el que destacaron.
Cuando se estudia a las mujeres como víctimas de la dominación mas-
culina, con frecuencia se corre el riesgo de mostrar a las mujeres sólo
como víctimas, como entes pasivos. Como seres que no han actuado en
el rol de sujeto agente de cambio en sus propias vidas y en las de los de-
más. Sin duda, la condición de víctima limita mucho las posibilidades de
acción, pero los seres humanos, por definición, somos sujetos agentes,
sujetos activos. Contemplar a ciertas mujeres sólo en su condición de víc-
timas supone un reduccionismo epistémico incapaz de dar cuenta de la
totalidad de los sujetos investigados (Mohanty, 2008).
La segunda característica del lenguaje observacional de género, según
Sandra Harding, consiste en incorporar las experiencias de las mujeres.
Hay numerosos fenómenos que pueden parecer problemáticos desde una
perspectiva masculina, o más bien desde la perspectiva de un tipo de va-
rón determinado, y que son irrelevantes para las mujeres y viceversa: las
mujeres experimentan una serie de situaciones y realizan una serie de ac-
tos que no son problematizados por las ciencias sociales. Por lo general,
se estudian aquellos fenómenos que son considerados como problemas,
aunque sólo sea problemas cognitivos. Y los problemas son experimenta-
dos por personas. Una importante característica del uso de la perspecti-
va de género es que no sólo presta atención a las experiencias de las mu-

178
6. La perspectiva de género en la investigación social

jeres, sino que las preguntas se realizan también desde la problemática de


las mujeres. Y más aún, la perspectiva de género entiende que deben ser
las mujeres las que revelen, en primera instancia, qué son y cómo son sus
propias experiencias. Este conocimiento de amplio espectro por su carác-
ter inclusivo, producido por las científicas y científicos sociales con pers-
pectiva de género, será, de paso, menos parcial, más completo y más ve-
raz.
En el capítulo anterior, sobre la observación sociológica, se destaca
que la observación científica es intencionada porque se hace con un obje-
to determinado y es ilustrada porque va precedida de un cuerpo de cono-
cimiento. En la misma línea, podemos argumentar que la observación
científica con perspectiva de género también es intencionada, ya que par-
te del reconocimiento de la existencia de condiciones de dominación que
oprimen a las mujeres, y de la necesidad de evitar los sesgos de género
que distorsionan los resultados de la investigación. Así mismo, la obser-
vación social con perspectiva de género es ilustrada porque va precedida
de un cuerpo de conocimiento, la teoría feminista. Una teoría cuyos orí-
genes se encuentran en Christine de Pizan en el siglo xv, François Pou-
llain de La Barre en el xvii o Mary Wollstonecraft en el siglo xviii (Celia
Amorós, 1997). Desde entonces, la complejidad, riqueza y variedad de la
teoría feminista no ha dejado de crecer, de tal manera, que en el momen-
to de redactar este capítulo, la Wikipedia presenta más de 50 tipos dife-
rentes de feminismo.

2.  Más cerca de la reflexividad y la complejidad

La ciencia contemporánea se ha topado con problemas epistemológicos


profundos que la han llevado a desarrollar nociones como las de reflexi-
vidad y complejidad. Ciencias naturales como la física y la biología han
debido incorporar en su equipamiento epistémico alguna versión de es-
tos conceptos: la física, como consecuencia de las aparentes paradojas
inherentes a teorías como la de la relatividad y la mecánica cuántica; la
biología, por su parte, como resultado de un conocimiento cada vez más
minucioso de las casi inextricables interacciones en que se ven envueltos
los seres vivos —interacciones entre sus componentes internos y con su
medio.
Estas dos nociones también resultan relevantes para la sociología,
pues es evidente que esta ciencia reflexiona sobre un objeto, la sociedad,
del que forma parte esa misma reflexión, y que resulta modificado por

179
La articulación de la investigación social

ella. Y poca duda cabe de que las interacciones que constituyen la vida
social son de una complejidad tal que obligan a repensar la noción mis-
ma de lo complejo.

2.1 Reflexividad

Investigar la sociedad es una actividad de ida y vuelta: se observa la so-


ciedad y se le devuelve a la sociedad —pasando a formar parte de ella—
lo observado y analizado, así como las potenciales reacciones que tal in-
vestigación reciba. La actividad investigadora en ciencias sociales es una
actividad cuyo resultado es fruto de, al menos, tres componentes: quién
observa, quién es observada/o y con qué instrumentos se observa. Y no
es indiferente, en principio, a la perspectiva de quien observa. Si quien
observa o investiga toma al varón como canon (aunque no lo explicite,
pero lo hace en la práctica, por ejemplo, cuando las estadísticas no están
desagregadas por sexo) su investigación generará unos resultados muy
diferentes de aquellas investigaciones que parten de la consideración de
las potenciales diferencias entre mujeres y varones. Los resultados tam-
bién pueden variar dependiendo de si se incluyen o no mujeres en la
muestra, del grupo social estudiado y de si se tienen en cuenta o no sus
potenciales diferencias, por ejemplo el caso de la cardiopatía isquémica,
enfermedad que se estudió sólo, y aún se estudia, en población masculi-
na y que ha dado nombre a este tipo de sesgos de género como «síndro-
me de Yentl» (Noel Bairey Merz, 2011). Ni siquiera es neutro el uso de
una técnica de recogida/producción de datos u otra, como se mostrará
más adelante.
La observación humana inevitablemente deja rastros del/a
investigador/a en su investigación. Deja rastros de su planteamiento teó-
rico, de su enfoque metodológico, de su ética y del propio objetivo de la
investigación (Díaz, 2002: 251-252). Así pues, el que una investigación
parta de una supuesta visión neutral, que en la práctica se revela como
sesgada respecto al género, ya que invisibiliza a las mujeres y su situa-
ción, o que la investigación tenga un enfoque de género, permeará el pro-
ceso y los resultados de cualquier investigación. Esto es, todo conoci-
miento, científico o de otro tipo, es conocimiento producido por alguien,
condicionado por tanto, por la propia estructura cognitiva (ideología in-
cluida) de quien conoce. La aplicación del método científico tiene por
objeto limitar las subjetividades de quien investiga, permitir el contraste,
la prueba, etc. Pero, en último término, quien conoce es un sujeto, por

180
6. La perspectiva de género en la investigación social

definición subjetivo, y aunque se someta a las exigencias del método


científico, si no aplica una perspectiva de género, dejará su rastro sexista,
sus limitaciones cognitivas en aquello que analice.
Algunas investigadoras sociales como, por ejemplo, la primatóloga
Donna Haraway (1995), llaman conocimiento situado a este efecto de las
inevitables trazas de quien investiga en lo investigado y defienden, conse-
cuentemente, que todo conocimiento es parcial, subjetivo, está imbuido
de poder y es relacional. Esta afirmación no supone una licencia para
trabajar de cualquier modo en ciencias sociales. No reduce el rigor cientí-
fico exigible, sólo señala la marca de quien investiga en los resultados de
su trabajo. En esta línea, Haraway (2004) incorpora el realismo agencial
de Karen Barad (2007); su propuesta sostiene que la identidad del sujeto
se adquiere en el mismo proceso de la investigación, no tiene una entidad
independiente. Es éste un planteamiento que reconoce tanto la influencia
de la teoría de la performatividad de Judith Butler como los principios de
la física de Bohr. Supone una nueva mirada sobre la objetividad de la
ciencia al afirmar que el objeto de la investigación, los fenómenos a in-
vestigar, existen en tanto que son conocidos y lo son en un momento de
la investigación y dentro de una red de interacciones y procesos, que ob-
viamente han de estar guiados por el rigor científico requerido.
Conviene aclarar que, si bien la perspectiva de género es la que nos ha
llevado a definir la reflexividad como parte de la actividad investigadora,
lo que predicamos acerca de la reflexividad en la investigación no es algo
que suceda sólo con las investigaciones feministas o las investigaciones crí-
ticas, o las postcoloniales, o aquellas que se realizan en los márgenes, sino
que es consustancial con cualquier investigación. Buena parte de la activi-
dad científica tradicional no ha sido consciente de los múltiples sesgos que
la posición de quien investiga incorpora a la investigación y ha limitado,
de esa forma, la tan proclamada objetividad. Sólo cuando quien investiga
es consciente y explicita (autorreflexividad según Carolyn S. Ellis y Arthur
Bochner) su posición como investigador/a, los sujetos investigados y/o los
posteriores lectores/as podrán entender la investigación en su totalidad, ya
que podrán «situarse» frente a lo investigado y «situarlo» (Harding, 1987)
y el/la misma investigador/a, consciente de sus sesgos, puede, además de
explicitarlos, trabajar para compensarlos, si ésa es su intención. La objeti-
vidad, que ya Max Weber exigía a la investigación sociológica, pasa por in-
cluir la consciencia de la reflexividad como parte ineluctable de la produc-
ción del conocimiento. En el caso que nos ocupa, entendemos que la
perspectiva de género supone aceptar como imprescindible lo siguiente: a)
incluir, en la investigación, a las mujeres como sujeto de la misma; b) valo-

181
La articulación de la investigación social

rar, en cada estudio concreto, qué técnica es más apropiada para evitar,
con su aplicación en cada caso particular, una mirada distinta sobre muje-
res y varones y c) considerar el impacto de los resultados de la investiga-
ción en ambos sexos.
En su estudio sobre la socialidad humana, Pablo Navarro (1990) sos-
tiene que la reflexividad aparece cuando hay interferencias entre la acti-
vidad del sujeto y la del objeto (sujetos investigados, en nuestro caso) de
la investigación. Dado que toda investigación social genera tales interfe-
rencias, las investigaciones realizadas desde una perspectiva de género
buscan, de forma bastante generalizada, que estas inevitables interferen-
cias mejoren la calidad de la investigación, no sólo porque reflexionan
sobre el proceso de producción del conocimiento, sino porque de esta re-
flexión se deducen fórmulas para reducir los sesgos de quien investiga.
Así, además de todas las medidas que una investigación rigurosa debe te-
ner en cuenta, la investigación con perspectiva de género busca: a) que
las personas investigadas (a las cuales, a menudo, se les suele denominar
«participantes» para poner en evidencia su rol de sujeto agente) tengan
un papel activo y reflexivo en la interacción; b) que se reduzca el desequi-
librio de poder entre quien investiga y quien es investigada/o; c) empode-
rar a las mujeres investigadas y d) intentar evitar, en lo posible, la jerga
académica para que los resultados de la misma sean más accesibles. Es-
tas últimas características las comparte con la investigación-acción parti-
cipativa, como se verá en el capítulo siguiente.

2.2 Complejidad

La incorporación de la perspectiva de género mejora la calidad de la inves-


tigación social al incorporar, a la muestra o colectivo de estudio, a las mu-
jeres afectadas por el fenómeno analizado e incorporarlas con las dos sal-
vedades señaladas por Sandra Harding en la sección anterior. Las mujeres,
como los varones, son parte del sistema social, que es un sistema complejo
y no lo podremos conocer ni en su totalidad ni en cualquiera de sus partes
si excluimos a las mujeres —sus potenciales diferencias, sus experiencias,
sus puntos de vista, etc.— del análisis. No incluyendo a las mujeres, no
sólo no las comprenderemos a ellas, no comprenderemos el sistema, pues,
como señaló Pascal, «no se pueden conocer las partes si no se conoce el
todo y no se puede conocer el todo si las parten no se conocen».
La complejidad, según Edgard Morin (2006), exige conocer el todo,
las partes, las relaciones entre ambos y sus mutuas implicaciones. Así

182
6. La perspectiva de género en la investigación social

pues, si no conocemos la situación de las mujeres y la de los varones y las


relaciones entre ambos, no podremos presumir de conocer, salvo de for-
ma artificialmente simplificada y sesgada, ningún fenómeno social. El
abordar el caso que nos ocupa, esto es, la combinación de la observación
sociológica de un sistema complejo (la sociedad) y la perspectiva de gé-
nero, supone, en primer lugar, establecer las pertinentes distinciones en-
tre mujeres y varones, y una vez establecidas, tratar de entender las rela-
ciones entre ambos y cómo estas mismas relaciones condicionan la
identidad de unas y otros y, aun, los procesos mismos de distinción epis-
témica.
Para aplicar el principio de la distinción, Morin propone actualizar la
vieja fórmula de que el todo es más que la suma de sus partes. Sostiene
Morin que la adición de cualidades o de propiedades de las partes hace
aparecer nuevas propiedades, produce novedades y emergencias. En el caso
de aplicar la perspectiva de género a un fenómeno social, descubriremos
no sólo que las mujeres son sujetos agentes, sino que se nos revelan aspec-
tos desconocidos y relaciones (de poder, de sororidad, etc.) invisibles cuan-
do sólo se veía una parte (la masculina) a la que se tomaba por el todo.

3. Tipos de sexismo más frecuentes en la investigación


social

A comienzos de los años ochenta del siglo pasado, varias investigaciones


pusieron de manifiesto que buena parte de la investigación social (o cual-
quier otra con seres humanos) presentaba notables sesgos sexistas (Eich­
ler, 1991), o revelaba una clara gineagnosia (a la que nos hemos referido
al comienzo del capítulo y a la que Shulamit Reinhard, 1985 denomina
ginopia), o era claramente misógina (Millet, 1969 [1995]). Del más de
centenar de publicaciones de Margrit Eichler sobre los sesgos de género
en la investigación, presentamos aquí algunos de sus principales hallaz-
gos.
El sesgo de género es una distorsión sistemática de la observación y
del análisis social originado por un prejuicio o una ideología que, de for-
ma consciente o inconsciente, otorga primacía a los varones sobre las
mujeres. Buena parte de los sesgos de género están incorporados en el
conocimiento académico desde sus orígenes y se corresponden a formas
obsoletas de entender el mundo y la sociedad. Podría decirse que los ses-
gos de género son los derivados de una suerte de histéresis social de géne-
ro (Díaz, 2014), por la cual, a pesar de que las mujeres han cambiado y

183
La articulación de la investigación social

tienen elevadas cualificaciones, se las sigue considerando, mayoritaria-


mente, en los papeles a los que fueron relegadas en el pasado. Esto es,
como menos competentes que los varones, con menos capacidad agen-
cial, con menos habilidades científico-técnicas, menos preparadas para
asumir altas responsabilidades, etc.
Con el fin de no caer en sesgos de género o sesgos sexistas en la investi-
gación, Eichler (1991 y 2006) sugiere evitar: 1) la consideración de los roles
sexuales occidentales como universales; 2) transformar las diferencias esta-
dísticas en diferencias innatas; y 3) considerar las diferencias (con el pa-
trón, con el estándar) como inferioridad. A partir de esos tres ejes identifi-
ca numerosas variedades de sesgos sexistas que suelen encontrarse en la
investigación no avisada. Destacamos los más importantes, agrupados en
tres tipos: androcentrismo, insensibilidad de género y doble rasero. En cual-
quier investigación, estos sesgos pueden darse simultáneamente, pero con-
viene entender sus diferencias para que nos sea más fácil evitarlos.
El androcentrismo aparece cuando la mirada investigadora se realiza
por y desde el hombre, el varón, entendido éste como un universal y
como patrón o modelo. Un claro ejemplo de androcentrismo puede verse
en el estudio de los bororo publicado por Claude Lévi-Strauss (1955)
cuando dice: «Todo el pueblo salió al día siguiente en treinta canoas, de-
jándonos solos con las mujeres y los niños en casas abandonadas». Ca-
sos tan palmarios de androcentrismo probablemente son cada vez menos
frecuentes y, hoy en día, resulta difícil entender cómo un investigador tan
perspicaz como Lévi-Strauss no considerara, en este caso, a las mujeres y
a los niños como parte del pueblo objeto de estudio.
El androcentrismo puede adoptar diversas modalidades. Entre ellas,
la sobregeneralización que se produce cuando uno de los dos sexos se ex-
cluye de la producción de datos, pero los resultados se generalizan a toda
la población (el mencionado caso del síndrome de Yentl, por ejemplo).
Es frecuente generalizar a todo un grupo la información derivada del
análisis de un subgrupo sin cuestionar si es o no pertinente. Un claro
ejemplo es la afirmación: «la Revolución Francesa introdujo el sufragio
universal», cuando el sufragio tardó más de un siglo en ser un atributo
de las mujeres. Relacionada con este sesgo está la asunción de la igualdad
de mujeres y hombres, de manera que no se presta atención a la diferencia
entre ambos. Se produce esta asunción de igualdad cuando hablamos de
igualdad de oportunidades en las carreras profesionales, sin tener en
cuenta cómo afecta a la carrera profesional de las mujeres tanto el traba-
jo doméstico y de cuidados (marcadamente generizado) como la cultura
de predominio masculino en la que vivimos.

184
6. La perspectiva de género en la investigación social

Tomar al varón como norma es otro de los sesgos. En muchos casos las
investigaciones están orientadas exclusivamente a los varones, y a las mu-
jeres se las mide en relación a ellos. De esta forma, las mujeres suelen
aparecer como desviación de la norma; los muchos déficit de los que se
acusa a las mujeres, desde el digital al científico, son una clara muestra
de las consecuencias de tomar a los varones como norma. Si se tomara a
las mujeres como norma, por ejemplo, hace tiempo que estaríamos ha-
ciendo investigaciones sobre el déficit masculino en el trabajo doméstico
y de cuidados. De manera casi paradójica se produce otro sesgo que po-
dría llamarse excesivo ginocentrismo al excluir de ciertos ámbitos de estu-
dio a los varones. Por ejemplo, en lo relativo al hogar, al cuidado y la re-
producción, en el ámbito de la sociología o en los estudios de
osteoporosis en el ámbito de la investigación médica (Sánchez de Mada­
riaga y Ruiz Cantero, 2014).
El segundo tipo, la insensibilidad de género, tiene lugar cuando se ig-
nora el sexo o el género como variable. Es otra forma de expresar la gi-
neagnosia o ceguera de género. Su manifestación más frecuente es el fa-
milismo que supone considerar a la familia o al hogar como la unidad
última de análisis sin considerar que los miembros que lo componen no
son iguales entre sí (Dema y Díaz, 2014: 26-28). Otra forma de insensi-
bilidad de género es la descontextualización que aparece al no considerar
que situaciones similares pueden tener diferentes efectos según el géne-
ro. María Ángeles Durán (1998) e Inés Sánchez de Madariaga (2009),
entre otras, lo han puesto de manifiesto en el análisis de la planificación
urbana.
Un tercer tipo de sesgo es el que Eichler llama doble rasero, que se
produce al tratar a hombres y mujeres en situaciones idénticas con crite-
rios diferentes. Se suele dar especialmente en estudios sobre diferencias
de comportamiento sexual, en los que se estigmatiza a las mujeres por
conductas que aparecen como tolerables en los varones, como indica la
Society for the Scientific Study of Sexuality en su informe de 2012, y
también en enfermedades de difícil diagnóstico, como la fatiga crónica
(Rivas Vallejo, 2008). Dos subformas típicas de este sesgo son las dicoto-
mías de género. La primera supone tratar a ambos sexos de forma total-
mente separada, exagerando las diferencias entre mujeres y hombres y
pasando por alto las características comunes. Quizá uno de los ejemplos
más claros sea el libro de autoayuda, pero pretendidamente científico,
Los hombres son de Marte, las mujeres de Venus, de John Gray (2014). La
segunda aparece cuando se parte de estereotipos de género mediante los
que se atribuyen como naturales ciertos rasgos diferentes a mujeres y va-

185
La articulación de la investigación social

rones. El uso de dichos estereotipos se produce al tomar como naturales,


no socialmente construidos, comportamientos que no son más que el re-
sultado de expectativas y prácticas sociales diferenciadas para cada géne-
ro. El caso típico es considerar natural el interés de las mujeres por las
criaturas y el cuidado de la casa, y ver esto mismo casi como una desvia-
ción en los varones, sobre todo si afecta a su promoción profesional o
perfil público.
La propia Magrit Eichler (2006) señala que las soluciones para evitar
los sesgos sexistas en la investigación tienen muchos niveles. Los sesgos los
pueden producir tanto las entidades que financian la investigación y los po-
deres públicos que la organizan (qué tipo de investigación se financia,
cómo se realizan las convocatorias, cómo se selecciona al equipo investi-
gador, etc.) como cada persona que participa en el proceso investigador
(con todas las decisiones que se van tomando a lo largo del proceso in-
vestigativo). En cualquier nivel, lo importante es saber y prestar atención
a lo frecuentes que son los sesgos sexistas y cómo pueden distorsionar la
investigación, además de reproducir la desigualdad. Si no se está vigilan-
te para identificar los sesgos de género, éstos se perpetuarán, reprodu-
ciendo y reduciendo, de este modo, la calidad de la investigación social,
entre otras consecuencias.

4. La perspectiva de género en las técnicas más frecuentes


de la investigación social

Buena parte de las investigadoras feministas o de aquellas otras investi-


gadoras que trabajan con un enfoque género defienden que cualquier
técnica —desde la más frecuente, la encuesta, a la menos usada, el expe-
rimento— es apropiada para la observación y el análisis con perspectiva
de género, siempre que se utilice correctamente y con las cautelas opor-
tunas. Así, Sandra Harding, en el prefacio de su seminal obra Feminism
and Methodology (1987), y refiriéndose especialmente a las encuestas,
sostiene que «los métodos más familiares y no controvertidos son los que
han producido algunos de los más importantes nuevos análisis feminis-
tas». Numerosos estudios coinciden con esa apreciación (Díaz, 1996; Fuchs
Epstein, 1988; Reinharz, 1992). Esto es, desde la perspectiva de género,
en principio, no hay ninguna forma de observación rechazable. De tal
manera que la mayoría de las críticas metodológicas que se hacen a algu-
nas técnicas concretas se deben a una deficiente utilización de las técni-
cas y se parte de la base de que incorporando la perspectiva propuesta,

186
6. La perspectiva de género en la investigación social

se aumenta el rigor del trabajo sociológico. Veamos, a continuación, al-


gunas de las técnicas más usuales y las propuestas de mejora.

4.1 La encuesta y otros formatos de investigación estadística desde


la perspectiva de género

La encuesta, como técnica sociológica, ha sido criticada, con frecuencia,


desde un punto de vista de género, por el mal uso que han hecho de ella
cuando esta técnica se aplica en un marco conceptual que incurre en al-
guno de los sesgos sexistas anteriormente mencionados. Pero la investi-
gación de base estadística, en principio, no tiene por qué favorecer a una
determinada asunción teórica y epistemológica y no tiene, por tanto, por
qué no ser un buen instrumento de observación con perspectiva de géne-
ro. Efectivamente, son precisamente las encuestas las que, al incluir sen-
cillamente la variable «sexo», han ayudado a poner de relieve las relacio-
nes de género y las brechas entre mujeres y varones. Así, han revelado
problemáticas previamente invisibilizadas como algunas relativas al em-
pleo de las mujeres, la economía doméstica o la violencia sexista. Esta
doble cara de la encuesta (instrumento de perpetuación de estereotipos
androcéntricos cuando se usa en un marco teórico y metodológico esca-
samente perspicaz, pero también eficaz medio de escrutinio sociológico
cuando obedece a una teoría y una metodología adecuadas) servirá de
guion, en primer lugar, para exponer algunas de las consecuencias del
uso deficiente de la encuesta y otros formatos de investigación estadística
y, en segundo lugar, para poner de manifiesto su valor en la tarea de evi-
denciar buena parte de la problemática que afecta a las mujeres.
Una de las críticas más extendidas a las encuestas se refiere al frecuen-
te uso del lenguaje sexista en las mismas. No es que no se utilice lenguaje
sexista en otras técnicas. Pero en la encuesta se parte de la redacción fija
de las preguntas y si los términos usados en las mismas adoptan el mas-
culino como supuesto neutro genérico y si al sujeto a investigar se le tra-
ta en masculino (como si fuera incluyente del femenino), quiérase o no,
hay un nivel en el que las mujeres quedan opacadas. Si bien es cierto que
si dicha encuesta, masculinizada en el lenguaje, al final, desagrega por
sexo sus datos, el análisis de la misma puede ser útil para comprender, en
un cierto nivel, la situación de mujeres y hombres.
Mª Teresa Ruiz y sus colegas (2006) han evidenciado el uso de lengua-
je sexista de la Encuesta Nacional de Salud que usa el masculino singular
en los cuestionarios cuando, en realidad, se refiere a mujeres y varones
(p. ej., cuidador, empleador, médico…). Hay también otros problemas

187
La articulación de la investigación social

derivados del uso del lenguaje sexista, sobre todo en los fenómenos que
afectan especialmente a las mujeres. Por ejemplo, Reinharz (1992: 87) se-
ñala que en un trabajo sobre violencia de género se producen diferencias
en los resultados de la encuesta si la palabra utilizada fuera «golpe» en
lugar de «bofetada». Esto es, si se pregunta la opinión sobre el hecho de
que el marido le dé, de vez en cuando, una bofetada a su mujer o le dé un
golpe. Dar bofetadas resulta una conducta más aceptable que dar golpes,
lo que pone de manifiesto que el rechazo o la aceptación de la violencia
de género puede variar según la terminología utilizada y alerta de la im-
portancia de seleccionar apropiadamente la misma.
Los sesgos conceptuales de buena parte de las encuestas oficiales han
llevado a algunas autoras a su revisión crítica y a mostrar ciertas lagunas
en la concepción o en el análisis de las mismas. Dichas lagunas pueden
llevar a la invisibilización de las mujeres o a impedir la distinción entre
las pautas, actitudes o actividades de varones y mujeres. Así, Dema y
Díaz, analizando la Encuesta de Condiciones de Vida y la Encuesta de
Presupuestos Familiares, señalan que si bien dicha encuesta recoge datos
individualizados de cada miembro de la familia, no ofrece ni analiza di-
chos datos individualmente, miembro a miembro. Lo que se hace es una
estimación del gasto medio por persona, para ciertos bienes y servicios.
Para ello, se divide el gasto del hogar entre el número de sus miembros,
asumiendo así que todas las personas de la familia gastan por igual. Evi-
dentemente, el error no es del diseño o de la redacción de la encuesta,
sino de la interpretación de sus datos:

Si bien se registran (de forma individualizada) los gastos que realiza cada uno
de los miembros del hogar mayor de 14 años, la información guardada (por el
INE) los agrupa y en los microdatos únicamente se ofrecen de forma agregada,
impidiendo identificar diferencias y/o similitudes en las pautas de gasto de varo-
nes y mujeres (Dema y Díaz, 2014: 26).

Evidentemente, con este tipo de análisis, la pérdida de información y


de conocimiento de lo que sucede en el interior de los hogares es impor-
tante y se debe a que quienes analizan no han tenido capacidad para ha-
cer distinciones entre los miembros del hogar y, a partir de tales distin-
ciones, poder explicar el tipo de relaciones entre ellos. De hecho, conocer
esas relaciones no está entre los objetivos de la encuesta, pero amalga-
mar los datos impide que se puedan realizar análisis diferentes.
Cristina Carrasco y Maribel Mayordomo también apuntan en esta di-
rección cuando analizan los datos que ofrece la Encuesta de Población
Activa (EPA) del año 2000. Encuesta que parte del concepto de «pobla-

188
6. La perspectiva de género en la investigación social

ción activa» que se refiere únicamente al trabajo mercantilizado, olvidán-


dose de la esfera doméstica y de los cuidados no mercantilizados. Si bien
podría decirse que el problema no está en la encuesta, sino en la defini-
ción —ampliamente aceptada— de población activa, el hecho de que se
mida una parte del trabajo humano y no otra es lo que lleva a las autoras
a señalar que la «medición del mundo» se realiza desde la perspectiva de
quien tiene el poder para medirlo:

En el tema que nos ocupa, los modelos económicos han reflejado casi exclusiva-
mente la economía de mercado, dando cuenta de un mercado laboral caracteri-
zado por una participación masculina libre de restricciones reproductivas. (…)
Por otra parte, cuando se estudia la participación de las mujeres, se utiliza para
ello el mismo instrumental estadístico y analítico que el utilizado para los varo-
nes, sin considerar que la actividad laboral femenina tiene características total-
mente distintas, precisamente porque su actividad fundamental está en otro sitio
(que permanece invisible) (Carrasco y Mayordomo, 2000: 101-104).

Y esta idea de medición nos devuelve al punto de partida. Medir es


comparar y en ese acto de comparación hemos de revisar de forma siste-
mática, en cada paso del proceso, si el diseño de una encuesta en particu-
lar parte de patrones, modelos o estereotipos que ya están sesgados. Así,
hemos de tener en cuenta que el marco teórico, las preguntas de investi-
gación, las hipótesis que se trata de probar, el uso del lenguaje, la recogi-
da de datos desagregada y, por supuesto, el análisis desagregado por sexo
y la presentación de los resultados se realizan sin ninguno de los sesgos
mencionados en la sección anterior. No debemos olvidar que, en nuestro
país, la legislación vigente nos obliga a observar gran parte de las buenas
prácticas de recogida y producción de datos hasta ahora señaladas. Así,
el artículo 20a de la Ley Orgánica para la igualdad efectiva entre mujeres
y hombres señala de forma expresa que se debe «incluir sistemáticamente
la variable de sexo en las estadísticas, encuestas y recogida de datos que
lleven a cabo». También debería ser tenido en cuenta un asunto que aun-
que en este capítulo sólo mencionaremos, está cobrando un importante
interés analítico. Se trata del reconocimiento de otras categorías (transe-
xualidad, hogares con parejas del mismo sexo, hogares compuestos por
personas de distinto origen étnico, etc.) que deberían ser ya consideradas
en el diseño de los cuestionarios y en el tamaño de la muestra para que
puedan ser observadas.
Lo señalado hasta el momento sobre las encuestas sirve también para
el uso de datos secundarios de tipo estadístico. Modalidad frecuentemen-

189
La articulación de la investigación social

te usada dado lo costoso, en términos económicos y sociales, que es pro-


ducir datos primarios con buenos muestreos y más aún con poblaciones
de difícil acceso. Además de la advertencia general sobre la necesidad de
ser conscientes de los problemas metodológicos del uso de datos «produ-
cidos por otras personas», la aplicación de la perspectiva de género pue-
de suponer un excelente guion de indicaciones para la manipulación no
sesgada de los mismos. Un ejercicio a imitar, o una buena práctica, como
ahora se dice, es el que realiza Mª Ángeles Durán en Los costes invisibles
de la enfermedad (2004). En este trabajo revisa más de treinta fuentes es-
tadísticas —algunas de forma exhaustiva— y ofrece nuevas aportaciones,
derivadas de un análisis de género y que no se evidenciarían con inter-
pretaciones carentes de la visión de género de la autora. Así, ofrece una
comparación entre los costes estrictamente monetarios (de los cuidados
de la salud y en la enfermedad) y los costes no monetarios (pérdida de
autonomía y de capacidad de decisión, consumo de horas «no retribui-
bles laboralmente» derivados de los cuidados) a la vez que el análisis des-
tapa relevantes diferencias entre la carga asistencial del cuidado regla-
mentado formalmente, en el mercado, y en el sector informal.
En un repaso histórico sobre las encuestas, Reinharz (1992: 76-77), re-
alza su utilidad para la causa de las mujeres y revaloriza el trabajo esta-
dístico de éstas. Así, citando a la antropóloga histórica Joan Mark, seña-
la que el laborioso y tedioso trabajo de la recopilación de estadísticas era
considerado, a finales del siglo xix, peculiarmente femenino; que en
1873, la astrónoma y presidenta de la Asociación para el Avance de la
Mujer, Maria Mitchell, urgió a «recoger estadísticas» en todos los cam-
pos. Estos datos eran muy relevantes en aquel momento para contestar a
ciertas opiniones. Por ejemplo, se decía que el trabajo intelectual de las
mujeres podía dañar sus órganos reproductivos. Marion Talbott y su ma-
dre, Emili Talbott, realizaron una encuesta para constatar que el 78% de
las graduadas que contestaron disfrutaban de una buena salud, un 5% de
una salud media y el 17% restante sufría mala salud (Fitzpatrick, 1994:
30 y 225).
El carácter distributivo de las encuestas, esto es, que nos permiten expli-
car cómo se distribuye un fenómeno en la sociedad, es una de las ventajas
del uso de las encuestas en la investigación con perspectiva de género. Así,
Shulamit Reinharz destaca que, a menudo, «la investigación por encuesta
ayuda a poner los problemas sobre el mapa para mostrar que algo está
más extendido de lo que se pensaba. Las feministas han usado las encues-
tas, precisamente con este propósito, para cuestionar el manido argumento
de que la queja de una mujer particular es idiosincrática» y mostrar que es

190
6. La perspectiva de género en la investigación social

un fenómeno extendido y tiene una distribución determinada entre la po-


blación (1992: 79). Los datos demográficos numéricos, por ejemplo, son
exitosos en mostrar que un problema crece o se reduce o que hay una dis-
tribución poblacional desigual y han sido muy importantes para legitimar
las críticas sociales feministas. Así, por ejemplo, se ha mostrado que la vio-
lencia sexual, en lugar de ser un hecho aislado, es un fenómeno bastante
común y ello ha impulsado nuevas políticas públicas. Hay un eslogan muy
extendido en las administraciones públicas: «si no hay datos, no hay pro-
blema y si no hay problema, no hay políticas» (no data, no problema, no
policy) que conviene tener en consideración.

4.2  Las entrevistas desde la perspectiva de género

Con la entrevista nos enfrentamos a una técnica de recogida/producción


de datos que por su configuración abierta permite explorar la visión de
las personas sobre la realidad, así como tener acceso a las ideas, pensa-
mientos y memorias expresadas en las propias palabras de los sujetos. Y
esto, tal y como se ha dicho hasta el momento, es muy importante en la
perspectiva de género, en tanto que saca a la luz, desde la narrativa de las
propias mujeres, su vida y sus experiencias, a menudo invisibilizadas o
recluidas en espacios y temáticas «femeninos» por parte de ciertos enfo-
ques convencionales de las ciencias sociales. Al hacer visibles la vida y re-
flexiones de las mujeres, en sus propias palabras, se pone de relieve fácil-
mente la asimetría generalizada de su posición social, así como
fenómenos e injusticias derivadas de esta asimetría y sus efectos en las vi-
das de las mujeres. Nos referimos a evidenciar asuntos como la relación
entre la brecha salarial (fácil de medir con herramientas como la Encues-
ta de Estructura Salarial) y la brecha de cuidados (fácil también de medir
con instrumentos como la Encuesta de Usos del Tiempo) y sus efectos en
la relación de pareja. Una técnica como la entrevista (sea individual o
grupal) nos permitirá entender la relación entre ambas brechas, entender
cómo operan las relaciones de poder en los hogares y cómo ambas bre-
chas favorecen la desigual división sexual del trabajo.
Buena parte de la investigación con perspectiva de género pretende re-
ducir distancia entre investigador/a e investigada/o, a diferencia de lo que
predican enfoques más convencionales que entienden esa distancia como
elemento de objetividad (Brooke y True, 2010: 21-40), intentando moda-
lidades de entrevista que favorecen el protagonismo de las personas en-
trevistadas (Díaz, 2002). Sin embargo, hay opiniones en desacuerdo con

191
La articulación de la investigación social

esa posibilidad. Así, algunas autoras feministas, como Ann Oakley


(1981), entienden que no es posible reducir dicha distancia mientras la
técnica siga siendo la entrevista. Ann Oakley sostiene que una entrevista
entre mujeres es una contradicción en los términos, considera que me-
diante la entrevista no es posible eliminar la jerarquía entre la socióloga
y la entrevistada. Oakley propone más bien una conversación en la que
la entrevistadora también se abre a la entrevistada en una especie de auto-
sinceramiento. Sin ser tan radical como para negar la posibilidad de que
una mujer entreviste científicamente a otra, pero con esa misma idea de re-
ducir la distancia jerárquica de quien entrevista con quien es entrevista­
da/o, algunas entrevistas buscan el «acomodo del/a entrevistado/a» utili-
zando, por ejemplo, entrevistadores/as de los mismos grupos sociales
(sexo, orientación sexual, etnia, religión…).
Este «acomodo» ha tomado formas diferentes dependiendo de la pro-
blemática a investigar. Así, por ejemplo, en un estudio sobre el papel del
dinero en las relaciones de pareja, se realizaron tres entrevistas a cada
pareja. Una entrevistadora y un entrevistador realizaban una primera
entrevista a la pareja y posteriormente, tras el primer análisis de la entre-
vista, se realizaban dos entrevistas paralelas: la entrevistadora entrevista
a la mujer y el entrevistador al varón (Díaz, Nymann y Stocks, 2007: 33).
La importancia que ha adquirido la investigación mediante entrevista
no-estructurada en la perspectiva de género ha llevado a otros nuevos de-
sarrollos. Entre ellos destaca la formación de equipos amplios de entre-
vistadoras/es (que reflejen la variedad de las personas entrevistadas);
también a que cada vez más las investigaciones salgan de los escenarios
íntimos y reservados para abrirse y redefinir temas no tan específicos de
género o menos íntimos, pero afectados por las relaciones de género,
como el consumo de drogas, el uso del transporte público, los retos pro-
fesionales, etc. Otra característica muy generalizada de las entrevistas
realizadas con perspectiva de género es el envío a la(s) persona(s)
entrevistada(s) de la transcripción de la entrevista o el análisis final.
La relación próxima con las mujeres entrevistadas, a veces, genera un
problema ético añadido, ya que durante la entrevista pueden aflorar pro-
blemas o delitos cometidos contra la entrevistada, como malos tratos,
violencia sexual, etc. Otro problema, en parte ético y en parte metodoló-
gico, es que la excesiva simpatía con las personas entrevistadas puede lle-
var al/la investigador/a «volverse nativa», esto es, a asumir sin cuestionar
los puntos de vista de las personas entrevistadas, siendo incapaz de esta-
blecer la imprescindible distancia entre analista y persona analizada que
permitiría una objetivación suficiente del estudio.

192
6. La perspectiva de género en la investigación social

El excelente resultado que han tenido las entrevistas con perspectiva


de género ha supuesto que dicha perspectiva, mediante el uso de las en-
trevistas, se haya incorporado a otras técnicas como las historias de vida
(Aparici y Estarellas, 2010) y la historia oral (Miller, 2000; Berger Gluck
y Patai, 2013), basadas en el uso de las entrevistas.

4.3  El grupo de discusión y el grupo focal con perspectiva de género

El grupo de discusión, que viene a ser un desarrollo singular y de gran


poder analítico del grupo focal, llevado a cabo originalmente por Jesús
Ibáñez (1979), es una de las técnicas que tiene más predicamento en los
estudios de género, entre otras cosas, por su escaso carácter intrusivo.
Desde sus inicios, el grupo de discusión se sustentó sobre la idea de que
en la producción del discurso, las relaciones de poder (entre ellas las rela-
ciones de género) juegan un papel importante. Esto ha llevado, entre
otras cosas, a que los grupos de discusión, de forma mayoritaria, sean o
bien de mujeres o bien de varones. De algún modo, esta distinción, por sí
sola, indica que es una técnica de investigación que aunque sus usuarias/os
no lo especifiquen, tiene de partida una cierta perspectiva de género.
Tanto el grupo de discusión como el grupo focal tienen como objetivo
la producción del discurso a partir de la interacción del grupo, ya que
esta técnica consiste en un grupo que realiza una discusión planificada
diseñada para obtener las percepciones sobre un área de interés en un
ambiente permisivo y no amenazador (Krueger, 1994: 6).
Sue Wilkinson (1998) señala tres características de los grupos de dis-
cusión y los grupos focales muy similares a las recomendaciones que se
suelen hacer para favorecer la incorporación de la perspectiva de género
a la investigación. A saber: son relativamente naturales, ya que se aproxi-
man a situaciones cotidianas de debate en grupo y así evitan la carga de
artificialidad que tienen otras técnicas; ofrecen un contexto social que
permite dar sentido a la discusión de forma contextualizada por la pro-
pia interacción del grupo; y, por último, cambian el equilibrio de poder
de el/la investigador/a hacia las personas participantes en la investiga-
ción, evitando así lo que a veces se considera explotación.
En el grupo de discusión y en el grupo focal las personas participantes de-
ben sentirse cómodas y disfrutar de la discusión, sin sentir presión para ex-
presar sus opiniones o llegar al consenso y son animadas a expresar puntos
de vista diferentes (Litosselity, 2003). Este entorno facilitaría la emergen-
cia de información novedosa, si es esto lo que busca el/la investigador/a.

193
La articulación de la investigación social

Hay áreas de investigación específica de género para las cuales el gru-


po de discusión parece presentar capacidades singulares. Así, el análisis
del discurso que se realiza en el grupo de discusión es, de acuerdo con
Lia Litosselity y Jane Suntherland (2002), el mejor medio para entender
y definir las identidades de género. Y para tratar ciertos asuntos que
afectan de forma específica a las mujeres, su utilidad resulta tan obvia
que incluso ONU-Mujeres lo recomienda para el análisis de la violencia
de género. Con frecuencia, muchas de las encuestas que mejor explican
desigualdades de género tienen como origen grupos focales o grupos de
discusión, por lo que ésta es una técnica que se complementa con otras
que permiten una muestra mucho más numerosa y variada.

4.4  La etnografía con perspectiva de género

La etnografía se interesa por lo que la gente hace, por cómo interactúa,


así como por descubrir sus creencias, valores, motivaciones... Su capaci-
dad para visibilizar fenómenos cotidianos es lo que ha hecho posible re-
saltar la vida de las mujeres y otorgarles el papel de agente y actor social.
Por este motivo, los estudios etnográficos son empleados con frecuencia
en las investigaciones con perspectiva de género.
Como no podía ser de otro modo, algunos de los problemas propios
de la etnografía se evidencian también cuando se aplica un enfoque de
género. Así, por ejemplo, la dificultad de conseguir confianza con el gru-
po a analizar, o acertar con la posición de quien investiga en relación a la
población observada. Aunque muchas investigaciones feministas se cen-
tran en reducir las distancias entre observador/a y observada/o (Roberts,
1981), en principio, no hay más facilidades para las mujeres que para los
hombres en la entrada al campo o la creación de rapport, ni es más «in-
ofensiva» o menos intrusiva la participación de las mujeres como investi-
gadoras. Cierta desigualdad entre quien mira y quién es mirada/o es par-
te de cualquier investigación. Judith Stacey (1988) explica que el trabajo
de campo y sus productos textuales representan una intervención en un
sistema de relaciones en la que la investigadora o el investigador es mu-
cho más libre para salir de ella que la investigada o el investigado.
Utilizar la etnografía en estudios sobre mujeres y/o con perspectiva de
género tiene la ventaja no sólo de documentar la vida y las actividades de
las mujeres y comprender sus experiencias desde su propio punto de vis-
ta, sino que permite además conceptualizar sus conductas en sus propios
contextos sociales, pero como cualquier otra técnica, puede incurrir en

194
6. La perspectiva de género en la investigación social

sesgos de género si no se está alerta. Magrit Eichler recoge un ilustrativo


ejemplo: «algunos pueblos primitivos se trasladaban junto con sus ani-
males, sus enseres y sus esposas» (Díaz y Dema, 2015: 75).
Los escenarios de análisis que se eligen son centrales en la investiga-
ción etnográfica, pues en ellos es donde se producen las interacciones re-
levantes, donde más tiempo permanece la persona que investiga y donde
es posible la contextualización de los comportamientos. Por ello, para
definir estos escenarios desde una perspectiva de género, conviene hacer
explícita la distinción entre lugares propios de cada género o espacios
mixtos y apuntar también la distinción entre espacios tradicionales o no
tradicionales con respecto al género. Así mismo, es relevante la propia
negociación de género para la entrada al campo, sin olvidar el poner de
manifiesto las relaciones de poder.
Señala Verena Stolke (1996) que muchos trabajos etnográficos fueron
realizados por y sobre mujeres antes de que la introducción de la pers-
pectiva de género en la investigación social reivindicara a las mujeres
para darles voz.

5.  Innovaciones metodológicas de la perspectiva de género

Sostiene Shulamit Reinharz (1992) que las investigadoras feministas han


usado y modificado todos los métodos de investigación disponibles, cosa
que acabamos de ver en la sección anterior. Esas modificaciones a veces
no son más que un buen diseño de la investigación, o formulaciones más
complejas de las técnicas conocidas, pero, en la práctica, son en sí mis-
mas innovaciones que amplían la potencialidad de cualquier método.
Por ejemplo, la Encuesta Europea de Condiciones de Vida, en su última
edición ha añadido un módulo, hecho con la misma técnica que el resto,
pero que al asumir la perspectiva de género permite ver las relaciones
desiguales entre mujeres y varones en el interior de los hogares. Se man-
tiene, en sentido estricto, la técnica, pero al ampliar el diseño, se descu-
bren más aristas del fenómeno a investigar. Esto puede considerarse no
una innovación en sentido técnico estricto, pero lo es en su práctica y por
sus resultados.
Ahora bien, hay ciertas modificaciones que pueden suponer una inno-
vación metodológica en sentido estricto, por ejemplo, la introducción del
concepto de interseccionalidad. En palabras de Kathy Davies (2008: 67):
«la interseccionalidad —la interacción de múltiples identidades y expe-
riencias de exclusión y subordinación— ha sido proclamada como una

195
La articulación de la investigación social

de las más importantes contribuciones del feminismo académico». El


concepto de interseccionalidad fue acuñado por Kimberlé Crenshaw en
1989 para dar cuenta de las experiencias de las mujeres de color, cuyos
problemas no acababan de ser comprendidos ni por el discurso feminista
ni por el antirracista. Crenshaw sostenía que hace falta considerar género
y raza conjuntamente para ver cómo interactúan y modelan las múltiples
dimensiones de las experiencias de las mujeres negras.
La interseccionalidad supone atender —y hacer visible— la multitud
de formas de opresión que experimentan las personas. Se centra, sobre
todo, en el efecto que la raza, el sexo, la clase social, la nacionalidad, la
orientación sexual, la diversidad funcional y la forma física tienen sobre
los sujetos estudiados. La interseccionalidad presta atención a las nume-
rosas formas de poder que dominan nuestras vidas y nuestras opciones
(sexuales, profesionales, políticas) al solaparse y producir una sinergia
negativa por la acumulación cruzada de formas de dominación.
Aunque la interseccionalidad se puede contemplar en su valor episte-
mológico, su transcendencia metodológica es innegable y es ya parte
constitutiva del enfoque de género. Implica que no sólo se ha de tener en
cuenta a las mujeres —y las relaciones de género entre mujeres y hom-
bres—, sino que la observación tiene que ser multidimensional al incluir
todas las otras relaciones —clase, raza, etnia, etc.— que éstas experimen-
tan. Las técnicas de investigación han de afinarse para ser capaces de
captar estas distinciones y su interactuación. Es otra dimensión de la
complejidad. Aunque la interseccionalidad puede usarse en el estudio de
todo tipo de personas o grupos, hasta ahora se ha aplicado, con más fre-
cuencia, al estudio de mujeres negras y de mujeres migrantes.
Otro elemento común de la mirada con perspectiva de género es la
transdisciplinariedad. No es exclusivo de esta perspectiva, pero los estu-
dios de género desde su origen han sido multidisciplinares, lo cual tiene
consideraciones metodológicas, ya que con frecuencia demanda el uso de
métodos que combinen las tradiciones de diferentes disciplinas y técni-
cas. Una defensa cerrada de la transdisciplinariedad busca romper con el
discurso de la modernidad (Harding, 2008) y, con él, superar la parcela-
ción y fragmentación del conocimiento en disciplinas, para ofrecer una
comprensión incluyente de la compleja realidad social.
La perspectiva de género reivindica otra innovación en relación al ob-
jeto de la investigación. Efectivamente, en un sentido general, podría de-
cirse que la observación sociológica con perspectiva de género, en sus co-
mienzos, empezó a analizar grupos de mujeres previamente considerados
de escaso interés académico (mujeres emigrantes, élites femeninas, muje-

196
6. La perspectiva de género en la investigación social

res encarceladas, del servicio doméstico, etc.). A la vez que estudiaba


esos grupos utilizaba, como fuente de datos, la información de la vida
cotidiana e íntima que tampoco se consideraba de interés por la mayoría
de las investigaciones sociológicas. Estos objetos, los espacios de estudio
y las fuentes de información han hecho que la perspectiva de género,
como otras perspectivas relevantes en el desarrollo de la disciplina socio-
lógica, haya ampliado tanto el espectro del análisis social como las fuen-
tes a utilizar. Señala Shulamit Reinharz (1985: 217) que la perspectiva de
género, además del uso de los datos habituales, convierte con frecuencia
lo que hasta entonces era considerado como «trivial» en «dato».
La incorporación de la perspectiva de género a la investigación social,
aun utilizando técnicas convencionales de producción de datos, con mu-
cha frecuencia ha llevado, como hemos visto en la sección anterior, a es-
tas técnicas más allá de su uso más convencional. Estas innovaciones han
estado presididas por la intención de favorecer la reflexión de las propias
mujeres analizadas sobre su situación y de incorporar sus propias voces
en la investigación, así como de evitar la jerarquía y la distancia entre
quien investiga y quienes son objeto de investigación y aun mostrar la
presencia de la propia investigadora y sus puntos de vista. En el sentido
más técnico, hay innovaciones muy recientes que se concretan en la pro-
ducción de la información en grupo (oral, escritura compartida o filma-
ción colectiva), favoreciendo la presencia de la diversidad (utilizada so-
bre todo en estudios aplicados a la denuncia o resolución de problemas
—violencia, sida, salud, política—). Otra de las formas en que se concre-
tan las innovaciones es en favorecer contextos de producción de datos no
intrusivos como las conversaciones, las dramatizaciones, la narrativa li-
bre, etc.
Un último tema a destacar es la especial relación entre la perspectiva
de género y el mundo digital. Desde el cíborg de Donna Haraway (1995)
—ese híbrido de tecnología y cuerpo para un mundo postgénero—, el
tecnofeminismo de Judy Wajcman —¿tiene sexo la tecnología?— (2006) o
el activismo radical de Sadie Plant en Ceros y unos (1998), la compleja re-
lación entre mujer y máquina, la incorporeidad en los ciberespacios y las
prácticas performativas que apuntó Butler pertenecen al corazón de la
teoría feminista de finales del siglo xx y, con estos temas entra, con pro-
tagonismo propio, en las ciencias sociales del xxi.
Ya se ha visto anteriormente, en el capítulo 4 de Navarro y Ariño, que
la nueva aproximación a lo digital desde la sociología está provocando
notables transformaciones en las técnicas de investigación social tradi-
cionales. Cuando se aplica la perspectiva de género a los fenómenos ci-

197
La articulación de la investigación social

bernéticos, y si se concibe el lenguaje como un acto performativo que


crea identidades teniendo en cuenta además las paradojas y peligros de
las formas actuales de incorporeidad que acompañan a estas nuevas tec-
nologías, va a ser preciso afinar notablemente nuestras técnicas y tecno-
logías de análisis si no queremos correr el riesgo de perdernos una parte
muy importante, novedosa y cualitativamente diferente de la realidad so-
cial.

6. Más allá de la metodología y del análisis. La praxis


feminista

Hasta aquí hemos visto cómo se incorpora la perspectiva de género en la


investigación social. Recapitulando lo expuesto hasta ahora, diremos que
hay, al menos, dos formas de entender esta incorporación. Desde una de
ellas, la más técnica, la inclusión de la perspectiva de género en la mirada
sociológica supone una ampliación imprescindible para abarcar nuestra
compleja realidad, que incluye a las mujeres y a los hombres con las diver-
sas identidades que ambos puedan asumir en un momento determinado y,
además, implica un esfuerzo consciente y sistemático para evitar los sesgos
de género, anteriormente presentados. La otra forma de entender la pers-
pectiva de género en la ciencia es más política al sostener que el hecho de
desvelar la existencia, la posición, el punto de vista y las acciones de las
mujeres es en sí mismo un acto político y un acto político feminista.
Formando parte del segundo enfoque se encuentra la investigación fe-
minista y/o la metodología feminista (De Vault, 1999). Para evitar ambi-
güedades definiremos el término «feminista» con una cita de Joan Acker,
Kate Barry y Johanna Esseveld, en su seminal artículo «Objetividad y
verdad. Problemas en la investigación feminista». Sostienen estas autoras
que el término feminista se refiere a diversos grupos de personas que to-
man posiciones diferentes sobre temas particulares y que se identifican
con un abanico de posiciones políticas. En nuestro uso, feminista se refie-
re a un punto de vista que: 1) ve a las mujeres como explotadas, devalua-
das y, a menudo, oprimidas; 2) está comprometido a cambiar las condi-
ciones de las mujeres, y 3) adopta una perspectiva crítica hacia las
tradiciones intelectuales dominantes que han ignorado y/o justificado la
opresión de las mujeres (1991: 137).
Conviene no olvidar que la perspectiva feminista en las ciencias socia-
les presenta ciertas diferencias, fundamentales algunas de ellas, con la
perspectiva de género, aunque asume como propios los elementos pre-

198
6. La perspectiva de género en la investigación social

sentados en este capítulo y los considera parte integrante de dicha meto-


dología. Pero da un paso más allá de la investigación, en sentido estricto
(Fonow y Cook, 1991). En efecto, la investigación feminista, que como
decimos incluye la perspectiva de género explicada hasta aquí, tiene por
objeto el cambio social. Entiende que la investigación ha de ponerse al
servicio del cambio creando las condiciones que lleven a la acción políti-
ca. María Mies (1983: 124) lo deja muy claro: «La investigación, que
hasta ahora ha sido en gran medida el instrumento de dominación y legi-
timación de las élites del poder, debe ser llevada al servicio de los intere-
ses de los grupos dominados, explotados y oprimidos». Por ello la inves-
tigación feminista es crítica con las estructuras sociales opresivas y no
sólo hace hincapié en las experiencias de las mujeres, sino que busca,
además, la emancipación de las mismas.
El centro de la investigación feminista es el estudio de las relaciones de
género entendidas como relaciones de poder. El paso de hacer una crítica a
las relaciones de poder a poner en práctica la investigación social feminista
consiste, por una parte, en incorporar la interpretación que las mujeres ha-
cen de sus propias experiencias y en hacerlo en sus propias palabras (Fo-
now y Cook, 1991; Reinharz, 1983; Stanley y Wise, 1983, Oakley, 1981).
Por otra parte, en intentar romper el desequilibrio de poder entre quien in-
vestiga y sobre quien se investiga, haciendo la investigación autorreflexiva.
Y, en tercer lugar, la investigación feminista trata de empoderar tanto a in-
vestigadores/as como a investigados/as (Westmarland, 2001; Ackert, Barry
y Esseveld, 1991). Estas tres prácticas de la investigación feminista, se asu-
men, por algunas investigadoras, no sólo por su pertinencia con los objeti-
vos feministas, sino como necesidad de rigor científico, como «criterio de
adecuación» (Acker, Barry y Esseveld, 1991).
Una parte importante de las investigadoras feministas usa los méto-
dos y técnicas empleados tradicionalmente en la investigación social (Re-
inharz, 1983; Fonow y Cook, 1991; Harding, 1987 y 2005; Ackerly y
True, 2010), aunque muestran preferencia por las técnicas cualitativas.
Sin embargo, hay otras investigadoras, entre las cuales la más reputada
quizá es Ann Oakley (1981), que entienden que las técnicas tradicionales
son fundamentalmente jerárquicas, sexistas y explotadoras, ya que cosifi-
can a la persona investigada. La mayor parte de las investigadoras en
esta línea renuncian explícitamente a la objetividad y critican la pretendi-
da objetividad y neutralidad investigadora «como una excusa para las re-
laciones de poder» (Stanley y Wise, 1993: 167), dado que todo pensa-
miento es un pensamiento situado en un tiempo, unas circunstancias y a
partir de unas experiencias (Haraway, 1995). Esta consciencia de la im-

199
La articulación de la investigación social

posible objetividad refuerza la necesidad de imponer fuertes criterios de


validez, que, en palabras de Acker, Barry y Esseveld, devienen de «la ne-
cesidad de que la investigación refleje fiel y exactamente los aspectos de
la realidad que dicen representar» (1991:145) y la insistencia en cumplir
además con el requisito de la adecuación —dar cuenta de la posición de
quien investiga y quien/es son investigado/a/s—. El resultado de investi-
gaciones como las señaladas supone, en palabras de DeVault (1999: 28),
que «las investigadoras feministas producen un cuerpo de conocimiento
sobre la práctica y la investigación feminista, que es lo que yo llamo
“metodología feminista”».
La intención de favorecer las condiciones para el cambio social que
orienta la investigación feminista, refuerza la idea de «conocer y ser co-
nocida». Esto es, se considera necesario no sólo conocer la situación de
las mujeres, sino también que se ha de hacer público dicho conocimiento.
Digamos que la investigación feminista apuesta por el aspecto reflexivo
del conocimiento social, que supone que devolver a la sociedad el cono-
cimiento sobre su propia realidad es una de las condiciones para que esta
realidad cambie. De ahí proviene la exigencia de popularizar los resulta-
dos de los estudios y de eliminar, en lo posible, la jerga académica.
La investigación feminista conlleva una ética que está presidida por la
pregunta de cómo es posible investigar el poder y tratar de mitigarlo si la
propia investigación supone participar en el poder al defender un conoci-
miento generado en nuestra investigación. Las respuestas, no definitivas,
a esta gran cuestión epistemológica son tan variadas como múltiples son
los feminismos (Ackerly y Atanassi, 2009). En cualquier caso, Ackerly y
True (2010: 22-23) ofrecen una definición de la ética en la investigación
que, probablemente, goza de amplia aceptación. Sostienen: «La ética fe-
minista en la investigación supone el compromiso de preguntar sobre
nuestras preguntas. Requiere la habilidad de estar atentas/os a: a) el po-
der del conocimiento y, más profundamente, de la epistemología; b) las
fronteras, la marginalización, los silencios y las intersecciones; c) las rela-
ciones y su poder de diferenciación y d) nuestra propia localización (o
“situacionalidad”)».
Cerramos este capítulo con la propuesta de la incorporación de la
perspectiva de género (o la feminista, si ésa es la intención) como medio
de alcanzar una investigación social de más calidad que no subvalore a la
mitad de la población y que incluya las perspectivas y las experiencias de
las personas investigadas como datos de la misma.

200
6. La perspectiva de género en la investigación social

Notas
1  La sección cuarta, relativa al análisis con perspectiva de género de diversas
técnicas de investigación social, ha sido realizada en colaboración con Teresa
Samper Gras, profesora del Departamento de Sociología y Antropología Social
de la Universidad de Valencia.

Bibliografía recomendada
Barta, Eli (comp.) (2002): Debates en torno a una metodología feminista. México
DF, Universidad Autónoma de México. http://diarium.usal.es/frias/2014/
08/14/metodologias-feministas-en-la-investigacion-el-libro-debates-en-torno-
a-una-metodologia-feminista-en-libre-acceso.
Dansilo, Sergio (2004): «La defensa de la objetividad en las epistemologías femi-
nistas», Galileo, 2ª época, 30 de octubre, Uruguay.
Díaz, Capitolina y Sandra Dema, (2013): «Metodología no sexista en la investi-
gación y producción de conocimiento», en Capitolina Díaz y Sandra Dema
(2013), Sociología y género, Madrid, Tecnos, pp. 65-86.
Harding, Sandra (1996): Ciencia y Feminismo, Madrid, Morata.
Nicolás Lazo, Gemma (2009): «Debates en epistemología feminista: del empiri-
cismo y el standpoint a las críticas postmodernas sobre el sujeto y el punto de
vista», en Gemma Nicolás y Encarna Bodelón (comps.), Género y domina-
ción. Críticas feministas del derecho y el poder, Barcelona, Anthropos y el Ob-
servatori del Sistema Penal i els Drets Humans de la Universitat de Barcelo-
na (OSPDH).

201
La articulación de la investigación social

7.  La medición:
validez y fiabilidad

Consuelo del Val Cid

1. Introducción

En 1943, L. H. C. Tippet, estadístico inglés formado bajo la dirección de


Fisher y Pearson, matizaba impecablemente la famosa y ya anacrónica
frase de Lord Kelvin, en la que éste calificaba de escaso e insatisfactorio
cualquier conocimiento que no pudiera ser «medido», esto es, expresado
en números. Tippet (1943: 72-73) tacha de exagerada esta afirmación tan
categórica, «puesto que de muchos estudios cualitativos se han deducido
resultados importantes (…) y olvida en cambio expresar la necesidad de
que la medida numérica sea de tal clase que pueda entrar en un sistema y
relacionarse con otras cantidades, pues de lo contrario es estéril y añade
poco al conocimiento cualitativo».
En esta réplica se recogen dos pilares fundamentales de la investiga-
ción social empírica: por un lado, la fructífera y simbiótica relación que
mantienen el enfoque cualitativo y el enfoque cuantitativo y, por otro, la
construcción de medidas rigurosas que garanticen la acumulación de co-
nocimiento científico mediante la aplicación del método comparado que
es, en esencia, el método sociológico. En este marco es en el que se define
la línea de elaboración de este capítulo dedicado a la medición, lejos tan-
to de posturas quantofrénicas que sacralizan la expresión numérica de los
fenómenos sociales como de aquellas que la rechazan y le restan validez.

202
7. La medición: validez y fiabilidad

¿Cómo se pueden medir fenómenos sociales de una forma rigurosa?


Este interrogante nos conduce al problema de la medida. Todos realizamos
juicios a diario en los que, implícitamente, estamos haciendo algún tipo de
medición —«hace más frío que ayer», «está demasiado salado»—, aunque
sin hacer referencia explícita a un número (Nagel, e.o: 1930). Así, por
ejemplo, si recurrimos a un recetario de cocina tradicional, nos encontrare-
mos con frases como «una pizca de sal» o «la harina que te vaya pidiendo
la masa», donde se aprecia que las operaciones reflejadas están basadas en
los juicios expertos de los cocineros. Esta vaguedad cualitativa conlleva
cierta incertidumbre en los resultados que se puedan obtener, por lo que
cada vez se hace más necesaria la introducción de una medida, de un refe-
rente numérico, que garantice un resultado consistente.

2.  El significado de la medición

Medir, en su forma más elemental, significa «comparar una cantidad con


su respectiva unidad, con el fin de averiguar cuántas veces la segunda
está contenida en la primera» (RAE, 2014). Y esto es relativamente sen-
cillo si nuestro objeto de estudio está formado o bien por características
del mundo físico (temperaturas, alturas, distancias) o bien por aspectos
concretos de la sociedad (edades, número de habitantes, precios, etc.).
Pero el proceso se complica si el interés se desplaza a aspectos de compo-
nente subjetivo como opiniones, actitudes, valores, sentimientos o ideolo-
gías. En este sentido, las primeras pueden ser sometidas a un proceso de
cuantificación rigurosa, en tanto que los segundos sólo a un proceso de
cuantificación aproximada (Ander-Egg, 1995: 112).
En este punto ya podemos hablar de dos definiciones de «medición»
muy asentadas en los textos de metodología. La primera, formulada por
Stevens (1946: 677), se centra en que «medir es algo relativo. Varía en gé-
nero y grado, en tipo y precisión. En su sentido más amplio, medir es
asignar numerales a objetos o acontecimientos de acuerdo con ciertas re-
glas. El hecho de que se puede hacer con diferentes reglas origina dife-
rentes tipos de escalas y diferentes tipos de medición». Y esas reglas son
las que fijan la adecuación del ajuste entre el modelo matemático y aque-
llo que representan. La segunda, más restrictiva, fija como requisito mí-
nimo el nivel de intervalo y, mejor aún, el de razón (se conoce el orden y
la distancia entre individuos y existe un cero absoluto en lo que se estu-
dia), para que la medición científica tenga lugar (Laming, 2002: 691; Mi-
chell, 1999: 14).

203
La articulación de la investigación social

No obstante, ambas aportaciones muestran desajustes en su aplica-


ción al ámbito de las ciencias sociales. La de Stevens, porque el interés de
estas últimas se centra mayoritariamente en comportamientos, actitudes
y opiniones, más que en objetos o fenómenos. La de Laming o Michell,
porque gran parte de estos objetos de estudio permiten, como mucho,
medidas que clasifiquen u ordenen a los sujetos respecto a una propie-
dad. Por todo ello, resulta más apropiada y ecléctica la definición que
ofrecen Coombs y otros (1981), de proceso mediante el cual representa-
mos las propiedades de los objetos (sujetos) mediante números.
Para empezar a medir se debe poner en relación un elemento de la
realidad social con un modelo o sistema lógico abstracto mediante reglas
semánticas. Este procedimiento, según Lord y Novick (1968) requiere:
a) un objeto (unidad observacional o persona), b) propiedades o com-
portamientos a medir y c) una regla de asignación numérica que permita
relacionar el número con la unidad de medida. Este último requisito
plantea la cuestión del isomorfismo, esto es, que haya una corresponden-
cia biunívoca entre las operaciones que se puedan hacer con los números
y con las propiedades a medir. El isomorfismo de las ciencias físicas no
puede trasladarse automáticamente a las ciencias sociales, donde se ha
consensuado desde hace tiempo la existencia de diferentes niveles de me-
dición y donde lo más importante es la asignación de representaciones
simbólicas a objetos o hechos de acuerdo a unas reglas. Podemos hablar
de isomorfismo, pero de un tipo especial de isomorfismo.
Las dificultades crecen cuando nos detenemos en el hecho de que mu-
chos de los aspectos que nos interesan en ciencias sociales no pueden me-
dirse directamente porque no son directamente observables (alienación,
democracia, autoritarismo, inteligencia, etc.). Entonces, el investigador
adopta estrategias para acercarse a dichos conceptos a través de «sínto-
mas» o indicadores que le permitan medir algún aspecto de aquellos. Del
mismo modo, el componente cualitativo y la complejidad de muchos de
estos aspectos añaden un plus de dificultad, haciéndolos invisibles (Ca-
plovitz, 1982, 195), lo que suele subsanarse con la creatividad e imagina-
ción del investigador, encargado de buscar indicadores objetivos de di-
chas cualidades, de sus causas o de sus efectos.
Este debate nos arrastra hacia otro tema relevante, el mayor o menor
grado en que la medida debe implicar el uso de técnicas estandarizadas
explícitas, basadas en una suerte de objetividad procedimental, que mini-
micen el papel desempeñado por el criterio humano en la producción de
evidencias, y maximicen las probabilidades de obtener una medida váli-
da, alejada de los errores derivados del factor humano (Wilks, 1961: 5).

204
7. La medición: validez y fiabilidad

3.  El desarrollo de las medidas

En las ciencias sociales es inagotable la discusión sobre lo que es o no men-


surable, establecida desde hace décadas entre los defensores y detractores
del enfoque cuantitativo. Mayor consenso despierta la afirmación de que
la primera fase de la medición pasa por definir cuál es el objeto de nuestra
curiosidad científica. Después de hacer una revisión de las investigaciones
que previamente han podido abordar profunda o tangencialmente nuestro
objeto de interés, y tras una reflexión sobre los enfoques teóricos utiliza-
dos, debemos plantear nuestros propios presupuestos teóricos de partida y
elaborar un sistema conceptual que permita la aplicación del método cien-
tífico. Tal y como señala Corbetta (2007: 76), el término concepto procede
del latín (cum capio = tomar de manera conjunta), y «expresa la acción de
ordenar varios elementos bajo un solo acto de pensamiento, y el acto de
extraer de la inmediatez de las impresiones sensibles y las representaciones
concretas una abstracción con significado universal». Sin embargo, este
grado de abstracción puede ser tan alto que no permita su observación di-
recta y requiera dar pasos adicionales hacia la concreción.
Los conceptos tienen una función instrumental. En realidad, son abs-
tracciones sintéticas de un conjunto de características, actitudes o compor-
tamientos que, desde nuestra perspectiva, tienen un nexo común y que ela-
boramos para que sean científicamente útiles. No tienen un significado
inamovible, sino que se definen de acuerdo a determinados criterios, y desa-
rrollamos indicadores (más concretos) que se ajusten a la definición dada.
Posteriormente son analizados a partir de los indicadores e informados a la
comunidad científica, para que puedan ser debatidos y replicados. Esto no
implica que vayan a ser tachados de falsos o verdaderos, sino, tal y como
afirma De Vaus (2004), catalogados en función de su grado de utilidad. Por
ello decimos que los indicadores confieren utilidad a los conceptos.
Hay que tener en cuenta que las diferencias en las definiciones produ-
cen diferencias en los resultados. Alonso y Lombardo (2014: 27) ponen
como ejemplo el conocido concepto de «estado del bienestar» en ciencia
política. Destacan cómo Esping-Andersen construye una tipología de es-
tados del bienestar: liberales, conservadores y socialdemócratas, a partir
de tres dimensiones básicas del concepto (relaciones Estado-mercado, es-
tratificación y desmercantilización), y aunque éste parece neutral, la lite-
ratura feminista ha mostrado cómo las dimensiones propuestas por este
autor ignoran la situación de las mujeres que dedican su tiempo a las ta-
reas de cuidados y que sólo pueden acceder a las provisiones públicas de
modo indirecto, a través del marido o compañero. Al no ser consideradas

205
La articulación de la investigación social

como sujetos autónomos y centrar la atención en la clase social como


factor generador de desigualdades, se deriva en una concepción andro-
céntrica del estado del bienestar. La perspectiva de género descubre aquí
la importancia del enfoque dado a los conceptos sobre los resultados de
la investigación.
A modo de guía, se pueden señalar varios pasos en la definición de un
concepto: a) elaborar un listado de definiciones alternativas, basadas en
la experiencia del investigador y en la revisión bibliográfica, b) elegir una
definición entre las propuestas o crear una a partir de las concordancias
existentes en las que hemos listado previamente y c) fijar las dimensiones
del concepto. Este último paso puede adquirir un mayor grado de com-
plejidad si necesitamos establecer subdimensiones. Por ejemplo, si parti-
mos del concepto de bienestar de la tercera edad, podemos fijar una serie
de dimensiones importantes para su estudio: física, psicológica, econó-
mica, emocional, social. Pero si nos centramos en el bienestar social, po-
demos incorporar subdimensiones como el grado de aislamiento en el ve-
cindario, grado de aislamiento familiar, etc. El grado de aislamiento
familiar podría ser subdividido, a su vez, teniendo en cuenta la frecuen-
cia de relaciones con los hijos, con los nietos, con los hermanos, etc.
Una vez definido claramente el concepto, con sus dimensiones y sub-
dimensiones, seleccionaremos una serie de indicadores o variables empí-
ricas que, tal y como explica Lazarsfeld (1973), indiquen la extensión que
alcanza la dimensión en los casos analizados. Por último, el investigador
deberá concluir el proceso que venimos describiendo con la construcción
de índices, que sinteticen los indicadores utilizados. A cada indicador se
le asigna un valor o peso específico, de acuerdo con la importancia que
se le conceda.
Este proceso, por el que llegamos a seleccionar fenómenos observa-
bles que representan conceptos abstractos, es conocido como operacio-
nalización, en tanto que la especificación de los pasos para formular ob-
servaciones se denomina instrumentación (Manheim y Rich, 1988: 68).
En la figura 1 gráfico se recoge, en terminología de Lazarsfeld, el flujo de
los conceptos a los índices empíricos.

Figura 1. Pasos en el proceso de operacionalización

Concepto Dimensiones Indicadores Índice


s

206
7. La medición: validez y fiabilidad

Los investigadores cuantitativos consideran que este proceso de ope-


racionalización clásica tiene varias ventajas:

1) La estandarización del procedimiento lo hace más objetivo, al eli-


minar el componente subjetivo o idiosincrático del investigador.
2) Garantiza la recogida de los mismos datos, independientemente
del número y perfil de entrevistadores involucrados en el trabajo
de campo.
3) La especificación del procedimiento hace posible su replicación
(Hammersley, 2010: 414).

3.1  Las variables

El objeto central de la investigación social lo constituyen realidades cono-


cidas como unidades de observación, de las cuales se obtienen los datos
empíricos necesarios para contrastar las hipótesis formuladas (explicacio-
nes plausibles al problema bajo estudio). Pero la investigación social no
examina a los individuos o unidades de observación globalmente, sino que
lo hace a través del análisis de características de dichas unidades, que son
significativas teórica o sociológicamente, es decir, de variables. Freeman
(1971: 18) define las variables como «características observables de algo
que son susceptibles de adoptar distintos valores o de ser expresadas en
varias categorías». Así, por ejemplo, la variable edad puede adoptar los va-
lores de 18, 19, 20, 21 años y la variable estado civil puede adoptar las ca-
tegorías de soltero, casado, viudo, divorciado, etc.
El proceso de categorización de las variables es fundamental en el pro-
ceso de medición. Su construcción debe reunir los requisitos de un siste-
ma explícito:

• La categorización de la variable debe ser exhaustiva, es decir, debe


contar con las suficientes categorías como para que ningún objeto
o sujeto pueda quedar excluido de la clasificación. Cuando el in-
vestigador tenga alguna duda sobre el estricto cumplimiento de
este criterio, deberá incluir la categoría «otros».
• Las categorías deben ser mutuamente excluyentes entre sí, esto es, no
deben existir dudas a la hora de clasificar a un objeto o sujeto entre
las distintas categorías. Así, la variable ingresos familiares mensuales
puede agrupar categorías correctamente del siguiente modo: < 400 €
(1), de 400 a 600 € (2), de 601 a 1.000 € (3), de 1.001 a 2.000 € (4), de
2.001 a 3.000 € (5), de 3.001 a 6.000 € (6), > de 6.000 € (7).

207
La articulación de la investigación social

• El establecimiento de categorías debe realizarse con el mayor deta-


lle posible. Tal y como explica Cea (2012), se busca la precisión en
la información, abriendo la posibilidad de agrupamiento de cate-
gorías a posteriori, en función de la frecuencia que se obtenga
para cada una de las mismas.

En este punto, el problema de la medición se nos presenta bajo diferentes


formas dependiendo de las características del objeto de estudio. Si nos
centramos en comportamientos, éstos pueden ser verificados directamen-
te (ingresos, voto en las últimas elecciones generales, frecuencia de asis-
tencia al médico de familia, etc.). Si ponemos nuestro interés en caracte-
rísticas de tipo psicológico (actitudes, emociones, etc.), sólo podremos
contrastarlas a través de medidas indirectas. Este dilema nos conduce
hasta la clasificación de las variables según el nivel de medición. Además
de este criterio, suelen utilizarse otros tres, a saber: nivel de abstracción,
lugar que ocupan en el diseño de investigación y naturaleza, ya tratados
en otros capítulos de este texto.
Según el nivel de medición de las variables, contamos con:

a) Variables nominales [de naturaleza cualitativa]: distinguen diver-


sas categorías que expresan ausencia o presencia de la cualidad en
el sujeto sin implicar orden entre ellas (ej.: sexo, voto en las últi-
mas elecciones, lugar de nacimiento). Su manipulación estadística
se ve limitada, ya que el cifrado o números que se les asignan sir-
ven sólo como nombres para identificar las cualidades que se es-
tudian: ej.: (1) hombre y (2) mujer.
b) Variables ordinales [de naturaleza cualitativa]: además de distin-
guir entre sus categorías, establece un orden o grado entre ellas, lo
que permite un análisis estadístico algo más complejo (ej.: grado
de acuerdo con la reforma de la ley del aborto, grado de satisfacción
con la vida en pareja, nivel de estudios).
c) Variables de intervalo [de naturaleza cuantitativa]: implican orden
y distancia entre las distintas categorías o valores. El origen se fija
de forma convencional. Permiten un nivel de sofisticación supe-
rior en el análisis (ej.: coeficiente de inteligencia).
d) Variables de razón [de naturaleza cuantitativa]: se establece un
cero absoluto y permite trabajar con proporciones. Es el nivel de
medición superior, pero también el menos habitual en ciencias so-
ciales (ej.: ingresos mensuales en el hogar —en euros).

208
7. La medición: validez y fiabilidad

Dado que el nivel de medición es el criterio más relevante desde un


punto de vista analítico, éste debe ser elegido teniendo en cuenta el con-
cepto teórico que pretendemos cuantificar.
Sin ánimo de ser exhaustivos y recapitulando, reformulamos a conti-
nuación algunas preguntas que deberían hacerse los investigadores nove-
les a la hora de decidir si su objeto de estudio es o no susceptible de ser
sometido a medición (Punch, 1998: 91):

• ¿Puedo describir el concepto o la variable que tengo en mente?


• ¿Puedo representar un continuum unidimensional con mayores o
menores «cantidades» de la variable, representadas en diferentes
ubicaciones en el mismo?
• ¿Dispongo de métodos fiables para identificar las diferentes
ubicaciones a lo largo del continuum, así como para identificar los
indicadores que proporcionan representación empírica de estas
ubicaciones y asignarles a estas últimas números que permitan ca-
librar el continuum?
• ¿Muestran las variables regularidades observables, estables a lo
largo del tiempo o, si varían, lo hacen de forma no aleatoria?

Es evidente el papel fundamental que desempeña la categorización en las


fases de medición y análisis del proceso investigador. Sin embargo, es fá-
cil apreciar que las categorías que utilizamos en las ciencias sociales no se
ajustan siempre al modelo clásico que esbozamos, esto es, a una estruc-
tura cuantitativa. En este sentido, Aaron Cicourel (1982) planteaba años
atrás el dilema al que se enfrenta el sociólogo «1) si sus conceptos teóri-
cos no son tan precisos que le digan qué sistemas de medida son adecua-
dos para sus datos, podrá engañarse con métodos que impongan rela-
ciones incoherentes a interpretaciones equivocadas sobre sus datos y su
teoría; y 2) si las mismas medidas empleadas son inadecuadas por cómo
han sido hechas, produciéndose una medición más arbitraria que preci-
sa». Para comprender la transformación de la teoría y el método en la
medida formal, se debe estudiar la relación entre el lenguaje común, los
sentidos culturales y la equivalencia lógica. Cicourel sugiere la necesidad
de «meterse» en la sociedad que se estudia, profundizando en las catego-
rías utilizadas en la vida cotidiana. Estas categorías son más flexibles y
difusas (fuzzy) y no podemos convertirlas mecánicamente en categorías
analíticas. La construcción de categorías exhaustivas, mutuamente exclu-
yentes y precisas puede limitar la creatividad del investigador a la hora
de generar clasificaciones más fructíferas, basadas en prototipos. Los me-

209
La articulación de la investigación social

todólogos más críticos consideran, además, que la categorización no de-


bería ser siempre tomada como el punto de partida en el proceso de in-
vestigación, sino que seríamos más rigurosos si desarrolláramos y
refináramos las categorías a lo largo de todo el proceso, proyectándolo
hacia el futuro.

3.2 Indicadores

La Real Academia de la Lengua Española define un indicador como


algo «que indica o sirve para indicar» (2014). Su utilidad para indicar es
la clave para situarlo en el proceso de investigación social, ya que en las
ciencias sociales, como ya se ha visto, la mayor parte de la medición es
indirecta, es decir, los fenómenos que se someten a observación no son
susceptibles de medirse o de indicarse directamente, sino que suelen ser
inferidos a partir de instrumentos que sirven para indicar. Esa compleji-
dad ha producido una inagotable lista de definiciones de lo que se entien-
de por indicadores sociales. Carmona Guillén (1977: 28) recoge hasta 19
definiciones a finales de los años setenta, pero la mayoría de ellas conver-
gen en que un indicador social es la definición operacional, observable, de
un concepto o de una de sus dimensiones, que representan al mismo, a partir
de una teoría que permita abordar fenómenos empíricos, y que se presenta
en forma de expresión numérica o estadística, con vocación de aplicabilidad
en la sociedad que pretende reflejar.
Los indicadores, siguiendo a González Blasco (2010: 352), reúnen dos
características principales: a) mantienen relación con el concepto o di-
mensión que persiguen indicar (consistencia) y b) son expresión numérica
o estadística de la dimensión que reflejan. En el proceso de concreción,
un concepto se empobrece teóricamente, pero se facilita su manipulación
matemática o estadística y su comparabilidad con otros indicadores inter
e intraconceptos. Por ello, además, los indicadores han de ser factibles, es
decir, que se nutran de información cuantitativa, y construirse con esca-
las que permitan su agregación y desagregación y garanticen su dinamis-
mo, siendo susceptibles de modificación acorde a los cambios sociales.
La relación probabilística entre conceptos e indicadores puede produ-
cir dos tipos de error a lo largo del proceso de medición: el que se da
cuando el concepto está presente y el indicador ausente y, a la inversa, el
resultante de que el indicador esté presente y el concepto ausente. Caplo-
vitz (1982: 199) pone un ejemplo para ilustrar estos errores con indicado-
res de ansiedad. Así, dice que una persona puede morderse las uñas no

210
7. La medición: validez y fiabilidad

porque esté ansiosa, sino porque tiene alguna uña rota, y otra persona
puede no dormir por la noche por algún malestar físico. También es po-
sible que esas personas no muestren esos síntomas pero realmente estén
ansiosas, experimentando otros indicadores menos evidentes o visibles.
Se puede ampliar el abanico de errores: unos que derivan de una de-
fectuosa redacción de las preguntas, lo que puede dificultar su interpre-
tación y, en consecuencia, producir una clasificación incorrecta de las
respuestas de los sujetos y otros que, sencillamente, resultan del hecho de
que un solo indicador sea insuficiente para abarcar la complejidad del
concepto. Para eludir exitosamente este tipo de errores los investigadores
suelen recurrir al uso de más de un indicador para medir un concepto o
una dimensión. Los indicadores múltiples presentan una serie de ventajas
a considerar, entre las cuales destacan la reducción de la probabilidad del
error y la superación de la simplicidad de la tradicional categorización
dicotómica (sí/no), mediante el despliegue del grado en que el concepto
está o no presente en el sujeto observado.
Otra perspectiva de acercamiento a lo que los distintos autores entien-
den por indicadores sociales nos la ofrecen las tipologías que éstos pro-
ponen. La primera de ellas, la más básica, es la que sugiere Bryman
(2012: 164) al distinguir entre medida (measure) e indicador. Las medi-
das son cantidades, y se refieren a cosas que pueden ser contabilizadas
sin ambigüedades, como los ingresos personales. Por su parte, los indica-
dores son medidas indirectas de un concepto o dimensión, como los es-
tudios del padre y de la madre a la hora de medir la clase social.
De mayor complejidad es la que distingue entre indicadores descripti-
vos y analíticos, también llamados normativos (Carley, 1981) o diagnós-
ticos (Hakim, 1978). Los indicadores descriptivos muestran las posibles
regularidades existentes en un conjunto de datos, sin tener detrás ningún
modelo explícito de causalidad o de prospectiva. Por su parte, en los in-
dicadores analíticos o diagnósticos siempre subyace un modelo que in-
tenta explicar y valorar los datos mediante el análisis que se lleva a cabo.
Hay un gran número de indicadores, ya sean los ofrecidos por los or-
ganismos internacionales, como el Banco Mundial, la ONU o por otros
de carácter regional, como la CEPAL, que se han especializado en la
producción de indicadores basados en unidades colectivas (estados), glo-
bales, como el porcentaje de mujeres en el Parlamento utilizado en la
construcción del Índice de Desigualdad de Género, ya sean los de carác-
ter analítico generados por investigadores independientes y basados en
unidades individuales (gasto medio familiar en cultura, obtenido del co-
ciente entre la suma de gastos de cada uno de los componentes de la uni-

211
La articulación de la investigación social

dad familiar y el número total de los mismos). Por último, cabría hablar
de indicadores apropiados para el estudio de grupos u organizaciones,
que permitirían operativizar diferentes aspectos de las relaciones que
mantienen en su seno (frecuencia de reuniones de los departamentos de
una determinada organización, como medida de cohesión). Éstos ven-
drían a completar la clásica diferenciación hecha por Lundberg (cit., por
González Blasco, 2010: 355), que distingue entre indicadores globales,
analíticos y estructurales.
Pero la más polémica es la que establece una diferencia entre indica-
dores normativos, objetivos y subjetivos (Land, 1983). Los normativos
son aquellos que tienen un carácter consensuado socialmente y las varia-
ciones en los mismos son interpretadas de forma consistente; un ejemplo
clásico son los utilizados por Naciones Unidas. Los indicadores objeti-
vos suelen recoger datos de individuos o grupos que se pueden contabili-
zar y no son susceptibles de interpretación (condiciones sociales), en
tanto que los subjetivos miden la realidad subjetiva que la gente experi-
menta (satisfacción, realización, etc.). Pero no se debe olvidar que en to-
dos los indicadores hay un componente de subjetividad, que puede partir
tanto de los presupuestos ideológicos y de valores de los investigadores
que los construyen o interpretan como de los contextos en los que se
aplican.
Durante el proceso de construcción de indicadores surgen dos pregun-
tas de carácter práctico, a saber, cuántos se han de utilizar y qué pasos
hay que seguir para generarlos. De Vaus (1990: 51-53) plantea una serie
de consideraciones para fijar el número adecuado: a) si un concepto es
multidimensional, definir en qué dimensiones se está realmente interesa-
do (criterio de relevancia para la teoría); b) asegurarse de que los concep-
tos clave están medidos a fondo; c) no escatimar en preguntas para medir
actitudes y opiniones complejas, de modo que se garantice la aprehen-
sión del alcance del concepto; d) cuando no hay acuerdo en la forma de
medir un concepto, desarrollar indicadores desde un rango amplio de de-
finiciones y ver las diferencias que éstas imprimen a los resultados e in-
terpretaciones; e) desarrollar una prueba piloto de indicadores para ex-
cluir los que resulten accesorios o redundantes y, por último, f) el
número final de indicadores también se verá afectado por razones de ín-
dole práctica, como la duración del cuestionario y el método de adminis-
trarlo.
Conviene añadir que cuando se trabaja o bien con datos secundarios
o bien con datos agregados, el investigador ve reducida considerablemen-
te su autonomía para decidir sobre el número de indicadores al tener que

212
7. La medición: validez y fiabilidad

limitarse a los datos disponibles. En este tipo de situaciones, la creativi-


dad, la experiencia y la imaginación sociológica del investigador juegan
un papel decisivo en la elaboración de medidas más complejas, en la
construcción de índices.
Las primeras fases tienen una enorme importancia a la hora de garan-
tizar el éxito en la validación estadística de los indicadores, pues se trata
de fundamentar el análisis posterior. Una vez hecha la selección primaria
de los indicadores nuestra preocupación se desplaza hacia la evaluación
del grado de adecuación del indicador, esto es, si realmente mide lo que
se quiere medir. En este punto el análisis multivariante y, más en concre-
to, el análisis factorial, son utilizados para decidir qué indicadores o gru-
po de indicadores se aproxima con más exactitud al concepto que tenemos
en mente. La potencia del análisis factorial es sobradamente conocida,
por lo que es fácil caer en un empiricismo ramplón, mediante el cual se
abandone el proceso deductivo de selección o construcción de indicado-
res a partir de conceptos, de alto componente teórico, para caer en la
praxis de someter a análisis factorial un marasmo de indicadores, en una
iteración continua, hasta conseguir que un grupo o bloque de esos indi-
cadores dé forma a un factor, que será considerado equivalente a un nue-
vo concepto, que habrá de ser nombrado. Carlos Moya (1972), tras la
época del boom de los indicadores, advertía de que con estas prácticas
«la investigación científica de la realidad social pierde su vieja forma de
planteamiento problemático: la discusión crítica de enfoques teóricos y
metodológicos desaparece, basta ahora con seguir recetas de investiga-
ción operacional». Pero el tiempo ha demostrado que hay un espacio
para la contabilidad social y otro para las investigaciones abiertas al viejo
estilo del planteamiento radicalmente problemático.
Pero el proceso más normalizado consiste en elegir los indicadores
que aparentemente sean más relevantes para medir un concepto y, en
una segunda fase, someterlos a una prueba estadística que busque el gra-
do de correlación entre la muestra de indicadores seleccionados. La ausen-
cia de relación permitirá descartar de esa muestra el que presente una
menor correlación, pues implicará que no está midiendo el mismo con-
cepto. Una correlación alta confirmará que miden el mismo concepto,
pero una correlación muy fuerte entre dos indicadores nos planteará la
necesidad de elegir uno de los dos para construir medidas más comple-
jas, índices, ya que la inclusión de ambos no aportará gran cosa al estu-
dio del concepto.
En el anexo virtual recogemos dos ejemplos de construcción de siste-
mas de indicadores que pueden ilustrar lo expuesto hasta el momento:

213
La articulación de la investigación social

SGTIC (Sistema de Indicadores de Género y TIC) de Castaño y otros


(2011: 127-140) y SINDISCRIP (Sistema de Indicadores de Discrimina-
ción Penitenciaria), de Del Val y Viedma (2013).
Los datos agregados proporcionados por instituciones oficiales ponen
sobre el papel dos criterios de homogeneidad relevantes a tener en cuenta
a la hora de generar o seleccionar indicadores. El primero es el del nivel
de desagregación que podamos obtener (a mayor desagregación mayor
potencial analítico), y el segundo, el de la periodicidad de la informa-
ción, cuya consistencia es siempre deseable.

3.3 Índices

Los índices son el último eslabón en el proceso de operacionalización de


un concepto. Y se construyen cuando el grado de complejidad del mismo
así lo requiere. Por ejemplo, sólo cuando un concepto se descompone en
varias dimensiones y subdimensiones, y se concreta en indicadores, nos
vemos abocados a sintetizarlos en un solo índice. Un índice es, por tanto,
la medida compleja que se obtiene combinando los valores obtenidos por un
individuo en cada uno de los indicadores propuestos para la medición de
una variable (Lazarsfeld, 1969: 12). Así1, después de descomponer el con-
cepto de pobreza infantil en seis dimensiones fundamentales —relativas
a los derechos a la alimentación, al saneamiento, a una vivienda digna, a
la educación, a la información y a la salud—, y concretar estas últimas
en indicadores de distinta índole (tener teléfono en el hogar, acceso al
agua corriente en la vivienda habitual, asistencia a la escuela, etc.), pode-
mos generar o recomponer el concepto original mediante un índice glo-
bal de pobreza infantil en un determinado país (Tuñón y González,
2013). Este proceso refleja los dos momentos que Amartya Sen (1976)
establece en las medidas multidimensionales para, la estimación de la po-
breza, uno primero de identificación, durante el cual se establecen los cri-
terios para definir si un sujeto es o no pobre, para a continuación, fijar el
método mediante el que se agregarán las privaciones a efectos de generar
una medida de pobreza de una población en concreto.
Cuando el investigador no produce primariamente los datos, no pue-
de definir los indicadores a partir de sus presupuestos conceptuales de
partida, ya que sólo cabe echar mano de los datos existentes e intentar
adaptarlos. Nos encontraríamos en esta situación si quisiéramos hacer
un análisis comparado entre distintos países y tuviéramos que recurrir a
estas bases de datos que, por supuesto, a pesar del esfuerzo realizado tie-

214
7. La medición: validez y fiabilidad

nen sus limitaciones. Entre las preguntas más frecuentes de la web del
PNUD sobre el índice pobreza multidimensional, destaca la siguiente:
¿por qué no se incluye la variable «ingresos»? Y la respuesta pone en evi-
dencia, con toda crudeza, la realidad de la recopilación estadística inter-
nacional: «No podríamos incluir los ingresos debido a las limitaciones de
los datos. La pobreza de datos sobre los ingresos viene de diferentes en-
cuestas. Las encuestas que disponen de datos sobre ingresos no suelen te-
ner información sobre salud y nutrición. En la mayoría de los casos no se
puede identificar si la misma gente que tiene ingresos por debajo del um-
bral de la pobreza también están privados en el resto de los indicadores
del índice de pobreza multidimensional» (2015).
Además, al generar índices conviene tener presente la necesidad de
trabajar con indicadores que tengan en común una misma escala de me-
dición, a fin de poder ser manipulados estadísticamente de forma senci-
lla y facilitar su agregación. A continuación se les adjudican los mismos
o diferentes pesos, esto es, son ponderados en función de la importancia
que les asignemos a la hora de medir la dimensión del concepto o el con-
cepto en sí mismo. ¿Cómo se adjudican estos pesos? El objetivo es conse-
guir una ponderación sencilla, de fácil interpretación y, cuando la varia-
ble contenga significados opuestos (muy favorable-muy desfavorable o
muy indignado-nada indignado), se deberán utilizar, en consecuencia,
signos opuestos.
El caso del Sistema de Indicadores de Género y TIC de Castaño y
otros (2011) permite visualizar los pasos seguidos hasta la obtención del
índice y, en consecuencia, los métodos de ponderación utilizados. El
ejemplo de SINDISCRIP plantea otro método de construcción del índi-
ce, basado en la teoría matemática de la comunicación de Shannon
(1948), que aborda el problema de la medición de la información como
una función de probabilidades (véase el anexo virtual).

3.4  La traducción empírica de conceptos complejos: escalas

Cuando las características que queremos medir no son directamente ob-


servables, decimos que están latentes o escondidas. A partir de lo que sí
podemos observar, es decir, de indicadores que resultan de la interacción
de las variables con su entorno, inferiremos si la característica está o no
presente o el grado en que lo está. Más aún, podemos construir un ins-
trumento de medida de la variable haciendo uso de dichos indicadores o
ítems como base para hacer inferencias sobre la variable latente. La cons-

215
La articulación de la investigación social

trucción de estos instrumentos de medida pasa por: a) una descripción


clara de la variable y de los indicadores en los que basaremos la inferen-
cia, mostrando la relación entre ambos y b) el uso, si es preciso, de un
conjunto coherente de múltiples indicadores intercambiables (que sean
igualmente buenos indicadores de la variable latente) para hacer la mejor
inferencia.
De forma sencilla, y siguiendo a Punch (1998: 95-96), sintetizamos los
pasos a dar en la construcción de un instrumento estándar de medida o
escala:

• Especificación de los indicadores que serán el soporte del instru-


mento.
• Selección de la medida o escala más adecuada.
• Fijar el origen (bibliografía, discusión, análisis) y número de los
indicadores (no más de los que puedan ser respondidos ágilmente
por los que van a responder).
• Hacer una prueba piloto con el borrador del instrumento, pasán-
dolo a un pequeño número de personas que se correspondan con
el perfil de aquellos a los que se les dará el protocolo final. El inte-
rés radica en conocer el significado que otorgan a los ítems y com-
probar si contestan con convicción y rapidez.
• Hacer una segunda versión del instrumento y probarlo nuevamen-
te con un número algo mayor de personas.
• Ajustar definitivamente la escala en su redacción y estructura.

La elaboración del instrumento de medida supone un gran esfuerzo


de trabajo y de tiempo. El recurso a instrumentos de probada validez y
fiabilidad construidos por otros es una opción a considerar por el estu-
dioso que, además, garantiza la comparación y replicación de las nuevas
investigaciones.
En sociología y psicología social la técnica de escalas ha sido aplicada
con mucho éxito en la medición de actitudes. Se parte de considerar la
actitud como una variable latente y la técnica de escala que se aplica tie-
ne como unidad de análisis al individuo, como concepto general a la ac-
titud y como conceptos específicos a las opiniones (Corbetta, 2010). Se
han ofrecido infinidad de definiciones del concepto de actitud —Allport
llegó a recopilar un centenar en 1935—, pero utilizaremos la proporcio-
nada por Daniel Katz (1967), según la cual una actitud es «la predisposi-
ción del individuo a valorar ciertos símbolos u objetos o aspectos de su
mundo de un modo favorable o desfavorable». Estas predisposiciones

216
7. La medición: validez y fiabilidad

son concebidas como persistentes, lo que hace posible su evaluación,


pero no de una forma directa, sino fundamentalmente a través de opinio-
nes, que son la expresión verbal de las actitudes. Por ello, para recoger
los datos sobre actitudes se les presenta a los sujetos una serie de afirma-
ciones y se les pide que den su opinión al respecto. Después, se combinan
las respuestas a cada una de las afirmaciones y se puede obtener una
puntuación determinada para estimar la posición de ese sujeto en cuanto
a la actitud buscada.
Desde los años treinta se han elaborado muchos tipos de escalas, pero
las más habituales son las que se construyen con variables ordinales. Se
utilizan para establecer las diferencias de grado (que no distancias exac-
tas) existentes entre los individuos respecto a una actitud. No obstante,
también se han construido escalas que se aplican a unidades colectivas
(instituciones, empresas, etc.) o que intentan captar reacciones a determi-
nados estímulos.
Sin duda alguna, la escala más conocida en el ámbito de las ciencias so-
ciales es la elaborada por Remsis Likert en los años cuarenta del siglo pa-
sado, imponiéndose a otras propuestas que le precedieron como la escala
de distancia social de Emory Bogardus (1925), los intervalos de apariencia
idéntica de L. L. Thurstone (1930) y el escalograma de Louis Guttman
(1944) e, incluso, a otras que se elaborarían años después, como el diferen-
cial semántico de Osgood, Suci y Tannenbaum (1957), y que han ido ca-
yendo en desuso, por lo que sólo son enumeradas a título ilustrativo, si
bien puede profundizarse en su desarrollo en el anexo virtual.

3.4.1  Escala de Likert

Likert, fundador del Instituto de Investigación Social de la Universidad


de Michigan (1946), elaboró un método más simplificado que el de
Thurstone para medir las actitudes, tanto desde una perspectiva técnica
como de costes. No hace falta recurrir a jueces para distribuir los ítems a
lo largo de un continuo. En este caso, se le pide a un individuo que ex-
prese su grado de acuerdo o desacuerdo con respecto a diferentes afirma-
ciones relacionadas con la actitud.
El proceso de construcción de la escala es como sigue:

1) Recopilación de un número de ítems relevantes para la actitud a es-


tudiar, aproximadamente el triple de los que se van a incluir en la
escala. Lo habitual es quedarse finalmente con unos 20-25 ítems.

217
La articulación de la investigación social

2) Se han de incluir ítems nítidamente favorables y desfavorables,


para que la escala presente un buen equilibrio.
3) No deben incluirse ítems con afirmaciones políticamente correc-
tas o que despierten un acuerdo mayoritario, pues su aportación
analítica a la actitud que se intenta medir es despreciable.
4) Generalmente se incluyen cinco categorías de respuesta por cada
ítem (ejemplo: «muy de acuerdo», «de acuerdo», «ni de acuerdo
ni en desacuerdo», «en desacuerdo» y «muy en desacuerdo»). Las
puntuaciones son asignadas conforme al sentido de la respuesta
para la actitud a medir (1, 2, 3, 4, 5 o 5, 4, 3, 2, 1). A veces se opta
por aplicar códigos numéricos: +2, +1, 0, –1, –2. En este caso la
puntuación final de la escala se obtiene sumando todas las pun-
tuaciones registradas. Por esto se conoce a la escala de Likert
como escala aditiva.
5) Hay que destacar el debate existente sobre la inclusión o no de la
categoría neutra. Sus detractores piensan que facilita la salida a
aquellos que no quieren posicionarse y que produce sesgo de ten-
dencia. Así, en algunos cuestionarios se llega a incluir la opción,
pero se indica al entrevistador que no la lea. Tampoco se ha supe-
rado el debate sobre el número de categorías, aunque, tal y como
recuerda Cea (2010), la fiabilidad de la escala es mayor cuando se
cuenta con entre 7 y 9 puntos en estudios longitudinales y entre 5
y 7 en los transversales.
6) Se aplica el cuestionario a una muestra representativa de la pobla-
ción bajo estudio. La información que proporcionen servirá para
seleccionar los ítems con más poder discriminatorio para medir la
actitud. La puntuación final de cada individuo a partir de esta es-
cala se obtiene mediante la media aritmética de las puntuaciones
de cada ítem. Los más favorables a la actitud tendrán una puntua-
ción más alta y los menos favorables, en consonancia, más baja.

Para comprobar la unidimensionalidad de la escala se siguen distintos


procedimientos, aunque los más conocidos son: a) análisis de correlación
de cada ítem con el conjunto de la escala (los ítems seleccionados debe-
rán ser los que presenten mayor correlación) y b) contraste de medias o
varianzas mediante la aplicación de la t de Student para elegir los más
significativos.

218
7. La medición: validez y fiabilidad

Figura 2. Puntuación de algunas categorías en una escala tipo Likert,


incluida en el estudio 3000 (septiembre 2013) del Centro de
Investigaciones Sociológicas: Percepción de la discriminación
en España

P.3 Por favor, dígame si aprueba por completo (1), aprueba hasta cierto punto
(2), desaprueba hasta cierto punto (3), o desaprueba por completo (4) /(Se
informa al entrevistador de la opción «indiferente», que NO DEBE LEER)
– Que, a igualdad de formación y experiencia, una empresa contrate antes a
una persona nacida en España que a una persona inmigrante.
– Que, a igualdad de formación y experiencia, una empresa contrate antes a
un hombre que a una mujer.
– Que dos personas del mismo sexo puedan casarse.
– Que dos personas de diferente origen racial tengan hijos/as juntos.
Como se puede apreciar, en este cuestionario, del que se han seleccionado cua-
tro ítems, tanto los que muestran actitudes positivas como negativas tienen el
mismo código numérico, de modo que se evite influir en la respuesta. Con pos-
terioridad, se ajustan en la dirección de la actitud que midan.

4.  Calidad de la medida

Tanto si optamos por aplicar un instrumento de medida ya divulgado


por la comunidad científica como si decidimos construir nuestro propio
instrumento, debemos asegurarnos de que ambos cumplan con los crite-
rios básicos de validez y fiabilidad. La calidad de la investigación está en
juego. La profundización en el significado de ambos conceptos es la cla-
ve para asegurar la bondad de la medición en ciencias sociales.
Sin embargo, la aplicación de pruebas de validez y fiabilidad es, por
el momento, un desiderátum en el ámbito de las ciencias sociales, pues
aunque debería ser una condición ineludible, lo habitual es que, y en
completo acuerdo con Margarita Latiesa (2003), «no se suelen efectuar
ni en el análisis de contenido, ni en las encuestas, y mucho menos, en
otro tipo de investigaciones más cualitativas». No obstante, y como
apunta la misma autora, la acumulación de ingentes cantidades de in-
formación de encuestas en bancos de datos oficiales y privados ha he-
cho despertar la curiosidad y la inquietud de los investigadores por la
calidad de los mismos.

219
La articulación de la investigación social

4.1 El error de medición

En el proceso de operacionalización de los conceptos destaca la impor-


tancia de lo que conocemos como error de medición. Este error, intrínse-
co a la medida de cualquier fenómeno, refleja la diferencia entre la mani-
festación teórica del concepto y su expresión empírica (variable). Ningún
instrumento de observación está libre de dicho sesgo, y mucho menos
cuando se aplica a la aprehensión del comportamiento humano. El error
de medición tiene dos componentes fundamentales: el error sistemático y
el error aleatorio.
El error sistemático o constante se da cuando se produce el mismo ses-
go en todos los casos considerados, es decir, es de carácter estructural, y
afecta a la validez. Ejemplos de este tipo de error los encontramos cuan-
do intentamos medir comportamientos cargados de algún tipo de estig-
ma o connotación social negativa; así, cuando se pregunta sobre el con-
sumo de alcohol u otras sustancias adictivas, estas variables se convierten
automáticamente en fuente de un error constante, ofreciendo invariable-
mente una infraestimación del consumo medio. Si, por el contrario, pre-
guntamos sobre la frecuencia de las relaciones sexuales, nos toparemos
con una sobrestimación de la media.
El error aleatorio no está sistematizado, pues es fruto del azar. Se debe
a la ocurrencia de factores o situaciones no previstos, que no obedecen a
ninguna pauta y que pueden estar relacionados con el contexto de inves-
tigación o con las personas involucradas en el proceso, lo que afecta a la
fiabilidad de la medición.
A riesgo de pasar por alto alguna fuente de error en la investigación
social, presentamos las que afectan a la validez y la fiabilidad, haciendo
una interpretación de las proporcionadas por Selltiz y otros (1980),
Manheim y Rich (1986) y Latiesa (2003).

1)  Errores relativos a influencias contaminantes en la medida:

a) Las influencias pueden ser de carácter puntual o provisional. En


este supuesto, el estado de ánimo, de humor o de salud de un su-
jeto pueden afectar a las respuestas proporcionadas en algunos
puntos del cuestionario. Un débil estado de ánimo puede afectar
al interés en contestar cualquier tipo de pregunta, pero si, por el
contrario, alguien está muy sobresaltado o indignado, como pue-
de ocurrir en un contexto de extrema corrupción política, tam-
bién puede tener un efecto contaminante en las respuestas de un

220
7. La medición: validez y fiabilidad

estudio sobre cultura o comportamiento político. El mismo con-


texto de corrupción política debería ser tenido en cuenta por el
investigador a la hora de comprobar la fiabilidad de sus medicio-
nes.
b) Las influencias también pueden ser de carácter estable y ser reve-
ladas por la medida. Una investigación acerca de la imagen per-
sonal puede mostrar cómo el componente cultural del canon de
belleza condiciona la percepción de lo que es sobrepeso o no, y
esto habría que tenerlo en cuenta a la hora de hacer un análisis,
por ejemplo, manteniendo constantes los valores con objeto de
ver si aumentan o disminuyen las diferencias.

2)  Errores imputables al equipo investigador

• El investigador también puede convertirse en una fuente de conta-


minación de la medida. Su estructura ideológica y de valores pue-
de condicionar la elección de los indicadores de un concepto, así
como el análisis y la interpretación de los datos. Esta situación es
difícilmente evitable, pero conviene insistir en la importancia de
que el investigador haga un ejercicio de reflexividad y sea cons-
ciente de ello.
• El equipo investigador tiene la responsabilidad de elaborar un ins-
trumento de medida o cuestionario claro y preciso, porque, de
otro modo, los sujetos pueden realizar diferentes interpretaciones
de las mismas preguntas.
• Del mismo modo, los encuestadores, a la hora de realizar el traba-
jo de campo, pueden marcar diferencias en la aplicación del cues-
tionario o instrumento de medida. En este sentido, los entrevista-
dores pueden hacer interpretaciones incorrectas de las
instrucciones del investigador (ya sea responsabilidad de ellos o
del encargado de entrenarlos) y ejecutar la entrevista en condicio-
nes diferentes a las pretendidas en el diseño original. También hay
que tener en cuenta la posibilidad de que el aspecto de los entre-
vistadores, su estado de salud, etc., puedan condicionar tanto las
respuestas de los entrevistados como la correcta recolección de
los datos.
• No podemos olvidar el papel que desempeñan los codificadores
de las respuestas obtenidas de un cuestionario o de un análisis de
contenido. El grado de experiencia y profesionalidad de éstos es
fundamental a la hora de controlar estos posibles errores. Los

221
La articulación de la investigación social

errores humanos son inevitables, máxime cuando tienen que redu-


cir a un código cifrado información rica procedente de una pre-
gunta abierta en un cuestionario o de un texto. Las tácticas para
eludir este problema pasan por hacer sucesivas pruebas con el ins-
trumento o evitar el agotamiento de los codificadores.
• Por último, también hay que considerar los errores que pueden
derivar de la fase de manipulación de los datos (tabulación y aná-
lisis).

3)  Errores cuya fuente son los investigados

Aquí nos detendremos en dos problemas ampliamente estudiados desde


la psicología y la sociología: la aquiescencia y la deseabilidad social. En
las muestras sociológicas al uso, es difícil evitar que un número nada des-
deñable de entrevistados ofrezcan respuestas de asentimiento o discon-
formidad sistemática. Del mismo modo, también se dan muchos casos
que responden conforme a patrones de lo que se considera políticamente
correcto o socialmente deseable, llegando, incluso, a desviarse de lo que
realmente opinan o hacen. Ambos problemas afectan considerablemente
a la validez de las mediciones.
Por otra parte, las características de los propios entrevistados también
son fuente de error. La formación de los sujetos, su timidez, su fluidez
verbal, etc., pueden provocar diferentes respuestas según el instrumento
de medida aplicado. Un cuestionario autoadministrado exige que el suje-
to sepa leer y escribir correctamente, del mismo modo que una entrevista
exige un cierto grado de locuacidad por parte el entrevistado. Distintas
aptitudes pueden provocar diferentes respuestas. Por ello, y tal como re-
comiendan Campbell y Fiske (1959), se debe optar por el uso de varios
instrumentos y emplear varias medidas de un mismo concepto.

4)  Errores derivados del contexto

Aquí hablamos, por un lado, del clima en que se desarrolla el acto de en-
trevista y, por otro, de las condiciones físicas que rodean a éste.
No es lo mismo realizar la entrevista en un ambiente agradable, donde
se garantiza la privacidad de las respuestas, que en un clima tenso que
podría ejemplificar una entrevista sobre hábitos de los jóvenes en presen-
cia de padres. De la misma forma, las respuestas pueden verse afectadas
si la entrevista se realiza en un espacio ruidoso, pequeño o frío, o si, por
ejemplo, ocurren imprevistos como la falta de material.

222
7. La medición: validez y fiabilidad

5)  Errores de muestreo

a) Limitaciones de la población a la que se pueden generalizar los resul-


tados; b) cambios en las características de la población a través del tiem-
po; c) heterogeneidad interregional de la población; d) limitaciones im-
puestas por el método de recogida de datos (muestreo de ítems); e) la
inestabilidad de los contenidos de la investigación a través del tiempo y
de las zonas geográficas (Latiesa, 2003).

4.2  Validez y fiabilidad

En cualquier investigación empírica siempre se plantean dos preguntas


tras la construcción del instrumento/s de medida: ¿es válido y fiable? La
validez hace referencia al grado en que una determinada operacionaliza-
ción de un concepto en un indicador o indicadores refleja realmente di-
cho concepto, esto es, si realmente el procedimiento que hemos utilizado
mide lo que se quiere medir. Aunque la definición pueda parecer de pero-
grullo, la validación se convierte en garantía de calidad de la investiga-
ción. Así, por ejemplo, si tratamos de medir un concepto como el de
prestigio profesional debemos estar seguros de que los indicadores selec-
cionados midan realmente dicho concepto y que abarquen todas las di-
mensiones que, del mismo, hayamos podido diferenciar.
La validez está vinculada al error sistemático y por ello hemos de se-
leccionar medidas que puedan eludir posibles influencias contaminantes
del comportamiento de nuestras variables. Por tanto, se debe poner espe-
cial cuidado en el análisis de los procedimientos aplicados en la construc-
ción de la medida para tratar de aislar las posibles causas de las variacio-
nes en su calificación.
La fiabilidad está relacionada con el error aleatorio y, en consecuen-
cia, con la estabilidad de los valores obtenidos tras la aplicación del ins-
trumento de medida. Cuanto mayor es el error de medición menor es la
fiabilidad del instrumento. Por ello la fiabilidad se puede controlar mejor
que la validez. Tiene un claro carácter empírico y cuantificable. Un ins-
trumento puede ser aplicado varias veces y demostrar su fiabilidad, pero
ello no implica que sea válido (podemos utilizar el tamaño del pie de las
personas para medir la altura y obtener datos fiables, pero no válidos).
En cambio, una medida válida es, ineludiblemente, fiable.

223
La articulación de la investigación social

4.2.1  Validez de las medidas

Cuando un ciudadano se pregunta si el índice de precios al consumo re-


fleja realmente la inflación y el aumento del coste de la vida, en realidad
se está preguntando sobre la validez de la medida (Bryman, 2012). ¿Qué
es lo que está midiendo? ¿Son los datos incluidos los más significativos o
relevantes para medir esa característica? ¿Reflejan sus fluctuaciones pe-
riódicas verdaderas diferencias en el coste de la vida?
La validez puede definirse como el grado en que la medida representa
con exactitud el concepto, dimensión o característica que el investigador
pretende medir. Una medida no es, sencillamente, válida o no válida de
forma aislada, pues la validez es cuestión de grado, se mide «por el grado
en que sus resultados son compatibles con otras evidencias significati-
vas» (Selltiz, 1976).
Las comparaciones con otras evidencias son la base de la clasificación
de los distintos tipos de validación de la medida. Vamos a tratar:

— Validez de constructo.
— Validez de contenido.
— Validez de criterio.

Validez de constructo

La validez de constructo o teórica es la más interesante y compleja desde


el punto de vista científico. Se basa en comprobar el grado de ajuste en-
tre los resultados que obtenemos al aplicar la medida y lo que esperába-
mos teóricamente. Alvira afirma que «las operacionalizaciones de cons-
tructo y conceptos no son únicas; de aquí que convenga interrogarse
sobre el efecto que pudiera tener una diferente operacionalización en los
resultados de la investigación» (2003: 108). El proceso pasa por inferir la
validez de la medida mediante la recopilación por parte del investigador
de una gran variedad de evidencias de todo tipo, especialmente empíri-
cas, de modo que permita comprobar el grado en que los resultados ob-
tenidos de las diversas medidas se corresponden con los supuestos teóri-
cos que nos llevaron a emplear los indicadores seleccionados. La
satisfacción en el empleo, la felicidad en el matrimonio, la actitud ante la
pena de muerte, el conservadurismo, etc., son ejemplos de constructos
teóricos, a los que se les debe aplicar este criterio de validez.

224
7. La medición: validez y fiabilidad

Cronbach y Meehl (cit. por Selltiz, 1980) fueron los primeros en clari-
ficar la validez de constructo, destacando que las definiciones de tales
constructos forman parte de las hipótesis en las que se ponen en relación
con otras variables directamente observables (indicadores). En esta acla-
ración apuntan la necesidad de una definición de los constructos y del
uso de indicadores múltiples. Con medidas múltiples se verifica, a la vez,
la validez de los indicadores y se aumenta la probabilidad de obtener me-
didas válidas de las variables. Por tanto, «el examen de la validez de con-
cepto supone la validación no solamente del instrumento de medida,
sino de la teoría que la justifica» (1980: 186).
No obstante, Campbell y Fiske (1959) acentúan la especial importan-
cia de la adecuación de la medida del concepto antes de ponerla en rela-
ción con otras variables y, para ello, propone dos nuevos tipos de validez:

a) Validez convergente o, lo que es lo mismo, «la evidencia de que


distintas medidas del concepto llevan a resultados semejantes».
En términos estadísticos, diríamos que correlacionan entre sí mé-
todos distintos que miden el mismo rasgo o característica.
b) Validez divergente o discriminante es «la evidencia de que el con-
cepto tal y como ha sido medido puede ser diferenciado de otros
conceptos». En términos estadísticos, rasgos distintos medidos
con el mismo método mostrarían bajos niveles de correlación.
Así, por ejemplo, los indicadores elegidos para medir conservadu-
rismo no deberían correlacionar positivamente con indicadores
elegidos para medir progresismo.

Estos procedimientos tienen un solo objetivo: mostrar la adecuación


de los constructos para investigar el aspecto de la realidad social elegido
como objeto de estudio. La validez de constructo puede ampliarse a me-
dida que distintas hipótesis vayan ofreciendo resultados que refuercen la
línea teórica en la que se basa el instrumento elaborado.

Validez de contenido

La validez de contenido plantea las siguientes preguntas: ¿es útil este ins-
trumento de medida? ¿Incluye una muestra de ítems suficiente y signifi-
cativa del universo de elementos que componen el rasgo o dimensión que
pretende medir? ¿Se garantiza la medición de todas y cada una de las di-
mensiones del concepto?

225
La articulación de la investigación social

Este tipo de validez no se cuantifica. Son los expertos los que enjui-
cian la adecuación, la representatividad de la muestra de ítems extraída
con respecto al contenido u objeto de medida. Este interés en la elabora-
ción y selección de ítems por parte de jueces, sin hacer mención alguna a
las inferencias derivadas de los datos obtenidos, es un buen caldo de cul-
tivo para las críticas sobre el fundamento de este tipo de validez.
Cuando las medidas se basan en una observación directa del com-
portamiento o de otro rasgo evidente, parece difícil dudar de su validez.
Aunque algunas veces esto también se ha llamado validez de contenido,
en realidad estaríamos refiriéndonos a la validez aparente o manifiesta
(face validity). Si, por ejemplo, tuviéramos que medir el cumplimiento
de la Ley Orgánica para la igualdad efectiva de mujeres y hombres en
cuanto a la obligatoriedad que establece de desagregar por sexo todos
los datos y estadísticas que se compilen desde las administraciones pú-
blicas, podría parecer suficiente que observadores expertos revisaran la
presencia de esa desagregación en todas las estadísticas oficiales publi-
cadas por todas las administraciones. Pero no deberíamos conformar-
nos con esta validez «de cara», sino interesarnos en confirmar otras for-
mas de validez (¿mide el instrumento lo que cree el investigador?, ¿es
una muestra adecuada para medir lo que el investigador cree?). Quizá,
para empezar, fuera necesario confirmar la aplicación de la ley no solo a
través de los datos publicados (anuarios, boletines, etc.), sino compro-
bando todos los datos producidos, incluso a nivel interno, por todas las
administraciones.

Validez de criterio

La validez de criterio se calcula directamente mediante un test que utiliza


criterios externos para hacer estimaciones ajustadas de la medida (indi-
cador), presentes o futuras.
A partir de ahí, podemos diferenciar dos subtipos de validez:

a) Validez concurrente o simultánea: estima el grado en que un ins-


trumento puede diagnosticar una característica o rasgo actual de
los sujetos sometidos a estudio, mediante su correlación con otro
criterio relacionado con la variable que se pretende medir. Por
ejemplo, se pueden comparar los resultados de una encuesta so-
bre consumo de televisión con los datos del momento del Estudio
General de Medios.

226
7. La medición: validez y fiabilidad

b) Validez predictiva: se compara la medición con un criterio futuro


que esté relacionado con la variable a medir. La relación entre
predictor y criterio se establece también, en términos de correla-
ción, entre las respuestas obtenidas en una encuesta con medidas
recabadas a posteriori que sean consideradas como válidas. Un
ejemplo consistiría en comparar una encuesta de actitudes acerca
de la discapacidad entre empresarios de hostelería, con las medi-
das posteriores de incorporación en plantilla que consideremos
válidas.

Este tipo de validez también es conocida como validez pragmática,


pues lo que hacemos es contrastar nuestras medidas con otro indicador
que con un cierto grado de seguridad puede también ser reflejo de las
mismas. El problema fundamental es que en las ciencias sociales no se
suele disponer de «bancos de indicadores» válidos para los conceptos
que utilizamos.
Si nos interrogamos sobre qué tipo de validez hemos de garantizar en
una investigación, la respuesta vendrá dada por el diseño específico por
el que hemos optado en la misma.

4.2.2 Fiabilidad

Un instrumento es fiable cuando ofrece la misma interpretación de los


resultados si lo repetimos en sucesivas ocasiones. La fiabilidad, por tan-
to, está relacionada con la consistencia de la medida. Pero cuando se
producen cambios, ¿a qué se deben?
Un instrumento puede carecer de fiabilidad por muchas razones. De
Vaus (2004) señala la descuidada o pobre redacción de las preguntas
como desencadenante de interpretaciones diferentes en distintas ocasio-
nes. La influencia del entrevistador en el entrevistado (sexo, edad, etnia,
clase) o la inclusión de preguntas sobre las que los entrevistados no tie-
nen opinión formada también pueden definir a un instrumento como
poco fiable.
Como en el caso de la validez, la fiabilidad tampoco puede ser absoluta.
Lo único que podemos hacer es intentar maximizarla. Veamos a continua-
ción los distintos métodos de estimación de la fiabilidad clasificados en
función de las fuentes de variación de los resultados (Selltiz, 1980).

227
La articulación de la investigación social

Fiabilidad como estabilidad o constancia

Se basa en la constancia de las medidas después de repetidas aplicacio-


nes. La prueba más conocida es la de test-retest, que consiste en repetir
la observación en los mismos sujetos y, posteriormente, calcular la con-
cordancia entre los resultados. Cuando se trabaja con variables cualitati-
vas se aplica el análisis de tablas de contingencia, en tanto que con varia-
bles cuantitativas se aplica el coeficiente de correlación.
En los proyectos de investigación por encuesta suelen realizarse dos
aplicaciones, pero el método tiene, en general, algunos inconvenientes. La
reactividad humana es un factor nada desdeñable, pues la propia aplica-
ción del instrumento puede tener efecto en el sujeto y, por ejemplo, perder
interés para contestar la segunda vez, o también lo aprendido en la prime-
ra ocasión puede condicionar la espontaneidad en la segunda respuesta.
Por otro lado, tampoco se puede olvidar que con frecuencia los investiga-
dores, por razones de coste, no pueden hacer una segunda aplicación.
Otros aspectos, como el de la memoria, pueden afectar a la medida de
estabilidad. Si el tiempo transcurrido entre las dos aplicaciones es breve,
la memoria influirá en la consistencia de las respuestas y el coeficiente de
correlación será más alto. Pero, en sentido contrario, un lapso demasiado
largo puede producir cambios reales en el comportamiento de los sujetos
y, en consecuencia, se obtendrán coeficientes que infraestimarán la esta-
bilidad.

Fiabilidad como equivalencia

Se conoce como el método de las alternativas de medición. En realidad,


se trata de construir varias formas equivalentes de un instrumento de
medida que pueden aplicarse a la vez o de forma sucesiva.
Existen dos formas de aplicar este método: a) la estrategia de las dos
mitades o split-half, por la cual se obtiene la correlación de los resultados
de dos partes de un mismo test que se aplican de forma independiente (se
dividen los ítems en dos partes iguales, por ejemplo, pares o impares o
distribuidas al azar), y b) estrategia de las formas paralelas (incluyen un
mismo número de ítems, una misma estructura, redacción, dificultad y
tiempo para su cumplimentación, con idénticas medias, varianzas y co-
varianzas).
La clave del método radica en que las formas alternativas de medida
sean realmente comparables como medida del concepto en cuestión, y es

228
7. La medición: validez y fiabilidad

en este punto donde se encuentra el talón de Aquiles de esta estrategia.


Suelen presentarse graves dificultades a la hora de garantizar tanto la
equivalencia de los ítems muestreados como la de los individuos, es decir,
que un mismo individuo pueda obtener los mismos resultados en ambos
formatos.

Fiabilidad como consistencia

El error aleatorio varía no sólo entre diferentes pruebas o test, sino tam-
bién entre los ítems o indicadores de un mismo test. A partir de este su-
puesto se han elaborado medidas de fiabilidad que buscan la correlación
entre las respuestas dadas a cada ítem y las dadas para el resto de los
ítems. Por extensión, podríamos decir que se busca la correlación entre
los indicadores que representan a una misma dimensión o variable laten-
te y sus diferencias con respecto a los indicadores que se corresponden
con otras dimensiones.
Este método se materializa en el coeficiente alpha (α) de Cronbach,
que está incluido en los programas estadísticos más utilizados. Su cálculo
se desarrolla a partir de la matriz de varianzas-covarianzas del conjunto
de ítems que componen la medida. En la diagonal hallamos las varianzas
de cada ítem o indicador, en tanto que en el resto se encuentran las cova-
rianzas por pares de ítems. Finalmente, el coeficiente alpha nos ofrece la
varianza común o compartida por los ítems entre la varianza total. De
este modo, se obtiene el poder discriminante de los ítems por estar rela-
cionados entre sí al reflejar una dimensión.

Su fórmula es la siguiente:

α=(K/K-1)[1-(∑σi2/ σt2)]
K=nº de ítems
σi2= sumatorio de la varianza de los ítems
σt2= varianza total

Medido a través de un valor que oscila entre «0» (ausencia de fiabili-


dad) y «1» (fiabilidad absoluta), el coeficiente nos cuantifica la homoge-
neidad de los ítems, desplazando el análisis detallado hacia la matriz de
correlaciones y el análisis factorial, a través del cual pueden perfilarse
factores o subconstructos, lo que demostrará que no todos los ítems mi-
den una dimensión con la misma intensidad.

229
La articulación de la investigación social

Para acabar, conviene advertir que el coeficiente alpha se ve afectado


por el número de ítems, esto es, a mayor cantidad de ítems, mayor fiabili-
dad.
No existe una guía específica sobre qué coeficiente aplicar en cada
caso. Las características de la prueba, los tipos de variables y la naturale-
za de las características que se miden nos orientarán sobre la prueba más
adecuada.
Aunque podemos distinguir analíticamente la validez de la fiabilidad,
lo cierto es que están fuertemente relacionadas porque la validez supone
fiabilidad. Bryman (2014) explica que si una medida no es fiable, tampo-
co puede ser válida, siendo aplicable esta generalización a los tres tipos
de fiabilidad señalados. Si la medida fluctúa, podría ser que no abarcase
el concepto con el que supuestamente esté relacionada. Si no tiene fiabili-
dad, puede ser que los múltiples indicadores incluidos en el instrumento
estén midiendo cosas diferentes y, en consecuencia, la medida no será vá-
lida.

5.  Críticas al operacionismo

Las principales críticas al proceso de operacionalización tradicional re-


calan en el abuso de este procedimiento, es decir, en el protagonismo
concedido a la validación estadística de los indicadores elaborados tras
un proceso de deducción lógica, de afirmación e, incluso, de especula-
ción, más que después de un proceso de investigación riguroso (Tucker,
2010: 316).
Lo cierto es que la práctica de la investigación y de su difusión en algu-
nos países, incluida España, puede contribuir a generar desconfianza en la
validez de los instrumentos de medida construidos de este modo. No cabe
duda de que el componente humano de arbitrariedad en la selección de los
indicadores es elevado y esta práctica encaja perfectamente con lo que ya
señalaba Corbetta (2007: 92) al explicar que «la única obligación que tiene
(el investigador) con la comunidad científica es argumentar y justificar su
elección, pero no “demostrar” que es correcta, ya que eso es imposible». Si
hacemos una revisión superficial de publicaciones que presentan los resul-
tados de investigaciones sociológicas cuantitativas, podremos comprobar
que en un porcentaje significativo incluyen pruebas que garantizan la vali-
dez y fiabilidad estadísticas de los instrumentos de medida utilizados, en
detrimento de la explicación del cómo se ha dirigido la investigación, esto
es, de cómo se han operacionalizado los constructos, definido los concep-

230
7. La medición: validez y fiabilidad

tos, desarrollado las categorías, ítems y escalas, y de cómo se han ido mo-
dificando y perfeccionando a lo largo de la investigación. Por tanto, la rea-
lidad es que tampoco se dedica tiempo a argumentar y justificar esa
elección. En este sentido destacan los autores que, basándose en la groun-
ded theory de Glaser y Strauss (1967), proponen una aproximación a lo
que denominan indicadores fundamentados, incidiendo en la mayor aten-
ción y tiempo que los científicos sociales deberían dedicar al proceso de ge-
neración y modificación de los instrumentos de medida, acercándolo, al
menos, al que dedican a realizar tests estadísticos que certifiquen su vali-
dez y fiabilidad. Las disfunciones resultantes de un uso inadecuado de la
estadística descritas por Kruskal (1978), esto es, la de suministrar el requi-
sito de autentificación científica y la de tratar de impresionar, ofuscar y
mitificar, adquieren un valor especial entre las críticas al modelo empiricis-
ta por parte de los investigadores cualitativos. El movimiento de los indica-
dores fundamentados incide en la necesidad de aumentar la «cantidad de
información sobre el proceso de investigación que se proporciona a los lec-
tores», especialmente a la hora de generar y modificar los indicadores apli-
cándoles, ceteris paribus, el método de comparación constante (Valles,
1999: 347; Hammersley, 1992).
Ese debate constante debe aplicarse a las tres fases en el desarrollo de
los indicadores o, lo que es lo mismo, durante todo el curso de la investi-
gación: a) producción (incluye investigación exploratoria, revisión de bi-
bliografía, material cualitativo y bases de datos, definición de conceptos,
operacionalización de la medida, elaboración de ítems y escalas); b) ajus-
te (perfeccionamiento de ítems o escalas mediante revisión de expertos,
pretests de condiciones, de ajuste o de opciones de medidas) y c) verifica-
ción (pruebas estadísticas de validez y fiabilidad).
Las características de este enfoque son recopiladas por Tucker (2010:
318-319): a) obtención de indicadores a partir del estudio de fenómenos
relevantes para el concepto que está siendo objeto de operacionalización;
b) minimización del error de medida aplicando los métodos más adecua-
dos en cada fase de la medición; c) diferenciación nítida de las tres fases
del proceso de medición, a saber, generación, modificación y verifica-
ción; d) proceso iterativo que paso a paso se mueve entre los conceptos y
la operacionalización, haciendo un uso deliberado de la evidencia, argu-
mentación y los juicios profesionales de investigadores; e) estándares de
investigación científica que incluyen la definición de supuestos, especifi-
cación de procedimientos, transparencia y apertura a los juicios de pares
profesionales y f) uso de metodologías más ajustadas para responder a
cuestiones particulares y al desarrollo de las etapas citadas. Defiende un

231
La articulación de la investigación social

pluralismo metodológico con datos cualitativos y cuantitativos, focaliza-


do tanto en el significado como en el comportamiento y conjugando in-
ducción y deducción.
En definitiva, hacen una llamada a un mayor debate público y una
mayor comunicación entre investigadores durante el proceso de medición
seguido en sus investigaciones para conseguir indicadores más válidos y
fiables, analíticos y sensitivos a la vez, de amplia aplicabilidad en distin-
tos contextos y situaciones, superando el provincianismo o particularis-
mo impuesto por el dominio de la investigación social anglosajona, con
el objetivo de fomentar un debate constante sobre constructos, categorías
e indicadores para conseguir un corpus «más rico, complejo y denso, y
hacer su ajuste y relevancia más fácil de comprender» (Glaser y Strauss,
1967: 32).
Algunas de las reacciones frente a estas críticas son de carácter prag-
mático. Así, señalan como un lujo inalcanzable para la comunidad cien-
tífica invertir tanto tiempo y recursos en las primeras fases del proceso de
medición, llegando a defender que la imperfección de los indicadores no
es un defecto, sino un acicate para nuevas investigaciones. Otras, desde
un punto de vista científico, advierten del riesgo de caer en el inductivis-
mo, si bien su propuesta de rigor en todas las fases del desarrollo del in-
dicador combina inducción, deducción y verificación.

6.  Medición y globalización. La investigación entre culturas

La creciente globalización de la investigación y de la sociedad apunta ha-


cia el definitivo despegue de los estudios entre culturas (cross-cultural).
Éstos permiten probar si las teorías y constructos son generalizables en
diferentes contextos, a modo de experimentos que estudian la influencia
de la cultura y la ecología en el comportamiento (Heine y Norenzyan,
2006: 254). Uno de los principales objetivos de los estudios entre culturas
es la reducción del etnocentrismo y de la ceguera de las investigaciones
monoculturales, que conceden a sus logros un carácter universal. Pero
este empeño exige un redoble de los esfuerzos de los investigadores en su-
perar o, al menos, reducir, los problemas derivados de la construcción de
los instrumentos o herramientas de medida, que supone algo más que
«trasladar» constructos y medidas, con diferentes grados de adaptación,
a nuevos contextos culturales. Estos problemas giran en torno a tres pila-
res fundamentales: a) equivalencias conceptuales; b) equivalencias en la
medida y c) el problema del multilingüismo.

232
7. La medición: validez y fiabilidad

a)  Equivalencias conceptuales

La consideración del contexto social, económico y cultural para la elabo-


ración del instrumento de recogida de datos nos conduce a una pregunta
clave: ¿pueden transferirse de una forma precisa los conceptos usados en
un estudio de una sociedad a otra? Nos introducimos así en la cuestión
de la equivalencia conceptual, definida como la ausencia de sesgo de
constructo y que apunta al grado de coincidencia en las definiciones con-
ceptuales entre culturas (Church, 2010: 152). En definitiva, nos introdu-
cimos en el dilema de la traducción. El problema de la traducción en la
investigación social se plasma, en una primera aproximación, en la nece-
sidad de proporcionar la pregunta elaborada en una lengua original en
las mismas palabras cuando es preguntada en una lengua diferente (Bla-
lock, 1968; Frey, 1970; Przeworski y Teune, 1970). Para afrontar este
problema, la solución más aplaudida es la llamada «back-translation»,
consistente en una traducción del cuestionario del lenguaje original al
local (Iyengar, 1976; Brislin, 1986). Después es traducido independiente-
mente por otro traductor al lenguaje original. Los resultados son compa-
rados para identificar y corregir los errores semánticos en la traducción.
Este proceso proporciona algo más de precisión, aunque no la absoluta
certeza de la equivalencia, ya que puede ocurrir que algunos conceptos
no tengan equivalentes en el lenguaje local o que, cuando lo tengan, el
significado exacto sea diferente.
Todas estas reflexiones nos conducen hacia una más genérica que
constituye un problema epistemológico de gran envergadura: ¿es posible
la traducción? Beltrán (1993) afirma que si esa posibilidad se materiali-
zara con éxito, el relativismo epistemológico sufriría un duro revés. Y es
que cuando se plantea el problema de la traducción se pone en cuestión
la esencia de la investigación comparada. Sobre esta cuestión existen,
como es natural, posiciones encontradas que oscilan entre aquellas que
afirman la imposibilidad de la traducción perfecta (sólo son posibles tra-
ducciones pragmáticas de validez limitada) hasta aquellas como las de-
fendidas por Margaret Archer (cit. por Beltrán, 1993), que sosteniendo
la posibilidad de la comprensión de otras sociedades y culturas, está con-
vencida de la posibilidad de la traducción.
De esta controversia se deduce que el problema de la traducción es más
de carácter analógico (más o menos perfecta) que digital (se puede o no se
puede hacer). La línea de trabajo, en este sentido, debe avanzar hacia el
perfeccionamiento, aunque éste sea eventual y contingente al estudio que
estemos desarrollando. Y este perfeccionamiento pasa por acercarnos a los

233
La articulación de la investigación social

sentidos, a las connotaciones del lenguaje en función de su uso que, en últi-


ma instancia, está determinado por el contexto (Medina: 1989, 73).

b)  Equivalencia en la medida

Los problemas de equivalencia conceptual se suscitan también cuando in-


tentamos establecer equivalencias de medición en dos lugares diferentes. Si
sabemos que un concepto difiere en su significado específico en distintas
culturas o entre grupos lingüísticos diferentes de una misma cultura,
¿cómo podríamos medirlo de una forma equivalente? Przeworski y Teune
(1966)) afirman que cuando construimos una teoría abstracta, general, ha
sido porque hemos visto algo más que sencillas afirmaciones sobre relacio-
nes entre simples indicadores. En los años sesenta del pasado siglo, Lipset
(1967) consideraba las tasas de mortalidad como indicadores de la eficacia
gubernamental y el voto como indicador de la participación democrática.
Pero sería infantil generalizar estas relaciones a cualquier contexto, por-
que, siguiendo a Teune (1966: 352), «aunque las elecciones en los Estados
Unidos puedan ser un factor central de la participación democrática y en
algunos países africanos cada vez que se reduzca la mortalidad se refleje la
efectividad de las actuaciones de los gobiernos, las tasas de mortalidad se-
rían un pobre indicador de la eficacia del gobierno de los Estados Unidos
y las elecciones serían poco significativas en África para indicar la impor-
tancia de la participación democrática...».
Cuando se trabaja en estudios entre naciones el proceso de selección
de indicadores se hace mucho más complejo. Algunos autores apuntan la
necesidad de aplicar la perspectiva cualitativa para averiguar el significa-
do de cada concepto en los diferentes grupos, pero, en realidad, lo que
nunca se puede pensar es que la medida adecuada de un concepto en una
sociedad pueda ser traspasada a otra de forma directa, sin más reflexión,
incluso cuando se comparte la lengua. Hay un punto intermedio entre el
rígido universalismo y el relativismo total a la hora de diseñar las pre-
guntas de un cuestionario, y ese punto es el que hay que descubrir.
Estos ejemplos muestran simplemente que no hay soluciones fáciles al
problema de la equivalencia entre culturas (Bulmer y Warwick, 1993:
154-155).

c)  Equivalencia lingüística

Otra fuerte barrera para la consecución de medidas equivalentes, que afec-


ta tanto a los estudios en un solo país como a los que se hacen entre países,

234
7. La medición: validez y fiabilidad

es la diversidad lingüística. Aproximadamente la mitad de las naciones-


estado del mundo pueden clasificarse como lingüísticamente heterogéneas,
de forma que menos de un 75% de su población hablan la lengua domi-
nante. Cuando un contexto multilingüe implica la medida en más de una
lengua, se puede afirmar que la equivalencia de la medida es función de la
equivalencia lingüística. Sin embargo, no podemos reducir la equivalencia
de la medida a una mera equivalencia lingüística cuando, de hecho, las di-
ferencias lingüísticas suelen connotar otras diferencias culturales. La difi-
cultad estriba en que es difícil precisar en qué medida las diferencias lin-
güísticas afectan a la medida, con independencia de otras diferencias
culturales. La equivalencia lingüística se puede definir como el grado de
ajuste de la traducción del instrumento (Church, 2010) o como la validez
entre lenguajes, aunque es operacionalizada como la fiabilidad a través de
las lenguas (Pzreworski y Teune, 1970). La validez entre lenguajes implica
que los indicadores midan lo que intentan medir en cada lengua. Esta vali-
dez requiere que las preguntas en una lengua sean traducidas a otra de for-
ma que mantengan su significado. Sin embargo, la ligazón entre el indica-
dor y el concepto es muy difícil de evaluar empíricamente en cada lengua.
Así, la equivalencia lingüística se puede operacionalizar usando criterios
de fiabilidad entre lenguas: consistencia interna y la estabilidad test-retest.
Comprobar la consistencia interna requiere comparar las respuestas a
bloques de indicadores del mismo concepto a través de varias lenguas. Si
comparamos dos lenguas, éstas pueden ser consideradas como dos méto-
dos y la fiabilidad vendrá plasmada por el nivel de consistencia que he-
mos obtenido en las respuestas de los dos métodos. Si estamos midiendo
una actitud determinada, los indicadores de la misma en un lenguaje de-
berían provocar patrones de respuesta similares a las producidas en algu-
na otra lengua. Podemos aproximarnos al conocimiento de la equivalen-
cia lingüística comparando correlaciones entre bloques de indicadores
que se proponen medir el mismo concepto en diferentes lenguas. Si la
lengua no afecta a las respuestas, el grado de correlación será similar en
las diferentes lenguas. A mayor semejanza entre las series de correlacio-
nes, mayor nivel de equivalencia.
El test de estabilidad en las respuestas es otra forma de medir la fiabi-
lidad. ¿Pueden cambiar las respuestas a un mismo ítem gracias a la ma-
nipulación de la lengua del instrumento? A esto se puede responder con-
tando con entrevistados bilingües. Se les da el instrumento en dos
ocasiones, con una diferencia de semanas. Se escogen aleatoriamente los
entrevistados a los que será aplicado el cuestionario en diferentes len-
guas. Se comparan los porcentajes de cambio de respuesta de los entre-

235
La articulación de la investigación social

vistados que respondieron las dos veces en la misma lengua y los que lo
hicieron en distintas lenguas. La lectura es simple: a mayor estabilidad,
mayor equivalencia. Iyengar (1976), especialista hindú, realizó un amplio
estudio sobre la socialización política en un estado de la India, mediante
el procedimiento de traducción del «back-translation» (versión inglesa,
versión telugu). Los resultados permitieron concluir que el cambio de
lengua del instrumento no afecta la estabilidad de las respuestas de ca-
rácter más objetivo. Sin embargo, a medida que se hacen más difusas
(cuestiones sobre la confianza o credibilidad que despiertan los políti-
cos), se ve significativamente reducida. De este modo, podríamos decir
que la equivalencia lingüística de encuestas específicas convencionales no
es tan difícil de conseguir. Evidentemente, el resultado implicaría o bien
la sustitución, o bien la modificación o eliminación de los ítems que no
se ajustan a la equivalencia lingüística.
Este ejemplo supone una manifestación de la posibilidad de acerca-
miento a una traducción que, si no perfecta, puede tener una gran utili-
dad en el contexto del estudio que se lleva a cabo.

Notas
1  Las autoras se basaron en microdatos procedentes de encuestas de panel de
hogares realizadas en Argentina.

Bibliografía recomendada
Boudon, R., y Lazarsfeld, P. F. (1973): Metodología de las ciencias sociales. I
Conceptos e índices, Barcelona, Laia.
Cicourel, A. (1982): El método y la medida en sociología, Madrid, Editora Na-
cional.
Hempel, C. G. (1988): Fundamentos de la formación de conceptos en ciencia em-
pírica, Madrid, Alianza.
Pedhazur, E. J., y Pedhazur, L. (1991): Measurement, Design and Analysis. An in-
tegrated approach, New Jersey, Hillsdale.
PNUD (2008): Informe sobre Desarrollo Humano 2014. Sostener el progreso hu-
mano: reducir vulnerabilidades y construir resiliencia. Programa de las Nacio-
nes Unidas para el desarrollo, http://www.undp.org.
Ruiz, L. M., y Otero, P. (2013): Indicadores de partidos y sistemas de partidos,
Madrid, CIS.
Selltiz, C., et al. (1980): Métodos de investigación en las relaciones sociales, Ma-
drid, RIALP.

236
8.  El muestreo aplicado

Valentín Martínez

1.  Introducción: una breve historia del muestreo

En general, cuando se trata de definir qué es una encuesta, la primera


idea que se expresa es que mediante el estudio de un subconjunto perte-
neciente a un grupo de mayor tamaño se caracteriza correctamente al
grupo mayor. Ésta es la idea de muestreo representativo que expresó
Kiaer en su comunicación al Congreso del Instituto Internacional de Es-
tadística en 1895 (Krugery Mosteller, 1980).
Kiaer, para exponer sus ideas, utilizaba la analogía de «los dos barri-
les»: «Supongamos que tenemos dos barriles, uno muy grande y otro
muy pequeño, ambos con un contenido mezclado; si tomamos muestras
del contenido de cada barril y observamos que tienen la misma composi-
ción, entonces ulteriores análisis sobre el barril más pequeño nos permi-
tirán inferir sobre el barril más grande».
Como idea innovadora que era, ésta no fue muy bien recibida, preva-
leciendo el consenso de que «si es posible contar, no es necesario que sea
estimado». Así, los estadísticos de aquellos años eran más favorables a
realizar estudios exhaustivos de la población, o censos, que a proceder
con otros métodos que implicaban medir con error.
Los censos como instrumentos de medición de las características de la
población tienen una larga historia, si bien inicialmente tenían más un

237
La articulación de la investigación social

propósito de recaudación y reclutamiento. La característica de la exhaus-


tividad del censo, que es lo que permite contar, tiene aparejadas dos des-
ventajas que lo hacen desaconsejable como instrumento continuo de me-
dida: por un lado, su elevado coste (hay que investigar a toda la
población) y, por otro, la lejanía temporal entre los momentos de la reali-
zación y la disponibilidad de los resultados. Así, como consecuencia, los
censos se elaboran cada cierto tiempo (diez años es una recomendación
reciente) y sus resultados, hasta unos años más tarde, no están disponi-
bles.
Aunque la idea de muestreo representativo de Kiaer era muy cuestio-
nada, otros investigadores, como Bowley (Desrosières, 2004), continua-
ron realizando estudios no exhaustivos, consiguiendo que sus trabajos
fueran mejor valorados. Así, en 1925, un nuevo congreso del ISI admitía
en una de sus resoluciones la idea de muestreo representativo, distin-
guiendo (Kruger y Mosteller, 1980) entre:

— muestreo aleatorio: todos los elementos de la población tienen


igual probabilidad de ser seleccionados; y
— muestreo intencional de grupos de elementos de la población: se-
lección intencional de grupos grandes de elementos (ciudades, dis-
tritos…) y enumeración completa de los elementos que los for-
man. Los grupos de elementos seleccionados tienen que tener
unos valores medios muy próximos a los valores medios de la po-
blación para aquellas variables de control que son conocidas de la
población.

Unos años más tarde Neyman (1934) publicó un artículo donde sen-
tó las bases del muestreo probabilístico —y en particular de una modali-
dad que denominó «muestreo estratificado de conglomerados», que es la
forma habitual de proceder en las encuestas generales sobre la población
en un país— y estableció que los problemas que se encontraban en las in-
vestigaciones donde se realizaba un muestreo intencional de grupos de
elementos eran debidos, justamente, a la selección intencional de los gru-
pos.
La contribución fundamental del trabajo de Neyman es que la utiliza-
ción de un muestreo probabilístico permite determinar el error en que se
incurre al investigar un subconjunto de la población en lugar de estudiar
a todos los elementos que la componen. Sin embargo, esta propuesta me-
todológica tiene un coste, y es que no es posible conocer el verdadero va-
lor de la característica investigada en la población; lo que sí es posible

238
8. El muestreo aplicado

conocer es un intervalo de valores donde, con un cierto nivel de confian-


za, se encontrará el verdadero valor que caracteriza a la población.
Así, por ejemplo, cuando el INE publica que el dato del número de
ocupados que facilita la EPA correspondiente al cuarto trimestre de 2014
es de 17.569.100 personas, está ofreciendo un valor «pivote» ya que, con-
siderando el error de muestreo de 0,36%, puede elaborarse el intervalo de
confianza del 95% y decir con seguridad que: con un 95% de probabili-
dad, el verdadero valor del número de personas ocupadas en España en
el cuarto trimestre de 2014 se sitúa entre 17.456.658 y 17.681.542. Por
tanto, cualquier valor dentro del intervalo, puede ser el verdadero valor.
Al mismo tiempo que se desarrollaron los trabajos para establecer el
muestreo probabilístico, en Estados Unidos primero Roper y después
Gallup desarrollaron los métodos del muestreo no probabilístico, y en
particular Gallup el denominado muestreo por cuotas. La idea de Gallup
era, al igual que la de Kiaer en su analogía de «los dos barriles» y del
muestreo intencional de grupos, tener una muestra «bien mezclada». Así,
en las muestras con propósitos electorales (Gallup, 1948) consideraba
que «si una muestra es seleccionada cuidadosamente, ésta representará
una réplica cercana al conjunto de la población. Es decir, un electorado
en miniatura con la misma proporción de granjeros, doctores, abogados,
católicos, protestantes, adultos, jóvenes, hombres de negocio, trabajado-
res… como si se encontraran en el conjunto de la población. Tales mues-
tras reflejan las opiniones del conjunto de la población». Sus métodos al-
canzaron varios éxitos, y también fracasos, en la predicción de los
resultados de las elecciones presidenciales en Estados Unidos.
Como se desarrollará más adelante, el problema de los métodos no
probabilísticos es que se desconoce la probabilidad de seleccionar a los
individuos que participan en la encuesta y, por tanto, no puede calcular-
se el error de muestreo, que es la medida del grado de confianza que
ofrecen sus resultados. Por otro lado, la información existente sobre la
estructura de la sociedad es muy básica, y elaborar un «electorado en mi-
niatura» es extremadamente complejo, si no imposible. Por tanto, puede
generarse una distribución de la muestra conforme a unas variables de
las cuales existe información confiable, pero del resto de variables no tie-
ne por qué obtenerse una buena representación (Díaz de Rada y Martí-
nez, 2014). Sin embargo, sus ventajas en términos de menores costes y de
un menor tiempo necesario en su recogida, así como que sus resultados
no tienen que ser precisos, sino «indicar tendencias», facilitaron que el
método de cuotas sea de los más empleados en la realización de estudios
de mercado y encuestas de opinión.

239
La articulación de la investigación social

El contenido del resto del capítulo considera la definición de pobla-


ción y los elementos que permitirán acercarnos a su estudio (apartado 2)
y se presentarán de manera breve los métodos de muestreo aplicables en
el desarrollo de las encuestas de opinión, tomando como referencia los
métodos probabilísticos (apartados 3 y 4) y no probabilísticos (apartado 5),
particularizando en la estimación de proporciones, que son las caracte-
rísticas de la población donde enfocan su interés. Por otro lado, en el
anexo virtual se incluyen ejemplos de los métodos estudiados.

2.  La población objeto de estudio

La investigación por muestreo tiene como objetivo conocer ciertas carac-


terísticas de la población objeto de estudio que no están disponibles por
otras fuentes, ya sea por necesidades del sistema estadístico, por alcanzar
un mejor conocimiento de la misma, o por actualizar información ya
desfasada.
Este objetivo implica que no hay ningún interés en las observaciones
individuales, sino en obtener a partir de ellas una información que carac-
terice al conjunto de la población.

2.1  Características de la población

Al estudiar una población mediante encuesta, el investigador se propone


determinar características de la misma que considera relevantes. Así, si
se estudia el mercado laboral de un país, el interés se centrará en conocer
algunas de las características que pueden ayudar a conocer su situación:
¿cuántas personas están en edad de trabajar?, y de éstas, ¿cuántas están
ocupadas?, ¿cuántas en situación de desempleo?… Igualmente, si hay
unas elecciones legislativas próximas en el país, ¿cuántas personas tienen
intención de votar?, ¿cómo van a distribuir su voto entre las distintas for-
maciones que se van a presentar?…
En general, las preguntas que se tratan de contestar suponen conocer
diferentes distribuciones del total de personas que definen a la población
objetivo. A estas características desconocidas se les denomina paráme-
tros poblacionales y son valores constantes en la población cuando se lle-
va a cabo la investigación mediante encuesta.
El tipo de variable que se emplea para medir estas cantidades se deno-
mina variable cualitativa y va a permitir «contar» a aquellos informantes

240
8. El muestreo aplicado

que tienen las características que son de interés para la investigación y, a


continuación, hacer una inferencia sobre el conjunto de la población.
A efectos de representación, si la población de interés esta constituida
por un conjunto de N elementos, se tendrá:

Población Y1 , Y2 …, Yi …, YN

Si esta población es la población electoral, el día de la convocatoria


electoral cada elector podría caracterizarse como sigue:

Yi = 1, si el elector votó.

Yi = 0, si el elector no votó,

De este modo, para obtener el total de votantes se trataría de «con-


tar» o «sumar» todos los 1 que se recogieran (que es el modo de recuento
en la mesa electoral). De este modo

Población con la característica Y1=1 , Y2=0 …, Yi=0 … YN=1

y, entonces,
N
Total de votantes = ∑ Y   [2.1]
i =1
i

La expresión anterior es la forma habitual de presentar un parámetro


poblacional que define un total, en este ejemplo el total de votantes, y se-
ría idéntico para cualquier otra característica que se considere determi-
nante de la población. Así, a partir de los listados de las mesas electora-
les en las elecciones generales de 2011, el total de votantes fue de
24.593.080.
Adicionalmente, el interés puede centrarse en conocer cuál es el
«peso» que tiene dicha característica en el conjunto de la población. En
ese caso se hablaría del parámetro proporción, cuya expresión es la si-
guiente:
1 N
Proporción de votantes = ⋅ ∑ Yi   [2.2]
N i =1

que es el total de votantes determinado por [2.1] dividido por el total de


individuos de la población con derecho a voto. En general, la expresión

241
La articulación de la investigación social

[2.2] es habitual multiplicarla por 100, de manera que se hablaría del por-
centaje de la población electoral que participó en las elecciones. Así, en
el caso de las elecciones generales de 2011, N es el número de españoles
con derecho a voto y con residencia en España —34.296.705— y una
proporción de 0,717 o el 71,7% de la población electoral ejerció su dere-
cho de voto.
En este ejemplo, para obtener los resultados anteriores se ha convoca-
do y, por tanto contado, a toda la población. Como se estudiará, el pro-
pósito del muestreo es obtener los mismos resultados, pero seleccionan-
do un número relativamente reducido de elementos de la población.

2.2  Población y marcos

Como se comentaba en la introducción, el muestreo se fundamenta en la


selección de un subconjunto de elementos que constituyen la población
objeto de la investigación. En este sentido, el investigador deberá definir
cuál es su población de referencia, la cual vendrá definida por el propósi-
to de su investigación.
Ejemplos de poblaciones serían: si se desea estudiar el mercado de tra-
bajo de un país, la población objetivo vendrá definida por aquellas per-
sonas de 16 años y más residentes en ese país; si se desea estudiar el com-
portamiento electoral, la población objetivo vendrá definida por los
residentes con derecho a voto (en el caso español los españoles mayores
de 18 años); si el estudio es sobre las pensiones, la población objetivo
vendrá definida por todos aquellos residentes que sean perceptores; si el
estudio es sobre los oyentes de una determinada emisora de radio, la po-
blación objetivo serán todos los oyentes de dicha emisora, etc.
Como se ha señalado en los ejemplos, la población viene definida por
el listado completo de elementos que responden al objetivo de la investi-
gación. Sin embargo, este tipo de listados no están, en general, disponi-
bles para los investigadores, pues, en el caso de existir, son elaborados
para unos determinados fines y no es posible su utilización para otros.
Por ejemplo, en España la LOREG imposibilita la utilización del Censo
electoral para realizar una encuesta con propósitos electorales.
En esta situación, la no disponibilidad de un listado exhaustivo de los
elementos que definen la población hace que, dentro de los procesos de
la encuesta, exista una fase denominada elaboración del marco, cuyo
propósito es construir el listado más completo posible de los elementos o
agrupaciones de elementos de la población que se desean investigar.

242
8. El muestreo aplicado

La construcción del marco tiene un papel fundamental en el diseño y


realización de una investigación por muestreo. En un sentido amplio,
Lessler y Kalsbeek (1992) definen el marco como «el material, procedi-
mientos y recursos que identifican, distinguen y permiten el acceso a los
elementos de la población objetivo. El marco está compuesto por un
conjunto finito de unidades a las cuales se les aplica un esquema de selec-
ción probabilística y donde las relaciones entre las unidades del marco y
los elementos de la población objetivo son parte integrante de él. Por
otro lado, el marco también incluirá aquella información auxiliar que
pueda utilizarse para la aplicación de técnicas especiales o estimación».
La cuestión fundamental sobre los marcos de las encuestas es que no
son necesariamente equivalentes a la población objetivo que se pretende
investigar. Por tanto, hay que realizar la distinción entre población obje-
tivo, que es aquella sobre la que se desea tomar las medidas, y la pobla-
ción investigada o población de inferencia. De este modo, existirá una
única población objetivo, pero pueden existir varias poblaciones investi-
gadas. Así, por ejemplo, en una encuesta con propósitos electorales pue-
den utilizarse diferentes poblaciones: la población residente en viviendas,
la población que dispone de línea telefónica, la población que dispone de
conexión a internet…
La elección del marco más conveniente para la realización de una en-
cuesta requiere, por parte del investigador, establecer la relación que exis-
te entre los elementos del marco y los elementos de la población objetivo.
Así, los marcos pueden estar referenciados a elementos o a agrupacio-
nes de elementos de la población objetivo. Los marcos de elementos son
aquellos constituidos por los informantes finales, de manera que coinci-
de la unidad de selección (elemento) con la unidad de análisis (el propio
elemento). Éste sería el caso de un estudio electoral donde el investigador
tuviera disponible el Censo de los españoles residentes en España, pues
cada uno de los electores que lo forman podría ser seleccionado y res-
ponder al cuestionario.
Los marcos de agrupaciones de elementos son los más habituales
cuando se habla de estudios generales sobre una población, pues facili-
tan información de la misma según algunas variables y no tienen el pro-
blema de identificar a los elementos que constituyen la población objeti-
vo. Así, el Censo electoral no está disponible, pero el Instituto Nacional
de Estadística sí que facilita la información del total de personas residen-
tes en España clasificada por algunas variables básicas como son el sexo,
la edad y la nacionalidad, con diferentes niveles de agregación: nacional,
comunidad autónoma, provincia, municipio, y dentro del municipio por

243
La articulación de la investigación social

distritos y secciones censales. De este modo, puede obtenerse una muy


aceptable aproximación a la distribución del electorado considerando las
variables de edad (mayor de 18 años) y nacionalidad (española) si las
elecciones son generales, y añadir otras nacionalidades con derecho de
voto en el caso de unas elecciones municipales o europeas.
Establecido el marco más adecuado, el investigador deberá revisarlo
con el fin de minimizar los siguientes errores:

— Falta de cobertura: situación donde el marco no contiene a todos


los elementos de la población objetivo. Es muy habitual y, en gene-
ral, en la definición del ámbito de la encuesta se indica si hay ele-
mentos que han quedado fuera de los procesos de selección.
— Sobre-cobertura: situación donde el marco contiene elementos que
no corresponden a la población objetivo, o contiene elementos que
aparecen en más de una ocasión.

Según el marco disponible, el investigador tendrá que utilizar diferen-


tes técnicas de muestreo. Así, si dispone de un marco de elementos podrá
realizarse un muestreo aleatorio simple o un muestreo estratificado
(apartado 3), pues se establece una relación uno a uno entre los elemen-
tos del marco y los elementos de la población objetivo. Pero si dispone de
un marco de agrupaciones, entonces se trabajará con un muestreo por
conglomerados o un muestreo estratificado por conglomerados (apartado
4), pues la relación que existe es de una agrupación en un marco determi-
nado con varios elementos de la población objetivo (por ejemplo, un mu-
nicipio y los electores que hay en el mismo; una vivienda y las personas
que viven en ella; un teléfono y las personas que tienen acceso al mismo;
etc.).

2.3  El error en las encuestas

El error en la investigación mediante encuesta surge, como parece lógico,


de la elección consciente de estudiar un subconjunto de la población en
lugar de a toda la población. En una primera aproximación, el error en
términos absolutos viene definido por la diferencia entre el valor estima-
do por la encuesta —P̂— y el verdadero valor de la característica en la
población —P—,

ε a = Pˆ − P   [2.3]

244
8. El muestreo aplicado

que, en términos estadísticos, se analiza a través del error cuadrático me-


dio del estimador,

ECM ( Pˆ ) = E "# P − Pˆ $% 2= V ( Pˆ ) + B 2  
[2.4]

A partir de la expresión anterior, el error cuadrático se descompone en:

a) la varianza del estimador, que está asociada al diseño elegido y,


por tanto, como se desarrollará en los apartados 3 y 4, cada dise-
ño muestral tendrá su medida de error.
b) el cuadrado del sesgo del estimador, que está asociado al compor-
tamiento medio de las desviaciones del estimador —P̂— sobre su
valor medio —E [P̂]—, considerando el conjunto de muestras po-
sibles. Formalmente

B = E "# Pˆ − E "# Pˆ $%$% [2.5]

En aquellos casos donde B = 0, el estimador se denomina insesgado.

Junto con el error de muestreo, que resulta de la varianza del estima-


dor, la práctica del muestreo recomienda controlar todos los aspectos
que afectan al proceso de la encuesta con el fin de detectar posibles des-
viaciones sobre la teoría. Así, durante la elaboración y realización de una
encuesta aparecen todo un conjunto de errores que se definen como erro-
res ajenos al muestreo (Lessler y Kalsbeek, 1992) y que afectan a la cali-
dad de los resultados obtenidos.

— Errores en la confección del marco: son los errores de cobertura y


que afectan a los procesos de selección y estimación.
— Errores de no respuesta: son aquellos que son consecuencia de la
falta de colaboración de los informantes, ya sea total (rechazo o
negativa a participar en la encuesta) o parcial (no facilita respues-
ta a una o varias de las preguntas del cuestionario).
— Errores de medida: están asociados a errores en la información re-
cogida, ya sea porque el informante no responde verazmente, o a
errores del entrevistador al plantear las preguntas y/o recoger las
respuestas.

245
La articulación de la investigación social

Estos errores son los que conducen a la aparición de sesgos en la esti-


mación y, en esta situación, el valor obtenido —P̂— estará alejado del ver-
dadero valor —P—. El problema para el investigador es que no es posible
obtener, a partir de la muestra, una medida del sesgo; es la comparación
de los resultados obtenidos con otras fuentes de confianza (celebración de
unas elecciones en el caso de encuestas electorales o estadísticas oficiales
en otras variables) la que alerta al investigador de su presencia. El trata-
miento de estos problemas (Särndal, Swewnsson y Wretman, 1992; Lorh,
1999) es complejo y requiere de información auxiliar sobre la población.
Así, junto con una estimación de los errores de muestreo, resulta con-
veniente para la buena práctica del muestreo recoger en un informe to-
dos aquellos aspectos que rodean la realización de la encuesta. De este
modo, se facilita a los usuarios una medida de calidad que permite cono-
cer los problemas encontrados y, por tanto, si la realización es próxima a
la teoría que la sustenta.

3.  Muestreo de elementos

Si el marco disponible está compuesto de elementos, se distinguirán los


métodos de muestreo aleatorio simple y de muestreo estratificado. La dife-
rencia entre ambos, como se verá, será la existencia o no de un marco de
información auxiliar que permita al investigador clasificar a sus elementos.

3.1  Muestreo aleatorio simple

El muestreo aleatorio simple puede considerarse la forma básica de


muestreo probabilístico, aplicable en aquellas situaciones donde se dispo-
ne de un listado de elementos de la población.
Este esquema establece que cada elemento (ui) de la población tiene
igual probabilidad de ser seleccionado,

1
P !"ui #$ =  
[3.1]
N
entonces, la probabilidad de que el elemento ui sea incluido en una mues-
tra de n elementos, que se indicará por πi, vendrá dada por

n [3.2]
πi =  
N

246
8. El muestreo aplicado

En general, si no se indica lo contrario, cuando la referencia sea el mues-


treo aleatorio simple se está considerando que la selección es sin reem-
plazamiento. Tal como muestra el gráfico 1, la situación puede represen-
tarse como una urna que contiene N bolas, que son los elementos de la
población, de donde se selecciona un subconjunto de n de ellos.

Gráfico 1.  Muestreo aleatorio simple

  N  

   n  

Estimador de la proporción

A partir de la selección de n elementos, el estimador insesgado de la pro-


porción viene dado por la siguiente expresión

1 n y 1 n
Pˆmas = ⋅ ∑ i = ⋅ ∑ y i
N i =1 π i n i =1 [3.3]

donde, yi es una variable cualitativa que toma el valor 1 o 0 según el ele-


mento de la muestra tenga o no la característica que se está investigando.
Como puede observarse, el estimador de la proporción en la población es
justamente la proporción que se encuentra en la muestra.
Por otro lado, a partir del estimador de la proporción puede definirse
el estimador insesgado del total de la característica en la población,

Cˆmas = N ⋅ Pˆmas   [3.4]

que permite establecer el número total de elementos en la población que


tienen la característica investigada.
Por tanto, las expresiones [3.3] y [3.4] permiten tratar la información
recogida en los cuestionarios y obtener los valores numéricos con los
cuales caracterizar a la población objeto de la investigación.

247
La
La articulación
articulación de
de la
la investigación
investigación social
social

Sin embargo, dicha información resulta insuficiente en términos esta-


dísticos, pues si se realizaran nuevas selecciones, los resultados obtenidos
variarían con cada selección. Por tanto, se hace necesario obtener una
medida de la variabilidad de la estimación realizada. A esta medida se la
denomina varianza del estimador, y tiene la siguiente expresión,

N
1 1 N −n P ⋅Q
v ( Pˆmas ) = (1− f ) ⋅ ⋅ ⋅ ∑ ( y ii − P ) 22 = N ⋅ [3.5]
[3.5]
mas
n N −1 ii =1
=1
N −1 n

donde,

Q=(1–P), es la proporción del suceso complementario y su estimador, a


partir de la muestra,

Pˆ ⋅ Qˆmas
v ( Pˆmas ) = (1− f ) ⋅ mas
mas mas  [3.6]
  [3.6]
mas
n −1

donde,
n
f = , es denominada la fracción de muestreo y corresponde a la pro-
N
porción de elementos de la población que forman parte de la encuesta.
Al término (1–f) se le denomina factor de corrección para poblacio-
nes finitas y se corresponde a la proporción de elementos de la población
que han quedado fuera de la muestra seleccionada. Este factor puede
despreciarse en el cálculo cuando su valor sea cercano a la unidad, como
es el caso de la mayoría de las encuestas de opinión. Sin embargo, en po-
blaciones pequeñas este factor es muy relevante, pues implica una reduc-
ción significativa de la varianza del estimador.
A partir de la estimación de la varianza, el error de muestreo absoluto
de un estimador se define por la raíz cuadrada de su varianza:

s ( Pˆmas
mas
) = v( Pˆmas
mas
) [3.7]
[3.7]

de este modo, las unidades de medida del estimador y de su error de


muestreo son idénticas. Alternativamente, el error de muestreo también
puede definirse en términos relativos, en forma de coeficiente de varia-
ción, y multiplicado por 100.

248
8. El muestreo aplicado

s ( Pˆmas )
cv ( Pˆmas ) =  
⋅100 [3.8][3.8]
Pˆmas

El error de muestreo, expresado en términos de coeficiente de varia-


ción o error de muestreo relativo, es una medida adimensional, de tal
manera que puede utilizarse para cualquier estimador independiente-
mente de sus unidades de medida.

Estimación del intervalo de confianza

Como ya se comentó en la introducción, la realización de una selección a


partir de la cual estimar una característica de interés no conduce a deter-
minar el verdadero valor de la característica en la población. Sin embar-
go, a partir de la estimación y de su error de muestreo, sí puede estable-
cerse cuál es el rango de valores más probables para la característica
investigada.
Considerando la hipótesis de que el estimador P̂mas está asociado a
una distribución normal, el gráfico 2 muestra cómo determinar el inter-
valo de confianza para un valor P desconocido,

2. Intervalo de confianza
Gráfico 2. 

 
α /2 α /2
  1 − α    

  !
Pmas − k ⋅ smas ( P! ) P P!mas + k ⋅ smas ( P! )
 
utilizándose la siguiente expresión para el cálculo del intervalo de con-
fianza,

Pr $%⎡⎣ Pˆmas − P ≤ k ⋅ s ( Pˆmas )&'⎤⎦ = Pr $%⎡⎣ Pˆmas − k ⋅ s ( Pˆmas ) ≤ P ≤ Pˆmas + k ⋅ s ( Pˆmas )&'⎤⎦ =1− α   [3.9]

249
La articulación de la investigación social

donde,

α es el nivel de significatividad, o probabilidad que se establece de ex-


clusión de valores del parámetro P (en general es habitual utilizar el va-
lor del α=0,05 ó 5%);
1–α es el nivel de confianza o probabilidad que se establece de inclu-
sión de valores del parámetro P (para el valor de α=0,05, se tendrá el va-
lor de 1– α=0,95 o 95%);
k es el valor que corresponde en la distribución normal (0,1) asociado
al nivel de confianza establecido (el valor para el 95% es 1,96, pero habi-
tualmente se redondea a 2).

De este modo, la expresión [3.9], considerando α=0,05, conduce a es-


tablecer el intervalo de los valores de P [Pˆmas ± 2 ⋅ s( Pˆmas )] asociados con el
95% de probabilidad, excluyéndose aquellos valores extremos, tanto a la
izquierda (2,5%) como a la derecha (2,5%) del intervalo.

Determinación del tamaño de muestra

Para establecer el tamaño de muestra se realizará una asociación entre la


variabilidad del estimador y el nivel de significación que se ha empleado
para calcular el intervalo de confianza. Para ello, el investigador debe fi-
jar qué nivel de error —εa— considera adecuado para el propósito de la
investigación, y asociarlo a la varianza del estimador [3.5]. De este modo,

Pˆmas − P = εa = k ⋅ v ( Pˆmas )   [3.10]

de donde,

k2 ⋅ N ⋅ P ⋅Q [3.11]
n=
( N − 1) ⋅ ε a2 + k 2 ⋅ P ⋅ Q

que, cuando el factor de corrección de poblaciones finitas —(1–f)— es


cercano a la unidad y N ≅ N −1,  puede aproximarse como sigue,

k 2 ⋅ P ⋅ Q [3.12]
n≅
ε a2

250
8. El muestreo aplicado

Esta última expresión es la más utilizada en las encuestas de opinión,


pues al ser encuestas generales se cumplen las dos condiciones comenta-
das. Los valores que intervienen en [3.12] deben fijarse para determinar
el tamaño de la muestra. Para ello,

— el valor de k es fijado por el investigador en función del nivel de con-


fianza que pretende conseguir;

— el valor de error —εa— también es fijado por el investigador a partir


de la mayor o menor precisión que se pretenda alcanzar;

— el valor de P puede establecerlo el investigador a partir de las siguien-


tes opciones:

  a.  realizar una muestra piloto y estimar el valor de P;


  b. utilizar información disponible (censo o encuesta previa) sobre el
valor de P; o
  c.  establecer una hipótesis sobre el valor de P.

La tabla 1 es muy utilizada en las encuestas de opinión, ya que facilita


los tamaños de muestra en muestreo aleatorio simple como combinacio-
nes de valores de P y del error (ambos en porcentajes), considerando que
el valor de k se establece para un nivel de confianza del 95%. Para elabo-
rar la tabla se utiliza la expresión [3.9] con k=2.

Los valores de la tabla 1 son simétricos alrededor del valor de P=0,5 o


50% y,

—  para idéntico valor del error —εa—, los tamaños muestrales serán
mayores cuanto más cerca a 0,5 o 50% se encuentre el valor de P;

—  para idéntico valor de P, los tamaños muestrales serán menores


conforme aumenta el error —εa—.

Los tamaños de muestra más elevados se producen con P=0,5 o 50%, y


son consecuencia del hecho de que la varianza del estimador [3.5] es
máxima en dicho valor, pues corresponde a la situación de máxima inde-
terminación (no hay una prevalencia de la característica en la pobla-
ción). Ésta es la hipótesis habitual que se realiza en la gran mayoría de
las encuestas realizadas por los institutos demoscópicos. Así, al leer las
fichas técnicas de las encuestas de opinión, vemos: «Para un 95% de in-

251
252
Tabla 1.  Tamaños de muestra: combinaciones de valores de P y error —εa— para un 95% de intervalo de confianza
Valor de P en la población (%)                        

εa·100 1,0 2,0 … 5,0 10,0 20,0 30,0 40,0 50,0 60,0 70,0 80,0 90,0 … 95,0 98,0 99,0
0,1 39.600 78.400 190.000 360.000 640.000 840.000 960.000 1.000.000 960.000 840.000 640.000 360.000 190.000 78.400 39.600
0,2 9.900 19.600 47.500 90.000 160.000 210.000 240.000 250.000 240.000 210.000 160.000 90.000 47.500 19.600 9.900
0,3 4.400 8.711 21.111 40.000 71.111 93.333 106.667 111.111 106.667 93.333 71.111 40.000 21.111 8.711 4.400
0,4 2.475 4.900 11.875 22.500 40.000 52.500 60.000 62.500 60.000 52.500 40.000 22.500 11.875 4.900 2.475
0,5 1.584 3.136 7.600 14.400 25.600 33.600 38.400 40.000 38.400 33.600 25.600 14.400 7.600 3.136 1.584
0,6 1.100 2.178 5.278 10.000 17.778 23.333 26.667 27.778 26.667 23.333 17.778 10.000 5.278 2.178 1.100
0,7 808 1.600 3.878 7.347 13.061 17.143 19.592 20.408 19.592 17.143 13.061 7.347 3.878 1.600 808
0,8 619 1.225 2.969 5.625 10.000 13.125 15.000 15.625 15.000 13.125 10.000 5.625 2.969 1.225 619
0,9 489 968 2.346 4.444 7.901 10.370 11.852 12.346 11.852 10.370 7.901 4.444 2.346 968 489
La articulación de la investigación social

1,0 396 784 1.900 3.600 6.400 8.400 9.600 10.000 9.600 8.400 6.400 3.600 1.900 784 396
1,5 176 348 844 1.600 2.844 3.733 4.267 4.444 4.267 3.733 2.844 1.600 844 348 176
2,0 99 196 475 900 1.600 2.100 2.400 2.500 2.400 2.100 1.600 900 475 196 99
2,5 63 125 304 576 1.024 1.344 1.536 1.600 1.536 1.344 1.024 576 304 125 63
3,0 44 87 211 400 711 933 1.067 1.111 1.067 933 711 400 211 87 44
3,5 32 64 155 294 522 686 784 816 784 686 522 294 155 64 32
4,0 25 49 119 225 400 525 600 625 600 525 400 225 119 49 25
4,5 20 39 94 178 316 415 474 494 474 415 316 178 94 39 20
5,0 16 31 76 144 256 336 384 400 384 336 256 144 76 31 16
10,0 4 8 19 36 64 84 96 100 96 84 64 36 19 8 4
20,0 1 2 5 9 16 21 24 25 24 21 16 9 5 2 1
25,0 0,6 1 3 6 10 13 15 16 15 13 10 6 3 1 0,6
                                 
8. El muestreo aplicado

tervalo de confianza y P=Q=0,5…». En el caso concreto de los baróme-


tros del Centro de Investigaciones Sociológicas, que utiliza un tamaño de
muestra de 2.500, la frase se completa con «…el error es del 2% en el su-
puesto de muestreo aleatorio simple».

3.2  Muestreo estratificado

En un muestreo estratificado, los elementos de la población son clasifica-


dos en subpoblaciones no solapadas denominados estratos donde se pro-
cede a realizar en cada uno de ellos un muestreo aleatorio simple. Al pro-
ceso de formación de los estratos se le denomina estratificación si la
clasificación establecida es tal que:

—  los elementos dentro de los estratos son homogéneos; y,


—  los elementos son heterogéneos entre los estratos.

El error de muestreo asociado a la estimación de la variable de interés


será menor que en un muestreo aleatorio simple.
Para que el empleo del muestreo estratificado sea una opción ventajo-
sa para el investigador, resulta necesario disponer de información auxi-
liar que permita clasificar adecuadamente a los elementos dentro de los
estratos. Variables demográficas (sexo, edad, estado civil, etc.), geográfi-
cas (municipio de residencia, municipio de nacimiento, etc.) y otras que
puedan estar disponibles para el investigador pueden mejorar los objeti-
vos de la investigación al facilitarle clasificaciones útiles en la estimación
y en el contraste de hipótesis.
El proceso de estratificación establece una división de los N elementos
de la población en H estratos, de modo que,
H
N = N 1 + N 2 + ...+ N h + ...+ N H = ∑ N h  
h =1 [3.13]

y la muestra deberá distribuirse en todos ellos de manera que


H
n = n1 + n 2 + ...+ n h + ...+ n H = ∑ n h  
h =1 [3.14]

253
La
La articulación
articulación de
de la
la investigación
investigación social
social

Gráficamente, y comparando con un muestreo aleatorio simple, se ten-


dría:

Gráfico 3. 
3. Muestreo aleatorio simple y estratificado
N
N N
N

N
N11 nn11
nn

N
N nn22
2

N
N nnhh
h

N
NHH nnHH

De este modo, fijados los valores de nhh, se procederá a realizar un


muestreo aleatorio simple en cada estrato. Por tanto, en lugar de una urna
única, como se tenía en muestreo aleatorio simple, se tienen H urnas don-
de, de manera independiente, se procede a seleccionar los elementos de la
muestra. Esta situación hace que la combinación de elementos para el
mismo tamaño de muestra se reduzca, pues combinaciones que eran posi-
bles bajo un muestreo aleatorio simple no lo serán con un muestreo estra-
tificado.

Estimador

El estimador insesgado de la proporción correspondiente a un muestreo


estratificado se define como la suma ponderada de las estimaciones reali-
zadas mediante un muestreo aleatorio simple en cada estrato:
H
H
Pˆstrstr = ∑ Whh ⋅ Pˆhh,,mas   [3.15]
mas  [3.15]
hh==11

donde
Nh
Wh = es la proporción de elementos en el estrato h con respecto al
N
total de elementos en la población, y

254
8. El muestreo aplicado

ˆ 1 nh
Ph ,mas = ⋅ ∑ yi ,h   es el estimador de la proporción en el estrato h don-
nh i =1
de se ha procedido a realizar un muestreo aleatorio simple.
Análogamente al muestreo aleatorio simple, cada muestra conducirá a un
resultado diferente, por lo que es necesaria una medida de variabilidad que
será el error de muestreo. Al igual que en el estimador de la proporción, el
estimador del error de muestreo será una suma ponderada —en este caso
con los pesos al cuadrado— de la variabilidad en cada uno de los estratos,

H H Pˆh,mas ⋅ Qˆ h,mas
v( Pˆstr ) = ∑Wh2 ⋅ v( Pˆh,mas ) = ∑Wh2 ⋅ (1 − f h ) ⋅ [3.16]
h =1 h =1 nh − 1

y el error de muestreo absoluto será su raíz cuadrada:

s ( Pˆstr ) = v( Pˆstr ) [3.17]

que, en términos de coeficiente de variación, tendrá la siguiente expresión:

s( Pˆstr )
cv ( Pˆstr ) = ⋅ 100   [3.18]
Pˆstr

Tamaño de muestra y afijación de la muestra

Para determinar el tamaño de la muestra en un muestreo estratificado se


parte de la misma relación que se estudió en muestreo aleatorio simple, par-
ticularizándola para la varianza del estimador en un muestreo estratificado

Pˆstr − P = εa = k ⋅ v ( Pˆstr )  

obteniéndose la siguiente expresión:


Nh
Wh2
H
1
k2 ⋅ N ⋅∑ ⋅ ⋅ ∑ (Yi − Ph ) 2
h =1 wh N h − 1 i =1
n= Nh
[3.19]
2 2
H
1 2
N ⋅ ε a + k ⋅ ∑ Wh ⋅ ⋅ ∑ (Yi − Ph )
h =1 N h − 1 i =1

255
La articulación de la investigación social

donde

nh
wh = , es la proporción de la muestra en el estrato.
n

Al igual que se estudió en el muestreo aleatorio simple, el valor de k y


el valor de εa son fijados por el investigador. Los valores de las propor-
ciones en los estratos Ph pueden determinarse como ya se estudió en
muestreo aleatorio simple (muestra piloto, estudios previos o hipótesis
sobre sus valores), pero el problema está en wh, pues depende del tamaño
de muestra que se quiere determinar.
Para solucionar este problema, el investigador tiene que tomar la deci-
sión de cómo distribuir la muestra en los estratos. A esta distribución se
la denomina afijación de la muestra y supone establecer una serie de pro-
piedades para la encuesta. Las afijaciones más habituales son las siguien-
tes:

Afijación proporcional

En esta situación, wh=Wh, es decir, la proporción de elementos de la


muestra en el estrato es igual a la proporción de elementos de la pobla-
ción en el estrato. De este modo, n puede determinarse y su distribución
en los estratos vendrá dada por:

N h [3.20]
nh = n ⋅    [3.20]
N

y, entonces, la fracción de muestreo en cada estrato es idéntica a un


muestreo aleatorio simple:

nh n
fh = = = f [3.21]
[3.21]
Nh N

Por otro lado, si se sustituye [3.15] en la expresión del estimador de


muestreo estratificado [3.10], entonces
H
1 nh 1 n
Pˆstr = ∑Wh ⋅ ⋅ ∑ yi ,h = ⋅ ∑ yi = Pˆmas    [3.22]
[3.22]
h =1 nh i =1 n i =1

256
8. El muestreo aplicado

obteniéndose la expresión correspondiente al estimador de muestreo


aleatorio simple. De este modo, no es necesario calcular las proporciones
en cada estrato y ponderarlas para obtener los resultados sobre la pobla-
ción. En estos casos, al estimador se le denomina autoponderado.

Afijación uniforme

En esta situación, el tamaño de muestra se distribuye de manera unifor-


me en los estratos, asignándose idéntico tamaño a todos ellos. Determi-
nado n, su distribución en los estratos vendrá dada por:

1
nh = n ⋅  
H [3.23]

Afijación mixta

En esta situación, el tamaño de muestra se distribuye combinando los


dos esquemas anteriores,

Nh
nh = c + (n − H ⋅ c) ⋅
N [3.24]

donde c es un número fijo de entrevistas por estrato.


De las tres afijaciones consideradas, la más utilizada es la proporcio-
nal, pues garantiza que, independientemente de la estratificación que se
establezca, el error de muestreo del estimador nunca va a ser mayor que
el correspondiente a un muestreo aleatorio simple.
Por tanto, el investigador puede estimar con mayor precisión el pará-
metro correspondiente a la población y puede realizar estimaciones en
las subpoblaciones que considere más relevantes para su investigación.
Esta situación no se puede garantizar en las otras dos afijaciones, pues el
error de muestreo puede ser mayor que el correspondiente a un muestreo
aleatorio simple.
En general, la afijación uniforme se emplea cuando el objetivo de la
investigación es comparar resultados entre subpoblaciones, pues al asig-
narse a cada estrato el mismo nh se obtiene de cada uno de ellos la misma
cantidad de información. El inconveniente está en que los coeficientes de
ponderación a aplicar pueden ser elevados al asignar un tamaño de

257
La articulación de la investigación social

muestra elevado a un estrato que tiene poco peso en la población. Con la


afijación mixta se pretende obtener mayor información de los estratos
con menos población, pero moderando los valores de los coeficientes de
ponderación.
Con el fin de establecer una comparación entre las tres afijaciones
(véase el anexo virtual) y los coeficientes de ponderación asociados, el es-
timador de muestreo estratificado [3.15] puede expresarse como sigue:

1 H W nh 1 H nh
Pˆstr = ⋅ ∑ h ⋅ ∑ yi ,h = ⋅ ∑ δ h ⋅∑ yi ,h   [3.25]
n h =1 wh i =1 n h =1 i =1

donde δh es denominado coeficiente de ponderación y relaciona los por-


centajes de los elementos de la población y de la muestra en cada uno de
los estratos definidos.

4.  Muestreo de agrupaciones

Como se desarrollará a lo largo de esta sección, sea por el marco dispo-


nible o porque el investigador considera que es la opción más convenien-
te, las unidades que componen el marco están formadas por agrupacio-
nes de elementos de la población que se denominan conglomerados.
Por tanto, los N elementos de la población se encontrarán agrupados
en A unidades, cada una de las cuales puede tener un número igual o di-
ferente de elementos (por ejemplo, la población residente en España está
agrupada por municipios), lo cual conducirá a definir en un caso el
muestreo de conglomerados de igual tamaño y, en otro, el muestreo de
conglomerados de distinto tamaño.
Adicionalmente, cada unidad A puede estar o no dividida en unidades
de menor tamaño (por ejemplo, los municipios están divididos en distri-
tos y éstos en secciones electorales; una universidad está dividida en Fa-
cultades y éstas en aulas; etc.), lo cual llevará a definir las situaciones de
muestreo sin submuestreo (no hay división en unidades menores) y las si-
tuaciones con submuestreo (hay subdivisión en unidades menores). En
esta última situación se podrán definir varias etapas donde se procederá
a la selección de las diferentes unidades que considere el investigador.
Una vez seleccionadas las agrupaciones, se procederá a la selección de los
elementos que la componen. Este aspecto de la selección es clave para dife-
renciar las encuestas que pueden definirse como probabilísticas de las que no

258
8. El muestreo aplicado

lo son, por lo que se tratará por separado (apartado 5), pues la no aplicación
de las reglas del muestreo probabilístico implicará que no pueda determinar-
se la probabilidad de que un elemento sea seleccionado y, por tanto, calcular
el error de muestreo que corresponde a la estimación realizada.

4.1  Muestreo por conglomerados

Dentro de este epígrafe se estructuran los siguientes apartados:

4.1.1 Muestreo en una etapa o muestreo sin submuestreo


  4.1.1.1 Muestreo de conglomerados de igual tamaño
  4.1.1.2 Muestreo de conglomerados de distinto tamaño

4.1.2 Muestreo con submuestreo

Si bien en cada apartado puede llevarse a cabo, como se verá, una selec-
ción de las unidades con probabilidades iguales o desiguales, se tratarán
las alternativas más utilizadas pudiendo el lector interesado acudir a
cualquiera de los manuales que figuran en la bibliografía.

4.1.1  Muestreo en una etapa o muestreo sin submuestreo

En esta modalidad de muestreo la característica fundamental es que, se-


leccionada una agrupación, todos los elementos que la componen son
también seleccionados. Un ejemplo de esta modalidad sería partir de un
marco de viviendas y a continuación seleccionar a todas las personas que
viven en la misma; también podrían seleccionarse aulas de una Facultad
y, seguidamente, seleccionar a todos los alumnos que están en la misma.
La característica principal de no realizar submuestreo es que la unidad
seleccionada es medida sin ningún tipo de error de muestreo (se está hacien-
do un «censo» exhaustivo de la unidad); por tanto, el error de muestreo de
las estimaciones estará asociado únicamente a la selección de las unidades.

4.1.1.1  Muestreo de conglomerados de igual tamaño

Esta modalidad es poco habitual en estudios a población general, pero es


muy ilustrativa del tratamiento que implica realizar encuestas con mar-
cos de agrupaciones.

259
La articulación de la investigación social

Como se comentaba en el comienzo de este apartado, la población de


N elementos se encuentra agrupada en A conglomerados de igual tama-
ño B, entonces

1 a B 1 a
Pˆcong = y
∑∑ α ,β a ⋅ ∑
= Pα  
a ⋅ B α =1 β =1 α =1 [4.1]

A partir del marco de las A unidades, esta modalidad de muestreo con-


siste en realizar una selección aleatoria simple de a unidades, investigán-
dose a los B elementos que están dentro de cada una de ellas. Así, la
muestra de elementos puede expresarse como:

Estimador

Un estimador insesgado de la proporción de elementos que tienen una


determinada característica viene dado por la siguiente expresión:

1 a B 1 a
Pˆcong = y
∑∑ α ,β a ⋅ ∑
= Pα  
a ⋅ B α =1 β =1 α =1 [4.2]

donde
1 B
Pα = ⋅ ∑ yα ,β  
B β =1

es la proporción de elementos que dentro del conglomerado α tiene la ca-


racterística investigada. Así, el estimador puede interpretarse como la
media aritmética de las proporciones en los conglomerados selecciona-
dos. En la notación Pα aparece sin el símbolo del estimador (^), ya que,
como se comentó, no hay una selección de elementos en la unidad α se-
leccionada y, por tanto, no hay error.
Análogamente a las otras modalidades estudiadas, dado que cada se-
lección puede conducir a distintos resultados, se precisa obtener una me-
dida de la variabilidad que viene dada por el siguiente estimador de la
varianza de la proporción,
a

∑ ( Pα − Pˆcong ) 2
a
v( Pˆcong ) = (1 − ) ⋅ α =1 [4.3]
A a ⋅ (a − 1)

260
8. El muestreo aplicado

cuya raíz cuadrada será el error de muestreo absoluto s ( Pˆcong ) , a partir


del cual definimos el error de muestreo relativo,

s ( Pˆcong )
cv ( Pˆcong ) =  

cong
[4.4]

Tamaño de la muestra

Para determinar el tamaño de la muestra se procede de idéntica forma


que se estudió en muestreo aleatorio simple y estratificado, particulari-
zando para la varianza del estimador de la proporción en un muestreo
por conglomerados,

Pˆcong − P = εa = k ⋅ v ( Pˆcong ) [4.5]

de donde,

k 2 ⋅ A ⋅ s b2
a=  
A ⋅ B ⋅ εa2 + k 2 ⋅ s b2 [4.6]

donde s b2   es la cuasivarianza entre conglomerados que se estima a partir


de la muestra

B a
sb2 = ⋅ ∑ ( Pα − Pˆcong ) 2
a − 1 α =1 [4.7]

Una vez determinado el número de conglomerados a seleccionar a, el total


de elementos de la muestra se obtendrá multiplicándolo por el número de
elementos B que hay en cada conglomerado, de modo que n = a ⋅ B .  

4.1.1.2  Muestreo de conglomerados de distinto tamaño

La situación más habitual es que las agrupaciones tengan distintos tama-


ños, pues el número de elementos que las componen son diferentes. Así,
los municipios tienen un número diferente de habitantes, las aulas un nú-

261
La articulación de la investigación social

mero diferente de alumnos, las viviendas un número diferente de perso-


nas, etc. De este modo, el total de elementos de la población puede ex-
presarse como
A
N = ∑ Bα [4.8]
α =1

En esta situación, si, como en el epígrafe anterior, se procede a seleccionar


a conglomerados, el número de elementos que constituye la muestra no
puede fijarse de antemano, pues depende de cada selección que se realice,
a
n = ∑ Bα  
α =1 [4.9]

Por tanto, se hace necesario proceder a establecer algún otro tipo de selec-
ción que permita determinar el tamaño de muestra. La solución, como se
estudiará en el epígrafe siguiente, es la realización de un submuestreo den-
tro de cada conglomerado seleccionado.

4.1.2  Muestreo con submuestreo o muestreo polietápico

Ésta es la modalidad de muestreo habitualmente utilizada cuando se em-


plea un marco de agrupaciones. A partir de la información contenida en
el marco, el investigador procederá a establecer una jerarquía de unida-
des, desagregando las mismas de mayor a menor tamaño, que le permita
realizar una selección final de los elementos que forman parte de la po-
blación objetivo. Esta jerarquía de unidades le habilitará para establecer
las diferentes etapas de selección hasta llegar a los elementos que serán
las unidades finales, donde se recogerá la información.
La tabla 2 permite observar las diferentes alternativas que puede consi-
derar un investigador en la realización de una encuesta a la población
electoral.

Tabla 2.  Muestreo en varias etapas


Etapa 2 Etapas 3 Etapas 4 Etapas
1 Viviendas Secciones Municipios
2 Electores Viviendas Secciones
3 Electores Viviendas
4 Electores

262
8. El muestreo aplicado

Como puede observarse en la tabla 2, si el marco disponible para el


investigador está compuesto de viviendas e individuos, puede plantearse
una selección de viviendas y, a continuación, escoger un elector dentro de
la vivienda. También puede plantearse una selección de secciones para
después obtener viviendas dentro de las secciones elegidas y, por último,
tomar a un elector dentro de cada una de las viviendas escogidas. Otra
opción es plantear una selección de municipios y a continuación escoger
secciones dentro de ellos, muestrear viviendas dentro de las secciones y
un elector dentro de cada hogar. Alternativamente, puede proceder la in-
clusión en la muestra de secciones y la selección directa de electores de
las secciones escogidas,
Por tanto, a partir de la información del marco de agrupaciones las
opciones que se le presentan al investigador son varias y, al proceder a
elaborar el diseño de la encuesta, deberá tener en consideración los si-
guientes aspectos:

— cuantas más etapas establezca, el error de muestreo tiende a au-


mentar, pues implica realizar varias selecciones de diferentes uni-
dades;
— al trabajar con conglomerados, éstos no deben ser muy pequeños,
pues mayor será la homogeneidad de los elementos que lo compo-
nen y, por tanto, el error de muestreo;
— los conglomerados no deben ser muy grandes —B—, pues enton-
ces mayor será el valor del error de muestreo;
— en el caso de encuestas presenciales, el número de desplazamientos
será elevado, por lo que el número de elementos a seleccionar den-
tro de los conglomerados deberá fijarse de manera que permita la
realización de la encuesta con unos costes asumibles.

En esta situación, más compleja que las modalidades previamente es-


tudiadas, el muestreo combina diferentes selecciones buscando ciertas
propiedades para el conjunto de los elementos que serán seleccionados.
Por ejemplo, en las encuestas de opinión es habitual que los diseños
muestrales consideren que los elementos que están incluidos en la mues-
tra tengan igual probabilidad de ser seleccionados.
Así, en el caso de un muestreo bietápico, para conseguir un diseño
muestral donde los elementos a seleccionar tengan la misma probabili-
dad de ser seleccionados se procede de la siguiente manera:

a)  seleccionar las unidades de la primera etapa con probabilidades


proporcionales a alguna medida de tamaño (por ejemplo, si se

263
La articulación de la investigación social

trata de municipios o de secciones, el número de electores). De este


modo, si se seleccionan a unidades de primera etapa, la probabili-
dad de que un conglomerado α sea incluido en la muestra es igual a

πa = a⋅   [4.10]
N

b)  considerar un número fijo de b elementos a seleccionar en cada


conglomerado,
c)  seleccionar los b elementos del conglomerado α con probabilida-
des iguales, es decir, realizar un muestreo aleatorio simple dentro
del conglomerado seleccionado,

b
πi =   [4.11]

De este modo la probabilidad de que un elemento del conglomerado α


sea seleccionado será

Bα b a ⋅ b n
π i ,α = π α ⋅ π i = a ⋅ ⋅ = =   [4.12]
N Bα N N

donde n = a · b es el tamaño de muestra, pues en los a conglomerados se-


leccionados se procede a escoger el mismo número b de elementos. En ge-
neral, b se establece en función del número de cuestionarios que se consi-
dera factible realizar con un número razonable de desplazamientos.
El resultado [4.12] muestra que el proceso de selección realizado con-
duce a que todos los elementos tengan igual probabilidad de ser seleccio-
nados, independientemente del tamaño de los conglomerados, y se co-
rresponde con la probabilidad de seleccionar a un elemento de la
población con un muestreo aleatorio simple [3.2]*. En esta situación,
puede utilizarse el estimador insesgado [3.3]

1 n
Pˆcong , 2et = Pˆmas = ⋅ ∑ yi [4.13]
n i =1

*
Al procedimiento anterior se le denomina autoponderado, diseño EPSEM o MESIP.

264
8. El muestreo aplicado

Al igual que las modalidades estudiadas, hay que asociar una medida de
variabilidad que en el caso de las selecciones sin reposición y con proba-
bilidades desiguales son expresiones muy complejas y de difícil estima-
ción. Hay diferentes métodos que permiten obtener una estimación con-
sistente a la misma (Cochran, 1977; Lehtonen y Pahkinen, 1996).

4.2  Muestreo estratificado por conglomerados

Al igual que en el muestreo estratificado con un marco de elementos se


consideraba ventajosa la estratificación de los elementos que definían la
población, en el caso de los conglomerados la situación es semejante.
Así, en estos diseños lo común es establecer una combinación de mues-
treo estratificado y muestreo por conglomerados con el fin de incorporar
las ventajas que ofrecen ambos esquemas, en particular la estimación de
subpoblaciones y la realización de la encuesta con unos costes acepta-
bles.
En esta modalidad se parte de una estratificación de los conglomera-
dos en estratos no solapados y se procede a la realización de un muestreo
por conglomerados en cada uno de los estratos definidos. Por tanto, en
cada estrato el investigador puede proceder con flexibilidad y realizar el
número de etapas que considere más adecuado con la información de la
que dispone en el marco. También puede proceder a realizar un muestreo
más intenso en unos estratos que en otros, modificando convenientemen-
te, como se estudió en muestreo estratificado, los tamaños de muestra en
los estratos definidos.
Como se comentó en el epígrafe anterior, en el caso particular de las
encuestas de opinión un objetivo del diseño es que todos los elementos
tengan igual probabilidad de ser seleccionados. Esta condición, dentro
de un muestreo estratificado por conglomerados, donde se procede a rea-
lizar un muestreo bietápico en cada estrato, se cumple combinando:

a. una afijación proporcional en los estrados definidos en [3.20]


Nh
nh = n ⋅ [4.14]
N
b. dentro de cada estrato, seleccionando los conglomerados con pro-
babilidades desiguales y, dentro de los conglomerados, eligiendo
los elementos mediante muestreo aleatorio simple. Así, la relación
[4.2], se cumple en cada estrato.

265
La articulación de la investigación social

Por tanto, de [3.20], [4.12] y [4.13]


H H
Pˆstr ,cong , 2et = ∑Wh ⋅ Pˆh ,cong , 2et = ∑Wh ⋅ Pˆh ,mas = Pˆmas  
[4.15]
h =1 h =1

De este modo, el estimador de muestreo simple [3.3] puede ser empleado


en la estimación de las características de interés. Para estimar las varian-
zas, al igual que se comentó en muestreo por conglomerados con
submuestreo, las expresiones son muy complejas, empleándose métodos
aproximados.
Como ejemplo de diseño de muestreo estratificado por conglomera-
dos, en el anexo virtual se describe con detalle el diseño muestral realiza-
do por el Centro de Investigaciones Sociológicas en su Barómetro de
Opinión.

5.  Muestreo no probabilístico

Como se comentaba en la introducción, en las primeras investigaciones


por muestreo las selecciones que se realizaban eran intencionales, de ma-
nera que el investigador era quien decidía, y no el azar, las unidades y los
elementos dentro de las unidades que serían investigados.
Esta forma de proceder es muy criticada desde un punto de vista esta-
dístico, pues implica desconocer las probabilidades de selección de los
participantes de una encuesta y, por tanto, inhabilita la realización de in-
ferencias sobre la población.
Estos procedimientos consiguieron una gran aceptación, sobre todo
ligados a investigaciones de carácter electoral, como fue el caso de Ga-
llup, que «popularizó» el denominado método de cuotas. Este método
establecía la clasificación de los elementos de una muestra según deter-
minadas variables conocidas de la población, de manera que la composi-
ción de la muestra replicara la de las variables de la población. De este
modo, el entrevistador tenía que encontrar a los individuos que cumplie-
ran unas condiciones para ser seleccionados.
Estas condiciones, por un lado, restaban libertad a los entrevistadores
al no poder seleccionar a cualquier individuo —dificultándola en exceso
cuando se consideraban varias cuotas simultáneamente— y, por otro
lado, también podían incomodar a la persona que se quería entrevistar
hasta el punto de rechazar participar en la encuesta. Estas circunstancias
favorecieron la utilización de variables de fácil aplicación y que no pudie-

266
8. El muestreo aplicado

ran ser consideradas como intrusivas por parte de la población a investi-


gar (Díaz de Rada, 2001). Por ejemplo, la ciudad de residencia, el sexo,
la edad, la tenencia de casa en propiedad, de un vehículo, etc. son varia-
bles generalmente utilizadas en la selección mediante cuotas.
Así, un ejemplo de muestreo por cuotas para la población electoral
consistiría en complementar una distribución de una muestra de 2.500 en-
trevistas según la comunidad autónoma y el tamaño del municipio de resi-
dencia, con la estructura por sexo y edad de la población electoral que
muestra la tabla 3,

Tabla 3.  Distribución por sexo y edad de la población electoral

Sexo 
Tramos edad Hombre Mujer Total
18 a 24 años 107 102 209
25 a 34 años 198 190 388
35 a 44 años 250 244 494
45 a 54 años 230 232 462
55 a 64 años 178 186 364
65 años y más 248 335 583
Total 1.211 1.289 2.500

La combinación de ambas distribuciones es muy utilizada en las en-


cuestas telefónicas y en las invitaciones por correo electrónico a cumplimen-
tar por internet. En el caso de las encuestas presenciales, una vez deter-
minada el área de trabajo para el entrevistador (por ejemplo, mediante
una selección en varias etapas hasta llegar a una sección censal), hay que
facilitar a los entrevistadores:

— Unas reglas para seleccionar portales y viviendas dentro del área.


Este método se conoce como rutas aleatorias y permite realizar un
recorrido del área, seleccionando portales y viviendas donde loca-
lizar a la población objetivo.
— Una distribución del número de encuestas que tienen que realizar
según las variables de control.

Esta distribución es la mostrada en la tabla 4, donde cada entrevista-


dor recibe unas características de sexo y edad para los individuos que
debe localizar y la suma, para todos los entrevistadores, replica la distri-
bución de la tabla 3.

267
268
Tabla 4.  Distribución por sexo y edad en encuestas presenciales

Hombre Mujer

Entrevistador 18 a 24 25 a 34 35 a 44 45 a 54 55 a 64 65 y más 18 a 24 25 a 34 35 a 44 45 a 54 55 a 64 65 y más Total

1 1 1 0 1 1 1 0 1 0 1 0 2 9
La articulación de la investigación social

2 0 1 1 1 1 0 0 1 1 1 1 1 9

3 1 0 1 1 0 1 1 1 1 0 1 1 9

r 1 1 1 0 0 1 1 0 0 1 1 2 9

Total 107 198 250 230 178 248 102 190 244 232 186 335 2.500
8. El muestreo aplicado

En general, independientemente de que la entrevista sea presencial, tele-


fónica o por Internet, se permite al entrevistador, en caso de que no pueda
realizar la entrevista en la vivienda, teléfono o persona invitada, la selección
de una nueva vivienda, teléfono o invitación. Éste es un problema muy grave
desde el punto de vista estadístico pues conduce a la aparición de sesgos en
determinadas variables. Así, por ejemplo, no resulta extraño que en las en-
cuestas presenciales, o en las telefónicas, se recoja información de personas
que habitualmente permanecen más tiempo en la vivienda.
Esta forma de proceder es muy ventajosa desde el punto de vista de
los costes en el caso de las encuestas presenciales, pues en caso de ausen-
cia en la vivienda de la persona seleccionada evita al entrevistador volver
a la vivienda. De este modo, el tiempo necesario para recoger la informa-
ción disminuye y permite elaborar los resultados de la encuesta con ma-
yor rapidez que una encuesta probabilística. Ambos aspectos son decisi-
vos en las encuestas de opinión y de ahí su utilización habitual por los
diferentes institutos demoscópicos.
Existen otros métodos de muestreo intencional, como la selección de
los entrevistados por la fecha de cumpleaños más próxima a la de la rea-
lización de la encuesta o la selección de «bola de nieve», donde un entre-
vistado da información de dónde localizar a otro elemento de la pobla-
ción objetivo, etc. Los problemas estadísticos de su aplicación son
idénticos a los comentados para el muestreo por cuotas.
Por último, sólo resta comentar que el muestreo por cuotas garantiza que
el conjunto de la muestra reflejará unas determinadas características de la
población (por ejemplo el sexo y la edad), pero no se podrá garantizar para
otros subconjuntos que pudieran ser de interés para la investigación.

Bibliografía recomendada
Azorín, F., y Sánchez, J. L. (1994): Métodos y aplicaciones del muestreo, Madrid,
Alianza.
Cochran, W. G. (2000): Técnicas de muestreo, México, CECSA.
Lohr, S. L. (2000): Muestreo: Diseño y análisis. Madrid, International Thomson
Editores.
Lessler, J., y Kaasbeek, W. (1992): Nonsampling error in surveys, Nueva York,
Wiley.
Lehtonen, R., y Pahkinen, E. (2004): Practical methods for design and analysis
for complex surveys, Nueva York, Wiley.
Kish, L. (1995): Survey Sampling, Nueva York, Wiley.
Martínez, V. C. (2003): Diseño de encuestas de opinión, Madrid, Ra-Ma.

269
La articulación de la investigación social

9.  La evaluación de
intervenciones sociales:
proyectos, programas y
políticas

Francisco Alvira Martín


María José Aguilar Idáñez

1. Introducción

La evaluación, en tanto que señalamiento del valor de algo, implica esti-


mar, apreciar o valorar. Ahora bien, la evaluación sistemática, investiga-
ción evaluativa o evaluación de programas, es un proceso de enjuicia-
miento y valoración de una intervención, apoyado en información
recabada sistemáticamente.
Se dice que la evaluación es un tipo de investigación social aplicada a
la toma de decisiones, pero siendo términos afines, investigación y eva-
luación no son sinónimos, pues denotan procedimientos similares con
muchos puntos de coincidencia pero con diferencias básicas esenciales,
que se explicitan a continuación.

En primer lugar, la evaluación exige uno o varios criterios de valor


que permitan valorar (evaluar) el programa o intervención social; no
existe tal requisito en la investigación aunque ésta parte del valor de la
verdad como criterio de referencia esencial. Todos los procesos de selec-
ción de criterios de valor y de establecimiento de objetivos de evaluación
en función de dichos criterios son procesos peculiares a las evaluaciones
y no a las investigaciones. En segundo lugar, evaluar exige, al igual que
investigar, recogida de información, pero el tipo de información viene de-

270
9. La evaluación de intervenciones sociales

terminado por los criterios de valor y, además, las técnicas de recogida


de información se seleccionan no sólo en función de su adecuación técni-
co-metodológica, sino también en función de su credibilidad y su ade-
cuación práctica. Estos últimos criterios de selección priman sobre el de
la cientificidad, de modo que, de entre todas las técnicas de recogida de
datos, se elige aquella que sea más adecuada al presupuesto y tiempo dis-
ponible y que, además, goce de credibilidad para los que tienen que usar
la evaluación. En tercer lugar, no sólo la evaluación tiene que responder
adecuadamente y en tiempo a las preocupaciones de los «clientes» y
«partes legítimamente interesadas», sino que hay que maximizar la pro-
babilidad de utilizar sus resultados. Lograr esta utilización condiciona
todo el proceso de evaluación, incluida la recogida y análisis de la infor-
mación, de modo que se buscan técnicas que tengan mayor probabilidad
de utilización de resultados.

2.  Evaluación y criterios de evaluación

Evaluar es emitir un juicio sobre el valor de un programa, o bien sobre


algunos de sus componentes, fundamentado en información recogida y
analizada sistemáticamente, con el objetivo último de utilizar dicho jui-
cio e información para actuar sobre el programa, manteniéndolo, modi-
ficándolo o terminándolo.
Para emitir un juicio de valor es necesario disponer de valores o criterios
de valor que sirvan para emitir dicho juicio. En la evaluación de programas
el criterio de valor más usado ha sido el de los objetivos del programa; un
programa es bien valorado si logra los objetivos establecidos en el mismo y
la evaluación de acuerdo a este criterio consiste en una comparación entre
los objetivos previstos en el programa y lo conseguido.
Pero hay otros criterios de valor posibles. La insatisfacción con utilizar solo
los objetivos explícitos de una intervención, dado que éstos pueden estar mal
formulados o no responder a lo que se necesita para acabar/paliar el problema
origen de la intervención, llevó a Michael Scriven a plantear la evaluación «li-
bre de objetivos» e insistir en la satisfacción de las necesidades de los destinata-
rios de la intervención o en el conjunto de efectos realmente producidos por la
intervención como criterios de valor; necesidades y/o efectos identificados/defi-
nidos por el evaluador o, mejor, por las partes legítimamente interesadas en la
evaluación y el programa. La sostenibilidad, el empoderamiento de determina-
dos grupos sociales, la complementariedad con otras intervenciones son valores/
criterios de valor que cada vez tienen mayor relevancia.

271
La articulación de la investigación social

Actualmente es una práctica habitual que, al plantear la necesidad de


llevar a cabo la evaluación de una intervención, los patrocinadores indi-
quen en los TOR (Terms of Reference) los objetivos de la evaluación, que
recogen entre otros aspectos los valores/criterios de valor a utilizar en la
evaluación.
Pero no siempre existen unos criterios de valor claramente especificados;
en estos casos, tal y como se señala en el siguiente apartado, la evaluadora
debe inferir, de las preguntas que quieren ver contestadas en la evaluación
los patrocinadores, los criterios de valor, los objetivos de la misma y el tipo
de evaluación.
En algunas ocasiones el evaluador puede negociar o decidir los criterios
de valor a utilizar. Nosotros mantenemos la postura de que toda evaluación
debería incluir necesariamente una serie de criterios de valor: una correcta
implementación de la intervención, una cobertura adecuada, lograr los efec-
tos buscados al nivel requerido con eficiencia, etc. Tal y como se explica más
adelante, sólo así se garantiza una adecuada y sistemática evaluación de una
intervención que permitirá mejorar dicha intervención o cambiarla1.
Los criterios de valor son la fuente, no sólo del tipo o tipos de evaluacio-
nes a llevar a cabo (estimar el impacto, por ejemplo, implica la realización
de una evaluación de impacto), sino también de la información que hay
que recoger para poder realizar la evaluación: evaluar es comparar el crite-
rio o criterios de valor con la información que muestra el grado en que ese
criterio o criterios de valor se han alcanzado.

3.  Tipos de evaluación

Existen numerosas clasificaciones de los diferentes tipos o modalidades


de evaluación. Las más significativas desde la perspectiva de la mejora de
las intervenciones, con mayores implicaciones prácticas a la hora de deci-
dir cuándo, quiénes y qué se va a evaluar, se presentan a continuación.
De acuerdo al momento en que se evalúa, se distinguen tres tipos de
evaluación:

• Evaluación antes (ex-ante), inicial o a priori. Está encaminada a es-


tudiar la pertinencia, viabilidad y eficacia potencial de un programa
o servicio. Se realiza antes de emprenderlo, o de aprobar su realiza-
ción. Comporta dos aspectos: la coherencia entre las soluciones
que se proponen y la realidad que se quiere modificar; y la coheren-

272
9. La evaluación de intervenciones sociales

cia o congruencia entre medios/recursos y objetivos, entre objetivos


generales y específicos, y entre el diagnóstico y las propuestas de
actuación.
• Evaluación durante. Se trata de una evaluación de la gestión o eva-
luación continua. Se realiza durante la ejecución del programa y en
ciertos aspectos coincide con el control operacional, aunque va más
allá del control de ejecución de las actividades y el uso de recursos.
• Evaluación después (ex-post). Se trata de la evaluación de resultados
y del impacto final del programa. Consiste, por tanto, en establecer
y valorar cuánto se ha cambiado la «situación inicial», de qué ma-
nera se ha modificado, y hasta qué punto se ha logrado la «situa-
ción objetivo» que se quería alcanzar.

Si consideramos la procedencia de los evaluadores, es decir, quiénes


realizan la evaluación, podemos diferenciar cuatro modalidades de eva-
luación:

• Evaluación externa: es aquella que recurre a evaluadores que no per-


tenecen ni están vinculados (directa o indirectamente) a la organiza-
ción ejecutora del programa o servicio que se evalúa. Cuando se
realiza este tipo de evaluación, de ordinario se procura la participa-
ción de expertos contratados por la entidad que quiere evaluar algu-
na o la totalidad de las acciones que realiza, áreas en que actúa o
servicios y programas/proyectos específicos.
• Evaluación interna: esta modalidad de evaluación es la que se realiza
con la participación (como evaluadores) de personas que pertenecen
a la institución promotora o gestora del programa o proyecto, pero
que no son directamente responsables de su ejecución.
• Autoevaluación: en esta modalidad, el proceso de evaluación está a
cargo de aquellos que están implicados directamente en la ejecución
o realización del programa o prestación del servicio, que son quie-
nes valoran y enjuician sus propias actividades para determinar si
están cumpliendo o no con las metas propuestas.
• Evaluación mixta: este tipo de evaluación, cada vez más frecuente,
suele ser una combinación de al menos dos tipos de los anterior-
mente mencionados. Bien se realiza por un equipo de trabajo que
incluye evaluadores externos e internos, bien por un equipo que in-
cluye evaluadores internos y autoevaluación o bien por evaluadores
externos y autoevaluación.

273
La articulación de la investigación social

En tercer lugar, si consideramos la naturaleza del objeto de evaluación, po-


demos distinguir tres grandes modalidades de evaluación, y dentro de cada
una de ellas, otros tipos específicos que resumimos en el siguiente cuadro:

MODALIDADES DE EVALUACIÓN SEGÚN EL ASPECTO O


COMPONENTE DEL PROGRAMA OBJETO DE EVALUACIÓN

EVALUACIÓN DE
EVALUACIÓN DE LA
LA EFICACIA Y
EVALUACIÓN DEL INSTRUMENTACIÓN
EFICIENCIA DEL
TIPOS DE DISEÑO Y Y SEGUIMIENTO DEL
PROGRAMA
EVALUACIÓN CONCEPTUALIZACIÓN PROGRAMA
(EVALUACIÓN DE
DEL PROGRAMA (EVALUACIÓN DEL
RESULTADOS O
PROCESO)
EFECTOS)

Evaluación de Evaluación de la Evaluación de


necesidades (que es un cobertura del resultados del
componente del programa. programa
diagnóstico previo a la (también
planificación). Evaluación de la denominada
implementación y evaluación de la
Evaluación del funcionamiento del eficacia y
diagnóstico propiamente programa efectividad) y
dicho. (seguimiento o evaluación del
monitorización). impacto.
Evaluación de la
concepción y diseño del Evaluación del Evaluación de la
programa (que es un ambiente eficiencia del
componente del propio organizacional en que programa o
diseño de cualquier se desarrolla el evaluación de la
programa o servicio). programa (también rentabilidad
llamada evaluación económica.
institucional).

Evaluación del
rendimiento del
personal.

Momento más ANTES: DURANTE: DESPUÉS:


oportuno para En la fase de Cuando ya se ha Cuando el
realizar la formulación del puesto en marcha el programa lleva
evaluación programa y programa y durante funcionando un
planeamiento de la su período de tiempo suficiente
intervención ejecución y/o al terminarlo

274
9. La evaluación de intervenciones sociales

Dado que los criterios de clasificación utilizados para elaborar estas


tipologías son distintos e independientes, las evaluaciones pueden ser cla-
sificadas con mezclas de estas tres tipologías o de otras. Sin embargo, en-
tendemos que la última clasificación es la más importante, tanto porque
se relaciona claramente con el uso de criterios de valor específicos como
porque condicionará en gran medida la información a recoger, cómo se
recogerá y cómo se analizará la misma.

4.  Fases de la evaluación

Si se trata de una evaluación externa, la perspectiva más tradicional suele


seguir las siguientes fases en la realización de una evaluación:

DEMANDA DEL CLIENTE


 

FAMILIARIZACIÓN CON EL PROGRAMA O INTERVENCIÓN

DETERMINACIÓN DE:
— Preguntas
— Objetivos
— Tipos de evaluación
— Criterios de valor
 

SELECCIÓN DEL DISEÑO O ESTRATEGIA METODOLÓGICA DE LA EVALUACIÓN


 

RECOGIDA SISTEMÁTICA
DE INFORMACIÓN

ANÁLISIS E INTERPRETACIÓN Y ELABORACIÓN DEL INFORME

Pero cada vez es más necesario lograr la implicación en el proceso eva-


luativo de la mayor cantidad de actores sociales interesados posible. De este
modo, la utilidad y el uso de la evaluación puede aumentar y, lo que es más
importante, se formulan los juicios evaluativos sobre la base de los diferen-

275
La articulación de la investigación social

tes intereses afectados. En otras palabras, se hace más realista la tarea eva-
luadora, mediante la participación no sólo de los profesionales o de los res-
ponsables técnicos de hacer la evaluación, sino de los responsables
políticos, los usuarios o la comunidad en general. Por ello es importante
considerar, antes de iniciar el proceso evaluativo, cuáles son esos posibles
actores sociales, qué intereses pueden tener en la evaluación y su utilización
posterior, y de qué modo se puede operativizar su participación en la eva-
luación. Además, es preciso definir a qué nivel se va a evaluar, esto es: un
sistema de servicios, una institución, un programa o proyecto, actividades
concretas, métodos de intervención, etc. Dependiendo del nivel que evalue-
mos, nos encontramos con diferentes actores sociales (individuales y colec-
tivos) que, con intereses no coincidentes e incluso contrapuestos, tienen al-
gún interés y/o capacidad de presión en la evaluación.2
Lo que verdaderamente diferencia un abordaje evaluativo de otro «no
son los métodos sino más bien las preguntas, quiénes plantean esas pre-
guntas y qué valores se promueven» (Green, 1994). Todas las evaluacio-
nes tratan de responder a ciertas preguntas, buscando con su respuesta en-
juiciar y valorar el aspecto del programa que se quiere evaluar. Por ello, el
proceso de evaluación siempre comienza con la elección/formulación de es-
tas preguntas. Esta formulación de preguntas permite centrar tres aspectos
vitales previos al diseño metodológico: los objetivos de la evaluación; el
tipo o tipos de evaluación; y los criterios de valor, que han de tener cohe-
rencia e interrelación, ya que de ello dependerá todo el proceso evaluativo.
Por ello, desde un punto de vista analítico y secuencial, el punto de partida
de toda evaluación lo constituyen las preguntas. Por ejemplo, si la pregunta
para el evaluador es «¿Llega la intervención a la población destinataria?»,
se está planteando a la vez un objetivo de evaluación (averiguar si llega la
intervención a la población destinataria), un tipo de evaluación (evaluación
de la cobertura) y un criterio de valor (el programa será bueno si llegamos
a la población objeto del mismo).
Existen diferentes sistematizaciones sobre las etapas, tareas y activida-
des que implica un proceso evaluativo participativo. Advirtiendo que, en
cada caso concreto, dicho proceso puede sufrir modificaciones y adapta-
ciones, proponemos un esquema sintético basado en tres propuestas dife-
rentes aunque complementarias (Patton, 1982; Alvira, 1991 y 1997; y
Aguilar, 1994 y 2013).
Respecto al diseño/estrategia metodológica de la evaluación todo lo que
se señala en el capítulo 3 («Diseños y estrategias de investigación social»)
es aplicable a la evaluación de intervenciones sociales. Tal y como se indica
en ese capítulo, es cada vez más frecuente el uso de diseños metodológicos

276
9. La evaluación de intervenciones sociales

Demanda de evaluación interna Demanda de evaluación externa

Familiarización con el programa

Definir y convocar a las partes interesadas y organizar


con ellas un grupo de trabajo

Negociación entre el grupo de trabajo y el equipo evaluador


para responder cuestiones que condicionarán la evaluación y determinarán la
evaluabilidad o no del programa:

Delimitar las preguntas y temas de evaluación

Habrá que buscar nuevas preguntas o temas hasta tanto no se pueda identificar un
uso concreto de las respuestas a dichas preguntas.
Habrá que abandonar el proceso si el grupo no consigue identificar preguntas cuyas
respuestas sean utilizables o útiles.

Determinación de:
• Preguntas
• Objetivos
• Tipos de evaluación
• Criterios de valor

Diseño de la evaluación:
• Estrategia metodológica
• Variables, indicadores y fuentes de datos
• Mediciones

• Los métodos, ¿son adecuados para las preguntas de la evaluación?


• Los resultados que se obtengan, ¿tendrán credibilidad?
• Los métodos a utilizar, ¿están dentro del presupuesto?
• Los resultados obtenidos, ¿se utilizarán?

Recogida sistemática de información

Análisis e interpretación de datos con la implicación de todo el


grupo de trabajo.

Discusión de los resultados entre las partes interesadas, y decisión sobre cómo
utilizar y aplicar los hallazgos

Decisión sobre la difusión y uso de los hallazgos

277
La articulación de la investigación social

mixtos (cuantitativos y cualitativos) en la evaluación de programas, y más


recientemente el uso de métodos combinados. El empleo conjunto de mé-
todos combinados tiene, además, grandes ventajas: permite la consecución
de objetivos múltiples, ya que se interesa por el proceso y el resultado, po-
tencia la vigorización mutua de los dos tipos de procedimientos y facilita
la triangulación a través de operaciones convergentes.
En el proceso de evaluación, lo fundamental a tener en cuenta cuando
se seleccionan los procedimientos no son las técnicas en sí o su mejor
adecuación científica, sino la utilización de aquellas que permitan obte-
ner un nivel, volumen y calidad de información suficientemente relevante
y significativa, y con la suficiente credibilidad para las partes involucra-
das, de manera que se pueda responder a las preguntas de la evaluación y
se asegure la utilización de sus resultados. Todo ello, considerando el
tiempo disponible, los costes y esfuerzos que supone el uso de cada técni-
ca, y la validez que a los resultados obtenidos le otorguen las partes inte-
resadas y las personas que, entre ellas, vayan a utilizar los resultados de
la evaluación. Dicho en otras palabras, la selección de técnicas de recogi-
da de datos en la evaluación dependerá de:

— Naturaleza de la evaluación (preguntas, criterios de valor y objeti-


vos de la evaluación).
— Aspectos de la intervención que serán objeto de evaluación (tipo
de evaluación).
— Recursos disponibles (incluyendo costes, esfuerzo y tiempo dispo-
nible).
— Información existente y accesible.
— Grado de colaboración que se espera obtener razonablemente por
parte de quienes deben facilitar dicha información.

Además, el diseño y la realización de una evaluación debe tener en


cuenta aspectos más pragmáticos y políticos, en el sentido más científico
de este último término, como:

1. Contemplar las cuestiones éticas y culturales en la evaluación


(acerca de qué información recoger y cómo hacerlo).
2. Integrar la evaluación en las actividades propias del programa.
3. Adoptar un punto de vista realista al decidir qué evaluar y cómo
(sopesando el esfuerzo que se requiere).
4. Implicar al máximo número de personal del programa y tan pron-
to como sea posible.

278
9. La evaluación de intervenciones sociales

Por último, para que la estrategia metodológica de la evaluación sea


adecuada y su utilización óptima, es conveniente que:

— La evaluación sea permanente y esté integrada dentro del proceso


de implementación del programa.
— La evaluación sea tanto de resultados como del proceso llevado a cabo.
— Que participen los destinatarios y personas implicadas en el pro-
grama en los distintos niveles de gestión del mismo.
— Que la evaluación incluya no sólo el grado de cumplimiento de los
objetivos propuestos, también la optimización de recursos y la ca-
lidad de los programas y servicios prestados.

De esta forma podremos efectivamente comprobar si:


• lo que se hace es lo que se pretendía hacer,
• cómo se hace es la forma cómo debería hacerse,
• lo que se logra es lo que se quería lograr,
• el logro es atribuible realmente a la intervención y
• se ha hecho todo de una manera eficiente.
Es decir, debemos tratar de evaluar los programas en términos de efi-
cacia, calidad y eficiencia.

5.  Evaluación del proceso y evaluación de la calidad


La evaluación del proceso es la que se lleva a cabo durante el desarrollo
operativo e implementación del programa o servicio. Como hemos visto
al clasificar las diferentes modalidades de evaluación, en el momento de
la ejecución de un programa son varios los tipos de evaluación que pue-
den llevarse a cabo. La evaluación de la implementación o seguimiento/
monitorización del programa suele ser la más frecuente y la que tiene una
mayor implantación en los patrocinadores de evaluaciones.
Para realizar este tipo de evaluación, es imprescindible contar con al-
gún sistema de seguimiento del programa o servicio, ya que sin la infor-
mación registrada por este medio, una evaluación de carácter permanen-
te y continuo es prácticamente imposible.
La formulación de un sistema de seguimiento comporta dos tipos de
tareas básicas:
• el diseño del flujo regular de datos que permita identificar, seleccio-
nar y registrar la información más significativa acerca del funciona-
miento del servicio o la marcha del programa, y

279
La articulación de la investigación social

• analizar ese cúmulo de informaciones para obtener una retroali-


mentación acerca del modo en que está operando el programa.

Para realizar una evaluación continua de la implementación o el modo


en que se está llevando a cabo la intervención, es preciso valorar y enjui-
ciar la información recogida, y utilizarla en la toma de decisiones. Como
ya hemos señalado en anteriores publicaciones (Alvira, 1991 y 1997;
Aguilar, 1994 y 2013), una modalidad de evaluación de esta naturaleza
conlleva también el diseño de soportes documentales que permitan el re-
gistro de información durante la puesta en marcha y la ejecución de las
actividades del programa. Otro de los componentes de la evaluación del
proceso que habitualmente se suele hacer en las organizaciones prestado-
ras de servicios es la cobertura. Para llevar a cabo este tipo de evaluación
es preciso diseñar registros de usuarios y disponer de datos de la pobla-
ción diana, a fin de poder establecer las comparaciones necesarias entre
unos registros y otros y, de ese modo, determinar si existe infracobertura,
sobrecobertura o sesgo en la cobertura del programa. La evaluación del
rendimiento o desempeño del personal es otra modalidad de evaluación
del proceso que se realiza con frecuencia en los procesos de gestión admi-
nistrativa de la mayor parte de las organizaciones públicas y privadas.
Utilizada generalmente como mecanismo de control social dentro de las
mismas, el hecho es que, metodológicamente hablando, la evaluación del
rendimiento del personal tiene un proceso propio de realización, basado
en el registro y observaciones del desempeño de las funciones del personal
encargado de prestar el servicio o desarrollar determinadas actividades
del programa. Ya sea fundamentado en la observación y comparación
con estándares de atención previamente establecidos (como ocurre en el
campo de los servicios sanitarios), o mediante la fijación de criterios ad hoc
por los gestores de las organizaciones (como ocurre en ciertos servicios
educativos o sociales, por ejemplo), el caso es que este tipo de evaluación
tiene un cierto recorrido histórico y existe abundante bibliografía específi-
ca aplicada a campos concretos de intervención.
En la actualidad, sin embargo, esta diferenciación separada entre
componentes del proceso que pueden ser objeto de evaluación tiene ten-
dencia a desaparecer, ya que se están imponiendo cada vez más los enfo-
ques holísticos en los procesos de gestión y evaluación de proceso. Así se
puede ver en el cuadro adjunto de Baranowski y Stables (2000), en el que
se combina cobertura con implementación, y se añaden nuevos aspectos
relacionados con el «reclutamiento» de la población destinataria de la in-
tervención y su mantenimiento en el programa.

280
9. La evaluación de intervenciones sociales

Los 11 componentes de la evaluación de proceso


Baranowski y Stables (2000)

  1.  Reclutamiento: atraer a potenciales participantes.


  2.  Mantenimiento: mantener a los usuarios en el programa.
  3.  Contexto: aspectos del entorno de la intervención.
 4. Recursos: materiales o características de los implementadores o partici-
pantes necesarios para lograr los objetivos.
  5.  Implementación: grado de aplicación del programa tal como se diseñó.
  6.  Cobertura: grado de alcance a la población destinataria.
  7. Barreras de acceso: dificultad de acceso físico, psicológico... de los desti-
natarios.
  8. Exposición: grado en que los participantes leen o ven los materiales que
le llegan.
  9. Uso inicial: grado en que un participante lleva a cabo las actividades es-
pecificadas.
10. Uso continuado: grado en que un participante continúa haciendo las acti-
vidades especificadas.
11. Contaminación: grado en que los participantes reciben intervenciones de
otros programas y el grado en que el grupo de control recibe tratamiento.

Steckler y Linnan (2002), en su libro de evaluación de proceso, siguen


un camino similar e incluyen en dicha evaluación aspectos relacionados
con una implementación fiel de la intervención y con cobertura añadien-
do «reclutamiento», características relevantes del contexto, recepción de
la intervención por los participantes, etc.

5.1  La evaluación de la calidad

La evaluación de la calidad está básicamente condicionada por el con-


cepto y definición de calidad del programa o calidad del servicio que se
adopte en la organización. Son muchas las definiciones de calidad, pero,

281
La articulación de la investigación social

en líneas generales, cuando se habla de calidad se suele hacer referencia a


alguna, o varias, de las siguientes situaciones:

— Ausencia de errores y defectos en los procesos de gestión y presta-


ción del servicio.
— Capacidad del programa o servicio para satisfacer las necesidades
de las personas (explícitas e implícitas).
— Capacidad del programa o servicio para atender o sobrepasar las
expectativas del cliente (lo que no necesariamente es igual que sa-
tisfacer necesidades).
— Adecuación del servicio al fin que le es propio.
— Conformidad y ajuste a los estándares y especificaciones del servi-
cio o producto.
— Implicación emocional del cliente con el producto o el servicio.

La Asociación Europea de Calidad la define como la «totalidad de


rasgos o características que influyen en la capacidad para satisfacer nece-
sidades expresadas o implícitas» y «se puede considerar como la relación
que existe entre las necesidades y expectativas del usuario y su percep-
ción del servicio recibido» (Fernández del Valle, 1998). Este tipo de defi-
niciones de calidad permiten que su evaluación se realice tanto en un
momento puntual asíncrono (por ejemplo, cuando se encarga una eva-
luación externa en un momento dado) como a través de la implantación
de un sistema interno de gestión y control de calidad. Esta segunda for-
ma de entender la evaluación de la calidad obliga a la organización a do-
tarse de un sistema de gestión de calidad total que implica un determina-
do estilo de dirección, así como la participación y colaboración de todo
el personal empleado, para mejorar de forma continua y permanente la
calidad de sus productos, servicios o actividades, siempre con el objetivo
de lograr la satisfacción de los clientes, el bienestar de los empleados, la
rentabilidad de la organización y su integración en el entorno social en
que actúa. Promover la calidad en programas de servicios personales
(que son la mayor parte de los programas y políticas sociales) obliga a
crear entornos en que los usuarios puedan expresar libremente su punto
de vista, tanto sobre el contenido como con la forma en que reciben la
atención que necesitan.
Nos encontramos, pues, ante un concepto multidimensional y, por
tanto, complejo. Dependiendo de qué dimensiones se consideren, o a
cuáles se les otorgue mayor importancia en un momento y contexto de-
terminado, nos encontraremos con muy diversas formas de concebir e

282
9. La evaluación de intervenciones sociales

implementar evaluaciones de calidad. Se han llegado a identificar hasta


15 dimensiones de la calidad (Martin y Kettner, 1996), a saber:

— Accesibilidad (resulta fácil y rápido acceder al servicio).


— Garantía (el personal es amable, educado y considerado con el
usuario).
— Comunicación (la información se facilita de forma clara y com-
prensible).
— Competencia (el personal está cualificado y posee las destrezas
adecuadas).
— Conformidad (el servicio cumple con los estándares establecidos).
— Cortesía (el personal muestra respeto hacia los usuarios).
— Deficiencia (al servicio le falta algún elemento o rasgo que debería
tener).
— Permanencia (el servicio o sus resultados no desaparecen inmedia-
tamente, sino que se mantienen razonablemente en el tiempo).
— Empatía (el personal intenta comprender las necesidades persona-
les y presta una atención individualizada).
— Humanidad (la atención se realiza de modo que protege la digni-
dad y autoestima del usuario).
— Rendimiento (el servicio logra sus objetivos).
— Fiabilidad (el servicio funciona de forma consistente con variacio-
nes mínimas en el tiempo y entre usuarios).
— Sensibilidad (la atención se lleva a cabo a tiempo, oportunamente).
— Seguridad (no existen riesgos o peligros derivados del servicio).
— Tangibles (aspecto apropiado de las instalaciones, equipo personal
y publicaciones).

Los modelos de evaluación de la calidad que más se han utilizado en


nuestro entorno han sido el Modelo SERVQUAL y el Modelo Europeo
de Calidad EFQM. El primero, elaborado por Zeithaml, Parasuraman y
Berry (1985), define la calidad como la discrepancia entre las expectati-
vas de los usuarios y sus percepciones sobre el servicio, por lo que su eva-
luación consiste en verificar la amplitud de dicha discrepancia en los cin-
co factores o dimensiones que contempla este enfoque (fiabilidad,
capacidad de respuesta, seguridad, empatía y elementos tangibles). El
modelo SERVQUAL de calidad mide lo que el cliente o usuario espera
de la organización en esas cinco dimensiones, contrastando esa medida
con la estimación de lo que el usuario percibe de cada una de dichas di-
mensiones en el servicio que recibe. Este modelo, a pesar de las limitacio-

283
La articulación de la investigación social

nes que presenta para determinados servicios (donde, por ejemplo, una
mayor satisfacción del usuario no necesariamente se corresponde con
una mejor satisfacción de sus necesidades), permite identificar varias
causas potenciales de deficiencias en la calidad de los servicios, y ayudar
a solventarlas. Las deficiencias principales que este modelo de evaluación
de la calidad permite identificar son las siguientes:

— Discrepancia entre las expectativas del usuario y el servicio percibido.


— Discrepancia entre lo que esperan los usuarios y lo que perciben
los directivos respecto a estas expectativas.
— Discrepancia entre las percepciones de los directivos y las especifi-
caciones o normas de calidad.
— Discrepancia entre las especificaciones de la calidad del servicio y
la prestación del mismo.
— Discrepancia entre la prestación del servicio y la comunicación ex-
terna.

El Modelo Europeo de Calidad/Excelencia EFQM, como cualquier


modelo de calidad, identifica los aspectos más importantes de la organi-
zación y proporciona instrumentos y procedimientos de evaluación diri-
gidos a mejorar su calidad. Se trata, por tanto, de un marco conceptual
que permite llevar a cabo la evaluación para mejorar el servicio. El
EFQM contempla nueve dimensiones de la calidad organizadas en tres
bloques (agentes facilitadores o inputs, procesos y resultados o outputs).
Los dos primeros bloques los componen:
— El liderazgo.
— Las personas (empleadas / profesionales).
— La política y la estrategia.
— Alianzas y recursos.
— Los procesos
Mientras que el tercer bloque de resultados lo conforman:
— Los resultados en las personas.
— Los resultados en los clientes.
— Los resultados en la sociedad.
— Los resultados clave.

La interrelación entre todas estas dimensiones y componentes es lo que


resumen la esencia del modelo EFQM: «los resultados mejores para clien-
tes y usuarios de una organización, para sus empleados y para la sociedad

284
9. La evaluación de intervenciones sociales

CALIDAD TOTAL EN LA GESTIÓN DE SERVICIOS

CLIENTE

Comunicación Necesidades
personales Experiencias
boca-a-oído

Servicio esperado

Deficiencia 5

Servicio percibido

PROVEEDOR Deficiencia 4
Comunicación
Prestación del
externa a los
servicio
Deficiencia 1 clientes
Deficiencia 3

Especificaciones de la
calidad del servicio

Deficiencia 2

Percepciones de los directivos


sobre las expectativas de los
clientes

en general se consiguen mediante un liderazgo que impulse continuamente


la planificación y la estrategia, la gestión de su personal, las alianzas y los
recursos, así como los procesos de organización hacia el logro de la mejora
continua de los resultados clave de la organización». O, dicho en otras pa-
labras, «si no se ejerce a todos los niveles de la organización un liderazgo
evidente y una implicación clara a través de una estrategia coherente, si no

285
La articulación de la investigación social

se gestionan adecuadamente todos los recursos, si no se tienen identifica-


dos, diferenciados y controlados los procesos clave de la organización, difí-
cilmente se podrán satisfacer las expectativas del personal, de los clientes y
de la sociedad y obtener unos buenos resultados en la organización» (http://
www.efqm.org).

6.  La evaluación de resultados / impacto

La evaluacion de resultados se centra en los efectos de la intervención


como criterio de valor. Toda intervención social (ya se trate de un servi-
cio, proyecto, programa o política) tiene como objetivo central lograr un
efecto en la población destinataria. Parece lógico utilizar como criterio
para valorar una intervención el logro o alcance de dicho efecto/impacto.
¿Qué constituye el efecto/impacto de una intervención? Desde la termi-
nología de la teoría de sistemas una intervención puede describirse como
un conjunto de inputs (insumos) y de throughputs (procesos) que pueden
(deben) producir o lograr unos outputs (productos) y unos outcomes (re-
sultados). Tanto los productos como los resultados constituyen efectos de
la intervención; los primeros son efectos inmediatos, mientras que los se-
gundos son efectos a medio y largo plazo. Por ejemplo, en un programa de
formación para desempleados que pretende aumentar su empleabilidad, el
número de personas formadas sería un producto mientras que el número de
personas formadas que logran empleo sería un resultado.

286
9. La evaluación de intervenciones sociales

La evaluación de resultados se centra en los efectos inmediatos y a


corto plazo, mientras que la evaluación de impacto lo hace más bien en
los efectos finales (a medio y largo plazo), abarcando tanto los efectos
producidos en la población destinataria de la intervención como en la
población no destinataria, así como en el total de efectos producidos
(previstos y no previstos).
Los párrafos anteriores evidencian un problema terminológico exis-
tente que tiene difícil solución. Nos referimos a la diferencia entre resul-
tados e impacto. La única solución es conocer las diferentes acepciones
existentes para poder entender las evaluaciones que se presentan desde
las diferentes perspectivas y decidirse por una terminología específica
justificándola adecuadamente.
Ciertamente, en los últimos años, cada vez más evaluadores están aban-
donando el término de evaluación de resultados y utilizando sólo el de eva-
luación de impacto. Y éste se define como el análisis de los efectos totales en
la población destinataria (resultados por tanto) atribuibles a la intervención
realizada (White, 2010). En este sentido el término «impacto» recogería todo
tipo de efectos: a corto, medio y largo plazo, los queridos y no queridos, etc.
Evaluar el impacto de cualquier intervención requiere hacer una infe-
rencia acerca de los resultados que se hubieran observado en los partici-
pantes del programa si no hubieran participado en el mismo (contrafac-
tual) y comparar esta inferencia con los resultados obtenidos realmente
con dichos participantes.
Idealmente tendríamos que comparar la situación de los participantes
del programa, participando y no participando, en el mismo contexto y
tiempo, lo cual no es posible. Se puede recoger información sobre la si-
tuación de los participantes antes de la aplicación del programa, durante
la aplicación del mismo y después, pero son tres momentos distintos en
los que los participantes pueden haber cambiado debido a otros factores
distintos a la intervención propiamente dicha.
Por eso resulta imprescindible lograr la validez interna (véase el capí-
tulo 3 «Diseños y estrategias de investigación social») en las evaluaciones
de impacto y esta búsqueda no es otra cosa que la búsqueda de un con-
trafactual adecuado3.
Un buen diseño de evaluación de impacto —o una buena evaluación
de impacto— es aquel que presenta una alta validez interna, es decir, que
controla todas las potenciales explicaciones o hipótesis alternativas refe-
ridas a la causa del efecto, aparte de la propia intervención.
Dos son los procedimientos disponibles para asegurar la validez inter-
na en los diseños de evaluación de impacto:

287
La articulación de la investigación social

1. Realizar comparaciones entre grupos y/o en el tiempo que permitan


ver diferencias y anular el posible efecto de variables explicativas
alternativas. Las comparaciones se hacen con grupos suficiente-
mente equivalentes a los participantes en el programa que consti-
tuyen un buen contrafactual; los grupos de comparación repre-
sentan lo que hubiera ocurrido de no existir el programa o
intervención. Cuando en vez de grupos se utilizan mediciones re-
petidas del mismo grupo participante, se trata de establecer lo que
se denomina la línea de base: cómo se comporta el grupo antes de
la intervención y cómo se comporta después.
2. Utilizar el análisis multivariable para averiguar el efecto del pro-
grama manteniendo constante, o controlando, el efecto de las po-
sibles explicaciones alternativas.

En el primer caso, el procedimiento consiste en:

• Buscar grupos de comparación o control que queden fuera del pro-


grama de intervención pero que en todas las demás características
sean iguales a los grupos que han recibido el programa (edad, géne-
ro, clase social, curso, etc.). Cuanta mayor igualdad exista entre am-
bos —grupo/programa y grupo/control— mayor será la validez in-
terna.
• Utilizar al propio grupo que ha recibido el programa como grupo
de comparación realizando mediciones sucesivas en el tiempo. Cuan-
to mayor sea el número de mediciones mayor será la validez interna.

En el capítulo 3 se enumeran y detallan los diseños; solo señalar aquí


que, aparte de los diseños experimentales en los que la formación aleato-
ria de los grupos de control y experimental permite lograr un contrafac-
tual perfecto, en evaluación de impacto se suelen utilizar diseños cuasi
experimentales, sobre todo el diseño pretest-postest con grupo de compa-
ración no equivalente y, cuando existe suficiente información, diseños de
series temporales. (Véanse los tres ejemplos del anexo virtual).
El segundo procedimiento, control en el análisis estadístico, requiere
haber identificado las variables que hay que controlar, es decir, las posi-
bles explicaciones alternativas. Una vez identificadas, debe recogerse in-
formación sobre las mismas para, por último, buscar una técnica de aná-
lisis multivariable que permita separar los efectos de unas y otras
variables. En estos momentos el método analítico más apropiado, siste-
mático y completo es el uso de ecuaciones estructurales (SEM), que enla-

288
9. La evaluación de intervenciones sociales

za perfectamente con la TDE (Theory Driven Evaluation). De hecho, este


procedimiento de control de explicaciones alternativas en el análisis (mo-
delización) requiere disponer de una teoría del programa/intervención
que guíe la búsqueda de posibles explicaciones alternativas y, por tanto,
la información necesaria para el análisis/modelización.
La modelización, utilizando ecuaciones estructurales u otras técnicas
de análisis multivariable, se presenta como una alternativa a la experi-
mentación obviando gran parte de los problemas que ésta presenta,
como la potencial falta de validez externa, los problemas éticos y políti-
cos para llevar a cabo experimentos con personas, etc., afirmando al mis-
mo tiempo que una buena modelización permite el control de todas las
variables perturbadoras/explicaciones alternativas y una estimación no
sesgada del impacto de un programa/intervención.
Lalonde (1986) mostró claramente que éste no es el caso. En su estu-
dio estimó el efecto de la formación para el empleo (programa/interven-
ción) en los ingresos con un diseño experimental y con modelos econo-
métricos. Probó diferentes modelos y en ninguno logró acercarse a las
estimaciones experimentales. La deducción lógica es la falta de una co-
rrecta especificación de los modelos y la dificultad de lograrla.
En los últimos años las discusiones entre experimentalistas y modeli-
zadores han llevado a desarrollos teóricos y metodológicos importantes
en ambas perspectivas.
En el enfoque modelizador, Heckman y Hotz (1989) muestran dife-
rentes métodos para elegir entre distintos modelos y poder de alguna
manera deducir cuál de los modelos está correctamente especificado, in-
tentando así igualar las estimaciones no experimentales con las experi-
mentales y luego, tanto Heckman (2005) como otros autores (Pearl,
1993, 1995, 2000, 2009; Peck, Camillo y D’Attoma, 2010; Rubin y Water-
man, 2006) han avanzado en diferentes desarrollos para lograr un con-
trafactual adecuado mediante la modelización (mejorar la especificación
de los modelos, buscar grupos más equivalentes mediante Priority Score
Matching, etc.).
En el enfoque de la experimentación, Cook (2009) está intentando re-
solver los problemas de validez interna que se achacan a la experimenta-
ción con un programa de investigación a largo plazo retomando la idea
original de Lalonde: parte de datos experimentales para buscar el diseño
cuasi experimental que mejor refleje las estimaciones experimentales.
Riccio y Bloom (2002) hacen frente a la crítica de que un experimento es
como una caja negra, introduciendo un diseño multigrupo para compa-
rar intervenciones alternativas y estimar el efecto de los componentes de

289
La articulación de la investigación social

una intervención. Martel y Wantchekon (2010) proporcionan un marco


general teorético para avanzar en incrementar la validez externa de los
diseños experimentales (problemas en generalizar a otros contextos) sin
reducir su validez interna.
Existe una tercera vía muy fructífera que complementa las anteriores.
Chen (1990) propuso, hace ya mucho tiempo, guiar las evaluaciones me-
diante las teorías; dicho de otro modo, experimentación y modelización
deben utilizarse siempre desde una teoría que les guíe, que muestre los
mecanismos causales esperados al menos en relación a:

— las variables mediadoras y moduladoras de los efectos casuales in-


cluyendo las variables del contexto,
— teorías que respalden y expliquen la elección de conceptos y cons-
tructos determinados en nuestra evaluación y
— para el caso de los experimentos, hipótesis o supuestos sobre cómo
siguen los sujetos experimentales la intervención, es decir, si el ni-
vel de seguimiento es igual para todos o hay diferencias.

Pawson y Tilley (1997), desde la «evaluación realista», añaden la pro-


puesta de un mecanismo general de causación y la revalorización de la
metodología cualitativa para identificar precisamente estos mecanismos
causales. Ambos autores plantean que una regularidad (una variable de-
pendiente o efecto) se explica por un mecanismo que la desencadena en
un contexto determinado; no basta especificar el mecanismo (básicamen-
te la intervención o la /las variables independiente/s), sino que hay que
tener en cuenta que ese mecanismo sólo funcionará en contextos concre-
tos. Lo que están señalando Pawson y Tilley es que puede haber proble-
mas de validez externa en la experimentación cuando no se tienen en
cuenta las variables del contexto que tengan efectos interactivos.
Ahora bien, bastaría con tener en cuenta las variables contextuales
con efectos interactivos como posibles variables explicativas en el diseño
del experimento; alternativamente bastaría con que el experimento se re-
plicara en comunidades diferentes. A estas dos alternativas, Martell y
Wantchekon (2010) les llaman, respectivamente, enfoque analítico, basa-
do en una teoría, y enfoque robusto, basado en la réplica del experimento
en diferentes contextos.
La perspectiva de la TDE y de la «evaluación realista» plantea acentuar
el énfasis en metodología cualitativa para identificar las características de los
contextos y los mecanismos, es decir, para identificar mejor las variables
esenciales de los modelos teóricos en los que se sustentan las intervenciones.

290
9. La evaluación de intervenciones sociales

El análisis de contribución (CA) de John Mayne (1999), en sus versio-


nes más recientes, plantea alternativas a la búsqueda de contrafactuales
para lograr la atribución del efecto o resultados a la intervención, utili-
zando las ideas básicas de la TDE y de la evaluación realista.
Mayne (2001) describe métodos y procedimientos no basados en la
búsqueda de contrafactuales para hacer frente de una manera rigurosa a
la atribución de causalidad a una intervención. Se trataría de una mane-
ra de acumular evidencia, tanto cualitativa como cuantitativa, que per-
mitiera inferir causalidad de un modo plausible y razonable.
No se trata tanto de establecer y proporcionar una prueba inequívoca
de que el programa es la causa de los resultados, es decir, demostrar la
atribución, sino más bien de proporcionar la mejor evidencia posible de
que la intervención ha contribuido a los resultados buscados o espera-
dos, estableciendo la asociación entre programa y resultados.

Mayne propone cuatro pasos o fases en la realización del CA:

1. Elaborar la teoría de la acción del programa.


2. Identificar las amenazas clave a los mecanismos de la teoría de
acción.
3. Identificar otros factores que contribuyan a los resultados.
4. Y testar las explicaciones alternativas principales.

En conjunción con estas fases o pasos señala una serie de criterios que
debe cumplir la teoría de la acción del programa que avalarían inferir rela-
ciones de causalidad: que el programa haya sido correctamente implemen-
tado, que se controle otros posibles factores que puedan influir, demostrar
que explicaciones alternativas clave no están avaladas por los datos…
Siguiendo libremente a Mayne (1999, 2001), los pasos a seguir en una
evaluación según el CA son:

1. La formulación de una teoría del cambio (TOC) que permita


identificar los mecanismos que llevan desde la intervención hasta
los resultados. La TOC tiene que estar imbricada en el contexto
de la intervención y se desarrolla incorporando la perspectiva de
las partes interesadas, los beneficiarios y la investigación anterior
relevante.
2. La identificación de una teoría de la implementación que llama la
atención sobre las variables clave de la aplicación que pueden
afectar al logro de resultados o no.

291
La articulación de la investigación social

3. La identificación de posibles explicaciones o hipótesis alternativas


plausibles que se tienen que tener en cuenta recogiendo evidencia
que las controle.
4. Todo ello desde una perspectiva inductiva y participativa de
modo que se recojan las opiniones de las partes interesadas en la
evaluación.

Las seis fases más operativas planteadas por Mayne y por otros eva-
luadores (Dybdal, Nielsen y Lemire, 2011) trabajando desde esta pers-
pectiva son las siguientes:

1. Identificar la relación causa-efecto que se quiere analizar: natura-


leza y grado de la contribución que se espera, identificar otros
factores causales clave, valorar la plausibilidad de la contribución
esperada dado el tamaño y alcance de la intervención.
2. Desarrollo de la TOC y las explicaciones alternativas: describir la
TOC y las relaciones y mecanismos de dicha teoría, identificar el
papel de otros factores y de alternativas explicativas, valorar el
apoyo existente a la TOC.
3. La cadena causal derivada de la TOC permite descubrir los resul-
tados esperados (productos y resultados intermedios y finales) a
medir. La evidencia recogida corrobora o no las relaciones su-
puestas.
4. Se recoge información para valorar otras influencias incluyendo
explicaciones alternativas.
5. Utilizar la evidencia e información para decidir sobre nuestra hi-
pótesis causal y las hipótesis rivales. Se elabora una narración del
funcionamiento de nuestra cadena causal y si es necesario se rede-
fine la TOC.
6. Se busca evidencia e información adicional para aumentar la cre-
dibilidad y plausibilidad de nuestra hipótesis causal. Se revisa y
refuerza la narración.

Las tres grandes perspectivas presentadas en estas páginas —experi-


mentación, modelización y Contribution Analysis unido al TDE y eva-
luación realista— no son compartimentos estancos sino que hay evalua-
dores que utilizan ideas y métodos de más de una perspectiva. Nunca es
posible lograr totalmente validez interna y la utilización conjunta de va-
rias de estas perspectivas puede incrementarla.

292
9. La evaluación de intervenciones sociales

7.  Retos actuales en el campo de la evaluación

El campo de la evaluación ha experimentado un fuerte desarrollo en la


última década, desarrollo que sigue con todo vigor. Como resumen que-
remos destacar los principales retos que tiene pendiente, retos que aun-
que se pueden separar analíticamente están interrelacionados y tienen
que ver con los criterios de valor, la participación en la evaluación, la im-
bricación entre intervención y evaluación y la difusión y utilización de los
resultados de las evaluaciones.
Dos son los problemas más relevantes de la determinación acerca de
qué criterios de valor utilizar en una evaluación: quién decide cuáles utili-
zar y cuáles se utilizan. Empezando por este último punto, la tendencia
es buscar evaluaciones sistemáticas y globales de las intervenciones de tal
modo que se realicen a la vez evaluaciones de proceso, de impacto, de efi-
ciencia, etc. Éste es el sentido del Modelo del Marco Lógico, muy exten-
dido en Organismos Internacionales y en Latinoamérica, que utiliza el
enfoque de sistemas para centrar la evaluación en todos los aspectos del
sistema (programa de intervención). Éste es el sentido, también, de frag-
mentar la evaluación en evaluación ex ante, durante y ex post, tan utili-
zada por la UE.
El problema se plantea cuando en la fijación de los criterios de valor,
o de los objetivos de la evaluación, sólo participan los técnicos o los «po-
líticos», dejando fuera a la comunidad o a la población destinataria de la
intervención. Nosotros creemos que es necesario tener en cuenta a estos
actores sociales, democratizar la evaluación, hacerla participativa. Esto
nos lleva al segundo punto: la participación.
La evaluación debe orientarse hacia el pluralismo y la participación
de las partes interesadas (stakeholders). El grado y el nivel de participa-
ción puede variar según los contextos, la naturaleza de la intervención,
etc., pero mantenemos que contar con la población destinataria y la co-
munidad no sólo es políticamente más correcto sino que puede hacer
más útil la evaluación y también más realista.
La evaluación debería estar totalmente imbricada en la intervención de
tal modo que la planificación de una intervención requiere un tipo de eva-
luación (evaluación del diseño y conceptualización del programa), la im-
plementación otro (evaluación de proceso) y otro distinto cuando la inter-
vención lleva funcionando tiempo (evaluación de impacto y eficiencia). Es
decir, la evaluación debe ser componente en cada una de las diversas fases
del proceso de intervención (planificación, ejecución y evaluación).

293
La articulación de la investigación social

Por último, el diseño de una evaluación debe hacerse con la meta de


lograr que los resultados de la misma se utilicen para tomar decisiones
sobre la intervención. Los resultados de las evaluaciones deben difundir-
se, y más aun si han sido financiadas con dinero público, de todos. Así
mismo, los resultados deben ser utilizados. El gran número de publica-
ciones e investigaciones sobre los «usos de las evaluaciones» muestra
cómo este tema sigue siendo un reto para el campo de la evaluación.

Notas
1  Éste es el basamento del modelo del marco lógico utilizado por los organismos inter-
nacionales.
2  Desde la perspectiva metodológica de la evaluación pluralista y participativa, la iden-
tificación de los actores sociales implicados, el análisis de sus intereses en la misma, y su
conveniente incorporación en el proceso mismo de evaluación tiene una gran importancia y
aumenta la utilidad de la evaluación, aunque puede hacerla mucho más compleja. Una re-
flexión más pormenorizada y detallada acerca de la problemática de los actores sociales im-
plicados en el proceso de evaluación puede consultarse en Mª J. Aguilar (2013), Trabajo So-
cial, Concepto y metodología (pp. 309-407), Madrid, Paraninfo.
3  Hay autores que defienden que no es necesario utilizar siempre contrafactuales
(véase Cook, T. D. y otros, 2010).

Bibliografía recomendada
Agencia Estatal de Evaluación de las Políticas Públicas y Calidad de los Servi-
cios (2010): Fundamentos de Evaluación, Madrid, Ministerio de Política Te-
rritorial y Administración Pública.
Cook, T. D., y Campbell, D. T. (1979): Quasi-experimentation: designs and
analysis issues for field settings, Chicago, Rand McNally.
Gertler, Paul J., Martínez, S., Premand, P., Rawlings, L. B., y Christel, M. J.
(2011): La evaluación de impacto en la práctica, Washington, D.C., Banco In-
ternacional de Reconstrucción y Fomento/Banco Mundial.
Rossi, P. H., Lipsey, M. W., y Freeman, H. E. (2004): Evaluation: a systematic
approach (7ª ed.), Thousand Oaks, Londres, Nueva Delhi, Sage.
Shadish, W. R., Cook, T. D., y Leviton, L. C. (1991): Foundations of program
evaluation, Newbury Park, Londres, Nueva Delhi, Sage.
Weiss, C. H. (1998): Evaluation, New Jersey, Prentice Hall.

294
10.  La investigación-acción
participativa

Javier Callejo
Antonio Viedma

1.  Introducción: el giro participativo

La investigación-acción cubre una gran variedad de prácticas destinadas


a la intervención, a la aplicación sobre problemas concretos. Es una in-
vestigación para la acción concreta. Tal vez por ello, no esté soportada
tanto por la teoría, ni por una guía normativa de lo que hay que hacer,
sino por casos o experiencias situadas sobre problemas que hay que re-
solver o acciones dirigidas hacia un fin. Desde tal planteamiento, podría
decirse que si los problemas están detrás de esta práctica de investiga-
ción, en poco difiere de otras prácticas de investigación, ya que de mane-
ra más o menos directa también están enmarcadas en la solución de pro-
blemas. Sin embargo, hay diferencias notables, que hasta se han
planteado en términos de cambio de paradigma.
Las principales diferencias entre la investigación normal —si es que
puede utilizarse este término— y las formas de investigación-acción es-
triban en la identificación de los problemas (y soluciones), que no parte
de los expertos, y el grado de implicación de los sujetos observados, tan-
to entre sí como en el propio proceso de investigación y acción. La otra
diferencia, ya señalada, es tener la intervención como destino del proce-
so. Ahora bien, en la medida que es la segunda de las diferencias la que
marca clara distancia con respecto a otras formas de investigar, va a

295
La articulación de la investigación social

abordarse aquí su mayor grado de concreción, como es la investigación-


acción-participativa (IAP a partir de ahora). No se trata de desdeñar la
investigación-acción en sentido estricto (IA, a partir de ahora), sino de
intentar ser eficiente con los recursos disponibles (páginas) y, con inten-
ción didáctica, mostrar al estudiante la categoría de investigación más
marcada. Por otro lado, para algunos (Creswell, 2012; Ivankova, 2015),
la IA no sería tanto una forma distinta de investigar a las mostradas en
este volumen como una especial articulación de diversas prácticas de in-
vestigación ya conocidas (encuesta, entrevistas, grupos, etc.) con el obje-
tivo de una intervención dirigida al cambio. Históricamente, la IA
(Lewin, 1948) antecedió a la IAP1, proyectándose ésta como intento de
superación de aquélla con parte de sus mimbres y algunos de los nuevos
instrumentos aportados. Admitida la investigación-acción como una es-
pecie de bisagra entre las otras formas de investigación —calificadas des-
de el otro polo como: objetivistas o positivistas, reproductivas o subordi-
nadas, según el grado de militancia en la nueva propuesta— y la IAP,
focalizaremos nuestra atención en ésta, reapareciendo la otra como una
sombra: concreción más o menos mutilada de la IAP o acentuación de
algunos de los rasgos de ésta2. Es decir, la IAP adquiere la posición de
espejo referencial en el que ver también la IA. Estrategia con sentido
sólo a título expositivo que, como parecen indicar sus denominaciones,
la IAP incluye la investigación-acción. Ello permitirá centrarnos en un
aspecto fundamental de esta práctica de investigación: la participación.
La participación empieza por la identificación con un colectivo o
grupo social. Asimismo, la implicación entre los actores apunta a la cen-
tralidad que tiene la comunidad como concepto transversal a esta forma
de investigación, tal como apunta Selener (1997): comunidades rurales,
comunidad escolar, vecindad como comunidad, comunidad de trabaja-
dores, comunidades excluidas. La primera conciencia de participación
por parte de los actores es, por lo tanto, como miembro de una entidad
colectiva que adquiere las características de comunidad. Es participa-
ción en una identidad colectiva. Frente a un entorno societario que se
muestra complejo, individualista, anónimo, extraño (Seligman, 1998), el
primer movimiento en la investigación-acción puede considerarse regre-
sivo: hacia la comunidad, la colectividad anudada, grupal, en comunica-
ción mutua. Regresión entendida como vuelta (simbólica) a una fase an-
terior, en el dibujo de la evolución de las relaciones sociales desde las
comunitarias a las societarias (Tönnies, 1979 [1887]). Un movimiento
inicial regresivo que adquiere sentido con la estrategia hacia el empode-
ramiento que lo provoca. Un paso hacia atrás, como para tomar impul-

296
10. La investigación-acción participativa

so, para ir hacia delante, para obtener un mejor acoplamiento societario


de ese colectivo.
El concepto de regresión nos traslada a la teoría psicoanalítica, desde
donde es definido como un mecanismo de defensa por el que el sujeto re-
torna a fases superadas de su desarrollo (Laplanche y Pontalis, 1996).
Una perspectiva que, proyectándose en colectivos, se torna en socioanáli-
sis, como lo denominó una de las corrientes que más experiencia y re-
flexión aportó a esta forma de investigar e intervenir (Lapassade y
Lourau, 1981; Lapassade, 1999 y 2000; Lourau, 1991) en su aplicación a
una sociedad rígidamente burocratizada. Ahora bien, en la IAP la regre-
sión en forma de revivencia comunitaria no es sólo un mecanismo de de-
fensa, sino que se proyecta hacia delante. Se configura como una regre-
sión para el cambio. Siguiendo con los paralelismos, si el cambio
terapéutico en el psicoanálisis tiene que ver con la asunción por parte de
los sujetos de las riendas de su vida, en el caso de los colectivos que pro-
tagonizan la IAP tal proceso aparece bajo la denominación de empode-
ramiento.
Participación y empoderamiento pueden considerarse así dos caras de
la misma moneda. Tal vez puede matizarse que la participación está en el
proceso, mientras que el empoderamiento está en el objetivo; pero ambas
dimensiones están intrínsecamente unidas en la investigación-acción. Y
no sólo en esta práctica de investigación. Dejando para unas líneas más
atrás la participación: ¿qué es el empoderamiento? Proyectado en el nivel
colectivo, el empoderamiento de un colectivo es la capacidad de las per-
sonas que conforman o pueden llegar a conformar tal colectivo —la mis-
ma asunción de pertenencia a un colectivo puede considerarse una fase
del proceso de empoderamiento— para fijar una voluntad común. Es in-
tentar hacer más poderoso a un grupo social, partiendo habitualmente
de muy bajos niveles de poder: grupo social desfavorecido en muchos ca-
sos, principalmente a partir de la toma de conciencia de que puede ac-
tuar, sobre todo si lo hace de forma conjunta.
En la intervención de la IAP se parte de unos actores lejanos del po-
der, sin poder o víctimas del poder, o que ofrecen resistencias al poder. Se
trata de un despoderamiento y, por lo tanto, de una falta de voluntad co-
mún inicial, que es relativo, ya que admite diversos grados: a) gente que
quiere cambios, por lo que su proceso de empoderamiento ya se ha ini-
ciado; b) individuos en situación vulnerable, que ni siquiera poseen la
conciencia de colectivo-en-acción, de colectivo con voluntad propia. En
este segundo caso, estos colectivos vulnerables son señalados por pode-
res: públicos o privados; del sistema político, del propio sistema social de

297
La articulación de la investigación social

la ciencia (investigadores comprometidos) o del sistema de mercado (em-


presa que dedica fondos de su estrategia de responsabilidad corporativa
a acciones sociales), con la finalidad de un acoplamiento menos conflic-
tivo a la sociedad.
La participación de los sujetos en el proceso de la acción-intervención
aparece así como proceso de empoderamiento. Una participación que,
como no podría ser de otra manera, incluye la observación, que adquiere
las características de autoobservación. Esto es lo que define la IAP, como
se encargan de subrayar tres de sus principales expertos: «En la investiga-
ción acción participativa (PAR, en inglés), algunas personas en la organi-
zación o la comunidad bajo estudio participan activamente con el investi-
gador profesional a lo largo del proceso de investigación desde el diseño
inicial hasta la presentación final de los resultados y discusión de las impli-
caciones de su acción. De esta manera, la IAP contrasta radicalmente con
el modelo de investigación pura, en la que los miembros de organizaciones
y comunidades son tratados como sujetos pasivos, con algunos de ellos
participando únicamente autorizando el proyecto, siendo sus sujetos, y re-
cibiendo los resultados. La IAP es investigación aplicada, pero contrasta
bruscamente con el tipo de investigación aplicada más común, en la que
los investigadores actúan como expertos profesionales, diseñando el pro-
yecto, recogiendo los datos, interpretando los resultados, y recomendando
acciones al cliente […]. En la IAP, algunos de los miembros de la organiza-
ción estudiada están activamente comprometidos en la búsqueda de infor-
mación e ideas para guiar las futuras acciones» (Whyte, Greenwood y La-
zes, 1991: 20).
Por lo tanto, la participación e implicación de los sujetos que, a la vez,
son observados —ya como miembros de una comunidad, un grupo, una
organización o un movimiento social— es el rasgo diferencial de esta for-
ma de investigación. Pero es también lo que podría considerarse su agu-
jero negro, en cuanto gran condensación emocional y relacional sobre la
que gravita toda la intervención, incluyendo la observación empírica.
Una participación de la que apenas suelen quedar registros para dar
cuenta de cómo fue llevada a cabo en la propia observación. Como vere-
mos en este capítulo, se ponen en marcha procedimientos e instrumentos
para fomentar tal participación en la investigación, para convertir a los
sujetos en investigadores, o simplemente poder colaborar dentro de una
división del trabajo de campo destinado a recoger información. Aspectos
que no dejan de ser eso, instrumentos para o con una participación que,
vista así, parece tomar una posición bastante subordinada a las indica-
ciones de los expertos. Sin embargo, la propia investigación autónoma de

298
10. La investigación-acción participativa

los sujetos, existente en algunos casos y creadora de la diferencia con


otras formas de investigación, tiende a quedar fuera de los registros.
Más allá de las estrechas relaciones entre participación y empodera-
miento —participar para empoderarse, empoderarse para participar—
intrínsecas a toda la investigación-acción, hay que preguntarse por las
razones extrametodológicas por tal interés en la participación. Al menos
en las sociedades desarrolladas, la participación se ha convertido en una
referencia en los más diversos campos. Es cierto que tiene su mayor
arraigo en el de la política y, en especial, en la concreción y extensión de
la democracia (Della Porta y Diani, 2011), pero se ha extendido a la ac-
ción social (voluntariado), la educación y la gestión de distintos servicios
sociales y comunitarios, la relación con los medios de comunicación
(Castells, 2009; Jenkins, 2010), el arte (Bishop, 2012), el diseño de la pro-
pia vivienda y la ciudad, el consumo, etc. Ya sea como participación di-
recta (voto, movilizaciones, interactividad en las comunicaciones), ya sea
como participación indirecta (comprar/boicotear un producto,
crowdfunding, etc.); ya sea como participación activa (movimientos so-
ciales) o reactiva (denuncias, boicots, resistencias); ya sea como partici-
pación expresiva, con un fuerte componente narcisista e individualista,
como acusa Castel (2009: 27), ya sea como acto colectivo y solidario.
Participación por todos los lados, hasta el punto de que puede hablarse
del giro participativo de las sociedades. Incluso, más allá del momento,
como una de las características de la modernidad, en cuanto constante
inclinación a dar valor a la voluntad de los individuos por controlar las
decisiones que afectan a sus vidas3. La participación ha entrado en la
agenda política y en la agenda de los individuos. Hay una explosión de la
participación (Dunn et al., 2007). Pues bien, este giro también se proyec-
ta sobre la investigación social empírica. También ha entrado en la agen-
da de la investigación social.
No es casual que haya sido en el campo de la política donde la partici-
pación alcanza su sentido más denso, puesto que la participación envuel-
ve siempre una dimensión política, de poder, apuntando al ejercicio prác-
tico de la toma de decisiones. En principio, en nuestras sociedades, existe
una elevada legitimidad de la voluntad de participar en aquellos proce-
sos que implican decisiones que nos pueden afectar. Quedan en un aleja-
do segundo plano las otras facetas de la participación, que no conviene
olvidar teniendo en cuenta que hablamos de prácticas que requieren par-
ticipar, como la exigencia de un esfuerzo —especialmente en términos de
tiempo— y la puesta en práctica de unos recursos, que puede ser que no
tengan todos, de manera que la participación puede contribuir a la exclu-

299
La articulación de la investigación social

sión y la división, dejando a un lado que, además de su legítimo sentido


democrático arraigado en las teorías de Tocqueville (2010 [1835-1840]),
puede estar vinculada a comportamientos violentos o a políticas autori-
tarias (Doherty et al., 2003; Linden y Klandemans, 2007). Hoy es eviden-
te su cara positiva; pero también conviene recordar los matices que se de-
rivan de algunas prácticas y de reflexiones como las de un pensador de la
talla de Foucault, cuando apunta en su «Nacimiento de la biopolítica»
que la gobernanza liberal exige de la implicación de los sujetos, como
método más eficaz de economía gubernamental (Foucault, 2013: 868).
Así, Benkler (2006) plantea que la participación no es una revolución
sino la lógica del capital.
A partir de un contexto favorable a la participación, surgen tres pre-
guntas: ¿qué significa participar? ¿Para qué participar? ¿Qué significa la
participación en el proceso de observación empírica? Concepto difuso en
sendos casos, que parece configurarse más en clave de profundidad —en
grados de participación, en hasta dónde la soberanía de la participación
en relación a la toma de una decisión, de conformación de los sujetos y
en términos de implicación— que en extensión o cantidad de participan-
tes. Hay que resaltar que no se trata de la participación —política, social,
etc.— como objeto de investigación sino como parte de la acción y de la
propia investigación, como parte de la producción de huellas (etimología
a partir de vestigium: «en pos de la huella de») destinadas al conocimien-
to y, en último término, la acción-intervención. ¿De qué participación
hablamos cuando hablamos de participación en la investigación? Deshler
y Sock (1989) proponen diferenciar ocho tipos de participación, desde la
relación con el poder: manipulada, terapéutica, informante, consultiva,
canalizadora, colaborativa, poder delegado y control ciudadano. Sólo el
último tipo cabe emparejarlo con el empoderamiento. Por lo tanto, se
trata de una participación especial y que no siempre toma lugar en las
experiencias realizadas bajo el epígrafe de IAP.
El concepto de participación ya se ha visto en relación con la investi-
gación. La observación participante es observación que se implica en el
objeto observado; pero de la que se puede decir que utiliza la participa-
ción, en cuanto implicación del observador en el mundo de vida observa-
do, como instrumento para la observación. Pero aquí se está hablando
de participación en la investigación en otro sentido. Los sujetos están im-
plicados o se implican en un objetivo, que puede llegar a requerir obser-
vación, en la que también se implican. ¿Cuál es el papel de la observa-
ción empírica en esas estrategias de acción? Pues aquí volvemos a
encontrarnos con la relación compleja con el poder.

300
10. La investigación-acción participativa

Dentro del conjunto de la acción, destinada al empoderamiento, la


observación adquiere el mismo sentido. Si el poder es eliminación de al-
ternativas (Luhmann, 1995: 31), el empoderación con la observación em-
pírica tiene por objetivo la apertura de alternativas. Hay que subrayar
cómo cambia, con la participación, la concepción de la investigación. En
primer lugar, se asume la legitimidad de la sociedad —de los sujetos—
para la investigación, aunque no pertenezcan al sistema experto o al sis-
tema de la ciencia. En segundo lugar, conceptos como distancia o neu-
tralidad axiológica, de valores, dejan de tener sentido frente a la
implicación. ¿Sigue siendo investigación? Algunos lo critican, como
apuntan Kemmis y McTaggart (2000: 568), porque realiza una confusión
entre conocimiento científico, al que se le supone rigor, y activismo o pa-
ternalismo académico sobre los participantes. La evaluación de la inves-
tigación que tiende a realizar la IAP es autorreflexiva, muy vinculada a
las consecuencias prácticas de la misma, a los resultados prácticos deri-
vados de ella y, por lo tanto, a la intervención. Sin embargo, la evalua-
ción de la observación desde el sistema de la ciencia (Luhmann, 1996) es
heterorreflexiva, requiere de un observador de segundo grado, la existen-
cia de un observador externo que evalúe (observe) la observación (inves-
tigación) realizada. Pero las distancias no son tan evidentes, ya que nada
impide que la observación de la observación —la observación de segun-
do grado— sea desarrollada por el propio investigador. Pero las dudas se
proyectan ahora sobre si se sigue siendo parte de la comunidad o colecti-
vo-actor y, por lo tanto, participante, cuando se realiza esta evaluación o
se es ya otra cosa. Participar en la investigación significa pasar de verse a
sí mismo, su grupo, sus prácticas y actividades desde dentro (inside), a
verse desde fuera (outside). Es un primer paso de exteriorización. Partici-
par en la evaluación de la investigación significa ver desde afuera lo que
se ha visto desde dentro. Es decir, la IAP adquiriría el carácter de investi-
gación a costa de una especie de proceso paradójico: cuando los sujetos
más participan como investigadores, serían menos actores. Como todas
las paradojas lógicas, la práctica es la encargada de disolverlas. Así,
Kemmis y McTaggart (2000: 599) se preguntan retóricamente si lo que
hace la IAP es asimilable a un método o una técnica o, como invitan a
interpretar, es una forma de generar conocimiento.
¿Qué es lo que se crea entre observador-investigador-experto y partici-
pantes en la investigación? ¿Cómo es ese acoplamiento entre conocimiento
experto y conocimiento inicialmente lego? ¿Cuál es el lugar del investiga-
dor-experto? Inicialmente, cabe hablar de un contrato de investigación por
ambas partes, sin que desaparezcan los dos lados de tal alianza. Ahora

301
La articulación de la investigación social

bien, un contrato en renegociación constante, que subraya el carácter cícli-


co del proceso (French y Bell, 1978), con un cuestionamiento asimismo
constante entre las partes, de las formas de hacer, de la identificación del
problema. Un proceso que, en la medida en que es un proceso de empode-
ramiento de los sujetos, también en las dimensiones más específicas de la
investigación, conlleva un desplazamiento continuo de la posición de ese
investigador-experto hacia su hipotética disolución. Así, este investigador
asume funciones y papeles (coordinador, dinamizador, analizante) meno-
res, desde el punto de vista de la producción de investigación, e inciertos,
en cuanto el empoderamiento de los sujetos conlleva una pérdida de con-
trol; pero con una relevante proyección desde el punto de vista del objeti-
vo, del empoderamiento de los sujetos. Éste es el modelo, más o menos
ideal, que da pie a una gran variedad de prácticas, de las que aquí quieren
darse sus líneas, procedimientos e instrumentos fundamentales. Un mode-
lo que puede concretarse desde la experiencia de un actor colectivo que
toma la posición de investigador4 a la de miembros del colectivo partici-
pando como voluntarios en las tareas de la investigación, como, por ejem-
plo, entrevistadores en una encuesta con cuestionario estandarizado.
Sea en mayor o menor grado, la incorporación de la participación en
la investigación transforma radicalmente ésta. Es un reto en sí mismo. La
investigación social deja de ser concebida como un saber-objeto, como
tiende a objetivarse en el informe, como un saber más o menos mercanti-
lizado, desde las posiciones más críticas, para convertirse en un saber
compartido desde las dos posiciones: expertos que comparten su expe-
riencia (de conocimiento, profesional) con actores que comparten su ex-
periencia (de vida).

2.  Formas y aplicaciones de la IAP

Aunque los relatos sobre la historia de la IAP suelen construirse como


un proceso diferenciado del camino seguido por la IA (McIntyre, 2008;
Glassman y Erdem, 2014; Villasante, 2007), hay autores como Kindon,
Pain y Kesby (2007), compiladores de uno de los textos de referencia so-
bre la IAP, Kemmis, McTaggart y Nixon (2014) o el propio Orlando Fals
Borda5, uno de los teóricos más influyentes en la construcción de la IAP,
que asumen una conexión entre IA e IAP que consideramos plausible.
Fals Borda (1993) explica que el psicosociologismo de Kurt Lewin,
padre de la IA, fue uno de los referentes teóricos utilizados en sus inicios
activistas con los investigadores latinoamericanos durante los primeros

302
10. La investigación-acción participativa

años setenta y hasta el Simposio Mundial sobre Investigación-Acción y


Análisis Científico celebrado en Cartagena (Colombia) en marzo de
1977. Allí descubrieron a Gramsci y se plantearon la IAP como «una
metodología de investigación en la que la relación sujeto/objeto se desa-
rrollara en forma simétrica, horizontal y no explotadora en lo social,
económico y político; y también como una forma de vida que implicara
compromiso con la praxis popular» (Fals Borda, 1993: 16). Esta incor-
poración del pensamiento marxista de Gramsci llevaba consigo el recha-
zo del discurso del funcionalismo pragmático de la IA. El conflicto, por
tanto, sustituía al orden social como eje de referencia en la acción inves-
tigadora y la IA se quedaba al margen de la reflexión en el futuro desa-
rrollo de la IAP. Desde esta perspectiva, la IAP no podía ser considerada
como una práctica institucional de intervención, orientada a la resolu-
ción de conflictos entre grupos o a la integración funcional en normas
sociales, justo el sentido principal que tenía la IA para los primeros im-
pulsores de la misma. Tanto el trabajo de integración apoyado en la in-
vestigación de los indios norteamericanos llevado a cabo por Collier en
su etapa como comisionado del American of Indian Affairs como los de
Margaret Mead y el cambio en los hábitos de alimentación durante la
Segunda Guerra Mundial en las mujeres americanas o las investigaciones
que Kurt Lewin llevó a cabo con grupos y minorías (1946) se planteaban
como una intervención planificada y apoyada por la Administración.
Sin embargo, algunos de los postulados principales que provocaron
las rupturas metodológicas y epistemológicas de la IA con la investiga-
ción social quedaron instalados en los presupuestos fundamentales de la
IAP y hoy siguen presentes. En concreto: la democratización de la prácti-
ca investigadora, tanto en la participación durante el proceso de investi-
gación de los sujetos implicados en el problema investigado como en la
difusión del conocimiento producido entre ellos; la creencia en la capaci-
dad transformadora de la participación activa de los sujetos en la investi-
gación social; el carácter educativo que el conocimiento práctico adquiri-
do de la experiencia de la participación en la investigación tiene en los
sujetos implicados; y la necesidad de que la investigación social se impli-
que en la resolución de los problemas que aborda.
Si la IA estaba preocupada por el modo en que la investigación social
podía ser utilizada como una acción educativa, socializadora, orientada
a establecer o restablecer un orden social establecido, la IAP se planteaba
utilizar la investigación social como una acción orientada a producir un
conocimiento de y entre los implicados que les permitiese fundamentar la
lucha contra ese orden social.

303
La articulación de la investigación social

El sujeto implicado en esa autoinvestigación (integrante del sistema


actor) se construyó tomando como referencia la propuesta de Gramsci.
Para él, el hombre es el resultado del proceso de sus actos a través de la
historia. El conocimiento de ese proceso histórico le permite tener auto-
conciencia de sí mismo. En consecuencia, el hombre no es espectador de
la historia ni un sujeto pasivo frente al desarrollo tecnológico, ideológico
o político, el hombre es autor de su propio destino y el conocimiento his-
tórico del modo en que se ha forjado su historia —como sujeto colecti-
vo— es la clave en la búsqueda de la transformación de su realidad. Pro-
yección de la moderna sentencia marxista recogida en el 18 de Brumario:
los hombres hacen su propia historia, pero no la hacen a su propio arbitrio
[…] La tradición de todas las tradiciones muertas oprime el cerebro de los
vivos. Estos planteamientos de Gramsci están presentes en lo que Borda
(1993) expone como principios de la acción de la IAP: recuperación críti-
ca de la historia, valoración y aplicación de la cultura popular con el
propósito de reconocer los valores esenciales del grupo y la investigación
colectiva como modo de extraer la información.
Esta manera de concebir la IAP se fortaleció con dos propuestas de
origen latinoamericano que se integraron en el eje de justificación de la
acción investigadora, a saber: la educación como un acto de emancipa-
ción y la necesidad de la lucha contra la pobreza. El papel de Paolo Frei-
re y los movimientos de educación popular y la difusión de la Teología
de la Liberación fueron perspectivas clave en la definición de la IAP. Así,
las desigualdades sociales, el conflicto, el poder, la explotación social, los
grupos marginados, los oprimidos y la emancipación ocuparon un lugar
central en las preocupaciones de los grupos que planteaban la utilización
de la IAP como metodología para la transformación social.
En síntesis, si la IA había abandonado la lógica científica para conver-
tir la investigación en intervención, la IAP rompió teóricamente con la
intervención y propuso una práctica investigadora anclada en la trans-
formación, en una praxis popular participativa que retiraba de su posi-
ción central al investigador y a las instituciones demandantes de conoci-
miento para intervenir. En su lugar, situaba en esa posición de poder al
sistema actor (los actores involucrados en la transformación), investigán-
dose a sí mismo. El «otro», convertido en objeto por el positivismo cien-
tífico, desplazaba al observador y ocupaba su lugar como «dispositivo
sintetizador» en busca de su propia transformación, apropiándose del
conocimiento que él mismo producía y que le permitía transformar su
realidad. Sin duda, una propuesta participativa que introducía cambios
radicales en el uso y el modo de concebir la investigación social.

304
10. La investigación-acción participativa

Más allá de las concepciones ideológicas, la inclusión de estos cam-


bios planteaban, al menos, cuatro aperturas que afectaban tanto al papel
de la investigación social como a la forma en que el sistema de la ciencia
tenía que relacionarse con el sistema de los actores involucrados. La pri-
mera apertura es la relacionada con el requerimiento de la investigación.
La demanda de investigación social siempre se había solicitado desde un
sistema externo al de los actores involucrados. Bien el sistema de la cien-
cia o bien los responsables de la intervención social habían sido los que
requerían, controlaban y se apropiaban de este conocimiento. Al produ-
cirse esta apertura, la participación del sistema actor en el requerimiento
de investigación social afectaba indirectamente a la producción y a la
apropiación del conocimiento obtenido, puesto que quien hace el reque-
rimiento suele tener influencia sobre el conjunto de la investigación.
La segunda apertura tenía que ver con la participación del sistema ac-
tor en el proceso de producción de la investigación social, el paso de suje-
tos observados a dispositivos sintetizadores (investigadores). Las dificul-
tades para llevar a cabo esta apertura tenían que ver con la necesidad de
poseer un conocimiento experto que permitiera llevar a cabo la investiga-
ción social. Salvo que entre el grupo de involucrados hubiera personas
que tuvieran ese conocimiento y pudieran difundirlo, lo habitual es que
la investigación social dentro de la IAP se realice apoyándose en exper-
tos, investigadores, dinamizadores, técnicos, etc. que acompañan el pro-
ceso previa negociación de su rol y sometimiento a control del sistema
actor.
La tercera apertura estaba relacionada con la forma en la que el siste-
ma actor toma decisiones en todas las fases de la IAP: el diseño general,
las tareas propias de la investigación social, la ejecución y la difusión de
los resultados pasan de un proceso jerárquico a un proceso participativo.
La cuarta apertura tiene que ver con el uso del conocimiento obtenido
durante el proceso de investigación de la propia IAP. La apertura se pro-
duce en dos ámbitos: el que tiene relación con la apropiación interna, es
decir, cómo los integrantes del sistema actor implicado en la IAP utilizan
ese conocimiento para elaborar propuestas de acción; y, por otro lado, el
que tiene ver con la apropiación externa, en concreto, con el uso del co-
nocimiento para la difusión de resultados —normalmente con un senti-
do ejemplificante— o para exigir a otros actores (planificadores, respon-
sables políticos, actores con capacidad de financiar la acción, etc.) la
necesidad de realizar la acción, con un sentido reivindicativo.
Si se observa con detenimiento, la cuestión común y más importante a
resolver en la práctica profesional era el modo en que se introducía la

305
La articulación de la investigación social

participación. ¿Cómo se ha resuelto? Bien, si nos atenemos a las apertu-


ras analizadas, se puede decir que la participación se ha introducido de
manera muy heterogénea para poder atender a los diferentes tipos de re-
querimiento de investigación, necesidades de producción de información
y tipos de apropiación del conocimiento producido en el proceso. A
modo de ejemplo, se expone a continuación una clasificación primaria
que puede servir para explicar con mayor claridad la inclusión de la par-
ticipación en la observación y el modo en que esta inclusión afecta tanto
a la práctica investigadora como a su papel social.

Figura 1.  Tipos de introducción de la participación

Tipo REQUERIMIENTO PRODUCCIÓN APROPIACIÓN

1 Sistema actor empoderado Sistema de la ciencia Sistema actor


(afectados que contratan) (colectivo implicado)

2 Sistema actor en proceso Sistema actor Sistema actor


de empoderamiento (acompañado sistema (colectivo implicado)
(movimientos sociales) ciencia)

3 Sistema externo Interno: sistema actor Sistema actor


(fundaciones, ciencia, Externo: sistema de la (colectivo implicado)
instituciones, etc.) ciencia en proceso de
(de forma conjunta) empoderamiento
Sistema ciencia
Sistema externo (otro)

El tipo 1 de la clasificación (figura 1) es el que introduce la participa-


ción del sistema actor en el requerimiento de investigación y en la apro-
piación del conocimiento producido. Un ejemplo reciente de esta tipolo-
gía podría ser el de los grupos de afectados (hipotecas, preferentes,
hepatitis C, etc.) que se han creado durante los recientes años de crisis
económica. El requerimiento a la investigación social de este sistema ac-
tor es el de producir un conocimiento muy especializado sobre el proble-
ma en el que está inmerso. En principio, la especialización y complejidad
del conocimiento a producir exige que sea un sistema externo (experto)
quien produzca el conocimiento. Entendemos que el requerimiento de in-
vestigación busca cubrir las limitaciones que los actores tienen para acce-
der a la comprensión de situaciones muy complejas, éste es el motivo por
el que requiere conocimiento a sistemas externos como el de la ciencia u
otros con gran experiencia práctica en el campo objeto del problema. En

306
10. La investigación-acción participativa

este caso, la apropiación del conocimiento no tiene como objetivo empo-


derar a los sujetos ni generar autoconciencia. El hecho de estar moviliza-
dos frente al problema que les afecta y el hecho de haber requerido la in-
vestigación muestra que los implicados han superado esas fases. El
conocimiento producido por el sistema externo es utilizado como un ins-
trumento que les permite discutir al mismo nivel con los actores que os-
tentan el poder (financiero, económico, político, sanitario, etc.) y como
un instrumento para diseñar la comunicación social, ya sea dirigida a la
búsqueda de otros afectados o al apoyo social de sus reivindicaciones. La
apropiación del conocimiento tiene como objetivo por tanto diseñar la
estrategia de la acción que reclama la intervención de los que realmente
pueden intervenir para resolver el problema.
Para el investigador social, esta apertura apenas modifica su práctica
profesional. Los dos cambios que se introducen con la participación no
afectan a la forma en que producen conocimiento, ya que ésta es la única
tarea que asume el sistema externo en esta tipología. Si algo cambia en
esta apertura es que el sistema actor se apropia de la investigación del
mismo modo que otros sistemas externos relacionados con el poder de
planificar la intervención lo habían hecho tradicionalmente. El problema
es que su apropiación se limita a la instrumentalización de ese conoci-
miento y no a la intervención. Por ejemplo, por mucho conocimiento que
tengan los afectados de la plataforma anti-desahucios, la intervención
para resolver el problema la tiene el poder político. Si hay alguna cues-
tión que afecta a la práctica profesional es el modo en que se establecen
los procesos de negociación con un sistema participativo de actores6.
En síntesis, el modelo que rige a este tipo 1 es el siguiente: sujetos que
requieren investigación a sistemas externos / sujetos que no son objetos
de la investigación / sujetos que se apropian del conocimiento entregado
como un informe (report) más o menos estandarizado.
El tipo 2 de la clasificación introduce la participación en todos los
ámbitos de apertura: requerimiento de la investigación, producción de la
investigación y apropiación del conocimiento producido. Los ejemplos
de este tipo 2 se pueden encontrar en los trabajos de IAP que se llevan a
cabo con movimientos sociales, grupos de vecinos u otros colectivos que
se integran en un proceso de IAP con la idea de transformar el sistema
social a través de los resultados de su acción. La idea de no limitar los re-
sultados de la acción al grupo de IAP y convertir a los integrantes del
sistema actor en agentes de cambio social es fundamental. Si esto no se
cumple, estaríamos frente a una IAP orientada a problemas, una situa-
ción más parecida al tipo 1. Aunque la puesta en marcha del requeri-

307
La articulación de la investigación social

miento de la investigación puede estar dinamizada por un grupo más pe-


queño y activista, en el que se integran a menudo actores del sistema
externo (investigadores, activistas, representantes políticos, etc.), le co-
rresponde al sistema actor en su conjunto plantear el requerimiento de la
investigación de manera participativa. Es decir, los sujetos se tienen que
apropiar del requerimiento para iniciar el proceso de empoderamiento y
autoconciencia desde el diseño de la IAP. A diferencia del tipo 1, en este
caso no puede hablarse de empoderamiento de gran parte de los sujetos,
ni tendrán conciencia de su realidad al inicio del proceso de IAP. Es ésta
la destinada a provocar la expansión, tanto de la participación como del
empoderamiento.
La producción de la investigación se lleva a cabo por los propios acto-
res, aunque en esta tarea suelen estar acompañados por técnicos, investi-
gadores o dinamizadores que organizan la producción de la información,
la analizan y la devuelven para que sea discutida y reelaborada por el sis-
tema actor. Ésta es la tarea profesional que realizan los investigadores
sociales. Durante esta fase de producción de la investigación, los actores
son sujetos de la investigación que en algún momento se convierten tam-
bién en objetos de la misma. Un ejemplo: cuando en las primeras fases
de una IAP con los vecinos de un barrio se realizan asambleas, entrevis-
tas, grupos de discusión u otras actividades con el fin de producir infor-
mación que permita investigar la situación, los actores que producen la
información son los mismos vecinos que luego reflexionarán sobre los re-
sultados del análisis que les devolverán los técnicos para su discusión. Es
decir, serán objetos de la producción y sujetos (dispositivos sintetizado-
res: investigadores) de su propia investigación. En este caso, el sistema
experto está representado por los investigadores que acompañan el pro-
ceso, lo que ocurre es que su papel se limita a actuar como una especie de
«notario sociológico», es decir, recogen una información que producen
los integrantes del sistema actor cuando son objetos de la investigación y
se la devuelven analizada, solicitando al sistema actor el acuerdo con sus
resultados. Así, su tarea se circunscribe a dar fe de que esa información
recogida es la que se devuelve reelaborada. Los integrantes del sistema
actor, una vez analizada la devolución y convertidos ya en sujetos mos-
trarán su acuerdo o discrepancias con los investigadores.
En este proceso de ida y vuelta, de producción, análisis y discusión de la
devolución, los integrantes del sistema actor se apropian del conocimiento
producido por la investigación y lo utilizan para plantear las propuestas de
acción que transcenderá al grupo de IAP. En la práctica, esta fase concluye
con la elaboración del proyecto que será utilizado para negociar con los

308
10. La investigación-acción participativa

sistemas externos que tienen el poder de financiar o ejecutar la interven-


ción. El documento del proyecto se convierte en un instrumento de nego-
ciación frente al poder. La clave del éxito es que el proyecto se ha legitima-
do con la investigación y la participación. Estas dos fuentes de
legitimación son las que utiliza el sistema actor para exigir la intervención.
De algún modo, la presencia del sistema de la ciencia es facilitar la elabo-
ración formal de un documento que se atiene a requerimientos de los siste-
mas que controlan la intervención. Pero no hay que olvidar que, más allá
de esta visión instrumental, el empoderamiento y emancipación de los in-
tegrantes del sistema actor y su capacidad para convertirse en agentes de
cambio a través de la acción son las metas de la IAP.
En síntesis, el modelo que rige a este tipo 2 es el siguiente: sujetos en pro-
ceso de empoderamiento que requieren investigación / sujetos que en algún
momento del proceso de IAP pasan por objetos / sujetos que se apropian
del conocimiento elaborando el informe a partir de los análisis de sujetos
de sistemas externos, adquiriendo la forma de metainforme (meta report).
El tipo 3 de la clasificación introduce la participación en la produc-
ción de la investigación y en la apropiación del conocimiento producido.
El requerimiento de la investigación lo pone en marcha un sistema exter-
no o varios que están interesados en apropiarse del conocimiento para
intervenir, por ejemplo, sistemas responsables de la intervención en el
campo objeto del problema o están interesados en obtener conocimiento
(sistema de la ciencia) o están implicados en la resolución del problema
porque conocen las situaciones de vulnerabilidad que provoca. En cual-
quier caso, la orientación de este tipo de IAP es la resolución de un pro-
blema empoderando a los integrantes del sistema actor.
Es importante tener en cuenta que los integrantes de este sistema actor
no sólo no están empoderados al inicio sino que a veces no reconocen
completamente el problema que sufren (enfermos mentales, personas des-
institucionalizadas, etc.), por ese motivo, el esfuerzo de este tipo de IAP se
centra en el grupo de implicados y no se orienta hacia el exterior. Su obje-
tivo es el grupo que participa. Los ejemplos de este tipo 3 son los procesos
de IAP que se realizan en el ámbito de la salud, la educación en contextos
de elevada desigualdad, el desarrollo rural y el desarrollo comunitario en
ámbitos de pobreza o exclusión, o los que se realizan con grupos extrema-
damente vulnerables. Hay que tener en cuenta que en muchas ocasiones
los integrantes del sistema actor no han desarrollado siquiera la idea de
pertenencia al sistema social que les podría ayudar. Así, si el requerimiento
de la investigación proviene de un sistema externo (de la ciencia, del siste-
ma educativo, de la política, de servicios orientados al bien común como

309
La articulación de la investigación social

entidades sin ánimo de lucro, tercer sector, etc.) es porque es el único


modo de activar la IAP. Este tipo 3 se parece a la IA, sin embargo, difiere
de ésta en que en lugar de plantear la investigación y la apropiación del co-
nocimiento como un modo de integrar socialmente, lo hace para que los
actores se apropien del conocimiento y puedan defenderse o luchar contra
los factores de vulnerabilidad que provocan la situación.
Si el requerimiento proviene de uno o varios sistemas externos, la pro-
ducción de la investigación se lleva a cabo de manera conjunta. El siste-
ma externo puede ser el sistema de la ciencia o los integrantes de otros
sistemas expertos (como médicos, organizaciones que intervengan sobre
situaciones problemáticas específicas como la lucha contra el maltrato
infantil, etc.) que actúan con la misma lógica. En algunos casos, los inte-
grantes del sistema externo que producen la investigación mantienen
además una relación de autoridad sobre los sujetos (IAP en salud llevada
por médicos o enfermeros, en educación llevada por profesores, desarro-
llo llevada por educadores, trabajadores sociales, etc.). En todos los ca-
sos, la producción de investigación se plantea como objetos que devienen
en sujetos. Es decir, los integrantes del sistema asumen el papel de obje-
tos al inicio de la investigación y durante ese proceso de empoderamien-
to y autoconciencia que concluye con la apropiación de conocimiento
devienen en sujetos. El papel de los investigadores es el de facilitar ese
tránsito mediante la participación y el análisis conjunto.
Ahora bien, no hay que olvidar que el sistema de la ciencia mantiene
la lógica de producción de conocimiento. Si se analiza el objetivo de las
publicaciones de IAP en general, se observará que las que se producen en
el campo de la salud o la educación (los más activos de este tipo 3) son
las que más se centran en los resultados y las conclusiones de las investi-
gaciones. En las publicaciones del tipo 2, el interés se centra mucho más
en exponer la metodología o la forma en que se han desarrollado los pro-
cesos participativos.
Un ejemplo atípico de este tipo 3 es el de las IAP que se centran en las
organizaciones. La diferencia está en que los integrantes del sistema ac-
tor no tienen por qué ser vulnerables ni encontrarse en situación de ex-
clusión o desinstitucionalización, en este caso, quien tiene la situación
problemática de vulnerabilidad es la organización.
En síntesis, el modelo que rige a este tipo 3 es el siguiente: sistemas ex-
ternos que requieren investigación para la intervención / investigación en-
tre sujetos (objetos que devienen en sujetos porque entran a ser sujetos
durante el proceso) / sujetos que se apropian conjuntamente del conoci-
miento. El tipo de documento de referencia es el autoinforme (self report).

310
10. La investigación-acción participativa

Además de considerar las aperturas a la participación y los distintos


tipos descritos, las concreciones de la IAP se pueden clasificar teniendo
en cuenta dos ejes: a) la orientación de la IAP hacia la investigación o
hacia la acción; y b) la orientación de la IAP hacia el grupo concreto im-
plicado (orientación terapéutica) o hacia el exterior (orientación expansi-
va). La figura 2 muestra cómo se situarían los tres tipos en esta represen-
tación. Lógicamente, hay que entender que se toman los tipos
representados como ideales, ya que en cada uno de ellos hay heterogenei-
dad. Una representación orientativa, que sólo ha querido ser un esfuerzo
de síntesis de la gran variedad de prácticas concretas categorizables
como investigación participativa.

Figura 2.  Tipos de IAP según su orientación

INVESTIGACIÓN

TIPO 2

TERAPÉUTICA

EXPANSIVA
TIPO 3

TIPO 1

ACCIÓN

3.  Estrategias y diseños en los procesos de IAP

Después de varias décadas de desarrollo de la IAP, se puede convenir que


además de una gran diversidad de campos en los que se ha aplicado, en-
foques teóricos que la han intentado fundamentar y métodos que han or-
ganizado la participación, también existe un cuerpo común de estrate-

311
La articulación de la investigación social

gias, diseños y procedimientos de investigación. A través de una reflexión


sobre este cuerpo común involucrado en la tarea investigadora, este epí-
grafe tiene como objeto analizar el modo en que se organiza la investiga-
ción social dentro de la IAP.

3.1 Estrategias

Aunque la IAP se aplica en campos muy diversos, se podría decir que el


«campo de batalla» en el que está inmersa es el de la intervención social.
Tradicionalmente, la toma de decisiones estratégicas en este campo se ha
llevado a cabo por responsables políticos que se apoyaban en profesiona-
les directamente vinculados a la intervención como, entre otros, investi-
gadores sociales. En este campo, el papel tradicional de la investigación
social ha sido el de producir conocimiento especializado que permita a
los gestores tomar decisiones basadas en la evidencia empírica e incluso
legitimarlas, al venir avaladas por el sistema de la ciencia. La ausencia de
participación de los actores implicados en la toma de decisiones estraté-
gicas ha sido una constante en su modo de actuar. La IAP rechaza esta
idea de intervención jerárquica.
Ahora bien, aun cuando la participación ciudadana en los procesos de
decisión es cada vez más reclamada, lo cierto es que el sistema político
mantiene el poder sobre el campo de la intervención social a través de la fi-
nanciación de las acciones. Por otro lado, los procesos de IAP necesitan
producir conocimiento especializado para que los actores tomen concien-
cia de su situación o desarrollen actitudes y comportamientos que permi-
tan transformarla. En consecuencia, de un modo u otro, el sistema actor
de la IAP necesita tomar decisiones estratégicas que implican tanto a los
responsables políticos de la intervención —objetivo y financiadores en mu-
chos casos de sus acciones— como a los profesionales de la investigación
social —acompañantes expertos en la producción de conocimiento—. Más
allá de tal realidad, tratemos de entender cómo en este contexto participa-
tivo toma decisiones estratégicas la investigación social.
Si consideramos simultáneamente los modelos ideales de IAP produci-
dos a partir de las rupturas participativas (figura 1) y las orientaciones de
cada uno de los modelos (figura 2), se pueden conocer las cuestiones que
condicionan las decisiones estratégicas de la investigación social que se
vinculan con ellos. Veamos. La finalidad estratégica de la IAP del tipo 1
(grupos de afectados por un problema) es influir sobre el sistema externo
que puede intervenir para resolver el problema que le afecta. Estratégica-

312
10. La investigación-acción participativa

mente, su capacidad de influencia depende de la inclusión del mayor nú-


mero posible de afectados y de evidencias que fundamenten sus reivindica-
ciones. Para hacerse visible y presionar necesita que la sociedad apoye sus
demandas y que éstas sean comprendidas como reivindicaciones justas.
Para los investigadores, cambia el actor y el requerimiento de la inves-
tigación adquiere un carácter probatorio. De lo que se trata es de produ-
cir conocimiento muy especializado que tiene que servir como vehículo
de comunicación y de legitimación de las reivindicaciones. El modo de
producir conocimiento no varía sustancialmente con respecto al de otras
formas de investigar, puesto que o bien se investigan cuestiones externas
al sistema actor (marcos jurídicos, contextos históricos, investigación
comparativa con otros países, etc.) o si se utiliza a los integrantes del sis-
tema actor se les observa como fuente de información (objetos). En con-
secuencia, excepto la necesaria definición de estrategias de comunicación
con el sistema actor para definir el requerimiento y el modo en que van a
acompañar en la comunicación de los resultados —si es que le solicitan
esta tarea— el desarrollo de sus estrategias profesionales de investigación
no varía. Lo que cambia sustancialmente son las características partici-
pativas —conformándose como sujeto colectivo— de quien requiere la
investigación. El informe de investigación servirá al sistema actor como
elemento de prueba, un instrumento para legitimar la lucha y elaborar
nuevas estrategias. Pero no hay que olvidar que el sistema externo al que
se presiona para que intervenga también contará con investigadores, que
ofrecerán conocimiento para probar lo contrario. Decidir y definir con
precisión los argumentos que utilizarán uno y otro sistema debe ser tam-
bién parte fundamental de la estrategia de investigación. El investigador
debe comprender que el conocimiento servirá como un arma en una lu-
cha razonada que principalmente se libra en la esfera pública.
La finalidad estratégica de la IAP del tipo 2 es la toma de conciencia y
el autoconocimiento de los integrantes del sistema actor. Así mismo, esta
toma de conciencia debe ser ejemplar y expansiva, es decir, no basta con
lo que sucede en el marco de los talleres de la IAP, los actores implicados
deben convertirse tras ellos en agentes de cambio social, difundiendo su
transformación a la sociedad, siendo ejemplos de que se puede cambiar
la sociedad a través de la participación en estos procesos. Estratégica-
mente, el vehículo utilizado para conseguir estos fines es la producción
de conocimiento de manera participativa. El sistema actor se transforma
porque está implicado en todas las fases de la investigación: requerimien-
to, producción y apropiación de conocimiento. La primera parte de la
IAP concluye con un proyecto elaborado de manera participativa y aquí

313
La articulación de la investigación social

termina la tarea de la investigación social, salvo que se incluya una eva-


luación participativa organizada también por los investigadores. La se-
gunda parte es la ejecución de ese proyecto, pero para que eso sea posible
el sistema externo debe financiarlo. El sistema externo realiza funciones
de evaluación, por eso la formalización del proyecto (objetivos, justifica-
ción, identificación de problemas, alternativas, actores implicados, etc.)
presenta un conocimiento obtenido de manera participativa, pero acom-
pañado por el aval del investigador profesional. Incluso si la instancia
que financia es un conjunto de individuos más o menos difuso (imagine-
mos que se busca apoyo en sistemas de crowdfunding), el proyecto nece-
sita un cierto grado de formalización.
¿Sería posible producir todo ese conocimiento sin ese acompañamiento
de la investigación social? ¿Sería posible que ese conocimiento se obtuviera
exclusivamente desde la posición del sistema actor? ¿Sería posible que los
sujetos fueran siempre sujetos en el proceso de producción de la investiga-
ción? Consideramos que no. La producción de la investigación social
requiere de un conocimiento previo, de una posición distinta en la obser-
vación y una lógica diferente en la producción. Así, aunque el investiga-
dor-experto-profesional acepte que los resultados de sus análisis deben su-
bordinarse a las decisiones tomadas por el sistema actor de manera
participativa y democrática, aunque asuma que su tarea es la de acompa-
ñar y exponer su conocimiento para que sea ratificado, la tarea de investi-
gar le hace funcionalmente diferente. Cuando investiga, si persigue la pro-
ducción de un conocimiento basado en la evidencia empírica, y eso es lo
que hace, utilizará como referencia las estrategias de un sistema externo y
tenderá a ser un extraño para el sistema actor que integra realmente la
IAP. Sus estrategias estarán limitadas a la investigación y formará parte de
un nivel diferente, especializado. La realización de asambleas, entrevistas,
grupos, talleres de identificación de problemas, afectados y otras técnicas
participativas planteadas como una forma de producir información deben
ser ejecutadas de una manera rigurosa, técnicamente hablando. Así, aun-
que la participación de los integrantes del sistema actor es real durante ese
proceso, en la práctica investigadora no dejan de ser objetos de observa-
ción a los que se les devolverán los resultados para que expresen su acuer-
do con el resultado presentado de la observación y para que seleccionen,
en función de esos análisis, hacia dónde orientan su estrategia de acción.
Claro está, para cubrir la finalidad estratégica de este tipo 2 de IAP, el
investigador debe plantearse también el carácter formativo de su acción.
De algún modo, deberá diseñar estrategias de participación que permi-
tan al sistema actor apropiarse de la investigación. La estrategia del in-

314
10. La investigación-acción participativa

vestigador debe asumir su diferencia, pero también su papel motivador y


formativo.
La finalidad estratégica de la IAP del tipo 3 es múltiple: por un lado,
hay dos sistemas sociales externos (responsable de la intervención y cien-
cia) que requieren la investigación con intención de apropiarse del cono-
cimiento que se produce. El uso de este conocimiento es diferente en
cada caso, para unos servirá para organizar futuras intervenciones y
para otros se planteará con la lógica de conocer. Por otro lado, hay un
sistema actor que no participa en el requerimiento de investigación y que
pasa de objeto a sujeto (se empodera) durante el proceso de investigación
y que finalmente utiliza el conocimiento para mejorar su capacidad de
resiliencia. El reto se encuentra en diseñar estrategias de investigación
que garanticen el paso de objeto a sujeto de los integrantes del sistema
actor durante el proceso de producción de la investigación, es decir, que
provoquen el empoderamiento de los actores y, además, que mejore su
resiliencia en la fase de apropiación del conocimiento producido. Como
en el tipo 2, además del carácter educativo, la estrategia de investigación
debe utilizar la participación como una forma de descubrimiento para
los integrantes del sistema actor (descubrir problemas que no conocen,
integrando cierto sentido terapéutico) y desarrollar una estrategia con
orientación pedagógica que fomente la comprensión de su situación, lo
que mejorará su resiliencia.
En síntesis, además de las estrategias que permiten a la investigación so-
cial producir un conocimiento que se pueda utilizar por el sistema externo
de la intervención y el sistema de la ciencia, cuestiones que habitualmente
se han realizado, la investigación social en la IAP también debe incorporar
estrategias que permitan elaborar un conocimiento especializado para:
a) ser utilizado como prueba en la lucha que mantiene el sistema actor con
el sistema de intervención; b) como un conocimiento expuesto a la confir-
mación del sistema actor; y c) como un conocimiento orientado a la ac-
ción terapéutica o pedagógica. Todas estas necesidades estratégicas deben
ser observadas además en un contexto en el que la participación adquiere
un sentido diferente en función de las orientaciones de la IAP.

3.2 Diseños

En la investigación social, el objetivo del diseño tiene que ver con la crea-
ción de una estructura lógica que permita responder a la pregunta de in-
vestigación. La cuestión central del diseño es asegurar que los datos pro-

315
La articulación de la investigación social

ducidos sirvan para mostrar las evidencias que explican las relaciones
entre la pregunta de investigación y las respuestas ofrecidas por el inves-
tigador. La clave del diseño está en decidir qué tipo de evidencias se ne-
cesitan para poder responder a la pregunta de investigación. En la prác-
tica, el diseño no es más que construir un camino lógico que establezca la
relación entre evidencias, preguntas y respuestas de investigación (De
Vaus, 2001).

Figura 3.  El papel del diseño en la investigación social

Si aplicáramos esta lógica del diseño a la investigación que se produce


dentro de la IAP, la participación de los sujetos integrantes del sistema
actor en las distintas fases del proceso investigador sería una cuestión
irrelevante para el diseño. Bien en su faceta de investigadores o bien en
su rol de productores de información, su papel no debería afectar a lo
fundamental: construir una lógica de transformación que permitiera ob-
servar las relaciones basadas en evidencias empíricas entre los proble-
mas/necesidades enunciados por los actores (objeto del trabajo) y las
transformaciones derivadas del proceso. Éste es el camino que ha adop-
tado la intervención social basada en la evidencia y la evaluación social
más avanzada. Los procesos participativos se consideran muy útiles para
la identificación, el diagnóstico y la búsqueda de soluciones realizadas de

316
10. La investigación-acción participativa

manera participativa, pero el acento de los trabajos se pone en las trans-


formaciones comprobables que produce la acción, en las evidencias de la
transformación.
El problema de diseño de investigación de la IAP surge cuando se
plantea qué parte de la transformación de los sujetos deriva de la partici-
pación en la investigación. Es la idea de la emancipación o el empodera-
miento de los sujetos a través del acto de conocer que se realiza durante
la investigación. En este caso, la participación se convierte en una parte
del resultado y, por lo tanto, si aceptamos la lógica del diseño de investi-
gación o de la intervención basada en la evidencia, también debía ser
comprobada. Si eso se hiciera, el esfuerzo del diseño debía tener en cuen-
ta qué tipos de participación proporcionan evidencias empíricas de su
implicación en la transformación. Es decir, lo mismo que se exige a un
diseño que establezca la relación lógica entre problemas/necesidades y
transformaciones se debe plantear con la participación. De momento,
este tipo de diseños apenas se realiza. Lo habitual es que los investigado-
res centren su reflexión sobre el diseño metodológico de la acción.

Figura 4.  El papel del diseño en la investigación acción participativa

EVIDENCIAS
EMPÍRICAS

PROBLEMAS
Y DISEÑO TRANSFORMACIONES
NECESIDADES

PARTICIPACIÓN

317
La articulación de la investigación social

Desde esta perspectiva, las claves del diseño metodológico en la IAP


se encuentran en la organización de los procesos colaborativos de la in-
vestigación —identificación de contextos y actores implicados, definición
de objetivos, problemas y necesidades, plan de investigación, análisis, ela-
boración final del informe— y la selección de las herramientas que per-
mitan desarrollar la participación.

4.  Procesos e instrumentos aplicados a la IAP

La variedad de requerimientos de investigación y la diversidad de contextos


sociales en los que se aplica la IAP provoca que tanto los objetivos a cubrir
como las necesidades de información a producir sean muy diferentes. El re-
sultado de tan heterogénea situación es que el catálogo de métodos e instru-
mentos utilizado sea también muy variado. La experiencia muestra que en
la IAP se utiliza la práctica totalidad de los métodos y técnicas de la investi-
gación social, también se añaden otras que provienen de la intervención so-
cial, la animación sociocultural o la gestión empresarial y, además, se ade-
cuan algunas más para cubrir sus específicas necesidades de integración de
la participación. En consecuencia, lo primero que debe tener en cuenta el
investigador social que acompaña estos procesos es que el cuerpo de instru-
mentos que utiliza habitualmente en su trabajo se ajusta a gran parte de las
necesidades de investigación de muchas formas de IAP. También deberá co-
nocer y aprender el uso correcto de otras técnicas participativas y no deberá
olvidar que la mayoría de estas prácticas se aprenden con la experiencia.
Muchos son los esquemas que han tratado de explicar el modo en que
los procesos de IAP se llevan a la práctica (McIntyre, 2008: 7; Alberich,
2008; Kemmis, McTaggart y Nixon, 2014: 18). Una revisión de los más uti-
lizados pone de manifiesto que la mayoría comparte lo fundamental. La
clave de cualquier proceso de IAP es el modo en que se introduce la partici-
pación/reflexión colaborativa en el proceso investigador y lo que se espera
obtener de cada fase participativa. El esquema: reconocimiento de campo/
búsqueda de situaciones problemáticas (participación restringida) - lanza-
miento de la IAP/diseño de la investigación (participación del total de los
implicados) - análisis/devolución de la investigación - acción (participación
del total de los implicados - evaluación/conclusión/posibilidades de desa-
rrollos futuros puede servirnos de modelo. Veamos.
El punto de partida suele integrar un proceso de reconocimiento del
campo y búsqueda de situaciones problemáticas que suele hacer un equi-
po reducido de personas, entre las que se encuentran los investigadores

318
10. La investigación-acción participativa

que acompañarán el proceso. Esta fase inicial conlleva una reflexión so-
bre las posibilidades de realizar la IAP, sobre los actores implicados y
una identificación primaria de los contextos sociales y poblacionales.
Además de la recogida de información de fuentes secundarias que permi-
ta hacerse una idea inicial del campo, en este proceso de aproximación se
establecen las primeras relaciones con los participantes, se acuerda una
primera agenda de manera colaborativa y se producen las primeras nego-
ciaciones sobre el rol a desempeñar por los investigadores. Estos prime-
ros contactos tienen mucho en común con la forma en que se produce la
entrada al campo durante la observación participante. La búsqueda del
establecimiento de confianza, la definición de escenarios y las tácticas
para acceder a ellos son cuestiones clave.
También es el momento de hacer una reflexión sobre los posibles dise-
ños de investigación, de valorar cuestiones éticas relacionadas con las si-
tuaciones de vulnerabilidad de los sujetos que pueden participar en el pro-
ceso y evaluar temas como la representación y la distribución del poder.
Lo que se está planteando en esta primera fase es la definición de las posi-
bilidades de iniciar una transformación social de manera colaborativa.
Por lo que se refiere a los instrumentos, además de aplicar la entrevis-
ta cualitativa, algunas tácticas de la observación participante y el análisis
de fuentes secundarias, en esta fase se pueden utilizar técnicas de produc-
ción grupal abierta como la «tormenta de ideas» y se llevan a cabo reu-
niones con el fin de consolidar un equipo de participantes e investigado-
res que prepare la difusión de la acción. La «tormenta de ideas» sirve
para que los componentes de un grupo pongan en común todas las opi-
niones, conocimientos o experiencias que tengan acerca de un tema con-
creto propuesto previamente. Su uso es muy frecuente cuando se quiere
comenzar a explorar un tema desconocido.
Una vez comprobado que las posibilidades de la IAP son factibles, se
inicia su lanzamiento entre el grupo total de implicados. El lanzamiento
de la IAP pone en marcha un proceso de captación y difusión que tiene
por objetivo conseguir sujetos dispuestos a participar en la elaboración
de un plan de investigación-acción de manera participativa. No se trata
tanto de ofrecer lo que se ha descubierto en la fase anterior como de ini-
ciar de nuevo un análisis con todos los integrantes. La captación se pue-
de realizar a través de las redes de comunicación (electrónicas y de me-
dios locales) o con la difusión de carteles, seminarios, exposiciones, etc.
Además de la captación, el proceso se pone en marcha con la realización
de talleres, asambleas y otras tácticas de participación grupal en las que
los implicados deben poner en común sus problemas y necesidades. Así

319
La articulación de la investigación social

mismo, deben reconocer el origen de sus problemas y los intereses de los


diferentes actores implicados en sus situaciones problemáticas. Es el mo-
mento de producir información. Para el investigador que acompaña el
proceso es el momento de dinamizar la participación, de construir rela-
ciones con los implicados, de observar y de reflexionar sobre los requeri-
mientos de la información que necesita para el análisis.
Ésta es la fase en la que se utilizan los instrumentos de producción de
información más específicos de la IAP. Describamos algunos de ellos con
más detenimiento.
El análisis de implicados (stakeholder analysis), diseñado por el Depar-
tamento de Desarrollo del Reino Unido, es una buena herramienta que re-
laciona el grado de influencia y la capacidad que estos actores tienen para
el desarrollo de la acción. La forma de aplicar el instrumento es relativa-
mente sencilla: en primer lugar, se realiza una lista de los actores que van a
verse afectados por la IAP de forma principal y otra con los actores secun-
darios (intermediarios que podrán modificar la acción o la realidad de for-
ma directa o indirecta), en ambos casos se analizan sus intereses y los posi-
bles efectos que sobre cada uno de los grupos puede tener el proyecto. A
continuación, se vuelven a categorizar en función de su capacidad de in-
fluencia e importancia sobre la acción. La importancia se define como la
prioridad que tiene para la IAP cada grupo de implicados, una vez identi-
ficados sus intereses. La influencia viene dada por la capacidad de autono-
mía que cada grupo tiene en relación a la participación o ejecución de las
acciones. En consecuencia, los grupos más vulnerables son aquellos que
más importancia y menos influencia tienen para la acción. Seguidamente,
se realiza una tabla de doble entrada en la que se sitúan los actores según
estas dos dimensiones y dos valoraciones: alta y baja.
El resultado es una matriz (figura 5) en la que se pueden prever las po-
siciones de los actores según cuatro categorías: beneficiarios, contrapar-
tes, neutrales y opositores. Los potenciales beneficiarios son aquellos que
la IAP ha considerado que tienen una gran importancia para la acción
pero que su capacidad de influencia es baja. Es decir, son los más vulne-
rables. A los que la IAP les mejoraría más pero tienen más limitaciones
para participar. Las contrapartes son actores que pueden ayudar en la
acción porque teniendo una gran importancia para el desarrollo de las
actividades tienen también capacidad y autonomía para intervenir. Los
neutrales son actores que no tienen importancia para la acción y que
tampoco pueden influir sobre ella. Finalmente, los opositores son aque-
llos que no siendo relevantes para la acción por su baja importancia, tie-
nen una gran capacidad para influir en ella.

320
10. La investigación-acción participativa

Figura 5.  Matriz de análisis de implicados. Stakeholder analysis

Importancia
INFLUENCIA BAJA INFLUENCIA ALTA
Influencia
Alta importancia - Baja Alta importancia - Alta
influencia influencia
IMPORTANCIA ALTA
POTENCIALES POTENCIALES
BENEFICIARIOS CONTRAPARTES

Baja importancia - Baja Baja importancia - Alta


influencia influencia
IMPORTANCIA BAJA
NEUTRALES AL POTENCIALES
PROYECTO OPOSITORES

El instrumento DAFO tiene su origen en la planificación y gestión em-


presarial. Su objetivo es conocer la situación en la que se halla la población
estudiada, teniendo en cuenta cómo interpreta el grupo sus circunstancias
subjetivamente y cómo son esas circunstancias observadas objetivamente.
Es decir, conocer su situación respecto a cómo enjuicia esa población su po-
sición ante un hipotético riesgo o éxito, y cómo enjuician esa misma posi-
ción teniendo sólo en cuenta las condiciones externas reales.
Su planteamiento es como sigue: en una tabla de doble entrada, se to-
man como elementos de análisis las circunstancias internas y externas
del grupo y los factores de riesgo y de éxito, las casillas fruto del cruce
(figura 6) indican las debilidades, amenazas, fortalezas y oportunidades
(DAFO) del grupo.

Figura 6.  Método DAFO

FACTORES DE FACTORES DE
RIESGO ÉXITO

CIRCUNSTANCIAS
INTERNAS DEBILIDADES FORTALEZAS
(Hechos objetivables)

CIRCUNSTANCIAS
EXTERNAS AMENAZAS OPORTUNIDADES
(Hipótesis de futuro)

321
La articulación de la investigación social

Las debilidades son circunstancias internas y negativas del grupo que


se pueden comprobar objetivamente. Las fortalezas son el polo opuesto.
Por definición, son las circunstancias internas y positivas del grupo fren-
te al problema estudiado que pueden ser comprobadas objetivamente.
Las amenazas son las circunstancias externas hipotéticas que pueden ac-
tuar negativamente sobre el problema. Con las amenazas, la observación
se plantea sobre expectativas y no sobre hechos contrastables, por lo que
el análisis se traslada hacia la zona subjetiva. Las oportunidades son,
por el contrario, el polo positivo de las expectativas de futuro.
La forma de utilizar el DAFO es también sencilla. Se suele comenzar
con una «tormenta de ideas» en la que se elige uno de los dos polos
como temática. Una vez concluida esta primera parte, y tras categorizar
y agrupar los elementos comunes, se comienza con los aspectos positivos.
Posteriormente se realizan conjuntamente los análisis y se delimitan las
posiciones que ocupan en el DAFO los elementos obtenidos.
La cartografía social es otra de las formas de producción de informa-
ción participativa más usadas. Como cualquier representación gráfica, su
realización persigue facilitar la comprensión de un fenómeno complejo y
reducir sus dimensiones a categorías más simples para los participantes.
El grupo se enfrenta a la tarea de elaborar un mapa en el que se va inser-
tando de manera participativa los elementos que se estén analizando. En
función de los objetivos, del método con que se realicen y de la participa-
ción de los involucrados, los tipos de mapas resultantes podrán ser muy
diferentes. En general, sin descuidar que la incorporación de las nuevas
tecnologías ha facilitado la posibilidad de obtener todo tipo de plantillas
de territorio, incluso elaboraciones en 3D, hay una clasificación primaria
que se puede establecer: a) mapas que describen físicamente el terreno y
los elementos más relevantes para la comunidad; b) mapas sociales, que
pretenden obtener información sobre la estructura social de la comuni-
dad y la forma en que se establecen las diferencias o relaciones; y c) tran-
sectos, que son mapas realizados por distintos grupos cuando recorren
paseos prefijados por los investigadores y toman nota de los elementos
que se les solicita que busquen.
En esta fase también se utilizan técnicas que han sido adaptadas de la
investigación social como la encuesta participativa o el método delphi
participativo. Lógicamente, en esta fase también están presentes técnicas
grupales tradicionales como los focus group, los grupos de discusión y los
sociogramas.
Concluida esta fase comienza un análisis de la información produci-
da. Esta tarea la llevan a cabo los investigadores y algunos de los partici-

322
10. La investigación-acción participativa

pantes. Ese proceso termina con la devolución a los participantes de los


análisis elaborados. Se trata de que éstos muestren sus acuerdos, discre-
pancias y reflexiones sobre lo entregado. El resultado de esta devolución
se plasma en la elaboración de un plan de acción acordado de manera
participativa. El plan de acción se concreta en un proyecto con una es-
tructura similar a ésta:

• Título de la IAP.
• Fundamentación (justificación de la IAP).
• Definición de los objetivos de la IAP.
• Diseño metodológico (etapas, técnicas e instrumentos, productos
obtenidos).
• Contextualización de la investigación (características del universo
de estudio: composición sociodemográfica, estructura social).
• Diagnóstico de la problemática detectada.
• Conclusiones apoyadas en toda la información recogida.
• Propuesta de acciones concretas (plan de actividades, acciones a
emprender por las instituciones, etc.).

Este documento es un contrato, un compromiso que deben adquirir


tanto los participantes de la IAP como los que la acuerdan financiarla.
Tras esta fase, el investigador puede cambiar su rol y convertirse en un
acompañante de la evaluación (si la han integrado) o puede volver para
analizar las transformaciones producidas tras la ejecución de la acción y
plantear nuevos procesos de IAP.

5. Futuros…

Desde el principio y como se ha señalado repetidamente aquí, el conjun-


to de la investigación-acción ha estado comprometido con el cambio de
la sociedad. A pesar de tales ambiciones, sería injusto hacer balance de
lo aportado por la misma a partir de lo obtenido en clave de tal cambio
de sociedad. Se trataría más de un ajuste de cuentas con esta propuesta
de forma de investigar que un balance7. El que la IA o la IAP contribuya
al cambio social depende de las circunstancias de cada caso y contexto
concreto y no de la forma de investigar en sí (Selener, 1997: 235). Ahora
bien, su compromiso con el cambio social, más allá de procedimientos y

323
La articulación de la investigación social

reglas concretos, la hace especialmente abierta a los cambios que se están


produciendo en la sociedad. De hecho, ella misma, recogiendo la deman-
da participativa y la creciente capacidad reflexiva de las sociedades, es un
producto del cambio social.
La vinculación de la IAP con un mundo en cambio y, por lo tanto,
con la construcción del futuro de ese mundo, ha hecho que se haya utili-
zado para definirla la categoría de dialéctica (Ibáñez, 1979; Kemmis y
McTaggart, 2000). No está muy claro lo que se quiere decir con tal tér-
mino, más allá de la voluntad de subrayar el compromiso de esta forma
de investigación con el cambio en la sociedad y, sobre todo, marcar dis-
tancias con las otras formas o perspectivas de la investigación. Siguiendo
a Ibáñez, la perspectiva dialéctica es de un nivel superior a las perspecti-
vas distributiva (cuantitativa) y estructural, fundamentalmente cualitati-
va. Admitiendo que una de las características extendida en la concreción
de las prácticas que cabe incluir en esta forma de investigar es su vínculo
con una crítica hacia la configuración de las relaciones de poder en un
contexto social específico y un horizonte pragmático de cambio en la so-
ciedad, también ha tendido a servir de etiqueta diferencial en el campo
de la investigación que, como todo campo social, es un campo de luchas,
en el que los distintos actores se posicionan frente a los demás. Los dia-
lécticos investigadores de la IAP se posicionan frente al resto de investi-
gadores, considerando a éstos servidores del mercado (mercenarios) o di-
rectamente servidores del poder (subordinados). No deja de ser su
estrategia de diferenciación en el campo de la investigación social, desde
una superioridad moral que en sí misma es sospechosa.
La IAP es consecuencia de los cambios sociales y, por definición, se
encamina al cambio social y, por lo tanto, al futuro. Pero ¿qué dinámicas
de la sociedad pueden alimentarla y constituirla en una práctica de inves-
tigación con ese futuro? Nominemos sólo algunas.
El desarrollo tecnológico provee nuevas oportunidades para la parti-
cipación. Desde el impulso dado por la web 2.0. hasta la posibilidad de
la discusión y las decisiones colectivas, con un menor esfuerzo, debido a
que no son necesarias ni compartir tiempos (sincronía), ni territorios
(presencialidad). Las tecnologías de comunicación personal mediada se
han convertido en un soporte imprescindible para la generación de co-
munidades activas (Rheingold, 1996 y 2002) y su papel en el desarrollo
de movimientos sociales ha sido especialmente resaltado8. Es en los
campos de los nuevos movimientos sociales, la educación y el trabajo
con minorías (Mehra et al., 2009), donde la relación entre IAP y uso de
internet está cobrando especial relevancia. Claro está, desde estos nue-

324
10. La investigación-acción participativa

vos marcos, la IAP, con sus procedimientos e instrumentos, será distin-


ta. La IAP virtual está en ciernes, conformada más como investigación
de procesos participantes que ya están en marcha. La dificultad, más
teórica que material, está en distinguir conceptualmente la observación
de la participación, por un lado, y la participación en la observación,
cuando se trata de colectivos o comunidades en que la definición de per-
tenencia se difumina.
En cualquier caso, es fundamental la incidencia del cambio tecnológi-
co. Ya no sólo como instrumento que puede extender la viabilidad de
esta práctica de investigación, sino porque este cambio parece ser una de
las bases en la constitución de ciudadanos más activos y críticos. Segura-
mente también más reflexivos, habituados ya a la relación autónoma y
comunitaria con los medios de comunicación y las nuevas tecnologías. Es
decir, por un lado, la demanda de participación en la acción y decisión
pública cobrará aún más fuerza, apuntándose ya la profesionalización de
la participación9, donde la experiencia de la IAP tiene bastante que apor-
tar. Por otro lado, una reflexión con un fuerte componente crítico, con
respecto a la sociedad y la propia investigación social, favorable a una in-
vestigación social más comprometida, más militante (Chatterton et al.,
2008), que está en la génesis histórica de la IAP, con el objetivo político/
epistemológico de que la investigación social pase de ser un dispositivo
del poder a ser un dispositivo para poder.
Más acá de tales escenarios de tecnofuturo, el desarrollo material de
las sociedades las hace más sensibles a la desigualdad y a la convivencia
con bolsas de exclusión. Los problemas sociales están lejos de desapare-
cer y con respecto a esto, la investigación-acción y su finalidad integra-
dora pueden mostrar su larga experiencia. Otros problemas y conflictos,
como los relacionados con el medio ambiente o la existencia de riesgos
tecnoindustriales, muy vinculados al territorio e igualmente lejos de su
desaparición, están viviendo lo que unos autores han denominado la ex-
plosión de la IAP (Kindon et al., 2007).
Por lo tanto, en el futuro parece ampliarse el asalto de la participación
a la investigación, aunque pueda interpretarse desde distintas perspecti-
vas. Como adaptación al giro participativo tomado por la sociedad;
pero, también, como parte del giro experiencial10 dado por las ciencias
sociales en general, por la sociología y la antropología especialmente
(Jenkins, 2010: 14; Ospina et al., 2008), en su constante (¿imposible?)
búsqueda de salida de su intrínseca crisis.

325
La articulación de la investigación social

Notas
1  Algunos intentan llevar los antecedentes de la IAP a Marx y Engels (Hall,
1981), confundiendo tradición crítica con la crítica que se incluye en buena par-
te de la práctica de la investigación participativa.
2 Una parte importante de los autores (entre otros: Fals Borda, 1979; Hall,
1981; Conchelos, 1983, citado en Selene, 1997) polarizan las diferencias entre IA
(investigación-acción) e IAP (investigación-acción-participativa) a partir de la
consideración de que la segunda conlleva una fundamental crítica epistemológi-
ca con respecto a las otras formas de investigación social, de manera que la dife-
rencia hay que establecerla con respecto a la relación con el poder y la identifi-
cación de los problemas que han de investigarse.
3  Interpretado desde esta perspectiva, en la inserción en un proceso de largo
alcance, se conecta la propuesta conceptual de «reflexive monitoring» de Giddens
(1986), ya no sólo como racionalización de la acción por parte de los sujetos sino
como asunción de la capacidad de la acción para transformar los contextos.
4  A su vez, puede tomar varias concreciones: colectivo en movimiento que
investiga y se investiga, sin demandar tal posición de un agente del sistema ex-
perto a un investigador profesional-externo; colectivo, con la colaboración de un
investigador profesional-externo, que lleva a cabo un proceso de conocimiento
con un diseño en el que ha participado.
5  Es interesante para conocer la historia de la IAP consultar la trayectoria y
obra de Orlando Fals Borda que proponen Guerrero y García (2009).
6  Somos conscientes de que este modelo es el más distante al que habitual-
mente se ha entendido por IAP, puesto que apenas cambia la forma de investi-
gar, pero lo hemos incluido porque: a) estamos ante un sujeto colectivo, inmerso
en un proceso participativo, que requiere la investigación; b) se trata de una si-
tuación social en expansión, de la que crecientemente se tienen más ejemplos,
que concreta el giro participativo de la sociedad.
7  A las críticas sobre su carácter científico, se añaden otras sobre sus resulta-
dos, como la de frustración o manipulación, arriesgando incluso las condiciones
de vida de los supuestos colectivos a los que se supone que la investigación par-
ticipante iba a beneficiar (Kemmis y McTaggart, 2000: 568). Pero la experiencia
de casos concretos avala su validez pragmática, en clave de las transformaciones
producidas.
8  Recogiendo el caso español, véanse Castells (2012), Haro y Sampedro
(2011), Toret (2013).
9  En febrero de 2015, en Lausana, está convocada una reunión internacio-
nal, «Participation publique, professionalisation et diversification: un état des
lieux» (COSPOF 2015).
10 Usamos este término para diferenciarlo del que, en castellano, sería más
correcto: experimental; pero que en este contexto produce significados muy dis-
tintos.

326
10. La investigación-acción participativa

Bibliografía recomendada
Alberich, T. (2008): «IAP, Redes y Mapas Sociales: Desde la Investigación a la
Intervención Social», Portularia, vol. VIII (1), pp. 131-151.
Callejo, J., y Viedma, A. (2005): Proyectos y estrategias de investigación social: la
perspectiva de la intervención, Madrid, McGraw Hill.
Fals Borda, O. (1993): «La investigación participativa y la intervención social»,
Documentación Social, vol. 92, pp. 9-22.
Whyte, W. F., Greenwood, D. J., y Lazes, P. (1991): «Participatory Action Re-
search: Through Practice to Science in Social Research», en W. F. Whyte
(ed.), Participatory Action Research, Newbury Park (Cal.) Sage.

327
Tercera parte

La obtención de datos
11.  La encuesta

Manuel García Ferrando


Ramón Llopis Goig

1. Introducción

Pocos procedimientos de investigación social son tan populares y conocidos


como la encuesta. En los últimos años, los resultados de encuestas sobre te-
mas de lo más diverso se encuentran continuamente presentes en los medios
de comunicación audiovisuales y escritos. Una situación que ha conducido
a que las encuestas se hayan convertido en la técnica de investigación social
más utilizada en el campo de la sociología empírica y aplicada.
Una encuesta es una investigación realizada sobre una muestra de su-
jetos representativa de un colectivo más amplio, que se lleva a cabo en el
contexto de la vida cotidiana, utilizando procedimientos estandarizados
de interrogación, con el fin de obtener mediciones cuantitativas de una
gran variedad de características objetivas y subjetivas de la población.
La proliferación de las encuestas como una forma de investigación so-
cial ampliamente utilizada en las sociedades de masas ha conducido a la
creación en casi todas ellas de un buen número de institutos de investiga-
ción social aplicada y de opinión pública, tanto privados como depen-
dientes de las administraciones públicas, que a su vez se apoyan en una
tupida red auxiliar de entrevistadores, analistas, centros de cálculo y
otros servicios, lo que ha dado lugar en su conjunto a una estructura bu-
rocrática compleja.

331
La obtención de datos

2.  Las encuestas en los orígenes de la sociología científica

La encuesta como herramienta de investigación social cuenta con una


amplia historia, aunque su uso no se encuentra en condiciones de adqui-
rir carácter científico hasta que en el siglo xvii se producen el desarrollo
de la teoría de la probabilidad —de la mano de Galilei, Pascal o Bernou-
lli— así como una serie de aportaciones decisivas provenientes de lo que
entonces se conoció como la Aritmética política, denominación con la
que se englobaban las contribuciones de J. Grant, W. Petty, E. Halley o
G. King que, aunque no formaban una escuela organizada, sentaron las
bases de lo que con posterioridad habría de ser el trabajo de numerosos
científicos sociales. Entre las aportaciones de G. King cabe citar su obra
Natural and political observations and conclusions upon the state and con-
dition of England (1696), en la que ofreció una estimación del número de
familias que residían en el país así como de sus ingresos medios, lo que le
permitió calcular un indicador de bienestar nacional.
Otra de las tradiciones de la investigación mediante encuestas —ya en
el siglo xix— se encuentra en la llamada Estadística moral, denominación
con la que se suele identificar al francés Frédéric LePlay y al belga Adol-
phe Quetélet, aunque otros autores les precedieron en la aplicación de téc-
nicas estadísticas al estudio y medición de las «cualidades morales» o el
«bienestar social». Quetélet (1796-1874) participó en la creación de las so-
ciedades estadísticas de Inglaterra y Francia y fue un firme impulsor de la
Asociación Estadística Internacional. Su principal aportación científica
fue la teoría de las regularidades de los fenómenos sociales, con la que de-
fendía la tesis de que en el carácter aparentemente azaroso del comporta-
miento humano pueden detectarse patrones y regularidades empíricas me-
diante técnicas de análisis estadístico. Otras aportaciones suyas fueron el
uso de tablas multivariables para la exploración de relaciones entre com-
portamientos sociales y determinados factores sociodemográficos o la
aplicación del cálculo de probabilidades para explicar la permanencia tem-
poral de ciertos fenómenos sociales. Por todo ello, ha sido considerado
pionero en la aplicación de los modelos matemáticos en sociología (García
Ferrando, 1979). Junto a la contribución de Quetélet fueron decisivas otras
aportaciones que se habían desarrollado previamente en el campo de la es-
tadística —entre cuyos autores habría que mencionar a Laplace, Gauss,
Galton y Pearson— que confluyeron en el proceso de fundamentación
epistemológica de la sociología científica.
En paralelo, entre finales del siglo xviii y principios del siglo xix se
habían ido desarrollando las primeras investigaciones sociales con un ca-

332
11. La encuesta

rácter marcadamente empírico1. Todas ellas respondían a un objetivo co-


mún: arrojar evidencia empírica sobre los problemas existentes en la so-
ciedad para posteriormente tratar de concienciar a la opinión pública
sobre la necesidad de acometer las correspondientes reformas sociales.
Son, por tanto, una clara muestra de que las encuestas no nacieron como
mecanismos de control por parte del poder político o el mercado, sino
como herramientas para el análisis y posterior reforma de los problemas
sociales. Un ejemplo emblemático al respecto lo constituye el estudio de
John Sinclair, The statistical account of Scotland (1791-1825), una inves-
tigación sobre los problemas de la población rural de Escocia cuya ela-
boración se basó en la información obtenida mediante un cuestionario
que contenía más de un centenar de preguntas. Pero la contribución en la
que más a menudo se sitúa el nacimiento de la moderna investigación
por encuesta es la de Charles James Booth, un acaudalado hombre de
negocios británico preocupado por las proclamas socialistas de la época
de que una tercera parte de la población londinense vivía en la pobreza,
que promovió una gigantesca encuesta entre 1892 y 1897 —Labour and
the life of the people of London— con la que pretendía identificar las cau-
sas de tal problema. La investigación por encuesta se desarrollaba de este
modo prácticamente al mismo tiempo que se establecían los cimientos de
la sociología científica. Hay que añadir, no obstante, que estos trabajos
no habían integrado aún los principales avances estadísticos de la época
y presentaban numerosas deficiencias metodológicas.
Autores tan destacados en el nacimiento de la sociología como Karl
Marx y Max Weber también recurrieron a las encuestas sociales. En el
caso de Marx, cuya preocupación por recurrir a la observación empírica
de los fenómenos sociales está fuera de toda duda, proyectó una enquête
ouvrière en 1880 y se dirigió a los obreros franceses para que respondie-
ran al cuestionario, argumentando que sólo los obreros podían describir
«con completo conocimiento de causa los males que soportan»2. La en-
cuesta no se pudo finalizar, entre otras cosas, por el escaso número de
obreros que respondió al cuestionario y por la insuficiente infraestructu-
ra para llevar a cabo la recogida de información y el procesamiento de
los datos. El intento revela, no obstante, la preocupación de Marx por
llevar adelante las reformas sociales, acompañadas de «un conocimiento
exacto y positivo de las condiciones en que la clase obrera (…) vive y tra-
baja» (Bottomore, 1976: 86).
Max Weber recurrió al uso de la encuesta en varias ocasiones. Con
tan sólo 26 años participó en un estudio sobre las condiciones de trabajo
en el mundo rural y, más adelante —en 1893—, dirigió otro sobre las

333
La obtención de datos

condiciones de vida de los trabajadores rurales. De los diez mil cuestio-


narios que envió, le fueron devueltos alrededor de mil con los que prepa-
ró el correspondiente informe (Lazarsfeld y Oberschall, 1965: 186). En
este estudio, Weber mostró su interés por dos rasgos sustanciales de la in-
vestigación por encuesta —la elección de los informantes y la mejora del
diseño del cuestionario— y se mostró preocupado por el estudio de las
actitudes (Mitzan, 1976). Todavía participó en una tercera encuesta diri-
gida a investigar la «actitud subjetiva» de los trabajadores industriales
hacia su situación en el trabajo. Este estudio anticipaba muchos de los
rasgos de la perspectiva moderna de análisis por encuesta, ya que utiliza-
ba «un cuidadoso análisis estadístico para deducir el mayor número po-
sible de generalizaciones en base a los datos y para interpretarlos a la luz
de los conceptos apropiados» (Lazarsfeld y Oberschall, 1965: 189).
El caso de Weber, sin embargo, es más bien excepcional. Aunque la
mayor parte de los trabajos realizados hasta esas fechas guardan una cier-
ta semejanza con las encuestas que se realizan en la actualidad, las dife-
rencias son rotundas en dos aspectos clave: suelen recurrir a censos o
muestras no representativas de individuos y se centran en características
objetivas de la realidad, dejando de lado el estudio de las opiniones y las
actitudes. Ahora bien, ninguna de las dos carencias puede resultar sor-
prendente. La obtención de muestras representativas mediante muestreos
aleatorios fue defendida por primera vez en el libro Representative method
of statistical surveys —publicado en 1897 por el noruego A. N. Kiaer— y
admitida por el Instituto Internacional de Estadística como procedimien-
to de investigación científico en 1903. Posteriormente, las propuestas de
Kiaer fueron desarrolladas y sistematizadas por el polaco J. Neyman a
mitad de los años treinta. Por lo que se refiere a la medición de las actitu-
des, fueron esenciales las aportaciones de Thurstone (1928), Bogardus
(1925), Likert (1932), Guttmann (1944) y Osgood (1955), en las que mos-
traron que los aspectos subjetivos también eran susceptibles de medición.
Estos avances tuvieron una rápida consolidación y abrieron camino al ful-
gurante éxito de la encuesta como técnica de investigación social.
En España, los orígenes de la investigación social por encuesta se en-
cuentran también ligados a los intentos de reforma social de finales del
siglo xix y principios del xx. Los nombres de J. Costa, G. Azcárate y A.
Posada van unidos en el siglo xix a investigaciones sistemáticas sobre
usos y costumbres de la población, siempre con una voluntad claramente
reformista (Gómez Arboleya, 1958). Joaquín Costa promovió La encues-
ta sobre oligarquía y caciquismo como forma actual de gobierno en España
en 1901, seis años después de haber dirigido La encuesta sobre tutela so-

334
11. La encuesta

cial, en ambos casos desde el Ateneo. La sección de Ciencias Morales y


Políticas del Ateneo de Madrid promovió entre 1901 y 1902 una gran en-
cuesta sobre temas antropológico-sociales (Lisón, 1968), y la Institución
Libre de Enseñanza promovió estudios a través de cuestionarios desde fi-
nales del siglo xix. Pero el movimiento de la encuesta social en España, a
diferencia de lo que ocurrió en el caso británico y norteamericano, se
desplazó rápidamente de la esfera de la libre iniciativa privada a la buro-
cracia del Estado, institucionalizándose finalmente en el Instituto de Re-
formas Sociales, fundado en 1904, desde donde se promovieron numero-
sos estudios para conocer los agudos problemas que padecía la sociedad
española de primeras décadas del siglo xx.

3.  Desarrollo posterior de las encuestas

Sin restar importancia a los avances y desarrollos señalados en el aparta-


do anterior, los antecedentes inmediatos de la actual investigación a tra-
vés de encuestas tienen nombres y fechas más recientes, y un país deter-
minado. El desarrollo de los «estudios de mercados» y la «investigación
de la opinión pública» en Estados Unidos durante los años treinta y cua-
renta del siglo xx van a ser los elementos que difundan y popularicen un
nuevo estilo de trabajo en el campo de las ciencias sociales empíricas. Los
nombres de Georges Gallup, Archibald Crossley, Elmo Roper y Paul F.
Lazarsfeld forman ya parte de una tradición teórica y metodológica que
sigue siendo reconocible en la investigación social empírica de práctica-
mente todo el mundo occidental.
El impulso para la investigación vino desde la esfera privada, y la ex-
periencia obtenida en los estudios de mercado por Gallup, Crossley y
Roper la transfirieron al campo de los estudios electorales, alcanzando
rápidamente gran popularidad al realizar una previsión acertada de la
victoria de Roosevelt en las elecciones presidenciales de 1936, con el estu-
dio de una muestra de no más de cinco mil entrevistas3. Habían nacido
las encuestas de opinión pública (Stoetzel y Girard, 1973). Los departa-
mentos de sociología de las universidades americanas, que en un princi-
pio no habían prestado atención a los estudios de mercado y de opinión
pública, se interesaron rápidamente por el nuevo método. Surgía así un
nuevo estilo de investigación sociológica en el seno de las universidades
americanas, en el que se combinaba la preocupación por el avance del
conocimiento sociológico con la práctica de la investigación empírica a
través de encuesta.

335
La obtención de datos

Gallup vuelve a realizar pronósticos acertados de los resultados de las


elecciones presidenciales de 1940 y 1944 recurriendo al muestreo por
cuotas. Pero no es ésa la única actividad a la que contribuye: durante
más de una década puso en marcha numerosos experimentos sobre los
efectos de la formulación de las preguntas en las respuestas de los entre-
vistados, muchos de ellos en colaboración con la Oficina para la Investi-
gación de la Opinión Pública de la Universidad de Princeton, creada en
1940 por Hadley Cantril. A partir de entonces, esta forma de hacer in-
vestigación social comienza a extenderse, primero en Estados Unidos y
después en Europa. Gallup, Crossley y Ropper llevan a cabo numerosas
encuestas destinadas al análisis de la opinión pública norteamericana. Se
crean centros públicos y surgen empresas privadas que hacen de la inves-
tigación por encuesta su principal herramienta para el estudio de los más
variados asuntos de la vida política, económica, social y cultural.
Paul F. Lazarsfeld es un caso paradigmático de esta nueva forma de tra-
bajo sociológico académico y quizás la figura clave en el desarrollo de las
bases teóricas y metodológicas de la investigación social mediante encues-
ta. Fundador del Instituto de Investigación Social Aplicada de la Universi-
dad de Columbia, prestó atención tanto a los problemas prácticos de la or-
ganización de la investigación social mediante encuesta como a los
relacionados con las bases teóricas y metodológicas de las ciencias sociales.
Le interesaron tanto los estudios sobre el comportamiento del consumidor
como las investigaciones sobre comportamiento electoral, la influencia de
los medios de comunicación o las reacciones del mundo universitario fren-
te al macartismo4. Junto a H. Gaudet y B. Berelson publicó, en 1944, The
people’s choice: how the voter makes up his mind in a presidential campaign,
un trabajo que tuvo un gran impacto en la investigación social por la in-
troducción, entre otras, de novedades como el análisis conjunto de más de
dos variables, el diseño panel o la obtención de tipologías.
Desde los años cincuenta se produce una intensa expansión del uso de
la encuesta como técnica de investigación social y el número de estudios
se torna incontable. Comienzan también a publicarse monografías y ar-
tículos que abordan sus fundamentos y los diversos aspectos y criterios
técnicos de su aplicación. Este auge de la encuesta como técnica de inves-
tigación social se extiende a otros países. En 1963 se crea en España el
Instituto de la Opinión Pública —que catorce años después se transfor-
maría en el actual Centro de Investigaciones Sociológicas—, tras una dé-
cada —la de los cincuenta— en la que se llevan a cabo algunas encues-
tas en los más variados ámbitos de la vida social, cultural y económica5.
Es también entre finales de esa década y mediados de la siguiente cuando

336
11. La encuesta

se crean algunas empresas de investigación social que adquirirán un ca-


rácter emblemático en la reciente historia de la investigación social apli-
cada en España como, por ejemplo, los institutos ECO y DATA, a cuya
actividad estuvieron vinculados sociólogos como Jesús Ibáñez o Aman-
do de Miguel y Juan Linz, respectivamente.
La década de los años sesenta fue, como ha señalado López Pintor,
prolífica en encuestas, «algunas de ellas importantes y de referencia
obligada para estudios posteriores en sus respectivas materias» (López
Pintor, 1982: 115). Habría que citar estudios como la primera «Encuesta
de Juventud» en 1960, dirigida por José Mariano López Cepero; las
encuestas del Informe FOESSA de 1966, que dirigió Amando de Miguel
y que tendrán continuidad en la década de los setenta con otras
encuestas sobre la situación social de España; la encuesta nacional de
empresarios que dirigieron Juan Linz y Amando de Miguel; el «estudio
de Andalucía», patrocinado por la OCDE, que realizó un grupo de
profesores universitarios de la Universidad de Granada; la encuesta a
funcionarios que realizó Miguel Beltrán y la encuesta sobre aspectos del
consumo que realizó en 1962 Juan José Castillo (FOESSA, 1970).
La restauración de la democracia supuso la apertura de un espacio inédi-
to para la investigación por encuesta en España. La sociedad necesita co-
nocer el cuándo, el dónde, el quién, el cuánto, el cómo y el porqué de nu-
merosos fenómenos que acaecen en su seno. El interés por conocer se
desarrolló tanto entre las administraciones públicas como entre las em-
presas y la sociedad civil. En 1979, sólo un año después de que fuera
aprobada la Constitución española, se gastaron en España algo más de
12 millones de euros en encuestas de opinión (incluyendo todo tipo de en-
cuestas, políticas, culturales o de mercado), lo que supuso un gasto de 34
céntimos de euro por habitante (López Pintor, 1982: 116)6. Más de tres
décadas después, en 2013, el sector de la investigación social y de merca-
dos alcanzaba en España una cifra neta de negocio de 438 millones (Cas-
tellanos, 2014: 78), de los cuales un 84,1%, es decir 368 millones de euros,
correspondía a investigación por encuesta7. Esta cantidad multiplica por
más de treinta la estimada para 1979 y supone un gasto de 7,9 euros por
habitante.
Pero la transformación que ha protagonizado el sector no sólo se ca-
racteriza por su crecimiento económico, el cambio de paradigma tecno-
lógico ha operado otras transformaciones de gran calado como el pro-
gresivo desplazamiento de las técnicas de recogida de datos hacia medios
electrónicos y automáticos. Según el informe de situación y perspectivas
sectoriales publicado por la Asociación Nacional de Empresas de Inves-

337
La obtención de datos

tigación de Mercados y Opinión Pública (ANEIMO) y la Asociación Es-


pañola de Estudios de Mercado y Opinión (AEDEMO), un 40,8% de las
entrevistas realizadas se basa en sistemas electrónicos. Entre ellas, un
23,5% corresponde a la toma de datos a través de procedimientos auto-
máticos de recogida de datos, un 16,1% a encuestas online y el restante
1,2% a la medición de tráfico online o audiencia de webs. A continua-
ción, la encuesta telefónica supone un 16,3% del total; la encuesta face to
face (presencial), un 16,2%, y la encuesta postal, un 1,6%. El restante
9,2% corresponde a otros procedimientos de análisis cuantitativo. Las
encuestas personales, telefónicas y postales suponen, de manera conjun-
ta, un 34,1%, más de diez puntos menos que en 2009, cuando alcanzaban
un 46,3%. En ese mismo período de cuatro años, la recogida automática
y online ha pasado del 24,2% al 40,8% lo que da una idea del grado en
que el cambio de paradigma tecnológico está afectando a la investiga-
ción social por encuesta en España (Aneimo/Aedemo, 2014: 10).

4. Características y temas de estudio a través


de las encuestas

La encuesta, como técnica de investigación social, se apoya en una serie


de presupuestos teóricos que la fundamentan tanto en el plano ontológi-
co como en el epistemológico. Uno de ellos es la presunción de una reali-
dad social cuya existencia va más allá del propio investigador, y que es
plena y objetivamente cognoscible por éste. De manera que existen los
datos sociales y éstos pueden ser registrados de manera objetiva. Por
otro lado, existen en los fenómenos sociales uniformidades o regularida-
des empíricas que pueden ser estudiadas mediante la aplicación de herra-
mientas estandarizadas como los cuestionarios. Junto a estos dos presu-
puestos teóricos, las encuestas se apoyan en dos grandes tipos de teorías.
Por un lado, se apoyan en una teoría matemática rigurosa, el teorema del
límite central y su correlato, la ley de los grandes números, en la teoría de
las probabilidades y en la teoría del muestreo. Estos principios de la esta-
dística matemática, que serán estudiados con detalle en el correspondien-
te capítulo de este mismo libro, son los que regulan las condiciones exis-
tentes entre una población y las muestras extraídas de ella. En las
encuestas se suele trabajar con muestras de las que se obtienen unos re-
sultados, llamados estadísticos, que sirven para estimar parámetros, o
valores de la población, con unos márgenes de error y unos niveles de
probabilidad previamente determinados8.

338
11. La encuesta

Por otro lado, las encuestas descansan en una teoría sociopsicológica


de la comunicación, en la entrevista o conversación entre dos interlocu-
tores, el entrevistador y el entrevistado. La entrevista, en una encuesta, se
repite tantas veces como unidades muestrales se hayan extraído, y esta
operación es la que condiciona en buena medida la organización de la in-
vestigación social a través de encuesta, ya que al tener que realizar cien-
tos de entrevistas repetidas en una misma encuesta, hace falta contar con
un equipo de entrevistadores bien entrenados para llevarlas a cabo, del
mismo modo que hay que disponer de los medios organizacionales sufi-
cientes para recoger la información, procesarla, tabularla y analizarla.
Precisamente la ausencia de tales medios propició el fracaso de mu-
chos intentos de encuesta que se llevaron a cabo en las primeras etapas
del desarrollo de la sociología científica, e incluso en la actualidad son
determinantes del buen éxito de la investigación. Porque de poco va a
servir extraer una muestra rigurosa y diseñar un protocolo de entrevis-
ta preciso y bien estructurado si después no se cuenta con un buen
equipo de entrevistadores para realizar convenientemente las entrevis-
tas, o si no se cuenta con los medios humanos y tecnológicos necesarios
para procesar con precisión la rica información que suelen producir las
encuestas9.
Cabe ahora preguntarse por los temas que pueden ser abordados a
través de tantas encuestas como acabamos de ver que se realizan. La cla-
sificación con la que el Centro de Investigaciones Sociológicas (CIS) or-
ganiza las más de dos mil encuestas que incluye su catálogo contiene un
total de veinte grandes temas: política, asuntos internacionales, econo-
mía, trabajo, población, medio ambiente, comunicación, cultura, deporte
y ocio, ciencia y tecnología, educación, sanidad, justicia, vida cotidiana,
valores y actitudes, conflictos y problemas sociales, comunidades autó-
nomas, barómetros de opinión, estudios internacionales y confianza del
consumidor. Estos veinte temas se subdividen ulteriormente en diversas
categorías y subcategorías hasta componer un esquema cuya extensión
sería irreproducible en el espacio de estas páginas10.
A la vista de la diversidad de temas sobre los que se han realizado
hasta ahora encuestas, y sobre los que se han hecho tantas preguntas di-
ferentes, cabría deducir que prácticamente todo fenómeno social puede
ser estudiado a través de la encuesta. Pero en realidad no es así, ya que la
investigación social por medio de encuesta está aconsejada en algunos
casos para el estudio de determinados aspectos de la realidad social y del
comportamiento humano, de la misma manera que difícilmente se puede
aplicar al estudio de otros temas.

339
La obtención de datos

En primer lugar, hay que señalar que las encuestas son una de las es-
casas técnicas disponibles para el estudio de las actitudes, valores, creen-
cias y motivos. Tan es así que, incluso en estudios experimentales, los in-
vestigadores suplementan su diseño experimental con cuestionarios o
entrevistas con el fin de conocer si una determinada variable tiene real-
mente los efectos que se pretenden (Richardson et al., 1965). En segundo
lugar, y tal como ya señalaron hace tiempo Selltiz y sus colaboradores,
las técnicas de la encuesta pueden adaptarse para obtener información
generalizable de casi cualquier grupo de población. Excepto para los ca-
sos de niños pequeños y de personas con incapacidades mentales o físi-
cas, las técnicas de encuesta tienen una amplia aplicabilidad entre los
grupos humanos. Hay un tercer aspecto que hace recomendable el uso de
encuestas y es que se trata de una de las pocas técnicas que permiten re-
cuperar información sobre hechos pasados de los entrevistados, como
por ejemplo su conducta en épocas anteriores, experiencias de niñez,
conducta sexual… Esto es particularmente interesante para comporta-
mientos que tienen lugar en el ámbito privado de la vida personal, o que
ocurren de forma irregular y esporádica (Kahn y Canell, 1957). De todo
esto se deducen los dos rasgos más sobresalientes de la técnica y análisis
de encuestas, como son su capacidad para estructurar los datos y su ele-
vada eficiencia para obtener información. En otras palabras, y en lo que
sería una cuarta razón que aconseja su uso, las encuestas bien estructura-
das poseen una gran capacidad para estandarizar los datos, lo que facili-
ta su posterior análisis estadístico, tanto univariable como multivariable
(Galtung, 1967). Esta capacidad de estandarizar la información de las
encuestas tiene un correlato económico muy interesante y es que permite
obtener grandes cantidades de datos a un precio relativamente bajo en
un corto período de tiempo.
Irónicamente, y tal como destaca con acierto H. W. Smith (1957), estas
dos últimas razones pueden convertirse en razones equívocas para el uso
de encuestas. Y es que el poder obtener grandes cantidades de información
en un breve plazo de tiempo y con un coste relativamente bajo no ofrece
ningún tipo de seguridad de que los datos así obtenidos tendrán valor teó-
rico para los objetivos de la investigación. Al basarse en la teoría de mues-
tras, los datos de encuesta pueden acabar considerando a la sociedad
como si de un simple agregado de individuos se tratase, lo que dificulta,
cuando no impide, el estudio de los fenómenos ricos, variados y siempre
complejos de la interacción social. En este caso, hay que recurrir para su
estudio a técnicas más flexibles que las entrevistas estandarizadas, como
pueden ser la observación participante o el grupo de discusión.

340
11. La encuesta

5. Organización de la investigación social a través


de encuesta
De una forma esquemática, se pueden distinguir cinco grandes bloques
de tareas en la realización de una encuesta. En primer lugar, hay que for-
mular con precisión los objetivos de la investigación, establecer hipótesis,
delimitar variables, operacionalizar conceptos y diseñar la muestra. Nun-
ca se insistirá suficientemente en la conveniencia de formular con clari-
dad y precisión el problema que se quiere investigar, pues de ello depen-
derá en buena medida la manera en que se estructure la investigación. En
esta fase inicial de la investigación hay que recordar en todo momento la
recomendación que realizara hace ya tiempo Albert Einstein para hacer
investigación científica de calidad, y es que la formulación de un proble-
ma es a menudo más importante que su solución. Se trata, qué duda
cabe, de un pensamiento que es válido tanto en el campo de las ciencias
físicas y naturales como en el de las ciencias sociales y humanas.
En segundo lugar, se formulan las preguntas y en su caso se elaborará
el cuestionario que se ha de aplicar a los componentes de la muestra. Es
en este momento cuando hay que optar por el tipo de encuesta que se va
a realizar —personal, telefónica, postal, online…— ya que esta decisión
condiciona no sólo el diseño y organización del trabajo de campo sino
también la confección del cuestionario. A continuación, y en tercer lugar,
se preparará el trabajo de campo y se procederá a la realización de las
entrevistas. Se trata de la etapa más delicada de la investigación y la más
costosa, pues sobre todo en encuestas que tienen un ámbito territorial
extenso y se han de realizar varios cientos de entrevistas, hay que recurrir
a un equipo de entrevistadores bastante amplio que han de realizar mu-
chos desplazamientos para localizar a los sujetos que se han de entrevis-
tar, lo que encarece notablemente la investigación.
En una cuarta etapa se procede al procesamiento de la información
obtenida en la fase anterior, lo que comporta, en el caso de las encuestas
por medio de cuestionarios estandarizados, una serie de operaciones bas-
tante complejas que finalizan en la preparación de las tablas de resulta-
dos. En la última etapa, se procede al análisis de tales resultados y se pre-
para el informe final.
Nos hemos referido a las encuestas a través de cuestionario como la
forma de investigación social empírica que, por lo general, requiere una
organización del trabajo en equipo más compleja y costosa. Para cono-
cer con mayor detalle el modo cómo se organiza la realización de una en-
cuesta mediante cuestionario, vamos a exponer las fases que sigue el

341
La obtención de datos

Centro de Investigaciones Sociológicas (CIS) —un organismo autónomo


que depende del Ministerio de la Presidencia del Gobierno de España y
cuyo fin es el estudio científico de la sociedad española— cuando realiza
este tipo de investigaciones.
La primera etapa en la realización de una encuesta corresponde a su di-
seño y dentro de la misma las principales tareas a desarrollar se refieren al
establecimiento de los objetivos, la definición del universo de la investiga-
ción (población de interés), el diseño de la muestra y la redacción del cues-
tionario. La segunda etapa es la de recogida de datos o trabajo de campo,
consistente en la aplicación del cuestionario a las personas que componen
la muestra a partir de las secciones censales incluidas en la misma y me-
diante el seguimiento de rutas aleatorias. La tercera etapa consiste en el
procesamiento de los datos obtenidos a partir de las respuestas de los en-
trevistados. Este proceso consiste en la grabación de la información en una
matriz de datos que permita su posterior análisis estadístico. La cuarta y
última fase en que el Centro de Investigaciones Sociológicas organiza su
trabajo de realización de una encuesta se refiere a la publicación de los re-
sultados, etapa que da lugar a diversos documentos que contienen los da-
tos ya tabulados de la encuesta, así como los ficheros o matrices de datos
en los que se encuentran las respuestas de la muestra entrevistada11.
En lo que queda de capítulo se va a tratar en extensión la preparación
de la entrevista, el diseño del cuestionario, el cierre de preguntas y la co-
dificación de los cuestionarios, dejando para otros capítulos de este libro
el estudio del diseño de la investigación, de la obtención de la muestra y
el análisis de los resultados.

6.  El cuestionario

El cuestionario es el instrumento más utilizado para la obtención de da-


tos en los estudios de sociología empírica. Pese a su rigidez, pues se trata
de un listado de preguntas que se han de formular de idéntica manera a
todos los entrevistados, presenta otras ventajas que superan claramente a
sus inconvenientes. La función del cuestionario en el proceso de una in-
vestigación social es doble. Por un lado, pretende colocar a todos los en-
trevistados en la misma situación psicológica y, por otro, mediante un
sistema de notaciones simples, facilita el examen y asegura la comparabi-
lidad de las respuestas (Stoetzel y Girard, 1973: 176). Todas las estrate-
gias y técnicas para reconstruir y administrar buenos cuestionarios se di-
rigen a satisfacer ambas funciones.

342
11. La encuesta

6.1  El lugar del cuestionario en la encuesta

El cuestionario ocupa un lugar preciso en el proceso global de la investi-


gación. Se debe construir después de haber formulado los temas de la in-
vestigación, de haber explicitado sus objetivos y de haber redactado las
preguntas que se vayan a realizar. Si se tienen claros los objetivos de la
investigación, será más fácil decidir y escoger las preguntas que conviene
realizar.
Una vez delimitado el objetivo general de la investigación hay que de-
sarrollar los objetivos específicos de tal modo que se puedan definir los
tipos de información que se necesitan obtener. Todos los autores que han
escrito sobre el tema de las encuestas, desde perspectivas basadas en una
amplia experiencia sobre esta técnica de investigación12, coinciden en
destacar que resulta contraproducente precipitarse en la confección del
cuestionario, sin haber resuelto previamente los problemas que plantean
las fases anteriores. Aunque cada vez son más numerosos los estudios sis-
temáticos publicados sobre la elaboración del cuestionario, cabe afirmar
todavía en los tiempos actuales que el arte de construir un buen cuestio-
nario descansa fundamentalmente en la buena experiencia, que se va ad-
quiriendo sobre todo con la cosecha de fracasos.

6.2  La formulación de preguntas

No resulta exagerado afirmar que las preguntas son un aspecto central y


básico en la investigación por encuesta. Y es que, como bien afirma Ma-
ría José Azofra, «de la elección y buen enunciado de cada pregunta de-
pende la fiabilidad y éxito de la recogida de datos y por tanto de la inves-
tigación» (Azofra, 1999: 9).
Las preguntas de una entrevista tienen la doble función de trasladar
los objetivos de la entrevista a un lenguaje familiar para los entrevista-
dos, y de ayudar al entrevistador a que logre un alto nivel de motivación
en el entrevistado para que se avenga a realizar la entrevista.

a)  El lenguaje de la entrevista. El tipo de lenguaje que se ha de utilizar


para la entrevista debe consistir básicamente en términos que sean com-
partidos por la experiencia común del entrevistador y el entrevistado. A
fin de incrementar el área del lenguaje común se puede ampliar el voca-
bulario del entrevistador instruyéndole previamente a la realización de la
entrevista en el lenguaje de la población que se va a estudiar, o también

343
La obtención de datos

se puede lograr dicho objetivo ampliando el vocabulario del entrevistado.


En este último caso, es práctica corriente en la formulación de algunas
preguntas incluir una definición clara de los términos que se sospecha no
pueda entender toda la población que se va a encuestar. Así se hizo, por
ejemplo, en una encuesta realizada en septiembre de 2013 (E-3000) por el
CIS, cuyo cuestionario contenía una definición de una de las palabras in-
cluidas en la pregunta —el término transexual— para que fuera explica-
da al entrevistado en el caso de que éste no tuviera claro su significado.
De ese modo se atenúa la posibilidad de que una parte de la población
no entienda su significado.

P.2 A Ud., personalmente, ¿le incomodaría mucho, bastante, algo, poco o nada tener
como vecinos a…?
Mucho Bastante Algo Poco Nada NS NC
- Jóvenes menores de 30 años……….…… 1 2 3 4 5 8 9 (29)
- Personas inmigrantes…………………… 1 2 3 4 5 8 9 (30)
- Personas homosexuales (gays y lesbianas) 1 2 3 4 5 8 9 (31)
- Personas transexuales*…………………. 1 2 3 4 5 8 9 (32)
- Personas de etnia gitana……………….. 1 2 3 4 5 8 9 (33)
- Personas de religión musulmana………. 1 2 3 4 5 8 9 (34)
- Personas mayores….……………………. 1 2 3 4 5 8 9 (35)
- Personas con una discapacidad física….. 1 2 3 4 5 8 9 (36)
- Personas con una discapacidad psíquica.. 1 2 3 4 5 8 9 (37)
- Personas con VIG/SIDA………………… 1 2 3 4 5 8 9 (38)
* Entrevistador/a: solo si la persona entrevistada lo pregunta, explicar que una persona
transexual es aquella que desea vivir y ser aceptada como miembro del género opuesto.
Ejemplo: Una mujer transexual es una persona que nació hombre (con genitales masculi-
nos) y desea vivir y ser aceptada como una mujer y suele tener apariencia física de mujer.

El lenguaje, como símbolo social, suministra claves al entrevistador y


al entrevistado sobre el tipo de persona que el otro es. Con el objeto de
mejorar la comunicación, el entrevistador no debe de esforzarse tanto en
hablar el mismo lenguaje que el entrevistado como en lograr una actitud
de simpatía, y que el entrevistado sienta que el entrevistador lo entiende.
En este sentido, es muy conveniente que el entrevistador sea capaz de
mostrar al entrevistado que puede entender sus sentimientos y experien-
cias. Con frecuencia, la población que se va a encuestar puede tener nive-
les heterogéneos de educación, por lo que el lenguaje que utilicen unos
individuos y otros puede diferir grandemente, así como sus grados res-
pectivos de comprensión. Si se utiliza un lenguaje «culto» se corre el peli-
gro de que las personas de menor nivel de educación no comprendan al-
gunos de los términos incluidos en las preguntas, mientras que si se

344
11. La encuesta

utiliza un lenguaje excesivamente «vulgar» pueden sentirse desairadas las


personas de mayor nivel educativo. En estos casos conviene lograr un
compromiso en el tipo de lenguaje utilizado, y que no es otro que el de
utilizar un lenguaje que permita comunicar con los entrevistados que tie-
nen los niveles más bajos de educación, al mismo tiempo que se evita la
aparición de simplificaciones exageradas.

b)  El marco de referencia, la relevancia de las preguntas y los niveles de infor-


mación. Otros aspectos a tener en cuenta a la hora de formular las pregun-
tas tienen que ver con el marco de referencia de los entrevistados, la rele-
vancia que para ellos puedan tener las preguntas formuladas y los niveles
de información que cabe suponer tiene la población sobre los temas de la
encuesta. El lenguaje es siempre ambiguo en lo que se refiere a la proposi-
ción exacta de lo que indica, ya que cada individuo interpreta la comunica-
ción, hablada o escrita, desde su propio punto de vista y experiencia perso-
nal. El marco de referencia que un individuo aporta a la comunicación es
un factor psicológico importante en la determinación de lo que la comuni-
cación significa para él y, por lo tanto, en cómo responderá a la pregunta.
Para tener en cuenta el marco de referencia del entrevistado se pueden
seguir diferentes procedimientos. Así, se puede sonsacar información
adicional del entrevistado para que explicite el marco desde el que se ori-
ginan sus respuestas, preguntándole, por ejemplo, por qué ha respondido
de la manera que lo ha hecho. También se pueden dar instrucciones al
entrevistado acerca del marco de referencia que el investigador considera
apropiado. Por ejemplo, en algunas de las pregunta incluidas en la en-
cuesta de hábitos y prácticas culturales del Ministerio de Cultura se fija
un marco de referencia temporal para registrar las pautas culturales. En
la primera de ellas, al preguntar por el tiempo de uso del ordenador que-
daba establecido en una semana, mientras en la segunda, al referirse a la
existencia o no de un comportamiento de compra el marco se ampliaba
hasta abarcar un año:

P. XII. 3. ¿Cuánto tiempo utilizó su ordenador la semana pasada en casa o fuera de


casa?
Horas Minutos
- En su hogar…………………………….….…. — —
- Fuera de su hogar……..……………………… — —

P.XII. 4. ¿Ha comprado un ordenador en el último año? SÍ NO


- Por trabajo o estudios………………………… 1 2
- Por otros motivos……………………………… 1 2

345
La obtención de datos

Un tercer procedimiento consiste en seleccionar un marco de referen-


cia común a toda la población encuestada (si somos capaces de hacerlo).
Por ejemplo, en una encuesta sobre percepción de la violencia de género
realizada por el CIS en junio de 2013 (E-2992), al preguntar sobre la
existencia de malos tratos en el «entorno más cercano», éste quedaba de-
limitado por una serie de relaciones sociales y de parentesco, haciendo
evidente a qué personas se estaba haciendo referencia el hablar del «en-
torno más cercano»:

P. 13. ¿Tiene Ud. conocimiento de que en su entorno más cercano haya o haya


habido alguna mujer víctima de malos tratos por parte de su marido/pareja o
ex-marido/ex-pareja (su madre, su/s hija/s, su/s hermana/s, su/s amiga/s, su/s
vecina/s, su/s compañera/s de trabajo, etc.)? 

- Sí………………………………….… 1
- No…………………………….….… 2 (95)
- NS……..…………………………… 3
- NC……..…………………………… 4

Otro factor que contribuye a establecer un clima favorable en la entrevista


es la percepción por parte de los entrevistados de la relevancia de las pre-
guntas. Precisamente una de las mayores fuerzas motivacionales se origina
en la percepción del entrevistado de que comunicando, esto es, respondien-
do a la entrevista, favorecerá el logro de algún objetivo personal valioso.
Por ejemplo, la persona entrevistada en una encuesta de opinión pública
sobre temas de actualidad puede pensar que al dar a conocer sus opiniones
puede influir de alguna manera en la política gubernamental en la direc-
ción que le interesa. El aspecto negativo de este panorama motivacional es
que si una pregunta concreta se percibe como irrelevante puede disminuir
la motivación para comunicar al aparecer una actitud de escepticismo o
desconfianza. Para evitar esto último es importante que las preguntas en la
entrevista las perciban los entrevistados congruentes con el tema en discu-
sión, y relevantes para sus propios objetivos.
Otro aspecto a considerar es que las preguntas tienen que redactarse
de acuerdo con el nivel de información que se supone posee la población.
Es importante evitar en una entrevista que se produzcan situaciones en
las que el entrevistado no sabe cómo responder a la pregunta, ya que
puede producirse una actitud de resentimiento y confusión por parte del
entrevistado, lo que se puede traducir probablemente en una disminución
de su motivación a seguir comunicando. Tales situaciones también suelen
propiciar que la persona entrevistada se sienta obliga a responder algo
sobre lo que no sabe en realidad nada.

346
11. La encuesta

A los problemas que plantean los niveles de información de la pobla-


ción se les pueden dar distintas soluciones. Cuando el problema es de
tipo lingüístico, lo que se hace es buscar nuevas palabras o explicar bien
claramente el sentido que desea el investigador que se les dé. La pregunta
que reproducimos a continuación —procedente también de la encuesta
E-3000 del CIS— incluye, en la propia formulación de su enunciado, una
aclaración general del significado del término «discriminación» para ga-
rantizar que todos los entrevistados comparten el mismo significado. De
ese modo se evita la posibilidad de que este término sea interpretado de
manera desigual por la población:

P.9. Se dice de una persona (o grupo de personas) que es discriminada cuando es trata-
da de forma más desfavorable que otra debido a sus características personales. En su
opinión, en España en general ¿es muy frecuente, bastante frecuente, poco frecuente
o nada frecuente, la discriminación o el trato desfavorable por motivo de…..?

Muy Bastante Poco Nada


frecuente frecuente frecuente frecuente NS NC
- Sexo………………………………….… 1 2 3 4 8 9 (253)
- Origen étnico o racial……………….…. 1 2 3 4 8 9 (254)
- Nacionalidad…………………………… 1 2 3 4 8 9 (255)
- Orientación sexual………………….….. 1 2 3 4 8 9 (256)
- Identidad sexual (ser transexual)……… 1 2 3 4 8 9 (257)
- Edad………………………………….… 1 2 3 4 8 9 (258)
- Religión o creencias religiosas………… 1 2 3 4 8 9 (259)
- Aspecto físico…………………….……. 1 2 3 4 8 9 (260)
- Tener pocos recursos económicos…….. 1 2 3 4 8 9 (261)
- Tener una discapacidad física…….…… 1 2 3 4 8 9 (262)
- Tener una discapacidad psíquica……… 1 2 3 4 8 9 (263)
- Tener una enfermedad infecciosa……... 1 2 3 4 8 9 (264)
- Tener determinadas ideas políticas……. 1 2 3 4 8 9 (265)
- Otro motivo……….……………………. 1 2 3 4 8 9 (266)

Otras veces conviene «ubicar» a los entrevistados en el contexto en


el que se plantea la pregunta dado que no todos han vivido las mismas
experiencias o atravesado ciertas situaciones. En la ya citada encuesta
del CIS sobre percepción de la violencia de género (E-2992) se pregun-
taba a la población adolescente y joven sobre su opinión acerca del
modo en que actuarían ante una situación de agresión o malos tratos a
una mujer por parte de un hombre. A continuación se le leían al entre-
vistado las diferentes reacciones posibles. De este modo se situaba al

347
La obtención de datos

entrevistado en un marco situacional desde el que podía serle más fácil


ofrecer su opinión.

P. 14. En el caso de presenciar o conocer alguna situación de agresión o malos tratos


a una mujer por parte de un hombre, ¿qué cree que haría Ud.?
- Nada……………………………………………………..…….… 1
- Se enfrentaría al agresor………….….………………………….. 2
- Llamaría a la policía.…………………………………………… 3 (103)
- Llamaría la atención de otras personas que pudieran ayudar… 4
- NS……..…………………………………………………………. 8
- NC……..…………………………………………………………. 9

c)  La idea única y las preguntas condicionantes. Es muy importante tener


presente que cuando se prepara la redacción de preguntas que éstas se li-
miten a una sola idea o referencia. Por ejemplo, en la pregunta: «¿Está
usted a favor o en contra de que se limite el número de futbolistas extran-
jeros y se promocione a los jóvenes de las cantera de los clubes de fút-
bol?», una respuesta positiva o negativa imposibilita conocer si el entre-
vistado es favorable o se opone a la limitación del número de futbolistas
extranjeros, a la promoción de los jóvenes de la cantera del club o ambas
cosas a la vez. Por eso, si se quiere respetar el principio de la idea única
en cada pregunta, convendría formular dos preguntas en el caso anterior,
una sobre la presencia de futbolistas extranjeros y otra sobre la promo-
ción de los jóvenes de la cantera del club. De este modo, se podría cono-
cer con mayor precisión lo que piensa la población sobre tales temas.
De igual modo que hay que evitar la formulación de respuestas que con-
tengan dos o más ideas diferentes, no se han de formular preguntas que con-
dicionen el sentido de la respuesta que debe dar el entrevistado. Por ejemplo,
si se pregunta: «¿Diría usted que está a favor de un sistema de control del
gasto público?», se propicia la respuesta afirmativa, ya que al decir «sí» el
entrevistado se limita a mostrar su acuerdo con el sentido de la pregunta,
mientras que para decir «no» tiene que contradecir al entrevistador.
Otro tipo de preguntas condicionantes que hay que evitar son las que
utilizan palabras que han adquirido una sobrecarga emocional tan fuerte
que es virtualmente imposible evitar una reacción estereotipada ante
ellas. Por ejemplo, si se pregunta: «¿Es usted demócrata?», «¿Es usted fe-
liz en su matrimonio?», hay que hacer un notable esfuerzo para respon-
der negativamente, ya que poca gente está dispuesta a reconocer pública-
mente en nuestra cultura que no es demócrata o que no es feliz en su
matrimonio. Desde el punto de vista del interés científico hay que evitar
siempre, y en la medida de lo posible, tal tipo de preguntas.

348
11. La encuesta

d)  Información sobre hechos y aspectos subjetivos. En las preguntas que


se incluyen en cualquier encuesta hay que distinguir entre preguntas refe-
ridas a hechos y preguntas que abordan aspectos subjetivos. Las preguntas
referidas a hechos se realizan para obtener información sobre datos com-
probables referidos al propio sujeto entrevistado o a personas, grupos o
instituciones que el sujeto pueda conocer. Por ejemplo, nivel de renta,
frecuencia de consumo de un determinado producto, partido votado en
las últimas elecciones, edad, nivel de estudios de los padres, pertenencia a
una asociación…. En cambio, las preguntas sobre aspectos subjetivos
abarcan todo el amplio espectro de las opiniones, actitudes, intenciones,
valores, juicios, sentimientos, motivos, aspiraciones y expectativas que,
aunque no son indirectamente comprobables como pueden ser la edad o
el nivel de renta, no por ello son menos reales y determinantes del com-
portamiento social.
Aunque parezca lo contrario, lo cierto es que no siempre es fácil separar
radicalmente ambos tipos de preguntas, ya que pueden existir declaracio-
nes sobre comportamientos futuros, por ejemplo, la intención de voto en
unas elecciones, que en realidad pueden expresar intenciones o deseos que
pueden o no cumplirse, esto es, se podrá votar el día de las elecciones al
partido que se mencionó en la encuesta, se podrá votar a otro partido por
haber cambiado de opinión en el tiempo transcurrido, o simplemente pue-
de que ni tan siquiera se produzca finalmente el comportamiento de voto.
En la falta de adecuación entre lo que se pueda expresar en una encuesta y
el comportamiento real del sujeto se ha querido ver más de una vez una
fuerte limitación a la validez de los resultados de la encuesta. Sin embargo,
no es ésta una forma correcta de plantear el problema, ya que lo que en
realidad hay que preguntarse es por los factores que afectan a la conducta
humana y por las condiciones que inciden en la correspondencia entre ac-
titudes y comportamiento (García Ferrando, 2014: 54-55).
También hay autores que consideran un tercer tipo de preguntas que
hacen referencia a conocimientos sobre temas concretos o recuerdos de
acontecimientos pasados, aunque la decisión de incluir este tipo de pre-
guntas como factuales, subjetivas o en una categoría aparte no afecta
grandemente al contenido de la entrevista.

6.3  Preguntas abiertas y cerradas

Una de las principales decisiones que se ha de tomar en la formulación


de preguntas de un cuestionario está relacionada con la forma de la res-

349
La obtención de datos

puesta: esto es, si se permite al entrevistado que responda con sus pro-
pias palabras o si, por el contrario, debe seleccionar de una serie preesta-
blecida de categorías la respuesta que más se aproxima a su propia
opinión. Si ocurre lo primero, se trata de preguntas abiertas, y si ocurre
lo segundo, de preguntas cerradas.
Se ha discutido mucho sobre el tipo de pregunta que resulta más ade-
cuada para obtener buenos resultados, aunque conviene decir desde un
principio que la tendencia en los cuestionarios estandarizados es a utili-
zar preferentemente preguntas cerradas y dejar las preguntas abiertas
para indagar sobre aspectos muy puntuales. Desde el punto de vista de la
economía del esfuerzo, es más ventajoso operar con preguntas cerradas,
ya que resulta más sencillo el examen comparativo de las respuestas pro-
porcionadas por los entrevistados. Sin embargo, no siempre es posible
construir el cuestionario sólo con preguntas cerradas, y en ocasiones es
necesario introducir preguntas abiertas.
La elección de preguntas abiertas o cerradas depende de un cierto nú-
mero de factores situacionales que Lazarsfeld (1935) delimitó del si-
guiente modo: 1) los objetivos de la entrevista; 2) el grado de conoci-
miento o el nivel de información que la población posee sobre el tema de
la pregunta; 3) el grado en que el tema ha sido pensado previamente por
los entrevistados; 4) el grado en que la población está motivada a comu-
nicar sobre el tema, y 5) el grado en que la situación de la población que
se va a encuestar en relación con los cuatro aspectos anteriores es conoci-
da previamente por el entrevistador.
Por lo que se refiere a los objetivos de la entrevista, el principio básico
que formula Lazarsfeld es el de que la pregunta cerrada suele ser más útil
cuando el objetivo de la entrevista es «clasificar» a los entrevistados, esto
es, cuando se pretende que expresen su acuerdo o desacuerdo con un de-
terminado punto de vista. Por ejemplo, en relación al tema de las cámaras
de seguridad que cada vez se encuentran más presentes en numerosos luga-
res públicos, el Barómetro de septiembre de 2009 del CIS (E-2812) incluía
una pregunta en la que se solicitaba a las personas entrevistadas que seña-
laran si estaban a favor o en contra de su colocación. Así, con una pregun-
ta cerrada de respuesta alternativa, esto es, estar a favor o estar en contra,
es suficiente para poder clasificar a la población en torno a ese tema.
Pero si el objetivo de la encuesta va más allá de la mera clasificación
de la población e incluye el deseo de conocer algo sobre el marco de refe-
rencia de los entrevistados o del proceso por el que han llegado a susten-
tar sus puntos de vista particulares, lo más apropiado es formular una
pregunta abierta. Así, si, por ejemplo, se desean conocer los principales

350
11. La encuesta

problemas que la población considera que existen en el país, está justifi-


cado preguntar abiertamente. Al considerar el nivel de información de la
población se puede decir de manera general que la pregunta abierta su-
ministra una oportunidad para que el entrevistador compruebe el grado
de información o la ambigüedad de los entrevistados, mientras que la
pregunta cerrada no lo permite. Si se tiene la sospecha de que el tema a
discusión se encuentra fuera de la experiencia de una parte importante
de la población, es conveniente adoptar la pregunta abierta y evitar la
forma cerrada. Así, pues, la pregunta abierta resulta más apropiada en
las investigaciones dirigidas a poblaciones con niveles de información
muy diversos o desconocidos para el investigador.
Desde el punto de vista del grado de estructuración de las opiniones o
actitudes de la población, esto es, del grado en que las personas a entre-
vistar han iniciado o no el proceso cognitivo previamente a la realización
de la entrevista, la pregunta cerrada está justificada cuando tal proceso
ya se ha iniciado, mientras que la pregunta abierta es deseable cuando los
entrevistados no tienen formulada claramente una opinión. La utiliza-
ción de una pregunta cerrada en el caso de que el entrevistado no tenga
una actitud clara sobre el tema a debate o no haya adquirido todavía su-
ficiente información, entraña el riesgo de que la elección de respuesta sea
diferente de la conclusión que alcanzaría si se hubiese detenido a re-
flexionar y evaluar su propia experiencia. Así, en estudios de opinión so-
bre temas políticos, resulta aconsejable utilizar preguntas cerradas al tra-
tar temas de política nacional que se supone son bastante o muy
conocidos en general por la población; en cambio, si se trata de temas de
política nacional poco difundidos las preguntas abiertas resultan más re-
comendables.
Otro factor a tener en cuenta se refiere a la capacidad de motivación
de la pregunta. Anteriormente se discutió la importancia que tiene el
conseguir una motivación adecuada para que las personas a entrevistar
se avengan a comunicar sin reservas. Cuando un entrevistado no respon-
de, o evade el objetivo de la pregunta, la forma abierta permite que el en-
trevistador pueda tratar de motivar al entrevistado para que siga la en-
trevista, bien razonando la pregunta, o bien destacando la importancia
del propósito de la entrevista. La pregunta cerrada, por el contrario, re-
quiere un nivel menor de motivación para comunicar, ya que el entrevis-
tado ha de realizar menos esfuerzo para dar su respuesta.
En términos generales, el entrevistador que utiliza la pregunta cerrada
corre menos riesgos de enfrentarse con ausencias de respuestas o con el
«no sabe». Pero esta aparente ventaja de la pregunta cerrada tiene sus

351
La obtención de datos

riesgos, ya que en situaciones en las que la persona entrevistada desea


evitar una situación ambigua o azarosa, puede elegir la palabra o frase
sin traicionar su confusión o ansiedad. En tal caso, la elección de la res-
puesta la puede hacer más en función de tratar de evitar esta situación
que por su motivación a ofrecer una información válida. Así, pues, la
pregunta cerrada resulta más apropiada cuando no están presentes fac-
tores distorsionantes, o cuando la persona a entrevistar no vaya a perci-
bir fácilmente una respuesta alternativa como más aceptable para el en-
trevistador. Si no se cumplen tales condiciones, es más conveniente
utilizar la forma abierta y enfrentarse directamente con el problema de la
motivación del entrevistado.
De una forma sintética, y como resumen de lo anterior, se puede afir-
mar que la pregunta cerrada es conveniente cuando los objetivos del es-
tudio son relativamente sencillos, y el entrevistador tiene una seguridad
razonable de poder comunicar fácilmente con la población que se va a
estudiar. Para estudios más ambiciosos o en situaciones no tan bien defi-
nidas conviene alternar las preguntas cerradas con las preguntas abiertas.

6.4  Tipos de preguntas cerradas

Existen varios tipos de preguntas cerradas, las de respuesta alternativa


dicotómica, las multicotómicas y las preguntas de respuesta múltiple.
Las preguntas de respuesta dicotómica se usan preferentemente para
clasificar a la población en torno a comportamientos, actitudes u opi-
niones bien definidos y que admiten sólo alternativas a favor o en con-
tra, positivas o negativas. Por ejemplo, la pregunta «¿Cree Ud. que, en
general, los impuestos se cobran con justicia? Esto es, ¿que pagan más
quienes más tienen, o no lo cree así?» (E-2593: CIS, 2012), admite, en
principio, sólo la respuesta afirmativa o negativa, aunque siempre se
puede incluir una tercera respuesta alternativa para los que no saben
que responder. También la pregunta «Hablando en general, ¿los jueces
y las juezas son más bien conservadores/as o más bien progresistas?»
(E-2861: CIS, 2011), admite en principio sólo dos tipos de respuestas:
más bien conservadores/as o más bien progresistas, pero al igual que en
la pregunta sobre la justicia con que se cobran los impuestos, cabe pen-
sar en una tercera alternativa de respuesta más matizada que en este
caso podría ser «ni lo uno ni lo otro» así también como «no sabe». En
todo caso, las alternativas de respuesta deben ser mutuamente exclu-
yentes y complementarias.

352
11. La encuesta

En temas más complejos el número de alternativas de respuesta suele


ser superior a dos, en cuyo caso tenemos las preguntas multicotómicas.
En tales preguntas el entrevistado ha de seleccionar una de las respuestas
apuntadas, aunque en algunos casos puede elegir simultáneamente dos o
más respuestas. Por ejemplo, en la pregunta «¿Se interesa mucho, regular,
poco o nada por la política en general?», el entrevistado ha de elegir ne-
cesariamente una sola respuesta. En cambio, en la pregunta «De los pro-
blemas que a continuación le voy a enumerar: paro, crisis energética, des-
igualdades sociales, moralidad en las costumbres, seguridad social,
precios, relaciones de España con otros países, orden público y seguridad
ciudadana, terrorismo y autonomías, ¿cuál o cuáles de ellos le parecen
más graves?», el entrevistado puede elegir uno, dos o tres de los proble-
mas alternativos que se han presentado. En este último caso estamos
ante preguntas multicotómicas de respuesta múltiple.
Un tipo especial de secuencia de preguntas, cerradas y abiertas, es el
que George Gallup (1947) ha denominado diseño pentadimensional, que
se utiliza ampliamente en el estudio de opiniones y actitudes. Los cinco
componentes de este diseño —familiaridad con el tema, expresión de las
actitudes individuales, reacciones a propuestas específicas, razones por
las que se sostienen tales opiniones e intensidad de las opiniones— son
muy útiles para abarcar las diversas dimensiones de un tema complejo de
investigación. Las dimensiones primera, segunda y cuarta se suelen ana-
lizar por medio de preguntas abiertas, y la tercera y quinta mediante pre-
guntas cerradas. Por ejemplo, la siguiente secuencia de preguntas sobre
la ley del aborto se adapta al diseño pentadimensional:

1) ¿Qué significa en concreto para usted la «ley del aborto»?


2) ¿Qué habría que hacer con la actual ley del aborto?
3) Unas personas están de acuerdo con la actual ley del aborto,
mientras que otras personas la estiman inadecuada. ¿Está usted a
favor o en contra de que se cambie la ley del aborto?
4) ¿Por qué piensa usted así?
5) ¿Hasta qué punto es usted muy, bastante, o sólo un poco partida-
rio de dicha opinión?

Aunque no siempre son necesarias las cinco preguntas al explorar un


tema, con frecuencia los cinco componentes del diseño pentadimensional
son útiles para cubrir convenientemente las diferentes dimensiones de un
tema de investigación.

353
La obtención de datos

6.5  La organización del cuestionario

La secuencia que adquieren las preguntas al elaborar un cuestionario es


muy importante en el logro de una entrevista con éxito. Al organizar las
preguntas en un cuestionario conviene considerar tres aspectos: el logro
de una introducción apropiada, la transición fácil y razonable de un
tema a otro y la formulación de una adecuada conclusión a la entrevista.
Es conveniente que el cuestionario comience con una serie de pregun-
tas que no planteen problemas subsiguientes. A continuación, conviene
que se realice una aproximación gradual al problema central. De este
modo se introduce a la persona entrevistada no sólo en el problema a in-
vestigar, como también en el papel de sujeto que se enfrenta con un ins-
trumento de análisis. Después vienen las preguntas más complejas o con
mayor carga emocional, que conviene formular cuando la persona entre-
vistada se encuentra en una situación que corresponda a la naturaleza de
los estímulos. Finalmente, conviene dedicar la última parte del cuestiona-
rio a preguntas que representen estímulos más fáciles y que permitan
tanto al entrevistador como al entrevistado terminar la entrevista con
una sensación más relajada.
Suele ser conveniente dejar para el final del cuestionario algunas pre-
guntas referentes a datos clasificatorios del sujeto, tales como la edad, ni-
vel de estudios, clase social subjetiva, ingresos, etc., mientras que las pre-
guntas clasificatorias relacionadas con el tema principal de la entrevista
es conveniente que vayan al principio.
En cierto modo, una organización de las preguntas como la que aquí
se sugiere resulta obvia, ya que corresponde exactamente a las reglas im-
plícitas en la conversación cotidiana: en primer lugar, conviene aproxi-
marse al tema gradualmente, para, en segundo lugar, plantear el tema
principal abiertamente y, por último, después de haber discutido amplia-
mente el tema, buscar la distensión en una conversación breve sobre los
temas generales antes de finalizar la conversación.
Con frecuencia se habla de secuencia del embudo para referirse al or-
denamiento de preguntas desde lo más general hasta lo más específico.
Uno de los principales objetivos que se trata de lograr con la secuencia
del embudo es impedir que las primeras preguntas del cuestionario con-
dicionen o sesguen las respuestas de las preguntas que vienen a continua-
ción. Además, la secuencia del embudo facilita el mantenimiento de unas
buenas relaciones con el entrevistado que puedan propiciar el interés por
comunicar. Así, por ejemplo, en un cuestionario cuyo objetivo principal
sea conocer la intención de voto del entrevistado se puede comenzar con

354
11. La encuesta

preguntas sobre política en general, para pasar a preguntas sobre simpa-


tías hacia líderes y partidos políticos que introduzcan las preguntas
principales sobre intención real de voto, para volver otra vez a temas de
política general y terminar con las preguntas de clasificación general.
Otras veces puede resultar conveniente invertir la secuencia y comen-
zar con las preguntas específicas, para concluir con las preguntas más ge-
nerales. En tal caso se tiene la secuencia del embudo invertido que, aun-
que elimina las ventajas de la secuencia anterior, ofrece en cambio otras
que la hacen útil en algunas situaciones. Así, la secuencia del embudo in-
vertido facilita la reflexión sobre las propias actitudes que mantiene la
persona entrevistada en una serie de subáreas relacionadas con el objeti-
vo principal. Por eso, la secuencia del embudo invertido puede resultar
aconsejable cuando el investigador quiere estar seguro de que el entrevis-
tado ha considerado ciertos aspectos al ofrecer su evaluación. En un
cuestionario sobre actitudes y opiniones en torno al tema del aborto, por
ejemplo, se puede comenzar directamente preguntando la opinión favo-
rable o desfavorable sobre la regulación del aborto, para pasar a conti-
nuación a preguntas relacionadas con la vida familiar y valores básicos,
que permitan ulteriormente ofrecer al investigador elementos de análisis
sobre el marco actitudinal y valorativo desde el que la población mani-
fiesta su apoyo o su oposición a la regulación del aborto.
Además de los problemas de la secuencia de las preguntas relaciona-
das con un tema en particular, y del problema de las fases generales del
cuestionario, se encuentra el problema de cómo disponer a lo largo del
cuestionario los diversos temas que se quieren tratar en la entrevista. El
principio general, en cierta medida implícito en lo que se ha dicho ante-
riormente, es que los temas y las preguntas conviene que se distribuyan
de tal manera que ofrezcan el mayor sentido a la población que se va a
encuestar. Esto es, la secuencia de las ideas en el cuestionario conviene
que siga la lógica del entrevistado. Por esta razón, las preguntas que se
encuentran fuertemente asociadas unas con otras en términos de los ob-
jetivos del estudio deben encontrarse ampliamente separadas a lo largo
del cuestionario.
A pesar de los esfuerzos que se puedan realizar para lograr que el
cuestionario transcurra con suavidad, y que la secuencia de los temas
tenga sentido para el entrevistado, algunas veces resulta imposible evitar
un salto brusco de un tema a otro. En tales casos el entrevistador debe
ayudar al entrevistado a realizar el cambio. Lo más usual es informar al
entrevistado de que se ha completado la discusión de un tema y de que se
va a iniciar uno nuevo.

355
La obtención de datos

6.6  El pretest o prueba piloto del cuestionario

Por mucho cuidado que se haya puesto en el empleo de palabras adecua-


das en la formulación de preguntas, en el desarrollo de la secuencia apro-
piada de preguntas, y en el diseño del cuestionario, el investigador debe,
siempre que ello sea posible, probar el cuestionario antes de realizar las
entrevistas con el conjunto de personas que integran la muestra. Con ello
se llega a la fase de la prueba o pretest del cuestionario.
Para ello se selecciona un grupo reducido de personas, habitualmente
entre 30 y 50, en el que estén representados los diversos segmentos o sec-
tores sociales que componen la muestra, y se realizan las correspondien-
tes entrevistas con la versión inicial del cuestionario. Los resultados ob-
tenidos se analizan seguidamente para comprobar si encajan con los
objetivos propuestos. En este sentido, el pretest o prueba piloto del cues-
tionario es realmente una encuesta en miniatura de la encuesta general
que se pretende realizar, pero en lugar de buscar resultados concretos, lo
que se pretende en esta fase es contrastar hasta qué punto el cuestionario
funciona como se pretendía y las preguntas provocan el tipo de respues-
tas deseadas.
Normalmente, el pretest o prueba conducirá a la revisión de alguna
pregunta e incluso a la revisión de la secuencia de temas y preguntas.
Cuando se trata de temas especialmente difíciles y sobre los que no existe
mucha investigación previa, puede resultar conveniente realizar varias
pruebas del cuestionario antes de editar la versión definitiva.
Otro objetivo de esta fase de ensayo consiste en la determinación del
grado en que el cuestionario satisface las necesidades de los entrevista-
dos, y es realista con las demandas que ejerce sobre ellos. Por ello, con el
fin de saber hasta qué punto el cuestionario provoca una relación apro-
piada con los entrevistados, y de comprobar si las preguntas pueden for-
mularse sin explicaciones ulteriores, resulta muy conveniente, por no de-
cir necesario, realizar el pretest o prueba piloto del cuestionario para
evaluar las reacciones de la población que se pretende encuestar.

7.  El trabajo de campo

Una vez que se cuenta con la versión definitiva del cuestionario, se pro-
cede a la realización de las entrevistas con los sujetos seleccionados si-
guiendo las instrucciones de la muestra. Al llegar a esta fase del estudio a
través de la encuesta, el investigador ha de tomar la decisión de realizar

356
11. La encuesta

personalmente las entrevistas, o bien de delegar en un equipo de entrevis-


tadores las tareas de ejecución de las mismas. La fase de realización de
las entrevistas se suele denominar trabajo de campo, quizás por influen-
cia de las actividades que realizan los científicos naturales cuando estu-
dian a los animales y a las plantas in situ, esto es, en el campo. Dado que
los científicos sociales se han inspirado normalmente en los modelos de
trabajo de los científicos naturales, muchos términos desarrollados por
éstos han sido copiados por aquéllos para denominar procesos de traba-
jo equivalentes.

7.1  Coordinación y realización del trabajo de campo

Cuando el número de sujetos que componen la muestra no es muy eleva-


do, la decisión probablemente ni se plantea dado que la propia importan-
cia de la entrevista aconsejará al investigador que tome la iniciativa perso-
nal de su realización. Pero cuando la muestra la componen varios cientos
o varios miles de personas, la tarea de conducir personalmente todas las
entrevistas puede resultar excesiva. En tal caso, conviene contar con la
ayuda de un equipo de entrevistadores que efectúen las entrevistas.
Todos los investigadores que han realizado encuestas reconocen las
dificultades que comporta el desarrollo con éxito de esta forma de comu-
nicación social. Como dicen Mayntz et al. (1993: 149), «apenas hay una
fase del proceso de obtención de datos por encuesta que contenga tantos
problemas por resolver como el proceso mismo de la entrevista». Tales
dificultades se incrementan cuando no es el propio investigador que ha
planteado el estudio, formulado las preguntas y organizado el cuestiona-
rio, el que ha de llevar a cabo las entrevistas.
En los capítulos del presente libro dedicados al estudio de la entrevis-
ta abierta, el grupo de discusión y las historias de vida se estudian los
problemas principales de interacción que surgen en la situación social
que protagonizan entrevistador y entrevistado. Baste decir ahora que
cuando el investigador no realiza personalmente las entrevistas, ha de se-
leccionar cuidadosamente el equipo de entrevistadores. A veces, los pro-
blemas que plantea la utilización de terceras personas para conducir las
entrevistas son tan grandes que el investigador ha de renunciar al empleo
de entrevistadores y ha de conducir personalmente las entrevistas, todo
lo más con la ayuda de algunos colaboradores.
Esto fue lo que le ocurrió a Kinsey y a sus colaboradores en su ya clá-
sico estudio sobre sexualidad humana (Kinsey et al., 1948 y 1953). Las

357
La obtención de datos

primeras entrevistas sobre la vida sexual de los encuestados resultaron


tan problemáticas que Kinsey tuvo que renunciar al equipo de entrevista-
dores que había preparado con este objetivo, y pasó a realizar personal-
mente, con la ayuda de unos pocos colaboradores, las doce mil entrevis-
tas que necesitó llevar a cabo para satisfacer sus objetivos de estudiar
con amplitud y profundidad la sexualidad humana. La investigación se
inició en 1938 y los primeros resultados no se publicaron hasta 1948. Ne-
cesitó diez años prácticamente para realizar las entrevistas y analizar los
primeros resultados.
Pero habitualmente los investigadores no disponen de un plazo tan di-
latado de tiempo para llevar a cabo su trabajo de investigación, y han de
realizar el trabajo de campo en el plazo de tiempo más breve posible. En
los estudios de opinión pública que se basan normalmente en muestras
que van desde un millar hasta unos cuantos miles de entrevistas, resulta
inevitable contar con un equipo de entrevistadores más o menos profe-
sionalizados, pero que en todo caso conozca bien la forma de conducir
entrevistas. Casi resulta inevitable la introducción en una encuesta de
cierto grado de sesgo del entrevistador, por lo que no se puede hacer otra
cosa que tener este factor en cuenta al analizar los resultados. Por todo
ello, uno de los aspectos más complicados de la organización de los insti-
tutos de sociología aplicada que realizan estudios de opinión pública y
similar es la red de campo y el equipo de entrevistadores, ya que el éxito
de la investigación depende en buena medida de que el trabajo de campo
se realice con agilidad, prontitud y sobre todo con efectividad.

7.2  Supervisión y control de calidad del trabajo de campo

Precisamente, una de las razones principales de los fracasos de los prime-


ros sociólogos cuando trataron de realizar encuestas sociales habría que
buscarla en la inexistencia de redes de campo y de equipos de entrevista-
dores cualificados que pudieran haber realizado las numerosas entrevis-
tas previstas por los ambiciosos proyectos de investigación a los que nos
hemos referido anteriormente al estudiar los orígenes de la sociología
científica.
Cuando se habla de trabajo de campo y de equipos de entrevistadores,
la palabra clave es control. Control de que las entrevistas se conduzcan
atendiendo a las instrucciones que contienen los cuestionarios y que ha
dado el investigador; control de que se eligen las personas seleccionadas
originalmente por el diseño de la muestra; control de las relaciones socia-

358
11. La encuesta

les que establecen entrevistadores y entrevistados; control, en fin, de que


los cuestionarios sean devueltos con prontitud y debidamente cumpli-
mentados al investigador que los ha de analizar. Por tratarse de aspectos
que tienen que ver más con la organización del trabajo en el seno de una
empresa que con los problemas intrínsecos de la investigación social, de-
jamos aquí este tema que se encuentra mejor tratado en textos más espe-
cializados (por ejemplo, Noelle-Neumann, 1970), y que en todo caso se
aprende finalmente en la propia práctica de la investigación social empí-
rica.

7.3  Codificación y preparación de los datos

Para facilitar la operación de contar las respuestas dadas por la pobla-


ción encuestada, y apuntadas en los cuestionarios, hay que codificarlas.
Para ello se han de formar series de grupos y categorías que sean sufi-
cientes para que en ellas quepan todas las respuestas dadas a una pre-
gunta. La codificación consiste, pues, en el establecimiento de grupos
que permiten clasificar las respuestas. Tal como dice Elizabeth Noelle-
Neumann, «suena fácil pero es un proceso de ordenación difícil. Coloca-
mos una red, por decirlo así, sobre todo el material de respuestas y, me-
diante el tamaño y tipo de mallas, determinamos lo abundante que ha
sido la pesca de la investigación» (Noelle-Neumann, 1970: 233).
La codificación ha de adaptarse al sistema técnico por el que se valora
la encuesta. Cuando no se dispone de medios mecánicos o electrónicos
para codificar, la codificación se realiza a mano, y se tiene completa li-
bertad para asignar grupos y categorías. Resulta recomendable en los re-
cuentos a mano pasar las respuestas a hojas de codificación para realizar
con más facilidad las operaciones de clasificación y numeración. Pero re-
sulta más frecuente utilizar medios mecánicos, en la actualidad de natu-
raleza electrónica.
Los diversos sistemas electrónicos conocidos utilizan el mismo siste-
ma lógico de clasificación. Originariamente se partía del espacio de per-
foración que permite una tarjeta de 80 columnas, cada columna integra-
da por doce dígitos perforables, lo que ofrecía un total de 960
posibilidades de perforación por tarjeta. La pregunta cerrada típica se
precodifica en el cuestionario adaptándose a los dígitos de una columna,
de tal manera que a cada posible respuesta corresponda un dígito. Hay
casos de preguntas en que hacen falta los dígitos de dos columnas para
precodificarlas.

359
La obtención de datos

En el caso de las preguntas abiertas, el procedimiento que se sigue


para «cerrarlas» es el siguiente: se transcriben literalmente las respuestas
de un número suficiente de cuestionarios. A continuación se analiza el
contenido y se anotan las categorías, conceptos o términos que son co-
munes a varias respuestas. Cuando ya no aparecen más respuestas que
necesiten nuevas categorías, se cierra el proceso. No existen reglas fijas
para el «cierre» de preguntas abiertas, ya que la denominación de las ca-
tegorías, conceptos o términos depende del objeto de estudio y de los co-
nocimientos teóricos del investigador. Una vez codificadas todas las pre-
guntas de todos los cuestionarios, si se sigue el procedimiento mecánico,
se graba la información en cintas magnéticas —hasta hace poco se perfo-
raban fichas especiales, pero este procedimiento ya ha quedado anticua-
do—, que son las que se analizarán en el ordenador, normalmente apli-
cando un programa estadístico especial para datos de encuesta.

8.  Consideraciones finales

La encuesta no es sólo la técnica de investigación más utilizada por la so-


ciología empírica, sino que también es la más debatida. Tiene tantos de-
fensores como detractores, aunque hay que reconocer que muchos de es-
tos últimos acaban utilizándola en alguna ocasión u otra. Como toda
técnica de investigación, tiene sus puntos fuertes y sus puntos débiles y
ofrece mejores resultados cuando mejor se adaptan los objetivos de la in-
vestigación a las propias posibilidades analíticas de la encuesta, tal como
se ha visto en las páginas anteriores. Los resultados que se obtengan me-
diante unas encuestas serán tanto más válidos y más fiables cuanto más
rigor y cuidado se haya desplegado en la realización de cada una de las
fases que componen esta forma de investigación (García Ferrando,
1991).
A pesar de su popularidad y amplia utilización, diversos aspectos cen-
trales en la investigación por encuestas, tales como la dinámica entrevis-
tador-entrevistado, efectos de los cambios de palabras de las preguntas
en las respuestas, contexto de la entrevista, etc., han sido escasamente in-
vestigados, por lo menos no lo suficientemente como el amplio uso de las
encuestas merece. Por eso son muchos los autores que consideran que las
encuestas se utilizan en exceso, y que los sociólogos deberían diversificar
más sus técnicas de obtención y análisis de datos. Los diversos capítulos
de este libro ofrecen una buena muestra de esta variedad metodológica
que caracteriza, afortunadamente, a la sociología científica actual.

360
11. La encuesta

Notas
1  Sobre los orígenes de la sociología empírica, véase M. García Ferrando (2014
capítulos 2, 3 y 4).
2  La iniciativa de K. Marx de realizar una encuesta entre la clase trabajado-
ra para que fueran los propios obreros los que proporcionaran información fac-
tual sobre sus condiciones de vida y trabajo se materializó con su publicación en
la Revue Socialiste en 1880. A tales efectos se imprimieron 25.000 ejemplares de
la revista que incluía el cuestionario y se distribuyeron entre las sociedades de
trabajadores, a diversos grupos y círculos socialistas y democráticos, a todos los
periódicos franceses y a todos los que solicitaran una copia. La Revue Socialiste
del 5 de julio de 1880 habla de algunas respuestas recibidas que se habrían de
publicar cuando su número fuera mayor. Desgraciadamente, como señalan
Gunther Wallraff y Yaak Karsunke, «esto no ocurrió nunca, y dichas respuestas
deben darse hoy por perdidas» (Wallraff, Karsunke y Marx, 1973: 39).
3  Paralelamente, la revista Literary Digest había consultado a cerca de dos mi-
llones y medio de personas —utilizando las direcciones de abonados de telefonía y
propietarios de automóvil— y predijo la derrota de Roosevelt. El fracaso de la
predicción sirvió sobre todo para revalorizar la importancia de la teoría de mues-
tras y para hacer creíbles las predicciones basadas en las consultas realizadas a un
número relativamente pequeño de personas convenientemente seleccionadas.
4  Para obtener una visión de conjunto de la amplia obra de Lazarsfeld, véa-
se R. K. Merton, J. C. Coleman y P. H. Rossi (eds.) (1979): Qualitative and
Quantitative Social Research. Papers in Honor of Paul F. Lazarsfeld, Nueva
York, The Free Press.
5  Sin ánimo de ser exhaustivos, podría mencionarse la encuesta a estudian-
tes universitarios de José Luis Pinillos en 1955; la encuesta sobre la familia espa-
ñola de Enrique Gómez Arboleya y Salustiano del Campo en 1957; la encuesta
sobre la profesión médica en España que dirigieron José Mariano López Cepe-
ro, Amando de Miguel, Luis González Seara y José Castillo y la encuesta a em-
presarios de Juan Linz en 1959.
6  Esta cifra, que a algunos puede parecer elevada, apenas alcanzaba la mitad
de lo que se había gastado un año antes en Estados Unidos, donde el Departa-
mento del Censo había estimado una inversión de algo más de 168 millones de
euros, que equivalían a 70 céntimos de euro por habitante (López Pintor, 1982: 116).
7  El 11,1% corresponde a investigación de naturaleza principalmente cuali-
tativa, y el restante 4,8%, a desk research (Aneimo/Aedemo, 2014: 9).
8  Para un estudio detallado de las distribuciones muestrales y de las estima-
ciones puntuales y por intervalos de parámetros, se puede consultar M. García
Ferrando (1985): Socioestadística, Madrid, Alianza Editorial, especialmente los
capítulos 5 y 6.
9  En lo que sigue en el resto del capítulo vamos a ocuparnos de estudiar la
encuesta mediante entrevista personal, que es la forma de encuesta más utilizada.

361
La obtención de datos

Pero hay que tener en cuenta que existen otras formas de encuesta tales como la
encuesta por correo, la encuesta telefónica y la encuesta mediante cuestionario
autoadministrado, que se utilizan cada vez más y son tratadas en el capítulo 12,
«Tipos de Encuestas», sobre todo en la medida en que los costes económicos de
la encuesta mediante entrevista personal se van elevando, y que el propio cam-
bio social amplía y facilita la comunicación telefónica y por otros medios. Todas
las fases de investigación por medio de estos cuatro tipos de encuesta son idénti-
cos, a excepción de la manera de abordar a la persona encuestada y de realizar
la entrevista.
10  http://www.cis.es/cis/opencm/ES/1_encuestas/estudios/tematico.jsp.
11 Una información más amplia sobre las distintas fases en que el Centro de
Investigaciones Sociológicas organiza la realización de una encuesta en: http://
www.cis.es/cis/opencms/ES/1_ encuestas/ComoSeHacen/pasosencuesta.html.
12  La bibliografía sobre encuestas, entrevistas y cuestionarios es muy exten-
sa. Aparte de los autores ya citados en el presente capítulo, se puede señalar
otros autores y obras que han tenido particular incidencia en esta área de la in-
vestigación social: Lazarsfeld (1935); Payne (1951); Hyman (1962); Noelle-Neu-
mann (1970); MacFalane Samith (1972).

Bibliografía recomendada
Alvira, F. (2004): La encuesta: una perspectiva general metodológica, Madrid,
Centro de Investigaciones Sociológicas.
Cea D’Ancona, M. A. (2004): Métodos de encuesta. Teoría y práctica, errores y
mejora, Madrid, Editorial Síntesis.
Díaz de Rada, V. (2005): Manual de trabajo de campo en la encuesta, Madrid,
Centro de Investigaciones Sociológicas.
García Ferrando, M. (2014): Sobre el método, Madrid, Centro de Investigacio-
nes Sociológicas.
Mayntz, R., Holm, K., y Hubner, P. (1993): Introducción a los métodos de la so-
ciología empírica, Madrid, Alianza Editorial.
Nöelle-Neumann, E. (1970): Encuestas en la sociedad de masas. Introducción a
los métodos de la demoscopia, Madrid, Alianza Editorial.

362
12.  Tipos de encuestas

Vidal Díaz de Rada

1. Introducción

Resulta complicado realizar una clasificación de los tipos de encuesta, títu-


lo que da lugar a este capítulo, por la gran cantidad de definiciones y esque-
mas existentes. De hecho, el empleo de este instrumento por un gran núme-
ro de disciplinas genera una gran variedad de tipos, de modo que la
disciplina pudiera considerarse como un primer criterio clasificatorio. El
ámbito de actuación, la temática empleada por cada disciplina, le lleva a
Balcells (1994) a distinguir entre: a) encuestas político-sociales realizadas
por organismos de carácter público; b) encuestas comerciales a cargo de ga-
binetes de estudio de grandes empresas, y c) encuestas con fines específicos
de investigación social. Esta clasificación dista mucho de estar completa,
puesto que faltan las encuestas de salud, encuestas de satisfacción, encues-
tas de evaluación, etc. por citar algunos de los temas más habituales en el
momento de redactar estas líneas. Como acertadamente se ha señalado en
el cuarto apartado del capítulo anterior, es evidente que una clasificación
exhaustiva de todos los temas analizados con encuestas es una tarea prácti-
camente imposible, y como muestra basta con considerar la referencia al
Catálogo de encuestas del Centro de Investigaciones Sociológicas realizada
en el capítulo anterior. Ahora bien, la clasificación de los tipos de encuestas
no termina con la temática de la investigación, ni tan siquiera con la disci-

363
La obtención de datos

plina en la que se enmarca la encuesta. Las publicaciones especializadas


(entre otros, Visauta, 1989; García Ferrando, 2000) suelen diferenciar las
encuestas según los fines científicos, atendiendo a su contenido (encuestas re-
feridas a hechos, a opiniones, y a actitudes, motivaciones o sentimientos), al
modo/modalidad de administración del cuestionario (entrevista presencial, te-
lefónica y autoadministrada), y a la dimensión temporal de los fenómenos
analizados: si analizan uno o varios momentos temporales, encuestas trans-
versales y longitudinales respectivamente. Las encuestas longitudinales
vuelven a clasificarse según el número de mediciones efectuadas: encuesta
retrospectiva cuando se realiza una única medición (referida al momento
presente y pasado), y prospectiva cuando se hacen varias mediciones (nor-
malmente referidas al momento presente). La encuesta prospectiva, a su
vez, vuelve a clasificarse según la utilización de las mismas o distintas uni-
dades de observación. La medición repetida de las mismas unidades da lu-
gar a un estudio panel, mientras que la medición de unidades diferentes es
definida como investigación de tendencias. Es posible llevar a cabo otra
subdivisión en función de la amplitud de la población objeto de estudio:
cuando se estudia un grupo de la población, un grupo delimitado por haber
presenciado un determinado elemento o haber nacido entre unas fechas,
nos encontramos con estudios de cohorte.
No es el objetivo de este trabajo realizar una clasificación exhaustiva
de los tipos de encuestas, algo casi inabordable, sino más bien profundi-
zar en una de las categorías anteriormente señaladas, concretamente la
referida al modo/modalidad de administración del cuestionario. Se ha op-
tado por este aspecto por la enorme implicación que la elección de la
modalidad tiene en el diseño del cuestionario (capítulo anterior) y, en se-
gundo lugar, por ser uno de los temas más considerados en la literatura
especializada internacional actual, fundamentalmente por el gran desa-
rrollo experimentado por las encuestas autoadministradas electrónicas
(Couper, 2011; Tourangeau et al., 2013)

2. Tipología de encuestas atendiendo a la interacción


entrevistado-entrevistador

Los tipos de encuesta, considerando la modalidad de administración del


cuestionario, han sido clasificados tradicionalmente atendiendo a la pre-
sencia/no presencia física del entrevistador, y a la existencia de interac-
ción directa («cara a cara») entre el entrevistador y el entrevistado. Estos
criterios han dado lugar a tres modalidades clásicas de recogida de infor-

364
12. Tipos de encuestas

mación: encuesta presencial, telefónica y autoadministrada. En el mo-


mento actual esta clasificación se amplía por la aparición de nuevas tec-
nologías que permiten recoger una gran cantidad de información con
una mayor calidad.
Así, el término encuesta presencial no se refiere únicamente a un entre-
vistador con «lápiz y papel», un entrevistador con una carpeta donde
apoya el cuestionario para anotar las respuestas. En la actualidad este
tipo de encuesta comparte protagonismo con otra situación donde la en-
trevista se lleva a cabo utilizando un ordenador portátil —o de bolsillo,
tipo tablet o PDA— que secuencialmente presenta las preguntas del
cuestionario y donde se recogen las respuestas, conocido popularmente
como sistema CAPI. Una vez respondido el cuestionario, o al final de la
jornada, las respuestas se transmiten al instituto de investigación. Res-
pecto a la encuesta telefónica, en los últimos años han surgido encuestas
telefónicas automáticas donde el entrevistador es sustituido por un orde-
nador que realiza la llamada, aplica (lee) las preguntas del cuestionario,
y registra automáticamente las respuestas proporcionadas. El desarrollo
de la tecnología en la telefonía móvil ha generado, por una parte, nuevas
vías de acceso y, por otro, cambios en los protocolos tradicionales (Link
et al., 2014). La encuesta autoadministrada, por su parte, se está despo-
jando de sus tradicionales limitaciones (lentitud, mala cumplimentación
del cuestionario, desconocimiento de la persona que responde el cuestio-
nario) al utilizar nuevas tecnologías como el fax y las encuestas electróni-
cas administradas a través de la red (Couper, 2011).
Una estimación del uso de cada modalidad en España, realizada por
Häder et al. (2012) basándose en el Informe de la Industria de ESOMAR,
desveló que un 33% de las encuestas realizadas fueron presenciales, un
32% telefónicas, un 2% autoadministradas por correo postal, y un 14%
en línea (el 19% restante no especifica la modalidad, siendo consideradas
como «otras»). En Europa, esta misma fuente desvela una mayor utiliza-
ción de la encuesta en línea (24%), seguida de la telefónica (19%), la pre-
sencial (12%) y la autoadministrada a través del correo (6%).
En los siguientes apartados serán presentadas las características prin-
cipales de la encuesta presencial, telefónica y autoadministrada conside-
rando la mayor parte de publicaciones relevantes sobre el tema. Partien-
do de la premisa de que deben ser las ventajas y desventajas de cada
modalidad el criterio a considerar a la hora de decidir cuál es más ade-
cuada para la investigación que se desea llevar a cabo, la exposición de
éstas será dividida en tres partes que se exponen en forma de esquema en
el cuadro 1:

365
La obtención de datos

a) La primera está relacionada con la representatividad, la capacidad


que tiene cada modalidad para asegurar una igual probabilidad
de selección de todo el universo.
  Dentro de este aspecto se considera la información necesaria
del marco muestral, el error de muestreo (su magnitud), la cobertu-
ra de la población objeto de estudio y la no respuesta total.
b) En segundo lugar, se analiza la calidad de la información recogida
por cada modalidad.
c) Por último, otros aspectos relacionados con la administración
como son el coste, la rapidez, la necesidad de organización, pro-
ducción de errores durante la recogida y otros aspectos específi-
cos de cada modalidad.

Cuadro 1.  Aspectos considerados en la exposición de cada modalidad

Ventajas

* Representatividad (equiprobabilidad en la selección del universo). Considerando:


 marco muestral, error de muestreo, cobertura, no respuesta (total) y otros
(cuando proceda).
* Calidad información recogida: calidad en la respuesta al cuestionario.
* Administración: coste, rapidez, necesidad de organización, errores durante la re-
  cogida (de información) y otros (cuando proceda).

Desventajas

* Representatividad: marco muestral, error de muestreo, cobertura, no respuesta


  (total) y otros (cuando proceda).
* Calidad información recogida: calidad en la respuesta al cuestionario.
* Administración: coste, rapidez, necesidad de organización, errores durante la
  recogida (de información) y otros (cuando proceda).

fuente: Elaboración propia.

En la exposición de las ventajas y desventajas se considera una investi-


gación a población general, porque se trata de la situación más compleja
a la hora de llevar a cabo una investigación mediante encuesta. Un estu-
dio sobre los estudiantes de una universidad, el personal de una empresa,
los clientes de un centro comercial, etc. supone una menor complicación

366
12. Tipos de encuestas

al disponer de un listado de personas susceptible de considerarse como


marco muestral.

3. Entrevistador cercano: encuesta presencial

También conocida como encuesta «cara a cara» (face to face) o encuesta


personal. Aunque en la literatura especializada en nuestro idioma predo-
mina el término personal, consideramos que presencial define mejor las
peculiaridades de esta modalidad al estar referida a la realización de la
entrevista en presencia del entrevistador. Por este motivo, se hablará, a
partir de ahora, de encuesta presencial.
La encuesta presencial es la modalidad mediante la cual un entrevista-
dor administra un cuestionario estructurado (o parcialmente estructura-
do) a un entrevistado en un período de tiempo determinado y en presen-
cia (normalmente en el hogar) de éste. Se trata de una de las formas más
clásicas de recoger información, que ha pasado de una breve y simple in-
dagación en los años treinta del siglo xx a un complejo y flexible instru-
mento de investigación en la actualidad (Groves, 2012). Ha sido la mo-
dalidad más utilizada puesto que se ha considerado que sus ventajas la
hacen notablemente superior a otras modalidades, fundamentalmente
porque la presencia del entrevistador anima a la cooperación; lo que ex-
plica el predominio de esta modalidad de recogida de información du-
rante el siglo xx.

3.1  Ventajas de la encuesta presencial

Comenzando con las relacionadas con la representatividad, la utilización de


muestreos por áreas (mediante rutas aleatorias) genera que se precise de
poca información sobre el universo objeto de estudio (marco muestral), pro-
porcionando así una gran flexibilidad. Esta característica la hace muy apro-
piada para universos sobre los que no hay listados exhaustivos de sus com-
ponentes. Además, la facilidad de utilización de protocolos de selección
complejos —como los propuestos por Kish y Troldahl-Carter— permite un
conocimiento detallado de la composición del hogar, posibilitando también
realizar selecciones más precisas e, incluso, llevar a cabo ponderaciones de la
familia en función del número de miembros.
El resto de elementos considerados dentro de la representatividad alu-
den a que esta modalidad proporciona un error de muestreo preciso y co-

367
La obtención de datos

nocido, al tiempo que logra una gran cobertura, que varía según la longi-
tud e instrucciones de la ruta.
Uno de los aspectos más importantes de la encuesta presencial es su
alta tasa de respuesta, si bien está experimentando grandes descensos en
los últimos años (por lo que se tratará en el siguiente apartado). Una de
las razones que explica la elevada colaboración en la encuesta presencial
es que la interacción directa entrevistador-encuestado le permite al pri-
mero detectar «pistas» (referidas tanto al momento de la entrevista como
a las características del entrevistado) para adaptarse a la situación y así lo-
grar una mayor cooperación. Esta información será utilizada también
para planificar las siguientes visitas a la vivienda (por ejemplo, acudir por
la noche a barrios de trabajadores, conocer la presencia de niños en casa,
etc.), o para evaluar las características de los no entrevistados.
La presencia del entrevistador en la vivienda del seleccionado permite
también obtener datos secundarios sobre el entorno del entrevistado. La
utilización de este recurso precisa de una adecuada formación de los en-
trevistadores para que esta información no esté condicionada por la sub-
jetividad del encuestador.
No menos importantes son las funciones añadidas al entrevistador para
motivar al encuestado y explicar adecuadamente (legitimar) esta visita ines-
perada. Otro factor relacionado con la representatividad es la dificultad
de que el entrevistado interrumpa la entrevista una vez que ha comenza-
do a responderla; lo cual implica que es la modalidad más adecuada
para la realización de encuestas largas (Holbrook et al., 2003). Además,
la encuesta presencial se puede realizar a cualquier tipo de personas, inde-
pendientemente del nivel cultural u otras características personales.
En relación con la calidad de la información lograda por la encuesta
presencial, la literatura internacional sobre el tema destaca la reducción
del número de respuestas evasivas en la medida en que el encuestador
puede volver a insistir cuando considera que no se ha conseguido una
respuesta precisa; conocimiento de la identidad de la persona que res-
ponde el cuestionario; facilidad para limitar la influencia de otras perso-
nas en las respuestas; fácil utilización de preguntas filtro; permite el em-
pleo de preguntas complejas; y posibilidad de utilizar material de apoyo
para mostrar al entrevistado y así ayudar en la realización de la entrevis-
ta. Este material de apoyo puede ser desde tarjetas donde se presentan
las preguntas con muchas opciones de respuesta, hasta logotipos, diseños
de envases, etc. evaluables por el entrevistado.
A estas ventajas hay que añadir la alta calidad en la contestación del
cuestionario, siendo posible obtener muy pocas preguntas sin contestar.

368
12. Tipos de encuestas

Además, la encuesta presencial limita también la contaminación entre


preguntas, esto es, la influencia de unas preguntas en otras, contamina-
ción que se reduce notablemente en la encuesta presencial CAPI.
Por último, se cuenta con una persona que responde a las dudas origi-
nadas en la lectura del cuestionario, aunque es una ventaja relativa pues-
to que los entrevistados pueden dar un sesgo a cada pregunta, aumen-
tando así la influencia de cada entrevistador en la respuesta.
Expuestos los dos primeros grupos de ventajas, el tercero se refiere a
aspectos variados relacionados con la administración del cuestionario
(cuadro 1). La ventaja más importante está relacionada con la longitud
de la entrevista, permitiendo realizar encuestas más largas en la medida en
que el entrevistador percibe la fatiga del entrevistado y puede ayudarle a
mitigarla (Holbrook et al., 2003). Otro aspecto destacable se refiere a la
flexibilidad de la entrevista independientemente del tipo de preguntas em-
pleadas, aun cuando sean tremendamente complejas. Por último, la en-
cuesta presencial deja una mejor sensación en el entrevistado, cuando se
compara con la encuesta telefónica, debido a que no existe el «efecto pri-
sa» de esta última (Holbrook et al., 2003).
La utilización de ordenadores cada vez más pequeños y potentes ha
posibilitado sustituir el papel (del cuestionario) por un ordenador (en-
cuesta CAPI), lo que implica notables mejoras en la información recogi-
da al permitir una mayor concentración del encuestador en la situación
de entrevista y una comprobación automática de la información en el
momento que es recogida (en tiempo real). La eliminación del papel pro-
porciona más flexibilidad al cuestionario porque permite la realización
de filtros complejos, cambios en la formulación de las preguntas (al in-
corporar información de preguntas anteriores), rotación de las categorías
de respuesta, empleo de controles de consistencia complejos cuando se
realiza la entrevista, etc. y la generación de datos listos para ser analizados
una vez termina la entrevista.

3.2  Desventajas de la encuesta presencial

Las desventajas relacionadas con la representatividad precisan conside-


rar, en primer lugar, el empleo de muestreos por conglomerados en varias
etapas que presentan menor precisión. Un trabajo basado en la Encuesta
Social Europea cifra el efecto del diseño en 1,269, lo que implica que el ta-
maño muestral aumenta esa magnitud para conseguir el mismo nivel de

369
La obtención de datos

precisión que en el muestreo aleatorio simple (Cuxart y Riba, 2008). El


error muestral del aleatorio simple (2,26%) aumenta hasta el 2,40% al
utilizar un muestreo por conglomerados.
La cobertura es alta, pero desciende notablemente en poblaciones dise-
minadas y presenta problemas de representatividad por la dificultad-
imposibilidad de acceder a determinados estratos con barreras de acceso
(estratos muy altos) así como a los residentes en zonas peligrosas (estratos
muy bajos). Además, el sistema de rutas deja fuera a las personas que no
residen en viviendas familiares: cuarteles, población en instituciones (con-
ventos, hospitales, prisiones), así como los grupos infraestimados en los
censos. En cualquier caso, la Encuesta de Población Activa del año 2011
considera que los excluidos suponen un 0,6% de la población total espa-
ñola (EPA, 2012).
Respecto a la tasa de respuesta (total), aunque anteriormente se señaló
que es alta, está descendiendo notablemente en los últimos años. Así, por
ejemplo, en la Encuesta General de Población realizada por el NORC de
la Universidad de Chicago la respuesta ha descendido del 82,4% al
73,5% entre 1975 y 1988, y hasta el 70% en los años 2000 y 2002 (Curtin
et al., 2005). En esta línea, una revisión de encuestas realizadas en la últi-
ma década del siglo xx y la primera del xxi desvela una notable reduc-
ción en la tasa de respuesta, situándose alrededor del 60%, pero siempre
superior a la conseguida por la encuesta telefónica (Díaz de Rada, 2010).
En la tabla 1 se muestra la caracterización de la respuesta de una en-
cuesta presencial —basada en un marco muestral padronal (Cuxart y
Riba, 2003)— que realiza sucesivas visitas cuando no es posible llevar a
cabo la respuesta del cuestionario en el primer contacto con el hogar. La
tasa de respuesta —en las tres últimas ediciones— alcanza el 65%, y la
no respuesta se caracteriza principalmente por la no localización (no
contacto y no disponible) y el rechazo1. La tipología de no respuesta
cambia sustancialmente cuando se utilizan rutas aleatorias que seleccio-
nan a los entrevistados últimos con el método de cuotas, donde la no
respuesta se compone, fundamentalmente, por un elevado número de
contactos infructuosos y una alta magnitud de contactos en viviendas
«fuera de cuota», cifras que alcanzan el 52% y el 21,5% de las inciden-
cias localizadas por los entrevistadores del CIS en los barómetros del
primer semestre del año 2011 (Díaz de Rada, 2014). El rechazo a coope-
rar es bajo, rondando el 9,3% en el año 2011, habiendo descendido un
punto desde 2004.

370
12. Tipos de encuestas

Tabla 1. Tipología de respuesta en una encuesta presencial con revisita. El


caso de la Encuesta Social Europea (%)
    2002/3 2004/5 2006/7 2008/9 2010/11 2012/13
Resultado final 1ª 2ª 3ª 4ª 5º 6ª
  Entrevistas completas 47,0 52,0 57,6 65,0 65,8 65,9
  Rechazo 28,0 17,0 16,9 13,3 14,4 11,1
  No contacto 11,0 11,0 6,9 5,9 2,9 11,3
  No disponibles 4,0 11,0 5,1 2,7 4,0 6,3
  Inelegibles / incapaces 8,0 6,0 13,1 12,9 11,8 5,2
  Entrevistas pendientes 0,0 3,0 0,4 0,2 1,0 0,3
  Otros 2,0 0,0 0,6 0,1 0,1 0,0
Total contactos 3.702 3.213 3.29 3.962 2.868 2.868

fuente: hasta 2006/7, Riba et al., 2010. En 2008/9 y 20010/11, Metroscopia, 2009 y 2011.
En 2012/13, Equipo español de la Encuesta Social Europea y TYPSA, 2013.

El empleo de muestreos por cuotas (que no precisan revisitas) genera


un aumento de colaboración de las personas que más tiempo pasan en la
vivienda (Díaz de Rada y Martínez Martín, 2014), rompiendo la equipro-
babilidad de selección. Además, debe tenerse en cuenta la gran relación
entre hora de visita y tipología de persona entrevistada: por la mañana se
localizan los no activos2, a partir del mediodía los activos y ocupados, y a
última hora del día los estudiantes.
En cuanto a la calidad de la información recogida, hay que señalar, en
primer lugar, la influencia del encuestador, que puede generar una pre-
sión social para responder no lo que se piensa sino lo que se considera
moralmente aceptable a los ojos del entrevistador. Numerosos expertos
han comprobado cómo la presencia del entrevistador genera importantes
modificaciones en las respuestas a preguntas sensibles: consumos de al-
cohol y drogas, conductas sexuales, uso de anticonceptivos, cambios en
las actitudes hacia el racismo, etc. A esto hay que añadir la dificultad por
parte del entrevistador para recoger toda la información de las preguntas
abiertas, y la presencia de un efecto primacía —elección de la primera ca-
tegoría de respuesta— que puede ser fácilmente corregido cambiando el
orden de las categorías de respuesta.
En las desventajas relacionadas con la administración destaca, por enci-
ma de todas, el elevado coste económico —tanto por la recogida de la in-
formación como por los recursos dedicados a la supervisión— y, en segun-

371
La obtención de datos

do lugar, la lentitud en la recogida de información. Además, se precisa de


un grupo de encuestadores y un equipo de supervisores con suficiente for-
mación. Esta modalidad presenta mayores errores en los procesos de edi-
ción y grabación del cuestionario, procesos cuyo coste puede llegar a al-
canzar hasta el 40% del presupuesto total de la investigación (Biemer y
Lyberg, 2003), si bien se reducen notablemente en las encuestas computeri-
zadas. Otra desventaja es la dificultad para realizar segundas visitas a los
hogares no contactados en un primer intento: el elevado coste de estos
contactos y el consiguiente alargamiento del trabajo de campo dificulta
realizar visitas sucesivas para reducir el número de hogares sin establecer
contacto.

4.  Entrevistador lejano, encuesta telefónica

La encuesta telefónica se caracteriza porque un encuestador administra


un cuestionario en un período de tiempo a través del teléfono. Salvo al-
gunas tempranas aplicaciones —no muy exitosas— en la década de 1930,
la gran utilización de la encuesta telefónica tiene lugar en Estados Uni-
dos a finales de la década de los años sesenta del siglo xx, creciendo en
popularidad en los ochenta. En la siguiente década es la modalidad más
utilizada en Estados Unidos, Canadá, Australia y la mayor parte de los
países europeos (De Leeuw y Hox, 2015).
Dentro de las encuestas telefónicas es preciso destacar el gran avance
que supuso a mediados de la década de los setenta del siglo pasado la apli-
cación de sistemas informáticos a la recogida de información a través del
teléfono, dando lugar a la encuesta telefónica asistida por ordenador, co-
nocida popularmente como CATI. Ésta presenta un importante avance al
integrar varias tareas del proceso de investigación: diseño y administración
del cuestionario, preparación de la muestra, listado de teléfonos, control de
las cuotas, monitorización y supervisión del proceso en todo el momento,
entrada (grabación) de datos y tabulación de los marginales en tiempo
real. Una de las más recientes publicaciones sobre el tema (Lavrakas, 2010)
destaca este aspecto como la mayor ventaja de la encuesta telefónica.

4.1  Ventajas de la encuesta telefónica

Serán considerados, al igual que en la encuesta presencial, los aspectos


indicados en el cuadro 1: representatividad, calidad y administración.

372
12. Tipos de encuestas

Respecto al primero, la encuesta telefónica necesita más información del


marco muestral al precisar de números de teléfonos con los que contactar.
En función de la información disponible en el marco muestral es posible
estratificar la muestra3 y mejorar así la precisión de las estimaciones. La
ausencia de desplazamientos permite realizar muestreos aleatorios, elimi-
nando el efecto del conglomerado y disminuyendo el error muestral. Así,
la encuesta telefónica logra una gran dispersión muestral con un bajo
coste añadido, consiguiendo una mejor representatividad. Además, el no
desplazamiento de los encuestadores permite la utilización de muestreos
estratificados, más precisos que los habituales muestreos por conglome-
rados (utilizados mayormente en encuestas presenciales).
La encuesta telefónica presenta una alta cobertura no sólo porque la
población con teléfono en España alcanza el 99,1% (tabla 2), sino funda-
mentalmente por la facilidad para contactar con determinados colectivos
que presentan problemas de accesibilidad (porteros, guardas de seguridad,
etc.). Esto implica que se consigue el acceso a hogares no alcanzables por
la encuesta presencial debido a medidas de seguridad, temor a abrir la
puerta, etc. Se trata también de la modalidad más adecuada para entre-
vistar a personas muy ocupadas o difíciles de localizar4.
El comentario sobre la no respuesta se desplaza al apartado de las des-
ventajas, centrando aquí la atención en la gran flexibilidad temporal para
adaptarse a los horarios del universo objeto de estudio. La ausencia de
desplazamientos de los entrevistadores permite limitar el trabajo de cam-
po a unas horas, en aquellas donde se consigue un mejor acceso al uni-
verso. Otro aspecto importante es la gran facilidad para realizar más de
un intento en cada hogar (rellamadas), reduciendo con ello el número de
hogares no contactados y, en consecuencia, disminuyendo el número
de sustituciones cuando no se contacta con las unidades muestrales. Se
trata de un aspecto tremendamente importante en la investigación que se
realiza en nuestro país por la gran utilización de investigaciones que se-
leccionan a los entrevistados últimos utilizando el método de cuotas. Pese
a la facilidad de la encuesta telefónica para realizar sustituciones, ésta
realiza muchas menos que la presencial, debido al empleo de la rellama-
da. Ahora bien, la gran ventaja del teléfono frente a la encuesta presen-
cial está en que los sucesivos intentos de contactar con un hogar apenas
suponen coste económico, aunque implican retrasos en la finalización
del trabajo de campo.
Estos intentos sucesivos generan —además— un cambio sustancial en
las características demográficas de los entrevistados. En su estudio rea-
lizado a los usuarios de hospitales de Andalucía, Trujillo Carmona y

373
La obtención de datos

Serrano del Rosal (2003) descubren que las mujeres mayores de 45 años
son las que precisan de menos intentos para su localización al ser selec-
cionadas en las primeras llamadas (con 6 intentos localizan al 90%),
mientras que los hombres menores de 45 años son más difíciles de locali-
zar al precisar de 9 llamadas para lograr este porcentaje. Los jubilados,
los estudiantes y las personas que realizan trabajos no remunerados den-
tro del hogar son localizados en las primeras llamadas (con 6 intentos se
localizan al 90%), caso contrario de los ocupados, que precisan de 8 lla-
madas para localizar al 90%.
Una última ventaja relacionada con la representatividad es la menor
capacidad decisoria del entrevistador en la elección de los reservas cuando
deben realizarse sustituciones. En la encuesta presencial el encuestador si-
gue unas instrucciones cuando no es posible obtener cooperación de una
unidad muestral (contactar con la vivienda contigua, volver unas horas
más tarde, etc.), instrucciones que en el caso de la encuesta telefónica son
introducidas en el sistema de modo que «escapan» totalmente del control
del entrevistador. Esto proporciona una mayor aleatoriedad en el empleo
de la sustitución.
En cuanto a la calidad de la información recogida, para determinados
temas existe una mayor inclinación a responder por teléfono por la ma-
yor sensación de anonimato, lo que lleva a expresar con mayor libertad
determinadas conductas o concepciones recriminadas socialmente. Otra
de las ventajas es la menor influencia del entrevistador: al no producirse
contacto visual entre éste y el entrevistado, la apariencia del entrevista-
dor carece de importancia. Además, hay una supervisión continua de los
encuestadores que aumenta la estandarización de la encuesta y reduce la
variabilidad entre los encuestadores.
Es preciso destacar también que la integración de los distintos proce-
sos de la investigación permite detectar cualquier incidencia metodológi-
ca en el momento en el que se produce, de modo que sus consecuencias
dañinas (en tiempo y dinero) disminuyen considerablemente. Los errores
son detectados en el momento que se producen, por lo que es posible vol-
ver a preguntar al entrevistado para constatar que su respuesta es correc-
ta. La encuesta telefónica permite eliminar fácilmente la influencia de
unas preguntas en otras, la contaminación entre preguntas, así como los
efectos primacía y recencia —elección de la última categoría de respues-
ta— mediante la aleatorización de las opciones de respuesta.
Dentro del tercer tipo de ventajas (las relacionadas con la administra-
ción), destaca su bajo coste económico, situado a medio camino entre la
encuesta presencial y la autoadministrada. Este aspecto es señalado en

374
12. Tipos de encuestas

una de las más recientes publicaciones sobre el tema (Lavrakas, 2010)


como la segunda ventaja de la encuesta telefónica5. El coste de una inves-
tigación con encuesta telefónica depende del tipo de muestra empleada,
del tamaño del cuestionario y las tarifas telefónicas —que se han reduci-
do considerablemente en los últimos años—, si bien diversos expertos se-
ñalan que puede suponer un ahorro del 50% respecto a la encuesta pre-
sencial. Estimaciones realizadas por Groves et al. (2009) le llevan a
afirmar que el coste de la encuesta presencial es entre cinco o diez veces
mayor, principalmente por la necesidad de revisitas a hogares dispersos.
En España, un estudio sanitario realizado por Galán et al. (2004) desvela
que la encuesta telefónica cuesta la mitad que la presencial, mientras que
en una publicación más reciente Gabardo Vallejo (2013) estima que el
coste de la encuesta telefónica es cuatro veces inferior al de la presencial.
A esta característica se añade la rapidez en la obtención de resultados.
Se trata de la modalidad más rápida (Lavrakas, 2010), característica que
le configura como la única forma de recoger información sobre determi-
nados aspectos como publicidad televisiva, impacto de ciertas declara-
ciones de actualidad, etc. Esto explica, por ejemplo, la gran utilización
de esta modalidad en encuestas electorales, con trabajos de campo nacio-
nales con duraciones de 2-3 días6.
Esta rapidez está originada, por un lado, por la no necesidad de des-
plazamientos (ni de entrevistadores —entrevista presencial— ni de cues-
tionarios —entrevista autoadministrada—) y, por otro, por la menor
duración de la entrevista. Diversas estimaciones consideran que un cues-
tionario realizado por teléfono necesita un 10-20% menos tiempo que
cuando es realizado de forma presencial (entre otros, Groves et al., 2009),
aunque hay investigaciones que reducen esta diferencia debido al «alar-
gamiento» del trabajo de campo telefónico producido al realizar rellama-
das a diferentes horas y durante varios días, así como por la necesidad de
hacer más llamadas para «localizar» los teléfonos que no forman parte
de la población objeto de estudio (negocios, etc.).
En cuanto a la organización, precisa de menos personal que la encues-
ta presencial por el menor personal para la coordinación y supervisión
del trabajo de campo y la mayor productividad de los encuestadores. En
un trabajo anterior (Díaz de Rada, 2001), fueron mostradas diversas in-
vestigaciones que cuantifican el tiempo empleado por el encuestador en
cada una de las distintas tareas que implica su trabajo, investigaciones
que consideran que casi la mitad del tiempo (concretamente un 40%) se
emplea en el desplazamiento del entrevistador y la localización del entre-
vistado, un 35% en el proceso de entrevista, mientras que el resto se utili-

375
La obtención de datos

za en otros trabajos relacionados con la depuración de la entrevista


(15%) y procesos administrativos (10%). Una encuesta telefónica impli-
caría ahorrar la totalidad del tiempo dedicado al desplazamiento del en-
trevistador, reduciendo drásticamente el tiempo necesario en la depura-
ción de la entrevista y en procesos administrativos.
Por último, otra de las ventajas es la recogida automática de inciden-
cias y otros indicadores de productividad del encuestador: duración me-
dia de la entrevista, tiempo entre la finalización de una entrevista y co-
mienzo de la siguiente, horas más productivas, tasa de respuesta a lo
largo del día, etc.

4.2  Desventajas de la encuesta telefónica

Comenzando con la representatividad, la encuesta telefónica presenta


problemas de cobertura generados, en primer lugar, porque no todo el
mundo dispone de teléfono, aspecto no muy importante porque —tal y
como muestra la tabla 2— en 2014 el número de hogares sin teléfono no
llegaba al 1% de la población. Más importante es la escasa actualización
de los marcos muestrales por erratas de publicación, falta de actualiza-
ción, deseos manifiestos de no aparecer, etc.
En el año 2007 el 30% de los números telefónicos de Estados Unidos
no estaban en los listados telefónicos, cifra que aumenta al 45% en Espa-
ña y hasta el 63% en algunas comunidades como Andalucía (Pasadas del
Amo, 2015). Este problema de cobertura puede solucionarse empleando
métodos de marcación al azar (RDD), que generan una gran cantidad de
números que no pertenecen a ningún abonado y —además— no diferen-
cian entre hogares y negocios. Otra posibilidad es emplear métodos com-
binados.
El impacto de la cobertura es mayor con la expansión de la telefonía
móvil por la dificultad de hacer encuestas a teléfonos móviles al no dis-
poner de listados, así como por la ineficiencia de los métodos de marca-
ción al azar, debido a que los tres primeros números pierden su carácter
«geográfico»7. La telefonía fija experimentó un crecimiento sostenido
hasta el año 1999, llegando a estar presente en el 87% de los hogares,
pero desde el año 2000 tiene lugar una reducción paulatina, tendencia
que continúa hasta la actualidad (tabla 2). En el año 2014, tres de cada
cuatro hogares disponen de teléfono fijo y móvil, pero desde 2012 hay un
20% de hogares sin teléfono fijo, hogares donde éste ha sido sustituido
por el móvil. Esta situación en determinadas zonas llega a afectar a más

376
12. Tipos de encuestas

de un 25% de los hogares (INE, 2014): Murcia (40,8%), Melilla (35,1%),


Comunidad Valenciana (30,3%), Andalucía (26,7%) y Castilla-La Man-
cha (25,2%).
El gran problema no es tanto la «limitada accesibilidad» a estos colec-
tivos como el hecho de que los que no tienen teléfono son un colectivo
muy diferente al resto de la población. Veamos las implicaciones de las
tres situaciones antes descritas; hogares sin teléfonos, teléfonos no inclui-
dos en directorios y hogares exclusivamente móviles:

• El porcentaje de hogares sin teléfono en Estados Unidos desciende


con la educación, los ingresos familiares y la edad. Apenas presenta
relación con otras variables como la raza, el estado civil, la región
geográfica, el tamaño de la familia y la situación de empleo de los
miembros del hogar mayores de 18 años; algo similar a lo que suce-
día en España a finales del siglo xx.
• Respecto a los números no incluidos en los directorios, una investi-
gación realizada en Francia desvela que entre 2003 y 2004 el aban-
dono de los listados ha aumentado un 16% y son fundamentalmen-
te mujeres, jóvenes (70% menores de 45 años), residentes en grandes
ciudades, alto nivel socioeconómico y altos niveles de estudios
(Beck et al., 2005). En relación con las actitudes y comportamientos
hacia las drogas —objeto de estudio de esta investigación—, los «no
listados» presentan un elevado consumo de cannabis (26% versus
19% en las personas incluidas en los directorios), que se mantiene
cuando se controla el sexo y el género. Más que el crecimiento de los
no listados, este fenómeno es importante por las diferencias existen-
tes entre los que aparecen y no aparecen en los listados.
  En España, según una estimación realizada por Hecker y Wiese
(2012), la tasa de números listados alcanza el 64% de los números
privados.
• En cuanto a los hogares «exclusivamente móviles», los que carecen
de teléfono fijo en el hogar son más jóvenes que el promedio de la
población, hay un mayor número de solteros y divorciados, forman
parte de la población activa en mayor medida que el resto, y uno de
cada cuatro son extranjeros; en línea con los hallazgos constatados
en otros países.
  En uno de los últimos trabajos publicados en el momento de es-
cribir este texto, Peleteiro (2012) aporta el perfil de la persona que
abandona el teléfono fijo: jóvenes, hombres, activos, ocupados (tam-
bién desempleados e inmigrantes) con escasa estabilidad.

377
La obtención de datos

Tabla 2. Clasificación de los hogares españoles según el equipamiento


telefónico (%)
Viviendas con... 2004 2006 2008 2010 2012 2014
...algún teléfono 98,2 98,6 99,1 99,3 99,3 99,1
...teléfono fijo y móvil 68,8 71,4 73,0 74,8 75,5 75,4

...teléfono fijo * 82,8 80,8 79,8 79,2 78,2


...teléfono móvil * 87,2 91,4 94,2 95,6 96,4

...tel. fijo únicamente 21,3 11,4 7,8 5,1 3,7 2,7


...tel. móvil
8,1 15,8 18,4 19,5 20,1 20,9
únicamente

Total viviendas
14.731,7 14.467,37 15.126,6 15.450,6 15.859,0 15.974,3
(miles)

Además, deben tenerse en cuenta otros factores relacionados con la


concepción del carácter individual del teléfono móvil, frente al carácter
más colectivo-familiar del fijo; la situación social en la que se produce la
llamada telefónica (conduciendo, en una reunión, etc.) que impide —en
numerosas ocasiones— una adecuada realización, de la entrevista; así
como una mayor privacidad asociada al teléfono móvil que genera una
mayor intrusividad al recibir una llamada «no esperada». Otros aspectos,
más de índole técnico-metodológica, son la presencia de individuos con
más de una línea telefónica (lo que rompe la equiprobabilidad); imposi-
bilidad de estratificar geográficamente la muestra (por el desconocimien-
to de a dónde se llama); cambios en la no respuesta (Peleteiro, 2012; Vi-
cente et al., 2013); necesaria «menor duración» que debe tener una
encuesta telefónica a través del móvil, y mayor coste económico.
La solución, en estos casos, pasa por contar con una base muestral
mixta compuesta por un marco de números fijos y otro de teléfonos mó-
viles, tal y como se viene haciendo en otros países. La ausencia de lista-
dos de números de teléfonos en nuestro país ha llevado a algunos orga-
nismos —como el IESA— a desarrollar marcos muestrales mixtos donde
los números móviles se consiguen realizando métodos de marcación al
azar (Pasadas del Amo et al., 2011).
A los problemas de cobertura hay que añadir una menor tasa de res-
puesta, producida principalmente por la aparición de «nuevas barreras»:

378
12. Tipos de encuestas

contestadores automáticos, identificación del número que llama, etc. Aun-


que estas situaciones dificultan el contacto, es el elevado número de re-
chazos el aspecto que caracteriza la no respuesta en la encuesta telefóni-
ca (Broome, 2015). Así, por ejemplo, en la investigación del Estudio de
Sentimiento del Consumidor estadounidense el rechazo se incrementó
desde el 19% en el año 1979 al 27% en 2003, lo que supone un crecimien-
to de un 0,86% al año entre 1997 y 2003; crecimiento que ascendía al
0,12% entre 1979 y 1986 (Curtin et al., 2005). El incremento del rechazo
a responder aumenta por el menor tiempo en el hogar, la elevada utiliza-
ción del marketing telefónico, la mayor preocupación por la privacidad y
la confidencialidad, y la sensación de cansancio producida por responder
un gran número de encuestas.
A este problema hay que añadir la baja tasa de respuesta de algunos
colectivos —como las personas de más edad, determinados niveles edu-
cativos, hábitat rural— y la sobrerrepresentación de otros estratos como
las clases medias y medias-altas, los residentes en ciudades, los jóvenes,
las personas con altos niveles de estudios y con mayores ingresos (Gabar-
do Vallejo, 2013). Por otro lado, la contactación telefónica no permite
conocer los rasgos de los que no responden, a diferencia de la encuesta
presencial en la que el entrevistador proporciona información sobre de-
terminadas características de los no entrevistados.
Una vez expuestos los problemas relacionados con la representativi-
dad, serán analizados los relativos a la calidad de la información recogida:
la forma en la que se produce la comunicación recomienda no realizar
preguntas largas o que presenten una gran cantidad de categorías de res-
puesta por la ausencia de ayudas visuales. Los expertos recomiendan rea-
lizar preguntas cortas mediante el desdoblamiento de los distintos com-
ponentes de la pregunta en varias preguntas simples, y reducir las
preguntas con demasiadas opciones de respuesta. Algo similar sucede
con las preguntas multirrespuesta, evitando la multirrespuesta categórica
a favor de la dicotómica. Todo esto implica, lógicamente, importantes
cambios en el diseño de las preguntas del cuestionario.
En el apartado 2.1 se ha señalado que para determinados temas existe
una mayor inclinación a responder por teléfono por la mayor sensación
de anonimato, pero otros expertos (entre otros, Green et al., 2001) dan
cuenta de que los entrevistados pueden no confiar en un entrevistador
que está lejos y que es desconocido, algo que no sucede en la encuesta
presencial, puesto que el entrevistador certifica que se dedica a eso al
mostrar los materiales relacionados con la investigación que está reali-
zando (carnet, cuestionario, tarjetas de respuesta, etc.). Derivado de esto,

379
La obtención de datos

en la encuesta telefónica no se tiene claro el destino de esta información,


algo que no sucede en la encuesta presencial. Todo ello explica por qué la
encuesta presencial llega a producir menos distorsión que la encuesta te-
lefónica en preguntas sensibles (De Leeuw y Van der Zouwen, 1988).
Desventajas asociadas con la administración. Pese a que anteriormen-
te se ha señalado que la encuesta telefónica requiere una organización
menor que la presencial, es necesario contar con un grupo de encuesta-
dores y supervisores debidamente formado, a diferencia de la encuesta
autoadministrada, que no precisa de tal equipo. Respecto a los errores
tras la recogida, esta modalidad logra una mayor tasa de no respuesta par-
cial.
Otros aspectos importantes son la menor flexibilidad que la presencial
por la ausencia de recursos visuales, imposibilidad para obtener informa-
ción sobre el entorno del entrevistado, y necesaria brevedad del cuestiona-
rio: máximo 15 minutos. Un aspecto importante, a nuestro juicio no nece-
sariamente tratado, es el ritmo de trabajo de los entrevistadores. Expertos
en la materia como Gwarney (2007) recomiendan no trabajar más de 4
horas diarias / 20-25 horas semanales por el mayor cansancio y aburri-
miento del encuestador (frente a la encuesta presencial).

5.  Ausencia de entrevistador, encuesta autoadministrada

El elemento característico de esta modalidad es la ausencia de un entre-


vistador que lea las preguntas y registre (anote) las respuestas, siendo el
propio «entrevistado»8 el que realiza estas funciones. El protagonismo de
éste en la administración del cuestionario lleva a definirla como encuesta
autoadministrada, ya que, a diferencia de la encuesta presencial y telefó-
nica, el entrevistador recibe el cuestionario —junto con una carta de pre-
sentación— y nadie le ayuda a responderlo; ausencia total de interacción
entre el entrevistador y el entrevistado.
El gran número de encuestas consideradas dentro de esta modalidad
son clasificadas considerando cuatro criterios: soporte, medio de trans-
misión, tipo de comunicación y número de personas consultadas simul-
táneamente. La clasificación atendiendo al soporte de la información dis-
tingue entre (formato) papel y electrónico. El medio de transmisión
(transporte) diferencia entre entrega personal, por ejemplo los cuestiona-
rios de satisfacción disponibles en las habitaciones de hoteles o los cues-
tionarios a cumplimentar por los que pasan por un determinado lugar9,
correo tradicional, medios electrónicos (por ejemplo, fax) y encuestas en

380
12. Tipos de encuestas

internet. El tercer criterio considera el tipo de comunicación utilizada, di-


ferenciando entre recursos visuales, o visual-orales, este último en en-
cuestas por internet o con ordenador. En cuarto lugar, el número de per-
sonas consultadas, distinguiendo entre cuestionarios individuales y la
administración en grupo.
El cuestionario de papel administrado por correo ordinario es la mo-
dalidad más clásica, utilizada desde las primeras investigaciones con la
técnica, como se desprende de la lectura del segundo apartado del capí-
tulo anterior: encuesta obrera de Marx (1880), encuesta de Weber (1893)
sobre la condición económica de los trabajadores rurales, etc. A media-
dos del siglo xx su uso se reduce notablemente por su alta tasa de no-
respuesta, ganando adeptos las entrevistas cara a cara y, más tarde, las
telefónicas. En las dos últimas décadas del pasado siglo —y fundamen-
talmente en el ámbito anglosajón— aumentan los estudios basados en
encuestas autoadministradas. El incremento del coste en las encuestas
presenciales y el crecimiento de la no respuesta en las mismas, las mejo-
ras producidas por el Total Desing Method (TDM) —más tarde reformu-
lado como Tailored Design Method (Dillman, 1978 y 2000)—, así como
los elevados recursos empleados en investigar cómo mejorar la tasa de
respuesta de las encuestas autoadministradas han provocado que se cues-
tione este gran problema atribuido a este tipo de encuestas.
El Tailored Design Method se fundamenta en la teoría del Intercambio
Social que considera que cada persona tratará en todo momento de mi-
nimizar el coste de sus acciones y de aumentar las recompensas produci-
das por las mismas. Aplicado a este ámbito, un cuestionario tendrá más
probabilidad de ser respondido cuando el esfuerzo para responderlo sea
pequeño, la percepción de recibir una recompensa sea máxima y exista
una elevada confianza en la recepción de tal recompensa.
Al igual que en los apartados anteriores, la definición de sus principa-
les características da paso a las ventajas e inconvenientes de la encuesta
autoadministrada.

5.1  Ventajas de la encuesta autoadministrada

Respecto a la posibilidad de acceder a toda la población, la encuesta


autoadministrada llega fácilmente a personas muy lejanas con un bajo
coste, al tiempo que permite acceder a personas muy ocupadas y/o difíci-
les de localizar con encuestas presenciales y telefónicas. Además, supera
las barreras físicas de acceso al domicilio tanto en estratos altos (porte-

381
La obtención de datos

ros que regulan la entrada, perros guardianes, etc.) como en estratos ba-
jos: peligrosidad de barrios marginales, etc. Al igual que en la encuesta
telefónica, la autoadministración de los cuestionarios permite realizar
muestreos aleatorios estratificados en función de la información del mar-
co muestral, disminuyendo notablemente el error muestral.
El análisis de la tasa de respuesta precisa diferenciar el medio de trans-
misión de la información. Comenzando con la administración utilizando
el correo postal (tradicional), investigaciones realizadas en Estados Uni-
dos utilizando el Total Design Method encuentran tasas de respuesta del
73% en población general, que aumentan hasta el 80% en poblaciones
especializadas (Dillman y Parsons, 2008). Cifras similares logran investi-
gaciones realizadas en contextos muy diferentes como Australia, Japón,
Rusia y diversos países europeos; España entre ellos.
No se dispone de información de la tasa de respuesta en cuestionarios
depositados en determinados lugares o entregados a los que pasan por
una zona (entrega «personal»), logrando alta tasa de respuesta los admi-
nistrados en grupo. En esta última, y en algunas administraciones perso-
nales, el administrador del cuestionario puede explicar el estudio y solu-
cionar dudas sobre la investigación, algo que no es posible con los
cuestionarios enviados utilizando el correo postal. En los cuestionarios
administrados a través de internet se logra un mayor control de la muestra
(comparado con el correo postal) porque se conocen los que no han llega-
do a su destino y el momento de respuesta.
En relación a la calidad de la información, esta modalidad de administra-
ción ofrece al entrevistado la posibilidad de reflexionar, de contestar a su
ritmo empleando el tiempo que precise, y permitiendo la consulta de docu-
mentos, archivos, etc. Se produce, en suma, una flexibilidad a la hora de
responder, respondiendo el cuestionario en el momento que considere más
adecuado y empleando el tiempo que se desee. Comparado con las modali-
dades anteriores, la autoadministrada no presenta sesgos por la influencia
del entrevistador. A diferencia de la encuesta telefónica, la autoadministra-
da permite mostrar fotografías, colores, logotipos, etc., para que sean anali-
zados o exprese su opinión sobre ellos. Estas posibilidades aumentan nota-
blemente en la administración electrónica a través de internet.
Además de estas ventajas, la mayor parte de la bibliografía consultada
destaca la menor deseabilidad social en las investigaciones realizadas con
encuestas autoadministradas. Son numerosos los estudios que han com-
parado las encuestas con encuestador (presencial y telefónico) y la auto­
administrada, llegando a la conclusión de que en los estudios realizados
con estas últimas obtienen mayores frecuencias de comportamientos «no

382
12. Tipos de encuestas

aceptados socialmente» (entre otros, De Leeuw y Van der Zouden, 1988;


Groves et al., 2009): los entrevistados declaran consumir más alcohol,
conducir ebrios con más frecuencia, cometer más infidelidades en su ma-
trimonio, mayores consumos de drogas, etc. Muy relacionado con la ven-
taja anterior, la encuesta autoadministrada ofrece una mayor garantía de
anonimato, que ayuda a que los entrevistados expresen unas respuestas
más críticas, menos aceptadas socialmente.
En relación con la administración, la ventaja de la encuesta autoadmi-
nistrada es el bajo coste, coste que no se incrementa a medida que se am-
plía el ámbito geográfico de la muestra. Este coste desciende notable-
mente en encuestas a través de internet, aumentándose notablemente en
la administración grupal.
En cuanto a la necesidad de una organización, destacan las exigencias
mínimas de personal y recursos para realizar el trabajo de campo. Éste
ha sido uno de los principales argumentos a favor de la encuesta por co-
rreo ordinario, puesto que los costos se reducen a gastos de material y
del servicio de correos, conceptos que desaparecen en la encuesta por in-
ternet. No obstante, la aplicación de estrategias que incrementan la res-
puesta (como el Tailored Design Method) implica modificar algunos de
los elementos de la tradicional encuesta autoadministrada, aumentando
ligeramente su coste.

5.2  Desventajas de la encuesta autoadministrada

El análisis de las desventajas permitirá conocer con precisión la adecua-


ción de la encuesta autoadministrada para ciertas investigaciones. En re-
lación a la representatividad, la primera desventaja es la necesidad de dis-
poner de un marco muestral actualizado con nombres y direcciones de la
población objeto de estudio, algo difícil por la legislación actual sobre la
protección de la intimidad y el deterioro de los directorios (Dillman y
Parsons, 2008). Es destacable también la preocupación por la privacidad
y la confidencialidad, que lleva a las personas a darse de baja en listados.
Pese a que numerosas investigaciones han señalado la importancia de
la personalización de la correspondencia (encuesta por correo dirigida a
una persona con nombre y apellidos), otros expertos han conseguido ele-
vadas tasas de respuesta enviando el cuestionario a «la familia del núme-
ro 5 de la Gran Vía», por ejemplo (Messer et al., 2012).
La cobertura en la encuesta por correo ordinario depende de la exhaus-
tividad del marco muestral, presentando una alta cobertura las encuestas

383
La obtención de datos

grupales, que desciende notablemente en la encuesta por internet. La co-


bertura en internet está determinada, en un primer momento, por la po-
sesión de un ordenador conectado y, en segundo lugar, tener suficiente
habilidad para su manejo (Stern et al., 2014). Disponiendo de tales re-
cursos, llega el momento de plantearse cómo acceder al entrevistado po-
tencial, pudiendo elegir entre (Couper y Bosnjak, 2010): 1) «selección
mediante ventanas emergentes en sitios web», 2) «enlaces a los que visitan
un sitio web», 3) «paneles de internautas», y 4) «selección mediante direc-
ciones de correo electrónico». Los dos primeros no son muestreos proba-
bilísticos, dificultando la posibilidad de generalización en la medida en
que sólo son representativos de los que han visitado ese sitio web (Tou-
rangeau et al., 2013). La selección utilizando «enlaces a los que visitan un
sitio web» es la más utilizada, aunque se «salte» con más facilidad. El em-
pleo de ventanas emergentes presenta la desventaja de que es muy intrusi-
vo, aunque sea el que consigue más cooperación.
Respecto a los paneles, pese a su elevada utilización hay dudas sobre la
representatividad de los resultados (Baker et al., 2010), mucho más cuan-
do la mayor parte de éstos están formados por voluntarios (Stern et al.,
2014). El último protocolo, el envío del cuestionario a direcciones de co-
rreo electrónico, se complica porque resulta muy difícil disponer de un
elevado número de direcciones de correo electrónico, a no ser que se trate
de una encuesta de satisfacción a los clientes de un determinado servicio
que ha sido contratado a través de ese medio.
Es una práctica habitual aumentar la cobertura realizando un contac-
to a través del correo ordinario y ofrecer al entrevistado la posibilidad de
responder un cuestionario web (pulsando un enlace) o el cuestionario pa-
pel adjunto en la carta.
Sobre la no respuesta total, ya se han destacado las elevadas tasas (de
respuesta) logradas en encuestas grupales y por correo, tasas que des-
cienden notablemente cuando se utilizan cuestionarios electrónicos a tra-
vés de internet (Lozar Manfreda et al., 2008). La tasa de respuesta de la
«elección mediante ventanas emergentes» y los «enlaces a los que visitan
un sitio web» es, según Couper y Bosnjak (2010), inferior al 0,1%, aun-
que la primera es mejor que la segunda. Las edades peor representadas
en encuesta web son los mayores de 50 años, y cooperan menos las per-
sonas con menos ingresos, menor nivel educativo y los que viven solos
(Lozar Manfreda et al., 2008).
Más importante que la tasa de respuesta es el desconocimiento de las
características y razones de los que no responden, lo que impide la utili-
zación de estrategias precisas para reducir o mitigar el efecto de la no

384
12. Tipos de encuestas

respuesta: no se sabe si la no respuesta está causada por un rechazo, por


la ausencia de miembros en el hogar o por problemas para la lectura del
cuestionario. Tampoco se consigue información sobre si los que no res-
ponden son mujeres, jóvenes, trabajadores, etc., información que puede
obtenerse con las otras modalidades. La imposibilidad para entrevistar a
personas de bajo nivel educativo es la última de las desventajas relacio-
nadas con la representatividad.
En cuanto a la calidad de la información recogida, en la encuesta auto­
administrada se produce una elevada influencia de unas preguntas en
otras, siendo muy difícil el control de esta contaminación porque el entre-
vistado puede comenzar a responder el cuestionario por la mitad, por el
final, puede leerlo todo y después contestar, etc. Además, existe el riesgo
de que se produzcan distorsiones por una incompleta lectura del cuestio-
nario. Estas distorsiones no pueden ser aclaradas por la dificultad de ex-
plicar determinados conceptos, lo que implica que el cuestionario debe
elaborarse con sumo cuidado adjuntando todas las explicaciones necesa-
rias para responderlo.
Todos los factores expuestos anteriormente originan, para algunos
autores, una baja calidad de la información recogida, medida por la gran
cantidad de preguntas sin contestar, dobles respuestas, etc. En un estudio
realizado por De Leeuw (1992) en los Países Bajos se comparó la calidad
de la información recogida por una encuesta presencial, telefónica y por
correo. Fueron detectadas escasas diferencias respecto a la calidad entre
la encuesta presencial y la telefónica, y la encuesta por correo no destacó
precisamente por la baja calidad de la información recogida. De hecho,
cuando la autora analiza la fiabilidad de una serie de escalas incluidas en
los cuestionarios llega a la conclusión de que la encuesta por correo
muestra los mejores resultados.
Respecto a la presencia de dobles respuestas y un número elevado de
preguntas sin responder, aspectos que podrían ser interpretados como
indicadores de la calidad de la información recogida, el autor de estas lí-
neas ha comprobado que la presencia de preguntas no respondidas o con
dobles respuestas es escasa, y además es la población de más edad la que
proporciona mejores respuestas.
Algunos de estos problemas desaparecen con la encuesta por internet
porque puede avisar al entrevistado de que ha proporcionado más —o
menos— respuestas que las esperadas, ha dejado sin responder algunas
preguntas, etc. Ahora bien, presenta también problemas de lectura deriva-
dos de que el tamaño de la pantalla del ordenador es inferior a la página
del cuestionario, así como dificultad en la localización de errores por la

385
La obtención de datos

imposibilidad de realizar una visión general de preguntas y respuestas. Al-


gunos expertos han detectado un «efecto escaneo» producido por una rá-
pida y breve lectura del cuestionario (Revilla y Ochoa, 2015) que genera,
entre otros, una alta presencia del efecto primacía (Galesic et al., 2008). A
estos aspectos se añade que el cuestionario presenta dificultades en con-
vencer al entrevistado de que se trata de una investigación seria (spam,
gran cantidad de correos no esperados, etc.). No menos importante es el
efecto complacencia debido a la multitarea (gran número de ventanas
abiertas).
Dentro del tercer tipo de desventajas, las relacionadas con el proceso
de administración, el coste es elevado en la administración grupal. Más
importante es la lentitud en la recogida de información en la encuesta por
correo postal, de entre dos y tres meses, velocidad que aumenta cuando el
cuestionario se administra a través de internet. Los errores en la recogida
han sido señalados en los párrafos anteriores, a los que hay que añadir la
posibilidad de cometer más errores en la grabación de los datos en la en-
cuesta por correo ordinario.
Al igual que la encuesta telefónica, la encuesta autoadministrada no
permite obtener datos sobre el entorno del entrevistado, a no ser que se
le pidan directamente a él. A estas desventajas hay que añadir la dificul-
tad del medio para animar a la cooperación, una serie de problemas im-
plícitos a este medio de transporte como cartas perdidas, devoluciones
que no se gestionan, etc.
Para terminar con las desventajas de las encuestas autoadministradas,
algunos expertos señalan que éstas deben ser muy breves. Desventajas es-
pecíficas de la encuesta por internet son las limitaciones del software em-
pleado en cuanto a posibilidades gráficas, de sonido, etc.; teniendo siem-
pre presente que la aplicación es «instalada» en el ordenador del usuario,
por lo que debe estar preparada para los equipos menos potentes (Biemer
y Lyberg, 2003). Destaca también la facilidad para cometer errores en el
proceso de respuesta.

6.  A modo de conclusión

Si fuera preciso resumir en un breve espacio todas las ventajas destaca-


das a lo largo de las páginas anteriores, destacaría la elevada tasa de coo-
peración y alta calidad de la información recogida por la encuesta pre-
sencial, el bajo coste y rapidez de la encuesta telefónica, y la alta
sinceridad de las encuestas autoadministradas; a las que se añaden la ra-

386
12. Tipos de encuestas

pidez y el escaso coste cuando éstas son administradas a través de inter-


net. En el lado de las desventajas el elevado precio de la encuesta presen-
cial y la necesidad de un equipo suficientemente formado, la falta de
cobertura de la encuesta telefónica y la elevada no respuesta parcial, y las
ausencias en los listados y la incertidumbre de la persona que responde la
encuesta auto­administrada, a la que se añade la baja cobertura cuando
ésta se administra mediante internet.
En la actualidad son numerosos los expertos (entre otros, Dillman et
al., 2014; Gabardo Vallejo, 2013) que recomiendan una utilización conjun-
ta de las modalidades, buscando que esta utilización compuesta (o mixta)
«supere» las desventajas individuales de cada una. El empleo de modos
mixtos, según Dillman et al. (2014), presenta numerosas ventajas:

1. Descensos notables del coste de la investigación, al comenzar el


trabajo de campo con la modalidad más económica y buscar el
resto de respuestas con otros modos.
2. Reducción del tiempo necesario para el trabajo de campo.
3. Bajada del error de cobertura, utilizando encuestas autoadminis-
tradas por correo postal para los que no están disponibles a tra-
vés de la web, o empleando paneles de internet con población se-
leccionada mediante encuestas presenciales y telefónicas.
4. Facilidades en el empleo de incentivos, que pueden ser monetarios
o no monetarios, y enviados antes o después de responder. Hay
numerosas investigaciones que señalan que una escasa cantidad
(entre 5-10 euros) produce grandes aumentos en la respuesta, in-
centivos que proceden del ahorro de costes al no utilizar encues-
tas presenciales.
5. Mejora en la tasa de respuesta, reducción del error de no respues-
ta, en la medida en que la utilización de varias modalidades per-
mite acceder a «nuevos» colectivos, colectivos difíciles de seleccio-
nar con una determinada modalidad.
6. Reducción del error de medida: efectos primera y última opción,
aquiescencia, deseabilidad social, etc.

En definitiva, un menor precio, más rapidez, así como la reducción de


errores de cobertura, muestreo, no respuesta y medida (De Leeuw y Hox,
2015: 23). La contrapartida es que debe ponerse suma atención al diseño
del cuestionario, buscando un «formato común» que no se vea afectado
por cada modalidad.

387
La obtención de datos

Notas
1  Es preciso indicar que emplea estrategias para reducir los rechazos: utiliza car-
tas de presentación de la investigación, gratifica a los encuestados y lleva a cabo
un extenso programa de formación de los encuestadores (Cuxart y Riba, 2003).
2  Referido a los no pertenecientes a la población activa considerando el cri-
terio de la Encuesta de Población Activa.
3  Cuando los listados telefónicos presentan también información del nom-
bre del titular de la línea, dirección postal, municipio, etc.
4  En el siguiente apartado serán matizadas estas ventajas en relación con la
cobertura.
5  El primero, como ya se señaló, es la integración de varios aspectos de la in-
vestigación, y el tercero, la rapidez.
6  Así sucede en las últimas encuestas de intención de voto publicadas en
prensa general en el momento de escribir este texto. Las publicadas por El País
(noviembre y diciembre del año 2014) realizaron 1.000 entrevistas en dos días:
28-29 de octubre y 2-3 de diciembre, martes y miércoles respectivamente (El
País, 2014a y 2014b). En el estudio del CIS sobre el Debate del Estado de la na-
ción fueron realizadas 1.602 entrevistas en dos días (CIS, 2014).
7  Estas técnicas, basadas en prefijos «fijos» y sufijos «aleatorios» se funda-
mentan en la existencia de una equivalencia entre el prefijo y la zona geográfica;
algo que no cumple la telefonía móvil donde los prefijos aparecieron —en un
primer momento— para identificar el operador de telefonía.
8  Se trata, más bien, de un «consultado» ya que desaparece la situación de
entrevista. No obstante, se seguirá utilizando el término «entrevistado» por
mantener la terminología empleada a lo largo del texto.
9 Una persona lleva a cabo la entrega del cuestionario, o lo deposita en la
habitación del hotel, pero no interviene en la cumplimentación del mismo.

Bibliografía recomendada
De Leeuw, E. D., et al. (eds.) (2008): International Handbook of Survey
Methodology, Nueva York, Lawrence Erlbaum Associates y Asociación Eu-
ropea de Metodología.
Díaz de Rada, V. (2000): «Modos de entrar en relación para la toma de datos:
entrevista personal, telefónica y postal», en J. Martínez Gastey, F. M. Cha-
morro, E. Martínez Ramos, L. Á. Sanz de la Tajada y C. Vacchiano López,
La Investigación en Marketing, Barcelona, AEDEMO.
Díaz de Rada, V. (2010): Comparación entre los resultados obtenidos por encues-
tas personales y telefónicas: el caso de una encuesta electoral, Madrid, Centro
de Investigaciones Sociológicas.

388
12. Tipos de encuestas

Donsbach, W., y Traugott, M. W. (eds.) (2008): The SAGE Handbook of Public


Opinion Research, Thousand-Oaks (LA), Sage.
Häder, S. et al. (eds.) (2012): Telephone Surveys in Europe: Research and Practice,
Manheim, Springer Verlag.
Lepkowski, J. M. et al. (eds.) (2008): Advances in telephone survey methodology,
Nueva York, Wiley.
Marsden, P. V., y Wright, J. D. (eds.) (2010): Handbook of Survey Research (se-
gunda edición), Bingley (Reino Unido), Emerald Group Publishing Limited.
Tourangeau, R. et al. (2013): The Science of Web Surveys, Oxford, Oxford Uni-
versity Press.

389
La obtención de datos

13.  La entrevista abierta


como práctica social

Luis Enrique Alonso

1. Introducción

Se han llegado a distinguir más de una decena de tipos normalizados de


lo que denominamos entrevistas de investigación social, tipos construi-
dos en función del grado de apertura y de directividad de las intervencio-
nes del entrevistador, así como por su uso dentro de los diferentes ámbitos
de las ciencias humanas: la sesión clínica (psicoanalítica o psicológica),
la entrevista no directiva, la entrevista colectiva, la entrevista focalizada
sobre temas específicos, la entrevista con respuestas provocadas, pero li-
bres en su formulación, la entrevista con preguntas abiertas, pero si-
guiendo un orden prefijado inalterable, la entrevista con preguntas lista-
das y la entrevista con preguntas cerradas. La interacción y la
conversación con la gente, por tanto, pueden adquirir muchas formas:
desde los instrumentos de la encuesta formal, con sus tablas de respuestas
múltiples y sus preguntas cerradas, hasta el diálogo totalmente abierto
(Duchesne y Haegel, 2008; Fages, 1990).
Situada entre el método de encuesta y la observación participante de
interacción absolutamente libre, se encuentra la entrevista abierta1. En la
encuesta formal, generalmente precodificada, se hacen preguntas prede-
terminadas y las respuestas se recogen en una rejilla dispuesta para tratar
estandarizadamente (y estadísticamente) sus resultados. Se asume, así,

390
13. La entrevista abierta como práctica social

que el investigador conoce cuál es el sistema de respuestas estadística-


mente probable y socialmente normalizado. Con este conocimiento y con
este método, el investigador debe asegurar que las preguntas sean formu-
ladas sin ambigüedad, y que el individuo, que posiblemente responda, no
se vea intimidado por ninguna formulación. La pregunta debe ser com-
prensible y no manejar polisemias, ambigüedades, ni dobles sentidos evi-
dentes, así como las respuestas normalizadas, coincidentes de forma pre-
via con el sentido de las experiencias de los encuestados. Estas
contestaciones tienen que ser también mutuamente excluyentes y cubrir
todas las posibles respuestas para que los cuestionarios sean útiles a fin
de obtener información de una forma protocolizada permitiendo que las
contestaciones se puedan convertir, por pura inferencia, en categorías ge-
néricas que acaban proponiéndose como la estructura de opinión de la
población.
Así, el cuestionario funciona como un elemento que, en última instan-
cia, sirve a un proceso de comprobación de las hipótesis causales que se
establecen indirectamente por inferencias de las informaciones poblacio-
nales y demográficas, ya existentes, por un método riguroso de explica-
ción comparativa. Además, la correlación, en un análisis de encuesta, se
tiende a elaborar a través de la introducción de las variables que intervie-
nen para mostrar los posibles efectos sobre las variables iniciales. La pre-
cisión aumenta cuando el investigador introduce otras variables intervi-
nientes y consigue explicaciones más complejas y más sutiles.
Sin embargo, la entrevista abierta parte directamente de una visión
paradigmática de orientación comprehensiva y fenomenológica, al inten-
tar interpretar la conducta de los actores en el mismo marco de referen-
cia en el que interactúan (Kaufmann, 2011); pero no como un proceso de
determinación de variables aislables y determinables en su peso relativo
para la acción final, sino como un todo interrelacionado —como una
unidad de sentido— sólo aprehensible de una manera histórica dinámi-
ca, concreta y ligada al sentido expresado por los propios sujetos en su
acción. Mientras las encuestas producen correlaciones y generalizaciones
sobre poblaciones, las entrevistas abiertas generan interpretaciones de la
vida cotidiana de los actores. El cuestionario predeterminado tiene que
asumir una relación no problemática entre palabras y hechos. La polise-
mia queda por definición excluida porque impediría de hecho ya de en-
trada el proceso de estandarización, clasificación y digitalización subsi-
guiente de las respuestas.
Por el contrario, en la entrevista abierta informal, las preguntas, su se-
cuencia y fraseado no se establecen y cierran de antemano; en este caso,

391
La obtención de datos

el entrevistador intenta diseñar la expresión, la pertenencia y el estilo de


las cuestiones para cada individuo concreto, así como el orden apreciado
de las preguntas para cada entrevistado. El objetivo es asegurar que tales
preguntas tengan el sentido apropiado para cada situación, integrándo-
las en la conversación para que se respondan con facilidad. Tal tipo de
entrevista requiere una gran habilidad por parte del investigador que
debe no sólo ser un oyente empático, sino también un buen conversador,
capaz de mantener un diálogo y un contextualizador que enlaza respues-
tas y contenidos particulares con marcos sociales de referencia. La entre-
vista abierta no se plantea desde la idea de que hay una lista de pregun-
tas apropiadas, formuladas de antemano y con respuestas por definición
previsibles, pues se han establecido así, sino que es en la propia interac-
ción entre investigador y entrevistado, en la progresión de la conversa-
ción donde se van produciendo cuestiones con sentido concreto y apertu-
ras polisémicas permanentes. El investigador, así, es un autor concreto de
preguntas relevantes y significativas en situaciones conversacionales es-
pecíficas y no intercambiables.
La entrevista abierta de investigación social exige siempre una prepa-
ración previa, tanto por un saber histórico social del contexto del campo
y del interlocutor como por la preparación de un guión temático explo-
ratorio que funcione como una lista de temas a cubrir en la entrevista,
pero siempre en función del transcurrir concreto de la conversación. Por-
que, nunca hay que olvidarlo, toda entrevista es una conversación y, por
lo tanto, se estructura a partir tanto de las intervenciones del investiga-
dor como de los actos de habla del entrevistado (Grele, 1990); el investi-
gador trata de descubrir caminos que abran dimensiones del problema
que se condensan en los marcos informativos y existenciales de la expe-
riencia personal. Las entrevistas abiertas se incrustan en el marco del fe-
nomenológico mundo de la vida, permiten a la gente describir su situa-
ción y hablar sobre sus propias vidas con sus propias palabras (Burges,
1994). De todas formas, aunque el investigador y el entrevistado se ga-
nen un mutuo respeto y reconocimiento, no se puede olvidar que hay
una cierta capacidad de control de información y conducción de la inte-
racción por parte del investigador —que no deja de ser un intruso en la
vida cotidiana del entrevistado y en su campo inmediato de acción— y
esto, además de recordarnos la responsabilidad (ética, deontológica y es-
tratégica), nos abre un buen número de problemas técnicos y paradojas
pragmáticas.

392
13. La entrevista abierta como práctica social

2. Las claves lingüísticas y comunicativas de la entrevista


abierta de investigación social
Es habitual presentar la entrevista abierta de investigación social como
un proceso comunicativo por el cual un investigador obtiene informa-
ción de un persona —el «informante» se le llamaba en las versiones más
tradicionales del uso de esta práctica, el «interlocutor» suele ser más uti-
lizado hoy en día para reforzar su carácter interactivo y desterrar cual-
quier uso meramente instrumental de la persona (Catani, 1990)—; in-
formación que se halla contenida en la biografía de ese interlocutor,
teniendo en cuenta que aquí el concepto de biografía incluye tanto los
acontecimientos vividos por el entrevistado como las representaciones
sociales y versiones narrativas asociadas a esos acontecimientos. Esto
implica que siempre la información ha sido experimentada y absorbida
por el entrevistado y que será ofrecida con una orientación y una inter-
pretación-latente o manifiesta-significativa derivada de su experiencia y
posición social. Muchas veces, no lo olvidemos, esta orientación, inter-
pretación o incluso «deformación» significativa resulta tan interesante,
o incluso en algunas ocasiones más, que la exposición estrictamente cro-
nológica, sistemática o directamente factual de los acontecimientos rela-
tados por el interlocutor.
La entrevista abierta de investigación social trabaja directamente en el
espacio de la subjetividad —el interlocutor es un sujeto concreto, real,
con experiencias no intercambiables, aunque evidentemente objetivables
en la investigación—, introduciendo, a su vez, el elemento de la afectivi-
dad personal, así como los prejuicios, las racionalizaciones y proyeccio-
nes del interlocutor, transfiriendo con ello identidad a la dimensión cog-
noscitiva y objetivante de la función referencial del lenguaje. Es la doble
faz de la entrevista abierta; su objetividad subjetivada, su carácter de in-
formación siempre mediada por la vivencia personal y la posición social.
El yo expresivo de la comunicación producida en la entrevista no es,
pues, un yo lingüístico o gramatical —de hecho ha sido puesto en entre-
dicho el valor estrictamente lingüístico de la función expresiva del len-
guaje (Mounin, 1983: 23 y ss.)—, o un yo objetivo e informacional, sino
un yo reflexivo que ya desde el primer momento de la conversación des-
taca por su carácter relacional, o directamente social. Ya que el indivi-
duo se experimenta a sí mismo como tal, en un diálogo con el entrevista-
dor, produciendo actos ilocutorios expresivos en el sentido que el
lingüista Roman Jakobson (1981) le da a esta función expresiva o identi-
ficativa del lenguaje, esto es, aquella centrada en el emisor y que trans-

393
La obtención de datos

mite identidad. Así la comunicación personal se convierte en el eje cen-


tral de la práctica de la entrevista, que produce además de información
factual, una expresión directa de la actitud y la identidad del entrevista-
do ante aquello que considera su mensaje. Todo relato de vivencia perso-
nal tiende a construir la impresión de una cierta emoción por implica-
ción, puesto que es el reflejo de la subjetividad del emisor y revela su
actitud ante la naturaleza del referente de investigación en cuanto objeto
a conocer.
Desde el mismo campo de la sociología del lenguaje, igualmente se
nos indica que siempre la función referencial y descriptiva de la comuni-
cación tiende a ser complementaria y recurrente de la expresión de iden-
tidad, puesto que siempre la información humana es proyectada como
reflejo sobre un otro generalizado (Mead, 1972), es decir, sobre el conjun-
to idealizado de puntos de vista de otros individuos miembros del mismo
grupo, generando un diálogo entre el punto de vista personal y la imagen
de la personalidad genérica del grupo social de referencia. La reflexivi-
dad, por tanto, es un proceso que acompaña a la entrevista abierta desde
su primer y más básico planteamiento, en ella se expresa un relato que
poco tiene que ver con el yo como realidad objetiva pura, individualista
y racionalizada —típico del conductismo, el utilitarismo microeconómi-
co o de cualquier deriva del individualismo metodológico abstracto—,
sino que nos acercamos a un concepto de yo narrativo y reflexivo, cons-
truido situacional e históricamente, que cuenta historias en las que se in-
cluye una autoimagen del yo como parte de esa historia que se cuenta y
que se modifica según contextos de interacción. Nos acercamos así más a
una perspectiva reflexivista y constructivista que desde hace unas cuan-
tas décadas se abre paso en diversos espacios de las ciencias del compor-
tamiento humano (Brunner, 1991) y que es fundamental para entender el
uso actual de la entrevista abierta cualitativa de investigación social.

3.  Subjetividad, expresión oral y marco biográfico

La entrevista abierta se constituye, por tanto, como el primer paso y la


vía más directa del uso de la fuente oral en la investigación social con to-
das sus potencialidades. Permite escuchar y recoger los testimonios desde
la voz viva y directa de los protagonistas y actores reales implicados en
las prácticas sociales estudiadas. Esta inmediatez, y no intermediación
técnica de la fuente oral, le ha dado a la entrevista abierta el carácter de
acercamiento a la crónica cotidiana y a la escucha directa de la palabra

394
13. La entrevista abierta como práctica social

de los protagonistas —sean sujetos individuales o representantes de suje-


tos sociales paradigmáticos— lo que implica, de hecho, una fuerte proxi-
midad e interacción no mediada entre el investigador social y los investi-
gados sociales. Cada día es más habitual aceptar el lugar imprescindible
que todas las ciencias sociales le dan a la fuente oral y en especial a la en-
trevista abierta, dado que posibilita un acercamiento a lo social directo,
próximo y no mediado, imposible de realizar por otras vías, ya sean esta-
dísticas, documentales o textuales.
Al carácter directo y no mediado de las fuentes orales hay que añadir-
le la importancia de la intervención de la memoria y su construcción sub-
jetiva en el desarrollo de la entrevista abierta. Esta subjetividad, que des-
de una perspectiva ingenua, objetivista y descriptivista del uso de las
entrevistas —y en general de las fuentes orales— en las ciencias sociales
y humanas puede parecer su mayor inconveniente, también podríamos
considerarla como su mayor e interesante virtud (Berteaux, 2005). Así,
este supuesto hipersubjetivismo del producto de la entrevista abierta hay
que contextualizarlo en su especial forma de aproximación a la realidad
y, sobre todo, en el sentido comprensivo e interpretativo que atraviesa
toda su propuesta de conocimiento social, puesto que la información de
una entrevista no es de forma predeterminada ni verdad ni mentira, sino
un producto discursivo de un individuo que hay que localizar, focalizar,
contrastar, triangular, situar socialmente e interpretar (Merton, Fiske y
Kendall, 1998). No hay lectura de entrevista de investigación sin modelo
de representación social y, por lo tanto, sus usos se inscriben en un pro-
yecto de análisis de la realidad social que no está en la simple transcrip-
ción naturalizada, reproducción o acumulación de la producido por esas
fuentes, sino en la construcción por parte del investigador de una mirada
propia sobre los materiales obtenidos. Nada tienen de natural o aproble-
mático el uso de la entrevista abierta en su realización, ni la referencia
biográfica del entrevistado como base de construcción de esta entrevista,
de este modo el peligro de la ilusión biográfica que señala Pierre Bour-
dieu (1997), en cuanto modelo ingenuo de pensar la biografía como sim-
ple transcripción de hechos objetivos de una vida, sólo puede aparecer
desde un perspectiva demasiado plana, arcaica y positivista de la entre-
vista como para que hoy tenga alguna solvencia científica. Tanto la reali-
zación como la lectura de la entrevista configuran un proceso complejo,
pragmático, reflexivo e interpretativo que nada tiene que ver con una
simple recogida y descripción de datos cualitativos invariantes al autor,
la situación, el contexto y la interpretación latente y manifiesta que to-
dos los implicados en la interlocución introducen.

395
La obtención de datos

Lo mismo ocurre en lo que se refiere a la memoria y su mediación,


considerada muchas veces como distorsionante, mistificante o generado-
ra de inexactitudes históricas. Sin embargo, esta apelación a la memoria
en el uso de la entrevista abierta no significa ninguna rémora epistemoló-
gica para la utilización de las fuentes orales en la investigación social,
sino, precisamente, casi una de sus mayores potencialidades y hallazgos.
La evocación y rememoración que supone por definición toda entrevista
nos sitúa ante un yo biográfico como un hecho social total —un fenóme-
no que concentra de manera indisoluble diversos niveles y moviliza di-
versas instancias de la realidad social, reales, simbólicas e imaginarias—
que por ello recrea el presente en función del pasado, pero no lo
olvidemos, el pasado en función del presente. Todo presente reinventa
constantemente —a nivel personal y a nivel social— su pasado. Los luga-
res del recuerdo siempre nos remiten a los marcos sociales de la memoria
—utilizando así un par de conceptos que hemos heredado de las ciencias
humanas francesas desde Maurice Halbwachs (2004) a las escuelas histo-
riográficas desde los Annales a la historia cultural (Burke, 2006)— y por
lo tanto sus productos no son seriales, lineales y de una cronología sim-
ple, sino que corresponden a una organización compleja entre lo indivi-
dual y lo social. La memoria aparece así no como una simple descripción
de acontecimientos pasados, sino como la apropiación individual de una
cultura histórica que tiene que ser contemplada también desde su marco
colectivo.
El hecho biográfico tal como se presenta en la entrevista abierta no es
un hecho positivo, sino un argumento cognitivo en forma de la creación de
una gestalt que entrelaza individuo, grupo y cultura incrustando percep-
ciones y expresiones personales en redes comunicativas interpersonales, si-
tuadas, a su vez, en una serie de matices y marcos sociales que las contex-
tualizan y las hacen inteligibles (Ruesch y Bateson, 1984). El lazo de unión
entre lo positivo y lo cognitivo se resuelve en el campo lingüístico, pues es
en la citada función expresiva del lenguaje, en ese espacio de realización
del sujeto, donde se genera el sistema de articulaciones que vinculan la ex-
periencia vivida y su enunciación. La entrevista abierta no es, por tanto, un
simple registro en el que el investigador hace de fedatario de los hechos, es
el arte del vínculo —del vínculo biocognitivo que une experiencia y narra-
ción y del vínculo comunicativo que une a entrevistador y entrevistado
(Halperín, 1995)—, y, por lo tanto, es un juego de estrategias comunicati-
vas, una invención dialógica, propia de un género discursivo polifónico
(Bajtin, 1982; Todorov, 1981) que antes que someternos a las reglas forma-
les del lenguaje (pregunta-respuesta), y de la posición social, nos abre a los

396
13. La entrevista abierta como práctica social

usos y a los contextos, a las prácticas y sus enunciadores, es decir, a los su-
jetos sociales como actores complejos, situados y con capacidad agente (en
todos los espacios y papeles de la investigación social).
La práctica de la entrevista abierta se presenta útil para obtener infor-
maciones de carácter pragmático, esto es, de cómo los sujetos diversos
actúan y reconstruyen el sistema de representaciones sociales en sus ac-
ciones individuales. Así, la entrevista tiene un espacio de cobertura fun-
damentado en el comportamiento ideal del individuo concreto en su re-
lación con el objeto de investigación, circunscribiendo con ello un
espacio pragmático, en cuanto que el proceso de significación se produce
por el hecho de que el discurso es susceptible de ser actualizado en una
práctica correspondiente. Por ello, las preguntas centrales en la entrevista
abierta son aquellas que se refieren a los comportamientos pasados, pre-
sentes o futuros, es decir, al orden de lo realizado o realizable, no sólo a
lo que el interlocutor piensa sobre el asunto que investigamos, sino a
cómo actúa o actuó en relación con dicho asunto. La entrevista abierta,
por tanto, no se sitúa en el campo puro de la conducta —el orden del ha-
cer—, ni en el lugar puro de lo lingüístico —el orden del decir—, sino en
el campo intermedio en el que encuentra su pleno rendimiento metodo-
lógico: algo así como «el decir del hacer», basado fundamentalmente en
que el hecho de hablar con los interlocutores de lo que hacen y lo que
son (lo que creen ser y hacer) es el primer paso de toda investigación en
general y toda etnografía en particular.

3.1  Entrevistas abiertas y los grupos de discusión

Las entrevistas abiertas, por tanto, si son planteadas así, pueden servir
complementariamente a los grupos de discusión clásicos, porque en ellos
lo que obtenemos son siempre representaciones de carácter colectivo no
individual. Los grupos, principalmente, no nos proporcionan conocimien-
tos sobre los comportamientos y las vivencias personales, sino los sistemas
de representaciones sociales construidas sobre los objetos de estudio.
Cuando hallar la dimensión pragmática personalizada es interesante den-
tro de la estrategia de la investigación, o dicho en otras palabras, cuando
nos conviene movernos en la dimensión sintagmática, évenementiel y dia-
crónica del objeto de investigación —la trayectoria (Finkel, Parra y Baer,
2008)—, la pertinencia de la entrevista abierta es evidente.
Por tanto, y en esta primera aproximación, mientras que en el grupo
de discusión las posiciones discursivas básicas tienen carácter prototípico,

397
La obtención de datos

es decir, es el lugar al que tienden las diferentes actitudes y opiniones de


los miembros de los grupos de discusión y que aparecen, precisamente,
como producto del propio proceso de debate, enfrentamiento, oposición
y síntesis entre las diversas posturas personales que se expresan en las
discusiones del grupo. Combinándose y homogeneizándose, de esta ma-
nera, opiniones, imágenes y representaciones individuales se construyen
en el grupo como discursos colectivos más o menos tópicos que tienden a
representar (cualitativa y estructuralmente) a los grupos sociales que los
enuncian. La entrevista, tal como aquí se presenta, sin embargo, se sitúa
en el discurso de los estereotipos, tal como los define la sociolingüística
norteamericana contemporánea, esto es, como las formas construidas de
marcaje y reconocimiento social que encuadran la conciencia del hablan-
te (Lavob, 1983: 387).
Incluso podemos decir que una entrevista abierta colectiva es una he-
rramienta diferente a un grupo de discusión. En el grupo de discusión los
interlocutores no deben conocerse ni tener una historia en común, se tra-
ta de encontrar en él representaciones colectivas que se mueven en una
función fundamentalmente metalingüística del lenguaje (o en la idea
durkheimiana de la conciencia colectiva como hecho social que se cons-
truye por encima del individuo). La entrevista abierta, por el contrario,
incluso cuando se realiza colectivamente, se mueve en una dimensión
biográfica e identitaria, de experiencia vivida y narrada; por ello en la
entrevista colectiva aparecen experiencias comunes históricas de los en-
trevistados que suelen conocerse o haber convivido en un conjunto de
acontecimientos compartidos. Así, en el análisis de la forma en que se es-
tablecen las relaciones entre personalidades específicas y comportamien-
tos sociales grupales es fundamental el uso de la entrevista abierta y to-
davía más, si cabe, en aquellos estudios en los que se aborda la
desviación o la marginación social, espacios donde el grupo de discusión
no suele funcionar por la tendencia a la dispersión, debilidad en la cohe-
rencia discursiva y falta de homogeneidad de las trayectorias, las narra-
ciones y las representaciones sociales normalizadas.
El campo de actuación de la entrevista abierta sería el del habla, en el
sentido de la actualización personalizada del código de la lengua (Saus-
sure, 1980: 40), pero frente a la atribución a este campo del habla, por
parte de la lingüística estructural clásica, de un carácter individual, de
voluntad e inteligencia personal intrínseca —otorgándole luego a la len-
gua como código abstracto todo lo que de social tiene la comunicación
humana—, la propia práctica de la entrevista abierta demuestra que el
habla tiene también un sentido social, pues es un producto dialógico e in-

398
13. La entrevista abierta como práctica social

tertextual y hasta los actos ilocutorios más individualizados reclaman un


marco social. Gracias a las contribuciones de la sociolingüística dialógi-
ca sabemos que el lenguaje no es un sistema abstracto de formas lingüís-
ticas, ni una enunciación monológica aislada realizada en un acto psico-
físico, sino un acontecimiento social de interacción discursiva plasmada
en enunciados concretos, contextualizables y con voluntad práctica (Bo-
ves Naves, 1992).

4.  La entrevista abierta en sus usos

Aquí es necesario distinguir entre la entrevista abierta de investigación


social y las entrevistas terapéuticas y clínicas. La entrevista de investiga-
ción pretende, a través de la utilización de un conjunto de saberes priva-
dos, la construcción del sentido social de la conducta individual o del
grupo de referencia de ese individuo. La entrevista clínica o terapéutica
tiene un propósito casi opuesto, favorece a través de la construcción de
un discurso y unas prácticas discursivas —en una serie de juegos relacio-
nales entre paciente y terapeuta— un saber privado capaz de estructurar
y estabilizar una determinada acción psicológica personal (Bénony y
Chahraoui, 1999). Esto no quiere decir que de la entrevista terapéutica
no podamos extraer datos para la investigación sociológica, pero no es ni
su objetivo principal, ni trabaja en un registro pragmático mínimamente
homogéneo, pues su objetivo es la modificación de la conducta indivi-
dual, cosa que no se contempla de ninguna manera en la entrevista de in-
vestigación social.
La entrevista abierta de investigación es, por lo tanto, una conversa-
ción entre dos personas, un entrevistador y un interlocutor, dirigida y re-
gistrada por el entrevistador, con el propósito de favorecer la producción
de un discurso conversacional, continuo y con cierta línea argumental —no
fragmentado, segmentado, precodificado y cerrado por un cuestionario pre-
vio— del entrevistado sobre un tema definido en el marco de la investi-
gación. La entrevista es, asimismo, una narración conversacional, creada
conjuntamente por el entrevistador y el entrevistado que produce tanto
efectos informativos —sobre el contenido de la acción social— como signi-
ficativos —sobre el sentido otorgado a la acción social—, siempre en un
contexto concreto.
La entrevista abierta de investigación social encuentra su mayor pro-
ductividad semántica no sólo en el lugar de la exploración de los lugares
fácticos de la realidad social encarnada en actores específicos, también es

399
La obtención de datos

especialmente relevante para analizar la función comunicativa de esa rea-


lidad social, donde la palabra es vector vinculante principal de una expe-
riencia valorativa, personalizada, biográfica e intransferible. Esto nos
suele demarcar cuatro campos básicos de la utilización de la entrevista
abierta:

1) Reconstrucción de acciones pasadas: es el campo paradigmático


de la llamada historia oral y/o de las historias de vida, una de las
técnicas más longevas del devenir de la sociología y la antropolo-
gía, en ellas se comparten enfoques biográficos, archivos orales,
análisis retrospectivos de la acción, etc.
2) Estudio de las representaciones sociales personalizadas: sistemas
de normas y valores asumidos: imágenes/creencias prejuiciales,
códigos y estereotipos cristalizados, rutas y trayectorias vitales
personales pero ejemplares, etc.
3) Estudio de la interacción entre constituciones psicológicas parti-
culares y conductas sociales específicas: estudios, por ejemplo, so-
bre agresividad, violencia, las llamadas conductas desviadas y no
normalizadas, etc.
4) Prospección de los campos semánticos, vocabularios y discursos
arquetípicos de grupos y colectivos sobre los que luego vamos a
pasar un cuestionario cerrado.

La entrevista abierta de investigación por su propia constitución es re-


fractaria a criterios previos y formales de definición científica de esta he-
rramienta metodológica, ya que, en principio, no existe ninguna regla fija
que unifique la forma de realizar la entrevista, ni codifique la conducta
del entrevistador; porque, además, toda entrevista es producto de un pro-
ceso interlocutorio que no es susceptible de ser reducido, en sí mismo
(otra cosa es la investigación en la que se enmarca), a un sistema de con-
trastación de hipótesis o a un criterio de falsación al quedar desbordado
por una narratividad concreta que hace, igualmente, que sus resultados
por sí mismos no tienen posibilidad de generalización indiscriminada, ni
mucho menos de universalización. La entrevista, entonces, sólo se puede
juzgar, como cualquier otra práctica cualitativa, por sus resultados prag-
máticos, por la riqueza heurística de las producciones discursivas obteni-
das en ella; pero, sobre todo, en la posibilidad de recoger y analizar sabe-
res sociales cristalizados en discursos que han sido construidos en la
práctica directa —y no mediada— de los sujetos protagonistas de la ac-
ción (Van Dijk, 1980). El empleo de la entrevista presupone que el objeto

400
13. La entrevista abierta como práctica social

temático de la investigación será analizado a través de la experiencia que


de él poseen un cierto número de individuos, que, a la vez, son parte y
producto de la acción estudiada, ya que el análisis del interlocutor es
parte de la historia que se narra.
Todo lo anterior nos conduce a considerar a la entrevista abierta
como una práctica constructiva y reflexiva y no como una técnica de re-
cogida de datos —si nos atenemos a la orientación más positivista— o de
recogida de discursos —si seguimos la visión más estructuralista y lin-
güística—; como si los datos tuvieran una existencia y una estructura fija
e independiente de la interacción social que los genera y del método que
los construye. Lo mismo ocurre cuando hablamos de discursos y nos
comportamos como si los discursos existiesen en sí mismos, independien-
tes de los marcos concretos de la acción —esto es, textos que hablan a
los «actantes», como gusta teorizar el postestructuralismo textualista—,
operando, como si se tratara de una toma de muestras biológicas o geo-
lógicas recogidas aproblemáticamente, porque lo verdaderamente impor-
tante es el análisis ulterior de los elementos internos del discurso en fun-
ción de su coherencia estructural (Slama-Cazacu, 1970).
Sin embargo, la entrevista abierta es, pues, un constructo comunicati-
vo, no un registro de discursos que «hablan al sujeto». Los discursos no
son así automáticos, ni preexistentes de una manera absoluta a la opera-
ción de construcción comunicativa de la misma, antes bien constituyen
marcos sociocognitivos que crean la situación misma de la entrevista. El
discurso aparece, pues, como respuesta a una interrogación realizada de
una situación dual, reflexiva y conversacional, donde entrevistador y en-
trevistado son generadores de ese discurso. Contrariamente a la idea de
la toma biológica cuya repetición permite recoger el mismo producto, la
construcción discursiva es siempre singular y difícilmente reproductiva
en sus aspectos de sintaxis lógica interna. Cada investigador realiza una
entrevista diferente según su cultura, sensibilidad y conocimiento parti-
cular del tema, y, lo que es más importante, según sea el contexto espa-
cial, temporal o social en el que se está llevando a cabo el encuentro de
manera efectiva. Por ello, la entrevista abierta es un proceso de determi-
nación de un texto en un contexto, siendo este contexto mucho más que
el entorno inmediato de la interacción (el contexto situacional), también
recoge el conjunto de circunstancias en el que se inserta; esto es, un
campo social (conjunto de sistemas simbólicos, estructuras y prácticas)
que constituye, a la vez, un referente, un sistema convencional y un or-
den que hace posible el intercambio y le otorga sus mayores significados
(Habermas, 1996).

401
La obtención de datos

De esta manera, la entrevista es un proceso de construcción de un texto


en un contexto, y no sólo de aislamiento o extracción de un texto. Siguien-
do a Anthony Wilden (1979: 112-113), estamos creando un proceso de
puntuación, o sea, un proceso de recorte y organización de los hechos y de
presentación de las conductas personales que se ajustan a las representa-
ciones sociales, buscando la producción de un sentido pragmático (Bonar-
di y Roussiau, 2009), ya que cuando producimos o interpretamos un texto
estamos haciendo algo más que producir o interpretar ese texto en un sen-
tido literal, estamos creando, actualizando o sufriendo los efectos de una
acción social. Nos movemos con ello en un proceso vivo e intencionado
(por ambas partes, tanto por la del entrevistado como por la del entrevis-
tador) y no ante una forma protocolaria con una lógica puramente repro-
ductiva o significante. Tal es el nivel de nuestro enfoque, muy cercano a las
ideas sobre la «sociología profana» y el análisis conversacional etnometo-
dológico —que se resiste a considerar al actor social (entrevistado y entre-
vistador) como un simple «idiota cultural», en la cruda expresión de Ha-
rold Gar­finkel (2006: 43 y ss.)— que reproduce códigos, producto de una
supersocialización completa y totalitaria. Más bien la propia práctica de la
entrevista nos hace ver a la persona como un sujeto con capacidad de
agencia y de invención de lo cotidiano (Certeau, 1990).

5.  La práctica de la entrevista abierta

La entrevista de investigación social es la mínima expresión de un siste-


ma comunicativo que se retroalimenta y que, como todo sistema abierto,
no puede entenderse como la suma de sus partes, sino como el resultado
de una circularidad interaccional cuyos resultados dependen de la orga-
nización concreta y sucesiva de las secuencias comunicativas y no de la
simple programación del canal de información. Toda comunicación im-
plica un compromiso y define una relación, esto es, una comunicación no
sólo transfiere información sino que a la vez impone conductas. Son las
dos operaciones básicas de la relación comunicativa que Gregory Bate-
son (1984: 81-116) presenta como dos planos complementarios; por una
parte, los aspectos conativo-relacionales, y por otra, los aspectos referen-
ciales y de contenido de toda comunicación. En la entrevista, como en
toda secuencia comunicacional, todo intercambio de mensajes manifies-
tos van retroalimentando el contexto interpersonal y marcan los límites
sobre la interacción posterior, por lo que no sólo resulta afectado el re-
ceptor sino toda la relación.

402
13. La entrevista abierta como práctica social

La entrevista, al realizarse, tiende a convertirse, así, en un sistema tipo


homeostático, esto es, en un sistema en equilibrio inestable contrapesado
por secuencias comunicativas que perfilan una relación potencialmente
conflictiva: en la entrevista abierta, no basta la propuesta puntual inicial:
la información inicial que el entrevistador le transmite al entrevistado ca-
taliza en un proceso que enseguida se agota —retorna al equilibrio— (el
dispositivo conversacional uno-consigo-mismo pone en juego relaciones
reflexivas de comunicación: hay un amortiguamiento de la retroacción).
Como argumenta Jesús Ibáñez: el entrevistador tiene que actuar para
provocar al entrevistado a hablar, evitando canalizar o conducir su ha-
bla, a partir de modos generales de actuación que son básicamente la re-
formulación y la interpretación, pero los tiene que poner en juego con
más frecuencia que en el grupo de discusión. «El movimiento del entre-
vistador por la entrevista es delicado y problemático —destaca Ibáñez—,
cualquier diseño previo de sus intervenciones —cualquier cuestionario o
guía invasiva— provocará el corte, y el habla del entrevistado se diluirá
en el discurso del entrevistador» (Ibáñez, 1986: 62).
Operativamente, la entrevista de investigación se constru­ye como un
discurso principalmente enunciado por el entrevis­tado; pero que com-
prende también las intervenciones del investigador, cada uno con un sen-
tido y un proyecto de sentido determinado (generalmente distintos), rela-
cionados a partir de lo que se ha llamado —derivado en buena medida
de las entrevistas clínicas— un contrato de comunicación, y en función de
un contexto social o situación. La entrevista se establece, así, como un
wittgensteiniano juego de lenguaje con una serie de actos de habla pro-
gramados y con efectos previstos e imprevistos; pero también como un
juego social en el que se despliega un largo repertorio de estrategias,
transacciones y caricias, así como un buen número de resortes gestuales y
proxémicos, codificados por el lugar social previo de los interlocutores, lo
que nos remite fundamentalmente a un juego de poderes.
Distinguiremos, así, tres niveles en la entrevista (niveles relacionales
que determinan el sentido del discurso): el contrato comunicativo, la inte-
racción verbal, el universo social de referencia.

5.1  El contrato comunicativo

La entrevista, aquí, resulta siempre paradójica, interesa y se solicita por


ser una forma de producir expresiones de carácter ciertamente íntimo;
pero precisamente dejan de ser íntimas al producirse. Situación paradóji-

403
La obtención de datos

ca, típicamente doblevinculante en el sentido de la escuela de Palo Alto


(Watlawick, Beavin y Jackson, 1981), doble vínculo que hay que romper
acudiendo a una situación de pacto que facilite el encuentro y el diálogo.
El establecimiento del contrato de comunicación es entonces fundamen-
tal para el funcionamiento del dispositivo, sobre todo porque diluye, o al
menos elude, esta situación paradójica generalmente remitiendo el uso
de la información y la comunicación a un contexto exterior al propio en-
cuentro, contexto más o menos anónimo —depende de los términos del
pacto— que no es otro que la investigación o el informe escrito, uso que
desbloquea y da salida a la misma situación de la entrevista. Lo oral se
convierte así en escrito, contraparadoja que sirve precisamente para que
fluya lo oral; pero que presenta inmediatamente no sólo problemas me-
todológicos de transcripción, sino también de cambio de tipos lógicos de
comunicación que el investigador debe gestionar.
Este contrato se halla constituido, inicialmente, por unos parámetros
que representan los saberes mínimos compartidos por los interlocutores
sobre lo que hay en juego y sobre los objetivos del diálogo. Y es un as-
pecto renegociable a lo largo de la entrevista; pero a sabiendas que rene-
gociarlo significa también redefinir el sentido discursivo de la entrevista.
Estos saberes se suelen dividir en dos grandes grupos: a) Saberes implíci-
tos, capaces de crear una situación potencialmente comunicativa: códi-
gos lingüísticos y culturales, reglas sociales y modelos de intercambio
oral. b) Saberes explícitos, suscitados en la función de la temática del tra-
bajo, saberes que constituyen la base común de los primeros intercam-
bios entrevistador-entrevistado y que se fundan en los objetivos de la in-
vestigación, del cómo, porqué y quién la realiza.
La entrevista es, pues, una forma de diálogo social que, como tal, se
ve sometido a la regla de la pertinencia. Cuando las partes desconocen
los retos y los objetivos de su diálogo, el discurso que producen carece de
sentido. Por eso, es imprescin­dible y absolutamente reflexiva la labor del
investigador; pues la renegociación permanente de las reglas implícitas
del contrato, en el curso mismo del diálogo, conduce a la producción de
un discurso compuesto y multidimensional (lo que diferencia al investi-
gador del entrevistador/encuestador que ejecuta un cuestiona­rio sin posi-
bilidad de modificarlo). A la reflexividad metodológica, propia de la in-
vestigación social como proceso de producción de conocimiento, se le
añade aquí una reflexividad de oficio, de capacidad, de mirada sobre el
campo que estructura la entrevista, y de escucha activa y metódica (Bour­
dieu, 1999). Frente a los juegos de lenguaje de tipo «estímulo/respuesta»,
donde los papeles están cerrados y la retroalimentación es inexistente, en

404
13. La entrevista abierta como práctica social

la entrevista abierta, como en todos los juegos de tipo conversacional,


los papeles tienden a estar más abiertos y la unidad mínima informativa
no es simplemente «la respuesta», sino la conversación en sí misma: de
nuevo acudiendo a Jesús Ibáñez podemos decir que la conversación es
una totalidad: «un todo que es más que la suma de sus partes, que no
puede distribuirse en interlocutores ni en (inter)locuciones —por eso es
la unidad mínima—. Cada interlocutor es, no una entidad, sino un pro-
ceso: al conversar cambia, como cambia el sistema en que conversa»
(Ibáñez, 1988: 230).
La entrevista, por tanto, es un tipo especial de conversación, como in-
teracción estereotipada de dos posiciones discursivas con poderes lin-
güísticos y sociales diferentes —el entrevistador siempre tiene la potestad
de orientar la entrevista en función de sus intereses, el entrevistado de
responder estratégicamente— que se plasman en un pacto o contrato,
implícito o explícito, de comunicación que se mantiene y se renegocia a
lo largo de toda la conversación. Ahora bien, la excesiva ambigüedad o
la constante reorientación del pacto comunicativo y las pautas discursi-
vas asociadas a él —la inestabilidad del contrato— crean un estatus con-
versacional variable e indeterminado y, por consiguiente, poco utilizable
como entrada relevante en el marco de una investigación. Por el contra-
rio, el abuso de la situación de supuesto poder del entrevistador —dentro
de esa conversación— puede provocar inmediatamente la ruptura del
pacto y crear la imposibilidad misma de comunicar.

5.2  La interacción verbal

La interacción se fundamenta en la apertura de los sujetos a la comuni-


cación y a la aceptación de sus reglas. Se puede distinguir entre la inte-
racción no focalizada —simple intercambio de mensajes orales o visuales
sin proyecto de construcción común— y la focalizada, en la que dos per-
sonas se reúnen y cooperan en mantener un único centro de atención, ge-
neralmente por turno (Goffman, 1967: 27-31). Las conversaciones son
así actividades sociales —incluso se puede decir que la conversación es la
unidad mínima de interacción social (Ibáñez, 1990a: 189)— reguladas no
sólo en términos pragmáticos de adecuación al contexto, sino también
dentro de las mismas secuencias verbales (cómo están sincronizadas y
cómo se producen). Así, las palabras intercambiadas son en apariencia
espontáneas; pero implican y manifiestan la posibilidad de activar una
labor socialmente reconocida y exigida, y, por otra parte, manifiestan

405
La obtención de datos

una amplia gama de estrategias de discurso, de movimientos, de trucos


conversacionales (usados cotidianamente tanto en las ocasiones más in-
formales como en las más estructuradas) para persuadir, defender la pro-
pia posición, realinearse, justificarse, etc. Procedimientos y estrategias
conversacionales —mecanismo de negociación o cesión de turno, secuen-
cia de presentación u ocultamiento de los argumentos, composición o
separación estratégica de los temas, etc.— que como algunos desarrollos
de la etnometodología nos han enseñado son fundamentales en los resul-
tados pragmáticos de la comunicación.
La situación de interacción conversacional está siempre regulada por
un marco, el marco es según Gregory Batenson (1985: 218) lo que hace
que una conversación sea más que una simple «ensalada de palabras»;
una persona que participara en una conversación en la que no existieran
marcos se hallaría recogiendo una comunicación como un manojo de pa-
labras sin sentido. El marco crea lo que Goffman (1979: 46 y ss) denomi-
na territorios del yo, los territorios lingüísticos, corporales, espaciales y
sociales que dan sensación de normalidad y verosimilitud a la interac-
ción interpersonal. De este modo, cualquier intento por parte de un ana-
lista de entrar en el mundo de la vida de otros es fundamentalmente es-
tratégico. Sean cuales sean las metas, la investigación empieza con una
conversación deliberada y calculada que trata de participar en la cotidia-
nidad de otra persona. En este nivel, el analista se involucra en el proceso
de conversación para acceder a las convenciones establecidas y a los pro-
cedimientos, para poder entender con un conocimiento práctico requeri-
do en la participación en un contexto local de referencia. La meta no es,
así, simplemente descubrir las «reglas» del juego social, sino tomar con-
tacto con ellas, hasta el punto de captarlas en su momento de expresión
más dinámica.
Tal interacción es, a la vez, arriesgada y estratégica, y la analogía del
juego ofrece la forma más apropiada en la cual se pueda llevar y agotar
el proceso. Goffman (1967) centra su atención en la importancia de ma-
nejar la interacción social no sólo de la conversación, sino también de las
miradas, gestos, roles y discursos verbales, llegando, incluso, a llamar la
atención sobre «el fugaz movimiento facial del individuo que pueda ha-
cer que en el juego exprese su postura ante lo que ocurre» (Goffman,
1967: 1). Respaldando esta afirmación, la psicología experimental y per-
sonal ha observado repetidamente una comprensión de la capacidad de
la gente para desarrollar no sólo una aguda sensibilidad ante un matiz
social e interpersonal que señale el comportamiento apropiado en dife-
rentes situaciones, sino «también altos grados de adaptación propia para

406
13. La entrevista abierta como práctica social

asegurar conformarse personalmente a las micronormas de la interacción


social» (Prus, 1996: 157-158). El entrevistador, por tanto, debe desarro-
llar una identidad que se asocie más con un modelo flexible de «pragma-
tismo propio» que con un dogmático principio de identidad absoluta. En
términos de Goffman (1967), tienen que ser buenos en el «trabajo de
cara». Es este «trabajo de cara», más que en cualquier otra estrategia, el
que forma una base para la guía propia necesaria para poder introducir-
se en la vida comunitaria. «La apariencia» es «una imagen propia defini-
da en términos de características aprobadas socialmente» (Goffman,
1967: 5). Y la apariencia puede normalmente ser definida y presentada
de una manera acorde al contexto en el cual un encuentro tiene lugar.
Debido a esto, es importante para el entrevistador elegir una estrategia
conscientemente, más que permitir que el poder de la situación le absor-
ba y manipule sin anticipación ni reconocimiento.
El mínimo marco pautado de la entrevista es un guión temático pre-
vio, que recoge los objetivos de la investigación y focaliza la interacción;
pero tal guión no está organizado, estructurado secuencialmente. Se tra-
ta de que, durante la entrevista, la persona entrevistada produzca infor-
mación sobre todos los temas que nos interesan; pero no se trata de ir
inquiriendo sobre cada uno de los temas en un orden prefijado, sino de
crear una relación dinámica en la que, por su propia lógica comunicati-
va, se vayan generando los temas de acuerdo con el tipo de sujeto que
entrevistamos, arbitrando un primer estímulo verbal de apertura que,
verosímilmente, sea el comienzo de esa dinámica que prevemos. La en-
trevista abierta no es una situación de interrogatorio —yo te hago la en-
trevista y tú me tienes que contestar, inquiero quién eres, desde la auto-
ridad que se le supone al entrevistador, tú me lo tienes que decir—; la
entrevista abierta es la situación de la confesión, donde a lo que se invi-
ta al sujeto entrevistado es a la confidencia. Hay, naturalmente, al co-
mienzo de la entrevista una cierta dosis de angustia que hay que resolver
y la manera de hacerlo no está tampoco pautada. Esto es un problema
de empatía, de empatía controlada, es decir, de formación de un ritual en
el que se controlan y canalizan los afectos. Ritual que se genera produ-
ciendo los gestos, las expresiones corporales y la elección de palabras
que tienden a estabilizar, de una manera eficaz, las tendencias disrupti-
vas de la comunicación, creando un clima de naturalidad y neutralidad,
donde la proyección, la confesión, sean posibles. Sobre la sinceridad o
simple simulación de este vínculo empático hay posiciones muy diversas,
desde los que apelan casi a un enamoramiento entre el investigador y el
sujeto entrevistado hasta los que descaradamente reconocen su carácter

407
La obtención de datos

cínico; entre los primeros se encuentra el historiador Ronald Fraser


(1990: 129-150); entre los segundos sobresale el ya mítico sociólogo Er-
ving Goffman, y su forma de entender al ser social —y al investigador—
como un «fingidor», Goffman (1991). Ni que decir que tiene que habrá
de ser cada entrevistador el que gestione y encuentre esta posición em-
pática de acuerdo con sus saberes, capacidades personales y presupues-
tos éticos de la forma de ejercer su oficio; Richard Sennett dice con bri-
llantez que es un proceso de afinación muy parecido al del músico,
avanza a la vez interpretando y escuchándose a sí mismo hasta encon-
trar su tono (Sennett, 2003: 50-59).
Pero de una manera genérica, de lo que se trata en la relación social
entrevista, como dice Pierre Bourdieu (1999: 524 y ss.), es de reducir al
máximo la violencia simbólica que puede ejercerse a través de ella. En
este sentido, la contribución metodológica de Pierre Bourdieu y su equi-
po (Bourdieu, 1999) a la renovación de la práctica de la entrevista abierta
en la investigación social es sugerente y, a la vez, controvertida; sus pro-
puestas de minimizar la violencia simbólica —que surge de las diferen-
cias de los capitales culturales y relacionales del entrevistador y entrevis-
tado—, a base de generar un espacio de «conversación ordinaria» que
anule cualquier imposición temática o dominación situacional por parte
del investigador, ha dado lugar a propuestas concretas tan abiertas como
la idea del encargo del investigador a personas muy próximas al entrevis-
tado para así no violentar el campo simbólico en el que se opera, o la po-
sibilidad de entregar a los entrevistados las primeras sesiones de la entre-
vista para su lectura y reflexión común. Lógicamente las propuestas de
Bourdieu han levantado tanta admiración como polémica, algunos han
señalado que son menos originales y renovadoras de lo que parecen en
una primera lectura —gran parte de lo que se sugiere estaba ya en dife-
rentes tradiciones de la psicología social, la psicoterapia y la antropolo-
gía—, y otros las acusan de un cierto ingenuismo o paternalismo (véase
Mayer, 1995: 355-369). En cualquier caso, su idea de colocar una conver-
sación planteada de la manera más horizontal posible, como fuente ina-
preciable de conocimiento sociológico, no puede estar más cerca de los
planteamientos que se sostienen en estas líneas; sin embargo, aquí, prefe-
rimos mantener —con muchos otros autores (Arfuch, 1995)— la idea de
conversación crítica antes que la de conversación ordinaria, tomando di-
cha conversación crítica como una relación de acoplamiento dinámico
entre iguales, pero diferentes, que siempre tiene resultados interpretati-
vos, esto es, genera significados con intereses, intenciones e interpreta-
ciones del mundo social diferentes.

408
13. La entrevista abierta como práctica social

A partir de las aportaciones de Blanchet (1985 y 1989) podemos decir


que la interacción verbal se establece, propiamente, a partir de un siste-
ma de intervenciones del entrevistador, compuestas por: 1. Consignas: ins-
trucciones que determinan el tema del discurso del entrevistado. 2. Comen-
tarios: explicaciones, observaciones, preguntas e indicaciones que subrayan
las palabras del entrevis­tado.
Toda mecánica discursiva se halla fundada en la asociación y en el
ajuste de un tema y de un comentario. Las consignas sirven al entrevista-
dor para encaminar y definir el tema del discurso subsiguiente del entre-
vistado. La formulación de la consigna es determinante para el sentido
que hay que atribuir al discurso. Cada consigna modifica el contrato de
comunicación y, por tanto, representa la forma más directa de encajar el
discurso del entrevistado en los objetivos de la investiga­ción. Los comen-
tarios tienen como objetivo favorecer la producción del discurso como
un discurso continuo; ajustan de una manera mucho más suave el discur-
so a los objetivos de la investigación, ya que las consignas —y mucho
más aún su abuso— cierran la posibilidad de continuidad discursiva pro-
vocando más bien su ruptura.
Las intervenciones del entrevistador son fundamentalmente actos de
habla, en el sentido propio de la pragmática, esto es, son unidades bási-
cas de comunicación lingüística por la que se realizan acciones —dentro
de un sistema de reglas de referencia— que producen conductas que ex-
presan voluntad expresa y que buscan efectos de modificación del com-
portamiento de los hablantes: convencer, preguntar, aclarar, dirigir, etc.
(Austin, 1981; Searle, 1986). Estos actos de habla, como unidades discre-
tas del discurso delimitadas, llevados a cabo por el entrevistador pueden
ser agrupados en tres tipos de instan­cias:

a) Declaración. Acto por el cual el que habla hace conocer al interlo-


cutor su punto de vista o conocimientos.
b) Interrogación. El que habla obliga al interlocutor a responder una
pregunta.
c) Reiteración. Acto por el cual el que habla asume, repitiéndolo, un
punto de vista enunciado por el interlo­cutor.

Estos tres actos del lenguaje se pueden establecer remitiendo todo


enun­ciado a dos registros discursivos comunes.

1. Un registro referencial, definido como la instancia discursiva de


identificación y de definición del objeto del que se habla.

409
La obtención de datos

2. Un registro modal, definido como la instancia discursiva que tra-


duce la actitud del locutor respecto de la referencia.

Del cruce del tipo de acto con el tipo de registro surgen los seis tipos
básicos de intervenciones y comentarios del investigador en la entrevista
abierta.

1. Una declaración a nivel referencial es una complemen­tación.


2. Una declaración a nivel modal es una interpretación.
3. Una interrogación a nivel referencial es una pregunta sobre el con-
tenido.
4. Una interrogación a nivel modal es una pregunta sobre la actitud.
5. A la reiteración referencial la denominaremos eco.
6. A la reiteración modal la denominaremos reflejo.

Las complementaciones estimulan un discurso narrativo y descriptivo,


tratando de abundar en su exhaustividad y en su profundidad; vienen a
añadir un elemento de identificación de la referencia al enunciado prece-
dente del entrevistado. Son, o bien síntesis parciales, o bien anticipacio-
nes inseguras que fuerzan a la contrastación por parte del entrevistado, o
bien inferencias que tratan de establecer las implicaciones lógicas o prag-
máticas de los enunciados.
Las interpretaciones tienden a orientar el discurso hacia el registro
modal, es una intervención que pretende expresar una actitud del entre-
vistado, no explicitada, centrada en la causa de lo dicho por el entrevis-
tado, es decir, sobre su sentido tal como se halla constituido por la inter-
vención del sujeto parlante. Este tipo de intervención es, casi siempre,
percibido por el entrevistado como un poder sobre su discurso. La inter-
pretación, entonces, provoca unos efectos de consen­timiento o de resis-
tencia, según que se suponga que revela unas intenciones congruentes
con el contenido proposicional de lo dicho (interpretación confirmativa)
o unas intenciones contrarias u opuestas que tratan de otorgar una cohe-
rencia y una orientación diferentes a las versiones causales de la cadena
de acontecimientos aportados por el entrevistado. La interpretación con-
fiere un sentido al acto de palabra y lo transforma en acto intencional.
Preguntas sobre el contenido, toda intervención de modo interrogativo
que solicita una identificación suplementaria de la referencia.
Preguntas sobre la actitud, toda intervención de modo interrogativo que
solicita una identificación de la actitud proposicional del entrevistado.

410
13. La entrevista abierta como práctica social

Ambas intervenciones aceleran el intercambio oral y son fundamenta-


les en la construcción discursiva de la entrevista —frente a la pregunta
cerrada e inamovible del cuestionario—; de la buena distribución y dosis
de las interrogaciones dependen la posibilidad de ir estableciendo el re-
gistro discursivo en función de los objetivos integrados en la temática
tratada. Sin embargo, una dosis masiva de interroga­ción perturba el de-
sarrollo de la entrevista de investigación.
El eco opera una selección en el conjunto del discurso que subraya su
importancia. Aísla reiterando una parte y, por lo tanto, representa, de
entrada, un corte en la totalidad y en la linealidad del discurso que, de
producirse en exceso, puede resultar trivializador e, incluso, artificial o
irritante.
El reflejo es una forma de reiteración que reproduce en el entrevista-
dor la actitud del que habla. En este sentido, el reflejo tiene la función
(casi conductista) de que el entrevistado se refiera, de una manera más
amplia, a su posición personal y hace centrarse el discurso en el desarro-
llo del propio pensamiento, íntimo y privado, del entrevistado. Su em-
pleo excesivo produce una sobremodalización de la entrevista, mucho
más necesaria en la entrevista terapéu­tica o clínica que en la entrevista de
investigación social.
En la siguiente tabla resumimos todas estas intervenciones.

Actos de habla en la entrevista abierta

TIPO DE INTERVENCIONES

NIVEL DE
Declaraciones Interrogaciones Reiteraciones
REGISTRO

Referencial Complementaciones Preguntas sobre contenido Ecos

Modal Interpretaciones Preguntas sobre actitud Reflejos

Del uso de todos estos resortes enunciativos depende el resultado de la


entrevista, esto es lo que hace al entrevistador un auténtico investigador.
Depende de su habilidad, su sensibilidad y su cultura para llevar a cabo la
entrevista, no hay recetas ni instrucciones estandarizadas sino su capaci-
dad de reflexión y decisión sobre el propio trabajo que está realizando.

411
La obtención de datos

5.3 El universo social de referencia: la entrevista abierta, el contexto


y la construcción del sentido

De todo lo anterior se deduce que la entrevista abierta es un acercamien-


to a la figura del individuo como un actor que —como afirma Goffman
(2006: 523-538)— desempeña, dramatizándolo, un cierto modelo de rol
social. Y este desempeño, a la vez que dramatización de un código, es
una idealización, pues tiende a moldear un desempeño según la forma
ideal del rol pertinente. De este modo, cuando el individuo se presenta
ante otros, su desempeño tenderá más a incorporar y ejemplificar los va-
lores que espera sean atendi­dos por la sociedad desde su grupo de refe-
rencia. En el sentido que Merton y Kitt (1975: 243-245) diferencian gru-
po de referencia del simple grupo o grupos de interacción —que son
parte del ambiente social donde un individuo despliega su sistema de
interaccio­nes, sin más trascendencia valorativa personal—; sin embargo,
el grupo de referencia siempre se define en función de tres criterios: 1) com-
prende cierto número de individuos que interactúan entre sí sobre la base
de pautas establecidas; 2) las personas que interactúan se definen a sí
mismos como miembros del grupo; 3) estas personas son definidas por
otros (miembros y no miembros) como miembros del grupo.
Todo ello nos lleva a recuperar el sentido profundamente social del
sujeto; pues como afirma Amando de Miguel en una temprana presenta-
ción de la microsociología norteamericana de los años sesenta: «El sujeto
de la interacción social no sería propiamente el yo, sino la persona en
cuanto representando un papel determinado en función de un estatus
también determinado. Por eso “persona” es máscara, porque cada una
de ellas adopta tantas “caras” o “papeles” como situaciones de interac-
ción sean posibles» (de Miguel, 1969: 29).
Esta actuación puede definirse como la actividad total de un partici-
pante concreto en una ocasión dada que sirve para influir, de algún
modo, sobre otro participante. La pauta de actuación preestablecida que
se tiende a generar en una interacción suele denominarse «papel» o «ruti-
na» (Goffman, 2006: 198-205). El individuo está siempre involucrado en
dos papeles básicos, como «actuante», forjador de impresiones, y como
«personaje», una figura cuyo espíritu, fortaleza e imagen deben ser evo-
cadas en esa situación. Se exige que el individuo se transforme en perso-
naje para poder sostener la realidad social de la interacción cara a cara.
La expresividad del individuo involucra dos tipos distintos de actividad
significante: la expresión que da y la expresión que emana de él. Así, la
entrevista produce los símbolos verbales que el individuo usa con el úni-

412
13. La entrevista abierta como práctica social

co propósito de transmitir información —la comunicación en sentido


tradicional y limitado del término—; pero siempre es complementada
con acciones que tienden a perfilar al actor social como personaje.
La entrevista abierta de investigación social, por lo tanto, es especial­
mente interesante para determinar los discursos arquetípicos de los indi-
viduos en sus grupos de referencia, sin darle al concepto de arquetipo
ningún sentido psicoanalítico o mitológico, sino su más convencional
uso cotidiano de tipo ideal que sirve de ejemplo y modelo de entendi-
miento, como síntesis de idea y símbolo, ya que el individuo se refiere al
grupo de referencia para formular evaluaciones acerca de sí mismo y de
los otros. Se trata, entonces, de una función perceptiva y comparativa en el
curso de la cual el sujeto se evalúa a sí mismo. Por ello, la entrevista
abierta sirve para dar la palabra social a la estructura del carácter de un
sujeto arquetípico; pero, insistimos, no en un sentido estrechamente psi-
cologista de este concepto, sino en el plano interactivo de relación del ca-
rácter personal con el otro generalizado, esto es, en el ámbito de la inte-
gración relativamente estabilizada de la estructura psíquica del actor con
los roles sociales de la persona (Gerth y Mills, 1984). Cuanto más arque-
típico, mejor representa un rol social y cuanto más delimitable sea el gru-
po de referencia, más fácil será por lo tanto que la entrevista abierta sea
útil en la investi­gación social.
La entrevista abierta suele resultar muy productiva para el estudio de
casos «desviados» o extremos. En ella queda reflejada, con toda su rique-
za, la actitud de ciertos individuos que encarnan el modelo ideal de una
determinada actitud arquetípica, mucho menos cristalizada en la «me-
dia» del colectivo de referencia. Ello es debido a la capacidad de su situa-
ción proyectiva para revelar las relaciones con los modelos culturales de
personalidad (reflejados en el otro generalizado); o, si se quiere, para ex-
presar la relación, en términos freudianos, entre el narcisismo del «yo
ideal» y las exigencias del «ideal del yo». Siguiendo a Alfonso Ortí (1986:
178-179) podemos afirmar que la función metodológica básica de la en-
trevista abierta en el contexto de una investigación sociológica se circuns-
cribe a la reproducción del discurso motivacional (consciente e incons-
ciente) de una personalidad típica en una situación social bien delimitada.
A partir de la elaboración por el entrevistado de su propio discurso, el
sociólogo aspira a leer, en todas sus dimensiones y niveles, más que sus
características individuales, las coordenadas motivacionales (biográficas,
culturales, grupales, clasistas...) de la acción social situada en la “clase de
sujeto” en presencia o, lo que es lo mismo, del sujeto típico de la clase de
referencia. En suma, lo que aspiramos a observar y podemos estudiar en

413
La obtención de datos

el discurso del entrevistado no son, en este género de investigación, sus


problemas personales, sino la forma social —cultural y de clase— de la
estructura de su personalidad y los condicionamientos ideológicos de su
proceso motivacional típico.
La entrevista abierta, entonces, tiende a producir una expresión indivi-
dual; pero precisamente porque esta individualidad es una individualidad
socializada por una mentalidad cotidiana estructurada tanto por habitus
lingüísticos como sociales —como sistemas de esquemas generadores de
prácticas y, al mismo tiempo, de percepción de estas prácticas (Bourdieu,
1991: 91 ss)— que conforman estilos de vida, en cuanto que formaciones y
validaciones específicas de la conducta realizadas dentro de los grupos de
estatus socioeconómico (Weber, 1985: 145 y ss). Pues, como insistió en su
día Ch. Wright Mills (1981: 345), las palabras son portadoras de significa-
dos en virtud de las interpretaciones dominantes atribuidas a ellas por la
conducta social; las interpretaciones surgen de los modos habituales de
conducta que giran en torno a los símbolos y es en esos moldes sociales en
los que construyen los significados de los símbolos.
La entrevista abierta es, por lo tanto, un proceso de interacción espe-
cífico y parcialmente controlado, en el que el interlocutor «informante»
construye arquetípicamente una imagen de su personalidad, escogiendo
una serie de materiales biográficos y proyectivos de cara a su presenta-
ción social (Goffman, 1973), de tal manera que la identidad personal
puede ser vista como algo que reside en las convenciones prevalecientes
sobre los miembros de un sistema social. La identidad en este sentido no
es una propiedad de la persona a quien es atribuida —como bien indica
Goffman (1972)—, sino inherente más bien a la pauta del control social
que es ejercido sobre esa persona por ella misma y por cuantos la ro-
dean. Por ello, el ordenamiento institucional más que soportar la identi-
dad la construye.
De esta manera, la entrevista abierta se instituye y desenvuelve a partir
de su capacidad para dar cuenta de la vivencia individual del informante
(manifiesta o latente) del sistema de «marcadores sociales» que encuadran
la vida social del individuo específico, ya que en nuestra sociedad rige un
sistema de etiquetas —que, como nos recuerda Amando de Miguel (1969:
24), fue ya Pareto el primero en utilizar el término de etiqueta y que para
este autor, además, son las «etiquetas» y no las personas la unidad básica
de análisis de la realidad social, creando desde entonces una poderosa línea
de estudio dentro de las ciencias sociales que llega hasta hoy—, sistema de
etiquetas que insta al individuo a manejar en forma conveniente sus suce-
sos expresivos, y a proyectar, por medio de ellos, una imagen adecuada de

414
13. La entrevista abierta como práctica social

sí mismo, un respeto apropiado por los presentes y una consideración satis-


factoria por el encuadre. El discurso que se produce a través de la entrevis-
ta, por lo tanto, es un relato en el que la situación implicativa genera una
«inversión de la persona», ya que al observarse y presentarse a sí misma en
realidad observa el sistema de etiquetas sociales que la enmarcan. El eti-
quetado aquí no debe entenderse sólo como un proceso de producción de
desviación y estigmatización (Becker, 2009), sino como el proceso general
por el cual ciertos individuos y grupos sociales son identificados como po-
seedores de ciertas características que les atribuyen otros individuos o gru-
pos que poseen el poder y la influencia para que funcionen esas etiquetas
(Giddens y Sutton, 2015: 272).

6. Conclusión: las entrevistas abiertas y los relatos


de los actores

Esta intencionalidad limitada de los actores, acotada por su contexto socio-


histórico y por una pre-reflexión de los fines de la acción, es lo que permite
hablar de construcción del sentido en los productos de las entrevistas
abiertas en la práctica sociológica. Y es que el sentido, como búsqueda
consciente o preconsciente por parte de los sujetos de efectos en sus accio-
nes fácticas y/o simbólicas, desborda la significación como representación
limitada en un sistema lingüístico y/o informático. Por esto no hay comu-
nicación abstracta, sino que las expresiones concretas de los intercambios
comunicativos de los hombres toman el cuerpo de relatos, de narraciones,
en las que los sujetos sintetizan en un «punto de vista» elementos tempora-
les, sociales y referenciales para causar efectos en otros, dentro de situacio-
nes históricas que tanto confieren, como reciben, sentido de esos mismos
relatos (Ricoeur, 2003). En la entrevista abierta se demuestra que el mundo
de las representaciones no sólo se impone a los actores sociales como imá-
genes externas, también es la forma en que los actores se representan a sí
mismos y en las que tratan de expresar su propia vida. El producto final de
la entrevista abierta es un relato sobre un relato, el sociólogo —como seña-
la García Ferrando (2014: 150) siguiendo y matizando a Aaron Cicourel—
hace siempre una re-escritura de la entrevista en la que el lector pueda
comprender cómo los participantes y el observador extraen un significado
de su entorno tal cómo lo enmarca el investigador.
La orientación cualitativa, en sociología, busca, siempre, situarse en el
campo de las relaciones cotidianas, ya sea entrando en su espacio comuni-
cativo a partir de sus productos icónicos o textuales, ya sea reconstruyendo

415
La obtención de datos

la dinámica interpersonal de acciones y comunicaciones que crean y re-


crean la realidad social. La entrevista abierta se plantea más como la re-
construcción de un conjunto de prácticas situadas —esto es, como un siste-
ma de métodos y rituales difusos que utilizan los miembros de la
comunidad para construir permanentemente su mundo— que como un
simple conjunto de respuestas u opiniones que surgen, de posiciones estáti-
cas e individualizadas derivadas de la posición prefijada, en la estructura
formal de las organizaciones sociales. Ahora bien, esta inmersión en la ca-
pacidad de creación de los actores no puede hacer que el análisis final de
la entrevista olvide las constreñimientos institucionales de los actores, en
palabras de Löic Wacquant (2012: 138): «cada microcosmos presupone
un macrocosmos que le asigna un lugar y límites e implica una densa red
de relaciones que van más allá del lugar específico que se está estudian-
do, cada corte sincrónico de la realidad observada ha incorporado en él
una doble sedimentación de fuerzas históricas bajo la forma de institu-
ciones y agentes encarnados e investidos de capacidades, deseos y dispo-
siciones particulares».
De este modo, en las entrevistas abiertas las representaciones sociales
son un hecho fundamental de la expresión personal de la cognición de los
grupos sociales, pues en ellas se pueden descubrir los procedimientos inter-
pretativos según los cuales los actores tienden a generar esquemas para rea-
lizar sus acciones. No por casualidad la práctica de la entrevista abierta se
adapta especialmente a un proyecto de sociología cognitiva (Cicourel, 1979,
2011), en el que se nos remite, precisamente, a la manera en que se adquie-
ren y se utilizan esos procedimientos interpretativos para formalizar víncu-
los sociales concretos; esto obliga, de nuevo, a definir prácticamente la so-
ciología que se hace con entrevistas abiertas como un conjunto situado de
procedimientos interpretativos refinados sobre procedimientos interpretati-
vos espontáneos. Por ello, la entrevista abierta sólo puede ser considerada
como el trabajo de un sociólogo que supera una tajante y artificial división
entre lo micro y lo macrosociológico, porque el marco real de la acción es
siempre una imbricación de contextos en los que el investigador acaba inter-
viniendo, directa o indirectamente, para dar sentido a la acción de los in-
vestigados, pero también a su propia acción de conocimiento.

Notas
1  La introducción general más completa y asequible para el lector español al
tema de la entrevista abierta en sociología, imprescindible para quien quiera

416
13. La entrevista abierta como práctica social

profundizar en esta práctica de investigación, es la de Valles (2014); realizados


desde tradiciones epistemológicas diferentes, pero también de magnífica calidad,
son los trabajos de Rubin y Rublin (1995), Kvale (2011) y Blanchet y Gotman
(2010).

Bibliografía recomendada
Alonso, L. E. (1998): La mirada cualitativa en sociología. Una aproximación in-
terpretativa, Madrid, Fundamentos.
Arfuch L. (1995): La entrevista, una invención dialógica, Barcelona, Paidós.
Blanchet A., y Gotman, A. (2010): L’entretien: l’enquête et ses méthodes, París,
Armand Colin.
Rubin, H. J., y Rubin, I. S. (1995): Qualitative Interviewing. The Art of Hearing
Data, Thousand Oaks, California, Sage.
Valles, M. S. (2014): Entrevistas cualitativas, Madrid, Centro de investigaciones
Sociológicas, 2ª edición.

417
La obtención de datos

14.  Cómo se realiza una


investigación mediante
grupos de discusión

Jesús Ibáñez

1. Introducción

En el presente capítulo no intentaremos prescribir cómo se hace (se hace


tal y tal cosa), sino que describiremos las consecuencias del hacer (si se
hace tal cosa, puede ocurrir tal otra). La investigación mediante grupos
de discusión no está sostenida por un algoritmo, sino por la estrategia de
un sujeto. Hay dos modos de informar a un sistema: inyectarle informa-
ción desde fuera (programarle), y construirle de modo que pueda produ-
cir información (producir orden en el sistema a partir del ruido —azar—
del ecosistema). El proceso de investigación mediante grupos de
discusión obedece a la estrategia de un sujeto en proceso (de un sujeto
que cambia).
Describiremos brevemente las fases del proceso de investigación:

• Diseño.
• Formación del grupo: producción del contexto situacional o exis-
tencial.
• Funcionamiento del grupo: producción del contexto convencional o
lingüístico.
• Análisis e interpretación del discurso del grupo: aplicación del con-
texto convencional sobre el contexto existencial.

418
14. Cómo se realiza una investigación mediante grupos de discusión

2. Diseño

En la perspectiva distributiva (por ejemplo, la encuesta): por una parte,


el diseño está separado de la ejecución; por otra parte, el diseño es la
parte fundamental de la investigación (la estructura de los datos es tridi-
mensional —individuos/preguntas/respuestas—, y antes de empezar las
entrevistas el diseño tiene que estar completado en las tres dimensiones
—cuadros de resultados, cuestionario, muestra—). Es un proceso de bús-
queda: y hay que delimitar lo que se busca.
En la perspectiva estructural (por ejemplo, un grupo de discusión):
por una parte, el diseño atraviesa todo el proceso de investigación; por
otra parte, no es la parte fundamental de la investigación. El proceso de
investigación está regulado por la estrategia del sujeto de la investiga-
ción; y esa estrategia no deja de operar. Es un proceso de encuentro: y
hay que tener abierto el dispositivo.
En la encuesta, la información tiene forma fotogramática, en el grupo
de discusión, hologramática. Un fotograma se obtiene con luz incoheren-
te (los rayos no están en fase), cada punto de la imagen contiene infor-
mación sobre un punto del objeto: si se parte la imagen por la mitad,
tendremos toda la información de la mitad del objeto. Un holograma se
obtiene con luz coherente (los rayos están en fase), cada punto de imagen
contiene información sobre todo el objeto: si se parte la imagen por la
mitad, tendremos la mitad de la información de todo el objeto.

La libertad del investigador está limitada por las fronteras del grupo:
• En el espacio: sólo puede reunir a un número de participantes entre
5 y 10. El límite superior se justifica por consideraciones cuantitati-
vas (el número de canales de comunicación crece en razón geométri-
ca respecto al número de elementos: con dos hay un canal, con tres
hay tres, con cuatro, seis, etc.): con diez hay cuarenta y cinco cana-
les, que serían excesivos si todos funcionaran al mismo tiempo —
pero alguno calla todo el grupo, y algunos callan parte del grupo—.
El límite inferior se justifica por consideraciones cualitativas (el gru-
po nuclear es el grupo edípico, que tiene cuatro términos —papá,
mamá y nene; y el tío que es el embrague con el macrogrupo—),
para saturar todas las relaciones es preciso un grupo de al menos
cuatro (y que actúe con máxima tensión, todos participando todo el
tiempo: con cinco hay ya redundancia).

419
La obtención de datos

• En el tiempo: no puede durar más de hora y media. El tiempo de la


discusión ha de cubrir la intersección de los segmentos de ocio de
los participantes (de ahí la duración limitada). Especial dificultad
presenta la puntuación del comienzo y el final. El comienzo viene
puntuado por la convocatoria: esta convocatoria determina el aquí
y ahora del comienzo (lo que atribuye al grupo un componente de
laboratorio o sedentario). El final podría ser puntuado por el pre-
ceptor o por el grupo. No lo puede puntuar el preceptor: pues indi-
caría que el consenso del grupo depende de su acuerdo. No lo puede
puntuar el grupo: pues el ponerse de acuerdo exigiría un tiempo in-
finito. (Cuando Dios vivía, toda legitimación se fundaba en el
acuerdo divino —de ahí, por ejemplo, la ordalía—. Si Dios ha
muerto, al no haber nadie que nos dé su acuerdo, no nos queda más
remedio que ponernos de acuerdo entre nosotros —de ahí el con-
senso—.) Lo más práctico puede ser, a guisa de compromiso, adver-
tir al principio de la duración aproximada: lo que precipita en el
grupo la urgencia del consenso.

3.  Formación del grupo de discusión

El preceptor —el que convoca el grupo y provoca el tema de discusión—


domina sobre el grupo, pues le asigna el espacio y le limita el tiempo.
Mediante la formación o atribución al grupo de su forma espacial, el
grupo toma cuerpo. El grupo toma cuerpo en dos sentidos, que constitu-
yen dos círculos concéntricos (el círculo es la forma arquetípica del grupo):

• Biológico: el grupo es un cuerpo de cuerpos. Grupo viene de «grop-


po» (composición escultórica, los cuerpos están por abajo fundidos
y por arriba separados). Para formar el grupo, hay que seleccionar
los cuerpos de participantes (y fundirlos parcialmente).
• Ecológico: el grupo se forma en un territorio, un espacio en el que
coagula como cuerpo de cuerpos (un espacio para la movilidad real
e imaginaria). Los grupos reales tienen que conquistar su territorio,
al grupo de discusión el territorio le es asignado (mientras dura su
trabajo).

a) En la selección de participantes se articulan dos operaciones:


• Determinación algebraica (abstracta) de las clases de participantes.
• Contacto concreto, mediante redes topológicas, con los participantes.

420
14. Cómo se realiza una investigación mediante grupos de discusión

a.1)  La determinación algebraica implica:

• Determinación de las clases de participantes.


• Distribución en grupos.

a.1.1) Una muestra distributiva es de elementos, una muestra estruc-


tural es de relaciones entre los elementos. La muestra distributiva se cen-
tra en los plenos: en la continuidad de los términos (identidad) y entre
los términos (conjunto: extensión). La muestra estructural se centra en
los huecos (en los silencios o límites en el espacio, y en las fronteras o lí-
mites en el tiempo).

• En el espacio: las zonas polarizadas (los extremos y los frentes).


• En el tiempo: las fases transicionales (los momentos de cambio).

Por ejemplo: para investigar la remodelación de la imagen de un licor


tipo Benedictine (generado en el capitalismo de producción, hay que aco-
modarlo al capitalismo de consumo), zonas polarizadas (en el polo re-
gresivo «personas de edad de clase media tradicional en una pequeña
ciudad de meseta», en el polo progresivo «jóvenes in de profesión emer-
gente en una gran ciudad»), fases transicionales (han cambiado de con-
texto «inmigrantes del campo a la ciudad», ha cambiado el contexto «ha-
bitantes en zona de reciente industrialización»).

a.1.2)  Cada grupo tiene también fronteras exteriores e interiores: pue-


den ser más o menos porosas.

Los dos límites a la comunicación son el tonto (relaciones de inclu-


sión: todo es común —tópico—, y por tanto ya comunicado) y el loco
(relaciones de exclusión: nada es común, y por tanto no comunicable).
Sólo hay comunicación si las relaciones son de intersección: hay parte
común y parte no común —y por tanto comunicable—. En nuestra so-
ciedad hay relaciones de exclusión: a nivel micro, como la relación padre/
hijo (no se pueden mezclar en un grupo personas de generaciones distin-
tas): a nivel macro, como la relación propietario/proletario (no se pueden
mezclar en un grupo).
Para que la comunicación sea posible, un grupo concreto de investiga-
ción debe estar incluido por fronteras excluyentes y debe incluir fronteras
inclusivas (pero no fronteras excluyentes).

421
La obtención de datos

a.2)  El contacto topológico para traer a los participantes al grupo


implica la utilización de redes de relaciones (de comunicación). Las redes
pueden ser naturales (secundarias) o artificiales (primarias: construidas
por el proceso de investigación). Las redes pueden contener relaciones
asimétricas o simétricas (coherentes o no coherentes con el orden insti-
tuido).

a.2.1)   La encuesta, como la policía, abre sus propias redes: irrumpen


en la intimidad en el momento y por el camino más inesperados. El gru-
po de discusión debe utilizar redes preexistentes (relaciones de parentes-
co, vecindad, trabajo, amistad, etc.): pues si abre sus propias redes (los
participantes son convocados súbitamente o por un desconocido), revela
el poder que —en cuanto figura del padre— debe ocultar. Los partici-
pantes deben creer que juegan en su propio terreno, no en el terreno del
Otro.
Una red «polímera» (encadenando relaciones de los diversos tipos)
parece la más conveniente. Con dos condiciones:

• Que los participantes no estén ligados inmediatamente ni con el pre-


ceptor ni entre sí.
• Que la red se rompa por introducción de un profesional. Entre el
preceptor y los participantes se interpone el profesional que los se-
lecciona. Así se interrumpen los flujos de deuda. De lo contrario,
los participantes estarían ligados al preceptor: darían o recibirían
una prestación gratuita.

a.2.2)  Si la red contiene relaciones asimétricas, tiende a imponer or-


den al grupo: así, si los empleados son convocados a través del jefe (o el
jefe a través de los empleados).
Si la red contiene relaciones simétricas coherentes con el orden insti-
tuido, es más o menos neutral: así, si para hablar de política se utiliza la
mediación de un vecino.
Si la red contiene relaciones simétricas no coherentes con el orden ins-
tituido, tiende a provocar el desorden en el grupo: así, si para hablar de
la lucha armada se convoca a través de gestoras pro amnistía (o para ha-
blar de derechos humanos se convoca a través de homosexuales).
Cualquier contenido vale: pero hay que tener en cuenta el efecto pro-
ducido por la red. Sería significativo que participantes traídos a través de
gestoras pro amnistía hablaran mal de ETA (pero no que no hablaran).

422
14. Cómo se realiza una investigación mediante grupos de discusión

b)  El territorio asignado al grupo tiene una cara cóncava (y, por tan-
to, una ecología) y una cara convexa (y, por tanto, una semiología).

b.1)  En relación a su cara cóncava, el local de reunión es un símbolo


uterino: el grupo desea, en lo imaginario, un recinto cerrado hacia afuera
—discontinuo con el exterior— y abierto hacia adentro —continuo por
el interior—. Así se protege de la mirada del padre, y puede desplegar sus
fantasías de regreso a la madre (borrar las diferencias entre los miembros
—de sexo, de edad—: cada uno sería idéntico a sí mismo —no cambia—
e idéntico a cada otro —es permutable con él—).
Pero el grupo de discusión no es sólo un grupo de base, es —tam-
bién— un grupo de trabajo (su trabajo es la producción de un discurso).
Por eso su espacio está acotado y balizado: lo acota la mesa, lo balizan
las sillas. La mesa (mejor baja y breve) contiene contra la tendencia a la
fusión imaginaria en el grupo, y las sillas contienen contra la tendencia a
la permutabilidad: así el grupo tiende a trabajar, y sus miembros a asu-
mir papeles diferentes.

Se puede jugar con la forma de la mesa y las sillas.


Con la forma de la mesa. Metafóricamente: la mesa arquetípica es re-
donda; se juega irónicamente poniendo mesas ovaladas o elípticas (ame-
naza de distocia), hiperbólicas o parabólicas (amenaza de estallido), cua-
dradas (manifestación del grupo de trabajo); se juega humorísticamente
poniendo mesas perfectamente redondas (manifestando el propio juego).
Metonímicamente: una mesa maciza y grande potencia el grupo de tra-
bajo, una mesa ligera y breve potencia el grupo básico (es la diferencia en
nuestras salas de estar entre mesa y sobremesa).
Con la forma de las sillas. Alta y rígida potencia el grupo de trabajo,
baja y confortable potencia el grupo básico.

b.2)  En relación a su cara convexa, el local de reunión es un símbolo


fálico: es una marca que se ve desde fuera.
Los locales en los que se puede reunir un grupo tienen una marca so-
cial que los valora (positiva o negativamente).
Una marca negativa potencia la subversión irónica (así, una discusión
sobre temas políticos en un local de MC) o la reversión humorística (así,
una discusión sobre temas sexuales en un local de CNT).
Una marca positiva potencia la conversión: el conformismo (así, una
discusión sobre productos comerciales en una tienda o sobre elecciones
en un local del PSOE).

423
La obtención de datos

Hay locales «neutrales» (esto es, neutralizados). Así, bares u hoteles


(abiertos, en teoría a todos) o centros de investigación (al socaire de la
supuesta neutralidad de la ciencia).

4.  Funcionamiento del grupo de discusión

La temporalidad del grupo se escande en dos momentos:


• Un momento interior al grupo: una historia en el grupo (la ficción
que el grupo representa).
• Un momento exterior al grupo: una historia del grupo (que embra-
ga al grupo con la Historia). Precede al grupo desde que el precep-
tor empieza a mover los hilos, lo atraviesa, y lo postcede desde que
el preceptor utiliza el discurso del grupo como texto-para-analizar
(el proceso nunca termina, pues el producto del análisis se recicla en
un nuevo ciclo de manipulación).

Para comprender la historia que se representa en el grupo, tenemos


que analizar:
• El escenario: los personajes y sus relaciones.
• La escena: la actuación de esos personajes en la obra.

a)  Los personajes son: el preceptor, los miembros del grupo y el pro-
pio grupo. Los primeros (preceptor y miembros) son reales, el grupo es
imaginario.
Entre esos personajes se entablan relaciones asimétricas (de transfe-
rencia y comunicación) y relaciones simétricas (de fusión y degradación
del grupo).

a.1.) La transferencia es al preceptor y al grupo.


Transferencia (de trans + fero) es transporte: Freud observó que situa-
ciones vividas por el analizante —generalmente en la infancia— eran
transportadas o transferidas a la situación de análisis; luego, contrajo la
transferencia a las relaciones transferidas a la relación analista/analizan-
te. Lacan interpretó la transferencia como efecto de la no respuesta del
analista a la demanda del analizante. El analista aparece ante el anali-
zante como sujeto-supuesto-saber: aquel que va a contestar a sus pre-
guntas y va a resolver sus problemas. En el análisis, la cura es la reabsor-
ción de la transferencia: cuando el analizante comprende que las
preguntas no tienen respuesta, ni los problemas solución, definitivas (que

424
14. Cómo se realiza una investigación mediante grupos de discusión

la respuesta y la solución precarias son cosa del propio analizante). La


relación asimétrica se resuelve en simétrica.
En el grupo de discusión, la transferencia no se reabsorbe: vira de
transferencia al preceptor a transferencia al grupo. El preceptor no se
desnuda de su papel de sujeto-supuesto-saber: pues ese papel le mantiene
como preceptor potencial en el mercado.
Al comienzo de la reunión (transferencia al preceptor) el silencio del
preceptor pesa sobre el grupo: por eso le interpelan, están pendientes de él.
Cuando la discusión va transcurriendo, la transferencia vira al grupo:
en vez de buscar el acuerdo del preceptor (del Otro), tratan de ponerse de
acuerdo entre ellos. Es el consenso («de la discusión sale la luz»): no
como producto de un trabajo, sino como hallazgo de un objeto perdido
que ya estaba allí (en términos de Bion, pasan del supuesto básico de de-
pendencia al supuesto básico de apareamiento).
Lo que se representa es la muerte de Dios.

a.2)  La comunicación entre los miembros es una transitividad circu-


lar fundada en relaciones aparentemente simétricas.
Lacan ha reformulado el «cogito»: yo me adelanto a declararme hu-
mano antes de que los demás me convenzan de que no lo soy. Guerra y
comunicación tienen la misma forma: poner a los adversarios frente a
frente y distribuirlos en vencedor y vencido (aquí, emisor y receptor).
Cada uno desea ser reconocido por los otros: lo cual sólo puede lo-
grarse adelantándose a ellos para tomar la palabra (convirtiéndose en lí-
der). Cada uno intenta que el consenso del grupo refleje su posición indi-
vidual. La comunicación entre los miembros es un juego de
dominaciones, una comunicación dual y circular (el consenso sería el ter-
cero que la rompe).

a.3)  La fusión del grupo nunca se alcanza: pues la fusión implicaría


que el grupo tomara la palabra (llegara a ser grupo-sujeto); y el grupo de
discusión será siempre objeto (objeto-para la manipulación).
Hay, según Guattari, grupos-objeto depresivos y paranoicos. Un gru-
po depresivo no se vive como unidad sino como parte de una unidad su-
perior: así, por ejemplo, los grupos de consumidores o votantes. Un gru-
po paranoico se vive como unidad reactiva: son las sectas (que tratan de
repetir la escisión que les dio el ser: así, PTE frente a PCE o PEPSI fren-
te a COCA), y las bandas (que tratan de conjurar el peligro de la desban-
dada: así, CNT o DIANNE —para presumir de no presumir de co-
che—). Sólo un grupo-sujeto se vive como unidad activa: el reactivo dice

425
La obtención de datos

«tú eres malo luego yo soy bueno», el activo dice «yo soy bueno luego tú
eres malo».
Excepcionalmente, la fusión es posible. Así: un grupo fue el cataliza-
dor Mayo-68. Normalmente, la fusión sólo existe en estado de esperan-
za: la guerra del grupo es una guerra perdida, gana el preceptor o los po-
deres a los que representa (el grupo se degrada vencido).

b)  En este escenario los personajes actúan: actúa el preceptor y ac-


túan los miembros del grupo.

b.1)  El preceptor puede actuar: personalmente (provoca y cataliza


—racional y emocionalmente— la discusión), y mediante dobles escindi-
dos imaginariamente de él (observadores y magnetofón/vídeo).

b.1.1)  La actuación personal del preceptor incluye: una provocación


inicial y una provocación continuada.
La provocación inicial del tema incluye un componente racional (pro-
pone el tema a discutir), y un componente emocional (suscita el deseo de
discutirlo).
La propuesta inicial del tema puede ser: denotada o connotada. La
propuesta denotada puede ser: a nivel del tema («cerveza», para discutir
sobre cerveza), o a nivel superior («bebidas» para discutir sobre cerveza:
con lo que aparece el contexto del tema —cómo se ubica la cerveza en el
contexto de las bebidas—). La provocación connotada puede ser: propo-
niendo un tema que lleve al tema, bien por condensación metafórica (así,
«Hungría» para discutir sobre la perestroika rusa), bien por desplaza-
miento metonímico (así, «transporte» para discutir sobre gasolina —por
ejemplo, si deseamos investigar expectativas sobre el cambio de precio de
la gasolina—).
El preceptor suscita el deseo de discutir el tema mediante la transfe-
rencia/contratransferencia: desde que entra en la sala se produce una tu-
pida red de complicidades con él o enfrentamientos con él, y mediante el
manejo de esa red maneja el deseo de los miembros del grupo.
El preceptor no participa en la discusión, trabaja sobre ella: mientras
dura, catalizando la producción del discurso del grupo, y después que
termina interpretando y analizando el discurso construido. Para catali-
zar la discusión, el preceptor puede —y debe— intervenir, pero desde
otro nivel (su relación no es simétrica con los miembros). Lo que plantea
el problema de su posición de discurso, y el problema del contenido de su
discurso.

426
14. Cómo se realiza una investigación mediante grupos de discusión

El preceptor puede adoptar una de esas posiciones de discurso: repre-


siva (si valora negativamente: corrige un error, hace gestos de desaproba-
ción, se enfrenta con ellos, etc.); cómplice (si valora afirmativamente:
sonríe amistosamente, hace gestos de aprobación, dice «Claro», etc.); de
pantalla: si no juzga lo que dicen ellos pero está a su escucha. La tercera
posición es la correcta. El preceptor debe mostrar que lo ve todo y lo es-
cucha todo (es pantalla) pero no lo juzga (no es más que pantalla).
Una pantalla refleja. En este caso, refleja el discurso del grupo. Tam-
bién lo refracta. Sólo puede intervenir de dos modos:

• Reformulando: devolviendo al grupo el deseo manifestado («decía


usted antes que el aire acondicionado le resultaba asfixiante…»).
Debe reformular con las mismas palabras, el mismo tono y los mis-
mos gestos; cambiarlos supondría una valoración de ese deseo (sí,
por ejemplo, uno ha dicho «el Felipillo» y el preceptor reformula «el
señor Presidente del Gobierno», está corrigiéndole —dándole un re-
glazo—).
• Interpretando: devolviendo al grupo en forma manifiesta el deseo
formulado en forma latente. Como: «Parece que el aire acondicio-
nado le provoca una sensación de tumba…». Sólo psicoanalistas o
psicoanalizados pueden interpretar.

b.1.2)  El preceptor proyecta fuera de sí partes personalizadas —los


observadores— y partes mineralizadas —el magnetofón y/o el vídeo.

Estas partes proyectadas cumplen una función técnica (prótesis o ins-


trumentos para el preceptor). Los observadores son ecos metafóricos
(colega que suministra un punto de vista alternativo, y con el que puede
discutir después) o metonímicos (aprendiz en la fase didáctica, superior o
cliente que así penetra en el proceso de investigación) del preceptor. El
magnetofón y/o el vídeo son memorias auxiliares; registran los compo-
nentes temporales y/o espaciales del discurso del grupo —reservas de
memoria para el preceptor—. Pero juegan también un papel mítico: en
cuanto son vividas imaginariamente por los miembros del grupo como
dobles del preceptor. El observador como doble personal sobre el que el
grupo desplaza la transferencia —ignorándolo perversamente o tratando
de integrarlo paranoicamente—: por eso, puede ser conveniente justificar
su presencia atribuyéndole una función (cuidar del magnetofón y/o el ví-
deo). El magnetofón y/o el vídeo como proyecciones mineralizadas del
oído y/o del ojo del preceptor: proyectando hacia afuera esas partes

427
La obtención de datos

«malas», y canalizando hacia ellas la posible agresividad, se controla la


transferencia.

b.2)  La actuación de los miembros del grupo está encerrada, en el es-


pacio y en el tiempo, por las fronteras del grupo: el grupo de discusión
no es en realidad un sistema tan abierto, está abierto sólo en un sentido
(de modo que el máximo de información fluya hacia el preceptor).
En el espacio, la actuación de los miembros del grupo está contenida
por la estructura colectiva de las relaciones entre los miembros. Estructu-
ra colectiva, circularidad transitiva: cada uno busca apropiarse lo general
humano, adelantándose a los demás para ser reconocido por ellos (busca
ser líder); cada uno busca apropiarse el consenso: que sea su voluntad la
que haga plegarse a las otras voluntades.
En el tiempo, el grupo esta emparedado entre dos nadas, emerge de la
nada para retornar a ella. No puede preexistir ni subsistir:

• Si preexistiera, si los miembros formaran ya grupo (o formaran par-


te de un grupo), sus discursos estarían ajustados de una forma ritual
(como ocurre en «La boda de los pequeños burgueses» de Brecht).
• Si subsistiera, o, al menos, los participantes mantuvieran la expecta-
tiva de su subsistencia, quedarían anulados sus fundamentos: el
consenso no sería un fin sino un principio, no sería un producto
sino un momento en un proceso (el grupo llegaría a ser sujeto, to-
maría la palabra —como en mayo-68—).

En la imposibilidad de salir del espacio —irreversible circularidad


transitiva—, tratan de apropiarse el tiempo.
Al comienzo, tratan de adelantarse (el que abre el discurso —toma la
palabra— lo domina) o retardarse (para «no meter la pata» o «mear fue-
ra del tiesto»). Si hablamos de encendedores, por ejemplo: si hay uno con
«Dupont», lo sacará en seguida (sabe que nadie puede pisarle su instru-
mento); si no lo hay, pero hay uno con «Ronson», vacilará un momento,
esperará (por si alguien puede sacar un instrumento más potente), y al fi-
nal sacará el suyo: si no hay nadie con encendedor de postín (sólo tristes
«Bic»), el período de espera patinará, nadie se atreverá a sacar el suyo
hasta muy avanzado el tiempo.
Al final, todos quedan derrotados: pues sólo al preceptor —los pode-
res a los que sirve— domina el tiempo. Aunque —como hemos visto— el
final no sea puntuado por el preceptor, ni por el grupo, el tiempo se aca-
ba sin haber concluido. Como Moisés muere al borde de la tierra prome-
tida, el grupo termina al borde del consenso. El consenso es coextensivo

428
14. Cómo se realiza una investigación mediante grupos de discusión

y coetáneo con el fin del grupo: un punto (nada), el agotamiento de la últi-


ma burbuja de tiempo y el —correspondiente— aniquilamiento de la última
hebra de voluntad.

5.  Interpretación y análisis del discurso del grupo

Freud estableció dos reglas fundamentales en el análisis. Para el anali-


zante: decir todo lo que le pase por la cabeza. Para el analista: escuchar
todo lo que salga de la boca (en general, del cuerpo) del analizante. El
analizante dice todo pero sólo dice, el analista escucha todo pero sólo es-
cucha: ahí veía Reich la limitación del psicoanálisis. En el grupo de dis-
cusión no se pasa a la acción como en el socioanálisis.
En el grupo terapéutico la interpretación está supeditada al análisis.
En el grupo de discusión el análisis está supeditado a la interpretación.
El preceptor analiza el discurso del grupo, y a partir de su análisis cons-
truye —construyen los poderes a los que sirve— interpretaciones me-
diante las que capturar a los clientes (consumidores o votantes).
Interpretar es la captación de un sentido oculto: escuchar a la realidad
como si la realidad hablara. Analizar es descomponer en sentido en sus
componentes sin sentido: silenciar la realidad (porque no dice nada).
El preceptor empieza interpretando (pone en juego su intuición para
interpretar el sentido de lo que dicen —o muestran— los miembros del
grupo) y acaba analizando (evalúa retrospectivamente sus intuiciones).
Luego redacta un informe, en el que propone explícita o implícitamente
nuevas interpretaciones: ahora, interpretaciones en sentido activo, inter-
pretaciones del deseo de la gente para capturarlos agarrándolos por ese
deseo. La dominación social es imposición de interpretaciones: el que tie-
ne la palabra, el que es sujeto, impone el sentido a los demás. La publici-
dad y la propaganda imponen interpretaciones del mundo.
En ese trabajo, el preceptor no busca: encuentra. El que busca, sabe lo
que busca: por eso —como en la encuesta— puede hacer preguntas. El que
encuentra, no sabe lo que puede encontrar: por eso tiene que estar a la es-
cucha de las respuestas a preguntas que no han sido formuladas —y, a lo
mejor, no son formulables—. No hay regla para la interpretación y el aná-
lisis del discurso del grupo: no es obra de un algoritmo, sino de un sujeto.

a)  Primero hay que interpretar. Captar el deseo del grupo: una parte
habrá sido formulada en forma manifiesta, otra parte en forma latente
(esta parte es la que hay que interpretar).

429
La obtención de datos

La hermenéutica o arte de la interpretación está hoy de moda. En su


tesis XI sobre Feuerbach, Marx oponía la interpretación del mundo al
cambio del mundo (como si la interpretación no fuera activa). Sibony y
Kirsch ponen de manifiesto lo activo de la interpretación: como vio
Reich, el fascismo fue posible porque Hitler supo interpretar el deseo la-
tente de fascismo en las masas. Una revolución exige un intérprete (Le-
nin, Castro, Jomeini) del deseo de revolución.
La publicidad y la propaganda interpretan el deseo: al servicio de esta
interpretación, activa, capaz de inyectar neguentropía está la interpreta-
ción del preceptor (pasiva, capaz de extraer información).

b)  El análisis incluye tres niveles: sýnnomo, autónomo y nuclear.

b.1)  El nivel nuclear es la captación de elementos de verosimilitud.


Como una verdad definitiva es imposible (las pruebas de verdad empíri-
ca y teórica son paradójicas), y como el poder burgués necesita verdades
definitivas para legitimarse (la estrategia ideológica de la burguesía con-
siste en transformar lo histórico y contingente en biológico y necesario;
en vez de clases, nación, las formaciones ideológicas burguesas incluyen
el apelativo [religión, moral, derecho...] natural —el orden burgués se
funda imaginariamente en la naturaleza—), si no hay verdades hay que
inventarlas. Hay que simularlas: verosimilitud, es una simulación de la
verdad.
La verdad hay que buscarla en los huecos del habla: sólo se encuentra
la verosimilitud en contraste con la verdad. Freud acuñó dos términos:
lapsus y acto fallido. Para hacer congruentes las necesidades de la socie-
dad con los deseos de los individuos, la ideología rellena las brechas (de
modo que el orden parezca continuo, sin fisuras) y aplana las contradic-
ciones (de modo que el orden parezca realizable). En el lapsus, el incons-
ciente y el consciente se solapan (la verdad inconsciente se desliza bajo la
verosimilitud consciente). En el acto fallido aparecen las fallas —discon-
tinuidades—. Con el orden del discurso se simula un orden en el mundo:
los lapsus y los actos fallidos desvelan el desorden que late bajo ese or-
den.
El orden social es del orden del decir: está hecho de dictados e inter-
dicciones. Hay sistemas dinámicos, en los que sólo hay intercambio de
energía, y sistemas lingüísticos en los que hay también intercambio de in-
formación (éstos están regulados por códigos, por códigos genéticos los
sistemas biológicos, por códigos lingüísticos los sistemas noológicos).
Los cursos de nuestra existencia están regulados por discursos. Hay una

430
14. Cómo se realiza una investigación mediante grupos de discusión

doble red lingüística, de términos (descritos por sintagmas nominales) y


de caminos (preescritos por sintagmas verbales). Ambos se configuran
en oposiciones sobre las que es aplicable la oposición bueno/malo: los
términos buenos son diestros, y los malos, siniestros; los caminos buenos
son de dirección recta y sentido hacia la derecha, los caminos malos son
de dirección torcida y de sentido hacia la izquierda (pecador quiere decir
con un defecto en el pie —como manco o ciego—).

Hay cuatro tipos de verosimilitud:


• La verosimilitud referencial es del orden metafórico-semántico (se-
lecciona por parecidos en el decir) y produce el efecto de realidad.
Mediante sintagmas nominales, el caos es clasificado y ordenado:
así se producen los entes. Por ejemplo: mediante el juego de nom-
bres hombre/mujer se regulan las relaciones entre los géneros sexua-
les. Es una oposición privativa, en la que mujer es el término marca-
do: el término no marcado —hombres— es lo que tienen en común
los hombres y las mujeres (el género humano). La intersección entre
los géneros es vacía y la unión es igual a «hombres»: no hay lugar
para los homosexuales, y «hombre» define a la especie. Por ejemplo:
mediante el juego de adjetivos blanco/negro se regulan las relaciones
entre las razas. Los negros son rechazados, genéticamente, porque
son pobres: pero este rechazo se sobredetermina estructuralmente
por el color. Blanco/negro (luz/oscuridad) es la oposición germen de
todas las oposiciones: según el mito bíblico, Jehová trazó el primer
día de la creación la frontera entre el día y la noche.
• Las verosimilitudes poética y lógica son del orden metonímico-sin-
táctico (combinan por contigüidad en el decir) y producen el efecto
de lenguaje. Hay dos capítulos en la retórica: el arte de conmover
(verosimilitud poética) y el arte de persuadir (verosimilitud lógica).
La poética juega con los significantes, la lógica con los significados.

— La verosimilitud poética manifiesta el significante, lo que en el


lenguaje hay de literal, de opaco al sentido (por su opacidad, el
lenguaje puede simular el mundo —ponerse en el lugar del
mundo—). Opera por transgresión del código: añadiendo o su-
primiendo en el eje de selección, permutando en el eje de com-
binación. Por ejemplo: añade en «Psocialista»: suprime en
«programa Zen»; añade y suprime en los «partos de la Mon-
cloa»; permuta en, por Salvador Dalí, «Avida Dollars». Los

431
La obtención de datos

juegos con el código lo ponen de manifiesto: así reparamos en


la literalidad del significante. Todos estos ejemplos pertenecen
al nivel más elemental, que juega con fonemas o grafemas. Se
puede jugar a niveles superiores: a nivel sintáctico (con lexe-
mas), a nivel semántico (con semas). El nivel semántico es el
más importante: hay una figura central, la sinécdoque. Puede
ser generalmente (el todo por la parte: «Nosotros, los morta-
les») o particularizante (la parte por el todo: «Pido su mano»).
La metáfora y la metonimia son productos de sinécdoques. La
metáfora atribuye a la unión una propiedad de la intersección:
«Eres una rosa, chata» (la intersección es no vacía —hay semas
comunes, la turgencia y la rubicundez tanto del pétalo de la
rosa como de la mejilla de la doncella—, pero la metáfora exa-
gera identificando los dos conjuntos sémicos). La metonimia
atribuye a la intersección una propiedad de la unión: «mi hija
se ha casado con Banca Catalana» (la unión es no vacía —pues
la banca y los que la manejan están contiguos en el espacio so-
cial—, pero se exagera produciendo una intersección que no
hay —no se semejan la banca y el banquero—). Las metáforas
y metonimias pueden estar vivas o muertas. Los poetas crean
figuras vivas (todos nos damos cuenta de que son figuras). La
lengua común arrastra muchas figuras muertas (nadie se da
cuenta de que son figuras). Entre ellas destacan las metáforas
muertas o catacresis: «pasé el examen» (el que dice «pasé el
examen» seguramente no es consciente de que lo está catalo-
gando como rito de pasaje —los ritos de pasaje han invertido
su sentido de la modernidad, pues cuando todo tenía sentido,
pasar era como en este caso atravesar un obstáculo interpuesto
en el camino, algo activo, a la postmodernidad, pues cuando
nada tiene sentido, pasar es estar parado y dejar que las cosas
pasen, algo pasivo, «pasar de examen»—).

— La verosimilitud lógica encadena los significados ocultando el


encadenamiento. Mediante el encadenamiento de los discursos
encadenan nuestros cursos. Hay tres modos de encadenamien-
to: el encadenamiento lógico mediante el razonamiento («El
que más sabe es el que más gana. ¡Estudia! (CCC)»; el razona-
miento es perfecto, pero el saber de los que ganan no es el saber
que imparte CCC), el encadenamiento físico mediante la pro-
babilidad (es la función retórica de la estadística, ajustándolos

432
14. Cómo se realiza una investigación mediante grupos de discusión

a la media o esperanza matemática la estadística elimina todos


los futuros posibles menos el más probable —nos encadena en
una tautología—), y el encadenamiento moral mediante la pro-
mesa (cuando nos hacen prometer, nos hace recordar el futuro
cómo ha sido —un futuro que es sólo un pasado repetido—).
El razonamiento puede ser paradigmático (juega con el eje de
selección) o sintagmático (juega con el eje de combinación).
Como ejemplo de razonamiento paradigmático, la amalgama o
identificación de los contrarios («extremistas de uno y otro sig-
no», amalgama de subversión y la represión). Exagerando las
semejanzas, fuerza la construcción de paradigmas. Como ejem-
plo de razonamiento sintagmático, la compatibilidad/incompa-
tibilidad (es el tema de las reglas y su aplicación: en sentido po-
sitivo hay que aplicar las reglas —«hay que votar»— y en
sentido negativo no hay que hacer otra cosa que aplicar las re-
glas —«no hay que hacer otra cosa que votar»—; así la demo-
cracia reduce a suaves las formas fuertes de participación políti-
ca generadas en el proceso de lucha contra la dictadura).
Exagerando las contigüidades, fuerza la construcción de sintag-
mas. Una verosimilitud es una verdad forzada.

• La verosimilitud tópica produce el efecto de sociedad. Los sujetos


encadenados por las verosimilitudes poética (encadena emocional-
mente) y lógica (encadena racionalmente) se identifican con la cade-
na que los encadena —con el orden social—. La sociabilidad des-
cansa en último término en tópicos o lugares comunes: son los
valores que todos aceptan (aquí y ahora, se puede considerar bueno
o malo explotar a un obrero —comérselo poco a poco— pero todos
consideran malo comérselo de un bocado). Como los sistemas so-
ciales son sistemas abiertos, los tópicos cambian con ellos. Así, por
ejemplo: hoy se valora más la razón que la autoridad (amigo de Pla-
tón, pero más amigo de la verdad), la cantidad que la cualidad (lo
grande vale más que lo perfecto —lo bueno es que suba la tasa de
crecimiento aunque baje la calidad de vida—), lo nuevo sobre lo vie-
jo (lo que importa es ir deprisa aunque no sepamos hacia dónde va-
mos)...

b.2)  El nivel autónomo es el de construcción de discursos combinan-


do esos elementos de verosimilitud.

433
La obtención de datos

Hay que pluralizar el discurso del grupo, descomponiéndolo en trozos


homogéneos (homogéneos en sí y heterogéneos entre sí). Serían tipos ho-
mogéneos: los discursos de cada clase social, de cada posición subjetiva
de discurso, de cada cultura objetiva... Para unificar esa pluralidad, hay
que acudir a un espacio de traducibilidad —a una teoría—. Así: el mar-
xismo permite articular los discursos de las distintas clases sociales, el
psicoanálisis permite articular los discursos enunciados desde distintas
posiciones subjetivas de discurso, la antropología permite articular los
discursos de las diferentes culturas objetivas...

• No existe una metateoría que permita articular todas las perspecti-


vas.

b.3)  El nivel sýnnomo es el nivel global: el nivel concreto que se funde


en el aquí y ahora. Es el punto de tangencia de los discursos con los cur-
sos (con el mundo). Podemos distinguir la significación (semántica) del
sentido (pragmático). Así: un diccionario engloba significados, pero el
sentido de una palabra en una situación concreta de enunciación y en un
enunciado concreto no es reducible a ninguno de esos significados. Los
significados son los recursos del sentido: los cursos que se repiten. El sig-
nificado pertenece al contexto lingüístico, el sentido pertenece al contex-
to existencial: el sentido de una expresión es un valor de supervivencia.
Cada discusión en un grupo de discusión refleja y refracta (a nivel mi-
cro) una sociedad y una historia.

Bibliografía recomendada
Barbour, R. (2013): Los grupos de discusión en Investigación Cualitativa, Madrid,
Morata.
Callejo, J. (2001): El grupo de discusión: introducción a una práctica de investiga-
ción, Barcelona, Ariel.
Gutiérrez Brito, J. (2008): Dinámica del grupo de discusión, Madrid, CIS.
Ibáñez, J. (1979): Más allá de la sociología. El grupo de discusión: técnica y críti-
ca, Madrid, Siglo XXI.
Krueger, R. (2001): El grupo de discusión. Guía práctica de la investigación apli-
cada, Madrid, Pirámide.
Llopis Goig, R. (2004): Grupos de discusión, Madrid, ESIC.

434
15.  El método biográfico:
historias de vida

Juan Zarco

1. Introducción

En las ciencias sociales existe todo un conjunto de estrategias cualitativas


de investigación que tienen en común un mismo elemento: focalizar la
atención en el estudio de las vidas de la gente, para ser más exactos de
sus biografías. Aunque realmente se trata de un conjunto de técnicas, su
interés común en el hecho biográfico ha dado en denominar al conjunto
«método biográfico» y mantengo esa denominación por estar generaliza-
da, sin entrar en pormenores de si deben o no constituir un método en sí
mismas (véase, por ejemplo, Smith, 1994); en cualquier caso son parte
esencial del arsenal técnico de la metodología cualitativa y entre los plan-
teamientos biográficos la historia de vida destaca por su interés y relevan-
cia (véase Balan y otros, 1974).
Lo primero que cabe señalar es que bajo ese paraguas del «método
biográfico» encontramos todas aquellas estrategias que basan la investi-
gación en la explotación y el análisis de documentos personales, de una
parte, y la técnica de investigación denominada historia de vida, de la
otra. Insisto en que en seguida veremos que la historia de vida debe ser
considerada también, en verdad, un tipo específico de documento perso-
nal generado ex profeso para la investigación, quizá el más potente de
ellos —el «tipo perfecto de material sociológico», en palabras de Thomas

435
La obtención de datos

y Znaniecki (2004: 406)—. Si acudimos al diccionario encontraremos


que el propio término «biografía» no remite a otra cosa que a «la histo-
ria de la vida de una persona». Porque, como afirmaba Ortega y Gasset,
cuando hablamos de seres humanos «el sentido primario y más verdade-
ro de esta palabra “vida” no es, pues, biológico, sino biográfico» (Ortega
y Gasset, 1965: 58).

2.  Documentos personales

Empecemos por una definición de «documentos personales», aquella


propuesta por Ken Plummer, uno de los mayores expertos en la materia

Documentos personales son todos aquellos documentos en los que una persona
revela sus características sociales y personales en formas que las hacen accesibles
para la investigación. Incluirían diarios, cartas, fotografías, historias de vida e
incluso inscripciones de lápidas. Hoy día deberían incluirse también vídeos y si-
tios web personales (Plummer, 2004: 14).

Efectivamente, una interpretación amplia del término documento,


como señala Plummer, abarcaría todo aquel formato o soporte en el que
alguien, que puede ser considerado su autor, deja una huella, pistas para
su análisis e interpretación. El término documento viene de docere, es de-
cir, enseñar, y en ese sentido puede considerarse que todo aquello que
nos enseña o muestra la huella de alguien puede ser considerado un do-
cumento personal y, por tanto, ser susceptible de análisis e interpreta-
ción.
El uso de este tipo de fuentes documentales de marcado carácter bio-
gráfico tiene, además, en la historia de la investigación cualitativa, un lu-
gar muy señalado. La mejor reconstrucción en castellano de esos prece-
dentes sigue siendo la propuesta por Bernabé Sarabia (Sarabia, 1985 y
1986) y a ella remitimos. Pero aunque sea someramente, y desde la socio-
logía clásica (en la antropología abundan también los ejemplos, véase
Marsal, 1974), hay que hacer referencia a la célebre investigación publi-
cada entre 1918 y 1921 bajo el título El campesino polaco en Europa y en
América, de los sociólogos William Thomas y Florian Znaniecki, que es
considerada la primera gran investigación cualitativa de todos los tiem-
pos. La fuente fundamental de datos utilizada fueron cartas reales escri-
tas por personas tanto emigradas a América como las de sus familiares
que se quedaron en Europa, más concretamente Polonia. La correspon-
dencia ordenada en series familiares, algunas de ellas abarcando varios

436
15. El método biográfico: historias de vida

años de duración, es un documento personal de gran interés y relevancia,


pues el análisis del contenido de las cartas (en una época en que era el
único medio de comunicación a distancia) reveló todo un conjunto de
procesos sociales que rodean el fenómeno de la migración. Como sea que
esa investigación está muy documentada, y disponible en castellano, a
ella hay que remitirse, pero sí quiero señalar que, además de las cartas (y
otros documentos utilizados) los autores introdujeron, casi por azar, una
novedosa técnica de investigación: la historia de vida. Y así es, porque en
el transcurso de su trabajo conocieron a un inmigrante polaco en Chica-
go (Wladek Wiszniewski) que, por su capacidad narrativa y lo paradig-
mático de su experiencia, les resultó tan interesante que le solicitaron que
escribiera la propia historia de su vida. El resultado fue una fuente esen-
cial para la comprensión del fenómeno abordado (la emigración de la
Europa agraria a la Norteamérica urbana y todos los procesos sociales y
de cambio asociados) y ello mediante el estudio y análisis en profundi-
dad de la vida de una persona, o mejor dicho, de la narración de esa vida,
como más adelante veremos.
Por tanto, todo aquel soporte en el que alguien (una persona) haya
dejado cierta huella susceptible de análisis es un documento personal.
Así, lo hemos visto, las cartas lo son, pero de manera muy especial aque-
llos escritos biográficos, como los diarios, las memorias, los blogs, las
confesiones, las biografías y autobiografías, los «perfiles» de las redes so-
ciales, etc. Obviamente no siempre, para nuestro objeto de investigación,
contaremos con la existencia de ese tipo de datos documentales, pero en
ocasiones sí y pueden resultar valiosísimos.
Si insisto en la idea de que «documento» es todo soporte en que pue-
den haber quedado expresadas algunas de las características humanas
(personales y sociales) de alguien, es porque mediante los documentos se
puede analizar y conocer al autor y, sobre todo, las visiones que éste tie-
ne con respecto al contexto que se está estudiando. Se trata de intentar
reconstruir una parte de la realidad social a través del análisis de ese tipo
de documentos; no son entonces ya fragmentos inconexos de circunstan-
cias y sucesos vitales de personas concretas, sino que se trata de, a través
de ellos, hacer un proceso de reconstrucción en todo un contexto social
mucho más amplio. Cuando se analizan documentos personales de tipo
biográfico no importa tanto el qué ha pasado sino por qué y cómo ha pa-
sado, o mejor, la versión que de ello obtenemos, aquella que el protago-
nista desvela, muestra o enseña (docere). Porque en el fondo las personas,
cuando cuentan su vida, dan una versión, que nosotros hemos de inter-
pretar. Entre otras cosas podremos acceder a:

437
La obtención de datos

• El entramado de relaciones que vinculan la estructura social y al in-


dividuo (la gran promesa de Wright Mills).
• Cómo ciertas pautas de socialización típicas de un contexto o lugar,
se adaptan o no a la vida social o individual de otro contexto/lugar.
• Los procesos psicosociales experimentados en todo mecanismo de
cambio y ajuste.
• Captar el interior de la cultura de los pueblos estudiados.
• Los «mundos sociales» (Bertaux, 2005).

3.  Historia de vida

Una de las claves para comprender esta técnica es tener en cuenta su


componente narrativo, que en su nomenclatura en castellano a veces
queda oculto. Y es que el término «historia», en castellano, alude a los
acontecimientos del pasado y a su registro, pero también incorpora otro
sentido para nosotros clave: una «historia» es asimismo un relato, una
narración, algo que se cuenta (story en inglés). Por ello autores como
Bertaux (2005), por ejemplo, han preferido llamar a la técnica «relatos
de vida». Partamos para comenzar de dos de las definiciones más utiliza-
das, la de Robert Atkinson:

La historia que una persona elige contar acerca de la vida que ha vivido, conta-
da de la manera más honesta y completa posible. Lo que se recuerda de la vida y
lo que se quiere saber de ella, normalmente a través de una entrevista guiada por
otro. (…) Una narración ampliamente completa de una experiencia de vida en-
tera como un todo, iluminando los aspectos más importantes (1998: 8).

Y la de Ken Plummer:

la narración de la vida de una persona contada en sus propias palabras (2001: 18).

De ellas podemos extraer una definición operativa y afirmar que:

la historia de vida es la técnica de investigación que persigue generar la narra-


ción de la vida de una persona en sus propias palabras, de la manera más com-
pleta y profunda posible, normalmente mediante una serie de entrevistas en pro-
fundidad, para mediante su análisis e interpretación llegar a comprender la
realidad social de todo un colectivo o situación del que el sujeto de la historia de
vida sería en algún sentido un miembro representativo.

438
15. El método biográfico: historias de vida

Queda claro entonces que no se trata de obtener una relación de he-


chos puntuales relativos a la vida, al pasado o la experiencia de alguien,
sino de generar una reconstrucción narrativa, en primera persona, cuyo
hilo argumental es precisamente la vida de esa persona. Lo que se recuer-
da de la vida y lo que se quiere saber de ella; y aunque normalmente es a
través de una entrevista (más bien serie de entrevistas) guiada por el in-
vestigador o investigadora, puede también ser demandada y escrita por
el sujeto, como fue el caso de la ya mencionada del inmigrante Wladeck
solicitada por Thomas y Znaniecki. En ese sentido quiero señalar que
desde aquella, y hasta hoy día, la lista de personas objeto de historias de
vida en las ciencias sociales ha ido proporcionándonos numerosísimos
ejemplos, recogidos y analizados en otros lugares (véanse Marsal, 1974;
Sarabia, 1985; Denzin, 1989; Plummer, 2001 o Bertaux, 2005), por lo que
no daré cuenta aquí de ellos. Sí quiero, sin embargo, mencionar —entre
la invitación y la incitación, pero lejos de la exhaustividad— que vale la
pena explorar tanto los distintos estilos (descriptivo, narrativo, interpre-
tativo, feminista, postmoderno, humanista, queer…etc) como autores
(Shaw, Sutherland, Simmons, Garfinkel, Bogdan, Lewis, Marsal, Ber-
taux y tantos otros) y mundos sociales asociados a los sujetos de los rela-
tos (delincuentes, transexuales, hermafroditas, médicos, panaderos, in-
dios nativos norteamericanos, inmigrantes mexicanos, emigrantes
españoles, enfermeras, toxicómanos, enfermos de sida, etc.).
La alusión en la definición que hemos visto de Atkinson a la vida en-
tera «como un todo» hace hincapié en un aspecto relevante, la completi-
tud. El hecho de intentar abarcar la vida completa nos introduce un ma-
tiz que es muy importante. Cuando se nos pide que narremos nuestra
vida como un todo se nos está invitando a darle un sentido, pues la narra-
ción de nuestra biografía, como toda narración, ha de ser entendible, ha
de poder ser comprendida. De manera indirecta y sutil en el fondo esta-
mos pidiendo un esfuerzo de coherencia. Por eso insistimos en que no es
tan importante el qué se cuenta como la reflexión acerca del porqué se
cuenta o cómo es que se cuenta y, sobre todo, prestar atención a las moti-
vaciones que se manejan, a los juicios que se introducen (acerca de lo pro-
pio y de lo ajeno), los valores que subyacen, las explicaciones que se pro-
ponen sobre los acontecimientos, las justificaciones que se argumentan y
los propósitos que se enuncian (de Miguel, 1996). Todos esos elementos
narrativos, todas esas argumentaciones, no son ya individuales, sino cla-
ramente sociales, es decir, pertenecientes y dependientes de la posición
social de quien las sostiene.

439
La obtención de datos

3.1  El problema de la memoria, la verdad y la racionalización

En esta técnica, quizá como en ninguna otra, resulta muy pertinente la


reflexión acerca de la verdad y la racionalización. En cuanto a la calidad
de «verdad» de nuestros datos, en este caso testimonios biográficos, pue-
de afirmarse que más bien se persigue un cierto sentido de honestidad y
autenticidad, más allá de la fantasía de acceder a una supuesta verdad
absoluta y universal (¡incluso moral!) que desde luego escapa a nuestros
intereses. El término «honesto», en cambio, en su tercera acepción en el
diccionario de la RAE nos remite a su significado de «razonable» y ahí sí
aparece una de las claves de la potencia de esta técnica (y en verdad de la
metodología cualitativa en su conjunto). E insistamos una vez más, lo ra-
zonable, de ahí la reflexión sobre la racionalización, remite a una forma
de legitimación. El sujeto de la historia de vida, al que se le solicita la na-
rración de su propia vida concebida como un todo, se ve finalmente
compelido a asignarle un sentido, una cierta significación, coherencia o
legitimidad. Ha de hacer una reconstrucción de los acontecimientos dán-
doles un sentido.
Cuando este proceso de construcción de la historia de vida se realiza
por medio de entrevistas, en el fondo ese sentido se «pacta» o se negocia
entre el sujeto y el investigador, pues en el diálogo que se desarrolla a lo
largo del tiempo de realización de las entrevistas está presente tanto el
esfuerzo de explicación del sujeto como el de comprensión por parte del
investigador o investigadora. Tan es así que en una de las investigaciones
clásicas realizadas con historias de vida, El ladrón profesional, de Edwin
Sutherland, el investigador insistió en figurar como co-autor en el libro
publicado, junto con Chic Conwell (seudónimo del ladrón a quien le rea-
lizó la historia de vida), a quien quiso atribuir su legítima parte de auto-
ría. Si bien esto es una muestra del concepto negociación de significados,
muy presente en la metodología cualitativa (véase Pedraz y otros, 2014),
debe quedar claro que ni la negociación ni la racionalización significan
falsificación, todo lo contrario, nada puede significar mayor autenticidad
que el esfuerzo por hacer comprensible una experiencia vital, por lo de-
más siempre compleja (véase Becker, 1966).
Otro ámbito de reflexión importante a tener en cuenta en la compren-
sión de la técnica de historia de vida remite al problema de la memoria.
El asunto de la memoria ha sido muy discutido, pues ni siquiera en la
psicología, y menos aún en la neurociencia, existe acuerdo acerca de su
funcionamiento. La capacidad de recordar, y desde luego de olvidar, le-
jos de suponer una dificultad en metodología cualitativa se nos presenta

440
15. El método biográfico: historias de vida

como un reto a desentrañar en el análisis. Con gran brillantez el sociólo-


go español Francisco Ayala tituló sus propias memorias como Recuerdos
y olvidos, dejando claro que estos últimos son también parte esencial de
lo que podemos o debemos conocer. En cualquier caso, y aunque volvere-
mos sobre el significado para nuestro análisis de lo que se recuerda (y se
olvida), continuando con el tema de la memoria, dentro de esta técnica se
han implementado estrategias para estimularla. Así, por ejemplo, es ha-
bitual facilitar el recuerdo al sujeto de nuestra investigación proponién-
dole el método «cronológico inverso», pues a veces narrar la biografía al
revés, de lo más reciente (y en principio más «fresco» en la memoria) a lo
más lejano va facilitando abrir puertas de la memoria que se creían olvi-
dadas y que aparecen en esa reconstrucción retrospectiva. En otras oca-
siones puede usarse el método de la «reflexión de contextos», por ejem-
plo estimulando el recuerdo vinculado a las casas donde se ha vivido, o
ciudades o países si es el caso, trabajos u ocupaciones, etc. A veces las
llamadas «etapas naturales» de la vida (infancia, adolescencia, juventud,
etc.) son en sí mismas contextos que ayudan a hacer aflorar recuerdos (y
a ordenarlos). También es habitual, y muy fértil, proponer estímulos vi-
suales a la memoria, por ejemplo los álbumes de fotos familiares. En ese
sentido suelen ser grandes aliados, pues hacen recordarnos lugares, mo-
mentos, apariencias, hasta prendas de vestir que asociamos a épocas vi-
tales e incluso personas olvidadas.
En seguida propondré de manera sencilla algunas de las claves del
procedimiento para investigar con historias de vida, pero antes insista-
mos una vez más en la comprensión de la lógica de esta forma de investi-
gar. Conseguir una reconstrucción narrativa cuyo hilo argumental es la
vida de un individuo, que es el narrador, implica asumir que será el suje-
to de investigación quien determine los temas, las explicaciones y selec-
cione los sucesos relevantes. Hemos dicho que en ese proceso podemos
ayudarle a estimular la memoria y, también, que en algún sentido la na-
rración final será producto de un acuerdo o negociación. Interesa señalar
ahora, y esto será clave para el análisis, que el conjunto del proceso de in-
vestigación se produce en un «aquí y ahora» determinado, y que ese aquí
y ahora será también determinante.
A esto suele denominársele «condiciones de producción» cuando se
aplica a los discursos sociales generados en contextos de investigación, y
en este caso nos remite de nuevo a la excelente definición de Atkinson ya
presentada: la historia que uno elige contar. En la medida en que contarle
a alguien tu vida (por más que garantice el anonimato y el uso puramen-
te científico del relato) es un ejercicio de exposición personal, la elección

441
La obtención de datos

de lo que se cuenta y lo que se calla es clave para el análisis. Verbalizar


frente a un investigador o investigadora una explicación, una justifica-
ción o una motivación siempre exige, ha exigido, al enunciante de esa
verbalización el esfuerzo de hacerla comprensible. En ese esfuerzo o re-
flexión ha necesariamente adelantado e interiorizado los elementos cla-
ves de su contexto: esos son los que más nos interesará desentrañar. No
analizamos hechos puntuales, sino lo que el narrador ha definido, al con-
tarlos, como hechos o acontecimientos de su vida; al hacerlo les asigna el
estatus de «cosas que le han pasado». La «elección», por tanto, de contar
algo, o ese algo contado y en la manera en que ha sido narrado está
completamente condicionada (a veces incluso determinada) por el lugar
que se ocupa en la estructura social y de relaciones. Por eso hay que in-
sistir en que se cuenta lo que uno «es capaz de contar», la decisión de po-
der o no contarlo y el cómo (si finalmente se cuenta) nos puede propor-
cionar las claves de todo el universo simbólico, cultural, valorativo, etc.,
en que el individuo objeto de historia de vida se incardina.

3.2  Investigando con historias de vida

Debemos recordar, en primer lugar, que el diseño en la investigación cua-


litativa es un proceso más bien circular, recurrente, con pasos adelante y
atrás, y sujeto a posibles mejoras por medio de la retroalimentación
constante. Aun así, y con fines explicativos, podemos abordarlo como
una serie de fases, por más que éstas a menudo se solapen y experimen-
ten fértiles «idas y venidas». Una excelente y detallada exposición de
todo el proceso (incluida la contactación, por ejemplo) puede encontrar-
se en Bertaux (2005).

3.2.1  La selección del sujeto

Así, en la realización de la historia de vida podemos señalar como pri-


mer momento clave la selección del sujeto en quien se va a focalizar la in-
vestigación (véase, por ejemplo, Mercadé, 1986). Encontrar las caracte-
rísticas de lo que podríamos llamar un «informante tipo» no es nada
sencillo, pero de manera simplificada podemos presentar tres criterios o
contextos clásicos en donde tratar de encontrarlo: por su marginalidad,
por su excelencia y por su representatividad normal. Nuestro propio ob-
jeto, diseño y planteamiento investigador nos indicará el «tipo» de sujeto

442
15. El método biográfico: historias de vida

cuya vida nos gustaría abordar y su ámbito de pertenencia. Sea cual sea
el criterio en el fondo siempre perseguiremos encontrar a un «alguien»
que forme parte de una cultura, una subcultura, un grupo, un colectivo,
una profesión, un rol o cualquier otro marco que sea el definido por
nuestro objeto en el estudio. Un ladrón profesional, un hombre heroinó-
mano, un celador de un hospital, una mujer inmigrante, un médico en-
fermo, un indigente, una mujer transexual, un enfermo de cáncer, un cui-
dador informal… La selección final del individuo, con nombres y
apellidos, suele ser en la investigación real mucho más azarosa de lo que
se suele admitir, y circunstancias pedestres suelen salir al paso. Aun así
nuestro objetivo será, de entre los sujetos pertenecientes al contexto ele-
gido, obtener la colaboración de alguien motivado, interesante y capaz.
A menudo sucede que se accede a él o ella por relaciones personales, por
diversos facilitadores que uno ha ido conociendo en las fases de diseño
(donde se preanaliza el campo de estudio y es frecuente contactar con
profesionales, familiares, colectivos asociativos, contextos, etc.). En otras
ocasiones, y ello es bastante frecuente, uno conoce al sujeto «que tiene
una vida que contar» en el transcurso de investigaciones anteriores don-
de se ha podido acceder a esa persona (en un grupo de discusión, en una
entrevista en profundidad, en una observación, etc.).
Algunos criterios de orden metodológico (y práctico) sobre los que
debemos reflexionar para acertar en nuestra elección deben anticipar ele-
mentos éticos (puedo perjudicar, en cualquier nivel, a la persona seleccio-
nada), de tiempo posible de duración, de disponibilidad o aun el siempre
problemático aspecto relativo a si se ofrecerá una retribución de tipo eco-
nómico. Más allá de otras consideraciones, y se volverá sobre alguna de
ellas, no creo que haya recetas generales (ni debería haberlas) y cada si-
tuación requiere y merece una reflexión y análisis específico; en general,
un buen criterio es que si tras estudiar el caso consideramos que es ético,
posible, justificado y no perjudica la relación de investigación, cada deci-
sión puede ser respaldada y argumentada con nuestros resultados.

3.2.2  Preparación del trabajo de campo

La segunda fase nos remitiría ya a la preparación del trabajo de campo,


momento previo a aquel en que se dará la producción (que no recogida)
del grueso de los datos, es decir, la realización de las entrevistas de histo-
ria de vida. Como sea que sobre la técnica de entrevista en profundidad
ya se señalan los elementos fundamentales en otro capítulo, de cómo rea-

443
La obtención de datos

lizar estas entrevistas (que podríamos llamarlas biográficas) sólo señala-


remos los elementos que les son más específicos.
Lo primero que hay que indicar es que la construcción de una historia
de vida no puede realizarse con una sola entrevista, siempre nos hará fal-
ta un buen número de ellas. No es posible anticipar con exactitud cuán-
tas, y ello es un problema, pues al solicitar el compromiso del sujeto de
nuestra investigación hemos de trasladarle el respeto por su tiempo y ne-
cesidades de programación, organización familiar, laboral, etc. y facili-
tarle un calendario previsto. Debemos anticiparle la dificultad de preci-
sarlo, y el porqué, y pedirle cierta flexibilidad. Por supuesto, como en
toda investigación, le garantizaremos la llamada «última palabra» y la
posibilidad de abandonar el proceso en cualquier momento sin necesidad
de justificación, cosa que por lo demás no es frecuente que ocurra salvo
por causa mayor. Y ello porque desde el principio, y aun tratándose de
una relación profesional, se empieza a entretejer una relación también de
tipo personal. El grado de exposición del contenido de las entrevistas
biográficas ya señalado y, sobre todo, el tiempo de duración (semanas y
aun meses o incluso años) van generando ese tipo de sentimientos.
En los contactos previos a la primera entrevista formal hemos de ha-
cer una inversión en el esfuerzo por presentarnos a nosotros mismos y
nuestro trabajo, los intereses básicos de nuestra investigación y, sobre
todo, por lograr la motivación y el interés del sujeto de la historia de
vida. Una de las mejores maneras, que además contribuye a despejar
muchas dudas y preguntas habituales («¿por qué yo?», «¿tan interesante
soy?», «si no tengo nada que contar…», etc.), es explicar bien el motivo
de la elección de esa persona, las razones y criterios que te han llevado a
seleccionarle/la y transmitir la seguridad en tu elección, pues de lo con-
trario el sujeto puede sentir que se depositan en él o ella muchas expecta-
tivas y puede bloquearse o retraerse por miedo a defraudar. En cada
caso, y teniendo en cuenta los aspectos sobre uno mismo y sobre el suje-
to, ha de resolverse esa tensión inicial.
También en la fase de preparativos previos con el sujeto ha de nego-
ciarse, explicarse y garantizarse el asunto del anonimato y el tratamiento
plausible de la información, incluida su eventual publicación. Es un buen
momento para ofrecer al sujeto la futura lectura y aprobación del texto
final derivado del trabajo antes de su utilización pública.
Para el trabajo de campo debemos realizar una cierta programación
para la realización de las entrevistas. Una reunión larga por semana, si
ello fuera posible, suele proponerse como una cadencia razonable tanto
para el sujeto, que es lógico que tenga que atender muchos otros aspec-

444
15. El método biográfico: historias de vida

tos de su vida, como para el investigador que, con ese flujo de trabajo,
bien puede transcribir y preanalizar cada sesión de semana en semana.
Una vez más el calendario ha de adaptarse a la situación específica (una
vez más la metodología ha de adaptarse al objeto). Y volviendo al tema
pecuniario, u otra forma de retribución, y aunque ya lo venimos plan-
teando en las distintas técnicas, mi posición, y aunque no sea lo más de-
seable, no excluye alguna forma de compensación, incluida el dinero.
Esto dependerá muchísimo del sujeto elegido (del contexto del que pro-
venga, entre otras cosas) y de la manera en que se simbolice esa compen-
sación (mejor no llamarla «pago»). Es claro que estamos solicitando una
relación en el tiempo que, al final, puede suponer muchas horas de dedi-
cación a nuestros intereses; si al investigador, sin entrar en pormenores, sí
se le paga (sic), ¿por qué no al sujeto? Por supuesto que a menudo se ar-
gumenta, y puede llegar a ser verdad, que la ocasión de ser escuchado,
comprendido, etc., es considerada en sí misma una retribución suficiente
para el sujeto que se siente así valorado y apreciado. Eso no es así en to-
dos los casos, ni muchísimo menos. Por el contrario, es verdad, y por ello
hemos de explicarlo y negociarlo bien, que si introducimos una contra-
prestación de tipo económico el sujeto de nuestra investigación, de ma-
nera incluso inconsciente, puede sentirse más que en un compromiso, in-
telectualmente sano, en una «deuda» que por pura deseabilidad (ganas
de complacernos —y ganarse el jornal—) puede llegar a falsear, desvir-
tuar o directamente inventar su historia, aunque sea con la mejor inten-
ción. Una vez más no hay recetas, cada caso ha de ser sometido a análi-
sis y consideración y la decisión que se tome, si es la que el investigador
siente como más apropiada, será la correcta.
También en los contactos preparatorios debe negociarse el formato en
el que van a quedar recogidos y registrados los datos, es decir, la posibili-
dad de grabación de las conversaciones con la finalidad de obtener trans-
cripciones literales, para su posterior análisis. La recomendación es, dada
además la cantidad de datos que se obtienen (horas y horas de conversa-
ción), intentar por todos los medios que se acepte la grabación. En ese
sentido ayuda proponer la posibilidad del llamado «off the record», es
decir, apagar la grabadora en momentos sensibles (por temática, grado
de exposición o lo que fuera). Lo más frecuente es que se nos permita
grabar, lo que facilita muchísimo el trabajo de registro, y recuérdese, en
todo caso, que se ha garantizado la confidencialidad. Si por los motivos
que fueran la persona que nos parece más idónea, casi única, insustitui-
ble, etc., acepta cooperar, en todos los términos, pero no admite ser gra-
bado o grabada, la decisión ha de ser del investigador. En el caso de

445
La obtención de datos

aceptar esa condición porque aun así nos compensa, una escucha atenta
y un buen número de blocs de notas son una buena recomendación. En
esos casos, e inmediatamente después de la sesión de entrevista, es desea-
ble reproducir en lo posible la conversación, con ayuda de nuestras notas
y nuestra memoria. Independientemente de la grabación, conviene insis-
tir en la importancia de dedicar siempre tiempo previo a la preparación
de la entrevista y tiempo posterior para realizar un registro de aconteci-
mientos, sensaciones, intuiciones, observaciones, papel y posicionamien-
to de los sujetos, cómo se dio la relación, etc.

3.2.3  La realización de las entrevistas biográficas

En cuanto a la realización de las entrevistas de historia de vida, como ya


se ha adelantado, éstas tienen mucho en común con las ya presentadas
en la técnica de entrevista en profundidad, pero también algunas peculia-
ridades. Así, vamos a seguir algunas de las recomendaciones de Pujadas
(1992).
Lo primero que hay que recordar de la realización de las entrevistas, y
que tenemos que tener en cuenta de manera especial para éstas de historia
de vida, es que debemos generar y garantizar las condiciones más favora-
bles para que el sujeto se encuentre cómodo (espacio físico, intimidad, no
interferencias de terceras personas, etc.). No es imprescindible, pero sí de-
seable, que todas las entrevistas se realicen en el mismo lugar, aunque por
supuesto esto no siempre es posible. Existen estudios clásicos en los que,
por las características del sujeto sobre todo, incluso se han llegado a reali-
zar muchas entrevistas en la calle. Sin embargo, hacerlo en casa del indivi-
duo es una de las mejores opciones (si es posible garantizar las condicio-
nes mínimas de calidad señaladas) y facilita, por ejemplo, tener a mano
álbumes o recuerdos de ayuda a la memoria. Quizá, además, el entorno
familiar desinhiba más. Pero una vez más no hay reglas cerradas.
Ya se ha afirmado, pero hay que insistir ahora en que nuestra actitud en
el desarrollo de las entrevistas es clave para su éxito, y con ella podemos es-
timular las ganas de hablar del informante, argumentarle la pertinencia
científica de su vida en concreto, etc. En poco tiempo se consigue transmi-
tir a la persona el tipo de sinceridad y veracidad que se espera de ella y el
interés para nuestro trabajo. Como siempre que se trata de entrevista, ello
ha de conseguirse de maneras sutiles, pues el investigador ha de hablar lo
menos posible, evitando dirigir excesivamente la conversación. Esto es es-
pecialmente importante en este tipo de entrevistas encaminadas a la cons-

446
15. El método biográfico: historias de vida

trucción de una historia de vida, sobre todo en las iniciales, pues en el aná-
lisis vamos a incorporar como datos relevantes la manera en la que el
narrador de su vida decide narrarla (recordemos que no es importante
sólo lo que dice, sino cómo se dice y el orden en el que lo dice). No se espe-
ra, por tanto, una narración lineal, y no se debe forzar. Por ejemplo, en es-
tudios en los que se trata de reconstruir las trayectorias de un padecimien-
to crónico a partir de la historia de vida de un sujeto, suele seguirse un
recorrido por las etapas que la propia persona reconoce en su proceso;
cómo empezó, cuáles fueron los síntomas o manifestaciones iniciales, qué
se hizo al respecto, cómo fue el contacto con los servicios sanitarios, qué
expectativas se tenían, qué impacto tuvo en su vida, etc., siguiendo así la
evolución por los diferentes períodos identificados.
En ese sentido la entrevista más difícil es la primera, luego se tienen
elementos facilitadores para retomar lo anterior, la confianza va aumen-
tando, afloran elementos en común..., en definitiva, tanto entrevistador
como entrevistado se sienten más cómodos. El ideal para la primera en-
trevista es que sea una especie de esbozo en líneas generales de lo que ha
sido la propia vida, y en ella suele aparecer ya un primer intento de na-
rrar y dar sentido. Si se ha obtenido una buena panorámica general, ése
es un buen punto de partida para sucesivas entrevistas posteriores. Por
ejemplo, una invitación amplia del tipo: «cuénteme su historia en rela-
ción al tema de interés», suele resultar un buen comienzo. Una estrategia
que suele funcionar es empezar cada nueva sesión repasando brevemente
lo dicho en la anterior, retomando el hilo por así decir.
Aunque las entrevistas han de ser lo menos directivas posible, no po-
demos olvidar que nuestra intención investigadora lleva implícito un de-
seo de comprensión que a veces requiere de cierto «sonsacamiento». Ken
Plummer, en su obra Documents of life 2, sugiere que para la realización
de las entrevistas el investigador ha de tener preparada una serie de te-
mas especialmente sensibles por los que a uno le gustaría que la narra-
ción transitara. Señala también numerosas estrategias para ayudar al su-
jeto a construir los sentidos en los que el proceso debe irse apoyando.
Aunque pueda parecer forzar la narración, resulta muy fértil el definir
etapas o fases en la vida, así como situar las vidas en términos de edad,
estado civil, relaciones familiares hacia arriba o hacia abajo, etc. Un ejer-
cicio clásico en ese sentido es invitar al sujeto a que considere su propia
vida como si fuera un libro y piense cuáles serían sus capítulos y en el tí-
tulo que le daría a cada uno de ellos.
Hay numerosos elementos a explorar, señala también Ken Plummer,
como son los puntos de inflexión (o momentos vitales que se reconocen

447
La obtención de datos

como tal), otros aspectos como el azar o la suerte (que pese a tratarse de
racionalizaciones, como ya dijimos, o quizá precisamente por eso, apare-
cen con muchísima frecuencia), también los grandes eventos de la vida, o
incluso epifanías. Por supuesto, los que llama «grandes temas», es decir,
el amor, el trabajo, la diversión, etc., han de ser tratados. Hay que poner
especial énfasis, también, en localizar áreas donde se han experimentado
conflictos (tendemos de manera natural a minimizarlas o no introducir-
las en nuestra narración) y, llegado el momento de madurez y confianza,
explorar los secretos vitales, esas cosas que no se pueden contar (faltas
morales, sexo, dinero, corrupción, quizá adicciones).
Un lugar muy significativo en la narración suelen ocuparlo las perso-
nas clave: amigos, amantes, familiares... otros significativos, en definitiva,
y podemos y debemos instar a reflexionar sobre el papel que han desem-
peñado en su vida. De muchos de ellos es habitual conservar, como ya
dijimos, fotografías. En ese sentido no olvidaremos utilizar (o propiciare-
mos que se utilicen) para estimular el recuerdo lo que Plummer llama en
general «artefactos de tu vida», que serían por supuesto las fotos, pero
también diarios (quizá el documento más rico y personal, aunque no
siempre existe), agendas, calendarios, colecciones, incluso el currículum
vitae si procede. Recuerdos, souvenirs y fotos de viajes dan pie a la re-
flexión sobre los lugares en que se ha estado.
Aunque en toda historia de vida debería ocupar un lugar en la narra-
ción, particularmente interesante para aquellas centradas en objetos de
conocimiento que exploran algún ámbito de la salud de la persona con la
que se construye la historia de vida, son las reflexiones acerca del propio
cuerpo, para ser más precisos, del cuerpo cambiante. Asignar un valor
(espiritual, religioso o de cualquier otro orden) al propio nacimiento, a la
enfermedad y también a la muerte suele estimular el esfuerzo por dar
sentido a los acontecimientos. Ello nos introduce en otro nivel de la na-
rración que es precisamente el más centralmente reconstructivo, pues in-
vita a la persona a pensar sobre las maneras en las que pueda haber habi-
do líneas de coherencia o contradictorias en su biografía. También en
cómo se ha visto (y juzgado) a uno mismo en distintos momentos o ante
diversas situaciones; las distintas identidades, las autoimágenes, la auto-
estima en distintas fases de tu vida y sobre todo la pregunta con más di-
fícil respuesta: ¿quién eres? No hace falta decir que la respuesta incorpo-
ra algo esencial para la comprensión: ¿cómo has cambiado? Y es que
efectivamente la técnica de historia de vida es de las herramientas más
fértiles para el estudio del cambio social. La cronología, el paso del tiem-
po, siempre está presente en la recreación narrativa de la vida de una per-

448
15. El método biográfico: historias de vida

sona y las distintas maneras en que se vive, se experimenta y se afrontan


los cambios a lo largo de la biografía. Todos ellos son elementos esencia-
les para el análisis de la significación que el sujeto les asigna.
En los estudios sobre salud, enfermedad y atención, el eje que verte-
bra la historia de vida, como se ha señalado, es la construcción que el su-
jeto realiza de su vida con la enfermedad —en este caso padecimiento—,
en la medida en que su relato muestra el sentido y significados particula-
res que le asigna como sujeto situado en determinado contexto socio-his-
tórico, cultural y el llamado biosocioestrato (posicionamiento de clase,
género y etapa vital).
Antes de abordar el análisis de los datos generados en la historia de
vida, y una vez repasada someramente las principales líneas de fuerza
que dan sentido a esta forma de investigar, vamos a abordar una serie de
ideas transversales a todo el proceso de investigación. Una vez más nos
apoyamos en Ken Plummer, quien, desde la honda experiencia en la ma-
teria, plantea una serie de interrogantes fundamentales que presento y
adapto en la siguiente tabla

TIPO DE INTERROGANTE PREGUNTA

Sustantivo ¿QUÉ?

Científico ¿POR QUÉ?

Técnico/práctico ¿CÓMO?
Ético/político ¿DEBO?

Personal ¿PUEDO/QUIERO?

fuente: Adaptación propia basada en Plummer (2001).

Como observamos, el primer interrogante que propone Plummer es


de tipo sustantivo, y respondería al qué quiero saber. Debe contener la
definición de nuestro objeto, por ejemplo, la situación de las personas
con esclerosis lateral amiotrófica, o la vida de un inmigrante polaco en
Norteamérica, etc. Al ser un interrogante sustantivo, previo a su formu-
lación científica, suele coincidir con nuestro interés personal, nuestra cu-
riosidad intelectual…o a veces con un encargo.
La segunda cuestión clave es de tipo científico, y tiene que ver con la
clase de conocimiento que esperas alcanzar. Se ha de reflexionar acerca
del porqué una investigación de las características que se plantean es la

449
La obtención de datos

mejor opción, frente a otras formas de conocer una realidad. Es una pre-
gunta de tipo metodológico que nos ayuda a reflexionar sobre el «cómo»
vamos a abordar, en este caso con una mirada cualitativa. La tercera
cuestión, técnica o práctica, alude a la pertinencia del abordaje biográfi-
co. Cómo espero, mediante la construcción de una historia de vida, acce-
der al conocimiento de una realidad. Tiene que ver con la selección del
individuo, la preparación y el desarrollo de las entrevistas y el plan de
análisis, entre otros aspectos prácticos. El cuarto conjunto de interrogan-
tes que debemos plantearnos a la hora de abordar el conocimiento de
nuestro objeto de estudio mediante la construcción de la historia de vida
de alguien tiene que ver con la ética y nuestra participación o capacidad
de influencia como científicos pero también como ciudadanos. ¿Está jus-
tificado investigar de esa manera mi objeto? ¿Puedo perjudicar a alguna
persona o colectivo al realizarlo o al divulgarlo? ¿Puede ayudar, por el
contrario, a resolver un problema? En definitiva, ¿debo hacer ese tipo de
investigación? Por último, las preguntas de tipo personal. La investiga-
ción cualitativa es siempre reflexiva, y en esta técnica quizá, por la inten-
sidad de la relación que se está a punto de entablar, sea donde con más
claridad aparece esa condición. Hay que evaluar el impacto posible del
proceso de investigación y sus efectos personales: tanto para el sujeto in-
vestigado como para el propio investigador o investigadora. Ambos, sin
duda, van a verse afectados y hay que reflexionar sobre si ello compensa,
queda justificado y, en definitiva, sobre si queremos y seremos capaces de
hacerlo.
Lo más importante de la necesidad señalada por Plummer de plan-
tearse este tipo de interrogantes, sin embargo, no son los interrogantes en
sí, que desde luego también (y habría que añadir que en toda investiga-
ción social, no solamente en aquellas con historia de vida), sino el hecho
de que estas cinco preguntas hay que planteárselas en todo el proceso de la
investigación, es decir, antes, durante y después. Es así como cobran todo
su valor.

3.2.4  El análisis de los datos en historias de vida

Por último vamos a centrar nuestra atención en el análisis de los datos en


historias de vida. ¿Qué podemos conseguir con el análisis de la narración
biográfica? Jesús M. de Miguel (1996), en su libro Auto/biografías, utiliza
una metáfora muy interesante que comienza a situarnos y quiero retomar
aquí. Las historias de vida pueden ser ventanas o espejos. Cuando el aná-

450
15. El método biográfico: historias de vida

lisis e interpretación de la narración de la vida de alguien nos permite co-


nocer todo un colectivo, contexto, situación o porción de la estructura so-
cial estaríamos ante una ventana a través de la cual observamos y
comprendemos mejor el mundo desde la perspectiva del sujeto que nos lo
ha narrado. En ocasiones, en cambio, la narración contiene profundos
elementos de autorreflexión, de análisis y presentación de la propia iden-
tidad del sujeto que esta narración más bien parecería un espejo donde
aquél se mira. Y sería su reflejo, aquello que nos es devuelto en forma de
texto, un tesoro donde sumergirnos para conocer en profundidad cómo es
eso de ser… lo que sea por lo que hemos elegido al sujeto. Yo creo que
tanto perspectivas como imágenes (ventanas y espejos) están presentes
siempre, en diferentes medidas, en todo relato biográfico. O para decirlo
mejor, nuestro análisis ha de perseguir ambos niveles de discurso. Es tan
interesante averiguar cómo se ve la sociedad desde un determinado lugar
como llegar a comprender cómo se sienten, perciben, definen, etc., quie-
nes lo ocupan. Realmente lo interesante es llegar a averiguar ambas cosas.
Analizar, queda claramente expresado en otros lugares de este libro,
es descomponer un todo con el fin de entenderlo mejor y así poder darle
un sentido. En el caso concreto del análisis de los datos producidos en la
historia de vida lo que tendremos que abordar, ya lo hemos visto, es un
relato probablemente inmenso (en términos de páginas de transcripción)
pero en el que ya sabemos que podremos encontrar numerosos niveles,
narraciones, personajes y atribuciones de sentido. El análisis, en cual-
quier caso e insistimos una vez más, en metodología cualitativa no supo-
ne una «última fase» que culmina el trabajo una vez «recogidos» los da-
tos. Desde el principio del proceso investigador, para el caso de la
historia de vida aún antes de haber siquiera elegido al sujeto, estamos
analizando posibilidades, diseñando maneras de abordar, pensando en
muestras teóricas, en conceptos y concepciones y, por supuesto, leyendo
la literatura existente sobre nuestro objeto de estudio. Todas esas tareas,
y muchas otras, están ya impregnadas de decisiones analíticas que vamos
incorporando a nuestro intento de comprensión.
En cualquier caso, y por la peculiaridad del contenido de los datos
obtenidos en la historia de vida (una narración de la vida de alguien), sí
podemos proponer un sencillo ejemplo de procedimiento para realizar
una primera descomposición analítica del texto objeto de análisis final:
la transcripción del relato de la vida. Para ello vamos a necesitar varias
copias del texto original, es decir, de la transcripción literal y cronológica
(manteniendo el orden de producción) de todas las entrevistas. Ése será
el texto base, que por lo demás ya tendremos muy trabajado pues, como

451
La obtención de datos

es lógico, tras cada una de las entrevistas habremos transcrito la sesión y,


con toda seguridad, ya habremos introducido anotaciones al margen
para nuestro trabajo: desde elementos que no quedan claros y anotamos
para retomar hasta estados de ánimo percibidos en el entrevistado aso-
ciados a distintos momentos, nuestras propias primeras percepciones, re-
acciones y sentimientos, etc. Se trata, pues, de un texto «bruto» pero en
verdad ya muy trabajado. Tras su lectura (y lectura, y lectura) podremos
encontrar información sobre el orden natural en que han aparecido y se
han abordado los temas en las sucesivas entrevistas (y el sentido que ello
pueda tener), las reacciones ante nuestros relanzamientos, la progresiva
profundización en áreas problemáticas, etc.
Una segunda copia, elaborada por nosotros, ha de incorporar la vida
ordenada en su secuencia cronológica real, es decir, siguiendo el hilo tem-
poral no del orden en que se nos relató sino del orden en que realmente
ocurrió. Aquí a veces ayuda poner o bien fechas (1917 a 1921 por ejem-
plo) o bien edades (de los 0 a los 4 años), a veces ambas cosas. En muchas
ocasiones el relato (la historia que uno quiere contar), y es bastante fre-
cuente, empieza mucho antes del propio nacimiento, pues los orígenes de
padres o aun abuelos y otros antepasados se incorporan como elementos
de sentido vital. Si ello es así, hay que analizarlo. Esta segunda copia, que
llegaría hasta «nuestros días», aunque no lo parezca y esté compuesta por
las mismas narraciones, es un texto completamente distinto. Lo cierto es
que, y por seguir la jerga habitual, no serían ya datos «brutos» sino que
han sido sometidos a un análisis (consistente en asignarles un orden nue-
vo según un criterio: la secuencia temporal en que se desarrollaron los
acontecimientos). Pues bien, tan distinto es este otro texto que rápida-
mente observaremos aparecer sentidos novedosos o diferentes, que quizá
no se nos habían aún ocurrido, pero que aparecen al mirarlos así. Eso es
analizar, encontrar en los datos, por su descomposición, pautas que en su
formato original no éramos capaces de vislumbrar.
Una tercera copia, sin duda, ha de ser aquella generada por el criterio
de los personajes que aparezcan en la narración. Una historia de vida
nunca lo es de una sola persona. Así, abriremos «carpetas» o apartados,
categorías en fin, para cada persona relevante en la narración. Familiares
directos, con peso y relevancia, son candidatos clásicos a ocupar carpetas
(padre, madre, hermanos y hermanas, hijos e hijas, parejas), pero tam-
bién otros, como amigos, amantes, villanos, etc., que a su vez pueden ge-
nerar otras familias (compañeros de trabajo, de estudios, vecinos… lo
que sea). En muchas de las investigaciones en el ámbito de la salud ha-
bría que incluir como personajes a profesionales de salud, cuidadores/as,

452
15. El método biográfico: historias de vida

etc. Esta tercera copia, algo más fragmentaria que las dos anteriores, sin
duda nos propiciará también nuevas interpretaciones… y quizá pregun-
tas: ¿Qué papel han jugado en su vida las mujeres? ¿Y los hombres? ¿Qué
lugar se deduce que ocupa la familia? ¿La amistad? ¿Y los médicos?, etc.
Porque, en nuestro análisis, con esta ordenación que podemos llamar «en
personajes», podremos apreciar otras facetas de nuestro protagonista,
que no sólo nos ha hablado de cada uno de ellos (y, por tanto, de otros/as
no), sino que también probablemente nos ha revelado mucho sobre sus
pautas o maneras de interactuar en los distintos contextos.
Una cuarta copia se nos presenta también como imprescindible. La
ordenación temática, y aunque parece la más evidente, no es tan sencilla
(véase Gubrium y Holstein, 1998). Obviamente todas estas propuestas de
descomposición cada investigador ha de adecuarlas a su propio sujeto de
historia de vida, a la narración obtenida y, desde luego, a sus propias ne-
cesidades e intereses como investigador y también como ser humano.
Pero la ordenación temática siempre es muy fértil, pues nos permite con-
centrar la atención en los distintos ámbitos que nos parezcan de interés.
Así: trabajo, salud, amor, hijos, socialización, creencias, participación
política, futuro... pueden generarnos categorías para reordenar el relato.
Pero insistimos en que ha de ser el analista quien argumente la pertinen-
cia de extraer esas categorías de su relato o de elevarlas a ese estatus, el
de categoría para el análisis. Como afirma Luis Enrique Alonso (1998: 217):
«las categorías no presuponen al investigador en el análisis del discurso,
sino que es el investigador quien interpreta la realidad concreta utilizan-
do esas categorías como herramientas, no como imposiciones o coarta-
das». Aunque no en todas las vidas el amor, los hijos o el trabajo, por
ejemplo, parezcan merecer una categoría, con toda seguridad su ausencia
(y la alusión a ella) merecerá una reflexión por nuestra parte.
Habría muchas más posibilidades y «copias» posibles. Pero insistamos
en que tanto la narración objeto de análisis como nosotros mismos, los
investigadores, en tanto que analistas, seremos quienes decidamos reali-
zarlas. Un repertorio de sentimientos positivos y negativos, por ejemplo,
y sucesos a ellos asociados. O la recopilación, ordenada con algún crite-
rio pertinente, de puntos de inflexión. O, por qué no, un catálogo o in-
cluso jerarquía de procesos vitales.
El análisis, por definición, no debe terminar hasta que hayamos satu-
rado las posibilidades, es decir, que nuevas reordenaciones y/o enfoques
no nos aporten nuevas interpretaciones. Y ese concepto de saturación
teórica me permite, para concluir, recordar otra de las ideas clave en in-
vestigación cualitativa, formalizada en el concepto de inducción analítica,

453
La obtención de datos

y que resulta especialmente pertinente recordar en el análisis de historias


de vida. La inducción analítica, en verdad, es uno de los conceptos que
desde su propia formulación representa un criterio de calidad de la inves-
tigación cualitativa, pues invita a la búsqueda enfática de evidencias que
contradigan nuestros hallazgos y conclusiones. Aunque se popularizó en
el clásico libro de Glaser y Strauss de 1967 The Discovery of the Groun-
ded Theory, su formulación es muy anterior y está ya presente en la obra
clásica de Thomas y Znaniecki mencionada. Su puesta en práctica puede
resumirse en: cuando creemos haber llegado a la comprensión de una si-
tuación, colectivo o proceso, y para ello nos basamos en el análisis de un
caso que así lo valida (y el propio Howard Becker considera a la historia
de vida como una modalidad de estudio de caso), hemos de hacer el es-
fuerzo de buscar nueva evidencia (lo que supone siempre matizar o afi-
nar el análisis) que pudiera invalidar nuestras conclusiones. Esto tiene
una misma finalidad, pero por un doble camino. De una parte (y si no
encontramos tal evidencia contradictoria a nuestras conclusiones) las
fortalece, pues no sólo podemos afirmar lo que afirmamos en base a lo
hallado, sino que también podemos afirmar que no hemos hallado nada
que nos desautorice. Pero igualmente robustece la calidad de nuestras
conclusiones el hecho de encontrar, efectivamente, esos casos discordan-
tes, que no se adaptan a nuestra interpretación inicial: nos obliga a re-
considerarla, depurarla o mejorarla para que, ahora sí, sea verdadera-
mente válida para la comprensión del objeto en toda su complejidad. En
ese momento podremos con toda certeza asegurar que hemos creído
comprender nuestro objeto de estudio a través de la comprensión profun-
da de la narración de la vida de un individuo.

Bibliografía recomendada
Atkinson, R. (1998): The Life Story Interview, Londres, SAGE.
Balán, J. y otros (1974): Las historias de vida en las ciencias sociales. Teoría y téc-
nica, Buenos Aires, Nueva Visión.
Bertaux, D. (2005): Los relatos de vida. Perspectiva etnosociológica, Barcelona,
Ediciones Bellaterra.
Denzin, Norman (1989): Interpretive Biography, Londres, SAGE.
Pedraz, A., Zarco, J., Ramasco, M., y Palmar, A. (2014): Investigación cualitati-
va, Barcelona, Elsevier.
Plummer, K. (2001): Documents of life 2, Londres, SAGE.
Pujadas, J. J. (1992): El método biográfico, Madrid, CIS.

454
16.  Etnografía virtual/
digital (EVD)

Igor Sádaba

«Todo grupo de personas —presos, hombres primiti-


vos, pilotos o pacientes— desarrolla una vida propia
que se convierte en significativa, razonable y normal
desde el momento en que uno se aproxima a ella.»

E. Goffman (2001 [1961: 9]).

1. Introducción

Este capítulo intentará seguir en todo momento una cierta secuencia his-
tórica o justificativa de la emergencia de la etnografía virtual/digital
(EVD1). Esta estrategia expositiva pretende ser una forma de acerca-
miento pedagógico a la misma y un modo de comprender, a la vez que
acreditar, su creciente relevancia y protagonismo. La razón principal es
que, en estos momentos, dicha disciplina se encuentra aún en una fase de
consolidación y reconocimiento. Igualmente, estamos en un momento de
aceptación por parte del siempre controvertido campo académico, cuyos
mecanismos de legitimación requieren una serie de consensos y rituales
de admisión. Por otra parte, la aproximación genealógica que propone-
mos facilitará la interpretación de por qué la EVD ha ido ganando adep-
tos en los últimos tiempos y se ha convertido en una prometedora técni-
ca de investigación. Seguidamente nos detendremos en los aspectos más
prácticos de la investigación etnográfica digital y, aunque no existen
guías predefinidas ni protocolos fijos, intentaremos recopilar algunas
ideas de orden pragmático para la consecución de una buena investiga-
ción empírica.

455
La obtención de datos

2.  La investigación social online como oportunidad

La extensión masiva de Internet y sus tecnologías derivadas ha alterado


radicalmente los marcos de la vida social. El ciclo tecnológico y social
que acontece tras la distribución y el uso intensivo de los dispositivos di-
gitales abre un contexto socio-cultural y político con tintes relativamente
nuevos. Apertura también para las ciencias sociales en general y para la
investigación social empírica en particular, que no son ajenas a estos
cambios. A pesar de que dicho conjunto de disciplinas suele ser prudente
o reacio a incorporar nuevas herramientas a su kit investigador y ha re-
celado, en ocasiones, de las mediaciones técnicas (Estalella y Ardévol,
2011), lo cierto es que tanto las metodologías audiovisuales como el uso
de software estadístico, por poner un par de ejemplos, se han asentado,
legitimado y aceptado desde hace ya años. En ambos casos, los dispositi-
vos utilizados (cámaras, grabadoras o paquetes de análisis matemático)
se asume que son complementos en la producción, registro o análisis de
los datos. Sin embargo, la aceptación y extensión de su uso para la inves-
tigación social no fue inmediata sino que requirió de un proceso de in-
greso y aprobación progresivo. Por esa razón, en los primeros años de In-
ternet, casi cualquier uso investigador de las tecnologías que despuntaban
necesitaba de complicadas estrategias justificadoras y era visto aún como
una arriesgada aventura (Jones, 1998).
Sin embargo, en los últimos años, y especialmente en el mundo acadé-
mico anglosajón, al calor de dicho «boom digital», se ha desarrollado la
idea de que existe un aprovechamiento investigador de las tecnologías di-
gitales que va mucho más allá. Consistiría en una apropiación de lo téc-
nico bastante más profunda. Se trataría de pasar desde la mera instru-
mentalidad anteriormente mencionada (usar la tecnología puntualmente
para investigar, para resolver un problema concreto) hacia una cierta re-
configuración general de la investigación social gracias a la utilización
masiva de Internet en tanto espacio o en tanto objeto de estudio. Es lo
que se ha conocido con una serie de etiquetas variadas tales como: digi-
tal methods, virtual methods, online social research y una larga retahíla de
terminología en boga (Hewson et al., 2003; Hine, 2005; Fielding et al.,
2008; Poynter, 2010). Todas estas fórmulas plantean un cambio de para-
digma que daría cuenta de lo que está aconteciendo a nivel metodológico
por la presencia ubicua de lo digital; una reconversión de todas las técni-
cas conocidas hacia el lado que Internet provee: encuestas online, entre-
vistas online, grupos de discusión online, análisis de redes sociales, análi-
sis de audiencias digitales, etc. Lo más interesante de estas propuestas no

456
16. Etnografía virtual/digital (EVD)

estriba necesariamente en el alcance de unas mayores cotas de precisión,


fiabilidad o validez metodológica, sino quizás en los cuestionamientos y
alteraciones de los presupuestos epistemológicos básicos y clásicos: au-
sencia de co-presencia espacio-temporal, mezcla de lo sincrónico y lo
asincrónico, elaboración de muestreos particulares sobre universos desco-
nocidos, trabajo con muestras deslocalizadas o globales, análisis de dis-
cursos de sujetos online anónimos, etc. Por ejemplo, ¿puede resultar ade-
cuada una entrevista a través de un videochat? ¿Podemos realizar un
grupo de discusión mediante un foro web? ¿Qué tiene de malo mantener
una conversación simultánea con personas de varios continentes a la vez?
¿Y si las respuestas se dan en tiempos distintos? Es decir, en un mundo di-
gitalizado e hipertecnologizado como el nuestro, estas sugerencias meto-
dológicas requieren cautela y precaución pero son bienvenidas en tanto
discuten (y, a veces, chocan) con los fundamentos asumidos y creencias
heredadas de las metodologías clásicas, permitiendo revalorizarlos, eva-
luarlos e, incluso, si se nos permite la expresión, oxigenarlos. Ello implica
remover algunos pilares y cimientos que han sostenido las Ciencias Socia-
les durante muchos años (Beddows, 2008). Por ejemplo, asumir que pode-
mos realizar una entrevista a través de una pantalla sin encontrarnos en el
mismo momento o lugar que la persona entrevistada. Esta operación de
renovación debería ser siempre bienvenida como oportunidad de interro-
gar lo ya consensuado y servirnos como método de deliberación y con-
traste. Igual que Wright Mills alertaba frente al «empirismo abstracto» y
a la «gran teoría» (Wright Mills, 1997), poniendo en duda cierto «mecani-
cismo metodológico» de los métodos tradicionales y sus derivados, segu-
ramente mejoremos sustancialmente muchas de las opciones del oficio in-
vestigador si somos capaces de tomar esta investigación online como reto
o desafío. A tal punto se ha considerado que estas metodologías online
alteran algunas de las bases adquiridas que se llega a hablar de estas nue-
vas disciplinas incluso como «antidisciplinas» o «interdisciplinas» (Del
Fresno, 2011: 17), reclamando una cierta «oportunidad» para reinventar
y refundar las reglas de juego metodológico.
En otro orden de cosas, en este contexto de sociedad digital generali-
zada, se parte además de una situación original donde los medios online
y el resto de tipo de aparatos cotidianos comienzan a producir incesante-
mente datos que quedan a nuestra disposición. Nuestra actividad coti-
diana a través de la interacción comunicativa y tecnológica genera trazos,
huellas y restos; registros permanentes de la misma. Es decir, por el mero
hecho de conectarnos a los medios electrónicos y en nuestra actividad
diaria (enviar emails, hacer búsquedas, leer páginas, escribir en un blog,

457
La obtención de datos

acceder a redes sociales, comprar online, conversar con contactos y amis-


tades, etc.), de manera inconsciente en muchas ocasiones, vamos origi-
nando registros constantes de todo ello que quedan en muchos casos dis-
ponibles. El medio y sus características permiten ese guardado de
información histórico donde cada actividad queda inscrita: historiales de
conversaciones, de búsquedas, de descargas, entradas pasadas de los
blogs, perfiles de las redes sociales, mensajes enviados a listas de correo,
etc. Estas nuevas formas de producción de datos masivos han sido bauti-
zadas también en el mundo anglosajón con la etiqueta de Big Data
(Grandes Datos) (Cukier et al., 2013; Silver, 2014). Dicho nuevo contex-
to, definido en términos de un escenario donde los datos se producen en
vastas cantidades y automáticamente tomen en cuenta hechos como:

• La cantidad de información se duplica, como mínimo, cada dos


años.
• Cantidades ingentes de datos suponen un drástico cambio de enfo-
que en la forma de investigar.
• El valor de la información no reside en los datos concretos, sino en
la forma de organizarlos, gestionarlos e interpretarlos (minería de
datos).
• El mundo digital es una fuente abierta e inagotable de datos: cada
gesto, cada conexión, cada envío, cada lectura, cada compra, cada
click o cada uso genera información y fichas (que suelen quedar al-
macenados en portales).
• Ello genera excesivo volumen para nuestras técnicas habituales de
tratamiento y almacenamiento de datos2.
• Todo ello conduce a bautizar nuestro tiempo como Grandes Datos,
buzz, era de la «datificación incesante», o incluso, más metafórica-
mente, como «dataclismo» o «diluvio digital».

Sin embargo, debemos ser medianamente críticos con los Grandes


Datos como idea romántica de un santo grial metodológico. Es cierto
que uno de los grandes problemas de la investigación social a lo largo de
su historia ha sido conseguir datos (y producirlos bajo ciertas condicio-
nes) y ahora nos encontramos con nuestros deseos aparentemente cu-
biertos o cumplidos. No tendremos que recorrer las calles encuestando ni
buscando personas para entrevistar, ya que el día de hoy, casi sin salir de
casa, nuestros objetos de estudio, en sus quehaceres cotidianos, producen
información relevante para casi cualquier investigación. Aun así, una lec-
tura apresurada e inocente de los Grandes Datos los ha convertido en la

458
16. Etnografía virtual/digital (EVD)

esperanza de un ultrapositivismo digital. Como cualquier investigador


sabe, la mera posesión de colosales cantidades de cifras, transcripciones y
estadísticas no es una garantía inmediata de validez y fiabilidad. Los
Grandes Datos en el entorno empresarial se han convertido en una pro-
mesa de revolución teórica final; una suerte de fórmula mágica que viene
a colmar todas las necesidades de la investigación. No obstante, sabemos
que lo cuantitativo y lo cualitativo no son lo mismo y muchos datos no
implican siempre mejores datos (algo que resumen muy bien Boyd y
Crawford, 2011). Por todo ello, los Grandes Datos deben también to-
marse con cierta prudencia y distancia, asumiendo que la gestión y ad-
ministración de grandes volúmenes de información pueden o no facilitar
la investigación, pero no son avales de un conocimiento científico exacto
ni mucho menos.
En este doble contexto que hemos pretendido perfilar en este epígrafe,
de aparición de la investigación social online como oportunidad y de los
Grandes Datos como promesa, muchos debates sobre los límites y posi-
bilidades de las nuevas técnicas de investigación han tenido lugar (Hine,
2005; Barkham y Baym, 2008). En esta encrucijada de nuevo paradigma
metodológico y de esperanzas de innovación parece que nos situamos
con la debida reserva pero expectantes. Y es en este marco de confluencia
en el que la aplicación de la EVD ha tenido más justificación y en el que
hay que comprender su evolución (Hine, 2008).

3. La aparición de la etnografía virtual/digital:


la pertinencia de lo etnográfico

Pensando ya en la etnografía en espacios mediados tecnológicamente, los


comienzos de la mencionada investigación online o métodos digitales re-
sultaron titubeantes, encontrando en su camino muchos adeptos y férreos
defensores y no pocos enemigos y hostiles adversarios. A pesar de las des-
lumbrantes aportaciones de los dispositivos técnicos y de las llamativas no-
vedades de la innovación digital, las primeras experiencias con tales técni-
cas investigadoras no siempre resultaron plenamente provechosas o
convincentes, especialmente en lo referente a las entrevistas online y gru-
pos de discusión online (Arriazu, 2007; James y Buscher, 2009; Salmons,
2011 y 2014). Dichas técnicas resultaban prácticas, cómodas y rápidas en
el mejor de los casos (ideales para la investigación de mercados, por ejem-
plo), pero la calidad de los resultados podía llegar a dejar bastante que de-
sear por no mencionar que los análisis no siempre resultan sencillos (Ja-

459
La obtención de datos

mes y Busher, 2006). Las conversaciones se cortaban a la mitad, los


entrevistados desaparecían o se desconectaban, no sabíamos si eran quie-
nes decían ser porque no les visualizábamos, las destrezas de escritura eran
más importantes que la capacidad oral, se carecía de información sociode-
mográfica de los participantes, no estaba claro cómo analizar un registro a
medio camino entre lo oral y lo escrito, etc. Se había pensado que las téc-
nicas online apenas diferían de las clásicas y que básicamente todo consis-
tía en una pequeña mediación generada por una pantalla pero poco a
poco se fue descubriendo que los obstáculos y tropiezos eran más habitua-
les y que había un umbral de calidad que era difícil rebasar. Por ello, ante
cierto optimismo inicial, hubo una advertencia que fue necesario prescribir
para la investigación online. En palabras de Christine Hine, había que es-
tar alerta «contra el automatismo metodológico» (Hine, 2005). La traduc-
ción de las técnicas y métodos de investigación clásicos a otros espacios o
situaciones no tiene por qué funcionar correctamente. De hecho, no está
claro que se puedan acomodar directamente los viejos métodos a los nue-
vos entornos y sus circunstancias. A pesar de estar frente a un enfoque que
despunta y en crecimiento, hay que ser reflexivos respecto a estas nuevas
técnicas de investigación y sus expectativas. La traslación de técnicas tradi-
cionales al entorno online mostró que sólo tienen relativo éxito en condi-
ciones muy específicas de aplicación. Ello generó, en nuestra opinión, un
evidente escepticismo que, si bien nunca ha obstruido o entorpecido la
evolución creciente de la investigación social online, no ha permitido un
cierto despegue hasta la llegada de la etnografía digital.
La expansión del mundo digital y la tasa de penetración tan enorme
de las tecnologías afines a Internet han sido causa, entre otras cosas, de
nuevos fenómenos sociales o reformulación de algunos anteriores. La
normalización de la sociabilidad online que, cada vez más, forma parte
de nuestra vida cotidiana de manera no fácilmente desagregable de la
vida offline, nos dibuja un panorama novedoso. Estas interacciones me-
diadas normalizadas y esta cotidianeidad online es lo que también se ha
venido llamado, en un ejercicio de nominalismo interminable, «sociedad
online» (Howard y Jones, 2005), «cibercultura» (Levy, 2007), «multitudes
inteligentes» (Reinghold, 2004), «Sociedad red» o «autocomunicación de
masas» (Castells, 2006 y 2009), «cibersociedad 2.0» (Jones, 2003), etc.,
por poner sólo algunos ejemplos. En general, a pesar de la no neutrali-
dad del lenguaje y de que cada elección terminológica comporta reflejar
ciertas ideas y opacar otras, todos estos relatos sociológicos apuntan ha-
cia el conjunto de relaciones que se establecen de manera mediada en es-
pacios digitales. Aun así, aunque haya un mínimo común denominador

460
16. Etnografía virtual/digital (EVD)

en todas estas ideas, el abordaje de estos objetos de investigación se ha


realizado siempre desde una doble aproximación o enfoque que es nece-
sario distinguir:

• Por un lado podemos entender Internet y las TIC (o los espacios co-
municativos generados a través de éstos) como lugares donde ac-
túan e interaccionan individuos. Esto es como un espacio donde tie-
nen lugar prácticas sociales, un ciberespacio. Es decir, podemos
entenderlo como un medio, una plataforma o soporte donde diver-
sos fenómenos tienen lugar.
• Y por otro, podemos interpretar Internet y las TIC como «artefac-
tos culturales», como productos de la cultura, como acoplamientos
de sujetos-objetos. Es decir, podemos entenderlo como un objeto, un
producto cultural de nuestro tiempo que incluye individuos, disposi-
tivos, reglas, software, normas de uso, cables, relaciones, etc.

Es decir, Internet y las tecnologías digitales se pueden leer como medios


(online research) y como objetos (online populations y online cultures/com-
munities) para la investigación social. Una dualidad constitutiva del cos-
mos comunicativo y digital y que debe tenerse en cuenta como esencial.
Quedarnos sólo con la primera versión adolece de cierto determinismo al
representar lo técnico como una tarima, un puro contexto (aparentemente
neutral o inactivo) o un escenario-medio donde tienen lugar acontecimien-
tos. Precisamente si complementamos esa primera visión tradicional de los
espacios comunicativos como tarimas, tribunas o espacios para la vida so-
cial3 y los entendemos también como el producto de la interacción entre
grupos de personas, objetos, símbolos, significados, etc., estaremos optan-
do por una visión más culturalista. Para estudiar esas «culturas» propias
que emergen de ese agregado heterogéneo y de los fenómenos sociales
complejos que se propagan o existen a través de esos medios existe un con-
junto de técnicas o métodos de interpretación que podrían adaptarse: la
etnografía. Arribamos, por primera vez entonces, al puerto etnográfico y a
la necesidad de algún tipo de mirada general y sistemática de un tejido en
construcción. Entonces encontramos una cierta justificación de lo etnográ-
fico en el ciberespacio si atendemos al estudio de esas «culturas y comuni-
dades online» concibiendo que las experiencias sociales online son diferen-
tes a las cara-a-cara y que necesitamos comprender la experiencia y el
significado etnográficamente. Todo ello porque estamos tratando con
agregados de relaciones y fenómenos sociales mediados que se fabrican en
un ecosistema específico y singular.

461
La obtención de datos

Asimismo, hay quien distingue con énfasis entre lo que se denominan


communities online (o comunidades migradas online) y online communi-
ties (o comunidades nativas online) evidenciando que son agrupaciones
que pueden emerger desde variables offline o de la pura interacción digi-
tal (sin conocimiento previo) (Del Fresno, 2011: 46). Digamos que es una
diferenciación teórica sobre el ámbito o contexto de aparición, emergen-
cia o desarrollo, en función de dónde nacen las mismas. En cualquier
caso, dada la continuidad entre lo online y lo offline, esta separación
analítica se nos puede antojar incluso artificial o poco práctica. Lo que sí
que parece cierto es que hay comunidades que no tienen sentido o no se
desarrollarían plenamente en el mundo offline y que las características
del hábitat digital favorecen su creación y crecimiento (gracias a la dis-
persión geográfica o al anonimato, por ejemplo). Pensemos en grupos
que se crean a través de intereses profesionales en una red social, usua-
rios del mismo modelo de automóvil en un foro de coches, clientes de de-
terminado servicio comentado los pormenores de su satisfacción, pági-
nas de contactos y parejas o personas que leen el mismo blog de cocina e
intercambian recetas y comentarios sobre trucos de cocina.
La idea de cultura, siempre laberíntica y densa, problemática en algu-
nos casos, se extiende hacia nuevos caminos. La cibercultura (Levy, 2007)
se dilata por toda la sociedad digital como sistema sociotécnico cultural,
pero no de una manera monolítica, fija y estable, sino como entramado
de interacciones dinámicas y cambiantes. Un ejemplo típico es la idea de
identidad (Del Fresno, 2011: 43) cuya construcción constante y altera-
ción diaria, en igualdad de condiciones que la identidad offline, parece
incluso más variable y difusa. Frente a la idea de una única identidad,
fija y coherente, granítica e inmóvil, observamos más bien lo contrario,
un magma de elecciones constantes y fabricaciones dispersas que facili-
tan un juego identitario muy dinámico. La normalización de la comuni-
cación digital hace que las personas experimenten y vivan cotidianamen-
te todo ello. El estudio de esos significados compartidos y producidos
intersubjetivamente será primordial.
Además de la aparición de «comunidades nativas online» (Del Fresno,
2011), el uso permanente y social de pantallas, dispositivos y clicks, asis-
timos a fenómenos como consensos, cooperación, conflictos, liderazgos,
aprendizajes, construcciones de identidad, colaboración, discriminación,
etc. Estos nuevos espacios de sociabilidad reproducen los viejos, pero a
su vez suman y añaden nuevas interacciones cotidianas. Ya no estamos
ante un nuevo mundo por descubrir sino ante un día a día mediado tec-
nológicamente por normas, costumbres, valores, símbolos, éticas, etc. De

462
16. Etnografía virtual/digital (EVD)

esta forma, vamos comprobando cómo la aproximación etnográfica tie-


ne un sentido muy claro: nuevos fenómenos culturales, extraños y desco-
nocidos en principio, formados por interacción densa en espacios comu-
nicativos, microculturas complejas y nativas del espacio online, cuyas
manifestaciones requieren desentrañar los significados compartidos que
se generan y circulan.
Llegamos por tanto entonces a la necesidad de una etnografía adapta-
da a entornos con mediación digital cuyo nombre, nuevamente, puede ele-
girse sobre un amplio catálogo o menú de denominaciones que depende de
cada autor/a, escuela o incluso momento. Algunas de ellas pueden leerse
en el siguiente cuadro y todas remiten a una cierta idea de etnografía di-
gital.

• «Etnografía virtual»4
• «Etnografía del ciberespacio»
• «Etnografía de/en/a través de Internet»
• «Netnography/Netnografía»
• «Etnografía conectiva»
• «Ciber-etnografía»
• «Antropología de los medios»
• «Etnografías de lo digital»

Además de los debates sobre el etiquetaje más adecuado para la nueva


disciplina, existen controvertidas discusiones sobre otros puntos igual de
sustanciales. Por ejemplo, hay quienes consideran que la etnografía vir-
tual es una forma específica de etnografía y conciben que la investigación
etnográfica del ciberespacio no tiene ninguna singularidad. Al otro lado,
hay quienes han visto aquí un giro copernicano y lo plantean como una
metodología revolucionaria. Dejaremos para más adelante estos debates
y trataremos de situarlos en una perspectiva histórica-comparada. Lo
cierto es que el boom de la EVD (especialmente en el mundo anglosajón)
la ha convertido en la técnica favorita en entornos digitales y en una de
las técnicas online más desarrolladas. Ante cualquier estudio de caso, la
mirada etnográfica siempre puede ser útil y fructífera como una primera
aproximación metodológica. Es decir, ha revitalizado las esperanzas en
una investigación social online al haber producido interesantes y nota-
bles investigaciones y haber generado ricos debates sobre epistemología y
metodología en general. Básicamente la podemos considerar como el

463
La obtención de datos

ejercicio de la práctica etnográfica en el espacio de interacción que cons-


tituye Internet y las tecnologías digitales (teléfonos móviles, fotografía
digital, redes inalámbricas, etc.). Cabe mencionar que la EVD comparte
con otras metodologías y técnicas el papel de una mediación adicional,
en este caso la de la comunicación digital. La comparación puede ser
fructífera, entendiendo la etnografía virtual como un paso adicional a la
etnografía visual (compartiendo con ella algunas características y otras
no). Es decir, las mediaciones no son nuevas en el oficio del investigador
social, sólo tiene que saber lidiar con ellas. Los aprendizajes recibidos de
varias décadas de antropología y sociología visual deberían ser de ayuda
para bregar con ello.
En resumen, la justificación para decidirnos por una incursión etno-
gráfica está basada en la limitada capacidad de otras técnicas para anali-
zar los nuevos fenómenos del universo digital y por ser un método propi-
cio para estudiar lo «desconocido» (cuando existe mucha distancia
cultural). Pero también por existir objetos de investigación nativos, for-
maciones propias de la cultura de Internet que nacen en las propias redes
telemáticas. La nueva sociabilidad online que tiene lugar en estas comu-
nidades de «nativos digitales» (Presnky) implica un «estar ahí» que invita
a la mirada etnográfica.

4.  Historia y fases de la etnografía virtual/digital

Podemos considerar que la llegada de una suerte de EDV no se ha reali-


zado de golpe, como si surgiera de la nada o por capricho metodológico,
sino que ha seguido un desarrollo progresivo y gradual a lo largo de unas
fases temporales concretas. Como siempre, cualquier clasificación de este
estilo es bastante arbitraria y subjetiva, pero nos ayuda a entender el de-
sarrollo propio de la misma. No son, ni mucho menos, fases o modelos
que no coexistan o se solapen, por supuesto, sino más bien enfoques o
esquemas etnográficos que han ido apareciendo y conviviendo pero tam-
bién que han ido sucediéndose y encadenándose (Hine, 2008).
Un primero momento, o una primera EVD, puede ser situada en la
segunda mitad o finales de los años noventa. Se comienza realizando
una tímida y tentativa traducción directa de la propia etnografía clásica,
asumiendo que tal metodología tradicional debería ser ventajosa y apro-
piada tal y como se la conocía. Si Evans-Pritchard estudiaba a los nuer
en Sudán, por qué no es posible hacer lo mismo con los participantes en
un grupo online sobre ciclismo de montaña, los comentaristas de un

464
16. Etnografía virtual/digital (EVD)

blog sobre espiritualidad tántrica o el grupo de Facebook de un movi-


miento ecologista. No dejan de ser «aldeas» donde tienen lugar rituales
y operan normas culturales. La operación de adaptación se realizó ini-
cialmente sin mucho cuidado, expresado por esa frase que circula por
ahí, como si fuera «Malinowski en el ciberespacio», es decir traduciendo
directamente las enseñanzas etnográficas a la situación actual con esca-
so retoque. Estamos en los primeros años de Internet, los albores de la
red de redes, tiempos en los que todavía no hay una conexión generali-
zada sino una cierta «élite tecnológica» de early adopters, de primeros
usuarios de las redes que comienzan a poblarlas. Pero no podemos ha-
blar aún de una extensión generalizada del mundo digital. Asimismo, en
aquellos momentos, lo online se ve siempre muy enfrentado a lo offline,
opuesto, radicalmente encontrado. Y esencialmente el mundo virtual se
interpreta en términos de engaño, artificio o trampa. Se entiende el ci-
berespacio como lugar de juego identitario (role playing), de lúdico en-
gaño, donde nadie es quien dice ser y donde todo el mundo, por alguna
pulsión natural y evidente, cuando puede falsear o adulterar lo hace.
Por ello, las primeras etnografías se realizan siempre en espacios de jue-
go, de chats, de MUDs, etc. En estos momentos de discontinuidad iden-
titaria (offline vs. online), los entornos virtuales son percibidas como
realidades alternativas o paralelas (simulacros) que podemos observar
sistemáticamente pero donde siempre hay juego y fraude (game, decep-
tion). Son los años también en los que las ciencias sociales todavía man-
tienen una cierta postura escéptica y crítica hacia las tecnologías digita-
les, lo que se refleja en algunas famosas aportaciones como Turkle
(1997) o incluso Baudrillard (1987). Esta visión dubitativa y hasta tec-
nófoba es deudora de una prolongación interpretativa entre los medios
online y los viejos medios de masas analógicos (Sartori, 2002), si unos
engañan, los otros también.
Una segunda fase podría identificarse con el momento de consolida-
ción de la EVD y con la existencia de grandes poblaciones online, mayo-
res en volumen que en la fase anterior, más inclusivas y con más difu-
sión. Estamos en los años 2000, década en la que Internet comienza a
reinar completamente en el panorama mediático. Ahora las identidades
online dejan de verse como engaños simulados de las realidades offline,
sino más bien como resultados o derivaciones de éstas. Esta continuidad
e interrelación entre nuestra vida online y offline (la no autonomía de lo
virtual) promueve un intento de transformación y adaptación del canon
etnográfico al ciberespacio. La metodología necesita ajustarse a los
nuevos objetos y ésa será, en parte, una de las grandes aportaciones de

465
La obtención de datos

C. Hine (2000). No nos vale con aplicar mecánicamente lo que se hacía


en el siglo xix cuando se viajaba a la Polinesia lejana a visitar tribus
exóticas. Es el momento en el que la etnografía comienza a replantearse
las idas de campo, de interacción o de observación participante en en-
tornos mediados. Además de esta renovación de la técnica, se empiezan
a observar otros elementos. Esta nueva etnografía virtual (Hine, Ken-
dall, etc.) se detiene en la identificación de normas, prácticas sociales
compartidas, sistemas de valores, etc. de las comunidades, abandonando
la idea anterior de falsedad y juego. Hay una recuperación de Goffman,
del enfoque dramatúrgico y de la etnometodología en este momento (re-
florece la microsociología) de cara a entender las interacciones digitales.
Comienzan a aparecer estudios sobre el papel político de Internet y la
organización ciudadana al margen de empresas y Estados, algo que ha
sorprendido a propios y extraños. Ahora, además, la triangulación me-
todológica comienza a cobrar sentido a la vez que la hibridación local-
global.
Finalmente, podría hablarse de una tercera fase o gran corriente que
tras el boom de la web 2.0 y la extensión generalizada de Internet nos si-
túa ya a mediados o finales de la década de los 2000. Las tasas de pene-
tración de Internet rondan valores ya muy altos e incluso el uso de las re-
des sociales, por ejemplo, tiene lugar en muchos países para más de la
mitad de la población. Es el momento en el que los usuarios crean masi-
vamente contenidos y crecen sin cesar aplicaciones son interactivas. Esta
época nos habla ya no tanto de una etnografía adaptada o ajustada,
como en el caso anterior, como incluso de una cierta superación de la et-
nografía clásica. Además de asumir la idea de etnografía multisituada o
multilocal de Marcus (2001) y de que la propia observación es ya la que
produce el campo, se comienzan a comprender lo online y lo offline no
como enfrentados ni como continuos sino como entornos hibridados. En
las comunidades nativas (y sus quedadas o meets ups) ya no tiene sentido
andar diferenciando o apartando lo online de lo offline ya que son dos
caras de la misma moneda. Tal hibridación hace ya indistinguibles am-
bos ámbitos, que están entremezclados sin que las costuras nos permitan
distinguirlos a simple vista. De esta forma aparece el momento de la net-
nografía (Kozinets), que se postula no ya como una etnografía clásica, ni
siquiera como una etnografía adaptada, sino como una metodología di-
ferente, superadora en cierto sentido, que aborda la sociabilidad amplia-
da de estos espacios (Del Fresno, 2011).

466
16. Etnografía virtual/digital (EVD)

5. Características específicas de la etnografía virtual/


digital: aspectos prácticos

A partir de aquí, simplemente cabría esperar aplicar el método etnográfico


clásico en tanto observación participante en una comunidad durante un
cierto período de tiempo, incluyendo técnicas conversacionales, identifica-
ción de informantes clave, realización de entrevistas (formales e informa-
les), obtención de datos y documentos, elaboración de un cuaderno de
campo, etc. Pero como hemos mencionado en el apartado anterior, las co-
sas no son tan mecánicas y directas y el objeto de estudio demanda algún
ajuste en las técnicas de observación e invita a ciertas reflexiones sobre el
proceso investigador. En este apartado pretendemos entrar un poco más
de lleno en el conjunto de decisiones y elecciones que forman el proceso
metodológico, ya que, siguiendo la estela de grandes pensadores, la meto-
dología no deja de ser un cúmulo de «trucos del oficio» (Becker, 2009).
En algunos casos, las primeras aproximaciones a lo que se denomina
EV/ED han consistido en una simple descarga de datos online o en una
mera recopilación descriptiva de lo observado en una pantalla. Como si
toda novedad simplemente tuviera que ver con el hecho de mirar a través
de un monitor mientras se mueve un ratón. Sin embargo, esa observación
no participante y corta está lejos se ubicarse en los cánones etnográficos
clásicos que implican un cierto grado de participación e interacción5. En
ese sentido, la EVD se compone de una serie de técnicas y métodos algo
más complejos y elaborados. Y, en muchos casos, se considera que es más
una «actitud metodológica» o una «mirada comprensiva y reflexiva» de las
diversidades culturales que una lista de prescripciones o un manual codifi-
cado y claro de qué hacer en cada momento. Ya que todo grupo social es
singular o especial en algún sentido (léase la cita de Goffman que encabeza
este capítulo) y se sostiene sobre un conjunto de significados compartidos,
debemos producir empíricamente observaciones coherentes de dicha socia-
bilidad que se da en entornos comunicativos, mediados y online. Sociabili-
dad que se asienta en la combinación de usuarios interaccionando a dis-
tancia y a través de mediaciones técnicas pero con códigos culturales
(incluyendo los informáticos) que la sostienen y que deben ser problemati-
zados por el observador. Pero los límites del campo de observación, esta
vez, no van a ser geográficos; el espacio queda definido y delimitado por
los intercambios comunicativos. Y tales flujos de mensajes se dan en varias
direcciones, lugares y sentidos, conformando un espacio de observación di-
fuso y dinámico. Y a la vez, los mensajes y la información que se va distri-

467
La obtención de datos

buyendo también tienen que ver con la vida «fuera» de la red y con las po-
siciones sociales de los usuarios.
En ese sentido, y a modo de marco general, C. Hine (2000) plantea lo
que ella considera los diez principios que fundamentan la EVD y que pa-
samos a reproducir sintéticamente. Consideramos que son de lectura re-
comendada antes de empezar a hacer cualquier observación etnográfica,
ya que suponen referencias a tener en cuenta. Por tanto, hemos seleccio-
nado parte de esos diez mandamientos etnográficos porque condensan
excelentemente algunas de las ideas teóricas que posteriormente se desa-
rrollarán en la práctica empírica. También porque, en su momento, las
aportaciones de esta autora supusieron el espaldarazo definitivo a la
EVD como disciplina. Se enumeran en el cuadro siguiente:

1. La presencia sostenida del etnógrafo en su campo de estudio,


combinada con un compromiso profundo con la vida cotidiana
de los habitantes de ese campo, dan pie a ese conocimiento es-
pecial que llamamos etnográfico… La etnografía virtual fun-
ciona como un módulo que problematiza el uso de Internet…
El estatus de la Red como forma de comunicación, como obje-
to dentro de la vida de las personas y como lugar de estableci-
miento de comunidades, pervive a través de los usos, interpreta-
dos y reinterpretados, que se hacen de ella.
2. Los medios interactivos nos desafían y nos dan la oportunidad
de hacer etnografía, pues sacan a relucir la cuestión relativa al
«sitio de la interacción». El ciberespacio no necesariamente tie-
ne que ser visto como un lugar apartado de cualquier conexión
con la «vida real» o de la interacción cara a cara… Los medios
interactivos, como Internet, pueden entenderse de ambos mo-
dos: como cultura y como artefactos culturales. Concentrarse
en cualquiera de estos aspectos a expensas del otro conllevará
siempre una visión pobre del problema.
3. El crecimiento de las interacciones mediadas nos invita a re-
considerar la idea de una etnografía ligada a algún lugar en
concreto o, inclusive, a múltiples espacios a la vez. Estudiar la
conformación y reconfiguración del espacio, a través de inte-
racciones mediadas, representa en sí una gran oportunidad
para la perspectiva etnográfica.
4. Como consecuencia de lo anterior es necesario replantear el
concepto de campo de estudio. Si la cultura y la comunidad no

468
16. Etnografía virtual/digital (EVD)

son productos directos de un lugar físico, entonces la etnogra-


fía tampoco tiene por qué serlo.
5. Los límites no son asunciones a priori, sino que se exploran en
el curso de la etnografía. El resto de la etnografía virtual con-
siste en examinar cómo se configuran los límites y las conexio-
nes, especialmente, entre lo «virtual» y lo «real». Este problema
arrastra consigo la cuestión de saber cuándo detenerse, o hasta
dónde llegar.
6. Junto a la dislocación espacial viene la temporal. La implicación
personal con contextos mediados se entremezcla con interaccio-
nes en otras esferas y otros medios. La etnografía virtual es un
intersticio en el sentido de que convive entre varias actividades,
tanto del investigador como de los participantes del estudio. Y la
inmersión en el contexto se logra apenas intermitentemente.
7. La etnografía virtual es irremediablemente parcial. Una des-
cripción holística de cualquier informante, locación o cultura
es algo imposible de lograr, por lo que la noción de informante,
lugar o cultura preexistente, enteramente aislable y descriptible,
tiene que quedar atrás.
8. La etnografía virtual implica una intensa inmersión personal
en la interacción mediada… el compromiso del etnógrafo con
el medio constituye una valiosa fuente de reflexión.
9. Las nuevas tecnologías de la interacción permiten que los in-
formantes aparezcan dentro de la etnografía y, a la vez, estén
ausentes. Del mismo modo, el etnógrafo puede estar ausente o
presente junto a sus informantes. La tecnología facilita que es-
tas relaciones puedan desplazarse o sostenerse a través de dife-
rentes divisiones espaciales y temporales. Todas las formas de
interacción son etnográficamente válidas, no sólo las que impli-
can una relación cara a cara.
10. Esta etnografía no sólo es virtual en el sentido de carecer de un
cuerpo físico. La idea de virtualidad también lleva la connota-
ción de «casi», pero no del todo muy adecuada para propósitos
prácticos aunque no sea estrictamente la realidad. La etnogra-
fía virtual se adapta al propósito, práctico y real, de explorar
las relaciones en las interacciones mediadas, aunque no sean
«cosas reales» en términos puristas. Es una etnografía adapta-
ble según las condiciones en las que se encuentre.

fuente: Hine (2004: 80-82).

469
La obtención de datos

Dicho lo cual, cabría ponerse en faena, remangarse las manos y pasar


a hablar de los aspectos más prácticos de la investigación etnográfica di-
gital. Existen muchos textos que debaten largamente sobre las cuestiones
epistemológicas profundas. Y otros tantos que se enfrascan en discusio-
nes sobre su origen, evolución o tipologías. Sin embargo, lo habitual sue-
le ser encontrarse frente a un proyecto de investigación sin saber muy
bien cómo empezar. Aunque ese tipo de inseguridades o incertidumbres
son generales del oficio de investigador, este tipo de técnicas que impli-
can mediaciones online y metodologías a veces tan abiertas y flexibles
como la etnografía generan una ansiedad o confusión inicial incluso ma-
yor. Vamos a pasar entonces a tratar algunos de los aspectos prácticos
que conlleva desarrollar una EVD. Cabe mencionar que gran parte de
los etnógrafos/as que se han dedicado a estos temas renegarían de una
lista prefijada de recetas fijas o de un protocolo estandarizado (algo bas-
tante alejado de la naturaleza de la práctica etnográfica). No pretende-
mos encorsetar la observación a un manual lineal y tipificado sino resal-
tar algunas ideas generales que puedan ser de utilidad a quien se enfrenta
a la realización de una investigación con las dudas habituales.

5.1  Objeto de estudio y campo

En primer lugar, entendemos que el objeto de estudio de las etnografías


virtuales son las «comunidades online» o el conjunto de relaciones socio-
culturales que tienen lugar en los entornos online/virtuales (aunque pro-
vengan o deriven de entornos offline). De este modo, cualquier forma
cultural podrá ser estudiada si tiene lugar de manera estable y continua-
da. Pero por comunidades online o virtuales (Reinghold, 1993; Wu Song,
2009) entendemos frecuencias regulares de contacto, identidades com-
partidas, reconocimiento de los otros miembros o pertenencias formales
(membresías), existencia de códigos propios e intercambios de informa-
ción regulares, normas, rituales y significados compartidos, etc.
Esto ha venido plasmándose en el mundo online de muy diversas ma-
neras: a través de una lista de correo o discusión, mediante un chat, en
un blog o bitácora (autor/res y comentarios), a través de alguna de las re-
des sociales existentes, en un foro, a través de intercambios de emails y
otro tipo de sistemas de mensajería, compartiendo fotos o vídeos, cola-
borando en proyectos, etc. Los canales digitales están muy orientados
precisamente a forjar grupalidad mediante prácticas comunicativas y
muchos de estos mecanismos podrían valer para engendrar un espacio

470
16. Etnografía virtual/digital (EVD)

colectivo. Entendemos que cualquiera de estos formatos constituye una


comunidad a estudiar siempre y cuando esté vinculado a los objetivos de
investigación. Mayans, por ejemplo, eligió un conjunto de chats genera-
les (por ciudades o grupos de edades) asumiendo que lo que quería era
simplemente entender las conversaciones que allí tenían lugar (Mayans,
2002). Pero Hine, intentando observar el papel de ciertas webs en la
construcción de una campaña de denuncia y/o apoyo internacional, se
centró precisamente en esas páginas web que trataban el caso de Louise
Woodward (Hine, 2004). Lori Kendall, intuyendo que la negociación de
los roles de género estaban cambiando en Internet, se dedicó a etnogra-
fiar un foro web (denominado BlueSky) que hacía las veces de «pub vir-
tual». No han faltado quienes han elegido un grupo de Facebook o una
cuenta de Twitter, por ejemplo, como medio de observación, y la comu-
nidad que allí se ha generado, como objeto de estudio (Postill y Pink,
2012). McLellod (2003), intentando acceder a los patrones de comporta-
miento de la cultura gay en Japón que le era inaccesible como occidental,
decidió hacer etnografía en las páginas de contactos.

5.2  Selección del mismo

Como bien indica Becker, «todo tiene que estar en algún lugar» (2009:
83), en el sentido de que es importante que lo que estudiamos acontezca
en un lugar específico cuyas condiciones seamos capaces de describir.
No obstante, uno de los mayores problemas que se presenta al intentar
observar una comunidad concreta vinculada a un cierto fenómeno u ob-
jeto de estudio no es que sea virtual o «exista online» sino el exceso de
ejemplos o casos a elegir (una manifestación sui géneris del Big data).
Para tratar los modos en que el movimiento 15-M ha utilizado las redes
sociales o los grupos de deporte de montaña que se forman a través de
blogs o la manera en que las personas mayores participan en un foro o
las identidades de los adolescentes que comparten fotos encontramos
excesivos casos diferentes para observar. No podemos investigar todos y
cada uno de los casos que encontremos en nuestro camino o de aquello
que nos interesa porque pueden ser cientos o incluso miles. La selección
concreta del «lugar» a etnografíar deberá depender o de los criterios a
priori que le impongamos (que estén vinculados a una cierta ciudad, que
tengan cierta antigüedad, que posean un determinado tamaño, que tra-
ten determinados temas, etc.) o, en caso de carecer de los mismos, se
suelen aplicar criterios de participación. Es lo que algunos llaman «den-

471
La obtención de datos

sidad comunicativa» y tiene que ver con la selección de un foro, blog,


red social, repositorio de imágenes/vídeos o página donde existe un ni-
vel mínimo de interacción. Bastaría con considerar algún tipo de indica-
dor sobre ello: número de usuarios registrados, número de visitas, núme-
ro de mensajes, número de mensajes por usuario registrado, etc. A través
de ese tipo de cuantificadores, es posible elegir aquellos grupos, espa-
cios, canales, plataformas o comunidades que den más juego o donde
acontezcan mayor número de fenómenos o datos relevantes. Por supues-
to no estamos hablando de un muestreo en un sentido clásico, como téc-
nica de selección de una porción representativa de la población, sino de
elegir casos para estudiar que puedan proporcionar suficiente informa-
ción significativa.

5.3  La noción de campo

Sin embargo, más que objeto de estudio, en etnografía se habla propia-


mente de campo (de observación). Como método, la observación partici-
pante en entornos online debe definir un cierto campo, definido ahora
por flujos comunicativos y no por fronteras geográficas. Ya que el campo
en nuestro caso no es un lugar físico, el trabajo de campo muchas veces,
como ya hemos mencionado, no está restringido espacialmente y puede
llegar a transitar por diferentes entornos o plataformas diferentes. Es la
vieja idea de Marcus de la «etnografía multisituada» o multilocal (2001),
pero esta vez en un sentido más completo. Cuando hablamos de etnogra-
fía multisituada nos estamos refiriendo al hecho de que podemos tener
que «perseguir» a los componentes de una comunidad online de una pla-
taforma a otra (a través de redes sociales, blogs, páginas web, listas de co-
rreo, chats, etc.). La mayoría de prácticas comunicativas digitales impli-
can la participación simultánea en varios «lugares» o «canales» y ésa ya
es una característica misma del medio. Por ejemplo, puede tener sentido
para una comunidad dada observar el uso concurrente tanto de su cuen-
ta de Twitter como de su canal de Youtube y los vídeos que suben como
la lista de correo que vertebra el grupo.
Pero la multilocalidad también apunta al hecho de que son etnogra-
fías multisituadas online-offline. Hasta ahora, la mayoría de formas de
representar esos «espacios comunicativos» era mediante el uso de metá-
foras espaciales («aldea global», «autopistas de la información», «la
Red», etc.). Por esa razón, la observación no deja de hacerse, de algún
modo, «dentro y fuera». A pesar de asumir la interrelación online-offline,

472
16. Etnografía virtual/digital (EVD)

registrar datos mediados y datos con presencia física (si es posible) se


vuelve una gran ayuda. Por ejemplo, Estalella, en la observación de los
blogueros en España, no dejó de etnografíar una serie de blogs pero tam-
bién los encuentros presenciales que se realizaban por parte de este gru-
po de creadores culturales y donde se reunían una vez cada cierto tiempo
(2012 y 2014: 14-15). Probablemente de cara a conseguir una «descrip-
ción densa»6 ésta sea la única manera de obrar. El campo de la etnogra-
fía de McLellod (2003) incluía las páginas de contactos gay en Japón,
pero también las visitas a los pubs del extrarradio de Tokio y las visitas a
hoteles.
Lo online y lo offline, en la práctica, ya no forman espacios desagre-
gados o inconexos, sino un espacio continuo donde se retroalimentan y
solapan. La dicotomía entre lo físico y lo virtual o entre el cuerpo cami-
nando por la calle y el avatar/perfil/usuario en la pantalla va perdiendo
vigencia. Solo un bisturí conceptual y analítico lo puede separar cuando
experiencialmente no parecen distinguibles. La normalización de Inter-
net y la galaxia digital hace que no tenga mucho sentido estar constante-
mente distinguiendo los dos terrenos, sino analizar conjuntamente esa
sociabilidad generalizada donde lo online y lo offline se encuentran en-
trelazados. Desagregar el momento de una conexión del resto de rutinas
cotidianas en las que participamos cada vez resulta más difícil. Por ello,
un buen método de validación o evaluación de la observación online es
la observación offline y el examen de los vasos comunicantes y puentes
entre todas las actividades sociales.
Por otra parte, la facilidad actual con la que se puede entrar y salir del
campo, mediante una gestión cómoda de la situación del investigador, al-
tera las dinámicas clásicas de observación. En estos momentos, la capaci-
dad para administrar la entrada y salida del campo por parte del obser-
vador es sorprendentemente sencilla. Ello comporta que incluso, tras el
«retorno del campo», se puede estar en comunicación con usuarios y
personas que se conocieron allí. Dicha continuidad pone en duda la
cuestión del cierre del campo (o trabajo de campo), y emborrona las de-
finiciones de «casa» (home) y campo (field).

5.4  Triangulación metodológica (triangulación técnica y online-offline)

En una etnografía virtual es habitual terminar combinando la observa-


ción participante con otro tipo de técnicas. Desde técnicas conversacio-
nales clásicas, como ciertas entrevistas en profundidad con algunos usua-

473
La obtención de datos

rios concretos, hasta otro tipo de datos relevantes. Pero no hablamos


sólo de este tipo de acompañamientos que ya están incluidos en la etno-
grafía clásica. Por ejemplo, puede ser útil tener un cierto conocimiento
de la comunidad estudiada a partir de sus datos «sociodemográficos».
Pero los datos sociodemográficos de dichas agrupaciones son peculiares
en las EVD. Suelen ser datos de audiencias o de composición estadística
de tales colectivos: cantidad de gente que forma la comunidad, usuarios
registrados, número de mensajes por día, tasa de mensajes por usuario,
cantidad de conexiones por hora, etc. Mayans, en su antropología de los
chats (2002), realizó una serie de mediciones periódicas de la cantidad de
usuarios en cada canal cada cierto tiempo según días de la semana y fi-
nes de semana. De esta forma compuso un perfil estadístico del volumen
de las salas de chats y de la cantidad de participantes por día y horario.
En la misma línea se ha venido aplicando el análisis de redes sociales en
el sentido de estudio matemático de los grafos y conexiones que se gene-
ran en la misma para identificar el modelo de red conformado. El estu-
dio de la topología de la comunidad y de la forma geométrica que forma
da pistas sobre elementos conectores, sobre subgrupos dentro de la mis-
ma comunidad, sobre el grado de conexión de la misma, etc. Es decir, el
tipo de triangulación que operan en una EVD son de nuevo cuño (técni-
cas online) o triangulaciones online-offline.
Incluso deberíamos mencionar, en este punto, las metodologías afines
que se han desarrollado específicamente para determinados aspectos u
objetos virtuales, móviles y digitales, por ejemplo las así denominadas
«metodologías móviles» (Urry, 2008; Büscher y Urry, 2009). Este tipo de
miradas están muy conectadas con la etnografía y articulan un segui-
miento específico de esos objetos contemporáneos que transitan sin cesar
tantos terrenos, ámbitos y espacios sociales diferentes.

5.5  Papel del observador

El papel del etnógrafo, como siempre, deviene un punto clave en el proce-


so investigador, pero, más si cabe, en el mundo online en el que la entra-
da y salida del campo y la posición del investigador se puede gestionar
tan cómodamente. Esto es, la administración del lugar de observación
permite un cierto juego de in/out incluso en tiempos diferidos (asincro-
nía). Como ahora no hay que viajar a lugares exóticos y remotos sino co-
nectarse o encender una pantalla, la «convivencia con los otros» se pre-
para sin desplazamiento geográfico.

474
16. Etnografía virtual/digital (EVD)

Aunque hay quien defiende la posibilidad de una investigación basada


en un «observador participante ausente» (Del Fresno, 2011: 58), lurker o
mirón, lo cierto es que genera dudas su justificación metodológica.
Como siempre, ese equilibrio inestable pero básico entre observar parti-
cipando y participar observando en el que se sea capaz de generar datos
reflexivamente sin condicionar el objeto de estudio excesivamente es el
objetivo buscado. Como generar conocimiento relevante sin que altere-
mos la interacción de la comunidad observada. Lo que sí parece que ha
sido bastante habitual en las EVD es una primera fase de observación
distante y poco participativa para la familiarización con las herramien-
tas, los modos comunicativos, el software utilizado, el tipo de canal, etc.
Y, posteriormente, una inmersión plena de observación participante don-
de una vez conocidos los códigos informáticos y lingüísticos podemos
comprender las relaciones tejidas en dicho lugar. Aunque parezca menti-
ra, el saber instalar, abrir, configurar o utilizar un cierto tipo de progra-
ma no siempre es habitual. De hecho, a pesar de estar practicando etnogra-
fía con objetos contemporáneos es obvio un necesario «extrañamiento»
por parte del investigador que, partiendo de su «sabia ignorancia» (Gu-
ber, 2011: 20) y desconocimiento preliminar, tendrá que aprender las des-
trezas computacionales, técnicas, lingüísticas y discursivas de la comuni-
dad estudiada. Otro elemento diferencial es incluso la posibilidad de
realizar varias observaciones diferentes o combinar miradas de distintos
investigadores, tal y como se realizó en la investigación sobre mujeres en
espacios tecnológicos (Ardevol et al., 2003).

5.6  Informantes clave

Y, por supuesto, en el desarrollo de la propia etnografía en espacios vir-


tualizados, se aplican otras técnicas clásicas y conversacionales, tales
como entrevistas a informantes clave (especialmente a los heavy users y
líderes carismáticos o expertos de los espacios virtuales). Hay dos ele-
mentos que mencionar aquí. Por un lado, que tales informantes clave
pueden ser completamente desconocidos desde el punto de vista de sus
datos personales reales. No nos preocupa en exceso si tenemos toda la
información íntima de tales personas o si permanecen en el anonimato
mientras realicen su función etnográfica. Es una situación a la que hay
que acostumbrarse también. Por otro lado, en muchos casos, los infor-
mantes claves pueden serlo no tanto por poseer una personalidad singu-
lar, sino por sus conocimientos técnicos y su grado de expertizaje, una

475
La obtención de datos

característica muy relevante en estos ámbitos (quien mejor se maneja po-


see una ventaja adaptativa y cierto control o poder en la comunidad).
Hine, por ejemplo, en su investigación sobre el caso de Louise Woodward
(una niñera británica juzgada en Estados Unidos por la muerte acciden-
tal de un niño al que cuidaba) y la campaña de solidaridad que se generó
en las redes, decidió entrevistar a los webmasters de las páginas de apoyo
(las personas que diseñaban los websites y subían la información). Es de-
cir, en muchos casos, esta selección de sujetos a entrevistar sólo se podrá
hacer tras un tiempo de observación e interacción, ya que en tales espa-
cios las identidades pueden estar ocultas, no visibles (pseudoanonima-
tos). Y, además, las personas que dominan la arquitectura técnica de los
mismos o que poseen unas habilidades informáticas específicas destaca-
rán sobre el resto. En cualquier caso, en todas las comunidades, grupos o
culturas, hay personas que por su posición, características personales o
ubicación, por experiencia o información acumulada, nos pueden pro-
porcionar datos o claves interpretativas y en los entornos online son los
usuarios más activos, frecuentes, conectados o expertos habitualmente.
En una etnografía con jóvenes extremeños, tras observar dos foros du-
rante varios meses, se pasó posteriormente a entrevistar por email a los
usuarios más activos, que lideraban dicho foro enviando más mensajes,
recibiendo más respuestas a sus posts y generando más debates e incluso
polémicas.

5.7  Tiempo de observación

Como es bien sabido, la etnografía clásica no tiene un período fijo de ob-


servación prescrito matemáticamente de antemano. Es decir, se considera
que tiene que ser un tiempo suficientemente largo como para que la in-
mersión del investigador, ese «estar allí», saturara el conjunto de prácti-
cas y significados de la comunidad estudiada. Nadie puede abocarse a su
objeto de estudio para siempre, hay que dar por terminado el trabajo en
algún momento. Asimismo, en el mundo online los tiempos son distin-
tos, cortos o lentos, acelerados, asincrónicos a veces, plagados de datos
(relevantes o irrelevantes), etc. En tales casos, aunque hay quien ha he-
cho etnografías de varios meses (Hine, 2004, y Mayans, 2002, de los
ejemplos que venimos poniendo), hay toda una tendencia a reducir los
tiempos de observación por dos razones. La primera es la cantidad de
datos que se pueden observar y registrar en muy poco tiempo (la alarga-
da sombra de los Big data nuevamente), proyectando la sensación de que

476
16. Etnografía virtual/digital (EVD)

se ha saturado completamente el análisis cualitativo (algo que sabemos


no tiene por qué ser así). La segunda es por la asincronía de las interac-
ciones y por el hecho de poder guardar datos sin estar presente, recopilar
respuestas en función de la disponibilidad o acumular observaciones de
manera interrumpida e inconexa sin la exigencia de la copresencia física.
La temporalidad también acaba siendo afectada por otro tipo de pará-
metros que no son estándar, como son los tiempos de espera, de cone-
xión, de desconexión, etc., típicos de las comunicaciones mediadas. Y, a
la vez, rompen con los ciclos temporales habituales que dejan de ser tan
relevantes (día/noche) al poder encontrar gente conectada permanente-
mente o el campo y sus trazos o huellas (mensajes, envíos, posts, perfiles,
muros, imágenes o vídeos subidos, comentarios, estadísticas, etc.) en una
especie de presente eterno.
En cualquier caso, el tiempo dependerá de lo que se considere necesa-
rio aprender de los códigos comunicativos del entorno online (desempe-
ño escrito, destrezas informáticas, conocimientos técnicos, etc.) y de la
propia cultura estudiada. Familiarizarse con un grupo social puede re-
querir un tiempo que nunca está fijado de antemano.

5.8  Cuaderno de campo

Es una vieja tradición etnográfica, mantener un registro pormenorizado


de los datos relevantes que se van generando en la observación. Los
grandes investigadores de la antropología dotaban de un papel esencial a
este diario de percepciones y descubrimientos que iba quedando forjado
a través de las interpretaciones que el propio etnógrafo realizaba. Incluso
el hecho de mantener dicho cuaderno se toma como una cierta medida
reflexiva para que quien investiga sea consciente en todo momento de lo
que hace, de lo que escribe y de sus límites interpretativos. Asimismo,
esas narrativas forman parte del proceso investigador y de las conclusio-
nes mismas además de ser un elemento de diálogo general. En muchos
casos, los «incidentes reveladores» (tropiezos, bloqueos, anécdotas, con-
tratiempos inesperados) (Guber, 2011: 21) quedarán inscritos en una na-
rrativa etnográfica de suma importancia.
Lo específico en este caso, pensando en la EVD, es la posibilidad de
realizar un cuaderno de campo online, que pueda estar abierto a la lectu-
ra misma de los usuarios observados. Es decir, el cuaderno de campo for-
ma parte del propio campo al ser un documento semipúblico, accesible
vía Internet. Estalella, en su etnografía de los bloguers y el bloguear apa-

477
La obtención de datos

sionado, abrió su propio blog como cuaderno o «blog de campo» (2014:


15). Se pueden incluir vídeo blogs y blogs con otras características nove-
dosas. Los repositorios de vídeo tipo Youtube, Vimeo, etc., facilitan la
generación de un archivo de datos que a su vez puede producir comuni-
dad a su alrededor.

5.9  Ética de la investigación

Las cuestiones éticas son un tema que ha crecido incesantemente, espe-


cialmente en el entorno anglosajón, ya que los espacios comunicativos
digitales son una mezcla de entorno público/privado, un híbrido al for-
marse como lugar de observación pública de comunidades privadas. El
permiso para observar no siempre es evidente y se puede solicitar o no,
pero desde luego supone una elección del investigador. Una decisión que
queda a su gusto, ya que tiene la posibilidad de entrar y salir del campo
conectándose y desconectándose, observando grupos en interacción a
distancias enormes y en tiempos diferidos sin estar obligado a hacerse
presente, presentarse o evidenciar su presencia.
La EVD lleva un tiempo planteando la necesidad de replantear los có-
digos éticos y los protocolos de actuación en estos espacios semipúblicos
y donde una cantidad enorme de inscripciones y confesiones personales
son visibles. No en vano muchas investigaciones se han realizado utili-
zando información personal de personas con ciertas problemáticas (en-
fermedades, accidentes, conflictos sociales, etiquetaje desviado, etc.) cuyo
anonimato y desinhibición en canales digitales favorecían su participa-
ción. Por todo ello, las actuaciones prácticas concretas y el resultado de
las investigaciones deberían seguir ciertos criterios éticos estándar que se
vienen tratando de fijar desde hace unos años7.

Finalmente, y a modo de cuadro-esquema resumen, en las pp. 480-481


proponemos una comparación entre la etnografía clásica y la EVD que
pueda, en la comparativa, indicar algunas ideas de aplicación.

6.  Conclusiones: límites y potencialidades de la evd

Cualquier estudio de un fenómeno contemporáneo debería dar cuenta


de los fenómenos sociales que acontecen en, desde y a través de las me-
diaciones que Internet y el entramado digital producen. Resulta un desa-

478
16. Etnografía virtual/digital (EVD)

fío de primer orden comprender las transformaciones de nuestra cotidia-


neidad desde el espacio empírico comunicativo-digital. La potencia de la
EVD se encuentra precisamente en su capacidad para interrogar y desci-
frar estos procesos de grupalidad, identidad y comunidad que acontecen
en un momento histórico donde este tipo de formaciones comienzan a
ser muy frecuentes e incluso dominantes en algunos aspectos. Ello no
nos debe llevar a olvidar y ningunear todo aquello que no pase por ca-
bles, pantallas y redes sino a complementar adecuadamente ambos ámbi-
tos. Sin embargo, lo cierto es que hoy en día el modelo de comunidad na-
tiva online cada vez es más presente y comienza a ganar peso en el
estudio de ciertos temas en Ciencias Sociales. Dejando de lado una obse-
sión por la infraestructura técnica, la sensibilidad etnográfica nos invita
a observaciones sistemáticas de sociabilidades cada vez más complejas y
en entornos mediados (entendiendo lo online como una relación sui gé-
neris entre la sociedad, los sujetos y las tecnologías digitales).
Por otra parte, tal y como hemos insistido de cara a las técnicas de la in-
vestigación online, la EVD produce una serie de tensiones metodológicas
que hay que enfrentar y que son sugerentes ideas que pueden aumentar la
vigilancia y reflexividad del proceso empírico. Por reflexividad se asume
habitualmente que el investigador sea consciente de su persona y condicio-
namientos sociales8 (Guber, 2011: 45). Aquí nos referimos a decisiones
concretas que hay que tomar a lo largo del transcurso de la investigación:
¿qué lugar de observación elijo? ¿Cómo me posiciono como investigador/
observador? ¿Qué límites pongo a mi indagación? ¿Qué triangulaciones
metodológicas me garantizan un cierto nivel de validez a mis datos? ¿La
mediación de una pantalla limita o distorsiona la observación? ¿Cómo
analizo datos que han sido producidos en tiempos distintos y por parte de
sujetos que no veo o de los que carezco de información? ¿Tiene sentido el
estudio de una agregación de personas que no coinciden nunca espacial-
mente y no siempre temporalmente? ¿Las experiencias y datos que obten-
go como etnógrafo a través de la tecnología pueden tratarse de la misma
manera que las que obtenía cara a cara?, etc.
Internet y sus mediaciones han dejado de ser exóticas para volverse
norma cotidiana. El conjunto de investigaciones realizadas hasta la fecha
es vasto e inabarcable pero cabría mencionar que a través de ciertos ele-
mentos comunes se ha conseguido colocar a la EVD en un lugar de reco-
nocimiento académico. A pesar de existir diferentes tipos de etnografías
virtuales, sus alcances y puntos positivos han superado con creces a algu-
nas de sus barreras. Como todas las técnicas, se pueden enumerar venta-
jas y desventajas de estos procedimientos.

479
La obtención de datos

ESQUEMA DE COMPARACIÓN ENTRE LA ETNOGRAFÍA CLÁSICA


Y LA VIRTUAL

ETNOGRAFÍA CLÁSICA: ETNOGRAFÍA VIRTUAL O DE LO


comprensión de culturas distintas DIGITAL: comprensión de comunicaciones
mediadas tecnológicamente como culturas

Fundamentalmente técnicas de Fundamentalmente técnicas de observación


observación participante (asistir y participante sin presencia física ->
presenciar la vida pública de un grupo «observación flotante» (asistir desde la
social). distancia física a la vida pública de un
grupo social).

Objetos de estudio más habituales: Objetos de estudio más habituales:


tribus, primitivos, otras culturas [el individuos comunicando o conectados
«otro distante»], culturas modernas, («indígenas»), códigos de comportamiento
subculturas, colectivos sociales, online, comunidades online, listas de correo,
autoobservaciones (antropología de la foros, chats, blogs, redes sociales, etc. [el
ciencia o urbana, p. ej.) [el «otro «otro conectado», «ciber-otro», «tele-otro»].
próximo»].
En general todas las comunicaciones
«En su forma más característica, mediadas por ordenador (CMO o CMC,
implica la participación del etnógrafo, en inglés): vínculos creados así, relaciones
sea abierta o encubiertamente, en la emergentes y «mecanismos encarnados»
vida cotidiana de las personas, (socialización, autoridad, identidad,
durante un período prolongado de poder, etc.).
tiempo, observando lo que sucede,
haciendo preguntas —de hecho,
recopilando cualquier dato que esté
disponible para arrojar luz sobre los
temas de su investigación»
(Hammersley y Atkinson, 1994: 1).

Herramientas: mirada directa y Herramienta: mirada por pantalla (interfaz


lenguaje oral. visual) y lenguaje (escrito). En menor
medida oral.
«Banda ancha»: riqueza de matices Nuevos juegos de palabras, usos de teclas y
gestuales, tonales, de pronunciación, timing de tecleo, expresiones diferentes, etc.
proxémicos y contextuales. Canal de observación aparentemente
reducido: pantalla o narrow band width
Necesidad de transcripción, grabación (banda estrecha) y códigos informáticos.
o registro posterior en cuaderno de
campo. Se puede disponer de todas las
conversaciones guardadas al instante y
transcritas.

480
16. Etnografía virtual/digital (EVD)

ESQUEMA DE COMPARACIÓN ENTRE LA ETNOGRAFÍA CLÁSICA


Y LA VIRTUAL

ETNOGRAFÍA CLÁSICA: ETNOGRAFÍA VIRTUAL O DE LO


comprensión de culturas distintas DIGITAL: comprensión de comunicaciones
mediadas tecnológicamente como culturas

Ejemplos: recorrer un barrio. Ejemplo: recorrer un sitio web, participar


«La etnografía puede y tiene lugar en en un foro sobre ciclismo rural, chatear en
una amplia variedad de lugares: un canal de futbolistas retirados, recorrer y
pueblos, ciudades, vecindarios de la pasear un entorno de juegos virtuales, etc.
ciudad, fábricas, minas, granjas, «Las CMO ofrecen la posibilidad de tele-
tiendas, oficinas de negocios de todo presencia en espacios públicos
tipo, hospitales, teatros de operaciones, prácticamente ilimitados, donde conocidos
prisiones, bares, iglesias, escuelas, y desconocidos pueden darse cita de modo
institutos, universidades, agencias imprevisto y donde la interacción tiene
tribunales, tribunales de justicia, lugar de un modo no necesariamente
tanatorios, capillas funerarias, etcétera» puntual o instrumental sino claramente
(Hammersley y Atkinson, 1994: 97). sustantivo» (Mayans, 2002).

Espacios físicos y proximidad física Las nuevas tecnologías disipan el concepto


(co-presencia). tradicional de distancia física y geográfica.
No deja de haber espacio, son fenómenos
sociales en un espacio no-físico sin
co-presencia corporal.
Ej.: un solo usuario puede tener un
pseudónimo en un chat, estar conversando en
una red social con otro nombre, abrir una
ventana de Skype con otro apodo y,
simultáneamente, estar escribiendo en un blog.

Registro: cuaderno de campo, Registro: textos, imágenes o vídeos en


grabadora de audio, grabadora de formato digital.
vídeo, etc.

Tiempo: tiempos físicos y reales (día/ Ausencia de tiempos normales, no se rigen


noche, días, semanas, años, etc.). por parámetros acostumbrados (flujos
Adaptación al calendario oficial. temporales): menor importancia de día/
noche, horarios, etc.

Aparición de otras temporalidades, por ej.


Los tiempos de espera (de conexión, de
descarga, mientras se escribe, etc.).

fuente: Elaboración propia.

481
La obtención de datos

Por ejemplo, hay quien considera que la deslocalización geográfica o


la irrelevancia de las distancias permiten mitigar algunas de las restric-
ciones con las que se topaba la etnografía clásica. De esta forma, la inte-
racción con una audiencia global con independencia de sus coordenadas
facilita una observación más amplia. Igualmente ocurre con la mezcla
entre asincronía y sincronía, habilitando un modelo comunicacional
donde se puede conversar estando presentes y en tiempo real o no (Del
Fresno, 2011: 45). Asimismo, siempre que se traten temas sensibles, con
identidades sociales estigmatizadas o «desviadas», el entorno digital pro-
vee de un aura de anonimato que facilita la desinhibición. El acceso a de-
terminadas cuestiones difícilmente accesibles o colectivos singulares se
ha visto favorecido en el caso de, por ejemplo, la cultura gay en Japón
(McLellod, 2003), adolescentes de grupos proanorexia (Gavin et al.,
2008), jubilados y ancianos en la red (Kanayama, 2003) o personas con
discapacidad (Bowker y Tuffin, 2004).
Al otro lado, hay quien afirma que las dificultades con las que nos to-
pamos en términos de ausencia de marcas de tiempo/espacio claras, la
dispersión de escenarios y horarios, la propia flexibilidad interpretativa
del método etnográfico, las indecisiones sobre la actuación etnográfica
(ser un lurker o participante pasivo o, por el contrario, participar activa-
mente), acostumbrarse al anonimato y a dudar de la veracidad o autenti-
cidad del comportamiento mediado técnicamente (nicks, avatares, fir-
mas, etc.), titubear en la selección del campo, etc. pueden ser limitaciones
estructurales que lastren la investigación.
De la etnografía colonial decimonónica a la etnografía global mediati-
zada hay mucho recorrido cronológico y quizás no tanto metodológico si
es posible rescatar el espíritu de una mirada comprensiva de las claves
culturales del presente. En ese sentido, la etnografía se convierte en un
método idóneo y favorito para descifrar las nuevas prácticas socializado-
ras contemporáneas (Hine, 2015). En la era de la fibra, los autómatas y
la electrónica, la artesanía metodológica (Guber, 2011: 15) sigue siendo
necesaria. Aun así, las virtudes de la EVD están todavía por descubrir.

Notas
1  Dado que existen tantas denominaciones distintas para este método y que no
hay consenso sobre el mejor término a utilizar, usamos aquí simultáneamente
etnografía virtual y etnografía digital mediante la contracción EVD.
2  La llegada de los Grandes Datos ha producido tres grandes fenómenos
que hay que tener en cuenta respecto a la investigación y a la minería de datos:

482
16. Etnografía virtual/digital (EVD)

1) el paso del muestreo al filtrado. Ya no tenemos que hacer muestreos sino fil-
trar los datos que nos llegan; 2) un relajamiento de la exactitud. «Con menos
errores de muestreo podemos asumir más errores de medida» (Cukier, 2013: 25)
y 3) el desplazamiento de la causalidad a las correlaciones y de las hipótesis a las
tendencias.
3  Muchas de las referencias lingüísticas con las que nos hemos referido a
ellos son de corte metafórico espacial: «aldea global», «autopistas de la infor-
mación», «ciberespacio», «redes», «sitios web», «portales», etc.
4  Si bien el término «etnografía virtual» gozó de una alta popularidad cuan-
do C. Hine lo puso de moda gracias a su libro (2000), en los últimos tiempos ha
ido perdiendo bastante presencia en el panorama académico, ya que la noción
de «virtualidad» sigue estando muy connotada y sigue produciendo una sensa-
ción de «irrealidad» o de «no verdad» de los comportamientos o prácticas ob-
servadas. Este riesgo de describir algo «falso» puede ser evitado apelando a
otros términos (Del Fresno, 2011: 50). La propia Hine, en su último libro (2015),
habla de etnografía de Internet.
5  «Muy a menudo un etnógrafo virtual es simplemente un etnógrafo que tra-
ta el ciberespacio como una realidad etnográfica, pero el término ha sido más a
menudo aplicado a métodos de recolección de datos donde el investigador no
está físicamente presente. Los etnógrafos virtuales dependen del uso de las tec-
nologías para las imágenes de las acciones de las personas. Son muy dependien-
tes del contacto mediado visual y el sonido es algo usualmente una característi-
ca importante» (Silva, 2007).
6  «Aquella que reconoce los marcos de interpretación dentro de los cuales
los actores clasifican el comportamiento y le atribuyen sentido» (Guber, 2011:
18, y Geertz, 1973).
7  Ethical decision-making and Internet research: Recommendations from
the AOIR ethics working committee (version 2.0). Annette Markham and Eliza-
beth Buchanan, with contributions from the AOIR Ethics Working committee.
http://www.aoir.org/reports/ethics2.pdf (2012).
8  Bourdieu y Wacquant añaden otros dos tipos de reflexividad (1992: 69): i)
posición del analista en el campo científico y académico y ii) las tendencias inhe-
rentes a las posturas intelectuales y ciertas tendencias teoricistas que no se expli-
citan (epistemocentrismo).

Bibliografía recomendada
Del Fresno, M. (2011): Netnografía. Investigación, análisis e intervención social
online, Barcelona, UOC.
Hine, C. (2004): Etnografía virtual, Barcelona, UOC [2000, edición inglesa].
— (2005): Virtual Methods: Issues in Social Research on the Internet, Oxford,
Berg Publishers.

483
La obtención de datos

— (2008): «Virtual Ethnography: modes, varieties, affordances», The Sage Hand-


book of Online Social Research, pp. 257-270.
— (2015): Ethnography for the Internet: Embedded, Embodied and Everyday,
Londres, Bloomsbury Academic.
Kozinets (2010): Netnography: Doing Ethnographic Research Online, Londres,
Sage.
Lévy, P. (2007): Cibercultura. Informe al Consejo de Europa, Barcelona, Anthro-
pos.

484
17.  Explotación de datos
secundarios

Josu Mezo

El propósito de este capítulo es ayudar al investigador que utiliza como


parte de su trabajo de investigación los llamados datos secundarios, es
decir, datos que no han sido obtenidos y elaborados por el propio inves-
tigador, sino que le son facilitados por otras fuentes (instituciones, otros
investigadores). Hablamos aquí particularmente de datos cuantitativos,
no de otras fuentes secundarias (archivos históricos, actas de organismos
públicos, sentencias, contenido de los medios de comunicación...) que
pueden ser también objeto de investigación.
Como decía Benjamín González (2000), en la edición anterior de este
libro, la palabra secundario tiene unas connotaciones negativas (de me-
nor importancia, de inferior categoría, no principal, accesorio), que no
son de ninguna manera aplicables a los datos secundarios, en el sentido
aquí utilizado. No hay nada indeseable o negativo en basar una investi-
gación en datos secundarios, ni tienen éstos por qué ser de mejor ni peor
calidad, o valor, que los datos primarios, obtenidos por el propio investi-
gador o equipo de investigadores. La pertinencia o conveniencia de usar
unos u otros dependerá del tema de la investigación, de los recursos dis-
ponibles, del enfoque teórico, de la existencia o no de investigaciones pre-
vias que hayan recogido datos suficientes para el propósito del estudio o
de otros factores, pero no hay ninguna razón de principio para que sean
preferibles los datos primarios.

485
La obtención de datos

El capítulo se estructura en tres secciones. La primera se dedica a las


bases de datos «clásicas» y explica la revolución de las últimas décadas en
el acceso a datos por vía digital, con su gran potencialidad, pero también
sus peligros, indicando algunas destrezas que puede ser necesario adquirir
o desarrollar para sacar el mayor partido de los datos actualmente dispo-
nibles online. La segunda parte habla de la revolución de los «grandes da-
tos» (big data), bases de datos gigantescas que van siendo generadas por
diferentes entidades, comerciales o no, a medida que una mayor propor-
ción de nuestras actividades queda registrada digitalmente y que han des-
encadenado en los últimos años promesas sobre grandes avances en el co-
nocimiento. Los grandes datos pueden ser explotados con técnicas
tradicionales, pero son también candidatos a nuevos métodos de investiga-
ción, como el machine learning, que requieren nuevas habilidades y destre-
zas. Por otra parte, el entusiasmo por los nuevos métodos no debe hacer
olvidar algunas de las reglas básicas de la investigación cuantitativa, como
se verá en el apartado correspondiente. El capítulo termina con una sec-
ción donde se hace un breve apunte sobre las principales instituciones que
albergan en la web bases de datos de acceso público que puedan ser de in-
terés para investigaciones en el ámbito de las ciencias sociales.

1.  El análisis con datos secundarios «clásico»

1.1  Los datos secundarios hasta los años noventa

Con un punto de exageración, puede decirse que, en un principio, toda la


ciencia social se basaba en datos secundarios. Durkheim basó todas sus
averiguaciones de El suicidio, que puede considerarse el primer gran estu-
dio empírico en ciencias sociales, en informaciones públicas de anuarios
estadísticos. Obviamente, los datos que él utilizó no habían sido produci-
dos con el propósito de estudiar ese fenómeno, pero él supo reutilizarlos
para encontrar unas relaciones hasta entonces no conocidas entre las ta-
sas de suicidio y la prevalencia de diferentes religiones, el estado civil o la
ausencia o presencia de revoluciones o conmociones sociales. Dada la di-
ficultad y la cantidad de recursos necesarios para producir datos sociales,
es lógico que los primeros estudios sociales, basados en el trabajo indivi-
dual de investigadores, sin gran apoyo humano, institucional o económi-
co, se basaran de manera casi exclusiva en este tipo de datos.
Con el desarrollo de las ciencias sociales, su institucionalización en
departamentos y facultades, la creación de equipos de investigación, la

486
17. Explotación de datos secundarios

existencia de fondos públicos y privados para financiar la investigación,


son muchos los investigadores que tienen la posibilidad de generar sus
propios datos primarios, a través de procedimientos cuantitativos o cuali-
tativos como los descritos en otros capítulos de este manual.
No obstante, los datos secundarios siguen siendo una parte importan-
te e inevitable del arsenal de herramientas a disposición del investigador.
Como mínimo, en todo trabajo de investigación hay una fase inicial de
revisión de la literatura, en la que el investigador se tiene que familiarizar
con los estudios e informaciones ya existentes sobre el fenómeno de su
interés, incluyendo los aspectos estadísticos y cuantitativos. Incluso si el
método del trabajo es cualitativo, o antropológico, el proceso de aprendi-
zaje y comprensión del fenómeno previo al trabajo de campo incluirá da-
tos estadísticos. Por ejemplo, una investigación cualitativa, basada en ob-
servación, y entrevistas en profundidad, sobre personas que vivan en
situación de marginalidad incluirá en su proceso de gestación un acerca-
miento a la información cuantitativa existente sobre la población en si-
tuación de exclusión social. Aparezcan o no esos datos luego en el texto
generado por la investigación, el investigador sin duda los examinará, y
es importante que los maneje de forma adecuada.
Por otro lado, por supuesto, muchos trabajos de investigación inclu-
yen la realización de un nuevo análisis de datos secundarios, que va más
allá del simple manejo y comprensión de los análisis ajenos. Se trata de
interrogar nuevamente los datos producidos por otros (investigadores o
instituciones) para encontrar en ellos patrones o relaciones hasta ahora
no conocidos, como hizo Durkheim. Pensemos en un estudio que ponga
en relación, a nivel municipal o provincial, los resultados electorales con
datos relativos a la estructura económica o la tasa de paro. Es a este tipo
de nuevo análisis de datos preexistentes al que nos solemos referir cuan-
do pensamos en la investigación basada en datos secundarios, que puede
ser el objetivo central de una investigación, o simplemente parte de la
fase preparatoria de un trabajo con datos propios.
¿De qué datos estamos hablando? Hasta la definitiva universalización
de la informática de los años noventa, lo habitual era que los datos se dis-
tribuyeran en papel, en boletines mensuales o anuarios estadísticos, y de
forma agregada (por ejemplo, en España, lo usual era la agregación pro-
vincial, y sólo algunos se publicaban a escala municipal). Las fuentes de
datos secundarias más accesibles eran las de carácter oficial, como las del
del Instituto Nacional de Estadística, cuyo Boletín Mensual y Anuario Es-
tadístico eran en su momento las referencias más importantes para obtener
información estadística esencial. También otras instituciones, como el

487
La obtención de datos

Banco de España, los diferentes ministerios, la Seguridad Social, publica-


ban informes periódicos sobre la evolución de variables esenciales econó-
micas y sociales. Naturalmente, publicaciones similares se producían en
otros países, y por parte de algunas organizaciones internacionales. Y a
partir de los años ochenta algunas comunidades autónomas comenzaron
también a hacer publicaciones estadísticas, generalistas (similares a las del
INE) o especializadas por áreas.
Mucho menos frecuente era el acceso a datos secundarios provenien-
tes de investigaciones académicas previas. Ni los investigadores ni sus fi-
nanciadores pensaban en compartir los datos generados por un estudio.
De manera que los archivos de datos no se diseñaban ni codificaban
para ser utilizados por otros investigadores, ni se establecían protocolos
para hacerlo. Ocasionalmente, si un investigador tenía gran interés por
reutilizar los datos de un estudio anterior, podía dirigirse a título perso-
nal a los autores del mismo, para pedirles el acceso a sus datos, y éste se
negociaría caso a caso, según la relación que se estableciese con el peti-
cionario.
En todo caso, dada la forma de distribución, el simple proceso de ac-
ceder a muchas de las estadísticas, incluso públicas y publicadas, podía
ser muy laborioso, y costoso, en tiempo y dinero, sobre todo si el investi-
gador quería ir más allá de las estadísticas españolas más generales
(como las del INE). Además, una vez conseguidas, la mayoría de los in-
vestigadores no podían hacer análisis muy complejos. El investigador de-
bía generar «manualmente» sus propias tablas, tomando los datos de las
publicaciones en papel que le interesaran, de una o más fuentes, y las
analizaba de forma necesariamente bastante sencilla.

1.2 Revolución digital: salto cualitativo/cuantitativo en información


disponible

Como es bien sabido, a partir de los años ochenta hemos asistido a una
revolución digital, con un doble contenido. Por una parte, los aparatos
capaces de almacenar y procesar información en formato digital se han
popularizado y han bajado dramáticamente de precio. En el ámbito de la
investigación social esto ha significado que casi cualquier estudiante ten-
ga a su disposición, por un precio accesible, un ordenador que le permite
un avanzado análisis de datos, llevando a cabo en pocos minutos cálculos
que hace unas décadas podrían requerirle horas al mejor ordenador dis-
ponible en una facultad.

488
17. Explotación de datos secundarios

Pero en este capítulo nos interesa más la segunda dimensión de la re-


volución digital, que tiene que ver con la difusión de la información. La
aparición y expansión de Internet está transformando de manera radical
todos los procesos sociales y económicos relacionados con la transmisión
de información. Sectores económicos enteros, como las industrias cultu-
rales o los medios de comunicación, ven cómo se tambalea su modelo de
negocio tradicional. La búsqueda y compra en línea ha cambiado nues-
tro modo de adquirir todo tipo de productos y servicios. Millones de tex-
tos, imágenes y vídeos se añaden cada día a las redes sociales.
Y también, por supuesto, Internet ha revolucionado la difusión de in-
formación estadística, al poner al alcance de cualquier persona con un
ordenador conectado a la red cientos o miles de bases de datos de todo el
mundo, generalistas y especializadas, públicas y privadas, actualizadas
permanentemente, y en muchos casos gratuitas. En particular, tras el des-
plome del coste de almacenar y difundir información, pierde todo senti-
do la práctica, antes común, de dedicar grandes recursos a generar datos,
utilizarlos para una investigación y archivarlos en ordenadores que nadie
volvía a tocar. Y así, se va extendiendo la práctica de colocar los datos
generados por las investigaciones sociales en depósitos abiertos, para que
puedan ser descargados por otros investigadores y reutilizados en nuevos
estudios (en la sección 3 se verán varios ejemplos).
Cualquier estudiante de la más pequeña universidad del mundo puede
tener así hoy, y de manera muy rápida, acceso a muchas más bases de da-
tos de las que podían utilizar, hace sólo unos años, los afortunados estu-
diantes e investigadores de las más prestigiosas universidades, con sus
magníficas bibliotecas.
Hay que destacar además que este nuevo modo de difundir la infor-
mación ha afectado no sólo a la cantidad, sino también al tipo de datos
disponibles. Es decir, por una parte, se ha trasladado al formato digital
lo que antes estaba en papel, haciéndolo instantáneamente accesible des-
de cualquier parte del mundo, e instantáneamente utilizable para su aná-
lisis con un software estadístico, evitando los procesos de tecleado de da-
tos, repetitivos, engorrosos, lentos y dados a errores. Así, por poner un
ejemplo, la estadística de defunciones a nivel provincial del INE está hoy
accesible en su web, en formato digital, con desagregación por sexo y
edad. Esto es ya un cambio extraordinario. Pero, además, la distribución
digital va permitiendo en muchos casos poner al alcance de los investiga-
dores los microdatos, es decir las bases de datos originales, con datos in-
dividuales de todos los casos (individuos, empresas, familias) a partir de
los cuales se generan los datos agregados. Por seguir con el ejemplo ante-

489
La obtención de datos

rior, en la web del INE es también ahora posible descargarse, de manera


gratuita e inmediata, los ficheros que contienen los datos individuales de
todas las personas fallecidas desde 1975, con variables como su sexo,
edad, estado civil, profesión, municipio de residencia y defunción (si es
de más de 10.000 habitantes), provincia de residencia y defunción, y fe-
cha de la misma (y causa del fallecimiento, bajo petición). Con este tipo
de datos el investigador puede realizar análisis a nivel individual que an-
teriormente eran imposibles, o extremadamente dificultosos.
A todos estos cambios se ha añadido en los últimos años un nuevo fe-
nómeno, aún en proceso de definición y desarrollo, que es el movimiento
en favor de los datos abiertos (open data), vinculado a la promoción más
general, en nuestras democracias contemporáneas, de la transparencia y
la rendición de cuentas del sector público. Se trata de favorecer que el
sector público ponga a disposición de los ciudadanos de manera rutina-
ria «todos» los datos de los que dispone, con las salvedades mínimas ne-
cesarias para salvaguardar la privacidad y la seguridad, con el mayor
grado de detalle posible, de manera rápida, accesible, estructurada para
su procesamiento automático y con las mínimas restricciones para su
uso. En la medida en que esta propuesta se consolide, irán estando a dis-
posición del público (y de los investigadores) nuevos datos sobre todo
tipo de áreas de actividad del sector público, así como datos recogidos
por los gobiernos sobre la realidad social, que anteriormente no se di-
fundían.

1.3  Potencialidades y ventajas del uso de datos secundarios

La nueva era digital abre por tanto posibilidades extraordinarias para el


investigador en ciencias sociales, inimaginables hace sólo tres décadas,
puesto que es factible realizar proyectos en los que se manejan simultá-
neamente datos procedentes de múltiples fuentes, en diferentes países y
con un alto nivel de desagregación (hasta el individuo, la familia, la em-
presa).
En comparación con otros métodos examinados en este manual, el
uso de datos secundarios presenta ventajas obvias relativas al esfuerzo
necesario, en tiempo y dinero, para conseguir los datos que van a ser
analizados. Como ya se ha señalado, hay una enorme cantidad de datos
de grandísimo valor disponibles gratuitamente y en acceso abierto. En
muchas ocasiones es directamente posible descargar los datos anónima-
mente. En algunas otras se requiere un ligero trámite administrativo para

490
17. Explotación de datos secundarios

conseguirlos, como registrarse como usuario e identificarse en el servicio


proveedor de los datos, o rellenar un sencillo impreso online declarando
la finalidad a la que se van a dedicar. En algunos casos, los datos no son
de acceso completamente público, y es necesario obtener una autoriza-
ción previa, o estar afiliado a una institución académica que participe o
esté asociada con la institución que preserva los datos.
El uso de datos secundarios es también, lógicamente, nuestra puerta a es-
tudiar la sociedad del pasado, o a compararla con la actual. Por definición,
no es posible generar nuevos datos sobre las opiniones políticas, los compor-
tamientos de ocio, las relaciones laborales o los resultados educativos de
años pasados. Por lo tanto, obviamente, el investigador que genere nuevos
datos, a través de una encuesta, o de otro tipo de estudios, sobre esas realida-
des en la sociedad actual, tendrá que recurrir a los datos secundarios para
comparar sus resultados con los de las generaciones precedentes.
Del mismo modo, los datos secundarios ofrecen una oportunidad im-
posible de emular con datos propios para realizar estudios comparativos
entre diferentes países. Naturalmente, con un gran presupuesto, es posible
realizar estudios comparativos que generan nuevos datos. Pero esto sólo
está al alcance de grandes organizaciones como la OCDE (promotora, por
ejemplo, del famoso estudio PISA sobre resultados educativos), el Euroba-
rómetro, o de consorcios internacionales como los que realizan el World
Value Survey (de todos ellos se hablará más adelante en la sección 3).

1.4  Cautelas ante el uso de datos secundarios

La extraordinaria facilidad con la que ahora podemos acceder a datos


secundarios, en contraste con el esfuerzo que suponía en el pasado, pue-
de tener también un efecto perverso. La rapidez y simplicidad con la que
en sólo unos minutos un investigador puede hacerse con estadísticas de
cualquier tema, incluso de otro país, puede llevarle a utilizar, de manera
poco meditada, datos que no son completamente adecuados para su pro-
pósito de investigación, o que no miden correcta o exactamente el fenó-
meno que le interesa. Esto es especialmente probable cuando los datos
secundarios se utilizan con carácter contextual o introductorio para una
investigación de otro tipo. Aun siendo más disculpable, no es menos gra-
ve, puesto que una mala comprensión del contexto, los precedentes o los
casos comparables en otros lugares al fenómeno que se pretende estudiar,
puede llevar a errores importantes en las conclusiones de nuestro propio
estudio, o incluso en el diseño de nuestra investigación.

491
La obtención de datos

Hay que recordar que, por definición, los datos secundarios han sido
producidos «por otros», en otro momento histórico, tal vez en otro con-
texto cultural, para sus propios propósitos, y por tanto el investigador
que los reutiliza debe preguntarse siempre por el proceso de creación de
los datos, tanto en lo que se refiere a la definición de conceptos, los crite-
rios con los que se incluye o excluye a cada sujeto estudiado en una cate-
goría, o se le asigna un valor en una escala, como a los procedimientos
de medida propiamente dichos, es decir, a los procedimientos utilizados
para seleccionar a los sujetos estudiados y capturar la información rele-
vante sobre cada uno.
Este proceso de revisión requiere que el investigador haya realizado
previamente una clara reflexión sobre sus objetivos de investigación, y
éstos estén bien definidos. Deben haberse definido lo más precisamente
posibles las grandes preguntas de la investigación, así como las hipóte-
sis, y las preguntas más específicas derivadas de ellas, se deben tener co-
rrectamente identificadas las poblaciones y las variables que se quieren
estudiar. Sólo así será posible hacer un juicio sobre la adecuación de los
datos secundarios disponibles al proyecto de investigación que se desea
realizar. Lo que no significa que deban desecharse los datos que no se
adaptan exactamente a los objetivos planteados. Por razones pragmáti-
cas, en muchos casos, será necesario, y es perfectamente legítimo, utili-
zar datos que no se ajustan del todo a los propósitos de la investigación.
Pero lo importante es justamente ser conscientes de esa distancia, y ha-
cerla explícita a la hora de realizar la investigación y publicar sus resul-
tados. De esa manera los autores de la investigación se obligan a sí mis-
mos a preguntarse si esos datos que están estudiando son no sólo «los
mejores disponibles», sino también «suficientemente buenos». Una inves-
tigación incompleta o imperfecta es preferible a la ausencia de investiga-
ción. Pero debe evitarse la tentación de adaptar la investigación a los
datos disponibles, cuando éstos son claramente inadecuados, basados,
por ejemplo, en muestras sesgadas, o en mediciones incompletas de los
fenómenos que se quieren estudiar.
Cosa distinta es que los datos previamente existentes puedan ser una
fuente de inspiración y orientación sobre qué fenómenos es factible es-
tudiar. O que la exploración tentativa, abierta y no guiada teóricamen-
te de datos previamente existentes pueda encontrar relaciones inespera-
das, y ayudar a formular hipótesis, en un proceso de serendipia (Merton,
2004), que es perfectamente legítimo y forma parte también del método
científico.
492
17. Explotación de datos secundarios

El proceso de revisión de los datos secundarios debe incluir al menos


los siguientes aspectos:

A. ¿Quién ha generado los datos?

El creador de la base de datos puede ser una fuente oficial, bien recono-
cida, como el instituto estadístico nacional o un ministerio de un país de-
sarrollado, o una de las grandes organizaciones internacionales. En prin-
cipio, en esos casos, es razonable asumir que la producción de datos se
ha hecho con criterios profesionales, medios adecuados y propósitos de
descripción «neutral» de la realidad, lo que entre otras cosas se manifies-
ta en que esas instituciones suelen informar con gran cuidado de los pro-
cedimientos de obtención de sus datos. Precisamente gracias a ello es po-
sible someter esos métodos a revisión crítica, y analizar si son los
adecuados para el uso de los datos que se quiere hacer en una nueva in-
vestigación.
Igualmente suelen ser transparentes e informativos sobre sus métodos
de investigación los investigadores que hacen públicos sus resultados y
sus bases de datos a través de los depósitos de datos que van implantán-
dose en los diferentes países. En cambio, esto no es necesariamente así
cuando la fuente es una empresa privada, o un grupo de interés con una
agenda particular. En estos casos, obviamente, la presunción de un pun-
to de vista «neutral» ha de ser suspendida, y estar especialmente alerta
sobre la posibilidad de que al elaborar sus estudios estos grupos se hayan
dejado llevar, consciente o inconscientemente, por sus intereses o inclina-
ciones ideológicas. Por ello sería especialmente importante que esas orga-
nizaciones dieran explicaciones exhaustivas sobre sus métodos de investi-
gación y pusieran a disposición pública los archivos de microdatos. Sin
embargo, suele ser al contrario. Debido a cuestiones de propiedad inte-
lectual, y al origen privado de los fondos que sufragan estas investigacio-
nes, ese tipo de prácticas son aún minoritarias.

B. Con qué propósito se crearon los datos utilizados

Una segunda cuestión relevante es el objetivo específico con el que crea-


ron los datos examinados. Si es diferente al de nuestra investigación, de-
beremos estar alerta ante posibles decisiones metodológicas tomadas por
los creadores de los datos que puedan implicar alguna dificultad para su
uso con nuestros propósitos.

493
La obtención de datos

En relación con este punto es importante subrayar que los datos se-
cundarios pueden ser el resultado de actividades orientadas precisamente
a generar datos, o pueden ser datos «secundarios» en un doble sentido,
cuando la institución que los elabora y publica no tiene como propósito
generar estadísticas, sino que éstas son una externalidad, un resultado in-
directo de una actividad de otro tipo. Por ejemplo, los ministerios o enti-
dades administradoras de impuestos, como la Agencia Tributaria en Es-
paña, no piden a los ciudadanos sus datos sobre ingresos, patrimonios o
beneficios con un propósito estadístico, sino solamente con el de calcular
cuántos impuestos deben pagar. Indirectamente, al acumular los datos de
todos los contribuyentes, se genera una estadística, pero ésta, por su ca-
rácter derivado de la declaración fiscal, no se basa en los mismos crite-
rios que elegiría un investigador interesado exclusivamente en medir la
actividad económica. Más adelante se verá un ejemplo de esta situación.

C. Las definiciones (cuestiones de validez)

Conocidas las dos cuestiones anteriores, que podemos considerar de con-


texto, es pertinente preguntarse, para cada una de las variables que se
utilicen, exactamente cómo se ha definido lo que se trata de medir. Es
decir, se trataría de examinar la validez de constructo: cómo definieron el
fenómeno los autores de los datos, si esa definición es válida, y conforme
a la comprensión habitual del concepto o, en todo caso, a la que quiere
utilizar el nuevo investigador. Si la definición se aparta de lo deseado, ha-
brá que ponderar en qué medida la diferencia es insalvable, o en qué me-
dida, a pesar de ella, es preferible utilizar los datos, conociendo esa limi-
tación, o renunciar a ellos.
Este examen es pertinente siempre que se accede por primera vez a
una estadística, incluso a las que son de carácter oficial, porque aunque
se trate de estadísticas muy establecidas, sus definiciones pueden no coin-
cidir completamente con lo que esperaría el usuario que se acerca a los
datos por primera vez. Esto se debe a que las estadísticas oficiales reco-
gen no sólo fenómenos de definición fácilmente acordada, como podrían
ser los demográficos (nacimientos, defunciones, matrimonios), sino tam-
bién muchos otros que son producto de una definición elaborada y dis-
cutible, y no necesariamente conforme con la percepción más común. Un
caso bastante conocido es el de la clasificación de las personas según su
actividad laboral. Una persona que no trabaja, pero quiere trabajar, pue-
de contarse como parada, inactiva o en otras situaciones (por ejemplo,

494
17. Explotación de datos secundarios

en formación), según criterios que no son obvios, acordados por las ofi-
cinas estadísticas de diferentes países, y que conviene conocer al usuario
de esta información estadística. Existen otros muchos conceptos que
aparecen en estadísticas oficiales y cuyo significado se aparta del uso co-
mún o requiere muchas matizaciones: la situación de personas «en riesgo
de pobreza»; la inclusión de una finca como productora de agricultura
ecológica; la clasificación de gasto público por sectores; las estadísticas
policiales y judiciales, muy dependientes de las definiciones legales...
Con más razón, cuando los datos proceden de una institución no ofi-
cial, de una empresa, o de un grupo de interés, es especialmente impor-
tante prestar atención a los criterios con los que han definido los fenó-
menos que estudian. Como señala Best (2001, 2008), dada la intensa
competición por la atención del público, los grupos de interés tenderán
siempre a hacer definiciones expansivas del fenómeno sobre el que tratan
de llamar la atención de la sociedad, o a hacerlas restrictivas, cuando por
el contrario quieran convencer a la sociedad de que un cierto asunto no
es realmente importante. Esos sesgos no llevan necesariamente a falsifi-
caciones intencionadas, pero sí pueden facilitar «una utilización defec-
tuosa de las clasificaciones y una tolerancia de fallos metodológicos que
producen datos que pueden tener efectos políticos beneficiosos» (Starr,
1987: 38).

D. Las medidas (cuestiones de fiabilidad)

Cuestión distinta de la definición es la medición: el proceso práctico de


identificación de unos sujetos cuya información se va a medir (puede ser
toda la población o sólo una muestra) y de captura de la información
(por observación, por entrevista, por petición de documentación, por
toma de datos de otra fuente). Respecto a lo primero, si los datos preten-
den cubrir a toda la población, habrá que evaluar si el método de captu-
ra de información realmente lo permite o si podría haber errores en su
diseño que dejaran fuera a partes relevantes. Por ejemplo, ciertas estadís-
ticas de la Agencia Tributaria se refieren solamente a las personas que
presentan declaración del IRPF. El investigador que utilice esos datos
debe tratar de averiguar el número y características de las personas que
no presentan declaración, a pesar de tener ingresos, y cómo esa ausencia
puede afectar a sus análisis. En el caso de que se trate de un estudio ba-
sado en muestras, es necesario de nuevo asegurarse de que no existan ses-
gos, examinando que el método de muestreo sea el adecuado, y que el ta-

495
La obtención de datos

maño de la muestra y el margen de error sean suficientes para el tipo de


explotación de los datos que se quiere hacer (por ejemplo, si se quieren
analizar diferencias entre muchos subgrupos de la muestra, es necesario
que el tamaño de la muestra sea mayor para producir un resultado signi-
ficativo estadísticamente).
Respecto al procedimiento de captura de la información, propiamente
dicha, habrá que prestar atención a los protocolos de codificación, en el
caso de datos obtenidos por observación o por extracción de datos de
documentos, o fuentes preexistentes. Volviendo a las estadísticas de in-
gresos de la Agencia Tributaria, algunas de ellas se basan en las declara-
ciones del IRPF, que pueden ser hechas de manera individual o conjun-
ta, lo que dificulta la elaboración de estadísticas de ingresos tanto a nivel
individual como familiar. Por otra parte, algunas de las estadísticas pu-
blicadas por la Agencia Tributaria se refieren a conceptos tributarios
como la base imponible, que es el resultado de aplicar a los ingresos al-
gunas deducciones, por lo que su uso puede llevar a una infraestimación
de los ingresos.
Cuando la información se recoge por el procedimiento de encuesta es
importante prestar atención al modo de administración del cuestionario
(presencial o telefónico), con las implicaciones que cada uno de ellos tie-
ne (véase el capítulo 12). Igualmente, es muy importante solicitar a la
institución que difunde los datos el acceso al cuestionario completo,
puesto que, como es bien conocido, la formulación de las preguntas y la
lista de respuestas ofrecidas puede influir de manera decisiva en las res-
puestas a un cuestionario (véase también el capítulo 11; sobre el mismo
tema, Mezo, 2007).

E. Comparatividad

Como ya hemos señalado, entre las grandes ventajas del uso de datos se-
cundarios está la posibilidad de hacer estudios comparativos longitudi-
nales (en el tiempo) y espaciales (entre diferentes lugares). Pero esto sig-
nifica, lógicamente, que los pasos A-D recién expuestos han de ser
aplicados, separadamente, para cada una de las fuentes de datos que uti-
licemos en nuestra investigación. No se puede dar por hecho que diferen-
tes instituciones en diferentes lugares definen por igual los conceptos que
miden, utilizan idénticos procedimientos de muestreo o realizan sus en-
cuestas con las mismas cuestiones. Lo normal será lo contrario, y esto
obliga al investigador a familiarizarse con cada una de las fuentes, y eva-

496
17. Explotación de datos secundarios

luarla separada y comparativamente con las demás. Esto se aplica igual-


mente a muchas estadísticas comparativas compiladas por instituciones
internacionales. Aunque, aparentemente, la fuente es «única» (Eurostat,
ONU, Unesco), en realidad estas organizaciones lo que hacen es fusionar
informaciones recibidas de las instancias nacionales, y producidas mu-
chas veces con criterios similares, pero no idénticos. Por eso, es habitual
que las publicaciones de estas organizaciones contengan amplias seccio-
nes metodológicas, explicando con detalle lo que mide cada indicador, y
qué diferencias puede haber entre las medidas producidas en distintos
países. Esta «letra pequeña» debe ser examinada con extremado cuidado,
como se refleja por ejemplo en el estudio de Atkinson y Brandolini
(2001) sobre cómo diferentes medidas de desigualdad elaboradas por ins-
tituciones y estudios internacionales pueden llevar a conclusiones diver-
gentes. Su conclusión, rotunda: «No creemos que en el momento presen-
te sea posible usar series de datos secundarios de manera segura sin
cierto conocimiento de las fuentes subyacentes, y desaconsejamos fuerte-
mente el uso mecánico de ese tipo de series de datos».
Por otra parte, cuando se trate de estudios longitudinales, ni siquiera
el hecho de estar utilizando «la misma fuente» a lo largo de los años nos
libra de realizar los pasos C y D, puesto que es normal que las institucio-
nes estadísticas realicen cada cierto tiempo una evaluación de sus proce-
dimientos y los vayan modificando, en las situaciones en las que conside-
ran que es mayor la ganancia por la mejora en el conocimiento de la
realidad que la pérdida por la discontinuidad de las series temporales.
Así pues, incluso cuando se trata de comparar la evolución a lo largo del
tiempo de un mismo fenómeno, medido por la misma entidad, es impor-
tante prestar atención a los posibles cambios de método producidos en el
intervalo estudiado.

1.5  Conocimientos prácticos para conseguir datos secundarios

La revolución digital ha traído un crecimiento gigantesco de los datos se-


cundarios disponibles para el investigador, como se ha explicado en la
sección 1.2, en muchos casos de acceso libre y gratuito a través de Inter-
net. No obstante, estos datos no siempre están disponibles en formatos
aptos para su análisis. Y en ocasiones los datos pueden contener errores
(duplicidades, incoherencias, cambios de estructura) que requieren revi-
sión. En esta sección se van a examinar los retos que esos dos tipos de di-
ficultades pueden plantear, y las habilidades que el investigador necesita-

497
La obtención de datos

rá desarrollar para enfrentarse a ellos. En el anexo virtual se añaden


algunas recomendaciones específicas sobre programas informáticos o
servicios online que pueden ser de utilidad para conseguirlo.
En primer lugar, está la cuestión del formato. Los datos disponibles
online pueden presentarse con muy diferentes formatos. Entre otras, or-
denados aproximadamente de menos a más facilidad para convertirlos
en datos reutilizables, se pueden dar las siguientes situaciones:

— Tablas presentadas como imágenes (formatos como png, jpg o in-


cluso pdf conteniendo el texto como si fuera una imagen). En este
tipo de situaciones puede ser necesario conocer y manejar adecua-
damente un programa de tipo OCR (Optical Character Recognizi-
tion, o Reconocimiento Óptico de Caracteres), que transforma las
imágenes en archivos de texto (de tipo .txt, .doc o similares), emu-
lando el trabajo de una persona que leyera la imagen y volviera a
teclear el texto que en ella aparece. El problema es que este tipo de
programas suelen tener dificultades, precisamente, con las partes
de las imágenes que no corresponden al formato de un texto ordi-
nario, como suele ser el caso de las tablas. Dependiendo de la cali-
dad de la imagen, además, el resultado puede incluir errores, que
será necesario revisar.
— Tablas o datos repetitivos en página web. Si la tabla de datos que
queremos utilizar se presenta simplemente como una página web,
hay varias formas de capturar la información a un archivo, cuyo
éxito dependerá de la complejidad del documento online, de si
contiene solamente lenguaje HTML, o ha sido creado con herra-
mientas como ASP, o PHP, y de la cantidad de datos que quera-
mos capturar. En los casos más sencillos es posible simplemente
marcar las celdas de interés, y hacer un copia-y-pega en un progra-
ma de hoja de cálculo, donde, según cómo estén estructurados en
la web los datos, se copiarán correctamente en filas y columnas,
con mínimos retoques en los encabezamientos. También pueden
utilizarse funciones para importar datos HTML en Excel, en Goo-
gle Drive, extensiones de los navegadores o servicios online que
permiten incluso crear robots (crawlers) para capturar y volcar en
tablas los datos de páginas con estructura similar.
— Tablas en documentos pdf, que contienen texto reconocible como
tal, no imágenes de textos. En estas situaciones, de nuevo, la forma
más simple de actuar es la de «copiar y pegar», pero la mayor par-
te de las veces el resultado es poco útil, debido a la pérdida de la

498
17. Explotación de datos secundarios

estructura de las tablas. Afortunadamente existen también páginas


web y programas de descarga gratuita que realizan la conversión
de documentos en pdf en archivos estructurados (tipo csv o xls).
— Tablas descargables en formatos legibles por programas de mane-
jos de datos (.csv o .xls). Tanto si se trata de tablas predefinidas
por la página web como si son tablas personalizadas creadas por
el usuario, con su combinación de variables, períodos y casos, será
posible utilizarlos en un software estadístico de manera práctica-
mente inmediata.
— Tablas o bases de datos en formatos de programas estadísticos
(como Stata, SPSS, R). En estos casos, infrecuentes, los datos es-
tán directamente disponibles para ser tratados con los programas
respectivos. Si los datos estuvieran preparados para un software
diferente al que el investigador puede utilizar, suele ser posible
también, con algo más de trabajo, importarlos a casi cualquier
otro paquete estadístico.

Una vez los datos están en el formato adecuado, aún queda un traba-
jo importante de preparación y limpieza de los datos. Algunos de estos
procesos pueden ser necesarios también cuando se trabaja con datos pro-
pios, pero es especialmente importante que se realice cuando se está ope-
rando con datos ajenos.
La «limpieza» de datos es un conjunto de operaciones difíciles de des-
cribir de una manera sistemática, porque precisamente su contenido pue-
de variar mucho según el tipo de errores que aparezcan en los datos. Por
la misma razón, no existen tampoco herramientas que sirvan para reali-
zar todos los pasos del proceso de limpieza. Siguiendo a Chiasson et al.
(2014, caps. 8-10), citaremos algunos de los puntos clave que hay que re-
visar al trabajar con una base de datos ajena:

— Separación de campos. En los casos en los que una información


aparezca en la base de datos dentro de un solo campo (por ejemplo,
municipio y provincia, o dirección, municipio y provincia; teléfonos
con códigos territoriales; fechas con día-mes-año) y deseemos pro-
cesar separadamente las diferentes partes, deberemos realizar una
división de la información en diferentes campos. Si la estructura es
muy regular, será posible hacerlo con una herramienta sencilla
como la función texto en columnas de Excel. En otros casos es posi-
ble que sea necesario revisar manualmente muchas celdas o tal vez
conseguir ayuda para escribir un pequeño programa.

499
La obtención de datos

— Revisión de unidades. Puede haber campos numéricos con datos


aparentemente coherentes que en realidad estén expresados en
unidades distintas. En bases de datos internacionales podríamos
encontrar mezclas de unidades métricas e imperiales. En otros ca-
sos puede que haya datos en metros, y otros en kilómetros. O en
euros, miles de euros y millones de euros. Todo ello ha de compro-
barse, por ejemplo, con una exploración de los datos mínimo,
máximo y cuartiles, o bien a través de una representación gráfica.
— Inconsistencias. La misma categoría de una variable cualitativa
puede estar escrita de varias formas. Por ejemplo: profesor, docen-
te, enseñante, prof., educación, pueden aparecer en el campo que
describe la profesión de una persona, y en realidad todas esas va-
riantes se deben sustituir por una sola. Las funciones de «buscar y
sustituir» normalmente serán suficientes para esta tarea.
— Valores mal escritos. La misma función se puede utilizar para eli-
minar errores de escritura, como palabras mal escritas: «prfesor» o
«profsor» en lugar de profesor.
— Espacios en blanco. Al importar datos se pueden deslizar espacios
en blanco al comienzo o al final del texto que contiene un valor,
alterando su significado o impidiendo que el valor sea reconocido
correctamente como un número, por ejemplo. Estos espacios en
blanco sobrantes se pueden eliminar con diferentes herramientas
de software.
— Tratamiento de valores ausentes (missing). Es recomendable susti-
tuir los valores que están simplemente en blanco por un valor que
indique claramente que se trata de un valor ausente (999, N/A).
Puede elegirse un valor numérico completamente fuera del rango
de los valores esperables (como 999, NA, u otros, según los requi-
sitos del programa estadístico que se utilice).
— Corrección de valores fuera del rango. Es siempre aconsejable ve-
rificar, con las funciones que identifican el valor mínimo y máxi-
mo, que todos los valores de una variable están dentro del rango
previsible. Por ejemplo, –5 o 145 son necesariamente valores erró-
neos en la variable edad.
— Combinaciones de variables. También es posible detectar errores
por las combinaciones entre variables. Por ejemplo, en una base de
datos electoral, la suma de los electos asignados a todos los parti-
dos ha de coincidir con el número total de cargos a elegir en el te-
rritorio correspondiente. Los votos de cada partido, los blancos y
los nulos han de coincidir con la suma de votos emitidos.

500
17. Explotación de datos secundarios

— Expresiones regulares. Otra forma de limpiar los datos es asegu-


rarse de que el contenido corresponde a un cierto patrón: sólo nú-
mero, sólo ciertas palabras, o una cierta estructura o combinación.

Con todos estos procedimientos se encontrarán errores solubles (en


los que será posible encontrar cuál debería ser el valor correcto, y poner-
lo en lugar del valor erróneo), y otros no solubles (que no se pueden co-
rregir). En esos casos habrá que sustituir el valor erróneo por un código
de error, y excluir luego el caso correspondiente del análisis, por lo me-
nos en lo relativo a la variable afectada. También puede añadirse una va-
riable adicional en la que se indique, para cada caso, si ha habido o no
algún valor que ha sido modificado en el proceso de limpieza. De todas
formas, es importante que siempre se conserven tanto los archivos origi-
nales como los modificados por el proceso de limpieza. Y también es im-
portante documentar ese proceso de limpieza, es decir, registrar qué pa-
sos se han ido dando para buscar y modificar los valores erróneos.

2.  Los grandes datos: oportunidades y retos


2.1  Nuevos métodos para nuevos datos

Desde finales de los años 2000 se ha extendido y popularizado un nuevo


concepto: big data (grandes datos), que se utiliza para referirse a las
grandes bases de datos que se están generando, gracias a las nuevas tec-
nologías, y que, no sólo por su tamaño, sino también por otras caracte-
rísticas, plantean nuevas posibilidades para el avance del conocimiento,
pero también nuevos retos tecnológicos y epistemológicos. Algunas de
las bases de datos convencionales, generadas por gobiernos, empresas y
actividades académicas durante el siglo xx, eran ya «grandes». De mane-
ra que cabe preguntarse qué es lo que tienen de especial los grandes da-
tos que han aparecido en las dos últimas décadas. Kitchin (2014: 68) re-
sume sus características diferenciales:

—  Gran volumen de datos, con tamaños de varios terabytes o peta­


bytes.
—  Gran velocidad de producción, con nuevos datos que se añaden en
tiempo real (casi) a su generación.
—  Gran variedad de datos, estructurados y no estructurados, y en
muchos casos con referencia espacial y temporal.

501
La obtención de datos

—  Exhaustivos, al intentar capturar datos de poblaciones o sistemas


completos (por lo tanto, eliminando la necesidad de muestras) o
en todo caso usando muestras amplísimas, mucho mayores que en
sistemas tradicionales.
— Con alta resolución, capturando los detalles hasta el nivel más pe-
queño posible.
— De naturaleza relacional, lo que permite, a través de variables co-
munes, unir diferentes conjuntos de datos.
— Flexibles, diseñados para ser ampliados fácilmente añadiendo nue-
vas variables y nuevos casos.

Casi todas estas características pueden verse como resultados prácti-


camente automáticos de la tecnología, que hace posible y barato regis-
trar y almacenar «todo» lo que sucede en los dispositivos de todo tipo
conectados en red, incluyendo no sólo ordenadores, móviles o tabletas,
sino también cámaras de vigilancia, sensores y medidores de datos cientí-
ficos (meteorológicos o astronómicos, por ejemplo). Así, por ejemplo, si
hace años unos grandes almacenes sólo registraban las transacciones
económicas (compras y ventas), hoy su equivalente online puede regis-
trar, para cada usuario (identificado personalmente o a través de datos
de su ordenador), todas sus visitas a la tienda, todos los productos que
busca, los que ve, los comentarios que lee, el tiempo que dedica a cada
visita, si lo hace con un dispositivo fijo o móvil, y desde dónde lo hace.
Los organismos de gestión de sistemas de transporte han hecho tradicio-
nalmente encuestas de movilidad, que complementaban con los datos de
sus cámaras, aforos de carreteras, registro de uso de billetes o pases en
sistemas de transporte... Pero ahora casi cada persona mayor de 14 años
tiene encendido permanentemente, junto a él, un dispositivo (el teléfono
móvil) que cada pocos segundos transmite su posición, con un error de
unos pocos metros. La agregación de todos esos datos permitiría cono-
cer, con una precisión espacial y temporal inimaginable en otro tiempo,
«todos» los desplazamientos de todas las personas con móvil en un área
urbana, lo que permitiría comprender de manera mucho más completa
las necesidades, fortalezas y debilidades de las redes de transporte, públi-
cas y privadas, así como otros muchos fenómenos sociales vinculados a
la situación geográfica (estudios de uso del tiempo, actividades de ocio,
sedentarismo y ejercicio...). También, por cierto, las compañías de teléfo-
nos (lo mismo que, obviamente, las de redes sociales, como Facebook o
Whatsapp) tienen registros de miles de millones de llamadas y mensajes
con una riqueza de información sobre las relaciones entre sus clientes ini-

502
17. Explotación de datos secundarios

maginable, e inalcanzable, en un estudio tradicional sobre redes (Savage y


Burrows, 2007: 886). Existen, por supuesto, ejemplos similares en las
áreas de ciencias, como en meteorología, donde las observaciones diarias
de estaciones meteorológicas separadas por decenas o cientos de kilóme-
tros se han sustituido por mediciones por satélite de temperatura, preci-
pitación y otras variables, tomadas de manera continua y con una muy
alta resolución.
Estas gigantescas bases de datos pueden en ocasiones ser analizadas
con las mismas técnicas estadísticas que se utilizan para otros conjuntos
de datos más convencionales. Pero el mismo desarrollo tecnológico que
ha posibilitado su creación está detrás de nuevas técnicas de análisis que
han ido surgiendo en los últimos años para aprovechar las potencialida-
des de esos grandes datos. En particular, en los últimos años, se están
aplicando cada vez más técnicas de inteligencia artificial conocidas como
machine learning (aprendizaje automático o aprendizaje de máquinas),
que se refieren a procesos de análisis en los que un programa de ordena-
dor puede aprender de sí mismo, identificando errores y aciertos y refor-
mulándose para interpretar de manera cada vez más precisa los datos,
identificando patrones, construyendo modelos de interpretación y ha-
ciendo predicciones. Se habla de aprendizaje automático supervisado
(cuando el programa es entrenado, señalándole las respuestas correctas a
ciertos procesos de análisis o identificación de patrones) y no supervisa-
do (cuando el programa descubre por sí mismo patrones, regularidades o
relaciones entre objetos o variables, sin un entrenamiento previo). El
aprendizaje automático está detrás de tecnologías cuyo uso se va popula-
rizando como el reconocimiento facial o de voces, o la traducción auto-
mática de textos.
Las técnicas de aprendizaje automático pueden utilizarse para varias
funciones analíticas diferentes. Una de ellas es la minería de datos, el pro-
ceso de encontrar información valiosa y novedosa en grandes masas de
datos, a través de procesos como la segmentación o clustering (agrupa-
ción de casos), la asociación (encontrar relaciones entre variables y por
tanto predecir valores de una variable a partir de valores de otras), la
identificación de desviaciones (cuando los valores observados no coinci-
den con los predichos), o el descubrimiento de tendencias a lo largo del
tiempo. Un ejemplo sencillo de entender es el análisis por grandes com-
pañías de venta online de los datos sobre sus clientes, que les permiten
crear ofertas «personalizadas» para cada uno de ellos («si te gustó x, te
gustará y»), basándose en la relación entre sus comportamientos y los de
otros millones de usuarios. Más complejo es el análisis de datos no es-

503
La obtención de datos

tructurados, como el lenguaje natural que utiliza la gente en comentarios


de noticias, productos o en redes sociales, pero cada vez más es posible
para los ordenadores extraer sentido de estos textos.
La alta resolución de los grandes datos y su geolocalización permiten
también analizar los datos utilizando herramientas de visualización con
unos resultados mucho más informativos que en el pasado. La visualiza-
ción permite descubrir patrones y relaciones ocultos en los datos, y co-
municarlos de una manera efectiva. Un campo específico dentro de la vi-
sualización es el de la creación de cuadros de mandos (dashboards),
término que, por analogía con los sistemas de control y navegación de
máquinas o vehículos, se refiere a representaciones gráficas que, utilizan-
do una combinación de formas, colores y números permiten representar
de una manera sintética y de fácil comprensión la evolución de múltiples
variables relativas a un proceso, que puede ser comercial, político, técni-
co...
Por último, la riqueza y complejidad de estos grandes datos, junto a la
gran capacidad de los ordenadores actuales, permite innovar también en
técnicas de predicción y simulación. En particular, dado que existen múl-
tiples técnicas alternativas para realizar modelos de predicción, en el pa-
sado lo habitual sería elegir una de ellas, pero actualmente es posible uti-
lizar varias técnicas complementarias para construir diferentes modelos
de predicción, y generar una predicción combinando los resultados de
decenas o centenares de modelos basados en diferentes técnicas (Siegel,
2013).
Algunos autores, como Savage y Burrows (2007, 2009), argumentan
que la presencia creciente de los grandes datos, obtenidos de manera se-
miautomática por empresas o gobiernos y analizados por éstos sin gran
participación de los sociólogos más académicos, plantea una crisis de la
sociología empírica, que pondría en cuestión la influencia de la sociolo-
gía tradicional y de métodos como la encuesta muestral, que han vivido
su apogeo desde la Segunda Guerra Mundial, impulsadas por el desarro-
llo de las técnicas estadísticas y por su gran ventaja, respecto a estudios
poblacionales, como los censos, en cuanto al coste y la duración del pro-
ceso de investigación. Probablemente, hay un punto de exageración en
esa visión, puesto que, aparte de otras limitaciones de los grandes datos
que se examinarán en la sección 2.3, por su propio modo de generarse,
los grandes datos son particularmente aptos para el estudio de ciertos fe-
nómenos, pero no tanto para otros.

504
17. Explotación de datos secundarios

2.2  Aplicaciones de los grandes datos en investigación social

Dadas sus características, la revolución de los grandes datos afecta de una


manera más obvia a las investigación social con vocación aplicada. Son en
primer lugar las empresas las que están haciendo análisis novedosos de sus
propios datos. Entre los usos comerciales destacan, como ya se ha mencio-
nado, el análisis intensivo de los comportamientos de los clientes (no sólo
en las compras, sino en las visitas a páginas web, búsquedas, comentarios
en las redes sociales), que permite elaborar perfiles muy precisos y enviar a
cada persona mensajes con ofertas o presentarle publicidad ajustada a sus
necesidades, basadas tanto en su perfil personal como en su estado de áni-
mo temporal o en su localización geográfica (Berry y Linoff, 2004; McAfee
y Brynjolfsson, 2012). En el campo del marketing político, las campañas
electorales presidenciales de Barack Obama se toman como un ejemplo de
ese mismo tipo de estrategia, al utilizar de manera intensiva sus páginas de
Internet, apps en móviles y otras herramientas para capturar el comporta-
miento online de millones de personas, en reacción a los acontecimientos y
mensajes de la campaña, y en relación con otros datos existentes sobre esas
mismas personas, adquiridos de fuentes comerciales (Issenberg, 2013).
Por supuesto, los gobiernos y los estados son generadores y usuarios de
grandes datos de todo tipo sobre su propio funcionamiento y sobre el com-
portamiento de los ciudadanos, y de su análisis se esperan grandes resulta-
dos. Por una parte, mejoras en el funcionamiento de los servicios públicos y
en la gestión del gasto, con promesas (obviamente interesadas) de obtener
beneficios, a escala europea, del orden de 250.000 millones de euros anuales
y un crecimiento extra del PIB del 0,5% (Manyika et al., 2011). Por otra
parte, se vaticinan grandes avances en la persecución del incumplimiento de
las leyes de todo tipo: fiscales, ambientales, de tráfico o penales. Técnica-
mente, por ejemplo, sería ya posible la vigilancia permanente del cumpli-
miento de los límites de velocidad por todos los vehículos que circulan por
calles y carreteras. El cruce de datos de todas las administraciones mejora la
capacidad de detectar fraudes fiscales. Y, por supuesto, está el lado más os-
curo, dudosamente legal, pero parece que técnicamente posible, creciente-
mente puesto en práctica y extraordinariamente polémico, que consiste en
la vigilancia masiva de todas las comunicaciones, con el propósito de prever
y evitar la comisión de delitos, y en particular los delitos de terrorismo, des-
velado a raíz del llamado caso Snowden (Greenwald, 2014).
Los grandes datos están siendo también utilizados en otros estudios
más académicos. A continuación se examinan algunos ejemplos, que apor-
tan una idea de las posibilidades.

505
La obtención de datos

— Efecto contagio de los estados emocionales a través de las redes


sociales. En un experimento muy comentado (y criticado), se ma-
nipuló el contenido de la página principal de Facebook que leían
unas 700.000 personas, disminuyendo o aumentando los conteni-
dos que expresaban emociones positivas o negativas, observándose
un cambio significativo en los contenidos que luego generaban es-
tos lectores, alineado con lo que sucedía en los mensajes que ha-
bían leído (Kramer et al., 2014).
— Contenido de redes sociales como predictor de comportamientos
de consumo o políticos. Existen múltiples estudios basados en el
análisis de contenidos de los textos divulgados en redes sociales,
como Facebook o Twitter, para predecir comportamientos como
el éxito de taquilla de diferentes películas o el voto a diferentes
partidos en elecciones de varios países, con resultados prometedo-
res en algunos casos, pero decepcionantes en otros (véase la revi-
sión de Barberá y Rivero, 2014, y su propia aportación sobre el
problema).
— Mapas de regiones económicas basados en la densidad de interac-
ciones. Como ya se ha mencionado, las bases de datos de las com-
pañías telefónicas contienen una información muy detallada de
quién se relaciona con quién. Esto permite comparar las demarca-
ciones administrativas, o las regiones económicas tradicionalmen-
te consideradas, con mapas basados en la intensidad de las inte-
racciones humanas. Esto fue lo que hicieron Ratti et al. (2010), a
partir de una base de datos con 12.000 millones de llamadas he-
chas en el Reino Unido entre líneas fijas, privadas y empresariales,
y de nuevo Sobolevsky et al. (2013) en siete países. Para España,
Llorente et al. (2014) realizaron una clasificación similar como
parte de su estudio sobre desempleo y uso de redes sociales, pero
esta vez las unidades económicas se basaban en el número de per-
sonas que usaba Twitter en el mismo día en dos localidades dife-
rentes.
— Indicadores en tiempo real de cambios económicos. El mismo es-
tudio de Llorente et al. (2014) mostraba que varios datos relativos
al uso de una red social como Twitter (horario de uso, intensidad,
movilidad de los usuarios) están fuertemente correlacionados con
la situación de desempleo en las áreas económicas identificadas.
Esto apunta a la existencia de un gran campo para la investigación
sobre cambios en la situación económica a través de indicadores
del uso de redes sociales disponibles públicamente.

506
17. Explotación de datos secundarios

— Distribución geográfica de la homosexualidad. Las búsquedas en


Internet y otros comportamientos digitales privados pueden servir
para conocer (o al menos estimar) comportamientos u opiniones
sociales sobre temas delicados (tabúes, opiniones mal vistas, com-
portamientos ilegales). Así, por ejemplo, en Estados Unidos, com-
parando los datos agregados del censo, o de las preferencias decla-
radas en Facebook, sobre orientación sexual (que difiere mucho
entre estados progresistas y conservadores) con otros comporta-
mientos online no declarados (como el consumo o la búsqueda de
pornografía gay) es posible concluir, frente a la hipótesis de la mi-
gración masiva a territorios más liberales, que la población con
orientación homosexual es realmente similar en los diferentes esta-
dos, pero lo que difiere es el número de personas que viven abier-
tamente su sexualidad (Stephens-Davidowitz, 2013).
— Vigilancia de epidemias. Las búsquedas en Internet fueron tam-
bién la base de Google Flu Trends, uno de los ejemplos más cono-
cidos de éxito de los grandes datos (Butler, 2008). Utilizando téc-
nicas de machine learning se pusieron en relación miles de millones
de búsquedas geolocalizadas realizadas en Google en el período
2003-2007 con los datos semanales de incidencia de la gripe del
Centro de Control y Prevención de Enfermedades, y a partir de
esa comparación se generó un algoritmo que fue capaz de descri-
bir correctamente la difusión de la gripe en la temporada 2007-
2008, con un coste mínimo y con una o dos semanas de adelanto
sobre los datos que el Centro iba produciendo con su costoso sis-
tema de recopilación y procesamiento de partes de incidencia de la
enfermedad generados por las visitas al sistema de salud.

2.3  Limitaciones y dudas

Pero junto a las historias o las promesas de éxito, también son muchas
las voces que alertan de los potenciales errores que pueden cometerse al
confiar en los grandes datos, en particular al suponer que al utilizarlos
podemos prescindir de algunos de los requisitos que tradicionalmente
hemos exigido a todo estudio cuantitativo. Lazer et al. (2014) parten pre-
cisamente del fracaso de Google Flu Trends para predecir correctamente
la expansión de la gripe en los años siguientes a su exitoso inicio (Butler,
2013) para apuntar a lo que llaman la «arrogancia de los grandes datos»,
el supuesto implícito en muchos proponentes de su uso de que los gran-

507
La obtención de datos

des datos podrían ser un sustituto, y no sólo un complemento, respecto a


los métodos tradicionales de recolección y análisis de datos. Entre los
problemas detectados está el peligro de over-fitting, al basar el algoritmo
en el ajuste entre los miles de millones de datos potencialmente predicti-
vos y los datos de la epidemia obtenidos por otras vías durante una serie
corta de años. Otros problemas se relacionan con que los términos de
búsqueda se pueden ver alterados por los resultados de búsquedas pre-
vias, y éstos van cambiando a medida que Google modifica su algoritmo.
Más en general, cualquier conjunto de grandes datos proveniente del uso
de sistemas de información en contante evolución (como los buscadores,
las redes sociales) puede tener problemas de fiabilidad, ya que la herra-
mienta de captura de los datos está cambiando continuamente. Además,
dado el carácter comercial, y el contenido privado de parte de la infor-
mación, los estudios basados en grandes datos de este tipo tendrán tam-
bién siempre problemas de transparencia y replicabilidad.
Kitchin (2014, caps. 8 y 9) señala varios errores en los que caen algu-
nos de los entusiastas de los grandes datos. Uno de ellos consiste en
creer que es posible capturar todos los datos relevantes de un determi-
nado campo y comprenderlo en su totalidad. A pesar de su aspiración a
la exhaustividad, los grandes datos siguen siendo una representación, y
una muestra, de la realidad más compleja. Por poner un ejemplo, se
pueden capturar y procesar todos los mensajes en Twitter... pero Twitter
nunca dejará de ser una parte (pequeña y sesgada) del enorme campo de
las relaciones que se producen a través de las redes sociales, que a su vez
son sólo una mínima parte (también pequeña y sesgada) del flujo de la
comunicación humana. También es falaz pensar que los datos son en sí
mismos objetivos y libres de sesgos y que pueden interpretarse desde
una situación de neutralidad o ausencia de posicionamiento. Por el con-
trario, los datos son siempre el resultado de una recolección activa y di-
rigida, que los condiciona y da forma, y la interpretación está siempre
condicionada por los conocimientos y las experiencias previas del inves-
tigador.
En línea con lo anterior, es también erróneo pensar que el significado
de los datos puede ser interpretado sin necesidad de conocimientos con-
textuales o específicos del campo de estudio. Así, muchos informáticos y
«científicos de datos» se aventuran a realizar estudios en áreas de conoci-
miento de todo tipo, tanto dentro de las ciencias sociales como de las hu-
manidades o las ciencias de la vida, sin tener en cuenta el conocimiento
acumulado de esas disciplinas, con resultados que son en muchos casos
claramente erróneos.

508
17. Explotación de datos secundarios

Otro peligro potencial es pensar que los patrones y relaciones entre los
datos son necesariamente valiosos e informativos. En realidad, con bases
de datos suficientemente grandes, siempre encontraremos relaciones apa-
rentemente fuertes que son producto del puro azar, encontrando múlti-
ples «falsos positivos». Igualmente, con datos suficientemente grandes,
está casi garantizado encontrar relaciones estadísticamente significativas,
pero de tamaño muy pequeño, cuya relevancia es muy discutible (como
sucedió en el experimento de manipulación de sentimientos en Face-
book, antes citado, donde el «efecto» encontrado fue de una centésima
parte de una desviación típica). Y existe también el peligro, ya menciona-
do, de caer en el exceso de ajuste, que puede llevar a un «exceso de apren-
dizaje». Para conjurar estos peligros se han propuestos soluciones como
la búsqueda de eventos extremos (Rajaraman et al., 2012: 5), la utiliza-
ción de umbrales de significación mucho más altos que los tradicionales
(como las cinco sigmas utilizadas en algunas ramas de la física) o la divi-
sión aleatoria de los datos en múltiples submuestras, comprobando si las
averiguaciones se mantienen.
Otra tentación que debe evitarse es permitir que la disponibilidad de
los datos determine la agenda de la investigación, de manera que muchas
de ellas se concentren en averiguaciones superficiales sobre la existencia
de ciertos fenómenos, la relación cuantitativa entre ellos, la existencia de
patrones, pero sin comprender de forma profunda su significado, lo que
requiere teoría social y conocimiento contextual. En cita de González-
Bailón (2013), recogida por Kitchin: «medir las cosas simplemente por-
que se puede no las hace interesantes ni relevantes».
Por otra parte, al manejar grandes datos sigue siendo necesario pres-
tar atención a las cuestiones examinadas en la sección 1.4. El hecho de
que muchos de los grandes datos se generen por mecanismos automáti-
cos no excluye la pregunta sobre posibles errores (en la programación o
el manejo de aparatos, por ejemplo). También es relevante pensar en los
sesgos de selección: el uso de las tecnologías no es uniforme por edad, in-
gresos, estudios, género... Igualmente podemos preguntarnos por proble-
mas de medida. Por ejemplo, lo que la gente dice en las redes sociales no
puede tomarse, sin matices, como una verdadera representación de sus
ideas y sentimientos, sino que en muchos casos es más bien una calcula-
da representación, cuidadosamente gestionada (Manovich, 2012).
Estas y otras cautelas referidas a problemas prácticos de accesibili-
dad, o cuestiones técnicas de interoperabilidad y usabilidad, pueden lle-
var a preguntarse si no estaremos ante una burbuja de los grandes datos,
con enormes promesas y aún pocas realidades, y con importantísimas li-

509
La obtención de datos

mitaciones que no suelen reconocerse. Algunas de ellas, de carácter técni-


co, se irán resolviendo en los próximos años, pero ciertas cuestiones fun-
damentales de carácter más conceptual nunca desaparecerán.

2.4  Conocimientos prácticos: programas, técnicas, cursos

Partiendo de las observaciones anteriores, y siguiendo la estela de Lazer


et al. (2009), cabe decir que el reto que plantean los grandes datos a las
ciencias sociales requiere la colaboración entre científicos sociales y de la
computación, que, para ser efectiva, a su vez, demandará probablemente
«científicos sociales alfabetizados en computación y científicos de la
computación alfabetizados en las ciencias sociales».
El tipo de conocimientos necesarios para ser un «científico social alfa-
betizado en computación» puede ser muy variado y amplio, y por su-
puesto no se puede cubrir en un manual como éste. En todo caso, quien
quiera adentrarse en este tipo de formación habrá de partir de un buen
conocimiento de la estadística y de los métodos cuantitativos que se ofre-
cen de manera ordinaria en los cursos universitarios en ciencias sociales
(cubiertos someramente, en la parte relativa al análisis de datos, en los
capítulos 19 y 20 de este manual). A partir de ahí existen múltiples posi-
bilidades, que van desde la formación autodidacta, la realización de cur-
sos online (existe una amplia oferta en este campo), hasta la realización
de cursos especializados de posgrado o programas de máster.
La mayoría de estos cursos requiere una buena base matemática y la
adquisición de conocimientos de programación. En los últimos años el
lenguaje de programación de software libre y gratuito R está empezando
a competir con los programas más establecidos como medio para reali-
zar análisis estadísticos básicos, pero sobre todo se está convirtiendo en
dominante entre los especialistas en el análisis de grandes datos.

3.  Fuentes de datos secundarios disponibles

En los primeros años de Internet se hicieron populares los páginas web


de tipo directorio o catálogo (Yahoo! nació así, aunque ya no lo es), o es-
pecializadas, y llegaron a publicarse libros con ese tipo de contenidos.
Pero los directorios perdieron mucho de su sentido cuando los buscado-
res (en particular Google) mejoraron enormemente su eficacia a comien-
zos del siglo xxi e hicieron que una búsqueda con los términos adecua-

510
17. Explotación de datos secundarios

dos desembocara, con altísima probabilidad, en los resultados correctos


y actualizados.
Ahora bien, para acertar en la búsqueda, hay que saber qué es lo que
se está buscando. Por eso sí parece pertinente hacer una revisión (no ex-
haustiva, obviamente) de las instituciones y programas que actualmente,
y en un futuro cercano previsible, son los principales productores y depo-
sitarios de bases de datos con interés para un científico social, dando por
hecho que aunque cambien sus direcciones electrónicas, siempre será po-
sible a través de un buscador encontrar sus renovadas sedes online, y a
partir de ellas encontrar también otras instituciones que en el futuro va-
yan colocando a disposición pública datos semejantes.
En las siguientes secciones se hará una revisión breve de las institucio-
nes más relevantes, remitiendo al lector interesado al anexo virtual de
este capítulo para una información más detallada. En él se recogen tam-
bién (pese a su previsible caducidad) las direcciones URL actuales de to-
das las instituciones mencionadas.

3.1  Estadísticas institucionales (oficiales) españolas

Son centenares las estadísticas oficiales generadas por las instituciones y


autoridades españolas. Tenemos, afortunadamente, un catálogo de las
mismas en el Inventario de Operaciones Estadísticas (IOE), que incluye
todas las operaciones estadísticas realizadas por el Instituto Nacional de
Estadística, los Ministerios, el Banco de España y el Consejo General del
Poder Judicial. Se pueden buscar las estadísticas por organismo respon-
sable, por sector o tema, clase de operación, metodología, nivel de desa-
gregación territorial y otros criterios. La búsqueda temática será en prin-
cipio la más valiosa.

El Instituto Nacional de Estadística (INE)

El INE es la principal institución española de producción y difusión de


estadísticas y fue de los primeros institutos estadísticos nacionales en
adoptar con entusiasmo una política de difusión de datos a través de In-
ternet. Además de difundir estadísticas generadas por otras instituciones,
el INE crea y difunde estadísticas de un amplísimo rango de temas. En-
tre otros: demográficos, macroeconómicos, relativos a precios (IPC), la-
borales (sueldos y empleo), ambientales, educativos, de cultura y ocio, de
salud, seguridad y justicia y calidad y condiciones de vida.

511
La obtención de datos

Muchas de sus estadísticas se siguen publicando en papel (con versión


pdf en la red), pero el acceso online es mucho más cómodo. A través de
un sistema de menús temáticos es muy sencillo encontrar la operación es-
tadística de interés, obtener toda la información metodológica relevante
y acceder a los datos, tanto recientes como de años anteriores (la anti-
güedad máxima varía). Dentro de cada operación estadística existen
múltiples tablas preconfiguradas, que permiten poner en relación las va-
riables principales, seleccionando los períodos de tiempo y los ámbitos
geográficos de interés. La información así creada puede luego descargar-
se en un archivo de fácil lectura para programas estadísticos o de hoja de
cálculo. En muchos casos es también posible hacer gráficos online.
También se encuentra disponible información más antigua (desde me-
diados del siglo xix), como la de los anuarios estadísticos, censos de po-
blación, y censos agrarios, en formato pdf, que reproduce la imagen de
las publicaciones originales en papel, con un tratamiento de OCR, que
permite buscar texto. Muchas veces es posible copiar textos y tablas de
esos documentos, y volcarlos a formatos digitales apropiados para el tra-
tamiento de datos, utilizando los conocimientos y herramientas mencio-
nados en la sección 1.5.
Una tercera fórmula de divulgación es la de los ficheros de microdatos
(anonimizados), con datos individuales de cada uno de los sujetos estudia-
dos. Este formato está disponible para su descarga directa de la web para
muchas variables demográficas, censos agrarios, varias encuestas de salud,
encuestas de condiciones de vida y encuestas de mercado laboral, entre
otras. Finalmente, el INE también permite solicitar información «a medi-
da» (tablas, ficheros de microdatos, cruces de variables), que no es gratuita,
y que se estudia caso por caso, en función de la viabilidad, el coste, la sal-
vaguarda del secreto estadístico y la finalidad a la que se pretende dedicar.

Institutos de Estadística de las Comunidades Autónomas

La mayoría de las Comunidades Autónomas tienen su propio organismo


de estadística, con su página web, en la que son accesibles, con distinto
grado de facilidad, las estadísticas relativas a su comunidad. Una buena
parte de los datos disponibles en estas páginas proceden de las fuentes
estadísticas del INE, pero ocasionalmente pueden encontrarse también
los resultados de operaciones de recogida de datos realizadas por el pro-
pio instituto autonómico o de operaciones estadísticas sectoriales (salud,
educación...) llevadas a cabo a nivel autonómico por las consejerías co-

512
17. Explotación de datos secundarios

rrespondientes. Es por ello conveniente visitar estas páginas web en los


casos en los que el trabajo de investigación esté centrado en una sola co-
munidad autónoma o en una comparación limitada entre ellas.

Ministerios y otras entidades públicas

Prácticamente todos los ministerios, agencias estatales y otras entidades


públicas tienen una sección de estadísticas, con un grado distinto (y cam-
biante) de desarrollo, facilidad de uso y posibilidad de obtener datos en
formato fácilmente utilizable. Dependiendo de las necesidades de cada
investigador, deberá familiarizarse especialmente con la página del minis-
terio más relevante (en el anexo virtual se incluye un listado y un resu-
men de las estadísticas más importantes).
Como sucedía con el INE, este mismo recorrido por instituciones gu-
bernamentales se puede repetir a nivel autonómico. También como en
aquel caso, lo habitual es que muchas estadísticas estén repetidas, y no
haya mucha información adicional, y que las páginas web de los gobier-
nos autónomos estén menos desarrolladas y sean más difíciles de mane-
jar. Pero esto se habrá de ver caso por caso.
Apenas unos meses antes de la publicación de este manual el gobierno
puso en marcha el portal datos.gob.es, que aspira a ser en el futuro el
«punto de acceso único» a los conjuntos de datos de las administraciones
públicas. Se entiende que se trata de datos sobre las administraciones, y no
tanto los datos que las administraciones recogen sobre la sociedad. El pro-
pósito es, entre otras cosas, el de facilitar información al público sobre lo
que hace la administración (incluyendo la distribución del gasto público),
y los servicios que ofrece, animando además a empresas, ciudadanos y or-
ganizaciones a reutilizar la información creando programas, aplicaciones y
recursos derivados que permitan aprovechar mejor los servicios públicos.
Forma parte del esfuerzo por adaptar España al movimiento internacional
en favor de una mayor transparencia de las administraciones y en el mo-
mento de redactar este libro no era un recurso demasiado útil. Es de espe-
rar que en los próximos años los desarrollos en esta línea sean importantes.

3.2  Estadísticas institucionales extranjeras e internacionales

Todos los países desarrollados y muchos países en desarrollo tienen por-


tales estadísticos online nacionales o sectoriales comparables a los espa-
ñoles. Resulta fácil olvidar que hace pocos años acceder a los millones de

513
La obtención de datos

datos contenidos en esas páginas era una tarea hercúlea que ningún in-
vestigador se plantearía. Hoy, en cambio, es cuestión de segundos acce-
der a las estadísticas, por ejemplo, educativas, de Finlandia o Tailandia,
si bien, a menos que conozcamos el idioma local, sólo podremos acceder
a la versión en inglés de sus estadísticas, que normalmente será menos
completa que la versión en idioma nativo, aunque en los países más desa-
rrollados, y con una lengua nativa poco conocida en el exterior (como
los escandinavos), la versión en inglés es bastante amplia. También pue-
de serlo en países en desarrollo, donde el inglés es una segunda lengua de
uso común en instituciones gubernamentales. Como sucede en España,
la variedad y complejidad de instituciones productoras y divulgadoras de
estadísticas puede ser grande, como puede verse en el ejemplo de Estados
Unidos (Hartsell-Gundy, 2014), por lo que el investigador que vaya a es-
pecializarse en estudios de otro país necesitará una buena inversión de
tiempo para asegurarse de conocer todos los datos públicos relevantes
para su estudio.
Estas páginas nacionales pueden ser una fuente primordial cuando se
realicen estudios comparativos entre unos pocos países, o completamente
centrados en países distintos a España, pero lo normal es que el investi-
gador interesado en realizar estudios comparativos quiera tener un pano-
rama general de muchos países. Por ello lo más habitual es recurrir a las
estadísticas de carácter comparativo, compiladas por instituciones inter-
nacionales, que no se limitan a buscar y poner juntas estadísticas simila-
res, sino que actúan también como coordinadoras entre las instituciones
nacionales, fomentando la cooperación entre ellas y los acuerdos meto-
dológicos para producir estadísticas comparables.
Las instituciones internacionales pueden ser globales o regionales. En
el caso de España nos interesan especialmente las estadísticas de Euros-
tat, la oficina estadística europea, que compila y coordina los resultados
de todos los países miembros de la UE (y en ocasiones también de los
países de la EFTA). Su página web contiene, como la del INE, un torren-
te de información sobre los más variados temas, por la que es a veces di-
fícil navegar, disponible en inglés, francés o alemán. Como en el caso del
INE, es posible navegar online hasta un tema de interés, generar una ta-
bla con las variables relevantes, los países y los años, y descargarla en un
formato de fácil manejo. Los investigadores de instituciones acreditadas
pueden acceder también, con petición justificada, a ficheros de microda-
tos, con los registros individuales, de varios estudios europeos, sobre ho-
gares, condiciones de vida, temas laborales, ingresos, educación de adul-
tos, salud y la sociedad de la información, entre otros.

514
17. Explotación de datos secundarios

Algunas de las Direcciones Generales de la Unión Europea tienen


también sus propias bases de datos. Entre ellas tiene interés AMECO
(Annual Macro-Economic Database), que administra la DG de Asuntos
Económicos y Financieros, y que compila todos los datos macroeconó-
micos de países de la UE, candidatos y otros países de la OCDE. Tam-
bién en el ámbito de la Unión Europea son de interés las estadísticas del
Banco Central Europeo, centradas en los países de la Eurozona, de los
que se ofrecen tanto estadísticas económicas de carácter general, simila-
res a las de otras fuentes, como estadísticas financieras, bancarias y mo-
netarias, más específicas.
El otro gran grupo de países con los que solemos compararnos, por
nuestro nivel de desarrollo, es el de los miembros de la Organización para
la Cooperación y el Desarrollo Económico, que es precisamente una insti-
tución intergubernamental centrada en producir análisis y estudios sobre
todo tipo de temas relacionados con el crecimiento y el desarrollo, compa-
rando las políticas de distintos países y haciendo recomendaciones de polí-
tica económica, educativa, sanitaria, ambiental o fiscal, entre otras. Como
parte de esa tarea lleva muchos años acumulando estadísticas comparables
de todas las áreas relacionadas con la economía y la sociedad.
Una cobertura similar, de temas de desarrollo en un sentido amplio,
incluyendo no sólo la economía sino el bienestar social (educación, sani-
dad, medio ambiente), tienen las estadísticas del Banco Mundial, referi-
das en este caso a todo el mundo. Además de poder visualizar y descar-
gar tablas personalizadas según el tema de interés, el Banco Mundial
tiene también un gran archivo de microdatos (1.800 estudios a comienzos
de 2015) con investigaciones nacionales e internacionales.
Más centrada en los temas económicos y especialmente financieros está
la sección de estadísticas del Fondo Monetario Internacional, gratuitas
desde 2015, que incluyen estadísticas de nivel nacional sobre aspectos ma-
croeconómicos así como otras genuinamente internacionales (precios de
materias primas, incluyendo el oro o el petróleo, tipos de cambio, flujos fi-
nancieros, ayuda al desarrollo, comercio internacional y los tipos de cam-
bio para calcular precios en paridad de poder adquisitivo).
Finalmente, la otra gran fuente de estadísticas internacionales son las
Naciones Unidas y todas sus organizaciones subsidiarias. Naciones Uni-
das tiene un portal a través del que se pueden obtener estadísticas de to-
das sus organizaciones, pero normalmente es más útil acudir directamen-
te a la organización más afín al tema de nuestro interés, que puede ser,
según los casos, la Organización Mundial de la Salud (OMS), la Organi-
zación Internacional del Trabajo (OIT) , la Organización de las Naciones

515
La obtención de datos

Unidas para la Alimentación y la Agricultura (FAO), el Programa de las


Naciones Unidas para el Medio Ambiente (PNUMA), la Organización
de las Naciones Unidas para la Educación, la Ciencia y la Cultura
(UNESCO), entre otras.

3.3  Bases de datos de encuestas

Para el investigador en ciencias sociales son también especialmente inte-


resantes los cada vez más completos y valiosos repositorios de bases de
datos de encuestas. Muchos de los archivos ya mencionados contienen,
entre sus muchas bases de datos, algunas basadas en encuestas, que sue-
len ser normalmente aquellas de carácter periódico, programadas por los
institutos de estadística oficiales, dirigidas a medir de manera regular
ciertos fenómenos (como el desempleo a través de la Encuesta de Pobla-
ción Activa, por ejemplo). Pero existen muchas otras entidades que al-
macenan y difunden encuestas no oficiales, dirigidas más bien a la crea-
ción de conocimiento con un propósito principalmente académico.
Para un investigador español, la institución de referencia en este
campo es el Centro de Investigaciones Sociológicas (CIS), que produce
y difunde cada año en torno a veinte encuestas, sobre temas variados,
combinando preguntas y estudios que realiza por iniciativa propia,
ocasional y regularmente, con otros que son fruto de acuerdos con mi-
nisterios y otras entidades públicas, y otros en los que da cabida a peti-
ciones de investigadores sociales ajenos a la institución. En tiempos pa-
sados los resultados de los estudios del CIS se difundían al público en
una versión resumida y limitada, y los investigadores sociales podían
acceder a ellos también con muchas limitaciones (y previo pago). Feliz-
mente, en las últimas dos décadas, el desarrollo tecnológico ha facilita-
do, y la conciencia social y política ha exigido, un mejor uso de los re-
cursos públicos, y hoy están disponibles en la web del CIS, apenas unas
semanas después de terminar el trabajo de campo, los resultados de to-
das sus encuestas, incluyendo los cruces más habituales (género, edad,
estudios, tamaño del municipio), así como el fichero de microdatos.
Esto sucede (en el momento de escribir este manual) con todos los estu-
dios realizados desde 1998. El CIS tiene el propósito de ir añadiendo
progresivamente los estudios anteriores, pero mientras eso no suceda,
sus datos, de pago, se facilitan bajo petición y en condiciones variables
(sólo frecuencias generales, cruces con algunas variables, fichero de mi-
crodatos).

516
17. Explotación de datos secundarios

Recientemente el CIS ha introducido también en su página web una


herramienta que permite acceder a los datos online, y ver sus resultados,
no sólo estudio por estudio, sino buscando individualmente preguntas, a
través de un catálogo temático, o también por búsqueda de texto libre en
la propia pregunta. Pueden así encontrarse «todas» las preguntas realiza-
das sobre ciertos temas, independientemente del tema del estudio, y pue-
den analizarse también de una manera rápida las tendencias en aquellas
preguntas que se repiten para formar series.
Finalmente, el CIS, a través de sus relaciones con otras entidades in-
ternacionales dedicadas a la realización o archivo de bases de datos de
encuestas, tiene acceso a muchas de las bases internacionales que se men-
cionan en el resto de esta sección y puede ayudar a los investigadores es-
pañoles a acceder a ellas, dado que algunas son de pago, o limitadas a
entidades asociadas o colaboradoras, lo que puede dejar a algunos inves-
tigadores con dificultades para acceder.
El Centre d’Estudis d’Opinió de la Generalitat de Cataluña es el úni-
co centro público creado en una comunidad autónoma para la realiza-
ción de encuestas de opinión pública, similar al CIS. Su página web per-
mite el acceso a más de 700 estudios realizados desde mediados de los
noventa, aunque para verlos es necesario tener un certificado digital.
Tiene también una herramienta para ver en línea los resultados de las en-
cuestas, disponible gratuitamente, pero con la misma restricción. Los de-
más gobiernos autónomos no han creado organismos similares, sino que
ocasionalmente, o de manera regular, patrocinan estudios de opinión pú-
blica, y los contratan por concurso con entidades locales, públicas (mu-
chas veces centros universitarios) o privadas. En todo caso, no hay en ge-
neral un buen sistema de almacenamiento y difusión de esos estudios.
Cierta semejanza con el CIS a nivel europeo tiene el Eurobarómetro,
que es un programa, más que una institución, de la Unión Europea, de-
dicado a la realización de encuestas de opinión pública en los países
miembros, con temas repetidos periódicamente y otros que se van estu-
diando ocasionalmente, en función de los temas de actualidad, los pro-
gramas europeos o las prioridades políticas de cada momento. En su pá-
gina web pueden encontrarse los resúmenes de resultados de todas las
encuestas (en formato pdf), mientras que los archivos de microdatos se
encuentran disponibles en dos repositorios (ZACAT e ICPSR).
Éste de los repositorios de datos es, precisamente, un terreno con una
importancia creciente, ya que a medida que más instituciones están dis-
puestas a difundir públicamente sus datos, más necesaria es la existencia
de estos centros que almacenen y difundan de manera centralizada o al

517
La obtención de datos

menos coordinada, las diferentes bases de datos existentes. Se trata de un


mundo cambiante, evidentemente, pero se pueden destacar los centros de
datos más importantes:

— Inter-university Consortium for Political and Social Research


(ICPSR), situado en la Universidad de Michigan, tiene un gran ar-
chivo de datos de estudios de opinión pública de todo el mundo,
aunque centrado particularmente en los Estados Unidos. La des-
carga de datos gratuita está limitada a estudiantes e investigadores
de las instituciones participantes en el ICPSR. Otros investigado-
res pueden también conseguir ciertos datos pagando por ello.
— ZACAT. Repositorio de datos de acceso gratuito (previo registro),
situado en el GESIS —Instituto Lebniz de Ciencias Sociales, en
Alemania. Contiene, como se ha señalado antes, todos los datos
del Eurobarómetro. Además, están depositados en él muchos estu-
dios de opinión alemanes, y algunas colecciones comparativas cen-
tradas en Europa del Este. En particular, para un investigador es-
pañol, pueden ser de interés algunos estudios internacionales de
importancia como el Comparative Study of Electoral Systems, el
International Social Survey Programme o la Encuesta Europea de
Valores (European Value Survey).
— Consortium of European Social Science Data Archives (CESSDA).
Es una red de repositorios europeos de datos en ciencias sociales, a
la que pertenecen actualmente 13 países, con un catálogo integra-
do que permite desde la web común buscar y descargar datos de
estudios depositados en los diferentes repositorios nacionales. Al-
gunos de estos centros nacionales actúan a su vez como reposito-
rios de estudios de carácter internacional. Por ejemplo, el UK
Data Service es el punto de acceso para los microdatos de las en-
cuestas que realiza la Fundación Europea para la Mejora de las
Condiciones de Vida y de Trabajo (Eurofound), una agencia tri-
partita (emprearios, sindicatos, gobiernos) de la Unión Europea.
— Roper Center for Public Opinion Research. Es un centro adscrito
a la Universidad de Connecticut dedicado a adquirir y preservar
estudios de opinión pública, sobre todo estadounidenses. Tiene un
amplísimo catálogo, pero los datos sólo son accesibles gratuita-
mente para miembros de instituciones afiliadas (entre las que no
se encuentran actualmente universidades españolas). Es posible
comprar el acceso a los datos de un estudio en particular, o hacer-
se miembro a título individual, pero los precios son altos.

518
17. Explotación de datos secundarios

— ASEP/JDS. Es una base de datos española que permite acceder a


los resultados de un gran número de encuestas de interés, permi-
tiendo el análisis online, con la creación y descarga de tablas per-
sonalizadas, pero no la descarga de los archivos de microdatos.
Entre los estudios disponibles están la Encuesta Mundial y la En-
cuesta Europea de Valores, las Encuestas de Actitudes de los Es-
pañoles hacia los Inmigrantes (1991-2007), el Latinobarómetro,
los sondeos Opinión Pública de los Españoles, realizados por
ASEP, 52 investigaciones monográficas del CIRES (Centro de In-
vestigaciones de la Realidad Social) emprendidas entre 1990 y
1996, el Barómetro de Asia Oriental, los estudios del Centro de
Estudios de la Realidad Contemporánea (CERC), de Chile, el
Globalbarómetro, estudio comparativo de opinión pública centra-
do en países en desarrollo de América, Asia y África.
— Empresas privadas de encuestas como Gallup, Ipsos-Mori, Niel-
sen, entre otras, tienen páginas web en las que se puede acceder a
muchos datos de sus encuestas, incluyendo algunas series tempo-
rales de larga duración que documentan las actitudes sociales ha-
cia cuestiones políticas y sociales duraderas. Normalmente no es
posible acceder a los archivos de microdatos, sino sólo a resúme-
nes de resultados preparados por las propias empresas.

Algunos grandes estudios internacionales tienen sus datos disponibles


a través de sus propias páginas web. Entre ellos destacan los siguientes:

— World Values Survey, una red global de investigadores que desde


1981 ha realizado, en varias oleadas, encuestas internacionales so-
bre valores y comportamientos sociales y políticos en un número
crecientes de países.
— The Survey of Health, Ageing and Retirement in Europe (SHA-
RE), un estudio multidisciplinar y multinacional de tipo panel con
microdatos sobre la salud, estatus socio-económico y relaciones
sociales y familiares de 85.000 individuos de más de 50 años en 20
países europeos. El equivalente en Estados Unidos es el Health
and Retirement Study, que también hace públicos sus datos desde
su propia página web. Hay estudios similares de carácter nacional
en varios países del mundo.
— Transparency International aloja en su página web los resultados
agregados (a escala de país) de sus encuestas sobre corrupción.

519
La obtención de datos

— Global Entrepreneurship Monitor (GEM). Es una encuesta multi-


nacional (más de 100 países) sobre la actividad empresarial y las
aspiraciones y actitudes de la población respecto a la creación de
empresas.

3.4  Otras bases de datos académicas no centradas en encuestas

Existe una creciente red de universidades y centros de investigación con


repositorios de datos de estudios académicos en ciencias sociales no cen-
trados en datos de encuesta, aunque también pueden contenerlos, mu-
chos de ellos agrupados en el Dataverse Project. Los más importantes
son el Data & Information Services Center, de la Universidad de Wis-
consin y el Harvard Dataverse Network, con estudios estadounidenses e
internacionales, aunque predominan los primeros. Pueden encontrarse
también datos de investigadores individuales, pequeños grupos o grandes
consorcios. La política de acceso a los datos varía, pero en general hay
una amplia cantidad de estudios de acceso abierto y descarga gratuita.
Por otra parte, hay algunos proyectos de investigación muy relevantes
relacionados con la compilación y difusión de datos de carácter interna-
cional que tienen sus propias páginas web (detalladas en el anexo vir-
tual). Entre los temas cubiertos se encuentran la historia macroeconómi-
ca mundial; la comparación de ingresos y nivel de vida entre países
revisada por el diferente nivel de precios; las características de los sindi-
catos, el establecimiento de salarios, la intervención estatal y los pactos
sociales; varios índices de libertad económica e índices de democracia y
libertad política; indicadores de calidad del gobierno; resultados electo-
rales; índices de rendimiento ambiental y de sostenibilidad ambiental, así
como estudios comparativos de programas electorales.
Finalmente, para el investigador en ciencias sociales son también im-
portantes las bases de datos centradas en información económica. Mu-
chas de las instituciones estadísticas oficiales citadas anteriormente in-
cluyen variables económicas. Pero cabe citar además algunos otros
recursos procedentes de instituciones privadas que son ampliamente re-
conocidas. Entre otras, en España destacan la Fundación BBVA, con da-
tos propios sobre el stock de capital público y privado y su distribución
territorial, sobre balanzas fiscales y diferencias regionales en el sector pú-
blico; el Anuario Económico de España (La Caixa), publicado desde
1996, con decenas de datos, fundamentalmente económicos a nivel muni-
cipal; el Instituto Valenciano de Investigaciones Económicas, con temas

520
17. Explotación de datos secundarios

como capital humano, stock de capital, gasto sanitario, desarrollo huma-


no y desigualdad. En Estados Unidos, con contenidos de aquel país,
pero también internacionales, destaca el National Bureau of Economic
Research (NBER).

Bibliografía básica
Best, Joel (2001): Damned lies and statistics: untangling numbers from the media,
politicians, and activists, Berkeley, University of California Press.
Jacob, Herbert (1991): Using published data: errors and remedies, Newbury Park,
Sage Publications.
Kitchin, Rob (2014): The Data Revolution: Big Data, Open Data, Data Infras-
tructures & Their Consequences, Londres, Sage.

521
Cuarta parte

El análisis de datos
18. Introducción
al análisis de datos

Francisca Blanco Moreno

1. Introducción

El análisis de los datos de cualquier tipo de investigación debe seguir una


línea jerárquica/ascendente:

— En primer lugar, descripción/exploración de los datos.


— En segundo lugar, análisis explicativo/confirmatorio.

Obviamente, cuando la investigación no tenga como objetivo la expli-


cación, el segundo paso no tendrá relevancia.
A su vez, en función del número de variables que describamos/explo-
remos, distinguimos entre análisis univariable, análisis bivariable o análi-
sis multivariable, cuando el número de variables que queremos describir
y/o explicar es tres o más.
En este capítulo se presentan los conceptos, términos y técnicas esta-
dísticas tanto descriptivas como inferenciales a un nivel introductorio,
utilizando un lenguaje científico claro y evitando, en la medida de lo po-
sible, las formulaciones matemáticas más complejas. Así mismo, se da
una visión general de los elementos fundamentales de la Estadística con
los cuales realizar los análisis básicos de un conjunto de datos, su inter-
pretación y sus limitaciones principales.

525
El análisis de datos

2.  El análisis univariable


La información «recogida» en una investigación se resume en una matriz
n × m, donde n es el número de unidades de análisis utilizado (número de
casos) y m el número de características de dichas unidades que hemos
medido, es decir, variables de las que disponemos información. En el
cuadro siguiente puede verse un ejemplo de este tipo de matriz de una en-
cuesta de opinión a una muestra de españoles de más de dieciocho años.

m Variables/Características

n Sexo Edad Ideología Ingresos ...... m

Casos
1 Hombre 19 Izquierda Ninguno
2 Mujer 21 C. Izda Ninguno
3 Hombre 65 Derecha 1.000 €
4 Hombre 50 Centro 9.000 €
5 Mujer 30 Centro 1.150 €
- - - - -
n Hombre 22 C. Izda Ninguno

La misma matriz constituye ya una descripción de la realidad estudia-


da, pero resulta evidente que es difícil de interpretar y recordar. Por ello,
se recurre a medidas que resumen la información reflejada en dicha ma-
triz. Cuando las características de las unidades de análisis se han medido
utilizando escalas de intervalo o de razón se utilizan medidas de tendencia
central, de dispersión y medidas que describen la forma de la distribución
de frecuencias (o de porcentajes) de cada una de las variables. Cuando
las características están medidas con escalas nominales u ordinales no es
posible utilizar estas mismas medidas, puesto que los valores que se asig-
nan a dichas características son categorías de clasificación (nominal) o
clasificación y orden (ordinal), no siendo posible efectuar con ellos ope-
raciones de cálculo (suma, resta, etc.).
Los gráficos y tablas que se adjuntan muestran un ejemplo de diferen-
tes técnicas de análisis descriptivo. Se trata del análisis de una sola carac-
terística/variable —la ideología— medida en una escala de autoubica-
ción de 10 puntos como una pregunta de una encuesta del Centro de
Investigaciones Sociológicas a una muestra representativa de la pobla-
ción española. Se ofrecen datos para los años 2011 a 20141.

526
18. Introducción al análisis de datos

Los diferentes estadísticos calculados para cada una de las cuatro dis-
tribuciones se presentan en la tabla 1 y permiten disponer de la informa-
ción sobre la ideología política de los españoles de un modo resumido y
fácilmente interpretable. En julio de 2014 la población española podía
clasificarse de centro izquierda o centro, puesto que la media de la distri-
bución es de 4,59 cuando el punto medio de la escala es de 5,5 (la escala
va de 1 a 10, donde 1 es la extrema izquierda y 10 la extrema derecha);
esta información queda corroborada por el hecho de que el valor 5 es el
valor modal, el más frecuente, y además la mediana —valor de la distri-
bución por debajo (y por encima) del cual queda el 50% de los casos de
la distribución— es de 5 también.

Tabla 1.  Estadísticos


Escala de Escala de Escala de Escala de
autoubicación autoubicación autoubicación autoubicación
ideológica ideológica ideológica ideológica
(julio 2011) (julio 2012) (julio 2013) (julio 2014)
Número de casos 2.084 2.021 1.997 2.031
Media 4,75 4,70 4,67 4,57
Error estándar de la media 0,042 0,042 0,042 0,043
Mediana 5 5 5 5
Moda 5 5 5 5
Desviación estándar 1,932 1,875 1,875 1,950
Varianza 3,733 3,514 3,515 3,804
Asimetría 0,355 0,342 0,278 0,424
Error estándar de asimetría 0,054 0,054 0,055 0,054
Curtosis 0,053 0,041 0,033 0,084
Error estándar de curtosis 0,107 0,109 0,109 0,109
Rango 9 9 9 9
Mínimo 1 1 1 1
Máximo 10 10 10 10
Percentiles 25 3,00 3,00 3,00 3,00
50 5,00 5,00 5,00 5,00
75 6,00 6,00 6,00 6,00

La situación relativa de la moda, de la mediana y de la media, así


como el valor del índice de asimetría, indican que la distribución de fre-
cuencias está ligeramente escorada a la izquierda de la distribución, es

527
El análisis de datos

decir, que la distribución de frecuencias de la ideología en comparación


con la curva normal no es como ésta simétrica, sino que hay un predomi-
nio de los valores a la izquierda del punto medio, lo que en este caso im-
plica un predominio de la ideología de centro izquierda. El índice de
apuntamiento o curtosis es también positivo, lo que indica que, en com-
paración con la curva normal, la punta de la distribución que estamos
analizando es más aguda o alta, es decir, hay más valores en el centro de
la distribución en torno al punto medio de los que hay en una distribu-
ción normal con igual punto medio.
Todo ello nos sirve para afirmar que la ideología política de los espa-
ñoles en esas fechas (julio de 2014) se distribuía de modo que predomina-
ban los valores centrales claramente y asimismo existía un escoramiento
hacia la izquierda. Si la distribución de frecuencias fuera más parecida a
la distribución normal, la media y la desviación típica nos permitirían
calcular el número de casos existentes entre cualesquiera dos valores, o el
número de casos por debajo o por encima de un valor dado.
Esta misma información se ofrece también para el mes de julio de los
años 2011, 2012 y 2013, por lo que se puede hacer la correspondiente in-
terpretación de la situación de la ideología de los españoles en esos años.
Se muestran asimismo diferentes gráficos que sirven igualmente como
resumen descriptivo de la posición ideológica de los españoles mayores
de 18 años. Se presentan ejemplos de polígonos de frecuencias, diagra-
mas circulares o de sectores e histogramas. Todas estas representaciones

Gráfico 1.  Histograma con curva normal

Media = 4,57
Desviación estándar = 1,95
N = 2.031
Frecuencia

Escala de autoubicación ideológica (julio 2014)

528
18. Introducción al análisis de datos

Gráfico 2. Polígono de porcentajes

Porcentaje

Extrema Extrema
Izda. Dcha.
Escala de autoubicación ideológica (julio 2013)

gráficas complementan las diferentes medidas de tendencia central, de


dispersión, etc., utilizadas para describir el conjunto de datos recogido.
La descripción analítica de los datos de una investigación no tiene única-
mente una finalidad descriptiva, sino que permite que el investigador co-
nozca sus «datos». Las técnicas de análisis exploratorio constituyen un paso
más para comprender qué se puede hacer con los datos antes de utilizar téc-
nicas de análisis confirmatorio, es decir, de contraste de hipótesis.

Gráfico 3.  Diagrama de sectores


Escala de
autoubicación
ideológica
(julio 2012)
.

529
El análisis de datos

El análisis exploratorio es una mezcla de técnicas de análisis especia-


les y de una filosofía analítica determinada. Sin conocer esta filosofía es
imposible entender este tipo de análisis, puesto que las técnicas varían y
se amplían constantemente.
El análisis estadístico tradicional —regresión, factorial, ecuaciones es-
tructurales, discriminante, etc.— da por supuesto un determinado mode-
lo de la realidad y a él adapta/ajusta los datos obtenidos en un intento
estrictamente confirmatorio y de contrastación. Dentro de esta perspec-
tiva tradicional, el analista puede llegar a comprobar los supuestos en los
que se basan estas técnicas, pero normalmente no se plantea un proceso
inductivo de conocimiento previo y detallado de su matriz de datos para
llegar a un modelo partiendo del análisis univariable primero, bivariable
después y, por último, multivariable. Por el contrario, el camino recorri-
do por el análisis estadístico tradicional es justo el inverso, es un proceso
deductivo de contrastación de hipótesis utilizando modelos de compor-
tamiento de la realidad preestablecidos.
El análisis exploratorio pretende, en cambio, partir de un conocimien-
to profundo y creciente de los datos, para, trabajando inductivamente,
llegar a un modelo ajustado a los datos. En este sentido, este tipo de aná-
lisis sigue, aunque no de una forma lineal, el siguiente proceso:
1.  Análisis detallado de cada una de las variables incluidas en la matriz
de datos. Se trata en esta primera fase de analizar la forma de la distribu-
ción agrupando los valores de un modo rápido y a ser posible gráfico.
Huyendo de la influencia que los valores extremos tienen sobre la media
y la varianza, se recurre a otras medidas como la mediana o percentil 50
(valor de la distribución que deja por debajo el 50% de los casos) y el re-
corrido intercuartílico (valores de la distribución entre los cuales está el
50 % de los casos, dejando un 25 % en cada uno de los extremos).
Dos son las técnicas gráficas más utilizadas en esta primera fase:
— el «tallo y hoja» y
— la «caja»2.
El «tallo y hojas» es una técnica similar al histograma, salvo que requie-
re menos tiempo para su cómputo y ademas preserva los datos originales.
La «caja» es un avance sintetizador respecto al «tallo y hoja». La caja
representa la amplitud intercuartil que contiene el 50% de los valores cen-
trales. Una línea que atraviesa la caja indica la situación de la mediana.
Los «bigotes» son las líneas que se extienden desde la caja hasta los valo-
res más altos y más bajos, excluyendo los valores atípicos. Los valores atí-
picos se encuentran a una distancia del final de la caja de entre 1,5 y 3 ve-

530
18. Introducción al análisis de datos

ces la longitud de ésta. Los valores o casos extremos se encuentran a una


distancia del final de la caja de más de 3 veces la longitud de la caja.
Otro gráfico que ayuda a la «identificación» del tipo de distribución que
siguen los datos es el gráfico de las proporciones acumuladas. Este gráfico
presenta las proporciones acumuladas de la variable que se está analizando
respecto a las de una distribución cualquiera de prueba. Los gráficos de
probabilidad suelen emplearse para determinar si la distribución de una va-
riable coincide con una distribución dada. Si la variable seleccionada coin-
cide con la distribución de prueba, los puntos se concentran en torno a una
línea recta. La distribución de prueba que se utiliza con más frecuencia en
la exploración de una matriz de datos es la distribución normal, ya que la
mayoría de los análisis multivariables «exigen» como requisito que los datos
muestrales provengan de una población normal.
Estas dos técnicas gráficas son las más comunes para mostrar distribu-
ciones de valores y suficientes para conseguir lo que se pretende con ellas:
a) Conocer la variable analizada para saber si su distribución es si-
métrica o no.
b) Poder descubrir valores extremos si existen, y analizarlos antes de
pasar al análisis bivariable y multivariable.

2.  Después de esta inspección analítica y visual de los datos de que se


disponga, el siguiente paso es el de la transformación de los mismos.
El análisis de cada variable tiene por fin conocerlas a fondo, de modo que:

• queden al descubierto los casos o valores extremos;


• se revele la simetría o falta de ella de los datos y
• que, en función de esos resultados, se decida si los valores originales
deben o no transformarse en otros más apropiados para su uso en
los siguientes análisis.

La transformación de los datos persigue la consecución de una distri-


bución aproximada a la normal o al menos simétrica, dado que, como ya
hemos comentado, la mayoría de las técnicas de análisis confirmatorio
dan por supuesto esta normalidad o simetría de los datos.
Existen múltiples posibilidades de transformación o reexpresión, pero
conviene distinguir tres tipos:
• transformaciones lineales, es decir, transformaciones que consisten en su-
mar, restar, dividir y/o multiplicar los datos originales por una constante;
• transformaciones no lineales monotónicas y
• transformaciones no lineales no monotónicas.

531
El análisis de datos

El primer tipo de transformación —por ejemplo, la estandarización de


una variable— cambia exclusivamente los valores originales de la varia-
ble, pero no altera ni la forma de la distribución ni las distancias entre los
valores de la variable ni tampoco el orden. Los valores transformados
son una función lineal de los valores originales, de modo que un gráfico
de ambos en un eje de coordenadas produce una línea recta.
El segundo tipo de transformación cambia los valores originales y
también las distancias entre ellos, pero no el orden; mientras que el últi-
mo tipo de transformación cambia también el orden.
Las transformaciones no lineales no monotónicas —como, por ejem-
plo, una ecuación polinomial— son más difíciles de utilizar, sobre todo
porque cambian la información original completamente.
Como resumen de esta breve incursión en el análisis exploratorio debe
destacarse el carácter estrictamente inductivo de este tipo de análisis, así
como su énfasis en ir paso a paso, en utilizar métodos gráficos y en co-
nocer en profundidad los datos de que se disponga antes de intentar un
análisis confirmatorio.
Centrándonos en el estudio 3.033 del mes de julio de 2014, es interesante
confirmar si el valor obtenido en la encuesta del CIS (4,57 puntos) se dife-
rencia de la media teórica de la escala (5,5 puntos) lo suficiente como para
afirmar que la población entrevistada se autoposiciona en el centro izquier-
da ideológico. El análisis estadístico que nos ayudará a contestar esta cues-
tión se engloba dentro de los contrastes o pruebas de hipótesis, es decir, del
análisis confirmatorio. Contrastar una hipótesis estadísticamente es juzgar si
cierta propiedad supuesta para una población es compatible con lo observa-
do en una muestra de ella (Peña, 1999). Un contraste de hipótesis, una prue-
ba de significación o una prueba estadística son términos que indican el pro-
ceso mediante el cual decidimos si una hipótesis estadística planteada acerca
de la población debe ser aceptada o no (Martín, 2001). Una hipótesis esta-
dística es una conjetura que se establece acerca de alguna característica de
una o más poblaciones. Distinguimos entre hipótesis nula (aquella que se
plantea para ser rechazada) y que se denota por H0 e hipótesis alternativa (la
que aceptaremos en caso de rechazar la hipótesis nula) y que escribimos
como H1. Las hipótesis correspondientes a la cuestión que hemos planteado
acerca del posicionamiento ideológico (característica de la población que re-
sumimos mediante su valor medio) son las siguientes:

H 0 : µ = 5,5⎫
⎬
H1 : µ ≠ 5,5 ⎭

532
18. Introducción al análisis de datos

Cualquier hipótesis estadística se refiere siempre a un parámetro o con-


junto de parámetros de una o más poblaciones. Las dos ecuaciones ante-
riores definen un contraste no direccional con respecto a µ. No direccional
porque la hipótesis alternativa sólo afirma que el parámetro es distinto del
valor fijado en la hipótesis nula. Con respecto a µ porque el resumen más
apropiado para la característica/variable que estamos analizando es la me-
dia. Cuando con total seguridad se puede afirmar que el valor del paráme-
tro nunca será mayor que o menor que un valor dado, entonces planteare-
mos un contraste direccional con una de estas dos alternativas:

H 0 : µ = k ⎫ H 0 : µ = k ⎫
⎬ ⎬  
H1 : µ ≤ k ⎭ H1 : µ ≥ k ⎭

El planteamiento de H0 conlleva elaborar un modelo probabilístico a


partir del cual, basándonos en los datos muestrales observados, llegar a
tomar una decisión (rechazar o no H0). En esta toma de decisión se pue-
den cometer dos tipos de errores, el que se comete al rechazar una hipó-
tesis que es cierta —error de tipo I— y el que se comete al no rechazar
una hipótesis que es falsa —error de tipo II.

SITUACIÓN REAL
DECISIÓN ADOPTADA
H0 VERDADERA H0 FALSA
ERROR DE TIPO I Decisión correcta
RECHAZAR H0
Nivel de significación α Potencia del test 1-β
Decisión correcta ERROR DE TIPO II
NO RECHAZAR H0
Nivel de confianza 1-α β

El error de tipo I, o nivel de significación asociado al contraste, es el


error máximo que nos permitimos cometer al rechazar la hipótesis nula
siendo cierta. Se denota con la letra griega α y se expresa como una proba-
bilidad: α = P(Error Tipo I) = P(Rechazar H0 / H0 es verdadera) y los va-
lores que con mayor frecuencia se utilizan son α = 0,05; α = 0,01 y α=0,1.
Este nivel de significación α fijado a priori por el/la investigador/a se com-
para con la probabilidad p de que, siendo cierta la hipótesis nula, se haya
obtenido un determinado valor muestral. Es decir, en nuestro ejemplo, te-
nemos que calcular la probabilidad asociada al valor 4,57 (valor muestral)
en el modelo probabilístico definido por la hipótesis nula (µ = 5,5). Si esta
probabilidad es grande, tendremos que aceptar que el modelo probabilísti-
co asociado a la hipótesis nula es correcto y, por tanto, no rechazaremos la

533
El análisis de datos

hipótesis nula3, pero si esa probabilidad es pequeña, deberemos rechazar


H0. Para decidir si la probabilidad p (o p-valor) es grande o es pequeña, la
comparamos con el el nivel
nivel de significaciónααfijado
de significación fijadopara
paraelelcontraste.
contraste.SiSip
p< <α αentonces
entoncesrechazaremos
rechazaremoslalahipótesis
hipótesisnula
nula(puesto
(puesto que
que la probabilidad
de que el valor muestral 4,57 pertenezca a la distribución de probabilidad
teórica con media 5,5 es pequeña); por el contrario, si p > α, α, no podremos
rechazar la hipótesis nula. En este caso diremos que la diferencia encontra-
da entre el valor del parámetro (μ (µ = 5,5) y el del estadístico ( X = 4,57) no
es estadísticamente significativa4 y se debe a las variaciones aleatorias intro-
ducidas por el procedimiento de muestreo.
Rechazar la hipótesis estadística H0 significa que hay una diferencia
estadísticamente significativa entre X y μ, µ, es decir, que la diferencia es
lo suficientemente grande como para que no se deba al azar.
Para cada hipótesis nula hay que determinar el modelo probabilístico
con el cual calcular el p-valor. Para cada parámetro o combinación de
parámetros indicados en la hipótesis estadística, y dependiendo de la in-
formación disponible sobre la población objeto de estudio, hay que de-
terminar el modelo probabilístico o distribución muestral asociada.
Llamamos distribución muestral a la distribución probabilística teóri-
ca de todos los valores posibles de un estadístico cuando se calcula dicho
estadístico a partir de muestras aleatorias del mismo tamaño, bajo el su-
puesto de que la hipótesis nula H0 es cierta. Las observaciones que com-
ponen cualquier distribución muestral son medidas resumen (estadísti-
cos) obtenidas de muestras del mismo tamaño, en lugar de observaciones
individuales de los casos que componen una muestra. Por ejemplo, la
distribución muestral de la media es una distribución cuyas observacio-
nes son medias obtenidas de observaciones de muestras aleatorias de ta-
maño n extraídas de una población. Si en dicha población la variable
aleatoria X observada sigue una distribución normal de media μ µ y va-
rianza σ22, entonces se puede asegurar que la distribución muestral de la
media es una distribución normal cuya media coincide con el parámetro
de la población, μ, µ, y cuya varianza es igual a σ X2 = σ 2 n,   donde n es el ta-
maño de la muestra.
Conocer la distribución muestral del estadístico correspondiente es lo
que nos va a permitir calcular, asumiendo que la hipótesis nula es cierta,
el p-valor que compararemos con el nivel de significación
significación α. α. Como es
bien sabido, calcular probabilidades con distribuciones de probabilidad
equivale a calcular tamaños de áreas bajo las curvas correspondiente a
esas distribuciones. Cuando fijamos el error de tipo I (α = 0,05; 0,01;
0,1…) lo que estamos haciendo es delimitar el tamaño del área de recha-

534
18. Introducción al análisis de datos

zo de la hipótesis nula bajo la curva de la distribución muestral del esta-


dístico en cuestión. Es decir, el nivel de significación divide el área bajo la
curva de la distribución muestral en dos zonas: el área de rechazo de H0
y el área de no rechazo que coincide con lo que denominamos intervalo
de confianza (de tamaño 1-α) .Veamos un ejemplo supuesto un contraste
1-α)55.Veamos
no direccional con respecto a µ μ y un nivel de significación α. Al ser el
contraste con respecto a µ, μ, la distribución muestral es una distribución
normal de media µμ y error típico6 σ X = σ n  . El área de rechazo de la hi-
pótesis nula se distribuye de forma simétrica en ambas colas de la distri-
bución por ser el contraste no direccional y cada una de esas áreas ten-
drá un tamaño igual a α/2. α/2. EnEn el caso de un contraste direccional, el área
de rechazo se concentraría en una sola de las dos colas y el tamaño sería
igual a α.
α.
Los valores z que marcan el inicio de cada una de las zonas de recha-
zo en la distribución muestral de la media se denominan valores críticos y
se denotan por zc o zα/2 α/2
(recordar que para calcular áreas bajo la curva
normal se utiliza la distribución normal estandarizada o tipificada de
media 0 y desviación típica 1). Con este tipo de contraste no tenemos
que llegar a calcular el p-valor asociado a la media muestral (la probabi-
lidad de que X pertenezca a la distribución muestral que define la hipó-
tesis nula). Es suficiente calcular el valor de z que le corresponde a X
X −µ
μ
(z = ),   también llamado estadístico de contraste, y compararlo con
σX
el z crítico (es decir, situarlo en la curva normal estandarizada donde se
han definido el área de rechazo y no rechazo). Si el valor absoluto de z es
menor o igual que zc, entonces se encuentra situado en la zona de tamaño
1-α yy no
1-α no podemos
podemos rechazar
rechazar lala hipótesis nula, pero si es mayor ( z |> zc),
estará situado en una de las dos zonas sombreadas en el gráfico anterior
y, por tanto, rechazaremos la hipótesis nula y aceptamos la hipótesis al-
ternativa H1.
En el ejemplo que hemos utilizado hasta ahora hemos supuesto que,
en la población, la variable aleatoria X sigue una distribución normal de
parámetros µμ y σσ22.. Por
Por ello
ello hemos podido construir un estadístico de
contraste (z) basándonos en la distribución muestral de la media y tomar
la decisión con respecto a H0 a partir del nivel de significación α fijado.
Éste es un caso poco realista dado que en pocas situaciones llegaremos a
conocer la variabilidad de la población (es decir, σ22). A continuación se
presenta un resumen de las posibles situaciones con las distribuciones
muestrales y los estadísticos de contraste tanto para la media como para
una proporción.

535
ElElanálisis
análisisde
dedatos
datos

A. Contraste
A.
A. Contraste con
con respecto
respecto aa μμ
µ
222
Distribución
Distribución muestral
muestral de
de la media: XX : N
la media: N ((μμµ,,σσ ))  donde
222
X
XX
222
donde σσX
XX
==σσ n..  
n
H µ ==kk⎫⎫⎫
H000::μμ
⎬⎬  
µ ≠≠kk⎭⎬⎭⎭
HH111::μμ
Supuestos:población
Supuestos: poblaciónnormal
normalde deparámetros
parámetrosμμµyyσσ σ222 (o
(o cualquier
cualquier otra
otradis-
dis-
tribución
tribución sisi elel tamaño
tamaño de
de la
la muestra
muestra es
es lo
lo suficientemente
suficientemente grande,
grande, n≥30
n≥30
casos777).).Muestreo
casos Muestreoaleatorio
aleatoriosimple
simplede
detamaño
tamañon. Nivelde
n.Nivel designificación
significaciónα.α.
α.
1) Cuando
1)
1) Cuandose seconoce
conoceσσσ222
XX −−μμ
µ
Estadístico de
Estadístico de contraste
contraste (o z-test): zz==
(o z-test): ..   Supuesto
Supuesto que
que la
la hipótesis
hipótesis
σσXXX
nulaes
nula escierta,
cierta,zzsigue
sigueuna
unadistribución
distribuciónnormal
normalde demedia
media00yydesviación
desviacióntí- tí-
pica
pica1.1.SiSi|z|
|z|>>zzcccentonces
entoncesrechazamos
rechazamosH H000..
La
La expresión
expresión del del intervalo
intervalo de confianza al
de confianza
confianza al (1-α)%
al (1-α)% es: XX ±± zzcccσσXXX..   Si
(1-α)% es: Si
μμ∈ ((X − zccσ
µ ∈ X − z σ
c XX , X + z
X, X + zccσ
σ X)) 
c XX    entonces
entonces no
no podemos
podemos rechazar
rechazar HH .
000
.

2) Cuando
2)
2) Cuandononoseseconoce
conoceσσ σ222
XX −−μμ
µ
Estadístico
Estadístico de
de contraste
contraste (o t-test): tt ==
(o t-test): ..   Asumiendo
Asumiendo que
que la
la hipóte-
hipóte-
ssXXX
sis
sis nula
nula eses cierta,
cierta, este
este cociente
cociente sigue
sigue una
una distribución
distribución tt de
de Student
Student con con
n-1 grados de libertad, donde ssXX == ss nn es un estimador del error típi-
n-1 grados de libertad, donde es un estimador del error típi-
co.
co. El p-valor asociado
El p-valor asociado aa tt (lo
(lo facilitan
facilitan todos
todos los
los programas
programas de de análisis
análisis
estadístico)se
estadístico) secompara
comparacon α,
conα,
α, si
si pp <
< α, rechazaremos H
α, rechazaremos H00.
α, .
La
Laexpresión
expresióndel delintervalo
intervalode deconfianza
confianzaal al(1-α)% es: XX ±±ttccssXX. .
(1-α)%es:

B. Contraste
B.
B. Contraste con
con respecto
respecto aa ππ

Distribución muestral
Distribución muestral de
de una proporción: pp: N
una proporción: 22
N ππ,,σσpp2p   donde
donde (( ))
σσp2p2p2 == π ((1 − π))n .  .
π 1− π
n
H
H000::ππ ==ππ000⎫⎫⎫
⎬⎬⎬  
H
H111::ππ ≠≠ππ000⎭⎭⎭

Supuestos:
Supuestos: población
población binomial
binomial de
de parámetro
parámetro ππ (o (o cualquier
cualquier otra
otra distri-
distri-
bución sisi elel tamaño
bución tamaño de
de la
la muestra
muestra es
es lo
lo suficientemente
suficientemente grande).
grande). Mues-
Mues-
treo
treoaleatorio
aleatoriosimple simplede
detamaño
tamañon.n.Nivel
Nivelde designificación
significaciónα.α.
α.

536
536
18. Introducción al análisis de datos

p −π0 π 0 (1 − π 0 )
Estadístico de contraste (o z-test): z = , σp =   si-
σp n
gue una distribución normal (0,1). Si |z| > zc entonces rechazamos H0.
La expresión del intervalo de confianza al (1-α)% es: p ± zcσ p  .
Para contestar a la pregunta que nos hemos planteado con respecto a
la escala de autoubicación ideológica referente a julio de 2014, hemos
utilizado una prueba t o t-test (dado que no conocemos la varianza de la
población objeto de estudio).
Como ya habíamos visto en el análisis descriptivo, el valor medio para
la escala en julio de 2014 es de 4,57 puntos. Hemos fijado una hipótesis
nula igual a 5,5; a la vista de los resultados obtenidos y para un nivel de
significación α=0,05, ¿podemos afirmar que los 0,93 puntos de diferencia
entre la media muestral y el valor de la hipótesis se deben al azar o no?
El p-valor asociado al valor de t obtenido ( t = −21, 45 )   es 0,000, mucho
menor que 0,05, por tanto debemos rechazar la hipótesis nula y concluir
que en julio de 2014, la población entrevistada se autoubicaba ideológi-
camente en el centro izquierda.

3.  El análisis bivariable


Hasta aquí nos hemos centrado en el análisis univariable, pero hay que des-
tacar que el análisis, ya sea descriptivo, exploratorio o confirmatorio, puede
ser bivariable o multivariable. Cabría utilizar el sexo como término de com-
paración para la escala de la ideología, o las diferentes Comunidades Autó-
nomas. Nos podríamos preguntar si se sitúan las mujeres más al centro que
los hombres en la escala de posicionamiento ideológico, o si el sentimiento
nacionalista/regionalista8 difiere entre las Comunidades Autónomas.
En este apartado no sólo nos vamos a ocupar de describir y caracteri-
zar la distribución conjunta de dos variables o distribución bivariable, te-
niendo en cuenta el nivel de medición de las variables, también vamos a
ver cómo podemos establecer si hay o no relación entre las variables que
definen la distribución conjunta.

3.1  Tablas de contingencia / tablas cruzadas

La distribución conjunta de dos o más variables categóricas (nominales u


ordinales) se suele presentar en forma de tabla de doble entrada donde
las columnas vienen definidas por las categorías de una de las variables y

537
El análisis de datos

las filas por las de la otra. Al cruce de una columna con una fila se le
suele denominar celda. Veamos el caso más sencillo de una tabla de con-
tingencia 2 × 2, donde la variable X tiene dos categorías (hombre y mu-
jer) y la variable Y otras dos (Votó / No votó en las últimas elecciones ge-
nerales de 2011):

Tabla 2.  Tabla de contingencia


Estudio CIS nro 3033 X
Hombre Mujer Total
Votó en las últimas elecciones generales de 2011 881 951 1.832
Y
No votó 246 199 445
Total 1.127 1.150 2.277

El contenido de cada celda es el recuento del número de casos que


cumplen a la vez dos condiciones: una condición definida por la variable
X (ser hombre, por ejemplo) y otra condición definida por la variable Y
(votó, por ejemplo). Es decir, del total de 2.277 casos, 881 son hombres
que votaron en las últimas elecciones generales de 2011. En esta tabla,
además de la distribución conjunta de las variables X e Y, tenemos tam-
bién las distribuciones marginales de cada una de ellas. En la columna
etiquetada como «Total» tenemos la distribución marginal de la variable
que define las filas (Votó: 1.832 casos / No votó: 445 casos) y en la última
fila de la tabla, también etiquetada como «Total», está la distribución
marginal de la variable que define las columnas de la tabla (Hombre:
1.127 / Mujer: 1.150).
La expresión general de una tabla de dimensión m × n (m filas y n co-
lumnas) es la siguiente:

X
1 2 … j … n Total
1 f11 f12 f1j f1n f1+
2 f21 f22 f2j f2n f2+
Y

i fi1 fi2 fij fin fi+

m fm1 fm2 fmj fmn fm+
Total f+1 f+2 f+j f+n f..

538
18. Introducción al análisis de datos

donde cada fij representa la frecuencia o recuento del número de casos


que cumplen tanto la condición i como la j. El subíndice + en las fre-
cuencias de las distribuciones marginales nos indica que estamos suman-
do las frecuencias de toda la fila (fi+= fi1+ fi2+… +fij+…+ fin) o las de las
columnas (f+j= f1j+f2j+…+fij+…+ fmj). Sumando las frecuencias marginales
de fila (f+1+ f+2+…+ f+j+…+ f+n) o de columna (f1++ f2++…+ fi++…+ fm+)
obtenemos el total de casos f...
Este tipo de tabla nos permite describir la distribución conjunta de
variables categóricas y detectar posibles pautas de asociación entre
ellas. El contenido de las celdas (frecuencias o porcentajes de casos)
nos da información sobre la relación existente entre ambas variables. Si
en lugar de utilizar sólo dos variables para generar una tabla de contin-
gencia bidimensional utilizamos tres o más variables obtendríamos ta-
blas tridimensionales, etc. Ahora bien, los estadísticos que vamos a de-
finir para el estudio de la relación o asociación entre variables
categóricas sólo sirven para analizar y establecer relaciones bivariables
(entre dos variables).
En la tabla 3 se ha incluido en cada celda tanto la frecuencia o recuen-
to del cruce de las categorías de filas y columnas como el porcentaje que
representa cada frecuencia sobre el total de casos de cada columna (por-
centajes que se denominan porcentajes verticales o de columna). Estos
porcentajes nos permiten describir el comportamiento electoral de las
personas entrevistadas.

Tabla 3. Participación electoral en las elecciones generales de 2011 por


sexo de la persona entrevistada

Sexo de la persona
entrevistada
Hombre Mujer Total
Participación electoral en Votó Frecuencia 881 951 1.832
las elecciones generales de
2011 % de columna 78,2 82,7 80,5
No votó Frecuencia 246 199 445
% de columna 21,8 17,3 19,5
Total Frecuencia 1.127 1.150 2.277
% de columna 100 100 100

539
El análisis de datos

Según estos datos, correspondientes al estudio del CIS 3033 de julio


de 2014, un 78,2% de los hombres fue a votar en las elecciones generales
de 2011. El porcentaje de mujeres que votó alcanzó el 82,7%. Si estamos
interesados en saber, del total de votantes, cuántos son hombres y cuán-
tas mujeres, tendremos que hacer un cálculo distinto, pues la base en este
caso no sería los totales de las columnas sino los de las filas (porcentajes
que se denominan horizontales o de fila). Estos porcentajes se presentan
en la tabla 4:

Tabla 4. Participación electoral en las elecciones generales de 2011 por


sexo de la persona entrevistada
Sexo de la persona
entrevistada
Hombre Mujer Total
Participación Votó Frecuencia 881 951 1.832
electoral en las
% de fila 48,1% 51,9% 100%
elecciones generales
de 2011 No votó Frecuencia 246 199 445
% de fila 55,3% 44,7% 100%
Total Frecuencia 1.127 1.150 2.277
% de fila 49,5% 50,5% 100%

Del total de personas que votaron en las elecciones generales de 2011


(1.832 personas), un 48,1% eran hombres, y un 51,9%, mujeres. Por otro
lado, de las 445 personas que han declarado que no votaron, un 55,3%
son hombres, y un 44,7%, mujeres.
¿Qué valores habría en las celdas de esta tabla si las variables «Sexo» y
«Participación electoral en 2011» no estuvieran relacionadas entre sí? Es
decir, ¿qué frecuencias esperaríamos encontrar en las celdas si el ser
hombre o mujer no determinara si se fue o no a votar en las elecciones
generales de 2011? Contestar esta pregunta supone plantear una hipóte-
sis nula y tomar una decisión con respecto a ella, basándonos en algún
procedimiento estadístico inferencial.
La hipótesis nula afirma la independencia de las variables, lo que im-
plica, en el caso de una tabla de contingencia, que la probabilidad de es-
tar en la fila i es independiente de la columna j: pij = pi + x p+ j ∀ii , jj.  Apli-
cando esta propiedad, podemos calcular, para cualquier tabla de
contingencia, las frecuencias que se esperarían obtener bajo el supuesto

540
18. Introducción al análisis de datos

de independencia. Estas frecuencias, que se denominan frecuencias espe-


radas, se calculan de la siguiente manera:

( fi + ) ( f + j )
fij* = donde:
f..
fij* es
eslalafrecuencia
frecuenciaesperada
esperada en
en la
la celda
celda ijij
fi+ es
es la
la frecuencia
frecuencia marginal
marginal de
de la
la fila
fila ii  
f +j es
es la
la frecuencia
frecuencia marginal
marginal de
de la
la columna jj
f.. es
es la
la frecuencia
frecuencia marginal
marginal de
de la
la columna
columnajj

Por lo tanto, comparando las frecuencias observadas con las esperadas


podemos decidir si hay o no relación o asociación entre las variables que
definen la tabla de contingencia. Como resumen global de las diferencias
entre las frecuencias observadas y esperadas se define el estadístico χ2:
2
2
χ = ∑∑
I J
(f ij − fij* ) I
= ∑∑
J fij2
− f..  
i =1 j =1 fij* i =1 j =1 fij*

Cuando todas las frecuencias observadas son iguales a las esperadas χ2


= 0 y en este caso las variables son independientes entre sí. Es decir, no po-
demos rechazar la hipótesis nula de independencia. Cuanto mayores sean
*
las diferencias fij − fij   (también llamadas residuos eij), con mayor seguri-
dad podremos afirmar que hay asociación entre las variables. Este estadís-
tico depende en gran medida del tamaño de la muestra (con tamaños de
muestra grandes, pequeñas diferencias pueden resultar estadísticamente
significativas o, lo que es lo mismo, a mayor valor de n, mayor valor del es-
tadístico). Para decidir si un valor dado de χ2 es lo suficientemente grande
como para rechazar la hipótesis nula, compararemos el p-valor asociado a
dicho χ2 (valor que facilitan todos los programas de análisis de tablas de
contingencia) con el nivel de significación fijado para el contraste (α = 0,05
habitualmente). Si p < α, rechazaremos la hipótesis de independencia y
concluiremos que conocer en qué fila (o columna) se está mejora la predic-
ción de la columna (o fila) en que se estará.
El valor de χ2 para la tabla 2 × 2 del ejemplo que venimos utilizando
es igual a 7,407, con una significación o p-valor igual a 0,006 < 0,05, por
lo tanto, en este caso vamos a rechazar la hipótesis de independencia y a
concluir que hay relación entre el sexo y la participación electoral en las

541
El análisis de datos

generales de 2011. Teniendo en cuenta además los porcentajes verticales


obtenidos en la tabla 3, podemos afirmar que los 4,5 puntos porcentua-
les de diferencia que hay entre los hombres y las mujeres que votaron son
estadísticamente significativos.
El estadístico χ2 depende fuertemente del tamaño de la muestra (a ma-
yor tamaño muestral, mayor valor de χ2). Por ello se han definido otras
medidas de asociación para variables categóricas que no tienen estas li-
mitaciones:

1. Phi ϕ2: este estadístico toma el valor cero cuando las variables son
independientes entre sí. En el caso particular de una tabla 2 × 2, ϕ
varía entre –1 y +1 y se interpreta igual que el coeficiente de co-
rrelación de Pearson.
2. Coeficiente de contingencia C: varía entre 0 y 1, pero difícilmente
llega a tomar el valor 1. Cuando el coeficiente alcanza su valor
máximo indica asociación perfecta entre las variables.
1) V de Cramer: al igual que para el resto de los coeficientes, un va-
lor igual a 0 está indicando la independencia de las variables. Va-
lores próximos a 1 indican una fuerte asociación.

En la tabla 5 se presentan estas medidas para los datos del ejemplo:

Tabla 5.  Medidas de asociación


Valor p-valor
Phi –0,057 0,006
V de Cramer 0,057 0,006
Coeficiente de contingencia 0,057 0,006
Número de casos 2.277

A pesar de que todos los coeficientes o medidas son estadísticamente


significativos, dado que los valores están muy próximos a cero (0,057),
podemos afirmar que la asociación entre las variables de la tabla de con-
tingencia es muy débil.
Existe otro conjunto de medidas de asociación para variables categó-
ricas que se basan en la reducción proporcional del error que se comete
al predecir el valor de una variable (dependiente) cuando se dispone de
información de otra variable (independiente): lambda de Goodman y
Kruskal, tau de Goodman y Kruskal y el coeficiente de incertidumbre.

542
18. Introducción al análisis de datos

Una vez establecida la relación o asociación entre dos variables hay


que analizar entre qué categorías existe dicha relación. Es decir, siguien-
do la regla de Zeisel, debemos analizar para cada categoría de la variable
dependiente (que habitualmente define las filas de la tabla), qué diferen-
cias porcentuales entre cada dos columnas (definidas por la variable in-
dependiente) son estadísticamente significativas. Utilizamos la prueba z
para comparar las proporciones9 de columna para cada fila, junto con la
corrección de Bonferroni que ajusta el nivel de significación observado
debido a que se realizan comparaciones múltiples (en el caso de que la
variable independiente tenga más de dos categorías). Los resultados de
esta prueba los incluimos en la tabla en forma de subíndices. Subíndices
iguales indican que las diferencias no son estadísticamente significativas
(para α = 0,05); subíndices distintos, que sí lo son.
De la tabla 7 podemos concluir que las variables «Estado civil» y «Par-
ticipación electoral en las generales de 2011» están relacionadas entre sí,
aunque es una relación débil (puesto que todos los valores de las medidas
son estadísticamente significativos aunque están en torno a 0,165).
En la tabla 6 se incluyen los porcentajes verticales y los resultados de
la prueba z con la corrección de Bonferroni. Según vemos en la fila
«Votó», los subíndices incluidos debajo de las frecuencias de cada celda,
son todos distintos (a, b y c). Esto nos está indicando que hay relación en-
tre haber ido a votar en las elecciones generales de 2011 y el estado civil.
Además, que los tres grupos que se han considerado (casado/a, soltero/a)
difieren entre sí con respecto al porcentaje que fue a votar. Los/as casa-
dos/as fueron a votar en mayor porcentaje que los/as solteros/as (85,7%
frente a 70,7%) y que el resto (85,7% frente a 80,1%). Los/as solteros/as
votaron en un porcentaje menor que las personas agrupadas en la cate-
goría «Resto» (70,7% frente a 80,1%).

Tabla 6. Participación electoral en las elecciones generales de 2011*


Estado civil
Estado civil
Casado/a Soltero/a Resto Total
Participación Frecuencia 1.094a 469b 265c 1.828
Votó
electoral en las % de columna 85,7 70,7 80,1 80,5
elecciones Frecuencia 183a 194b 66c 443
No votó
generales de 2011 % de columna 14,3 29,3% 19,9 19,5
Frecuencia 1.277 663 331 2.271
Total % de columna 100,0 100,0 100,0 100,0

543
El análisis de datos

Tabla 7.  Medidas de asociación


Valor p-valor
Phi 0,165 0,000
V de Cramer 0,165 0,000
Coeficiente de contingencia 0,163 0,000
Número de casos 2.271

3.2  Análisis de regresión simple

Consideremos la siguiente tabla donde se muestran los primeros 10 datos


de dos variables cuantitativas X e Y. La variable X mide el PIB per cápita
de cada provincia (en euros anuales) y la variable Y es el porcentaje de
fracaso escolar (por provincia) en 200710.

Y X
20 33.378
33 16.522
42 18.659
39 20.922
17 21.235
26 19.390
32 15.759
41 24.368
26 27.017
23 25.891

El listado completo con los 52 datos representa la distribución conjunta


o bivariable de estas dos variables numéricas. Los datos no están ordena-
dos y de su observación poca información puede obtenerse. Cada provin-
cia representa un caso muestral del cual se ha obtenido información de dos
variables cuantitativas (fracaso y PIB). La representación gráfica de estos
pares de valores en los ejes cartesianos nos va a permitir analizar la forma
de la distribución conjunta y establecer alguna característica de la misma.
En el gráfico 4, denominado diagrama de dispersión o nube de pun-
tos, se ha representado el PIB per cápita de cada una de las 52 provincias
en el eje X y el fracaso escolar en el Y (aunque se podría haber hecho al
contrario).

544
18. Introducción al análisis de datos

Gráfico 4.  Diagrama de dispersión

10.000 15.000 20.000 25.000 30.000 35.000

Lo que debemos observar en este gráfico es la posición conjunta de


los puntos e intentar reconocer alguna pauta entre ellos. De forma gene-
ral, parece que, a medida que aumenta el valor del PIB (a medida que
aumentan los valores de la variable X), disminuye el porcentaje de fraca-
so escolar (disminuyen los valores de Y), aunque no es una pauta que se
cumpla para todos los puntos representados en el gráfico.
Cuando podemos expresar lo que observamos en un diagrama de dis-
persión diciendo que a medida que aumentan los valores de X, aumentan
(o disminuyen) los valores de Y, afirmamos que hay relación, correlación
o asociación lineal entre las variables X e Y. Cuanto más se parece la for-
ma de la nube de puntos a una línea recta, mayor correlación lineal ha-
brá entre las variables. La forma de la nube de puntos nos sirve para
identificar si hay relación lineal entre las variables, y si la hay, la direc-
ción (directa/positiva o inversa/negativa) y la fuerza o magnitud de dicha
relación.
Como referencia para analizar cualquier gráfico de dispersión se toma
el punto medio de la distribución conjunta ( X , Y )   y la disposición de los
puntos a su alrededor. Así como la varianza mide la dispersión con res-
pecto a la media de una distribución univariable, la covarianza mide la
variabilidad en una distribución bivariable. La covarianza entre dos va-
riables nos indica si la posible relación entre ellas es directa o positiva
(cuando su valor es positivo) o inversa o negativa (cuando su valor es ne-

545
El análisis de datos

gativo). Es decir, el signo de la covarianza nos indica si el aspecto del dia-


grama de dispersión es creciente (signo positivo) o decreciente (signo ne-
gativo). Cuando la covarianza toma el valor 0 entonces no hay
correlación entre las variables y decimos que las variables están incorre-
ladas.
Un inconveniente de la covarianza como medida de dispersión biva-
riable es que no está acotada superiormente y, por tanto, no sirve para
establecer el grado o fuerza de la relación entre las variables ni para com-
pararla entre pares de variables. Por ello, el coeficiente más adecuado
para establecer si hay relación lineal entre variables cuantitativas, la di-
rección de la relación y el grado o magnitud de la misma es el coeficiente
de correlación lineal de Pearson, rXY, que se calcula a partir de la de la
covarianza:
Este coeficiente:

1. Es adimensional (es decir, sirve para comparar relaciones lineales


entre pares de variables medidas en distintas unidades).
2. Tiene el mismo signo que la covarianza y, por tanto, valores posi-
tivos estarán indicando relaciones lineales directas o crecientes, y
valores negativos, relaciones lineales inversas o decrecientes.
3. Es igual a 0 cuando las variables están incorreladas, es decir,
cuando no hay relación lineal entre las variables. Pero un valor de
r igual a 0 no significa que las variables no estén relacionadas en-
tre sí, puesto que la relación entre ellas puede ser de otro tipo (es
decir, no lineal: cuadrática, cúbica…).
4. Sólo toma valores entre –1 y +1, donde el valor –1 indica una re-
lación lineal inversa perfecta (todos los puntos del diagrama de
dispersión estarán sobre una recta decreciente) y el valor +1, una
relación lineal directa perfecta (todos los puntos del diagrama de
dispersión estarán sobre una recta creciente).
5. El valor absoluto del coeficiente (valor sin el signo) mide la fuerza
o grado de relación lineal entre las variables. Un valor de r próxi-
mo a +1 o –1 indica una fuerte relación lineal (directa en el pri-
mer caso, inversa en el segundo), un valor próximo a 0, una rela-
ción lineal débil.

A partir del gráfico 4 hemos establecido que hay una cierta relación li-
neal inversa entre el fracaso escolar y el PIB per cápita de 2007. Tenemos
52 pares de observaciones cuyo coeficiente de correlación de Pearson es
igual a –0,43. El signo del coeficiente confirma nuestra conclusión de re-

546
18. Introducción al análisis de datos

lación lineal inversa. El valor absoluto (|–0,43| = 0,43) indica una cierta
relación lineal. La prueba de significación para el coeficiente nos permite
afirmar que éste es estadísticamente distinto de 0 (p–valor = 0,001, me-
nor que α = 0,01) y por tanto que podemos pasar a un segundo estadio
en el establecimiento de relaciones lineales entre variables cuantitativas
que conlleva la identificación de la recta que mejor se ajuste al diagrama
de dispersión.
Una vez que se ha establecido, tanto a partir del diagrama de disper-
sión como del coeficiente de correlación lineal de Pearson, que hay una
relación lineal entre dos variables cuantitativas, para construir la recta
que mejor representa el conjunto de datos hay que identificar primero
cuál es la variable dependiente y cuál la independiente. Para el análisis de
correlación no es necesaria esta identificación (puesto que la correlación
entre X e Y es la misma que entre Y y X), pero para construir la ecuación
de la recta es necesario identificar qué valores vamos a expresar en fun-
ción de los otros. La ecuación y = b0 + b1 x define una recta. Dando valo-
res a x, obtenemos los valores de y. Su gráfica es una recta que corta al
eje Y en el punto (0, b0) y cuya inclinación o pendiente es igual al valor
de b1. El signo de la pendiente (positivo o negativo) establece si la recta es
creciente o decreciente.
Dado un conjunto de n pares de observaciones (Xi ,Yi), para las cua-
les se ha establecido que existe una relación lineal, llamamos ecuación de
regresión lineal simple al modelo lineal que expresa las observaciones de
la variable dependiente Y en función de las observaciones de la variable
independiente X más un término independiente que llamaremos error o
residuo, de forma que:

Yi = f ( X i ) + ei = b1 X i + b0 + ei o bien Yˆ = b0 + b1 X (prescindiendo del


subíndice).

Yi e Yˆi rara vez coincidirán por muy bueno que sea el modelo de regre-
sión lineal. La cantidad ei = Yi − Yˆi  se denomina error o residuo.
El modelo de regresión lineal se construye utilizando el criterio de es-
timación por mínimos cuadrados que consiste en calcular los valores de
b0 y b1 que hacen mínimos los residuos del modelo. Es decir, de todas las
rectas que se pueden construir a partir de la nube de puntos, vamos a se-
leccionar aquella que se aproxime lo más posible a todo el conjunto. Se
trata por tanto de encontrar los valores de b0 y b1 tal que la suma de los
cuadrados de los residuos sea lo más pequeña posible (mínima), de ahí el
nombre de «estimación por mínimos cuadrados».

547
El análisis de datos

Las expresiones para los coeficientes de la ecuación de regresión lineal


simple son:
sY
b1 = r b0 = Y − b1 X  
sX

donde s X es la desviación típica de la distribución marginal11 de X y sY la


de Y; r es el coeficiente de correlación lineal de Pearson entre X e Y, X
es la media de las observaciones X i e Y es la media de las observaciones Yi .
Con esta estimación, además:

1. El error residual medio es nulo (es decir, la media de los residuos


1. 
vale 0).
2. La varianza del error residual es mínima.
2. 

Para los 52 pares de observaciones que estamos analizando la cons-


tante vale 45,024 y la pendiente –0,001, por tanto la expresión de la ecua-
ción de regresión será: Y^= –0,001X + 45,024. Para cada uno de los coefi-
cientes de la ecuación de regresión se realiza una prueba t para contrastar
si los valores obtenidos se pueden considerar distintos de cero12. En este
caso, los p-valor asociados a ambas pruebas t son menores que 0,05 y
por tanto rechazamos las dos hipótesis nulas y concluimos que los pará-
metros son distintos de 0.
¿Cómo interpretamos los valores de b0 y b1? Es fácil ver que b0 es el
valor de la predicción Yˆ cuando X = 0. Sólo cuando tenga sentido que
la variable independiente X tome el valor 0 interpretaremos el valor de la
constante del modelo de regresión. En nuestro ejemplo, ¿podría existir
algún municipio con PIB per cápita igual a 0? Ciertamente no, pero su-
pongamos que sí, entonces el valor de b0 lo interpretaríamos como el
porcentaje de fracaso escolar en dicho municipio de PIB per cápita cero
(aproximadamente un 45%).
El valor de la pendiente b1 lo interpretamos como la cantidad que
aumenta (o disminuye si la pendiente es negativa) la variable dependiente
cuando la variable independiente se incrementa una unidad.
A pesar de que los coeficientes de la ecuación de regresión lineal sim-
ple se calculan de forma que los residuos sean mínimos, esto no quiere
decir que el ajuste conseguido sea bueno: la mejor recta posible no tiene
por qué ser buena. Para medir lo bueno que es dicho ajuste, se utiliza el
coeficiente de determinación R2. Este coeficiente es una medida de la
bondad del ajuste y toma valores entre 0 y 1 (0 cuando las variables son

548
18. Introducción al análisis de datos

independientes y 1 cuando la relación es perfecta). Además, R2 pone en


relación la variabilidad de los residuos con la variabilidad de la variable
dependiente Y. Una de las fórmulas para calcular R2 es la siguiente:
Se2 .
R2 = 1 −  
SY2
Se suele expresar como un porcentaje y se interpreta como el porcen-
taje de varianza que la variable independiente (el modelo de regresión)
explica de la variable dependiente. Es importante resaltar en este mo-
mento que el análisis de regresión no permite afirmar que las relaciones
detectadas sean de tipo causal: sólo es posible hablar de grado de rela-
ción. En el modelo de regresión simple, se cumple que R2 = r2.
El resultado para nuestro ejemplo sobre el fracaso escolar es
R2 = 0,19.
Debido a que el coeficiente de determinación aumenta por el simple
hecho de incluir más variables en la ecuación de regresión, se utiliza el
valor de R2corregida (por el número de variables independientes) para anali-
zar lo buena que es la variable independiente para predecir la variable de-
pendiente. En el año 2007 casi un 17% de la variabilidad del fracaso es-
colar se debía a la variabilidad del PIB per cápita de la provincia
(R2corregida = 0,17).
Para garantizar la validez del modelo de regresión lineal simple esti-
mado deben cumplirse los siguientes supuestos:

1.  Linealidad (la relación entre la variable dependiente y la variable


independiente debe ser lineal).
2.  Independencia (los residuos ei son independientes entre sí, es de-
cir, no están autocorrelacionados).
3.  Homocedasticidad (para cada valor de la variable independiente,
la varianza de los residuos es constante).
4.  Normalidad (para cada valor de la variable independiente, los re-
siduos se distribuyen como una distribución normal de media 0).

El gráfico de dispersión o nube de puntos nos permite la comproba-


ción del primer supuesto. Con el análisis de los residuos del modelo esti-
mado podemos confirmar el cumplimiento de los otros tres. El estadísti-
co de Durbin-Watson proporciona información sobre la independencia
de los residuos. Si su valor varía entre 1,5 y 2,5 asumiremos la indepen-
dencia de los residuos. El estadístico Durbin-Watson para nuestros datos
vale 1,98 y por tanto podemos asumir que los residuos no están autoco-
rrelacionados.

549
El análisis de datos

Para comprobar los supuestos de homocedasticidad y normalidad de


los residuos se utilizan una serie de gráficos y pruebas de hipótesis dispo-
nibles en cualquier programa estadístico.

3.3 Contrastes de hipótesis e intervalos de confianza para dos


poblaciones

A continuación se presenta un resumen de las posibles situaciones con


las distribuciones muestrales y los estadísticos de contraste tanto para la
diferencia de medias como para la de proporciones.

A. Contraste para la diferencia de medias con observaciones independientes


La distribución muestral de la diferencia de medias ( X 1 − X 2 ) sigue
  una
σ 12 σ 22
(
distribución N µ1 − µ 2 , σ X2
1−X2
)  donde σ X2 − X = σ X2 + σ X2 =
1 2 1 2
n1
+
n2
 

H 0 : µ1 = µ2 ⎫ H 0 : µ1 − µ2 = 0⎫
⎬ ⎬  
H1 : µ1 ≠ µ2 ⎭ H1 : µ1 − µ2 ≠ 0 ⎭

Supuestos: ambas poblaciones normales (o cualquier distribución en


caso de muestras grandes). Muestreo aleatorio simple de tamaños n1 y n2.
Nivel de significación α.

1) Cuando se conocen las varianzas poblacionales σ 12  y σ 22  


( X 1 − X 2 ) − ( µ1 − µ2 )
Estadístico de contraste (o z-test): z = .   Su-
σ 12 σ 22
+
n1 n2
puesto que la hipótesis nula es cierta, z sigue una distribución
normal de media 0 y desviación típica 1. Si |z| > zc entonces re-
chazamos H0.
2) Cuando no se conocen las varianzas poblacionales pero se asu-
men que son iguales
Estadístico de contraste (o t-test):

( X 1 − X 2 ) − ( µ1 − µ2 ) X − X2
t= = 1   donde
s X1 − X 2 1 1
s +
n1 n2

550
18. Introducción al análisis de datos

2 ( n1 − 1) s12 + ( n2 − 1) s22
s =  . Asumiendo que la hipótesis nula es
n1 + n2 − 2
cierta, este cociente t sigue una distribución t de Student con n-1
grados de libertad donde s X1 − X 2   es un estimador del error típico
de la distribución muestral de la diferencia de medias. El p–valor
asociado a t (lo facilitan todos los programas de análisis estadísti-
co) se compara con α, si p < α, rechazaremos H0, en caso contra-
rio no podemos rechazar la hipótesis nula.
3) Cuando no se conocen las varianzas poblacionales y asume que
son distintas
Estadístico de contraste (o t–test):
( X 1 − X 2 ) − ( µ1 − µ2 ) X − X2
t= = 1 .   Asumiendo que la hipótesis
s X1 − X 2 s12 s22
+
n1 n2
nula es cierta, este cociente t sigue una distribución t de Student
2
⎛ s12 s22 ⎞
⎜ + ⎟
n n2 ⎠
con grados de libertad igual a gl = 2 ⎝ 12 − 2 .   El
( s1 / n1 ) ( s22 / n2 ) 2
+
n1 − 1 n2 − 1
p-valor asociado a se compara con α, si p < α, rechazaremos H0,
en caso contrario no podemos rechazar la hipótesis nula.

B.  Contraste para la diferencia de medias con observaciones dependientes

Cuando no se conocen las varianzas poblacionales y se asume que son


distintas, el estadístico de contraste (o t-test) es:
( X 1 − X 2 ) − ( µ1 − µ2 ) X1 − X 2
t= =  
donde r es el coeficiente
s X1 − X 2 s X2 1 + s X2 2 − 2rs X1 s X 2
de correlación. Asumiendo que la hipótesis nula es cierta, este cociente t
sigue una distribución t de Student con n – 1 grados de libertad. El p–va-
lor asociado a t se compara con α, si p < α, rechazaremos H0, en caso
contrario no podemos rechazar la hipótesis nula.
La expresión del intervalo de confianza para la diferencia de medias
al 95% es la siguiente: , .

551
El análisis de datos

C. Contraste
C. Contraste para la diferencia de proporciones con observaciones inde-
pendientes
H 0 : π1 = π 2 ⎫⎫ H 0 : π1 − π 2 = 0⎫⎫
⎬⎬ ⎬⎬  
H1 : π1 ≠ π 2 ⎭⎭ H1 : π1 − π 2 ≠ 0 ⎭⎭

Supuestos: poblaciones binomiales de parámetros π1 y π2. Muestreo alea-


torio simple de tamaños n1 y n2. Nivel de significación α.
p1 − p2
Estadístico de contraste (o z–test): z =   donde
⎛⎛ 1 1 ⎞⎞
p(1 − p) ⎜⎜ + ⎟⎟
⎝⎝ n1 n2 ⎠⎠
n1 p1 + n2 p2
p= . Este cociente z sigue una distribución normal (0,1).
n1 + n2
Si |z| > zc entonces rechazamos H0.

La expresión del intervalo de confianza para la diferencia de propor-


ciones es la siguiente ( p1 − p2 ) ± z1−α s p1 − p2   .
1− 1 2
2

3.4  Análisis de la varianza (ANOVA)


3.4

El Centro de Investigaciones Sociológicas, en el estudio 3033 de julio de


2014, planteó la siguiente pregunta a los/as entrevistados/as: «En térmi-
nos generales, ¿en qué medida se considera Ud. una persona feliz o infe-
liz? Por favor, use una escala de 0 a 10, en la que 0 significa que se consi-
dera “completamente infeliz” y 10 que se considera “completamente
feliz”». Teniendo en cuenta esta información nos preguntamos si la si-
tuación económica personal (muy buena/buena, regular o mala/muy
mala) condiciona el grado de felicidad de la población española. Ya sa-
bemos, por lo expuesto en el apartado de contrastes de hipótesis, que
para comprobar si las medias de dos poblaciones son iguales tenemos
que llevar a cabo una prueba t (dado que no es habitual conocer la va-
rianza de la población). Por tanto, podríamos plantearnos realizar tres
contrastes de diferencia de medias para contestar a la pregunta plantea-
da. Tres contrastes porque en este caso tenemos que comparar dos a dos
los tres grupos que definen la percepción de la situación económica per-
sonal. Es decir, podríamos pensar que para contrastar la hipótesis nula
H0: μµBuena= μ
µRegular= μ
µMala bastaría con decidir sobre las siguientes tres
hipótesis H0: μ µBuena= μ
µRegular, H0: μ
µBuena= μ
µMala, H0: μ
µRegular= μ
µMala y concluir

552
18. Introducción al análisis de datos

que las medias no son iguales cuando rechacemos al menos una de ellas.
El problema de esta estrategia está relacionado con el nivel de significa-
ción α. ¿Cuál es la probabilidad de rechazar la hipótesis nula siendo cier-
ta cuando tenemos que realizar más de una prueba t? Se ha demostrado
que cuando las pruebas t son independientes entre sí y hay que realizar C
pares de comparaciones (3 en el caso de 3 medias, 10 en el caso de 5 me-
dias, J(J-1)/2 en el caso de J medias o grupos), entonces la probabilidad
de cometer al menos un error de tipo I igual a α viene dada por la si-
guiente fórmula: p = 1 − (1 − α )C .   Así, en el caso de tres comparaciones
independientes, la probabilidad de cometer al menos un error de tipo I
con α = 0,05 sería de 0,14 y en el caso de 10, esa probabilidad se dispara
a 0,90.
La técnica estadística conocida como análisis de varianza (ANOVA:
analysis of variance en su denominación en inglés), desarrollada en los
años cincuenta del pasado siglo por el estadístico inglés Sir Ronald Fisher,
permite controlar el valor de α cuando se contrasta la igualdad simultánea
de cualquier número de medias. Con el análisis de varianza se examinan si-
multáneamente todos los pares de medias que se pueden formar con las J
medias para ver si una o más se desvían significativamente de una o más
de las otras medias. El análisis de varianza es el análisis apropiado para
comprobar si al menos una de las J medias difiere de al menos una de las
otras J medias en una cantidad mayor de la que se esperaría por azar. Por
tanto, la hipótesis nula que se contrasta en el análisis de varianza cuando
tenemos J grupos la expresamos de la siguiente forma:
H 0 : µ1 = µ2 = ... = µJ  
Y lo que afirma la hipótesis alternativa correspondiente es que al me-
nos una de las J medias es distinta de alguna otra, es decir:
H1 : ∃i, j con i ≠ j / µi ≠ µ j  
En el contexto del análisis de la asociación entre variables, el análisis
de varianza es la técnica adecuada para establecer si hay o no relación
entre una variable dependiente cuantitativa (para la cual calculamos la
media) y una variable independiente categórica (que define los grupos en
los que comparamos las medias)13. Si no podemos rechazar la hipótesis
nula de igualdad de medias, concluiremos que no hay relación/asociación
entre las variables, pero si la rechazamos, entonces tendremos que identi-
ficar cuáles son las medias que difieren entre sí.
Supongamos que la hipótesis nula H 0 : µ1 = µ2 = ... = µ J  es cierta. Es
decir, que las J medias poblacionales sobre las que deseamos tomar una

553
El análisis de datos

decisión inferencial son todas iguales. Esta hipótesis, cuando se conside-


ra con los supuestos del análisis de varianza14 implica que hay J pobla-
ciones, todas ellas normales y con idénticas medias μµ y varianzas, σ2. Di-
cho de otra forma, si la hipótesis nula es cierta, no hay J poblaciones
diferentes, hay sólo una. Entonces, cuando se seleccionan las J muestras,
cada una de tamaño nj, en realidad se están seleccionando J muestras in-
dependientes de una única distribución normal de media μµ y varianza σ2
(Hopkins y Glass, 1978).
El análisis de varianza se basa en descomposición de la variabilidad
total de las observaciones o «suma de cuadrados total» en dos fuentes de
variación: la variabilidad debida a la variable independiente/tratamiento,
es decir, a las diferencias entre la media general y los grupos, llamada va-
riación intergrupos o «suma de cuadrados intergrupos», y la variabilidad
debida a las diferencias entre las unidades observacionales y las medias
grupales, denominada variación intragrupos o «suma de cuadrados in-
tragrupos»:

Variabilidad total = Variabilidad intergrupo + Variabilidad intragrupos


Variabilidad Inter
El cociente F = , también llamado F-ratio, debería
Variablidad Intra
tomar valores próximos a 1 cuando la hipótesis nula es cierta, puesto que
tanto el numerador como el denominador son estimadores independien-
tes de σσ22..
Para decidir cuánto de grande tiene que ser el valor del F-ratio o F-
test para rechazar la hipótesis nula, o a partir de qué valor de F vamos
a rechazar H0, utilizamos la distribución F de Fisher-Snedecor corres-
pondiente al nivel de significación fijado para el análisis y los grados de
libertad correspondientes al numerador y al denominador de F. A par-
tir de esta distribución se calcula la probabilidad de que, siendo cierta
la hipótesis nula, un valor de F igual o mayor que el obtenido con los
datos empíricos pertenezca a dicha distribución. Si esa probabilidad,
llamada p–valor, es es menor
menor que
que elel nivel
nivelde significaciónααfijado
designificación fijadoa apriori,
prio-
ri, entonces rechazaremos la hipótesis nula, en caso
entonces rechazaremos la hipótesis nula, en caso contrario, no podre- contrario, no po-
dremos
mos rechazar
rechazar H 0. HQue
0
. Que p sea
p sea menormenor α implica
queque α implica
que que el valor
el valor de Fde F
ob-
obtenido
tenido está está
en en la zona
la zona de de aceptación
aceptación de de la hipótesis
la hipótesis nulanula definida
definida en en
la
la curva
curva de de la distribución
la distribución F correspondiente
F correspondiente a partir
a partir α yαlos
de de y los grados
grados de
de libertad
libertad (tabla
(tabla 8). 8).

554
18. Introducción al análisis de datos

Tabla 8.  Tabla de ANOVA


J = Número de grupos n = Número de observaciones

Suma Grados
Fuente de Signifi­-
de de Media cuadrática F-ratio Decisión
variación cación
cuadrados libertad

Entre grupos p p<α


(debida a la v. SCInter J-1 Rechazar H0
SCInter   MCInter  
MCInter =
J − 1 F = MC
independiente/ F > Fc
factor / Intra Rechazar H0
tratamiento)

En los grupos SCIntra n-J


(debida al
SCIntra  
error MCIntra =
experimental/ n−J
otros factores)

Total SCTotal = n-1


SCInter +
SCIntra

Términos empleados

Suma de cuadrados total: Suma de las diferencias entre las observaciones


y la media total elevadas al cuadrado.

Suma de cuadrados entre grupos: Suma de las diferencias entre las medias
de cada grupo y la media total elevadas al cuadrado y multiplicadas por
el tamaño del cada grupo (nj).

Suma de cuadrados en los grupos: Suma de las diferencias entre las obser-
vaciones y la media de cada grupo elevadas al cuadrado.

Media cuadrática entre grupos: Varianza de las medias de los J grupos


(estimador de la varianza poblacional).

Media cuadrática en los grupos: Media de las J varianzas muestrales (esti-


mador de la varianza poblacional).

555
El análisis de datos

En el siguiente gráfico representa una distribución F de Fisher–Snede-


cor genérica, con J–1 y n–J grados de libertad y un nivel de significación
α, que define el tamaño del área de rechazo de la hipótesis nula H0.

A continuación se presentan comentadas las tablas que proporciona el


programa IBM-SPSS para el procedimiento ANOVA de un factor con
las preguntas P25 (Escala sobre el grado de felicidad) y P30 (Situación
económica personal en la actualidad) del estudio 3033 del CIS. Este aná-
lisis nos permitirá decidir si ambas variables están o no relacionadas en-
tre sí, en función de si rechazamos o no la hipótesis nula de igualdad en-
tre las medias H0: µBuena= µRegular= µMala.
En este caso, la variable independiente o factor que define los grupos
es la P30, con tres categorías (situación económica muy buena/buena, re-
gular o mala/muy mala). La variable dependiente que analizaremos en
cada grupo es la P25, referente a la escala de felicidad.
En primer lugar, tenemos una tabla con los estadísticos descriptivos
básicos:

Descriptivos
P.25. Escala de felicidad personal (0-10)
Intervalo de confianza
Desviación Error para la media al 95%
N Media Mínimo Máximo
típica típico Límite Límite
inferior superior
Muy buena/
699 7,70 1,486 0,056 7,59 7,81 1 10
buena
Regular 1.161 7,15 1,667 0,049 7,05 7,24 0 10
Mala/muy
580 6,00 2,318 0,096 5,81 6,19 0 10
mala
Total 2.440 7,03 1,902 0,039 6,96 7,11 0 10

556
18. Introducción al análisis de datos

En la escala de felicidad personal de 0 a 10 utilizada en el estudio del


CIS, la media del total de entrevistados/as alcanza un valor de 7,03 pun-
tos con una desviación típica de 1,9. Al subdividir la muestra en los tres
grupos que define la pregunta P30 observamos que los/as más felices,
con una media de 7,7 puntos, son, como era de esperar, los/as que tienen
una situación económica buena o muy buena. Este grupo representa el
28,4% del total de entrevistados. Con la media más baja, 6 puntos sobre
10, está el grupo que considera que su situación económica personal es
mala o muy mala en la actualidad, grupo conformado por el 23,8% de la
muestra. Entre ambas puntuaciones, con una media de 7,15 en la escala
del grado de felicidad, está el 47,8% que tiene una situación económica
regular.
A la vista de estos resultados, ¿podemos afirmar que el grado de felici-
dad es distinto en los tres grupos establecidos por la P30? ¿Son las dife-
rencias entre las medias observadas lo suficientemente grandes como
para rechazar la hipótesis nula y concluir que la situación económica
condiciona la felicidad personal?
Antes de analizar la tabla ANOVA correspondiente, vamos a compro-
bar los supuestos de normalidad y homocedasticidad que requiere este
análisis (está claro que las observaciones son independientes entre sí).
Con respecto a la normalidad, no tenemos que preocuparnos ya que el
análisis de varianza es «robusto» frente a este supuesto si los tamaños de
los grupos son grandes. Es decir, el estadístico F se comporta bien inclu-
so con distribuciones poblacionales alejadas de la normalidad siempre
que los tamaños de los grupos sean lo suficientemente grandes, como es
en nuestro caso. Para comprobar si las varianzas de los grupos son igua-
les, el programa IBM-SPSS proporciona la prueba de Levene, prueba
que contrasta la hipótesis nula H 0 : σ 12 = σ 22 = ... = σ J2  :

Prueba de homogeneidad de varianzas


P.25. Escala de felicidad personal (0-10)
Estadístico de Levene gl1 gl2 Sig.
61,338 2 2.437 0,000

Dado que el p-valor de la prueba (0,000) es menor que α = 0,05, debe-


mos rechazar la hipótesis de homocedasticidad o igualdad de varianzas.
Por ello, en vez de utilizar el estadístico F para contrastar la hipótesis
nula de igualdad de medias, utilizaremos las pruebas robustas de igual-
dad de medias (el estadístico de Welch y el estadístico de Brown-Forsythe)

557
El análisis de datos

que facilita el programa IBM-SPSS para los casos en los cuales no se


puede asumir que las muestras provengan de poblaciones con varianzas
iguales.

Pruebas robustas de igualdad de las medias


P.25. Escala de felicidad personal (0-10)
Estadísticoa gl1 gl2 Sig.
Welch 118,345 2 1.275,872 0,000
Brown-Forsythe 133,216 2 1.478,791 0,000
a
Distribuidos en F asintóticamente.

La significación o p–valor de ambos estadísticos nos llevan a rechazar


la hipótesis nula de igualdad de las medias, ya que 0,000 < 0,05, nivel de
significación que se fija habitualmente.
Por tanto podemos concluir que la situación económica personal in-
fluye en la felicidad personal. Pero ¿son todas las medias distintas? ¿Son
todas las diferencias dos a dos estadísticamente significativas o sólo la
diferencia extrema entre el grupo de los que tienen una situación econó-
mica holgada y el grupo de los que no llegan a final de mes lo es? Puesto
que las pruebas robustas nos han llevado a rechazar la hipótesis de igual-
dad de medias, podemos afirmar que la diferencia mayor (entre la media
mayor y la media menor) es estadísticamente significativa. Es decir, que
los 2,7 puntos de diferencia que hay entre los 7,7 puntos de los/as que
gozan de una economía solvente y los 6 de los/as que no, son estadística-
mente significativos. Ahora tenemos que comprobar si las otras dos dife-
rencias restantes (7,7 – 7,15 y 7,15 – 6,0) también son significativas. Para
ello nos basamos en un tipo especial de contraste denominado compara-
ciones múltiples post hoc o a posteriori. El programa IBM-SPSS facilita,
tanto en el caso de poder asumir varianzas iguales como cuando no, va-
rios contrastes basados en distintos estadísticos para las comparaciones
dos a dos entre todos los grupos, una vez que se ha rechazado la hipóte-
sis nula. Estas comparaciones permiten controlar la probabilidad de co-
meter errores tipo I al tomar varias decisiones.
Para el ejemplo que nos ocupa, en el cual no podemos asumir que las
varianzas poblacionales sean iguales, hemos seleccionado la prueba de
Games-Howell, obteniendo los siguientes resultados:

558
18. Introducción al análisis de datos

(I) P3.- Valoración (J) P3.- Valoración Diferencia Error Sig. Intervalo de
de la situación de la situación de medias típico confianza al 95%
económica personal económica personal (I-J)
Límite Límite
actual actual
inferior superior

Muy buena/buena Regular 0,554* 0,075 0,000 0,38 0,73


Mala/muy mala 1,704* 0,111 0,000 1,44 1,97
Regular Muy buena/buena –0,554* 0,075 0,000 –0,73 –0,38
Mala/muy mala 1,150* 0,108 0,000 0,90 1,40
Mala/ muy mala Muy buena/buena –1,704* 0,111 0,000 –1,97 –1,44
Regular –1.150* 0,108 0,000 –0,40 –0,90
* La diferencia de medias es significativa al nivel 0,05.

Como puede observarse en la tabla anterior, todas las diferencias dos


a dos resultan estadísticamente significativas (todos los p-valores son me-
nores que 0,05), por lo tanto podemos concluir que el grado medio de fe-
licidad en cada uno de los tres grupos que define la situación económica
personal en la actualidad es diferente.

Notas
1  Los datos provienen de los barómetros del Centro de Investigaciones Socioló-
gicas: www.cis.es.
2  La traducción literal sería «tronco y hojas» y «caja y bigotes». Se ha genera-
lizado el uso de «tallo» en vez de «tronco» y como la idea de «caja» revela bastan-
te bien el tipo de técnica de que se trata, no merece la pena añadirle los «bigotes».
3  H0 hace referencia a un valor concreto del parámetro. Cuando el p–valor
es mayor que α, diciendo «No rechazamos H0» en vez de «Aceptamos H0», esta-
mos enfatizando que ese valor es uno de los valores posibles del parámetro (el
intervalo de confianza nos da el rango de valores entre los que se encontrará el
parámetro si no rechazamos H0) (Agresti y Finlay, 2009).
4 Que una diferencia no sea estadísticamente significativa no implica que no
sea sociológica, política o científicamente importante.
5  Cuando el valor de la hipótesis nula está dentro del intervalo de confianza
no podemos rechazar H0.
6  El error típico es la desviación típica de una distribución muestral.
7  Por el teorema central del límite, que afirma que si el tamaño de la muestra
es lo suficientemente grande (n ≥ 30), sea cual sea la distribución de los datos en
la población, la distribución muestral de la media (y de otros estadísticos) se
aproxima a una distribución normal.
8  Pregunta P22 del estudio 3033 del CIS:

559
El análisis de datos

¿Cuál de las siguientes frases diría Ud. que expresa mejor sus sentimientos?
— Se siente únicamente español/a.
— Se siente más español/a que (gentilicio C.A.).
— Se siente tan español/a como (gentilicio C.A.).
— Se siente más (gentilicio C.A.) que español/a.
— Se siente únicamente (gentilicio C.A.).
— (NO LEER) Ninguna de las anteriores.
— N.S.
— N.C.
9 Véase el apartado 3.3 para una explicación del contraste de diferencia de
proporciones.
10  Fuente: Elaboración propia a partir de datos del INE y del Instituto F de
Investigación Educativa.
11  En el contexto bivariable se llama distribución marginal a la distribución
univariable de cada variable.
12  Dado el modelo poblacional Ŷ = β0 + β1 X   los dos contrastes que se plan-
tean son:
H 0 : β 0 = 0 ⎫ H 0 : β1 = 0 ⎫
⎬ y ⎬  
H1 : β 0 ≠ 0 ⎭ H1 : β1 ≠ 0 ⎭

13  En los diseños experimentales, la variable tratamiento o factor juega el


papel de variable independiente en el análisis de varianza (variable categórica
que define los grupos) y la variable analizada en cada tratamiento o nivel del
factor el de variable dependiente (variable cuantitativa para la que se calcula la
media en cada grupo).
14  Normalidad, homocedasticidad o igualdad de varianzas e independencia
de las observaciones en las poblaciones.

Bibliografía recomendada
García Ferrando, M. (1985): Introducción a la Estadística en Sociología, Madrid,
Alianza Universidad.
IBM-SPSS Statistics Base 22: ftp://public.dhe.ibm.com/software/analytics/spss/do-
cumentation/ statistics/22.0/es/client/Manuals/IBM_SPSS_Statistics_Base.pdf.
Martín, Q. (2001): Contrastes de hipótesis, Salamanca, La Muralla.
Mulberg, J. (2005): Cómo descifrar cifras. Una introducción al análisis de datos,
México, D.F., Fondo de Cultura Económica.
Peña, D. (1999): Estadística: modelos y métodos. Vol. 1, Fundamentos, Madrid,
Alianza.
Peña, D., y Romo, J. (2003): Introducción a la Estadística para las ciencias socia-
les, Madrid, McGraw-Hill.
Tejedor, F. (1999): Análisis de varianza, Salamanca, La Muralla.

560
19.  El análisis multivariable

Modesto Escobar

1. Introducción

Como se ha podido deducir en el capítulo anterior, el análisis de datos


aplicado está construido sobre los cimientos de dos conceptos básicos: el
de caso, referido a la unidad de recogida de información, y el de variable
o característica susceptible de adquirir distintas modalidades. El primero
atañe a la pregunta sobre qué personas, entidades u objetos se observan,
mientras el segundo tiene que ver con la cuestión sobre qué característi-
cas son consideradas en la realidad estudiada. En análisis más complejos
que no serán abordados en este capítulo, entraría en consideración el
concepto de tiempo, concerniente al interrogante de cuándo se ha obte-
nido la información de los casos analizados.
El análisis de datos persigue la descripción, comparación, reducción,
clasificación, explicación o previsión de resultados a través del examen
de las informaciones obtenidas de una serie determinada de objetos. Sus
elementos básicos son las variables, que pueden ser analizadas en distin-
tos niveles de complejidad: se procede al análisis univariable si se las es-
tudia una a una y se analiza la distribución de una sola característica en
un conjunto de objetos. De este modo, solo podríamos describir la infor-
mación disponible mediante la media, los porcentajes, la varianza, la
desviación típica u otros estadísticos que reflejen una determinada carac-

561
El análisis de datos

terística de las distribuciones. Con más complejidad, si se persigue la


comparación o el estudio de la asociación existente entre un par de ca-
racterísticas, se pasaría a los problemas bivariables, con otros tipos de
medidas como las diferencias de medias o porcentajes y los coeficientes
de asociación. Ahora bien, para la comprensión de los fenómenos natu-
rales y especialmente los sociales, es necesaria la introducción conjunta
de más de dos características, para lo que se necesitan técnicas que per-
mitan la consideración simultánea de más de dos variables.
Tras esta presentación de análisis multivariable, conviene comenzar
por su definición y presentar las distintas técnicas existentes para el estu-
dio de más de dos variables al mismo tiempo. Para ello, se procederá des-
de las clasificaciones más globales a las más concretas, para describir so-
meramente una selección de análisis multivariables. Posteriormente, se
descubrirán conceptos centrales para realizar estos análisis y finalmente,
a través de un ejemplo común, se explicarán con más detalle los análisis
básicos que consideramos más empleados en cada categoría: el análisis
factorial, la regresión múltiple, la regresión logística y el análisis de seg-
mentación.

2.  Definición y clasificaciones del análisis multivariable

Diríase, por tanto, que el análisis multivariable surge de la necesidad de


analizar simultáneamente más de dos variables de las distintas unidades de
análisis y se podría definir, en un sentido amplio, como aquellos procedi-
mientos que abordan la distribución o la relación existente entre tres o más
variables. Estadísticamente, se tiende a emplear el concepto de multivarian-
te más que el de multivariable, por responder a la idea de que se trabaja con
modelos de variables aleatorias (variantes), en lugar de variables empíricas.
Sin embargo, en la literatura sociológica se ha preferido emplear el de mul-
tivariable (García Ferrando, 1984; Sánchez Carrión, 1984 y Cea, 2002).
De esta simple introducción al concepto de análisis multivariable se
deduce la importancia de su uso, pues reducir la investigación a las rela-
ciones y comparaciones entre pares de variables supondría una extraor-
dinaria simplificación de la realidad. En cualquier caso, la metodología
multivariable no es una panacea, pues la calidad de sus resultados depende
de los datos con los que se trabaje y está constreñida a una serie de mo-
delos de tratamientos de la información.
En primer lugar, es preciso mencionar la clásica clasificación de Ken-
dall (1975), mencionada en la mayor parte de textos, como así lo hacen

562
19. El análisis multivariable

Hair et al. (1999), que está basada en tres juicios que el analista puede
adoptar en función de la naturaleza y la utilización de los datos: 1) si las
variables pueden ser clasificadas o no en dependientes e independientes,
es decir, si se asume la existencia o no de relaciones causales entre varia-
bles; 2) si existe un modelo de dependencia, hay que determinar cuántas
variables dependientes han sido incluidas en el análisis, y 3) cómo se han
medido las variables, distinguiendo al efecto entre variables métricas
(cuantitativas) y no métricas (cualitativas). A partir de tales cuestiones, a
cada problema le correspondería un determinado tipo de análisis. Cara a
la presentación de las distintas modalidades de éstos, vamos a proseguir
con la tipología propuesta por Kendall a la que se le añadirá la dimen-
sión de la finalidad del análisis.
A este respecto, pueden distinguirse, de acuerdo con Payne y
O’Muircheartaigh (1977), dos grandes tipos de análisis: el primero tiene
como fin la búsqueda de una estructura y se emplea para el descubrimien-
to de regularidades o irregularidades en los datos. En estos modelos la
teoría sólo determina las variables a incluir; pero no se especifica la pre-
cisa fórmula funcional que las relaciona. El segundo tipo son las técnicas
de ajuste de modelos, aplicables en aquellas áreas en las que el conoci-
miento predice una determinada clase de relaciones entre las variables y
encuentra en el análisis un instrumento para probar la bondad de ajuste
de los datos al modelo establecido.
Similar a esta clasificación es la que presenta Sánchez Carrión (1984) en
su Introducción a las técnicas de análisis multivariable, donde se abordan las
técnicas de ajuste de modelos y se distinguen aquellos procedimientos que
persiguen la reducción (eliminación de la información redundante y con-
servación de lo esencial) de los que permiten la clasificación de los sujetos
(agrupamiento de los individuos por la similitud en un conjunto múltiple
de características) entre las técnicas de búsqueda de estructuras. Esta tri-
partita división de los análisis multivariables se puede expresar mediante la
finalidad u objetivo de su aplicación. Si el objetivo es explicar, acudiremos
a aquellos análisis basados en los ajustes de modelos; si el fin es resumir un
conjunto amplio de datos, se acudirá a las técnicas de reducción; y si el
propósito es agrupar a los objetos por sus similitudes, se hará uso de técni-
cas con la finalidad de clasificar.
Por su parte, García Ferrando (2004: 384), además de distinguir entre
análisis de dependencia y de independencia, diferencia aquellas técnicas
que están centradas en las variables, las que se articulan en torno a las
unidades de información, es decir los casos, y las que parten de la seme-
janza entre los objetos.

563
El análisis de datos

En el cuadro 1 se clasifican los análisis multivariables más comunes de


acuerdo a los criterios expuestos. En las filas aparecen las tres grandes fi-
nalidades de los análisis: resumir, explicar, clasificar; en las columnas se
distinguen los modelos sin variable respuesta o dependiente de aquellos
en los que sí hay distinción entre resultados o variables dependientes, por
un lado, y predictores o variables independientes, por el otro. Finalmen-
te, mediantes símbolos se indica si los modelos de dependencia admiten
más de una variable dependiente y si cada una de estas técnicas admiten
o no variables no métricas.

Cuadro 1.  Clasificación de los análisis multivariables


Finalidad Modelos de interdependencia Modelos de dependencia
     
Análisis factorial
Resumir Análisis de correspondencias (*)
Escalas multidimensionales2 (*)
 
Correlaciones canónicas (&) (=) Ecuaciones estructurales
Explicar Log-lineal (*) (=) Análisis de (co)varianza (/*)
Regresión múltiple
    Logit/Probit/Multilogit (*/)
  Análisis discriminante (*/)
Clasificar   Análisis de segmentación1 (*/*)
Análisis de conglomerados 1
 
(*) Variables no métricas. (*/) V. dependientes no métricas. (/*) V. independientes no métricas.
(*/*) V. dependientes e independientes no métricas. (=) Más de una variable dependiente. (&) Dos
conjuntos de variables métricas.
1
Técnicas basadas en las unidades de información.
2
Técnicas basadas en la semejanza de objetos. El resto de técnicas están centradas en las variables.

3.  Procedimientos de análisis multivariables


Tras estas primeras clasificaciones, se realiza una primera presentación
de los distintos procedimientos existentes para el estudio conjunto de
más de dos variables. Para ello, se partirá desde las clasificaciones más
globales a las más puntuales, describiendo la finalidad de los diferentes
tipos de técnicas concretas. En ningún caso se insistirá en detalles de uso
e interpretación, que se contemplan en el apartado 5 de este capítulo.

564
19. El análisis multivariable

a.  Análisis de interdependencia

Los modelos de interdependencia se caracterizan por no distinguir tipos


de variables, es decir, que todas desempeñan el mismo estatus. La prime-
ra subdivisión de tales métodos tiene que ver con la finalidad de su apli-
cación. De este modo, los análisis factoriales y las escalas dimensionales
sirven para resumir; los conglomerados para clasificar, y los modelos
log-lineales para explicar. Pero también se distinguen por la naturaleza
de las variables que intervienen en el análisis: si se dispone de variables
de características cualitativas podríamos optar por el análisis factorial de
correspondencias o por el análisis multidimensional. El primero en el
caso de que se persiguiera descubrir las pautas de relación entre un con-
junto de variables nominales; el segundo para representar una serie de
objetos en función de las evaluaciones o clasificaciones que de ellos ha-
yan realizado un grupo de individuos.
En primer lugar, por su finalidad explicativa, se presenta el análisis
lineal-logarítmico, que es empleado para descubrir y diferenciar las aso-
ciaciones e interacciones presentes en un conjunto de variables nomina-
les (Knoke, 1980, y Latiesa, 1991). Su empleo no requiere la división de
las variables en dependientes e independientes, pues su finalidad analítica
no es estimar los valores de la variable dependiente, sino expresar las di-
ferentes frecuencias que aparecen en las casillas de una tabulación de va-
riables nominales en función de las categorías, asociaciones e interaccio-
nes. Por ello, está clasificado en las técnicas de interdependencia. No
obstante, este análisis es apropiado para la comprobación de modelos
causales de relación, dado que está provisto de procedimientos de con-
traste de hipótesis sobre la presencia de asociaciones e interacciones sig-
nificativas y, en consecuencia, su finalidad es básicamente explicativa,
habiendo sido ampliamente utilizado en el análisis sociológico para el es-
tudio de la movilidad social.
Ahora bien, más que para explicar, los modelos de interdependencia
son especialmente apropiados para clasificar o para resumir informa-
ción. En este último caso, destacan tres técnicas según se dispongan de
variables medidas en una escala nominal (correspondencias), ordinal (es-
calamiento multidimensional) o métrica (análisis factorial).
La utilización del análisis de correspondencias responde a la necesidad
de descubrir la estructura de asociaciones entre variables categóricas ob-
servadas, tratando de agrupar las categorías de un conjunto de variables
(2 en el caso del análisis de correspondencias simple y más de 2 si se emplea
su opción múltiple) que están más relacionadas entre sí (Greenacre, 2008).

565
El análisis de datos

El resultado de la aplicación de este análisis es una representación espacial


en la que se ubican las distintas categorías o valores de las que se compo-
nen las variables introducidas. Supóngase que se dispone una tabla donde
aparece la composición de la población activa (variable A con los valores:
Agricultura, Industria y Servicios) cruzada con distintos países (variable B
con valores como España, Francia, Honduras, Paraguay, Argentina, etc.).
Esta técnica representaría todos estos valores en un sistema de coordena-
das interpretables por la distribución de los distintos puntos de informa-
ción introducidos. Así, en este caso, se configurarían dos dimensiones: una
principal, que distinguiría a los países agrícolas del resto y una segunda
que separaría a las naciones según su proporción de personas activas dedi-
cadas a los servicios. Para ello se vale de distancias basadas en la χ2.
El escalamiento multidimensional se utiliza para representar espacial-
mente una matriz de similitudes o de distancias (Sánchez Carrión, 1985).
Sea, por ejemplo, un conjunto de x objetos —un conjunto de líderes políti-
cos— evaluados ordinalmente por una muestra de individuos (casos). El
resultado de las similitudes de las evaluaciones permite construir un mapa
espacial con la virtud de que los objetos considerados más próximos que-
den más cercanos espacialmente y de esta forma puedan detectarse los cri-
terios de evaluación implícitos que emplean los individuos para juzgar un
conjunto de estímulos. El análisis matemático tiene como función la de
convertir una matriz de distancias o similitudes en una representación
geométrica. De este modo, si introducimos como datos un conjunto de
ciudades y la distancia kilométrica entre ellas, la técnica multidimensional
produce una representación espacial de dónde se ubicarían las ciudades en
un plano bidimensional. Este procedimiento posee distintos algoritmos se-
gún se les introduzcan variables de tipo ordinal o métrico.
Bajo el nombre de análisis factorial se encuentran comprendidas un
conjunto de diferentes técnicas de las que las más conocidas son el análi-
sis de componentes principales y el análisis factorial clásico (Yela, 1997).
Todas ellas están basadas en la matriz de correlaciones calculadas a par-
tir de una serie de variables de naturaleza cuantitativa. Su objetivo es
descubrir la estructura de relaciones entre un conjunto numeroso de va-
riables, reduciéndolas a componentes, factores de variación o variables
latentes. Por ejemplo, si se introdujeran las notas de un grupo de estu-
diantes de enseñanza secundaria, las calificaciones podrían aparecer
agrupadas en tres apartados: las de ciencias, las literarias y las activida-
des físicas o manuales.
Una extensión del análisis factorial puede emplearse cuando el analis-
ta esté interesado en la relación existente entre dos conjuntos de varia-

566
19. El análisis multivariable

bles. La técnica que realiza al mismo tiempo un resumen de variables y


un cálculo de la asociación entre las variables latentes conformadas es la
de las correlaciones canónicas (Peña, 2002: 485-505; Hair et al., 1999:
469-488). Mediante ellas se puede: a) determinar si dos grupos de varia-
bles están relacionados entre sí y la magnitud de la relación entre ellos,
b) encontrar una serie de dimensiones en cada uno de los conjuntos de
variables preestablecidos, de tal manera que la relación entre ellas sea la
máxima posible. Cada función canónica consiste en la generación de un
par de variables nuevas, una para cada subconjunto de las variables ori-
ginales del análisis. Por ejemplo, podíamos relacionar una serie de medi-
das del rendimiento académico (las notas de los profesores) con otra se-
rie compuesta por puntuaciones en pruebas de aptitudes. Esta técnica es
útil y eficiente para explorar las relaciones entre pares de conjuntos de
variables.
También han de mencionarse los procedimientos de interdependencia
que sirven para clasificar los casos, en lugar de centrarse en la reducción
de variables. En ellos la finalidad es la de agrupar los casos en función de
sus afinidades en un conjunto de variables, para lo que se emplean algo-
ritmos de aglomeración de casos semejantes.
El análisis de conglomerados clasifica a los sujetos en función de las
distancias entre ellos en una serie de variables de naturaleza cuantitativa
(Aldendarfer y Blashfield, 1984 y Everitt, 1984). Emplea técnicas clasifi-
cadoras en el sentido de que permiten una simplificación del conjunto de
sujetos analizados. Por ejemplo, podemos disponer de diferentes datos de
un conjunto de municipios de una provincia (habitantes, distancia a la
capital, porcentaje de población agrícola, indicadores socioeconómicos)
y en función de éstos establecer una tipología de tales municipios agru-
pando a aquellos con características semejantes y diferenciándolos del
resto que, a su vez, formarán bloque con otros municipios con similares
datos. Bajo tal técnica se encuentran una gran variedad de procedimien-
tos para la consecución de la finalidad clasificatoria. Así, pueden utili-
zarse distintas medidas para juzgar la distancia entre casos y existen va-
rios algoritmos para proceder a la clasificación de los sujetos.

b.  Análisis de dependencia

La finalidad de todos estos análisis es similar: descubrir la cuantía y la sig-


nificación de las asociaciones existentes entre unas variables y otras, si bien
alguno de ellos, como se verá en cada caso, también pueda cumplir una

567
El análisis de datos

función reductora o clasificadora. Una característica importante de los


análisis estadísticos es que no son capaces de discernir qué variable juega el
papel de predictor y cuál el de efecto; por lo que ha de ser el investigador
—dotado de una serie de teorías e hipótesis congruentes— el que determi-
ne, de antemano a la realización del análisis, la función desempeñada por
las variables seleccionadas. Utilizar una u otra técnica va a depender del
tipo de relación y de las características de las variables que se empleen.
En los análisis de regresión múltiple sólo se dispone de una variable de-
pendiente cuantitativa (efecto) y se desea explicar con más de una variable
independiente, también de naturaleza numérica (Guillén, 2014 y Escobar
et al., 2012: 271-367). Esta técnica permite descubrir qué variables tienen
mayor peso en la determinación de la considerada variable dependiente.
Por ejemplo, se podría concebir el rendimiento académico de los alumnos
de una determinada área en función de variables como las aptitudes, el ni-
vel económico de su familia y el historial académico. Esta técnica permite,
además, cifrar el porcentaje de varianza de la variable dependiente explica-
do por las que son consideradas como determinantes de ella. Sin embargo,
es necesario prever que tal técnica sólo da cuenta de las relaciones lineales
entre variables, por lo que es posible que exista otro tipo de asociaciones
no reflejadas mediante la ecuación de una recta. Ante esta desventaja
siempre se puede recurrir a transformaciones de las variables que convierta
la relación lineal en relaciones de tipo logarítmico o exponencial.
Todas estas transformaciones aplicadas a la variable respuesta, depen-
diente o resultado se consideran bajo lo que se denomina el modelo lineal
generalizado, que implica modelos como el exponencial o el logaritmo
para relaciones no lineales; el logit y el probit, cuando la respuesta es di-
cotómica; el multinomial, si es nominal con más de dos valores; o el de
Poisson o binomial negativo, en el caso de que el resultado sea una varia-
ble discreta que represente un recuento (Long y Freese, 2014 y Escobar
et al., 2012: 369-436).
Una alternativa a los modelos logit, probit o multinomial es el análisis
discriminante, que halla los mejores predictores de la distribución de una
característica cualitativa (Gil et al., 2001 y Cea, 2002: 322-425). Por
ejemplo, se pueden usar variables como la edad, los ingresos, el número
de miembros de la familia como determinantes de poseer un determina-
do tipo funcional de coche. Este análisis tiene, además de la función ex-
plicadora, una posibilidad de tarea clasificadora. En virtud de las regula-
ridades encontradas en los datos, la técnica tiene como misión la de
hallar una serie de funciones que permiten averiguar las probabilidades
de pertenencia del sujeto analizado a uno u otro grupo. Y estas funcio-

568
19. El análisis multivariable

nes se pueden utilizar para clasificar incluso a sujetos de los que no se


posee el dato nominal. Siguiendo con el ejemplo, si hubiera un sujeto del
que dispusiéramos de información sobre su edad, ingresos y miembros
de su familia, pero no supiéramos si posee el tipo de coche en cuestión,
podríamos predecirlo probabilísticamente aplicando a las tres primeras
variables la ecuación discriminante obtenida en el análisis.
En el caso de los análisis de varianza y covarianza, la variable depen-
diente es de intervalo o razón (cuantitativa o métrica); pero las variables
independientes son de naturaleza nominal. Este análisis, como el ante-
rior, es una extensión de la técnica bivariada de su mismo nombre (Teje-
dor, 1999 y 2003). Un ejemplo de su uso sería la consideración del nivel
educativo y de la región de residencia como factores determinantes de la
renta de los individuos. Permite no sólo comprobar el factor que más in-
cide en la variable determinada, sino también si existe interacción entre
las variables independientes introducidas para explicar aquélla. Por su
peculiar tratamiento de los datos no permite la introducción de muchas
variables independientes a la vez. Este tipo de análisis posibilita dos ex-
tensiones a su estructura básica: una es la introducción de variables inde-
pendientes de naturaleza cuantitativa, las llamadas covarianzas; otra, la
consideración de más de una variable como dependiente, operación que
se denomina análisis multivariante de la varianza.
Más complejos son los modelos de ecuaciones estructurales, en los que
se conjugan dos tipos de análisis: por un lado, un factorial confirmato-
rio, que permite comprobar si el procedimiento de medida basado en
múltiples indicadores es apropiado, y por otro, un análisis causal con
múltiples variables dependientes con la posibilidad de tratamientos no
recursivos, que hacen posible diferenciar los efectos de una variable sobre
otra y de ésta sobre la primera (Bollen, 1989 y Batista, 2000).
Finalmente, cabe hacer referencia entre los modelos de dependencia a
los árboles de regresión y clasificación, análisis de segmentación o inicial-
mente denominados detectores automáticos de la interacción (Breiman,
1984 y Escobar, 2007). Estas técnicas tienen como finalidad dividir jerár-
quicamente una muestra (clasificar) en segmentos homogéneos en fun-
ción de la variable criterio, utilizando un conjunto múltiple de predicto-
res. Así, si se quiere segmentar a los votantes de un determinado partido,
es probable que el mejor predictor sea el de la ideología política y, una
vez dividida la muestra en los grupos de derecha, centro e izquierda, la
edad juegue un papel importante de modo que las personas mayores
sean más partidarias de ofertas conservadoras, mientras que los jóvenes
opten por partidos más emergentes.

569
El análisis de datos

4.  Conceptos básicos del análisis multivariable


Antes de estudiar las distintas formas de tratar un conjunto múltiple de va-
riables, resulta conveniente desarrollar una serie de conceptos básicos so-
bre los que se articulan las distintas técnicas de tratamiento de los datos:
1) Distribución conjunta: del mismo modo que cada variable aleato-
ria (X) posee una distribución dada marcada por la P(X<=x), se
puede estudiar la distribución de más de una variable a través de
la sucesión de las probabilidades de cada una de ellas:

O lo que es lo mismo, la probabilidad de que dos o más fenóme-


nos ocurran al mismo tiempo. Los modelos de distribución con-
junta básicos en el análisis multivariable son el multinomial, el
normal, el de Wishart, equivalente al χ2 y el de Wilks que se co-
rresponde con la F de Snedecor (Cuadras, 2014).
2) Distribución condicionada: a partir de la distribución conjunta, se
puede obtener las distribuciones condicionadas si se supone fijo
un(os) valor(es) de otra(s). Una distribución condicionada, por
tanto, es la distribución que tiene una(s) variable(s) en el caso de
que mantengamos constante otra(s).

P( X 1 ≤ x1 | X 2 = x2 , X 3 = x3 ,..., X p = x p )  
3) Asociación: dos variables se consideran asociadas en el caso de
que haya una variación conjunta de sus valores a través de los ca-
sos de los que obtenemos información. Un ejemplo muy conoci-
do de este tipo de relación entre variables es el de la renta y el
consumo: a medida que aumenta la primera, la segunda también
seguirá la misma tendencia. Las variables precio y demanda de un
producto también estarían asociadas; pero en relación inversa,
pues la tendencia es que a medida que sube el primero, la segunda
disminuye. El término asociación está básicamente inserto en los
modelos bivariables a través de la covarianza (S)1 y los coeficien-
tes de correlación (C), que se obtienen multiplicando por sí mis-
ma la matriz de datos diferenciados X = X − 1x '   o reducidos:
Z = (X − 1x ') diag(S)−1/2  .

570
19. El análisis multivariable

4) Control: consiste en estudiar el comportamiento de una serie de


variables, manteniendo constante los valores de otras variables
que pudieran estar modificando los valores o la relación de las
primeras. Este concepto procede de la terminología experimental
en la que el investigador tiene la posibilidad de controlar una se-
rie de incidencias. Piénsese, por ejemplo, en el estudio de la in-
fluencia que tiene la aplicación de calor a un gas en su volumen.
Para establecer tal pauta de relación el experimentador tendría
que mantener constantes otras variables que podrían estar influ-
yendo en el volumen del gas, especialmente la presión. El análisis
estadístico permite el control de estas variables por procedimien-
tos matemáticos: separando el estudio de la asociación por los
distintos valores de la variable independiente (tablas de contin-
gencia), transformando los valores de la variable de control de
forma que sean constantes para los distintos casos analizados (re-
gresión y análisis de varianza) o suponiendo una asociación nula
entre la variable independiente y la de control, como así lo hacen
el análisis de senderos o el proceso de elaboración de tablas pro-
puesto por Lazarsfeld (1955).
5) Interacción: es una extensión del concepto de asociación al com-
portamiento de más de dos variables. Su comprensión más inme-
diata se obtiene al definirla diciendo que se produce interacción
cuando la relación entre dos variables depende de los valores de
una tercera. Por ejemplo, la influencia que ejerce el tener un título
universitario en los ingresos obtenidos por el trabajo puede ser
más alta entre los hombres que entre las mujeres. Sin embargo,
estrictamente hablando, tenemos que la interacción se produce
cuando más de dos variables presentan una asociación conjunta
de sus valores.
6) Factorización: consiste en crear una variable en función de una
combinación lineal de un conjunto de otras variables. En conse-
cuencia, un factor sería una variable representada en distinto gra-
do por una serie de variables simples. Pensemos, por ejemplo, en
una serie de test de inteligencia: las variables originales serían las
puntuaciones de los sujetos en las distintas pruebas a las que se
les someten; un factor, sea el razonamiento abstracto, sería una
suma particular de los puntos obtenidos en las diferentes pruebas.
Particular por el hecho de que existirían puntuaciones más rela-
cionadas con el susodicho factor de la inteligencia y otras que
tendrían menos que ver con aquél. Por tanto, para la obtención

571
El análisis de datos

del factor deseado sumaríamos las puntuaciones ponderadas por


su contribución a éste: si tienen poco que ver, se multiplicarán por
una cantidad cercana a 0, por lo que su peso en la suma total se-
ría muy bajo, y si tienen importancia en la configuración del fac-
tor serían multiplicadas por una constante tanto mayor cuanto su
contribución a la definición de la nueva variable fuera mayor.
7) Representación espacial: los factores pueden ser considerados
como dimensiones subyacentes en un conjunto de variables y son
capaces de expresar con mayor simplicidad el conjunto de varia-
ciones de los datos; dicho de otra manera, podríamos reducir la
información de veinte variables a un subconjunto de factores que
expresen las características de los sujetos. La reducción que con-
lleva la factorización permite una mejor presentación gráfica de
las pautas de las respuestas. La representación espacial es una téc-
nica que permite expresar la posición bien de las variables, bien
de los casos en un conjunto reducido de dimensiones con el obje-
to de comprender la pauta de distribución de una serie más exten-
dida de datos.
8) Distancia: es una medida de cuán semejantes puedan ser dos indi-
viduos en un conjunto de variables, o dos de éstas para una serie
de datos. La medida más simple de distancia se aplica cuando
sólo se pretende comparar en una sola faceta (variable) y viene
dada por la diferencia. Así, la distancia en ingresos entre dos su-
jetos que ganan respectivamente 100 y 150 euros mensuales sería
de 50. Generalmente, las distancias interesan en términos absolu-
tos, por lo que bien se prescinde del signo de la diferencia, bien se
eleva al cuadrado, con lo cual aumentan las diferencias de los ca-
sos más lejanos. La medida más común de distancia para más de
dos variables es la euclidiana, que es la raíz cuadrada del sumato-
rio de las distintas diferencias entre variables elevadas al cuadra-
do. Un importante problema de las distancias complejas es cuan-
do se dispone de variables con distintas unidades de medida
(euros y horas, por ejemplo), en cuyo caso habría que estandari-
zar los valores de aquéllas (restarle la media aritmética y dividir el
resultado por la desviación típica). Las distancias más comunes
en el análisis multivariable son la euclidiana y la de Mahalanobis.
9) Clasificación: es una técnica cuya finalidad consiste en agrupar
objetos homogéneos. En el análisis multivariado se puede aplicar
esta técnica bien a las variables, bien a los casos. Los medios para
tal fin se pueden clasificar en dos grandes grupos: aquellos que se

572
19. El análisis multivariable

basan en las distancias o similitudes entre los objetos clasificables,


y los que se fundamentan en las probabilidades de pertenencia a
uno u otro grupo, en función de una serie de características.

5.  Ejemplos de análisis multivariables

Vistos los principales conceptos y operaciones sobre los que se asienta el


análisis multivariable, se procede a continuación a una primera aproxi-
mación a cuatro de ellos a través de ejemplos. El objetivo perseguido en
las próximas páginas es el de que el lector sepa interpretar los análisis
multivariables presentes en la literatura de las ciencias sociales. Por ello,
se presentan las tablas no como se producen en las aplicaciones estadísti-
cas más usuales, sino como suelen aparecer en los artículos. Además de
ello, se pondrá más atención en el significado de los resultados que en el
algoritmo de su obtención.

a.  Resumen de variables: el análisis factorial

Como se dijo anteriormente, el análisis factorial es una técnica multiva-


riable cuya finalidad es la de identificar una estructura en un conjunto de
variables observadas.
El punto de partida es una matriz de correlaciones compuesta de un
conjunto de m variables obtenidas de un conjunto de sujetos. El objetivo
es encontrar una serie de k factores (k<m) que expliquen el máximo posi-
ble de las asociaciones entre ellas. De ahí que este análisis tenga dos fun-
ciones distintas:
— Reducir el número de variables a analizar de forma tal que se pier-
da el mínimo de información posible.
— Encontrar una serie de dimensiones latentes en la pauta de asocia-
ción de un conjunto de variables analizadas.

Los conceptos analíticos que se utilizan en esta técnica reductiva son los
siguientes:
— Factor o componente (Z): es el resultado de una transformación
de las variables con distintos pesos. Ello implica que son variables
latentes elaboradas a partir de las observadas.
— Autovalor (A): es la cantidad de varianza de la que da cuenta cada
factor. La suma de autovalores debe ser igual al número de variables.

573
El análisis de datos

— Saturación (V): es la contribución de cada variable a cada factor;



por tanto, es una descomposición del autovalor, implicando que la
suma de las saturaciones al cuadrado de todas las variables de un
factor es igual a su autovalor.
Siendo X los datos originales, la relación entre Z y V en el análisis
Siendo
factorial de componentes principales es la siguiente:
Z = XV
— Comunalidad: es la cantidad total de información que suministran

los factores sobre una determinada variable. Su valor inicial de-
pende de una decisión del investigador. Si se utiliza el método de
componentes principales se asume que el conjunto de factores ex-
plican por completo las variables. En el caso del análisis factorial
de ejes principales, sólo se intenta explicar con los factores la va-
rianza de cada variable que esté recogida por el resto de variables.
— Representación gráfica: consiste en ubicar las variables en las di-

mensiones correspondientes a los factores de acuerdo a las satura-
ciones que aquéllas presenten en éstos. Generalmente sólo se re-
presentan simultáneamente dos dimensiones.
— Rotación: consiste en mover los ejes que representan a los factores,

de forma tal que se configure una estructura de más fácil interpre-
tación. Hay varios criterios de rotación; el más útil y empleado en
la investigación es el de varimax, cuyo fin es el de maximizar la va-
rianza entre factores (engendrar saturaciones muy heterogéneas
entre las distintas columnas).

El procedimiento de interpretación de una salida de ordenador de esta


técnica ha de seguir los siguientes pasos:
a) Buscar la solución inicial, fijarse en los autovalores con objeto de
a)
descubrir de todos los factores aquéllos que explican una sustan-
cial cantidad de varianza (la regla más simple es la de tener sólo
en cuenta factores con autovalor superior a la unidad).
b) Examinar brevemente la matriz de saturaciones (autovectores) de
b)
los factores iniciales: esta matriz presenta generalmente una es-
tructura peculiar basada en altas saturaciones en el primer factor
y, en las restantes saturaciones, medianas de ambos signos (positi-
vas y negativas).
c) Evaluar las estadísticas finales observando la cantidad de varian-
c)
za de la que informan los factores seleccionados y la comunalidad
de las variables. Si en esta última observación se detecta alguna

574
19. El análisis multivariable

cantidad baja —por debajo de 0,20—, se debería modificar el


análisis, bien introduciendo más factores, bien eliminando las va-
riables con baja comunalidad.
d) Analizar la matriz de factores rotados, subrayar para cada factor
aquellas variables que más saturan en él e interpretarlo en fun-
ción del significado común de aquellas variables que le son más
propias.

A continuación, como ejemplo numérico se utilizan seis variables del


estudio de PISA relacionadas con pruebas de rendimiento escolar para el
caso español: dos modos de puntuar el rendimiento en matemáticas (M1
y M2), dos modos de puntuar el rendimiento en ciencias (C1 y C2) y
otras dos puntuaciones para valorar la habilidad lectora de los estudian-
tes de 16 años (L1 y L2). Los datos proceden de la muestra del estudio
que la OCDE realiza cada tres años. Las medias de estas variables son
las siguientes:

Tabla 1. Medias y desviaciones típicas de las variables de medidas


de rendimiento
Variable Media Desv. típica
1ª puntuación en Matemáticas 484,6 87,3
2ª puntuación en Matemáticas 484,5 87,9
1ª puntuación en Ciencias 496,5 85,8
2ª puntuación en Ciencias 496,5 86,2
1ª puntuación en Lectura 488,3 91,7
2ª puntuación en Lectura 488,0 92,0
Fuente: http://pisa2012.acer.edu.au/downloads.php.

Habría que aclarar que estas puntuaciones son discrecionales. La me-


dia de todas las variables en el conjunto de la muestra de la OCDE es de
500 puntos, mientras que la desviación típica se ha fijado en el valor 100.
Observando la tabla de medias y desviaciones típicas de las variables, se
ve que en todas las pruebas las medias españolas están por debajo de los
500 puntos. De igual modo, la desviación típica es menor del centenar. El
primer dato quiere decir que el rendimiento escolar en el sistema educati-
vo español es menor que en la media de la OCDE. En cambio, una des-
viación típica más pequeña indica que hay menor dispersión en los ren-
dimientos que en el conjunto de los países evaluados.

575
El análisis de datos

El siguiente paso sería el cálculo de los coeficientes de correlación.


Como era de esperar, presentan valores altos, especialmente si se correla-
cionan las mismas pruebas (primera puntuación en Matemáticas con se-
gunda; primera en Ciencias con segunda en la misma materia, y primera
en Lectura con la segunda en la misma), pues en este caso rondan el 0,90.
En ningún caso este valor baja del 0,77 en el caso de correlaciones entre las
puntuaciones en ciencias y las de la lectura, lo que muestra que el rendi-
miento escolar no es muy distinto entre las diversas materias consideradas.

Tabla 2.  Matriz de correlaciones entre las variables de rendimiento


Variable Mat. 1 Mat. 2 Cien. 1 Cien. 2 Lect. 1 Lec. 2
1ª puntuación en Matemáticas 1
2ª puntuación en Matemáticas 0,924 1
1ª puntuación en Ciencias 0,880 0,826 1
2ª puntuación en Ciencias 0,826 0,879 0,900 1
1ª puntuación en Lectura 0,825 0,779 0,823 0,774 1
2ª puntuación en Lectura 0,781 0,827 0,778 0,828 0,891 1
Fuente: http://pisa2012.acer.edu.au/downloads.php 

El primer resultado del análisis factorial es la lista de autovalores,


compuesta por tantos como variables se hayan introducido en el análisis.
Las cantidades de los autovalores siempre aparecerán ordenadas de ma-
yor a menor. Con estos datos, el valor del primer autovalor es altísimo
(5,2 sobre 6), pues refleja que hay un alto componente común en el ren-
dimiento de los estudiantes, sea en Matemáticas, Ciencias o Lectura. Por
tanto, en lugar de trabajar con estas seis variables, se podría usar sólo el
primer componente y de este modo se daría cuenta del 86% de variación
del conjunto con un solo factor.

Tabla 3.  Autovalores del análisis factorial con medidas de rendimiento


Variable Autovalor % % acum.
Factor 1 5,18 86,4 86,4
Factor 2 0,33 5,5 91,8
Factor 3 0,21 3,4 95,3
Factor 4 0,20 3,3 98,5
Factor 5 0,06 1,0 99,5
Factor 6 0,03 0,5 100,0
Fuente: http://pisa2012.acer.edu.au/downloads.php.

576
19. El análisis multivariable

Como puede apreciarse en la tabla de saturaciones, todas las variables


contribuyen de modo similar (más de 0,90) en la configuración de este
factor.

Tabla 4.  Matriz de saturaciones del análisis factorial


Factor Factor Factor Factor Factor Factor
Variable
1 2 3 4 5 6

1ª puntuación en Matemáticas 0,940 –0,173 –0,240 0,130 –0,045 –0,105

2ª puntuación en Matemáticas 0,940 –0,173 –0,200 –0,184 0,044 0,105

1ª puntuación en Ciencias 0,934 –0,152 0,206 0,219 –0,095 0,071

2ª puntuación en Ciencias 0,934 –0,152 0,254 –0,157 0,099 –0,070

1ª puntuación en Lectura 0,912 0,338 –0,038 0,187 0,130 0,017

2ª puntuación en Lectura 0,915 0,328 0,020 –0,193 –0,133 –0,017


Fuente: http://pisa2012.acer.edu.au/downloads.php.

Gráfico 1.  Saturaciones de la solución factorial inicial

577
El análisis de datos

Ahora bien, si lo que se desea es más bien conseguir grupos de variables


más claramente diferenciados, se debería optar por rotar la solución ini-
cial. Al disponer de tres disciplinas distintas, el investigador puede estar
más interesado en obtener tres factores que uno solo, para lo que se puede
solicitar la rotación de tres factores, en cuyo caso el resultado es un primer
factor con saturaciones altas en las puntuaciones en Matemáticas, un se-
gundo factor donde se ubican las de Ciencias y un tercer factor con las va-
riables sobre rendimiento en Lectura. Como se observa en la tabla 5, tras
la rotación, la varianza de los tres primeros componentes, reflejada en los
autovalores, queda más repartida que en la solución sin rotar.

Tabla 5. Autovalores del análisis factorial rotado (varimax) con medidas


de rendimiento
Variable Autovalor % % acum.
Factor 1 2,02 33,6% 33,6%
Factor 2 1,90 31,7% 65,3%
Factor 3 1,79 29,9% 95,3%
Fuente: http://pisa2012.acer.edu.au/downloads.php.

En la matriz de saturaciones puede comprobarse que desaparece el


factor general y se convierte en una solución con tres factores correspon-
dientes a las materias de Matemáticas, Ciencias y Lectura.

Tabla 6.  Matriz de saturaciones del análisis factorial rotado


Variable Factor 1 Factor 2 Factor 3   Comun.
1ª puntuación en Matemáticas 0,421 0,785 0,420   0,970
2ª puntuación en Matemáticas 0,420 0,759 0,448   0,953
1ª puntuación en Ciencias 0,423 0,469 0,734   0,938
2ª puntuación en Ciencias 0,422 0,437 0,770   0,961
1ª puntuación en Lectura 0,812 0,404 0,354   0,948
2ª puntuación en Lectura 0,804 0,370 0,402   0,945
Fuente: http://pisa2012.acer.edu.au/downloads.php.

Los análisis presentados se han realizado empleando el método de


componentes principales. Podría haberse optado por la solución de ejes
principales, en cuyo caso, en lugar de tratar de dar cuenta de toda la va-

578
19. El análisis multivariable

rianza del conjunto de variables, sólo se pretende informar de la varianza


común entre las variables, valor que inicialmente puede ser estimado con
el coeficiente de correlación múltiple de cada variable observada con el
resto de variables.

b.  La explicación en el análisis multivariable: la regresión múltiple

La regresión múltiple es uno de los procedimientos más empleados para


explicar en el caso de disponer de datos transversales. A diferencia del
análisis factorial, en el que se disponía de un conjunto múltiple de varia-
bles, en el análisis de regresión hay que distinguir entre una variable re-
sultado, respuesta o dependiente y una serie de variables predictoras o
independientes.
El modelo de la regresión múltiple se adecua a la siguiente expresión
matricial:

y = XB + e

Por tanto, en toda regresión múltiple puede distinguirse:


a) Una variable dependiente cuantitativa (y) que es el explanandum
del análisis, es decir, aquello que debe ser explicado.
b) Una serie de variables independientes (X), de las que se estima el
valor de sus coeficientes (B) mediante el criterio de mínimo cua-
drados, de modo similar al que se realiza en la regresión simple
vista en el capítulo anterior, aunque en este caso no hay una sola
variable sino varias, y se hace una estimación suponiendo que el
resto de ellas se mantienen constantes. De cada uno de estos coe-
ficientes puede calcularse el error típico con el fin de decidir si son
significativos.
c) Un error residual (e), que consiste en la diferencia entre el valor
empírico de la variable dependiente y su valor pronosticado apli-
cando los coeficientes obtenidos a las variables independientes.
d) Un coeficiente de determinación (R2), que representa la varianza
no residual de la variable dependiente, o dicho con otras palabras,
el porcentaje de la variación de la variable predicha que es expli-
cado por el conjunto de variables independientes.

En la regresión se obtiene para cada variable independiente el pará-


metro que mejor ajusta la predicción de la variable respuesta. Por ejem-

579
El análisis de datos

plo, si se desea poner la puntuación en Matemáticas en función de la


edad y el estatus, este análisis aportaría un coeficiente para cada una de
estas variables, que indicaría cuánto varía el valor medio de la respuesta
por cada unidad que varíen los predictores.
Se sabe que Matemáticas es una variable que está medida de tal forma
que la media de la puntuación de los estudiantes de la OCDE investiga-
dos es de 500 puntos y su desviación típica 100. Se conoce, asimismo,
que la edad recoge sólo los individuos nacidos en un determinado año y,
en consecuencia, sólo recoge el mes en el que han nacido, y que el estatus
socio-cultural de la familia está tipificado de tal modo que la media es 0
y la desviación típica es igual a la unidad.
La regresión se conforma al modelo lineal. Por ello, además de obte-
ner los parámetros para cada variable incluida en el modelo, se obtiene
otro que concierne a la constante y es expresión del valor medio de la va-
riable predicha en el caso de que todas las variables independientes ten-
gan el valor de cero.
Siguiendo con el ejemplo de la puntuación en Matemáticas y transfor-
mando el mes de nacimiento de modo tal que el mes de diciembre (co-
rrespondiente a los estudiantes más jóvenes) sea representado con un 0 y
el mes de enero (propio de los alumnos más veteranos) con un 11, se ob-
tiene una ecuación con tres parámetros: la constante (488) indica la pun-
tuación en Matemáticas de un estudiante español nacido en diciembre en
el seno de una familia con estatus medio en la OCDE. El coeficiente rela-
tivo a la edad (0,7) indica que por cada mes de más que tengan los estu-
diantes, su media en Matemáticas se verá incrementada en algo más de
medio punto. Por su lado, el coeficiente del estatus, que presenta un va-
lor aproximado de 33, informa de que, en promedio, por cada punto de
estatus más que tenga un estudiante su puntuación en matemáticas se in-
crementará en más de treinta puntos (primera columna numérica de la
tabla 7).
La bondad de la regresión se evalúa con el coeficiente de determina-
ción (R2), que representa el porcentaje de varianza de la variable depen-
diente que está informado por las variables independientes y procede del
cociente entre la suma cuadrática de la regresión (diferencia entre los va-
lores predichos por la regresión y la media de la variable dependiente) y
la suma cuadrática total (diferencia entre los valores reales de la variable
dependiente y su correspondiente media). En esta regresión el valor de
0,16 indica que el estatus y la edad de los estudiantes dan cuenta del 16%
de la variación de la prueba de Matemáticas (tabla 7).

580
19. El análisis multivariable

Tabla 7.  Regresión múltiple de la puntuación en Matemáticas

Variables Vv. métricas + dicotómicas + interacción


Género = varón     15,50 *** 15,50 ***
Mes 0,73 *** 0,74 *** 0,74 ***
Estatus 33,32 *** 29,65 *** 30,52 ***
Colegio = privado     19,29 *** 19,34 ***
Estatus # privado         –2,67 ***
Lengua = catalán     17,07 *** 17,09 ***
Lengua = vasco *** ***
22,12 21,87
Lengua = gallego     5,92   6,08  
Lengua = valenciano     7,09 *** 7,12 ***
Lengua = otra     –32,25 *** –32,11 ***
Constante 488,03   473,16 *** 473,50 ***
Error residual 79,59   78,15   78,14  
R2 0,16   0,19   0,19  

*** p<0,001
Fuente: http://pisa2012.acer.edu.au/downloads.php.

La siguiente regresión analizada (segunda columna de la misma tabla 7)


incluye tres variables más de características diferentes a las que se han
considerado hasta ahora. Se trata de incluir variables cualitativas (nomi-
nales) en la regresión. En este caso, debe distinguirse entre variables di-
cotómicas, como es el caso del género (mujer y varón) y la titularidad del
colegio (público y privado), de otras variables con más de dos valores
posibles, como es la primera lengua hablada por los sujetos, que puede
adoptar 6 valores (castellano, catalán, vasco, gallego, valenciano y
otros). La cuestión reside en considerar una de las categorías de cada va-
riable nominal (lo más recomendable es asignar este papel a la categoría
de la variable en cuestión con una mayor frecuencia) como categoría de
base, a la que se le atribuirá el valor 0. De este modo, si las variables son
dicotómicas, bastará con introducir en la regresión la categoría no consi-
derada como base. En el caso del género, si se toma como valor de base a
las alumnas, en la regresión aparecerá la característica ser varón como
contraste; en el caso de la titularidad del centro, si se toma como valor
de base los colegios públicos, en la regresión sólo aparecerían los cole-
gios privados. Ahora bien, si se considera la primera lengua aprendida
del estudiante como variable, también se tomará sólo un valor como

581
El análisis de datos

base, preferiblemente el «castellano», por ser el más frecuente. De este


modo, habrá que introducir en la ecuación cinco variables: catalán, vas-
co, gallego, valenciano y otros.
Tras saber cómo se introducen las variables cualitativas en la regresión,
habrá también que considerar cómo se interpretan los coeficientes. A fin de
comprenderlo mejor, se parte de la constante de la regresión con las nueve
variables del ejemplo propuesto: las dos cuantitativas (estatus y mes), las dos
dicotómicas (género y titularidad del colegio) y las cuatro concernientes a la
lengua materna. Esta segunda ecuación de regresión presenta una constante
diferente de la primera, porque se han introducido siete nuevas variables. En
consecuencia, el valor de la constante (473,16 puntos) se referirá a una estu-
diante nacida en el mes de diciembre, que vive en una familia de estatus me-
dio (en la OCDE), estudiando en un colegio público y que usa el castellano
en su hogar. El estimador del parámetro o coeficiente relativo a género infor-
ma de la diferencia entre varones y mujeres. En este caso es positivo, porque
por término medio y, manteniendo constante el resto de variables considera-
das, los estudiantes varones puntúan 15,5 puntos más en Matemáticas que
las estudiantes. De igual modo, la variable colegio privado (1 para privados
o concertados y 0 para los públicos) refleja la diferencia de medias entre am-
bos tipos de colegios. En concreto, los estudiantes de colegios de titularidad
privada han puntuado 19 puntos más que los públicos en Matemáticas. Fi-
nalmente, habría que referirse a la lengua materna. En este sentido, los de
lengua vasca tienen 22 puntos más que los de lengua castellana, los catalanes
17 puntos más, y los valencianos sólo 7. En cambio, los que tienen otra len-
gua nativa, la mayoría inmigrantes de países no latinoamericanos, puntua-
ron en Matemáticas con 32 puntos menos.
Intencionalmente, se ha dejado de comentar el coeficiente de los que
tienen como lengua materna el gallego. Esto ha sido debido a que es el úni-
co que no ha presentado resultados significativos, como así lo indica la au-
sencia de asteriscos en su correspondiente línea de la tabla. En realidad, no
es significativo porque el error típico es casi tan alto como su correspon-
diente coeficiente. Como en muestras grandes es asumible que el coeficien-
te adopte una distribución normal, si el cociente entre el coeficiente y su
error típico no supera el valor de 1,96 no se está en condiciones de recha-
zar la hipótesis nula, o dicho de otro modo, no puede afirmarse que haya
diferencias significativas en la puntuación en Matemáticas entre quienes
hablan en casa en castellano y quienes hablan en gallego.
Falta por introducir una complejidad en el análisis de regresión. Se tra-
ta de la posibilidad de trabajar con interacciones entre las variables inde-
pendientes. Se da interacción cuando la relación entre dos variables es dis-

582
19. El análisis multivariable

tinta según los valores de una tercera variable. En el ejemplo actual, se


diría que la titularidad del colegio y el estatus del estudiante interactúan en
el caso de que la influencia del estatus fuera distinta según el alumno estu-
diara en uno u otro tipo de colegio. Para generar un modelo de interacción
en la regresión basta con generar una nueva variable que sea el producto
de aquellas que se supone que interactúan e introducirla en la regresión. El
coeficiente obtenido medirá las diferencias en la influencia de una variable
a medida que se produce un cambio de unidad en la tercera variable. En el
ejemplo de la tabla, se ve que la influencia del estatus en la puntuación de
Matemáticas es de 30,52 puntos por unidad. Pero esta cantidad ahora sólo
es válida para los colegios públicos (dado el valor 0 de la titularidad). En el
caso de los colegios privados (el valor 1 de la titularidad) la influencia es
menor en 2,67, lo que quiere decir que por un cambio de una unidad en el
estatus, las puntuaciones en Matemáticas cambian sólo 27,95 puntos (véa-
se en el gráfico 2 cómo la pendiente de los colegios públicos es más pro-
nunciada que la de los privados). Esto podría explicarse por el hecho de
que en las familias con más estatus los padres sólo llevan a sus hijos al co-
legio público en el caso de que les garantice un buen nivel. Por el contrario,
la estrategia de las familias con bajo estatus es la de llevar sólo a sus hijos
más inteligentes a colegios privados o a ninguno de ellos.

Gráfico 2. Modelo de regresión de Matemáticas sobre estatus y tipo


de colegio con interacción

583
El análisis de datos

Resumiendo, la regresión múltiple es un procedimiento que sirve para


explicar la variación de una variable en función de otras siguiendo un
modelo lineal. El procedimiento comprueba si los predictores que se em-
plean influyen positiva, negativamente o no influyen de modo claro. Esto
se puede detectar a través de la significación de los coeficientes o pará-
metros de la regresión. Además de ello, el procedimiento incluye un esta-
dístico que refleja la bondad de ajuste de la regresión o, dicho de otro
modo, un indicador de cuánto pueden predecirse los valores de la varia-
ble dependiente en función de los de las variables independientes.

c.  Modelos logit para las variables dependientes cualitativas

La regresión está diseñada fundamentalmente para variables de tipo


cuantitativo. A pesar de ello, con ciertas precauciones también pueden
introducirse como predictores variables de naturaleza cualitativa. Lo que
no es procedente es que la variable dependiente sea cualitativa en un mo-
delo de regresión. Sin embargo, hay un modo de realizar predicciones so-
bre variables nominales que actúa con una lógica similar a la de la regre-
sión. Se trata de los modelos logit, los probit y los multi-logit, de los que
aquí sólo se verán los primeros.
Los modelos logit consisten en transformar una variable dependiente di-
cotómica (ocurre o no ocurre un determinado suceso) en una escala sin lími-
tes, mediante la expresión: ln(p/(1–p)). Esta expresión tiene el valor 0 en el
caso de que p sea igual al 50% (0,5), es negativa si p es menor del 50% y posi-
tiva si supera esta cantidad. El procedimiento para hallar los coeficientes de
los predictores es similar al de la regresión múltiple, si bien emplea el método
de máxima verosimilitud, en lugar del de mínimos cuadrados. Una vez obte-
nidos, se pueden hacer predicciones de la variable dependiente siguiendo el
modelo lineal, aunque en este caso, en lugar de predecir directamente el va-
lor de la variable respuesta, se obtiene su logit, que es bastante más complejo
de interpretar que una proporción. Para hacerse una idea de lo que se está
hablando, no está mal recordar que un logit igual a –3 equivale a un valor de
p del 5%, un logit de –2 equivale al 12% y uno de –1 al 37%. Obviamente, és-
tos tienen sus equivalentes positivos en los porcentajes complementarios, es
decir, +1 significa un 63%; +2 un 88% y +3 un 95%. En general, la fórmula
para obtenerlos es mediante la expresión: exp(x)/(1+exp(x)). La expresión
de los modelos logísticos es, por tanto,

P(Y = 1)
ln = XB + e  
P(Y ≠ 1)

584
19. El análisis multivariable

Para entender mejor el procedimiento, se va a emplear la misma varia-


ble dependiente que se usó para la regresión múltiple convirtiéndola en
una variable dicotómica que asume el valor 1 en el caso de que el estu-
diante haya sacado una puntuación en Matemáticas por encima de la
media de la OCDE, es decir por encima de 500, que representa sólo al
43,8% de los estudiantes que realizaron esta prueba en España.

Tabla 8. Regresión logística de buena puntuación en Matemáticas


(>500)

Variables Vv. métricas + dicotómicas + interacción

Género =v arón     0,34 *** 0,34 ***

Mes 0,02 *** 0,02 *** 0,02 ***

Estatus 0,71 *** 0,65 *** 0,65 ***

Colegio = privado     0,40 *** 0,40 ***

Estatus # privado         –0,02  

Lengua = catalán     0,50 *** 0,50 ***

Lengua = vasco     0,58 *** 0,58 ***

Lengua = gallego     0,23 * 0,23 *

Lengua = valenciano     0,06   0,06  

Lengua = otra     –0,47 *** –0,47 ***

Constante –0,22   –0,56 *** –0,55 ***

Pseudo R2 (McFadden) 0,08   0,10   0,10  


Clasificados correctamente 63,1%   64,0%   64,0%  
* p<0,05; ** p<0,01; *** p<0,001.
Fuente: http://pisa2012.acer.edu.au/downloads.php.

El resultado de la regresión logística con las mismas variables inde-


pendientes, interacción incluida (tercera columna de la tabla 8) se presen-
ta con una pauta similar a la regresión múltiple, esto es, mediante unos
coeficientes con sus errores típicos y significaciones, así como una medi-
da equivalente al R2, llamada pseudo-R2, basada en la verosimilitud del
modelo comparada con la del modelo base. Como puede apreciarse, el
pseudo-coeficiente de determinación (0,10) es menor que en la regresión
múltiple. Aunque ambos coeficientes no sean del todo comparables, los
modelos con variable dependiente continua suelen ser más precisos que
aquellos que trabajan con variable discreta.

585
El análisis de datos

Centrándose en los coeficientes, la constante se refiere al valor logit


estimado para una estudiante nacida en diciembre, de familia de estatus
medio, que asiste a clases en un colegio privado y habla castellano en
casa, esto es, con características no presentes en la primera columna de
la tabla 8. Esta persona tendría, según el modelo, una probabilidad del
36,6% (logit = –0,55) de puntuar en Matemáticas por encima de la media
de los países de la OCDE. Todos los coeficientes son congruentes con los
obtenidos en la anterior regresión: los varones, los nacidos en meses an-
teriores, los de estatus alto y en colegio privado rinden mejor en Mate-
máticas. La influencia de la lengua es similar en los casos de estudiantes
que hablan castellano y valenciano. De forma distinta, quienes hablan
catalán, vasco o gallego en su familia tienen una probabilidad de tener
una puntuación en Matemáticas mayor que la de los castellanoparlantes,
mientras que en el caso de los que hablan otra lengua no oficial en Espa-
ña su rendimiento es significativamente menor. Sin embargo, a diferencia
de la regresión anterior, la interacción entre estatus y titularidad del cole-
gio no es significativa (–0,02, sin asteriscos), en la medida en que el valor
de p correspondiente al cociente entre el valor del coeficiente y su error
típico no es menor de 0,05. Por ello, las curvas logísticas del gráfico 3 tie-
nen formas muy similares.

Gráfico 3. Probabilidades de puntuaciones medias y altas


en matemáticas según modelo logit
Pr (Obtener puntuación medio alta en Matemáticas)

1
0,8
0,6
0,4
0,2
0

– – –
Estatus

586
19. El análisis multivariable

d.  Clasificación con variables cualitativas: el análisis de segmentación

Una alternativa a la regresión logística son los árboles de clasificación y


regresión, también denominados análisis de segmentación, que constitu-
yen un conjunto de técnicas que dividen jerárquicamente la muestra en
un número indeterminado de segmentos homogéneos bajo un determina-
do criterio mediante la selección progresiva de sus mejores predictores
entre un conjunto de variables candidatas. En consecuencia, se trata de
una técnica de dependencia, al tener que determinarse el criterio sobre el
que se van a conformar las distintas subdivisiones de la muestra.
Como se deduce de la definición, son diversos los procedimientos
para realizar las segmentaciones. En este capítulo, sólo se abordará el
procedimiento CHAID (Chi-squared Automatic Interaction Detector), es-
pecialmente apropiado para el caso de variables dependientes nominales
al emplear la métrica del χ2 explicada en el capítulo anterior. También
conviene que las variables independientes de este procedimiento sean no-
minales u ordinales, aunque obviamente también puede emplearse un
predictor cuantitativo, siempre y cuando se transforme en un conjunto
finito de categorías.
El procedimiento consiste en el siguiente proceso: en primer lugar se
comprueba si las distintas categorías de las variables predictoras son si-
milares o no entre sí. Siguiendo con el mismo ejemplo de la regresión lo-
gística en el que la variable dependiente era obtener una puntuación en
Matemáticas por encima de 500 puntos, si se dispone de un predictor con
más de dos categorías, como es el caso de la lengua que se habla en la
casa del estudiante, se comprueba si sus distintas categorías tienen un
comportamiento similar en relación con la variable dependiente. En este
caso, sería saber si hay un porcentaje parecido de buenas puntuaciones
entre los que hablan catalán y los que hablan vasco, por ejemplo, en cuyo
caso se agruparían estas categorías. Como se aprecia en la tabla 9, no hay
diferencias significativas entre quienes hablan en casa vasco y catalán,
como tampoco las hay entre quienes lo hacen en valenciano y en gallego.
Una vez fusionados estos dos pares de categorías, no se pueden seguir
combinando, porque hay diferencias significativas entre cualquier par de
valores (segundo paso).
Tras haber agrupado categorías similares dentro de los posibles pre-
dictores, tiene lugar el proceso más importante de la segmentación: la
división de la muestra, que se realiza mediante la selección del mejor pre-
dictor entre el conjunto de variables candidatas. En este caso, entre géne-
ro, mes de nacimiento, estatus de la familia, titularidad del centro o len-

587
El análisis de datos

gua hablada en casa, se trata de averiguar cuál de ellas ayuda más a


discriminar a los estudiantes con buenas puntuaciones.

Tabla 9. Fusión de categorías de la variable lengua hablada en casa


según semejanza en puntuaciones en Matemáticas

Matemáticas Vasco Catalán   Castellano   Valenciano Gallego   Otros

<500 37,5 41,2   49,9   55,3 58,6   73,4


> = 500 62,6 58,8   50,1   44,7 41,4   26,6
n 1.084 1.188   20.794   150 565   1.532
Prueba χ2=3,26; p=0,07       χ2 =0,51; p=0,47    
         2º paso          

Matemáticas   Vasco-Cat.   Castellano   Valen-Gall.     Otros

<500   39,9   49,9   57,9     73,4


>=500   60,61   50,1   42,1     26,6
n   2.272   20.794   715     1.532

Prueba   χ2 =90,90; p=0,00   χ2 =17,60; p=0,00 χ2 =53,99; p=0,00

Como se refleja en el gráfico 4, la variable por la que se segmenta en


primer lugar la puntuación medio-alta en Matemáticas es el estatus. Esta
variable, al ser cuantitativa, ha sido dividida en tres grupos de igual ta-
maño: el primero (con estatus por debajo del –0,6) sólo presenta un 32,8
de estudiantes con más de 500 puntos en la prueba de matemáticas en
PISA; el segundo (con un estatus entre las puntuaciones de –0,6 y +0,4)
se caracteriza por tener un 48,7% de estudiantes por encima de la media
de la OCDE, y el tercero (con estatus mayor de 0,4) por ofrecer un por-
centaje de alumnos de este tenor del 67,7%. Es, por tanto, clara la in-
fluencia del estatus familiar en el rendimiento en Matemáticas.
Una vez que se han conformado estos tres nodos o grupos, el análisis
de segmentación prosigue realizando divisiones sobre estos grupos con el
resto de variables. En este ejemplo concreto, ocurre que en cada uno de
los grupos de estatus formados aparece una variable diferente de seg-
mentación:

588
Gráfico 4. Árbol de la nota en Matemáticas según estatus, lengua, género y titularidad

589
19. El análisis multivariable
El análisis de datos

Entre los de estatus bajo (nodo 1), la variable que segmenta es la len-
gua que se habla en casa: en este sentido, los vascos de bajo estatus tie-
nen un 52% de probabilidad de estar por encima de la media de la
OCDE; en cambio, sólo el 15% de aquellos estudiantes en los que no se
habla ninguna de las lenguas oficiales españolas puntuaron por encima
del valor medio del 500. Es de notar en el nodo 7 del gráfico 4 cómo los
estudiantes que en su casa hablan catalán, gallego y valenciano aparecen
en el mismo grupo, debido a que no presentan pautas muy distintas entre
ellos en las puntuaciones matemáticas.
En los estudiantes de estatus medio (nodo 2), la variable más diferen-
ciadora es el género, pues con ella se distingue entre varones, con una
probabilidad del 52,7% de encontrarse por encima de la media, y muje-
res, con una del 44,6%.
Finalmente, la variable que segmenta a los estudiantes de estatus alto
(nodo 3) es la titularidad del colegio: si cursan en uno público, tendrán
una probabilidad de sacar buena nota en Matemáticas del 63,4%; si, en
cambio, están matriculados en uno privado o concertado, la posibilidad
de sacarla es del 71%.
En conjunto, puede distinguirse un alto contraste entre los estudiantes
de buena familia que estudian en un colegio privado (nodo 11), entre
quienes un 71% han obtenido calificaciones por encima de la media, y
los estudiantes que viven en entornos de bajo estatus y hablan una len-
gua distinta de las oficiales en el país (nodo 5), de los que sólo un 15%
han superado el valor promedio del estudio.
El análisis de segmentación implica una división de la muestra y una
clasificación: A la primera se genera con las variables por las que se seg-
menta. Con el análisis realizado, se han conformado 8 grupos o nodos fi-
nales distintos (del 4 al 11): grupo de bajo estatus/habla castellano en
casa; grupo de bajo estatus/habla otros idiomas; grupo de bajo estatus/
habla vasco; grupo de bajo estatus/habla catalán, gallego o valenciano;
grupo de alumnos varones de estatus medio; grupo de alumnas de esta-
tus medio; grupo de estatus alto asistentes a colegio privado y grupo de
estatus alto asistentes a colegio público. Cada uno de ellos ofrece un por-
centaje de buenas puntuaciones en matemáticas. En función de este por-
centaje se puede hacer una segunda clasificación entre aquellos con bue-
nos resultados en matemáticas y aquellos que no los tienen. Para
generarla, aquellos grupos con más del 50% de buenas calificaciones en
esta materia serán clasificados como tales; mientras que los que no al-
cancen esta proporción serán clasificados como no buenos. Dicho de
otro modo, podríamos hacer una predicción clasificadora de la variable

590
19. El análisis multivariable

dependiente (ser bueno o no en Matemáticas) en función de las caracte-


rísticas reflejadas en las variables predictoras.
Consecuentemente, al conjunto de estudiantes de bajo estatus social,
salvo en el caso de los que hablan en su casa vasco, podríamos pronosti-
carles que no serán buenos en matemáticas. Lo mismo se podría decir de
las estudiantes que se crían en un estatus medio, pues sólo el 45% de ellas
tienen puntuaciones por encima de los 500 puntos. En contraste, los res-
tantes cuatro grupos (los dos de estatus superior, los varones de estatus
medio y los de estatus bajo que hablan vasco) poseen más de la mitad de
posibilidades de ser buenos en Matemáticas, por lo que serán cualifica-
dos así en una posible predicción.
El final de este proceso se puede presentar en la llamada tabla de cla-
sificación. En ella se cruzan, por un lado, los distintos valores empíricos
de la variable dependiente y, por el otro, los distintos valores pronostica-
dos en función de su pertenencia a uno u otro de los grupos conforma-
dos por las variables independientes. En el ejemplo seguido se comprue-
ba que, tras la segmentación, se califican correctamente el 63% de los
sujetos. De ahí que la estimación del riesgo sea su complementario, esto
es, el 37%. Esta cifra sólo puede ser útil comparándola con la estimación
del riesgo de partida, es decir, de la que dispondríamos sin contar con
ningún predictor. En este caso, sería del 49,7%, que es el porcentaje de
la(s) categoría(s) no modal(es), correspondiente a los alumnos y alumnas
con buenas notas en Matemáticas (véase el nodo raíz del gráfico 4).

Tabla 10.  Tabla de clasificación del análisis de segmentación


    Pronosticado    
Observado   <500   >500   % correcto
<500   7.815   4.831   61,8
>500   4.452   8.023   64,3
Porcentaje   48,8   51,2   63,0
Fuente: http://pisa2012.acer.edu.au/downloads.php.

En consecuencia, para una mejor evaluación de la segmentación, con-


viene realizar, además de la tabla de clasificación, la tabla donde se cru-
zan los grupos segmentados con la variable de criterio (tabla 11). De esta
tabla, que con toda seguridad será significativa, se puede obtener la V de
Cramer (en este caso con valor de 0,30) o la λ asimétrica (aquí con un
valor de 0,26) como coeficientes de asociación que evalúen la bondad de
predicción del análisis efectuado.

591
El análisis de datos

Tabla 11. Perfil en el rendimiento en Matemáticas de los nodos


terminales
    Estatus

    Estatus bajo   Estatus medio   Estatus alto  


    Lengua   Género   Titularidad  
Cat.
Matemat.   Otra   Castel.   Gal.   Vasco   Mujer   Varón   Público   Privado   Total
< OCDE   84,7   66,9   60,4   47,6   55,4   47,3   36,6   28,7   50,3
> OCDE   15,3   33,1   39,6   52,4   44,6   52,7   63,4   71,3   49,7
Total   679   6.878   601   275   4.109   4.213   3.870   4.496   25.121

χ2= 2.290,39; p=0,00; V de Cramer=0,30; λ=0,26.

6.  Nuevos avances en análisis multivariable

No han quedado cubiertas en este capítulo todas las posibilidades del


análisis multivariable. Solo como bosquejo cabría mencionar algunas de
las más novedosas técnicas que se están abriendo paso en la literatura
académica de las ciencias sociales. Entre ellas, en el marketing se ha de
mencionar la popularidad que está adquiriendo el análisis conjunto
para ver los factores que intervienen en la valoración de los productos
de consumo (Hair et al., 1999: 407-454); en procedimientos explorato-
rios, bajo la influencia del análisis de los grandes datos, se están em-
pleando cada vez más los bosques aleatorios (Breiman, 2001), como una
extensión del análisis de segmentación o las máquinas de soporte vecto-
rial (Betancourt, 2005) para el reconocimiento de pautas, y en el terreno
del análisis de causas se están empleando con profusión la regresión
multinivel (Cebolla, 2013), el análisis de la historia de acontecimientos
(Bernardi, 2006) o las redes neuronales (Pérez Delgado y Martín Mar-
tín, 2003).

Notas
1  En este capítulo se emplea la notación matricial para describir los modelos
multivariables. Según ésta, los vectores serán representados con letras minúscu-
las en negrita y las matrices mediante letras mayúsculas en negrita.

592
19. El análisis multivariable

Bibliografía recomendada
Cea, M. Á. (2002): Análisis multivariable. Teoría y práctica en la investigación
Social, Madrid, Síntesis.
Cuadras, C. M. (2014): Nuevos métodos de análisis multivariante, Barcelona,
CMC Editions.
Díaz de Rada, V. (2002): Técnicas de análisis multivariante para ivestigación so-
cial y comercial (Ejemplos prácticos utilizando SPSS versión 11), Madrid,
RA-MA.
García Ferrando, M. (2004): Socioestadística: Introducción a la estadística en so-
ciología, Madrid, CIS.
Hair, J. F., et al. (1999): Análisis multivariante, Madrid, Prentice Hall.
Martínez Arias, R. (1999): El Análisis multivariante en la investigación científica,
Madrid, La Muralla/Hepérides.
Peña, D. (2002): Análisis de datos multivariantes, Madrid, McGraw Hill.
Sánchez Carrión, J. J. (ed.) (1984): Introducción a las técnicas de análisis multiva-
riable, Madrid, CIS.

593
El análisis de datos

20.  El análisis de contenido


tradicional

Eduardo López-Aranguren

1. Introducción

La definición clásica del análisis de contenido es la realizada por Berel-


son en 1962: «El análisis de contenido es una técnica de investigación
para la descripción objetiva, sistemática y cuantitativa del contenido ma-
nifiesto de la comunicación». Años más tarde, en la definición también
muy conocida de Holsti (1969) —«cualquier técnica de investigación que
sirva para hacer inferencias [deducciones] mediante la identificación sis-
temática y objetiva de características específicas dentro de un texto»—
han desaparecido tanto el requisito de que el análisis sea «cuantitativo»
como el atributo «manifiesto» aplicado al contenido objeto de análisis
(con lo cual se admite por un lado el análisis cualitativo y por otro lado
el análisis del contenido latente de las comunicaciones); y se indica ade-
más que el propósito primordial del análisis de contenido es realizar infe-
rencias, esto es, deducciones. En esta misma línea se encuentra la defini-
ción, más reciente, de Krippendorff (1990: 28): «El análisis de contenido
es una técnica de investigación destinada a formular, a partir de ciertos
datos, inferencias reproducibles y válidas que puedan aplicarse a su con-
texto». En suma, en la actualidad se reconoce que el análisis de conteni-
do puede tener tanto un fin descriptivo como un fin inferencial (deducti-
vo) y puede utilizar tanto técnicas de análisis cuantitativo como técnicas

594
20. El análisis de contenido tradicional

de análisis cualitativo; también hay acuerdo en que el análisis no está li-


mitado al contenido manifiesto de los mensajes, sino que puede exten-
derse a su contenido latente, y en que los análisis realizados deben some-
terse, como todo análisis, a pruebas de validez y fiabilidad.
De forma casi esquemática, y sin duda incompleta, podemos indicar los
hitos principales en la historia del moderno análisis de contenido de carác-
ter sociológico de la siguiente manera: 1) Comienza la historia en los años
veinte y treinta con los análisis de contenido que centran su interés en el
concepto de «estereotipo social» sugerido por Lippmann (2003) y en el
concepto de «actitud», de entonces reciente aparición en psicología. 2)
Hay que destacar a continuación los análisis de propaganda realizados por
Lasswell y colaboradores durante la Segunda Guerra Mundial, que más
tarde serían recogidos y sistematizados por George (1959) en un volumen
que ha venido a ser considerado, junto con el texto de Berelson (1952),
como un clásico. 3) La época dorada del análisis de contenido de codifica-
ción manual corresponde a las décadas de los años cincuenta y sesenta,
destacando aquí las obras de Pool (1959), Lasswell et al. (1965) y Holsti
(1969). 4) La última innovación ha sido el desarrollo de programas de or-
denador para el análisis de datos cualitativos (véase el capítulo 22 de este
mismo libro, a continuación) a partir de la aparición en 1966 de la obra de
Stone y colaboradores sobre el sistema General Inquirer.
Se entiende por marco de referencia conceptual del análisis de contenido
el conjunto de conceptos interrelacionados que sirven para guiar la reali-
zación del análisis así como para evaluar cualquier análisis de contenido
ya realizado (Krippendorff, 1990: 35-40). Una vez identificado por el in-
vestigador el fenómeno de interés, la parcela de la realidad que va a ser ob-
jeto de investigación, el primer elemento de la estructura conceptual del
análisis está formado por los datos. Los datos constituyen la materia pri-
ma, la superficie que el investigador quiere penetrar. Debe estar claro, por
tanto, qué datos van a ser analizados, cómo son definidos, y de qué univer-
so de datos se han obtenido. El contexto de los datos es el segundo elemen-
to de la estructura conceptual. Para poder llegar a hacer inferencias váli-
das en relación con el fenómeno en que el investigador está interesado, éste
debe tener algún conocimiento acerca del contexto de los datos. El contex-
to en relación con el cual se analizan los datos incluye todas las condicio-
nes que rodean o envuelven a los datos, algunas serán condiciones antece-
dentes, otras concomitantes, unas terceras resultantes. Otro elemento de la
estructura conceptual es el objetivo del análisis de contenido. El objetivo, lo
que el investigador quiere averiguar, tendrá que estar enunciado con clari-
dad para que sea posible juzgar si el análisis ha llegado o no a su término y

595
El análisis de datos

para que sea posible especificar el tipo de prueba que se necesita para de-
terminar la validez de los resultados.
El quehacer intelectual fundamental del análisis de contenido, y ele-
mento central del marco de referencia conceptual, es la inferencia (deduc-
ción). Se ha dicho que en todo análisis de contenido, incluso en el más
estrictamente descriptivo, se realiza alguna inferencia, por rudimentaria
que ésta sea. En los casos de análisis con fines más puramente inferencia-
les, el investigador tiene que utilizar una construcción teórica de las rela-
ciones entre datos y su contexto para poder realizar y justificar esas infe-
rencias. Esa construcción teórica le proporciona las reglas de inferencia
que le permiten establecer el puente entre los datos que analiza (que fun-
cionan como determinante) y el objetivo que persigue (que funciona
como resultado). Y el último elemento de la estructura conceptual del
análisis de contenido concierne a la validez de los resultados. De nada
sirve haber realizado un análisis de contenido aparentemente perfecto
desde una perspectiva metodológica si los resultados del mismo no son
válidos, es decir, si no reflejan la realidad que se ha pretendido captar. El
investigador debe por tanto someter sus resultados —mejor aún, sus in-
ferencias— a alguna prueba de validez. Y para ser riguroso, debiera indi-
car con claridad previamente al análisis qué pruebas de validez utilizará
o, en otras palabras, qué tipo de datos necesitará para comprobar la vali-
dez de sus resultados o inferencias.

2.  Aplicaciones del análisis de contenido

Los objetivos posibles del análisis de contenido son tres: 1) La descrip-


ción precisa y sistemática de las características de una comunicación.
2) La formulación de inferencias (deducciones) sobre asuntos exteriores
al contenido de la comunicación. 3) La prueba de hipótesis, para su con-
firmación o rechazo.
El objetivo tradicional del análisis de contenido ha sido la descripción.
Cuando el interés de la investigación se centra en el contenido, no en la
prueba de alguna hipótesis o en cuestiones de inferencia, entonces el ob-
jetivo principal es la descripción del fondo o de la forma de ese conteni-
do. Por lo general, estos análisis descriptivos son de carácter exploratorio
o de índole histórica. La clasificación más completa y mejor conocida de
los análisis de contenido de carácter descriptivo es la realizada por Berel-
son (1952), quien utilizó como criterio el de la «función» (propósito) del
análisis. Holsti (1969) sigue la clasificación de Berelson, limitándose a

596
20. El análisis de contenido tradicional

sugerir dos funciones adicionales. La clasificación de Berelson, con las


adiciones de Holsti, es la siguiente:

1. Análisis de las características del contenido en cuanto a su fondo o sus-


tancia

1.1. Para describir tendencias y cambios en el contenido de las comu-


nicaciones.
1.2. Para averiguar la evolución de los intereses y las actividades del
pensamiento erudito.
1.3. Para revelar diferencias internacionales en el contenido de la co-
municación.
1.4. Para realizar comparaciones entre diferentes medios de comuni-
cación y entre diferentes niveles de comunicación.
1.5. Para analizar el contenido de las comunicaciones en términos de
sus objetivos explícitos o implícitos.
1.6. Para elaborar y poner en práctica ciertos estándares de comuni-
cación, así como examinar el contenido de las comunicaciones
en términos de tales estándares.
1.7. Para ayudar en operaciones técnicas de investigación como la
codificación de datos obtenidos en entrevistas u observaciones
no estructuradas.
1.8. Para relacionar características conocidas de las fuentes de la co-
municación con los mensajes que tales fuentes producen.
1.9. Para relacionar características conocidas de la audiencia con
mensajes creados para ella.

2.  Análisis de las características del contenido en cuanto a su forma

2.1. Para revelar técnicas de propaganda o persuasión.


2.2. Para medir la legibilidad (interés, amenidad, facilidad de com-
prensión) del material impreso.
2.3. Para describir rasgos estilísticos en lenguajes, en períodos histó-
ricos, en tipos de discurso y en autores individuales.

Los análisis de contenido de naturaleza descriptiva se caracterizan por


producir determinados tipos de generalizaciones, algunas tal vez deriva-
das de la comparación de contenidos de comunicaciones de distinto ori-
gen o de comunicaciones de un único origen pero realizadas en tiempos

597
El análisis de datos

diferentes, otras quizás derivadas de la comparación del contenido de


una o más comunicaciones con una norma o estándar (como objetividad
o imparcialidad), o acaso formuladas como resultado del análisis de la
relación entre dos o más variables.
Un segundo posible objetivo del análisis de contenido es la realización
de inferencias (deducciones). Hay dos grandes categorías de inferencias.
La primera está formada por las que se refieren al origen, a las causas, a
las condiciones antecedentes de la comunicación, y especialmente al au-
tor de la misma, a su carácter, sentimientos o intenciones; estas inferen-
cias responden a los interrogantes «quién» y «por qué». La segunda cate-
goría está formada por las inferencias que se refieren a los resultados o
efectos de la comunicación, y aquí el análisis responde más bien al inte-
rrogante «con qué efecto». Combinando las aportaciones de Berelson
(1952) y Holsti (1969) obtenemos la siguiente clasificación de los análisis
de contenido de carácter inferencial:

1. Análisis para realizar inferencias acerca de las causas, de los producto-


res o de los antecedentes de las comunicaciones

1.1. Para identificar las intenciones y otras características de los crea-


dores de las comunicaciones.
1.2. Para analizar rasgos psicológicos de individuos o determinar el
estado psicológico de personas o grupos.
1.3. Para detectar la existencia de propaganda.
1.4. Para obtener información política o militar.
1.5. Para determinar actitudes, intereses o valores de grupos o pobla-
ciones, así como el cambio en los mismos que haya podido tener
lugar.
1.6. Para proporcionar pruebas jurídicas.
1.7. Para decidir disputas sobre paternidad literaria.

2. Análisis para realizar inferencias acerca de las consecuencias o efectos


de las comunicaciones

2.1. Para determinar qué actitudes y comportamientos son conse-


cuencia de —o respuesta a— comunicaciones.
2.2 Para analizar la corriente de información.
2.3. Para medir la legibilidad de los textos.

598
20. El análisis de contenido tradicional

Los análisis de contenido que están dirigidos a la prueba de hipótesis por


lo general comparan los resultados obtenidos mediante el análisis de
contenido con resultados obtenidos de forma diferente e independiente.
Janis (1965) ha mantenido que el mejor tipo de hipótesis para someter a
prueba en un análisis de contenido es la que propone una covariación
cuantitativa entre una determinada característica del contenido y una
respuesta pragmática al interrogante planteado. De acuerdo con este
planteamiento, la operación principal en el análisis de contenido consiste
en la clasificación en una serie de categorías de los signos que aparecen
en las comunicaciones. Los tipos de análisis de contenido que tal clasifi-
cación produce son los siguientes:

1. Análisis de contenido semántico, que consiste en la clasificación de los


signos según su significado

1.1. Análisis de designaciones, en el que se cuenta el número de veces


que aparecen referencias a determinados objetos (personas, gru-
pos, cosas, conceptos) y que coincide con lo que otros han lla-
mado «análisis de temas».
1.2. Análisis de atribuciones, que proporciona la frecuencia con que
aparecen ciertas caracterizaciones.
1.3. Análisis de afirmaciones, que proporciona la frecuencia con que
ciertos objetos son caracterizados de una determinada manera.

2. Análisis de contenido pragmático, que consiste en la clasificación de los


signos según sus causas o efectos probables

3. Análisis del vehículo del signo, que consiste en la clasificación del conte-
nido según las propiedades psicofísicas de los signos.

Más recientemente, Krippendorff (1990: 47 y ss.) ha sugerido una clasifi-


cación diferente de las aplicaciones del análisis de contenido basada en
las formas de inferencia que pueden realizarse en el análisis. Su visión
parte de dos ideas interrelacionadas. La primera es que el objetivo pri-
mordial del análisis de contenido es hacer inferencias (deducciones), y la
segunda que las inferencias pueden estar ligadas a «sistemas» (aparatos
conceptuales que se utilizan para describir una porción de la realidad) o
a «estándares» (criterios con los que se comparan objetos para determi-
nar cuán buenos son o de qué tipo son) o a «índices» (variables que pue-

599
El análisis de datos

den ser correlacionadas con otros fenómenos). En cada una de estas mo-
dalidades, las aplicaciones del análisis de contenido son las que se
indican a continuación:

1. Sistemas

1.1. Para explorar tendencias o cambios en las referencias a un obje-


to determinado.
1.2. Para predecir el uso de determinadas pautas.
1.3. Para extrapolar diferencias en comunicaciones.

2. Estándares

2.1. Para evaluar reportajes realizados por la prensa.


2.2. Para identificar los significados que los signos tienen para audien-
cias o receptores específicos.
2.3. Para examinar el contenido de comunicaciones en términos de un
estándar dictado o legitimado por una institución.

3. Índices

3.1. Índice de importancia o énfasis, que determina la frecuencia con


que ocurre un símbolo, una idea o un tema.
3.2. Índice de dirección o sesgo, que indica el grado de equilibrio o
desequilibrio en el número de características favorables o desfa-
vorables atribuidas a un símbolo, idea o tema.
3.3. Índice de intensidad o fuerza de una creencia o convicción, que
indica el tipo de cualificaciones y asociaciones dirigidas hacia un
símbolo, idea o tema.

3.  Elementos componentes del análisis de contenido


3.1  Los datos

El análisis de contenido requiere siempre, en primer lugar, unos datos.


Un dato es una unidad de información grabada en un medio resistente y
duradero (papel, film, casete, disco compacto, etc.) que se distingue de
otros datos, que es analizable por medio de técnicas explícitas y que es
significativo para un problema determinado. La primera tarea de la in-
vestigación científica es, pues, determinar qué es lo que se va a conside-

600
20. El análisis de contenido tradicional

rar como un dato, qué es lo que se va a observar. Los datos tienen que se
identificados, separados y definidos; así es como surgen las unidades de
análisis que se describen a continuación.

3.2  El muestreo

El muestreo, el procedimiento y las fases de selección de una muestra, y


los tipos de muestra, no son sustancialmente diferentes en el análisis de
contenido respecto a otros tipos de análisis. Es distinta, eso sí, la natura-
leza de los elementos del universo. En general, la cuestión metodológica
central en todo diseño de muestreo es si la muestra resultante permite
hacer generalizaciones sin grave riesgo de error. Lo que tiende a ser ca-
racterística propia del análisis de contenido inferencial es que se obtiene
una muestra de una población para hacer generalizaciones acerca de otra
población. De modo que, como ha indicado Krippendorff (1990: 94-95),
el tipo de inferencia a realizar determina las decisiones a tomar para se-
leccionar una muestra de datos.

3.3  Las unidades de análisis

Las unidades de análisis son los elementos de la comunicación en que se


va a centrar el análisis. Ahora bien, conviene establecer una mayor preci-
sión, y para ello se va a distinguir entre unidades de muestreo, unidades
de registro y unidades de contexto.
Las unidades de muestreo son las diversas partes de la realidad someti-
da a observación que el investigador considera como separadas e inde-
pendientes entre sí; por ello, son aspectos de la comunicación que pue-
den formar parte de una muestra de elementos, para a continuación ser
objeto de análisis. Aunque se han utilizado unidades de muestreo «artifi-
ciales» (bloques de líneas, columnas, páginas, bloques de minutos, etc.),
es mucho más frecuente utilizar unidades de muestreo «naturales», tales
como editoriales, artículos, carteles, programas de radio o televisión, o
segmentos independientes de tales programas.
Es unidad de registro cada parte de la unidad de muestreo que puede
ser considerada como analizable separadamente porque aparezca en ella
una de las referencias en que el investigador está interesado. En otras pa-
labras, la unidad de registro es la mínima porción del contenido que el
investigador aísla y separa por aparecer allí uno de los símbolos, pala-

601
El análisis de datos

bras clave, eslóganes o temas que el investigador considera significati-


vo. A veces la unidad de registro está delimitada por la aparición de una
única palabra o símbolo, a menudo está delimitada por el enunciado de
un tema o quizá por el nombre de un personaje, y hay casos en que toda
una pieza entera (documento, editorial, artículo o programa) es conside-
rada unidad de registro si lo que interesa al investigador es la caracteri-
zación global de la misma (como «procomunista» o «racista», por ejem-
plo). Pero en este último caso, la unidad de registro se funde y confunde
con la unidad de contexto.
La unidad de contexto es la porción de unidad de muestreo que tiene
que ser examinada para poder caracterizar una unidad de registro. Así, si
se trata de una comunicación escrita, la unidad de contexto es el pasaje
en el que está situada la unidad de registro que define el significado pre-
ciso de esta última, y es por tanto el pasaje que el investigador tiene que
leer para determinar cómo está tratado un determinado símbolo, perso-
naje, tema, etc. Por ejemplo, la unidad de registro puede ser una sola pa-
labra o un término, pero para cerciorarse de si ese término es tratado fa-
vorable o desfavorablemente el investigador tendrá que considerar la
frase entera en que el término aparece; y entonces la frase es la unidad e
contexto. O bien puede ocurrir que la frase sea la unidad de registro y el
párrafo en que tal frase aparece ésta.
Las unidades de contexto no tiene por qué ser independientes unas de
otras, ni nítidamente separables; al contrario, pueden estar solapadas unas
con otras. Un determinado espacio (párrafo escrito o emitido por radio,
escena o secuencia cinematográfica) puede ser unidad de contexto para va-
rias unidades de registro contenidas en su interior. Por lo general, la uni-
dad de contexto es una porción de la comunicación más extensa que la
unidad de registro, pero no siempre es así y, como ya se ha indicado, la
unidad de registro y las unidades de contexto pueden coincidir. Las unida-
des de contexto más comúnmente empleadas son la frase, el párrafo, un
capítulo, sección o segmento de la comunicación, y el documento entero
(en el caso de editoriales, artículos de comentario y algunos otros).
La selección por el investigador de las unidades de registro y de las
unidades de contexto se basa por lo general en dos tipos de consideracio-
nes. En primer lugar, deben seleccionarse aquellas unidades que más con-
vengan para la consecución de los objetivos de la comunicación y a la
naturaleza de los datos que se van a analizar, pues, como ya demostraron
Grey, Kaplan y Lasswell (1965), la selección de unidades de registro y
contexto puede influir notablemente en los resultados del análisis. En se-
gundo lugar, la selección atiende al criterio de eficiencia, según el cual

602
20. El análisis de contenido tradicional

deben elegirse aquellas unidades que produzcan resultados más satisfac-


torios a gastos similares de recursos y tiempo. La dificultad en la aplica-
ción de este criterio es que obliga al equipo investigador a ensayar dife-
rentes combinaciones de unidades de registro y unidades de contexto, lo
cual, a su vez, implica consumo de recursos y de tiempo.

3.4  El registro. Las categorías de registro

Recibe el nombre de registro el proceso por el cual cada unidad de regis-


tro es codificada y descrita en forma analizable. La codificación es, a su
vez, el proceso por el cual los datos brutos son sistemáticamente trans-
formados y clasificados en categorías que permiten la descripción precisa
de las características importantes del contenido. El proceso de registro se
hace necesario cuando, en relación con los métodos disponibles y aplica-
bles, los fenómenos de interés para la investigación pueden ser califica-
dos de «no estructurados», y también cuando los fenómenos de interés
son fenómenos simbólicos, esto es, contienen información externa a la
manifestación física del fenómeno.
Los autores están de acuerdo en que el proceso de registro y codifica-
ción es un elemento crucial del análisis de contenido. Algunos (Janis,
1965, por ejemplo) llegan al extremo de definir el análisis de contenido
en términos de registro y codificación exclusivamente. En cualquier caso,
en el proceso de registro y codificación de los datos, el investigador ha de
tener en cuenta diversos factores: las características de los codificadores,
observadores o jueces que va a emplear (deben estar familiarizados con
la naturaleza del material que se va a codificar y deben ser capaces de en-
tender y manipular las categorías que se utilizan en la codificación y los
diversos términos y formas que se emplean para registrar los datos); la
necesidad de preparar y entrenar a los codificadores, jueces y observado-
res; escribir y perfeccionar las instrucciones de registro y codificación en
colaboración con codificadores y jueces; por fin, y muy principalmente,
el investigador ha de desarrollar y definir un sistema de categorías, ele-
mento crucial del análisis.
Las categorías son los casilleros entre los que se van a distribuir las
unidades de registro para su clasificación y recuento. El establecimiento
del sistema de categorías a utilizar es indudablemente el elemento más
importante de la infraestructura del análisis de contenido. Su éxito o fra-
caso depende fundamentalmente del sistema de categorías que se ha em-
pleado, de cuán bien se ajustan las categorías al problema y al contenido

603
El análisis de datos

del material a analizar, y de cuán claramente han sido delineadas, formu-


ladas y definidas.
Para obtener un buen y útil sistema de categorías, el investigador tiene
que prestar particular atención al cumplimiento de cinco requisitos:

1. El sistema de categorías debe reflejar los objetivos de la investiga-


ción, lo cual significa que previamente las variables de interés de-
ben estar claramente definidas y los indicadores especificados con
precisión.
2. El sistema de categorías debe ser exhaustivo: debe ser posible co-
locar cada unidad de registro en una de las categorías del sistema,
sin que ninguna quede sin encasillar.
3. Las categorías deben excluirse mutuamente: no debe ser posible
colocar una unidad de registro en más de una categoría del siste-
ma.
4. Las categorías deben ser independientes: la colocación de una
unidad de registro en una categoría no debiera influir en absoluto
en la clasificación de otras unidades de registro.
5. El sistema de categorías debe derivar de un único principio de cla-
sificación: deben mantenerse separados análisis conceptualmente
diferentes.

La creación y establecimiento de categorías es una tarea complicada y


a menudo difícil. Sería deseable la existencia de categorías estándar, esto
es, de categorías uniformes generales aplicables a problemas y materiales
diversos. Ello haría posible la comparación de los resultados de un estu-
dio con los de otros estudios anteriores y posteriores; y de esta forma po-
dría realizarse una cierta acumulación de hallazgos. Se han realizado al-
gunos esfuerzos en esta dirección, en general con escaso éxito. No existe
por tanto otra alternativa que desarrollar categorías ad hoc, específicas
para el análisis que se tiene entre manos, al menos hasta que un número
apreciable de investigadores se encuentren trabajando sobre un mismo
problema y alguno(s) consiga(n) crear un (buen) sistema que sea acepta-
ble para los demás.
Tampoco hay reglas fijas comúnmente aceptadas para guiar el esta-
blecimiento de categorías. Suelen crearse entonces por medio de un mé-
todo de tanteo (trial and error), proceso que para el investigador consiste
en moverse continuamente entre el marco teórico de la investigación y
los datos que maneja, contrastando la utilidad de las categorías provisio-
nales que ha creado, para después modificarlas según la luz que arrojan

604
20. El análisis de contenido tradicional

sobre ellas los datos. El método de tanteo incluye generalmente un estu-


dio piloto y alguna prueba previa del sistema de categorías que se piensa
emplear. Pueden sugerir categorías el marco teórico y empírico de refe-
rencia de la investigación, y también las hipótesis que se van a someter a
prueba (o los objetivos de la investigación, siempre que hayan sido for-
mulados con precisión). El desarrollo de un sistema de categorías es
especialmente difícil en los estudios exploratorios, y en estos casos al in-
vestigador no le queda otro recurso que sumergirse en el contenido del
material a analizar, examinándolo cuidadosamente para hallar pistas que
le permitan formular hipótesis de trabajo y principios de clasificación de
los que derivar categorías.
Los principios de clasificación de los que se han derivado la mayor
parte de las categorías empleadas en el análisis de material escrito pue-
den ser agrupados en dos clases:

A) Lo que la comunicación dice o contiene (el fondo)

1. Materia, tema o asunto. ¿De qué trata la comunicación? Es el más


frecuentemente utilizado.
2. Dirección o punto de vista. Alude al tipo de tratamiento o pre-
sentación —favorable o desfavorable, positivo o negativo— que la
comunicación hace de la materia o asunto de que se trata.
3. Criterio o valor. Este principio determina la base o bases que sir-
ven para hacer la clasificación en términos de «dirección» o «pun-
to de vista». Los dos criterios más generalmente aplicados son
probablemente los de «moralidad-inmoralidad» y «fuerza-debili-
dad». Otros frecuentes son los de «legalidad», «democracia» y
«justicia».
4. Autoridad, fuente o prueba. De aquí surgen categorías que identi-
fican a las personas, grupos o instituciones que en la comunica-
ción se citan como apoyo de afirmaciones o declaraciones.
5. Objetivo, meta o valores. El interrogante a que el análisis preten-
de dar respuesta es aquí el siguiente: ¿qué es lo que la gente —per-
sonas reales o ficticias que encontramos en el texto de la comuni-
cación— desea, qué persigue, cuáles son sus ambiciones? Por
ejemplo, riqueza, amor, poder, salud.
6. Medio o método. Cómo se consiguen los objetivos que se consi-
deran deseables, qué medios o métodos se utilizan para alcanzar
las metas propuestas: los hay legales e ilegales, violentos y pacífi-
cos, basados en la negociación o en la intransigencia, y otros.

605
El análisis de datos

7. Actores. Este principio se utiliza para clasificar a las personas,


grupos o instituciones que en el texto sometido a análisis son re-
presentados como realizadores de determinadas acciones o que
ocupan posiciones centrales.
8. Características personales y rasgos de carácter. Alude este princi-
pio a características sociodemográficas, a rasgos psicológicos y a
cualquier otra característica que utilizamos para describir a las
personas.
9. Origen. Clasifica los lugares de origen de las comunicaciones; y es
un principio particularmente apropiado en aquellos análisis que
estudian tendencias o cambios a través del tiempo.
10. Destino. La clasificación en términos de destino se centra en la
cuestión de cuál es el grupo (o los grupos) al que la comunicación
está particularmente dirigida.

B)  Cómo dice la comunicación lo que dice (la forma)

1. Forma de la afirmación. En la investigación sociológica la aplica-


ción de este principio suele seguir el modelo proporcionado por
Lasswell en su análisis del «lenguaje de la política»: afirmaciones
que expresan hechos o expectativas, afirmaciones que expresan
preferencias o demandas, y afirmaciones que expresan identifica-
ciones de las personas que hablan o dicen.
2. Intensidad. Se intenta aquí clasificar el componente emocional o
sentimental de las comunicaciones, el entusiasmo, la excitación o
la agitación que generan en el lector, oyente o espectador. El prin-
cipal problema es el de hallar o diseñar indicadores satisfactorios
de intensidad.
3. Mecanismo o recurso. Se refiere este principio al mecanismo o re-
curso estilístico que se utiliza con fines propagandísticos, persua-
sorios o tendenciosos. Etiquetas, generalizaciones carentes de
base y asociaciones con determinados grupos o ideologías son al-
gunos de tales mecanismos o recursos.

Debe quedar claro que los principios de clasificación y las categorías


que de ellos surgen varían según la naturaleza y los objetivos del análisis
de contenido. Lasswell (1965) desarrolló, como hemos mencionado, un sis-
tema de categorías para el análisis del lenguaje político, mientras que Bales
(1950) creó un sistema de doce categorías para aplicar al análisis del proce-
so de interacción en grupos pequeños. Una vez elaborado, sometido a

606
20. El análisis de contenido tradicional

prueba y perfeccionado el sistema de categorías, puede comenzar el proce-


so de colocación de las unidades de registro en esas categorías. Para ganar
fiabilidad, el investigador habrá de especificar con el máximo detalle las
instrucciones de registro y codificación y asegurarse de que todos los codifi-
cadores han entendido y aprendido tales instrucciones.

3.5  Las inferencias

Anteriormente hemos visto que uno de los elementos del llamado marco
conceptual de referencia del análisis de contenido es la inferencia (la de-
ducción), es decir, la formulación de conclusiones acerca de cuestiones
no relacionadas con el contenido de mensajes o comunicaciones, pero
que se apoyan en los resultados del análisis que se ha efectuado. Cues-
tión crucial aquí con la que el investigador tiene que enfrentarse es la de
hasta qué punto conducen los datos de que dispone a las inferencias que
se propone hacer. El investigador tendrá que evaluar de alguna forma la
conexión existente entre datos e inferencias; y como se ha señalado antes,
en esta evaluación desempeña un papel de máxima importancia la cons-
trucción teórica que utiliza el investigador, porque es ella la que indica
las reglas que le permiten establecer el puente entre los datos que analiza
y los objetivos que persigue.

3.6  El análisis

El análisis de los datos recogidos y registrados no es esencialmente dife-


rente del que puede llevarse a cabo en otras técnicas de investigación so-
cial. El problema es siempre el mismo, el de la medición. Mas comence-
mos con algunas palabras acerca de las diferencias entre el análisis
cualitativo y el análisis cuantitativo. George (1959) sugirió hace ya algún
tiempo un único criterio para distinguir el análisis cuantitativo del análi-
sis cualitativo, a saber, los aspectos de la comunicación a partir de los
cuales el investigador hace sus inferencias: en el análisis cuantitativo el
investigador se concentra en la frecuencia de aparición (número de veces)
de ciertas características del contenido, en tanto que en el análisis cuali-
tativo el investigador se concentra meramente en la presencia o ausencia
de determinadas características del contenido La idea de que el análisis
de contenido debe ser cuantitativo pertenece al pasado. Es más, el núme-
ro de autores que rechazan la dicotomía «análisis cuantitativo-análisis
cualitativo» en cuanto métodos opuestos crece sin cesar; la medición

607
El análisis de datos

cuantitativa y la medición cualitativa son ahora consideradas métodos


complementarios uno del otro.
La justificación más usual para el empleo de procedimientos cuantita-
tivos de análisis es que proporcionan una medida de la importancia y del
énfasis de las varias ideas que se encuentran en el texto, al tiempo que
permiten hacer comparaciones con otras muestras de material.

a) El análisis cuantitativo más frecuente y más sencillo es la distribu-


ción de frecuencias, la cual, junto con el cálculo de porcentajes,
ratios y otras estadísticas descriptivas, suele aplicarse al análisis
de tendencias.
b) Han alcanzado gran desarrollo y difusión los análisis de relacio-
nes entre variables: tabulación cruzada, medidas de asociación y
de correlación. Algunos de éstos pueden relacionar partes del
contenido con variables exteriores, es decir, resultados del análisis
de contenido con datos obtenidos independientemente.
c) La construcción de índices, combinando categorías separadas en
unidades más grandes que representan constelaciones de conteni-
do más amplias o más complejas. Uno de los índices más conoci-
dos es el «índice de desequilibrio» (véase Janis y Fadner, 1965),
que se utiliza para medir el grado en que el trato que en el mate-
rial se da al asunto o símbolo sometido a análisis es favorable,
desfavorable o neutral.
d) Cuando el investigador se concentra en el «análisis de imágenes y
representaciones» hay dos enfoques. El primero se centra en atri-
butos de la persona, entidad o idea que es objeto de nuestra aten-
ción, mientras que el segundo se centra en asociaciones o relacio-
nes de esa persona, entidad o idea.
e) El análisis de contingencia, el análisis de conglomerados (clusters)
y la clasificación contextual son técnicas de análisis más compli-
cadas y sofisticadas (véase Krippendorff, 1990: 168-174).

4.  Validez y fiabilidad en el análisis de contenido

4.1 Validez

Se juzga la validez de un análisis por el grado en que los resultados que


produce son compatibles con otras pruebas u otros testimonios impor-
tantes y pertinentes. Qué es lo que constituye «prueba o testimonio im-

608
20. El análisis de contenido tradicional

portante o pertinente» depende de la naturaleza y el propósito del análi-


sis. En cualquier caso, un análisis de contenido es válido en la medida en
que las descripciones e inferencias realizadas se mantienen en pie cuando
se las confronta con datos obtenidos de forma independiente.
Un instrumento de medición o análisis es válido si mide o analiza co-
rrectamente, si en efecto mide o analiza lo que se supone, o se da a enten-
der, que debe medir o analizar. La validez se comprueba usualmente
comparando los resultados obtenidos con el instrumento utilizado por el
investigador con los resultados obtenidos por medio de otro instrumen-
to. Desgraciadamente no siempre es posible efectuar este tipo de com-
probación.
La validez se refiere, pues, a aquella cualidad de los resultados de una
investigación que lleva a uno a aceptarlos como hechos incuestionables.
La importancia de la validez es la certidumbre que proporciona de que
los resultados de la investigación tienen que ser tomados con seriedad en
la construcción de teorías científicas y en la toma de decisiones en cues-
tiones prácticas. La validez puede ser interna o externa. Es validez inter-
na la que descansa en la existencia de una relación lógica entre indicado-
res, categorías y resultados del análisis. En cambio, la validez externa se
apoya en una relación empírica y por tanto sólo puede ser determinada
empíricamente.
Los estudiosos del análisis de contenido recomiendan hoy de forma
prácticamente unánime la realización de comprobaciones de la validez
externa de los resultados del análisis, a pesar de las dificultades metodo-
lógicas o conceptuales que puedan aparecer. Entre los varios tipos de va-
lidez externa existentes, los más adecuados al análisis de contenido pare-
cen ser los siguientes.

1.  Validez pragmática

La aproximación del investigador al fenómeno de la validez del análisis


de contenido se hace desde una perspectiva pragmática cuando su interés
se centra en la utilidad de los resultados del análisis para indicar o prede-
cir algún comportamiento o alguna característica específica de indivi-
duos, grupos, colectividades o naciones. La validez pragmática puede ser
concurrente cuando el investigador está interesado en alguna conducta o
característica que se da en el presente, es decir, de ocurrencia simultánea
a su análisis de los datos, o predictiva, cuando el investigador está intere-
sado más bien en alguna conducta o característica que ha ocurrido en el

609
El análisis de datos

pasado o va a ocurrir en el futuro respecto al momento de su análisis de


los datos. En uno y otro caso la validez se comprueba comparando los
resultados del análisis de contenido con los resultados de alguna otra
prueba que sea indicadora independiente de la conducta o característica
de que se trate, bien en su manifestación simultánea, bien en su manifes-
tación futura o pasada. El problema fundamental para ambos tipos de
validación es, claro está, hallar un test criterio válido y fiable, es decir,
una prueba que sea independiente (del análisis de contenido llevado a
cabo) y con cuyos resultados se puedan comparar los resultados del
análisis de contenido. A menudo esta comparación se realiza por medio
de un análisis de correlación que indique cuán fuerte es la asociación
entre los resultados de uno y otro. Una asociación muy fuerte, aparte de
conferir validez a los resultados del análisis de contenido, puede dar pie
al argumento de que el análisis realizado y el test independiente
constituyen mediciones intercambiables, y por tanto una puede ser
utilizada en sustitución, o como alternativa, de otra.

2.  Validación de rasgos abstractos

«Validación de rasgos abstractos» es el término que aquí voy a emplear


para referirme a lo que en inglés se llama construct validity. A menudo el
investigador está interesado en el análisis de contenido, no tanto para
predecir algún tipo único de comportamiento o alguna característica
concreta de individuos, grupos, colectividades o naciones sino más bien
para hacer inferencias respecto a algún rasgo (o característica) abstracto
y multidimensional —un construct como «individualismo», «sentimiento
nacionalista», «intolerancia», o «actitud liberal»— que se supone que
está reflejado en los resultados del análisis de contenido. Las definiciones
de tales rasgos abstractos y multidimensionales consisten en conjuntos
de proposiciones sobre sus relaciones con otros rasgos, o con otras acti-
tudes, o con comportamientos directamente observables. Pues bien, la
validación de rasgos abstractos consiste en verificar mediante pruebas in-
dependientes las relaciones que tales proposiciones establecen, es decir,
en demostrar la existencia de las relaciones propuestas entre el rasgo abs-
tracto de que se trate y otros rasgos, otras actitudes o determinados com-
portamientos.
Se ha sugerido que previamente a la validación de rasgos abstractos
multidimensionales mediante el procedimiento que se acaba de indicar, el
investigador debiera cerciorarse de que los indicadores que utiliza en el

610
20. El análisis de contenido tradicional

análisis producen mediciones adecuadas de los rasgos en que está intere-


sado. Como el procedimiento para obtener tal seguridad no sólo es com-
plicado sino que además es difícil de incorporar en el análisis de conteni-
do, voy a limitarme a identificar los dos objetivos que se persiguen: 1. Se
quiere adquirir la certeza de que el índice o método utilizado para medir
el rasgo o construct tiene validez discriminante, es decir, es capaz de dife-
renciarlo de otros rasgos. 2. Se quiere obtener la seguridad de que el índi-
ce o método empleado para medir el rasgo abstracto tiene validez conver-
gente, es decir, produce resultados similares a los producidos por índices
o métodos ya establecidos y empleados en otras investigaciones.

3.  Validez del contenido

La validez del contenido se refiere a la cuestión de si los indicadores que


se encuentran en el texto y que el investigador utiliza para medir o descri-
bir las características, los atributos o los comportamientos de individuos,
grupos, colectividades o naciones constituyen una muestra adecuada del
universo de indicadores de tales características o comportamientos. Se
dice que el contenido es válido si su composición corresponde a la com-
posición del universo de posibles indicadores de las características o
comportamientos de que se trate. Como esto es difícil, si no imposible, de
determinar, porque el número de posibles indicadores puede ser infinito,
es esencial que el investigador considere cuidadosamente cuál es exacta-
mente la característica, el atributo o el comportamiento que desea anali-
zar, y cuáles son las múltiples y diversas formas en que el mismo puede ser
medido. La comprobación de la validez del contenido consiste entonces
en demostrar que los indicadores que se encuentran en los textos someti-
dos a análisis constituyen una muestra adecuada (representativa) de los
múltiples y diversos indicadores que pudieran utilizarse para medir las ca-
racterísticas, los atributos o los comportamientos de interés para el inves-
tigador.

4.  Validez semántica

El análisis de contenido cuyo objetivo es la descripción de las caracterís-


ticas de una comunicación implica el reconocimiento por el investigador
del significado que lleva cada unidad de registro y la posterior clasifica-
ción de esa unidad de registro en una de las categorías previamente esta-
blecidas. Tal clasificación plantea la cuestión de por qué se colocan en la

611
El análisis de datos

misma categoría unidades de registro aparentemente diferentes. Y como


las decisiones que toma el investigador nunca son arbitrarias sino que in-
tenta justificarlas apelando a algún criterio, será recomendable que pue-
da probar la validez de las mismas, esto es, que pueda demostrar que son
incuestionables. Pues bien, la validez semántica de un análisis de conteni-
do puede probarse de la siguiente forma: como toda clasificación de uni-
dades de registro, lo que hace de hecho es repartir el conjunto de unida-
des en un sistema de categorías que son exhaustivas y mutuamente
excluyentes, podrá determinarse la validez semántica del análisis com-
probando si son similares o no los resultados de dos reparticiones dife-
rentes del mismo conjunto de unidades de registro, una realizada según
el procedimiento analítico diseñado por el investigador y la otra obteni-
da según algún criterio externo e independiente de, por ejemplo, jueces o
expertos.

4.2 Fiabilidad

Mientras que la validez del análisis asegura que los resultados obtenidos
representan lo que se dice que representan, la fiabilidad del análisis ase-
gura que los resultados representan algo real e inequívoco. La evaluación
de la fiabilidad de un procedimiento de análisis o medición consiste en
calcular qué parte de los resultados o de las mediciones se debe, y qué
parte no se debe, a influencias transitorias, al azar o a errores aleatorios.
En otras palabras, son análisis y mediciones fiables aquellos que perma-
necen constantes a través de las variaciones en el proceso de análisis o
medición. La importancia de la fiabilidad descansa en la certidumbre
que proporciona de que los resultados del análisis se han obtenido inde-
pendientemente del acontecimiento que se ha investigado, de los instru-
mentos utilizados en el análisis y de la persona del investigador. Lo que
se persigue en definitiva al examinar la fiabilidad del análisis de conteni-
do es determinar si los resultados obtenidos en el curso de la investiga-
ción pueden proporcionar una base fiable para realizar inferencias, para
hacer recomendaciones, para apoyar decisiones o para aceptar algo
como un hecho (Krippendorff, 1990: 192).
Los procedimientos analíticos que son no-fiables carecen siempre de
validez, de modo que puede decirse que la fiabilidad es un requisito pre-
vio necesario para que exista validez. Necesario pero no suficiente, es de-
cir, la fiabilidad no garantiza la validez de los resultados. Un alto grado
de fiabilidad no implica un alto grado de validez porque puede que refle-

612
20. El análisis de contenido tradicional

je únicamente, o en buena medida, un alto grado de error constante o de


sesgo sistemático en el procedimiento analítico utilizado en la investiga-
ción. Por el contrario, si un procedimiento analítico es razonablemente
válido, sí podremos suponer que también es aceptablemente fiable. El
problema es que raras veces se encuentra el investigador en condiciones
de saber por adelantado si el procedimiento analítico es razonablemente
válido o no.
Berelson (1952) indicaba hace años que únicamente del 15 al 20% de
los análisis de contenido que se efectuaban incluían comprobaciones de
la fiabilidad del análisis. A su juicio, hasta entonces se había prestado in-
suficiente atención al problema de la fiabilidad del análisis de contenido
para el adecuado desarrollo de esta técnica de investigación. Hoy puede
decirse que la situación está siendo corregida. La experiencia ha mostra-
do que podemos tener confianza en ciertas técnicas de medición, particu-
larmente las que se utilizan en encuestas y análisis de contenido de tipo
cuantitativo. Quienes usen apropiada y correctamente estas técnicas no
tienen por tanto que sentirse obligados a demostrar la fiabilidad de las
mismas en cada ocasión. Pero cuando aparece una técnica de investiga-
ción nueva, entonces es muy pertinente preguntarse sobre su fiabilidad.
Ahora bien, el término «fiabilidad» significa en sociología varias cosas
diferentes.

1. Congruencia

Se emplea el término «congruencia» para referirse al grado en que diferen-


tes instrumentos de análisis o medición que se supone que miden la misma
característica de individuos o grupos producen resultados que son simila-
res. Este tipo de fiabilidad también ha sido llamado en algunas ocasiones
equivalencia porque, en efecto, se parte del supuesto de que los procedi-
mientos analíticos de que se trata (instrumentos, indicadores, etc.) son
equivalentes. El grado de equivalencia se obtiene calculando un coeficiente
de equivalencia que mide el grado de acuerdo entre los resultados obteni-
dos de la aplicación de los diversos instrumentos de análisis a los mismos
individuos o grupos, aproximadamente al mismo tiempo.

2. Estabilidad

Un procedimiento analítico es estable (o constante) cuando la caracterís-


tica u objeto que está siendo analizado o medido no varía ni cambia con

613
El análisis de datos

el transcurso del tiempo. El grado de estabilidad es el grado en que diver-


sas aplicaciones de un mismo instrumento de análisis o medición por un
mismo investigador a una misma muestra pero en tiempos diferentes
producen resultados idénticos. En el análisis de contenido la estabilidad
significa que un único investigador (o grupo de codificadores) debiera
obtener los mismos resultados cuando aplica el mismo conjunto de cate-
gorías al mismo contenido, aunque en tiempos diferentes.
Es crucial distinguir entre la inestabilidad (inconstancia) que se debe a
cambios auténticos y legítimos en la característica u objeto que uno está
interesado en medir y analizar, y la inestabilidad que se debe a factores
externos o a efectos de aplicaciones sucesivas de un instrumento o proce-
dimiento analítico.
El método apropiado para determinar la estabilidad es comparar los
resultados de diversas mediciones, es decir, de diversas aplicaciones de un
mismo instrumento, por el mismo investigador, a la misma muestra, en
tiempos diferentes. La comparación suele realizarse calculando un coefi-
ciente de correlación o algún índice de acuerdo entre los resultados de
los diversos test. En el análisis de contenido, el índice de estabilidad o
constancia mide el grado en que las clasificaciones realizadas por los
mismos codificadores en momentos diferentes son similares. Ahora bien,
hay que tener en cuenta la posibilidad de que el mero hecho de que una
primera aplicación (el test) produzca cambios en la característica en que
el investigador está interesado, así como que el mero hecho de que la se-
gunda aplicación (el retest) también haga variar la característica que es
objeto de análisis. Ni unos ni otros efectos representan cambios auténti-
co o legítimos, y por ello se dice que contaminan el índice de estabilidad.

3. Reproducibilidad

El tipo de fiabilidad que aquí llamamos «reproducibilidad» también ha re-


cibido en alguna ocasión la etiqueta de «equivalencia». El grado de repro-
ducibilidad es el grado en que diferentes investigadores obtienen resulta-
dos similares cuando utilizan el mismo instrumento de medición o análisis
para analizar la misma característica al mismo tiempo; o, más brevemente,
es el grado en que un proceso puede ser recreado en circunstancias diferen-
tes, en lugares diferentes y utilizando codificadores diferentes. En el análi-
sis de contenido la reproducibilidad significa que investigadores diversos
debieran obtener los mismos resultados cuando utilizan el mismo conjun-
to de categorías para analizar el mismo contenido.

614
20. El análisis de contenido tradicional

El principio en que se basa el diseño típico de reproducibilidad —la


conveniencia de evitar administraciones sucesivas a una misma muestra
de un mismo instrumento de análisis o medición— ha sido invocado
para idear soluciones a los problemas de contaminación ligados al dise-
ño test-retest que caracteriza al concepto de estabilidad. Estos problemas
pueden evitarse de dos formas: a) mediante la utilización de versiones al-
ternativas, que se suponen equivalentes, de un mismo instrumento o pro-
cedimiento, versiones que se aplican al mismo tiempo a unos mismos in-
dividuos como si fueran instrumentos de análisis diferentes e
independientes; b) mediante la utilización de la técnica de dividir en dos
partes iguales un único instrumento de análisis o medición, partes que
son tratadas por el investigador como si fueran versiones alternativas. En
uno y otro casos la reproducibilidad se mide por medio de un coeficiente
de acuerdo o equivalencia. En el caso de las versiones alternativas, el coe-
ficiente indica el grado en que las dos versiones miden realmente la mis-
ma característica; en el segundo caso, el coeficiente indica, además, la
consistencia interna del instrumento de análisis o medición utilizado.

4. Exactitud

Se entiende por exactitud el grado en que un procedimiento analítico se


ajusta funcionalmente a un estándar conocido, o produce aquello que se
ha diseñado que produzca. En el caso de análisis de contenido, en el que
se clasifica el contenido de las comunicaciones y textos en un conjunto
de categorías, no suelen existir tales estándares que sirvan para compro-
bar la exactitud de las clasificaciones realizadas, de modo que no parece
realista insistir en este tipo de fiabilidad.

5.  Nota final

En párrafos anteriores se ha observado que el grado de fiabilidad se mide


calculando un «coeficiente o índice de acuerdo». Entre los existentes, los
más conocidos son probablemente el coeficiente a (alpha) y el coeficiente
pi de Scott (1955). Pero como la complejidad del tema no nos permite
entrar aquí en una descripción de los mismos, simplemente vamos a refe-
rir al lector interesado en este aspecto de la fiabilidad a las aportaciones
de Sánchez Carrión (1985: 111-114) y de Krippendorff (1990: 199-207).
Cualquiera que sea el procedimiento que el investigador utiliza para
medir la fiabilidad de sus instrumentos de análisis, ésta debiera ser exa-

615
El análisis de datos

minada antes de comenzar el análisis de sus datos. Afortunadamente, en


el caso del análisis de contenido conocemos con bastante seguridad las
fuentes principales de inviabilidad: las unidades de registro (algunas uni-
dades son de descripción más difícil que otras), las instrucciones de codi-
ficación (que pueden ser defectuosas o incompletas en lo que se refiere a
una o varias categorías), y los propios codificadores empleados. Sabe-
mos, pues, dónde debe centrarse la atención para intentar descubrir posi-
bles problemas de fiabilidad. Y también conocemos algunas de las for-
mas de asegurar un alto grado de fiabilidad inicial en el procedimiento
analítico y/o corregir problemas que se encuentran: la fiabilidad será más
alta cuanto más sencillas sean las unidades de análisis, cuanto más sim-
ples sean las categorías, cuanta más completas y precisas sean las instruc-
ciones de codificación, cuanta más experiencia tengan y mejor prepara-
dos estén los codificadores, y cuanto más detalladas sean las ilustraciones
provistas.

Bibliografía recomendada
Holsti, Ole R. (1969): Content Analysis for the Social Sciences and Humanities,
Reading, MA, Addison-Wesley.
Krippendorff, Klaus (1990 [1980]): Metodología de análisis de contenido. Teoría
y Práctica, Barcelona, Paidós Ibérica.

616
21.  La teoría fundamentada
(grounded theory)
y el análisis cualitativo
asistido por ordenador

Miguel S. Valles

1.  Introducción

El análisis de contenido clásico expuesto en las páginas anteriores consti-


tuye, sin duda, un punto de partida ineludible para adentrarse en otros
procedimientos y estilos analíticos. Unos y otros ayudan al investigador
a enfrentarse a un tipo de información que se resiste a los tratamientos
más estandarizados de las estadísticas y los datos de encuesta. Algunos
procedimientos, como los del análisis de contenido clásico, se han carac-
terizado por su intento de aplicar los modos cuantitativistas al análisis
de datos no numéricos. En el extremo contrario, cabe hablar de métodos
desarrollados con el propósito de abordar el análisis del contenido desde
presupuestos más puramente cualitativistas. Un ejemplo representativo
serían los análisis del discurso semiótico-estructurales (Imbert, 2000) o
sociológicos del sistema de discursos (Conde, 2009), como el que se pre-
senta en el capítulo siguiente. Ha habido, no obstante, propuestas de pro-
cedimientos y técnicas analíticas que ocupan un lugar a caballo entre
ambos extremos. Una de ellas es, por méritos propios, el método pro-
puesto originariamente por Glaser (1965) y Glaser y Strauss (1967), cu-
yos desarrollos más notables se encuentran en las obras posteriores de
Strauss (1987), Strauss y Corbin (1990, 1998), Glaser (2001, 2002, 2003,

617
El análisis de datos

20141; o Charmaz (2000, 2006). El método comparativo constante, como


lo denominara Glaser (1965) en su artículo seminal, aparece dos años
más tarde ocupando un lugar clave en la obra fundamental de Glaser y
Strauss (1967), The Discovery of Grounded Theory. En los años noventa,
Denzin y Lincoln (1994) se refieren a esta obra y a la de Becker, Geer,
Hughes y Strauss (1961), Boys in white, como los trabajos que marcan la
«edad dorada del análisis cualitativo riguroso». Esta denominación se
debe a los esfuerzos de formalización que surgen en estos años. No se
trata, debe advertirse, de esfuerzos anclados en el pasado, sino que han
superado de algún modo la prueba del tiempo y han experimentado una
revitalización posterior extraordinaria. Me refiero, especialmente, a la
grounded theory: tanto por la aparición de los manuales de Str­auss
(1987), Strauss y Corbin (1990, 1998), seguidos de compilaciones poste-
riores (Bryant y Charmaz, 2007; Martin y Gynnild, 2011; etc.) como por
la in­fluencia de las obras de los cofundadores en el desarrollo de progra-
mas informáticos (Ri­chards y Richards, 1991; 1994a/b; Muhr2, 1997;
Kuckartz, 2011); y en estudios empíricos (Strauss y Corbin, 1994, 1997;
Turner, 1994; Flores y Naranjo, 2013; Friese y Ringmayr, 2014; San
Martín, 2014). En el caso español merecen destacarse, entre las publica-
ciones aparecidas en los últimos catorce años (tiempo transcurrido entre
la primera y la segunda edición de este capítulo), los escritos de Valles
(2005a, 2005b, 2007), Trinidad, Carrero y Soriano (2006), Andreu, García-
Nieto y Pérez Corbacho (2007) y Carrero, Soriano y Trinidad (2012).
En las páginas que siguen se tratará de ofrecer una visión sucinta del es-
tilo analítico de la grounded theory y de sus conexiones con algunos de los
desarrollos informáticos más sobresalientes de los últimos años. Queremos
prestar especial atención a dos programas de software3 que destacan sobre-
manera en la investigación cualitativa asistida por ordenador. Nos referi-
mos a los programas Atlas.ti y NVivo, este último presentado en su día
como un producto nuevo respecto a su predecesor NUD*IST Versión 4.
Ambos paquetes, diseñados para su manejo en la plataforma de Windows,
salen inicialmente (a finales del siglo pasado) al mercado en soporte CD-
Rom, para en las sucesivas versiones hacerlo online. La primera novedad
(del soporte CD, luego DVD) trajo consigo otra, que comparten ambos
programas y que ha sido de gran interés para el aprendizaje. A saber, se in-
cluían junto al software habitual una veintena de grabaciones sonoras (mo-
vies) realizadas mediante cámara de pantalla (screencam), en las que se
muestra al usuario el funcionamiento de las distintas rutinas. Posterior-
mente, con la llegada de internet se ha ido dando paso a nuevos materiales
audiovisuales accesibles en la red.

618
21. La teoría fundamentada y el análisis cualitativo

Los creadores de NVivo, los Richards, empezaron ofreciendo algo toda-


vía más valioso desde el punto de vista de la enseñanza de los métodos y
las técnicas de investigación social. Se trata de los tutoriales (proyectos tu-
torizados, en los que se proporcionaba al usuario el material y las instruc-
ciones para practicar con las herramientas informáticas las labores analíti-
cas). El programa desarrollado por Thomas Muhr, el autor de Atlas.ti,
también ha ido mejorando este flanco, pasando de las ilustraciones prime-
ras de posibles proyectos, pero que no constituían verdaderos tutoriales, a
ofrecer en la red en los últimos años (de manera muy accesible) materiales
similares a los de NVivo.
Los primeros proyectos guiados de NVivo formaban un todo didácti-
co, basado en estudios reales que mostraban la práctica profesional del
investigador social. Esto se conseguía tutorizando proyectos de naturale-
za diferente en sus objetivos y en el propio material cualitativo, pero tra-
tando de abarcar una sencilla gama de estudios posibles. En un extremo,
este material lo formaban (en versiones tempranas como la 1.0 del año
1999 o la 2.0 del 2002) los mensajes de correo electrónico emitidos por
mujeres que viven en el medio rural. De este modo, se mostraba un ejem-
plo de estudio muy desestructurado, de tipo exploratorio, que demanda-
ba muy especialmente el descubrimiento de categorías en los datos y la
gestión de éstos. En el otro extremo, la materia prima provenía de cues-
tionarios con preguntas abiertas, administrados dentro de un estudio
preestructurado sobre prevención de la violencia. Ello permitía abordar
el análisis de modo algo más estandarizado. Un tercer proyecto se cen-
traba en las entrevistas en profundidad realizadas a personas con lesio-
nes en la columna vertebral. Este estudio venía a ilustrar una de las mo-
dalidades más habituales en la investigación cualitativa. El tratamiento
analítico de la información obtenida mediante entrevistas abiertas lleva
consigo una serie de tareas y procesos previstos en gran parte en el pro-
grama NVivo. Al usuario (de las primeras y posteriores versiones) se le
han solido dar las instrucciones específicas para que practique los pasos
de los diferentes procesos de análisis, y se le ofrece en carpeta aparte (o
en los tutoriales disponibles en la red en los últimos años) algunos de los
posibles resultados o aplicaciones del programa en ejemplos concretos de
investigación social.
Por su parte, el programa Atlas.ti está diseñado para realizar práctica-
mente las mismas tareas que NVivo, algunas incluso con mayor flexibili-
dad. Un rasgo que le ha caracterizado (frente a su competidor, sobre
todo en las versiones primeras bajo Windows) ha sido su capacidad de
tratamiento de lo visual. De hecho, el programa se ha solido presentar

619
El análisis de datos

con el subtítulo Visual Qualitative Data. En los últimos años, ambos pro-
gramas han ido mejorando sus posibilidades de gestionar no sólo archi-
vos de texto (en distintos formatos: Word, pdf, etc.), sino también de
imagen, audio y vídeo. Cuando se publicaba por primera vez este capítu-
lo, en 2000, la versión disponible de Atlas.ti era la 4.1; y la de NVivo la
2.0. En 2014 ya estaban lanzadas la 7 y la 10 respectivamente. Y cuando
el lector acceda a la web de cada programa seguramente encontrará nue-
vas actualizaciones4.

2. Definición general del análisis en la grounded theory


y en los programas NVivo y Atlas.ti

Antes de que Glaser y Strauss proclamasen, en los años sesenta, su «des-


cubrimiento» de la grounded theory ya se conocían otros procedimientos
analíticos de datos cualitativos (Valles, 1997: 339 y ss). De hecho, el nue-
vo modo de proceder que proponen, y que denominan «método compa-
rativo constante» (MCC), lo definen como una «tercera aproximación».
Se refieren como primero al procedimiento de codificación desarrollado
en el llamado análisis de contenido. Y se cita la obra clásica de Berelson
(1952) Content Analysis. En Glaser y Strauss (1967: 101) puede leerse: «si
el analista desea convertir datos cualitativos a formato cuantificable... de
modo que pueda testar provisionalmente una hipótesis, codifica primero
los datos y luego los analiza». La segunda aproximación consiste, sobre
todo, en inspeccionar la información buscando «categorías» (conceptos)
y sus «propiedades» (aspectos significativos de las categorías). El analista
no se preocupa por la codificación previa y se vuelca en la inspección.
La propuesta de Glaser y Strauss tiene como punto de partida ambos
enfoques, inspección y codificación, pero trata de combinarlos de mane-
ra novedosa y con propósitos específicos. Éstas son sus palabras:

Queremos sugerir una tercera aproximación al análisis de los datos cualitativos


—uno que combina, mediante un procedimiento analítico de comparación
cons­tante, el procedimiento de codificación explícita de la primera aproxima-
ción y el estilo de desarrollo de teoría de la segunda. El propósito del método
comparativo constante de conjuntar codificación y análisis es generar teoría
más sistemáticamente que la segunda aproximación, mediante el uso explícito de
procedimientos de codificación y análisis. Aunque más sistemático que la segunda
aproximación, este método no se adhiere completamente al primero, el cual en-
torpece el desarrollo de teoría, pues está diseñado para el test provisional, no el
descubrimiento, de hipótesis (Glaser y Strauss, 1967: 102).

620
21. La teoría fundamentada y el análisis cualitativo

Este método propuesto por Glaser y Strauss para el análisis de datos


cualitativos también se presenta como un avance respecto a la inducción
analítica (IA). El procedimiento de la IA había sido formulado original-
mente por Znaniecki (1934: 249-331), con el propósito de generar y tes-
tar teoría a partir del material procedente del estudio de casos. Su siste-
matización de hipótesis de trabajo, junto con la indicación de test
cruciales y la búsqueda de casos negativos, han sido los puntos fuertes de
este «método común de validación de observaciones etnográficas» (Sil-
verman, 1985). Frente a la IA, el método de comparación constante
(MCC) se centra más en la generación de teoría que en la prueba provi-
sional de ésta5. El MCC orienta el análisis a la saturación de la informa-
ción (causas, condiciones, consecuencias, tipos, procesos...) y no al logro
de certezas universales ni a la prueba de causas. Además, se subraya su
aplicabilidad a todo tipo de información cualitativa (Glaser y Strauss,
1967: 104).
Esta definición comparada del MCC se completa con una breve alu-
sión a la descripción etnográfica. Glaser y Strauss (1967) se refieren a ella
como un procedimiento analítico de datos cualitativos que no busca ni la
generación ni la verificación de teoría. En fechas posteriores, Strauss y
Corbin (1994) o Glaser (2001) han insistido en la diferencia entre «densi-
dad conceptual» y «descripción densa» (Geertz). En esta última, el énfa-
sis se hallaría más en la descripción que en la conceptualización.
En los apartados siguientes se concretará cuáles son los pasos y las
tareas que especifica el MCC a modo de guías en el análisis cualitativo.
Pero conviene anotar ya algunas definiciones clave para entender qué
significa el análisis en este procedimiento. Una de ellas aparece expre-
sada en la monografía de Strauss (1987: 123): «el foco del análisis no
está meramente en la recogida u ordenamiento de una masa de datos,
sino en la organización de las muchas ideas que emergen del análisis de
estos». Los programas NUD*IST y ATLAS han hecho suya esta obser-
vación e incorporan entre sus herramientas la posibilidad de archivar
anotaciones de diverso tipo y en todo momento6; y hacerlo de modo
que queden vinculadas con aquello que hizo saltar el resorte de un pen-
samiento.
Una segunda clave, fundamental en esta metodología, se halla en la
idea de que la recogida de datos y su análisis son procesos estrechamente
entrelazados, «y deben ocurrir alternativamente porque el análisis dirige
el muestreo de los datos» (Strauss y Corbin, 1990: 59). En esta frase se
alude a un elemento característico de la grounded theory, cual es la no-
ción de muestreo teórico7.

621
El análisis de datos

Una tercera clave del análisis cualitativo, tal como se define desde la
óptica de la grounded theory, es su identificación con el proceso y las téc-
nicas de codificación. Pero se entiende que este proceso de codificación
se sustenta en dos operaciones analíticas básicas: la realización de com-
paraciones y la formulación de preguntas (Strauss y Corbin, 1990: 62).
Y se advierte que el objetivo del análisis es la conceptualización, la cons-
trucción de teoría (Glaser, 2001, 2002, 2014). En expresión literal, «los
conceptos son las unidades básicas del análisis en el método de la groun-
ded theory» (Strauss y Corbin, 1990: 63)8. Si bien, como se ha señalado
por nosotros en otro lugar, en la obra propuesta primigenia de la teoría
fundada o en su desarrollo posterior se advierte que también la experien-
cia personal del investigador ocupa un lugar clave; y se hace célebre la
expresión glaseriana «all is data» (Valles, 2005a, 2007). Enseguida se verá
cómo estos ingredientes se encuentran en la base del procedimiento ana-
lítico de la grounded theory.
Antes veamos cómo se define el análisis en los programas informáti-
cos seleccionados. En las primeras versiones de NVivo el término análisis
estaba presente en el menú de la ventana de trabajo con proyectos, en el
fichero de ayuda y en el glosario. De la consulta de estas tres fuentes se
resaltaba lo siguiente:

• Que el análisis «no se distingue claramente de la simple inspección


de los datos del proyecto», mediante el uso de herramientas de ex-
ploración y visualización.
• Que los recursos analíticos se han diseñado para acometer explora-
ciones (y reconfiguraciones de la información primaria) de mayor
nivel. Esto es, con el propósito de «descubrir, construir y testar rela-
ciones y pautas en los datos».
• Que las dos herramientas principales del análisis en NVivo son las
de Búsqueda y Modelización.

En versiones posteriores (como la de NVivo 10) se desarrollan las he-


rramientas analíticas de consulta y visualización, se facilita más aún la
transferencia de materiales (vía conversión a Excel o XML) para hacer
«análisis complementarios» en otras aplicaciones (SPSS, etc.)9.
En las versiones primeras de Atlas.ti el término análisis estaba ausente
tanto del menú de trabajo como del glosario, y sólo se accedía a él a tra-
vés del fichero de ayuda. Al hacer esto último el programa mostraba diez
documentos en los que aparecía la palabra en diferentes contextos. A pe-
sar de la falta de definición directa, la documentación que acompañaba

622
21. La teoría fundamentada y el análisis cualitativo

al programa contenía numerosas lecciones sobre análisis cualitativo. Una


síntesis de las mismas permitía colegir la existencia de un esqueleto co-
mún respecto a lo visto en NVivo10. A saber:

• La distinción de un «nivel de trabajo textual», de lectura y selección


de fragmentos de texto convencional (o de documentos gráficos o
de audio, incluyendo lo audiovisual posteriormente);
• diferenciado de un «nivel de trabajo conceptual», consistente en la
construcción de redes (esquemas gráficos o modelos, a partir de los
códigos creados en la fase textual)11.

En versiones posteriores (como la de Atlas 7) se acompaña un ma-


nual de casi quinientas páginas, en el que el doble nivel referido se reite-
ra. Se dedica un capítulo al análisis, en cuyo título aparece la expresión
«Theory-Building Tools»; concretándose el desarrollo de herramientas
(varias ya disponibles en entregas previas) de consulta-exploración, vi-
sualización, hiperenlace reticular, etc. Al igual que NVivo, Atlas tiene
prevista la posibilidad de exportación de información, para que pueda
ser analizada también con paquetes estadísticos; o la importación de da-
tos grabados en dichos paquetes. Su concepción del análisis de datos
cualitativos no excluye la aplicación de la estadística textual a la explo-
ración e interpretación de los contenidos y significados. Este punto de
vista sintoniza con la postura favorable a la complementariedad de las
metodologías cuantitativa y cualitativa, ilustrada en la práctica investi-
gadora (Cabrera, 1992; Gil Flores, 1994; Valles, 1997; Merlino y Martí-
nez, 2007).

3. Concreciones del proceso analítico cualitativo (I): las


estrategias o estilos analíticos generales

Se ha escrito que a pesar de la diversidad de las investigaciones cualitati-


vas, los procedimientos o estilos de análisis cualitativo no son tan varia-
dos, debido a que se comparten en cierto grado (Tesch, 1990). Por otro
lado, hay que señalar la circunstancia de la distinta definición y formali-
zación del proceso analítico en las diferentes aproximaciones (Valles,
1997). En conexión con ello está el problema de que pocos son los auto-
res que proporcionan la descripción de sus procedimientos de análisis.
Entre las excepciones señaladas por Tesch (1990) están Glaser y Strauss
(1967) y Miles y Huberman (1984)12.

623
El análisis de datos

Hoy en día puede afirmarse que la lista de excepciones se ha amplia-


do. Piénsese, por ejemplo, en los autores que han desarrollado progra-
mas de software para el análisis cualitativo en los últimos años. Aquí nos
centramos en sólo dos de ellos, pero hay muchos más13.
Las concreciones del proceso analítico cualitativo también se encuen-
tran en las diferentes técnicas cualitativas de investigación: desde las téc-
nicas de observación-participación hasta las de conversación-narración
(Valles, 1997). Por ejemplo, Weiss (1994) plantea una tipología de modos
generales de orientar el análisis y la presentación de material biográfico.
Distingue, por un lado, los análisis e informes centrados en los temas (1)
o en los casos (2); y, por otro, los orientados a la generalización (a) o a la
concreción (b). Los tipos resultantes, según este autor, son: informes so-
ciológicos (1a), descripciones tipológicas (2a), informes históricos o perio-
dísticos (1b) y estudios de caso intensivos (2b)14.
Dejando a un lado los pormenores de esta tipología, conviene anotar
un denominador común: que el análisis va muy ligado a la escritura o
presentación de los resultados de la investigación. Esto es tanto como
decir que en el índice del informe correspondiente a un estudio cualitati-
vo pueden vislumbrarse los elementos principales del análisis. Y, desde
luego, el fruto final de éste, la síntesis. Generalmente, el índice nos acerca
al esquema que ha servido al analista de sistema de organización (codifi-
cación, clasificación, integración) del volumen de información producida
en las entrevistas, grupos de discusión u observaciones.
Desde la investigación clínica, Miller y Crabtree (1994: 345) encomian el
trabajo de Tesch (1990) y, especialmente, la síntesis de pasos comunes a casi
todos los tipos de análisis cualitativo, que estos autores re­sumen en tres: «el
desarrollo de un sistema organizador, la segmentación de los datos y el esta-
blecimiento de conexiones». En el libro de Renata Tesch (1990) se matiza que
todos los analistas persiguen el objetivo de categorizar sus datos textuales
brutos. Para conseguirlo todos utili­zarían alguna clase de «indexación» (bien
previa al estudio o creada a lo largo de éste). Aunque las técnicas concre­tas
para lograr la interpretación de los datos varía considerablemente. El porqué
de esta varia­ción nos remite a las perspectivas teóricas, en las que se asientan
los tipos de análisis existentes (que no serían meras técnicas, sino estilos fun-
damentados en posturas epistemológicas y metodológicas determinadas).
Por ello, resulta de interés introducir esta reflexión metodológica en el análisis
de datos cualitativos (anterior a la utilización de técnicas específicas; y poste-
rior también, pues conecta el análisis con el informe de resultados, con la
escritu­ra). Se trata de las llamadas en la literatura «estrate­gias analíticas gene-
rales» (Yin, 1989: 106) o «estilos ana­líticos» (Miller y Crabtree, 1994: 345).

624
21. La teoría fundamentada y el análisis cualitativo

Lo que propo­ne Yin viene a coincidir con el sistema organizador de Tesch.


Antes de zambullirse en el análisis intenso final de los datos o materiales cua-
litativos, Yin (1989) sugiere tener una estrategia analítica gene­ral: basada en
las orientaciones teóricas y en los objetivos originales del estudio; consistente
en la confección del índice de capítulos, en los que se va a escribir el informe.
Este punto de vista coincide con el de Denzin y Lin­coln (1994), en cuyo ma-
nual la escritura (writing) se presenta como una estrategia o modo de análi-
sis. Y, a nuestro juicio, ello concuerda con la experiencia de la investi­gación en
la práctica sociológica (y no, precisamente, sólo en la vertiente cualitativa).
Pero donde cabe desvelar también una pluralidad de huellas de teoría y prác-
tica investigadora ajenas, en el caso propio de cada analista (Valles, 2013).
Consideración aparte merece la propuesta de Miller y Crabtree (1994).
Identifican cuatro «estilos analíticos idealizados»: 1) inmersión/cristaliza-
ción; 2) de edición; 3) de plantilla (template); y 4) cuasiesta­dístico. En el
estilo de inmersión/cristalización, escriben los autores, los tres pasos de
Tesch se funden en un lar­go período de inmersión (cargada de intuición)
dentro del texto. En el estilo de edición (editing analysis style), el analista
intérprete, en tanto editor, se convierte en el sistema organizador (aquí se
encuadra al estilo de Strauss y Corbin, 1990; entre otros). En el estilo equi­
pado con una plantilla abierta o libro de claves/códigos abierto, estos ins-
trumentos son los sistemas organizado­res (aquí ubican el manual de Miles y
Huberman, 1984; el de Spradley, 1979; y su propio estilo). Finalmente, el
estilo cuasi-estadístico se caracteriza por un libro de códigos más detalla-
do, y lo equiparan al análisis de con­tenido clásico (Weber, 1985). Cada uno
de estos cuatro estilos implica una relación determinada entre el analis­ta y
el texto. Por un lado, el grado de rigidez del sistema organizador. Por otro,
el grado de definición-indefi­nición del filtro analítico con el que se perciben
los materiales a analizar. No obstante, se advierte que el análisis puede co-
menzar con la estrategia de inmersión en las primeras transcripciones de
entrevistas, y pasar a estrategias o estilos más es­tructurados, posteriormen-
te. Esto último resulta lo más conveniente, a nuestro juicio.

4. Concreciones del proceso analítico cualitativo (II): pasos


y operaciones en el procedimiento de la grounded theory15

Para acabar de completar la caracterización del MCC y aproximarnos a su


funcionamiento en la práctica, se precisa de una descripción algo más siste-
mática (por fases o momentos) y ejemplificada, que los creadores de este
procedimiento analítico ya proporcionaron desde el principio (Glaser y

625
El análisis de datos

Strauss, 1967). Posteriormente, ha habido también algunos esfuerzos de re-


sistematización y divulgación con propósitos didácticos de mayor o menor
nivel (Strauss, 1987; Strauss y Corbin, 1990, 1998). Aquí se partirá de la for-
mulación inicial, teniéndose en cuenta también algunos de los desarrollos
posteriores.
Los principales momentos del análisis cualitativo, según el procedi-
miento de la grounded theory denominado método comparativo constante
(MCC), fueron originalmente descritos por Glaser y Strauss (1967: 105-
113). A pesar de diferenciar varias fases, se advierte que «las fases previas
siguen operando simultáneamente a lo largo del análisis». Anotada esta
advertencia, veamos brevemente cuáles son las operaciones analíticas

PASOS Y OPERACIONES EN EL PROCEDIMIENTO DE LA


GROUNDED THEORY

A.  De los datos brutos a la categorización inicial.


• «Codificación abierta» (open coding)
 códigos in vivo (in vivo coding)
  códigos teóricos (sociológicos...)
B.  El desarrollo de las categorías iniciales
• Búsqueda sistemática de propiedades
  «paradigma de la codificación» (coding paradigm)
 codificación axial (axial coding)
• Registro de notas teóricas (memos)
C.  La integración de categorías y sus propiedades.
• Codificación (abierta, axial, selectiva)
• Registro de reflexiones analíticas e interpretativas
(escritura de memoranda o memos), categoría a categoría
• Trazado de esquemas gráficos (integrative diagrams)
D.  La delimitación de la teoría (reducción de categorías).
• Parsimonia (o economía científica)
  búsqueda de categorías centrales (core categories)
  codificación selectiva
• Alcance (scope)
  Generalización teórica (de sustantiva a formal)
E.  La escritura de la teoría (sustantiva o formal).
• Publicación de resultados

626
21. La teoría fundamentada y el análisis cualitativo

principales y el dinamismo del procedimiento. En el recuadro de la p. 634


se esquematiza la exposición que sigue.

4.1  De los datos brutos a la categorización inicial

La primera operación consiste en comparar la información obtenida


(por ejemplo en una serie de entrevistas en profundidad), tratando de dar
una denominación común (un código más o menos abstracto, concep-
tual) a un conjunto variopinto de fragmentos de entrevista que compar-
ten una misma idea.
Por ejemplo, en el estudio sobre el cuidado dispensado por el personal
de enfermería a pacientes terminales, al comparar las respuestas de las
enfermeras acerca de la muerte potencial de sus pacientes, Glaser y
Strauss (1967: 105-106) idearon la categoría «pérdida social». Bajo este
código reunieron un verbatim variopinto: «era tan joven», «iba a ser mé-
dico», «tenía toda la vida por delante», o «¿qué harán sus hijos y su ma-
rido sin ella?». Frases y fragmentos que contenían valoraciones de las en-
fermeras sobre el grado o tipo de pérdida para la familia del enfermo o
para la sociedad en general. Este tipo inicial de codificación se ha deno-
minado, posteriormente, «codificación abierta» (open coding), en los ma-
nuales de Strauss (1987) y Strauss y Corbin (1990)16. Anotemos el por-
qué de esta adjetivación:

... el objetivo de la codificación [abierta] es abrir la indagación. Cualquier inter-


pretación en este momento es provisional... el analista experimentado aprende
a... permanecer abierto como la codificación misma... la codificación está enrai-
zada tanto en los datos sobre el papel como en los datos de la experiencia, in-
cluido el conocimiento de la literatura técnica que el analista trae a la indaga-
ción. Este enraizamiento en ambas fuentes de datos previene a los investigadores
de una excesiva inmersión en los materiales (documentos, notas de campo, en-
trevistas, etc.) y les lleva a pensar en términos de conceptos y sus relaciones
(Strauss, 1987: 29).

4.2 El desarrollo de las categorías iniciales: búsqueda sistemática de


propiedades y registro de notas teóricas (analíticas e interpretativas)

El proceso en marcha de codificación abierta «estimula el descubrimiento


no sólo de categorías sino también de sus propiedades y dimensiones»
(Strauss y Corbin, 1990: 69). Este avance en el procedimiento que se des-

627
El análisis de datos

cribe se produce gracias a la puesta en práctica de dos operaciones analí-


ticas clave, apoyadas igualmente en la «comparación constante» de infor-
mación (ya disponible o buscada al efecto: noción de muestreo teórico ya
mencionada). Nos referimos a:

1) la búsqueda activa y sistemática de propiedades (causas, conse-


cuencias, tipos, procesos); y
2) la escritura de notas de análisis e interpretación17, para registrar las
ideas que vayan surgiendo durante la codificación. Por ello se dice
de este procedimiento que hace conjuntamente la codificación, el
análisis y la recogida de datos complementaria que va exigiendo la
indagación abierta por los códigos conceptuales y las anotaciones
analíticas e interpretativas.

Por ejemplo, Glaser y Strauss, al comparar las entrevistas hechas a en-


fermeras de distintos hospitales y plantas, descubrieron la propiedad (de
la categoría pérdida social) de que el personal de enfermería recalculaba,
constantemente, su valoración de la pérdida social de un paciente confor-
me iban conociéndole más. Este recálculo o reajuste se convirtió, analíti-
camente, en una subcategoría o propiedad de la categoría pérdida social
bajo la que se fueron acumulando fragmentos de entrevistas sobre este
incidente.
En general, en esta fase, el analista a partir de una categoría (de ma-
yor o menor potencia conceptual, teórica) trata de pensar en la gama
completa de propiedades de la categoría (las condiciones bajo las que va-
ría, las interacciones de los actores, las estrategias y tácticas de éstos, las
principales consecuencias). Strauss (1987) ha propuesto sistematizar esta
búsqueda activa de propiedades a través del llamado «paradigma de la
codificación» (coding paradigm), que comprende los cuatro elementos
que se acaban de señalar: condiciones, interacciones, estrategias o tácticas
y consecuencias.
En relación con ello, se define una nueva modalidad de codificación,
la axial (axial coding): «aspecto esencial de la codificación abierta», con-
sistente en el «análisis intenso hecho alrededor de una categoría cada
vez, en términos de los elementos del paradigma» (Strauss, 1987: 32). Lo
que acabará desvelando las relaciones entre esa y otra(s) categoría(s) y
sus subcategorías: avanzando así a la fase o momento siguiente de la in-
tegración de categorías y propiedades.
Antes un par de ejemplos, para afianzar lo expuesto.

628
21. La teoría fundamentada y el análisis cualitativo

EJEMPLO DE DESARROLLO DE CATEGORÍAS TEÓRICAS MEDIANTE LA


BÚSQUEDA DE SUS PROPIEDADES (GLASER Y STRAUSS, 1967: 106)

Esta comparación constante de incidentes muy pronto empieza a generar


propiedades teóricas de la categoría. El analista comienza pensando en térmi-
nos de la gama completa de tipos... de la categoría, sus dimensiones, las con-
diciones bajo las que aumenta o se minimiza, sus principales consecuencias,
su relación con otras categorías y sus otras propiedades. Por ejemplo, mien-
tras comparábamos constantemente incidentes sobre cómo las enfermeras
respondían a la pérdida social de pacientes moribundos, nos dimos cuenta de
que algunos pacientes eran percibidos como una alta pérdida social y otros
como una baja pérdida social, y que el cuidado del paciente tendía a variar
positivamente con el grado de pérdida social. También era evidente que algu-
nos de los atributos sociales que combinaban las enfermeras para establecer
el grado de pérdida social eran inmediatamente visibles (edad, grupo étnico,
clase social), mientras que otros eran aprendidos después de un tiempo con el
paciente (mérito ocupacional, estatus marital, educación). Esta observación
nos condujo al reconocimiento de que la pérdida social percibida puede cam-
biar conforme se conocen atributos nuevos de los pacientes. También se des-
cubrió, a partir del estudio de grupos de comparación, bajo qué condiciones
(tipos de plantas y hospitales) encontraríamos agrupaciones de pacientes con
grados diferentes de pérdida social.

EJEMPLO DE DESARROLLO DE CATEGORÍAS TEÓRICAS MEDIANTE LA


CODIFICACIÓN AXIAL Y EL REGISTRO DE ANOTACIONES (MEMOS)
ANALÍTICAS 18 (STRAUSS, 1987: 30)

Strauss expone el siguiente ejemplo: «...cuando una enfermera declara al


investiga­dor “traté de guardar la compostura saliendo de la habitación cuando
el paciente gritaba de dolor”, esta frase puede convertirse analíticamente en
“compostura profesional” más anotaciones acerca de las condiciones que
ponen en peligro su compostura y la táctica que usa para mantenerla. Esto
puede guiar al investigador a escribir un memorándum en el que se pregunte
sobre otras condiciones y tácticas pertinentes, así como situaciones donde
la tácti­ca de la en­fermera falló o en las que no tuvo opción a usarla perdien-
do la compostura» (cursivas añadidas).

Esta segunda ilustración sirve, además, para ejemplificar un tipo de


categorías (de códigos): los tomados o derivados directamente del lengua-
je usado por los sujetos estudiados; que se convierten en categorías analí-

629
El análisis de datos

ticas al ser usados por el investigador, pues fracturan los datos. Se carac-
terizan, además de por su utilidad analítica, por su «imaginería»: lo que
significa que el código conceptual resulta ilustrativo por sí mismo y «sen-
sibilizador» (términos tomados de Herbert Blumer). Se les denomina en
los manuales citados, códigos in vivo, para diferenciarlos de los códigos
inventados por el investigador o tomados de su campo disciplinar. Estos
últimos suelen aportar una elaboración conceptual y teórica desarrollada
en algún campo de las ciencias sociales (de ahí su destacada utilidad ana-
lítica). Pero tienen poca imaginería y comportan, generalmente, un grado
de formalización alejado de los significados locales.

4.3  La integración de categorías y sus propiedades

Por integración se entiende, siguiendo el «glosario de términos principales»


que Strauss (1987: 20 y ss) ofrece en su manual: «la organización siempre
creciente (o articulación) de los componentes de la teoría». Los elementos
básicos de una teoría («sustantiva» o «formal»), a los que se refiere la defini-
ción anterior, son: las categorías, las propiedades de las categorías y las hipó-
tesis. Glaser y Strauss (1967: 42) ejemplifican cada uno de estos elementos
teóricos, distinguiendo al mismo tiempo los dos tipos de teorías hacia los
que se encauza su procedimiento analítico (véase el cuadro siguiente):

EJEMPLIFICACIÓN DE COMPONENTES DE UNA TEORÍA,


SEGÚN TIPOS DE TEORÍA

Componentes de TIPOS DE TEORÍA


una teoría Sustantiva Formal

Categorías Pérdida social de pacientes Valor social de la gente


moribundos

Propiedades de Cálculo de la pérdida social, de Cálculo del valor social de la


las categorías acuerdo con las características persona, según las
aprendidas y aparentes del características aprendidas y
paciente aparentes
Hipótesis Cuanto mayor sea la pérdida social Cuanto mayor sea el valor
de un paciente terminal: 1) mejor social de una persona, menor
su atención; 2) mayor desarrollo de retraso exprerimentará en
raciocinios por las enfermeras para recibir los servicios por los
justificar su muerte expertos

Fuente: Basado en Glaser y Strauss (1967: 42).

630
21. La teoría fundamentada y el análisis cualitativo

La integración de categorías y propiedades pasa por ese tercer elemen-


to de una teoría: las hipótesis, definidas como respuestas provisionales
acerca de las relaciones entre categorías conceptuales. La comparación
constante «de diferencias y similaridades entre grupos» de enfermeras y
pacientes en el ejemplo (operación analítica siempre a la base del proce-
dimiento que exponemos), «no sólo genera categorías, sino también rápi-
damente relaciones entre ellas», que aunque no testadas son en lo posible
verificadas durante la investigación (Glaser y Strauss, 1967: 39).
El trabajo analítico de integración de categorías y sus propiedades no fi-
naliza aquí; sigue en los momentos siguientes: de delimitación y escritura de
la teoría. A lo largo de todo el procedimiento, las operaciones: a) de codifi-
cación (abierta, axial, selectiva); b) de registro de reflexiones sobre el análi-
sis e interpretación (escritura de memoranda o memos), hecho categoría a
categoría; y c) trazado de esquemas gráficos (integrative diagrams), juegan
un papel fundamental, cuyo tratamiento detallado se encuentra en las
obras de los acuñadores y otros estudiosos (véase la bibliografía).

EJEMPLO DE LA INTEGRACIÓN DE CATEGORÍAS Y PROPIEDADES

Para ilustrar cómo se va produciendo la integración de categorías y sus


propiedades en la práctica, los creadores de la grounded theory siguen ofre-
ciendo detalles de su investigación en el ámbito hospitalario. Por ejemplo,
añaden que el cálculo y recálculo de la pérdida social por parte de las enfer-
meras estaba relacionado con la elaboración y reelaboración de un relato
o historia acerca de la pérdida social representada por cada paciente (a
social loss «story»).
  Lo anterior es una pequeña ilustración de cómo van integrándose dos
propiedades de la categoría pérdida social. Veamos el resto del ejemplo:
  «Tanto el cálculo de la pérdida social como la historia de esta pérdida
guardaban relación con las estrategias de la enfermera a la hora de afrontar
el desconcertante impacto sobre su compostura profesional ante, por ejem-
plo, un paciente terminal con una alta pérdida social (e.g., una madre con
dos hijos). Este ejemplo muestra... que la categoría acaba integrándose con
otras categorías de análisis: la pérdida social del paciente moribundo está
relacionada con la forma como las enfermeras mantienen la compostura
profesional mientras atienden al moribundo. De este modo, la teoría se
desarrolla conforme las diferentes categorías y sus propiedades tienden a
integrarse a través de las comparaciones constantes que fuerzan al analista
a dar sentido teórico a cada comparación» (Glaser y Strauss, 1967: 109).

631
El análisis de datos

4.4  La delimitación de la teoría

El procedimiento que describimos conjuga operaciones analíticas de co-


dificación abierta y desarrollo de categorías conceptuales (codificación
axial, registro de notas teóricas) en los primeros momentos, con opera-
ciones analíticas de integración y delimitación teórica en los momentos si-
guientes. La delimitación teórica viene exigida por la definición misma de
teoría, entre cuyos rasgos definitorios se encuentran dos básicos (que ser-
virán para introducir dos nociones nuevas, dos operaciones de análisis
características de esta fase):

1) El criterio de parsimonia (o economía científica). Esto es, hacer


máxima la explicación y comprensión de un fenómeno con el mí-
nimo de conceptos y formulaciones.
2) El criterio de alcance (scope), que puja por ampliar el campo de
aplicación de la teoría sin desligarse de la base empírica de partida.

El primer criterio se operativiza en el MCC mediante la búsqueda de-


liberada y sistemática de categorías centrales (core categories), a través
de una tercera modalidad de codificación: la selectiva (selective coding).
En base base de estas operaciones de mayor refinamiento analítico se en-
cuentra —además de la omnipresente comparación constante— un proce-
so de reducción de categorías (bien por descarte, bien por fusión o trans-
formación en otras categorías de nivel conceptual superior). Como
resultado, la teoría va focalizándose e integrándose cada vez más, cum-
pliendo así el requisito de parsimonia.
El segundo criterio (alcance) se traduce, en la grounded theory, barajan-
do las posibilidades de generalización de la teoría sustantiva al nivel, de
mayor abstracción, de la teoría formal. Por ejemplo, generalizando los ele-
mentos teóricos sobre el cuidado dispensado por el personal de enfermería
a los pacientes terminales, a todo tipo de pacientes y personal sanitario.
Un ejemplo sencillo de categoría central se tiene en la categoría pérdida
social (social loss), a la que nos hemos referido repetidamente en los pun-
tos anteriores. Strauss (1987) ilustra esta cuestión con un ejemplo de su ex-
periencia investigadora en hospitales: «gestión del dolor» por las enferme-
ras era una catego­ría central que englobaba subcategorías como las rutinas
de alivio con equipo médico o las rutinas de alivio mediante consejos al pa-
ciente sobre posturas, etc. En nuestra experiencia investigadora reciente la
categoría central discriminación múltiple engloba otras muchas formas de
discriminación e introduce un enfoque renovado respecto a perspectivas
teóricas previas19.

632
21. La teoría fundamentada y el análisis cualitativo

DEFINICIÓN DE CATEGORÍA CENTRAL (CORE CATEGORY)


(STRAUSS, 1987)

Una categoría que es central para la integración de la teoría... La genera-


ción de teoría ocurre en torno a una categoría central (y a veces más)... La
mayoría de las otras categorías y sus propiedades están relacionadas con
ella... Además, a través de estas relaciones entre categorías y sus propieda-
des, tiene la función primordial de integrar la teoría y hacerla densa y
saturada conforme dichas relaciones son descubiertas. Estas funciones
llevan a la completitud teórica —dando cuenta del máximo de variación
en un patrón de comportamiento con el mínimo posible de conceptos,
maximizando parsimonia y alcance...
  El analista debería buscar deliberadamente una variable central cuando
codifica los datos... El analista busca constantemente el «tema principal»,
lo que parezca ser la preocupación o problema principal de la gente en una
situación, lo que constituya la sustancia de lo que contengan los datos.

DEFINICIÓN DE CODIFICACIÓN SELECTIVA (SELECTIVE CODING)


(STRAUSS, 1987)

... se refiere a la codificación sistemática... en torno a la categoría central...


los analistas delimitan la codificación a sólo aquellos códigos que se
relacionan con los códigos centrales de manera significativa como para ser
usados en una teoría parsimoniosa. El código central se convierte en una
guía para el muestreo teórico y la recogida de datos. El analista busca las
condiciones, consecuencias, etcétera, que guardan relación con la categoría
central...

4.5  La escritura de la teoría (sustantiva o formal)

La meta de generar teoría no se alcanza hasta que el investigador tiene un


volumen de información suficientemente elaborada, como para publicarla.

En esta fase del proceso de análisis cualitativo, el analista posee información co-
dificada, una serie de anotaciones [memos] y una teoría. Las reflexiones en sus
anotaciones proporcionan el contenido que se esconde tras las categorías, las
cuales se convierten en los temas principales de la teoría presentada posterior-
mente en artículos o libros. Por ejemplo, los temas principales (títulos de las sec-
ciones) de nuestro artículo sobre la pérdida social fueron «el cálculo de la pérdi-

633
El análisis de datos

da social», «el relato de la pérdida social que representa un paciente», «el


impacto de la pérdida social en la compostura profesional de la enfermera»
(Glaser y Strauss, 1967: 113).

Finalmente, para concluir con esta presentación del procedimiento de la


grounded theory, merece subrayarse el entrelazamiento de las operaciones de
recogida (data collection), codificación (coding) y análisis e interpretación de la
información, a lo largo de todo el proceso investigador (operativizado me-
diante el memoing, hoy en día incorporado en los paquetes informáticos dise-
ñados para ayudar en el análisis cualitativo). Conviene destacar también algu-
na de las críticas hechas a este procedimiento20. Aun reconociendo que los
manuales de Strauss (1987) y Strauss y Corbin (1990) «están entre las guías
más concretas y detalladas para adentrarse en la jungla del análisis de datos
cualitativos», Lonkila (1995: 45) les achaca que no sean suficientemente con-
cretos respecto a la «implementación práctica» de las operaciones que descri-
ben (manejo de ficheros, por ejemplo). Asimismo, se les critica la falta de cla-
ridad en la definición de «las relaciones entre categorías, propiedades y
dimensiones» (especificando dicha crítica: «véase, por ejemplo, Strauss, 1987:
14-15, 20-21; Strauss y Corbin, 1990: 70-71 y 127»)21. Desde nuestro punto de
vista, esta demanda de concreción y claridad puede ayudar a satisfacerla los
instrumentos computacionales como NVivo, Atlas.ti (u otros programas), al
promover la mayor visibilidad del taller del analista y ofrecer una serie de re-
cursos. Pero se trata de un asunto no exento de debate metodológico, en espe-
cial si se plantea en relación a la teoría fundada (Bryant y Charmaz, 2007;
Carrero, Soriano y Trinidad, 2012; Valles, 2005a, 2007, 2013).

5. Concreciones del proceso analítico cualitativo (III):


pasos y operaciones en Atlas.ti y NVivo

Años atrás, Weitzman y Miles (1995: 327-337) resumían (después de una


evaluación detallada sobre programas de ordenador para el análisis de
datos cualitativos) las demandas de los usuarios de dichos paquetes. Pos-
teriormente, cada nueva versión de NVivo y ATLAS.ti ha tratado de dar
respuesta a los desarrollos específicos demandados, aunque no siempre
a plena satisfacción del usuario. Aquí queremos invitar al lector a que vi-
site los ciberespacios de los programas disponibles, pero no sin advertirle
que las mejoras siguen necesitando la iniciativa y experticia del investiga-
dor. Como escribiera Tesch (1990: 302) «el ordenador es un servidor so-
lamente, no un experto»22.

634
21. La teoría fundamentada y el análisis cualitativo

En la documentación de ATLAS.ti se especificaba (en su versión 4.2)


una secuencia de ocho pasos generales, considerada habitual (aunque no
obligatoria) en el análisis cualitativo asistido por ordenador (Muhr,
1997). Su exposición sinóptica la hacemos en el cuadro siguiente23.

PASOS Y OPERACIONES GENERALES EN EL ANÁLISIS CUALITATIVO


ASISTIDO POR ORDENADOR (PROGRAMA ATLAS/ti)
PASOS Y OPERACIONES PROPOSITO OBSERVACIONES
Paso 1. Crear un proyecto Recoger bajo un mismo Recibe el nombre de
nombre ficheros de datos, «Hermeneutic Unit»
códigos, notas y resultados (HU)
Paso 2. Asociar los Crear un corpus de datos Útil por el acceso
documentos primarios que compila muchos inmediato a cientos o
(ubicados dentro y fuera del documentos sobre un miles de ficheros
ordenador) con la HU tema
Paso 3. Leer y seleccionar Iniciar la categorización Los fragmentos
fragmentos de interés, (codificación) y la pueden ser escritos,
asignando códigos o anotación de ideas gráficos y sonidos
anotaciones
Paso 4. Comparar fragmentos Desarrollar la
codificados igual o categorización
distintamente (codificación)
Paso 5. Organizar los Reducir las categorías
documentos primarios, códigos
y memos en familias
Paso 6. Trazar redes a partir Integrar las categorías Redes, códigos y
de los códigos creados memos son
fundamentales para la
teoría emergente
Paso 7. Exportar los datos a Complementar los El uso de programas
programas cuantitativos métodos y técnicas cuantitativos puede
cualitativos con los ser previo o
cuantitativos inexistente
Paso 8. Escribir el informe y Refinar el análisis y la
decidir sobre su publicación interpretación
en www

Al igual que en ATLAS.ti, en NVivo se advierte que el software puede


soportar procesos de investigación diversos, según los propósitos y enfo-
ques de cada analista. Anótese, por tanto, que no hay una pretensión de

635
El análisis de datos

trazar un único camino en la gestión y análisis de los datos. Ambos pro-


gramas ofrecen instrumentos para ayudar en los procesos de organiza-
ción, vinculación, codificación, búsqueda y modelización.
La arquitectura de NVivo revela una concepción (concreción) muy su-
gerente y sólida del trabajo analítico con datos cualitativos. En la base,
dos sistemas simétricos e interconectados: documentos (o recursos en las
versiones nuevas) y nodos24. Se dice que son simétricos, porque ambos
pueden ser explorados y hojeados (browse); e interconectados, porque el
usuario puede moverse de un sistema a otro mediante la codificación (co-
ding) y la vinculación (linking). Esta simetría se debe a que «los investiga-
dores cualitativos se mueven normalmente entre los documentos y las
ideas sobre éstos» (Richards, 1999: 12). El armazón de NVivo cuenta con
otro flanco simétrico. Documentos y nodos pueden tener atributos 25 y
agruparse en colecciones (sets), además de clasificarse.
A partir de una de las prácticas tutorizadas, que NVivo ofrecía en ver-
siones previas, cabe destacar un conjunto similar (al señalado para ATLAS)
de etapas y tareas en el análisis cualitativo asistido por estos paquetes in-
formáticos. Es lo que se presentaba en la edición anterior de este capítu-
lo, a modo de ejemplo tutorizado de análisis cualitativo con NVivo. Sim-
plificamos en esta nueva edición dicha presentación dada la relevancia y
disponibilidad hoy en día de tutoriales en la red. La versión 10 de NVivo
(la última disponible en 2014) destaca en su presentación virtual que la
nueva actualización permite «reunir, organizar y analizar contenido de
entrevistas, discusiones de grupos focales, encuestas, audio, medios socia-
les, vídeos y páginas web».

SECUENCIA DE ETAPAS Y TAREAS PRINCIPALES DE


INVESTIGACIÓN Y ANÁLISIS CON NVIVO
Etapa primera:
A.  Creación de documentos compuestos
B.  Mantenimiento de un diario del proyecto
C.  Importación de atributos
D.  Lectura y codificación de documentos
E.  Registro de notas (memos) sobre documentos y nodos
F.  Establecimiento de vínculos entre documentos y nodos

Etapa segunda:
G.  Búsqueda textual
H. Organización del sistema de codificación (reubicación y agrupación)
I.  Búsqueda analítica de relaciones y pautas entre conceptos
J.  Creación de modelos

636
21. La teoría fundamentada y el análisis cualitativo

Ambos programas se han actualizado de manera notable en los últi-


mos años, como señalábamos al principio. Hoy en día ofrecen presenta-
ciones o tutoriales audiovisuales accesibles en la red, que invitamos al
lector a consultar (http://atlasti.com/video-tutorials/; http://www.qsrinterna-
tional.com/products_nvivo.aspx). Al mismo tiempo conviene adentrarse en
las cuestiones metodológicas de fondo, que han seguido teniendo reflejo
editorial en los últimos años. Baste señalar aquí un hilo bibliográfico
para quienes tengan interés en la madeja de foros internacionales, grupos
de investigación sobre tecnología y metodología para el análisis cualitati-
vo en ciencias sociales (Evers, Silver, Mruck y Peeters, 2011).

A modo de recapitulación
En los años transcurridos entre la primera edición de este capítulo (2000) y
la segunda (2014), ha habido una eclosión tanto en la literatura especiali-
zada sobre teoría fundamentada (grounded theory) como en la actualiza-
ción de los paquetes informáticos especializados en la asistencia del análi-
sis cualitativo. Por un lado, la propuesta metodológica alumbrada en los
años sesenta del pasado siglo por Glaser y Strauss ha conocido un extraor-
dinario desarrollo en estos primeros años del siglo xxi, tanto en la obra de
Glaser (Strauss fallece en 1996) como en la de sus seguidores y críticos. Por
otro lado, los paquetes informáticos a los que se ha dedicado atención en
este capítulo (Atlas.ti y NVivo) han seguido teniendo como referencia me-
todológica importante (para su legitimación) a la grounded theory, pero sin
descartar otras metodologías cualitativas26 (e incluso avanzando en ofreci-
mientos de integración con procedimientos cuantitativos). La paradoja de
este devenir tecnológico y metodológico está en que la postura glaseriana
se ha afianzado como contraria ante los cantos de sirena de dicha tecnolo-
gía; incluso ha sido recurrente su denuncia de una adopción y adaptación
desvirtuadoras por parte de los usuarios de tales tecnologías. Por nuestra
parte, se ha remitido a lo publicado acerca de este debate para centrar el
espacio editorial de este capítulo en una presentación acotada de ambas
partes, la metodológica y la tecnológica, invitando al lector a que tome sus
decisiones.

Notas
1  En aras de un ahorro de espacio editorial, pero sin menoscabar información
disponible en la red, remitimos al siguiente enlace para un mayor detalle biblio-

637
El análisis de datos

gráfico sobre teoría fundamentada: http://www.groundedtheoryonline.com/bi-


bliography-and-references#theocode.
2  Thomas Muhr, autor del programa ATLAS/ti, dedica «al Prof. Anselm
Strauss» el manual del usuario correspondiente a la versión 4.1, donde el propio
Strauss reconoce (en el Prefacio) que dicho programa se basa en parte en la me-
todología de la grounded theory. Una influencia similar cabe vislumbrar en el
programa NUD*IST, cuya versión lanzada en 1999 bajo el nombre NUD*IST
NVivo ha sido actualizada varias veces.
3 Una ayuda en la selección de lo disponible a este respecto se tiene en: http://
www.surrey.ac.uk/sociology/research/researchcentres/caqdas/support/choosing/.
4  En cualquier caso, resulta recomendable, gracias a la disponibilidad de la red
hoy en día, consultar algunos sitios donde se aborda la elección del software y del
enfoque metodológico: http://www.surrey.ac.uk/sociology/research/researchcen-
tres/caqdas/support/choosing/; http://onlineqda.hud.ac.uk/methodologies.php.
5  No debe entenderse que el MCC no tenga interés en la verificación y con-
trastación teórica. Ahora bien, no se asume que la verificación sea posible úni-
camente a través de investigación cuantitativa subsiguiente (Strauss y Corbin,
1994: 274).
6  Los avances tecnológicos e informáticos han ido haciendo posible nuevos
sistemas de notas de campo (multimedia, tomadas con dispositivos móviles, sin-
cronizadas, etc.). Véase, por ejemplo, la incorporación de Evernote en NVivo 10
(http://www.youtube.com/watch?v=cjnRzdxWdYQ).
7 Una presentación didáctica temprana hecha por nosotros sobre este parti-
cular, y sobre el muestreo cualitativo en general, puede verse en Valles (1997: 89-
96). Baste anotar aquí que en los estudios cualitativos orientados a la genera-
ción de teoría la selección de casos, contextos o momentos va siendo dirigida
por una estructura conceptual en desarrollo. Esto es, las muestras suelen evolu-
cionar una vez comenzado el trabajo de campo, porque lo que se va encontran-
do lleva a realizar indagaciones no previstas y porque hay un afán por saturar
las condiciones bajo las que la teoría opera.
8  Entrado el siglo xxi, con la disponibilidad de vídeos en el ciberespacio,
puede verse y oírse a Glaser decir: «Grounded Theory is the study of a concept»
(http://www.youtube.com/watch?v=OcpxaLQDnLk).
9 La Guía de NVivo 10, disponible en la red, señala que aunque el foco prin-
cipal es el análisis cualitativo proporcionan también apoyo a investigadores que
trabajen con métodos mixtos. Pero se hace la siguiente advertencia: «Remember
that NVivo can help you to manage, explore and find patterns in your data but
it cannot replace your analytical expertise».
10  Adviértase, no obstante, que la distinción textual-conceptual no casa bien
con la filosofía de la grounded theory, para la que la conceptualización está pre-
sente desde los momentos iniciales de la codificación.
11  En Atlas.ti se consideran estas redes (networks), junto con los códigos, «su-
percódigos» y las anotaciones (memos), «piedras angulares de la teoría emergente».

638
21. La teoría fundamentada y el análisis cualitativo

12  En lengua castellana, véase Gil Flores (1994), para un material didáctico
sobre la concreción del análisis de los datos cualitativos, en el que se aplica la
propuesta de Miles y Huberman (1984). También la obra más reciente editada
por Canales (2013).
13  Reiteramos la recomendación de consultar sitios donde se aborda la elec-
ción del software (http://www.surrey.ac.uk/sociology/research/researchcentres/
caqdas/support/choosing/) y del enfoque metodológico (http://onlineqda.hud.
ac.uk/methodologies.php).
14  La ejemplificación y comentario de estos tipos de análisis e informe de
material cualitativo puede verse en Valles (1997: 262-274; 2009: 117 y ss), donde
se propone e ilustra también la modalidad de análisis e informes mixtos.
15  Reproducimos en este apartado lo escrito en otro lugar (Valles, 1997: 348-
356), con algunos cambios. Contrástese con las presentaciones de otros autores
(Carrero, Soriano y Trinidad, 2012; Flores y Naranjo, 2013).
16  En los últimos años han ido apareciendo en la red videostutoriales que
explican este tipo de codificación (https://www.youtube.com/watch?
v=gn7Pr8M_Gu8) y la manera de hacerlo con Atlas (https://www.youtube.com/
watch?v=jZmbmV1277A) o con el programa NVivo (https://www.youtube.com/
watch?v=meC9h99SCb4).
17  La concepción de las notas de campo, en tanto tareas técnicas estrecha-
mente ligadas al análisis y la redacción o síntesis final, aparece claramente en los
textos de Schatzman y Strauss (1973) y de Spradley (1980). Una presentación di-
dáctica de las aportaciones de dichos autores sobre este particular puede verse
en Valles (1997: 168-173).
18  La escritura de memorandos (analítico-interpretativos), al tiempo que se
codifica, es clave en la grounded theory methodology (GTM). Glaser (2004) llega
a advertir que si codificamos sin memorandos no hacemos GTM, como recuer-
da la socióloga Kuş Saillard (2011) en su comparación de NVivo 8 y Maxqda,
quien destaca el carácter reflexivo de las herramientas de anotación.
19  Proyecto I+D titulado «Medición de la discriminación múltiple: desarro-
llo de un sistema de indicadores para la implementación de políticas de integra-
ción social (MEDIM)», referencia CSO2012-36127, IP: Mª A. Cea D’Ancona.
20 Una exposición más pormenorizada de los puntos fuertes y débiles en la
grounded theory, según distintos autores, puede consultarse en Valles (1997: 356-
357; 2007).
21  En la literatura en castellano, merece destacarse la revisión y clarificación
a este respecto realizada por Carrero, Soriano y Trinidad (2012) respecto a la
primera edición del cuaderno metodológico.
22  Merecen leerse y releerse las advertencias y recomendaciones de esta au-
tora sobre los riesgos existentes en el (mal)uso de la tecnología informática en el
análisis cualitativo. Una síntesis temprana de los mismos puede verse en Valles
(1997: 399; 2001), a la que ha seguido nuestro interés por la relación entre cali-
dad y tecnología (Valles, 2005b).

639
El análisis de datos

23  Adviértase que en esta simplificación de ocho pasos (propuesta por el


creador de ATLAS.ti) están ausentes las operaciones de búsqueda analítica, a
pesar de disponer de ellas el programa (véase Query Tool). La secuencia de pa-
sos que anotábamos en el año 2000 no ha variado grandemente, si se comparan
las versiones 4.2 y la 6 o la 7 de ATLAS. Si acaso, ha habido mejoras como la
posibilidad de transferir parte de lo hecho en ATLAS a NVivo.
24 Los nodos son los «contenedores» de las categorías (de la codificación).
Pueden representar cualquier clase de categoría: conceptos, ideas, lugares, perso-
nas y cualquier otra cosa que sea relevante al proyecto. Pueden irse organizando
jerárquicamente (en árbol, tree nodes) o sin organización alguna (nodos libres o
free nodes).
25  Dando valores a los atributos se puede almacenar información sobre
cualquier documento (e.g. edad= 25, o fecha=1985) y sobre el concepto, objeto,
o persona que representa un nodo. Los atributos pueden usarse luego en las bús-
quedas, al igual que las agrupaciones o sets de documentos o de nodos. ATLAS
no cuenta con atributos, sino con la posibilidad de formar familias (uno de sus
flancos débiles).
26 Véase, por ejemplo, el uso de ATLAS para el análisis del discurso del blo-
gueo (blogging), que presentan Trena Paulus y Jessica Lester (https://atlastiblog.
wordpress.com/2014/07/20/using-atlas-ti-for-a-discourse-analysis-study-of-blog-
ging-in-an-educational-context/).

Bibliografía recomendada
Bryant, A., y K. Charmaz (eds.) (2007): The SAGE handbook of grounded
theory, Los Angeles, Sage Publications.
Carrero, V., R. Mª. Soriano y A. Trinidad (2012): Teoría fundamentada «Groun-
ded Theory». El desarrollo de teoría desde la generalización conceptual (2ª ed.
rev.), Madrid, C.I.S., Colección «Cuadernos Metodológicos», núm. 37.
Glaser, B. G., y A. L. Strauss (1967): The Discovery of Grounded Theory, Chica-
go, Aldine.
Kuckartz, U. (2011): «Análisis cualitativo de datos asistido por computadora:
historia, métodos y perspectivas», en C. A. Cisneros (ed.), Análisis cualitativo
asistido por computadora, México, UNAM, pp. 27-51.
Merlino, A., y A. Martínez (2007): «Integración de métodos cualitativos y cuanti-
tativos: Construyendo e interpretando clusters a partir de la teoría fundamen-
tada y el análisis del discurso», Forum Qualitative Sozialforschung, 8(1), Art.
21, http://nbn-resolving.de/urn:nbn:de:0114-fqs0701219 [fecha último acceso:
14 de noviembre, 2014].

640
22.  Introducción al análisis
sociológico del sistema
de discursos

Fernando Conde

1. Introducción

El texto que se presenta en este capítulo pretende ser un resumen operati-


vo de las actividades y procedimientos de análisis que se desarrollan de
forma más amplia en Análisis sociológico del sistema de discursos (Conde,
2009), en la línea de la praxis de la investigación social abierta por la
obra seminal de Jesús Ibáñez (Ibáñez, 1979), Alfonso Ortí y Ángel de
Lucas. (Ortí, 1990 y 2001; Valles y Baer, 2005).
Tras una breve presentación de cómo vamos a entender nociones bási-
cas como «texto/s» y «discurso/s» y de las actividades aconsejables a de-
sarrollar para preparar el análisis de los textos producidos en los grupos
de discusión, vamos a centrarnos en la presentación de los principales
procedimientos de análisis y de interpretación de los mismos, como pue-
dan ser las «conjeturas preanalíticas», las «posiciones discursivas», las
«configuraciones narrativas» y los «espacios semánticos».

2.  Los textos, los discursos y los sistemas de discursos

Dada la variedad de conceptualizaciones y usos teóricos (y coloquiales)


de las expresiones «texto» y «discurso» que se pueden encontrar en la li-

641
El análisis de datos

teratura sobre la investigación cualitativa (Alonso, 1998; Íñiguez Rueda,


2003), creemos necesario iniciar este capítulo con una explicitación de
cómo vamos a entender dichos conceptos en este texto.
En primer lugar, vamos a entender por «texto» a la literalidad de la
trascripción de una reunión de grupo, de la totalidad de la conversación
mantenida, en línea con la propuesta de Ricoeur (2001) de entender
como «texto» a «todo discurso fijado por la escritura» y vamos a deno-
minar «corpus de textos» al conjunto de las transcripciones de la totali-
dad de los grupos realizados en la investigación.
A su vez, vamos a entender como «discurso/s» a la construcción y ela-
boración teórica realizada por el equipo de la investigación a partir del
análisis del material de los textos producidos en la misma.
Es importante señalar que el «texto» de una reunión de grupo no ge-
nera un único discurso sino que es un «texto oral» (Alonso, 1996), pro-
ducto del entrecruzamiento de diferentes líneas argumentales, de varios
tipos de lo que podríamos llamar discursos/opiniones cotidianos que
pueden estar presentes y representados, escenificados, en cada uno de los
grupos realizados en la investigación.
«Texto oral», conjunto de textos orales a partir de los cuales el equipo
de investigación construye un conjunto de «discursos tipo» (Conde,
2009) a modo de «tipos discursivos ideales», en el sentido weberiano de
la expresión, que podemos entender como el «sistema de discursos tipo»
producidos en la investigación.
Por tanto, en este epígrafe el «texto», el «corpus de textos» siempre va
a ser entendido como un «objeto empírico», el sistema de discursos (confi-
gurado a partir del análisis e interpretación de dicho corpus de textos) va a
ser siempre una construcción, va a ser un «objeto teórico» y, al mismo
tiempo, el «objetivo pragmático» de la investigación, va a ser una entidad
construida, configurada por el equipo de investigación en función del aná-
lisis de los textos de la investigación y de los objetivos de la misma.
Aproximación que conlleva: a) concebir los «discursos singulares»
como unas construcciones «artificiales» que suponen una perspectiva de
aproximación y de configuración de la realidad social que mantiene un
cierto grado de coherencia interna y que se explicita, en cada momento
histórico determinado, por una particular forma narrativa que se expre-
sa, en lo fundamental, en una serie de argumentos verbales1 más o menos
trabados y articulados; b) comprender que lo que acabamos de denomi-
nar «discurso singular» está inscrito, forma parte de un sistema de dis-
cursos sociales más amplios que, igualmente, deben de construirse en la
investigación.

642
22. Introducción al análisis sociológico del sistema de discursos

Aproximación y concepción del «Sistema de Discursos» que, a su vez,


descansa en una serie de supuestos metodológicos que conviene recordar.

a) Los discursos son producciones y prácticas sociales, no individuales

Los discursos son producciones y prácticas sociales, son «dichos» y


«prácticas» que atraviesan a los propios sujetos individuales.
Como señala Bajtin en un comentario muy bello acerca del término
«palabra», pero que cabe generalizar muy bien a los «discursos sociales»
(en la acepción más cotidiana de esta expresión), «la palabra no es una
cosa, sino el médium constantemente móvil, eternamente mutable de la re-
lación dialógica. No pertenece nunca a una sola conciencia, a una sola
voz. La vida de la palabra consiste en pasar de boca en boca, de un con-
texto a otro, de un grupo social a otro, de una generación a otra. Compor-
tándose de esta forma, la palabra no olvida el camino recorrido y no pue-
de librarse del todo de esos contextos concretos de los cuales ha entrado
antes a formar parte. Todo miembro de la comunidad lingüística se coloca
ante la palabra, no ya como palabra neutral de la lengua, libre de intencio-
nes, sino habitada por voces ajenas. El hablante recibe la palabra de una
voz ajena y llena la palabra de una voz ajena. La palabra llega a su contex-
to de otro contexto, lleno de interpretaciones ajenas» (Bajtin, 1986).

b) Los discursos se producen y se actualizan en el ámbito de la interacción


social, de las conversaciones mantenidas en el seno de los grupos de discusión

Es en el seno de los grupos «artificialmente» construidos en la investiga-


ción donde se escenifican, se representan, se actualizan los posibles dis-
cursos sociales que de una forma más difusa puedan circular en sus res-
pectivos grupos sociales de referencia2.

c) Los discursos se producen desde el conjunto de ligaduras, desde los nu-


dos de relaciones sociales desde las que los sujetos hablan, en función del
diseño de los grupos de discusión

Ésta es otra de las hipótesis fuertes del análisis sociológico de los discur-
sos producidos por los grupos de discusión. Como subraya la etnometo-
dología, la pluralidad de los espacios y roles socialmente existentes ac-
túan, emergen, se expresan en la situación del grupo de discusión, en la

643
El análisis de datos

propia interacción comunicativa que éste significa (Castro Nogueira,


Castro Nogueira y Morales Navarro, 2005; Íñiguez Rueda, 2003), confi-
gurando una serie de «lugares simbólicos» desde los que se producen los
discursos cuyo análisis es central en el ASSS, como veremos algo más
adelante.

d) Los discursos sociales forman un sistema

Los discursos sociales no se producen de forma aislada. Todo discurso se


produce y se desarrolla en relación a otro discurso al que alude, al que
interpela, al que se trata de aproximar y/o del que se trata de diferenciar.
Los discursos producidos en los grupos siempre aluden, de una u otra
forma, a la existencia de otros discursos al respecto.
De ahí que en la tarea de análisis es muy importante tener claro qué
tipo de «sistema» es el que se puede y se debe construir a partir del «cor-
pus de textos» grupales producidos, cuáles son las dimensiones que con-
figuran la trabazón de dicho sistema, cuáles son el conjunto de singula-
ridades de cada discurso, y cuáles son las similitudes y diferencias que
hay entre unos y otros discursos.

e) Los discursos sociales conforman un sistema estructurado, ordenado y


jerarquizado

El sistema de los discursos sociales responde siempre a un orden conflic-


tivo, a una cierta jerarquía sempiternamente cuestionada entre los mis-
mos. Dicho orden simbólico del sistema de discursos puede o no corres-
ponderse con el orden social existente. Corresponde precisamente a la
investigación configurar dicho orden simbólico del sistema de discursos
y analizar la posible articulación concreta que se haya podido producir
entre unos y otros órdenes, entre el orden social y el orden discursivo.

f) La circulación de los discursos sociales responde a una compleja red de


relaciones y conflictos sociales, ideológicos, simbólicos, lejos de cualquier
tipo de unilateralismo

Una de las claves del análisis sociológico de los discursos es la de ahon-


dar en la forma concreta en que cada grupo social usa, hace suyo, se
apropia y transforma, produce y reproduce el «lenguaje» colectivo pro-

644
22. Introducción al análisis sociológico del sistema de discursos

ducto de esta amplia complejidad de influencias y discursos y en cómo se


relaciona dicho discurso con el producido por otros grupos sociales.

g) Existe un diverso grado de cristalización y de circulación social de los


discursos sociales

Una de las características más relevantes de los discursos sociales en rela-


ción con las posibilidades de su análisis es su «grado de cristalización»
(Conde, 1994), es decir, su grado de consistencia propia, de materialización
expresiva más o menos codificada. A medida que el discurso que se estu-
dia está más cristalizado, más codificado, sus evidencias en los textos de la
investigación serán mayores y el trabajo de análisis más reducido. Sin em-
bargo, cuando dicho discurso todavía está poco cristalizado, sigue estando
poco ahormado por la sociedad y por los distintos grupos sociales, su gra-
do de codificación en los textos será más reducido, la posible expresividad
social más rica y la tarea de interpretación, de apuesta interpretativa más
allá, a veces, de la pura evidencia empírico-textual, será mayor.

3. La importancia de una buena dinámica de grupo para


el análisis sociológico del sistema de discursos

En la literatura teórica sobre la investigación cualitativa y en el mundo


del «mercado» y de las empresas de investigación es cada día más usual
hablar de los grupos «focales» (Denzin y Lincoln, 1994; Miles y Huber-
man, 1994; Patton, 2002) y plantear el trabajo de grupo a modo de entre-
vista grupal que dificulta el desarrollo de una conversación más espontá-
nea entre los asistentes en relación con el «impulso» inicial planteado
(Callejo, 2001; Gutiérrez Brito, 2008).
Es por eso muy importante recordar que para realizar un buen análi-
sis sociológico del sistema de discursos, siempre en el marco condicio-
nante de los objetivos de la investigación, hay que preparar las mejores
condiciones de producción de esos textos «empíricos», bases del análisis,
como son un buen diseño de los grupos, el saber lanzar el «impulso» más
adecuado para la tarea dialógica de construir el objeto de la investiga-
ción, de acuerdo a los marcos de referencia simbólicos más adecuados
para cada grupo que se trate, y el saber desarrollar una dinámica de gru-
po de la forma más abierta y menos directiva posible para que las opi-
niones, argumentos, conflictos, tensiones que se vayan expresando en el

645
El análisis de datos

grupo transcurran de la forma más espontánea posible y con el mínimo


de interferencias del coordinador, tal como hemos tratado de sintetizar
en el siguiente gráfico.

Gráfico 1.  Modalidades de moderación grupal

4.  Las actividades de preparación del análisis de los textos

4.1 Las tareas inmediatamente posteriores a la realización del grupo


de discusión

Una vez finalizado el primer grupo, y esta cuestión es válida para todos
los grupos que se realicen a lo largo de la investigación, conviene tomar
notas de lo que ha ocurrido en el mismo. Sin la ambición del «diario de
campo» (García Jorba, 2000), es muy aconsejable llevar un «cuaderno de
notas» en el que se vayan apuntando las diversas incidencias, impresio-
nes, elementos del contexto, de la situación del grupo, de las intuiciones
que vayan jalonando el trabajo de campo que pueden ayudar de forma
muy importante a responder a determinadas preguntas de la investiga-
ción o a tomar decisiones para las siguientes fases de la misma.

646
22. Introducción al análisis sociológico del sistema de discursos

Una actividad práctica muy aconsejable consiste en la realización de


un gráfico (sociograma) en el que se trata de reproducir la situación del
grupo, en qué lugar está sentado cada asistente, cuáles son las tensiones
y las posibles divisiones que se hayan podido configurar a lo largo de la
dinámica de grupo, qué características singulares, si es el caso, ha expre-
sado cada asistente que sea de interés para el trabajo, qué alianzas y en-
frentamientos o divisiones, se han expresado entre unos y otros asistentes,
qué fracciones (Conde 2009) o sectores grupales se han ido configurando
en la dinámica, etc.
Este sociograma artesanal conviene que se complemente con unas no-
tas con las primeras y más iniciales «intuiciones» y conclusiones que ha-
yamos podido obtener del grupo, sean éstas del tipo que sean, más allá
de cualquier preocupación sobre su posible nivel de elaboración.
En todo caso es aconsejable fijarse y recoger los siguientes aspectos:

• Las principales fracciones del grupo con posiciones discursivas di-


ferenciadas. Es decir, el conjunto de asistentes que puedan haber
mantenido posiciones distintas en los diferentes temas del debate.
• El juego de diferencias y de oposiciones que hayan podido produ-
cirse entre unas y otras fracciones. La posible fluidez de unas y
otras fracciones en función de los diversos temas que se hayan
abordado en el grupo.
• Cuáles han sido las principales líneas de consenso y de diferencias
surgidas entre las distintas fracciones, entre las diferentes partes
del grupo.

Asimismo conviene anotar aquellas otras cuestiones que se consideren


relevantes a juicio del equipo de investigación, especialmente aquellas
cuestiones relativas a las diferencias expresivas más significativas de cada
grupo realizado en relación a otros anteriores, ya que dicha tarea nos
puede facilitar de forma extraordinaria una lectura ordenada más global
del conjunto de grupos realizados una vez finalizada la investigación.

4.2  La lectura literal y ordenada del corpus de textos

Una vez transcritas las reuniones de grupo3, la lectura de los textos es


una tarea clave en el conjunto del trabajo de análisis e interpretación de
los mismos.

647
El análisis de datos

Dos consejos prácticos: a) la lectura inicial, las primeras lecturas de


los textos de cada grupo deben ser lo más «literal» posible, y b) la lectura
del conjunto de los textos debe ser «ordenada» en función de algún crite-
rio útil para los objetivos de la investigación.
La lectura literal de los textos debe tratar de dar igual valor a todas
sus palabras, a todas sus expresiones sin despreciar las que nos puedan
parecer más obvias o, por el contrario, más ininteligibles. Un breve texto
de H. G. Gadamer (1998) puede darnos una indicación de esta impor-
tancia de las «palabras» y de la paralela actitud de máxima apertura ante
las mismas: «Se trata de lograr que los conceptos y las expresiones que se
forman con ellas (con las palabras) nos hablen de nuevo, se trata de desli-
gar las palabras de las relaciones funcionales vacías en las que se utilizan
a manera de terminología moldeadora superpuesta para devolverles el
carácter lingüístico que poseían al principio».
Con la lectura ordenada nos referimos a la lectura sistemática de los
textos producidos en la investigación en función de algún criterio que
nos pueda hacer más inteligible el sistema de relaciones y diferencias
existentes entre los mismos y que, a su vez, nos ayude a configurar el sis-
tema de discursos más ajustado a los objetivos de la investigación.
Al leer los textos grupales según un orden determinado, puede apare-
cer ante los ojos del investigador/a la expresividad de cada grupo, la po-
sible «variabilidad» existente entre unos y otros, la posible modificación
de posiciones en unos y otros grupos que puede dar una pista sobre la lí-
nea de análisis a seguir. Conjunto de percepciones que permite la cons-
trucción de una cierta sistematización de posiciones entre unos y otros
grupos de mucha ayuda en el análisis de los mismos.
En la práctica de la investigación, y en ausencia de un criterio más
claro por parte de los investigadores en función de los objetivos de la in-
vestigación y de su conocimiento de los grupos realizados, resulta acon-
sejable una de las dos siguientes secuencias de lectura:

• Según el diseño de la posición social o de algún otro de los pará-


metros utilizados para diseñar los grupos. Por ejemplo, de los gru-
pos más jóvenes a los mayores para observar si en relación con la
edad se produce alguna diferenciación significativa entre unos y
otros grupos, en función de la posición social.
• Según la «primera intuición» de las posiciones discursivas explici-
tadas en las dinámicas de grupo realizadas y que hemos ido reco-
giendo en las notas posteriores a las reuniones.

648
22. Introducción al análisis sociológico del sistema de discursos

5. La gran bifurcación, entre la descomposición y


fragmentación del texto/s o su abordaje integral

Suele ser habitual que uno de los primeros pasos en el análisis de los tex-
tos de los grupos sea crear «categorías» (Denzin y Lincoln, 1994; Miles y
Huberman, 1994; Paillé y Muchielli, 2003; Paillé, 2006; Patton, 2002;
Strauss y Corbin 2002) de una forma similar, hasta cierto punto, a cómo
se «codifican» las preguntas abiertas de un cuestionario en un estudio
cuantitativo. La creación de «categorías» descompone «analíticamente»
(Sarfati, 1997) el texto en «unidades» en las que se trata de subsumir el
conjunto de temas, de expresiones textuales que parezcan que tienen un
significado similar. Proceso de descomposición de los textos en «unida-
des elementales de análisis» que se trata, de recomponer, en un movi-
miento y fase posterior del análisis, de forma parecida a la operación que
se realiza mediante el análisis factorial (Conde, 1987).
El ASSD se aleja de esta lectura y aproximación más analítica e ins-
cribiéndose en una corriente de aproximación «socio-hermenéutica»
(Alonso, 1996) a los textos realiza una aproximación más «integrativa»
(Sarfati, 1997) a los mismos que trata de aprehenderlos de una forma
más global, de una forma más «holística» para, en un movimiento poste-
rior, tratar de desarrollar un trabajo de análisis más particularizado y de
detalle sobre el citado corpus de textos.
En lugar de realizar la descomposición analítica de los textos, el ASSD
procede de la forma contraria, siguiendo lo que Ricoeur (1995) denomina
como «la primera adquisición de la hermenéutica moderna» que no es otra
que el haber planteado «la regla de proceder (el ir) del todo a las partes y a
los detalles» ya que, como sugiere Gadamer (1998), «el sentido surge única-
mente… cuando uno lee la totalidad de lo escrito comprendiéndolo».
En este sentido, antes de cualquier tipo de análisis más fragmentado, hay
que tomarse el tiempo, tener la paciencia de una lectura y de un trabajo de
los textos que nos ayude en la tarea de comprenderlos en su integridad.

5.1  Las anotaciones a los textos

Leer un texto, como hemos apuntado, es clave. Trabajarlo es imprescin-


dible. Para llevar a cabo dicha tarea, hay que escribir, anotar, subrayar en
paralelo a la lectura de los textos, los temas, las sugerencias, las asocia-
ciones que nos evoquen, las expresiones que nos llamen la atención, todo
lo que consideremos de interés de cara al objetivo del análisis de la inves-

649
El análisis de datos

tigación. Lógicamente, dichas anotaciones pueden adoptar formas muy


diversas (Paillé y Muchielli, 2003; Paillé, 2006). No hay una forma única
de hacerlo y cada investigador/a se acaba creando su propia forma de
realizar este trabajo, con el que se encuentra más cómodo y el que le per-
mite avanzar más adecuadamente en el trabajo de análisis.
En este marco y en estrecha relación con lo apuntado sobre la lectura
más «integrativa» que «analítica» como la mejor forma de acercarse a un
texto con el objetivo del ASSD, conviene señalar que estas anotaciones
deben tratar de ayudarnos a entender la dinámica del texto, de sus ten-
siones, para intentar avanzar, vía síntesis y condensación, hacia una com-
prensión de la globalidad y del sentido general del mismo.
Desde este punto de vista es aconsejable realizar no sólo anotaciones
relativas a los contenidos del texto, sino realizar aquellas otras que nos
faciliten ese acercamiento a la dinámica, como puedan ser las líneas de
continuidad y/o de oposición entre unos y otros participantes; los lugares
del texto en los que se produce una fractura, un cambio radical, un des-
plazamiento en el desarrollo argumental y discursivo del texto; los mo-
mentos en los que los argumentos se exponen de forma más lineal y
aquellos lugares/momentos del texto en que se mezclan los argumentos
sin un aparente orden ni concierto.
El trabajo de lectura, de anotaciones es un va y viene de lo general a
lo concreto4 y viceversa. A veces, lo global permite reorientar y compren-
der mejor un texto muy concreto. A veces, un detalle, un giro, una expre-
sión, un «indicio» que diría Ginzburg (1989), nos abre una vía de com-
prensión más global del texto. Ahora bien, en este va y viene a modo de
bucle recursivo y en espiral entre lo concreto y lo general, lo que trato de
subrayar en el terreno de las experiencias de análisis sociológico del
discurso/s es la importancia y la primacía de la mirada y del momento
interpretativo y omnicomprensivo del texto (ya sea cual sea su desenca-
denante) sobre el momento de «descomposición analítica» para, en di-
cho marco interpretativo, realizar las posibles tareas de descomposición
del mismo en «partes» más elementales.

6.  Las conjeturas preanalíticas

Uno de los procedimientos para captar y explicitar el sentido general de


los textos es la elaboración de las «conjeturas preanalíticas» (Conde,
2009) con las que tratamos de expresar la aprehensión más integrativa y
gestáltica del sentido más general del texto.

650
22. Introducción al análisis sociológico del sistema de discursos

Las «conjeturas preanalíticas» son unas primeras hipótesis que ayudan


a conferir un primer pre-sentido inicial sobre lo que nos dice (al equipo in-
vestigador) el corpus de textos producido en la investigación en relación
con los objetivos de la misma. Hipótesis que, a su vez, se van a ir modifi-
cando, matizando, enriqueciendo y transformándose en el proceso de con-
traste de dichas conjeturas con el material empírico de la investigación y
en el paralelo proceso de reflexión por parte del equipo investigador en
función de su utilidad de cara a los objetivos de la investigación.
Desde este punto de vista, en el propio trabajo de lectura del corpus
de textos de la investigación cabría señalar la existencia de dos formas di-
ferenciadas de hacerlo:

— Las primeras lecturas que mencionábamos anteriormente muy


atentas a la literalidad del «texto» y más abiertas a las resonancias
que el mismo produce en el equipo de investigación en función de
los objetivos de la misma.
— Unas segundas lecturas más orientadas e intencionales destinadas
a contrastar y validar empíricamente las citadas conjeturas y a
producir los materiales concretos que las expresan y las sintetizan.

6.1  ¿Cómo hacer conjeturas?

El tipo de lectura «integrativa» que favorece la elaboración de las «conje-


turas preanalíticas» podría ser denominado «lectura flotante» (Conde,
2009) que «abre» la imaginación del investigador/a y le hace sensible a
detalles, a «indicios», a conexiones, a tensiones en los textos que posibili-
tan el desarrollo de la llamada «imaginación sociológica», es decir, el
atreverse a encontrar la forma de ensamblar, de tejer de una forma unita-
ria un conjunto de piezas del texto que, a primera vista «analítica», pue-
dan parecer de características muy distintas, es el atreverse a establecer
una especie de «condensación» del conjunto de elementos del corpus de
textos que en su formulación permite prefigurar un cierto sentido general
del texto, del corpus de textos de la investigación.
En este sentido, tal como avanzábamos en Conde (2009), conviene dis-
tinguir entre los posibles elementos desencadenantes de las «conjeturas» y
la ambición de la misma. El desencadenante puede ser cualquier elemento
de la investigación y del corpus de textos que nos induzca su formulación.
La ambición de comprender el sentido de la totalidad del texto.
Una vez formulada y explicitada la intuición, la conjetura debe ser va-
lidada de modo que el análisis y el contraste de dicha conjetura con el

651
El análisis de datos

texto/s debe señalarnos si la misma es coherente. En caso de que lo sea,


la tarea entonces consiste en enriquecer dicha conjetura y elaborarla de
forma más conceptual. Caso contrario, dicha conjetura debe abandonar-
se e iniciar un nuevo trabajo de interpretación conjetural hasta dar con la
conjetura que sea consistente con el conjunto de los textos y que, al mis-
mo tiempo, sea útil de cara a los objetivos de la investigación.

6.2.  La validación de las conjeturas

La forma de contrastación de las conjeturas adopta diversos enfoques en


función de las perspectivas teóricas de unos y otros autores (Soulet,
2006). En mi caso hablo de la «polarización» del texto a la luz de la cita-
da intuición.
¿Qué significa esto?: a) que la conjetura elaborada debe tener capaci-
dad de integrar, de explicar el conjunto más amplio posible (la aspiración
es que explique la totalidad) de las opiniones, de los juicios, de las posi-
ciones y debates mantenidos en los grupos con respecto a los objetivos
de la investigación; b) la conjetura, la hipótesis de la interpretación glo-
bal del texto no sólo debe ser «una» más de las conjeturas posibles a de-
sarrollar sino que la conjetura aceptada debe ser más probable (Ricoeur,
2001) que otras posibles conjeturas/interpretaciones; c) la conjetura me-
jor no es sólo la que da cuenta de más hechos sino la que lo haga de for-
ma más sencilla (Sebek, 1994); d) la conjetura debe ser comunicable;
e) la «conjetura» finalmente aceptada debe ser aquella que dé mejor
cuenta de los objetivos de la investigación, la que resulte más útil para
los objetivos estratégicos de la misma.

7.  Los procedimientos de análisis

Los tres procedimientos más relevantes de análisis en el ASSD son:

• El análisis de las «posiciones discursivas» básicas de los grupos que


viene a ser el trabajo equivalente a responder a las preguntas:
¿quién habla? ¿Desde qué posición se habla, se produce el discur-
so? ¿En nombre de quién habla el grupo? ¿Desde qué lugar social
y simbólico (entendido en un sentido muy amplio) o desde qué
conjunto de lugares sociales y simbólicos producen sus discursos
(en el sentido cotidiano de la expresión) los asistentes al grupo?

652
22. Introducción al análisis sociológico del sistema de discursos

• El análisis de las «configuraciones narrativas» básicas que organi-


zan los textos, que viene a ser equivalente a responder a las pre-
guntas: ¿qué es lo que está en juego en lo que se habla? ¿Qué se
quiere decir con lo que se dice? ¿Qué campo de fuerzas se expresan
en el habla de los grupos?
• El análisis de los «espacios semánticos» de los discursos, que viene
a ser equivalente a responder a las preguntas: ¿de qué se habla?
¿Cómo se organiza el habla?

8.  El análisis de las posiciones discursivas

El análisis de las posiciones discursivas guarda una cierta relación con


las hipótesis del diseño de la investigación desde la doble perspectiva de
las variables que encuadran socialmente los grupos como las de aquellas
relativas a su relación con el objeto de la misma, y cómo desde dicha do-
ble red de ligaduras sociales los grupos construyen su acercamiento espe-
cífico a los objetivos de la investigación.
Los potenciales espacios de pertenencia grupal son complejos y plura-
les y se acaban expresando en las hablas, en los decires concretos de los
grupos. De ahí que en la lectura del texto orientada a analizar las posi-
ciones discursivas conviene estar atento prioritariamente a las formas ex-
presivas de los interlocutores, a sus giros expresivos más singulares e
idiosincráticos; en cómo se autoidentifican, ya sea adscribiéndose especí-
ficamente a un rol, por ejemplo, «nosotros los trabajadores de…», los
«consumidores de…», los «votantes de…» o de una forma más genérica;
de qué modo establecen el diálogo y la interlocución en los grupos; de
qué forma denominan los temas tratados; en cómo expresan los temas y
opiniones que emiten, desde qué punto de vista los abordan.
En esta expresividad de cada grupo ante el objeto de la investigación
se condensa el lugar social y simbólico específico, la «posición discursi-
va» desde la que habla cada grupo, cada fracción de grupo, como el re-
sultado de la articulación, al menos, de las siguientes dimensiones:

— El contexto histórico y social de los grupos.


— Las características concretas del diseño de los grupos.
— El nudo de relaciones y posiciones sociales que se expresan en la
dinámica del grupo en relación con el objeto y los objetivos de la
investigación.

653
El análisis de datos

Dentro de la multiplicidad de posiciones discursivas que se pueden


adoptar a lo largo de una dinámica de grupo, del conjunto de dinámicas
de grupo que compone la investigación, en la práctica cotidiana lo que se
hace es analizar las posiciones discursivas hegemónicas, en el sentido
gramsciano de la expresión, a lo largo de la dinámica de grupo y selec-
cionar dentro de ellas aquellas que son de mayor interés para abordar los
objetivos de la investigación.
Responder a las preguntas de la «Posición discursiva» es una tarea de-
cisiva en el análisis sociológico del sistema de discursos, ya que dicho
análisis nos da varias claves en el proceso de análisis e interpretación:

— Nos indica cuál es la/s perspectiva/s singular/es (en un grupo, in-


cluso en un único interlocutor personal de la investigación, puede
haber una o varias perspectivas), los puntos de vista con los que el
grupo aborda el tema de la investigación.
— Nos va a dar una guía de análisis del conjunto del texto en la me-
dida en que las perspectivas grupales que se expresen como las do-
minantes son las que van a configurar alguna de las principales
líneas de polarización del texto y de construcción de los respecti-
vos discursos.
— Nos va a suministrar lo que podríamos llamar «criterios de repre-
sentación social» y de «generalización» del discurso/s producido en
el grupo en el sentido de que los discursos producidos desde dicha
posición en la microsituación social del grupo de discusión se pue-
den considerar equivalentes y, por tanto, generalizar a los discursos
producidos en el espacio «macro» de lo social desde los lugares so-
ciales análogos con la posición social desde la que se produce el
discurso/s en el grupo. O dicho de otra forma, podemos considerar
que dichos discursos son «representativos» del conjunto de discur-
sos sociales existentes en la sociedad (espacio «macro») que se emi-
tan desde el conjunto de lugares sociales equivalentes a los que se
han expresado en la producción de los citados discursos en la situa-
ción «micro» y experimental de los grupos de discusión.

9.  El análisis de las configuraciones narrativas


El análisis de las «configuraciones narrativas» consiste en generar una
aproximación literal y global del corpus de textos en función de los obje-
tivos de la investigación, de forma que produzcamos una primera hipóte-

654
22. Introducción al análisis sociológico del sistema de discursos

sis sobre aquellos vectores multidimensionales de los textos que cumplan


dos condiciones:

— Que tengan capacidad de ordenar la totalidad de los mismos, des-


de el propio punto de vista de análisis interno de los textos, de su
grado de articulación y de consistencia interna a la luz de la di-
mensión elegida.
— Que tengan capacidad de conectar el sentido general del texto con
el contexto concreto de producción del mismo y con los objetivos
de la investigación.

Los textos empíricos producidos en una investigación cualitativa ad-


miten siempre una multiplicidad de aproximaciones y de posibilidades de
lectura y de interpretación. El análisis de la «configuración narrativa»
consiste en elegir y seleccionar aquellas dimensiones del texto que dando
cuenta literal del mismo (por tanto, son dimensiones existentes e inhe-
rentes al texto analizado) permiten, al mismo tiempo, polarizarlo y po-
nerlo en relación tanto con el contexto social en el que se ha producido
como con los objetivos de la investigación. Doble mediación del contex-
to y de los objetivos que sirven de dispositivos de acotamiento de la mul-
tiplicidad de posibles sentidos del texto, del corpus de textos de la inves-
tigación y que hace del trabajo del «análisis sociológico del sistema de
discursos» una tarea pragmática al servicio de sus objetivos.
Hasta cierto punto, el análisis de la «configuración narrativa» del tex-
to producido por un grupo consiste en descubrir y aislar el conjunto de
tensiones discursivas o ejes «multidimensionales» de los textos que ope-
ran a modo de hilos que tejen la trama de la dinámica grupal, de la tex-
tura que configura lo que podríamos llamar el espacio substrato, la «ma-
triz»» que constituye el propio texto más explícito y que, hasta cierto
punto, vienen a expresar en el lenguaje del grupo el conjunto de tensio-
nes y conflictos sociales y simbólicos que atraviesan, en el decir grupal, el
objeto de la investigación. Análisis de la configuración narrativa presente
en un grupo que el equipo de investigación deberá desarrollar para el
conjunto de grupos de la investigación hasta llegar a construir una única
configuración narrativa para la totalidad de los mismos.
Uno de los medios más fértiles de encontrar las citadas dimensiones
que organizan la trama que sostiene y, al mismo tiempo, se expresa en
los textos consiste en encontrar y radicalizar las tensiones, los conflictos,
las diferencias de posiciones y de opiniones que se expresan en los gru-
pos. Posiciones que operan a modo de polos de un campo de fuerzas que

655
El análisis de datos

construye, en lo fundamental, el conjunto de debates mantenidos en los


grupos y que se expresan en los textos de las transcripciones.
Desde este punto de vista, la construcción de la «configuración narra-
tiva» del texto es una operación prácticamente inversa a la de la «catego-
rización analítica» que señalábamos anteriormente. En lugar de descom-
poner el texto se trata de ver las fuerzas que lo mantienen unido,
trabado. El juego de la «sogatira» nos puede dar un ejemplo gráfico de lo
que se trata.

Los dos equipos tiran de la cuerda en dos direcciones opuestas. La


cuerda es la que los separa y al mismo tiempo es lo que les mantiene uni-
dos. La configuración narrativa sería el equivalente a la cuerda que man-
tiene unido el texto y, al mismo tiempo, evidencia las fuerzas y las tensio-
nes que lo recorren.

9.1 ¿Cómo formalizar las configuraciones narrativas de un texto?

El acudir a mapas y gráficos es un buen recurso para «formalizar» y vi-


sualizar la «configuración narrativa». El modo de hacerlo es considerar a
cada una de las citadas dimensiones básicas del análisis como un eje o
vector multidimensional de modo que la articulación de dos dimensio-
nes, por ejemplo, podría configurar un mapa que esquemáticamente re-

656
22. Introducción al análisis sociológico del sistema de discursos

presentaría la citada «configuración narrativa». Dicho mapa topológico


puede considerarse como una especie de campo de fuerzas que relaciona,
vincula y opone los puntos/espacios situados en el mismo de forma
«análoga» a lo narrado en el texto, y que permite una doble línea de lec-
tura y de análisis:
— En función del conjunto de distancias relativas (no métricas) entre
los puntos/espacios o entre una parte de ellos.
— En función de las cercanías relativas (no métricas) de cada punto/
espacio o conjunto de puntos/espacios situados en el mapa en re-
lación con cada uno de los ejes y de sus respectivos polos o extre-
mos más definitorios.

10.  El análisis de los espacios semánticos

El tercer procedimiento importante en el ASSD es la búsqueda y consi-


guiente construcción del posible conjunto de espacios semánticos (Grei-
mas, 1982; Alonso, 1996) que se suelen expresar en el corpus de textos y
que pueden ser importantes para la cobertura de los objetivos de la in-
vestigación.
Procedimiento que consiste en organizar el conjunto de posibles aso-
ciaciones o agrupaciones que los grupos establecen entre unos y otros
elementos de su diálogo, ya sea por los posibles campos de significacio-
nes compartidas entre unos y otros, ya sea por su proximidad semántica
en relación con el objeto de la investigación, ya sea por cualquiera otra
razón hasta configurar, en la medida de lo posible, un conjunto de espa-
cios semánticos del conjunto de grupos, más allá de que cada grupo haya
desarrollado más intensamente un tipo de espacio que otro.
El análisis de los «espacios semánticos» consiste en adentrarse en los
usos del lenguaje, en las «hablas» concretas de cada grupo y en observar
cómo dicha «habla» concreta vincula o disocia las diferentes formas de
abordar el objeto de la investigación, los distintos caminos narrativos, los
hilos argumentales y discursivos que va desarrollando cada grupo mien-
tras va reconstruyendo a través del diálogo grupal su acercamiento al ci-
tado objeto, y en torno a qué expresiones verbales más centrales y a qué
campos de significaciones asociadas se organiza, en lo fundamental, el
habla de cada grupo para abordar el objeto de la investigación.
Desde este punto de vista, la delimitación de los espacios semánticos es
siempre una tarea ad hoc que hay que realizar en cada caso concreto siem-
pre a la luz de dos condicionantes: el material textual y la aproximación al

657
El análisis de datos

objeto del trabajo desarrollado en dicho material (en el seno más general y
contextual de los objetivos más estratégicos de la investigación).
Hasta cierto punto, cabría considerar que los «espacios semánticos»
constituyen una especie de «unidades estructurales» de los discursos que
el equipo de investigadores/as construyen desde el punto de vista de con-
figurarse como un conjunto de simbolizaciones con un cierto grado de
coherencia interna.
El análisis de los «espacios semánticos» puede y debe ponerse en rela-
ción con el de las «configuraciones narrativas». Por ejemplo, en caso de
haber construido una «configuración narrativa» en torno a dos ejes que
delimitan cuatro cuadrantes principales, en cada uno de los cuadrantes
que se constituyen en el gráfico 2 puede estimarse que se puede constituir
un espacio semántico singular.

Gráfico 2. Ejemplo de una configuración narrativa articulada en dos ejes


y cuatro espacios semánticos

658
22. Introducción al análisis sociológico del sistema de discursos

Los cuatro espacios semánticos suelen estar muy articulados y traba-


dos internamente, así como bien delimitados unos en relación a los otros,
en la medida que se constituyen en torno a las situaciones más polares de
las dimensiones que articulan la citada configuración narrativa.

10.1  ¿Cómo investigar los espacios semánticos?

En el trabajo de análisis de los «espacios semánticos» cabría diferenciar


varias operaciones más particulares:

— La caracterización de los «espacios semánticos» que interesa con-


figurar y delimitar desde el punto de vista de la función referencial
a la que aluden (objeto de la investigación), de sus principales con-
tenidos, de sus materiales verbales y de sus fronteras. Tarea que
conlleva analizar cuáles son los criterios de demarcación de cada
uno de los espacios construidos y aclarar la decisión de por qué
unos determinados contenidos y expresiones significantes pertene-
cen a un espacio y no a otro.
— El análisis de la estructura interna de los espacios semánticos que,
en mi experiencia de trabajo, suelo desarrollar a partir de dos ele-
mentos básicos:
• El análisis de los «atractores semánticos», es decir, de las
principales expresiones verbales que configuran el campo
de significaciones de cada espacio.
• El análisis de los «hilos discursivos» que vinculan unos y
otros temas, unos y otros atractores en el seno de cada es-
pacio semántico y que tejen la trama que relaciona unos y
otros espacios semánticos.

10.2  El análisis de los atractores semánticos

No todas las expresiones utilizadas por un grupo tienen el mismo valor


para el mismo. El propio debate del grupo suele señalar el diferente gra-
do de importancia simbólica, de capacidad evocativa y energética (Ri-
coeur, 2001) de unas y otras expresiones, configurándose en el propio
diálogo grupal una cierta jerarquía entre unos y otros términos en fun-
ción de sus respectivos campos de significaciones y del valor semántico

659
El análisis de datos

asociado con cada una de ellas en relación con el objeto de la investiga-


ción.
Desde este punto de vista, las expresiones que a modo de «símbolos»
fuertes organizan en gran parte un espacio semántico propio, por ejem-
plo, los nombres de las marcas en las investigaciones de consumo, pue-
den ser consideradas como una especie de «atractor» topológico (Thom,
1987; 1990) con una muy alta capacidad de traducir en el lenguaje verbal
el conjunto de fuerzas energéticas de todo tipo (sociales, afectivas, pul-
sionales, identificativas...) aludidas con dicho «significante», y por ello
evidencian una gran fuerza motivacional, comunicacional y discursiva en
su sentido más intenso.
En el conjunto más amplio y diverso de «atractores semánticos», en el
ASSD resulta muy útil diferenciar entre: a) los atractores centrales y se-
cundarios, y b) los atractores abiertos y cerrados.
La primera acepción y división viene a organizar un gradiente de im-
portancia entre ellos de modo que nos puede ser de gran ayuda para or-
ganizar la jerarquía de unos y otros espacios semánticos y, a su vez, de
los propios temas y contenidos principales y secundarios que constituyen
un espacio semántico determinado que en la bibliografía de la investiga-
ción cualitativa (Paillé, 2006) se suelen analizar a través de la creación de
las «categorías» a las que aludíamos anteriormente.
La segunda acepción, la de los atractores abiertos y cerrados, guarda
una estrecha relación con el grado de polisemia socialmente regulada
asociada con cada atractor. Hay expresiones significativas, hay símbolos
muy abiertos a múltiples significados que constituyen los atractores más
abiertos. Por el contrario, hay símbolos más unívocamente definidos que
inducen una significación más consensuada por parte de unos y otros
grupos sociales como puede ocurrir, por ejemplo, en el lenguaje científi-
co. Delimitación que puede ser de gran ayuda para analizar y compren-
der, por ejemplo, el proceso de paso, los flujos significantes y de signifi-
cación entre unos y otros atractores y/o el nivel de cierre y/o de
permeabilidad de los mismos ante la posible influencia de otros espacios
semánticos más o menos próximos. Análisis del grado de apertura y de
permeabilidad de unos u otros espacios semánticos que, por ejemplo, es
muy útil para el estudio de los discursos desde el punto de vista de su
grado de dogmatismo (y cierre) y de su grado de tolerancia (y apertura).
Asimismo, en el seno de los atractores abiertos y cerrados cabría seña-
lar la existencia de un tipo de atractores especiales que podríamos llamar
«atractores maleta», retomando una propuesta de G. Deleuze, de «térmi-
nos maleta», como aquellos que posibilitan el paso de un espacio semán-

660
22. Introducción al análisis sociológico del sistema de discursos

tico a otro espacio semántico diferente al anterior y que suelen operar a


modo de «puentes» que facilitan la deriva de un discurso a otro más o
menos próximo. Atractores «maleta» cuyo análisis es muy fructífero para
la comprensión de los cambios en los sistemas de discursos.

11. El trabajo de redacción del análisis sociológico


del sistema de discursos

Los procedimientos de análisis mencionados hasta el momento nos ayu-


dan a configurar el esqueleto, la posible estructura de los discursos tipo
elaborados, pero a dicho esqueleto hay que ponerle cara y ojos, hay que
dotarle de un cuerpo, de una figura que se reconozca, que le identifique
como tal discurso. Tarea que hay que plasmar, en última instancia, en el
trabajo de la escritura del discurso, de la narración del análisis e interpre-
tación realizado.
Los citados procedimientos de trabajo y de análisis que hemos presen-
tado de forma separada han de ser puestos en relación de modo que se
evidencie lo que la gran mayoría de los autores de referencia consideran
la esencia del trabajo de investigación sociológica del discurso, es decir,
la puesta en relación de las «posiciones sociales», expresadas en lo que
hemos denominado posiciones discursivas, con los «marcos interpretati-
vos» (Martín Criado, 1997) de cada grupo social de referencia expresa-
dos a su vez en las «configuraciones narrativas» y en los «espacios se-
mánticos». Tarea de puesta en relación que sólo se logra, que sólo
alcanza su sentido, con el citado trabajo de escritura del informe.
Tarea de elaborar un texto narrativo, un relato, que es esencial en el
análisis sociológico del sistema de discursos que suele conllevar una obli-
gada vuelta a los textos y a una cierta reinterpretación de lo avanzado
hasta ese momento para conseguir, entre otras cosas, el citado principio
de coherencia y de consistencia interna del texto, de los discursos anali-
zados y reconstruidos en el metalenguaje del investigador/a. En este sen-
tido, el propio acto de la escritura es un proceso clave en el trabajo del
análisis e interpretación de los textos de la investigación. Más aún, el
acto de la escritura se constituye en el momento del análisis e interpreta-
ción por excelencia. Sin la elaboración del texto escrito de presentación
de la investigación, no hay análisis sociológico del discurso. La propia es-
critura conlleva el desarrollo de toda una serie de líneas argumentales,
exige la materialización y la explicitación del hilo conductor de la trama
narrativa que organiza el texto escrito de presentación de los discursos

661
El análisis de datos

que, en la práctica, se convierte y se evidencia como el principal eje del


análisis y de la interpretación del conjunto de textos grupales producidos
en la investigación.
Forma del análisis que debe ser elaborada desde un doble punto de
vista:

— Desde la perspectiva de la elección de las líneas conductoras que


van a tejer el texto del informe en estrecha relación con el juego de
las posiciones discursivas y de la configuración narrativa.
— Desde la perspectiva del posible «lector» del texto escrito.

El acto de escritura conlleva una nueva vuelta de tuerca en el trabajo


de análisis a partir de la introducción en la reflexión de una nueva pers-
pectiva hasta hora contemplada de forma más secundaria: la del posible
lector de sus resultados. En efecto, el trabajo de escritura, además de tra-
bajo de análisis de los textos, obliga a tener en cuenta de forma más deci-
dida que en todos los momentos anteriores del trabajo la cuestión del
destinatario de la investigación (Calderón, 2002), del posible «lector» de
la misma (ya sea como informe, como libro, como artículo científico y/o
como informe sintético y operativo de conclusiones).
En este sentido, podríamos decir que mientras a lo largo del trabajo
de análisis de los textos es fundamental tener en cuenta la dimensión se-
mántica de los mismos, a la hora de pensar en la escritura y en los posi-
bles «lectores» o destinatarios del texto, la dimensión que pasa a primer
plano en el análisis y en la interpretación de los textos de los grupos debe
ser la pragmática. Dimensión pragmática central en el «análisis socioló-
gico del sistema de discursos».

Notas
1  En la producción de los discursos existen elementos no verbales cuyo análisis
no vamos a contemplar aquí.
2  Esta dimensión de la producción discursiva vinculada a la interacción
grupal puede generalizarse a la producción de los discursos en el marco social
más general, tal como puede seguirse en Bajtin-Voloshinov (1976).
3  En Íñiguez Rueda (2003) se recogen una serie de criterios y de códigos muy
detallados para realizar una «buena» transcripción. En general, en la investiga-
ción social habitual no se alcanza el nivel de detalle que se recoge en dicho texto.
4  A. Ortí, en línea con M. Mauss, subraya que lo «concreto es lo completo»,
diferenciando lo «concreto» de lo «particular».

662
22. Introducción al análisis sociológico del sistema de discursos

Bibliografía recomendada
Conde, F. (2009): Análisis sociológico del sistema de discursos, Madrid, CIS,
Cuadernos Metodológicos núm. 43.
Delgado, J. M., y Gutiérrez, J. (comps.) (1994): Métodos y técnicas cualitativas
de investigación en las ciencias sociales, Madrid, Síntesis.
Denzin, N. K., y Lincoln, Y. S. (eds.) (1994): Handbook of Qualitative Research,
Londres, Sage.
Íñiguez Rueda, L. (ed.) (2003): Análisis del discurso. Manual para las ciencias so-
ciales, Barcelona, UOC.
Miles, M. B., y Huberman, A. M. (1994): Qualitative Data Analysis. An expanded
Sourcebook, Londres, Sage.
Sarfati, G.-E. (1997): Éléments d´analyse du discours, París, Nathan.
Valles, M. S. (1997): Técnicas cualitativas de investigación social. Reflexión meto-
dológica y práctica profesional, Madrid, Síntesis.

663
El análisis de datos

23.  Bases socio-metodológicas


del análisis de redes sociales

Carlos Lozares
Joan Miquel Verd

1. Introducción

El objetivo de este capítulo consiste en presentar una visión general de la


teoría y análisis de las redes sociales (TARS) basada en principios y con-
ceptos generales. No se trata, pues, de reproducir excelentes manuales
existentes. El texto se divide en tres partes: la primera se centra en la
identidad y especificidad de la TARS, su origen e historia y su pertinen-
cia social; la segunda se refiere al conjunto de sus principios y conceptos
básicos; y la tercera presenta algunos casos de estudios y análisis como
ejemplos de aplicación.

2.  La teoría y análisis de las redes sociales (TARS)


2.1  La relación, la red social y el análisis

El concepto mismo de red comporta ya connotaciones semánticas duales


según el tipo y contenidos de la misma. De un lado, i) la idea de red
como «enredado», entramado, enmarañado… en un tejido más o menos
cerrado de relaciones que puede generar vínculos densos y/o clausurados
y, como consecuencia, fuerte vinculación y/o dependencia de los agentes

664
23. Bases socio-metodológicas del análisis de redes sociales

al grupo o colectivo de pertenencia o referencia (son las relaciones cono-


cidas como bonding); ii) y de otro, la posibilidad de comunicación, inter-
mediación, que la red brinda al agente para conectarse con otros diferen-
tes, lo que facilita alcanzar nuevos objetivos y recursos (son las relaciones
conocidas como bridging). Traducido a pertinencia social, esta dualidad
de la red social se transforma, de un lado, en recursos de identidad y co-
hesión social, pertenencia a colectivos cerrados y, con ello, posiblemente
también a un cierto determinismo en las acciones, deseos y representa-
ciones, pero también a una mayor ayuda y confianza. Por otro lado,
opuestamente, la segunda connotación de las redes puede interpretarse
como recursos abiertos a otros colectivos, mayores posibilidades de inter-
mediación, relación con el diferente y, por tanto, la posibilidad de libera-
ción, de nuevos recursos y del alcance a los diferentes. De ahí la riqueza
de las redes sociales en la práctica social y la importancia de analizarlas
dada la variedad de sus potencialidades.
La expresión Análisis de Redes Sociales (ARS) es de uso común entre los
especialistas, sin embargo, se queda solamente con la idea de análisis y cál-
culo, mientras que el concepto de red social implica también una concepción
teórica. Se parte del hecho de que toda interacción humana (y, por ende, la
relación correspondiente) procura recursos directamente relacionales (y deri-
vadamente los correspondientes al contenido de la relación) que se distribu-
yen y son apropiados por los agentes intervinientes y, en consecuencia, gene-
ran igualdades o desigualdades entre los agentes relacionados. La red
expresa así la estructura de dichas relaciones y con ello la igualdad o des-
igualdad del estatus o posición de los agentes en ella. Es decir, que en las re-
des subyace no sólo el análisis, sino también su conjunción con una perspec-
tiva teórica específica acerca de los fenómenos o hechos sociales. Por tanto,
la expresión que se utiliza en este texto, por ser más ajustada a la realidad de
la disciplina, es la de teoría y análisis de redes sociales (TARS).
Las instancias o dimensiones que se conjugan en las redes sociales son
diversas, lo que conlleva posiblemente un mayor grado de complejidad
social: i) el intercambio entre agentes sociales, debido a sus previas rela-
ciones; ii) los diferentes mecanismos «instrumentales» del intercambio:
palabras, objetos, gestos, miradas, escritos, ondas, gráficos; iii) los conte-
nidos diversos de la interacción-relación: conocimiento, afecto, ayuda,
dinero, bienes,…; iv) los diferentes niveles en que se producen las interac-
ciones de los agentes (o sus prolongaciones instrumentales): personas,
asociaciones, organizaciones, ciudades, países; v) la generación de recur-
sos relacionales como efecto de la interacción, como, por ejemplo, la po-
sición o estatus de los agentes en la estructura de la red.

665
El análisis de datos

Para Mitchell (1969), los vínculos, una vez estructurados en red, ex-
presan la naturaleza de los recursos de los agentes implicados. La defini-
ción de Freeman (1992: 12), que considera las redes sociales como «co-
lección más o menos precisa de conceptos y procedimientos analíticos y
metodológicos que facilita la recogida de datos y el estudio sistemático
de pautas (de relaciones sociales entre la gente)», trata de compaginar
conceptualización, análisis, método y hasta un cierto grado de funciona-
lidad, pero también de incertidumbre.
Mas allá del potencial interpretativo que contiene la red sobre los
comportamientos de los agentes, se ha de insistir en que la red es en sí
misma depósito y distribuidor de potencial estático y dinámico de recur-
sos entre agentes. La relación y su resultado, la red, son vínculos más o
menos estables, pero siempre son el resultado de una acción dinámica
como es la interacción. La red, como se viene afirmando, distribuye re-
cursos relacionales (posiciones o estatus) entre los agentes que las han
generado, aunque no necesariamente de modo equitativo.
Desde una perspectiva más formal y algebraica, una red consiste en un
conjunto bien delimitado de n entidades E= {a1 , a2 …,ai ,aj … an } relacio-
nadas entre sí {ai R aj} tal que i,j = 1, 2,..., i, j,..., n, donde R es la rela-
ción. Se trata de un vínculo entre entidades, sean personas o colectivos,
pero conlleva un contenido que le da una identidad sustantiva: apoyo,
confianza, información, dinero u otros. La expresión analítica de la red
puede ser diversa: pares de productos cartesianos que indican la relación
entre las unidades, grafos y matrices, etc. Los indicadores y cálculos de la
red son los propios a la teoría de grafos, cálculos matriciales algebraicos
y estadísticos.
Las definición algebraica de la red es independiente de la naturaleza
de las entidades y de los contenidos de la red, de ahí la transversalidad
de la TARS y la posibilidad de análisis comparativos, intra y transdisci-
plinares entre redes de diferentes contenidos (trayectorias de aviación,
corriente eléctrica, comunicación cognitiva humana, etc.) y/o de nodos
con diferentes identidades (aeropuertos, personas, neuronas...).

2.2  Un relato abreviado de la TARS

La TARS se remonta a la antropología y posteriormente se introducen la


psicología y la sociología (véase Lozares, 1996). Desde un punto de vista
formal es analizada con el álgebra de grafos y matricial. Scott (1991)
hace un recorrido histórico de la TARS al que nos remitimos y que abre-

666
23. Bases socio-metodológicas del análisis de redes sociales

viamos. Para este autor, la Gestalt Theory de Lewin (1936) es una base
de la TARS en el sentido de que la interpretación de las partes que com-
ponen la red y de sus agentes se hace en el marco contextual de la red.
Asimismo, la sociometría de Moreno (1934) también fue pionera de la
TARS, constituyendo el sociograma un icono del análisis reticular. Por
su parte, la matemática también incide y se incorpora al análisis de las
redes sociales, estudiando grupos pequeños mediante grafos (véanse Hei-
der, 1946; Bavelas, 1948, 1950; Festinger y Cartwright, 1959; Cartwright
y Zander, 1953; Harary y Norman, 1953).
Otra de las tradiciones de la TARS proviene, según Scott (1991), del
funcionalismo estructural antropológico desarrollado en Harvard en los
años treinta y cuarenta. Warner y Lunt (1941) estudian la estructura de
los grupos y clases sociales en el marco de las comunidades de la ciudad
moderna aplicando métodos antropológicos, en particular la observa-
ción de comportamientos y relaciones, la entrevista y los documentos
históricos. Los resultados obtenidos se publicaron en la serie Yankee
City. En esta dirección encontramos también a Elton Mayo (1949) con
los experimentos de la Hawthorne: los estudios corroboraron la impor-
tancia que tienen las relaciones satisfactorias en el desempeño de los tra-
bajadores y en la producción. Esta orientación de análisis fue seguida
también por Davis et al. (1941).
En los años cincuenta hasta los setenta hay aportaciones importantes
a la TARS desde la antropología, donde encontramos a Barnes (1954),
quien analiza la amistad, el parentesco y la vecindad en las relaciones in-
formales en una comunidad pequeña de pescadores; Mitchell (1969), que
representa la convergencia del funcionalismo estructural antropológico
con la teoría de grafos, sentando así las bases de un marco analítico para
el estudio de las redes sociales; o Coleman (1961), quien estudia familias
de clase trabajadora en la perspectiva de las redes sociales. En estos años
se avanza también en la metodología, los contenidos conceptuales y la
matemática aplicable al TARS, como, por ejemplo, Cartwright y Harary
(1956), sobre la teoría del balance estructural; sobre la dinámica de los
grupos (Cartwright y Zander, 1953) y sobre el poder (Cartwright,1959).
A partir de los años setenta se produce un salto importante en el desa-
rrollo y extensión de la TARS tanto en el plano teórico como en el meto-
dológico y analítico (Alba, 1982). El advenimiento de nuevos algoritmos
así como su implementación y complemento cibernético, son factores y
expresión de la expansión de la TARS. Freeman (1977) introduce y siste-
matiza la idea de centralidad de la red, mientras que Granovetter (1973,
1974) avanza conceptos clave como son los de los lazos fuertes y débiles

667
El análisis de datos

en la aplicación de las redes a la información sobre la búsqueda de traba-


jo, y Lee (1969) sobre el modo en que la información llega a las mujeres
que desean realizar un aborto. Con grandes avances, la TARS adquiere
en estos años su mayoría de edad (véanse Knoke y Kuklinski, 1982; Ga-
laskiewicz y Wasserman, 1993).
La TARS incide en teorías y temáticas diversas, entre otras en la del
balance e intercambio, el enfoque «transaccionista», la complejidad, la
teoría de la elección racional, la del capital social o la teoría de la acción.
Burt (1982, 1983) analiza la autonomía estructural de la red y el modo
en que la estructura reticular condiciona la acción social. También la
TARS ha tenido incidencia directa y reciprocidad sobre disciplinas como
la sociología, la psicología social, la lingüística, la epidemiología, la se-
mántica, la teoría de la comunicación y un largo etcétera de disciplinas.
Otros campos de aplicación de la TARS, no vinculados específica-
mente a teorías o disciplinas, han sido y son también objeto de estudio y
de progreso en y por la TARS, como, por ejemplo: i) la vinculación de lo
atributivo (formalismo y contenido habitual en el tratamiento clásico de
lo social) y lo relacional y, con ello, la introducción de álgebras diferentes
a la formalización de los conceptos sociales (Alba, 1982); ii) los mode-
los reticulares no sólo en relaciones diádicas o transitivas entre agentes o
centralidades, sino también en conglomerados reticulares más complejos:
equivalencia estructural (Lorrain y White, 1971; Galaskiewicz y Wasser-
man, 1993), los modelos del mundo pequeño, escala libre o aleatorios,
etc.; iii) los estudios sobre homofilia y heterofilia; iv) la vinculación entre
redes macro y microsociales, es decir, el estudio de los pequeños grupos
conjugados con otros más amplios (Granovetter, 1973); v) los análisis
multinivel, las redes de afiliación o de modo dos; y vi) los estudios sobre
el capital social, considerado como recurso (Coleman,1988).

2.3 Recursos, estructura y posiciones, dinámica y campos de las redes


sociales

Las estructuras de las redes sociales se refieren, entre otras variedades, a


su densidad o cohesión, al aislamiento o no de sus nodos y a la jerarquía
de las centralidades. Los recursos de la red, vista globalmente o indivi-
dualizada, están en función de dicha estructura, es decir, de la distribu-
ción de las relaciones y posiciones que ocupen los agentes y/o colectivos
en la estructura de la red. La posición en la red de un agente o colectivo
constituye, pues, el estatus o recurso del agente y del colectivo. La identi-

668
23. Bases socio-metodológicas del análisis de redes sociales

ficación y ponderación de tal estatus o posición (recurso) en la red se lle-


va a cabo por tratamientos algebraicos sin negar otros procedimientos,
como pueden ser los gráficos.
La estructura en que se configura la red puede ser de mayor o menor
centralización, más o menos segregada, más o menos homofílica, mos-
trar la existencia de brokers o de puentes, etc. Dichas estructuras depen-
den de muchos factores. Primero, de los tipos de relación-interacción,
que puede ser instantánea, intermitente o permanente, lo que da más o
menos estabilidad a la red; esta relación-interacción puede ser, además,
simétrica o dirigida, en equilibrio estable o inestable; regular o dinámica,
probable o improbable. Estas modalidades vinculadas a la dinámica de la
interacción-red son uno de los platos fuertes, aún en gran parte por pro-
bar, de la TARS. Segundo, de la temporalidad instantánea, permanente
o intermitente de las interacciones, de su grado de complejidad, de la di-
námica de la interacción-relación… Tercero, una característica impor-
tante a considerar sobre la estructura y, por tanto, sobre los recursos de
la red, son los contenidos (sustantivos) de las relaciones. Las interaccio-
nes-relaciones entre agentes pueden llevarse a cabo en campos concep-
tuales diversos. Dado que cada contenido (o campo) de la interacción
tiene su propia lógica, dinámica o relación de fuerza, los resultados re-
percuten en la naturaleza y estructura de la red y, de esta forma, en la
distribución de los recursos en los agentes. Los contenidos pueden ser de
naturaleza funcional, de intercambio de uso o expresivos, económicos,
políticos, académicos, familiares, religiosos, etc. Dado que los contenidos
de las interacciones no tienen la misma dominancia social según la socie-
dad o formación social en que se insertan las redes de algunos conteni-
dos, pueden depender de las redes con contenidos o campos más domi-
nantes. Como ejemplo tenemos el campo económico, predominante en
nuestras sociedades y a su vez determinante también sobre otros campos
como el del trabajo, la confianza, el cultural, el político, el religioso… en
este sentido las redes con estos contenidos pueden depender de las eco-
nómicas. Más allá de sus contenidos, las redes pueden ser simétricas o di-
rigidas, dependientes o no de variaciones temporales o de interacciones-
relaciones regulares o dinámicas. Las consecuencias de esta pluralidad de
factores de influencia en la estructura de las redes dan pie a una diversi-
dad de líneas de investigación reticular así como a multiplicar su comple-
jidad y dificultad analítica, pero también a su enriquecimiento teórico y
metodológico. En el análisis de redes se han de clarificar todas estas con-
diciones iniciales y la diversidad de instancias señaladas para delimitar
las condiciones iniciales.

669
El análisis de datos

Como ya se ha señalado, el epíteto de social no es un mero valor aña-


dido de adjetivación a la TARS, sino que, por el contrario, es su pilar bá-
sico constitutivo. La(s) persona(s), entidad(es), acontecimiento(s), cosas,
instituciones, etc. no tienen identidad social si no son a la vez objeto y
sujeto, pasivo o activo, de la interacción-relación y, por tanto, de su iden-
tidad social dada la posición y/o el estatus que ocupa en la red corres-
pondiente.

2.4 Un decálogo esquemático para la dinámica, estática y estructura


de la interacción-relación

A modo enumerativo y muy sintético se expresa un decálogo, a modo de


dictado de principios y propiedades que enfatizan la importancia de la
interacción-relación (y con ello de la red) en la gestación, constitución y
complejidad de lo social. Así, toda interacción:

i) Presupone, por un lado, el dinamismo de la acción, pero también


un hecho o resultado de carácter más o menos estable.
ii) Contiene una instancia cognitiva internalizada y otra más visible
u objetivada, lo que da pie a un tratamiento dual: redes cognitivas
y/o fácticas.
iii) Genera la temporalidad social en un proceso sucesivo.
iv) Puede ser determinada, no determinada o en situación interme-
dia. De los grados de libertad dependen la estabilidad o los cam-
bios en la estructura relacional.
v) No es necesariamente estable ni en su dinámica ni en sus resulta-
dos, por lo que se introducen procesos de estabilidad, de equili-
brios inestables o inestabilidad.
vi) Se inscribe en campos como el cultural, el económico, el humano-
formativo y, evidentemente, el social-relacional: supone para la
TARS una gran amplitud o campo de estudio, además de los
campos transversales.
vii) Opera en niveles micro, meso o macro sociales relacionados.
viii) Puede tratarse de variables independientes, dependientes o corre-
laciones.
ix) Identifica, genera y clarifica la distinción clásica entre estatus (po-
sición) y rol (red). El estatus o posición como «lugar social» (re-
curso) de los nodos en la red, y el rol como vinculación a la fun-
ción de la naturaleza de la interacción.

670
23. Bases socio-metodológicas del análisis de redes sociales

x) Se enriquece como dato contextualizada y conjugada con la in-


mersión etnográfica y/o discursiva dando paso a tratamientos y
estrategias mixtas.

3.  Los principios y cuerpos conceptuales de la TARS


3.1  Unos conceptos necesarios

3.1.1  Identidad algebraica de las relaciones y de la red

En este apartado se da cuenta de algunos conceptos básicos necesarios


para el análisis de redes.
La expresión analítica básica de la red es la relación. En cada red el
contenido de su relación ha de ser idéntico, preciso y sin ambigüedad
para todas las relaciones que componen una red. Se han de definir y deli-
mitar de modo preciso los elementos o nodos del conjunto o colectivo o
población que componen la red, esto puede hacerse de modo nominal
previo, o realista en el proceso mismo de la conjuración de la red.
Una red como expresión analítica es un conjunto de elementos (enti-
dades, agentes) C= {x1, x2, x3, x4} tal que entre ellos se establecen relacio-
nes diádicas iRj, siendo (xi, xj) la expresión de la relación.
A y B definen redes distintas, pues la combinación de pares de nodos
marcada por R es distinta. Dos contenidos diferentes de la relación pue-
den dar lugar a diferentes o iguales redes. Las expresiones analíticas son
las siguientes:

A={xiR1xj}  
B={ xiR2xj}  

Sus expresiones matriciales y gráficas son las siguientes:

Matriz A    Matriz B

671
El análisis de datos

Gráfico 1.  Red A Gráfico 2.  Red B

Ambas redes son dicotómicas (es decir, puede haber o bien presencia
o bien ausencia de la relación enunciada), pero podrían ser valuadas (por
ejemplo, si se trata de la intensidad o frecuencia de la relación). La dia-
gonal principal no es pertinente, a no ser que contemplemos relaciones
autorreflexivas: por ejemplo, «hablo conmigo mismo», «me presto dine-
ro», razón por la cual en la diagonal aparece el 0.
La relación A (gráfico 1: Red A) es una relación dirigida y no simétri-
ca. La relación B (gráfico 2: Red B) es no dirigida, por lo cual su repre-
sentación matricial es simétrica. La red simétrica no significa que las re-
laciones entre dos nodos vayan en las dos direcciones, sino que por el
hecho de darse una relación en un sentido necesariamente se da, a su vez,
en el sentido opuesto: por ejemplo, una relación de amistad. La relación
simétrica se representa por un segmento con dos flechas opuestas o, a ve-
ces, por un segmento sin flechas: x1 ↔ x2. La relación dirigida, en cam-
bio, se representa con una flecha en el sentido de la expresión de la rela-
ción x1 → x2 (gráficos 1 y 2).
Las relaciones pueden ser dicotómicas o valuadas numéricamente por
razones de intensidad, de frecuencia, etc. Si son dicotómicas se represen-
tan en las casillas con 0 (no relación) o 1 (sí relación). La relación valua-
da se consigna en las casillas con los números naturales según la intensi-
dad. Las matrices valuadas pueden dicotomizarse y las dirigidas o
asimétricas simetrizarse, siempre que llenen los condicionamientos y exi-
gencias de la investigación.
Las relaciones dicotómicas o binarias se representan mediante líneas
o líneas con flechas opuestas (gráfico 3). Las relaciones valuadas se re-
presentan gráficamente por el grosor proporcional al valor de la línea en-
tre los nodos (gráfico 4).

672
23. Bases socio-metodológicas del análisis de redes sociales

Gráfico 3.  Relación binaria no dirigida

fuente: Elaboración propia.

Gráfico 4.  Relación valuada no dirigida

fuente: Elaboración propia.

3.2  Los contenidos de la red

Los contenidos de la relación pueden ser de diferente naturaleza. Pueden


darse en el campo cognitivo: i) conocimiento, información, cultura; ii) sim-
patía, amistad, confianza, estimación; iii) valores, representaciones, con-
tenidos semánticos, normas compartidas, etc. En el campo de las relaciones
fácticas: i) intercambios económicos, prestaciones, compraventa; ii) apoyo
y sostén material de todo tipo; iii) acciones participativas, compromiso
comunitario. En el campo de las relaciones vinculadas a los roles: i) fami-
liares, pareja, paternidad; ii) afiliaciones, pertenencia a al/a mismo/a, em-
presa, club, asociación, confesión, institución, vecindad.
A su vez, las relaciones pueden ser formales (normativas o institucio-
nales) o informales; fuertes o débiles; constituidas en el nivel individual,
meso o macrosocial.

3.3  La importancia de la representación (grafos) de la red

Las relaciones se basan y analizan por los resultados analíticos de los da-
tos. Con todo, la imagen es importante, pues facilita su interpretación,
comprensión y comunicación. Sin embargo, es necesario que se explici-
ten bien los criterios del gráfico, dado que puede darse tergiversación in-
terpretativa. En el ejemplo siguiente, las cinco figuras son de la misma
red matricial, pero su representación gráfica podría dar pie a conclusio-
nes muy diversas (gráfico 5).

673
El análisis de datos

Gráfico 5. Diferentes formas de representación para una idéntica


estructura reticular

Anagrama 1 Anagrama 2 Anagrama 3 Anagrama 4 Anagrama 5

fuente: McGrath y otros (1997: 223-242).

3.4  Los tipos de redes sociales según diferentes criterios

3.4.1  Por el nivel de los datos: modo 1 y modo 2

Las redes de modo 1 corresponden a las que se forman por las relaciones
entre nodos de la misma naturaleza, por ejemplo, entre conceptos, perso-
nas, organizaciones, etc., con contenidos diversos como la prestación de
dinero, la ayuda mutua, la amistad, etc.
Las redes de modo 2 o de afiliación (gráfico 6) surgen de las relaciones
entre dos tipos de conjuntos. Así, sería de modo 2 la relación entre un
conjunto de individuos y otro de asociaciones a las que pertenecen algu-
nos de los individuos. Dada la red de modo 1 del conjunto de los indivi-
duos se puede inferir, dada la pertenencia de los individuos a las asocia-
ciones, la red entre asociaciones o de modo 2.

Gráfico 6.  Redes modo 1 y modo 2

674
23. Bases socio-metodológicas del análisis de redes sociales

3.4.2  Por los colectivos tomados en consideración

Una red completa o sociométrica (red 7.1 del gráfico 7) se configura a


partir de una relación previamente definida entre los agentes (nodos) de
un colectivo bien limitado e identificado, por ejemplo, el conjunto de los
alumnos de un aula universitaria por la relación de amistad. Los indica-
dores-conceptos reticulares pueden referirse a cada nodo y, por tanto,
tendrá las propiedades que indiquen los valores de dichos indicadores;
hacer referencia a grupos o colectivos específicos dentro de la red; o, por
fin, pueden tener como referente la red completa y, por ende, las caracte-
rísticas estructurales de la red. El nodo (o individuo) además tiene una
posición o estatus en la red debido a sus propiedades reticulares y a gru-
pos reticulares determinados a los que pertenece.
Una red ego-centrada está constituida por un nodo, ego, que constituye
el origen de la red, y los alteri con los que se relaciona directamente, sin te-
ner en cuenta las relaciones entre los alteri. Representado en la red 7.2 del
gráfico 7, abarca el círculo con segmentos reforzados y corresponde al
nodo central redondeado, el ego, y los otros cinco nodos, los alteri, con los
que el ego mantiene relación. La información sobre los alteri puede obte-
nerse del mismo ego como informante o directamente mediante la obser-
vación de las relaciones. El ego, además de dar informaciones sobre la rela-
ción existente con los alteri, puede dar información sobre otras
características de los alteri en función de los objetivos de la investigación:
género, categoría socioeconómica, año en que los conoció, etc. La red ego-
centrada es muy pertinente para los análisis de homofilia y heterofilia si se
consideran las características de los alteri equivalentes a las del ego.
Una red personal consiste en la red ego-centrada incorporando a la red
las relaciones entre los alteri, es decir, entre sus adyacentes (los vinculados
directamente con dicho nodo). Es la red 7.3 del gráfico 7, y abarca la red
marcada por el nodo central (ego) y la red que se forma entre el ego y los al-
teri (hasta aquí, ego-centrada), además de las relaciones entre los alteri: en el
gráfico son los segmentos marcados. La red sólo de los alteri pasa a ser un
recurso del y para el ego, pues el ego mantiene relación con todos los alteri.

3.5 Lógicas y corpus conceptuales de la TARS: atributos vs. redes y


viceversa

La TARS ha desarrollado un conjunto de principios o corpus concep-


tuales coherentes para identificar y expresar las propiedades de las es-
tructuras que generan las redes sociales. Nos detenemos, por su impor-

675
El análisis de datos

Gráfico 7.  Redes completa, ego-centrada y personal

   7.1. Red completa 7.2. Red ego-centrada   7.3. Red personal

tancia, sólo en cuatro: el de homofilia vs. heterofilia, el de igualdad vs.


desigualdad, el de cohesión vs. segregación o aislamiento social, y el de
la generación de colectivos más o menos cerrados y/o abiertos.

3.5.1 Homofilia vs. heterofilia

Dado un colectivo de egos y sus relaciones con los alteri, la homofilia de


los egos para una característica determinada (por ejemplo, ser universi-
tario) es el fenómeno social por el que las personas-ego con tal atributo
específico tienen una relación con sus alteri de la misma característica
(alteri universitarios) proporcionalmente más elevada que la que corres-
ponde a los egos universitarios en su colectivo. La heterofilia es el fenó-
meno complementario por el que las relaciones son superiores a la pro-
porcionalidad existente, pero con personas de alguna característica
diferente a la de los egos. Por características sociales se entiende atribu-
tos sociales, como los socio-demográficos: edad, género, situación labo-
ral, categoría socio-profesional, etc., u otras de carácter ideológico o
identitario. La homofilia juega un rol básico en la configuración y man-
tenimiento de las estructuras y colectivos sociales. Si la génesis de lo so-
cial va de las relaciones a los atributos, la homofilia y la heterofilia son
claves para estabilizar colectivos homogéneos o para generar nuevos
(véanse Lozares y Verd, 2011; Lozares, Verd, Cruz y Barranco, 2013).
Los orígenes del concepto de homofilia en la literatura sociológica se
remontan a Lazarsfeld y Merton (1954). Hay diversos tipos y definicio-
nes de la homofilia pero la que importa es una definición que dé pie a un
indicador de su medición. Así, diremos que se entiende por homofilia
básica o de línea de base (baseline) para una característica dada, si la

676
23. Bases socio-metodológicas del análisis de redes sociales

proporción de egos de un atributo se corresponde con la proporción de


las relaciones de los egos con los alteri del mismo atributo. Dicha pro-
porción es la hipótesis nula H0 o de partida (baseline). La homofilia (o
heterofilia) se produce cuando el valor positivo es superior al de la hipó-
tesis nula con el nivel de significatividad elegido. Si el valor es menor al
de la hipótesis nula, no hay homofilia significativa. Este indicador es fi-
dedigno, general, comparable y simple, y se corresponde con el rijA, resi-
duo estandarizado y corregido de una tabla de contingencias en el cruce
entre las características de los egos y las correspondientes de los alteri.

donde rijS es el residuo estandarizado, tal que fij es la frecuencia absoluta de


la casilla, y f’ij el valor esperado en condiciones de independencia. Cuanto
mayor sea el valor de rijS, mayor será la homofilia. Si el residuo es negativo,
la frecuencia observada es menor a la esperada y, por lo tanto, no hay ho-
mofilia; si el residuo recae entre 1,96 y –1,96 la frecuencia observada no se
distingue significativamente del azar. El residuo corregido proviene de divi-
dir el residuo tipificado por el error típico en variables categóricas. La ven-
taja de este residuo es que se puede conocer su significatividad.
Veamos un caso simple en relaciones de conocimiento y trato entre
ego-alteri para la característica del lugar de residencia entre tres localida-
des muy diversas. Las ciudades son la gran urbe de Barcelona, Sant Fe-
liu, una ciudad industrial metropolitana, y Balaguer, capital de comarca,
ciudad de carácter básicamente agrícola pero también de administración
y servicios. La categoría «otras» se refiere a otras ciudades de residencia
de los alteri (tabla 1).

Tabla 1.  Homofilia y heterofilia por residuos corregidos


Ciudad Ego
  Valor Sig.
Ciudad Alter Barcelona St. Feliu Balaguer
Phi 0,970 0,000
Barcelona 67,2 -28,2 -39,2 V de Cramer 0,686 0,000
St. Feliu -34,9 68,0 -33,1 Coef. 0,696 0,000
contingencia
Balaguer -40,1 -39,9 80,1
N de casos 13.230
Otras -1,1 5,7 -4,6
fuente: Elaboración propia.
 
677
El análisis de datos

Los resultados del análisis (tabla1) son manifiestamente visibles en el


cuadro. Barcelona, St. Feliu y Balaguer tienen homofilias elevadas, pero
crecientes, lo que se pude suponer a priori; además, todas son significati-
vas, superando el 1,96 con creces. Hay un valor significativo de carácter
heterofílico, el de la relación de Sant Feliu con otras ciudades (5,7), dife-
rente a las tres enunciadas. El peso de la emigración de los años sesenta y
de la nueva inmigración se manifiesta. El valor cero significa que la pro-
porción de un colectivo alteri para un colectivo de egos es igual a la pro-
porción de los alteri de tal característica sobre el total de la población. El
valor que podríamos llamar de «homofilia global» (para los tres colecti-
vos) es también elevado, pues la V de Cramer alcanza el 0,686 y el coefi-
ciente de contingencia es del 0,696.

3.5.2  De la igualdad a la desigualdad: las medidas de centralidad

Las definiciones básicas de la centralidad tienen su origen en Freeman


(1979), que parte de tres conceptos básicos: grado, cercanía e intermediación
nodal para dar cuenta de las igualdades de cada nodo o agente con respecto
a las relaciones que mantiene. Las medidas de centralidad se han ido multi-
plicando y han sido objeto de múltiples estudios y análisis y se han aplicado
a estudios sobre organizaciones o relaciones de poder (Laumann y Pappi,
1976; Gaskiewicz, 1979; Burt, 1982; Knoke y Burt, 1983); sobre relaciones
de intercambio (Cook et al., 1983; Marsden, 1982); sobre oportunidades de
empleo (Granovetter,  1973); o sobre adopción de la innovación (Coleman
et al., 1966). Veamos escuetamente mediante los grafos y datos presentados
en el gráfico 8 las definiciones de tres medidas de centralidad importantes en
el sentido de que otras medidas de centralidad se derivan de ellas (véase Lo-
zares, López-Roldán, Bolíbar y Muntanyola, 2015).
La centralidad de grado nodal (grafo y datos 1) se refiere a cada nodo y
es el número de sus nodos adyacentes con los que tiene contacto directo
el nodo en cuestión. Es indicativa de la actividad relacional directa y sin
intermediarios con sus contiguos, de ser centro de atracción o de repul-
sión, de influencia, prominencia o prestigio. Si las diferencias entre los
valores de la centralidad de grado nodal y en las otras dos centralidades
siguientes son importantes, entre los nodos hay jerarquía en la distribu-
ción de estos recursos relacionales; en el caso opuesto, se da la igualdad
y no habrá jerarquía en la red entre los nodos o agentes.
La centralidad de cercanía nodal (grafo y datos 2) se define también para
cada nodo. La cercanía nodal es la inversa de la suma de la distancia (seg-
mentos de paso) geodésica (distancia mínima) del nodo en cuestión con

678
23. Bases socio-metodológicas del análisis de redes sociales

todos los nodos de la red. Es el valor marginal en la matriz geodésica


(Wasserman y Faust, 1994: 165). Como recurso de capital social se refiere
a la capacidad de «llegar» al conjunto de los otros nodos-agentes por la
vía más corta. En valor elevado supone la capacidad de informar, apoyar,
comunicar, etc., con todos los nodos-agentes de la red y a la inversa si el
valor obtenido es cercano a 0. La accesibilidad es un valioso recurso.
Finalmente, la centralidad de intermediación nodal (grafo y datos 3) identi-
fica la posición de un nodo en la red en términos de capacidad de conexión
entre pares de agentes de la red. En este sentido, la red se interpreta como un
tejido de conexiones y de interdependencias mutuas, en la que los nodos ac-
túan como brokers. En tanto que capital relacional con cualquier contenido,
consiste en ser paso obligado de comunicación, información, etc. entre pares
de nodos no comunicados directamente. Este tipo de recurso como capital
social da consistencia a la red por la importancia de la intermediación. Estos
tres tipos de centralidad nodal identificados constituyen el núcleo «duro» o
básico de la centralidad que además dan pie a otras definiciones.

Gráfico 8.  Redes con diferentes valores de centralidad


   Grafo y datos 1:   Grafo y datos 2:   Grafo y datos 3:
   red jerarquizada red semijerarquizada red igualitaria

Grado nCercanía Interme- Grado nCercanía nInterme- Grado nCercanía nInterme-


diación diación diación
-------- ------ ------ ---------- ------- ------------ ------------ --------- --------
1 6.000 1 100.00 1 100 4 2.00 4 50.00 4 60.00 1 2.00 1 50 1 20
2 1.000 2 54.54 2 0 2 2.00 5 46.15 5 53.33 2 2.00 2 50 2 20
3 1.000 3 54.54 3 0 3 2.00 3 46.15 3 53.33 3 2.00 3 50 3 20
4 1.000 4 54.54 4 0 5 2.00 2 37.50 2 33.33 4 2.00 4 50 4 20
5 1.000 5 54.54 5 0 6 2.00 6 37.50 6 33.33 5 2.00 5 50 5 20
6 1.000 6 54.54 6 0 1 1.00 1 28.57 1 0.00 6 2.00 6 50 6 20
7 1.000 7 54.54 7 0 7 1.00 7 28.57 7 0.00 7 2.00 7 50 7 20
Media Media Media Media Media Media Media Media Media
1.714 61.04 14.28 1.714 39.21 33.33 2.000 50 20.000
Jerarquía Jerarquía Jerarquía Jerarquía Jerarquía Jerarquía Jerarquía Jerarquía Jerarquía
100% 100% 100% 5,56% 27,70% 31,11% 0,00% 0,00% 0,00%

679
El análisis de datos

En el gráfico 8 se muestran los valores de grado, cercanía (relativa) e


intermediación (relativa) para cada nodo. Se introducen dos valores que
miden características globales de la red: el valor medio del conjunto de
los nodos para cada concepto y el de jerarquía, concepto importante que
da idea de la igualdad o diferencia de los valores de los nodos para cada
tipo de red y para cada concepto de la centralidad.

3.5.3 De la cohesión a la segregación o aislamiento social o la formación


de grupos más o menos cohesivos en la red

Otro cuerpo conceptual fundamental es el de la dualidad en continuidad


que va de la cohesión a la segregación o aislamiento social. La identifica-
ción de conjuntos de nodos más o menos cohesivos o dispersos-aislados
es un centro de interés y fundamental en la TARS. Uno de los objetivos
importantes de la TARS consiste en identificar y analizar «subestructu-
ras» en la red que puedan ser más cohesivas, integrativas o de nodos ais-
lados (gráfico 9). Los conceptos-indicadores más pertinentes que expre-
san esta lógica de cohesión vs. aislamiento son la densidad, los cliques y
n-cliques, las tríadas, las díadas y los nodos aislados; existen también indi-
cadores similares a las cliques como n-clan, k-plex y k-core que no son
tratados en este texto. Los investigadores seleccionan los conceptos más
pertinentes en función del objetivo de su investigación.
La densidad de la red es el número de relaciones en una red dividido
por el número total de todas las relaciones posibles entre nodos. Dentro
de la red se pueden configurar agrupaciones densas de grupos y generar
entidades reticulares en una red. Las cliques (gráfico 10) son subconjun-
tos de agentes o nodos de la red que están conectados más densamente
que el resto de los agentes a una distancia predeterminada común. La
distancia mínima de 1 entre todos los nodos es la más exigente y da el re-
sultado más denso de una clique, por ejemplo, entre tres nodos el trián-
gulo es el más denso (todos a distancia 1); entre cuatro, es un cuadriláte-
ro con todos sus vértices vinculados. La 1-clique es, pues, la clique más
densa para un número de nodos. Con una menor densidad de los colecti-
vos se encuentra la 2-clique: la distancia común mínima entre los nodos
es 2. Uno o varios nodos pueden pertenecer a varias cliques dado que las
cliques no excluyen nodos comunes.

680
23. Bases socio-metodológicas del análisis de redes sociales

Gráfico 9.  Red grupos cohesivos

Gráfico 10. Red de cliques Gráfico 11. Red aislamiento

fuente: Elaboración propia.

Otros conceptos de interés, para cerrar la lógica de la cohesión versus


la segregación o asilamiento según el contenido de la red, son el número
de tríadas existentes, de díadas, de componentes y de puntos aislados (grá-
fico 11). La existencia de numerosos componentes y nodos aislados es un
signo de desagregación y aislamiento y de menor intensidad, esto es lo
opuesto a la mayor densidad y existencia de cliques.

3.5.4  La generación de colectivos clausurados o cerrados

En los conceptos y procedimientos precedentes, que identifican grupos


de nodos de mayor o menor integración o cohesión, alguno o algunos de
los nodos de dichos grupos pueden pertenecer a uno o varios grupos. El
planteamiento que se propone ahora es el de identificar grupos o colecti-
vos cuyas redes sean cerradas o clausuradas. En la TARS se proponen
diferentes modos de hacer esta identificación. Se da a continuación una
perspectiva más genérica a la problemática que conlleva este tipo de con-
figuración reticular.
En sociología, al menos desde nuestra perspectiva, hay una dualidad
importante en los procedimientos y conceptos que identifican y analizan

681
El análisis de datos

los colectivos sociales. Esta cuestión es básica, pues se trata de la estruc-


tura social de una población, es decir, de identidades sociales diferencia-
das, jerarquizadas o no. Por un lado, el modo clásico atributivo identifi-
ca y analiza los colectivos por los atributos de las variables básicas que
dan pie a la estructura social, como por ejemplo las denominadas socio-
demográficas, aunque dependen de la sociedad en estudio. El álgebra y la
estadística correspondientes están ya asumidas y validadas para dar
cuenta de tales atributos y variables. Por otro lado, como se va anuncian-
do, la perspectiva reticular a partir de la TARS también es generadora
de estructura social.
La pregunta para ambos procesos es la siguiente: ¿qué fue primero:
los atributos o las relaciones? Lo coherente, desde nuestro punto de vista,
es afirmar que en el principio está la relación (interacción) como criterio
básico de la generación de lo social. Entonces ¿cómo identificar los co-
lectivos sociales a partir de la estructura social de la TARS? El criterio
consiste en identificar los nodos-agentes en la red en la que habitan que
tengan idénticas (o aproximadamente idénticas, según el grado de preci-
sión) posiciones o estatus reticulares. Pero dentro de dicho criterio se dan
varias posibilidades o procesos. De ellos seleccionamos dos: la equivalen-
cia estructural y la generación de facciones.

3.5.5  La equivalencia estructural

Los colectivos se generan por criterios relacionales, pero los nodos o


agentes que componen los colectivos no tienen necesariamente relaciones
entre sí (o intra colectivas), aunque pudieran tenerlas.
La condición de la formación de los colectivos por equivalencia es-
tructural consiste en que todos sus miembros tengan relaciones equiva-
lentes con el resto de los nodos de la red. La idea de base es que los no-
dos o agentes de los colectivos son equivalentemente intercambiables
dentro de cada estatus relacional sin que se modifique la red. Los colecti-
vos son estructuras reales de equivalencia en el sentido estricto de su de-
finición algebraica. Por ejemplo, los agentes o nodos de un estatus o po-
sición como lo es la clase social del proletariado no tienen por qué tener
entre sí relaciones directas, pero se constituyen en clase social por la rela-
ción de equivalencia que los miembros de dicha clase tienen con la clase
o colectivo patronal por el hecho básico de la relación salarial y contrac-
tual y la distribución desigual de la plusvalía. Los profesores de una uni-
versidad y los alumnos son dos colectivos formados como clase de equi-

682
23. Bases socio-metodológicas del análisis de redes sociales

valencia: aunque los profesores no tuvieran relaciones entre sí (y de


hecho no necesariamente las tienen), las relaciones que mantienen con
los alumnos (de autoridad, normativas, evaluación, docencia, etc.) son
equivalentes para todo el profesorado con respecto a los alumnos.
La equivalencia estructural entre dos nodos o agentes es el grado en
que ambos poseen un mismo perfil con relación a los otros nodos o
agentes de la red. En el gráfico 12, los nodos b y d son estructuralmente
equivalentes, pues mantienen relaciones homólogas con el resto de los
nodos/agentes sin que ellos estén relacionados entre sí; también son es-
tructuralmente equivalentes o intercambiables sin que cambien las rela-
ciones a y c, g e i, h y j. En cambio, no lo son el e y f, ni el b y c, etc. Lo
mismo sucede en el segundo grafo (gráfico 13), en que se muestran rela-
ciones de carácter dirigido en un hospital. Son equivalentes estructural-
mente N1 y N2 (enfermeros), D1 y D2 (doctor/as) y P1, P2 y P3 (pacien-
tes), sin que tengan entre sí relaciones los N, los D o los P.

Gráfico 12.  Estructura de equivalencia

Gráfico 13.  Estructura de equivalencia

fuente: Elaboración propia.

Lo interesante sería disponer de diversos contenidos relacionales para


un mismo colectivo y comparar los distintos colectivos que se generan
por relaciones de equivalencia.
A continuación se muestran tres procedimientos algebraicos diferen-
tes que permiten el cálculo de la equivalencia estructural con un mismo
conjunto de relaciones. Los datos relacionales muestran las relaciones de

683
El análisis de datos

amistad (estructuralmente definida) de los alumnos de un aula universi-


taria. Todas las definiciones dadas en el texto, y otras muchas de las re-
des, pueden aplicarse al caso; la fecundidad de las conclusiones es prove-
chosa desde el punto de vista pedagógico y de la gestión de un aula.

A) La equivalencia estructural basada en clusters relacionales

Se da una breve descripción del proceso para facilitar su comprensión sin


entrar en los detalles. El primer paso (tablas 2 y 3) es encontrar la distancia
euclídea entre todos los pares de nodos de la matriz inicial de la red, inter-
pretando las columnas —que son nodos— como variables con relación a
las filas, que son los mismos nodos como si fueran las unidades contables.
El resultado marca la distancia euclídea que hay entre dos nodos. Si la dis-
tancia es nula, los nodos tienen las mismas relaciones con respecto al resto
de los nodos. Es improbable que se encuentre una distancia nula, por ello
el algoritmo correspondiente tiende a agrupar los dos nodos más próxi-
mos. El proceso siguiente es el que corresponde a la formación de los clus-
ters o conglomerados de la estadística multivariada (gráficos 14 y 15).

Tabla 2.  Distancias euclídeas entre Tabla 3.  Ampliación


  nodos de matriz de datos   parcial de la tabla 2
 

 
 
 
 
Gráfico 14.  El dendrograma Gráfico 15. Cuatro clusters
   correspondiente o grupos de equivalencia
 

fuente: Elaboración propia.

684
23. Bases socio-metodológicas del análisis de redes sociales

En la parte inferior a la izquierda (gráfico 14) tenemos el dendrogra-


ma que expresa la evolución de la formación de clusters (el analista elige
el número de colectivos). El gráfico 15 muestra la red original, pero seña-
lando los cuatro grupos o conglomerados de cuatro clases de equivalen-
cia. Se han elegido cuatro, pero el dendrograma representa el conjunto
de agrupaciones posibles.

B) La equivalencia estructural basada en la generación de colectivos o gru-


pos por perfiles de valores similares entre los agentes por el procedimiento
de correlaciones entre nodos (Concor)

En este procedimiento se parte también de la matriz de base de la red


(normalmente de 0 y 1). De nuevo se consideran los nodos como si fue-
ran variables y los mismos nodos en vertical como si fueran unidades.
Se calculan los coeficientes de correlación entre todas las variables (no-
dos), como muestran las tablas 4 y 5. Los coeficientes más próximos a 1
tienen los visos de tener los valores de los nodos correspondientes más
similares, es decir, los que pudieran corresponder a la misma estructura
de equivalencia o colectivo. El proceso se basa luego en la convergencia
reiterada de coeficientes de correlación. Las correlaciones son entre las
columnas de la matriz original hasta que en el último resultado obtenga-
mos valores de 1 o –1. Esto hace que el conjunto de los nodos se partan
en dos porciones. Se puede llevar a cabo reiterativamente el procedimien-
to en subpartes de las dos primeras, con lo que los grupos resultantes son
pares. La repetición se realiza hasta la saturación. El gráfico 16 es la ma-
triz original de 0 y 1 y representa la división en cuatro grupos. En la tabla
6 aparecen las densidades de cada grupo en la diagonal principal, y en el
resto las densidades intergrupos. El gráfico 17 representa los grupos en la
red.

C) Las facciones

Los colectivos cerrados se generan por procedimientos reticulares a par-


tir de la cohesión interna o relaciones intra de los colectivos que se for-
man. La construcción de grupos/colectivos es simple (véase el gráfico
18): una vez decidido el número de colectivos, en este caso de 10, el algo-
ritmo busca la configuración óptima de tal manera que en cada uno de
los colectivos que se forman las relaciones internas (relaciones intra para

685
El análisis de datos

Tabla 4. Coeficientes de correlación Tabla 5.  Ampliación parcial de


de la matriz inicial la matriz de correlaciones

 
 

Gráfico 16. Matriz de datos originales Gráfico 17. Cuatro cluster o grupos


agrupados por el algoritmo de generados por concor
concor

 
 

Tabla 6. Densidades de cada cluster

  Density Matrix

1 2 3 4
----- ----- ----- -----  
 
1 0.583 0.111 0.007 0.000
2 0.111 0.333 0.009 0.071
3 0.007 0.009 0.225 0.016
4 0.000 0.071 0.016 0.175  

fuente: Elaboración propia.

cada grupo o colectivo) sean más densas que las relaciones entre los co-
lectivos que se configuran. Los colectivos formados son cerrados: un
nodo no está en dos colectivos. Tratándose, como es el caso, de los alum-
nos de un aula, las conclusiones son importantes para la actividad aca-
démica.

686
23. Bases socio-metodológicas del análisis de redes sociales

Gráfico 18.  Las facciones: diez agrupaciones

fuente: Elaboración propia.

4. Un par de ejemplos de investigación de los autores sobre


y por las redes

Las redes están por doquier y los conceptos y la lógica algebraica son
idénticos para todas ellas. El tratamiento de las redes constituye un po-
deroso potencial para análisis comparativos, transdisciplinares e inter-
diciplinares, pues los conceptos-indicadores comparativos son equiva-
lentes.
En este apartado se trata de mostrar, a través de dos investigaciones
en las que han participado los autores, algunas posibilidades que ofrece
la TARS. Las investigaciones no se centraron únicamente en el análisis
de las redes, sino que éste consistía en un aspecto complementario con
otros objetivos. Por ello, se da un esbozo o líneas generales de dichas in-
vestigaciones: las redes son, de alguna manera, complementarias. Por
otro lado, no se presenta tampoco un desarrollo exhaustivo de los con-
ceptos y temáticas que comporta la TARS, puesto que se han presentado
en los apartados anteriores.

687
El análisis de datos

4.1 La distribución del conocimiento y apoyo mutuo en el proceso de


trabajo

La investigación que contextualiza el caso del estudio de redes se llevó a


cabo en una mediana empresa del textil, teniendo como objetivo y mar-
co general el estudio sobre el proceso de trabajo (PDT) en dicha empre-
sa. En dicho objetivo el análisis de redes juega un rol importante en el
análisis. La investigación general se centró en las competencias, habili-
dades, actitudes y aptitudes de los trabajadores en su puesto de trabajo,
teniendo en cuenta (o en función de) los cambios de la organización
productiva en la empresa. Más concretamente, la investigación se centró
en un análisis pragmático de los PDT, a través de distintas dimensiones:
capacidades, competencias, decisiones, distribución de tareas, jerarquía
relacional, flexibilidad y ritmos, etc., reflejadas en la naturaleza proce-
sual del trabajo como son los flujos, normalmente densos y tensos; la
instancia cognitiva; las prácticas de interacción, comunicación y apoyo
mutuo en el saber hacer y conocimiento que se dan en los puestos de tra-
bajo entre los trabajadores. La función y aportación de la TARS se cen-
tró exclusivamente en la red cognitiva y de apoyo mutuo entre los traba-
jadores como conocimiento compartido y cuya propiedad es del
conjunto de los trabajadores. La perspectiva metodológica general de la
investigación fue de carácter etnográfico: observación general y contex-
tual de la dinámica empresarial; encuesta a todos los trabajadores de la
empresa sobre su categoría, formación, experiencia laboral, puesto de
trabajo, etc.; las observaciones directas e intensivas de procesos de tra-
bajo más significativos, como el lavado y secado del telar, el laboratorio
y el tinte; entrevistas a trabajadores en estos puestos de trabajo sobre la
narrativa de la experiencia laboral, formación, competencias, etc. y en-
trevistas a los trabajadores considerados como más representativos en
las conclusiones del análisis etnográfico. En este marco se lleva a cabo el
cuestionario y análisis de las redes sobre los vínculos de ayuda mutua en
el puesto de trabajo. La inserción etnográfica y sus resultados facilitan,
primero, la contextualización de la red y su interpretación, así como una
mayor familiaridad para llevar a cabo tanto las entrevistas como el cues-
tionario de la redes. Con respecto a las redes, y por razones comparati-
vas, se analizaron también otras dos redes simples: la red jerárquica en-
tre el personal de la empresa y la red de los puestos de trabajo en el
proceso productivo.
La encuesta para obtener los datos de la red fue respondida por todos
los trabajadores de la empresa, alcanzando a todas las secciones de la

688
23. Bases socio-metodológicas del análisis de redes sociales

misma: tinte, laboratorio, lavado, secado y administración. La pregunta


generadora de la red fue doble, la primera «A quién recurres entre los que
trabajan en la empresa si tienes problemas en tu puesto y/o instrumento de
trabajo», la segunda, «a quién das ayuda por los mismos motivos». La in-
formación sobre el análisis de las redes se refiere aquí al saber hacer y al
apoyo mutuo de los trabajadores en su puesto de trabajo. Las dos pre-
guntas generan dos redes diferentes y las dos son dirigidas o asimétricas.
Un análisis completo sería de las dos redes, pero en este caso nos ceñi-
mos sólo a la primera red, que corresponde a la primera pregunta: «A
quién recurres entre los que trabajan en la empresa si tienes problemas en
tu puesto y/o instrumento de trabajo». Sin entrar en un análisis exhaustivo
de los indicadores posibles de la red, nos centramos, a modo de ejemplo,
sólo en tres aspectos o contenidos.
En primer lugar, sobre la centralidad de grado de las relaciones dirigi-
das sobre la petición de apoyo. El mayor o menor valor de grado se re-
presenta en el gráfico 19 por una mayor o menor superficie (cuadrada)
de cada nodo. La primera consecuencia que se observa en el gráfico es
que el grado es mayor en las categorías socio-profesionales más elevadas
(director, jefe de producción, jefe de laboratorio, tintorero y luego ven-
drían los encargados) y que, en consecuencia, las peticiones de ayuda
provienen de las categorías más bajas a las más elevadas. No se observa
que la petición venga de arriba abajo. La misma lógica parece que se
cumple de manera sucesiva en escalamientos de peldaños sucesivos de
abajo arriba en la petición o transferencia de conocimientos y de ayuda
según los diferentes escalafones profesionales.
En segundo lugar, las ayudas de apoyo y conocimiento se circunscri-
ben como ámbitos compartidos a y entre los trabajadores de la misma
sección, lo que es coherente con una común especialidad y por la más
frecuente relación cotidiano-laboral.
El tercero, que de algún modo es consecuente y coherente con los pre-
cedentes, consiste en que los conjuntos de más coherencia interna en las
relaciones de mutuo apoyo y distribución del conocimiento corresponde
a las redes de trabajadores que están en la misma sección. Están marca-
dos por áreas con límites diferenciados.
En cuarto lugar, también se observa una especie de centralidad que
puede entenderse como un núcleo central cohesivo por las relaciones en-
tre los cargos más elevados, aunque no se correspondan con las mismas
áreas. Son también los de mayor grado nodal.

689
El análisis de datos

Gráfico 19. Las redes de relaciones de petición de ayuda


en el puesto de trabajo

´ ´

e colorista

fuente: Elaboración propia.

4.2  La participación asociativa en procesos educativos

El PEC es un Proyecto Educativo de la ciudad de Barcelona promovido


y animado por el IMEB, Institut Municipal de Educació de Barcelona,
en el que participan entidades y asociaciones de todo tipo (tabla 7). El
estudio fue hecho a petición del PEC para contribuir a evaluar el proyec-
to en el trienio 2004-2007. El objetivo del PEC consiste en promover y
activar proyectos extraescolares para los alumnos de secundaria del siste-
ma escolar de la ciudad. Las organizaciones que ofrecen este tipo de acti-
vidades establecen previamente y en grandes líneas los objetivos de tales
actividades, y luego concretan los proyectos en actividades de educación
y formación extraescolar. Para el trienio establecido, las temáticas genéri-
cas fueron las siguientes: i) el éxito, fracaso escolar y acceso al trabajo; ii)
los medios de comunicación; iii) la sociedad de la información; iv) el ocio

690
23. Bases socio-metodológicas del análisis de redes sociales

y la educación no formal; v) la movilidad; vi) la sostenibilidad; vii) el co-


nocimiento de la ciudad; viii) la inmigración; ix) y valores y ciudadanía.
El objetivo encomendado por parte del PEC era examinar el grado en
que las organizaciones establecían relaciones de colaboración entre ellas,
y a la luz de los resultados, proponer en dicho sentido una participación
más equilibrada y distribuida entre ellas. El análisis permitía obtener,
pues, teniendo en cuenta el tipo de entidad, las relaciones de endogamia
y exogamia entre organizaciones. La pregunta generadora de la red glo-
bal fue la siguiente:

Sólo se tiene en cuenta para estos análisis la respuesta 2. El PEC 2004-


2007 estuvo formado por 298 entidades colaboradoras. Las respuestas ob-
tenidas (e inferidas) fueron 227 según este esquema:

Las entidades que han sido citadas por otras como participantes sin
haber respondido son 154. Se las incluye en el «censo» porque las rela-
ciones de participación mutua en un proyecto son simétricas. Los análisis
llevados a cabo fueron numerosos, si bien sólo se recogen aquí algunos
datos e indicadores de las redes.

691
El análisis de datos

Tabla 7. Datos sobre centralidades y endogamia-exogamia de las


organizaciones
Nº Grado
Entidades Cercanía Intermediación Indegree Outdegree
asociaciones nodal

1º, 3º,
I Institutos, 1º, 3º,
5º, 6º, 1º, 4º, 5º,
escuelas de 62 4º, 5º, 70 134
8º, 9º, 6º, 7º
educación 7º, 9º
10º
II Asociaciones de
11 4º 3º, 10º 21 11
familia o vecinales
III Empresas de
educación no 17 38 11
formal
IV Empresas
62 9º 8º, 9º 76 24
culturales
V Empresas medios
14 19 25
de comunicación
VI Empresas de
otros sectores 7 2º, 7º 2º 2º 3 54
productivos
VII
Administraciones 54 3º 7º 3º 52 20
públicas

Total de entidades 227

fuente: Elaboración propia.

En las columnas de centralidades de grado nodal, cercanía e interme-


diación, los datos se refieren al número que ocupan algunas de las orga-
nizaciones, agrupadas por perfil de la entidad, dentro del ranking de los
10 primeros valores en cada una de las centralidades. Los cuadros vacíos
significan que los perfiles de entidades no tienen colocadas ninguna or-
ganización de ese tipo dentro de las 10 primeras, lo que significa una me-
nor importancia en las centralidades.
Las columnas de indegree o outdegree indican el número de relaciones
(entidades con las que participan) que tiene con las entidades de su mis-
ma categoría (endogamia homofílica asociativa) o con otras diferentes
(exogamia heterofílica asociativa).

692
23. Bases socio-metodológicas del análisis de redes sociales

Las entidades I de escuelas, institutos de educación formal, juegan un


rol fundamental: es numerosa su participación, ocupan todas los prime-
ros puestos en el valor de las medidas de centralidad de grado, cercanía e
intermediación de sus asociaciones y tienen un carácter netamente exo-
gámico (outdegree) mucho más que endogámico, es decir, tienden a cola-
borar con asociaciones diferentes de ellas. Por tanto, es un punto a favor
en su poder de influencia en otras entidades: son las entidades pilares del
proyecto PEC.
Las entidades VII Administraciones públicas que participan son nu-
merosas (como la I). Ocupan un buen lugar, aunque no tan abierto rela-
cionalmente como la I, en los rankings de grado, cercanía e intermedia-
ción. Son más endogámicas en sus relaciones con otras entidades.
Los dos tipos de entidades precedentes son públicas y acaparan los
primeros puestos en la escala de los indicadores de centralidad. En este
sentido juegan un rol importante en los objetivos del proyecto. Con todo,
las VII Administraciones públicas son un tanto endogámicas en la parti-
cipación con otras asociaciones, lo que no va en la dirección de los obje-
tivos del PEC, pues precisamente consiste en promover la actividad exo-
administración.
Se ha de señalar también la importancia de VI Empresas de otros sec-
tores productivos, pues ocupan un buen lugar tanto en las medidas de
centralidad como en su capacidad exogámica. Las IV Empresas cultura-
les y las II Asociaciones familiares o vecinales se sitúan en un relativo
buen lugar en las centralidades de grado, pero tienen mayor peso endo-
gámico que exogámico. Las entidades III Empresas de educación no for-
mal y las V Empresas medios de comunicación no se sitúan en los diez
primeros lugares de las centralidades y, además, son endogámicas. La
exogamia indica que la participación se lleva a cabo más con asociacio-
nes diferentes que las propias, lo que va en los objetivos del PEC.
El gráfico 20 muestra la red total de las relaciones de participación
entre las entidades. Se percibe, como ya se había señalado, que hay tipos
de entidades que configuran entre sí redes más cohesivas. En este caso se
evidencian sólo las tres más densas en la participación común en los pro-
yectos, que se señalan con un círculo en el gráfico: I Institutos, escuelas
de educación, VII Administraciones públicas y IV Empresas culturales.

693
El análisis de datos

Gráfico 20.  Relaciones entre las entidades

fuente: Elaboración propia.

694
23. Bases socio-metodológicas del análisis de redes sociales

Bibliografía recomendada
Gil, J., y Schmidt S. (2002): Análisis de redes. Aplicaciones a las ciencias sociales,
México, IIMAS-UNAM.
Lozares, C., Verd, J. M., Martí. J., y López-Roldán, P. (2003): «Relaciones, redes
y discurso: Revisión y propuestas en torno al análisis reticular de datos tex-
tuales», Revista Española de Investigaciones Sociológicas, 101: 175-200.
Maya Jariego, I., y Holgado, D. (2005): «Lazos fuertes y proveedores múltiples
de apoyo: comparación de dos formas de representación gráfica de las redes
personales», Empiria. Revista de Metodología de Ciencias Sociales, 10: 107-
127.
Molina, J. L. (2001): El análisis de redes sociales. Una introducción, Barcelona,
Ediciones Bellaterra-SGU.
Pizarro, N. (ed.) (2000): «Análisis de redes sociales», Política y Sociedad, 33.
Requena Santos, F. (2012): Análisis de redes sociales. Orígenes, teorías y aplica-
ciones, Madrid, Centro de Investigaciones Sociológicas.
Verd, J. M., y Martí, J. (2000): «Muestreo y recogida de datos en el análisis de
redes sociales», Qüestió, Quaderns d’Estadística i Investigació Operativa, 23
(3): 507-524.
Wasserman, S., y Faust, K. (2013): Análisis de redes sociales. Métodos y aplica-
ciones, Madrid, Centro de Investigaciones Sociológicas.

695

Vous aimerez peut-être aussi