Vous êtes sur la page 1sur 22

MANEJO DE DATOS Y MÉTODOS DE ANÁLISIS

A. MICHAEL HUBERMAN
MATTHEW B. MILES

Traducción de Rosa I. Valero Moll

Original: Huberman, A.M. y Miles, M.B. 1994. Data management and analysis
methods. En Denzin, N.K. y Lincon, Y.S., Handbook of Qualitative Research.
Thousand Oaks, CA: Sage. Pp. 428-444.

Definiciones y Asunciones

A lo largo de la pasada década, la discusión sobre el manejo de datos


cualitativos y su análisis hizo que éstos hayan llegado a estar más diferenciados e
integrados. En 1976, la revisión que Sieber realizó sobre siete textos “respetados” en el
campo de la metodología desveló que menos del 5-10% de sus páginas se dedicaban al
análisis propiamente dicho. En 1979 Miles advirtió que el análisis cualitativo disponía
en general de pocas directrices para protegerse del autoengaño y, aún menos contra las
conclusiones no válidas o poco fiables. Nosotros también comentamos que los métodos
de análisis eran raramente descritos con detalle suficiente para que los lectores pudieran
seguir cómo el investigador llegaba a las conclusiones finales a partir de 3,600 páginas
de notas de campo (Miles & Huberman, 1984).
Hoy en día nos encontramos lejos de esta situación. La base de datos consultada
en la preparación de la edición de 1994 de Qualitative Data Analysis: An Expanded
Sourcebook (Análisis de datos cualitativos: una fuente de información expandida) ha
triplicado su tamaño desde la publicación de su primera edición (Miles & Huberman,
1984, 1994). Disponemos de nuevos journals (revistas), diversos manuales,
innumerables conferencias sobre asuntos cualitativos, grupos especialmente interesados
en el tema y nuevos paquetes de software. Es un sector creciente. Como resultado de
ello, muchos textos nuevos, incluído el presente, han hecho que las conclusiones de
Sieber hayan quedado obsoletas. Gradualmente la habilidad en el manejo de datos y su
análisis están llegando a ser explícitamente compartidas. Todavía queda mucho por
hacer. Existe una gran competencia entre los numerosos y polémicos argumentos. Aún
resulta improbable que un investigador pueda escribir el estudio de un caso a partir de
las notas de campo de un colega y que resultara creíblemente similar al original.
En este capítulo fijamos nuestra atención en el manejo de los datos y los
métodos de análisis, con la intención de señalar tanto el trabajo útil, bien hecho, como
las cuestiones no resueltas. De esta manera, subrayaremos algunas asunciones básicas y
definiciones, discusiones sobre la recogida sistemática de datos y manejo de cuestiones,
para posteriormente dirigirnos a lo concerniente al análisis de los datos y su manejo
(que ocurre antes, durante y después de la recogida de datos, así como dentro y a través
del proceso en sí). Concluimos con cuestiones generales del análisis: la importancia de
la presentación de los datos, amenazas para la validez analítica y la importancia de la
“transparencia” en el procedimiento del manejo y análisis en sí mismo.

Definiciones operativas

1
En este capítulo definimos manejo de datos pragmáticamente como las operaciones
necesarias para un proceso sistemático y coherente de recogida, almacenamiento y
recuperación de datos. Estas operaciones tienen el propósito de asegurar:
a) datos accesibles de alta calidad
b) documentación de los tipos de análisis que se han llevado a cabo
c) conservación de los datos y análisis asociados después de completar el estudio.

Nuestra definición de análisis de datos contiene tres subprocesos relacionados


(Miles & Huberman, 1984, 1994): reducción (síntesis/procesamiento) de los datos,
presentación datos y conclusiones/verificación (ver figura 27.1). Estos procesos se
producen tanto antes de la recogida de datos, como durante la fase del diseño y
planificación del estudio; a lo largo de todo el proceso de la fase de recogida de datos y
al principio de la fase en que el análisis es llevado a cabo; y después de la recogida de
datos al proponer y completar las conclusiones.
Con la reducción de los datos, el universo potencial de datos queda reducido de
manera anticipadora cuando el investigador elige el marco teórico/conceptual, las
preguntas de investigación, los casos y los instrumentos. Una vez que las notas de
campo, entrevistas, cintas u otros datos están disponibles, los sumarios de datos,
codificación, estructuras de búsqueda, agrupaciones e historias escritas son, todos ellos,
instancias de la selección y condensación de datos.
La presentación de datos, definida como un ensamblaje comprimido y organizado
de información que permite exponer conclusiones y/o tomar decisiones, constituye la
inevitable segunda parte del análisis. Habitualmente el investigador necesita ver un
conjunto de datos reducido como base para pensar sobre sus significados. Las
presentaciones más focalizadas pueden incluir sumarios estructurados, sinopsis (Fischer
& Wertz, 1975), viñetas (Erickson, 1986), conexiones en red u otros diagramas
(Carney, 1990; Gladwin, 1989; Strauss, 1987; Werner & Schoepfle, 1987a, 1987b), y
matrices con textos, en vez de números en celdas (Eisenhardt, 1989a, 1989b; Miles &
Huberman, 1984, 1994).
La exposición de conclusiones y su verificación involucran al investigador en la
interpretación sobre el significado de lo expuesto a partir de los datos presentados. El
rango de las tácticas usadas parece ser extenso, desde el uso típico y común de la
comparación/contraste, la ilustración de temas y patrones, los agrupamientos y el uso de
metáforas, hasta el de las tácticas confirmatorias tales como la triangulación, búsqueda
de casos negativos, seguimiento de sorpresas y comprobación de resultados con
respondentes (Miles & Huberman, 1984, 1994). Muchos puntos de este aspecto del
análisis demuestran que hay un grupo de múltiples y reiterativas tácticas en juego
(Chesler,1987; Fischer & Wertz, 1975; Schillemans et al., n.d.) y no sólo una o dos
tácticas centrales. En este sentido podemos hablar de “transformación de los datos”
cuando la información está agrupada, ordenada y conectada a lo largo del tiempo
(Gherardi & Turner, 1987).

Figura 27.1. Componentes del Análisis de datos: Modelo Interactivo.

2
Algunas Asunciones Epistemológicas

Una buena práctica para los investigadores es dejar claras sus preferencias.
Saber cómo los investigadores construyen la forma del mundo social y cómo intentan
darnos una descripción creíble de ello es conocer a quién tenemos al otro lado de la
mesa. Cuando, por ejemplo, un realista, un teorista crítico, y un fenomenalista social
están compitiendo por nuestra atención, es importante saber de dónde provienen.
Tendrán puntos de vista diferentes de lo que es real, lo que podemos saber y de cómo
estos hechos sociales pueden ser descritos con exactitud (Guba, 1990; Phillips, 1990;
Ratcliffe,1983).
En nuestro caso, nos hemos descrito como “realistas” (Huberman & Miles,
1985), pero más exactamente como “realistas transcendentales” (Bhaskar, 1978, 1989;
Harré & Secord, 1973; Manicas & Secord, 1982). Fundamentalmente, pensamos que los
fenómenos sociales existen no sólo en la mente, sino también en el mundo objetivo, y
que hay algunas relaciones/leyes razonables estables entre ellos. Estas leyes provienen
de las secuencias y las reglas que unen los fenómenos; es de estos fenómenos de los que
obtenemos los constructos para la vida social e individual.
Esta postura reconoce la naturaleza histórica y social del conocimiento, junto
con la producción de significado en el centro de la experiencia fenomenológica (Parker
& Addison, 1989; Polkinghorne, 1988). Nuestro objetivo es “transcender” estos
procesos, construyendo cuidadosamente explicaciones que puedan describirlos de
maneras plausibles. Así, el realismo transcendental necesita tanto las explicaciones
causales como las evidencias para mostrar que cada entidad o hecho histórico es una
instancia de dicha explicación. Por lo tanto, hay una necesidad no sólo para una
estructura explicatoria, sino también para un relato descriptivo cuidadoso de cada
configuración particular. Ésta es una razón por la que nosotros y otros nos hayamos
inclinado hacia el método de estudio más descriptivo, pero al mismo tiempo, también
más inductivo.

Manejo de los datos

Los estudios cualitativos –especialmente aquéllos realizados por investigadores


solitarios o sin experiencia- son vuñnerables respecto al manejo de los datos. Kvale
(1988) ofrece un agudo análisis sobre una pregunta inocente, “¿Cómo encontraré un
método para analizar las 1,000 páginas de transcripciones de entrevistas que he
recopilado?” Su primera respuesta es “Nunca lleves a cabo una investigación con
entrevista si vas a llegar a una situación en que tengas que hacerte tal pregunta” (p. 90).
¿De qué tipo de datos estamos hablando? Abstractamente, los datos cualitativos
hacen referencia a la esencia de la gente, los objetos y las situaciones (Berg, 1989).
Esencialmente, una experiencia pura es convertida en palabras, típicamente recopilada
en textos extensos.
Una parte de la experiencia pura también puede ser grabada como imágenes
móviles o fijas; estas imágenes pueden ser usadas en una variedad de maneras, la
mayoría de ellas también incluyendo conversaciones o conexiones a palabras. Ver
especialmente Harper (1989) sobre diversos modos de ver la imagen de análisis. Ball y
Smith (1992) también nos ayudan a ver que las imágenes no son más realistas que las
palabras, y que, como la lengua, están igualmente sujetas a interpretación y
diseccionamiento, son dependientes del contexto, pueden ser falseadas, etc.

3
Las palabras incluídas están típicamente basadas en observaciones, entrevistas o
documentos (como apunta Wolcott, 1992, "ver, preguntar o examinar") y se llevan a
cabo dentro de una escenario concreto durante un período de tiempo sostenido. Estos
modos de recogida de datos pueden ser en su mayoría abiertos, sin estructura, producto
de un evento, o estrechamente definidos, estructurados o dirigidos por el investigador.
Normalmente, la información recogida no está inmediatamente disponible para
el análisis, sino que requiere algún tipo de procesamiento; las notas de campo puras
pueden ser garabatos indescifrables para alguien que no sea el mismo investigador y
deben ser corregidas, elaboradas, editadas y escritas/pasadas a máquina. Las cintas de
vídeo requieren un procesamiento similar.
Además de la "calidad" de los datos cualitativos, la cantidad es otro aspecto a
tener en cuenta, pues puede ser desalentadora e incluso arrolladora. Dependiendo del
nivel de detalle, un día de la notas de campo de unas seis entrevistas podría convertirse
fácilmente en 50-100 páginas a un espacio. Y, como al visitar un lugar concreto, se le
van amontonando y, además, es posible que tenga que visitar muchos lugares para
llevar a cabo su investigación, el investigador se verá pronto enfrentado a mucho más
de las "mil páginas" mencionadas por Kvale.
Finalmente, tenemos que añadir que, a no ser que haya un sistema coherente y
razonable para recoger información de un rango de informantes, a lo largo de un
potencial rango de lugares y en un formato más o menos comparable, el investigador se
hallará pronto en el limbo del manejo de datos. Esto nos conduce a los asuntos de
almacenamiento y recuperación de los datos.

Almacenamiento y recuperación

La clave para el manejo de los datos es cómo los datos son almacenados y
recuperados; sin un esquema claro de trabajo, es fácil que los datos puedan ser "mal
codificados, mal etiquetados, mal relacionados, y perdidos" (Wolfe, 1992, p. 293). Un
buen sistema de almacenamiento y recuperación es vital para mantenerse al día sobre
los datos disponibles; para permitir el fácil, fiable y flexible uso de datos --a menudo
por varios miembros del equipo de investigación-- en puntos diferentes de un período
de tiempo de la vida de un proyecto; y para documentar los análisis realizados,
permitiendo así que, en principio, el estudio pueda ser verificado o replicado.
Actualmente ha habido pocas discusiones detalladas sobre el sistema de
almacenamiento y recuperación de datos cualitativos. Una de ellas es la propuesta por
Werner y Schoepfle (1987b), quienes mostraron correctamente que un sistema necesita
ser diseñado mucho antes de la recogida de datos. Distinguen entre notas de campo sin
procesar (diarios), transcripciones, documentos y materiales interpretativo/analíticos
producidos por el investigador y subrayan la importancia de un claro sistema de
indexación.
Levine (1985) propuso cinco funciones generales del almacenamiento y
recuperación de datos: formateo (cómo los materiales están distribuidos, físicamente
encarnados y estructurados en tipos de fichero), referencias cruzadas (unión a través de
ficheros diferentes), indexación (definir códigos y organizarlos en una estructura,
relacionando los códigos con partes específicas de una base de datos), resumir (hacer
resúmenes condensados de materias más largas, como documentos o notas de campo
extensas), y numeración de páginas (números y letras localizando materias específicas
en notas de campo --por ejemplo, B J K 1 22 localiza para el Hospital de Brookside la
primera entrevista con el Dr. Jameson, realizada por el investigador Kennedy, página
22).

4
Estas funciones, tradicionalmente conseguidas a través del libro de notas, las
tarjetas de índice, las carpetas..., se pueden llevar a cabo mucho más rápida y fácilmente
mediante el empleo de software (para sugerencias específicas, ver Weitzman & Miles,
1993; ver también Richards & Richards, Capítulo 28 de este volumen). Aún así,
también es necesario un sistema de fichas físico para las notas de campo sin procesar,
copias de transcripciones, cintas de audio, memos y similares. Hemos propuesto una
lista sobre qué información necesita ser almacenada, recuperada y normalmente
retenida durante un número de años posteriores para un estudio cualitativo (Miles &
Hubeman, 1994; ver la tabla 27.1).
Una última observación: un sistema de manejo de datos, su revisión efectiva y su
uso a lo largo del tiempo no ocurren en un vacío social, sino en el contexto real del
personal de la plantilla del proyecto, trabajando sobre un número de persona-días (que
típicamente suman 5-10 veces más tiempo que el tiempo en el campo), y conectado por
un acuerdo de grupo de trabajo con la gente que participa en el estudio (informantes y
respondentes) sobre el tiempo, energía, flujo de información y productos que serán
incluidos. (En Miles & Hubeman, 1994, aparecen sugerencias específicas sobre estos
tópicos.)

TABLA 27.1 Qué almacenar, recuperar y retener

1. Material puro: notas de campo, documentos "in situ".


2. Datos parcialmente procesados: descripciones, transcripciones. Idealmente,
éstos deberían aparecer en la versión inicial y posteriormente en versiones
corregidas, "limpiadas" y "comentadas". Las descripciones pueden incluir
anotaciones en los márgenes o reflexivas, realizadas por el investigador durante la
recogida de datos o tras ella.
3. Datos codificados: descripciones con códigos específicos adjuntos.
4. El esquema de codificación o thesaurus: en sus sucesivas iteraciones.
5. Memorias u otro material analítico: las reflexiones del investigador sobre el
significado conceptual de los datos.
6. Fichas de búsqueda y recuperación: información que muestra qué trozos
codificados o segmentos de datos buscaba el investigador durante su análisis y la
materia de recuperación; fichas de conexiones establecidas entre segmentos.
7. Presentaciones de datos: matrices, diagramas, o redes usadas para presentar la
información recuperada de una manera más organizada y comprimida, junto con los
textos analíticos asociados. Típicamente, hay varias versiones revisadas de los
mismos.
8. Episodios analíticos: documentación de lo que se hizo, paso a paso, para
preparar las presentaciones y escribir los textos analíticos.
9. Textos del informe: las versiones sucesivas de lo que se ha escrito sobre el
diseño, métodos, y descubrimientos del estudio.
10. Diario general o documentación de la recogida de datos y trabajo analítico.
11. Índice de toda la materia mencionada anteriormente.

5
Análisis

El análisis vía diseño del estudio

Seremos breves ya que esta materia queda ya cubierta en este volumen (ver
Janeesick, Capítulo 12). En primer lugar, el diseño de los estudios cualitativos puede ser
considerado, en un sentido real, como analítico. La elección de un marco teórico, de las
preguntyas a investigar, de las muestras, de la definición de "casos" en sí y de la
instrumentación influye de manera anticipada sobre la reducción de datos --la cual,
como hemos indicado, es un aspecto esencial del análisis de los datos. Estas elecciones
tienen una función de unión y focalización, descartando ciertas variables, relaciones y
asociaciones de datos y seleccionando otras para nuestra atención. Éstas también llaman
a un trabajo creativo. En efecto, los diseños cualitativos no son copiables, fuera de sus
propios patrones, pero normalmente tienen que ser construidos por encargo, revisados y
"coreografiados" (Preissle, 1991).
Segundo, existe un mérito en ambos diseños, los "relajados", dirigidos
inductivamente y los "rigurosos", con un acercamiento más deductivo. Los primeros
funcionan bien cuando el terreno no es familiar y/o excesivamente complejo, si incluye
un caso único, y si el intento es exploratorio y descriptivo. Los diseños más rigurosos
están indicados cuando el investigador tiene un buen conocimiento previo del terreno,
una buena fuente de conceptos bien estructurados y aplicables, y toma una postura más
explicativa y/o confirmatoria incluyendo casos múltiples y comparables.
Los estudios cualitativos pretenden definir o explicar (a cualquier nivel) un
patrón de relaciones, lo cual sólo podemos hacerlo con un grupo de categorías analíticas
conceptualmente especificadas (Mishler, 1990). Empezando con ellos (deductivamente)
o llegando gradualmente a ellos (inductivamente), ambos caminos son legítimos y
útiles. Los componentes de tales diseños están descritos en el apéndice de este capítulo.

Ínterin del Análisis

A diferencia de las investigaciones experimentales y los cuestionarios, los


estudios cualitativos suelen tener un ciclo de vida particular que reparte la recogida y el
análisis de los datos a través del estudio, pero que necesita modos diferentes de
investigación en los distintos momentos. Esto tiene algunas ventajas. Para empezar, los
errores en el campo pueden ser eliminados para la próxima vez. Siempre hay una
segunda oportunidad. Segundo, la instrumentalización puede ser ajustada y añadida. De
hecho, a diferencia de los estudios experimentales, los cambios en protocolos
observacionales o entrevistas estructuradas en un campo de estudio usualmente refleja
un mejor entendimiento de la escena, aumentando así la validez interna del estudio.
Pero existen también algunas desventajas. Por ejemplo, el investigador se
enfrenta a la tarea de intentar reducir la cantidad de datos recogidos mientras aún está
recogiendo más. La idea aquí es enfocar muchas de las recogidas de datos en los temas
que surgen o en estructuras y así seguir recogiendo datos adicionales. El análisis en
marcha es inflacionario. Habitualmente también, cuanto más se investiga, más estratos
de la escena se descubren.

6
Investigación Iterativa

La mayoría de estos procedimientos piden el uso de inducción analítica. La


clave de la inducción analítica es la suposición de que hay regularidades que podemos
encontrar en el mundo físico y social. Las teorías o constructos que obtenemos expresan
estas regularidades de la manera lo más precisa posible. Para obtener estos constructos,
usamos un procedimiento reiterativo -- una sucesión de ciclos de preguntas y
respuestas-- lo cual incluye examinar un grupo de casos dado y entonces refinar o
modificar aquellos casos subsecuentes. Tradicionalmente las inferencias resultantes son
denominadas "válidas" en el sentido relajado de ser probables, razonables, o
verosímilmente ciertas (Robinson, 1951; Znaniecki, 1934).
En investigación cualitativa, estos procedimientos corresponden a un
acercamiento a la "teoría de base/marco teórico" (Glaser & Strauss, 1967), el cual por sí
mismo comparte características importantes con otros modos de análisis en el ínterin
(análisis generativo, análisis constructivo, análisis "iluminativo"). Sin embargo, en
todos estos casos se mezclan los análisis inductivos y deductivos. Cuando un tema,
hipótesis o patrón es identificado inductivamente, el investigador se mueve dentro de
un modo de verificación, intentando confirmar o cualificar el descubrimiento, entonces
esto da pie a un nuevo ciclo inductivo.
La teoría de base/marco teórico reconoce un punto importante: El análisis será
no diferenciado y desligado hasta que el investigador tenga un poco de conocimiento
local con el terreno. Éste es también el caso para un acercamiento/método derivado de
la teoría (e.g., Miles & Huberman, 1994). Ver cómo una estructura funciona en el
campo se lleva su tiempo, sobretodo porque sus aplicaciones son a menudo breves y
están enmascaradas o cubiertas por otras características, o porque toman una forma
diferente de aquello encontrado en la literatura de la investigación o en el laboratorio.
En el típico método inductivo, el análisis empieza con la primera visita al sitio.
Se hacen anotaciones al margen en las notas de campo, los pasajes más reflexivos se
repasan cuidadosamente y se produce algún tipo de hoja de resúmenes. En el siguiente
nivel hay que codificar y escribir memorias, ambos temas están tratados en algún lugar
de este volumen (ver Strauss & Corbin, Capítulo 17).
Con estas advertencias en mente, hemos obtenido un grupo de "tácticas" para
darle un sentido (Miles & Huberman, 1994). Numeradas de 1 a 13, están ordenadas de
manera aproximada de lo descriptivo a lo explicativo y de lo concreto a lo más
abstracto: Anotar patrones y temas (1), Ver la plausibilidad --dando inicialmente un
sentido intuitivo (2)-- y reunir por agrupamiento conceptual (3) ayudan a uno a ver las
conexiones. Hacer metáforas, un tipo de agrupamiento de datos figurativo (4), es
también una táctica para conseguir una mayor integración entre diversas piezas de
datos. Contar (5) es la manera más familiar para ver "lo que hay aquí"-- y mantenerse
honesto con uno mismo.
Hacer contrastes y comparaciones (6) es una táctica clásica para agudizar la
comprensión a través de la realización de observaciones de agrupamiento y de
distinción. También es necesaria la diferenciación, como en las variables divisorias,
variables desligadas que han sido prematuramente agrupadas, o que simplemente toman
una apariencia menos monolítica (7).
Las tácticas más abstractas incluyen la subsuma de particulares dentro de lo
general, movimientos sucesivos entre datos del primer nivel y categorías más generales
(8); factorización (9), un análogo de una técnica cuantitativa familiar, que permite al
analista mover un gran número de variables medidas a un grupo más pequeño de
variables inobservadas, usualmente hipotéticas; anotación de relaciones entre variables

7
(10); y encontrar variables intermedias (11). Finalmente, para construir una
comprensión coherente de un grupo de datos podemos ayudarnos construyendo una
cadena lógica de evidencias (12) y haciendo coherencias conceptuales/teóricas,
normalmente a través de la comparación con constructos de referencia en la literatura
(13).

Análisis dentro de los casos:


Asuntos Generales

No existen fronteras fijas que separen el "ínterin" del análisis, el post-análisis o


el análisis final. Sin embargo, una serie de asuntos aparecen mientras los casos
particulares son examinados --y antes del trabajo de análisis de casos comparativos (ver
la sección siguiente). Éste incluye la distinción entre descripción y explicación, la lógica
general del análisis, la importancia de la presentación de los datos, el papel de la teoría
y la visión de causalidad del trabajo.

Descripción y Explicación

El análisis dentro de los casos tratará invariablemente con dos niveles de


comprensión. El primero es descriptivo. La primitiva pregunta de qué está pasando y
cómo suceden las cosas necesita una descripción razonable del fenómeno observado.
Esto es la descripción; Bernard (1998) describe tales análisis como: "hacen que las
cosas complicadas sean comprensibles, reduciéndolos a sus partes componentes" (p.
317). En efecto, tal y como Rein y Schön (1977) sugieren, un vehículo para la
descripción de los actores locales, ocurrencias y ambientes es contar una historia (qué
pasó y qué pasó a continuación). Contar historias --una construcción para dar sentido a
un "escenario"-- parece profundamente persuasivo en el pensamiento humano
(Goleman, 1992; Read, Druian, & Miler, 1989), pero tiene también fallos
interpretativos.
Una de las preguntas más frecuentes en la vida diaria, y una que invariablemente
nunca recibe respuesta, es ¿Por qué?. Pero este proceso familiar esconde el hecho, como
señaló Draper (1988), de que "explicar" puede incluir también dar información
requerida, justificar una acción, dar razones, apoyar una actitud o construir una
expresión causal. La explicación "científica" se encuentra en la estrecha banda de
preguntas "por qué", especialmente en las dos últimas de las mencionadas. Como
sugiere Kaplan (1964), una explicación --si se propone en términos "determinados" o en
términos que directamente se dirijan a lo histórico-- es en efecto una "descripción
concatenada" (relacionada) que propone un hecho o leyen relación con otros, haciendo
comprensible la descripción. Kaplan da otros puntos de ayuda al señalar que las
explicaciones siempre son dependientes de la condición y el contexto, parciales,
inconclusas y aplicables indeterminadamente --características no sólo limitadas a los
estudios cualitativos.

La importancia de las Presentaciones en el Análisis

Repitiendo: las presentaciones de los datos que están suficientemente enfocadas


para permitir ver el grupo completo de datos en un sitio fijo y que están
sistemáticamente ordenadas para contestar la pregunta de investigación ayudan
inmensamente a conseguir un análisis válido. Tenemos a mano el conjunto "completo"
de datos, aunque de una manera reducida, y puede ser interrogado. Éstos no son

8
"agrupaciones" o "hechos claves" selectivamente extraídos. La analogía es el output de
paquetes estadísticos, los cuales (a) permiten llevar a cabo análisis conjuntamente con
los datos expuestos, (b) permiten al analista ver qué otros análisis necesita, (c) facilitan
la comparabilidad a través de grupos de datos, (d) incrementan la credibilidad en los
informes de investigación donde las presentaciones de datos normalmente acompañan a
las conclusiones.
Aquí también el análisis es secuencial e interactivo. Los datos presentados y el
texto escrito que emerge de las conclusiones de un investigador se influencian
mutuamente. La exposición ayuda al escritor a observar patrones; el primer texto hace
que la exposición tenga sentido y sugiere nuevos movimientos analíticos en los datos
mostrados; una exposición revisada o extendida señala nuevas relaciones y
explicaciones, produciendo un
texto más diferenciado e integrado, y sucesivamente. Las presentaciones fomentan el
análisis y éste fomenta presentaciones más potentes y sugestivas.

Figura 27.2. Interacción entre la Presentación y el Texto Analítico.

El Papel de la Teoría en el Análisis dentro de los casos

Las pretensiones honestas/virtuosas sobre las conclusiones normalmente se


apoyan en tres metapretensiones: (a) que el investigador ha desarrollado o ha
comprobado una teoría; (b) que todos los datos relevantes han sido examinados y que
los datos irrelevantes no se han "metido por lo bajini"; y (c) que ha habido un "diálogo"
estable y explícito entre ideas y evidencias (Ragin, 1987).
Glasser (1978) sugiere que una buena teoría tiene categorías que encajan (o han
llegado a encajar) los datos; es relevante para el núcleo/centro/corazón de lo que está
pasando; puede ser usado para explicar, predecir e interpretar lo que está pasando; y es
modificable. Aún/Tanto más para un punto de vista clásico (¡Vaya con el punto de vista

9
clásico!). En la práctica la teoría tiene otro lado oscuro que surge durante el análisis.
Buena muestra de esto es la comparación entre los estudios de Everhart (1985a, 1985b)
y Cusick (1985a, 1985b) sobre el significado de aprendizaje y enseñanza, analizado por
Noblit (1988). Aunque ambos estudiaron escuelas secundarias americanas, Noblit
demuestra que sus interpretaciones variaron ampliamente. Los supuestos de la teoría
crítica de Everhart llevaron a éste a centrarse en los alumnos y en la escolarización
como una manera de "proletariezación" del alumnado y a reproducir las estructuras del
capitalismo a través de jerarquías y en la distribución de la información (como algo
material, "cosificada") dada a los alumnos, considerándolos como "recipientes vacíos".
Los supuestos estructuro-funcionalistas de Cusick le llevaron a enfocar la escuela como
algo creado por una plantilla de trabajadores (staff), y la escolarización como algo
conducido por un "ideal de igualdad", comprometido por la animosidad racial, con
"conocimientos poco atractivos", tomando un segundo lugar para las "relaciones
amistosas" con los alumnos. Cada investigador, de manera poco sorprendente, vieron
las formulaciones del otro como "ideológicas". La fidelidad al "marco teórico"
preexistente, llevó a cada uno a conclusiones dramáticamente diferentes sobre
fenómenos muy similares.
Aún más, la frontera entre teoría y datos es permeable. Como señala Van
Maanen (1979), actualmente sólo hay conceptos de primer orden -- los llamados
"hechos de estudio", que nunca "hablan por sí mismos"-- y conceptos de segundo orden
-- las "nociones usadas por el investigador para explicar los patrones de los conceptos
de primer orden" (pp. 39-40)--. Por lo tanto, los "hechos" que uno descubre ya son
producto de muchos niveles de interpretación (Van Maanen, 1988).
Los investigadores cualitativos, por lo menos, necesitan entender cómo están
comprendiendo la "teoría" mientras progresa el análisis, ya que esta comprensión
inevitablemente influenciará y limitará --conscientemente o no-- la recogida, reducción
y presentación de datos, así como la formulación y verificación de conclusiones.
Algunos constructos incluyen lo siguiente:
• "marco teórico", como se ha explicado anteriormente: congruencia de
algunos constructos mayores, bien articulados
• un "mapa" destinado a generalizar la historia (o historias) contada sobre un
caso (Rein & Schön, 1977)
• un patrón de eventos parecidos, para ser comparado con lo que realmente se
observa (Yin, 1991)
• un modelo, con una serie de proposiciones conectadas que especifican
relaciones, a menudo jerarquizadas, entre los componentes (Reed & Furman,
1992)
• una red de relaciones no jerárquicas, expresadas por declaraciones que
definan conexiones entre conceptos (Carley, 1991)

Ser claro sobre tales constructos es también importante para conseguir las
funciones clave descritas anteriormente debido al uso cada vez mayor de software de
análisis cualitativo. Éstos también tienen suposiciones incorporadas en sí mismo sobre
la "teoría" (ver Weitzman & Miles, 1993). Por ejemplo, programas como Ethnograph
(Qualis Research Associates, 1990) y NUD IST (Richards & Richards, 1989) ayudan al
usuario a desarrollar teorías a través de códigos relacionados jerárquicamente (A es un
ejemplo de un concepto de más alto nivel que B, que a su vez es un concepto general de
C), mientras otros, como ATLAS/ti (Mühr,1991), HiperRESEARCH (Hesse-Biber,
Dupuis; & Kinder, 1990), y MECA (Carley, 1991), se centran en la teoría como una red

10
de uniones entre entidades (A promociona a B, es parte de C que "tapona" D, que
precede a E [el cial también es parte de B], y así sucesivamente).

Una visión de Causalidad

Finalmente, el análisis dentro del caso frecuentemente se enfrenta con la


cuestión de entender la causalidad. ¿Pueden los estudios cualitativos establecer
relaciones causales de alguna manera? Esta posibilidad es a menudo atacada por ambos
lados, por la derecha ("Sólo los experimentos controlados cualitativos pueden hacer
eso") y por la izquierda ("causalidad es un concepto no operativo del comportamiento
humano --la gente no son bolas de billar"). En la línes de nuestra posición
epistemológica, mencionada anteriormente, la posición que tomamos aquí es que los
estudios cualitativos (ver Van Maanen, 1979, 1983) son especialmente adecuados para
encontrar relaciones causales; pueden observar directamente y longitudinalmente los
procesos locales bajo superficies de una serie temporal de eventos y estados, mostrando
cómo éstos llevaron a los resultados específicos, y rechazando hipótesis rivales. En
efecto, podemos entrar dentro de la caja negra; podemos entender no sólo que una cosa
particular ocurrió, sino también por qué y cómo ocurrió.
La credibilidad de tales declaraciones depende de cómo uno vea la causalidad. A
continuación ofrecemos un breve resumen de nuestra visión. Primero, causalidad
implica necesariamente la cuestión de tiempo como parte de la explicación; suponemos
que los eventos anteriores tienen una conexión, más o menos clara, con los eventos
posteriores. La temporalidad es crucial (Faulconer & Willians, 1985); el establecer
causalidad requiere que comprendamos el "guión" --los eventos se organizan en un
orden flexible (Abbott, 1992). Aunque un punto de vista orientado y variado siempre
mostrará un circuito cerrado (loop) de varios efectos sobre causas que producen nuevos
efectos Eden, Jones, & Sims, 1983; Weick, 1979), los "guiones" se siguen revelando a
lo largo del tiempo y tienen que ser comprendidos de esta manera al nivel del caso.
Aquí es donde las versiones más narrativas de análisis causal encuentran su lugar
(Abbott, 1992).
Vale la pena señalar que nos confrontamos con una de las amenazas
convencionales más probables de la causalidad: que vistos más de cerca, o
"desmenuzados", muchos análisis causales son generados retóricamente, como una serie
de estrategias textuales, géneros, tropos, figuras y dichos. Historias narrativas, por
ejemplo, están compuestas casi exclusivamente de este tipo de artilugios figurativos
(Atkinson, 1992; Clough, 1992). ¿Deberíamos analizarlo en términos convencionales?
O debemos tener cánones específicos para la causalidad retórica que puedan, de alguna
manera, ser separados de la lógica de la evidencia que nosotros usamos para las
explicaciones analíticas? Geertz (1983) ha planteado bien el problema al señalar el lento
movimiento en los instrumentos explicativos desde las leyes sociales hacia las
metáforas de teatro y juego: "El movimiento de ajedrez promete hacer por la sociología
lo que la palanca hizo por la física" (p. 22).
Otra característica clave: la Calidad es local; fuerzas distantes y abstractas, como
la "gravedad", palian los eventos inmediatos y procesos que ocurren cuando uno deja
caer intencionadamente un lápiz (la fricción entre los dedos y el lápiz, la decisión de
abrir la mano, el movimiento de los dedos hacia fuera). El nexo causal inmediato
siempre está delante de nosotros, en una escena particular y en un tiempo determinado.
Tercero, una determinación de causalidad no puede estar atada precisamente a
las reglas: al criterio clásico de Hume de precedencia temporal (A antes de B),
conjunción constante (cuando A, siempre B), y contigüidad de influencia (un

11
mecanismo plausible conecta A y B) tenemos que añadir otros, como los propuestos por
Hill (1965) en Epidemiología: fuerza de asociación (mucho más B con A que con
cualquier otra causa posible), gradiente biológico (si más A, entonces más B),
coherencia (la relación A-B encaja con lo que más sabemos sobre A y B) y analogía (A
y B son similares a patrones bien establecidos, notados sobre C y D).
Cuarto, siempre existen múltiples factores causales: las causas siempre son
múltiples y "conjuntares", combinándose y afectándose unas a otras tanto como
afectando a sus supuestos efectos (Ragin, 1987). Causas y efectos deben ser
considerados como configurados en redes --ellos mismos profundamente afectados por
el contexto local.
Finalmente, analizar la causalidad es, por la naturaleza de la materia, un asunto
retrospectivo, que requiere que indiquemos cómo "algún evento ha ocurrido en un caso
particular" (House, 1991). Por lo tanto, necesitamos el método de los historiadores de
"habilidad de seguimiento" (Abbot, 1992) y típicamente estaremos haciendo "una
recogida retrospectiva de eventos en una acción que hace que el final sea razonable y
creíble... configurando los eventos de tal manera que sus partes en la historia completa
queden claras" (Polkinghorne, 1988, p. 171; compara la discusión de Scriven [1974]
sobre el enfoque del "modus operandi").
Las cuestiones causales de sentido común aquí extraídas son, en su mayoría,
aqéllas propuestas por Lofland & Lofland (1984): ¿Cuáles son las condiciones bajo las
cuales aparece [X]? ¿Qué facilita su aparición? ¿Cuáles son las circunstancias en que
posiblemente va a ocurrir? ¿En la presencia de qué condiciones es probable que sea un
resultado? ¿De qué factores depende la variación en sí misma? ¿Bajo qué condiciones
está presente? ¿Bajo qué condiciones está ausente?
Por supuesto, una explicación causal útil debería aplicarse necesariamente a más
de un caso. Mediante inducción analítica (Manning, 1982; Miler, 1982) una descripción
causal se obtiene en un caso y puede ser probada en cualquier otro sitio, pudiendo ser
apoyada, calificada o sujeta a revisión. Ahora nos enfrentaremos a la cuestión del
enfoque en el análisis de casos cruzados.

Análisis de casos cruzados

El modo tradicional de análisis cualitativo ha sido el estudio de un caso único.


En la mayoría de las investigaciones etnográficas, por ejemplo, los "casos" son
individuales o más aún, unidades molares (de mol) que comparten varias características
comunes --una familia, una tribu, un negocio pequeño, una vecindad, una comunidad.
Los casos también pueden ser instancias de un fenómeno mayor (por ejemplo, "casos"
de chantaje, "casos" de aprender a apagar fuegos), normalmente de un importante
proceso social.
Tales unidades molares son esencialmente de individuos múltiples: bomberos,
profesores, criminales y otros. Mientras estos individuos han sido típicamente
conectados con sus ambientes (por ejemplo, estaciones de bomberos, escuelas,
vecindades particulares), ahora estamos viendo estudios que enfocan el grupo de
individuos dentro de varios ambientes (escuelas, programas especiales, negocios) y
realizando este trabajo con múltiples métodos (Firestone & Herriot, 1983; Louis, 1982;
Schofield, 1990).
Un objetivo aquí es extender la validez externa. Por ejemplo, observar actores
múltiples en ambientes múltiples aumenta la habilidad de generalizar; los procesos
clave, constructos y explicaciones en juego pueden ser comprobadas en varias

12
configuraciones diferentes. Y cada configuración puede ser considerada una réplica de
los procesos o preguntas bajo estudio. Los casos múltiples también identifican
configuraciones (de actores, de reglas funcionales, de influencias causales) que pueden
ser ciertas en algunos ambientes, pero no en otros. Por lo tanto salimos con distintas
"agrupaciones" o "familias" de casos.
Pero el trabajo analítico de ambientes cruzados no es tan simple. Denzin (1989)
ha señalado que cuando aparece el alcohólico A, con un perfil muy diferente del
alcohólico B, los dos no pueden ser directamente comparados a no ser que elijamos un
enfoque sobre las características comunes más abstractas. Así, existe un peligro de que
los casos múltiples sean analizados a altos niveles de inferencia, uniendo las redes
locales de causalidad y terminando con un grupo aproximado de generalizaciones que
puede ser que no se ajuste a ningún caso individual. Esto ocurre con más frecuencia de
la que desearíamos recordar.
La tensión producida aquí es la de reconciliar lo particular con lo universal:
reconciliar la exclusividad de un casos individual con la necesidad de entender los
procesos genéricos en juego a través de los casos (Silverstein, 1988). Silverstein plantea
que cada individuo tiene una historia específica --corriendo el riesgo de descartarla--
pero es una historia contenida dentro de los principios generales que influyen en su
desarrollo. De manera similar, Noblit & Hare (1983) proponen un caso sólido para
preservar la exclusividad, aunque también realizando comparaciones. Más
recientemente, también nos han advertido contra la realización de promedios en los
resultados a través de los casos, para evitar malinterpretaciones y superficialidad (Noblit
& Hare, 1988).

Una Diferenciación Crucial: Variables y Casos

Consideremos un estudio típico, uno intentando predecir la decisión de asistir al


colegio, con una muestra de 300 adolescentes y los siguientes grupos de factores
predictores: género, status socioeconómico, expectativas de los padres, aptitud escolar,
apoyo de los compañeros y la decisión de asistir al colegio.
En el análisis variable-orientado, las variables predictoras están
interrelacionadas y la variable dependiente clave "decisión de asistir al colegio" es
dependiente de los otros seis factores. Esto podría mostrarnos que la decisión de asistir
al colegio está principalmente influenciada por la aptitud escolar con influencias
adicionales de las expectativas de los padres y el status socioeconómico. Vemos cómo
tanto las variables como los conceptos están relacionados, pero no conocemos el perfil
de ningún individuo solo.
En el análisis de casos orientados, observaríamos más de cerca algún caso
particular, por ejemplo el Caso 005, fémina, de clase media, cuyos padres tienen unas
altas expectativas, etc. Sin embargo estas son medidas "delgadas" (sin peso). Para
realizar un análisis de casos genuino, necesitamos contemplar la historia completa del
Caso 005: Nynke van der Molen, cuya madre aprendió a ser asistente social, pero que
está amargada por el hecho de que nunca trabajó fuera de casa, y cuyo padre quiere que
Nynke trabaje en la tienda familiar de flores. La cronología también es importante: hace
dos años, la mejor amiga de Nynke decidió ir al colegio, justo antes de que Nynke
empezara a trabajar en un establo y justo antes de que la madre de Nynke le mostrara un
libro de recuerdos de la escuela de asistentes sociales. Entonces Nynke decidió
matricularse en estudios veterinarios.
Éstos y otros datos pueden mostrase en forma de matriz (ver Miles &
Huberman, 1994), donde el flujo y configuración de eventos y reacciones que dirigen la

13
decisión de Nynke quedarían claros. También ayudaría a "encarnar" cómo los cinco
predictores se asemejan individualmente y cómo interaccionan colectivamente. Ello, a
su vez, sacaría a la superficie patrones recurrentes, "familias" o "grupos" de casos
configuraciones características.
Como muestra Ragin (1987), tal metodología de casos orientados examina cada
entidad, entonces saca a la luz configuraciones dentro de cada caso y los somete a
análisis comparativo. En estas comparaciones (de un menor número de casos), las
similitudes sumergidas y asociaciones sistemáticas han sido buscadas con referencia a
una variable principal de resultado. Desde aquí, podría explicarse un modelo más
aclaratorio, al menos para los casos bajo estudio.
Cada enfoque tiene sus más y sus menos. El análisis Variable-orientado es
bueno para encontrar relaciones probabilísticas entre variables en una población grande,
pro tiene dificultades con complejidades causales, o al tratar con submuestras. El
análisis de casos orientados es bueno para encontrar patrones específicos, concretos,
patrones históricamente fundados comunes a pequeños grupos de casos, pero sus
conclusiones resultan particularísticas, aunque algunos autores argumentan que poseen
especialmente un mayor grado de generalización. 1

Estrategias para el Análisis de casos cruzados

Existen muchas maneras de proceder con los datos de casos múltiples, o datos
que provienen de varias fuentes. A continuación tenemos una breve descripción de
estrategia, que viene del debate de casos versus variables de orientación que acabamos
de revisar.

Estrategias de casos orientados. Yin (1984) propone una estrategia de


replicación. Una estructura conceptual vigila el primer estudio de casos, entonces los
casos sucesivos son examinados para ver si el nuevo patrón encaja con el patrón
descubierto anteriormente. El enfoque de las "teorías fundadas" (e. g., Glaser, 1978)
utiliza el mismo principio, pero construye la estructura inductivamente, entonces la
comprueba y la depura con refernecia a múltiples grupos de comparación.
Denzin (1989) trata el problema a través de múltiples ejemplos. Tras
descomponer las concepciones previas de un fenómeno particular ( tal como "el yo
alcohólico"), se recogen instancias múltiples (casos), entonces se "marcan", en un
sentido fenomenológico y se inspeccionan por elementos o componentes esenciales.
Los elementos están reconstruidos en un conjunto reordenado y devueltos al contexto
social natural.
Muchos investigadores enfocan la comparación de casos cruzados formando
"tipos" o "familias". Los casos en un grupo se inspeccionan para ver si caen en grupos
que comparten ciertos patrones o configuraciones. A veces estos grupos pueden
organizarse a lo largo de alguna dimensión (conformidad baja o alta, ambigüedad,
ambiciones de carrera específica, y otras).
Estrategias de Variables Orientadas. Un enfoque usado a menudo es encontrar
temas que atraviesan los casos. Por ejemplo, Pearsol (1985) examinó las entrevistas
sobre programas de igualdad sexual con 25 profesores. Tras una cuidadosa codificación
inductiva, encontró temas repetidos tales como "preocupación por los alumnos", "punto
de vista activista de cambios" y "barreras a la innovación". (Después él cambió a un

1
Ésta es una distinción crucial y ha sido tratada de varias maneras. Para tratamientos recientes, ver Maxwell & Miler (1992) y
Runkel (1990).

14
enfoque de casos orientados, organizando a los profesores en seis tipos basados en la
configuración inicial de los temas.)
A menudo una variable clave se presenta sola durante el análisis de ambientes
cruzados. La estrategia aquí puede ser llamada clarificación de patrones. Por ejemplo,
Eisenhardt (1989a) encontró evidencias para el constructo de "centralización de poder"
observando datos sobre el comportamiento de CEO en 10 compañías de ordenadores.
Su matriz de presentación incluyó adjetivos describiendo estilos de decisiones, medidas
cuantitativas, funciones organizativas llevadas a cabo por el CEO y algunos descriptores
"camafeo" (por ejemplo, "[Él] se basa en elegir buenos trabajadores y dejarlos
trabajar").

Estrategias Mezcladas

Un método más fenomenológico, descrito por Fischer y Wertz (1975), podría


llamarse síntesis interactiva. Estudiando el significado de ser una víctima del crimen,
estos autores primero escribieron sinopsis de casos individuales y después escribieron
una narración basada en una serie de temas. Entonces compusieron una "condensación
general" describiendo los significados personales esenciales, volviendo posteriormente
a las sinopsis de los casos para ver cómo la condensación era ejemplificada aquí. Al
final, escribieron una estructura general psicolóica en la que describían lo que parece
esncial en el proceso temporal de victimización.

Figura 27.3. Matriz de Estructura Dispersa Sobre el Tiempo : Consecuencias de la


Asistencia

15
La secuencia está estructurada cuidadosamente. En particular, incluye una
mezcla analítica que combina metodologías, en vez de basarse en una y añadir otras
esencialmente como apéndices. Otros ejemplos de estrategias combinadas se pueden
encontrar en el trabajo de Abbot (1992), Gladwin (1989) y Huberman (1991).
Técnicamente, los análisis de casos cruzados se realizan más fácilmente con
"presentaciones": en matriz u otras muestras de datos que permitan al investigador
analizar, de manera condensada, el grupo de datos completo, para ver literalmente lo
que hay ahí. A partir de aquí, pueden ocurrir varias cosas: El investigador puede volver
al campo para obtener los datos que le faltan; se puede realizar otra muestra para
observarla mejor; se pueden reconfigurar las columnas, filas o todas las entradas.
Habitualmente, el investigador comienza con una metamatriz parcialmente
ordenada, la cual muestra la información básica de varios casos en un gran diagrama. A
continuación vienen las presentaciones descriptivas o conceptualmente ordenadas,
matrices temporoordenadas, matrices de efectos y análisis secuenciales compuestos,
mostrando el movimiento de casos diferentes a través de un flujo generalmente
estructurado de acontecimientos y condiciones.
Miremos a la matriz de estructura dispersa presentada para 12 casos (distritos
escolares) mostrada en la Figura 27.3. Nos muestra que esto es simplemente una tabla
de contingencia, cruzando dos variables ("implementación temprana" y "estabilidad
práctica") con una tercera ("nivel de asistencia"). Además cada una de las variables en
juego es puesta en escala para que los casos puedan ser organizados y examinados de
una manera bastante comparable.
Típicamente, estos tipos de diagramas, que provienen del cuidadoso trabajo de
los casos orientados, constituyen una salida analítica variable-orientada. Con esta
presentación a mano, el investigador usualmente vuelve a los datos del nivel de casos.
¿A qué corresponde esta bastante temprana implementación en Masepa & Plumet, y son
éstos dos casos comparables? ¿Parecía que la "asistencia" tenía poco efecto en la
"implementación temprana", y si así era, por qué? ¿Y qué pasa con los casos
compensatorios del grupo B? ¿Qué era el patrón de asistencia, el flujo a lo largo del
tiempo, la relación entre la asistencia y la estabilidad percibida por los informantes? De
esta manera, este examen se dirige a otra presentación, usualmente en una forma
diferente, que organiza los casos según la forma en que estas preguntas han sido
propuestas. En otras palabras, las presentaciones aparecen típicamente en secuencia: no
ordenadas, ordenadas por casos en una o varias dimensiones de interés, reagrupadas por
familias de casos que comparten algunas características, y presentadas de nuevo como
un grupo interconectado de variables más explicatorias, que den apoyo a los grupos de
casos que han sido identificados.

Verificación de Conclusiones y
Amenazas para la Validez Analítica

La "Cohabitación" de Cánones Realistas e Interpretacionistas

Como hemos indicado, desde hace poco tiempo virtualmente no habñian


cánones, reglas de decisión, algoritmos, ni siquiera reglas acordadas para llevar a cabo

16
investigaciones cualitativas. Esto no es tanto un problema de dasarrollo como una
ausencia de consenso en decidir la base sobre la cual los descubrimientos estén
considerados plausibles o convincentes y qué procedimientos sean considerados
legítimos.
Sin embargo, aparecen algunos rasgos comunes de procedimiento, en el proceso
secuencial de analizar, concluir y confirmar descubrimientos en el formato del campo
de estudio. En ambos casos, el investigador se mueve desde ciclos inductivos en la
recolección y análisis de los datos a ciclos deductivos de experimentación y
verificación. Como hemos señalado, el proceso de muestreo explicatorio y
confirmatorio conduce a decisiones sobre qué datos hay que recoger después.
Gradualmente, estas construcciones de datos se hacen más "conclusivas". Más o menos,
la mayoría de los investigadores "naturalistas" se suscriben a este ciclo analítico básico.

Verificación

La verificación implica comprobar las inclinaciones más comunes o más


asiduas que pueden entrar en el proceso de sacar conclusiones. Algunos de los fallos
más frecuentes se producen por:
• sobrecarga de datos en el campo, llevando así a los analistas a perder
información importante, sobrepesando algunos descubrimientos, torciendo el
análisis
• salientes de primeras impresiones o de observaciones de incidentes
altamente concretos o dramáticos
• selectividad, confiando demasiado en algunos datos, sobretodo cuando se
intenta confirmar un descubrimiento clave
• co-ocurrencias tomadas como correlaciones, o incluso como relaciones
causales
• falsas proporciones de nivel básico: extrapolación del número de instancias
totales de aquello observado
• falta de fiabilidad de información de algunas fuentes
• sobreacomodación a información que cuestiona directamente un hipótesis
tentativa

El término más usado relacionado con asuntos de análisis y confirmación es el


de triangulación --un término con múltiples significados. El origen del término es
probablemente el "operacionalismo múltiple" (Campbell & Fiske, 1959): medidas
múltiples que aseguran que la variabilidad reflejada es de unas características o
tratamiento y no está asociada con las mediciones. La mejor manera de hacer esto es,
por ejemplo, multiplicando medidas y fuentes independientes del mismo fenómeno --
por ejemplo, los informantes hacen la misma declaración independientemente, y el
investigador observa el fenómeno; los resultados de las pruebas apoyan las muestras de
trabajo y las observaciones. Los teoristas de este "terreno" han discutido durante mucho
tiempo que la teoría generada de una fuente de datos no funciona tan bien como los
"trozos de datos" de fuentes diferentes (Glaser, 1978).
Pero la triangulación también ha llegado a significar la convergencia entre
investigadores (el acuerdo entre las notas de campo de un investigador y las
observaciones de otro) y la convergencia entre teorías. Una prescripción general ha sido
coger fuentes de triangulación que tienen inclinaciones diferentes, fuerzas difernetes, así
que pueden complementarse una a otra.

17
En el desordenado mundo de la investigación empírica, sin embargo, las
medidas independientes nunca convergen totalmente. Las observaciones no encajan
completamente con los datos de la entrevista, ni las inspecciones con la información
escrita. En otras palabras, las fuentes pueden ser inconsistentes o incluso chocantes, sin
ninguna manera fácil de solución. En tales casos, de hecho, necesitaremos empezar por
una nueva manera de pensar sobre los datos disponibles (Rossman & Wilson, 1985).
Más allá de eso, la triangulación es más un modo de inquirir que una táctica.
Por muy conscientemente que haya intentado coleccionar y doble-comprobar los
descubrimientos, usando múltiples fuentes y modos de evidencia, el investigador
convertirá el proceso de triangulación en un seguimiento de la recogida de datos. Será la
manera en que él o ella llegaron al descubrimiento en primer lugar, viendo o
escuchando múltiples instancias de ello en fuentes diferentes y encajando los
descubrimientos con otros con los que deberían coincidir.
Con esta lógica en mente, hemos desarrollado una lista de "tácticas" para
comprobar o confirmar conclusiones (Miles & Huberman, 1984, 1994). Las tácticas
para evitar las inclinaciones más obvias son las siguientes: comprobar la
representatividad, comprobar el efecto del investigador (reactividad), y triangular y
pesar la evidencia (dependiendo de medidas más robustas). Las tácticas para comprobar
la viabilidad de los patrones cambian de sentido hacia la búsqueda activa de contrastes,
comparaciones, grupos de datos fuera del límite y casos extremos. Las pruebas más
elaboradas para las conclusiones requieren intentos para tachar o suprimir conclusiones
espúreas, replicar descubrimientos clave, comprobar explicaciones rivales y buscar
evidencias negativas. Por último, en cualquier momento de este ciclo se puede usar la
retroalimentación (feedback) con los informantes.
Un enfoque más general y comprensivo para la verificación de descubrimientos
y conclusiones es la "auditoría" (ver la sección siguiente; ver también Schwandt &
Halpern, 1988). Aplicada a la investigación empírica, la auditoría es una metáfora de la
contabilidad para el repaso sistemático, por un examinador externo, de un estudio dado.
Su interés principal puede ser menos la calidad de un repaso externo que la posibilidad
de los investigadores cualitativos de tener una lista de bases analíticas donde agarrarse,
de manera que los colegas rigurosos e interesados puedan determinar si el muestreo, las
mediciones y el análisis que llevaron alas conclusiones y explicaciones principales son
sólidas frente a las fuentes más comunes de inclinación y error.

Sobre la "Transparencia del Método

Las convenciones de investigación cualitativa requieren un clara y explícita


documentación de los datos y los procedimientos. Cualquiera esperaría esto para que:
(a) el lector tenga confianza y pueda verificar las conclusiones del informe; (b) el
análisis secundario de los datos sea posible; (c) el estudio pueda ser, en principio,
replicado; y (d) el fraude o la mala praxis, si existen, sean más fáciles de detectar. Existe
otra necesidad interna añadida: la de mantener las estrategias analíticas coherentes,
manejables y repetibles mientras progresa el estudio. Es decir, incluir estos
requerimientos anima al progreso de la documentación desde el principio. Desde
nuestro punto de vista, las mismas necesidades están presentes para los estudios
cualitativos, incluso si uno toma una postura más interpretativa (compruebe, por
ejemplo, las ideas sobre "confirmabilidad" y "dependencia" propuestas por Lincoln &
Guba, 1985). Tal y como hemos escrito en trabajos previos:

18
Tenemos la inatractiva doble atadura donde los estudios cualitativos no pueden
ser verificados porque los investigadores no informan sobre su metodología, y
no informan sobre su metodología porque no hay cánones o convenciones
establecidas para hacerlo. (Miles & Huberman, 1984, p. 244)

Soluciones

La solución más básica ya ha sido discutida (ver la Tabla 27.1): la retención


cuidadosa, de manera fácilmente extraíble, de toda materia de estudio, de notas de
campo crudas (sin elaborar) a presentaciones de datos y textos del informe final. Esta
solución, sin embargo, depende de otra: una postura reflexiva para llevar a cabo el
estudio que asume una documentación concienzuda, regular y progresiva --de versiones
sucesivas de esquemas de codificación, de discusiones conceptuales entre la plantilla
del proyecto, de episodios de análisis-- de ambos sucesos, tanto los que tenían éxito
como los que no. Hemos informado de una forma detallada de documentación para
rastrear la reducción y la presentación de datos y las operaaciones para sacar
conclusiones (Miles & Huberman, 1984), pero no somos conscientes de instancias de su
uso por otros investigadores. Carney (1990) apuesta por una "revista de reflexividad"
para el mismo fin.
Recientemente, sin embargo, existe un movimiento hacia las descripciones más
explícitas y complejas. Algunos ejemplos incluyen las descripciones metodológicas de
estudios fenomenológicos como Barlett (1990) y Melnick & Beaudry (1990), la
"cronología del análisis de datos" en un estudio hermenéutico de Pesarsol (1985), el
diario detallado de investigaciones etnográficas biográficas de L. M. Smith (1992), la
cuidadosa descripción de la metodología del estudio de casos de Merryfield (1990), la
descripción de métodos de "comparación constante" de Hodson (1991), y los detalles en
las presentaciones de los datos de Eisenhardt (1989a, 1989b). Todavía no pocos
estudios restringen su apartado de "Métodos" a frases como "El estudio empleó el
método comparativo constante", sin más explicación.
Parte de la dificultad es que, dada la diversidad de metodologías para trabajos
cualitativos, no hay un grupo estándar de expectativas sobre lo que la sección de
métodos debería contener. Como mínimo, proponemos lo siguiente:
• decisiones del muestreo realizado, tanto dentro como a través de los casos
• instrumentación y operaciones de recogida de datos
• sumario de la base de datos: tamaño y cómo se han producido
• software empleado, si lo hay
• repaso de las estrategias analíticas que se han seguido
• inclusión de las presentaciones de los datos clave apoyando a las conclusiones
principales
Una cuarta solución es preparar, y/o llevar a cabo, una "auditoría" de todo el estudio
que se está llevando a cabo. Las primeras aplicaciones factibles fueron las de Halpern
(1983); desde entonces, Schwandt y Halpern (1988) han extendido la idea de auditoría,
aplicándola al repaso de estudios de evaluación. Sugieren el requerimiento de seis
niveles de atención:
• ¿Están nuestros descubrimientos basados en los datos? (¿Es apropiado el muestreo?
¿Están los datos sopesados adecuadamente?)
• ¿Son lógicas las inferencias? (¿Están las estrategias analíticas aplicadas
correctamente? ¿Tenemos en cuenta las explicaciones alternativas?)
• ¿Es apropiada la estructura de categorías?

19
• ¿Podemos justificar las decisiones de inquirir y los cambios de la metodología?
(¿Están conectadas las decisiones del muestreo con la hipótesis de trabajo?)
• ¿Cuál es el grado de inclinación (cierre prematuro, datos de las notas de campo no
explorados, falta de búsqueda para casos negativos, sentimientos de empatía) del
investigador?
• ¿Qué estrategias se usaron para incrementar la credibilidad (segundos lectores,
feedback con los informantes, repaso por colegas, tiempo en el campo adecuado)?

Parece que tales auditorías no se usan extensivamente, pero cuando sí lo hacen (ej.
Merryfield, 1990), parecen tener efectos decididamente saludables, especialmente en la
promoción del mantenimiento sistemático de la documentación y la reflexividad.

Algunos Problemas

El coste de tiempo y energía para una documentación metódica adecuada y/o


una auditoría no es poco. Hemos estimado un incremento del 20% en el tiempo de
análisis en el uso de nuestro diario de documentación (Miles & Huberman, 1984).
Schwandt & Halpern (1988) no nos ofrecen cifras del coste, pero el trabajo del
investigador para preparar un "rastro de auditoría" y el análisis del auditor, con su muy
detallado procedimiento, son por lo menos caros. La computerización cuidadosa de un
estudio ayudará, por supuesto, pero implica sus propios costes. Probablemente debamos
esperar que las documentaciones detalladas y las auditorías continúen estando
restringidas a los estudios de gran importancia, o a aquéllos en los que el investigador
tenga un especial interés en su documentación o auditoría por sí.
La documentación de los estudios y el reportaje completo también pueden dar
lugar a un enfoque mecánico y obsesivo (ver Marshall, 1990, y Noblit, 1988, quienes se
preocuparon de la "burocratización" del análisis de datos). O puede llevar a
formulaciones abstractas de métodos que no aluden a las realidades de la investigación
cualitativa (ver, por ejemplo, Constas, 1992, sobre la documentación de procedimientos
en el desarrollo de categorías). En cualquier caso, necesitamos ser realistas sobre la
"reproducibilidad"; incluso en el campo de la química sintética, Bergman (1989)
informa de que casi la mitad de los estudios no podrían ser reproducidos, incluso por los
investigadores originales. Así, necesitamos un estándar razonable, no un abstractamente
exigente.
Por último, debemos recordar que la "transparencia" tiene sus riesgos. Por
ejemplo, mantener las notas de campo detalladas en los ficheros del ordenador, y
teniéndolas disponibles para el reanálisis, incluso con supuestos de identificación, hace
surgir cuestiones sobre la invasión de la privacidad y sobre los daños potenciales a los
informantes (ver la discusión muy bien pensada de Akeroyd, 1991). Cualquier enfoque
razonable hacia la transparencia metodológica tiene que tratar no sólo con asuntos
técnicos, sino también con asuntos éticos.
Resumiendo, estos problemas no parecen ser insuperables y nos queda la
necesidad básica de la transparencia. Vemos que no hay razón para no seguir
progresando en los avances --probablemente de forma paulatina-- a través de la rutina
de llevar adelante una documentación, la evolución de estándares más claros, y --de vez
en cuando, cuando es importante-- el profundo análisis del método que implica una
auditoría rigurosa. Dado el cuidado y el escrúpulo con los que la investigación
cualitativa debe ser llevada a cabo, tanto en la tradición etnográfica como en la tradición
interpretativa, debería ser posible negociar un grupo de convenciones mínimas para
llevar a cabo investigaciones cualitativas. Dado que estas tradiciones tienen marcos

20
diferentes para asegurar la validez y la dependencia de los descubrimientos del estudio,
podría haber un grupo de convenciones compartidas junto con reglas específicas para
los investigadores que trabajan en áreas diferentes. Estamos acercándonos a ello.
Todavía la transparencia no es fácil cuando trae un peso añadido y una mayor
posibilidad de exponerse a los juicios de colegas profesionales.

Apéndice: los Aspectos Principales


Conceptuales y Analíticos del Diseño

Marco conceptual. Esto ilustra los factores, constructos o variables clave y las
relaciones supuestas entre ellos. Hemos argumentado que las presentaciones gráficas de
"bins" (variables principales) conectadas por flechas direccionales especificando
relaciones intravariables son útiles para hacer que los marcos de los investigadores
queden claros (Miles & Huberman, 1984). Los marcos conceptuales, incluso en diseños
"sólidos", son normalmente reiterados a lo largo de la vida del estudio.

Preguntas de investigación. Un grupo de preguntas definidas (no necesariamente


hipótesis) representa las facetas de un dominio empírico que el investigador quiere
explorar, delineando las prioridades y los enfoques de atención y excluyendo
implícitamente un rango de temas no estudiados. Pueden estar definidos causalmente o
no causalmente, y tratar sobre investigación, política, evaluación, o asuntos de dirección
(N. L. Smith, 1981, 1987; ver también la aplicación de esquemas alternativos para hacer
muestreos de más de 900 preguntas de investigación de Dillon [1984]). Usualmente
representan una operacionalización más detallada del marco conceptual de un estudio.

Definición de Caso. Esencialmente un "caso" es un tipo de fenómeno que ocurre en un


contexto limitado --la unidad de análisis, en efecto--. Normalmente hay un enfoque de
la atención y una limitación temporal, social, y/o física más o menos vagamente
definida (por ejemplo, un paciente de cirugía de bypass antes, durante y seis meses tras
la cirugía, en el contexto de la familia y el hospital). Los enfoques y las limitaciones
pueden estar definidos por el tamaño de la unidad social (un individuo, un rol, un grupo
pequeño, una organización, una comunidad, una nación), por su situación espacial, o
por tiempo (un episodio, un evento, un día). Los casos también pueden tener subcasos
incrustados en ellos (Yin, 1984). Tanto como con otros aspectos conceptuales del
diseño del estudio, la definición del "caso" es fuertemente analítica, la elección de casos
selectivos, si los casos involucrados son singulares o múltiples.

Muestreo. Las elecciones de muestreo dentro o a través de los casos son poderosamente
determinantes en justo qué datos serán considerados y usados en el análisis. Los
investigadores cuantitativos a menudo piensan randomizadamente, estadísticamente y
en términos de selección de casos fuera del contexto (abstractamente). Los
investigadores cualitativos característicamente tienen que pensar sobre el propósito y
conceptualmente en el muestreo (ver para sugerencias específicas Miles & Huberman,
1984).

21
Además, dentro de cada caso (incluso cuando el caso es un individuo), el
investigador necesita hacer muestreos en un intrincado rango de actividades anidadas,
procesos eventos, situaciones y tiempos (Bogdan & Biklen, 1982; Lofland, 1984;
Schwartzman & Werner, 1990; Woods, 1979); tales elecciones están dirigidas por
teorías (Glaser & Strauss, 1967), y no por preocupaciones con la "representatividad".
Las elecciones de muestreo también evolucionan típicamente a través de olas sucesivas
de colecciones de datos. Esto también es válido para muestreos a través de casos. Otra
vez aquí, el asunto no es tanto la búsqueda para la generalización convencional, sino
más bien un entendimiento de las condiciones bajo las cuales un descubrimiento
particular aparece y funciona: cómo, dónde, cuándo, y por qué actúa como lo hace. Los
casos múltiples son especialmente importantes como "grupos de comparación" (Glaser
& Strauss, 1970); También permiten una estrategia de "replicación" (Yin, 1991), donde
los descubrimientos de casos individuales están sucesivamente comprobados en una
siguiente serie de casos. Cuando los casos múltiples están cuidadosamente ordenados a
lo largo de una dimensión clave, las explicaciones poderosas son más probables (ver
Eisenhardt, 1989b).

Instrumentación. Otros capítulos de este volumen tratan explícitamente de este tema,


pero siguiendo nuestra línea, necesitamos hacer algunos comentarios. El asunto general,
propuesto por Warner (1991), es éste: ¿Cómo podemos maximizar los constructos y la
validez descriptivo-conceptual, asegurándonos que nuestras interpretaciones conecten
con las experiencias vividas de la gente, y minimizar el impacto del investigador?
Pensamos que las respuestas normalmente se encuentran en la dirección de la
instrumentación mínimamente prediseñada.
De la misma manera, ¿cómo podemos mejorar la validez interna, generabilidad a
otros casos y escenas sin mencionar el manejo de la recolección de datos? Aquí las
respuestas también nos dirigen hacia la instrumentalización prediseñada de manera más
completa.

*Referencias

22