Vous êtes sur la page 1sur 59

X. El «diseño de la investigación»: entre la táctica y la estrategia.

Texto elaborado por la Dra. Roxana Ynoub.


Parte del libro “Cuestión de Método” Tomo II- inédito.

X.1. El concepto de “diseño”.

¿De cuántas maneras se puede diseñar un martillo?; ¿cuál es el diseño más adecuado
para una campaña sobre el “cuidado del agua”?; ¿cómo optimizar los recursos y preservar la
estética en el diseño de un edificio?

Las respuestas a estas cuestiones parecen no ser unívocas. Eso se debe a que, aún
cuando el diseño es la planificación de un conjunto de acciones orientadas por fines, los
caminos para alcanzarlos pueden ser múltiples.

En las siguientes imágenes se pueden reconocer distintos diseños de sillas:

Un mismo fin, en este caso disponer de un “objeto para sentarse”, se puede obtener por
diversos medios.

La elección de estos medios compromete al diseño del objeto.

Adviértase que hago referencia a la cuestión del «mejor» diseño; es decir, parto del
supuesto que resulta posible imaginar condiciones óptimas para alcanzar esos fines.

Ahora bien, si observamos las diversas sillas, resulta difícil decidir cuál de esos
diseños cumple con ese criterio de “optimización”. Entre otras cosas porque lo óptimo sólo se
puede evaluar por referencia a los valores comprometidos en dicho diseño.

Así, por ejemplo, si se atiende a lo estético habrá que considerar el contexto en que va
a utilizarse el objeto; si en cambio el valor apunta a lo funcional, habrá que evaluar (al menos

1
en el caso de las sillas) su adecuación ergonómica; si se considera lo económico se tendrá en
cuenta el precio del producto; si se la valora en términos ecológicos, se considerará el impacto
medioambiental de los materiales utilizados.

En síntesis, no es posible hablar de un diseño óptimo sin especificar los criterios o


valores comprometidos en cada caso.

Sin duda, podría reconocerse que existe algo así como un “ideal regulativo”, conforme
con el cual el propósito del diseñador/a es maximizar todos los criterios conjuntamente. Pero,
sin duda, no hay manera de garantizar la realización de ese ideal. Siempre cabe la posibilidad
de imaginar algún otro modo (eventualmente mejor ajustado a esos valores) a la hora de
resolver el diseño de un cierto objeto.

Y esto no le ocurre sólo a las ciencias de lo artificial (Simon, H.; 1973) o ciencias del
diseño- como lo serían la ingeniería, la arquitectura o la misma medicina entre muchas otras.

También la naturaleza encuentra muy diversos caminos para alcanzar idénticos fines.
Se trata de una propiedad que los teóricos de sistemas definen como equifinalidad: ¿de
cuántas maneras se puede “diseñar” una nariz?!! Admitiendo que todas ellas cumplen los
mismos fines (es decir, tienen una función y una posición homóloga en diversos vivientes) la
variedad es tan grande como grande es el espectro de especies animales que se sirven de
respiración pulmonar.

De modo que, diseñar es una actividad orientada por fines y, en el caso, de los diseños
de origen humano, esa actividad supone la elección de determinados cursos de acción (entre
varios posibles!), con vistas a maximizar uno o varios valores comprometidos con el logro de
dichos fines.

X.2. El lugar del diseño en el proceso de investigación científica.

Con lo dicho en el apartado anterior, estamos ahora en condiciones de situar el puesto


del diseño en el marco del proceso de investigación científica.

Recordemos en primer lugar que formular una pregunta o una hipótesis de


investigación supone postular algún tipo de vinculación, determinación o interpretación entre
hechos.

De modo tal que en ellas se asumen compromisos o presupuestos ontológicos y


epistemológicos, cuya expresión empírico-observacional remite a los componentes de la fase
2, tal como oportunamente los hemos definido.

Eso supone también que en los enunciados de los problemas y las hipótesis estarán,
más o menos explícitos, el tipo de entidades (o unidades de análisis) privilegiadas, los
aspectos o dimensiones a examinar de ellas (o variables), y los comportamientos o relaciones
que se postulan o se presumen entre unos y otros (según sean formulaciones descriptivas,
explicativas o interpretativas).

Ahora bien, la investigación se llevará adelante para explorar, constatar o precisar


esos problemas e hipótesis.

2
Para ello se necesitará precisar el tipo de experiencia o material a indagar u observar
y la manera en que será abordado.

Esas definiciones comprometen decisiones metodológicas que definirán la estrategia


del trabajo: es decir, su diseño empírico.

Habrá que decidir en cada caso qué tipo de entidades serán observadas, evaluadas,
experimentadas, en qué número, dónde, cuándo, bajo qué condiciones…

Y lo que se espera es que esas decisiones resulten las “más convenientes o adecuadas”
para echar luz sobre todos aquellos aspectos relevantes para la respuesta a los problemas o las
hipótesis del estudio.

Para precisar el alcance de esta cuestión, examinémoslo en el marco de un ejemplo.

Supongamos que nos hemos propuesto investigar el desarrollo y el deterioro de la


“memoria semántica a lo largo de los ciclos vitales”1.

En el marco de un tema como ese, nuestra investigación podría estar organizada en


torno a interrogantes como los siguientes (entre muchos otros posibles):

-¿cómo evoluciona la “fluidez” en el recuerdo de ejemplares de categorías semánticas


(por ejemplo: recuento de seres vivos/animados y seres no vivos/objetos) desde la
adolescencia a la tercera edad?

-¿qué cambios se registran en los contenidos de las “definiciones de categorías


semánticas según los distintos ciclos vitales?

-¿cómo varían los logros y persistencia de estas competencias en sujetos entrenados y


no entrenados en ejercitaciones específicas, según distintos períodos de ciclos vitales?

- etc. etc., etc.

A partir de estos interrogantes podrían postularse hipótesis o conjeturas tentativas y,


concomitantemente derivar –de esos problemas e hipótesis- los objetivos de la investigación.

Todos estos elementos, que comprometen al desarrollo de la Fase 1 del proceso de


investigación- preanuncian o delinean también el tipo de «dato» que se requerirá para alcanzar
los fines trazados.

Ahora bien, la estrategia empírica concreta de una investigación no queda definida por
los componentes de la Fase 1 o Fase sincrética.

Aún cuando de ella surge el tipo o esquema de investigación (es decir, si se trata de
una investigación descriptiva, explicativa o interpretativa) habrá que decidir todavía un
sinnúmero de cuestiones, las que definen eso que llamaremos el diseño de la investigación.

1
La memoria semántica se refiere a la memoria que almacena los significados de las palabras
y las relaciones entre estos significados, al modo de un diccionario.
3
Siguiendo con nuestro ejemplo, la evaluación de la memoria podría hacerse: sobre un
mismo sujeto a lo largo del tiempo o, por el contrario;
comparando distintos sujetos en diversos momentos; o, comparando en un único momento a
sujetos provenientes de distintos grupos etarios (ya que la edad es una suerte de entificación
del tiempo).

Y lo mismo, en relación al número y frecuencia de mediciones: podrían hacerse dos,


tres… o “n” mediciones con distintos intervalos de periodicidad; y todavía más: la
comparación en el tiempo podría ser prospectiva (si se la hace hacia delante) o retrospectiva
(si se trata de reconstruir hacia atrás ese proceso).

Son todas estas decisiones las que comprometerán al diseño de la investigación.

Algunas de ellas se delinean de modo más o menos preciso a la hora de formular los
objetivos (y por eso éstos constituyen una suerte de interfaz entre el momento conceptual y
empírico del proceso); pero se terminarán de precisar con la adopción del diseño.

Como puede observarse un mismo asunto de investigación puede dar lugar a


distintas estrategias empíricas para su tratamiento.

A veces, en el marco de una cierta tradición en investigación se consagra un tipo


específico de diseño. Esto produce una suerte de “naturalización del diseño”, haciendo que
éste se presente como la “única manera” de llevar adelante la investigación. Sin embargo, aún
en esos casos es conveniente reconocer que la estrategia adoptada responde también a una
elección entre opciones posibles.

X.3. Elementos para situar la lógica del diseño de investigación.

Las decisiones comprometidas en el diseño empírico comprometen la


operacionalización cuanto a la instrumentalización, es decir, a todos los componentes de la
Fase 2 –o Fase analítica- del proceso de investigación.

Dado que son múltiples los factores involucrados en ello, es difícil normativizar
criterios para clasificar los tipos de diseños. Un sinnúmero de cuestiones deberían
considerarse allí.

Sin duda, el criterio principal, como lo adelantamos, debiera ser el de optimizar las
condiciones para el contraste de aquello que se debe describir, explicar o interpretar.

Por “condiciones de contraste” entiendo la estipulación de las condiciones que


facilitan, eventualmente promueven o mejor contribuyen a la detección del asunto que se
investiga.

Si, por ejemplo, se evalúa el “deterioro de la memoria a lo largo del tiempo”; entonces
el diseño debe contribuir a maximizar el contraste entre diversos períodos temporales, o entre
determinados grupos etarios.

Si, en cambio, se busca conocer “lo que piensan los adolescentes sobre los cuidados en
salud sexual y reproductiva”… el diseño debe prever las condiciones para que eso que los

4
adolescentes piensan pueda manifestarse, ser captado sin distorsiones, en todo el espectro de
posiciones existentes.

Sin embargo, además de la preocupación por los aspectos sustantivos de su


investigación, el investigador/a debe considerar un sinnúmero de otras cuestiones a la hora de
precisar un diseño: debe atender al costo que ese diseño demanda, a la accesibilidad a las
fuentes asociadas a él, a las consecuencias o compromisos éticos que implica, al tiempo
material que insume su realización.

Todos estos factores influyen cuando se debe decidir una u otra estrategia empírica.

Precisamente por el sinnúmero de cuestiones que están comprometidas en el diseño,


resulta difícil fijar criterios para su normativización o tipologización.

Como ocurriría si pretendiéramos estipular criterios para clasificar los “diseños de


sillas”. Sólo algunos aspectos podrían ser considerados como invariantes en ese tipo de
diseños: los materiales para la confección de sus patas, el estilo al que responde, los
materiales del respaldo, los colores, entre algunos pocos más.

En lo que respecta a las clasificaciones de los “diseños de investigación”, los criterios


son muy dispares entre los autores, y en ocasiones se muestran arbitrarias o a-sistemáticas.

Así ocurre, por ejemplo, con una clasificación muy difundida, pese a que transgrede en
buena medida los principios mínimos que deben respetarse en cualquier clasificación (como
por ejemplo la exclusión mutua y la conjunta exhaustividad). Veamos cómo se la propone:

“En esta obra adoptaremos la siguiente clasificación: investigación experimental e


investigación no experimental. A su vez, la primera puede dividirse de acuerdo con las
clásicas categorías de Campbell y Stanley en: preexperimentales, experimentos puros
y cuasiexperimentos. La investigación no experimental la subdividimos en diseños
transversales y diseños longitudinales” (Hernández Sampieri, op. cit.:159).

Esta propuesta clasificatoria se hace a su turno, sobre la base de un criterio previo, que
distingue entre “investigación cuantitativa” (a la que corresponderían los diferentes tipos que
acabo de citar); y la “investigación cualitativa”, para la que se proponen otros criterios (a los
que luego me referiré).

Detengámonos entonces en la clasificación de los diseños “cuantitivos” que se


propone:

a) El primer criterio, distingue entre “diseños experimentales y no experimentales”.


Aunque el criterio aquí podría remitirse a “con o sin manipulación y control de
las variables” –no se enuncia como tal criterio. Simplemente se formula la
distinción, como si ese criterio clasificatorio fuera –en apariencia- algo
sobreentendido.

b) Luego se propone una sub-clasificación, cuyo fundamento tampoco se explicita


(se lo remite simplemente a una suerte de “fuente de autoridad” –como lo son en
esta materia Campbell y Stanley). Aunque sin duda, ese fundamento existe y es
bien preciso: remite al grado de control o de validez interna del diseño. Este

5
criterio permite distinguir entre “diseños experimentales puro / cuasi-
experimentales / pre-experimentales”.

c) Luego comienzan a formularse nuevos criterios; como por ejemplo, el modo en


que considera la temporalidad pero que ¡sólo se aplica a los diseños “no-
experimentales”!

Conforme con este se distinguen los diseños longitudinales de los transversales-.

De modo que este criterio no se considera para los diseños experimentales.

¿Por qué? Seguramente porque en principio en todos los experimentales –


salvando los preexperimentales- se hace más de una medición en el tiempo.

Sin embargo, cuando esas mediciones se reiteran (es decir, son varias), entonces
se les da otro nombre y se los llama “series cronológicas” (aunque en ese caso no
se habla de longitudinal ni se lo clasifica considerando la temporalidad!).

Cuando se aborda el tema de los diseños experimentales simplemente se los


enuncian –uno al lado del otro- según las denominaciones con las que se han ido
consagrando en la tradición metodológica (y en especial en la tradición
experimental).

d) Si seguimos con los criterios que se adoptan en el manual que estoy citando, se
introduce luego la consideración del “número de sujetos” involucrados.

Se habla de “sujetos” no de unidades de análisis; como si los diseños


involucraran exclusivamente sujetos, concepto que además induce la idea de
“sujetos humanos”.

Pero este criterio cuenta fundamentalmente para los diseño de “caso único” pero
no para los restantes. El diseño de “caso único” queda, como si dijéramos, fuera
de todas las anteriores clasificaciones. Así los define Hernández Sampieri en la
obra de referencia:

“Los estudios de caso único son considerados por algunos autores como una
clase de diseños a la par de los experimentales, no experimentales y
cualitativos; mientras que otros los ubican como una clase de diseño
experimental o un diseño etnográfico. También han sido concebidos como un
asunto de muestreo. La realidad es que los diseños de caso único son todo lo
anterior” (sic!!).

Dicho de otra manera el diseño de caso único puede ser cualquier cosa: todas las
alternativas clasificatorias le caben.

e) Finalmente ninguno de estos criterios cuenta a la hora de hablar de los


transeccionales o transversales, porque para ellos se introduce un nuevo criterio
(¡sólo para ellos!) según el cual se clasifican en “exploratorios, descriptivos y
correlacionales…”

6
Lo que implica, entre otras cosas, que lo correlacional no es descriptivo ni
exploratorio, y lo que es peor aún que los longitudinales no son (o no serían
según esta clasificación) ni exploratorios, ni correlacionales, ni descriptivos!!

Como se advierte se transgreden aquí los dos criterios básicos que debe cumplir
cualquier clasificación: las categorías deben ser excluyentes entre sí (si algo es A no puede ser
B al mismo tiempo); en el marco de una “fundamento común” –que es precisamente el
criterio en base al cual se clasifica.

Lo mismo ocurre si nos dirigimos a la clasificación que se propone de los diseños


cualitativos.

Como éstos ocupan una segunda parte de la obra, ya no encontramos ningún esfuerzo,
para vincular a unos diseños con otros. Pero además, en lo que atañe a la clasificación de los
propios diseños cualitativos, se profundizan los problemas que encontramos en la
clasificación de los cuantitativos. Examinemos cómo se lo dice:

“…tal tipología considera los siguientes diseños genéricos: a) teoría fundamentada, b)


diseños etnográficos; c) diseños narrativos; d) diseños de investigación-acción. (…)
Cabe señalar que las «fronteras» entre tales diseños son sumamente relativas,
realmente no existen, y la mayoría de los estudios toman elementos de más de uno de
estos. Es decir, los diseños se yuxtaponen” (sic!) (Hernandez Sampieri, R; Fernandez
Collado, C.; Baptista Lucio, P.; 2006: 686).

Se confunden aquí asuntos vinculados al “modo de recolectar los datos” con el “tipo
de datos”; con el “tipo de tratamiento de datos”… es por eso que se yuxtaponen y es por eso
que se pierde de vista a qué se refiere en concreto el concepto de «diseño de una
investigación»2.

No pretendo ensañarme con la crítica de ninguna clasificación de diseños.


Simplemente las comento para que se advierta hasta qué punto existe cierta confusión en
relación a este tópico, y lo que es más importante aún, como pueden reificarse ciertas
definiciones por el sólo hecho de consagrarse como fórmulas aceptadas por todos/as.

Considero que buena parte de esta confusión arraiga en las dificultades objetivas que
existen para combinar todos los criterios clasificatorios conjuntamente.

Pero el hecho de reconocer esta complejidad y la cantidad de posibilidades que


resultan de la combinatoria (de criterios), no autoriza a omitir la referencia a ella.

Por otra parte, como ya lo adelanté, la dificultad estriba también en que sólo algunos
aspectos del diseño empírico pueden ser tipologizados. Buena parte de ellos exceden las

2
Hay que reconocer –pese a lo que acabo de señalar- que sobre el final del capítulo que estoy citando, la autora
señala, como salvedad de estos problemas de tipologización de los diseños, lo siguiente: “Las fronteras entre los
diseños cualitativos realmente no existen. Por ejemplo, un estudio orientado por la teoría fundamentada abarca
elementos narrativos y fenomenológicos. Una investigación-acción puede generar codificación axial (teoría
fundamentada) cuando analiza entrevistas realizadas a participantes respecto a cierto problema de interés.
Creemos que el estudiante no debe preocuparse tanto sobre si su estudio es narrativo o etnográfico, su atención
más bien tiene que centrarse en realizar la investigación de manera sistemática y profunda, así como a responder
al planteamiento del problema” (op. cit.:713).

7
posibilidades de una clasificación a priori porque surgen de la toma de decisiones siempre
abierta que hace a la propia praxis y a la creatividad en la investigación científica.

Fue en el ámbito de la investigación experimental, y por razones que se aclararán más


adelante, en donde más se ha avanzado a la hora de tipologizar los diseños de investigación.
En ese marco, se entiende que las condiciones en que va a desarrollarse la experimentación
constituyen el diseño de la investigación.

Volveré sobre ese asunto luego, pero siguiéndole la pista a esta tradición, propondré
que un criterio ordenador, al menos para clasificar una parte de las decisiones que
comprometen un diseño, es el de referirlas a los componentes de la «matriz de datos».

De acuerdo con esto, el diseño de la investigación resultará de un conjunto de


decisiones que atañen (al menos) las siguientes cuestiones:

a. La cantidad de unidades de análisis.


b. El tipo de variables (o dimensiones de análisis) y la función que se asigna a
ellas.
c. El tratamiento de la temporalidad.

Cada una de estos asuntos puede especificarse en los siguientes términos:

a. El abordaje de las unidades de análisis, permitirá distinguir entre:


a.1. diseños de caso único
a.2. diseños intensivos
a.3. diseños extensivos
a.3.1. muestrales
a.3.2. poblacionales

b. El tratamiento y la cantidad de variables o dimensiones de análisis, permite


distinguir entre:

b.1. Estudios sin control de variables:


b.1.1. diseños univariados
b.1.2. diseños bivariados
b.1.3. diseños multivariados
b.1.4. diseños multidimensionales.
b.1.5. densos.

b.2. Estudios con control de variables:


b.2.1. diseños univariados
b.2.2. diseños bivariados
b.2.3. diseños multivariados

b.3. El tratamiento de la temporalidad:


b.3.1.diseños transversales o transeccionales.
b.3.2. diseños longitudinales:
b.3.2.1. prospectivos
b.3.2.2. restrospectivo.

8
b.3.3. diseños estructurales y/o de ciclos
(histórico, narrativo, evolutivo).

Algunas de las combinaciones posibles que surgen de estos criterios, fueron


sistematizados por Bartolini (1994) en su clasificación de la investigación descriptiva.

En dicho esquema se presentan en el eje de las «x» el número de variables o


dimensiones de análisis (Bartolini lo define como “propiedad/variabilidad), al eje de las «y»
como el eje de las unidades de análisis (en este caso los llama el eje de las “unidades
espaciales”) y finalmente al eje de las «z» como el eje de la temporalidad o las unidades
temporales.

Como voy comentarlo luego, varias combinaciones quedan fuera de esta


esquematización (porque, entre otras cosas, no considera el control de variables y porque la
temporalidad se define linealmente); sin embargo, ofrece criterios muy ordenadores a la hora
de clasificar los diseños.

La combinatoria de esos criterios, permite una organización según los tres ejes
comentados, tal como se ilustra en el siguiente esquema:

De acuerdo con esta propuesta, a la hora de caracterizar a un diseño de investigación


se pueden (o deben) invocar las estrategias específicas según resulten de la combinación de
todos estos aspectos. Así, se podría hablar de un diseño de caso único-denso; o, diseño
extensivo-multivariado-transversal; o diseño extensivo-bivariado retrospectivo, etc.

9
En algunas ocasiones a esa combinatoria se la puede caracterizar con un único
nombre, que la resume y se consagra además como un tipo de diseño utilizado en el marco de
cierta tradición, como por ejemplo “estudio de caso”, “estudio de tendencias”, entre otros.

En base a esta propuesta de Bartolini, más los criterios que ya adelanté, podemos
entonces precisar una concepción sistemática para la clasificación de los diseños.

Para ello en primer término, deberemos precisar y también distinguir el tipo o


esquema de investigación del tipo de diseño asociado a ella.

X.4. Esquemas y diseños de investigación.

Antes de clasificar los diseños es importante distinguir lo que llamamos “tipos o


esquemas de investigación” de los específicos diseños que pueden reconocerse al interior de
cada uno de ellos.

Comenzaré por recordar los tres tipos de esquemas de investigación que hemos
descripto (en la Parte II Cap. VI):

i. los esquemas DESCRIPTIVOS


ii. los esquemas EXPLICATIVOS
iii. los esquemas INTERPRETATIVOS

Como oportunamente lo señalamos los tipos o esquemas de investigación se definen


por el alcance que persiguen sus hipótesis u objetivos. Conforme con ello habíamos
distinguido a las hipótesis en:

hipótesis descriptivas; cuando se postulan atribuciones o comportamientos


específicos sobre determinados atributos;

hipótesis explicativas cuando se postulan relaciones o vínculos de


determinación causal entre atributos; e

hipótesis interpretativas, cuando se postula carácter significante o sígnico a


determinados atributos o comportamientos del fenómeno estudiado.

Estas hipótesis definían el alcance del estudio, alcance que determina entonces el
“esquemas o tipos” de investigación.

Al interior de cada uno de estos esquemas resulta posible reconocer distintos diseños o
estrategias empíricas.

Con la noción de “estrategia empírica” nos referimos al conjunto de decisiones que se


toman para testear las hipótesis o responder los problemas de la investigación.

10
ESQUEMAS Y DISEÑOS:

 Esquema (o tipo de estudio)


depende de:

 Nivel de desarrollo del tema


 Alcance de los objetivos que persigue
 Alcance de la/s hipótesis

 Diseño compromete a:

 Decisiones que se adoptan para definir la


estrategia empírica

En lo que sigue precisaré con más detalle el alcance de los diseños según los distintos
esquemas, a la luz de algunas ejemplificaciones ilustrativas.

X.4.1. El diseño en las investigaciones descriptivas3

La investigación descriptiva está orientada a

describir el comportamiento de variables, y/o identificar tipos o pautas características


resultantes de las combinaciones de valores entre varias de ellas.

Así, por ejemplo, si se propone conocer

¿cómo se enamoran hoy los jóvenes? ¿qué piensan sobre el amor?

Será necesario seleccionar una muestra de adolescentes y averiguar con ellos,


precisamente qué piensan al respecto.

Los resultados de la investigación podrían arrojar algo parecido a lo que informa el


siguiente reporte de una investigación real:

“Los resultados fueron sorprendentes. Tanto ellas como ellos colocaron en primer lugar la
atracción mutua y el amor; segundo, la confianza; tercero, la simpatía, y cuarto, la madurez
en el quinto lugar el atractivo físico (para las adolescentes ocupa la posición novena) y para

3
Todo lo que sigue desde este punto hasta el final del apartado surge –con adaptaciones y
ampliaciones- del texto Ynoub, R. (2007) El Proyecto y la metodología de la
investigación.Buenos Aires, Ed. Cengage Learning. Cap. VI.
11
las mujeres, el deseo de tener una familia e hijos (que para ellos ocupa sólo el séptimo
lugar).
Para el grupo femenino es menos importante que su pareja cocine o haga tareas domésticas.
Las relaciones sexuales satisfactorias ocupan, para ellas, el puesto número 11, mientras que
los varones les asignan el noveno lugar”.
[Investigación a cargo de la Dra. Casullo, M. Marta. ]

Como se advierte tenemos aquí los resultados obtenidos a partir de una indagación
hecha sobre una muestra de adolescentes entrevistados y los valores que presentaron algunas
de las variables trabajadas.

En este caso la variable podría haber sido lugar o importancia que le otorgan a la
atracción mutua, la confianza, la simpatía, etc. (los valores de cada una de esas variables van
de 0 hasta el número de ítems posibles, ya que se les pidió que completaran por número de
importancia el valor que adjudicaban a cada uno de ellos).

En otros casos la investigación descriptiva busca identificar taxonomías o tipologías


organizadas según algún criterio rector.

Ya hemos citado uno de los ejemplos más maravillosos en la historia de la


investigación científica: el de la famosa tabla de Mendeleiev (cuyos detalles comentamos en
el capítulo dedicado a la formulación de las hipótesis). En este caso la variable clave fue la de
los “pesos atómicos”, a partir de la cual se ordenaban un conjunto de propiedades y
características de los elementos químicos.

En esa dirección es posible reconocer investigaciones cuyo propósito es identificar


combinación características entre diversas variables (consideradas variables críticas o
esenciales) a los efectos de la construcción de perfiles tipológicos.

Así ocurre, por ejemplo, con toda investigación nosográfica sea ésta psicológica,
psiquiátrica o médica, y con cualquier estudio taxonómico4 destinado a identificar tipos o
especies; ya se trate de vivientes, obras de artes o períodos históricos.

Otra manera de evaluar conjuntamente el comportamiento de diversas variables es a


través de lo que se llama de modo un tanto genérico, correlaciones. De modo más preciso el
interés está puesto en evaluar la variación concomitante entre diversas variables.

Como ya lo precisamos en extenso (Parte II, Cap VI.2.), por variación concomitante se
entiende cualquier pauta de variación sistemática entre variables.

Así, puede ser del caso que el aumento en la talla se corresponda con un aumento
proporcional en el número de calzado o que la mayor altura de un árbol se correlacione de
manera proporcional con la mayor profundidad de su raíz.

Algunas investigaciones se proponen, precisamente, identificar este tipo de


regularidades; para evaluar cómo varían conjuntamente dos o más variables.

4
El término “taxonomía” refiere precisamente a las “normas de ordenación” o “clasificación”.
12
Eso ocurre, por ejemplo, cuando se debe validar un indicador o un instrumento de
medición de algún tipo.

Si se ha ideado una nueva prueba para medir “inteligencia para el cálculo” es


probable que interese averiguar si esa prueba “funciona bien” si mide efectivamente eso que
se propone medir (lo que llamamos oportunamente validez de la prueba).

En ese caso lo que se puede hacer es someter a un grupo de sujetos a la nueva prueba
y a otras pruebas ya existentes y ya validadas.

Lo que se espera es que los sujetos a los que les va bien con la prueba nueva, les vaya
igualmente bien con la prueba clásica, y a los que les va mal con la prueba clásica les vaya
igualmente mal con la prueba nueva. Es decir, se espera que los resultados obtenidos con
ambas pruebas estén correlacionados.

Si así no ocurriera se podría sospechar –entre otras cosas- que ambas pruebas miden
asuntos diferentes.

Hemos discutido en extenso la cuestión de la correlación y la explicación. Quedo


explicitado entonces que el hecho de la variación conjunta, no autoriza a atribuir causalidad.
La variación conjunta podría ocurrir por mero azar, porque las variables que correlacionan
miden una y la misma cosa o porque están correlacionadas con un tercer factor que explica a
ambas5.

Como síntesis, investigaciones descriptiva son aquellas investigaciones que tienen como
propósito evaluar el

a) comportamiento de una o varias variables, tomadas de


manera independiente, y/o
b) el comportamiento conjunto de variables al modo de
correlaciones (que no implican causalidad) y/o
c) la identificación de combinaciones de valores entre las
variables que definen perfiles o pautas de las unidades de
análisis.

Un caso especial lo constituyen lo que podríamos definir como:

d) investigaciones descriptivo-exploratorias.

En ellas se trata de construir variables y, por lo tanto el punto de partida son


formulaciones en las que lo único que puede indicarse es el contenido de la variable,
tentativamente formulado.

Conforme avanza la construcción clasificatoria, se pueden prever categorías o valores


de la variable y por lo tanto, precisar su alcance y los criterios que permiten distinguir un
valor de otro (volveremos en extenso sobre este asunto al tratar el tema del “tratamiento de
datos centrado en el valor”).

5
Dado que el tema fue examinado en extenso cuando nos dedicamos al asunto de los tipos de
hipótesis y en especial a las hipótesis explicativas y descriptivas no volveré sobre el particular
ahora. Cfr. Parte II. Cap.VI.2.
13
Esquemáticamente todos los sub-tipos de investigaciones descriptivas que hemos
propuestos serían los siguientes:

• Esquemas DESCRIPTIVOS

- Exploratorios

- De distribuciones

- Correlacionales

- Tipológicos

X.4.1.1. Ejemplos de diseños en investigaciones descriptivas.

Dada la enorme variedad de investigaciones descriptivas, resulta muy difícil


considerar todas las alternativas posibles.

Sólo a los fines de ilustrar algunas combinaciones posibles, proponemos las siguientes:

 univariados, con muestras extensivas o poblacionales, longitudinales. Ese


sería el caso de estudios con una sola variable, con muchas unidades de
análisis, medidas a lo largo del tiempo. Al modo de ejemplo puede citarse
el caso de investigaciones destinadas a estudiar la “evolución de la talla” de
una cierta población.

 multivariados, con muestras intensivas, longitudinales: muchas o más de


dos variables, medidas en pocas unidades de análisis, a lo largo del tiempo.
Podría tratarse de una investigación destinada a evaluar la evolución del
comportamiento (cambios de estado emocional, de nivel de atención, de
intensidad comunicacional, etc.) de un grupo de sujetos sometidos a
condiciones de aislamiento de su medio externo, durante un cierto período
de tiempo. Podrían evaluarse todos estos factores en diversos momentos
antes, durante y después del aislamiento.

 Bivariados con muestras extensivas, transversales: dos variables, medidas


en muchas unidades de análisis, en un solo momento. Como ejemplo,
podría corresponder a una investigación destinada a evaluar si el color de
pelo y el color de ojos se corresponden de manera frecuente en una
población o una muestra grande de sujetos.

 Bivaridados, con muestras extensivas, longitudinales: dos variables,


medidas en muchas unidades de análisis, a lo largo del tiempo. Por
ejemplo, investigaciones que se propongan averiguar cómo se correlaciona
la respuesta a una prueba supuestamente predictora del éxito escolar, y los
logros alcanzados en la escuela luego de un cierto período de tiempo.

14
Sólo algunas combinaciones no resultan viables como investigaciones descriptivas:
sería el caso, por ejemplo, de investigaciones de caso único, univariado, transversal. Eso
significa, la medición de una única variable, en una única unidad de análisis en un único
momento. Esa investigación tendría como resultados informaciones como la siguiente: “Juan
es rubio”.

Aún cuando se trate de asuntos cuya medición puede ser enormemente dificultosa o
excepcional; pongamos por caso “la temperatura del sol en un cierto momento”, difícilmente
pueda hacerse de manera puntual o de una única vez.

X.4.2. El diseño en las investigaciones explicativas.

A diferencia de las investigaciones descriptivas en este caso se busca determinar no


sólo el comportamiento de las variables, sino además la dependencia o vinculación que unas
variables ejercen sobre otras.

De manera más específica en este tipo de investigaciones interesa probar si el


comportamiento de una variable (o varias) puede oficiar de factor o causa explicativa del
comportamiento de otra (u otras) variables.

En principio, y manteniéndonos en un esquema explicativo simple, estas


determinaciones entre variables pueden ser probados por medio de dos tipos de estrategias:
unas correlacionales y otras experimentales.

Las consideraremos de modo independiente porque presentan especificaciones muy


distintas según los casos.

X.4.2.1. La investigación que postula correlaciones explicativas.

Ya hemos tenido ocasión de definir el concepto de correlación, pero lo hemos tratado


por referencia a los estudios descriptivos. En este caso, ampliaremos la noción, para examinar
las correlaciones que implican (o pueden implicar) causalidad.

Por ejemplo, si se afirma como hipótesis que:

La cohesión social protege contra el suicidio

De modo que:

“A mayor cohesión social menor tasa de suicidio”

Esta afirmación no sólo dice que la “cohesión social” y el “suicidio” están


correlacionadas (cuando una sube la otra baja); sino que además una es causa explicativa de la
otra.

En general nuestro conocimiento del mundo empírico nos permite reconocer cuándo
una correlación puede estar indicando una relación causal entre las variables.

15
Ese conocimiento nos permite también identificar cuál es la variable que explica y
cuál la variable explicada.

Por ejemplo, si se constata una correlación entre

nivel de consumo de carbohidratos en la dieta y peso corporal


(a mayor consumo de carbohidratos, mayor peso corporal)

no pensaríamos que el “peso” explica el “consumo de carbohidrartos” sino que el “consumo


de carbohidratos” explica el “peso”.

De modo que tendremos correlaciones que implican causalidad y correlaciones que no


implican causalidad (las que ya examinamos al referirnos a los estudios descriptivos).

-Una correlación en la que puede postularse causalidad supone que:

- una o más variables varían sistemáticamente de manera


directa o inversa con otra u otras.
- la presencia de una variable es anterior en el tiempo a otra (“la
ingesta de carbohidratos es anterior al aumento de peso”)6
- nuestro conocimiento del mundo, autoriza postular esa
relación causal,

-Una correlación no supone causalidad cuando:

- una o más variables varían sistemáticamente de manera


directa o inversa con otra u otras.
- la presencia de una y otra variable no guarda ninguna relación
de anterioridad con respecto a otra en el tiempo.
- nuestro conocimiento del mundo no autoriza a postular
relación causal.

X.4.2.1.1. Diseños posibles en la investigación correlacional explicativa.

Generalmente la investigación correlacional supone el tratamiento de muestras


extensivas o poblacionales, el que puede hacerse tanto en un mismo momento en el tiempo
(de manera transversal) o correlacionando distintas mediciones en el tiempo (longitudinal). En
cuanto al número de variables puede ser univariado (siempre y cuando la correlación se haga
en distintos momentos en el tiempo), bivariado o multivariado.

Nuevamente, a modo ilustrativo señalamos sólo algunos ejemplos de diseños


correlacionales:

 bivariados, transversales, con muestras extensivas: sería el caso de un


estudio dedicado a determinar en una muestra extensiva (al azar) la

6
Este criterio no es decisivo ya que en algunas ocasiones podría tratarse de variables que
anteceden en el tiempo y sin embargo, no ofician de variables explicativa, como es el caso de
las llamadas “variables intervinientes” que pueden contribuir a intensificar o disolver la
variación sistemática entre otras variables.
16
correlación existente entre el nivel de rigidez de los padres y el nivel o
grado de conducta anti-social de los hijos.

 bivariados, longitudinales, con muestras extensivas: a modo de ejemplo,


correspondería a una investigación interesada en conocer como evoluciona
a lo largo del tiempo el incremento en los niveles del ruido en una ciudad y
la disminución del número de aves existente en esa ciudad. Supone varias
mediciones para evaluar precisamente la evolución de ese fenómeno (en
este caso, si el incremento del ruido –si se constatara- se corresponde
sistemáticamente con una progresiva disminución de aves). Si las
mediciones se testean en diversos puntos de la ciudad entonces puede
considerarse extensiva: cada medición o cada punto de relevamiento es una
unidad de análisis distinta.

 multivariados, transversales, poblacionales: una investigación de este tipo


podría proponerse evaluar el efecto del número de hijos, el nivel educativo,
la posición en el hogar (entre otros factores) en la tasa de participación
económica de las mujeres; a través de datos censales.

X.4.2.3. El diseño en la investigación experimental.

En un sentido amplio toda la ciencia puede ser concebida como “experimental”, ya


que experimentar supone actuar inquisidoramente para poner a prueba o proponer
presunciones hipotéticas.

De un modo más restringido –conforme al uso actual del término- se entiende por
«investigación experimental» aquella en la que se postulan y se ponen a prueba relaciones de
tipo causal entre dos o más variables. En éstas la puesta a prueba se realiza bajo ciertas
condiciones “creadas” y “controladas” por el investigador/a.

La diferencia entre las investigaciones experimentales, y las correlaciones que


implican causalidad, estriba en que en las primeras es el investigador el que a través del
experimento crea las condiciones con las que espera producir un cierto efecto en el fenómeno
investigado; mientras que en la segunda la relación ya se ha dado y sólo se limita a medir o
evaluar hechos consumados.

Hipótesis que plantean relaciones que podrían dar luego a investigaciones


experimentales serían las siguientes:

“El método de enseñanza tiene efectos sobre los logros en el aprendizaje”

“El tratamiento “X” brinda mejores soluciones para combatir la obesidad que el
tratamiento “Y”

“La introducción del reactivo A acelera los tiempos de cierta reacción química”

“Sonreír mejora el nivel de atención de las personas cuando se las interroga”

No es inusual que en la vida cotidiana experimentemos de múltiples modos:

17
- introduciendo cambios en nuestra vestimenta, para ver luego qué efecto produce en
las personas de nuestro entorno;

- iniciando una dieta, para producir algún cambio en nuestro peso corporal;

-probando diversos métodos de estudio para evaluar cuál nos brinda mejores
resultados.

Sin embargo, es poco frecuente que sometamos esas experiencias a algún tipo de
control riguroso que nos permita juzgar de manera más o menos objetiva sobre los efectos
conseguidos.

Tomemos por caso la afirmación popular, según la cual

“Las plantas crecen más (o mejor) cuando se les habla”.

Imaginemos que nos proponemos averiguar si esto es efectivamente así, es decir, si


resulta posible determinar de algún modo “objetivo”, si puede confirmarse esta presunción.

Para ello deberemos realizar un experimento. Es decir, deberemos crear determinadas


condiciones de experiencia que nos permitan juzgar sobre los efectos del habla en el
crecimiento de las plantas.

De modo intuitivo podemos reconocer que, deberemos conseguir varios ejemplares de


algún tipo de planta, hablarles a algunos y no hacerlo a otros y evaluar luego qué sucede en
cuanto al crecimiento que se constata entre ambos grupos.

Ahora bien, si se lo hiciera simplemente así, en caso de constatarse un crecimiento


diferencial a favor de las que recibieron “cierta dosis de charla”, no se podrá saber si ese
mayor crecimiento se debió sólo a la charla recibida, o si existieron otros factores que
potencialmente contribuyeron en el crecimiento, pero que no estuvieron relacionados
precisamente con el asunto del habla.

Será conveniente entonces que en primer término se asegure que todas las plantas que
van a participar de la experiencia –en ambos grupos- resulten semejantes en cuanto a tipo,
calidad, edad o ciclo de su desarrollo, etc.

Deberá cerciorarse también que todas las plantas estén expuestas a las mismas
condiciones y reciban los mismos nutrientes y agua: la misma calidad de la tierra, la misma
intensidad y horas de luz o sol, el mismo volumen y frecuencia de riego, etc. (no sería
extraño, por ejemplo, que alguien perciba que “su planta crece más porque le habla”; cuando
en verdad ocurre que, como le habla, la “humaniza”, y, como la humaniza, la atiende más y
mejor que a otras, a las que solo trata como meras plantas!!).

Es posible aceptar que las plantas crecen se les hable o no se les hable, de modo que
esperaremos que ellas –las plantas de nuestras muestras- tengan una cierta disposición a
crecer con independencia del nivel de conversación o habla que reciban.

18
Pero, lo que nuestra hipótesis postula, precisamente, es que deberá verificarse un
crecimiento diferencial, a favor de las plantas a las que se les habla. De modo que la
experiencia consistirá en mantener una muestra de plantas sólo expuesta al tratamiento
tradicional mientras que la otra recibirá cierta dosis de charla cotidiana.

Podríamos, incluso, si quisiéramos ser más precisos, incluir varias muestras y


administrar distintas intensidades de charla a cada una: unos cinco minutos de charla a una,
media hora a otra, tres horas a otra… O todavía más audaces: podríamos hablarles a una en
prosa y a otras en verso… o a algunas sobre temas románticos y a otras sobre temas
mundanos. En fin, los “tratamientos experimentales” –como vamos a denominarlos- podrían
ser de muy diversa índole.

Conforme pasen los días iríamos verificando en cada caso, el nivel de crecimiento de
las plantas (en promedio, ya que tenemos varias en cada muestra) y anotando ese nivel en un
registro en el que conste también cuál es la dosis de charla que esa muestra ha recibido a lo
largo de la experiencia.

Luego de un tiempo prudencial –según sea la naturaleza de nuestras plantas-


evaluaremos los resultados, y esa evaluación consistirá en determinar si efectivamente los
resultados observados permiten concluir que hay diferencias significativas, es decir,
relevantes, entre los distintos grupos y el grupo que no ha recibido ninguna dosis de charla.

Recordemos que en este caso, nuestra hipótesis postularía algo así como:

“A mayor dosis de charla mayor nivel de crecimiento”.

Aquí hay un concepto importante a atender que es el de diferencias significativas. Ya


que diferencias siempre habrá entre los distintos grupos, desde el momento que estamos
hablando de seres naturales que se desarrollan con variaciones que oscilan dentro de ciertos
rangos esperables.

Como se advierte, una vez más, como ocurría cuando presentamos el tema de las
muestras, no topamos aquí con la gran cuestión de la variabilidad.

En cada grupo o muestras de plantas encontraremos variaciones en los niveles de


crecimiento. Variaciones “entre” los grupos, y variaciones al “interior” de cada grupo.

Lo que interesará en este caso es averiguar si las diferencias que se observan entre los
grupos se deben a las variaciones esperables por mero azar y por lo tanto se muestran
semejantes a las que se constatan al interior de cada grupo (si estos han sido conformados de
modo semejante), o, por el contrario, presentan un comportamiento diferencial, que permita
pensar que se deben a algún factor adicional.

Si esas diferencias son suficientemente importantes para sospechar que no se deben al


mero azar; tendremos elementos de juicio fundados para postular que se deben al “factor” que
hace la diferencia entre uno y otro grupo: ese factor deberá ser el que estamos
experimentando. En nuestro ejemplo, la dosis de habla.

La valoración de cuán importante debe ser esa diferencia para rechazar la suposición
de que se debe al mero azar, puede hacerse en base a técnicas estadísticas (cuyos fundamentos

19
abordaremos en los próximos capítulos). Por ahora alcanza con situar el núcleo de la idea que
sustenta cualquier tipo de diseño experimental.

X.4.2.3.1. Los componentes y las condiciones de todo diseño experimental.

El ejemplo que hemos ilustrado nos permite ahora precisar los componentes más
relevantes que deberán tenerse en cuenta en cualquier diseño de investigación experimental:

a. por una parte la presencia de una variable independiente o explicativa (en la jerga
experimental se las llama también “factor”): en el ejemplo, sería el “nivel de habla
recibido”.

b. Por otra parte, una variable (o factor) dependiente o explicado: en el ejemplo, “el
nivel de crecimiento”.

c. En tercer término, lo que se llama variables extrañas o contaminadoras, en el


ejemplo: el nivel de agua recibido, el nivel de luz, cantidad y calidad de los nutrientes
de la tierra, etc.

d. En todos los casos, la unidad de análisis de referencia que en nuestro ejemplo es: “la
planta” o los “grupos de plantas” que habremos formado a los fines de esa
investigación.

Examinemos con mayor detalle la cuestión de las variables y su función en las hipótesis y
en el diseño experimental:

Por una parte se habla de variable independiente o explicativa porque se asume, en la


formulación de la hipótesis, que es esa es la variable que permite explicar el comportamiento
de la otra u otras variables. En nuestro ejemplo y de acuerdo con la hipótesis, el nivel de habla
explica el nivel de crecimiento; de modo que «nivel de habla» es la variable independiente.

Adviértase que decimos que para la hipótesis que hemos formulado eso es así: lo que no
supone que los hechos confirmen que eso es efectivamente así.

En segundo lugar, se llama variable dependiente o explicada, porque se asume que su


comportamiento depende o se explica por efecto del comportamiento (o variaciones) de otra
variable o variables. En nuestro ejemplo: el «nivel de crecimiento» es la variable explicada o
dependiente.

No hay a priori criterios para juzgar si una variable puede o debe ser independiente o
dependiente: eso depende de cómo haya sido planteada la hipótesis. Bajo ciertas condiciones
una variable puede asumirse como independiente y bajo otras como dependiente.

Pongamos por caso, una hipótesis que postulara que:

“la motivación para el estudio, mejora el logro del estudiante”

En ese ejemplo, la «motivación para el estudio» es la variable independiente, y el


«nivel de logros» es la variable dependiente.

20
Sin embargo, podría reconocerse que de igual modo que:

“el nivel de logro mejora o contribuye a la motivación para el estudio”;

y en ese caso, lo explicado se torna explicativo y viceversa.

La función de las variables resultará del modo en que haya sido planteada la hipótesis.

Por supuesto que hay casos en que esas funciones no podrían invertirse, o al menos no
resulta fácil admitir esa posibilidad. Pensemos, por ejemplo, en el caso de una hipótesis que
postulara que

“la ingesta de dulces contribuye al desarrollo de caries”

No sería del todo admisible –por lo que nos dicta el sentido común, una hipótesis que
sostuviera que es

“el desarrollo de caries contribuye a la ingesta de dulces”

Finalmente, al tercer tipo de variables, las denominamos “variables extrañas o


contaminadoras”.

Se definen de esa manera porque resultan extrañas a la relación causal que se quiere
probar en la hipótesis, pero no son extrañas al fenómeno real investigado. Precisamente por
ello, es necesario tenerlas en cuenta y “controlar” su potencial efecto en la relación postulada.
En nuestro ejemplo, las variables extrañas serían: “nivel de riego”, “intensidad y exposición a
la luz”, “nutrientes”, etc.

Se advierte que todos esos factores no son extrañas al crecimiento de las plantas: por
el contrario todas ellas pueden influir en él. Por esa razón es necesario controlarlas: ya que
son extrañas o contaminadoras a la relación entre las variables que quiere probarse (en el
ejemplo: la relación existente entre «nivel de habla» y «nivel de crecimiento»).

Si no tuviéramos en cuenta la presencia de todos estos factores, no podríamos saber, al


finalizar nuestra experiencia, si la diferencia que observamos entre los distintos grupos de
plantas –en caso de constatarse- se debieron al “nivel de habla recibida” o a otros factores
como diferencias en el riego, en la luz, en el estado que tenían al comenzar la experiencia, etc.

Podemos ahora resumir lo dicho hasta aquí señalando que un diseño experimental
vincula tres tipos de variables: las variables independientes (VI), las variables dependientes
(VD) y VE (variables extrañas o contaminadoras):

VI VD

VE

21
El diseño busca crear las condiciones necesarias para poder valorar si el
comportamiento de la variable dependiente se debe pura y exclusivamente a los efectos
producidos por el comportamiento de la variable independiente.

De acuerdo con ello en la investigación experimental se deberá: “manipular la


variable independiente”, “medir la variable dependiente y “controlar” las variables extrañas
o contaminadoras:

VI VD
(“Manipular”) (“Medir”)

VE
(“Controlar”)

a) Manipular la variable independiente significa que el investigador/a será quién decida


cómo va asignar sus unidades de análisis a los distintos valores de las variables.

De manera práctica eso significa que los grupos (o las muestras de casos) se conforman de
modo tal que a cada uno se les asigna el valor (o nivel) de la variable independiente según los
criterios estipulados por el investigador/a.

En el ejemplo que vengo comentando, se conformarían dos o más grupos de plantas y a cada
uno se le administraría un determinado «nivel de habla».

El «nivel de habla» sería en este caso la variable independiente, y cada valor de esa variable
el criterio adoptado para formar los grupos. Tendríamos así, por ejemplo, un grupo que recibe
10 minutos de habla diario; otro 20; otro 30 y así sucesivamente (según sean los valores
considerados relevantes para el asunto que se desea evaluar).

Lo mismo ocurriría con una investigación que se propusiera relacionar el efecto de “distintos
métodos de enseñanza en los logros de un grupo de estudiantes” o el “efecto de una
terapéutica para el tratamiento de alguna afección en aves”.

En ese caso, el investigador decidirá cómo formar sus grupos de estudiantes o de aves, y qué
método aplicará a cada grupo de estudiante, o qué tipo (o dosis) terapéutica administrará a los
distintos grupos de aves.

Como se advierte, si remitimos estos criterios a la gramática del dato, se reconocen los
mismos componentes invariantes. Pero, en vez de evaluar el comportamiento de esas
variables como un dato a extraer del análisis de los hechos, adscribimos o adjudicamos
deliberadamente un valor a cada unidad (los casos o muestras) para esas respectivas variables
experimentales.

22
b) En lo que respecta a la variable dependiente se pide que sea medible. Eso significa que
debe ser posible disponer de indicadores adecuados (sensibles, confiables y válidos) para
registrar los cambios ocurridos en dicha variable –con el fin de evaluar luego si esos cambios
pueden atribuirse a la variable independiente.

Así, por ejemplo, la investigación sobre el crecimiento de las plantas, no hubiese tenido
destino, si nos hubiésemos propuesta estimar el “efecto del habla en el estado anímico de
ellas”. En principio pareciera que no disponemos de medios para evaluar los cambios
ocurridos en un supuesto estado anímico de las plantas: porque no tenemos acceso a él, no
podemos medirlo.

Ya examinamos los criterios comprometidos en la medición de cualquier fenómeno cuando


abordamos la cuestión de los indicadores. Hablamos entonces de la “sensibilidad” y la
“validez” de los mismos.

Todos esos criterios se aplican también aquí, a la hora de medir la variable dependiente.

En lo que respecta a la sensibilidad, deberá procurarse que el indicador elegido capte aquellas
variaciones que, aunque pequeñas, puedan ser relevantes para la puesta a prueba de las
hipótesis.

Nuevamente no hay criterios a priori para determinar si una variación ocurrida en la variable
dependiente es pequeña o grande. Eso dependerá de la naturaleza del fenómeno que se está
evaluando. Si en nuestro ejemplo de las plantas, trabajamos con muestras de tréboles
tendremos grados de variaciones algo distintos a los que obtendríamos si nuestras muestras
hubiesen sido de ombúes.

Unos milímetros pueden ser significativos en el primer caso, y absolutamente despreciables


en el segundo. Lo que importa es que la variable dependiente haya sido definida o puede ser
definida conforme a criterios que hagan posible su medición y que esa medición garantice de
algún modo adecuación a la escala de los fenómenos que interesan a la hipótesis.

En lo que respecta a la validez dijimos que remite a la adecuación entre la definición


conceptual de la variable y su traducción empírica. En el ejemplo, deberemos precisar muy
bien cómo se va a definir el “nivel de crecimiento”, y qué criterios se utilizarán para su
medición. Una cosa es definirlo en términos de “crecimiento en altura” otra en “calidad de los
tallos”, otra en términos de su “tasa de nuevos brotes”. Esas definiciones que son también
teóricas, deberán a su turno reflejarse en adecuados criterios indicadores.

c) Finalmente, el gran desafío del diseño experimental se cifra en lo que llamé el “control de
las variables extrañas o contaminadoras”.

Como el objetivo de la investigación experimental es averiguar qué efectos producen en la


variable dependiente las variables consideradas independientes, se debe garantizar que no
existan otras variables que influyan en esta relación.

Una de las maneras de “controlar” la situación experimental es a través de la equivalencia de


los grupos que participan en la experiencia, al menos en todos aquellos aspectos que se
consideran contaminadores para la relación entre las variables que quiere estudiarse.

23
Existen distintas maneras de formar los grupos para garantizar en alguna medida, que en todos
ellos las unidades presentan semejantes características en lo que respecta a los intereses del
experimento:

- una es la formación de grupos aleatorios: los grupos se forman asignando al azar los
sujetos a los mismos. Se espera que por mero efecto de las leyes del azar, los factores
potencialmente contaminadores se distribuyan de igual modo en las distintas muestras
(aunque por supuesto esto nunca queda completamente garantizado, como ya lo
comenté al referirme al tema de las muestras aleatorias).

- otra técnica es la técnica de bloqueo: los grupos se forman utilizando el azar más el
control de una o más variables contaminadores. Por ejemplo, si el nivel de inteligencia
constituye una variable relevante en un estudio en el que se quiere medir el efecto de
la motivación para el aprendizaje, pueden formarse “bloques” según niveles de
inteligencia medidos por algún test, y luego utilizar el azar para la selección de los
casos al interior del grupo. De esa manera, sabremos a ciencia cierta, cómo se
distribuye la “inteligencia” porque ha sido un factor controlado deliberadamente.
Luego, esperamos que por azar, el resto de los factores que influirán (o podrían influir)
en la motivación, se distribuya de igual modo entre todos los grupos.

- otra técnica es la formación de grupos apareados: se emplea la técnica de apareo


para conseguir grupos experimentales equivalentes, a partir de una medida previa en la
variable dependiente. Aparear significa emparejar los grupos por referencia a una o
varias variables. Una vez que se define cuál es la variable o variables relevantes, se
evalúa el valor que tienen todos los sujetos en esa/s variable/s (pongamos por caso
nivel de inteligencia) y se asignan los sujetos, por pares en caso de dos muestras, de
modo que a cada grupo le toquen sujetos más o menos semejantes en cuanto al asunto
considerado.

En algunas ocasiones los investigadores no pueden asignar las unidades de análisis (sean
sujetos humanos, materiales, animales, etc.) a los grupos experimentales; porque estos grupos
ya están formados previamente (por ejemplo, alumnos de distintas comisiones de una escuela;
animales provenientes de distintas granjas, etc.). De modo que en ese caso aplican la situación
experimental a alguno o varios de esos grupos, sin conocer en verdad qué características
presentan, o cómo han sido formados.

Conforme a este criterio (“manipulación de la “variable independiente”) se distinguen los:

a. diseños experimentales puros: con VI manipulada; de los

b. cuasiexperimentales: con VI asignada.

Ahora bien, aunque se controlen varios factores, siempre cabe la posibilidad de que existan
otros que el investigador no está controlando y que efectivamente afectan la relación que está
pretendiendo medir para probar su hipótesis.

En nuestro ejemplo sobre los efectos del “nivel de charla en el crecimiento de las plantas”,
cabe preguntarse: ¿podría ser del caso que resulte relevante controlar la distancia desde la que
se les habla? ¿no será posible que si se les habla demasiado cerca, “los vapores del aliento”

24
constituyan un factor que beneficia en algún modo el proceso natural del crecimiento de la
planta? ¿cuántos otros factores podrían estar influyendo y el investigador no los conoce?

Y, si en vez de estudiar el efecto del habla en el crecimiento de las plantas, se estudia el efecto
de un método de enseñanza en el aprendizaje; ¿cuántos aspectos habría que controlar para
garantizar que el progreso o fracaso de los estudiantes se debe sólo al método y no a otros
factores?: el horario en que se enseña, el contexto institucional en el que se aplica el método,
la inteligencia promedio de los estudiantes, los conocimientos previos en la materia, el clima
educativo familiar, la simpatía o antipatía del docente que enseña… es difícil decir donde
termina esa lista, siempre es posible que algún otro factor esté incidiendo de manera
sistemática en el complejo y multideterminado proceso del enseñar y aprender.

Por eso lo que se busca es implementar procedimientos que, permitan o bien controlar esos
factores (eligiendo por ejemplo, docentes con igual simpatía de modo de mantenerlos
constantes en ambas situaciones, grupos con igual promedio en sus coeficientes intelectuales,
etc.) o bien intentar que se distribuyan con igual probabilidad en los diversos grupos.

Ahora bien, si se controlan más y más los potenciales factores contaminadores o extraños, se
crean a su turno condiciones más y más artificiosas de la situación estudiada. De modo que
cuánto más controladas y excepcionales resulten esas condiciones, más difícil resulta también
extrapolar los resultados de esas experiencias a los contextos habituales en que el fenómeno
investigado se presenta.

Supongamos, por ejemplo, que deseamos evaluar si la “administración de una determinada


droga disminuye el nivel de colesterol en sangre”. Para ello debemos controlar un sinnúmero
de factores que podrían también provocar esa disminución (desde alimenticios hasta
anímicos); de modo que si deseamos comparar dos grupos de sujetos –uno al que no se le
administra la droga, y otro al que sí se la administra- tendremos que garantizar que ambos
grupos se alimenten de manera más o menos semejante durante el período del experimento, se
expongan o no se expongan a determinadas situaciones estresantes, etc. Ahora bien, si
concluimos que el grupo de sujetos que recibió la droga presentó una disminución en sus
niveles de colesterol, debemos decir también que eso ocurrió bajo ciertas condiciones fijadas
en ese experimento (el tipo de alimentación que recibieron, las condiciones de su vida en ese
período, etc.) de modo que no sabremos si el mismo efecto se constata bajo otras condiciones
alimenticias, otras condiciones vitales, etc.

Por otra parte, en algunos casos pueden ampliarse las condiciones experimentales para
mejorar los tipos de controles, pero en otros no resulta posible hacerlo por la enorme variedad
de circunstancias que deberían preverse.

En el ejemplo que acabamos de ilustrar podrían, por ejemplo, crearse nuevos grupos
experimentales sometidos a diversos tipos de dietas; pero no sería del todo factible crear otros
tantos grupos sometidos a diversas situaciones vitales, porque no siempre es posible prever
anticipadamente cuál o cuáles situaciones vitales podrían generar qué tipo de reacciones en el
organismo (¿el clima? ¿la situación familiar? ¿los logros o fracasos laborales? ¿la edad?, etc.).

Como síntesis de todo lo dicho hasta aquí, se puede reconocer que

El objetivo del diseño experimental, es evaluar la varianza producida por el efecto


de la variable manipulada (independiente) en la variable que se asume como
dependiente.

25
Para ello se debe distinguir qué parte de esa varianza (es decir, del comportamiento y pautas
de variabilidad de la variable dependiente) se deben a la variable independiente y qué parte a
los efectos producidos por otras variables o al mero error (que surge de la medición o las
condiciones experimentales).

Conforme a esta distinción tenemos:

a. la varianza primaria (es la que interesa evaluar);


b. la varianza secundaria (producida por las variables contaminadoras) y
c. la varianza error (variaciones no sistemáticas).

Teniendo presente estos conceptos podemos decir, entonces que el desideratum del diseño
experimental se resume en:

a) maximizar la varianza primaria;

b) controlar la varianza secundaria;

c) minimizar la varianza error.

Maximizar la varianza primaria, significa que el diseño busca crear las condiciones para
contrastar y captar de la mejor manera posible (con la mayor precisión, sensibilidad, etc.) los
efectos de la variable independiente sobre la dependiente.

Controlar la varianza secundaria, significa que el diseño procura tener bajo control el efecto
de las variables extrañas o contaminadores (reduciéndolo, discriminándolo, eliminándolo).

Minimizar la varianza error, significa que el diseño debe intentar que los aspectos vinculados
a los errores de medición, a la presencia de factores aleatorios o contingentes, se reduzca al
mínimo para que esos efectos no distorsionen los objetivos del experimento (de modo más
preciso: para que no intervengan en la varianza primaria).

X.4.2.3.2. Validez interna y validez externa: dos nociones en contradicción.

Las cuestiones vinculadas al “control experimental” tienen consecuencias en lo que se


denomina la “validez interna y externa” del estudio.

El concepto de validez tiene un alcance específico en la investigación experimental, vinculado


a los objetivos de todo experimento.

Se distinguen, como acabo de señalarlo, la validez interna de la externa.

Con el término validez interna se alude al grado en que pueda garantizarse que el
comportamiento o los cambios registrados en la variable dependiente se deben sólo a la
variable independiente (y a ningún otro factor). De modo tal que cuanto mayor sea el control
del diseño mayor será su validez interna.

26
Como ya lo señalé muchos factores pueden atentar contra la validez interna del estudio. Eso
significa que deberían controlarse porque pueden generar efectos que se confunden con el del
estímulo experimental.

Se pueden enumerar los siguientes (cfr. Campbell, D. y Stanley, J.; 1978:17):

a) maduración: son efectos que se producen por el mero paso del tiempo. Si se están
estudiando sujetos humanos (o cualquier viviente o incluso sistemas orgánicos) la maduración
implica que a lo largo del tiempo hay cambios producto del desarrollo, la edad, el cansancio,
eventualmente el hambre, la proliferación (por ejemplo, si se trabaja con cultivos biológicos);
etc. Pero también podría reconocerse este efecto en sistemas no orgánicos (ejemplos de ello
podrían ser la erosión, el desgaste espontáneo, cuando se estudian fenómenos naturales).

b) selección diferencial de sujetos: la asignación de los sujetos a los grupos podría


introducir sesgos no previstos y por lo tanto afectar los resultados.

c) mortalidad experimental: con este término se alude a los casos que por cualquier razón
se pierden en el proceso de la implementación experimental. Es especialmente relevante si se
planean mediciones a lo largo del tiempo, ya que cuanto más prolongados son los intervalos
entre una medición y la siguiente, más probabilidad existe de perder casos. Si esa pérdida
está sesgada es decir, si los casos que se bajan del estudio, tienen un perfil específico,
entonces los resultados finales quedarán sesgados por lo que pudieron retenerse.

d) regresión a la media: cuando se implementa la selección de los grupos según casos


extremos, con el paso del tiempo los casos podrían evolucionar hacia la media, es decir, hacia
valores más probables.

e) efectos de la historia: factores o sucesos que pueden ocurrir entre la primera medición y
las posteriores mediciones (luego de la aplicación del tratamiento) y que pueden impactar en
los resultados del estudio. Es decir, se refiere a hechos ajenos a la situación experimental,
pero que pueden afectarla. Por ejemplo si se diseña un experimento para evaluar la respuesta a
un tratamiento de la ansiedad en un grupo de sujetos humanos, y en el período en que se
realizan las mediciones se produce una catástrofe natural, es probable que dicho evento afecte
el estado emocional de los sujetos, por razones totalmente ajenas a las condiciones de la
experimentación.

f) la propia situación experimental: condiciones del diseño experimental que pueden


influir en los efectos que se miden. Condiciones vinculadas a la medición o al uso de
instrumental, que pueden variar durante el experimento o en su implementación.

g) el experimentador como variable contaminadora: es un aspecto vinculado a la


situación experimental señalada previamente. Si bien es relevante siempre, los es de modo
especial cuando la experiencia involucra sujetos humanos. Ejemplos característicos en los que
el experimentador/a puede oficiar de variable contaminadora podría darse cuando las
cuestiones de género, raza, edad, pertenencia institucional o cualquier otro factor psico-social
interfiere en las condiciones experimentales.

h) efectos retroactivos de la medida pre-tratamiento: se refiere a efectos de la evaluación


pre-tratamiento que puedan arrastrarse en las condiciones posteriores a esa medición. Si se
aplica una prueba para evaluar alguna competencia o capacidad, ésta prueba podría constituir
en sí misma una condición de aprendizaje que modifica el rendimiento posterior. Lo mismo

27
podría suceder con la administración de reactivos, drogas o estímulos específicos a las que se
somete o expone a las entidades estudiadas antes de la experimentación.

La validez externa en cambio, se refiere al grado de representatividad de la experiencia:


cuánto mayor sea la posibilidad de generalización de los resultados a otras situaciones o
contextos, mayor será su validez externa.

Generalmente la mejora o el aumento de la validez interna atenta contra la validez externa –es
decir, condiciones más restringidas o controladas implican menos capacidad de generalización
de los resultados.

La representatividad se entiende en términos de la representatividad muestral. Pero también


puede considerarse:

a) la representatividad de los tratamientos: cuán representativo son los tratamientos


seleccionados (sean éstos pruebas, estímulos, condiciones experimentales) para
evaluar aquello que se desea evaluar de modo tal que resulten aplicables (esos
resultados) a otros escenarios o situaciones,

b) de los efectos reactivos de la situación experimental: que impedirían hacer


extensivo el efecto de la variable experimental a las personas expuestas a ella en una
situación no experimental,

c) de los efectos reactivos de los tratamientos múltiples: estos efectos son


especialmente importantes cuando se experimenta con diseños intra-grupo o de caso
único porque se refiere a los efectos de tratamientos anteriores en las nuevas
condiciones experimentales. Dado que son los mismos casos los que se exponen a las
distintas condiciones experimentales, los efectos de cada tratamiento puede persistir en
los posteriores. De ese modo, los resultados alcanzados podrían estar influidos o
afectados por los efectos de dichos tratamientos previos.

La situación de artificiosidad a la que conduce el control experimental atenta, a su


turno, contra la validez ecológica, lo que pone límites a la exportación o generalización de los
hallazgos experimentales a las condiciones naturales o habituales (multideterminadas) de los
fenómenos que se investigan.

X.4.2.3.3. Ejemplo de diseños en las investigaciones experimentales.

En cuanto a la clasificación de los distintos «tipos de diseño experimental» se pueden seguir


los mismos criterios que estipulamos previamente. Conforme con ellos los estudios
experimentales pueden clasificarse según

- el “número de mediciones en el tiempo”,

- el “número de unidades de análisis o grupos” considerados y

- el “número de variables que se incluyan en la experiencia”.

28
Como toda investigación, el método experimental se basa en la comparación.

En este caso, esa comparación se realiza entre una situación definida como patrón o control y
otra situación definida como experimental: el control es la situación de referencia sin el
tratamiento experimental; mientras que la experimental es precisamente la que resulta de esta
aplicación.

La situación control y la experimental, refieren siempre a diferencias que se establecen en el


tratamiento de las entidades o unidades de análisis estudiadas.

De allí que, cuando se trabaja con sujetos se hable por ejemplo de “grupo control” y “grupo
experimental”. Pero el mismo criterio se aplica si lo que se investiga son “sustancias
químicas” o “sistemas mecánicos”. Más correcto –por ser más general- es hablar de muestra
control y muestra experimental.

En lo que respecta al número, lo habitual es trabajar con varias muestras; pero existen también
diseños experimentales en el que se trabaja sobre la misma muestra, y aún más, sobre el
mismo y único caso o unidad de análisis.

De acuerdo con esto, se pueden distinguir tres situaciones (según sea el número de unidades
de análisis y su manera de contrastarlas o compararlas):

 diseños intergrupos: se comparan varios grupos entre sí.

 diseños intragrupos: se compara el mismo grupo consigo mismo.

 diseños de caso único: se compara el mismo caso consigo mismo.

En los diseños “intergrupos”, por lo menos uno de los grupos se considerará control y otro
experimental.

En algunas ocasiones se puede trabajar con varios grupos experimentales.

Como en el ejemplo de nuestras plantas: podíamos trabajar con uno o varios grupos
experimentales, dependiendo si sólo asignábamos dos valores a la variable dependiente:

 habla /no habla

O varios valores:

 habla mucho/ habla poco/ habla nada.

Habrá que considerar tantas muestras experimentales como valores estén previstos en la o
las variable/s independientes.

En lo que respecta a los diseños intra-grupo y de caso único, el control es el mismo grupo o el
mismo caso.

Una cuestión importante en la evaluación del diseño experimental es la manera en que se


conforman los grupos, precisamente porque allí se cifra el control experimental.

29
Para que el diseño sea efectivamente experimental se requiere, entre otras cosas, que
los grupos pueden ser conformados por el investigador/a: es decir, que sea él o ella quién
asigne o seleccione los casos para los grupos.

Cuando los grupos ya están formados y se experimenta con grupos no asignados se


habla de diseño cuasi-experimental.

Otro de los aspectos que consideramos para la clasificación de los diseños


experimentales es el número de mediciones en el tiempo.

En principio, en casi todos los casos de diseño experimental puro, se tiene por lo
menos dos mediciones en el tiempo: una antes y otra después de la administración o el
tratamiento experimental. Sin embargo, en algunos casos, no se incluye la medida pre-
tratamiento o se combinan situaciones con medida pretratamiento y medida post-tratamiento
(esto permite determinar por ejemplo, si hay efectos en la variable dependiente que puedan
atribuirse a la medición pretratamiento).

En los diseños de caso único o los casos intragrupo, la medición también se hace antes
y después del tratamiento pero, esa medición se realiza sobre el mismo grupo o sobre el
mismo sujeto.

Sin embargo, es posible reconocer que una entidad es y no es la misma a lo largo del
tiempo: un sujeto, por ejemplo es y no es el mismo a los 20 años que a los 5 años. De modo
que eso que llamamos mediciones en el tiempo, podría ser definido como “unidades de
análisis en el eje temporal”: “el sujeto o el grupo en el tiempo 1”; “el sujeto o el grupo en el
tiempo 2”, etc.

En algunas ocasiones se deben considerar varias mediciones en el tiempo, ya sea


porque se introducen nuevos tratamientos (es decir, nuevos “valores de la variable
experimental”) ya sea porque interesa averiguar si el fenómeno que se evalúa (la variable
dependiente) registra cambios a lo largo del tiempo.

Por ejemplo, podría ser del caso que el “efecto de una droga sobre un organismo” no
se perciba en lo inmediato sino a luego de un cierto período, o que “el efecto de un método de
enseñanza en la mejora de los procesos de aprendizaje” resulte significativo en el corto plazo
pero nada significativo en el mediano o largo plazo. O que el efecto presente un
comportamiento en el corto plazo y otro en el mediano o el largo plazo. La segmentación
temporal tiene consecuencias en el diseño experimental, como en cualquier tipo de
investigación.

De modo que podrían tomarse varias mediciones pretratamiento y varias mediciones


post-tratamiento.

Una de las modalidades de los diseños cuasi-experimentales se denomina


precisamente de “series temporales interrumpidas”. Consiste en tomar una serie de medidas
del criterio a lo largo de un determinado período de tiempo, interrumpir la serie con la
aplicación del tratamiento y continuar, luego, con otra serie de medidas del criterio. Las
mediciones recurrentes se utilizan como un medio de sustituir la falta de control. De esa
manera se busca minimizar o eliminar las diversas fuentes de invalidez interna.

30
Finalmente en lo que respecta al número de variables, en el diseño experimental se
requiere como mínimo la referencia a dos variables (la independiente y la dependiente) y, por
supuesto, el control de las variables contaminadoras (de modo que no existen los diseños
experimentales univariados).

Sin embargo, existen situaciones en las que se pueden incluir varias variables
independientes y varias variables dependientes. Eso dependerá de la manera en que hayan
sido planteadas las hipótesis.

Supongamos por ejemplo, una hipótesis que se propone evaluar:

Cómo influye la frecuencia de uso de una palabra y su extensión; en el tiempo de


memorización de la misma.

se tienen en este caso dos variables: «frecuencia de uso» y «extensión de la palabra» como
variables independientes.

Según sean los valores (o niveles) previstos para cada una; serán los grupos necesarios
para implementar esta experiencia.

Si se prevén dos valores o niveles para cada una:

“alta frecuencia de uso” / “baja frecuencia de uso”

y “palabras extensas / palabras cortas” ;

deberán entonces formarse cuatro grupos experimentales:

a) grupo en el que se presentan palabras de alta frecuencia y extensas.


b) grupo en el que se presentan palabras de baja frecuencia y cortas.
c) grupo en el que se presentan palabras de alta frecuencia y cortas.
d) grupo en el que se presentan palabras de baja frecuencia y extensas.

Agregar más variables independientes o más valores a esas variables, supone agregar
más grupos experimentales, precisamente porque la manipulación de la variable consiste en
asignar un grupo a cada valor o nivel de la variable experimental.

Eso no ocurre cuando se agregan variables dependientes, precisamente porque esa


variable no se manipula, sino que se mide.

Si en el ejemplo, además de medir el tiempo de memorización se deseara medir


también el tiempo de retención de la palabra entonces en las unidades que conforman cada
uno de los grupos habrá que evaluar ambas cuestiones: tiempo de memorización y tiempo de
retención.

En síntesis, en lo que respecta a los tipos de diseños experimentales, según el número


de variables, se tiene:

-univariado-univariado: se emplea una variable independiente y una dependiente.

31
-multivariado-univariado: se emplea más de una variable independiente y sólo una variable
dependiente.

-univariado-multivariado: se emplea una variable independiente y más de una variable


dependiente.

-multivariado-multivariado: se emplea más de una variable independiente y más de una


variable dependiente.

X.4.2.3.4. Nomenclatura para caracterizar los diseños experimentales.

Se han establecido nomenclaturas convencionales para identificar el tipo de diseño


experimental según los criterios que ya hemos comentados.

Aunque dichas nomenclatura puede variar de un autor (o campo disciplinar) a otro;


adoptaré aquí los criterios más difundidos7. Conforme con ellos se usa:

 La letra R para indicar que los grupos experimentales se han conformado


aleatoriamente (los casos se “asignaron” aleatoriamente a los grupos);

 La letra X refiere a la condición experimental, cualquiera sea ella: la


administración de una droga, la implementación de un tratamiento, la exposición a
un estímulo, etc.

 La letra O indica la medición del atributo o factor que se considera dependiente


(sean unos o varios los factores considerados). Si son varias las mediciones se
especifican también con un sub-índice: O1; O2; O3 y así sucesivamente.

 La letra G refiere a los grupos o muestras incluidas en el estudio. Se indica con


subíndice el número de los mismos: G1: grupo 1; G2: grupo 2; G3: grupo 3; y así
sucesivamente.

 El signo __ indica “grupo control” (o lo que es lo mismo: que el nivel de la


variable independiente es “nulo o cero”).

Cuando las X y O se presentan en una fila se aplican a los mismos grupos, cuando se
presentan en forma vertical refieren a simultaneidad.

Así, por ejemplo, una presentación como la siguiente:

G X O

Significa: un solo grupo (O), al que se ha sometido a una única situación o tratamiento
experimental (X).

7
Al respecto puede consultarse los criterios utilizados en Campbell, D.; y Stanley, J.
(1978:18); Hernández Sampieri (op.cit.:186); Pereda, S. (1986:250).
32
Por supuesto que este tipo de estudios adolece de falta de control y estrictamente no
constituye una modalidad experimental. Se los puede identificar como preexperimentales.

Una formulación como la siguiente, correspondería, por ejemplo, a un diseño “pretest-


postest de un solo grupo”:

G O1 X O2

Incluso un diseño como éste sería pre-experimental por ausencia de controles y


manipulación.

Los diseños propiamente experimentales serían aquellos que incluyen grupos controles
y asignación a los grupos. Así, por ejemplo, un ejemplo de diseño con controles sería como el
siguiente –sin pre-test- (con asignación aleatoria a los grupos):

RG1 X O1
RG2 __ O2

Este diseño contempla dos grupos, a uno se lo expone a la situación o tratamiento


experimental, mientras que al otro no. Luego se mide en ambos grupos, la variable
dependiente.

Un diseño más robusto que el anterior, incluiría además un pre-test:

RG1 O1 X O2
RG2 O3 __ O4

Este diseño podría corresponder a una investigación que se propone evaluar el efecto
de un estímulo ambiental (p.ej.: “música funcional”), en el rendimiento de un grupo de
trabajadores. Tenemos entonces la variable dependiente que es “rendimiento” (eventualmente
se estipulará con qué indicadores se mide, según sea la naturaleza de la producción o el
trabajo evaluado). La condición experimental se reduce a “presencia / ausencia” del estímulo
(con o sin música ambiental).
El ejemplo podría ampliarse más si además se incluyen distintos estímulos, es decir, si
se amplían los niveles de la variable experimental (p. ej. “música funcional” y
“luminosidad”). De modo que es el mismo caso anterior, ampliado a tres grupos se expresaría
de la siguiente manera:

RG1 O1 X1 O2
RG2 O3 X2 O4
RG3 O5 __ O6

Como se advierte se incluye un nuevo grupo experimental ya que se han ampliado los
niveles de la variable manipulada. Nuevamente se propone aquí la medición pre-tratamiento
en todos los grupos y la asignación al azar para conformar los mismos.

La asignación al azar neutraliza buena parte de las principales fuentes que podrían
afectar la validez interna del diseño (se espera que, con alta probabilidad, las variables

33
contaminadoras en el rendimiento estén presentes de modo semejante en ambos grupos). De
igual modo, al aplicar a todos los grupos la preprueba se espera que sus efectos resulten
similar para todos los grupos.

Los diseños “multigrupos” pueden ampliarse de muchas maneras. Sin embargo, las
bases generales quedan reflejadas en los comentarios precedentes.

Algunas combinaciones más complejas, reciben una denominación específica. Así


ocurre, por ejemplo, con los diseños denominados “grupos de Solomon” (en referencia al
investigador que propuso este diseño); diseños de “cuadros latinos”; “diseños factoriales”.

El diseño de “grupos de Solomon” consiste precisamente en la conformación de cuatro


grupos: dos experimentales y dos controles, dos con pre-prueba y dos sin ella, resultando la
siguiente combinatoria:

RG1 O1 X1 O2
RG2 O3 __ O4
RG3 __ X2 O5
RG4 __ __ O6

Es un diseño útil para verificar el efecto de la “pre-prueba” sobre la “post-prueba”.


Precisamente porque se comparan el efecto del tratamiento experimental y no-experimental
con y sin pre-prueba.

Los “diseños factoriales” agregan una complejidad adicional: que es la de considerar


el efecto conjunto de más de una variable.

Todos los casos anteriores, consideraban una sola variable independiente. Los grupos
expresaban simplemente los “distintos valores de esta variable” (es decir, los distintos niveles
de tratamiento experimental). Sin embargo, podría considerarse más de una variable
independiente (cada una de las cuales tendrá a su turno sus específicos niveles de
tratamiento). Eso es lo que expresan, precisamente, los llamados “diseños factoriales”.

Si consideramos dos variables o tratamientos experimentales, con dos valores cada


uno, tendríamos entonces cuatro condiciones o grupos experimentales. Este caso
correspondería al ejemplo de “la evaluación del tiempo de memorización según «frecuencia
de uso» y «extensión de la palabra» –que ilustré previamente-.

Como lo señalamos entonces, se tendrán cuatro condiciones experimentales, una para


cada una de las combinaciones propuestas, tal como se ilustra en la siguiente tabla:

Extensión de la palabra
Extensas Cortas
Frecuencia de uso (Xa1) (Xa2)
Alta Extensas/Alta Cortas/Alta
(Xb1) (Xa1b1) (Xa2b1)
Baja Extensas /Baja Cortas/Baja
(Xb2) (Xa1b2) (Xa2b2)

34
Si se incrementan el número de factores, o los niveles de tratamiento de los mismos, se
incrementarán consecuentemente las combinaciones y por lo tanto la cantidad de grupos que
deberán evaluarse en el diseño.

Luego las aplicaciones podrán hacerse sobre distintos grupos (se los denomina
entonces “medidas independientes”) o sobre los mismos grupos o casos (se hablará entonces
de “medidas repetidas”).

Las combinaciones de los diseños experimentales dan lugar a una gran cantidad de
opciones, cuyo tratamiento excede los objetivos de este libro. Aquí hemos situado los
conceptos básicos del diseño experimental, por lo que remitimos a la bibliografía de
referencia para ampliar esta presentación introductoria.

Consideramos que el manejo de dichas nociones, constituye una herramienta


suficiente para comprender las bases de esta estrategia de investigación. Lo importante será
tener claro cuál es el alcance del diseño experimental, que aspectos o condiciones deberán
tenerse en cuenta para garantizar su validez (tal como la hemos descripto) y en base a ello
orientar las decisiones según sean los objetivos de cada investigación.

X.4.2.3.5. Límites y alcances del diseño experimental.

Aunque la investigación experimental tiene ganada cierta reputación por la rigurosidad


de su método, y por la relativa certeza que brindan sus resultados; lo cierto es que la ciencia
no se reduce al uso de este único diseño.

Eso por varias razones.

Por una parte porque un sinnúmero de fenómenos no pueden ser abordados por medios
experimentales. Así, por ejemplo, un astrónomo no podría seleccionar distintas galaxias para
hacerlas chocar y evaluar luego qué efecto tiene ese choque según sean las características de
aquellas. En todo caso si tiene la suerte de hallar un fenómeno de esa magnitud (como le
ocurrió a los investigadores que seguían las imágenes que enviaba el telescopio espacial
Spitzer) sólo podrá examinar y describir sobre el hecho consumado los efectos que se
producen, al menos aquellos efectos que esté en condiciones de captar, medir, reconocer para
evaluar retrospectivamente los factores que podrían haberlo generado.

De igual modo, otros hechos (menos excepcionales), pueden resultar igualmente


inabordables por medios experimentales. Ya sea por cuestiones éticas (no sería para nada
aceptable una investigación que seleccionara distintas familias para someter a alguna de ellas
a violencia familiar y averiguar luego qué le ocurre a sus miembros!!) ya sea por accesibilidad
en el tiempo (no se puede experimentar con hechos pasados, por ejemplo) o porque no existe
ninguna posibilidad de asignar a las unidades a distintos grupos, ni manipular sus niveles de
tratamiento. Si se quiere probar “que el nivel educativo de las personas determina el número
de hijos que llegan a tener al final su vida fértil”, parecería que no resulta posible manipular
esas condiciones. No será el equipo de investigación el que decida a qué sujetos le asignará o
le indicará determinado nivel de estudios y a qué sujetos otro nivel, para luego evaluar cómo
se comportan en términos de su tasa reproductiva.

Pero además de estas limitaciones éticas y materiales, la utilización de métodos


experimentales no garantiza por sí mismo riqueza ni profundidad de un trabajo investigativo.

35
Pueden investigarse asuntos absolutamente triviales, o asuntos absolutamente relevantes
aplicando estrategias experimentales. Eso no depende de la técnica empleada, sino de la
riqueza de las hipótesis formuladas.

Por lo demás, aunque el método experimental pueda utilizarse sin tener un fundamento
claro sobre los modelos que sustentan las variables estudiadas, estos modelos se necesitarán
para interpretar los hallazgos que resulten de la experimentación. Y estos modelos surgirán de
métodos y estrategias que van más allá de la investigación experimental.

Así, por ejemplo, podría utilizarse el diseño experimental para probar la eficacia de un
cierto tratamiento terapéutico, pongamos por caso, para combatir la alopecia.

Esa investigación podría por ejemplo, informarnos que el tratamiento A es más


efectivo que el B. Pero ese resultado nada nos dice sobre las razones de la supremacía de A, si
antes no tenemos un modelo, representación o conocimiento de las razones por las que A
combate –o puede combatir- la alopecia.

Todo este conocimiento, proviene de indagaciones observacionales, descriptivas,


interpretativas. De modo tal que, el diseño experimental, se verá siempre enriquecido y
complementado con y desde otro tipo de indagaciones y estrategias de investigación. Son esas
otras estrategias las que van a proveer las hipótesis explicativas y la posibilidad de identificar
(aunque sea tentativamente) las variables relevantes para su testeo experimental o las que van
a brindar los criterios para interpretar y explicar los hallazgos alcanzados con la
experimentación.

X.4.3. La investigación interpretativa.

Recordemos que definimos a este tipo de investigación como aquella que asume al
objeto de investigación como “signo o material significante”, conforme con lo cual la
investigación consiste en validar una hipótesis de interpretación.

Propusimos tres tipos de investigaciones interpretativas:

a) Por una parte las investigaciones hermeneúticas propiamente dichas,

b) Por otra, las que se enrolan en el llamado paradigma cualitativo,

c) Y, finalmente, la investigación histórica.

Los criterios para la clasificación de los diseños pueden aplicarse a cualquiera de estos
tres tipos de investigación interpretativa.

Una vez más nos mantendremos dentro de la lógica que aplicamos para las restantes
clasificaciones. Al igual que lo hicimos previamente, podremos considerar aquí los siguientes
criterios:

a) el número de unidades de análisis; según el cual se pueden distinguir:


- estudios de casos.
- muestras intensivas.

36
b) el número de variables o dimensiones de análisis, que en estos estudios
podrán ser:

- multidimensionales y/o
- densos.

c) el tratamiento de la temporalidad, contemplando las siguientes alternativas:

- longitudinales.

- transversales o transeccionales.

- estructurales y/o de ciclos: histórico, narrativo,


evolutivo, etc.

Estos criterios pueden aplicarse cualquiera sea el enfoque y el tipo de investigación


que se proponga. La investigación interpretativa puede abordar asuntos tan variados como el
análisis de películas, cuentos, novelas, historia escrita, publicidad, relatos de pacientes en
psicoterapia, obras musicales o plásticas, discursos políticos, científicos, entre infinidad de
temáticas.

A su turno es posible identificar este tipo de investigación en disciplinas como la


antropología, la etnografía, la lingüística, la semiótica, la psicología, la psicología social la
investigación de arte e incluso la sociología.

Ahora bien, cualquiera sea el material analizado y cualquiera sea el procedimiento o


tratamiento interpretativo, siempre será posible precisar cuáles serán las “unidades de
análisis” focales del estudio; cuáles serán (aunque más no sea tentativamente) los aspectos a
analizar de ellas; y cómo será el enfoque de la temporalidad desde el cual se organiza ese
análisis.

De modo tal que una vez más (al igual que lo hicimos con la clasificación de los
diseños descriptivos y explicativos) propondremos una clasificación de los diseños basada en
estos criterios.

En lo que respecta a las unidades de análisis consideramos dos alternativas porque


suelen ser las más frecuentes: a) el estudio de caso y las b) muestras intensivas.

Los estudios de caso pueden corresponder a estudios sobre “historias de vidas”;


“comunidades”; análisis de una “película”, una “obra de arte”, una “narrativa”; un “artista”,
etc. De igual modo en la investigación histórica se podría hablar de «casos», si se analiza un
“acontecimiento” (la “batalla de Farsalia”), un “período histórico” (=la Alemania del III
Reich) o un personaje decisivo de la historia (Perón, Napoleón, Juana de Arco, etc.).

Ya he comentado que en el análisis de todo «caso» nos la tendremos que ver con
«pluralidad de casos» (cfr. Parte II. Cap.VIII y Cap.IX). El «caso» será el universo o unidad
de síntesis, a partir de la cual identificaremos las unidades de análisis. Así, por ejemplo, si
estudiamos una biografía, entonces nos detendremos en el análisis de acontecimientos de su
vida, de períodos o ciclos, o etapas, etc. Estas serán las genuinas unidades de análisis. Sin

37
embargo, al momento de identificar las muestras del estudio, las definiremos por referencia a
la entidad o entidades focales. De modo que resulta correcta la denominación de estudio de
caso, cuando así corresponda.

En cuanto a las muestras intensivas me detuve en extenso sobre el particular al


referirme al tema de muestras (cfr.Cap. IX). Las definimos como muestras de pocos casos o
un número reducido de ellos.

En general serán además muestras finalísticas o intencionales, es decir, los casos se


seleccionan de manera deliberada, según un criterio o perfil definido a priori (opuestas en ese
sentido a las muestras al azar o aleatorias).

Habrá que justificar muy adecuadamente las razones que fundamentan el referido
perfil (debe ser coherente con el marco conceptual y en particular con objetivos, hipótesis y
problemas formulados); y, de igual modo, se debe mostrar que la selección del caso se realiza
conforme a dichos criterios.

Este tipo de muestras se utilizarán por ejemplo, en estudios de opinión,


representaciones sociales, análisis de medios, análisis narrativos o literarios, análisis de obras
de arte, etc. En todos los ejemplos, se abordarán un número reducido de unidades, para un
análisis en profundidad.

En cuanto a la cuestión de las variables o dimensiones de análisis, señalé


oportunamente las limitaciones que las tradiciones interpretativistas encuentran en el concepto
de “variable”. Sin embargo, adoptando las definiciones que hemos dado en esta obra, el
término variable puede ser entendido como “asuntos o dimensiones de análisis”. En tal
sentido, puede reconocerse que también en las investigaciones interpretativas (cualquiera sea
su enfoque y cualquiera sea el asunto investigado) se deberán definir los específicos asuntos
que se tendrán en cuenta en el análisis de las respectivas unidades.

En algunos casos dichas dimensiones de análisis, tendrán carácter tentativo, ya que


terminarán de precisarse en el marco del proceso mismo de la investigación (como ocurre en
la llamada “investigación cualitativa”). Pero aún en esas situaciones será posible (y necesario)
definir criterios generales que orientarán la aproximación al tema porque estarán –
inevitablemente- implicadas en las formulación de los problemas de investigación.

En relación a este enfoque, definí el criterio como “multidimensional”, entendiendo


que en todo análisis en profundidad –como es el que se sigue en estudios interpretativos- se
cotejarán múltiples dimensiones de análisis. Lo llamé “multidimensional” para distinguirlo
también del término “multivariado” que remite además a específicos tratamientos de corte
estadístico.

De igual modo, utilicé el término “denso”, proveniente de la tradición antropológica.

Fue Cliford Geertz (1993) quien propuso este término –tomado a su turno de Gilbert
Ryle-, para describir las características del análisis (o interpretación) antropológica.

Ryle utiliza el término para diferenciar la “descripción superficial” de esa “descripción


densa” que permite “reflexionar sobre el pensar” o “pensar pensamientos”, como él mismo lo
expresa. En verdad el concepto de descripción densa alude a las múltiples capas
interpretativas que caben a cualquier acción humana. Así, por ejemplo, Ryle analiza la

38
“acción de cerrar un ojo”, que puede ser un tic (hecho cuasi-físico) o un guiño (“hecho
semiótico”). Pero el mismo guiño bajo ciertas condiciones, puede ser una burla –al supuesto
guiño de otro- y a su turno, un nuevo guiño podría ser una parodia de la burla anterior y así
sucesivamente. Su idea (convergente con la concepción hermeneútica que adoptamos aquí), es
que toda significación puede tomarse como un nuevo material significante para extraer
significaciones posteriores.

Dado que Gertz concibe a “la cultura como un hecho semiótico”, como un conjunto de
textos; conforme con el cual las sociedades contienen en sí mismas sus propias
interpretaciones; la tarea del análisis etnográfico consiste en aprender a acceder a esos
sentidos. (Geertz, C. 1993: 372).

Es en esa dirección en la que se aplica el concepto de “descripción densa”.


El antropólogo trabaja con “interpretaciones de interpretaciones de otros”. De modo que su
material es siempre de múltiples capas de significación, de múltiples capas de interpretación.
Multiplicidad de estructuras conceptuales complejas –dice Geertz- muchas de las cuales están
superpuestos o entrelazadas entre sí. El análisis consiste en desentrañar esas estructuras de
significación.

Esta es la idea que quise rescatar al incluir este concepto como una manera de situar el
alcance mutívoco de las dimensiones que se comprometen conjuntamente en toda
interpretación. Como se puede advertir no me refiero sólo a una “dimensión de análisis junto
a otra” sino una “dimensión de análisis a partir de otra”. Es decir, las múltiples capas a las
que aluden estos autores refieren a distintos niveles de análisis de un mismo fenómeno. Si lo
dijéramos en base al modelo del “sistema de matrices de datos”: lo que es valor de una
variable en un nivel, se transforma en valor de un indicador para otro nivel”. A modo de
ejemplo: “el rojo” como valor de la variable «color»; puede ser indicador de otra variable,
pongamos por caso «ideología». El nuevo sentido emerge de un campo se significación que
va más allá de la significación cromática de la que surge. La nueva significación resulta de
una convención social, según la cual “rojo” remite a cierta ideología política.

Finalmente, consideramos la temporalidad como un tercer criterio clasificatorio de los


diseños.

Para la tradición del paradigma cualitativo un rasgo distintivo de la investigación


cualitativa es que está “orientada al proceso” (por oposición al paradigma cuantitativo al que
ubica “orientado al resultado”). Más adelante revisaré los fundamentos de este supuesto. Pero,
por ahora, podemos reconocer que la cuestión de la temporalidad presenta características
peculiares en la investigación interpretativa.

En principio, y en un sentido general, se puede reconocer que también los estudios


interpretativos pueden ser: transversales o longitudinales –del mismo modo que pueden serlo
los descriptivos o los explicativos-.

Si es longitudinal, podría ser que se interese por los cambios en la significación de


algún fenómeno a lo largo del tiempo. Por ejemplo, un estudio dedicado a evaluar los
“cambios en las representaciones de la mujer en la pintura europea de siglo XX”.

Si es transversal o transeccional, se interesará por el análisis en un momento


específico. En base al ejemplo anterior, podría ser que en vez de rastrear los “cambios en las

39
representaciones de la mujer” a lo largo de un período, se proponga la comparación entre
obras del mismo período.

Sin embargo, en la investigación interpretativa parece necesario considerar a la


temporalidad más allá de una mera secuencialidad (prospectiva o retrospectiva).

Por eso propongo aquí, la noción de ciclo que suponen por una parte secuencialidad,
pero por otra y conjuntamente la de clausura y cierre. De modo tal que, cuando se habla de
ciclo se habla al mismo tiempo de algo que tiene secuencialidad pero también configuración,
totalización o simultaneidad (y en tanto tal se captura transversalemente, como un todo).

Así, por ejemplo, si el material de análisis es una “narrativa”, y lo que interesa es


evaluar cómo se organizan los ciclos narrativos en ella, este análisis no es meramente
secuencial o longitudinal, ni meramente transeccional. Es una y la otra cosa, porque del
análisis de la secuencias de acciones se pueden identificar patrones o configuraciones
estructurales.

Lo mismo ocurre por ejemplo, con las llamadas “historias de vida”. La narrativas de
una historia de vida, podría corresponder a un tratamiento “longitudinal retrospectivo” (ya
que, quien narra la historia de su vida, narra desde la perspectiva del presenta hacia el
pasado). Pero si lo que interesa es el modo en que esa persona construye “aquí y ahora” esa
historia, en verdad es transeccional. De modo tal que no parece corresponderle estrictamente
ni una ni otra denominación completamente.

La cuestión de la temporalidad ha sido -y sigue siendo- motivo de reflexión en la


investigación histórica. Como lo sostuvo P. Vilar: “No es el tiempo el que determina los
hechos sino viceversa: el tiempo es un producto de la historia”.

De cualquier modo la distinción entre cronología y tiempo histórico es un asunto que


ha abierto múltiples reflexiones en el campo de la investigación histórica8. Reflexiones que
también se aplican a la hora de situar el tratamiento de la temporalidad en cualquier
investigación interpretativa (en esta dirección se ha distinguido también el tiempo objetivo y el
tiempo subjetivo).

Es por ello que, sin pretender cerrar o resolver el tema, propongo aquí un tercer
criterio que remite al tiempo “histórico” –al que también denomino evolutivo o cíclico dado
que en todo análisis evolutivo interesa tanto el desarrollo como la configuración de estadios o
etapas-.

8
“El tiempo de la historia no es el tiempo de la física, confusión entre tiempo histórico y
tiempo cronológico. En resumen, en la cronología es únicamente el tiempo físico, que en
modo alguno opone al tiempo histórico; surge para establecer un antes y un después, y en ese
sentido, es un primer principio clasificatorio aplicado al proceso temporal. Las diversas
culturas han poseído y poseen una concepción muy diferente de la significación del tiempo,
siendo la más conocida discrepancia la que se establece entre tiempo circular y tiempo lineal
(occidental-tradición judeocristiana). (…)El tiempo interno o histórico está configurado por las
distintas transformaciones o cambios en los acontecimientos (vertiente del tiempo desde la
perspectiva rapidez o lentitud). En definitiva, ese tiempo histórico es tanto ese tiempo físico,
como el tiempo “construido” que se interioriza en lo histórico-colectivo (en la vivencia de los
individuos y el colectivo).”. (M. Ruiz, 2010).
40
Por lo demás, al definir a las “unidades de análisis” como “entidades espacio-
temporales” postulamos que siempre será necesario asumir alguna definición temporal de las
mismas. Lo que supone entonces una fundamentación conceptual de dicha fragmentación del
tiempo. Esas decisiones tendrán –como es fácil advertirlo- consecuencias en el modo de
concebir el objeto de investigación y en los resultados que se alcancen a partir de esa
modalidad de abordaje.

Esta cuestión no atañe sólo a las investigaciones interpretativas. Cada vez que se fija
un criterio de “corte temporal” se deberá fundamentar el mismo. Cuantos más elementos de
juicio tenga el investigador/a para justificarlo más validez tendrá el dato o la información que
resulte de ese recorte.

Ese criterio podría vincular diversos niveles y contextos. Así, por ejemplo, podría ser
de interés que en una evaluación longitudinal epidemiológica (destinada a medir procesos de
“salud y enfermedad”) se tomen en cuenta los “ciclos migratorios y/o laborales de esa
población”. Si, por ejemplo, se realiza en zonas rurales, en las que se cosecha algodón
entonces “los ciclos del algodón” (siembra, cosecha, etc.), podría ser el criterio de corte en ese
estudio longitudinal epidemiológico. Aún cuando aquello que va a evaluarse no esté de modo
directo vinculado al algodón, se asumirá que, sin embargo, esos procesos o ciclos económico-
productivos impactan en los procesos o ciclos sanitarios de esa población.

Esto constituye un criterio general para cualquier tipo de investigación, y por supuesto
también para las investigaciones interpretativas. Así, por ejemplo, la noción de ciclos vitales
(en una historia de vida) o de ciclos narrativos (en el análisis de un relato) o de períodos o
ciclos históricos (en el análisis histórico) constituirán “decisiones a tomar” o “criterios a
construir” como parte de la producción y el análisis de los datos.

X.4.3.1. Los tipos de diseño en la investigación interpretativa.

A modo de síntesis, algunos de los diseños que podrían definirse como combinaciones
de todos los criterios propuestos, serían los siguientes:

 Densos o multidimensionales, muestras pequeñas, transversales. A modo


de ejemplo, podría ser un estudio dedicado a evaluar actitudes, valoraciones
y representaciones asociados a un cierto producto comercial en distintos
grupos de potenciales consumidores. Podría ser una investigación de
mercado, que se implementan a través de grupos motivacionales y en donde
se trabaja a partir de los discursos que espontáneamente vierten las
personas cuando se les pide que describa las propiedades que reconocen en
un cierto producto, o en relación a los fines para el que está destinado, etc.

 Caso único, densos, históricos. El ejemplo más característico corresponde


a los estudios de “Historia de Vida”. En ellos se profundiza en los aspectos
biográficos de un sujeto, considerados en la perspectiva de un determinado
aspecto focalizado por los fines de la investigación. A partir de ese relato se
examina dicha experiencia en el contexto de la plenitud biográfica de una
persona concreta. Lo importante es justificar las razones por las que se
elige un determinado caso, como emblemático o representativo del asunto
investigado.

41
También podrían corresponder a este tipo de diseños, las investigaciones
dedicadas al estudio de una determinada obra de arte, que se elige por ser
emblemática de un cierto período o autor, o por presentar características
distintivas para ilustrar algún aspecto que interesa a la investigación.

 Multidimensionales o densos, muestras pequeñas, longitudinales


(prospectivos). Podrían tratarse de investigaciones similares a la primera
que hemos citado, pero en la que interesa comparar los aspectos valorativos
o actitudinales a lo largo de un cierto período –evaluando, por ejemplo, si
se advierten cambios por efecto de una cierta experiencia vital, social,
comunicacional, etc.

 Multidimensionales, muestra intensiva, transeccional. Podría corresponder


a una investigación destinada a analizar interpretativamente, los horóscopos
aparecidos en las principales revistas de moda, en un cierto momento X en
base a análisis de contenido (fijando de modo anticipado algunas
dimensiones de análisis).

X.4.3.2. Comentarios adicionales sobre los fundamentos y características de la


investigación cualitativas.

En diversos pasajes de este libro me detuve en el examen de la llamada investigación


cualitativa.

Quisiera, volver ahora sobre el asunto, para precisar esas características, y para evaluar
luego la vinculación (o posible integración) de ese enfoque con otras estrategias de
investigación.

Las definiciones que se ofrecen a la hora de caracterizar la investigación cualitativa


son tan amplias y variadas como autores se refieren a ellas. Se reconoce incluso que no hay
una sola forma legítima de hacer investigación cualitativa, ni una única posición o
cosmovisión que la sustente ni una orientación común en toda la investigación social
cualitativa (Mason, 1996; Silverman, 2000; citado en Vasilachi de Gialdino; 2006).

Como lo reconoce Vasilachi “la respuesta a la pregunta, ¿qué es la investigación


cualitativa? Depende de cuál sea el enfoque, la tradición seleccionada entre las múltiples y
muy diversas perspectivas a las que se aplica ese vocablo. Esa presencia simultánea de
distintas orientaciones que difieren en cuanto a su desarrollo, presupuestos y métodos, en
cuanto a sus concepciones acerca de la realidad social y respecto de aquello que constituye
una evidencia cuando se trata de conocerla, determina la imposibilidad de sostener que la
validez de la investigación cualitativa está ligada exclusivamente a una determinada forma de
hacer investigación, que responda a las prescripciones de una entre esas variadas perspectivas
y tradiciones” (Vasilachi de Gialdino, I.; op.cit.:2)9.

9
Algunos autores llegan aún más lejos, sosteniendo que en verdad la llamada “investigación
cualitativa” constituye más bien un “espacio o arena del criticismo de las ciencias sociales”
antes que un tipo particular de teoría, metodología o filosofía (Schwandt 2003). Como lo
señala Merlinsky, G. (2006): “Este debate incluye el cruce paradigmático ente el
interpretativismo, el constructivismo, la filosofía hermenéutica, los estudios culturales, el
post-estructuralismo y el postmodernismo, por citar algunos de los géneros en disputa. Esto
42
Pese a la disparidad de posiciones, se puede reconocer, sin embargo, que esta tradición
se fue consolidando en respuesta y resistencia al positivismo de la ciencia clásica (que dominó
las llamadas “ciencias duras” en sus orígenes, pero que se extrapoló luego a las ciencias
sociales y humanas).

Lo cualitativo se definió así por oposición a lo cuantitativo (identificando a esto


“cuantitativo” como paradigmático de ese positivismo clásico). Pero en torno a esta primera
dicotomía se situaron también otras tantas oposiciones, que caracterizan (o se pretende que
caracterizan) a esos meta-paradigmas: lo comprensivo se opuso a lo explicativo; el
conocimiento de lo singular al conocimiento de lo general; la valoración de lo subjetivo a la
búsqueda de lo objetivo; lo deductivo a lo inductivo, la perspectiva procesual a la estática
entre otras10.

De cualquier modo, la hegemonía de la tradición cualitativista y cuantitativista fue


variando a largo del desarrollo de las ciencias sociales. Así, por ejemplo, durante el
predominio de la llamada “Escuela de Chicago” (1915 a 1935 app.), la perspectiva dominante
era la humanista/cualitativa (estudios basados observación participante e historias de vida).
Luego, durante finales de los treinta, cobró impulso la investigación basada en técnicas de
encuesta y de experimentación, subsidiarios a los tratamientos de datos estadísticos –es decir,
al predominio del enfoque “cuantitativo”11.

El desarrollo de estos enfoques cuantitativos (acompañados de avances en las técnicas


estadísticas y recursos informatizados para su tratamiento) hizo que se fuera consolidando la
idea (al menos para ciertas orientaciones de investigación social) de que los datos y análisis
cualitativos son importantes en las fases preparatorias y en las investigaciones exploratorias o
de pilotaje, pero no sirven para la contrastación y justificación de hipótesis teóricas (Alvira,
1983; citado en Bericat; E.; op.cit.:26).

Sin embargo, frente a estas posiciones, se alzaron muy distintas voces que reclamaron
un lugar propio y plenamente válido para la investigación social dentro del marco de la
investigación cualitativa.

Por una parte la perspectiva comprensivista –inicialmente fundada por Weber- fue
retomada por los trabajos de Schutz (1972) –incorporando además la fenomenología de cuño

torna aún mas difícil, aunque por eso menos provocativa, la tarea de organizar un discurso (y
una práctica, si eso fuera posible dada nuestra acotada intervención pedagógica) coherente y
comprensible acerca del uso de las técnicas cualitativas en el trabajo de campo” (op.cit.: 28).
10
"En resumen -expresan Ch. Reichardt y Th. Cook- del paradigma cuantitativo se dice que
posee una visión global positivista, hipotético-deductivista, particularista, objetiva, orientada a
los resultados y propia de las ciencias naturales. En contraste, del paradigma cualitativo se
afirma que postula una concepción global fenomenológica, inductiva, estructuralista,
subjetiva, orientada al proceso y propia de la antropología social” (Cook, T.D. y Reichardt,
Ch.S.; 1986:29).
11
Un exhaustivo examen de todo este período y los relativos predominios cualitativos y
cuantitativos en la tradición de la investigación social se puede encontrar en Forni, F. (1993) y
también en Valles, M. (1998).
43
husserliano-. Esta corriente junto al interaccionismo simbólico12 y la etnometodología13
dieron nuevo impulso a los fundamentos teóricos de las orientaciones cualitativistas.

Por otra parte, las ciencias clásicas, y los fundamentos epistemológicos que las
sustentaban, fueron objeto de importantes revisiones por parte de autores como Popper,
Lakatos y Khun. Las concepciones de verificación y testeo de hipótesis, tal como se habían
formulado desde el positivismo clásico (incluido el Círculo de Viena) encontraron un límite
epistemológico difícil de resolver (desde esos propios paradigmas).

De cualquier modo, estos hechos condujeron a que finalmente ambas perspectivas,


cualitativa y cuantitativa se desarrollaran hasta cierto punto por andariveles independientes,
tanto en sus fundamentos epistemológicos, como en torno a las técnicas y estrategias
empíricas que se fueron consolidando (y –hay que reconocerlo- también
“convencionalizando”) al interior de cada una.

Resultaría difícil agotar aquí todas las características (metodológicas-y


epistemológicas), que signan el abordaje cualitativo. Me limitaré en principio a precisar sus
rasgos más relevantes, para luego retomar con algún detalle los fundamentos que las
sustentan. Entre estos rasgos se puede citar:

a) El predominio del enfoque comprensivista.

12
Herbet Blumer –uno de los referentes más importantes del “interaccionismo simbólico-
sostiene que el estudio de la acción debe hacerse desde la posición del actor (quién percibe,
interpreta y juzga la acción). Tres son las premisas generales de este enfoque: 1) Los seres
humanos actúan sobre la base de los significados que adscriben a sí mismos y a su mundo. 2)
Estos significados se derivan o brotan de la interacción social o de la comunicación
(entendida en sentido amplio). 3) Estos significados se establecen y modifican por medio de
un proceso interpretativo: “el actor selecciona, modera, suspende, reagrupa y transforma los
significados a la luz de la situación en que se encuentra y la dirección de su acción (Blumer,
H.; 1969). Norman Denzin (1989, 1992) reformula esta versión del interaccionismo
simbólico, con el enfoque que él llama interaccionismo interpretativo. Este
interaccionismo de filiación deconstructivista y postmodernista- (con énfasis en el criticismo
cultural y la teoría crítica), postula que se debe revisar el significado de un texto, para
mostrar cómo sus significados dominantes pueden ser adversados; de modo tal de
“exponer los significados ideológicos y políticos que circulan dentro del texto,
particularmente aquellos que esconden o desplazan prejuicios raciales, étnicos, de género
o de clase social”; y “analizar cómo los textos enfocan los problemas de la presencia, las
vivencias, la realidad y sus representaciones, y el comportamiento de lo sujetos, de los
autores y de sus intencionalidades” (1992:151).
13
El postulado principal de la etnometodología es que la realidad social es algo producido y
construido por sus protagonistas; y el sentido que los actores dan a sus prácticas no
requiere ser “re-explicado” o “re-interpretado” por el cientista social. El autor de
referencia en este caso es Garfinkel (1967) (quien se inspira inicialmente en A. Schutz).
Según Giddens (1967), “el propósito de la etnometodología es hacer que las prácticas
sociales sean explicables en sí mismas” (…) De modo tal que, “el etnometodologista no
diferencia, entre la sociología que los miembros legos de la sociedad realizan en el curso
de su vida cotidiana y la sociología que realizan los científicos sociales profesionales”.
(1967:39). Las limitaciones, críticas y variaciones que se han propuesto a esta concepción
etnometodológica puede encontarse en el texto citado de Giddens (op.cit. 39 y ss.).

44
Una de las consecuencias de la oposición cuantitativo-cualitativo queda formulado en
los siguientes términos –según lo enuncia Wright (1979) en un clásico trabajo sobre el
tema: “el mundo natural se explica, mientras que el mundo social se comprende”.

Este enfoque surge originalmente de Weber (1979). Para Weber el objeto de la ciencia
social es la “acción social”. Pero en tanto social, esta acción involucra siempre un
sentido o significado. De modo que su interpretación requiere el acceso a los “estados
internos del sujeto”, lo que supone –entre otras cosas- la mediación del lenguaje.

A este abordaje interpretativo se lo define entonces como “enfoque comprensivo de la


subjetividad del actor”.

El término “comprender” implica algo más que meramente conocer. Cuando decimos
que comprendemos algo, queremos significar que estamos en condiciones de adoptar
la perspectiva del otro, el sentido que eso tiene para el otro. Así lo hacemos, por
ejemplo, en el lenguaje coloquial, decir “Te comprendo, comprendo tus
sentimientos”; significa no sólo que uno está informado de lo que le pasa al otro, sino
que incluso, puede hasta cierto punto entenderlo desde el lugar en el que vive esos
sentimientos.

b) la construcción interpretada de los hechos con (o, al menos, desde) los actores o
sujetos estudiados:
Surge vinculado a lo que hemos señalado en el punto anterior: no se busca acopiar
datos (como una información ya disponible), sino construirlos o descifrarlos
incorporando la perspectiva de los sujetos involucrados en la situación estudiada.

c) la implicación de los investigadores en la producción de sus datos:


Para captar la perspectiva de los actores, los investigadores/as deben involucrarse en el
escenario o experiencia estudiada. Aunque el enfoque cualitativo no prescribe ni
supone una única técnica de producción de datos, lo importante será que la técnica
elegida contribuya a captar dicha perspectiva.

Implicarse en el asunto es tomar parte en el mismo; “conocer desde dentro”. Como lo


hemos señalado, es quizá en la variante de la llamada investigación acción en la que
de modo más acabo se cumple este objetivo (desde el momento que los investigadores
son al mismo tiempo participantes implicados en el asunto que investigan). Sin
embargo, cualquiera sea la estrategia elegida, los instrumentos utilizados y los asuntos
investigados, se deberá cotejar siempre la interpretación propia con la de los actores
protagonistas.

d) la observación en contextos naturales:


La posibilidad de captar las experiencias desde los propios actores exige “ir hacia
ellos” –antes que ponerlos en cualquier situación artificiosa experimental o de
laboratorio-. El contexto es parte del fenómeno a indagar. La situación se capta
“ecológicamente” en la pluralidad de aspectos que puedan determinarla.

La “naturalidad” del contexto será relativa al asunto investigado: si se investigan “las


modalidades en la comunicación en el aula en estudiantes secundarios”, el contexto
natural será el aula; si en cambio el asunto se refiere a “las modalidades en la
comunicación en un boliche bailable” el contexto natural será el boliche.

45
Por otra parte, esta “indagación situada” hace que los datos terminen siendo muy
vinculados a un contexto específico; en muchos casos los resultados no son
exportables a otros contextos (y esto es algo valorado desde la perspectiva
comprensivista a la que nos estamos refiriendo).

e) la producción de datos ricos, profundos, dependientes del contexto:


Todos los punto señalados, deben contribuir a construir datos que capten la
complejidad de los fenómenos estudiados. Sus sentidos o múltiples sentidos; en la
perspectiva de la “observación densa” a la que ya nos hemos referido. Dado que se
busca captar todas las dimensiones del asunto, se intenta enfocar el mismo tema desde
múltiples dimensiones, desde los diversos actores, en diversos momentos. El
“muestreo teórico” (cfr. Cap. IX.2.2.4.) es precisamente una de las técnicas para esa
captura multidimensional.

f) la flexibilidad en los procedimientos generales (las secuencias del proceso de


investigación) cuanto particulares (la innovación de criterios, técnicas o indicadores in
situ).
Finalmente, los pasos a seguir en la investigación cualitativa se van definiendo
progresivamente, según una secuencia que surge de la exploración del terreno. En este
tipo de investigaciones no siempre puede preverse anticipadamente qué aspectos serán
los más relevantes, ya que el trabajo en el campo puede ir abriendo o sugiriendo
nuevas líneas de desarrollo no previstas al inicio. Como ya lo indicamos el “muestreo
teórico” es una de las técnicas que contribuye a orientar la búsqueda según los
hallazgos que surgen conforme avanza la investigación. De igual modo, se van
tejiendo progresivas interpretaciones a través de los procedimientos de codificación.
Estas interpretaciones irán dando cuerpo progresivamente a la formulación de las
hipótesis, que son, más un punto de llegada que de partida.

Se ha acuñado el término de diseño emergente en referencia a estas estrategias abiertas


que caracterizan a la investigación cualitativa (cfr. Lincoln y Guba (1985).

X.5. La triangulación metodológica: fundamentos de los diseños multimétodos.

Como lo acabamos de examinar, la dicotomía cualitativo-cuantitativo alcanzó una


sólida consolidación, que concluyó –en algunos casos- creando compartimentos estancos
entre uno y otro paradigma.

Sin embargo, en épocas más recientes esas rígidas oposiciones han comenzando a ser
revisadas por diversos autores y por diversas razones. Por una parte, porque se pusieron en
cuestión algunos de los supuestos que las sustentan, por la otra, por las exigencias que
demanda la investigación real, la que debe echar mano a diversas técnicas y estrategias14.

14
Como lo sostiene Bericat (op. cit.:22): “Esta estructuración dicotómica de la complejidad,
que presenta opciones como si fueran una especie de cajas negras o paquetes cerrados listos
para operar, tiene sin duda no sólo una justificación pragmática sino también una sólida
legitimidad teórica. Sin embargo, no podemos decir que de esta estructuración sólo se deriven
ventajas sin apenas ningún inconveniente. En primer lugar; la dicotomía muestra una de sus
efectos perversos en la ocultación de otras posibilidades metodológicas. (…) En segundo
lugar, otro de sus más importantes efectos perversos se manifiesta en la aplicación
46
Se comenzaron a plantear enfoques multimétodo o estrategias combinatorias como la
llamada triangulación metodológica.

Estos enfoques están lejos de constituir un campo estrictamente delimitado. Resultan


más bien prácticas que se abren paso conforme se requieren distintas técnicas, procedimientos
o perspectivas teóricas integradoras.

La llamada “triangulación”, alude precisamente a los diversos enfoques o estrategias


metodológicas, en el marco de una misma investigación. El término proviene del ámbito de la
navegación, y se refiere a los múltiples puntos de referencia que se pueden (o deben)
considerar para localizar una posición desconocida.

En el terreno de la investigación científica, fueron Campbell y Fiske (1959) los


primeros en utilizar el término «triangulación» para dar cuenta de esas estrategias combinadas
en el desarrollo de una investigación.

Actualmente existen distintas posiciones en el modo de comprender y aplicar este


concepto. Una de las más difundidas es la concepción de Denzin
(1970) para quien el objetivo de la triangulación es el de incrementar la validez y
confiabilidad de los resultados mediante la depuración o fortalecimiento de las técnicas y el
control de los sesgos de investigadores. Desde esa perspectiva distingue los siguientes tipos
de triangulación:

a) “triangulación de datos”: consiste en cruzar o incluir información proveniente de diversas


fuentes o informantes. Se pueden triangular personas o unidades (por ejemplo, se puede
combinar el relevamiento de personas, díadas o colectivos, pero además la unidad puede ser
también la interacción –si se asume que ésta es algo más que el agregado de las personas15);
se pueden triangular relevamientos en distintos tiempos, espacios o contextos.

b) “triangulación de investigadores”: la inclusión de distintos investigadores en el abordaje


del mismo asunto contribuye a incrementar la confiabilidad de los resultados (si éstos son
convergentes). Si se detectan sesgos habrá que evaluar si esas múltiples miradas incrementan
la comprensión del fenómeno o si se producen distorsiones por los investigadores/as y/o los
procedimientos. Por lo demás, el trabajo con equipos interdisciplinarios o con
investigadores/as con diversas experiencias y prácticas, puede contribuir a un abordaje más
rico del asunto investigado.

c) “triangulación de teorías”: consiste en utilizar distintas perspectivas teóricas para analizar


los mismos datos. El objetivo es incluso contrastar teorías rivales. Denzin propone un
procedimiento pautado, que va desde la enumeración de proposiciones teóricas, a su

convencional y a-crítica de las metodologías por parte de los investigadores, que toman las
opciones convencionales como si se tratase de opciones «reales», generando una seguridad y
confortabilidad metodológica que cercena la aplicación creativa e impide el
perfeccionamiento futuro”.
15
Aunque no es el enfoque de Denzin, la propuesta que propusimos aquí al referirnos a los
“niveles de análisis” en la construcción de datos, puede ser convergente con la concepción de
triangulación de datos que propone Denzin. Esta concepción distingue el “análisis agregado,
interactivo, colectivo”, etc. reconociendo que cada uno de ellos no es reductible a una mera
sumatoria de entidades básicas. En cada nivel cambia la unidad de observación.
47
progresivo contraste empírico, con criterios de selección y descarte. Este procedimiento está a
su turno, íntimamente vinculado a la denominada “inducción analítica” propia del enfoque
cualitativo (sobre la que volveré más adelante)16.

d) “triangulación de metodologías”: se refiere a la integración de métodos o técnicas con el


objeto de fortalecer los resultados aumentando la confiabilidad de las mismas. Se distingue la
triangulación intra-métodos y la triangulación inter-métodos. En la primera se utilizan
variaciones de un mismo método (de recopilación y/o de interpretación de datos) y está
fundamentalmente dirigida a verificar la consistencia interna y la fiabilidad. En la segunda, se
utilizan diversos métodos (cualitativos y cuantitativos) para aumentar la confianza en los
resultados, mostrando que éstos no son dependientes del método.

Otros autores proponen criterios distintos para clasificar y distinguir los tipos de
vinculación cuali-cuantitativa. Por ejemplo, Bericat (op.cit.:38) considera las siguientes
posibilidades:

a) La complementación: cuando en el marco de un mismo estudio se desarrollan dos


estrategias de abordaje, una cualitativa y otra cuantitativa. Se obtienen así dos
perspectivas, dos maneras de evaluar y presentar el mismo asunto. Las
conclusiones se limitan a la presentación independiente de los resultados, cada uno
de los cuales define una manera de acercarse al objeto, ofreciendo entonces
distintas dimensiones del mismo, sin superponerse ni solaparse entre sí.

b) La triangulación: a diferencia del criterio de complementariedad, no se busca en


este caso complementar la comprensión de la realidad desde “dos miradas”, sino
utilizar ambas orientaciones para el reconocimiento de un mismo e idéntico
aspecto de la realidad social. Los métodos se implementan de forma independiente
pero se orientan a un mismo asunto.

c) La combinación: con este criterio no se busca la convergencia de resultados (los


que procederán finalmente de un solo método); sino, compensar las debilidades de
un método –o más precisamente, una técnica- con otra. El objetivo es aumentar la
validez de un procedimiento, “combinándolo” con otro que pueda paliar o
robustecer los hallazgos que se obtengan con dichos procedimientos. Tiene una
función más instrumental; como por ejemplo: realizar un relevamiento con grupos
focales, para elaborar en base a esos resultados los contenidos de una encuesta.

Desde una perspectiva más sistemática, se postulan diversos niveles ordenadores


desde los cuales se puede situar el examen de las relaciones entre lo cualitativo y lo
cuantitativo (cfr. Bericat, E. op. cit; Valles; M. op. cit.):

a. Un nivel metateórico,
b. Un nivel metodológico,
c. Un nivel técnico.

El nivel meta-teórico refiere a los compromisos epistemológicos y ontológicos que


se asumen tácitamente al postular un tema y un problema de investigación. Así, por ejemplo,

16
Dado lo peculiar de la técnica recomendamos consultar la obra de referencia para una
comprensión más pormenorizada.
48
si se asume la perspectiva del “realismo ingenuo” (del positivismo clásico) se siguen
determinadas consecuencias, que serán distintas a las que resultarían si se adopta la
perspectiva del “realismo crítico” (que propugnan por ejemplo los enfoques
constructivistas17). En el primer caso, la posición del sujeto será externa y ajena al objeto
investigado, mientras que en el segundo, el sujeto y el objeto estarán mutuamente
determinados.

El nivel metodológico, en cambio, constituye la referencia explícita del enfoque que se


adopta para situar el problema de investigación y que conduce a una específica estrategia de
investigación.

El nivel técnico es el que está directamente asociado a los procedimientos para la


obtención o construcción de los datos, es decir, a los aspectos que comprometen las
formulaciones instrumentales o empíricas del diseño.

Conforme con estas distinciones, cuando se postula la integración cuali-cuantitativa se


debería precisar entonces cómo se asume dicha integración, qué niveles se vinculan, de qué
manera, con qué alcance. Dicho de otro modo: habría que distinguir, por una parte, cuál es el
alcance de esa vinculación; por la otra, si compromete a algunos o todos de los referidos
niveles.

Así, por ejemplo, para algunos autores, adoptar cierta perspectiva metateórica obliga a
determinados compromisos empíricos y al uso de determinadas técnicas de investigación: “un
compromiso con el interaccionismo simbólico o con metateorías fenomenológicas obligaría a
utilizar exclusivamente técnicas de orientación cualitativas. A la inversa, el uso de una técnica
de orientación cualitativa, como puede ser la observación, determinaría la imposibilidad de
aplicar paradigmas positivistas. A este tipo de integración se la puede definir por el postulado
de una coherencia vertical del método: conforme con ella “los métodos cualitativos de
investigación, por ejemplo, sólo podrían utilizar epistemologías, técnicas de observación y
técnicas de análisis de orientación cualitativa” (Bericat, E;: op. cit.:40).

Para otros en cambio, el criterio puede ser más flexible, sin necesidad de asumir un
compromiso sistemático entre todos los niveles. Incluso, algunas perspectivas más
pragmáticas, como la que postula Patton (1990) llegan a desentenderse de la teoría: “No todas
las cuestiones están basadas en la teoría, no es necesario jurar lealtad a ninguna perspectiva
epistemológica para usar los métodos cualitativos. En verdad –sostiene- iría más allá (a riesgo

17
El enfoque «constructivista» –además de adherir a los supuestos «interpretativistas»-
enfatiza el relativismo y el perspectivismo de todo conocimiento. El constructivismo surge
contra el objetivismo, el realismo empírico y el esencialismo: la verdad no solo se descubre,
sino que también se construye, y en esta construcción juegan un papel central las “prácticas
discursivas”. Como lo reconoce Valle (op. cit.:59) es posible identificar muy distintas
variantes del “constructivismo”. Entre ellas se pueden citar: 1) la filosofía constructivista de
Nelson Goodman; 2) el contrstuctivismo radical del psicólogo Von Glasersfeld, 3) el
constructivismo social de los Gergen; 4) el constructivismo social de los epistemología
feministas, 5) el paradigma constructivista de Guba y Lincoln; 6) el constructivismo de
Eisner. El tema excede los objetivos de este trabajo, sin embargo, como ya fue dicho, los
enfoques que usualmente predominan en el campo de la investigación cualitativa, se enrolan
en la tradición del constructivismo social, que cabe tanto en la tradición del interaccionismo
simbólico, cuanto en la etnometodología.
49
de ser herético) y sugeriría que uno no necesita ni siquiera preocuparse de la teoría” (citado
por Valles, op. cit.:74).

De cualquier manera, estas disquisiciones no tienen consecuencias directas en la


práctica de la investigación real. Como se ha señalado, el criterio dominante ha sido más bien
el de seguir cierto eclecticismo a la hora de formular un diseño multimétodo. Como lo
reconoce Bryman, 1988 (citado por Archenti y Piovani, 2007):

“…las formas de articulación prevalecientes hasta el presente se han mantenido


relativamente apegadas a estrategias convencionales: empleo de la perspectiva
cualitativa en fases exploratorias, para la posterior realización de estudios cuantiativos
de contrastación de hipótesis; utilización de la investigación cuantitativa para
establecer regularidades y tipos sociales que luego se exploran en detalle a través de
estrategias cualitativas; uso conjunto de ambos métodos para indagar las relaciones
entre casos «micro» y procesos «macro» (op. cit.:45).

Habría que reconocer finalmente que estos enfoques integrados constituyen la práctica
más habitual en investigación social. Este hecho no sólo muestra un borramiento de las
fronteras entre lo cualitativo y lo cuantitativo; sino más bien, lo inconducente que puede
resultar hasta la misma rotulación de esas estrategias.

La posición que aquí adopto, como se fue esbozando a lo largo de toda la obra, es más
bien la de una integración sistemática, que no requiere de los rótulos de “cuantitativo” o
“cualitativo”. Esa integración resulta de todas y cada una de las decisiones que se adoptan
tanto en el enfoque teórico del tema (Fase 1) cuanto en la estrategia empírica para su abordaje
(Fase 2).

Este reconocimiento no implica negar entidad a unas u otras estrategias, ni adoptar un


eclecticismo neutral. Por el contrario, desde el comienzo reconocimos un lugar específico a
los estudios intepretativos lo que no supone, por otra parte, que esa definición deba hacerse
por “oposición a…” cualquier otra orientación o estrategia.

Desde esa perspectiva resulta muy difícil atribuir unas específicas técnicas a un
determinado enfoque teórico; o una determinada estrategia empírica a unas específicas
técnicas. La denominación de «técnica cualitativa» o «técnica cuantitativa», no parece
corresponder de modo adecuado a ninguna técnica en particular:

“…será siempre más preciso definir la orientación metodológica que inspira la


concreta aplicación de una determinada técnica”. Así, por ejemplo, algunas técnicas
denominadas cualitativas –como la observación encubierta- son más neutrales (en
términos de la implicación del investigador) que otras cuantitativas como la encuesta o
el experimento. De igual modo, un grupo de discusión –considerado “técnica
cualitativa”- tiene grados de reactividad y artificialidad mucho mayores que otras
técnicas como la misma observación encubierta (Bericat, E. op.cit.:65).

Por lo demás, muchos de los supuestos que se han adscripto al enfoque cualitativo –
por oposición al cuantitativo- exigen cierta revisión crítica.

Voy a considerar en lo que sigue algunos de ellos, sin pretender agotar todas las
cuestiones que podrían ser (y que han sido) revisadas.

50
Por lo demás no son estricta ni principalmente reflexiones “críticas” sino más bien
reflexiones orientadas a “tomar posición” en temáticas que aún son motivo de discrepancia
entre tratadistas y especialistas en el tema.

a) Lo cualitativo no es opuesto a lo cuantitativo.


La primera cuestión a considerar atañe a la propia denominación con la que se ha
caracterizado a cada método o paradigma.
Lo cualitativo no puede separarse de lo cuantitativo, ni a lo cuantitativo de lo
cualitativo.

Así, por ejemplo, en la mera definición de un constructo o una variable (incluso si se


la define o se la operacionaliza métricamente) estará implicada una cualidad (como el
asunto al que refiere dicha variable).

De igual modo, toda cualidad (pongamos por caso “un color”) puede (y en ocasiones
debe) ser expresado como una combinatoria cuantitativa: un quantum que define a esa
cualidad. El concepto de “proporcionalidad” es un concepto cualitativo: determinada
tonalidad de color (como cualidad) puede expresarse como una combinatoria de
proporciones que remite a un quantum de otras tonalidades.

Por lo demás, el uso de técnicas estadísticas para formalizar estimaciones cuantitativas


(y expresarlas en escalas métricas) no implica que la “numerosidad” y la
“cuantificación” requieran de esos artilugios para manifestarse. Por el contrario, lo
numeroso y lo cuantitativo son dimensiones de lo real.

La estadística no agrega una nueva realidad, sólo formaliza procedimientos para


identificarla, precisarla, expresarla numéricamente. Pero el lenguaje –aún en su forma
coloquial e informal- también lo hace. Resultaría muy extensa la lista de términos que
podríamos invocar que tienen esa propiedad. A modo de ejemplo, podrían citarse
términos o expresiones como “siempre”, “a veces”, “nunca”, “en ocasiones”,
“habitualmente”, “raro”, “demasiado”, “mucho”, “poco”… etc.

Decir que algo es “raro” es decir que es “infrecuente o de baja frecuencia” y quien
afirma eso, está implícitamente, “comparando cuantitativamente”. De igual modo, un
psicoanalista (del que nadie dudaría que sigue un “método cualitativo”) puede
detenerse en el discurso de un paciente, porque advierte que un término o una idea “se
repite” o “insiste” en ese discurso. Está así haciendo uso de un criterio cuantitativo
(aunque no recurra a la estadística para evaluarlo o constarlo). De igual modo, la
técnica de “saturación” que propone el muestreo teórico de la teoría fundamentada –a
la que nos referimos en el Cap. IX.2.- supone también la idea de un “quantum” aunque
no se requiere tampoco en este caso de ninguna expresión numérica.

Bericat coincide con esta crítica a las denominaciones que han consagrado a estas
estrategias metodológicas:

“Toda cuantificación métrica exige el aislamiento de una cualidad pura, de lo


que se derivan las grandes dificultades de la ciencia social para aplicar el
número, y los modelos matemáticos que en él se basan, a cualidades que en
general ni están suficientemente definidas ni pueden expresarse u observarse en
estado puro en la realidad social. A la inversa, hablar de calidad implica

51
siempre hablar de cantidad, aunque en formas más o menos exactas, más o
menos implícitas. Por ejemplo, atribuir belleza a un objeto, cuando lo
comparamos con otro objeto al que atribuimos fealdad (atributos considerados
convencionalmente categóricos, nominales o cualitativos) implica una
medición, burda si se quiere, pero medición al fin y al cabo del fenómeno que
se considera. Decir bello implica reconocer «algo» de belleza en el objeto,
aunque no se tengan los instrumentos apropiados para precisar o cuantificar la
medida. Cualidad y cantidad se reclaman lógicamente sino quieren perder su
sentido. El significado se diluye sin la medida; la medida carente de significado
resulta mero guarismo” (op. cit. 35).

Además –como una vez más lo reconoce Bericat- hasta una variable
cuantitativa como la “edad” remite a una interpretación cualitativa. En nuestras
sociedades, la diferencia de 64 a 66 años, o de 15 a 18 años, implica un “cambio en la
posición social” –sea porque se ha entrada en la categoría de “económicamente
pasivo” o porque se han ingresado en la “mayoría de edad”. El sentido de esa edad o la
misma edad es –socialmente hablando- una “cualidad”, o lo que es lo mismo, un
cambio en la edad (cantidad) implica un cambio en cierto tipo de definición social
(cualidad).

Por último, y para cerrar el tema, es importante también señalar que la propia
matemática es una disciplina que se ocupa de cualidades. La matemática –
teóricamente definida- puede concebirse como una ciencia de formalización de
“patrones”. Una mera “curva” o una “función” expresa un patrón de comportamiento,
es decir, una “cualidad”. Hoy más que nunca es posible advertir hasta qué punto la
matemática avanza en esa dirección, ofreciendo formalizaciones para fenómenos
“irregulares” y/o “impredecibles”. Así, ocurre por ejemplo, con la “matemática de
fractales” y con el amplio espectro de la llamada matemática de “sistemas dinámicos”
o matemática de la complejidad (como la que se aplica en el estudio del “caos
determínistico”).

b) La inducción no es la inferencia dominante en los enfoques cualitativos.

La justificación más precisa de esta afirmación voy a retomarla en el capítulo dedicado


al tratamiento de datos “cualitativos”.

Recordemos, en primer término, que una de las oposiciones con las que se han
caracterizado a lo «cuantitativo vs. lo cualitativo» remite a la oposición «deducción e
inducción». Conforme con esto, la investigación cuantitativa sería deductiva, mientras
que la cualitativa inductiva.

La primera sería deductiva porque va desde la teoría a los datos (de las hipótesis
deduce los observables) mientras que la cualitativa, a la inversa, avanza de los datos a
la teoría (desde los observables construye –o ¿induce?- las hipótesis).

A modo de recordatorio, señalemos que la inducción (al menos la inducción


enumerativa o extensiva) consiste en el paso del particular al universal: se infiere la
“regla” (para decirlo en la jerga peirciana). La inducción simplemente generaliza.

52
Advertir que la “inducción generaliza” es –ni más ni menos- reconocer que sigue un
procedimiento cuantitativo. Porque generalizar es lo mismo que decir que lo que le
cabe a uno puede hacerse extensivo a todos.

Esta característica de la inducción explica por qué el empirismo positivista –en sus
diversas vertientes (desde los clásicos anglosajones hasta el Círculo de Viena)- la
identificó como la inferencia comprometida en la “verificación de teorías”.

De cualquier modo, en la tradición cualitativa se ha intentado diferenciar el alcance de


este asunto distinguido “dos tipos de inducciones”: la inducción enumerativa (a la que
me acabo de referir) y la inducción analítica –propuesta originalmente por el
sociólogo Znaniecki en 193418.

Para Znaniecki la inducción analítica –que va a proponer para el método cualitativo-


es un procedimiento utilizado también en las ciencias duras. En ese campo –sostiene-
el avance y el descubrimiento “no se alcanza por la aglomeración de grandes masas de
observaciones superficiales, sino induciendo leyes de un profundo análisis de
instancias aisladas experimentalmente” (1934:237). Y este análisis implica separar lo
esencial de lo accidental, para extraer de ello generalizaciones.

La inducción analítica se describe entonces como un conjunto de pasos secuenciales,


que consiste en desarrollar «clasificaciones y tipos» desde el análisis de “primeros
casos” a partir de los cuales se van extrayendo hipótesis provisorias que se chequean
con nuevos casos. Se busca también el “caso negativo” es decir la evidencia que no se
ajusta a la teoría. Si se encuentra entonces se revisan las hipótesis y el proceso vuelve
a comenzar.

Hay una selección secuencial en la inducción analítica, ya que consiste en un


"procedimiento abierto con el que a medida que avanza la investigación se determinan
nuevos conjuntos de fenómenos para su análisis" y "tiene como objetivo facilitar la
emergencia de constructos y teorías, así como eliminar constructos, teorías e hipótesis
rivales" (Goetz y Le Compte 1988: 181-182).

Como se advierte, un concepto clave aquí es el del “ajuste del caso”. ¿Qué es lo que se
ajusta? El «caso» a la teoría y la teoría al «caso».

En un primer momento se “extrae” progresivamente la teoría del caso. De ese modo


“se construye” una hipótesis provisoria. Luego se evalúa el nuevo caso a luz de esa
hipótesis ya disponible. Si funciona se mantiene, sino se revisa.

Ahora bien, lo que pretendo señalar aquí es que en ese proceso se comprometen
inferencias muy distintas a la inducción. Inferencias que, formalmente se diferencian
de ella. Y lo que voy a postular es que esas inferencias son la abducción y la analogía.

Se podría pretender que la abducción funciona como una suerte de “inducción


analítica”, pero el problema no debería reducirse a una cuestión terminológica. Por el

18
Znaniecki no brinda ejemplos muy desarrollados sobre la aplicación de la inducción
analítica. Suelen citarse los trabajos de Lindesmith (1937 y1968) en sus investigaciones sobre
la adicción al opio, como ejemplos aplicados de estas ideas (aunque el propio Lindesmith no
habría reconocido explícitamente la referencia a Znaniecki –cfr.Hammersley, M. (1989).
53
contrario, el asunto consiste en precisar la naturaleza del procedimiento inferencial
para comprender estrictamente su lógica subyacente.

De acuerdo a lo que presentamos en el capítulo dedicado a la lógica de la investigación


(cfr. Cap. III), la abducción es la inferencia que vincula los rasgos, indicios o
propiedades de un fenómeno a la luz de un modelo o Regla. La analogía, por su parte,
hace posible la extracción de la una Regla (=hipótesis o modelo teórico) por
comparación con otra Regla ya conocida o con un caso análogo (o relativamente
análogo).

Según el procedimiento de la “inducción analítica” al comienzo se sigue una suerte de


tanteo que busca identificar algún tipo de “regla o principio interpretativo” (predomina
el proceso de descubrimiento). Luego con esa “hipótesis provisoria ya disponible, se
procura aplicarla a nuevos casos (buscando el “contra-ejemplo” que potencialmente
pueda derribarla19).

Lo que postulo entonces es que en la construcción o descubrimiento de esas primeras


hipótesis predominan las inferencias abductivas y analógicas. Se puede reconocer que
el proceso avanza desde rasgos o indicios hacia configuraciones o totalidades –lo que
es característico de la inferencia abductiva-. Luego se coteja un caso (con su Regla
implícita) con otro “caso potencial” –lo que supone una suerte de comparación de un
«todo con otro todo» lo que es propio de la inferencia analógica tal como la
presentamos en el capítulo ya citado.

Lo mismo se aplica a las inferencias comprometidas en el núcleo del llamado método


comparativo constante.

Como se propugna desde ese enfoque; en el procedimiento de codificación (de


unidades léxicas por ejemplo); el proceso consiste en una progresiva y constante
comparación. Esta comparación es la que hace posible la codificación.

Se ha señalado también en ese caso que el procedimiento es inductivo.

Sin embargo, si se compara el término A con el término B y se advierte que tienen


algo en común (conforme con lo cual podría corresponderle a ambos el mismo código)
entonces no es la inferencia inductiva la que ha hecho posible la “identificación de lo
semejante”, sino la inferencia analógica.

Como lo anticipé, el tema voy a retomarlo en el capítulo dedicado al tratamiento de


datos, con lo cual estos señalamientos son sólo preliminares. Me interesa por ahora
dejar situada la naturaleza del problema, y las razones por las que considero justificado
revisar los supuestos lógicos que usualmente se asocian al tratamiento y producción de
datos cualitativos.

19
Hay en este procedimiento un esfuerzo declarado –como lo reconoce el propio Znaniecki-
por seguir la lógica de contrastación y validación propia del método “cuantitativo” (o, más
precisamente del método hipotético-deductivo).
54
c) El estudio de caso no implica necesariamente una perspectiva ideográfica.

Sobre esta cuestión ya me detuve en extenso al presentar el temas de muestras (cfr.


Cap.IX.2.).

Simplemente enfatizamos ahora que el estudio de casos puede tener también vocación
nomotética. Es posible –y válido- estudiar casos con la intención de extraer de ellos
principios o conocimiento de alcance general, que puedan luego exportarse a otros
casos –los que podrán luego testearse en estudios más extensivos (aunque, como
también lo dijimos, no todo estudio de casos debe seguirse luego de tratamientos o
abordajes extensivos).

Por lo demás, como resulta claro, este reconocimiento no implica negar validez a
estudios de casos en los que predomina el interés ideográfico.

d) El enfoque interpretativo no queda circunscripto a las orientaciones


comprensivistas, que buscan captar la “perspectiva del actor”.

Esto es así por varias razones.

Una de ellas porque el “actor” puede no ser el mejor ubicado para “ver lo que cree”.
Dicho de otro modo, puede no ser el mejor capacitado para reconocer u objetivar los
sentidos o significaciones en los que está subjetivamente implicado20.

Por otra parte, porque los fenómenos de la cultura portan significaciones que, bajo
ciertas condiciones, pueden reconocerse como “objetivas”. Es decir, sus sentidos o
significaciones pueden ser interpretadas con independencia de los usuarios y
productores empíricos de las mismas.

Así, por ejemplo –en el marco de sus diferencias con las teorías del uso (como por
ejemplo, la que propugna Richard Rorty), Umberto Eco (1995) distingue tres
perspectivas en las que puede ser concebido el análisis hermeneútico (que también se
aplican para la interpretación de una obra de arte o un discurso); a estas perspectivas
las que denomina respectivamente: el intentio operis, el intentio auctoris, y el intentio
lectoris.

Con el término intentio lectoris alude al sentido o interpretación que le confiere al


texto (o a la obra) el lector o receptor empírico.

El intentio auctoris refiere a la intención del autor de dicho material. Lo que


usualmente imaginamos que concierne a la pregunta ¿qué quiso o pretendió expresar a
través de dicho texto su autor/a?

Finalmente, el intentio operis alude a la intención del texto (o la obra). Es decir, a un


sentido propio –independiente incluso de lo que el autor pueda referir como intención
explícita sobre lo que quiso decir con ella.

20
Estas cuestiones han sido ampliamente debatidas. Entre esos debates se puede ubicar como
un criterio o concepto clave el de enajenación (concepto con raigambre en la tradición
marxista, y también –aunque con otras connotaciones- en la tradición psicoanalítica).
55
El texto porta, por así decir, un tesoro de sentidos que exceden al autor o lector
empírico. Tiene “objetividad cultural”.

El lector empírico, interpreta el texto buscando coincidir con la intención significativa


de él (Eco define a este “ideal interpretativo” como lector Modelo). La iniciativa del
lector consiste en formular una conjetura sobre la intentio operis; y esa conjetura será
evaluada por el conjunto del texto como un todo orgánico.

Esto no significa que sobre un texto se deba o pueda formular una y sólo una conjetura
interpretativa. Por el contrario –bajo ciertas condiciones- podrían postularse múltiples
interpretaciones. Pero cualquiera sea la que se formule, pretenderá encontrar sustento
en el mismo texto (al menos esa será una pretensión tácita del intentio lectoris).

El debate con las perspectivas relativistas con las que confronta esta posición de Eco
excede los objetivos de este trabajo. Sin embargo, nos interesa desde el momento que
busca justificar la objetividad de sentidos que porta la obra misma. Conforme con la
cual se torna posible su interpretación.

Para decirlo con un ejemplo, el Quijote contiene un tesoro de significaciones que ni el


mismo Cervantes estaría en condiciones de explicitar. El sentido de esa obra puede ser
extraído, sin preguntar a Cervantes qué quiso decir con ella. Incluso, lo que Cervantes
quiso o se propuso hacer con esa obra podría ser muy distinto a lo que finalmente
logró plasmar o se plasmó en ella. Por supuesto que la misma obra podría interpretarse
desde una perspectiva histórica, estética, feminista, económica… y tantas otras. Pero
cualquiera sea, esa interpretación pretenderá que el sentido que se extrae surge –o es
una potencialidad- de la misma obra.

Estas disquisiciones se aplican al amplio espectro de investigaciones que encuadran en


lo que aquí llamo “investigaciones interpretativas” –entre las cuales se incluyen las
investigaciones cualitativas.

Incluso en aquellas investigaciones de corte etnográfico –que trabajan con sujetos


humanos, comunidades, grupos sociales- pueden aplicarse las mismas disquisiciones.
Conforme con ello, podríamos reconocer entonces, que en algunas ocasiones las
investigaciones podría estar más orientada hacia la receptividad o interpretaciones de
los actores (intentio lectoris en la jerga de Eco) mientras que en otros casos el enfoque
podría estar orientado hacia una hermeneútica de la cultura –del tipo de la intentio
operis postulada por Eco.

Desde esa perspectiva la interpretación de un ritual, de una práctica social, de una


moda o de cualquier otra producción de la cultura podría ser analizada sin requerir la
perspectiva interpretativa del propio actor o protagonista involucrado en ellas.

Reconocer que “podrían ser interpretadas sin incluir la propia hermeneútica del actor”
no implica –como debiera quedar claro- excluirla necesariamente.

Se limita simplemente a reconocer el genuino lugar que le caben a las investigaciones


hermeneúticas o interpretativas que no parten de esos supuestos o que no los
presuponen por la naturaleza de su enfoque.

56
En el apartado dedicado al tratamiento de datos, incluiré un ejemplo de “investigación
hermeneútica” en el que retomaré estas cuestiones (cfr. Cap. XV).

e) No toda la investigación interpretativa supone el trabajo directo con sujetos


humanos.

Esta afirmación –que se vincula de alguna manera con las aclaraciones hechas en el
punto anterior- la hago al solo efecto de darle un encuadre amplio al concepto de
“investigación interpretativa” (tal como vengo sosteniéndolo desde el inicio de esta
obra).

Por supuesto que de una u otra manera siempre estarán implicados sujetos humanos.
Pero la distinción alude al hecho de diferenciar lo que serían investigaciones con (y
eventualmente desde) los sujetos de investigaciones que abordan producciones y/o
contextos sociales y culturales.

En ese gran marco se incluye la investigación en arte, la investigación cultural en


sentido amplio o la propia investigación histórica.

Finalmente, y a modo de conclusión, interesa insistir una vez más que con esta
revisión me limité a examinar sólo algunos de los supuestos con los que suele definirse a la
llamada “investigación cualitativa”. Sin embargo, dada la variedad de posiciones en relación a
este tema, resulta difícil pretender que reflejan la expresión de todas esas concepciones.

Son sólo algunas puntuaciones que se proponen –entre otras cosas- ubicar a la llamada
“investigación cualitativa” en el marco más amplio de las investigaciones interpretativo-
hermeneúticas.

Por lo demás, las retomaré y profundizaré al presentar las características del


tratamiento e interpretación de datos. Espero entonces brindar más elementos de juicio, que
contribuyan a fundamentar las afirmaciones o posiciones que aquí se adelantan.

X.5. El diseño y su formulación en el proyecto de investigación.

Finalmente, para concluir con el tema de los “diseños”, examinaré en lo que sigue su
relación y su lugar en el Proyecto o Plan de investigación.

Como lo señalé al comenzar este capítulo, los diseños de investigación refieren a la


estrategia empírica que se utilizará para llevar adelante la investigación.

Los criterios que propuse previamente –al referirme a los tipos de diseños- aluden sólo
a algunos aspectos de dicha estrategia. En particular a los que están vinculados a la estructura
del dato y al tratamiento de la temporalidad. Conforme con ellos se estipula el modo en que
será abordado el objeto de investigación, según sea la manera de “captarlo” empíricamente; es
decir: “a través de qué y cuántas entidades (UA); de cuáles y cuántas dimensiones (o Va); en
qué perspectiva temporal”..

57
Sin embargo, como también lo señalamos, esos criterios no agotan el conjunto de
decisiones que se tomarán para estipular dicho abordaje empírico. Podría –o eventualmente
debería- estipularse también a través de “qué instrumento, con qué tipo de participación –si
fuera del caso que se trabaja con sujetos humanos-; si el relevamiento se hará en contexto
natural o artificial” entre muchas otras cuestiones.

Esa es la razón por la que en algunos tratadistas presenten criterios tan dispares a la
hora de “tipificar” los diseños. Así, hemos comentando que en la clasificación de diseños
cualitativo se enumeran uno al lado de otro a la teoría fundamentada, los diseños etnográficos;
los diseños narrativos; los diseños de investigación-acción.

Se advierte que esto no constituye una clasificación desde el momento que se mezclan
un sinnúmero de cuestiones: algunas vinculadas al enfoque del tratamiento metodológico
general (como la “teoría fundamentada”); otro al tipo de área disciplinaria (como los
“etnográficos”); otros al tipo de material (como los “narrativos”); otros al contexto de
producción de datos (como la “investigación-acción”).

Basta advertir que todos ellos pueden combinarse para poner en evidencia la falencia
de una tal clasificación. De hecho, una investigación podría ser “narrativa” (si por esta se
entiende el tipo de material con el que va a trabajarse) y también “etnográfica”; o podría ser
“etnográfica” y al mismo tiempo utilizar una estrategia de “investigación-acción”.

La conclusión que deberíamos extraer de todo esto, es que a la hora de definir el


diseño en el proyecto de investigación podremos enumerar conjuntamente los diversos
criterios, sin pretender agotarlos en un rótulo general.

Por lo demás es importante enfatizar y distinguir la relevancia de este tema, según se


lo considere en el marco del proceso de investigación o en la perspectiva del proyecto de
investigación.

En lo que respecta al proceso –entendido como el conjunto de acciones concretas que


llevan adelante los investigadores/as- no resulta imprescindible estipular rótulos o
denominaciones del diseño. A la hora de tomar cada una de las decisiones metodológicas
estarán definiendo ese diseño. Por supuesto que será deseable que tengan sensatos
fundamentos para validar o justificar las respectivas decisiones. Pero no será igualmente
necesario que deban expresarlas en términos de un “nombre” específico que las resuma a
todas ellas.

En cambio en el proyecto puede ser deseable –y en ocasiones necesario- definir o


estipular las características del diseño.

Recordemos que el proyecto es el documento que se elabora al modo de un plan de la


investigación, para ser presentado antes las instituciones que podrían avalar, acreditar o
incluso financiar la investigación.

Si deseamos dejar sentado allí cuál será el diseño a seguir convendrá que explicitemos
en primer término el tipo o esquema de investigación y luego las características el diseño.

La sugerencia será entonces que se consideren los aspectos generales que ya hemos
formulado (según los tipos y sub-tipos de diseño), y luego –si fuera del caso- se explicite

58
también: a) la estrategia general para el relevamiento/producción de los datos, y según los
casos b) el tipo de tratamiento del material.

Pero la denominación final con la que caractericemos ese diseño, dependerá de la


estrategia empírica a seguir. Si es una investigación de corroboración de hipótesis causal con
diseño experimental, se podrá denominar en base al tipo de tratamiento experimental (tal
como oportunamente lo formulamos), indicando el número de grupos, de controles, el número
o tipo de variables (o incluso se los puede denominar de manera sintética cuando existiera un
rótulo para ellos: como los grupos de Solomon, las series temporales o los factoriales). Si es
“cualitativo”, se deberá indicar los casos o tipos de casos con los que se va a trabajar, la
estrategia de relevamiento (investigación-acción/entrevistas/observaciones,etc.)21, el enfoque
temporal, y eventualmente el tratamiento de los datos. Si es decriptivo, el tipo de muestras o
casos, el tratamiento de la temporalidad.

En síntesis, lo que pretendo señalar, es que debe evitarse caer en una suerte de
“fetichismo” o “reificación” del nombre del diseño. Ese diseño no es otra cosa que el
conjunto de decisiones metodológicas que se adoptan, las que contemplan todos los
aspectos de la Fase 2, es decir, las que comprometen la formulación empírica de la
investigación.

Los investigadores/as estipularán en cada caso, con qué detalle y explicitación dejará
formulado en el Proyecto todas y cada una de esas decisiones.

Será deseable que aquellos aspectos más relevantes –como el tipo de estudio y las
características generales del enfoque empírico- queden claramente formuladas y resulten
coherentes con el desarrollo de todo el Plan de investigación.

Finalmente, quisiera dejar sentado que, aunque aquí hice un examen crítico de algunas
denominaciones (como la de los mismos rótulos de “cuantiativo y cualitativo” por ejemplo),
el investigador/a deberá procurar utilizar la terminología ya consagrada porque constituye
tradición en la materia.

Lo importante no será que use o deje de usar una u otra terminología, sino que domine
los fundamentos conceptuales y procedimentales que las sustentan.

21
Se entenderá también que en el caso de estas investigaciones el enfoque y el diseño serán
flexibles y podrán tomarse decisiones que vayan configurando y definiendo el diseño final
como parte del proceso de la investigación.

59

Vous aimerez peut-être aussi