Vous êtes sur la page 1sur 230

INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

1
WILMER JOSÉ TÉLLEZ ACOSTA

2
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Wilmer José Téllez Acosta

INVESTIGACIÓN CIENTÍFICA E
INTEGRACIÓN METODOLÓGICA

Fundamentos y retos de la complejidad social

Caracas, 2017

3
WILMER JOSÉ TÉLLEZ ACOSTA

© Wilmer José Téllez Acosta


© Araca Editores. 2017
aracaeditores@gmail.com

Coordinación editorial: Felgris Araca


Diseño de cubierta: José Ruiz
Diagramación: José Ruiz
Correccion: Elizabeth Haslam

Lugar de Impresión: Caracas, Venezuela

ISBN: 978-980-7412-37-7

Depósito Legal: DC2017001946

4
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

INVESTIGACIÓN CIENTÍFICA E
INTEGRACIÓN METODOLÓGICA

Fundamentos y retos de la complejidad social

5
WILMER JOSÉ TÉLLEZ ACOSTA

A mi padre, William Téllez Cárdenas, quien me inculcó


el valor del trabajo, traducido en constancia,
esfuerzo y responsabilidad

6
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Tabla de contenido

Presentación .................................................................. 11

Conocimiento, ciencia y método 17


Conocimiento y búsqueda de la idea-verdad 17
Hacia el conocimiento científico: esbozo histórico 21
La ciencia y sus principios 28
Objetivo de la ciencia 31
Clasificación de las ciencias 32
Objetividad y verificabilidad 36
Sistematicidad, generalidad y predicción 38
Describir, explicar y comprender 41
La ciencia como proceso: teoría y praxis 44
Inducción, deducción y experimentación 46
La demarcación científica 54

La visión nomotética del método: el conocimiento-ley 63


Perspectiva filosófica de las ciencias naturales-ex-
63
perimentales
La concepción nomotética natural-experimental en
68
ciencias sociales
El positivismo de Augusto Comte 71
El empirismo analítico de Emilie Durkheim 74
Medición y construcción de índices 79
7
WILMER JOSÉ TÉLLEZ ACOSTA

La investigación cuantitativa: fundamentos y proceso 88


El problema de investigación 90
Marco teórico referencial 93
Hipótesis y variables 95
La muestra 97
Recolección de los datos 102
Análisis de los datos 106
El cierre del trabajo: la conclusión 120

El dualismo metodológico: la complejidad del 123


objeto social
La renuncia al enfoque simplista-mecanicista de las
ciencias naturales 123

Marcos de referencia para el estudio de la realidad social 130


La hermenéutica social (Max Weber) 130
La fenomenología (Edmund Husserl y Alfred Schütz) 134
El interaccionismo simbólico (George Herbert Mead
138
y Herbert Blummer)
La etnometodología (Harold Garfinkel) 143
La dramaturgia (Erving Goffman) 146
La etnografía (Bronislaw Malinowski) 149
La investigación cualitativa: fundamentos y proceso 153
Planteamiento del área problemática 156
Literatura referencial 158
Inmersión al campo 160
La muestra 162
Recolección y análisis de información 165
El cierre del trabajo: estructura teórica 177

8
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Integración metodológica : más allá de lo cuantitativo -


179
cualitativo
La pluralidad del método en Ciencias Sociales 179
Método histórico 182
Método comparativo 184
Método crítico-racional 186
El paradigma sistémico-complejo 188
Métodos e investigación en América Latina 194
Investigación-Acción (IA) e Investigación-Acción-
198
Participativa (IAP)
Sistematización de experiencias 199
Planificación Estratégica Situacional (PES) 200
Integración y conocimiento emergente 203

Anexo 213
Referencias 217

9
WILMER JOSÉ TÉLLEZ ACOSTA

10
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

PRESENTACIÓN

El presente texto aborda la investigación científica que


tiene como objeto la sociedad, su dinámica interactiva y
arquitectura colectiva ampliamente coercitiva en la esfera
individual. El fundamento primario del tratamiento
científico social es la complejidad del ente, epicentro de
largas discusiones epistemológicas que, durante siglos, han
perseguido ese camino infalible, expedito, superior entre
toda facultad cognitiva, para explicar los acontecimientos
pasados, presentes y futuros del hombre. Quizá, el mayor
precepto de este libro es que ese camino infalible, expedito
y superior no existe, o por lo menos no desde el ente social.
Un argumento verosímil sobre lo dicho anteriormente
es que de existir un camino con tales facultades de certeza,
no tendría sentido hablar de integración. El eje trasversal
de la investigación científica que propongo es la integración
metodológica, y esto implica dos cosas sustanciales: 1) Para
integrar, se necesitan opciones: Imaginemos que un general
plantea integrar dos estrategias para ganar la guerra. Esto
implica que el objetivo del triunfo se logra articulando
una serie de caminos que puedan conducir eficazmente a
la meta. De no existir diversidad, sino una ruta infalible,
de nada sirve el análisis integrador estratégico. 2) El
pensamiento integrador demanda la renuncia al camino
único-infalible, no por capricho, sino porque así lo reclama
la propia naturaleza compleja del objeto social.
Las discusiones alentadas desde la sociología y pluralidad
metodológica no exigen repensar la ciencia, sino reajustar
viejas tensiones que cierran discursiva y pragmáticamente
la empresa científica. Por eso la mejor amiga de la ciencia

11
WILMER JOSÉ TÉLLEZ ACOSTA

es la historia; ella permite evaluar críticamente el recorrido


de diversas escuelas de pensamiento que entraron en
conflicto con paradigmas cerrados, forzando nuevas rutas
para adecuarlas al dinamismo social. La variedad de textos
universitarios publicados en el último siglo que sintetizan
el pensamiento epistemológico, metodológico y técnico de
estas escuelas aisladamente, pueden empañar la mente de
quien inicia su educación cuando nota que ciencia es tanto la
fenomenología, interpretación, historias de vidas, estadística
o verificación de hipótesis. Como decía el profesor Rafael
Ramírez Camilo, en el Doctorado en Ciencias Sociales
(UCV), la ciencia es como un gran vidrio que, al romperse,
pareciese que cada escuela tomó una fracción y dijo: “Aquí
tengo la ciencia”.
En el primer capítulo, presento una discusión sobre el
fundamento de la ciencia como forma de conocimiento, y sus
principios lógicos procedimentales: método. A lo largo de la
historia se puede apreciar cómo el hombre ha establecido
protocolos articulados para reflexionar sobre las cosas del
mundo, incluyendo a Dios, la fe y la sociedad. Una de las
mayores conquistas del Renacimiento, la ciencia moderna,
se sustenta en discursos teóricos no efímeros que pretenden
ser mapas explicativos-referenciales de la realidad, sensibles
a la evaluación continua mediante experiencias controladas,
sistemáticas y críticas. Finalizo este capítulo con una ligera
discusión sobre la demarcación científica en el siglo XX.
El segundo capítulo se enfoca en la epistemología del
pensamiento sociológico a partir de la Revolución francesa,
particularmente desde las propuestas de Augusto Comte y
Emilie Durkheim. Se trata de un marco histórico que tiene
como principal antecedente la física moderna, círculo que
ejerce gran influencia en la nueva ciencia físico-social que
propone trabajar bajo la concepción nomotética de las

12
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

ciencias naturales-experimentales, concepción que habían


mostrado importantes avances desde los trabajos de Galilei
y Newton. A finales del siglo XIX e inicio del XX, la ciencia
social concierta niveles particulares de medición para
aprehender sus objetos, tal como lo hace la física, química y
biología en sus respectivas unidades de análisis. Se empieza
a hablar con severidad de que la medición-dato es el camino
de la ciencia social; el resto es especulación. Cierro este
capítulo con la investigación cuantitativa, su fundamento
y proceso, evidenciando que este esquema metodológico
es una propuesta que nace de una importante concepción
epistemológica sustentada en la objetividad, neutralidad
valorativa, precisión, medición y universalidad.
El tercer capítulo aborda la ruptura epistemológica de
la visión nomotética para las ciencias sociales, apoyado
en el argumento de que la complejidad del objeto reclama
un dualismo metodológico que incorpore el distintivo del
hombre frente a los objetos de las ciencias naturales: el
sentido y significados que define su movimiento a través de la
interpretación conjunta en la esfera colectiva. Seguidamente,
se presenta una serie de métodos que sirven como marcos de
referencias para el estudio de la realidad social, usualmente
denominadas corrientes microteóricas de la sociología de
la vida cotidiana. El pensamiento histórico-cultural de la
escuela alemana, así como las propuestas de la Escuela de
Chicago (USA), tuvieron gran impacto en la conformación
de nuevas estructuras investigativas que rompen lazos con
el positivismo. Culmino el capítulo con la investigación
cualitativa, su fundamento y proceso, resaltando que sus raíces
epistemológicas conciben la subjetividad, interpretación,
dialógica, aprendizaje bidireccional entre investigador-fuente,
sensibilidad, entre otros, como mecanismos reivindicativos
de la validez y fiabilidad científica social.

13
WILMER JOSÉ TÉLLEZ ACOSTA

Presentada la discusión epistemológica más enérgica


desde el siglo XIX entre la visión nomotética-dualista, base
de los métodos cuantitativo-cualitativos, reflexiono en el
capítulo cuatro sobre un abanico de vías científicas, pensado
desde la sociología como la pluralidad metodológica.
Iniciando con el método histórico, comparativo, crítico-
racional, pasando por el pensamiento sistémico, aterrizo
en los métodos latinoamericanos surgidos como respuesta
autónoma a nuestras realidades-necesidades locales.
Teniendo en la mesa tal diversidad de métodos, producto
de extensos debates epistemológicos y criterios híbridos
someramente discutidos aquí, finalizo con el eje trasversal
a la investigación científica: la integración metodológica. Se
trata de estrategias para aproximarnos a un mismo objeto
desde diferentes ángulos, y cómo la mirada múltiple puede
hacer de aparentes antítesis un camino para que emerja un
conocimiento que se mueva al mismo ritmo que nuestra
compleja realidad social.

***
El libro que el lector tiene en sus manos es producto
de mi preparación para el concurso de oposición al cargo
profesor instructor en el Departamento de Método,
Escuela de Sociología de la Universidad Central de
Venezuela (UCV). El borrador de la propuesta original
sufrió modificaciones para hacerlo digerible a un público
interesado en introducirse a la empresa científica en el área
social. Considero que, a partir de su lectura, puede tenerse
una perspectiva articulada del quehacer científico y acudir a
literaturas especializadas en cualquiera de sus tópicos.
Quiero agradecer a los profesores Mauricio Phélan,
Julia Alcibíades, Trino Márquez, María del Pilar González
y Carlos Noguera Carrillo de la Universidad Central de

14
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Venezuela (UCV) por sus comentarios y sugerencias a


partir de la versión preliminar del texto. Los planteamientos
históricos, teóricos, conceptuales y técnicos del contenido
final comprometen exclusivamente mi responsabilidad.

Caracas, junio del 2017.

15
WILMER JOSÉ TÉLLEZ ACOSTA

16
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

CONOCIMIENTO, CIENCIA Y MÉTODO

Del mismo modo que las artes de la vida externa, la gran masa de recursos
y aptitudes, de instituciones y hábitos de la convivencia social y la vida
política son el resultado de las reflexiones, la inventiva, las necesidades,
la pena y la dicha, el ingenio, la voluntad y la creación de la historia
anterior a nuestro tiempo, lo que hoy somos en la ciencia y, especialmente,
en la filosofía lo debemos también a la tradición, la cual se desliza a
través de todo lo que es perecedero y, por tanto, pasado, como una cadena
sagrada (…) que conserva y hace llegar a nosotros lo que las anteriores
generaciones han creado.
Georg. W. F Hegel

Conocimiento y búsqueda de la idea-verdad


El distintivo “progreso humano” ha estado sujeto a la
capacidad del hombre para afrontar desafíos de la vida a
lo largo de su historia. Nuestra esencia demanda aspectos
elementales que a veces no sabemos cómo abordar, porque
llanamente no los comprendemos. Definimos con acciones
lo que el pensamiento determina como mejor camino
en medio de un complejo escenario: el mundo y yo en él.
Pero toda potencialidad para decidir está supeditada a un
conocimiento y, por lo tanto, lo que define el desarrollo de
la vida recae en la facultad y capacidad de transformar ese
conocimiento en utilidad-provecho.
Aristóteles concertaba que la inteligencia humana tenía
esta doble capacidad: una plena orientación transformadora
de la vida, de las necesidades básicas, el desarrollo como
meta final, y la capacidad del hombre (el escultor) para

17
WILMER JOSÉ TÉLLEZ ACOSTA

lograr esos resultados (causalidad final y eficiente). Desde


el pensamiento religioso-teológico hasta otras filosofías
centradas en la deidad, que depositan la razón en la fe, han
trazado sus rutas cognitivas sobre el sentido del hombre en
la tierra. La capacidad para conocer se transforma en un
proceso hacia lo divino, lo deseado, la verdad como camino
a Dios y al bien. Incluso en la arena política moderna se
comprende el poder del pacto social como estructuras
dirigidas al beneficio colectivo, exaltando la libertad e
igualdad como máximas del bien común (Rousseau,
1762/2005), y el conocimiento como instrumento para
materializarlas.
Esto define al hombre como un buscador de respuestas:
¿sobre qué? Sobre las cosas del mundo; respecto a las
cuales su actividad suprema es conocer. La filosofía griega
comprendía el amor a la sabiduría como un carácter
racional y reflexivo de la acción humana; la relación del
mundo de las cosas y el hombre es de conocimiento. ¿Quién
conoce?, el hombre, ¿sobre qué conoce?, sobre cosas,
objetos sensibles e inteligibles; y ¿para quién conoce?, para
otros hombres (sujeto-conoce-objetos-para otros-sujetos).
El realismo concibe el conocimiento como la asignación
de conceptos que representan realidades, una abstracción
semántica de los hechos. Un sabio era aquel que andaba por
el mundo al tanto de conceptos que correspondían a cosas,
podía establecer lo real mediante definiciones/enunciados
que daban cuenta de la esencia de los hechos, su capacidad
cognitiva era un reflejo de la verdad.
Sócrates hablaba de definición como una pretensión de
conocer qué son las cosas. Aquí inicia Platón su filosofía:
la definición socrática centraba la predicción unitaria de
correspondencia entre las formas A y B. “El hombre es
mortal” es una predicción unitaria porque A es B, identifico

18
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

al hombre con la mortalidad; por lo tanto, no existe lo que


es cada cosa en concreto, sino lo comprendida en ella. El
ser verdadero no está en las cosas, sino en las ideas (eidos);
es decir, en el conocimiento y visión de las cosas como
tales (Marías, 2005). Pero Aristóteles introduce un tema de
gran importancia: las causas, el conocimiento universalista
(científico) es un saber no accidental, sino más bien de
esencia demostrativa. Las cosas se conocen por sus causas.
De esta manera, se tiene que el hombre no sólo busca (re)
conocer conceptos sobre las cosas, sino que se preocupa por
relaciones entre hechos para entender eventos. Un hombre
posee la condición x, causada por la presencia de a, b y c, se
puede entender que a mayor intensidad de a, b y c, mayor
será la condición x en el hombre. Este estado particular de
causa-efecto en el plano cognitivo permite distinguir un
sentido intuitivo, perceptivo, opinático, que generalmente
se obtiene sin buscarlo, y un conocimiento racional, con
estructura lógica que adquirimos cuando lo buscamos. Aquí
la esencia platónica de doxa (paradoxa-opinión) y episteme
(ciencia) como saberes filosóficos, dos definiciones nada
contradictorias, sino complementarias. La dialéctica de Platón
precisaba dos momentos a la hora de resolver un problema:
un principio intuitivo, un flechazo sobre ideas de las cosas, y
un segundo momento de crítica para esclarecer la intuición,
depurarla (García Morente, 1978), según una oposición
(contraposición) entre opinión-crítica y su superación en el
intercambio dialógico de afirmaciones y negaciones.
La etapa del saber intuitivo, cotidiano, algunas veces
accidental, suele denominarse en la literatura metodológica
como conocimiento ordinario, común o vulgar, que encierra
a sus anchas perspectivas especulativas, espontáneas o
permeadas por dogmatismos e ideologías. A diferencia
de una segunda etapa que comprende un saber buscado

19
WILMER JOSÉ TÉLLEZ ACOSTA

mediante procesos que aseguren describir el objeto tal


como es, como se manifiesta, y no como quisiésemos que
fuese o manifestara. Es un tipo de conocimiento que no
depende de quien busca, sino de la habilidad/experiencia
del sujeto para servir de mediador entre la idea (su qué) y lo
real (los hechos). Referente a la segunda etapa, denomino a
esta búsqueda investigación, entendida como una actividad
dirigida a obtener respuestas sobre un determinado objeto,
despejando vacíos cognitivos donde la idea es el resultado
de un proceso crítico, razonable y lógico, más que una
definición perceptiva e intuitiva del hecho. Al buscador de
este conocimiento lo denomino investigador.
Pudiese pensarse que un conocedor espontáneo,
intuitivo, dogmático se relaciona con lo falible, incierto
o con la idea de irreal, mientras que el investigador con
lo infalible, verdadero y real. Esta postura es cuestionable
y criticable, pues muchas veces la intuición que genera
la experiencia o la ideología es más aguda en despejar
problemas cognitivos que investigaciones de rígido, lógico
y sistemático proceder. La experiencia de un granjero
en el campo puede brindar una idea más expedita de
las múltiples causas que origina una buena cosecha, al
traste de la inexperiencia pero calidad investigativa de un
conocedor urbano. Un poema o canción pueden brindar
una radiografía sobre cierto hecho tal como cualquier
investigación bien elaborada. Pero ¿cómo diferenciar un
conocedor experimentado de uno no experimentado?
¿Cómo saber si su experiencia o ideología conduce a un
saber confiable sobre el tema? ¿Cómo determinar si la
intuición de un sujeto es más válida que la de otro? ¿Cómo
comparar la fiabilidad de respuestas provenientes de la
experiencia, ideología o investigación? Preguntas similares
han impulsado al hombre a encontrar la “mejor forma” de

20
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

conocer lo verdadero, y la ciencia es hija de esta ambición


a lo largo de la historia.

Hacia el conocimiento científico: esbozo histórico


Una investigación busca la idea de verdad comprobable
en el proceso riguroso más que en la intuición absoluta. Es
una máxima de la ciencia moderna y una herencia de larga
data. El antiguo saber filosófico trazó sus procesos/métodos,
ya que se comprende como una disciplina rigurosa al igual
que la ciencia, pero no es ciencia (García Morente, 1978).
Sobre el método filosófico se tiene la propuesta de Sócrates,
fundamentada en la pregunta: mayéutica socrática; y si nos
trasladamos al siglo XXI, preguntar es un pilar fundamental de
la ciencia; para muchos científicos el proceso de investigación
empieza con una pregunta. La técnica de entrevista es otro
ejemplo. El método de Platón era la dialéctica; siglos después
era el método de Hegel durante el idealismo alemán, también
el método del marxismo en el mundo industrial. El método
de Aristóteles era la lógica; siglos después, paradigmas como
el silogismo tuvieron gran influencia en el pensamiento
humano, y en la actualidad aún se trabaja con derivaciones
de criterios para resolver un interés particular.
En pocas palabras, la ciencia no nació de la nada; no fue un
invento moderno, sino una síntesis de estructuras cognitivas
que evolucionó durante siglos basada en la propia razón del
hombre. Pero no todo el tiempo la racionalidad fue el eje
instrumental del saber; la magia, los mitos y sin duda la fe
fueron precursores de la ciencia. Durante el cristianismo y
el periodo medieval la fe fue el centro del saber; el esfuerzo
terrenal para conseguir la verdad de la vida apuntaba a la
supremacía de Dios. Agustín (san Agustín) exponía la
historia del hombre como una lucha eterna entre el reino
de Dios y el de la civilización humana (civitas terrena); las

21
WILMER JOSÉ TÉLLEZ ACOSTA

creaciones regulatorias de la vida del hombre, como Estado,


Iglesia y en sí la política, tenían significación divina, no
terrenal. La razón era un medio para descubrir a Dios en la
verdad —Dios palabra y razón—. En el período medieval,
la aparición de las escuelas fundamentaba un conocer
teológico que se debatía entre interpretaciones dogmáticas
y racionales, convirtiéndose así en un objeto filosófico.
Por esta razón, el escolasticismo se conoce como una corriente
teológica-filosófica que coordinaba la fe y la razón.
El escolasticismo estuvo muy influenciado por la
concepción teológico- filosófica de Tomás de Aquino, quien
adapta la filosofía aristotélica a la esencia cristiana; aunque,
a diferencia de Aristóteles, lo que mueve a Tomás de Aquino
es la demostración de Dios y la interpretación racional de su
autoridad. Lo interesante de su concepción es el doble saber
que representa la teología y la filosofía: el primero, se sustenta
en la revelación divina; el segundo, en la razón humana, pero
una contradicción entre ambas comprometería la verdad y,
por lo tanto, el error no puede residir en Dios, sino en la
razón truncada del hombre. Esta perspectiva refleja que la
verdad se encuentra en la autoridad divina, y de allí es que
empieza el proceso de conocer.
La influencia del tomismo aristotélico-escolástico en
el pensamiento moderno presentaba en el siglo XIII un
nuevo rumbo cognitivo. La figura del inglés Roger Bacon
es clave en la concepción científica ligada igualmente
al sentido explicativo de la verdad en Dios, pero su
doctrina reconoce tres modos de saber: autoridad, razón
y experiencia. Aquí R. Bacon expone que el criterio de
autoridad requiere del ejercicio de la razón humana para
obtener la verdad, pero que este razonamiento no es seguro
si no se contrasta con la experiencia, y es aquí donde está
la certeza (Marías, 2005). La concepción de Roger Bacon

22
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

es uno de los antecedentes más importantes de la filosofía


contemporánea que define el paso a la ciencia.
La física moderna cambia la perspectiva con
que se abordan los problemas de la naturaleza. El
lenguaje matemático es la nueva concepción expresiva,
conmensurable de la variación de los fenómenos. Al
llegar Newton a la formulación de la ley de gravitación
universal, la geometría analítica y el cálculo infinitesimal,
instrumentalizaba el camino seguro del conocimiento,
representada por la pureza cuantitativa de la ciencia
positiva. El método de Galilei (a la vanguardia de la física
moderna) define “claridad” tanto en el proceso como en
el marco analítico que se fundamenta en la experiencia
y observación, lo que se conoce como análisis de la
naturaleza (Marías, 2005). La física moderna comprende
el saber desde una concepción apriorística conocida como
hipótesis, enunciado que es sujeto a comprobación mediante
la experimentación. El saber científico es a priori y se
conoce lo que va suceder, tiene un esquema predictivo. La
experimentación sólo confirma o desmiente a posteriori la
hipótesis. La propuesta de Galilei es deductiva e hipotética,
pero deviene no de textos o argumentos de autoridad, sino
de la inducción observacional.
Con la experiencia y observación se da una ruptura
gnoseológica. El criterio de autoridad era objeto de
críticas que generó resistencia dentro de los esquemas
axiomáticos del saber. No se trataba de deducciones a
partir de premisas dogmáticas, autoritarias, incuestionables
que proporcionaran el punto de partida para analizar
particularidades, sino de un proceso que delegaba en la
experiencia la contemplación de regularidades conducentes
a proposiciones generales. Por lo tanto, el método inductivo
es el que permite la elaboración de proposiciones hipotéticas

23
WILMER JOSÉ TÉLLEZ ACOSTA

susceptibles a contrastar empíricamente, y es el procedimiento


que irrumpe en la lógica del razonamiento moderno.
Esta ruptura gnoseológica puede entenderse mejor con el
silogismo. El escolasticismo se caracterizó por un método que
revelaba la verdad contenida en principios generales de la fe. El
silogismo consistía en un razonamiento donde toda referencia
particular arrojaba un saber deducido lógicamente de un
principio general. La autoridad reside siempre en el principio
mayor. Por ejemplo, las personas altas sufren del corazón,
Carlos es alto, Calos sufre del corazón.

Premisa mayor/general: las personas altas sufren del corazón.


Premisa menor/particular: Carlos es alto.
Conclusión: Carlos sufre del corazón.

La crítica al silogismo es ¿cómo se determinó que


las personas altas sufren del corazón? En el caso del
escolasticismo, la premisa general era alcanzada por la verdad
revelada desde la autoridad eclesiástica, fundamentada
en criterios aristotélicos. A través del siguiente ejemplo se
puede analizar el caso de Galileo Galilei:

Premisa mayor/general: El sol gira alrededor de la tierra.


Premisa menor/particular: El hombre habita en la tierra.
Conclusión: El sol gira alrededor del hombre.

Sobre esta conclusión que pretende un nuevo saber,


Galilei preguntaría: “¿Qué evidencia se tiene de que el sol
gira alrededor de la tierra?”. Las observaciones de Galilei
(ya sostenidas anteriormente por Copérnico y Kepler) le
condujeron a afirmar que el sol es el centro del universo.
El criterio de autoridad de la Iglesia interpretaba en la
Biblia que la tierra era el centro del universo, y como la

24
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

verdad reside en Dios, todo razonamiento del hombre que


presentara una dirección contraria era un hereje. Galilei
fue condenado, confinado y obligado a retractarse por
su “error” tras un juicio que duró más de 17 años. Sobre
la conclusión de que el sol gira alrededor de hombre, el
enunciado tiene rasgos de falsedad por dos criterios
racionales: 1) no hay sustento que nutra la premisa
mayor, es decir, nada conduce al carácter verdadero en el
enunciado “El sol gira alrededor de la tierra”; 2) la inducción
observacional indica que el sol es el centro del universo, en
consecuencia no puede girar alrededor de la tierra y hace
ilógica la tesis de que el sol gire alrededor del hombre.
Aunado al contexto histórico donde la fe se desvanecía,
al igual que la autoridad eclesiástica, el silogismo se
derrumbaba como proceso cognitivo porque en realidad
no descubría nuevas verdades, sino que especificaba
particularidades ya comprendidas en premisas generales.
Por lo tanto, si el criterio de autoridad era un error, el
silogismo propagaría conclusiones erróneas. Este es el punto
de partida del pensamiento filosófico de René Descartes
y Francis Bacon, su denominador común era el rechazo
al silogismo como responsable del atraso de la ciencia.
Refería F. Bacon, en el Novum Organum (1620/1980), que
el silogismo era infecundo para la invención científica y
consolidaba errores provenientes de nociones vulgares,
era más inútil que útil.
La filosofía moderna constituida en el siglo XVII se
opone al escolasticismo y se conduce entre la frontera
filosófica y religiosa. Las respuestas proporcionadas al
hombre por siglos parecen contradecirse, derrumbarse,
con descubrimientos científicos recientes. La rotundidad
de la tierra echaba por el piso la física aristotélica sobre la
imagen terrestre; el nuevo sistema planetario presentado

25
WILMER JOSÉ TÉLLEZ ACOSTA

por Copérnico y Kepler desecha la vieja relación de la tierra


en relación con los astros, pues no sólo es un planeta, y uno
no muy grande, sino que es un cuerpo secundario dentro
de un complejo sistema, del cual no es el centro (García
Morente, 1978). Este escenario genera escepticismo, y es
cuando René Descartes fundamenta su método en la duda.
No admite verdad de la que no se pueda dudar; por lo tanto,
todo es falso. Su primera verdad indubitable es que la duda
implica pensar, y el ser pensante denota existencia —cogito
ergo sum—: “Veo muy claramente que para pensar es preciso
ser” (Descartes, Discurso del método, 1637/ 2011:123).
El cartesianismo se fundamenta en la distinción y
claridad de ideas como evidencia de razón. El racionalismo
de Descartes define la ciencia apriorística rechazando
esquemas perceptivos y sensitivos frente a la única
instancia válida del saber: la razón. Pero este método
también es idealista, las cosas del mundo no pueden existir
sin la plena conciencia de ellos: “… solo sé de las cosas
en cuanto las veo, las toco, las pienso, las quiero (…) en
cuanto están en relación conmigo y yo soy testigo de ellas”
(Marías, 2005: 215). El yo como fundador del ser. Esta
concepción es opuesta al realismo, que asume la existencia
del ser sin importar la plena conciencia de ello; las cosas
son y existen independientemente de mí.
El pensamiento cartesiano determinó toda una
institución filosófica de gran influencia tanto en Francia
como en el resto del Continente; sin embargo, a la par
del idealismo-racionalismo, la filosofía inglesa madura
entre los siglos XVI-XVIII un modo de pensar autónomo,
definido y crítico a la corriente representada por Descartes.
Se trata del empirismo. El centro de esta corriente señala
que el conocimiento del hombre debe ser a posteriori de
su experiencia con la realidad. Empirismo proviene del

26
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

griego έμπειρία, en latín experientia (experiencia). Aunque


ya Roger Bacon había preparado el camino del empirismo,
la literatura clásica alude en Francis Bacon un personaje
insoslayable de esta corriente, a quien se le reconoce como
introductor del empirismo por el método inductivo1.
Como se comentó anteriormente, F. Bacon se opone
al silogismo por considerarlo un atraso para la ciencia,
un mecanismo superficial y erróneo si su carácter lógico-
demostrativo parte de un principio incierto. La inducción,
por el contrario, establece una sistematización de hechos
individuales que permite inferir principios generales; así,
el conocimiento es el resultado de experiencias limitadas
donde siempre existirá la posibilidad de que una nueva
observación futura invalide el principio. Esto es lo que
se conoce como inducción incompleta, que es el interés
del empirismo, pues de existir la posibilidad de observar
todos los objetos en cuestión (inducción completa), se puede
afirmar que el resultado tiene cero probabilidad de error,
porque se supone que no quedaron observaciones por fuera
que puedan desmentir la conclusión.
Uno de los rasgos más distintivos del empirismo no
sólo es su propuesta heurística del saber, sino el trasfondo
reformista que implicó el debate/producción de ideas en
siglos anteriores, y el consecuente regimiento de la dinámica
política, económica y social. El Estado moderno, el gobierno
civil, la justicia e igualdad del soberano articulaban
propuestas prácticas que tuvieron su mayor visibilidad
1
Es importante destacar que Francis Bacon es un par de generaciones anterior
a Descartes (1596-1650). F. Bacon nace en 1561 y muere en 1626, mientras que
Galileo Galilei nace en 1564 y muere en 1642; Juan Kepler nace en 1571 (diez
años después que F. Bacon) y muere en 1630. Esto permite sostener que el ca-
rácter empírico del conocimiento a través del inductivismo en la “modernidad”
no puede endosarse absolutamente al pensamiento inglés, así como tampoco a
la figura de Francis Bacon.

27
WILMER JOSÉ TÉLLEZ ACOSTA

con la Revolución francesa. Así, el empirismo inglés y el


racionalismo “continental” abren paso a nuevos períodos
y corrientes sobre el conocimiento que coadyuvan en la
constitución científica del siglo XX. El Idealismo alemán,
por su parte, alcanza su máxima expresión intelectual
con Immanuel Kant y G. Friedrich Hegel, y representa un
ejemplo de aquella Alemania prominente que le regala al
mundo una de las manifestaciones más elaboradas del
pensamiento humano. No en vano era la misma época de
Goethe, Beethoven, Hölderlin, Fichte, Schiller, Humboldt,
Von Kleist, por señalar otras figuras emblemáticas.
Con este esbozo histórico introductorio se evidencia que el
camino hacia la ciencia es de larga data y dilatada perspectiva
gnoseológica, no agotada en esta lacónica exposición. Me
parecía inapropiado generar una discusión epistemológica
sin ubicar históricamente las particularidades que hacen
hoy día posible definir el pensamiento científico. Pretendo
en adelante sintetizar los principios generales de la ciencia
como forma de conocimiento.

La ciencia y sus principios


Una de las diferencias esenciales entre filosofía y
ciencia es la delimitación del objeto. El saber total y
universal era el terreno donde se movía la filosofía, un
producto enciclopédico del conocimiento humano, pero
esa totalidad con el tiempo se fue segmentando en áreas
como la astronomía, matemática, física o química. En el
siglo XXI abundan delimitaciones del saber, por ejemplo,
no suele hablarse sobre medicina en su generalidad, sino
de sus especialidades: cardiología, traumatología, pediatría,
oftalmología. Igualmente pasa con la ingeniería, las
referencias son hacia sus ramas: civil, industrial, mecánica,
eléctrica. En el área social, puede tratarse de economía

28
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

si el enfoque es sobre mercados, producción, industria;


politología, si es sobre el equilibrio del poder partidista o
ideológico; sociología, si el interés recae en los sentidos de la
interacción social. Incluso, si el objeto guarda relación con
procesos sociales a partir de bases biológicas de la conducta
humana se habla de sociobiología. En su gran mayoría, estas
subdivisiones del conocimiento que denotan autonomía por
la naturaleza de sus objetos se asumen como ciencia.
Ahora bien, la ciencia constituye un tipo de conocimiento
que se desprende de la filosofía; es una actividad construida
y razonada a lo largo de la historia para tratar objetos
—delimitados y parciales— del mundo, con ciertos
fundamentos orientados a generar garantías de certeza en
sus productos. Pero, así como la ciencia trata objetos, la
ciencia en sí misma es objeto: ¿de quién es objeto de estudio
la ciencia? De la propia filosofía, dentro de su especialidad
denominada epistemología. Mario Bunge (1980: 21) define
epistemología como “la rama de la filosofía que estudia
la investigación científica y su producto, el conocimiento
científico”; por lo tanto, la ciencia como objeto está en
constante evaluación/reflexión abordando asuntos como su
constitución lógica, ética, semántica, metodológica o teórica,
por solo mencionar algunas áreas de problematización
sobre el conocimiento científico.
Cuando el conocimiento humano era objeto de la
totalidad filosófica se sostenía en dos líneas medulares: la
ontología, teoría o estudio de lo que es cognoscible (cualquier
objeto), y la gnoseología como teoría del conocimiento
sobre los objetos (cualquier conocimiento). El interés por
la ciencia en períodos recientes impulsó la epistemología
como una rama importante del saber, especializada en
conocimiento científico, constituyéndose en el tiempo
como una actividad intelectual obligatoria en muchos

29
WILMER JOSÉ TÉLLEZ ACOSTA

currículum académicos y universitarios en todo el mundo.


Puede entenderse, entonces, que la ciencia es resultado del
carácter reflexivo epistemológico, a su vez productor de un
saber condicionado por una labor investigativa y un proceso.
Una de las particularidades esenciales en la definición
ofrecida como investigación, era su inclinación por la idea
como resultado de un proceso crítico, razonable y lógico más
que por la intuición o percepción de hechos. Ese proceso refiere
al método científico. Todo proceso es una instancia práctica,
y en la literatura científica suele definirse “método”, por sus
raíces griegas metá (“hacia”) y odos (tramo, camino), como
transcurrir el camino para un fin, bajo ciertos parámetros
operacionales de los que se vale la ciencia para arrojar sus
productos. Pero en sí, el método centra su función en
la intervención práctica hacia la generación de nuevos
conocimientos, y para cumplir con esa labor, tiene que valerse
teóricamente en una serie de ideas, tanto del objeto sobre el
cual opera como de los fundamentos de esa práctica (Núñez
Tenorio, 1976). Núñez Tenorio advierte que un método que
no se sustente en “determinados principios (aun cuando
todavía no hayan sido descubiertos plenamente) acerca de
los objetos que estudia no puede existir. En todo método hay,
pues, una función teórica secundaria, al mismo tiempo que
hay una función metódica (práctica) principal” (p. 38).
Sintetizando las discusiones expuestas sobre tres ejes
centrales: conocimiento, investigación y método, se
puede referir a la ciencia como un tipo de conocimiento
racional que delega en la instrumentalidad teórico-
práctica un proceso que traza su marco operativo (método
científico), mediante una búsqueda orientada a despejar
vacíos cognitivos sobre determinado objeto (investigación
científica). La finalidad de este conocimiento (científico)
es potenciar la capacidad humana para que pueda hacer

30
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

lo que se debe hacer (objetivo científico ideal). El sujeto


practicante de la ciencia se define como científico.

Objetivo de la ciencia

Un interés capital de orden epistemológico es el carácter


distintivo de la actividad científica en la obtención de
conocimiento. El cuerpo teórico que sistematiza la realidad
en forma discursiva (leyes, conjeturas, argumentos) no es
un asunto estrictamente acumulativo referencial —aunque
la ciencia se concibe como un sistema articulado de ideas—,
sino de cómo y por qué determinado conocimiento es
aceptado o rechazado por una comunidad científica.
Un juicio accidental u opinático no podrá ser aceptado
científicamente si no satisface criterios metódico y lógico
que permitan sustentar la idea-referencia como válida, tanto
en su fase de propuesta como en su contrastación. Cuando
se señaló anteriormente que la experiencia o ideología
podían suministrar conocimiento confiable así como la
ciencia, es porque toda proposición que pretenda ser una
referencia del mundo de las cosas puede ser base para la
construcción del conocimiento científico, siempre y cuando
sea inteligible y comprobable. A continuación, un ejemplo.
La experiencia de un comerciante sugiere que durante
los meses de noviembre y diciembre la actividad delictiva
incrementa. Un marxista, por su parte, afirma que lo
señalado por el comerciante es verdad, pues el consumismo
hace que el hombre de valores capitalistas exacerbe su sed
materialista en el período de mayor actividad comercial.
La proposición “La delincuencia aumenta en las fechas de
mayor actividad comercial del año (noviembre y diciembre)”
parece ser razonable desde la perspectiva del comerciante
y la del marxista. Es un discurso lógico y articulado desde

31
WILMER JOSÉ TÉLLEZ ACOSTA

la experiencia-percepción y del análisis social del hombre


industrial. Un científico, al escuchar la conversación, se
interroga: “¿La actividad delictiva se incrementa en las
fechas de mayor actividad comercial del año?”. Y aunque
todo a su alrededor lo induce a que es así, el científico sabe
que la variación delincuencial es un hecho conmensurable,
inteligible, por lo tanto, los reportes criminales de la ciudad
pueden servir para determinar la veracidad de la conjetura.
Al final, cuando se le pregunte al científico si el comerciante
y el marxista estaban en lo cierto, este deberá responder:
“No manejo evidencia que indique lo contrario”.
Este ejemplo ad hoc permite reflexionar que la ciencia
no es la verdad, sino una actividad humana que intenta
disminuir los rasgos de falsedad en sus exposiciones; no
es una entidad superior al resto de las formas de conocer,
pero intenta ser un proceso que nunca cierra las puertas al
cuestionamiento de sus productos/resultados. La ciencia no
coloca puntos finales mientras el hombre nunca pierda la
capacidad de dudar y testear. Así, el objeto de la ciencia es el
entendimiento traducido en ideas que sirvan como referencia
del mundo, nunca como forma acabada de conocimiento,
sino de constante contrastación con la realidad.

Clasificación de las ciencias

Existen principios elementales que, de alguna manera,


todo conocimiento científico debe contener —puntos
comunes—. La segmentación de áreas, que con el
tiempo demandaron una particular instrumentalidad
operativa según sus entes, presenta rasgos intrínsecos de
las propiedades de estos entes/cosas que no permiten
compartir similares esquemas heurísticos ni de validación.
La razón concreta es porque prevalece un diferencial

32
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

ontológico. Así, por ejemplo, la matemática se ocupa de entes


ideales y establece relación entre ellos mediante un sistema
deductivo lógico (si a es mayor que b, y b es mayor que c, en
consecuencia a es mayor que c), se trata de una formalidad
que no implica conocimiento de la realidad. Al contrario de
la sociología, que puede establecer una relación ontológica
subjetiva porque el sujeto está inmerso en el mismo contexto
de la realidad donde investiga. Aunque la sociología puede
servirse de la matemática para abordar sus problemas
científicos, se requiere de mayor instrumentalidad para
conocer las propiedades o rasgos distintivos de su objeto.
Con las particularidades ontológicas, epistemológicas,
axiológicas, metodológicas y técnicas que demandan áreas
científicas para abordar sus respectivos problemas, se hace
imposible dominar, como bien señala Sabino (1992), una
amplia gama de temas por la especializada demanda que
requieren los polifacéticos y diversos fenómenos que nos
rodean. Por esta razón, la ciencia como industria trabaja por
departamentos según la naturaleza del saber, permitiendo
un grado de complementariedad interdisciplinaria que
perfectamente puede coadyuvar en la consolidación del
sistema práctico-científico.
Una primera clasificación de la ciencia comprende
la formalidad del objeto a través de ideas-abstracciones,
construidas deductivamente y donde la no contradicción
evidencia coherencia lógica. No implica un acercamiento
con la realidad (por eso es ideal, se encuentra en nuestro
pensamiento y en expresiones lingüísticas que traducen la
intangibilidad) y su sentido distintivo es la demostración.
Estas ciencias son las llamadas formales, como la matemática
y la lógica. Por otro lado, se encuentran las ciencias fácticas,
aquellas que se ocupan del mundo físico, tangible, manifiesto.
Su objeto no es ideal sino real, por eso la expresión lingüística

33
WILMER JOSÉ TÉLLEZ ACOSTA

busca correspondencia entre ideas y eventos observables.


Aunque las ciencias fácticas necesitan de la lógica formal, su
criterio de verdad reside en la contrastación empírica de sus
conjeturas. Bunge (1981) señala que “… las ciencias fácticas
tienen que mirar las cosas y, siempre que les sea posible,
deben procurar cambiarlas deliberadamente para intentar
descubrir en qué medida sus hipótesis se adecúan a los
hechos” (p. 15). La sociología, psicología, física y química
son ejemplos de ciencias fácticas.
Dentro de las ciencias que abordan la realidad conjetural
contrastable empíricamente (ciencias fácticas), puede
establecerse una subclasificación al considerar los objetos de
estudio. Cuando se refiere a la sociología, psicología, física
y química como ejemplos de ciencia fáctica, nótese que las
primeras dos tienen como objetos de estudio la humanidad
desde una perspectiva de interacción colectiva, no tanto
del hombre biológico, sino del hombre como parte de un
sistema social. A estas ciencias se les conoce como humanas
y/o sociales/culturales. Dentro de esta subclasificación se
comprende la economía, antropología y la historia. Por otro
lado, la física y química estudian objetos de la naturaleza que
existirían independientemente de las relaciones sociales. La
gravedad, por ejemplo, es un fenómeno natural que existe
independientemente de si la humanidad está en guerra o no;
un carro que acelere a “x” velocidad, por “y” tiempo llegará
a una “z” distancia sin importar si se trata de un delincuente
o de un buen samaritano. A estas ciencias se les denomina
físico-naturales o simplemente naturales.
Finalmente, podemos hacer una tercera distinción entre
las llamadas ciencias puras o bases y aplicadas. La primera
trabaja sobre la estructura referencial teórica que busca la
validez de proposiciones sobre el objeto. Su interés recae
en la constante búsqueda de conocimiento a través de

34
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

nuevos descubrimientos o testeando los ya existentes para


madurar la precisión discursiva de la ciencia. Las ciencias
aplicadas se interesan por lo aplicable de la información base
para generar utilidad (de allí la visión utilitarista de esta
clasificación) concreta, bienes y servicios para el hombre.
Esta distinción ha traído abundante discusión en el
mundo científico y social en general. En primer lugar, porque
la dinámica poblacional en el siglo XXI demanda mayor
capacidad para generar bienes y servicios ante las cada vez
más notables carencias para el desarrollo. Esto ha inducido
a concebir al científico más como un productor que como
un mero conocedor, pues el problema está afuera, en las
calles, en las necesidades, y no en los laboratorios o centros
de investigación. Este pensar no sólo se ve en políticos
que quieren generar cambios dentro de sus gestiones, sino
incluso en el mismo estudiante universitario, movido más
por sus ganas de generar cambios que en conocer o aprender
a elaborar teorías que en la inmediatez no transforma nada
real. Pérez-Tamayo (2001: 369) señala que “toda la ciencia
es aplicada porque todo el conocimiento sirve para algo,
todo se aplica…”. La ciencia es unidad primaria para generar
cambios y bienes, el hombre conoce para afrontar desafíos
diarios, por eso el conocimiento es un proceso, y la ciencia
se asegura de un conocimiento válido porque es lo que
conducirá a una buena generación de fines para la vida.
En el concepto que se ofreció de ciencia está implícito esa
discusión entre lo puro y aplicado, pues el hombre tiene que
aumentar su capacidad cognitiva para que haga lo que deba
hacer. La tecnología es una expresión aplicada que se nutre
de leyes bases/puras provenientes de la química o física, por
eso se habla de “tecnociencia”, por la estrecha relación entre
el conocimiento y la producción de bienes. Sabino (1992)
agrega: “No hay ciencia aplicada que no tenga detrás suyo

35
WILMER JOSÉ TÉLLEZ ACOSTA

un conjunto sistemático de conocimientos teóricos ‘puros’, y


casi todas las ciencias puras son aplicadas constantemente”
(p. 24). Por lo tanto, las ciencias puras y aplicables tienen la
misma orientación final, pero en diferentes etapas.

Objetividad y verificabilidad

El término objetividad es polémico en el mundo científico.


Su concepción sugiere el objeto, el hecho, lo que constituye
la realidad, aquello que el científico debe reflejar en su
exposición. Su propósito es poder ajustar el objeto a una
representación discursiva sobre él. Esta condición se vitaliza
cuando nos desprendemos de cualquier carga valorativa que
pueda impregnar el conocimiento-producto. La realidad
como es, no como la vemos o quisiésemos que fuese. El
contraste de objetivad es subjetivad: un resultado plegado a la
percepción, prejuicio, sentido, imaginación, intuición.
Hay una gran dosis de ilusión en la objetividad científica,
pues el sujeto es inherente a su humanidad impregnada de
valores, sentimientos, prejuicios. Más aún si su objeto le afecta
directamente como suele suceder en lo político, económico,
social o cultural. Al señalar Durkheim (2010) la necesidad de
desechar toda premonición a la hora de tratar un hecho social,
alude inmediatamente a la duda cartesiana, que se fundamenta
en cuestionar las ideas recibidas anteriormente. La concepción
positiva del método sociológico propone desechar datos
sensibles a las particularidades del observador y retener aquellos
que presentan grados de objetividad, y manifiesta que esta
condición “es la existencia de un punto de referencia constante
e idéntico, con la cual es posible relacionar la representación, y
que permite eliminar todo lo que ella tiene de variable y por lo
tanto de subjetivo” (p. 65). Desde esta perspectiva se plantea el
avalorismo científico en el área social.

36
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

¿Cómo podemos evaluar la objetividad? ¿Cómo tener


certeza de que un conocimiento está libre de cargas
subjetivas? Por los momentos, puedo señalar que la
objetividad se relaciona con la realidad o idea de verdad, y es
un asunto, como señalaba Aristóteles, que se encuentra en
el pensamiento o en el lenguaje, por lo tanto, la objetividad,
realidad o idea de verdad se circunscribe en el discurso que
agota evidencias, reduciendo variabilidad de criterios. No
es lo mismo decir: “El salón es grande”, a “El salón mide 50
mts2”. En el primer caso, tenemos un discurso que refleja
ambigüedad de quien observa, su sintaxis induce a criterios
variables, pues alguien puede señalar que es pequeño, y
también tendría razón. El segundo discurso parece agotarse
en la evidencia que refleja un proceso, no una apreciación
ambigua; en este caso, un proceso conmensurable que
condiciona lo cierto o incierto.
Pero esta concepción no es absoluta del mundo medible.
No es lo mismo decir: “La gente está agresiva en la calle”, a
señalar: “He observado mayor manifestación de agresividad
en la calle”, ¿Alguien puede cuestionar la segunda
afirmación? ¿Es falso que él ha observado? El discurso agota
correctamente el objeto, pues “él ha observado”. Lo que no
puede incurrir es a señalar: “La gente está agresiva en la
calle”, porque “lo he observado”. Estos ejemplos permiten
considerar la advertencia que hace Sabino (1992), de no decir
que la ciencia es objetiva, sino que pretende la objetividad;
esto es similar a señalar que la ley es justa, sería ilusorio,
pero la ley siempre persigue la justicia. Cuando un juez
imparte justicia lo hace en función a evidencias, igualmente
sucede con la objetividad científica. La verificación es para
la ciencia, lo que la evidencia es para la ley.
Cuando señalo que la ciencia es verificable es porque
prevalece un criterio para mostrar una condición de verdad

37
WILMER JOSÉ TÉLLEZ ACOSTA

a través de la observación concreta. Por esto muchas veces la


referencia de ciencia empírica, porque la conjetura que denota
una idea-verdad debe poder estar estructurada de una manera
admisible a la observación y contrastación. Al respecto,
Ramírez (2005) señala que una “proposición o enunciado
sería verificable, y por tanto una hipótesis, sólo cuando
es posible mostrar aquellos enunciados de observación
o ‘protocolares’ a partir de los cuales podría inferirse su
veracidad” (p. 66). Por su parte, Bunge (1981) señala que “la
verificabilidad hace a la esencia del conocimiento científico;
si así no fuera, no podría decirse que los científicos procuran
alcanzar conocimiento objetivo” (p. 31).
Al referirme a que un enunciado debe ser contrastable, es
porque debe reflejar un despliegue de protocolos concretos
y definidos al ojo del observador. “El cobre se dilata con
el calor” implica una conjetura con sujeto y predicado
delimitado, al contrario de “El cobre es un agente maligno”;
la forma unitaria de A es B genera alto grado de abstracción
por la dificultad de definir “maligno”: ¿qué es exactamente?,
¿cómo me aproximo o lo aprehendo?; no puede haber un
criterio significativo del enunciado por la imposibilidad
de contrastarlo. Lo importante de la verificabilidad no es
el objeto, pues los objetos son, es la significación literal de
la frase. Como señala Ayer (1984: 8), “decir que una frase
expresa lo que es o verdadero o falso equivale a decir que es
literalmente significativa”.

Sistematicidad, generalidad y predicción

Lo sistemático de la ciencia obedece a una lógica


relación interna y conexa entre un grupo de ideas. Cada
elemento del complejo ocupa un lugar para dar sentido al
“todo”, de manera que no puede haber contradicción intra-

38
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

sistema, por el contrario, debe haber coherencia. Se puede


establecer que la ciencia produce sistemas de referencias
lógicamente organizadas a través de su estructura interna.
Cuando aceptamos la validez de un enunciado hipotético
sobre la forma unitaria A es B, probablemente sólo
estamos estableciendo un principio reduccionista de lo
que es A, porque puede ser que A sea también C, D, E, F…;
esto sería una visión más completa de A. Lo que refiere
la sistematicidad es que no puede haber inconexión y/o
contradicción entre A, B, C, D, E o F.
Esta misma lógica sistemática de la ciencia inspiró un
modelo teórico-metodológico en el siglo XX, de la mano
del biólogo Ludwing von Bertalanffy. La esencia recae en
que, a medida que los objetos de estudio se van haciendo
más complejos, las explicaciones de estos sistemas tienden a
considerar su entorno como objetivación de su “totalidad”.
En el curso de la ciencia, el saber no evoluciona linealmente
sino expansivamente, considerando una manera de ver las
cosas que se había pasado por alto ante un “reduccionismo”
(Johansen, 2006). Bunge (1981), en referencia a lo sistemático
de la ciencia, califica esta conexión de ideas como un órgano,
donde una sustitución (o fuerte contradicción) de cualquiera
de las hipótesis puede producir un cambio radical en una
teoría o sistema teórico. Desde la propuesta de Thomas
Kuhn, este escenario puede demarcar el inicio de un cambio
paradigmático o revolución.
Un ejemplo del enfoque sistemático permitirá ver con
facilidad la lógica interna de la ciencia. Imagine un partido
de futbol. Usted está en su casa y un canal de TV le da
la oportunidad de fijar la cámara sobre un solo jugador
durante los 90 minutos de juego. Durante el partido, el
jugador salta, corre, camina, se detiene, y nada parece darle
sentido a sus acciones. La única manera de entender sus

39
WILMER JOSÉ TÉLLEZ ACOSTA

movimientos es poder comprender qué pasa en el estadio:


¿dónde está el balón?, ¿dónde está el arquero?, ¿dónde está
el defensa rival?, y aun así faltarían muchos más elementos:
la estrategia del entrenador, la euforia emotiva del público, el
tiempo de descanso. Todos estos factores están articulados
en el estadio, están interconectados y dan sentido a cada
idea. La ciencia funciona similar, nuestra determinación
reduccionista de los objetos adquiere mayor entendimiento
al abrir el enfoque sistemático que proporciona la coherencia
articulada en el “todo”.
Por otro lado, la ciencia proporciona un conocimiento
generalizable como resultado de un intento por ir más allá
de la experimentación particular. La generalidad conforma la
síntesis que agrupa puntos comunes de eventos singulares, a
pesar de que en la práctica un científico difícilmente logre
comprobar una totalidad que sustente determinado postulado
teórico. Lo que evidencia la experiencia particular tiene
un carácter de interés científico en la medida que permita
la construcción de un panorama general del fenómeno,
no como forma acabada, sino para que sea el comienzo de
contrastaciones posteriores. Por eso es que las teorías son
puntos de llegada, y a la vez puntos de partida, es la concepción
cíclica e inagotable de la investigación científica.
La generalidad guarda estrecha relación con que la ciencia
trasciende los hechos, pues el plano concreto y observable
del saber va más allá de una acumulación de experiencias
sin sentido; busca globalizar. La ciencia no se reduce a la
mera observación porque allí no reside la verdad científica,
sólo la verdad del hecho aislado. Ander-Egg (2004:101) cita
palabras de Huxley que simplifican esta idea: “Aquellos que
renuncian a ir más allá de los hechos raramente obtienen
otra cosa que los hechos”. A la ingeniería no le interesa
si x número de trozos de cobre se dilatan con el calor, le

40
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

interesa la potestad de generalizar lo que comparten las


singularidades: “El cobre se dilata con el calor” —punto de
llegada, y en adelante, punto de partida—.
El conocimiento científico permite la predicción. Pregunta
referida al ejemplo anterior: ¿qué cree usted que suceda si un
trozo de cobre que tengo en este instante en mis manos lo
someto al calor? Probablemente, de acuerdo a la experiencia
de x número de metales que se dilataron con el calor, su
respuesta sea: se dilatará. No es premonición ni esoterismo,
es la lógica que encierra la potestad de que la ciencia vaya
más allá de los hechos y que permita un marco teórico
referencial del mundo. Si la forma unitaria A es B, se puede
predecir entonces que A1 es B1, y aquí entra otro principio
ya discutido, el enunciado (A1 es B1) no es científico si no es
verificado. De confirmarse la significación de la frase, nada
cuestiona que A siga siendo B. La predicción en ciencias es
un asunto de pasado, presente y futuro.

Describir, explicar y comprender


Conocer científicamente un objeto implica poder
comunicar con claridad y precisión sus propiedades:
su individualidad; así como identificar los factores que
intervienen para que tenga esas determinadas características.
Si bien Aristóteles había señalado siglos atrás que las
cosas se conocían por sus causas, es imprescindible que el
científico trabaje con ideas primarias sobre la naturaleza
del fenómeno, con referencias y conceptos delimitados que
facilite su clasificación y observación. La conceptualización
es clave en este proceso porque permite una relación
simbólica con cualidades que caracterizan-distinguen los
objetos. Este es el sentido de la descripción, dar a conocer
los referentes distintivos del fenómeno a través de una
precisión conceptual, que delimite a su vez el proceso

41
WILMER JOSÉ TÉLLEZ ACOSTA

de observación con el fin de dar paso a la consecuente


explicación del porqué eso es así.
Sería turbulento plantearse la relación entre A y B
cuando no se tiene clara la definición de A y B; además:
¿Por qué suponemos una relación A-B? ¿Bajo qué criterio o
referencia? ¿Por qué no A-C o B-D…? Aquí precisamente la
importancia de la ciencia descriptiva: sustentar racionalmente
el planteamiento y esclarecer los conceptos que hará
empíricamente viable la verificación. Podemos identificar
dos tipos de descripciones: las exploratorias, que consisten en
ese primer acercamiento con el fenómeno, originado por
las pocas referencias que existen sobre él en la comunidad
científica. Su propósito es poder generar interrogantes o
hipótesis precisas sobre algunas propiedades de ese primer
encuentro sujeto-objeto. No se habla de verificación de
hipótesis sino de proposiciones hipotéticas. Un segundo
tipo de descripción las he denominado deterministas, por
su aproximación al planteamiento causa-efecto. Este tipo
de descripción pretende un nivel de claridad conceptual y
terminológico referente a las propiedades del fenómeno, así
como la exposición de evidencias primarias de interconexión
entre unidades de observación para una posterior fase
demostrativa causal.
Cuando la descripción permite claridad conceptual
y evidencias primarias determinantes, se sabe qué es A y
qué es B, además de cómo puede denotarse sus respectivas
consecuencias observacionales; de igual manera, se tiene
indicios determinantes A-B (están correlacionados o
asociados, por ejemplo), por lo tanto, podemos decir
apriorísticamente “A causa a B”. Aquí reside la explicación
científica. En Aristóteles, el saber ya no era limitado a
discernir o definir, sino a demostrar (causa y principio
como esencia de la ciencia demostrativa). “Las causas son

42
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

los posibles sentidos en que se puede preguntar por qué”


(Marías, 2005: 69). La explicación establece que un(os)
atributo(s) del objeto tiene(n) determinada característica B
porque fue originada por determinado factor A, y que un
eventual cambio en A debería ser seguido por un cambio en
B para poder fijar (bajo ciertos parámetros-condiciones) un
criterio determinístico formal.
La explicación científica genera certeza en la predicción,
ya comentada anteriormente, porque una buena explicación
es la que determina que un elemento B sea causa real de A, y
no por la intervención de un factor C, D o E. ¿Por qué tengo
sobrepeso? Mi sobrepeso es causado por la alimentación, pero
puede ser causado igualmente por insomnio, sedentarismo,
stress, o por un factor hereditario-genético. Ramírez (2005)
señala que el rasgo fundamental de la explicación causal
es encontrar el agente causal, es decir, lograr identificar el
elemento que explica el porqué de la propiedad. Sólo a través
de la identificación del(los) agente(s) causal(es) es que se
puede robustecer la capacidad explicativa-predictiva de la
ciencia. Así, para resumir la relación descripción-explicación-
predicción, Pardinas (1970) señala: “La descripción es la etapa
preparatoria para lo que constituye el verdadero objeto del
trabajo científico: la búsqueda y el hallazgo de conocimientos
nuevos con fines de explicación y predicción…” (p. 13).
Comprender, por su parte, es un término que define una
de las discusiones epistemológicas más enérgicas entre los
siglos XIX-XX. Tiene sus orígenes en la Alemania kantiana
y postkantiana dominada por el historicismo-idealismo. Su
fundamento reside en que las acciones humanas tienen un
sentido (significado) que deben ser comprendidas bajo un
método específico, no por la explicación causal-legal2 de las
2
En adelante, cuando se hable de legal dentro del contexto nomotético, es en
referencia a leyes científicas

43
WILMER JOSÉ TÉLLEZ ACOSTA

dominantes ciencias físico-naturales. Cuando se habla de


ciencia, es insoslayable el cuerpo teórico-metodológico que
refiere a la esencia de la historia y cultura humana, tradición
que adquiere su madurez en Max Weber.
Pero comprender no es antitético de explicar causalmente,
sólo que interviene el elemento interpretativo de los
significados para poder explicar la cadena de causas desde
dos perspectivas esenciales, el contexto y el motivo. Trino
Márquez (1988) detalla que, luego de definir el “individuo
histórico” y seleccionado “la cadena causal con la que
tratará de explicarlo, [el investigador] tiene que determinar
el significado o importancia causal que posee uno o varios
aspectos —eslabones— de los que constituye la cadena” (p.
42) o, como el propio Weber lo establece, “explicar quiere
decir conocer el motivo al que pertenece una acción —cuyo
significado de la mera acción ya nos resulta comprensible—
de acuerdo con el significado subjetivo que le atribuye quien
realiza esa acción” (p. 77). Se puede resumir que la ciencia
es comprensiva cuando considera los factores subjetivos
que conducen la acción humana, y deposita su interés
en la interpretación de significados que dará forma a la
reproducción explicativa de eventos histórico-culturales.

La ciencia como proceso: teoría y praxis


El conocimiento no es una entidad material que
se adquiere, sino más bien un proceso de elaboración
referencial sobre los hechos, en ocasiones superficial,
instintivo o accidental, y en otras buscados bajo cierto rigor
(como el conocimiento científico). Estas construcciones
referenciales pretenden no ser efímeras, sino más bien un
articulado residente en el tiempo para ordenar la realidad
del pasado y presente con la intención de proyectar un
futuro. El conocimiento científico es entonces la realidad

44
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

sintetizada en un cuerpo teórico que apunta a la verdad,


objetividad, certeza. La calidad de una fotografía se establece
por la similitud entre lo que vemos directamente y lo que
refleja la imagen; un buen mapa es aquel que denota en
sus coordenadas y trazados el camino que recorremos. La
ciencia se mueve en esta misma dirección, es un proceso
metódico que hace mapas de la realidad cambiante, siempre
sometida a mejoras y transformaciones en torno a la
complejidad de las cosas.
Etimológicamente, teoría proviene del griego θεωρειν
que significa contemplar, ver, mirar; una representación
momentánea del objeto que va más allá del sentido de la vista,
pues encarna entendimiento expresado conceptualmente
por el sujeto cognoscente. La relación teoría-hechos permite
vislumbrar la razón de que la ciencia no considere su sistema
teórico como una mera especulación, precisamente porque
toda teoría es respaldada por una realidad empírica. Ander-
Egg (2004) señala que “la teoría científica, en lo más profundo,
no son otra cosa que modelos conceptuales para ordenar los
datos de la realidad. Tarea que es llevada a cabo por un sujeto/
observador/conceptuador” (p. 144). Se trata igualmente de
un criterio demostrativo donde la verdad reside en la propia
realidad, aquí la “validez científica”. Tulio Ramírez (2011)
señala en consecuencia que la ciencia se “autodefine” como
un “sistema de proposiciones y procedimientos (complejo
de reglas) de acuerdo con los cuales las teorías han sido
construidas y han podido comprobarse” (p. 55). Se puede
decir, basado en estos argumentos, que la teoría científica es
una construcción conceptual de la realidad en constante flujo
de validación/contrastación con otras nuevas realidades.
El método es sin lugar a dudas la esencia de la praxis
investigativa. La investigación considera la búsqueda
del conocimiento como acción práctica humana, y el

45
WILMER JOSÉ TÉLLEZ ACOSTA

método, como teoría primaria que se proyecta sobre esta


práctica (proceso), es la esencia que interviene en la teoría
que conceptualiza la realidad y en la praxis que busca su
constitución y validez referencial. Sobre esto me ocuparé
en los próximos dos puntos. Primero, hablaré de forma
general sobre los razonamientos más significativos del
quehacer científico, y posteriormente abordaré el problema
de la demarcación planteada a inicios del siglo XX. En ambas
secciones el interés es la relación método y teoría desde la
perspectiva empírica de la investigación científica.

Deducción, inducción y experimentación

La deducción se caracteriza por una esencia lógica que


sirve para razonar sobre determinada particularidad. Al
igual que en el silogismo, se trata de una derivación que
debe obedecer un sistema argumentativo válido para poder
obtener conclusiones válidas. El esquema deductivo puede
denotarse en la expresión racional: todo “x” es “y”, no “y”,
no “x”; todo estudiante lleva bolso (todo “x” es “y”), Pedro no
lleva bolso (no “y”), Pedro no es estudiante (no “x”). Pero si
somos críticos a esta conclusión, puede ser que Pedro vaya a la
universidad sin bolso y sea estudiante, por lo tanto, podemos
cuestionar la premisa general de que “todo estudiante lleva
bolso”. En términos teóricos, nuestro enunciado —“Todo
estudiante lleva bolso”— no parece ser un referente válido
para entender la relación entre “llevar bolso” y “ser estudiante”,
así lo demostró el caso particular de Pedro.
Para que el razonamiento deductivo tenga facultad
científica, la conclusión debe ser tentativa hasta que se
contraste empíricamente. Por lo tanto, la deducción
científica se fundamenta en la verificación de hipótesis
empírica (razonamiento hipotético-deductivo). El interés

46
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

de una investigación reside en contrastar la validez o alcance


explicativo de una teoría mediante la contrastación empírica-
particular de un hecho. El resultado puede tener dos caminos:
1) la observación empírico-particular no se contradice
con la teoría, aumentando la probabilidad de certeza; 2) la
observación empírico-particular se contradice con la teoría.
Trochim (2001) establece que el científico parte de una
teoría sobre su tópico de interés, presentando una hipótesis
particular que pueda testear. El paso siguiente es recolectar
observaciones que le direccione a la hipótesis para determinar
si confirma (o no) la teoría originalmente propuesta.

Figura 1: Esquema del razonamiento hipotético-deductivo.


Fuente: Trochim (2001:17).

Si tenemos una teoría concreta que refiere a un


conocimiento específico sobre x objeto, probablemente
es porque prevalece una interrogante (delimitada) sobre
alguna de sus propiedades. ¿Qué explica la dilatación del
cobre? Es un cuestionamiento que deriva por el interés
que despierta en el investigador uno de sus atributos.
Imaginemos que, gracias a la literatura y capacidad
cognitiva/formación en el área, proponemos el
enunciado: “El metal se dilata con el calor”. Una persona
no científica usaría la lógica deductivista y concluiría
que el cobre, como metal, se dilata con el calor, poniendo

47
WILMER JOSÉ TÉLLEZ ACOSTA

punto final a su exposición. El científico generaría la


misma respuesta, pero tentativamente (a priori), y se
concentraría en idear la forma de someter un trozo de
cobre al calor para observar-medir la dilatación. Una
vez llevada a cabo la experiencia, hay dos eventuales
escenarios: 1) el trozo de cobre se dilata, 2) el trozo de
cobre no se dilata. En el primer caso, el enunciado teórico
mantiene la potestad referencial sobre el metal y la
dilatación, lo que hace viable que en cualquier momento,
otro científico sostenga la hipótesis de que un trozo de
aluminio, hierro o cobre se dilatará con el calor; aquí
yace el principio predictivo-probabilístico de la ciencia.
En el segundo caso, la teoría pierde poder referencial
y se abre paso a nuevas perspectivas enunciativas y/o
nuevas observaciones.
Teoría/enunciado teórico El metal se dilata con el calor.
Hipótesis/enunciado empírico Este trozo de metal de cobre se
dilatará con el calor.
Observación de este metal de cobre al aplicarle calor

Posibles resultados: 1.- Se dilata (confirma teoría).


2.- No se dilata (no confirma teoría).

El razonamiento inductivo, a diferencia del deductivo,


no parte de una exposición general o problematización
teórica-práctica del objeto que toma cuerpo con base en la
experiencia y razón investigativa como punto de partida,
sino más bien el proceso inicia observando. Como ya se
había comentado anteriormente, el método inductivo
tiene una raíz anglosajona y empírica que deposita en
la experiencia las posibilidades de universalizar leyes.
Representa la herencia de Roger Bacon, Francis Bacon
y David Hume, por sólo nombrar algunos personajes de
clara referencia.

48
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

La lógica inductiva establece que de una serie de


observaciones se pueden encontrar ciertas regularidades
que permita una generalidad. Puede expresarse de la
siguiente manera: “si a1 es b, a2 es b, a3 es b, a4 es b y
a5 es c, entonces a es b”. El enunciado teórico-general es
la consecuencia lógica inferida a partir de una serie de
observaciones donde se aprecia cierto patrón. Tomaré
el mismo ejemplo de “los estudiantes y los bolsos”. En la
deducción, la razón sugería que como el estudiante tiene
que llevar libros, en consecuencia el estudiante llevaría
bolso; pero en la inducción, es la observación regular de
estudiantes con bolsos lo que permite la generalidad “todo
estudiante lleva bolso”. Las regularidades no tienen que ser
perfectas, como se refleja en la observación “a5 es c”, pero
el enunciado trabaja con probabilidades que incluyen a un
mínimo de hechos que no se sumen al patrón. Singleton, B.
Straits, M. Straits y McAllister (1988) señalan que ciertos
porcentajes de observaciones “p” que son “q” pueden
generalizarse en todo “p” es “q” si tiene una alta probabilidad
de ocurrencia (como 80 %). La discusión reside en sostener
argumentativamente la generalización. La estadística inferencial
llega a conclusiones generalizables entendiendo que habrá
excepciones a lo que la globalidad encierra, lo cual no hace falsa
la afirmación (López Casuso, 2009).
Para Trochim (2001), el razonamiento inductivo
comienza con observaciones específicas con el fin de
detectar regularidades. Seguidamente, el investigador
formula hipótesis tentativas que le permita una labor
exploratoria hasta proponer una conclusión general o
teoría. El razonamiento inductivo está más orientado
a formar teorías desde la observación primaria que a
contrastarla, mientras que el razonamiento deductivo
está más orientado a comprobar la validez teórica.

49
WILMER JOSÉ TÉLLEZ ACOSTA

Figura 2: Esquema del razonamiento inductivo-lógico.


Fuente: Trochim (2001:18).

La etapa que inicia con la observación y culmina


en el enunciado teórico puede entenderse como la
fase de descubrimiento inductivo, y la forma de validar
científicamente la propuesta exploratoria es testear si
la teoría puede explicar otros hechos. Este proceso se
realiza a través de la deducción hipotética. Al igual que
la inducción de Galileo, la hipótesis (conocimiento a
priori) es la respuesta originada por la observación, el paso
siguiente es la experimentación que validará (a posteriori)
la conclusión. Núñez Tenorio (1976) define este método
como el inductivo-experimental, y consta de cuatro fases,
1) observación: reconocimiento del hecho (espontáneo
o dirigido), 2) hipótesis: unidad racional explicativa
ordenada a partir de las observaciones, 3) experimentación:
observación más desarrollada para verificar la hipótesis,
y 4) probabilidad: ante la imposibilidad de observar
todos los hechos, no se puede asegurar la realidad, pero
sí la probabilidad que brinda la hipótesis de que la teoría
es verificada y, mientras más casos verificados, más
probabilidad de certeza teórica.

50
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Observaciones particulares que La mayoría de los


Fase de determinan un patrón estudiantes llevan bolsos.
proposición Teoría (enunciado general) Todos los estudiantes
llevan bolsos.
Hipótesis experimental sobre Los estudiantes de la uni-
otros casos particulares versidad vecina llevan
Fase de bolsos.
validación Observación específica 1.- Los estudiantes de la
para contrastar la hipótesis universidad vecina llevan
experimental bolsos.
2.- Los estudiantes de la
Posibles resultados: universidad vecina no
llevan bolsos.

Aunque algunos autores como Singleton et al (1988)


clasifican en el método inductivo la cualidad hipotética-
deductiva como un tipo de confirmación observacional
inductivista. Pero lo que establece la diferencia es la relación
método-teoría en ambos razonamientos. En el método
deductivo, la hipótesis es el resultado racional que intenta
ser la solución a un problema de investigación. Como señala
Pardo (2012: 61), “… no se obtendrán [las hipótesis], como
pretendían los inductivistas, mediante generalizaciones
de datos, sino que serán resultados de la formación y de
la capacidad creativa del investigador”. Y, por supuesto, el
manejo teórico es parte de esa formación-capacidad. En
el método inductivo, la teoría es el resultado lógico de la
observación, pudiendo finalizar en contrastación empírica
para determinar su probabilidad referencial.
El último razonamiento metodológico al cual me referiré
es la experimentación. Se trata de procesos con diferentes
niveles de complejidad donde el propósito es demostrar
una relación causa-efecto bajo ciertas condiciones. El

51
WILMER JOSÉ TÉLLEZ ACOSTA

resultado experimental, como señalan Campbell y Stanley


(1973), pone a prueba teorías, “pero no prueban teorías.
Una hipótesis bien fundada es aquella que ha sobrevivido
en reiteradas ocasiones a esos exámenes, pero que siempre
puede ser desplazada por otra nueva investigación” (p. 72). El
enunciado hipotético de un diseño experimental puede ser
producto de “x” número de observaciones-descripciones que
sugieren concomitancia entre propiedades del fenómeno, o
puede ser el resultado de una propuesta racional a partir de
la formación teórica del sujeto. Es decir, la hipótesis surge
por inducción o deducción.
Al hablar propiamente de método experimental refiero
al proceso donde se ejerce control, en por lo menos una
variable, para observar efectos diferenciales como respuesta
a estímulos artificialmente inducidos. En ciencias sociales,
ya Durkheim (2010) había advertido sobre la complicación
de generar estímulos artificiales en la sociedad, por su
naturaleza espontánea, y cuando el interés es demostrar que
un fenómeno es causa de otro sin posibilidad de generar
artificialmente estímulos, habla de experimentación indirecta
o método comparado. Pero en general, un experimento es
“aquella parte de la investigación en la cual se manipulan
ciertas variables y se observan sus efecto sobre otra”
(Campbell y Stanley, 1973: 9). El objeto de esta manipulación
es la garantía de no espontaneidad del proceso, sino del
control experimental para poder sustentar que B es causada
por A y no por efecto de C, D, E o F.
Ahora bien, ¿cómo podemos saber si entre A y B existen
otros factores “perturbadores” de los cuales muchos de ellos
probablemente sean desconocidos? Es decir, ¿cómo saber si
el peso es causado por la alimentación y no por stress, horas
de sueño, factores hereditarios o cualquier otro elemento
que pudiese influir, pero que desconocemos? Ronal Fisher

52
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

propuso décadas atrás que este problema puede manejarse


mediante la aleatorización (randomization) en la selección
y asignación de unidades a grupos experimentales, con
el fin de controlar el error sistemático. Blalock (1971: 29)
señala que “en la práctica, confiamos en que las leyes de
probabilidad produzcan distribuciones similares de todos
los factores personales que intervienen en el experimento”.
Por lo tanto, la aleatorización permite considerar factores de
forma simultánea, conocidos o no, y garantizar equivalencia
grupal para tener seguridad de que variables extrañas (como
C, D, E o F) no afectarán el resultado. A los grados mínimos
de confianza para interpretar adecuadamente los resultados
se conoce como validez interna, lo correspondiente a la
posibilidad de generalización como validez externa.
El diseño experimental tiene tres categorías según el
grado de control procedimental: preexperimental, cuasi-
experimental y experimental clásico. Mutchnick y Berg (1996)
destacan, en primer lugar, que en el diseño preexperimental
no se realiza selección aleatoria de unidades muestrales,
tampoco emplea grupos contrastes (experimental/control)
o manipulación de variables independientes. Su esencia
se limita a administrar un estímulo y observar el efecto;
no son adecuados para establecer relación causal, pero sí
para realizar ensayos o trabajos exploratorios con el fin de
promover experimentos de mayor control.
El diseño cuasiexperimental carece de control en la
selección y asignación aleatoria muestral; por lo tanto,
no garantiza equivalencia grupal, y esto sucede porque
generalmente se trabaja con grupos ya preestablecidos,
hecho independiente a la investigación. A pesar de no tener
control aleatorio en la selección muestral inicial, las unidades
pueden ser aleatoriamente asignadas a los grupos contrastes
(experimental/control) y estos grupos identificados de forma

53
WILMER JOSÉ TÉLLEZ ACOSTA

aleatoria para recibir el estímulo. El diseño experimental


clásico se destaca por su rigurosidad tanto en la selección
aleatoria de los sujetos como en su asignación en al menos un
grupo para comprobaciones postratamiento. La asignación
aleatoria de sujetos a grupos (experimental/control) produce
equivalencia, y después del estímulo, se puede tener certeza
de que cualquier diferencia significativa (intergrupal o
postratamiento) se deberá a este estímulo.

La demarcación científica

Iniciaré con una breve referencia histórica del contexto


a dónde circunscribiré mi exposición de demarcación
científica: criterio de verificación de los neopositivistas y el
falsacionismo de Popper. Es importante advertir que el análisis
de demarcación en el siglo XX es mucho más extenso,
complejo y evolucionado, por lo que sólo haré referencia a
un punto específico.
Al finalizar la Gran Guerra (Primera Guerra Mundial),
se originó una serie de revoluciones políticas que sin duda
intervinieron en la concepción del mundo científico, cuyo
corazón se encontraba en el centro de Europa; me refiero,
en primer lugar, al triunfo de la Revolución Bolchevique en
Rusia, donde el músculo del movimiento era la emancipación
ideológica marxista-leninista direccionada a la lucha de
clases y, años más tarde, el ascenso del Nacional-socialismo
nazi hasta 1945. Las ideas marxistas tienen presencia en
Europa desde el siglo XIX, pero es la Rusia del siglo XX
quien ostenta la concreción de lucha proletaria a través
del control político del Partido Comunista. La consigna
¡obreros del mundo uníos! sale de las cada vez más extensas
fronteras rusas y acrecienta su presencia ideológica en
muchas partes de Europa. Este contexto influye para que en

54
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

la década de los años 20 se genere una serie de debates sobre


el conocimiento científico y su depuración ante cualquier
especulación seudocientífica, metafísica o dogmática.
Por esos mismos años 20, la Universidad de Viena recibe
al profesor Moritz Schilick para que encabece la Cátedra de
Filosofía. Allí Schilick influyó en la formación de un grupo de
discusión que más tarde se conoció como el Círculo de Viena,
junto a otros destacados personajes como Rudolf Carnap, Otto
Neurath, Víctor Kraf, Phillip Frank, por sólo señalar algunos.
De simples encuentros departamentales, el Círculo inició una
etapa de difusión internacional a partir de 1929, mediante su
manifiesto “El punto de vista científico del Círculo de Viena”, la
revista Erkenntnis (medio de difusión de sus propuestas), y una
serie de congresos por las principales capitales intelectuales
de Europa. Interesa destacar que este influyente movimiento,
también referido como positivismo lógico, no era antimarxista
o representaba resistencia, en realidad su convicción de
neutralidad no armonizaba con la ideologización de las masas,
y, como es propio de estos esquemas de control político, si no
se está a favor, se está en contra.
Este mismo criterio imperó en el radicalismo nazi. Schilick
es asesinado en 1936 como reflejo del rechazo al neutralismo
político de los neopositivistas, y a medida que el partido nazi
toma fuerza, el tono condenatorio desde el poder político
incitó mayor hostilidad contra los miembros del Círculo —
incluso públicamente— (Ramírez, 2005). Buena parte del
movimiento emigra a Estados Unidos, mientras que otros
como Popper y Waismann a Inglaterra. Todo esfuerzo por
mantener el Círculo, tanto dentro como fuera de Europa,
fue frustrado por la Segunda Guerra Mundial. Con las
capitales intelectuales europeas en conflicto, el epicentro de
la actividad científica es ahora Estados Unidos, asistido en
buena parte por el positivismo lógico.

55
WILMER JOSÉ TÉLLEZ ACOSTA

Pero ¿qué demarca la ciencia para el positivismo lógico? En


primera instancia, el conjunto de criterios que permite
distinguir la aceptabilidad o falsedad de una proposición
científica se enmarca en el método científico, y es el garante
de aquel conocimiento del cual podamos confiar. La idea
central del empirismo lógico era la edificación de un
conjunto de enunciados que se ajuste a la realidad, su objeto
era el análisis de proposiciones con sentido cognitivo y,
como dice Schuster (2002), la construcción de lenguajes que
se diferenciaran de otros por el hecho de que son verdaderos
o falsos. Estas proposiciones son científicas siempre y
cuando sea posible su control empírico; por lo tanto, la
esencia de demarcación del positivismo lógico se centraba
en la elaboración bien formada de hipótesis científica.
Una hipótesis bien formada es una unidad expresiva
del habla-discurso, y estaría estructurada en términos de
sujeto, verbo y predicado (Ramírez, 2005). “El edificio es
hecho con cemento”, “el cobre se dilata con el calor”, “la
delincuencia aumenta con la impunidad”, son ejemplos de
enunciados que tienen unidades con sentido gramatical y
están formados por sujeto, verbo y predicado, a diferencia
de “yo no soy”, “sólo pienso”, “algo será”. La susceptibilidad
a verificación es otro requisito sustancial de los enunciados
hipotéticos, lo que sugiere la posibilidad de expresar
condiciones observables para contrastar su veracidad o
falsedad. La demarcación científica para el neopositivismo
es el criterio de verificabilidad de sus hipótesis: lo que no se
verifique, no es científico.
Otro rasgo clave del positivismo lógico era que sus
enunciados se construían por inducción, lo que comprende
una síntesis de regularidades observacionales. Se trata
de un proceso de doble observación, tanto en la forma
edificadora de la hipótesis, como dentro de su condición

56
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

de verificabilidad. ¿Cómo construimos una hipótesis?


Observando y encontrando patrones para proponer un
enunciado hipotético-general. Como a1 es b, a2 es b, a3
es b, a4 es b y a5 es c, se puede establecer la hipótesis a es
b, Nótese que hay dos niveles de enunciados 1) cinco
enunciados empíricos específicos (a1 es b… a5 es c), y 2)
un enunciado empírico general (a es b). Cuando se dice
que “los estudiantes llevan bolso” es equivalente a la forma
unitaria “a es b”, pero ¿de dónde sale que a es b? A través
de un proceso inductivo donde se infirió la regularidad de
que la mayoría de los estudiantes llevan bolsos. ¿Pero “los
estudiantes llevan bolsos” es un enunciado científico? 1)
Sus unidades expresan un sentido y posee los requisitos
gramaticales claves (sujeto, verbo y predicado), 2) es un
enunciado que permite contraste observacional; por lo
tanto, si elijo cualquier estudiante, de cualquier universidad,
de cualquier país, y este lleva bolso, el enunciado aumenta
sus probabilidades de verdad.
Es aquí donde Popper no concuerda con el criterio de
verificabilidad del empirismo lógico. En primer lugar,
señala que una hipótesis no puede ser el resultado de
observaciones porque no hay parámetros que la delimiten:
¿qué se observa?, ¿cuál es la delimitación observacional?
Argumenta Popper (1967) que la “creencia de que podemos
comenzar con observaciones puras, sin nada que se parezca
a una teoría, es absurda”. Señalaba que la instrucción
“¡observen!” carece de sentido: ¿qué valor tiene observar
estudiantes con bolsos?, ¿qué se quiere contrastar o qué
fundamento lo motiva? “La observación siempre es selectiva.
Necesita un objeto elegido, una tarea definida, un interés,
un punto de vista o un problema” (p. 73). Los científicos
tienen algún tipo de conocimiento a priori a la experiencia
observacional, aunque no necesariamente válido, como una

57
WILMER JOSÉ TÉLLEZ ACOSTA

postura ideológica, percepción o alguna propuesta de su


experiencia profesional.
Pero Popper tampoco estaba de acuerdo con que la
verificación de una proposición hipotética aumentara las
probabilidades de verdad. Cuando un enunciado empírico
específico (a1 es b) confirma un enunciado empírico general
(a es b), no aumenta su nivel de certeza porque en realidad
nunca podemos estar seguros de un enunciado empírico (o
hipótesis) general, aunque sí podemos tener certeza de un
enunciado empírico específico (a1 es b). Imagine que por
inducción se llega a la proposición hipotética: “Las mujeres
tienen más vocación social que los hombres” (enunciado
empírico general “a es b”), tomo al azar un grupo de personas
de ambos sexos y determino que efectivamente las mujeres
tienen más vocación social que los hombres (enunciado
empírico específico “a1 es b”) ¿De qué se puede estar seguros?
Lo único seguro es que las mujeres de ese grupo tienen
más vocación social que los hombres (lo único seguro es
“a1 es b”), pero nunca sabremos si las mujeres tienen más
vocación social que los hombres porque no se puede hacer
una inducción completa, es decir, no se puede observar a
todas las mujeres y hombres (nunca podemos estar seguros
de que “a es b”). Pero, si resulta que en otro grupo al azar,
los hombres tienen más vocación social que las mujeres, se
puede tener certeza de que el enunciado “a1 no es b” y, por lo
tanto, que el enunciado “a es b” es falso.
El sentido del criterio de demarcación científico propuesto
por Popper es el falsacionismo, donde la validez teórica no
reside en la probabilidad de verdad, sino en la resistencia
de que sean falseadas. No existe demostración de verdad,
sino de su no falsedad. Ahora bien, si no es por inducción
¿Cómo trabaja el falsacionismo? A través de la deducción.
Popper señala: “El éxito de la ciencia no se basa en las reglas

58
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

de inducción, sino que depende de la suerte, el ingenio y las


reglas puramente deductivas de la argumentación crítica”
(p. 80). Los datos empíricos propios de la observación o
experimentación trazan el destino de una teoría a través
de test. Si la teoría resiste las pruebas empíricas se acepta,
de lo contrario se rechaza, pero las teorías son nuestras
imposiciones sobre el mundo de las cosas, que pueden ser
descartadas si se demuestra su falsedad.
El punto de partida para Popper es atrevernos a generar
racionalmente una conclusión de la cual se puedan
distinguir consecuencias observacionales (enunciados
empíricos específicos), de tal modo que si las observaciones
no generan la condición esperada, entonces la teoría es
falseada. Si “a es b”, entonces “a1 debería ser b”; si “a1 no es b”,
la hipótesis “a es b” es falsa. Nuestras teorías deben someterse
constantemente a ensayo y error, porque es un mecanismo para
eliminar teorías falsas mediante enunciados observacionales, “la
cual nos permite afirmar la falsedad de enunciados universales
si aceptamos la verdad de ciertos enunciados singulares” (p. 83)
¿Y cuál es la verdad? Que evidencian falsedad. En esta tónica,
el criterio de falsación demuestra que, aunque es imposible
verificar una hipótesis general, aun cuando “x” observaciones
empíricas específicas la confirmen, de lo único que se puede
estar “lógicamente seguros” es de su falsedad, si la contrastación
observacional específica lo sugiere.
Muchos científicos y filósofos consideran la propuesta
de Popper un tanto inadecuada —o extrema señalaría yo—,
pues de seguir con rigurosidad el falsacionismo, y rechazar
o señalar como falsa una teoría al tener un hecho singular
contradictorio, quizá hubiese hoy en día muy pocas teorías
“vivas” en la comunidad científica. Aquí es donde adquiere
relevancia la tesis de Thomas Kuhn, porque mientras
Popper centra el examen teórico para descartar falsedades,

59
WILMER JOSÉ TÉLLEZ ACOSTA

Kuhn trabaja en averiguar por qué un hecho no encaja en


un paradigma3, entendiendo que toda contrastación teoría-
realidad puede generar anomalías, es decir, el surgimiento de
un hecho que no puede explicarse por la teoría. El científico
trabaja con estas anomalías en total naturalidad, lo esencial
es su plena conciencia de que la existencia de esa anomalía
ha violado las expectativas inducidas por el paradigma.
Posteriormente, se necesita una exploración del área anómala
que se soluciona cuando “la teoría paradigmática se ha
ajustado para que lo anómalo se vuelva algo esperado. La
asimilación de un nuevo tipo de hecho exige el ajuste de la
teoría que no se limita a ser un añadido…” (Kuhn, 1971: 130).
Se aprecia que las anomalías refieren a una momentánea
incapacidad de la ciencia normal para dar cuenta de algunos
hechos observados, pero esto no conlleva a eliminar una
teoría, sino a reajustar su capacidad explicativa-referencial,
“El fracaso a la hora de lograr una solución desacredita
únicamente al científico, no a la teoría” (p. 170). Pero si esta
anomalía genera una crisis, o pone en entredicho elementos
esenciales del paradigma, es mucho más que una simple
anomalía, se puede estar transitando de un paradigma en
crisis a uno nuevo, lo que implica “una reconstrucción del
campo a partir de nuevos fundamentos, reconstrucción
que cambia algunas de las generalidades teóricas más
elementales…” (p. 176). La transición resultante a un nuevo
paradigma es una revolución científica.
También está la tesis de Paul Feyerabend, que se
fundamenta casi a lo largo de su obra —Contra el método:

3
Un paradigma, desde la perspectiva de Kuhn, es una constelación
de valores, técnicas, creencias que comparten los miembros de una
comunidad, y que denota soluciones concretas a problemas que pueden
remplazar reglas explícitas como base de la solución de restantes problemas
de la ciencia normal (Kuhn, 1971).

60
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

esquema de una teoría anarquista del conocimiento (1970)—


en criticar el proceso de reglas fijas de demarcación
científica y, por supuesto, Popper es un punto de referencia.
Feyerabend (1970) refiere que ninguna teoría es consistente
con los hechos, pues “de aceptar sólo aquellas teorías que
son consistentes con los hechos disponibles y aceptados nos
deja de nuevo sin ninguna teoría (…) porque no hay teoría
que no esté en una u otra dificultad” (p. 49). Un aspecto
elemental de esta concepción es la necesidad de un proceso
dialéctico, interacción concepto-hecho, “cuando alguna cosa
no corresponde a su concepto, debe ser encaminada a él
(¡contrainducción!), hasta que el concepto y la cosa se hagan
uno” (p. 38).
A partir de esta perspectiva no es extraña su propuesta
de no sólo ignorar reglas, sino adoptar su opuesta. Si
para Popper el desacuerdo teoría-hecho se traduce en
peligro, Feyerabend sugiere la introducción de hipótesis
inconsistentes con teorías bien establecidas o con hechos
bien establecidos; proceder “contrainductivamente además
de proceder inductivamente”. Su pluralidad “vale todo”
la ejemplifica con que los niños no se desarrollan bajo el
esquema de Popper: 1) idea o problema, 2) actuamos, 3)
hablamos, destruimos o construimos; sino que “los niños
usan palabras, las combinan, juegan con ellas hasta que
atrapan un significado (…) No hay razón para que este
mecanismo tenga que dejar de funcionar en el adulto” (p. 22).
Puede interpretarse que la demarcación científica anárquica
es precisamente la libertad creadora de la idea correcta del
objeto, un proceso dialéctico sin direccionalidad fija que no
se reduce a la inflexibilidad de un método-proceso.
Aquí no se agota la discusión sobre la demarcación
científica. Como señalé en la introducción del presente
apartado, el tema es extenso y profundo, pero, sin duda, el

61
WILMER JOSÉ TÉLLEZ ACOSTA

criterio de verificación del empirismo lógico y la respuesta


de Popper (falsacionismo) representan planteamientos
que todo científico debe tener presente para entender la
relación teoría-praxis como objeto epistemológico (siglo
XX). El postpositivismo, donde frecuentemente se ubica
la propuesta paradigmática de Kuhn y la anarquista de
Feyerabend, es base de una discusión muy vigente en el
siglo XXI, la cual expondré en los siguientes apartados
con un planteamiento en mente: ¿El investigador tiene un
solo método para producir conocimiento científico, o goza
de cierta pluralidad metodológica sin que esto implique
sacrificar la “calidad” científica?

62
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

LA VISIÓN NOMOTÉTICA DEL MÉTODO:


EL CONOCIMIENTO-LEY

La matemática es la puerta y la llave de la ciencia.


Roger Bacon

Perspectiva filosófica de las ciencias naturales-


experimentales
En el esbozo histórico presentado al inicio del libro se
había señalado que la ciencia moderna toma cuerpo con
la física del siglo XVI y XVII, representada por las figuras
de Galilei y Newton, a su vez impulsados por los trabajos
de Copérnico y Kepler. El aporte central de G. Galilei fue
la integración metodológica de teoría-experiencia, en
principio con el diseño teórico del marco experimental
y posteriormente con la secuencia comprobatoria que
reside en el dato. A pesar de ser la experiencia el epicentro
confirmatorio del conocimiento científico, Galilei traslada
el valor singular del experimento al valor general que pueda
residir su interpretación teórica, evidenciando su interés de
ir más allá del propio hecho.
La estructura del método empleado por Galilei concibe,
en principio, un enfoque ideal del experimento a partir de
datos y pruebas arbitrarias (puras), que posteriormente
representa el “marco experimental”. Aquí inicia una fase de
depuración a partir de reiteradas repeticiones basada en ese

63
WILMER JOSÉ TÉLLEZ ACOSTA

marco (experimental), haciendo correcciones pertinentes


que viabilicen hipótesis (matemáticas), y de donde se
deducen consecuencias observacionales. Finalmente, otros
experimentos tendrían un resultado previsible (principio
predictivo de la ciencia) cediéndole potestad confirmatoria
a la propuesta hipotética. Nótese que desde la observación
burda existe un procesos de ajuste entre la “idea marco” y el
hecho, es el proceso dialéctico de hacer que ambos sean uno
solo. La inducción da origen a una construcción hipotética
que representa la verdad a priori, y del cual, mediante el
razonamiento lógico, se deduce la respectiva consecuencia
observacional, cuyo resultado (dato experimental) debe
coincidir con la hipótesis. La validez de la construcción
hipotética reside en su confirmación a posteriori.
Este método de la ciencia natural-experimental, de
carácter hipotético-deductivo (en su fase confirmatoria),
fue continuado por Newton quien igualmente propone
conclusiones generales a partir de la experimentación y
observación, sin admitir mayor resistencia apriorística que
las producidas por contrastación experimental (a posteriori).
Lo interesante en Newton es que hace una interpretación
particular del análisis y la síntesis, donde establece que
la fase analítica centra el esfuerzo científico en pasar de
observaciones singulares a generalidades, siempre en la
búsqueda de la causalidad final del fenómeno. Estas causas
generales, a las que Newton refiere como principios, permite
luego el proceso sintético desde la deducción, no sólo al
establecer un marco referencial de ayuda explicativa, sino
como proceso de constante confirmación de estas leyes.
La ciencia para Newton era el descubrimiento de principios
reduciendo esfuerzos superfluos: sólo buscar las causas
necesarias de suficiencia explicativa.

64
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Este consejo o regla metodológica es clave para el mundo


naturalista-experimental, pues representa el principio
de uniformidad en la expresión leyes comunes, verdades
(relativas), aproximaciones al objeto que sirven como
referencia general de la ciencia, y que de alguna manera están
sujetas a vigilancia desde la acción experimental. Newton
descalificaba las hipótesis; decía que no tenían espacio en
la “filosofía experimental”; argumentaba que sólo podían
servir para explicar propiedades, no para determinarlas,
pues numerosas hipótesis pueden solucionar dificultades.
De hecho, con su ley de gravitación considera suficiente que
la atracción por gravedad se comporte tal como lo establece
la ley, y que a su vez permita dar cuenta del movimiento de
los cuerpos en el espacio.
Pero este menoscabo hacia las hipótesis no descuadra que
su concepción metodológica se base en un proceso hipotético-
deductivo en la validez de inducción primaria. Newton
emplea la observación para aprehender el comportamiento
del objeto, e inductivamente propone la uniformidad legal
(leyes) o hipótesis —desde la concepción moderna—.
Seguidamente utiliza el lenguaje matemático para deducir
el comportamiento de una situación específica, etapa que
contrasta la validez del principio, ley o hipótesis, y que, por su
puesto, queda abierta a la constante adecuación del principio
con los hechos.
La matemática era la herramienta y el lenguaje universal
del discurso legal-científico. Es algo propio de la expresión
que refleja el estado de la naturaleza. R. Descartes (1637/2011)
ya había planteado que todo problema científico debía ser
reducido a un problema matemático, desde una visión
de orden y medida mediante el uso de la geometría como
representación sencilla y clara de toda forma de pensar.
Esta condición es consecuente con su criterio de claridad y

65
WILMER JOSÉ TÉLLEZ ACOSTA

evidencia en el juicio, porque la línea geométrica representa


por medio de signos sencillos las propiedades singulares de
los objetos, reduciendo el margen de duda sobre ellos.
El método universal-matemático de Descartes, que
enfrentaba al silogismo y a la filosofía retórica-escolástica,
encontraba la verdad en la lógica de las reglas que guían la
razón. La verdad no residía ni en el abuso deductivista de los
teológicos, ni en el experimento, sino en la razón intuitiva
expresada con claridad por el significado aritmético-
matemático de las cosas. Señala Descartes en su Discurso:
Lo cual no puede parecer presunción si se advierte que,
por no haber en matemáticas más que una verdad en cada
cosa, el que la halla sabe acerca de ella todo lo que puede
saber; y que, por ejemplo, un niño que sabe aritmética y hace
una suma conforme a las reglas, puede estar seguro de haber
descubierto, respecto a la suma que examinaba, todo cuanto
el espíritu humano pueda hallar; porque el método que
enseña a seguir el orden verdadero y a enumerar exactamente
todas las circunstancias de lo que se busca contiene todo lo
que confiere certeza a las reglas de la aritmética (p. 108).
El orden y medida como propiedad abstracta de las cosas tenía
la particularidad en Descartes de regirse por el sentido reductivo
de las propiedades físicas, expresadas cuantitativamente por
mediciones, y determinadas en el concepto geométrico de
movimiento. Desde los griegos, la naturaleza es principio de
movimiento, y en Descartes se traduce a la medición de longitud,
“en el cambio de posición de un móvil respecto a un punto de
referencia (…) lo mismo decir A se mueve respecto a B” (…) lo
único que interesa a la física es el cambio de posición” (Marías,
2005: 230). Pero a Gottfried Leibniz le parece absurda esa física
cartesiana estática y geométrica; la cantidad de movimiento no
es constante, sino lo constante es la fuerza viva; por lo tanto,
la naturaleza no es estática sino dinámica. En Leibniz, no se

66
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

trata de medir longitudes de objetos para establecer la idea en el


lenguaje matemático (correspondencia de lo que las cosas son y
su imagen lógica-lingüística), sino en el hallazgo del fenómeno
que se somete (deductivamente) a leyes matemáticas. “De un
modo apriorístico y seguro se podría operar, de una manera
matemática, para la investigación de la verdad” (p. 235).
Hasta aquí, el común denominador sobre la idea de
las cosas, tanto para los físicos modernos como para
los idealistas racionales, era la expresión lingüística
matemática como imagen del objeto. Pero lo que
despierta particular interés en la escuela inglesa no es el
lenguaje matemático, sino el método galileano. Me refiero
específicamente a Francis Bacon y la corriente empírica.
El empirismo, como ya se había tratado con antelación, es
aquella base del conocimiento que sólo admite evidencia
observacional tangible, directa o indirectamente4, para
aceptar una propuesta teórica o hipotética (Singleton et
al, 1988). La investigación empírica está estrechamente
unida a la lógica inductiva, y fue F. Bacon quien expuso
una concepción de ideas coherentes para satisfacer una
necesidad metodológica en la investigación de acuerdo
al proceso de Galilei. Novum Organum representa el
verdadero método de la ciencia, donde la experimentación
y observación refieren a ideas-leyes que dan cuenta de
los fenómenos del mundo. Esto es la inducción, proceso
acogido por los círculos de pensamiento de la época como
una referencia metodológica satisfactoria que enmarca los
exitosos avances de las ciencias naturales-experimentales.
4
Directamente cuando empleamos nuestros sentidos, como la vista;
indirectamente cuando nos valemos de instrumentos que amplíen nuestras
capacidades humanamente limitadas. Galileo realizaba observaciones indirectas
porque utilizaba el telescopio, el sentido de la vista le resultaba seguramente
limitativo para su propósito. Igual puede decirse de un biólogo que observa parte
de un sistema de células y tejidos a través de fotografías o microscopios.

67
WILMER JOSÉ TÉLLEZ ACOSTA

La concepción nomotética natural-experimental en


ciencias sociales
El contexto social europeo entre los siglos XVI y XVII
se caracteriza por el saldo conflictivo de largos años de
guerra religiosa, así como por tensiones entre corrientes de
pensamientos claustros en la concepción metafísica e idealista.
La forma monárquica y feudal encabeza las propuestas del
regimiento colectivo, generando desequilibrio entre sectores
sociales quienes están alentados a sustituir el orden existente. La
turbulencia social y la correlación de fuerzas dominantes generó
un clima de irracionalidad —atribución dada por los ilustres—
en la conducción de la vida humana, y esa misma irracionalidad
se traslada a las formas de conocimiento mediante sistemas
de ideas asentidas como autosuficientes. Esta inflexibilidad
representa el inicio de un discurso que demanda para lo social un
sistema legal-estable tal como las ciencias naturales se lo habían
otorgado a la propia naturaleza (un sistema de leyes naturales).
En el siglo XVII y XVIII se da un giro hacia la sustitución de un
orden irracional y en tinieblas a través de las luces de la razón.
Los precursores del iluminismo encarnan la ruptura formal
con la metafísica y abrazan la razón como expresión del poder
de la mente para aprehender objetos. El fin está siempre
direccionado a las necesidades humanas. Persiguen el éxito de
los científicos naturalistas y ven en los conceptos-técnicas de la
física la oportunidad de crear un mundo basado en la verdad,
pero no la de tradición autoritaria, dogmática o teológica, sino
la verdad resultante de la razón y la observación (Zeitlin, 2006).
Para los iluministas, es el método científico establecido por la
experimentación inductiva lo que preservaba la demostración
de validez, los avances de I. Newton ejemplificaban la
potencialidad metodológica de la ciencia al reducir a simples
leyes generales complejidades de fenómenos naturales.

68
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Uno de los grandes aportes del iluminismo fue la


visión integracionista metodológica de las dos tendencias
filosóficas reinantes en el siglo XVIII: el racionalismo, con R.
Descartes como exponente fundamental, y el empirismo, que
condensó F. Bacon a través de los aportes experimentales de
la física moderna con G. Galilei a la cabeza. La integración
se evidencia por su planteamiento de que la razón no podía
inclinarse ni al dato experimental, ni a las evidencias de
la revelación autoritaria o de tradición. La verdad resulta
de la razón junto a la observación (Zeitlin, 2006), y está
encaminada a un ideal explicativo y comprensivo legal de la
naturaleza en general, incluyendo la del hombre y su historia.
El barón Montesquieu hizo gala de un ideal explicativo
de la dinámica social bajo la forma unitaria de razón y
observación. El dato histórico se presentaba en usos, reglas,
costumbres, instituciones, y era el suministro de un objeto
aparentemente incoherente: atomizado. La ley social debe
ser el orden pensado (inteligible) que vendría a reemplazar
esta diversidad incoherente (Aron, 2004), por lo tanto,
Montesquieu asume la modernidad científica al descubrir
leyes del hombre a través de regularidades históricas.
La primera idea sociológica de este representante del
iluminismo, a juicio de R. Aron, era que “detrás de la sucesión
aparentemente accidental de los hechos, es necesario
discernir las causa profundas que los explican” (p. 27). En
El espíritu de las leyes, Montesquieu detalla que la historia de
las naciones eran consecuencias de principios, y que a su
vez había interconectividad con leyes más generales, dando
a entender que la sociedad se determina por ciertas causas,
en ocasiones sin la plena conciencia del hombre. Trabajó
en formulación de leyes y observó que casos particulares
se adaptaron a sus propuestas, es decir, encontró evidencias
que sostenían sus premisas generales-legales.

69
WILMER JOSÉ TÉLLEZ ACOSTA

Newton ya había señalado la obligación científica de


buscar sólo las causas necesarias para explicar los fenómenos,
mientras que en el siglo XVIII, el empirista David Hume habló
de conexiones causales centradas en la coexistencia y sucesión
(causa-efecto), al tiempo que John F. Herschel entendía que
la metodología de las leyes naturales comprende una serie de
reglas basadas en correlación de causa y acción. Ahora bien,
si para el científico natural las leyes eran imágenes lógicas-
abstractas del lenguaje matemático, y cuya traducción causal
podía ser demostrativa, ¿cómo se demostraba la factibilidad
de una ley social? Es clave señalar, en este sentido, el intento
de John Locke por clasificar cualidades de la materia en
primarias (experimentar en directo la extensión, el número
y el movimiento), y secundarias (el olor, el sonido...) que
no tienen existencia fuera de la mente (Zeitlin, 2006). Locke
intentó trazar la objetividad de magnitudes sensibles a
escalas longitudinales de aquellas expresiones que derivan
del sentido humano-subjetivo. Sin embargo, la propuesta
fue calificada más adelante como difusa y dudosa.
Cuando se habla en el siglo XX de las ciencias del hombre
(sociales y humanas), en general predomina la forma
naturalista-experimental del método científico. Se trata
de las ciencias nomotéticas, que, según Jean Piaget (1973),
es “aquella disciplina que intenta llegar a establecer ‘leyes’
en el sentido, algunas veces, de relaciones cuantitativas
relativamente constantes y expresadas en forma de función
matemática…”; aquí es donde la visión nomotética encierra
la legalidad en el discurso matemático para exponer
regularidades explicativas-causales, aunque no limitativa
para las ciencias del hombre; continúa Piaget: “… pero
también en el sentido de hechos generales o de relaciones
ordinales, de análisis estructurales, etc., traduciéndose por
medio del lenguaje ordinario o de un lenguaje más o menos

70
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

formalizado (lógico, etc.)” (p. 46). Por su parte, Einstein decía


que en la medida que las leyes de la matemática se refieran
a la realidad, no son ciertas, y si son ciertas, no refieren a
la realidad, haciendo evidente el cuestionamiento de que la
compleja naturaleza del hombre pueda reducirse a expresiones
aritméticas, en incluso sintetizarla en leyes científicas.

El positivismo de Augusto Comte

La Francia del siglo XVIII-XIX está sumergida en la


propagación y difusión de nuevas ideas, centrada en la crítica de
convicciones tradicionales: cristianismo, monarquía absoluta y
otros aspectos ligados al independentismo e igualdad. Se trataba
de una Europa —con Francia a la cabeza— revolucionaria.
Interesante la referencia de Marías (2005) relacionada con la
Ilustración crítica: “representa el término de la especulación
Metafísica del XVII”, y agrega sobre la expansión de ideas en
las masas que “la difusión tiene siempre esa consecuencia: la
idea, para actuar en las masas, para transformar la superficie de
la historia, necesita trivializarse, perder su rigor y su dificultad,
convertirse en una superficial imagen de sí mismas” (p. 253). La
filosofía positiva de A. Comte se erige contra los efectos críticos
y destructivos de la filosofía negativa, representa un arma
ideológica combativa al iluminismo filosófico y a la Revolución.
El caos y la anarquía social eran efectos del caos y la anarquía
de ideas, por lo cual Comte sentía aversión por la crítica social
(centrada en la metafísica-iluminista, como él los definía) y sus
resultados desorganizadores (Zeitlin, 2006).
El método positivista es la garantía del espíritu científico,
y se sustenta en la proposición de leyes invariables para los
hechos sociales tal como las ciencias naturales, ese es el estatus
científico de la “física-social”, que permite predecir a partir de
principios la intervención práctica (control) de la dinámica

71
WILMER JOSÉ TÉLLEZ ACOSTA

social. A través de la exposición de I. Zeitlin se pueden


apreciar dos distinciones puntuales en cuanto al método
científico propuesto por el positivismo y el iluminismo: 1)
el iluminismo representa una combinación coordinada de
razón y observación, mientras en el positivismo la razón-
imaginación está subordinada a la observación-hechos; 2)
el iluminismo, desde la perspectiva de Comte, ostenta un
cambio del sistema social para permitir la realización del
hombre; mientras que para el positivismo los elementos
sociales están adheridos a un sistema armónico, carente
de antagonismos o contradicciones, establecido por un
consenso radical a través del orden dinámico que procede
según las leyes naturales, ordenadas y necesarias. Esta es
la manera como Comte concilia el orden y progreso en la
sociedad científica-industrial (positiva).
La sociología positiva tenía tres métodos básicos: 1)
observación: evidencia de lo real y de donde se subordina
la imaginación; 2) experimentación: las manifestaciones del
mundo social hacen imposible el control de sus expresiones,
toda eventualidad con la característica “x” debe ser comparada
con otra que no la haya experimentado para analizar diferencias
consecuentes; 3) comparación: se divide en tres subtipos: 3a.-
comparación entre sociedades humanas y animales inferiores,
3b.- comparación entre sociedades en diferentes zonas del
mundo; 3c.- comparación entre estepas/estadios sociales en
el transcurso del tiempo. Comte daba gran importancia a este
último subtipo comparativo, lo denominaba “principal artefacto
científico” (Ritzer, 2001). A pesar de que Comte es enfático en el
papel de la observación, señala en su Curso de filosofía positiva
(lección 1), que si bien desde F. Bacon no hay más conocimiento
real que aquel fundado en los hechos, no es menos cierto que
el “espíritu humano en el estado primitivo no podía ni debía
pensar así” (1842/1980: 28).

72
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Aunque el positivismo debe doblegarse ante los


hechos observables para revocar la supremacía mental
de la imaginación, no es menos cierto que no sería un
proceso aislado, primario o puro. Considera “suficiente
la simple enunciación de leyes para que su exactitud sea
inmediatamente verificada” (p. 28), es decir, por deducción
a partir de observaciones cuidadas: “si bien toda teoría
positiva tiene que estar basada necesariamente en la
observación, también es necesaria una teoría cualquiera
que coordine esta observación” (p. 28). Desde este punto
de vista, no pareciese ser el hecho un punto primario del
positivismo, sino la teorización dirigida a proponer leyes
sociales. Ritzer (2001) y Zeitlin (2006) notan este desajuste:
“[Comte] No llegó a estas leyes inductivamente a partir de
sus observaciones del mundo social; más bien las dedujo
de su teoría general de la naturaleza humana” (Ritzer,
2001: 112). “… cada una de sus afirmaciones se basa no
en la experiencia ni en la observación, sino en valores y
sentimientos…” (Zeitlin, 2006: 94).
Su ley de los tres estadios es un ejemplo oportuno para
dilucidar sobre su proceso enunciativo legal. En su Discurso
sobre el espíritu positivo (1844), Comte precisa en la Primera
Parte que tanto las sociedades como el individuo (niño,
joven y adulto) pasan por etapas o estadios: la teológica,
concebido como provisional y preparatorio; el metafísico,
un estadio transitorio y el menos importante para el autor;
el tercero, positivo real donde reina la razón e inteligencia
humana, y donde mueren los modos de pensamiento
teológico y metafísico. Aunque esta ley pareciese estar
fundamentada más en lo racional que en lo observacional,
Comte (1844/1980) reconoce que “el verdadero espíritu
positivista está, en el fondo, tan lejos del empirismo como
del misticismo; es entre estas dos aberraciones, igualmente

73
WILMER JOSÉ TÉLLEZ ACOSTA

funestas, por donde debe caminar siempre: la necesidad


de tal reserva continua…” (p. 115). De aquí su exaltación a
aumentar lo racional a costa de la experiencia5.
La explicación de la ciencia positiva reside en la generación
de la menor cantidad de leyes posibles, que reúnan de la
razón y experiencia las regularidades del espíritu humano.
Comte (1842/1980) reconoce este acto como un proceso
de descubrir, y se aleja de las causalidades. “En el estado
positivo, el espíritu humano (…) renuncia a buscar el origen
y el destino del universo y a conocer las causas íntimas de los
fenómenos, para dedicarse únicamente a descubrir (…) sus
leyes efectivas” (p. 27). Reitera Comte: “Consideramos como
absolutamente inaccesible y vacía de sentido la búsqueda de
lo que llaman causas, sean éstas primeras o finales.” (p. 31).
La coordinación explicativa tiene un sentido conector entre
lo singular y general, obtenidos por un medio verdadero y
racional para hacer evidentes las leyes lógicas sociales. Este
es el interés central del positivismo, la sistematización de
procesos (históricos) y formulación de leyes (explicar por
qué los acontecimientos han llegado a ser lo que son), sin
interés causal. Para su precursor no es suficiente acercarse
al hecho, es vital ajustarlo al método científico como
supremacía del positivismo, etapa más elaborada del
pensamiento y desarrollo humano.

El empirismo analítico de Emilie Durkheim

El ambiente donde E. Durkheim desarrolla su sociología


está cargado de ideas socialistas que buscan incidir en la
5
Aron (2004) detalla que la ciencia de Comte es una fuente de dogmas. Si las
leyes necesitan de la experiencia para su verificación, parece que hay un espíritu
teológico al obtener verdades definitivas que no acepten dudas. Las leyes obte-
nidas por los sabios hay que aceptarlas y “no ponerlas perpetuamente en tela
de juicio” (p. 112). No sólo es una visión dogmática del conocimiento, sino que
contrarresta la importancia del sometimiento de una ley al hecho.

74
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

arquitectura ideal de la dinámica colectiva (en el sentido


funcional de Comte), y en la estructura industrial que ha
generado división del trabajo y lucha de clases. Conoce de
cerca los planteamientos marxistas, pero, como positivista,
concibe la sustancia ideológica-negativa del conflicto de
clases y poder político como un asunto para entenderlo
objetiva y sociológicamente. Lo aleja del socialismo el tono
violento con que se vislumbra el conflicto de clases; en su
lugar, considera que los desajustes deben ser abordados
mediante consenso y orden social.
Mientras el marxismo sostenía que la división del trabajo
rompe la unidad del orden social, y descartaba el conflicto
entre los grupos si los medios de producción estaban bajo el
control comunitario, Durkheim señala la posibilidad de una
existencia social integrada sin una estricta homogeneidad
entre las partes del sistema (Campbell, 1999). Ya Comte
había tratado la resolución de las crisis a través de ideas
científicas orientadas a la organización social. Era tajante en
que la guerra tuvo en su momento la función de obligar a
trabajar a los hombres, pero que en la sociedad industrial,
el destino estaría definido por la primicia del trabajo, por
lo cual la guerra ya no tendría sentido. El industrialista
sustituye al guerrero en la generación de riquezas, y el
científico sustituye al sacerdote en la articulación de
sabiduría orientadora de armonía/ajuste social.
Estas ideas y construcciones (preelaboradas) hacen que E.
Durkheim deposite su esfuerzo en sistematizar un conjunto
de reglas que vitalicen el producto científico, acercando
el abordaje metodológico de las ciencias sociales a las
precisiones y evidencias con que la física presenta sus leyes.
Esto le trajo severas críticas, lo acusaban de “cientifista”, por
una supuesta obsesión al método naturalista, y es que en
principio, la primera regla de su propuesta era tratar los

75
WILMER JOSÉ TÉLLEZ ACOSTA

hechos sociales como “cosas”. Piensa que Comte ya lo había


entendido así, pues al considerar los hechos sociales como
naturales, sometidos a leyes naturales, le daba a los objetos
sociales el carácter de “cosa”. La esencia de esta regla es
buscar la objetividad con que se manifiestan los fenómenos,
no en las ideas que los hombres forjan del valor, sino en
la calidad del dato. “Debemos considerar los fenómenos
sociales en sí mismo, separados de los sujetos conscientes
que se los representan; es necesario estudiarlos desde afuera,
como cosas exteriores pues con este carácter se presentan a
nosotros” (Durkheim, 1895/2010: 51).
Aunque pareciese que la objetividad es algo sincrónico
entre Comte y Durkheim, el trasfondo es muy distinto.
Durkheim califica la actividad de Comte y H. Spencer
como filosofía porque no encontraba en sus argumentos
manejo de observaciones tal como proponía el positivismo.
Se trataba de una labor introspectiva que producía
teorizaciones abstractas más que una actividad empírica.
Tuvo la misma actitud contra Locke y Condillac: “no
estudian las sensaciones, sino ciertas ideas de la sensación”
(1895/2010: 53). Al abordar los hechos sociales como cosas,
Durkheim protegía a la sociología de que no fuese una
rama de la filosofía (Ritzer, 2001), ya que la connotación
empírica reside en lo externo de la mente, en el dato, no
en las ideas. La sociología no es filosofía porque es una
ciencia estrictamente empírica: la verdad reside en hechos
observables (datos).
Los atributos de los objetos sociales dispuestos al ojo del
observador, tienen la facultad de traducirse en indicadores
empíricos para su análisis estadístico. Por esto es necesario
trabajar con definiciones previamente establecidas, para
observar puntos de referencias constantes e idénticos con
que se pueda representar y analizar estadísticamente la

76
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

relación causal de un hecho social (siempre ocasionado por


otro hecho social). En El suicidio (1897/1976), Durkheim
expone la representación de diversos fenómenos con
capacidad predictiva del suicidio en Europa. A través de
una densa data, se interesa en analizar las variaciones
del suicidio en función de diversos fenómenos (estados-
tipos): psicopáticos: depresión, locura; psicológicos normales:
raza, herencia; cósmicos: temperatura, momentos del día,
estación del año; sociales: sexo, religión, estado civil, por
nombrar algunos. Este proceso es conocido como variación
concomitante, una presunción causal existente entre dos
objetos, evidenciado porque el cambio que experimenta
uno, tiene una consecución cambiante (en cuando a fuerza
y dirección) en el otro.
La explicación es para Durkheim el centro del trabajo
sociológico, y consiste en establecer relaciones de causalidad.
La interpretación que se realiza de los hechos definidos
previamente en especies facilita la explicación de los
objetos, pero advierte que no se debe confundir para qué
sirve el fenómeno y qué lo causa. “Destacar la utilidad de
un hecho no es lo mismo que explicar cómo nació o cuál
es su naturaleza pues los fines a los que sirve suponen
las propiedades específicas que lo caracterizan, pero no
las crean” (Durkheim, 1895/2010: 107). La advertencia
metodológica invita a investigar separadamente la causa
eficiente que produce el fenómeno y distinguir la función
que cumple. Podemos tener conciencia de la necesidad
de B en el orden social, pero no basta con entender su
funcionalidad, sino de lograr identificar el agente que lo
causa, la explicación “eficiente” viene dada por determinar
si es A, C o D quienes definen a B.
El método comparado es esencial para la explicación
causal. Si bien la naturaleza de lo social dificulta la

77
WILMER JOSÉ TÉLLEZ ACOSTA

posibilidad de manipular artificialmente una variación, el


método comparado o experimentación indirecta es el más
útil dada la espontaneidad con que se presentan los hechos
sociales. Durkheim considera que el método de variaciones
concomitantes es el más idóneo para los procesos de
comparación sociológica, con dirección a la relación causal.
El paralelismo en los valores de dos fenómenos es sinónimo
de relación entre ellos, es una ley en sí misma. El proceso
inicia mediante la deducción investigativa que establezca
cómo uno de los dos términos puede producir el otro,
y luego hay que verificar el resultado con la observación.
Veamos el siguiente ejemplo tomado de la Encuesta de
Violencia Interpersonal del Lacso-UCV (2008).
Edad
Hasta 29 Entre 35 y 50 Mayor de 50
años años años
Por temor al crimen limitó Si 57.2 64.9 69.2
horarios de compra
No 42.8 35.1 30.8

Seguiré el proceso planteado por Durkheim. La teoría


sugiere que con el avance de la edad se pierde capacidad
física para enfrentar un episodio delictivo, por lo tanto, esta
vulnerabilidad hace que los niveles de temor al crimen se
incrementen con el pasar de los años de vida. Por deducción,
se puede plantear que una eventual variación en la edad,
significaría una variación en la decisión de limitar horarios
de compra por temor al crimen. Nótese en el cuadro que
hay evidencia para soportar la hipótesis, pues a medida que
aumenta la edad, aumentan las restricciones de horarios
de compras por temor al crimen (a partir del siglo XX se
trabaja con coeficientes de asociación o interdependencia
para precisar la fuerza de relación). Durkheim advierte
la posibilidad de casos donde la relación sea explicada

78
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

por un tercer fenómeno intercalado. Aquí la utilidad


hipotética-deductiva, pues gracias a la revisión teórica se
puede entender que lo definitorio entre edad y temor es la
autopercepción de vulnerabilidad física.
El empirismo de Durkheim va más allá de observar,
se trata de sintetizar la realidad en el dato e interpretar el
sentido explicativo del fenómeno a partir de variaciones
concomitantes. Su propuesta es empírica y analítica.
Aquel fenómeno social que no pueda estar sujeto a
observación delimitada para establecer su atributo o
magnitud (medición), no es útil por la imposibilidad de
aprehender su naturaleza. Esta propuesta asemeja el sentido
de análisis social al de las ciencias naturales, persigue la
objetividad al mantener observaciones que dependan más
de estandarización del dato que del criterio subjetivo del
investigador. Se puede decir que es un paso a la unificación
metodológica que traduce el entendimiento de lo social en
expresiones cuantitativas.
Finalizada mi reflexión sobre el método empírico de
Durkheim, trataré a continuación los fundamentos esenciales
de medición como expresión de exactitud y objetividad,
para luego tratar la investigación cuantitativa, que recoge la
historia del empirismo y positivismo como una estructura
metodológica rígida, avalorista, objetiva y dispuesta al
control de leyes-teorías a través del dato empírico.

Medición y construcción de índices

El valor científico de las teorías recae en su capacidad


de contrastación empírica. Es una condición que no está
dada en la naturaleza del objeto, sino en el diseño de
una estructura operativa-observacional. El fundamento
demostrativo o de verificabilidad contempla cómo lo

79
WILMER JOSÉ TÉLLEZ ACOSTA

singular se adecúa a lo general para que la ley se “legitime”


como referencia cognitiva. Discursivamente parece sencillo:
si la teoría señala los hombres son más altos que las mujeres, al
tomar un grupo poblacional x, podemos trazar la hipótesis
de que los hombres son más altos que las mujeres. Al decir
que la observación singular contrastará la ley general surge
el siguiente cuestionamiento: ¿cómo un marco operativo
producirá evidencias para rechazar o aceptar la hipótesis?
En nuestro caso, el marco operacional se enfocaría en
medir la estatura (tomando como unidad de referencia el
centímetro) de mujeres y hombres, para observar si los
hombres tienen en promedio más unidades de centímetros
que las mujeres (adecuación observación-teoría) o viceversa
(no adecuación observación-teoría).
El sentido operativo de toda investigación científica es la
aprehensión del objeto para exponer evidencias que asuman
una posición del hecho frente la teoría. En el paradigma
cuantitativo, la aprehensión se traduce en medir, esto es
establecer correspondencia entre la naturaleza del objeto
y alguna unidad que designe sus atributos. En el ejemplo
anterior, el asunto es sencillo porque universalmente la
estatura se corresponde a la unidad centímetro, quedando
sólo la determinación de cuántas veces se repite esta unidad
(cm) en hombres y mujeres. En ciencias naturales, las
propiedades de un objeto (dilatación, velocidad, fuerza,
peso, densidad, desplazamiento) se conocen en la medida
que haya asignación numérica a una magnitud o cantidad
que representa tal propiedad. La estatura es un atributo
físico del ser humano, y su aprehensión se expresa mediante
una cualidad métrica.
Para Diez y Moulines (1999,) medir es asignar números
a objetos empíricos para determinar ciertas propiedades
denominadas magnitudes, y de donde se desprende

80
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

posibilidades de establecer cálculos que viabilicen


predicciones sobre su naturaleza. La medición se realiza
a través de instrumentos, cuya esencia es formular reglas
para establecer numéricamente la magnitud del objeto.
De vuelta a nuestro ejemplo, la magnitud de “estatura”
se determina mediante una “cinta métrica”, instrumento
que refiere la escala universal de unidades de centímetros,
mientras que la magnitud del “peso” se determinan
mediante una “báscula”, instrumento que refiere la escala
universal de unidades de kilogramos.
El debate sobre medición en el mundo científico tuvo
un importante momento en 1932, cuando la Asociación
Británica para el Avance de la Ciencia (British Association
for the Advancement of Science) instruyó a varias secciones
de trabajos considerar y reportar sobre el siguiente
cuestionamiento: ¿es posible medir sensaciones humanas?
En el reporte final de 1940, un miembro del comité afirmó
que cualquier ley que se proponga expresar una relación
cuantitativa entre la intensidad de sensaciones e intensidad de
estímulos no sólo es falsa, sino que carece de significado a no ser
que pueda tener un sentido conceptual aplicado a las sensaciones
(extracto del reporte final, citado en Stevens, 1946). Esta
posición alentó al psicólogo Stanley Stevens (Universidad
de Harvard) a presentar en la revista Science de 1946 una
clasificación de las escalas de medición.
En su artículo On the theory of scales of measurement, Stevens
expresa que los acuerdos sobre el tema pueden ser exitosos si
se reconoce que al medir existe en una variedad de formas
y escalas que recaen dentro de ciertas definiciones de clases,
que a su vez son determinadas por la operación empírica
invocada en el proceso de medir, y por la propiedad formal
(matemática) de las escalas. El autor concuerda en que medir,
en sentido amplio, es asignar números a objetos/eventos de

81
WILMER JOSÉ TÉLLEZ ACOSTA

acuerdo a reglas, y la escala de medición debe adecuar los


aspectos del objeto a las propiedades de series numéricas. A
continuación, se detallan las generalidades de la clasificación
de escalas de medición propuesta por Stevens:
• Escala nominal: clasifica el objeto de análisis en
categorías de interés. No hay referencia a magnitudes
sino a cualidades, por lo tanto, la numeración es
sólo para codificar categorías. Una persona tiene la
cualidad de ser soltera, mujer y católica, además de
tener asignado el número 35 en su camiseta de futbol.
Predomina una relación de igualdad entre categorías,
y su permisividad estadística recae en número de
casos, moda y correlación de contingencia a través de
distribuciones de casos entre categorías.
• Escala ordinal: Posee la misma propiedad de la
escala nominal, pero establece un ordenamiento
jerárquico de las categorías de interés. Una persona
tiene la cualidad de tener educación universitaria,
lo que se traduce en un nivel superior a las personas
de educación secundaria o básica. Igualmente, un
profesor titular representa tres escalafones superiores
a un profesor asistente, y cuatro escalafones superiores
a un profesor instructor, pero no es posible calcular
distancias entre cada escalafón. La particularidad de
este ordenamiento es que no ubica los casos en escalas,
a pesar de cierta noción de magnitud, e imposibilita
cualquier operación aritmética básica: es incorrecto
decir que la suma de un capitán más un teniente da
como resultado un general. Permisividad estadística:
mediana y percentiles.
• Escala intervalo: Se puede decir que tienen un sentido
ordinal cuantitativo, donde los intervalos de distancia

82
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

a lo largo de la escala son medidas fijas y equivalentes


entre sí; la distancia entre A y B es la misma de D y
F. El cero representa una unidad arbitraria que varía
según la escala (x´=ax+b) y no implica ausencia de
la variable. Una calificación “0/20” no se traduce
como falta de conocimiento o falta de calificación, así
como un país que registre 0° C no significa falta de
temperatura. Los valores negativos tienen sentido en
esta escala (ejemplo: -8° C). Permisividad estadística:
media aritmética, desviación estándar, correlación orden-
rango y de producto-momento.
• Escala razón: posee las mismas propiedades que las
escalas intervalos, pero en este caso el cero es absoluto,
por lo que las observaciones están restringidas a
la parte positiva de la escala real (x´=ax). El cero
implica ausencia de la variable. Una persona que haya
devengado 0 bolívares de salario se traduce en ausencia
de ingresos; por otro lado, no tendría sentido señalar
que una persona pesa 0 kilogramos, sencillamente no
existe. A diferencia de las escalas intervalos, el origen
común de la escala razón permite estimar en qué
porcentaje x1 excede a x2. Permisividad estadística:
coeficientes de variación.
Las escalas de medición presentada por Stevens han influido
ampliamente en el carácter empírico de las investigaciones
científicas, aunque señalamientos posteriores consideran su
propuesta más apropiada para la física que para las ciencias
del hombre. Carmines y Zeller (1979) señalan que el problema
con la propuesta de Stevens es que muchos de los fenómenos
en ciencias sociales no son objetos ni eventos, sus niveles de
abstracción dificultan una caracterización adecuada, por lo
que para las ciencias sociales, la medición es más un proceso de
conexión entre conceptos abstractos e indicadores empíricos.

83
WILMER JOSÉ TÉLLEZ ACOSTA

Al contemplar la investigación científica social medir


su objeto, esta enfrenta un proceso que involucra un nivel
teórico-conceptual y un nivel empírico. Su operatividad
consiste en construir un sistema aprehensivo que aborde la
naturaleza imprecisa de sus fenómenos. La fase concluyente
de la planificación operacional es la elaboración de un
instrumento de medición que aprehenda la realidad
inmediata (nivel empírico) y la aproxime a un nivel teórico,
donde reside el interés científico. Se tiene entonces que el
nivel empírico de una investigación es la propiedad manifiesta
del objeto, es lo directamente observable, mientras que la
propiedad latente es la entidad abstracta no observable
directamente, pero que está ligada con las observaciones
subyacentes de la propiedad manifiesta-empírica.
¿Cuándo un país es democrático? Teóricamente, la
democracia contempla respeto por los derechos humanos,
respeto a la propiedad individual y libertad de expresión. Se
puede apreciar que estos tres indicadores pueden tener la
propiedad de ser manifiestos, observables directamente,
por ejemplo, al contabilizar denuncias de violaciones a
derechos humanos, casos de vulneración al debido proceso
respecto a la propiedad individual, o casos de represalias por
expresar y accionar contrario a intereses gubernamentales.
La democracia es, por lo tanto, una propiedad latente que
se conoce a través de indicativos empíricos-manifiestos.
Respetar los derechos humanos, propiedad individual y
libertad de expresión son propiedades subrogadas de la
democracia o, dicho de otra forma, la democracia se conoce
mediante indicativos relacionados empíricamente con su
esencia teórica-conceptual. El interés del investigador es
medir la propiedad latente, no los indicativos manifiestos.
Mora y Araujo (1971) resume los principales problemas
de medición: a) qué observaciones seleccionar para formar

84
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

indicadores de conceptos latentes; b) cómo manipular o


combinar esos indicadores para obtener una medición
del concepto; c) cómo establecer si el concepto ha sido
efectivamente medido (validez de los indicadores). El
punto central de estos tres aspectos es que el investigador
tiene un amplio repertorio de indicadores que dan cuenta
del constructo teórico, y su trabajo es diseñar una serie de
manifestaciones empíricas que capten adecuadamente su
propiedad. La instrumentalidad del científico social no tiene
la misma estandarización como otras ciencias, no cuenta
con una cinta métrica o báscula para medir la democracia,
desarrollo o criminalidad, se vale de un sistema de indicadores
que reúna la capacidad causal de la dimensión latente.
Aquel investigador que califique a un país como democrático
por el hecho de haber elecciones, sustenta una tesis tan lánguida
como calificar a un deportista de alto rendimiento porque es
rápido. Se trata de indicadores aislados, que si bien comulgan
con el término “democracia” y “alto rendimiento deportivo”,
el grado de abstracción exige mayor esfuerzo en el diseño
instrumental para que una buena combinación de indicadores
refleje el concepto, y verdaderamente mida lo que debe medir.
El proceso transitorio de la conceptualización o propiedad
latente a la propiedad empírica se conoce en la literatura
como operacionalización, y desde la sociología, Lazarsfeld
(1979) estipula cuatro fases principales, a las cuales referiré
brevemente: a) representación literaria del concepto, b)
especificación de las dimensiones, c) elección de indicadores,
d) síntesis de los indicadores o elaboración de índices.
• Representación literaria del concepto: Es la etapa
teórica que esboza una imagen abstracta del objeto.
El concepto es una entidad vaga que confiere un
sentido a las relaciones entre fenómenos observados.

85
WILMER JOSÉ TÉLLEZ ACOSTA

Earl Babbies (1999) señala que la conceptualización


es un proceso a través del cual especificamos a qué
nos referimos cuando usamos un término particular,
ya que otros no comprenden exactamente lo que
deseamos comunicar, aunque tengan una noción
general del significado. Si el país x es más democrático
que el país y: ¿qué definimos como democracia? La
mujer es más compasiva que el hombre ¿a qué nos
referimos con compasión?
• Especificación de las dimensiones: De esta noción
conceptual se desprende un análisis de componentes
como una manera de ordenar la complejidad del
fenómeno, siendo deducido a partir de sus estructuras
correlacionadas. Las dimensiones son fases del
concepto que agrupa un conjunto de indicadores
según determinada naturaleza del término. La
democracia concibe dos dimensiones esenciales según
su significado: participación y respeto a la disidencia.
En cuanto a la compasión, se habla de una dimensión
activa (de acción) y otra sensitiva (de sentimiento).
• Elección de indicadores: Como sugiere el propio
término, los indicadores indican presencia o ausencia
de propiedades conceptuales del objeto. Lazarsfeld
resalta un aspecto relevante: la relación entre
indicador-concepto queda definida en términos de
probabilidad, no de certeza, por lo que considera
necesario utilizar un gran número de indicadores.
Tomando su propio ejemplo, si los ingresos son
considerados como un indicador de competencia
profesional, probablemente los hombres de negocios
resulten más competentes que los eminentes
científicos. Si consideramos la movilización de
partidos políticos como indicador de fuerza

86
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

democrática en un país, probablemente los gobiernos


que fuercen la asistencia de trabajadores públicos
a eventos del partido serán más democráticos que
aquellos países donde no exista tal coacción. La
manera de subsanar esta dificultad probabilística
es ampliando un abanico de indicativos que tengan
una estructura correlacionada, no descartando que
sean indicadores integrados al concepto o exterior
a él. Sobre la elección de indicadores “válidos”,
Mora y Araujo (1971) señala que la discusión en
principio es vana mientras no se le dé al investigador
la oportunidad de mostrar el valor predictivo de
su índice en el marco empírico, si sus indicadores
predicen lo que tienen que predecir, habrá que
aceptar la validez de estos indicadores.
• Elaboración de índices: luego de tener un grupo
de indicadores derivados de las dimensiones
conceptuales, esta etapa comprende la síntesis de
ítems en una medida única, se trata de un índice
general que tenga en cuenta la totalidad de los
datos. El Índice de Desarrollo Humano (IDH) del
Programa de las Naciones Unidas para el Desarrollo
(PNUD), el Índice de Corrupción de Transparencia
Internacional, o el Índice de Paz Global del Institute
for Economics and Peace, son ejemplos que sintetizan
en un valor único diversos indicadores. El Índice de
Paz Global tiene 23 indicadores, entre ellos: número
de guerras internas o libradas, relaciones con estados
limítrofes, número de homicidios, posibilidades de actos
terroristas, número de personal militar, financiamiento de
las misiones de paz, entre otras. El índice oscila entre
1 y 5 (pacífico y no pacífico), siendo Dinamarca el
país más pacífico (1.361) y Somalia el menos pacífico

87
WILMER JOSÉ TÉLLEZ ACOSTA

(4.192) para el 2015, según su Reporte de Paz Positiva


(Institute for Economics and Peace, 2016).

Es importante señalar que medir es un componente


esencial dentro del paradigma positivista, y representa
una extensa discusión del quehacer científico. La
aprehensión del objeto está sujeta a la obsesión de precisar
sus propiedades en el dato. A diferencia de las ciencias
naturales, la dinámica sobre el hombre es abstracta y sus
instrumentos no tienen una estandarización universal, así
que el científico social conecta la teórica con una propuesta
empírica para hacer conmensurable aquello que parece
impreciso y complejo.

La investigación cuantitativa: fundamentos y proceso


Su esencia es explicar los hechos en términos de
causalidad, considerando que la ciencia tiene como principio
etapas descriptivas previas orientadas a proporcionar
indicios causales y predictivos. Se fundamenta en una
lógica deductiva donde la teoría permite el ajuste empírico
del proceso, lo que se traduce en problemas cognitivos
delimitados, basados en construcciones referenciales del
mundo científico. La revisión preliminar de literatura exige
la ubicación de variables que puedan regular aprehensiones
manifiestas, por lo que las observaciones no son puras, sino
que están reguladas por definiciones a priori.
Estas observaciones manifiestas son para verificar
hipótesis o para construirlas desde la descripción, siempre
con la intención de poder testear la capacidad explicativa
de leyes universales. El carácter hipotético-deductivo de las
investigaciones cuantitativas implica el diseño operativo de
cómo aprehenderemos las consecuencias observacionales
del estudio para aceptar o rechazar, con alguna evidencia

88
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

probabilística, la hipótesis de investigación. Este enfoque se


interesa más por verificar que por proponer teorías.
El investigador asume una postura objetiva, avalorista,
libre de premoniciones, se separa de su objeto de estudio
para renegar cualquier vinculación personal-subjetiva.
La realidad no es variante según quien observe, se trata
de un proceso poco flexible que delega en el diseño
metodológico la posibilidad de que cualquier réplica
arroje resultados similares. Esta realidad se sintetiza
en datos, producto de un sistema de medición con que
aprehendemos el objeto y permite la descripción del
comportamiento de las variables de estudio. El carácter
explicativo reside en los cambios que presentan variables
de interés en función al comportamiento registrado por
otras. Los datos se recolectan a través de instrumentos que
buscan cierta estandarización en la comunidad científica,
y son analizados estadísticamente. Como se discutió en
el apartado sobre medición, las ciencias del hombre no
cuentan con herramientas universales como en las ciencias
naturales, pero eso no la exime de construir instrumentos
sujetos a criterios de confiabilidad y validez.
Las conclusiones arrojadas tienen la propiedad de
ser extensivas más que intensivas. Esto quiere decir
que la consecuencia observacional para contrastar la
hipótesis se realiza en una determinada población, pero
en realidad no se trabaja sobre su totalidad, sino a partir
de un subconjunto representativo (muestra) que refleje
y encarne dicha población por medio de distribuciones
similares, considerando un grado de confianza para hacer
generalizaciones de resultados (aquí la referencia de
extensiva) a partir de la información proporcionada por la
muestra seleccionada.

89
WILMER JOSÉ TÉLLEZ ACOSTA

A continuación, se describe de manera general el proceso


de una investigación cuantitativa.

El problema de investigación

Un problema puede traducirse como dificultad o situación


no deseada, algo que es pero que no debería ser, susceptible
a modificarse en el tiempo según nuestras necesidades. La
investigación científica no coloca en un primer plano cambiar
lo que se deba, sino condensar la máxima información posible
del objeto para entender su naturaleza. Esto no le resta mérito
al científico en cuanto a su involucramiento con los cambios
que el mundo demanda y necesita, pero su rol protagónico es
en el problema cognitivo previo.
La visión cuantitativa se centra en problemas cognitivos
delimitados, su carácter hipotético-deductivo exige una idea
de investigación con cierta referencia contextual, teórica y
empírica, que circunscriba la situación problema observada
a una estructura más formal. Difícilmente trabaja con
observaciones puras o con objetos sin referentes en la
comunidad científica (temas no explorados). La exposición
de por qué el objeto es un problema requiere información
que así lo sustente, para justificar cómo ha variado en el
tiempo, qué aspectos demarcan la situación que es y no
debería ser, qué decisiones se tomaron o se dejaron de tomar,
cuáles otros eventos tienen interés por ser posibles agentes
causales. La exposición de planteamiento del problema es en
resumen describir la situación fáctica.
Pero plantear un problema conduce a una revisión
de literatura (investigación preliminar) para dar cuerpo
descriptivo al objeto, más allá de la idea inicial subjetiva
y personal que atrapó el interés del investigador. La
familiarización con el hecho mediante la literatura es un

90
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

proceso que finiquita en interrogantes y objetivos más


que en respuestas. El investigador debe iniciar con un
cuestionamiento sobre algún vacío cognitivo que haya
emergido de sus lecturas, conversaciones o reflexiones,
por lo tanto, la formulación del problema o pregunta de
investigación constituye la base de nuestro edificio, y
debe ser estable para que pueda sostener la estructura que
viene arriba. Tiene aspectos lógicos que ayuda a delimitar
el objeto y lo que queremos saber de él en determinado
tiempo y espacio. La propuesta “enunciado holopráxico”
de Hurtado (2010) enmarca de manera concisa un
esquema que delimita de manera lógica una formulación
del problema.

Figura 3: Enunciado holopráxico para la formulación del problema.


Fuente: Hurtado (2010: 47).

Una buena formulación debe evitar vicios claves en sus


cuestionamientos: 1) calificativos de valor o frases ambiguas:
¿Cuál es la razón de que el desempeño laboral del equipo 1
haya empeorado en el último semestre?; 2) preguntas que
se contesten con un simple sí o no: ¿Es la familia uno de

91
WILMER JOSÉ TÉLLEZ ACOSTA

los actores sociales claves en el proceso de control social


de la delincuencia juvenil en Venezuela?, 3) preguntas que
se contesten con un dato específico: ¿Cuántas personas
mayores de 60 años han muerto por causa de diabetes en la
segunda década del siglo XXI en Venezuela? Una pregunta
formulada adecuadamente según la propuesta holopráxica
sería: ¿Cuáles son los factores (qué se quiere saber) que
inciden en el aprendizaje de señas (acerca de qué) en niños
con Síndrome de Down (en quiénes) de la zona norte de
Caracas (dónde) en el año 2015 (cuándo)? ¿Qué diferencias
existen (qué se quiere saber) entre hombre y mujeres (en
quiénes) en cuanto al sentimiento de emigrar (acerca de
qué) de Venezuela (dónde) durante el siglo XXI (cuándo)?
La formulación del problema facilita la propuesta del
objetivo central de investigación, que representa la finalidad
del trabajo. No se trata de actividades por hacer, sino del
propósito general ajustado a lo que se quiere saber del objeto.
Debe precisarse con uno o dos verbos en infinitivo y conservar
el esqueleto del resto de la pregunta. Ante la formulación:
¿Cuáles son los factores que inciden en el aprendizaje de
señas en niños con Síndrome de Down de la zona norte de
Caracas en el año 2015? Lo que preocupa en este caso es el qué
se quiere saber = ¿cuáles son los factores? Y podemos decir
que si mi interés es saber cuáles son los factores, mi objetivo
debe ser determinar los factores. La redacción adecuada
del objetivo sería: Determinar los factores que inciden en el
aprendizaje de señas en niños con Síndrome de Down de la
zona norte de Caracas en el año 2015.
¿Qué diferencias existen entre hombre y mujeres en cuanto
al sentimiento de emigrar de Venezuela durante el siglo XXI?
Si lo que quiero saber es qué diferencias existen, mi objetivo
pudiese ser analizar esas diferencias. Objetivo: analizar las
diferencias que existen entre hombre y mujeres en cuanto al

92
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

sentimiento de emigrar de Venezuela durante el siglo XXI.


Una lista de verbos, clasificados por nivel de investigación, es
una herramienta útil para la redacción del objetivo.

Marco teórico referencial

La formulación del problema y objetivos coadyuvan


en delimitar la revisión de literatura que debe realizar el
investigador para discernir sobre el estado actual de su objeto.
Para la construcción de un marco teórico se necesita un proceso
amplio y sistemático de consulta sobre aquellas referencias
científicas (libros arbitrados, artículos en revistas científicas, tesis
aprobadas, trabajos de ascensos) que enmarcan la investigación.
Representa una etapa donde situamos el problema formulado
dentro de un campo de conocimiento para analizar lo que se ha
trabajado sobre él. El marco teórico es el marco de referencia del
problema, no de la problemática de donde este surge (Tamayo,
1995). Las hipótesis nacen aquí.
El primer resultado proveniente de la revisión de literatura
son aquellas experiencias de cómo otros investigadores han
dado respuesta a cuestionamientos similares al planteado
por nosotros. Nos interesa saber cómo han recorrido ese
camino y qué resultados obtuvieron. Este segmento del
marco teórico son los antecedentes de estudio. No sólo será un
medio para corroborar que es un tema trabajado, también
es importante para conocer estrategias metodológicas
empleadas con propósitos similares al nuestro. Esto equivale
a preguntarles a compañeros cercanos cómo hacen ellos para
ir a la playa, qué medio de transporte utilizan, qué llevan de
refrigerios, cómo les ha resultado; al final, sus experiencias
nos servirán para diseñar una estrategia propia en el asunto.
Hay tres elementos claves en la exposición de los
antecedentes de investigación: objetivos, metodología y

93
WILMER JOSÉ TÉLLEZ ACOSTA

conclusiones. Igual de importante es considerar que los


antecedentes no son un recuento histórico del problema,
sino investigaciones que recorrieron un camino similar al
que tenemos pensado recorrer nosotros. No tienen que
versar con exactitud sobre nuestro problema, no deben
ser un espejo de inquietudes exactas, solo un radio de
referencia sobre nuestro interés. Cuando planteamos:
¿Cuáles son los factores que inciden en el aprendizaje de señas
en niños con Síndrome de Down de la zona norte de Caracas
en el año 2015?, es pertinente localizar antecedentes que
hayan trabajado con dificultades en el aprendizaje de señas
en x población, o incluso sobre el aprendizaje de cualquier
otro sistema en niños, lo importante es no limitarnos a
sistematizar experiencias porque no se trate fielmente de
nuestro mismo problema, recordemos que es un radio de
búsqueda y aproximación.
A continuación, se exponen las funciones del desarrollo
de la perspectiva teórica en una investigación según
Hernández, Fernández y Baptista (2010: 52):
a.- Ayuda a prevenir errores que se han cometido en otras
investigaciones. Esto equivale a escuchar antecedentes sobre
ir a la playa y no repetir lo que resultó negativo.
b.- Orienta sobre cómo habrá de realizarse el estudio. En
efecto, al acudir a los antecedentes nos podemos dar cuenta
de cómo se ha tratado un problema específico.
• Qué clase de estudios se han efectuado.
• Con qué tipo de participantes.
• Cómo se ha recolectado los datos.
• En qué lugares se han llevado a cabo.
• Qué diseños se han utilizado.

94
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

c.- Amplía el horizonte del estudio o guía al investigador


para que se centre en su problema y evite desviaciones del
planteamiento inicial.
d.- Documenta la necesidad de realizar el estudio.
e.- Conduce al establecimiento de hipótesis o afirmaciones
que más tarde habrán de someterse a prueba en la
realidad, o nos ayuda a no establecerlas por razones bien
fundamentadas.
f.- Inspira nuevas líneas y áreas de investigación.
g.- Provee de un marco de referencia para interpretar los
resultados del estudio. Aunque podemos no estar de acuerdo
con dicho marco o no utilizarlo para explicar nuestros
resultados, es un punto de referencia.

Hipótesis y variables

Luego de precisar el problema de investigación y un


consecuente marco teórico referencial (antecedentes, bases
teóricas y conceptuales) como resultado de una revisión
delimitada y sistemática de literatura, es el momento de
proponer una hipótesis de investigación. Una hipótesis es una
respuesta apriorística expresada a través de un enunciado con
autonomía sintáctica que será objeto a contrastación. El trabajo
empírico tiene como propósito el análisis de evidencias para
testear la hipótesis que hemos propuesto luego de ampliar
nuestras capacidades referenciales a partir del marco teórico.
La esencia explicativa de la investigación cuantitativa
delega en el marco teórico referencial la identificación de
variables que definen causalmente el objeto. La revisión de
literatura debe exponer ese sistema de agentes causales con
lo cual tenemos presente diversos modelos que teóricamente
explican el fenómeno. Nuestra experiencia como

95
WILMER JOSÉ TÉLLEZ ACOSTA

investigadores u observadores regulares, aunado al marco


referencial, nos da la capacidad de generar una respuesta
tentativa al problema cognitivo de donde partió el estudio.
Contrastar una hipótesis es sinónimo de aprehender la
naturaleza del objeto para determinar su relación latente
con indicativos manifiestos, más allá de si son verdaderas
o falsas, se trata de ver si las hipótesis son claras y
operativas (Güell, 1979). La operatividad de una hipótesis
está en conexión con un sistema de variables identificado
y discutido en el marco teórico. Una variable es cualquier
propiedad representada en magnitudes o atributos (cualidad)
que puede cambiar en el tiempo, y es la esencia práctica de las
hipótesis, así como del trabajo empírico de la investigación.
Güell señala al respecto:
Una delimitación práctica de las hipótesis se consigue a
través de la definición precisa y concreta de las variables que
la forman. (…) los criterios de operatividad de la hipótesis
son determinados por la capacidad que tiene esta misma
hipótesis de ser dividida en variables. En resumen, para que
la hipótesis sea buena ha de ser operativa y para que sea
operativa ha de lograrse con concreción o especificación
por medio de su desmembración en variables. Al dividir la
hipótesis en variables lograremos una delimitación precisa
del campo de investigación. En otras palabras, si la función
de la hipótesis es la de señalar al investigador los aspectos
del fenómeno que deben ser tomados en consideración,
esta función se logrará si se llegan a concretar al máximo las
variables de que consta la hipótesis en cuestión (p. 50).

En el apartado sobre medición, traté la naturaleza


aprehensiva de los objetos en ciencias sociales, concluyendo
que medir es una conexión entre estructuras latentes y
representaciones empíricas. Este proceso operativo de
convertir lo abstracto en manifiesto-observable es la

96
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

concreción que exige la hipótesis del sistema de variables


teóricas. La operacionalización de variables consiste en
esa precisión conceptual que busca generar claridad en
la contrastación empírica, permitiendo así una toma de
decisión por parte del científico sobre el respaldo o no de
determinadas evidencias en función a la hipótesis.

La muestra

Otra de las bondades de precisar una pregunta de


investigación es que induce a la elección de una población
objetivo. Una población es un conjunto finito de sujetos hacia
los cuales haremos inferencia sobre algún tema específico.
Los sujetos son unidades de la población que cubren su
totalidad, tienen características diversas y nuestro interés
es aprehender esa información, por lo que es esencial que
estén claramente identificados para su observación. La tarea
del investigador es describir estadísticamente la población
(N) a través de una subrepresentación de ella (muestra (n)),
con el fin de que toda conclusión sea generalizable.
Cortada y Carro (1972) destacan la importancia de tener la
población en mano para seleccionar sujetos que conformarán
la muestra n a través del esquema o marco muestral. Se trata de
un conjunto de información (como listas de teléfonos, listas de
asistencias, registros catastrales) para individualizar e identificar
cada sujeto de la población objetivo. Todo investigador desea
una correspondencia perfecta entre población objetivo y marco
muestral, pero lograrlo no es sencillo. La información del marco
de muestreo representa a la población marco, el subconjunto
de la población objetivo plenamente identificado que tiene
probabilidad positiva y conocida de formar parte de la muestra.
Se habla de un error de cobertura cuando el marco muestral
diverge gradualmente de la población objetivo.

97
WILMER JOSÉ TÉLLEZ ACOSTA

Pero ¿cómo se conoce estadísticamente las características


de una población a través de una muestra? Hay dos
conceptos primarios: parámetro poblacional y estadístico
muestral. La estadística inferencial estudia fenómenos
de azar y las condiciones que limita su control, mediante
reglas conducentes a estimar un parámetro poblacional
desconocido (Vivanco, 2006). Este parámetro poblacional,
que puede tener valor fijo o constante, es inferido por datos
obtenidos de una muestra, que a su vez es representado por
un estadístico (como la media, mediana, varianza). Cuando
tenemos los datos de una población entera (censo), no
hablamos de estadístico sino de parámetro, por ejemplo, el
promedio µ de ingreso salarial de la población venezolana.
Pero cuando se trabaja con una muestra, el objetivo es
estimar el promedio salarial poblacional a través del
estadístico muestral X (en este caso, la media muestral). En
pocas palabras, el interés es inferir parámetros poblacionales
mediante estadísticos muestrales.
Ahora, ¿cómo se estima el parámetro poblacional a
través del estadístico muestral? Antes de responder esta
pregunta, es necesario que me refiera a la distribución
muestral. Al respecto, Spatz (2001) es directo y sin rodeos:
la distribución muestral es siempre la distribución

98
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

particular de un estadístico muestral. ¿Qué quiere decir


esto? Si tuviésemos la oportunidad de seleccionar todas las
combinaciones posibles de muestras del mismo tamaño en
una misma población, y calcular la media X (el estadístico)
para cada una de ellas, observaríamos —suponiendo una
distribución normal— que todas estarían alrededor de un
mismo valor central. Por lo tanto, la distribución muestral es
la distribución del estadístico a través de un número infinito
de muestras. Pero ¿qué importancia tiene la distribución
muestral en la estimación del parámetro? Sencillo: el
estadístico de la distribución muestral es equivalente al
parámetro poblacional o, dicho en términos prácticos,
la media (gran media) de las medias de todas las posibles
muestras es equivalente a la media poblacional.
A la media de los estimadores de un parámetro
poblacional, obtenida mediante un número infinito de
muestras, se le conoce como valor esperado. La distribución
muestral es, por lo tanto, un método para estimar
parámetros poblacionales, pero hay dos escenarios: 1) si el
valor esperado es igual al parámetro poblacional, tenemos
un estimador no sesgado; 2) si difieren, el estimador se
considera sesgado. La diferencia entre el valor esperado y
el verdadero valor poblacional (X -µ) se conoce como error
muestral (Namakforoosh, 2000). En el caso de las medias
muestrales, el error estándar mide la dispersión alrededor de
µ, por lo tanto, poca variabilidad en la distribución muestral
significa un bajo error muestral en la estimación de µ.
El error estándar está igualmente asociado con el
tamaño de la muestra: a mayor tamaño muestral el error será
menor. Exagerando el caso, si el tamaño de la muestra es tan
grande que alcanza la población entera, el estimador del
parámetro poblacional no tendría error muestral porque
ya no haría falta estimar: tenemos el parámetro. La teoría

99
WILMER JOSÉ TÉLLEZ ACOSTA

del límite central señala que en una población N cualquiera,


no necesariamente distribuida normalmente, a medida que
aumenta n, X se acerca a µ.
Pero la relación entre error y tamaño muestral no se
soluciona con “más es mejor”. Conocer sobre la población
es una condición inherente a la determinación del número
mínimo necesario para estimar el parámetro. Poblaciones
heterogéneas requieren mayores casos para que la
variabilidad poblacional no le reste precisión al estimador.
Vivanco (2006) destaca el carácter subjetivo del investigador
al establecer el error máximo admisible (error asociado con el
tamaño de n) y el nivel de confianza (de que un intervalo/
rango contenga el parámetro desconocido) asociado a la
estimación. Es la búsqueda de equilibrar el tamaño muestral
con los criterios subjetivos antes señalados, tema de por sí
extenso para desarrollar en este libro.
¿Cómo darle sentido a lo explicado anteriormente?
Sabemos: 1) que necesitamos estimar un parámetro
poblacional a través de un estadístico muestral, 2) que el
estadístico de la distribución muestral es equivalente a
ese parámetro que deseamos estimar, 3) que la dispersión
de la distribución muestral está relacionada con el error
muestral, 4) y que a su vez, el error muestral se relaciona
con el tamaño de la muestra, y 5) el tamaño de la muestra
está relacionado con criterios subjetivos de cuánto margen
de error y nivel de confianza (90, 95, 99) asumirá el
investigador para definir el tamaño de n.
Ahora bien, si teóricamente el estadístico para estimar el
parámetro es el valor esperado de infinitas combinaciones de
muestras del mismo tamaño, es difícil (por no decir imposible)
que el investigador haga esta tarea, por lo general sólo elige una,
pero delega en la probabilidad matemática que los sujetos que

100
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

definen la muestra estén cerca del parámetro poblacional o


cerca del valor central de la distribución muestral. A razón de
este particular es que muchos especialistas en el área señalan
como una fuente de error muestral la mala suerte. ¿Cómo
enfrentar esto? A través de un diseño que garantice la obtención
de muestras probabilísticas estructurando un proceso aleatorio
de selección que asigne una probabilidad conocida y distinta de
cero a cada sujeto del marco muestral.
A continuación, los métodos más comunes de muestreo
probabilístico6: aleatorio simple, cada sujeto de una población es
listado y tiene igual oportunidad de ser seleccionado a través de
un proceso azaroso (tabla aleatoria, programa computacional
o manualmente). Sistemático: de una población ordenada
aleatoriamente, se selecciona cada i-ésimo elemento de N,
donde i es definido igualmente por un proceso aleatorio entre
1 y k (k=N/n). Estratificado: se tiene información de grupos
que comparten características comunes (homogéneos a lo
interno y heterogéneo a lo externo). Posteriormente, se realiza
un muestreo aleatorio simple para seleccionar cada sujeto
dentro de los grupos, de acuerdo a un proceso de afijación
que relaciona la distribución de elementos entre los estratos.
La afijación proporcional, por ejemplo, establece el tamaño
de la muestra proporcional al tamaño poblacional de cada
estrato. Conglomerado: se trata de conformar grupos, pero esta
vez heterogéneos a lo interno y homogéneos a lo externo. La
selección aleatoria simple se realiza posteriormente para extraer
muestras de manera proporcional (afijación). En contraste
con el muestreo estratificado, al muestreo por conglomerado
le interesa la selección aleatoria de sujetos que presenten
características diversas dentro de una serie de grupos similares.
6
Para una referencia desde el área metodológica, ver Namakforoosh (2000);
para una referencia especializada desde el área estadística, ver Groves, Fowler,
Couper, Lepkowski, Singer y Tourangeau (2004).

101
WILMER JOSÉ TÉLLEZ ACOSTA

Recolección de los datos

En este momento del proceso buscamos respuesta a:


¿cómo y con qué recolectaremos los datos? Para empezar,
todo trabajo empírico debe aclarar en este apartado
sus fuentes. Una fuente es el órgano emisor que tiene la
información que requerimos, nuestro trabajo es capturar
dicha información según la naturaleza de la fuente. Las
fuentes primarias se caracterizan por tener la información
original —en bruto— sobre el objeto, sin ningún filtro
mediador; se conocen también como fuentes de primera
mano. Las fuentes secundarias corresponden a aquellas que
contienen información reelaborada por otros autores que
sintetizan algún resultado primario sobre el objeto.
Las fuentes de información guardan relación con los
diseños de investigación documental o de campo, donde
básicamente la pregunta pertinente es: ¿quién tiene o dónde
se encuentra la información que necesito? Naturalmente,
no hace falta una muestra cuando trabajamos con fuentes
secundarias, la información próxima no está contenida en
los sujetos/elementos de la población, sino en ponencias,
artículos, o anuarios estadísticos que refieren información
sobre dicha población, obtenida probablemente mediante
alguna estrategia muestral. Los trabajos basados únicamente
en fuentes secundarias no permiten un diseño operativo
original, o ajustado a criterios prácticos propios. En los
trabajos de campo, la selección de una muestra tiene sentido:
lo que necesitamos se encuentra en las mentes de los sujetos
de una población, sólo hay que capturarlo a través de técnicas
e instrumentos de recolección de datos.
La técnica refiere al proceso de aprehensión de datos de
acuerdo a una estructura lógica que relaciona la naturaleza
del objeto, fuente de información y el cómo haremos la

102
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

recolección. El instrumento es el medio o herramienta


con que se hará la recolección. Analicemos el caso de
Galilei. Su interés era el posicionamiento de estrellas en el
universo, por lo que la naturaleza empírica de su objeto se
restringía a ver. ¿Se le podía preguntar a las estrellas sobre
su posicionamiento? La estructura lógica de un objeto que
se ve no se relaciona con preguntar, así que la respuesta es
no. ¿Cómo aprehender un hecho de esta naturaleza? Galilei
recurrió a la técnica de observación, y la herramienta que
utilizó para observar fue el telescopio (instrumento).
Haré otra pregunta capciosa: si el interés es describir
la relación entre preferencias políticas y estrato
socioeconómico en x población, ¿Pudiésemos observar con
un telescopio nuestro objeto? Alguna propuesta ingeniosa
pudiese establecer criterios observacionales, pero lo del
telescopio no tiene sentido. Si analizamos bien, para tener
en mano la preferencia política y estrato socioeconómico,
preguntarles directamente a los sujetos de x población parece
ser la alternativa más viable. En investigaciones de esta
naturaleza, la encuesta, modalidad de entrevista destinada
a listar una serie de datos precisos, es la técnica más común
para medir aspectos sociales. El cuestionario es el instrumento
que presenta una serie de preguntas estandarizadas según
la precisión deseada en las respuestas de los sujetos7. Los
trabajos cuantitativos, de esencia estadística, trabajan con
cuestionarios cerrados que exigen precisión en las respuestas;
por esta razón, ya se encuentran preestablecidas y el
encuestado elige de acuerdo a lo que le ofrecen.
Pero existe una pregunta que todo investigador debe hacerse
sobre su cuestionario: ¿cómo saber si es un instrumento válido
o fiable para lograr nuestro objetivo principal de investigación?
7
Por la naturaleza del aparatado, sólo trataré encuesta (técnica) y cuestionario
(instrumento).

103
WILMER JOSÉ TÉLLEZ ACOSTA

Todo instrumento de medición tiene implícito un grado de error


entre lo que es y lo que observamos (si X es lo que observamos,
T es el “valor de la realidad o verdadero” y e el grado de
error, entonces X=T+e), desde luego, a menor error, mayor
ajuste entre lo que observamos y lo verdadero (X=T si e vale
0). Ahora, un proceso de medición está sujeto a dos tipos de
errores: el aleatorio: que representa el efecto de las desviaciones
fortuitas, no sistemáticas, que refleja la imprecisión continua de
respuestas repetidas (inconsistencia interna), y el no aleatorio:
que representa el efecto de factores sistemáticos que sesgan la
medición del constructo teórico (inconsistencia externa).
La fiabilidad está asociada con la ausencia de error aleatorio, y
expresa el grado en que un instrumento aplicado repetidamente
proporciona igualdad en las puntuaciones de medidas, “los
resultados deben ser los mismos si volvemos a medir el mismo
rasgo en condiciones idénticas” (Magnusson, 1975: 78). A
menor error aleatorio, mayor fiabilidad. Referiré tres métodos
comúnmente utilizados.
Estabilidad (test-retest), se trata de la administración en
dos o más momentos de un mismo instrumento de medición
a un mismo grupo de personas. Se espera una correlación
positiva entre los resultados para considerar el instrumento
confiable. La distancia entre los períodos de aplicación
del test es clave en los cambios que puedan presentar las
variables (sobre todo las llamadas variables blandas: opinión
sobre candidato político, realidad económica). Dos mitades
(split-halves), consta de una sola administración del test. Del
conjunto total de ítems, se divide en dos mitades equivalentes
y se correlacionan los puntajes obtenidos de tal partición.
Consistencia interna (alfa de Cronbach), requiere una sola
administración del test y su esencia es el grado en que los
ítems de una escala están correlacionados. El coeficiente de
Cronbach varía entre 0 y 1, siendo 0 indicativo de ausencia

104
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

de consistencia y 1 una perfecta consistencia. Hernández,


Fernández y Baptista (2010) recomiendan elegir el coeficiente
de correlación según la escala de medición del test; intervalo:
correlación de Pearson, ordinal: coeficiente de Spearman o de
Kendall. El alfa de Cronbach trabaja con variables ordinales
(escala Likert) de intervalo o razón.
La validez refiere básicamente a la relación entre
medición-ítems y constructo teórico: un instrumento
debe medir los rasgos que pretende medir, y no otros; por
lo tanto, si la confiabilidad atiende la precisión a través de
resultados consistentes en medidas repetidas, la validez
refiere a la medición de aquel componente teórico para lo
cual fue construido el instrumento. Está asociado al error no
aleatorio. A menor error no aleatorio, mayor validez. Referiré
tres métodos esenciales para su determinación.
Criterio de validez: consiste en el desempeño de un test de
acuerdo a una forma externa al instrumento, definido como
criterio, y se calcula mediante la correlación de puntuaciones
del test con el criterio de interés. La poca ambigüedad
del criterio coadyuva en la utilidad de la validez, pero este
requisito es difícil de lograr en ciencias sociales, precisamente
por el grado de abstracción en las representaciones
conceptuales: éxito, democracia, participación, anomia.
La validez predictiva (medida criterio que se evalúa en el
futuro) y concurrente (disponibilidad de la medida criterio al
momento del test) son dos tipos de criterios.
Validez de contenido: se trata de determinar hasta dónde los
ítems de un test son representativos del contenido que se desea
medir (Palella y Martins, 2006). Si la variable está compuesta
por dimensiones, se puede realizar un muestreo probabilístico
aleatorio simple o estratificado, donde cada dimensión
representaría un estrato (Hernández, Fernández y Baptista, 2010).

105
WILMER JOSÉ TÉLLEZ ACOSTA

Los autores señalan que a veces la selección de ítems se debe más


a criterios de representatividad conceptual que estadísticos.

Validez de constructo: refiere a la adecuada representación


de los indicativos manifiestos de una variable latente, validado
mediante la relación que tengan sus puntuaciones con las de
otros instrumentos de medición coligadas por alguna hipótesis
teórica. Por ejemplo, si la agresividad en niños está asociada
teóricamente con la exposición a juegos violentos, de ser positiva
una correlación entre una batería de ítems relacionada con la
agresividad y la exposición a juegos violentos, se tiene evidencia
favorable de validez del constructo.

Análisis de los datos

A partir de instrumentos confiables y válidos, el investigador


aprehende la información que trazó en su plan operativo,
recordemos: operacionalización de variable (de lo abstracto
a lo empírico), identificación de la fuente donde se encuentra
lo que buscamos, elección de la técnica e instrumento para
recolectar la data. Al final de este proceso, tenemos una serie de
aprehensiones representadas por un valor semántico mínimo
de la(s) variable(s), definido como datos. Antes de entrar al
proceso analítico, se debe cumplir una fase de procesamiento,
codificación y tabulación de los datos primarios (ver Hernández,
Fernández y Baptista, 2010) para garantizar información
útil y organizada para los efectos investigativos. El resultado
estadístico de tal organización es una matriz de datos: conjunto
de funciones distribuidas en filas y columnas que sintetizan
ordenadamente la totalidad de nuestro objeto de estudio.
¿Cuál es la meta del análisis?: proporcionar una significación
de los datos mediante técnicas interpretativas de su estructura.
Se trata de una estandarización del lenguaje, porque los datos
simplifican una representación alegórica de la realidad. La lectura

106
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

y sentido que se busca en ese lenguaje simbólico de los datos se


denomina “información”. Se puede decir que la información es
el hilo conductor entre el dato y el conocimiento (en este caso
científico), porque es donde se condensa la sintaxis básica de un
mensaje sujeto a transmitir; por ejemplo: hay mayor proporción
de hombres que mujeres, el nivel educativo incide en el desarrollo,
el PIB explica los cambios inflacionarios más que la inversión
de capitales. La articulación de informaciones define un estado
cognitivo referente al objeto, ampliando las capacidades para
tomar decisiones acertadas (en el área política, social, empresarial).
El investigador, al tener entre sus manos (o en su pc) una matriz
de datos, debe considerar al menos tres aspectos fundamentales
a la hora del análisis estadístico: escala(s) de medición de la(s)
variable(s), su relación funcional y el tratamiento estadístico o
nivel de análisis. En la figura 4 se presenta un esquema referencial
sobre estos tres puntos que se desarrollarán sucintamente en el
resto del apartado sobre análisis de datos.

Figura 4: Aspectos a considerar en el análisis de datos estadístico


Fuente: Elaboración propia.

107
WILMER JOSÉ TÉLLEZ ACOSTA

La escala de medición: como se discutió anteriormente,


pueden clasificarse en categóricas (nominal y ordinal) o
métricas (intervalo o razón). Dependiendo de la naturaleza
de la escala se determina la permisividad estadística-
instrumental.
La relación funcional de las variables: interesa tener en
cuenta la función que juegan las variables en la investigación
para estipular si el análisis se realizará mediante técnicas
de independencia: básicamente una descripción sin
direccionalidad causal a priori, o a través de técnicas de
dependencia: donde se asume una relación explicativa de una
o más variables mediante el efecto de otras.
Tratamiento estadístico o nivel de análisis: según los
objetivos de la investigación, puede tratarse de un análisis
univariante, bivariante o multivariante. En el análisis
univariante interesa la distribución independiente de
cada variable, a través de estadísticos de tendencia central
(media, mediana, moda), dispersión interna (rango,
varianza, desviación estándar) o de distribución de
frecuencia. Ejemplo: un investigador se propone estudiar
la percepción ciudadana de la lucha contra el narcotráfico
por parte del Gobierno en una muestra de 30 personas8,
prepara un cuestionario de preguntas cerradas con una
escala del 1 al 5, donde 1 indica percepción muy positiva
y 5 muy negativa. A continuación, un ejemplo de análisis
univariante.

8
Tamaño válido sólo para el presente ejemplo.

108
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

El análisis bivariante estudia la relación entre dos variables


para establecer algún efecto explicativo-causal. Dos elementos
fundamentales es necesario resaltar en el tratamiento estadístico
bivariante: el contraste de hipótesis y el tipo de estadístico
paramétrico o no paramétrico. Para empezar, una hipótesis
estadística se basa en “una suposición sobre la distribución de
probabilidades de una variable aleatoria” (López Casuso, 2009:
298), y en palabras sencillas, un contraste de hipótesis es el proceso
de aceptar o rechazar una hipótesis estadística en condiciones
de incertidumbre. Está constituido por una hipótesis nula Ho,
hipótesis que será testeada (originalmente, la palabra “nula”

109
WILMER JOSÉ TÉLLEZ ACOSTA

refiere a “la diferencia es nula”), y la hipótesis alternativa Ha,


opción por descarte si se rechaza la hipótesis nula.
Por otro lado, está la estadística paramétrica, aquella que
trabaja bajo el supuesto de que las muestras parten de una
población con una distribución normal y varianza estable
(dos o más poblaciones tienen una dispersión uniforme en
sus distribuciones). Cuando no es posible especificar la forma
de la distribución poblacional, las conclusiones se obtienen
directamente de las observaciones muestrales, sin considerar
los supuestos matemáticos de distribución poblacional. A
este último se le conoce como estadística de distribución libre
o no paramétrica (Pérez, 2005). Lo clave de esta división es
que la estadística paramétrica trabaja con variables métricas,
mientras que la no paramétrica con variables categóricas
(incluyendo escalas de intervalo o razón segmentadas en
categorías discretas).
Entre las pruebas estadísticas paramétricas se puede
mencionar: coeficiente de correlación de Pearson, contraste de
medias (prueba t), análisis de varianza unidireccional (ANOVA),
análisis de covarianza (ANCOVA), contraste de diferencia de
proporciones. Me referiré a dos pruebas comúnmente utilizadas
en investigación social: coeficiente de correlación de Pearson y
análisis de varianza unidireccional (ANOVA).
Coeficiente de correlación de Pearson: es una prueba que
mide el grado de variación conjunta entre dos variables
métricas (X y Y). Si un sujeto obtiene puntuaciones altas tanto
en Xi como en Yi, se dice que el producto es alto y positivo,
al igual si un segundo sujeto obtiene puntuaciones bajas tanto
en Xi como en Yi. Si en general X y Y se relacionan de forma
directa, el producto general (suma de todos los sujetos) será
alto y positivo. A este comportamiento de datos se le conoce
como correlación lineal positiva. Si por el contrario, la relación

110
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

es inversa, es decir, a medida que Xi registra niveles altos, Yi


registra niveles bajos o viceversa, la correlación es inversa y
linealmente negativa. Un diagrama de dispersión permite una
idea intuitiva de correlación.
El valor del coeficiente r de Pearson varía entre -1.00
y 1.00: a medida que se acerque a 1 la correlación es alta y
positiva, a medida que se acerque a -1.00 la relación es alta y
negativa, pero a medida que se distancie de estos dos extremos
y se acerque a 0, la correlación es nula. Trabaja con un nivel
de significación menor a 0,05 (P o s), lo que se traduce en
que mínimo deseamos un 95 % de probabilidad de que la
correlación sea verdadera, con un 5 % de error. Ejemplo: se
le consultó a un grupo de 15 jóvenes su edad y el número
de multas por infracción de tránsito recibidas en el año. Los
resultados del análisis en SPSS fueron los siguientes:

111
WILMER JOSÉ TÉLLEZ ACOSTA

Análisis de varianza unidireccional (ANOVA): es una


técnica para comparar medias entre más de dos grupos.
El análisis de varianza compara las medias de una variable
poblacional como resultado de la clasificación de otra
variable denominada factor. Los valores del factor están
referidos a sus niveles. El factor define los grupos a comparar,
es de naturaleza categórica y su función es independiente.
La variable con la que deseamos comparar los grupos es de
naturaleza métrica y su función es dependiente. ANOVA de
un factor maneja tres supuestos: 1) las muestras tomadas de
las poblaciones son independientes, 2) para cada población,
la variable presenta una distribución normal, 3) la desviación
estándar de la variable son equivalentes para todas las
poblaciones (Weiss, 2002).
El contraste de hipótesis empleado para esta prueba
paramétrica estipula la hipótesis nula de que todas las
medias son iguales, frente a la hipótesis alternativa de que no
todas las medias son iguales. Considerando cuatro grupos,
el contraste se denotaría:
Ho= µ1=µ2=µ3=µ4
Ha= no todas las medias son iguales

El ANOVA trabaja con el estadístico de contraste F (por


el tipo de distribución F/curva F), que es un cociente entre
dos estimadores de varianza, específicamente de la varianza
entre las medias muestrales y la varianza entre las muestras.
Si el valor F es significativo, se rechaza la hipótesis nula de
igualdad entre las medias y se acepta la hipótesis alternativa de
diferencia de medias. Ejemplo: las autoridades de la ciudad X
desean saber si las multas por infracción de tránsito varían de
acuerdo a la zona de la ciudad. Tenemos entonces la variable
dependiente (numérica-razón) que deseamos comparar
“número de multas por infracción”, y el factor clasificación

112
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

o variable independiente (categórica-nominal) “zona de la


ciudad” con sus cuatro niveles: centro, este, oeste y sur. Se
extrajo una muestra de 10 conductores en cada zona de la
ciudad. El test de contraste se establece como:
Ho= el número de multas por infracción de tránsito no varía entre
las distintas zonas de la ciudad
Ha= el número de multas por infracción de tránsito varía en las
distintas zonas de la ciudad
ANOVA de un factor
Número de multas por infracción de tránsito
Suma de gl Media F Sig.
cuadrados cuadrática
Inter-grupos 432,487 3 144,162 126,233 ,000
Intra-grupos 41,113 36 1,142
Total 473,600 39

El programa SPSS ofrece un cuadro (ANOVA de un


factor) con la suma de los cuadrados, grados de libertad (k-1
/ n-k) y media cuadrática de los valores inter-e intra grupales,
así como el valor F y su nivel de significación. Ofrece (por
solicitud) un cuadro descriptivo donde interesa observar,
entre otras cosas, las medias de los niveles del factor.
Descriptivos
Número de multas por infracción de tránsito
N Media Desviación Error Intervalo de confianza
típica típico para la media al 95%
Mínimo Máximo
Límite Límite
inferior superior
Centro 10 10,10 ,738 ,233 9,57 10,63 9 11
Este 6 7,50 ,548 ,224 6,93 8,07 7 8
Oeste 11 5,18 1,601 ,483 4,11 6,26 3 7
Sur 13 1,62 ,870 ,241 1,09 2,14 1 3
Total 40 5,60 3,485 ,551 4,49 6,71 1 11

113
WILMER JOSÉ TÉLLEZ ACOSTA

Entre las pruebas estadísticas no paramétrica se puede


mencionar: chi cuadrado (χ²), coeficiente de correlación
Spearman y Kendall, comparación de medias (Mann-
Whitney) y análisis de la varianza (Kruskal-Wallis).
Me referiré a dos pruebas comúnmente utilizadas en
investigación social: chi cuadrado (χ²), correlación de
Spearman y Tau de Kendall.
Chi cuadrado (χ²): es un estadístico que permite
contrastar la hipótesis de que dos variables categóricas son
independientes, siendo un contraste global que evidencia
asociación, no direccionalidad. Se basa en la comparación
de frecuencias observadas y frecuencias esperadas en una
tabla de contingencia; la primera, refiere a la cuantificación
de cada combinación de niveles de las variables en una
muestra; mientras la segunda, a la frecuencia teórica que
debería registrarse si dos variables fueran independientes.
El estadístico χ² vale cero cuando las variables son
independientes (igualdad entre las frecuencias observadas
y esperadas), y aumenta a medida que las frecuencias
observadas se desvían de las esperadas.
El contraste de homogeneidad/interdependencia de χ²
trabaja con una distribución χ², y su probabilidad asociada
(de independencia) se determina por su nivel crítico (0.05).
Teóricamente, la independencia significa que las probabilidades

114
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

de los niveles de una variable categórica no se ven afectados por


los niveles de otra variable: “Dos variables son independientes
cuando la probabilidad de clasificarse en la columna j es igual
en todas las filas” (Aguilera del Pino, 2001: 43).
Ejemplo: consideremos un planteamiento anteriormente
discutido. Aunque existe presunción de una relación entre
edad y limitar el horario de compras por temor al crimen,
necesitamos tener alguna evidencia estadística que contraste
la hipótesis de independencia.
Tabla de contingencia Por temor al crimen limitó su horario de compras * Edad
Recuento
Total
hasta 29 entre mayor
años 35 y 50 de 50
años años
Por temor al crimen limitó su Si 10 19 17 46
horario de compras
No 36 19 8 63
Total 46 38 25 109

Ho= la edad y limitar el horario de compras por miedo al crimen


son independientes
Ha= la edad y limitar el horario de compras por miedo al crimen
están asociadas
Pruebas de chi-cuadrado
Valor gl Sig. asintótica
(bilateral)
Chi-cuadrado de 15,665a 2 ,000
Pearson
N de casos váli- 109
dos

115
WILMER JOSÉ TÉLLEZ ACOSTA

Correlación de Spearman y Tau de Kendall: son medidas de


correlación por rangos para variables con un nivel de medición
ordinal. El coeficiente de correlación de Spearman (rho) y tau
de Kendall varían de -1 a 1, y sus interpretaciones se realizan
exactamente igual que el coeficiente de correlación de Pearson.
Para tablas de contingencias, el coeficiente tau-b de Kendall
toma valores entre -1 y 1 sólo en tablas cuadradas y sin ninguna
frecuencia marginal igual a cero, mientras que el coeficiente
tau-c de Kendall varía entre -1 y 1 para tablas asimétricas.
Ejemplo: un investigador está interesado en conocer
si la actitud hacia el aborto implica alguna relación con
la actitud hacia la penalización del aborto. Para ambas
variables, se estableció un nivel de medición ordinal
con valores que varían entre 1 (totalmente a favor) y 5
(totalmente en contra). El tamaño de la muestra es de
210. Los resultados de la correlación se presentan, a
continuación, en la salida de SPSS.

116
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Aquí termina la referencia al nivel de análisis bivariante.


Por último, tenemos el nivel de análisis multivariante, un
conjunto de técnicas estadísticas para considerar la relación
de dos o más variables de manera simultánea. Las técnicas de
análisis multivariante son útiles para entender la interacción
contigua de un número amplio de modalidades de respuestas
correspondientes a indicativos teóricos. El análisis puede
hacerse asumiendo independencia de los datos, conducente
a hipótesis a posteriori, o se puede trabajar bajo un modelo
de dependencia donde una o varias variables son explicadas
por otras (contrastación de hipótesis).
Entre las técnicas de análisis multivariante se puede señalar:
análisis factorial (componentes principales, correspondencia binaria
y múltiple), clasificación automática a partir de ejes factoriales
(clúster), escalamiento multidimensional, análisis discriminante,
regresión lineal múltiple, regresión logística. Me referiré de manera
general al análisis de correspondencia múltiple 9.
Análisis factorial de correspondencia múltiple: la esencia
de esta técnica es reducir la información sobre un conjunto
de p variables categóricas para explicar la variabilidad en un
grupo de casos/observaciones. Para García, Gil y Rodríguez
(2000), el objetivo es “descubrir las diferentes dimensiones de
variabilidad común existente en cierto campo de fenómenos
que se hace operativo a partir de un grupo de variables” (p.11).
La interpretación del ACM se centra en la interasociación de
modalidades de respuestas que son representadas de manera
simultáneas (puntos filas/casos y columnas/variables) en los
planos formados por ejes factoriales.
Los gráficos que producen algunos paquetes estadísticos
(como SPAD o SPSS) facilitan la lectura asociativa de

9
Para una perspectiva de análisis de datos multivariante con las técnicas antes
señaladas, y a través de paquetes estadísticos como SPSS, ver Pérez (2005).

117
WILMER JOSÉ TÉLLEZ ACOSTA

modalidades (categorías de respuestas de variables). La


importancia de los factores se reconoce por la cantidad de
inercia explicada, y es tarea del investigador construir, basado
en la información suministrada, una dimensión latente
a partir de la función lineal de las variables observadas.
Grande y Abascal (1989) consideran pertinente varios
coeficientes de “ayuda a la interpretación” gráfica, referiré
dos, la contribución absoluta: participación del elemento i en
la inercia explicada por el factor x; y la contribución relativa:
participación de factor x en la explicación del elemento i
(calidad de representación de i sobre el eje x).
Ejemplo: A través de un cuestionario, se recogió
información en una muestra de 20 sujetos sobre tres
variables opináticas sobre el ejercicio de la política. Las
opciones de respuestas son: “de acuerdo” y “en desacuerdo”.
A continuación, se presenta en un cuadro las variables
y su codificación para identificarla en el gráfico de ejes
factoriales.
Variable Modalidad de respuesta codificación
En ocasiones, es nece- De acuerdo Repri Dis (DA)
sario reprimir a la disi- En desacuerdo Repri Dis (ED)
dencia política
De acuerdo Pren no crítica (DA)
La prensa no debería
En desacuerdo Pren no crítica (ED)
criticar al Gobierno

El Gobierno debería De acuerdo Gob. elecciones (DA)


decidir cuándo habrá En desacuerdo Gob. elecciones (ED)
elecciones

Las salidas del presente ejemplo son del programa SPAD


v6. Se presenta un cuadro donde se describen: coordenadas
para ubicar las modalidades (coordenada positiva o
negativa) en los ejes, contribución absoluta (peso en la
conformación del factor) y contribución relativa o coseno
cuadrado (calidad de representación en el eje).

118
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Tabla de coordenadas, contribución absoluta y relativa

Igualmente, se presenta el gráfico factorial con los ejes 1


y 2 (el factor 1 y 2 representan el 82.33 % de la inercia total).
El plano factorial permite observar simultáneamente casos
y variables para interpretar asociaciones en espacios de
representación.

119
WILMER JOSÉ TÉLLEZ ACOSTA

Con el análisis multivariante finaliza la síntesis de los tres


aspectos fundamentales que el investigador debe considerar
a la hora del análisis estadístico, recapitulando: escala(s)
de medición de la(s) variable(s) (categórica-numérica), su
relación funcional (independiente-dependiente) y tratamiento
estadístico o nivel de análisis (univariante, bivariante,
multivariante, apartado donde se presentaron algunas de las
técnicas de análisis de datos más comunes en ciencias sociales).

El cierre del trabajo: la conclusión

Los resultados obtenidos de un estudio de corte


cuantitativo deben preservar dos relaciones cardinales en la
conclusión: objetivos-hallazgos y teoría-hallazgos. La primera
dimensión contiene la esencia del trabajo particular que
hemos realizado, desde el problema y objetivo hasta una

120
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

reflexión sobre la suficiencia o adecuación del proceso


empírico para satisfacer nuestro vacío cognitivo y propósito
de investigación. Es un diálogo introspectivo del autor,
sujeto a ser comunicable de forma crítica, sobre si los
resultados obtenidos mediante su proceso práctico lograron
el objetivo trazado.
La segunda dimensión trasciende el hecho particular,
apunta a la reflexión del discurso teórico en el seno de
una comunidad científica, basado en su experiencia de
testear algún postulado. La contrastación de una hipótesis es
el mecanismo expedito para el testeo de una teoría, y los
hallazgos en este sentido deben orientarse a la construcción
común del discurso teórico como sedimento científico.
Recordemos que la ciencia no coloca puntos finales, sino
que cada contribución empírica que somete a prueba la
capacidad referencial de una teoría, es un círculo que busca
precisar progresivamente relaciones de idea-verdad.

121
WILMER JOSÉ TÉLLEZ ACOSTA

122
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

EL DUALISMO METODOLÓGICO:
LA COMPLEJIDAD DEL OBJETO SOCIAL

Estudiar estas instituciones, costumbres o códigos, o estudiar el


comportamiento y la mentalidad del hombre, sin tomar conciencia del
porqué el hombre vive y en qué reside su felicidad es, en mi opinión,
desdeñar la recompensa más grande que podemos esperar obtener del
estudio del hombre.
Bronislaw Malinowski

Si los físicos pudieran calcular la conducta humana, no tendríamos ninguna


necesidad de conceptos tales como “significado”, “creencia” y “verdad”.
Bertrand Russell

La renuncia al enfoque simplista-mecanicista de las


ciencias naturales
El lector puede notar que el título del presente
apartado refiere a “dualismo metodológico”, mientras el
subtítulo habla de “renuncia” a un enfoque. Lo que parece
antitético, en realidad es una alternativa epistemológica
que reclama autonomía científica para la naturaleza del
hombre dada su complejidad innata. Sí exige renuncia a
un paradigma que sostiene la bandera de emular al mundo
natural como si al hombre no lo mueven sus sentidos,
significados, interpretaciones en un marco espacio-
tiempo que condiciona sus acciones. Lo de “dualismo”,
entonces, refiere al sentido pluralista que invita a más
que asumir uno/descartar el otro, instrumentalizar

123
WILMER JOSÉ TÉLLEZ ACOSTA

estrategias inteligibles en la investigación científica cuyo


objeto sea el hombre en sociedad.
La visión nomotética del método fue sin duda un
esquema procedimental dominante dentro del quehacer
científico. Desde el Renacimiento hasta nuestros días
en el siglo XXI, esta perspectiva monista atrajo adeptos
por su pretensión de validez, objetividad, precisión y
universalidad. El control metodológico en este paradigma
demanda destreza instrumental matemática-estadística
para el diseño de modelos explicativos-causales (simples
o múltiples) que den cuenta del comportamiento de los
hechos. Pareciese que mientras más inmerso se está en la
complejidad del método, más profundo es el conocimiento
y en mejores científicos nos convertimos.
Recordemos, además, que el contexto, cuando se asume
el método natural-experimental para las ciencias de la
sociedad, englobaba la máxima del desorden social como
consecuencia de la especulación y desarticulación de ideas.
La física social, alusión a la naciente sociología asentada bajo
el método nomotético de la física galileana, fue asumida
como una propuesta de orden y progreso al mantener a
raya el discurso metafísico, considerado entonces como una
manera especulativa de entender al hombre y su destino
colectivo. Pero todo este discurso positivista, desde diversas
posturas de pensamiento, no sólo es simplista, sino además
dogmático e ideológico.
Sobre la pluralidad metodológica, puedo comenzar
señalando que la sustancia dualista no es el rechazo de
la propuesta nomotética como proceso cognitivo, sino
del carácter ontológico de los hechos donde se aplica.
Desde Hume se ha advertido con pertinencia que una
disciplina, al tener como objeto de estudio al hombre, debe

124
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

considerar aquellos aspectos los cuales este difiere con la


naturaleza, por lo tanto, es menester distinguir objetos
sociales de objetos naturales; aquellos hechos que dependen
de acuerdos humanos, de aquellos hechos que seguirían
siendo y existiendo independientemente de realidades
socialmente construidas, es decir, diferenciar rasgos
ontológicos independientes del investigador (objetivos)
y rasgos ontológicos que dependen del investigador
(subjetivos) (Posada, 2006).
Analicemos el siguiente caso. Una persona planea
suicidarse desde el piso 11 de un edificio; nuestro interés
radica en clasificar el ente ontológicamente objetivo
(independiente del hecho social) y ontológicamente
subjetivo (dependiente del hecho social). En el primer caso,
podemos considerar por la física que todo cuerpo en el
vacío caerá al suelo por gravedad, la aceleración del cuerpo
respecto a la distancia ocasionará que el impacto con el
pavimento determine su destrucción. Esto es un rasgo
intrínseco a la naturaleza, no depende de algún acuerdo,
de si la persona es “mala” o “buena”, las leyes de la física
actuarán y podremos explicar la situación objetivamente.
Imaginemos ahora que la persona objeto a suicidarse se
encuentra en la orilla del piso 11 dispuesta a arrojarse al vacío.
Desde la calle, un grupo de testigos observa el episodio y se
escuchan gritos que encierran dos tipos de mensajes: 1) ¡No lo
hagas, todo tiene remedio en la vida! ¡Lo que hiciste no estuvo
mal!; 2) ¡Lo que hiciste no tiene perdón! ¡Si te arrojas, un favor
le haces al mundo! Note que son juicios sobre un mismo objeto,
el hombre a suicidarse no es tan malo, y su acto no debería ser,
pero al mismo tiempo es malo y su decisión se tilda de justa. En
todo caso, estamos ante un hecho ontológicamente subjetivo,
todo es extrínseco a la naturaleza y depende de la construcción
social: juicios, valores, creencias.

125
WILMER JOSÉ TÉLLEZ ACOSTA

¿Este supuesto ontológico condenaría a las ciencias


sociales a la subjetividad? ¿Todo conocimiento de lo social
está plegado al relativismo de quien observa? Pareciese que
las cosas son y no son al mismo tiempo: la persona que
se intenta suicidar no es tan mala, pero es mala al mismo
tiempo; su acto no tiene perdón, pero tiene perdón al mismo
tiempo. Al respecto, Posada (2006) establece que el problema
de la subjetividad y/o relativismo en ciencias sociales puede
estar en el uso del discurso, bajo la perspectiva filosófica de
error categorial, y defiende que lo subjetivo-objetivo depende
de la distinción entre ontológico y epistemológico. El autor
distingue entre juicios epistémicamente objetivos (verdad o
falsedad independientes al juicio) y juicios epistémicamente
subjetivos (verdad o falsedad dependientes al juicio).
De vuelta al ejemplo sobre la persona con intención de
suicidarse. Si atendemos a los enunciados: “La persona x
tiene un expediente abierto como delincuente en menor
grado por alentar protestas”, y “La persona x desea suicidarse
porque concibe que su lucha de protestas no dio frutos”,
estamos ante la presencia de juicios epistémicamente
objetivos, pues la veracidad o falsedad del enunciado no
depende de si se está de acuerdo o no con su tipificación
como delincuente, o de si la lucha de protestas dio frutos o
no, la representación discursiva encierra elementos ajenos
a deseos y opiniones. En cambio, ante los enunciados: “La
persona x es muy dura consigo misma”, y “La persona x
ignora los buenos resultados de su lucha”, la implicación
de valoraciones y juicios relativos demarcan un discurso
epistémicamente subjetivo.
A través de las distinciones entre ontológico-
epistemológico/objetivo-subjetivo, se quiere llamar la
atención sobre el epíteto de “no cientificidad” o “blandeza”
de las ciencias sociales desde su perspectiva cualitativa/no

126
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

física, precisamente por el poco control de las subjetividades


inherentes a su objeto. Las ciencias del hombre, de su cultura
e historia son ontológicamente subjetivas porque depende
del acuerdo social; si no hay hombres, no hay cultura,
no hay historia, ni hechos sociales. Pero este rasgo no lo
sentencia a la subjetividad/relativismo, ni mucho menos
a lo no científico, porque la ciencia es discurso que refiere
a la verdad, y este carácter se ve reflejado en la propuesta
dualista del método, mediante el manejo de expresiones
enunciativas que pretendemos conectar con los hechos a
partir de sus evidencias empíricas.
Esta máxima de poder ser epistémicamente objetivos
sobre entes ontológicamente subjetivos, es cónsona, por
ejemplo, con el llamado de Weber a los científicos para que
diferencien entre juzgar y conocer en el marco de las ciencias
de la cultura. En su ensayo “La objetividad cognoscitiva
de la ciencia social y de la política social” (1904), Weber
(1973) refería la lucha contra la fe ingenua de opiniones
partidistas y la “desmostrablidad” científica de sus dogmas.
La obtención de normas prácticas de validez científica se
debe centrar en la capacidad de “diferenciar entre conocer
y juzgar, y el cumplimiento, tanto del deber científico de
ver la verdad de los hechos, como del práctico de adherir
a los propios ideales…” (p. 47). Weber abraza la función de
la ciencia —y del científico— con los juicios de experiencia
o de hechos (la persona x tiene un expediente abierto como
delincuente…), mientras que a la política le corresponde el
interés práctico de enunciar juicios de valor (la persona x es
muy dura consigo misma).
Ahora bien, señalaré algunos aspectos históricos
referentes a esta alternativa epistemológica (o ruptura
epistemológica). Un buen punto de partida es la distinción
de la vida económica entre científicos alemanes e ingleses

127
WILMER JOSÉ TÉLLEZ ACOSTA

del siglo XIX, los primeros (referida en ocasiones como


escuela histórica de la economía) se inclinaban por entender
la economía de una manera integrada a la cultura: normas,
costumbres, valores sociales locales, mientras que los ingleses
se inclinaban más por el sentido legal (de leyes científicas)
que explicaba universalmente la dinámica económica.
Lo antes expuesto es sólo una arista de la intensa disputa
metodológica (methodenstreit) que reclamaba el idealismo
historicista para las ciencias de la cultura.
El debate se centraba entre la corriente positivista,
heredera del monismo metodológico, y su tesis de que la
historia del hombre se rige por leyes (como la ley de los
estadios de Comte), y otra corriente subjetivista que reducía
la historia a acontecimientos idiosincráticos (Ritzer, 2001).
Se trataba de dos polos opuestos; mientras los positivistas
dominaban los estudios sociales con su corriente física-
social, la autonomía que reclamaban las ciencias de la
cultura empezaba por el rechazo de la instrumentalidad
metódica nomotética para el estudio del hombre. Su
propuesta de una sociología comprensiva se fundamentaba
en la interpretación de la historia. A modo comparativo
del camino recorrido por el positivismo francés e inglés,
comenta Rossi (1973: 11) refiriéndose a la sociología dentro
de la cultura alemana:
La escuela histórica, mientras construía un edificio
científico con fundamento histórico, no había abierto la
posibilidad de una investigación sociológica autónoma; antes
bien, había procurado resolver toda ciencia social en la
obra de sistematización de un material históricamente
individualizado, obra subordinada al fin de la comprensión
histórica (resaltado propio).
El romanticismo alemán postkantiano estuvo impregnado
de estas discusiones filosóficas en torno al conocimiento de

128
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

la cultura humana. Wilhelm Dilthey (1833-1911) centró su


postura epistemológica en cómo conocer científicamente
la historia, cómo hacer ciencia subjetiva de la humanidad
(Geisteswissenschaften) en resistencia a la objetividad
de las ciencias naturales. Para Dilthey, el abordaje
subjetivo-idiosincrático debía centrarse en la realidad
histórico-social, con la peculiaridad de que sujetos-
objeto (investigador/hecho social) están anclados a un
mismo sentido cultural, integrados por hilos históricos,
legales, sociales, geográficos, genealógicos, religiosos.
Su método es la hermenéutica, pues la realidad cultural
está demarcada por significados y contextos, al igual que
las pinturas o textos literarios, por lo tanto, el científico
histórico-social es un intérprete capacitado para describir
el sentido de los fenómenos culturales.

Sobre la interpretación histórico-social, Gadamer


(2011) define el sentido histórico como “la disponibilidad y
el talento del historiador para comprender el pasado, quizá
algo exótico, a partir del contexto propio desde donde él se
encuentra” (p. 42). Para este autor, la conciencia histórica
es la revolución más importante del hombre moderno, un
privilegio, llamada a comprender multiplicidad de puntos
de vista relativos. Destaca el papel de la interpretación en las
modernas ciencias humanas sobre lo que no se comprende
en un primer momento, es un presupuesto del método,
el carácter de “extraño” de lo que debe ser comprendido,
pues lo que convence con simpleza no reclama ninguna
interpretación. Particularmente, las expresiones históricas
y culturales del hombre sobrepasan cualquier evidencia
inmediata de comprensión, y este es el aspecto crucial en
el debate nomotético-dualista: la definición del método
según el objeto, y no “el método” para todo objeto.

129
WILMER JOSÉ TÉLLEZ ACOSTA

Marcos de referencia para el estudio de la realidad social


El esfuerzo por conocer la realidad del hombre reposa
en la descripción y comprensión de dinámicas particulares
cargadas de significaciones y acciones, pertenecientes a
sujetos que interpretan el mundo según el residuo cultural de
sus experiencias compartidas socialmente. El investigador
cuyo objeto es la realidad social del hombre, se convierte
en un interpretador de interpretaciones (interpretador
en segundo grado). Pero pensar en la edificación de “un
método” para este cometido es caer en el vicio monista
en su versión no-física; es volver a pensar con simpleza la
aproximación comprensiva-científica del hombre.
Había precisado en el primer apartado que el método
es la teoría primaria que se proyecta sobre la práctica,
y el dualismo metodológico trabaja sobre un cuerpo de
referencias teóricas para comprender la complejidad de las
relaciones sociales. Los que he llamado marcos de referencia no
debe confundirse con técnicas de recolección de información
(de las cuales hablaré más adelante); las primeras, apuntan
a una diversidad de enfoques (teóricos-referenciales) sobre
la realidad subjetiva-social que determina las acciones
humanas, y que permite una aproximación práctica al objeto
de estudio; las segundas, tratan del proceso aprehensivo de
información que necesitamos para interpretar el sentido
de esa realidad. Referiré, a continuación algunos de estos
marcos de referencia desde la perspectiva de algunos de sus
principales exponentes.

La hermenéutica social (Max Weber)

Del griego ἑρμηνευτικὴ, hermenéutica refiere a la


acción de traducir o interpretar. Una referencia histórica
importante remonta a la exégesis de Escrituras Santas como

130
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

mecanismo comprensivo del mensaje de Dios al hombre


terrenal. El derecho romano concibe igualmente el método
hermenéutico como eje comprensivo de las leyes y, al igual
que los cristianos, su sentido estricto es la interpretación
de textos. Las expresiones artísticas (pinturas, esculturas,
obras literarias) ocultan en lo abstracto un mensaje
objeto a interpretar de acuerdo al contexto histórico y
particularidades (emocionales, circunstanciales) del sujeto-
creador-emisor. En el marco del dualismo metodológico
científico, la hermenéutica pasa a constituir una propuesta
interpretativa no sólo de textos históricos, sino también de
la conducta humana.
A pesar de la extensión histórico-filosófica de la propuesta
hermenéutica, mi interés es tratar su aplicación al estudio
científico del hombre, y elegí a Max Weber por la influencia
de su sociología comprensiva en el desarrollo de escuelas
de pensamiento y corrientes teóricas contemporáneas.
En Weber, encontramos un rechazo a reducir la realidad
empírica en leyes carentes de significados, aunque se interesa
tanto por la individualización como por la generalización,
pero no desde la perspectiva nomotética-legal. En su
concepción de causalidad, podemos ver un distintivo
ejemplo. Weber no se interesa por las causas sumidas a leyes
generales, sino en la individualización que establece una
conexión causal concreta (Márquez, 1988). La comprensión
(verstehen) no soslaya la labor científica de explicar.
La comprensión en Weber se fundamenta en acción
y significado. La interpretación de la acción se fija en la
determinación causal que asocie el agente o agentes del
comportamiento a significados subjetivos, mientras
que la acción social es el “comportamiento en el que
el significado que el agente o los agentes le asocian está
referido al comportamiento de otros, siendo este último

131
WILMER JOSÉ TÉLLEZ ACOSTA

por el que se guía el comportamiento de aquellos” (Weber,


2006: 69). Esta concepción de acción humana no genera un
significado correcto o verdadero en términos metafísico,
como en las ciencias dogmáticas: derecho, lógica,
ética, donde el significado alude a lo correcto-válido, ni
acompaña la concepción positivista del conocimiento
objetivo como lo verdadero.
Significado, por lo tanto, es una construcción sensitiva-
perceptiva que le da sentido a una expresión lingüística
(palabras, expresiones, signos), adquirida en un proceso
de interacción social y que conforma una virtud subjetiva-
interpretativa del hombre en su accionar. Weber agrega que
la interpretación del significado aspira alcanzar evidencia,
y esta se adentra en la comprensión de la acción racional
o en la de una recreación empática/emocional —advierte
que comprender una acción no requiere capacidad para
reproducirla: no se necesita ser César para comprender a
César—. Janoska-Bendl (1972) resalta que es la lucha contra
la irracionalidad de la realidad la que penetra en la doctrina
metodológica de nuestro autor: “la sociología comprensiva
se sirve de la racionalidad del fin como tipo ideal, justamente
para poder valorar el alcance de la finalidad irracional”
(p. 12). Weber tipifica acciones sociales a partir de criterios
progresivos de racionalidad: instrumental, racional-valor,
emotivo y tradicional, pero este rango de racionalidad-
irracionalidad de la acción son construcciones racionales-
puras (tipos ideales), y es la esencia metodológica que agrupa
las eventualidades sociales.
Pensar la sociedad en términos de tipos de ideales es
el interés y preocupación general de Weber. Su objetivo,
comenta Campbell (1999), es crear un conjunto de
conceptos formales para organizar la investigación empírica
y alcanzar así una comprensión de características distintivas

132
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

de la sociedad. Weber señala que la tarea del sociólogo es


descubrir patrones recurrentes o uniformes donde domina
una u otra forma de relación social, y define tipo ideal como:
Construcción mental para analizar un fenómeno histórico
o social en la que se eligen y acentúan determinados aspectos
del fenómeno. La finalidad de la construcción de los tipos
ideales es la de servir como comparación en el análisis de
fenómenos históricos y sociales concretos, en cuanto que se
pueda mostrar la proximidad o lejanía de éstos respectos al
tipo ideal (puro). La “ética calvinista”, el “espíritu capitalista”
y el “Estado moderno” son tipos ideales (Weber, 2006: 180).
En su sociología el poder, Weber (2007) presenta tres tipos
puros de dominación: 1) racional, se basa en la legalidad
del ordenamiento establecido de manera impersonal y
objetiva (dominación legal); 2) tradicional, creencia en el
carácter sagrado de tradiciones existentes y la legitimidad
para ejercer la autoridad (dominación tradicional), y 3)
carismática, basada en la cualidad extraordinaria de una
persona; actúa efectivamente por el reconocimiento de
sus sometidos —entrega de una revelación, culto al héroe,
confianza en el líder, un milagro— y ejerce el ordenamiento
creado por él (dominación carismática). Pero los tipos
ideales que construye un científico no se dan puramente
en la realidad, y no por ello debe inhibirse de formular
conceptos de la manera más pura. “Nosotros estamos lo
más alejados posible de creer que la realidad histórica en
su conjunto pueda ‘apresarse’ en el esquema conceptual…”
(p. 66). Un tipo ideal se trata de criterios lógico-racionales,
construcciones mentales para compararlos con una
determinada realidad empírica, permitiendo establecer
divergencias y similitudes.
Pero retomemos el asunto de causalidad para integrarlo
a la comprensión (verstehen) y a la interpretación. Para Aron

133
WILMER JOSÉ TÉLLEZ ACOSTA

(2004), el científico no sólo interpreta comprensivamente


los significados sociales-subjetivos que determinan la
conducta del hombre, busca también el hilo conector de
cómo ocurrieron las cosas, “dicho en otras palabras, las ciencias
históricas y sociológicas pretenden explicar causalmente al
mismo tiempo que interpretar de manera comprensiva” (p.
419). Resalta el autor que la determinación causal es uno de
los procedimientos que valida la universalidad científica de
los resultados.
La propuesta de Weber persigue en un primer momento
la comprensión (verstehen) de las acciones sociales mediante
la aprehensión del significado que los actores encuentran
en dichas decisiones. El segundo momento es interpretar
(deuten) objetivamente los hechos a través de la elaboración y
organización conceptual (lógica-racional) pura-ideal, mediante
una relación del investigador con los valores/subjetivos (y no
con sus juicios de valor), para finalmente explicar (Erklären)
las regularidades de la conducta, ateniéndose a la probabilidad
de que un hecho sea seguido por otro.

La fenomenología (Edmund Husserl y Alfred Schütz)

La amplitud y complejidad de este enfoque filosófico-


científico hace difícil una definición llana de fenomenología.
En Hegel encontramos un valioso antecedente en su
Fenomenología del espíritu (Phänomenologie des Geistes)
publicada en 1807. Su apartado sobre conciencia muestra que
la certeza sensible no logra lo verdadero, sustituye las cosas
por lo universal; se refleja dentro de sí en su aprehensión,
donde se mezcla de modo inmediato. Para Hegel, de la
autoconciencia resulta la verdadera realidad (el comienzo
de su filosofía es el ser, antes de llegar al conocimiento
absoluto), es en sí y para sí sólo en cuanto es para otra
autoconciencia; un principio de percepción donde no hay

134
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

cosa en sí misma, sino sólo sujeto que conoce (Vanasco,


1973). El desarrollo de la conciencia en Hegel aborda el
sentido con que quiero introducir la fenomenología, pero
no es mi interés hacerlo desde el pensamiento hegeliano,
sino mediante la perspectiva de Edmund Husserl y su
intento filosófico de ciencia estricta.
La esencia de la fenomenología a inicio del siglo XX es el
estudio de los objetos (fenómenos) tal como se presentan, de
forma pura, avalorista, una manera radical de hacer filosofía.
Moran (2000) lo define como antitradicional, que enfatiza el
intento de llegar a la verdad de las cosas a través del sentido
más amplio de lo que aparece y se manifiesta en la conciencia.
Sobre el sentido avalorista, agrega Moran que librarse de los
prejuicios significa superar la camisa de fuerza de estructuras
impuestas: la discutida dominación metódica. Los problemas
fenomenológicos deben abordarse considerando su forma
de apariencia en la conciencia, trascendiendo la aprehensión
de la postura apriorística natural.
En este mismo período, Alemania es epicentro del
movimiento fenomenológico, corriente más amplia que
fusiona el Grupo de Munich (jóvenes discípulos de Theodor
Lipps) con Edmund Husserl (discípulo de Franz Brentano).
Aunque Alemania pierde años más tarde su hegemonía
ante el auge del existencialismo-fenomenológico francés
(con destacadas figuras como Jean-Paul Sartre, Maurice
Merleau-Ponty, Paul Ricoeur), el trascendentalismo de
Husserl, una propuesta de filosofía de esencia científica,
estricta y rigurosa, es una de las propuestas más importantes
de la fenomenología contemporánea, e inspiración de la
fenomenología social.
La propuesta de Husserl parte del análisis de evidencia
como garantía de lo cierto/seguro, comparte la raíz cartesiana

135
WILMER JOSÉ TÉLLEZ ACOSTA

de conocimiento indubitable, de lo claro y evidente,


producto de la relación con lo que se conoce directamente.
Pero el problema para la fenomenología de Husserl es que
no se puede dudar sobre algo que se nos presenta de manera
inmediata, es lo que nuestro autor llamará “intuición”:
presencia inmediata de algo, conocimiento no racional,
alegórico al dato (Botero, 2003). Por lo tanto, si el propósito es
ir a la cosa misma, lo evidente es el modo como se representa
en la conciencia, y ese es el objeto de la fenomenología, no
la negación del mundo exterior a la conciencia, sino lo que
se encuentra confinado en el conocimiento, porque a fin de
cuenta esa es “la cosa misma”.
Pero hay otros conceptos de la fenomenología de
Husserl que interesa precisar. Como vimos, existe un
mundo objetivo de cosas y una conciencia facultada para
conocerlas tal como son. A esa dualidad, nuestro autor la
denomina “actitud natural”; pero ¿cómo sabemos si lo que
la conciencia describe es el objeto mismo? A través del
método de la reducción: el proceso de ir al verdadero hecho,
colocando “entre paréntesis” (bracketed) la actitud natural:
el mundo objetivo está allí, y la conciencia lo aprehende
tal cual. “Poner entre paréntesis” es para Husserl, lo que
“poner en duda” es para Descartes. Al epojé, o poner “entre
paréntesis” las cosas, le sigue una reducción eidética: reducir
los fenómenos particulares a sus esencias generales (Botero,
2003). He aquí la médula de la fenomenología trascendental
de Husserl: la ciencia eidética; ciencia de la esencia general
de los fenómenos que trasciende a los hechos como tales,
pero que en sí, son los hechos mismos invariantes en la
conciencia humana.
La propuesta de Husserl es referencia sustancial en quienes
heredan la fenomenología años más tarde, entre ellos Alfred
Schütz, orientados por dos aspectos bases: 1) el rechazo de la

136
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

fenomenología a trabajar con herramientas modernas vigentes


para las ciencias sociales: estadística y métodos estandarizados;
2) oponiéndose al intuicionismo “suave”, subjetivista, que no se
preocupa por la esencia general de los fenómenos tal como son
experimentados por las personas (Ritzer, 2001). Es aquí donde
Schütz empieza su fenomenología, entre las ideas de Edmund
Husserl y la propuesta comprensiva de Max Weber.
Para el vienes Alfred Schütz, la fenomenología
trascendental de Husserl no estaba a la par de los problemas
intersubjetivos de las ciencias sociales, y como sociólogo,
trabajó sobre algunos de sus conceptos e ideas que
podían adecuarse al estudio del mundo social (Wagner,
1970). La fenomenología de Schütz se constituye en la
intersubjetividad de las relaciones sociales, en la interacción
comunicativa que expresa símbolos y significados para
“leer” racionalmente el mundo. Las acciones individuales
son producto de interpretaciones de la vida cotidiana,
enmarcadas en un sistema (instituciones, leyes, economía)
que delimita en cuanto a tiempo y espacio el sentido de la
vida común (Schütz, 1975). Aunque tanto Husserl como
Schütz trabajaron la intersubjetividad, el primero lo hizo
dentro del reino de la conciencia, mientras Schütz en el
plano social (Ritzer, 2001).
Entiendo por intersubjetividad el proceso de construcción
simbólico común, de carácter biunívoco, donde los
individuos —en menor o mayor grado— son receptores
y emisores de subjetividades, lo que permite la definición
recíproca del mundo (sociedad lingüística; significados
compartidos). La fenomenología social se interesa en estas
definiciones intersubjetivas del mundo, por el proceso de
interacción social en la vida “mundana” o cotidiana. El
científico social interpreta el sentido intersubjetivo que define
el mundo colectivo, propone modelos teóricos totalmente

137
WILMER JOSÉ TÉLLEZ ACOSTA

racionales (tipos ideales o constructos teóricos) que


sintetizan objetivamente la cotidianidad subjetiva10. Se trata
de construcciones de segundo orden, pero no biográficas (el
investigador permanece al margen del hecho), sino científicas.

El interaccionismo simbólico (George Herbert Mead y


Herbert Blummer)

Resulta inevitable hablar de interaccionismo simbólico sin


referir al pragmatismo y conductismo psicológico de Georg
Herbert Mead. Afín a la Escuela de Chicago, Mead se le
reconoce como uno de los padres de la psicología social, y un
crítico a la práctica del conductismo de su época representado
por el destacado psicólogo John Broadus Watson (1878-
1958). La esencia del conductismo en Mead (1964) era el
estudio de la experiencia del individuo desde el punto de
vista de su conducta. Pero, históricamente, el conductismo
entra en el campo de la psicología bajo la premisa de que era
imposible comprender a los animales “inferiores” mediante
técnicas introspectivas, lo asertivo era hacerlo mediante el
análisis de su conducta. Mead (1964) desdeña este enfoque
de observación conductual para explicar la experiencia del
individuo desde la conciencia como tal.
La principal preocupación de Mead hacia la práctica del
conductismo (centrada en el trabajo de Watson) era que la
explicación conductual del individuo a partir de la experiencia
ignoraba el estudio de la mente, la experiencia interior, la
conciencia individual. Mead resalta su conductismo social
al introducir que el comportamiento individual corresponde
a un proceso social; no puede existir la construcción de un
comportamiento grupal en términos de un comportamiento
10
No se debe olvidar el carácter de ciencia rigurosa de la fenomenología en
Husserl, aspecto que Schütz sigue fielmente.

138
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

individual aislado. Destaca que para la psicología social,


el todo (la sociedad) es anterior a la parte (el individuo),
y la parte es explicada en términos del todo, no el todo en
términos de la parte o partes (Mead, 1964). Se evidencia aquí
el interés de explicar la conducta individual como un residuo
de la organización conductual del grupo, y este punto es
crucial para el interaccionismo simbólico.
Mead introduce el concepto de acto para referir un
impulso que mantiene el proceso vital del individuo
mediante la selección de ciertos tipos de estímulos.
Como acto social refiere a aquel en el cual el estímulo está
fundamentado en la conducta o forma de vida propia
del entorno; envuelve una cooperación de más de un
individuo. Todo acto puede comprenderse bajo el lente
estímulo-respuesta: un estímulo causa un acto; pero un
gesto es el movimiento del primer organismo que actúa
como una respuesta pertinente al estímulo presentado por
un segundo organismo (Mead, 1964). Una interacción de
gestos es un rasgo distintivo de los procesos psicológicos
conductistas en la arena social, cuando estos diálogos o
interacciones son inconscientes, es decir, son instintivos,
Mead los denomina gestos no significativos, mientras
aquellos que implican alguna reflexión: gestos significativos.
Los humanos nos distinguimos por este último.
A partir de esta idea, entrelazaré la perspectiva de
George Herbert Blummer, quien, basado en los aportes
de Mead, distingue entre las interacciones no simbólicas
(gestos no significativos en Mead) e interacciones
simbólicas (gestos significativos). Blummer (1969) resalta
para el primer caso, interacción no simbólico, cuando
en la respuesta relacionada con una acción-estímulo no
media proceso interpretativo alguno de dicha acción,
como el reflejo automático del boxeador cuando levanta

139
WILMER JOSÉ TÉLLEZ ACOSTA

su brazo para bloquear el golpe de su oponente. Sin


embargo, si el boxeador identifica reflexivamente una
estrategia de su oponente para arrinconarlo en la esquina
del cuadrilátero, él estaría anclado en un proceso de
interacción simbólico.
La naturaleza del interaccionismo simbólico descansa
en tres premisas bases según Blummer: 1) los actos del ser
humano hacia las cosas se fundamentan en el significado
que tenga para ellas. Las cosas refieren a algo y tienen un
significado para cada individuo; un arma de fuego es un
objeto que para muchos significa violencia, muerte, pero
para otros significa protección, seguridad, vida. El arma
puede ser un mismo objeto físico, pero el significado que
tiene para cada individuo varía. Las cosas también refieren
a instituciones, actividades de otros o situaciones de la
vida diaria. 2) Los significados de las cosas surgen de la
interacción que se tiene con el entorno. El ser humano no
nace equipado de significados, los adquiere en un proceso
de interacción social, donde el grupo de pertenencia juega
un papel importante. 3) Estos significados son manejados y
modificados mediante un proceso interpretativo usado por
las personas en su trato con las cosas.
Para el interaccionismo simbólico, el sentido de las cosas
es un producto social, una creación formada a través de
actividades definitorias de personas mientras interactúan.
Para disgregar esto, Blummer (1969) identifica seis ideas a
las que llama imágenes de raíz:
1) Naturaleza de la sociedad humana o grupo de vida
humano: prevalece una constante acción consistente en
diversas actividades que el individuo asume a diario,
separado o colectivamente, actuando en nombre o
como representante de alguna organización o grupo. La

140
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

vida de cualquier humano en sociedad consiste en un


proceso de continua adecuación de actividades junto a
sus otros miembros.
2) Naturaleza de la interacción social: la vida en grupo
presupone necesariamente interacción entre sus
miembros, sus actividades ocurren en respuesta de las
relaciones con los demás. La interacción social es un
proceso que forma conductas humanas, en lugar de ser
simplemente un medio o un marco para la expresión o
liberación de conductas.
3) Naturaleza de los objetos: El mundo de las personas está
compuesto por objetos, que a su vez son producto de la
interacción simbólica. Los objetos puedes clasificarse
en físicos (silla, árbol), sociales (amigos, estudiantes) y
abstractos (principios morales, doctrinas filosóficas,
ideas sobre justicia). Los objetos son creaciones sociales
(en términos de sus significados), pues se trasmiten, se
forman, se aprenden a través de un proceso de indicación.
Blummer prefiere el término “mundo” que “entorno”,
pues muchas personas viven lado a lado pero en mundos
distintos, lo cual hace necesario que para comprender la
acción humana se identifique el mundo de los objetos.
4) El ser humano como un organismo activo: el ser
humano es visto como un individuo que no sólo
responde a las indicaciones de otro, sino que también
indica a los demás. Aquí yace la idea de Mead del self
(el yo), donde el individuo se reconoce como objeto
viéndose a sí mismo desde afuera, se define en el
proceso de interacción, en un juego de roles.
5) Naturaleza de la acción humana: el individuo se
enfrenta a un mundo que debe interpretar para actuar,
en lugar de reaccionar dada la organización del entorno.

141
WILMER JOSÉ TÉLLEZ ACOSTA

El interaccionismo simbólico reconoce que la actividad


del individuo consiste en hacerle frente a una serie de
situaciones que percibe en el flujo de la cotidianidad, de
manera que su acción se construye sobre lo que observa,
percibe y siente. Interpreta y proyecta líneas de acción
en el marco colectivo. Los casos de comportamiento
social, cualesquiera que sean, consisten en individuos
que encajan sus líneas de acción con las de otros.
6) Interconexión de la acción: entendiendo que la acción
colectiva es el resultado de un proceso de interacción
interpretativo, se comprende igualmente por patrones
recurrentes de acción conjunta. En la mayoría de las
situaciones las personas actúan unas con otras, tienen
por delante una firme comprensión de cómo actuar
y de cómo otras personas actuarán. Ellos comparten
un significado común y preestablecido de lo que
se espera en las acciones de los participantes y, en
consecuencia, cada participante es capaz de guiar su
propio comportamiento con ese significado (como, por
ejemplo, las normas sociales). Una red o institución no
funciona automáticamente debido a alguna dinámica
interna de los requisitos del sistema, sino porque las
personas en diferentes puntos hacen algo, y lo que hacen
es el resultado de cómo definen la situación.
Mead (1964) destacaba el papel del lenguaje en el
comportamiento social. Los símbolos significantes permiten
la construcción del pensamiento a partir de la interacción
simbólica. Los significados que definen nuestras acciones
no tienen su origen innato en la mente, sino en el proceso
de socialización. El interaccionismo simbólico centra su
atención en las relaciones intersubjetivas, donde hay plena
conciencia de la existencia propia y conciencia sobre los
demás, productos del intercambio permanente de símbolos

142
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

en la esfera social. No en vano, el interaccionismo simbólico


fue desarrollado por una generación interesada en la opinión
pública e interpretaciones conductistas dentro de una compleja
dinámica comunicacional durante los primeros años del siglo
XX. La Escuela de Chicago (Escuela Sociológica de Chicago)
destaca por sus prácticas en campo orientadas a interpretar el
entorno urbano, y por un pragmatismo que aspira incidir en
la toma de decisiones para solucionar problemas concretos a
partir de un conocimiento de alto valor científico.

La etnometodología (Harold Garfinkel)

Parto del siguiente cuestionamiento: ¿cómo el hombre


construye, mantiene, altera, cuestiona o define un orden
social? Una respuesta ortodoxa en plena mitad del siglo
XX endosaría las acciones individuales al sistema de
socialización que estructura una función normativo-
regulatoria. La teoría clásica de la acción definía que la
actuación del hombre se direccionaba a sus propósitos,
fines, metas; se valía de medios para lograr sus objetivos, a
su vez limitados por circunstancias normativas o morales.
En su teoría de acción, Talcott Parsons (1937) se centró en
el acto unidad (existencia de un actor, un fin que orienta la
acción, una situación y un sistema normativo que condiciona
la elección del actor). La acción es un esfuerzo por acatar
las normas (Parsons, 1937); además, una sociedad está
integrada cuando sus instituciones poseen un sistema
normativo, y cuando esas normas se hacen cumplir por la
intervención de la autoridad (Parsons, 1990). La génesis del
estructuralismo-funcionalista parsoniano concebía que las
estructuras sociales constriñen las elecciones individuales.
Harold Garfinkel fue discípulo de Alfred Schütz y
alumno de Talcott Parsons, su propuesta etnometodológica

143
WILMER JOSÉ TÉLLEZ ACOSTA

es precisamente en oposición (parcial) a la propuesta


estructura-funcional de Parsons. Para Garfinkel (1967), el
ser humano no es un inepto culturizado, sino un agente
activo con capacidad para articular procedimientos propios
y definir circunstancias sociales en las cuales está implicado.
Tiene agencia personal. Garfinkel rechaza la consideración de
individuos tontos o títeres manipulados por la normatividad
social. Su propuesta consta de un empirismo radical en la
esfera de las actividades sociales cotidianas.
Por etnometodología, Garfinkel (1967) refiere a la
investigación de propiedades racionales de expresiones
indexicables (contextualizadas), así como otras acciones
prácticas orientadas a logros dentro de la interacción de
la vida cotidiana. En su análisis sobre la etnometodología,
Heritage (1984) refiere al cuerpo de conocimientos del
sentido común, y la gama de procedimientos por medio de
la cual los miembros de la sociedad encuentran sentido a
determinadas situaciones y actúan en consonancia con ellas.
Se trata de la racionalidad del sentido común y el despliegue
de métodos grupales para entenderse, orientarse y actuar
cotidianamente. La etnometodología se centra en el estudio
de los métodos o estrategias empleadas por miembros
ordinarios de una sociedad para construir, dar sentido y
significado a sus prácticas cotidianas.
El grupo vive un universo normal, un ambiente
en el que se desenvuelve, interactúa, actúa y aplica
conocimientos comunes; pero es la práctica con que trabaja
la normalidad de la realidad social donde reside el objeto
de la etnometodología. No se trata de métodos basados
en especialidad tipo-particular del pensamiento lógico,
identificación de estructuras, explicaciones de reglas o
regularidades sociales, las actividades diarias utilizan
métodos para construir la estabilidad del mundo social,

144
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

haciéndolo descriptible y observable al ojo del investigador.


Se entenderá, en consecuencia, que los hechos sociales no
determinan de manera externa la conducta humana, sino
que más bien son el resultado de la interacción social que
se produce (y reproduce) continuamente en la vida diaria.
Deja a un lado las ideas coercitivas de la estructura social
para enfocarse en las formas grupales de manejar el sentido
de estas estructuras.
Mauro Wolf (1979) expone cinco puntos que
caracterizan los estudios etnometodológicos: 1) La
etnometodología propone analizar cualquier coyuntura
social. 2) Los sujetos de una ordenación social
organizada están continuamente comprometidos en el
decidir, reconocer, evidenciar el carácter racional de su
forma de actuar. 3) Toda propiedad racional de la acción
es considerada como una realización contingente de
prácticas comunes organizadas socialmente. Se rechaza la
reproducibilidad de acciones como fijadas, reconocidas,
descritas, sirviéndose de una regla. 4) La etnometodología
propone la hipótesis de que cada situación social ha
de ser considerada como autoorganizada en cuanto al
carácter inteligible de sus propias apariencias. Toda
situación organiza las actividades que la componen de
modo que forme un contexto coherente de actividades
prácticas describibles. 5) Una constante realización
de actividades organizadas de la vida cotidiana es la
de demostrar la racionalidad y comprensibilidad de
expresiones y de acciones indexicables (específicas en
un contexto particular).
La etnometodología, como sociología de la vida cotidiana,
no niega el orden social, sino el carácter objetivo, claro y
exhaustivo de las reglas para explicarlo, considerando el
trabajo constante de adaptación por parte de los individuos

145
WILMER JOSÉ TÉLLEZ ACOSTA

para ajustar e interpretar los significados de reglas a sus


situaciones particulares. Más que su aplicabilidad, se trata
del uso de las reglas para su utilidad racional en el núcleo
de la acción. Wolf (1979) manifiesta al respecto: “No es
suficiente explicar la situación social como llevada a cabo
con acuerdo a modelos de comportamiento aprendidos en
la socialización” (p. 146); la razón es porque ante situaciones
problemáticas en la vida cotidiana, la trasparencia de la
regla no es un fenómeno obvio para todos los participantes.
La dramaturgia (Erving Goffman)

Es hacia 1960 cuando sociólogos y psicólogos sociales


adentrados en el pensamiento de George Herbert Mead y en el
interaccionismo simbólico, empiezan a estudiar la propuesta
fenomenológica de Alfred Schütz sobre el significado de la
conducta humana más que sus causas; y en menor medida la
hermenéutica (Burns, 1992). Entre los años 1950-1970, Erving
Goffman, con formación sociológica y antropológica bajo la
influencia de la Universidad de Chicago11, realizó una serie
de publicaciones que dieron forma al análisis dramatúrgico
como una variante del interaccionismo simbólico, ya en plena
decadencia (Ritzer, 2001). En el Departamento de Sociología
en Berkeley, a partir de 1957, Goffman muestra interés por
la fenomenología y etología (esta última por la influencia del
antropólogo Gregory Bateson y su grupo de investigaciones
psiquiátricas en el Veteran’s Administration Hospital de Palo
Alto), que junto a la lingüística, sintetizan la esencia de sus
escritos a fines de los sesenta.
Su trabajo doctoral lo finaliza en 1953 (Communication
Conduct in an Island Community), tutelado por el

11
En su Departamento de Sociología, el mejor junto a Columbia en los Estados
Unidos para la época (Burns, 1992).

146
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

antropólogo Lloyd Warner (supervisor de tesis), y parte de


su esfuerzo va a ser utilizado en su primera monografía “La
presentación del yo en la vida cotidiana” (The presentation
of self in everyday life), publicada en 1959, obra sobre la
cual expondré su enfoque teórico.
La presentación de la vida cotidiana se enfoca en la
microsociología de la interacción social y sintetiza la
comparación del teatro con la vida social; por eso la
referencia de enfoque dramático o análisis dramatúrgico.
Para Goffman (1959), el individuo es un actor que
representa ante un público diversas expresiones con el
fin de controlar sus impresiones. Desarrolla su actuación
teatral (performances) para presentarse a sí mismo y
presentarse ante los demás cuando aparece en escena,
pues los otros actores normalmente buscan adquirir
información sobre él para ayudar a definir la situación.
Las actividades de evidencia o señales del actor se
caracterizan por sus expresiones “que él da” (gives), como
símbolos verbales, y las “que se le escapa” (gives up), como
gestos o posturas no-verbales. El actor intencionalmente
trasmite desinformación a través de estos dos tipos de
comunicaciones: la primera, involucrando la mentira, la
segunda, el fingimiento.
Independientemente del criterio o razón del actor para
controlar las impresiones de los demás, lo que le preocupa
es la respuesta que ellos den, influenciando la definición
de la situación sin que esto represente una ruptura a la
fachada. Su actuación, expresada en ocasiones intencional
o conscientemente, responde principalmente porque
la tradición de su grupo le exige este tipo de expresión.
Así, por ejemplo, alguien que finge ser adinerado para
poder ser aceptado en la alta clase social de su entorno,
entenderá que su actuación debe convencer al resto de su

147
WILMER JOSÉ TÉLLEZ ACOSTA

status socioeconómico, pero ese papel, libreto, rol, decide


asumirlo porque sería lo aceptado (lo simbólicamente
compartido) para poder ser parte del establishment. Definir
una situación, es para Wolf (1979) estipular los significados
del encuentro, destaca además que “la definición que un
sujeto da de sí mismo es un componente esencial de la
definición activada y mantenida por la cooperación de
todos (…). La versión de cada uno sobre qué es la realidad
se integra en la definición de la realidad del encuentro”
(p. 38). Pero así como el actor busca definir, los demás
proyectarán una definición en respuesta al individuo a
través de sus acciones.
Goffman (1959) igualmente expresa que en el seno
de la interacción cara-a-cara puede darse una irrupción
de ese “minúsculo sistema social”, al surgir un hecho
contradictorio que desacredite la proyección del actor,
generándole vergüenza y hostilidad por parte de los demás.
Por lo tanto, la interacción es una influencia recíproca de
los individuos cuando están en mutua presencia física
inmediata.
Otro aspecto interesante es el surgimiento de una
relación social a partir de roles. Si bien una actuación
(performance), señala Goffman, es la actividad de un
participante dada la ocasión para influir sobre los
demás, y aquellas actuaciones de los demás participantes
referidos como audiencia, toda pauta de acción que
se despliega durante una actuación, y que puede ser
presentada en otras ocasiones puede ser llamada “parte”
(part). Cuando un individuo realiza la misma parte ante
la misma audiencia (en distintas ocasiones) surge la
relación social, a través de valores asociados a posiciones
sociales o roles. Esto quiere decir que en la vida cotidiana,
cuando un individuo asume un personaje, cumple con su

148
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

libreto o rol que representa en el seno de la interacción


social.
La realización dramática destaca el rol del actor en
la escena, refuerza los elementos más idealizados de su
personaje resaltando sus atributos (en el ejemplo de actuar
como adinerado para ser aceptado en el establishment,
se resaltan las expresiones más convenientes: relucir
un reloj costoso, comentar sobre los últimos viajes
o las buenas relaciones con otros adinerados) y
ocultando lo que pueda generar contradicción en la
actuación (no comentando que es la primera vez que
prueban champagne). Por lo tanto, el “yo” (self) no es
la individualidad del actor, sino es el producto de la
actuación dramatúrgica que demarca la interacción
entre el actor y la audiencia. La presentación del yo
(presentation of self) es la presentación del individuo en
la sociedad, y es el interés del investigador.

La etnografía (Bronislaw Malinowski)

La literatura científica que refiere al método-enfoque


etnográfico engloba tres relacionantes esenciales:
antropología, cultura y trabajo de campo. Desde la
antropología social británica (siglo XX), Malinowski
(1986) alude a que la etnografía rigurosa trata la totalidad
de aspectos sociales, culturales y psicológicos de un pueblo
con el propósito de comprender y describir su anatomía
interna. El acercamiento cara a cara con la realidad
es condición sine qua non para la descripción (grapho,
del griego γράφω) sistemática del grupo o comunidad
(ethnos, del griego έθνος) que reúne en el hábito, cultura,
costumbres y tradiciones, modos de vivir bajo estructuras
de significaciones compartidas.

149
WILMER JOSÉ TÉLLEZ ACOSTA

El trabajo de campo etnográfico erige la esencia de la


antropología social, históricamente asociado al estudio
de culturas exóticas, pueblos primitivos o salvajes,
donde prevalecía el interés por lo sociocultural más que
por lo biológico; mientras que desde la sociología el
interés era más hacia el estudio de sectores marginados
de la sociedad (Guber, 2001). Uno de los fundamentos
del trabajo de campo es la estrecha convivencia con la
comunidad tomada como objeto de estudio. Desde su
experiencia en el Pacífico, Malinowski (1986) emplazó
al etnógrafo a distanciarse de la compañía de “otros
blancos” y acampar en el poblado indígena para poder
tener un acercamiento efectivo. Involucrarse en sus
vidas, rutinas y cotidianidad es tan importante, que la
mera presencia del investigador pasaría desapercibida
al cabo de un tiempo, permitiendo un contacto más de
cerca con una realidad “no autocontrolada”.
El manejo de la lengua nativa12 es una herramienta clave.
En su diario de campo en Melanesia, Malinowski (1989)
escribió sobre sus exploraciones etnográficas: “… padecen
dos defectos básicos: l) tengo más bien poco que hacer
con los salvajes del lugar, no los observo lo suficiente, y 2)
no hablo su lengua. Este segundo defecto resultará difícil
de vencer...” (p. 41). Pero esta aproximación sujeto-objeto
no conduce a un cambio de identidad o desnaturalización
del investigador, como advierte Velasco y Díaz de Rada
(2006), se trata más bien de maximizar el aprendizaje
y permitir una identificación mayor con el grupo, en
un complejo proceso de socialización de un adulto ya
socializado en otra cultura.

12
Pero igual podemos incluir dialectos, modismos, o “vicios en el habla” siempre
y cuando sean parte de la estructura lingüística de nuestro grupo objeto.

150
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Malinowski (1986) resalta que el valor científico de la


etnografía reposa en la capacidad del investigador para
diferenciar resultados de observaciones e interpretaciones de
los indígenas (objeto) y las deducciones basadas en el sentido
común; invita a ser explícito en el trato personal con los hechos
que describe. Contempla la minuciosidad de los procesos
sistemáticos y metódicos que separa el tratamiento científico
con el sentido común (tan útil y necesario en la investigación
etnográfica). Comenta en su diario de campo: “día a día,
sin excepción recogeré los acontecimientos de mi vida por
orden cronológico. Cada día una relación del día anterior:
un espejo de los acontecimientos, una evaluación moral, una
localización de los resortes principales de mi vida, un plan
para el día siguiente” (1989: 117). Sobre la sistematización
de información, advierte sobre la aprehensión temprana de
eventos de aparente menor importancia, antes que la rutina
los trivialice e impidan su consideración.
A pesar de que la etnografía se fundamenta en el
trabajo empírico, la preparación científica no ignora la
actualización de discusiones teóricas sobre el objeto, esta
cumple la función de mapa mental, sin que existan “ideas
preconcebidas” en el campo. Señala Malinowski (1986: 26)
al respecto: “Si alguien emprende una expedición, decidido
a probar determinadas hipótesis, y es incapaz de cambiar
en cualquier momento su punto de vista y desecharlos de
buena gana bajo el peso de las evidencias, no hace falta decir
que su trabajo no tendrá ningún valor”. El señalamiento no
concibe la teoría como una camisa de fuerza, no ajusta el
trabajo de campo; las investigaciones etnográficas buscan
la construcción teórica más que la verificación de hipótesis
deducidas de una determinada teoría.
Pero en medio de su trabajo en Melanesia, nuestro
autor revela inquietudes personales en su diario de campo,

151
WILMER JOSÉ TÉLLEZ ACOSTA

permitiendo entrever cuestionamientos y reflexiones sobre


la dinámica empírica. En una de estas líneas se interroga y
responde: “¿Cuál es la esencia profunda de mis investigaciones?
Describir cuales son las principales pasiones de los nativos,
las motivaciones de su conducta, sus metas…” (1989: 132).
Otros autores como Velasco y Díaz de Rada (2006) refieren al
sentido holístico (holos) del quehacer etnográfico, y citando
a Edgerton y Lagness (1977) precisan algunos principios
generales del trabajo de campo: 1) los mejores instrumentos
para conocer y comprender una cultura son la mente y la
emoción de otro ser humano; 2) una cultura debe ser vista
a través de quien la vive, además de a través del observador
científico, y 3) una cultura debe ser tomada como un todo
(holismo), de forma que las conductas culturales no queden
aisladas del contexto en el que ocurren. En Los argonautas,
Malinowski (1986) cierra su apartado introductorio con las
siguientes palabras:
La meta es, en resumen, llegar a captar el punto de
vista del indígena, su posición ante la vida, comprender
su visión de su mundo. Tenemos que estudiar al hombre
y debemos estudiarlo en lo que más íntimamente le
concierne, es decir, en aquello que le une a la vida. En
cada cultura los valores son ligeramente distintos, la
gente tiene distintas aspiraciones, cede a determinados
impulsos, anhela distintas formas de felicidad (p. 41).
Aún existe otro aspecto relevante dentro del trabajo
etnográfico: ¿cómo es la reconstrucción de la anatomía
cultural del grupo? ¿Cuál es el fundamento descriptivo de la
estructura social? Aquí tenemos la esencia interpretativa del
investigador etnográfico y su valor científico: precisamente,
nada de estas dinámicas propias-concretas están cristalizadas
ni reducidas a generalidades, sólo se encuentran en las mentes
de nuestros pobladores. Malinowski (1986) explica que los
indígenas obedecen a coacciones y códigos institucionales

152
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

sin comprenderlos, carecen de capacidad para interpretar


sociológicamente su organización, a diferencia de nuestras
sociedades donde instruimos personas para tal fin. “Para el
etnógrafo, la solución consiste en recoger datos concretos
de pruebas testimoniales y forjar sus propias deducciones y
generalizaciones” (p. 29).
En la etnografía, el investigador es el mejor instrumento
de recolección de información. Se trata de un complejo
proceso de entrar en las vidas de nuestros objetos de
estudios, formar parte de sus dinámicas y ganarse la
permisividad para desnudar su sistema sociocultural. Al
respecto, Malinowski (1986) relata que fue participando
“en algunos de sus juegos y diversiones como empecé a
sentirme de verdad en contacto con los indígenas; y ésta
es ciertamente la condición previa para poder llevar a cabo
con éxito cualquier trabajo de campo” (p. 26). A diferencia
de otras herramientas de aprehensión de información,
donde la preocupación recae en la fiabilidad estadística, la
inquietud del investigador etnográfico son sus estrategias
para involucrarse con el grupo y pasar desapercibido en la
comunidad mientras está sistemáticamente capturando la
esencia de su cotidianidad.

La investigación cualitativa: fundamentos y proceso


La explicación causal, característica medular de las
ciencias naturales-experimentales, queda relegada como una
visión unidireccional, lineal y simplista dentro del complejo
ente social. Esto limita establecer variables y precisar
funcionalidades dentro de la investigación (de control,
explicativas, predictivas, dependientes o independientes). La
esencia de los trabajos cualitativos tiende a circunscribirse
en una visión holística, dinámica y sistémica; considera
un todo que convive en tiempo y espacio en la vida de un

153
WILMER JOSÉ TÉLLEZ ACOSTA

determinado grupo social. Pero relegar la explicación causal


direccional no implica desechar el carácter explicativo
del quehacer científico, sino que esta condición adquiere
sentido en la medida que comprendemos los significados
que mueven (explican) una determinada acción.
Estudiar la dinámica social, como ente ontológicamente
subjetivo, limita igualmente la búsqueda de leyes científicas
que reflejen cognitivamente la acción humana, precisamente
porque la interpretación que cada sujeto hace del entorno
tiende a ser tan individual, que trabajar con causalidades
universales sería admitir la idea de homogeneidad semántica
y cultural del hombre frente al mundo. Pero que cada mente
tenga capacidad natural-biológica de construir la realidad,
no significa inexistencia de regularidades que confluyen en
el seno de la interacción social. Por esta razón, el proceso
de investigación cualitativo trabaja desde el razonamiento
inductivo, porque se trata de conformar una estructura
teórica que articule de forma coherente y lógica aquellas
informaciones particulares presentes en la cotidianidad. A
diferencia del enfoque cuantitativo, aquí la teoría no ajusta
el momento empírico, sino que la teoría es la estructura
resultante del trabajo empírico.
La observación no es el medio para verificar una
hipótesis, es el medio para que emerja la mejor de todas
las posibles hipótesis a partir de las evidencias. La lógica
inductiva busca regularidades en las manifestaciones
particulares para poder intuir o percibir la esencia que
encierra lo universal, pero además contempla las buenas
observaciones intensivas (más allá de regularidades
observacionales) para aprehender significativamente el
objeto (Martínez, 2006). La generalidad en lo cualitativo
no pretende una instauración inmediata de ley científica,
se inscribe más bien al conjunto de individuos que

154
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

interacciona en determinado momento-espacio, y del


cual se hace una descripción que los define, diferencia y
distingue de otros semejantes.
El investigador no asume una postura neutral frente al
objeto de estudio, al contrario, es sensible, empático; involucra
sus valores y creencias sin ser intrusivo. Es difícil adoptar
un rol imparcial porque en ocasiones el sujeto es parte del
sistema y, por ende, del estudio. La proximidad sujeto-objeto
exige una relación estrecha, el investigador se convierte en
el mejor instrumento de aprehensión de información; de
hecho, su habilidad para relacionarse y generar empatía
con sus informantes es quizá la mejor garantía de contener
la esencia del objeto. Su rol activo le permite interpretar
significados, juicios, emociones, experiencias que definen la
dinámica del grupo, y su postulado de la realidad se divide
en tres: la realidad de los participantes, la del investigador
y la construida por la interacción de todos los actores
(Hernández, Fernández y Baptista, 2010).
La recolección de datos no es un procedimiento
estandarizado; no hay interés en medir atributos
poblacionales, sino más bien generar un despliegue
estratégico-técnico para obtener mayor entendimiento de
los significados sociales. Aunque se habla de población y
muestra, el concepto de probabilidad pierde sentido porque
no se garantiza que cada sujeto de la población tenga
igualdad probabilística de ser seleccionado como muestra,
el proceso de muestreo es intencional. La representatividad,
entonces, más que un asunto estadístico, es la cualidad
distintiva del fenómeno que se manifiesta en algunos
individuos claves. Los resultados del trabajo cualitativo no
son generalizables ni extensivos a la población, se inclinan
más por ser intensivos, profundos y complejos, aunque
queden circundados sólo a la muestra.

155
WILMER JOSÉ TÉLLEZ ACOSTA

A continuación, se describe de manera general el proceso


de una investigación cualitativa.

Planteamiento del área problemática

Como en cualquier investigación, plantear un problema


empieza por elegir un interés temático, frecuentemente
relacionado con nuestra vida cotidiana: experiencia
personal, laboral, académica; inconsistencias entre
lo que enuncia una teoría y lo que observamos en la
práctica; necesidades de mejores acciones-procesos para
lograr metas comunes, así como evaluar las ya existentes
para comprender nudos que impidan avanzar como
planificamos. Volvemos a la dicotomía entre lo que es
pero que no debería ser. A la par de la selección temática,
es importante pensar las dos preguntas que causan más
problemas, según Strauss y Corbin (2002: 40) al iniciar
un estudio: ¿Cómo encuentro un problema investigable? y
¿cómo lo reduzco lo suficiente para que sea trabajable?
Una vez ubicado el eje temático, Rojas (2010) recomienda
adoptar una perspectiva paradigmática desde la cual abordar
el estudio (aquí tratados como “marcos de estudios para la
realidad social”), bien sea el hermenéutico, fenomenológico,
etnometodológico, etnográfico, interaccionismo simbólico
(entre otros no abordados en el presente texto). La autora
considera importante esta elección por la influencia en la
redacción de interrogantes y objetivos de trabajo. Este apartado
teórico-epistemológico coadyuva igualmente a reflexionar
sobre las perspectivas con que podemos conocer la realidad
social, de acuerdo a la naturaleza del tópico elegido, e influye en
el diseño práctico-metodológico y técnico del estudio.
Posteriormente, enfrentamos el reto de formular preguntas-
objetivos de investigación, dos elementos distintos pero

156
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

uno espejo del otro, como se había explicado en el apartado


cuantitativo. Lo particular en los estudios cualitativos es que
suele plantearse una pregunta-objetivo general para demarcar
el propósito principal (el gran propósito) del trabajo, y las
preguntas-objetivos específicos se establecen en el transcurso
del proceso investigativo. Plantear el problema tiende a no ser
preciso o delimitado, sino abierto y asentado en la experiencia
e intuición; tampoco considera variables, sino conceptos, y
mucho menos se traza direccionalidad a priori entre ellos
(Hernández, Fernández y Baptista, 2010). La complejidad
del objeto social dificulta plantear un problema específico
—dentro de tantos problemas que coexisten en el área— hasta
que la investigación esté en marcha, por eso Martínez (2006)
habla de área problemática. Ni las interrogantes ni los objetivos
(generales o específicos) son sacrosantos, pueden cambiar en el
camino13, incluso, el investigador debe manejar con cuidado el
hecho de que al finalizar su trabajo no esté parado en el mismo
sitio donde empezó (teórica y metodológicamente hablando).
Desde la investigación cualitativa etnografía, Hammersley
y Atkinson (1992) comentan que no hay una regla única que
determine hasta qué punto se puede elaborar el problema de
investigación antes de ir a campo. Lo importante es agotar
la exploración (documental) del área problemática porque
“siempre llega un punto donde no se puede progresar más
sin comenzar la recogida directa de información…” (46). Se
puede decir que el esfuerzo por problematizar un área general
del objeto será la base para una propuesta teórica coherente
con la evidencia empírica. Tres momentos forman el esqueleto
del trabajo cualitativo: el momento de la problematización
(preliminar) del área, incluido la exploración de literatura

13
Aquí el famoso principio de “Los tres príncipes de Serendip” adquiere un opor-
tuno y buen sentido: “Si estás buscando una cosa buena y encuentras otra mejor,
deja la primera por la segunda”.

157
WILMER JOSÉ TÉLLEZ ACOSTA

referencial; el momento de la inmersión al campo, y el momento


de la construcción teórica-(re)interpretativa, fundamentado en
los conceptos, teorías y manejo empírico precedente.

Literatura referencial

Familiarizarse teóricamente con el objeto de interés no


significa aquí construir un modelo explicativo que guiará
la investigación, ni establecer una atadura previa entrada al
campo; recordemos las palabras de Malinowski (1986: 26):
“Tener una buena preparación teórica y estar al tanto de
los datos más recientes no es lo mismo que estar cargados
de ideas preconcebidas”. En todo trabajo científico, debe
prevalecer un esfuerzo significativo para ver dónde se ubica
nuestra propuesta en el mundo cognitivo. Un error terrible
es pretender la innovación sin asegurar primero lo que tiene
actualizado la comunidad académica y/o científica sobre el
objeto (“estado del arte”).
Cuando se habla de literatura referencial, y no de “marco
teórico”, es porque el interés no reside en enmarcar el estudio a
interpretaciones del quehacer empírico. Tampoco se especifica
un peldaño o paso sucesivo del problema, ni anterior del
trabajo de campo, más bien es una constante que se mantiene
intermitente durante el proceso de investigación. Por esta
razón, los investigadores no deben dirigir sus esfuerzos por
agotar la revisión de literatura en ningún punto específico,
porque cada momento en la investigación cualitativa guarda
una lógica relación con la literatura.
En el planteamiento del área problemática, la literatura
permite aclarar conceptos inherentes al tema; es un momento
para aclimatarse con el objeto. Si el propósito es “comprender los
métodos naturales de prevención de enfermedades respiratorias
en la población de Ejido, Mérida (Venezuela)”, sería importante

158
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

precisar conceptos claves14: medicina preventiva, remedios


naturales, costumbres, culturas ancestrales, enfermedades
respiratorias; así como una descripción del tiempo y espacio
donde se realiza el estudio: ¿dónde queda ubicado Ejido? ¿Cómo
es su clima, pluviosidad, vegetación? ¿Cuál es la actividad
económica predominante? ¿Existe antecedentes de problemas
respiratorios? ¿Qué tipo de sistema de salud posee la localidad?
¿Cuál es su herencia cultural para abordar los temas de
salubridad? Adicionalmente, si otros autores han trabajado en
temas similares, es interesante reflexionar sobre sus estrategias
de recolección y análisis de datos, así como en el paradigma que
decidieron abordar el estudio.
En el momento de inmersión al campo, la recolección
de datos permite la detección de nuevos conceptos que
emergen de las relaciones con los informantes, pero también
encontramos conceptos que aparecen en reiteradas o escasas
ocasiones, y que ya en la revisión preliminar de literatura se
habían detallado. Al respecto, Strauss y Corbin (2002: 56)
consideran esencial que el investigador se pregunte: “¿Son
estos conceptos de veras emergentes, o los veo en los datos
a causa de lo familiarizado que estoy con ellos? Si son de
verdad emergentes e importantes, ¿en qué se parecen y en
qué se distinguen de los de la literatura?”.
La tarea de teorizar15 (construir teoría) a partir de
la (re)interpretación del complejo empírico es un asunto
distintivo del enfoque cualitativo. El trasfondo no se centra en
la acción confirmatoria de la literatura, sino en la posibilidad
14
Las revistas científicas arbitradas tienen como regla general que todo artículo
objeto a publicar debe incorporar al menos cuatro palabras claves. Esto tiene
como finalidad facilitar la búsqueda de literatura de acuerdo al interés temático,
a través de lo que se conoce como Revisión Sistemática de Literatura.
15
“Teorizar es un trabajo que implica no sólo concebir o intuir ideas (conceptos),
sino también formularlos en un esquema lógico, sistemático y explicativo”
(Strauss y Corbin, 2002: 32).

159
WILMER JOSÉ TÉLLEZ ACOSTA

dialéctica de contraste entre ella y los hechos-resultados.


Desde el racionalismo aplicado, Bourdieu, Chamboredon
y Passeron (2013) comentan que la “comprobación de un
fracaso es tan decisiva como la confirmación, pero sólo a
condición que coincida con la reconstrucción del cuerpo
sistemático de proposiciones teóricas en el cual adquiere un
sentido positivo” (p. 95). No se frecuenta los conceptos de
comprobación o confirmación en este proceso cualitativo,
pero el fracaso, como concepto más universal, lo convertimos
en certeza cuando refinamos el área de conocimiento a partir
de la reflexión-dialéctica de la discrepancia entre literatura
y datos. Antítesis convertida en síntesis con el propósito de
profundizar sobre el fenómeno.

Inmersión al campo

Al dirigir la mirada hacia el terreno donde sucede el hecho


de interés, es imprescindible establecer contacto directo con
la realidad tal como se manifiesta. La información hay que
aprehenderla donde se encuentra, por eso lo primero es
considerar las aproximaciones iniciales al sitio, contexto y
situaciones pertinentes. Los pasos iniciales para familiarizarse
con el ambiente de estudio varían dependiendo la naturaleza
conflictiva del acceso al campo. No es lo mismo establecer
conexiones con usuarios del transporte público para conocer
la influencia de la movilización urbana en el stress laboral, que
aproximarse a los jefes de un cartel de microtráfico de drogas
para entender los códigos de la institucionalidad criminal
urbana. “Abrir las puertas” al campo es sin duda una mezcla
entre naturaleza del objeto (en cuanto a su acceso), habilidad
personal (innata o adquirida) del investigador para generar
empatía y confianza in situ, así como manejar sagazmente
la perseverancia, prudencia, y riesgos que implica siempre
aterrizar en una zona desconocida.

160
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Parte de la construcción empática necesaria en campo se


basa en un juego de adaptación; se trata de la idea griauleana
(Marcel Griaule) de que el investigador personifica diferentes
roles, se pone una colección de máscaras como no tiene
ningún museo. En “Viaje, trabajo de campo y conocimiento
antropológico”, Krotz (1991) habla de esta adaptación en
términos de vestimenta, vocabulario, comida, rutina, actos
y expresiones actitudinales, en general, se trata de ajustes a
las condiciones ambientales y socioculturales. “Por esto su
adaptación tiene que aspirar a convertirse en interlocutor de
aquellos en cuya realidad sociocultural se interesa” (p. 55).
Pero una cosa es tener actitud empática para ambientarnos,
y otra muy distinta fingir ser algo que no somos. No es lo
mismo un padre que tiene actitud tolerante, flexible, que está
dispuesto a disfrutar y vivir una fiesta de adolescentes, que
fingir ser un adolescente fiestero. Por cuestiones intuitivas, los
“nativos” saben reconocer la diferencia, y lejos de integrarse,
un matiz burlesco tenderá a cerrarle las puertas en el grupo.
Aun cuando el investigador debe asumir sus diferencias con
el grupo de manera natural y no artificial, la figura del actor
o informante clave (gatekeepers) es una tecla estratégica para
ingresar a un lugar. Se trata de una o más personas que pueden
ser nuestros enlaces para entrar al grupo: nos introducen,
sugieren ideas dado su conocimiento sobre el tema y factibilidad
cognitiva en su “zona”, nos previenen de peligros y responden
por nosotros ante el grupo (Martínez, 1998). La lógica con que
trabaja la figura del actor clave en relación con el grupo es: “El
amigo de mi amigo es también mi amigo”, y lo que necesitamos
es precisamente eso, ser personas amigas para poder aprehender
eficientemente la información que nos permitirá estructurar
el sistema de significados colectivos. “La meta más o menos
utópica del investigador sería conseguir la plena integración en
el grupo” (Velasco y Díaz de Rada, 2006: 26).

161
WILMER JOSÉ TÉLLEZ ACOSTA

La muestra

Una vez que se han realizado las primeras aproximaciones


al “terreno que pisamos”, a la par se han identificado
informalmente núcleos de gran interés para nuestra
investigación. Me refiero a posibles unidades de análisis
que serán las fuentes que contienen la información que
requerimos para lograr los propósitos del trabajo. Pero
las unidades de análisis tienen un sentido particular en el
enfoque cualitativo: su selección se obtiene por un muestreo
intencional o basado en criterios, ya que nos brinda ventajas a
la hora de acercarnos a fuentes que manejen con propiedad
el tema. Esto significa, en el marco de la teoría de muestreo,
que las investigaciones cualitativas se inclinan por un tipo
no probabilístico, en el que cada elemento poblacional no
tiene igualdad probabilística conocida y positiva de ser
seleccionada como muestra.
Es importante que el lector no vincule la pérdida de
rigurosidad científica con un muestreo intencional (no
probabilístico), sobre todo por el asunto de generalidad
y representatividad. En el primer caso, ciertamente los
resultados no son extensibles a la población objetivo, y en
el segundo caso, no existe una representatividad estadística-
aleatoria, pero este criterio se robustece en las muestras
intencionales al localizar una subrepresentación especial,
altamente rica en coadyuvar con la comprensión-intensiva
del fenómeno. Por ejemplo, si queremos estudiar las causas
de deserción escolar en la Universidad Central de Venezuela en
los últimos 10 años: ¿cuál estrategia sería más adecuada?:
1) emplear un muestro probabilístico de los profesores de
la Universidad para garantizar un criterio generalizado y
representativo estadísticamente, o 2) seleccionar al profesor
que tiene 20 años estudiando la deserción escolar en la
Universidad Central de Venezuela, considerando que su

162
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

respuesta ni es generalizable ni goza de representatividad


estadística. Si usted aún se inclina por la primera opción,
considere los siguientes supuestos:
1) Aunque el muestro pueda considerar un mayor número
de profesores, tal vez sus respuestas no aseguren buen
manejo del tema. Podemos estar generalizando respuestas
inciertas con un alto grado de representatividad.
2) Como cada profesor tiene la misma probabilidad de
ser elegido, la muestra puede contener profesores nuevos
como antiguos, expertos en la materia como inexpertos
(por no ser su área o por apatía, desinterés).
3) Aunque podemos calcular el margen de fiabilidad de
las respuestas a la hora de generalizar, no podemos tener
la misma fiabilidad comprensiva del tema, precisamente
porque nos enfocamos más en un criterio estadístico
que de contenido.
Al igual que en el muestreo probabilístico-cuantitativo,
en el muestreo no probabilístico-cualitativo se debe
manejar con cuidado el hecho de “mientras más mejor”.
Si por deseos fuese, un investigador aprehendería toda
oportunidad informativa de cada unidad poblacional, pero,
como sabemos, además de innecesaria, sería excesivamente
costoso. Hernández, Fernández y Baptista (2010: 394)
consideran tres factores que intervienen para “determinar”
el número de casos en un muestreo cualitativo:
1) Capacidad operativa de recolección y análisis (el número
de casos que podemos manejar de manera realista y de
acuerdo a los recursos que dispongamos).
2) El entendimiento del fenómeno (el número de casos que
nos permitan responder a las preguntas de investigación…).

163
WILMER JOSÉ TÉLLEZ ACOSTA

3) La naturaleza del fenómeno bajo análisis (si los casos son


frecuentes y accesibles o no, si el recolectar información
sobre estos lleva relativamente poco tiempo o no).
4) Yo agregaría un cuarto factor muy vinculado a la
naturaleza del fenómeno bajo análisis. Si la complejidad
del tema conduce a una aguda heterogeneidad en
la información, el científico debe ampliar el radio
muestral para capturar la diversidad propia de todo
fenómeno divergente.
Los métodos más comunes del muestreo no probabilístico
son: causal o accidental: la selección se realiza sin ningún
criterio previo, sólo mediante la disposición del sujeto a
colaborar. Bola de nieve: a partir de una pequeña cantidad
de informantes claves, se les pregunta: “¿Quién más sabe de
esto?”. Y las sugerencias en cadena hacen que incluyamos en
la muestra más participantes referidos como fuentes claves.
Casos extremos: se evalúan casos fuera de la normalidad
o atípicos, que representan posiciones extremas en una
situación. Máxima variación: busca la descripción diversa
de un tema dada su complejidad, con el fin de buscar
coincidencias, patrones o particularidades. Se caracteriza
por la selección de casos heterogéneos. Muestreo homogéneo:
interesan los casos de un mismo perfil, de rasgos similares,
para caracterizar sus particularidades (madres adolescentes,
mujeres en cargos diplomáticos, presidiarios). Casos críticos:
interesa por la condición particular del caso en el contexto
de estudio. Las conclusiones pueden guiar predicciones
de resultados en otros casos. En medicina, este tipo de
muestreo es común (estudios de casos), ya que refleja una
condición especial, y su conocimiento puede ser de gran
interés poblacional, aún dada su singularidad (estudiar
los primeros casos de ZIKA, gripe aviar, gripe A- H1N1).
Voluntaria: es un muestreo autoseleccionado, las personas

164
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

se proponen como participantes ante una invitación abierta


del investigador.

Recolección y análisis de información

Es común pensar que recolectar información es


sinónimo de inmersión a campo. Pero, como vimos, no se
trata de un aspecto físico, de mera presencia y aprehensión,
sino de un proceso estratégico, actitudinal, de empatía y
astucia condicionante para recolectar un determinado fruto
informativo. Como en la actividad agrícola, la calidad de
la cosecha es proporcional a la preparación del terreno.
También es preciso resaltar la dificultad de separar la
recolección del análisis de información, porque en la
investigación cualitativa se trata de un proceso simultáneo,
que enriquece la posibilidad de aprehensión de enfoques
emergentes, fruto del análisis constante.
Ahora bien, suponiendo que se desarrolló con éxito la
primera fase de inmersión al campo, sigue la recolección y
análisis de cosecha (información); en este caso, mediante
técnicas flexibles, adaptables a la heterogeneidad de
situaciones complejas, donde la observación y entrevista
comparten el supuesto de hacer accesible a esa ambiciosa
totalidad del hecho (Velasco y Díaz de Rada, 2006). En
cuanto a la instrumentalidad en la recolección, el enfoque
cualitativo no se sirve de medios estandarizados. La mente
del investigador es el mejor instrumento porque es sensible
a dinámicas complejas y variantes del objeto, incluso a
informaciones codificadas en otros lenguajes que expresan
la realidad, como el lenguaje corporal, gestualidades, tono
de voz, acentos; haciendo aprehensible determinadas
característica inherentes a la naturaleza humana (tristeza,
nostalgia, molestia). Como señala Martínez (1998), el

165
WILMER JOSÉ TÉLLEZ ACOSTA

científico congenia con la frase de Protágoras: “El hombre


es la medida de todas las cosas”.
A continuación, se ofrece una descripción general de las
técnicas más usuales para recabar y analizar información
en las investigaciones cualitativas. En la figura 5 se presenta
un esquema referencial para ubicar cada una de ellas en
un articulado panorama técnico en este tipo de trabajos,
según las tres familias de indicios dada la naturaleza de los
objetos (Hurtado, 2010): observación (los indicios se ven),
entrevista (los indicios se escuchan) y revisión documental
(los indicios se leen).

Figura 5: Esquema referencial sobre técnicas de recolección y análisis de


información .
Fuente: Elaboración propia.

Observación

Hablar de observación es describir una condición


humana esencial. Un método inherente al desarrollo y
vida del hombre. Todos observamos cotidianamente,
pero la alusión técnica en el procedimiento investigativo
obedece a la forma sistemática de obtener información

166
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

en un determinado contexto de interés. Participar, por su


parte, se relaciona con la aceptación y pertinencia de estar
involucrado en alguna actividad que revelará en su seno
alguna información significativa para estructurar los hechos.
Pero observar (participando o no) presenta un interesante
debate sobre los criterios de objetividad y subjetividad
científica. El paradigma con que se aborde la investigación
define la relación sujeto-objeto. Imagine que hay interés en
evaluar las condiciones físicas de un colegio, podemos tener
una lista de cotejos para observar si los salones tienen bombillos
funcionando o no; sólo tenemos que ingresar al sitio, encender
el interruptor, y anotar el número de bombillos operativos. El
sentido cambiaría si el propósito es estudiar la iluminación
de las aulas, pues, aunque todos los bombillos funcionen, un
criterio subjetivo puede establecer insuficiencia de luz.
Si bien la observación es de quien observa, mientras más
estrecha sea la relación sujeto-objeto, más evidencias se
tendrán para establecer un discurso descriptible-integral
cercano al objeto. Podemos “declarar” iluminado un salón
cuando los bombillos funcionan, los gestos de los alumnos
no evidencian ofuscación por luz, las discusiones de los
textos en el pizarrón se llevan sin contratiempo. Nótese que,
para describir la iluminación, hace falta más que “asomarse”
a ver si los bombillos funcionan o no, se trata de la mayor
interacción posible entre sujeto-objeto para una aprehensión
informativa próxima al hecho de interés.
La intensidad de la observación y participación varía
dependiendo del estudio, accesibilidad al sitio e interés
para el cumplimiento de los objetivos. Se puede hablar de
observación no participante cuando el investigador es más un
espectador que un actor, se mantiene fuera de la interacción
grupal sin que se note su presencia. La ventaja de este tipo-

167
WILMER JOSÉ TÉLLEZ ACOSTA

observación es que tiende a no afectar el comportamiento


natural de los integrantes del grupo. En la observación
participante, por su parte, el investigador se integra y es una
pieza más del grupo, participa en sus dinámicas mientras
recaba la información que necesita. Guber (2001) señala
que la confiabilidad de los datos recogidos supone presencia
(percepción y experiencia directa) del investigador ante los
hechos de la vida poblacional.
Dentro de las modalidades de observación, Ander-Egg (1975)
señala además del grado de participación, los medios utilizados:
observación estructurada o no estructurada, se trata del ejercicio
sistemático establecido de antemano sobre el objeto a estudiar
(lista de cotejo), o la observación libre sin recurrir a formas
predeterminadas. El autor destaca igualmente si la observación
es realizada por un individuo o grupo de individuos, así como
el lugar donde se realiza: observación en la vida real: los hechos
se captan tal como se van presentando en un ambiente natural,
o de laboratorio, realizado bajo ciertos criterios artificialmente
inducidos en un grupo de personas para estudiar efectos.

Entrevista focalizada

Esta técnica está asociada con los indicios informativos


que se escuchan; por el contrario de la observación cuyos
indicios se ven (Hurtado, 2010). Para Freud, las palabras
con que expresamos los sueños son las ventanas para
asomarse al interior de las personas, y ese es precisamente
el poder de la entrevista: conducir, estimular y escuchar
expresiones-palabras de personas que guardan en su
conciencia respuestas de interés (y que necesitamos para
satisfacer nuestros objetivos de investigación). La selección
del entrevistado y preguntas a elaborar son asuntos
premeditados y, en ocasiones, cuidadosamente planificados.

168
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

La entrevista es un proceso de comunicación porque


comprende reciprocidad del mensaje emisor-receptor; por
lo tanto, la entrevista no admite un receptor mudo, ya que de
ser así sería un proceso informativo. Pero la relación dialógica
entrevistador-entrevistado debe ser diligentemente vista como
un mecanismo de enriquecimiento de escuchar, administrando
eficazmente el habla. Seleccionar un entrevistado supone
un conocimiento previo de que en su cabeza se encuentra
información valiosa. Las preguntas que hacemos son estímulos
precisos y fundamentados para obtener esa información;
por lo tanto, nuestra intervención es racionalmente limitada
a condicionar las palabras que más nos importan: las del
entrevistado. No considerar este supuesto puede conducir a una
conversación amena más que científica, aunque lo ameno es
clave, pero como antesala a la entrevista.
Además de administrar eficientemente el habla para
enriquecer el escuchar, es fundamental la preparación del
entrevistador sobre el tema que va a abordar. Las preguntas
realizadas es un termómetro de esta preparación. Un
entrevistado respetable espera siempre interrogantes que
sirvan para nutrir cognitivamente, para adicionar algo más
a la discusión. Pero la preparación del entrevistador debe
ser digerida con modestia, recordemos que lo esencial
de la entrevista no es mostrarle al otro cuánto sabemos,
sino requerir de él lo que haga falta para ampliar nuestro
conocimiento y, sobre todo, para materializar la evidencia.
En la entrevista periodística, existe una conseja clásica: “El
periodista mira al sol y pregunta si está brillando”, persigue el
mismo objetivo que la entrevista científica: tener la evidencia
en la palabra del otro.
Sin embargo, estar preparado sobre el tema de la entrevista
es una cosa, y tener la entrevista preparada es otra. Un
cuestionario de preguntas estructuradas y programadas no

169
WILMER JOSÉ TÉLLEZ ACOSTA

siempre es una buena idea, y la razón se debe a que en el flujo


de las palabras del entrevistado pueden surgir testimonios
que hagan apetecible girar la atención a otro foco, más
conveniente e interesante. Ante tal consideración, Denzin
(1978) clasifica tres tipos de entrevistas: las estandarizadas
programadas, estandarizadas no programadas y las no
estandarizadas.
La entrevista estandarizada programada (schedule standardized
interview) presenta un mismo orden y redacción de preguntas
para todos los entrevistados. Lo que se busca es que las
variaciones argumentativas sean producto de las respuestas
y no del instrumento. Las estandarizadas no programadas
(nonschedule standardized interview) comprenden un
guión sobre ejes temáticos sin considerar un orden o
formas rígidas en las preguntas. Influye la perspicacia del
entrevistador para dirigir la interlocución de acuerdo
con las características personales del entrevistado y la
dinámica de la conversación. Finalmente, la entrevista no
estandarizada (nonstandardized interview) no cuenta con
un guión temático o preguntas preespecíficas, tampoco
considera orden alguno. Se utilizan más en estudios
exploratorios, y la información que se conoce servirá para
estandarizar posteriores entrevistas de acuerdo a ciertos
criterios específicos del tema.

Historia y relatos de vida

Me parece muy útil y gráfica la expresión popular, presente


en el discurso de muchos investigadores cualitativos, el
árbol se conoce por sus frutos, porque en realidad este
es el espíritu de la historia y relatos de vida como medio
heurístico en la investigación científica. Puedo señalar que
una fruta proporciona información valiosa sobre el árbol, de
la misma manera que un vida sirve para aproximarnos a un

170
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

saber social. Lo que sintetiza una historia o relatos de vida


es, sin duda, la sociedad en sí, porque, como bien señala
Córdova (2013): “una vida es una práctica que se apropia
de las relaciones sociales (las estructuras sociales), las
interioriza y las retransforma en estructuras psicológicas
por su actividad de desestructuración y reestructuración
(p. 72, cursivas y paréntesis del texto).
En el siglo XX, la historia y relatos de vida no fue el
método predilecto de aquellas comunidades científicas que
veían en las técnicas estadísticas-matemáticas el atractivo
objetivismo del enfoque cuantitativo. La concepción dualista
del método más bien le atribuye a la subjetividad un valor de
conocimiento (Ferraroti, 1981), porque considera al sujeto
(la fruta) como centro de interés, y las historias de vidas
como medio para llegar a él. Conocer al sujeto es conocer
el grupo social y “la cultura tal como se dan en concreto, de
manera subjetiva, vivida” (Moreno, 2015: 260).
Pero Ferraroti (2007) hace una analogía interesante:
la historia de vida es un texto, uno al que tenemos que
aproximarnos con atención y cuidado, silenciando al
“aventurero interior”; y más que leerlo, habitarlo. Para
Ferraroti es precisamente el vínculo entre texto y contexto
de donde surgen los temas emergentes de una vida, y una
contribución esencial a la memoria histórica.
Construir una historia de vida implica solventar primero
un problema terminológico: distinguir entre documentos
biográficos, biografía, autobiografía, historias de vida y relatos
de vida. Alejandro Moreno (2004) hace esta tarea dando luz
sobre el proceso narrativo que nos lleva hacia la esencia del
individuo y a su seno social. Los documentos biográficos
refieren a toda clase de textos orales o escritos que permitan
construir, directa o indirectamente, aspectos parciales o

171
WILMER JOSÉ TÉLLEZ ACOSTA

totales de la vida de una persona, tales como diarios, textos


jurídicos, cartas. Una biografía es una narración total del
recorrido de una persona, pero cumplen su finalidad al
presentar la vida del personaje, sin pretender servir de base
a otro tipo de investigación (sociológica, antropológica,
psicológica). No se les considera propiamente una historia de
vida en la investigación social. En cambio, una autobiografía es
una narración realizada por el propio biografiado sin ningún
material externo a la propia narración, bien sea a petición de
otro o por iniciativa personal. Pero cuando esta narración
es construida no por el biografiado sino por un interlocutor
físicamente presente, es lo que se conoce como historia-de-
vida. Finalmente, cuando no se narra toda una vida sino sólo
una parte, se habla propiamente de relatos de vida.

Delphi

Se trata de un proceso sistemático e iterativo de


recolección de información basado en opiniones de un
grupo de expertos. La técnica persigue el consenso y
predicción conjunta sobre un determinado tema-problema
cognitivo. Como estrategia predictiva-cualitativa, delphi
complementa modelos estadísticos al poder considerar
los factores en movimientos que muy difícilmente se
incorporan en las ecuaciones matemáticas, además de una
visión más global de los actores implicados (Ortega, 2008).
Es una herramienta poderosa para la toma de decisión
(investigativa, empresarial, gerencial) y la unificación
de criterios individuales encaminadas a resolver temas
complejos como un todo.
Puedo señalar tres características básicas de la técnica
delphi: proceso iterativo: rondas de consultas que sirven de
reflexión común; anonimato: no se identifica a la persona,

172
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

lo que dice cada experto, pues los juicios son de las


opiniones presentadas en la mesa; control en la discusión:
el investigador es quien analiza y conduce la dinámica,
siempre direccionado a sus objetivos.
Por otro lado, existe amplio consenso en la literatura
sobre el proceso de la técnica: 1) definir el objetivo de la
consulta, 2) conformación del grupo (generalmente son
de 10 a 20 expertos), 3) rondas de consultas controladas
(tantas veces como sea necesaria), 4) informe de resultados,
documento que se realiza en la última ronda y sintetiza los
acuerdos, desacuerdos y posibles escenarios prospectivos
(preferiblemente por punto o dimensión temática).

Grupos focales

Se trata de una técnica muy utilizada en estudios de


mercado y en el área de las ciencias sociales. Su fundamento
recae en la construcción unificada del discurso colectivo,
producto de la interacción grupal sobre un eje temático
propuesto por el investigador. A diferencia de la entrevista
individual-directa a profundidad, en los grupos focales se
exponen múltiples miradas desde las emociones, juicios,
actitudes y experiencias de los participantes. Las técnicas
de terapia en grupo empleadas en psiquiatría se basan en
la premisa de que las personas que comparten un problema
común estarán más dispuestas a hablar entre otros sobre el
tema (Lederman, 1990). Esta es la esencia de los grupos de
discusiones: estructurar el contexto grupal para que aflore
la información.
El grupo focal tiende a confundirse como un sinónimo de
entrevista grupal, pero hay ligeras diferencias. La entrevista
grupal tiene una estructura más orientada a pregunta-
respuesta, como en mercadeo, donde se les interroga a un

173
WILMER JOSÉ TÉLLEZ ACOSTA

grupo de sujetos sobre determinado producto y ellos van


respondiendo al ritmo de los cuestionamientos realizados.
Esto no sucede en los grupos focales, pues el interés recae
más en la interacción de experiencias individuales sobre un
tema, y no tanto en las opiniones, con una ligera y controlada
participación del moderador.
La literatura clásica converge en una serie de elementos
sobre grupos focales, Wilson (1997) los precisa en seis puntos:
1) los grupos son pequeños, generalmente entre 4 y 12 personas,
2) se reúnen con un investigador, facilitador o moderador
capacitado, 3) entre 1 y 2 horas, 4) la discusión gira sobre un
tema seleccionado, 5) en un entorno no amenazante (como uno
que promueva la inhibición), 6) fomenta y utiliza la interacción
grupal. El papel del moderador administra todos estos aspectos,
no prestando atención sólo a las palabras, sino también al
silencio, miradas, actitudes o cualquier otra expresión que
pueda develar información.

Análisis de textos

Engloba un conjunto de técnicas semiológicas (signos-


sentido-comprensión) que considera los textos escritos
u orales como objetos de análisis para comprender la
vida social. La base del examen textual se fundamenta en
la hermenéutica como método interpretativo, prevista
para aflorar el sentido latente o manifiesto del mensaje
atendiendo el contexto de su producción. Así como una vida
sintetiza la práctica social, puedo decir que una producción
lingüística individual no tiene naturaleza propia, siempre
es sedimento discursivo colectivo que es compartido y
construido intersubjetivamente mediante el proceso de
interacción social. Por esta razón, una expresión lingüística
está fielmente adherida a un componente sociohistórico.

174
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Un tipo de análisis de textos es el de contenido. Tuvo un


importante auge en las primeras décadas del siglo XX en
Estados Unidos, puntualmente en el estudio de prensa y
propaganda política en el marco de las Guerras Mundiales.
Aspectos como extensión de las notas, frecuencia
temática, número de palabras y posicionamiento del
mensaje fueron algunos elementos propios del análisis de
contenido. En Venezuela, un estudio de Téllez (2014) sobre
indicadores criminales y punitivos, centrado en el análisis
de contenido en una muestra de medios nacionales,
midió la frecuencia y extensión de notas, ubicando las
respectivas unidades de análisis dentro de categorías
y subcategorías preestablecidas. El trabajo permitió
interpretar el tratamiento de la criminalidad en los medios
de comunicación dentro contexto sociopolítico nacional.
El análisis de texto, dentro de su variedad técnica y
epistemológica (contenido, discurso, conversacional
o redes semánticas), se cimienta en tres niveles de
comunicación como lo detalla Martínez (2002): sintáctico,
semántico y pragmático. El nivel sintáctico fija la relación
entre el medio (analogías, figuras literarias, vocabulario)
y fines del lenguaje. Dice mucho sobre el emisor-autor
porque versa en su capacidad de combinar diversos
elementos lingüísticos. Estas estructuras del lenguaje
nos dirigen al nivel semántico, el significado de esas
estructuras sintácticas que fungen como huella del
sujeto codificador. El para qué, es la esencia del nivel
pragmático, ya que toda arquitectura lingüística tiene un
sentido instrumental al servicio del emisor-autor.
Una estructura técnica sencilla de análisis textual es
la comúnmente expuesta para el análisis de contenido.
Importante aclarar que los análisis de textos discursivos
y de redes semánticas no se reducen a esta estructura, las

175
WILMER JOSÉ TÉLLEZ ACOSTA

herramientas de aprehensión y análisis dentro de este


campo metodológico y epistemológico son muy amplios y
dependen de los objetivos de investigación.
Un primer paso es la elección del objeto y su preanálisis,
donde se asume una postura teórico-conceptual que
permita definir al objeto, así como alguna clasificación
de indicadores para poder tener un marco de búsqueda
en el texto. Estos indicadores pueden ser flexibles
para no obstruir información emergente. Un segundo
paso es la definición de unidades de análisis. No es lo
mismo definir conceptualmente lo que entendemos por
criminalidad, al igual que sus indicadores (homicidios,
robos, hurtos), que definir la unidad objeto de análisis
en el texto. En un estudio poblacional, la unidad de
análisis puede ser el hogar, un sujeto; en el análisis de
textos hay que definir dónde buscar la unidad contentiva
de la información que nutrirá nuestras clasificaciones.
El tercer paso es la codificación y categorización. Se
trata de criterios para insertar la unidad de análisis en
algún eje clasificatorio. Por ejemplo, si tomamos como
unidad de análisis notas de prensa sobre opinión pública
de x candidato presidencial, ¿qué criterios definimos
para clasificar una unidad —nota de prensa— como
“positiva” o “negativa”? ¿Qué elementos tiene que
tener la nota de prensa para definirla como negativa-
positiva y luego introducirla en alguna categoría? Las
reglas y criterios de codificación-categorización deben
estar estandarizadas para que cualquier persona pueda
realizar fiablemente el trabajo. Finalmente, es lógico que
exista el paso de la interpretación, que buscará el sentido
de los resultados en determinado contexto y desde
determinada formación sociocultural.

176
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

El cierre del trabajo: estructura teórica

A lo largo del trabajo cualitativo, desde la definición del


área problemática hasta el proceso de recolección-análisis
de información, el investigador ha compuesto, hilado
(consciente o inconscientemente) una visión latente del
objeto de estudio. Si bien el enfoque cualitativo está más
orientado a la proposición teórica que a su contrastación,
las ideas latentes se van tejiendo inductivamente a medida
que sistematizamos el trabajo en campo e interpretamos el
sentido del quehacer empírico. Pero, en realidad, no existe
ninguna regla para estructurar teorías a partir del dato.
La idea de una máquina, en la que surtimos la información
de campo y de la nada sale una teoría, es ingenua e inadecuada.
Se trata más bien de un proceso creativo e intuitivo, donde la
teoría no se deriva de los hechos, sino de una construcción
a posteriori que pretende más bien dar cuenta de ellos, como
un resultado casi poético (Popper, 1967). Se trata de una
construcción mental simbólica, como dice Martínez (1998),
“que nos obliga a pensar de un modo nuevo al contemplar,
integrar, unificar, sistematizar o interpretar un cuerpo
de conocimientos que hasta el momento se consideraban
incompletos, imprecisos, inconexos o intuitivos” (p.88).
Más que un proceso lineal, es la construcción dialéctica
entre categorías e interpretaciones particulares hacia la
teoría, y de esta hacia las particularidades, donde toda
posible contradicción debe tener un momento reflexivo en
el diseño de la estructura teórica.

177
WILMER JOSÉ TÉLLEZ ACOSTA

178
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

INTEGRACIÓN METODOLÓGICA:
MÁS ALLÁ DE LO CUANTITATIVO-CUALITATIVO

No existe el método científico como tal (…) el rasgo más vital de los
procedimientos del científico ha consistido meramente en hacer todo lo
posible con su inteligencia
Percy Williams Brigdman
(Premio Nobel de Física-1946)

El fin del método es ayudar a pensar por uno mismo para responder al
desafío de la complejidad de los problemas
Edgar Morín

Las máquinas de coser se inventaron cuando dejamos de imitar el


movimiento de las costureras
Gastón Bachelard

La pluralidad del método en Ciencias Sociales


Al finalizar el primer capítulo dejé una pregunta abierta:
¿el investigador tiene un solo método para producir
conocimiento científico, o goza de cierta pluralidad
metodológica sin que esto implique sacrificar la ‘calidad’
científica? Me pareció que debía resumir el gran debate
epistemológico del siglo XX entre monismo y dualismo
metodológico, antes de dar una respuesta crítica al asunto.
El primer punto a discernir es sobre eso que llamamos
método científico. Considero que a lo largo del texto hay
pistas que permiten una aproximación al problema,
empezando por la poca uniformidad que ha germinado

179
WILMER JOSÉ TÉLLEZ ACOSTA

desde los debates filosóficos sobre una vía “patentada” de hacer


ciencia. No sólo se trata de un tipo de razonamiento (inductivo/
deductivo), o de dónde sale la teoría (racionalismo/empirismo),
ni cómo es su relación con los hechos (lógica/intuitiva),
sino, además está su validación (verificación, falsación,
contrainducción o adaptación —ante anomalías—). Pero el
asunto se complica con los criterios de leyes científicas, visión
nomotética que es rechazada para aquellos entes ontológicos y
epistemológicamente distintos a la naturaleza (entes naturales-
objetivos). Las ciencias histórico-culturales reclaman un método
distinto al monismo físico-natural ante las particularidades que
dan sentido a las sociedades y al individuo.
Paralelamente, se empieza a hablar del perfil idiosincrático
de los fenómenos sociales, e incluso se cuestiona una
relación objetiva entre sujeto-objeto; ahora parece que
la subjetividad no es un término acientífico, sino que
empieza a tener relevancia como forma de conocimiento
riguroso. También se cuestionan las linealidades causales,
explicaciones suficientes, y en contraparte aparecen las
composiciones holísticas, sistémicas y complejas.
En pocas palabras, lo dicho anteriormente, incompleto
y magro, parece distanciarnos de una conceptualización de
método científico. Una solución puede ser unificar todo lo
anterior y entablar un supermétodo científico, o adoptar una
acción ecléctica a nuestro provecho teórico; sin embargo,
esta estrategia no tendría sentido porque el supermétodo
científico sería todo, y a la misma vez nada.
Ahora bien, ¿qué hay de malo con el eclecticismo y
sincretismo metodológico? Esta pregunta la contestaré desde
el análisis de Miguel Beltrán (1980) sobre eclecticismo-
sincretismo-pluralismo en la investigación sociológica.
Beltrán defiende la tesis de que el pluralismo cognitivo-

180
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

metodológico no es ni ecléctico ni sincrético; entre sus


argumentos expone que el eclecticismo es propiamente
un seleccionismo, toma del pensamiento lo que hay de
verdadero y elimina lo falso, mientras que el sincretismo
intenta aproximar forzadamente sistemas filosóficos no
compatibles. El eclecticismo puede entenderse como actitud
integradora, una especie de sentido común donde debe
haber algo de verdad en cada cosa sin que ninguna tenga la
verdad completa, como cita el autor de Harris para referirse
a las ciencias sociales.
La posición ecléctica determina un criterio de selección
sin establecer ventajas claras de una posición respecto
a las demás, “con lo que toma de aquí y de allá lo que en
cada ocasión les parece más adecuado para lo que se trae
entre manos” (Beltrán, 1980: 27), y esto aterriza en el
agnosticismo, ante la presunción de que toda posición
teórica-metodológica puede ser igualmente adecuada.
Para el pluralismo no todas las teorías ni métodos son
utilizables en general, sino que dependerán del objeto de
conocimiento: es el objeto que se tiene en estudio “el que
determina las condiciones de la observación, los principios
teóricos adecuados y la metodología a emplear” (p. 27).
Lo interesante es que la sociedad encierra una variedad de
objetos histórico-culturales muy diferentes entre sí, y es
esa misma naturaleza la que impone una visión plural del
método, y aquí manifiesta Beltrán su rechazo a la pretensión
de integración teórica no acorde con la complejidad y
heterogeneidad de la realidad social.
Como la sociedad es plural, no se admite una vía exclusiva
de conocimiento, ni una utilización indiscriminada de
la teoría-método, aunque dependiendo del aspecto o
dimensión con que se aborde el objeto, este reclamará
para sí un tratamiento adecuado, porque el estudio de los

181
WILMER JOSÉ TÉLLEZ ACOSTA

fenómenos sociales requiere el “establecimiento de líneas


de demarcación entre las distintas regiones de la realidad,
y el empleo dentro de cada una de ellas de los instrumentos
apropiados a las exigencias de la misma realidad” (p. 28).
En la investigación social, por lo tanto, no hay método
científico, sino tratamiento adecuado, diseño metodológico
a la medida, según la naturaleza del objeto.
Cuando hablo de métodos para las ciencias sociales, no es
descabellada la idea de integración inter-métodos atendiendo
a un enfoque plural dada la complejidad del objeto, se trata de
una estrategia que debe cuidarse de la concepción ecléctica y
sincrética, de lo verdadero o falso, y centrarse en lo adecuado
e inadecuado, huyendo además de la pretensión cognitiva
del todo, y aceptando con modestia un estudio parcelado de
la realidad. A continuación, presentaré tres de las cinco vías
de acceso a la realidad social que propone Miguel Beltrán
(1985): método histórico, comparativo y crítico-racional. No
contemplé el método cuantitativo ni cualitativo no porque
piense que agoté su explicación en capítulos anteriores, creo
que en Beltrán, y en otros autores, como Ibáñez (1980),
hay reflexiones valiosas que, sin duda, complementarían
un estudio más profundo de la pluralidad del método.
La razón es que solo quiero presentar propuestas nuevas
sobre la diversidad metodológica en ciencias sociales en
nuestra discusión, e invito al lector a no conformarse con
las descripciones ni el número de métodos plasmados en el
presente texto.

Método histórico

Empezaré diciendo que sería una gran desventaja


cognitiva, analítica y científica pensar que investigar un
objeto social es cuestión del presente. Una fotografía de lo
actual es un principio descriptivo que ubica la estructura

182
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

parcial de un hecho, pero en sí no explica su composición,


no da razón de su arquitectura, e incluso, las linealidades
con que podemos explicar un evento social, si bien tiene
sentido hacerlo en función de otro evento social (como
decía Durkheim), siempre es una relación condicionada
por el sedimento de procesos inherentes al tiempo. En
consonancia, decía Francois Simiand (1903/2003) que
estamos obligados a buscar hechos y casos de experiencia
en el pasado de la humanidad, precisamente porque es de
donde emerge la explicación estructural del presente.
Cuando un investigador se interesa por la realidad social,
y acude a la historia para comprenderla, es porque pretende
interrogar a esa realidad sobre el cursus sufrido, cómo ha
llegado a ser como es, y por qué ha llegado a serlo (Beltrán,
1985). Y agregaría Braudel (1970: 116) que “historia y
sociología son las únicas ciencias globales capaces de
extender su curiosidad a cualquier aspecto de lo social.
La historia, en la medida en que es todas las ciencias del
hombre en el inmenso campo del pasado, es síntesis…”. Pero
la validez científica de la síntesis histórica no se fundamenta
en el relato del pasado, ni en la mera descripción de las
secuencias temporales, sino en la tendencia comprensiva
que encierra conceptualmente los hechos regulares de los
acontecimientos, por lo tanto, una síntesis histórica es
también sociología comprensiva del objeto.
El marxismo expuso sus lazos irreconciliable con la
manera secuencial y aislada de hacer historia, desprovistas
de leyes objetivas que no regían el desarrollo de los sistemas
sociales, ni veían las raíces de la vida del hombre. Señala
Lenin (1918/1976) que la “sociología y la historiografía
anteriores a Marx proporcionaban, en el mejor de los
casos, un cúmulo de hechos desnudos, recopilados
fragmentariamente, y la descripción de aspectos aislados

183
WILMER JOSÉ TÉLLEZ ACOSTA

del proceso histórico” (p. 30). Pero la historia es uno de los


oficios menos estructurados en ciencias sociales, como dice
Braudel (1970) y, por lo tanto, es flexible y abierto; además,
este autor reconoce que el historiador no presta atención a los
signos sociales o a funciones regulares y subyacentes, “pero
bastaría un pequeño esfuerzo para que estos problemas se le
aparecieran con intensidad” (p. 118).
La síntesis histórica no debe confundirse con las leyes
explicativas físico-naturales, aquí no se haya su rigor
científico, su interés es la abstracción que pueda explicar
el funcionamiento del objeto; dice Carr (1984: 85) sobre el
historiador: “no está realmente interesado en lo único, sino
en lo que hay de general en lo único”, y afirma más adelante
en palabras de Mr. Elton: “Lo que distingue al historiador
del recopilador de datos histórico es la generalización”
(p. 87). Tenemos sin duda una estrecha vinculación de la
historia como método de la realidad social: una sociología
del pasado y una historia de la sociedad presente.

Método comparativo

Comparar es un proceso innato del ser humano.


En el plano filosófico, Platón utilizaba la analogía en
determinadas realidades con el objetivo de comparar,
e incluso para Aristóteles, la marca del genio es
llegar a ser un maestro de la metáfora. En ciencias,
Oppenheimer (1956) señala que la analogía (no
refiriéndose a metáforas o alegorías, sino a una clase
especial de semejanza de estructura) es un instrumento
de la ciencia, y una herramienta indispensable para su
progreso. La comunidad científica ha encontrado en
la comparación y paralelismo un nutrido método para
explicar y determinar causalidades.

184
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

En Comte, se había hablado sobre la importancia de la


comparación en investigación social: comparar sociedades
humanas con otras especies inferiores, comparar sociedades en
diferentes zonas, y comparar sociedades en el transcurrir del
tiempo; esta última tenía un carácter histórico, y el propio
Comte lo consideraba el principal artefacto científico (Ritzer,
2001). Pero el método histórico de Comte no definía leyes de
causalidad, sino el sentido de la evolución humana en general.
Durkheim (2010), por su parte, refería a que la explicación
sociológica consiste en establecer relaciones de causas; agrega
que la sociología comparada aspiraba dar razón de los hechos
más allá de puras descripciones: “El método comparado
es el único útil en sociología” (p. 137) y, por esta razón, la
sociología comparada es en sí la sociología misma.
También es cierto la tradicional postura de que el método
comparativo es quien sustituye al método experimental
en ciencias sociales, dada la imposibilidad de ejercer
artificialmente un control efectivo sobre variables para la
determinación causal. Durkheim cuestiona la aparente
capacidad experimental para las ciencias naturales,
refiriéndose a la postura de John Stuart Mill; no encuentra
razón de por qué sería imposible la experimentación en
sociología dada la admisión del propio Mill de que un mismo
consecuente no siempre es resultado de un mismo antecedente.
Durkheim no está de acuerdo con este axioma de pluralidad;
lo considera una negación del principio de causalidad: “Si
creemos con Mill que la causa y el efecto son absolutamente
heterogéneos (…) nada tiene de contradictorio aceptar que
un efecto pueda responder unas veces a una causa y otras a
otra” (p. 139). Pero aun cuando se habla de la manipulación
indirecta que ofrece el método comparativo en ciencias
sociales, Beltrán (1985) lo considera una metáfora: “El
científico social que compara no manipula nada” (p. 14).

185
WILMER JOSÉ TÉLLEZ ACOSTA

Por método comparativo, Beltrán (1985) habla del


“recurso a la comparación sistemática de fenómenos de
diferente tiempo o ámbito espacial, con objeto de obtener
una visión más rica y libre del fenómeno perteneciente
al ámbito o época del investigador…” (p. 15-16). Lo que
prevalece en el método comparativo son las similitudes y
disimilitudes entre dos o más objetos (países diferentes,
períodos o procesos diferentes en un mismo país, por
ejemplo), que puedan explicar las causa de variaciones.
Bien sea estadísticamente, históricamente o a través de
estudios de casos, grosso modo, aquel esfuerzo que tenga
por objeto explicar las variaciones mediante un examen
simultáneo de dos o más objetos, direccionado por un
sentido de búsqueda causal, puede entenderse como
comparación científica o método comparado.

Método crítico-racional

Su fundamento parte de una estructura teórica social


—Teoría Crítica— que desde el Instituto de Investigación
Social de Frankfurt (Alemania) encabeza Max Horkheimer a
mediados del siglo XX. Esta posición teórica se inspira en una
revolución científica que devolviera al hombre la libertad de
pensar en términos prácticos, con el fin de trazar su rumbo a
través de la plena conciencia, y no bajo la ideología dominante
del industrialismo capitalista. La tesis de Horkheimer (1973)
parte de que la tecnificación ha estado acompañada por un
proceso de deshumanización, donde la ciencia positivista ha
ignorado la organización racional de la actividad humana
para alcanzar sus necesidades primordiales, destruyendo así
la razón en pro del progreso industrial.
En oposición al positivismo, la teoría crítica de Horkheimer
y la Escuela de Frankfurt no busca un incremento de

186
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

conocimiento como tal, sino la emancipación del hombre de


la esclavitud y de lo estándar. “La civilización actual concede
a todo un aire de semejanza. Film, radio y seminarios
constituyen un sistema. Cada sector está armonizado en
sí y todos entre ellos” (Horkheimer y Adorno, 1985: 177),
por lo tanto, la ciencia crítica emprende una actividad no
sólo descriptiva-comprensiva, sino de persuasión para la
transformación social: un científico que enfrente la realidad
no como científico, sino como ciudadano.
El centro de la crítica a la razón instrumental de Horkheimer
(1973) es que si la ciencia es un medio utilitario, y priva al
hombre de una reflexión crítica, autónoma —no autómata—,
no habría una meta racional en sí; la ciencia abdicaría a
su propósito más importante: las metas del hombre para
su bienestar. En el sistema industrial, los fines no son
determinados por la razón, pues “la racionalidad técnica
es hoy la racionalidad del dominio mismo. Es el carácter
forzado de la sociedad alienada de sí misma” (Horkheimer y
Adorno, 1985: 178), lo que sería un totalitarismo imponente,
creado, fabricado para el consumo de las masas por encima
de sus propios intereses.
El propósito de la teoría crítica no es la negación de
la ciencia, más bien busca reivindicar su restitución de
acuerdo a los fines del hombre; reclama de ella un ejercicio
de reflexión racional. Sobre el método crítico-racional, dice
Beltrán (1985: 21): “… no comporta el que la ciencia social
como tal asuma la tarea de fijar fines sociales, sino sólo que
los fines sociales sean susceptibles de una consideración
científica racional y crítica”. Aquí Beltrán se apoya en Weber y
en sus dos tipos ideales de acción social racional: racionalidad
centrada en fines y valores. Weber aclara la relación diversa
entre ambas; para la acción racional centrada en fines, la
acción centrada en valores es irracional, ¿por qué?: porque

187
WILMER JOSÉ TÉLLEZ ACOSTA

esta última no considera consecuencias previsibles de los


actos, mientras la primera calcula las consecuencias que
tiene su acción para alcanzar fines determinados (Beltrán,
1985). Así es como reflexiona el método crítico-racional
sobre la actividad científica: ¿instrumentalidad para qué?,
¿con el objeto de qué?

El paradigma sistémico-complejo
Una comunidad científica confía durante un determinado
período de tiempo en un sistema de teorías, métodos,
técnicas, valores (paradigma científico, Kuhn, 1971) para
dar cuenta de la realidad. Cuando prevalece un agotamiento
acumulativo del paradigma, es decir, algo mucho más severo
que desajustes para explicar los hechos, lo sabio es contemplar
un nuevo sistema de pensamiento (nuevo paradigma) que
se aproxime a las dinámicas cambiantes de las cosas. Pero
la potencialidad científica no reside en el dinamismo de los
objetos, sino en la mente activa del investigador, a través
de procesos críticos y reflexivos en beneficio de resolver
los sistemas complejos de la naturaleza, con una actitud
creadora en medio de un mundo lleno de probabilidades e
incertidumbre, como señala Ilya Prigogine (2008).
Para entender la idea general del paradigma sistémico-
complejo, es preciso distinguir tres elementos al hablar
de complejidad: los objetos, el cerebro humano, y el proceso
cognitivo.
Cuando Prigogine (2008) propone su tesis del caos,
advierte que no sólo se trata de desorden o imposibilidad de
previsión, sino de una expresión inherente a la naturaleza
que se organiza así misma. En un nivel profundo, en la
naturaleza nada es fijo, ni equilibrado, ni estable, y por
lo tanto, no puede estar regidas por leyes ordenadas ni

188
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

mecánicas porque todo implica movimiento —las cosas


se mantienen en una continua disipación de energía—. Los
objetos se mantienen cambiantes en nuestras disciplinas
científicas: física, química, biología, medicina, psicología,
sociología; lo que implica un extenso repertorio de
problemas que parecen no agotarse ante el flujo cambiante
de la realidad. Sin embargo, lo realmente preocupante no
es tal flujo cambiante de los objetos, sino que la ciencia no
parece pujar en la praxis al mismo ritmo que la naturaleza.
Si la realidad es compleja, cambiante, no equilibrada,
¿podemos humanamente explicarla? No hablo de capacidad
cognitiva, reflexiva del pensamiento complejo, sino a la
capacidad biológica-natural del hombre. Referiré a lo que
Martínez (1997) llama complementariedad de las estructuras
cerebrales, una exploración sobre el mundo de la neurociencia
frente al proceso integrador del pensar humano. En su esbozo,
el autor revisa las funciones propias de cada hemisferio
cerebral. El hemisferio izquierdo es consciente, procesa
información de manera lógica, discursiva, causal; razona
verbal y matemáticamente mediante una función analítica.
Su modo de pensar permite conocer una parte a la vez
(atomista), no un todo. El hemisferio derecho desarrolla todas
las funciones de un pensamiento sintético, inconsciente,
simultáneo (muchas cosas al mismo tiempo). Está dotado
para capturar configuraciones sincréticas, estructurales;
configura un esquema no lineal, analógico, metafórico e
integral; no avanza paso a paso sino que implica totalidad al
margen de la conciencia.
La velocidad de trabajo de cada hemisferio es
sorprendente: el sistema racional consciente (hemisferio
izquierdo) procesa 40 bits (unidades de información) por
segundo, mientras que el sistema nervioso inconsciente
(asentado en su mayor parte en el hemisferio derecho)

189
WILMER JOSÉ TÉLLEZ ACOSTA

alcanza 10 millones de bits por segundo. Estos detalles,


citados de Hainer (1968) por Martínez, permiten apreciar
que el pensamiento inconciente es mucho más potente en
cuanto a velocidad que el conciente, lógico y analítico: “Esta
sabiduría del organismo nos proporciona juicios que pueden
ser más sabios que el pensamiento consciente…” (p. 36),
aunque la propia racionalidad del hombre tienda a exponerla
como incoherencia o amenaza. Un ejemplo es la famosa
frase de Blaise Pascal: el corazón tiene razones que la razón
no entiende, refiriéndose al poder intuitivo que va más allá
del umbral de la conciencia, y que sería imposible captar a un
nivel racional por la complejidad y rapidez del asunto.
Desde esta perspectiva, la separación artificial entre ciencia
y arte que señala Feyerabend (1970) puede comprenderse
más fácil al considerar el potencial inconsciente del cerebro
para pensar abstracto y complejo, como en las creaciones
plásticas o racionales, y no linealmente o absorto en un
proceso rígido. Aquí una importante crítica de Martínez:
Quizá, la falla mayor de nuestra educación haya consistido
en cultivar, básicamente, un solo hemisferio, el izquierdo,
y sus funciones racionales conscientes, descuidando la
intuición y las funciones holísticas y gestálticas del derecho
e, igualmente, marginando la componente emotiva y afectiva
y su importancia en el contexto general (1997: 39).
Lo alarmante del proceso que mutila la inconsciencia
como forma de pensamiento, acusada de irracional, es que
conlleva a una incapacidad funcional del cerebro como
máquina integradora. Así bien lo señala el ganador del
Premio Nobel (1981) Roger Sperry (Instituto Tecnológico
de California). Sperry advierte que “muchos elementos
internos de nuestro cerebro se activan solamente con
operaciones muy específicas, y si estas actividades no se
realizan, las neuronas involucradas pueden sufrir un proceso

190
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

regresivo…” (Bogen, 1976, citado en Martínez, 1997: 41).


Pero el pensamiento (el yo) determina los patrones de las
actividades neuronales, y esto es de suma importancia,
porque, como señala Martínez, el yo crea su cerebro; nuestra
mente, pensamientos y personalidad van estructurando el
cerebro mediante su uso. Igual sucede con los músculos
del cuerpo, a medida que los utilizamos y confiamos en
su capacidad de responder a nuestras actividades, éstos
ampliarán su margen de respuesta. Por eso la diferencia
entre los músculos de las piernas de un futbolista y las de un
docente universitario: las capacidades físicas responden al
volumen de demandas específicas.
Si el cerebro humano tiene capacidad de trabajar
integrando los hemisferios cerebrales lineales-no lineal,
consciente-inconsciente, atomista-holístico, el paradigma
sistémico-complejo no espera menos del quehacer científico,
a través de la integración de esquemas de pensamiento para
maximizar el potencial de nuestras reflexiones sobre las
cosas. Platón trabajaba integrando dialécticamente la doxa
con la episteme: un principio intuitivo, un flechazo de ideas,
seguido de un momento crítico para depurar tal intuición.
Y Einstein decía que los científicos creativos deben cometer
su propio delito y luego llevar a cabo la investigación,
es decir, pensar y creer en algo contra el “pensamiento
normal”, separado de un proceder racional, intuitivo, para
luego hacerle ver a la comunidad científica que tal intuición
es correcta. Tanto Platón como Einstein son referencias por
sus aportes al mundo, y justamente acabamos de dar pistas
sobre su proceso creativo y distintivo.
Entendemos hasta aquí que los objetos, el mundo y
sus cosas no son estáticos, son más bien dinámicos, están
en constante cambio. Además, el cerebro humano está
diseñado biológicamente para integrar diferentes esquemas

191
WILMER JOSÉ TÉLLEZ ACOSTA

de pensamiento; estamos equipados naturalmente para la


complejidad. ¿Y qué sucede con nuestros proceso cognitivos,
en específico al método científico? Autores como Feyerabend
(1970), Kuhn (1971) y Martínez (1997, 2015) han defendido
la necesidad de no sofocar la creatividad, el proceso dialéctico
entre objeto-sujeto mediante imposiciones metodológicas de la
ciencia tradicional. A nivel doctoral es frecuente trabajos sobre
caminos recorridos toda una vida por el autor, ignorando quizá
que la exigencia de un nuevo conocimiento no surge de rutas ya
transitadas, como señala Einstein: si buscas resultados distintos,
no hagas siempre lo mismo.
De este punto parte la tesis del paradigma sistémico-
complejo, o paradigma emergente, como lo define Martínez
(1997), de la necesidad dialéctica de integrar irracionalidad
y racionalidad frente a los objetos dinámicos, no lineal
ni mecánicamente, sino de forma compleja, expansiva,
en espiral. Refiere Morín (2009) a esa imposibilidad de
“encerrar la riqueza de los sistemas en nociones simples y
cerradas. El nuevo tipo de inteligibilidad debe poder asociar
nociones antagonistas e integrar la ambigüedad, comprender
la complejidad real de los objetos y de su relación con el
pensamiento que los concibe” (p. 175). Por su parte, Hegel
(1995) señala en su dialéctica que la contraposición de tesis
en el pensar humano se supera mediante la síntesis, por lo
tanto, la contradicción en el paradigma sistémico es el paso
normal por el mundo inestable, y la integración antagónica,
sintética del pensamiento científico la necesidad reflexiva
emergente del orden cognitivo.
Desde el uso del isomorfismo matemático en la teoría
general de sistemas, Rapoport (1987) agrega que “los
significados de las dicotomías analítico-sintético, atomista-
holista, local-global, diferencial-integral, están todos ellos
relacionados entre sí” (p. 54-55). En el contexto matemático “el

192
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

cálculo diferencial es analítico; el cálculo integral, sintético”. Se


trata de dicotomías vinculantes entre las partes y la percepción
del todo. Igualmente importante es que la noción central en la
dinámica, dice Bertalanffy (1987), es la estabilidad, en respuesta
al sistema de perturbaciones; o, en palabras de Prigogine
(2008), una nueva coherencia en respuesta al caos de la realidad
fenoménica. En consecuencia con lo anterior, la filosofía
sistémica se opone a leyes ciegas de la naturaleza; se inclina más
por una visión orgánica del mundo.
A continuación, expondré cuatro postulados para
sintetizar una visión de la metodología sistémica-compleja
en general, a partir de las 23 proposiciones generales (ver
Anexo) de Martínez (1997) que dan sentido a una serie de
métodos y procesos heurísticos en las ciencias humanas:
1) La aspiración máxima como científicos es la reducción
del error mediante la crítica rigurosa y sistemática,
agotando la evaluación multidireccional hasta tener
una verdad científica del presente. En consonancia, tanto
la lógica como el método se basan en nuestra fe animal,
en nuestra alma, como dice Aristóteles, porque eso es
lo que verán realmente nuestros ojos, los resultados
siempre son afectados por el contexto personal y social
del investigador.
2) Un investigador, antes que nada, es un gran pensador,
no es necesariamente un gran metodólogo, de hecho,
desconfía de las técnicas y métodos como vías frías y
lógicas para enfrentar la variedad de problemas en sus
respectivos campos.
3) Lo fundamental de una estructura es que conforma
un sistema de gran interacción entre sus partes, es una
red de relaciones dinámicas y cambiantes, por eso no hay
leyes fijas. La ciencia tradicional divide los fenómenos

193
WILMER JOSÉ TÉLLEZ ACOSTA

e impide la conciencia global; en oposición, la teoría


sistémica comprende las estructuras e interrelaciones
que constituyen la esencia del todo.
4) Bertalanffy (1987) señala que el paradigma sistémico
tenía un lado metafísico, filosófico; no debemos huir
de lo irracional, de lo no lineal e inconsciente. Como
científicos podemos cometer ese delito, como señala
Einstein; sin embargo, debemos tener cuidado de que
conocer los hechos y datos no es lo mismo que conocer la
relación que los une. Allí reside el pensamiento complejo.
Para cerrar este apartado, es importante destacar que el
paradigma sistémico-complejo no trabaja como una cámara
fotográfica: el mundo está allí y el sujeto hace de su conciencia
un lente para captar las cosas con que se va tropezando.
Se libera de la preconceptualización porque lo ata a lo
establecido: yo soy libre porque digo lo que pienso, dice desde
la cárcel el oprimido; ¿y qué es la libertad?: una definición
apriorística poco útil para conocer la verdadera esencia
del fenómeno, a fin de cuentas porque quidquid recipitur
ad modum recipientis recipitur —lo que se recibe, se recibe, de
acuerdo a la forma del recipiente—. Huyan del pensamiento
dado, de donde no emergerá nada nuevo.

Métodos e investigación en América Latina


Diversos procesos históricos han arrastrado consigo
esquemas de pensamiento que buscan intervenir sobre
una realidad dada. Madurar la forma de pensar ha sido
un discurso inherente al desafío del bienestar colectivo.
En Francia (siglo XIX), encontramos en el pensamiento
de Augusto Comte su visión de ciencia social positiva
que venciera la ideología-especulativa de la Revolución.
Más recientemente, en el siglo XX, el Círculo de Viena
atendía la propagación de la ideología marxista en buena

194
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

parte de Europa. Y el marxismo, desde el siglo XIX, hacía


lo propio frente al industrialismo. Tanto los miembros del
Círculo como Comte y Marx sentían la necesidad de definir
métodos que delegaran en sus protocolos teóricos resultados
coligados a la estabilidad social (o a su concepción de
estabilidad social).
Si miramos un par de siglos atrás, encontramos una
historia no tan diferente con el derrumbe de los cimientos
aristotélicos a principio de la Edad Moderna. El episodio
se resume en tres pilares fundamentales: 1) la guerra de la
religión (síntoma de un cambio de actitud del espíritu que
destruye la unicidad de la verdad), 2) el descubrimiento de la
tierra (la demostración de la rotundidad del planeta; cambia
completamente la imagen de la realidad terrestre), 3) el
descubrimiento del cielo (nuevo sistema planetario, la tierra
cesa ya de ser el centro del universo). Este planteamiento
lo define García Morente (1978) como una crisis histórica
que “golpea” terriblemente a la ciencia, originando una
filosofía moderna —esta vez no inocente— que encabezará
posteriormente Descartes.
Con estos lacónicos ejemplos, no debería sorprender que
en América Latina hayan emergido métodos congénitos a
nuestro proceso histórico. Pero, quizá, lo más importante no es
el tiempo transcurrido desde que Europa se repartió las tierras
del Nuevo Mundo, sino el saldo social, cultural, económico y
político resultante de poner en práctica estructuras ajenas e
impuestas, incluyendo el tradicionalismo científico.
Si partimos del método como estructura teórica que se
proyecta en la praxis, podemos asumir que la teoría primaria
latente en la acción latinoamericana ha sido su propia
historia. La propuesta de una ruptura epistemológica con
el tradicionalismo científico europeo, y más adelante con
el norteamericano, condensó el trabajo de transformación

195
WILMER JOSÉ TÉLLEZ ACOSTA

social de cara a las luchas políticas de los pueblos subyugados,


sin duda inspirado en el materialismo histórico y dialéctico
marxista. La revolución de la filosofía en Marx era poner fin
a su forma idealista separada de la vida, como lo sustenta en
Crítica a la dialéctica de Hegel (Marx, 1844/2003), haciéndola
concreta, real, práctica. La política se convertiría en el
camino para materializar esos ideales mediante la unión y
organización del pueblo obrero, proletario, campesino ante
la estructura burguesa capitalista. En los apuntes de Lenin
(1918/1976), se evidencia que la dialéctica hegeliana era para
Marx y Engels la mayor conquista de la filosofía alemana,
aunque había que salvar (del descalabro del idealismo) la
dialéctica consciente para traerla a la concepción materialista
de la naturaleza.
La idea de cristalizar el espíritu de un hombre nuevo a
través de la conciencia materialista se propaga velozmente
por Latinoamérica, continente que ha masticado con
perspicacia su papel histórico de cara a las potencias
económicas. Cuando Galeano (2000) mostró las venas
abiertas de América Latina, sintetizó buena parte de un
largo recorrido de desventajas, traducido en miseria y
pérdidas a costa de la dominación. En palabras del otrora
presidente Woodrow Wilson, Galeano señala que un
país es poseído y dominado por el capital que en él se haya
invertido, ejerciendo un control político sobre las fuerzas
que definen los rumbos; no el requerido, sino el más
conveniente para el dominador.
La ciencia no escapa del contexto dilatado, tanto en tiempo
como en espacio, que enmarca el ideal latinoamericano
según las potencias económicas. La industria capitalista
caminaba de la mano con el avance de la ciencia que
había traído una importante reducción de costos gracias
al nuevo sistema de producción. Ciencia y mecanismos

196
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

productivos marcaban un nuevo ideal social y cognitivo,


donde la academia latinoamericana empieza a robustecer
la perspectiva de investigación científica desde el rigorismo
tecnológico-instrumental. Al respecto, Ramírez (2011:
107) señala que esta ciencia se siente amenazada con todo
lo diferente a ella, “soslayando así el papel de permanente
vigilancia epistemológica que debe tener el investigador”
ante el apego fáctico y mítico de “el método científico”.
Entonces, hablar de método e investigación en América
Latina refiere al surgimiento de un nuevo paradigma
científico con sentido histórico, enfocado en la organización
y participación popular, campesina, obrera, sindical,
donde el conocimiento emerge de sus capacidades para
diagnosticar problemas que les impiden su pleno desarrollo
y el emprendimiento de acciones para su transformación.
La ciencia, en el paradigma latinoamericano, obedece a un
criterio de empoderamiento social, donde las herramientas
analíticas se ajustan a las necesidades de la gente y no a las
del investigador, convirtiéndose así en arma de politización
y educación de las masas (Fals-Borda, 1986). Por esta razón,
el método en América Latina es un híbrido de técnicas
tradicionales y el diseño de estrategias para la acción concreta.
Un aspecto clave sobre el método latinoamericano es
el sentido de participación en la investigación científica.
En el enfoque cuantitativo y cualitativo, la participación
del sujeto estaba supeditada al interés de verificar una
hipótesis, o al interés de construir una estructura teórica
con base en la información recolectada. Todo giraba en
torno a la recolección para un fin académico-teórico. En la
alternativa metodológica latinoamericana, la participación
es un proceso educativo no sólo para reconocer el origen
de los problemas, ni para el consenso de una intervención
programática, sino para revitalizar un proceso crítico de

197
WILMER JOSÉ TÉLLEZ ACOSTA

evaluación y reflexión de las acciones emprendidas para


el cambio (reflexión-acción-reflexión). Lo que a primera
vista parece sencillo y discursivo, es en realidad un sistema
complejo que exige una visión amplia del rigor científico.

Investigación-Acción (IA) e Investigación-Acción-


Participativa (IAP)

Entre los métodos más usuales en la investigación


social latinoamericana se encuentra la Investigación-
Acción (IA) y la Investigación-Acción-Participativa (IAP).
La Investigación-Acción (IA) es una resistencia al ethos
positivista, como señala Martínez (2015), agregando que
se trata de una expresión simultánea entre conocimiento
científico y solución de problemas mediante el aumento
de capacidades de los participantes en una situación
concreta. Martínez lo considera un modelo educativo para
la acción, donde educación no atiende al sentido didáctico
del conocimiento, sino “el aprender por la búsqueda y la
investigación de nuestra realidad más cercana, y con el fin
de solucionar un problema, o varios, y reorientar nuestra
acción y nuestra vida” (p. 223).
En contraste con la investigación de la ciencia social
tradicional, Martínez resalta un trasfondo ético: “… son dos
ciencias diferentes en su esencia: la ciencia del control de
circunstancias y consecuencias para una mayor domesticación
y subordinación y la ciencia de la emancipación para un pleno
desarrollo y autorrealización” (p. 222. El resaltado es del texto).
Podemos observar el sentido de empoderamiento social
para la transformación, y el papel del investigador como
coautor de la investigación mediante un proceso educativo,
incluso hasta mayéutico, donde las respuestas están en el
seno de la propia población: la función del investigador es
hacerlas emerger.

198
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Sobre la Investigación-Acción-Participativa (IAP), Contreras


(2002: 10) la presenta como una “herramienta útil de
apropiación y de alteración de la realidad para quienes no
poseen esa facultad”, y destaca tres elementos centrales: 1) es
una metodología para el cambio; 2) fomenta la participación
y autodeterminación de las personas que la utilizan, y 3)
es expresión de la relación dialéctica entre conocimiento
y acción. Desde la concepción de Kurt Lewin, Contreras
resume el proceso de implementación de una estrategia de
IAP en: 1) identificar una idea general, 2) reconocimiento
de la situación, 3) efectuar una planificación general, 4)
desarrollar la primera fase de acción, 5) implementarla, 6)
evaluarla y revisar el plan general.
Es difícil identificar a partir de esta explicación una frontera
entre IA e IAP. Contreras resume que tal diferencia recae en
la participación de la comunidad en el proceso investigación-
acción. La IAP concede un rol protagónico a los participantes
desde el diagnóstico de la situación hasta la etapa reflexiva-
evaluativa; el investigador es un dinamizador y orientador
del proceso, lo que implica una profunda preparación y
compromiso con las causas locales. Por su parte, la IA se
propone una aplicación rigurosa del método científico con
una participación parcial de la comunidad, ya sea en la
recolección de los datos o en la validación y reflexión de los
resultados. Se puede notar la diferencia entre investigar basado
en la participación comunitaria, y una coautoría investigador-
investigado donde el proceso es confrontado en la totalidad por
los propios afectados-protagonistas.

Sistematización de experiencias

Otro método distintivo en la investigación social en


América Latina ha sido la sistematización de experiencias. Las
primeras referencias de aplicación en la región datan de los

199
WILMER JOSÉ TÉLLEZ ACOSTA

setenta, prestando gran interés por los marcos interpretativos


en la intervención práctica de la realidad latinoamericana. El
proceso de sistematizar no refiere a cualquier acción, como
manifiestan Barnechea y Morgan (2010), sino a la que tiene
lugar en los programas y proyectos que trazan como objeto
una transformación frente a determinada situación. Una
experiencia es para Jara (2006) procesos vitales en constante
movimiento que combinan dimensiones objetivas y
subjetivas como percepciones, emociones, interpretaciones,
relaciones sociales. El sedimento reflexivo de un proceso
de cambio es el fundamento clave a sistematizar para hacer
comunicable el saber adquirido en la experiencia.
Sistematizar experiencias es cercana a la etnometodología
de Garfinkel, precisamente porque el interés recae en los
métodos empleados por los sujetos para abordar su vida
y realidad cotidiana. En la experiencia hay conocimiento,
y los cambios en la práctica muchas veces no son visibles
como consecuencia de los saberes que se van adquiriendo
(Barnechea y Morgan, 2010), y es allí donde el investigador
identifica los nuevos conocimientos que van surgiendo de
las acciones, un proceso reflexivo que permite sistematizar
y reconstruir nuevos componentes que intervendrán en una
práctica más “pulida”. En palabras de Barnechea y Morgan,
sistematizar experiencias se trata de comprender y explicar
situaciones que emergen de la práctica.
Planificación Estratégica Situacional (PES)

Es uno de los grandes métodos de intervención social.


Falabella (2010) señala que se trata de un proceso que
subordina la investigación a la acción, al igual que la
Matriz de Marco Lógico y el FODA; sin embargo, en la
PES se evidencia un aporte teórico desde la experiencia
latinoamericana que enfrenta la concepción tradicional-

200
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

normativa de planificación, esta última vista como una


ciencia de la acción, praxeología, o proceso de toma
de decisiones. La figura referencial en la materia, casi
obligatoria, es el chileno Carlos Matus.
En una oración llana, planificar es pensar antes de
actuar, y Matus (1984); amplía diciendo que es intentar
someter a la voluntad el curso de los acontecimientos a causa
de decisiones propias. Se trata de ser conductores más que
conducidos, y en la PES se reconoce “que sólo la conciencia
y fuerza del hombre colectivo puede encarnar tal voluntad
humana y ponerse frente a la corriente de los hechos para
desviar su curso hacia objetivos racionalmente decididos”
(p. 2). Entonces, es en los objetivos donde apunta la
planificación estratégica, haciendo viable la dimensión
normativa del debe ser. Planificar tradicionalmente es
agotarse en el plano del debe ser, como si las situaciones no
están en constante cambio.
Hay una vieja parábola para recrear el pensamiento
estratégico: un entrenador de futbol pide tiempo para
conversar la siguiente jugada con todo el equipo; saca su
tabla, marcador y empieza a explicar su plan: el portero se
la pasa al defensa, el defensa corre 5 metros y se la pasa
al otro defensa, este corre 10 metros diagonal y se la pasa
al medio campo, el medio campo se la pasa al delantero,
el delantero se aproxima a la arquería y mete el gol. Un
jugador levanta la mano y le pregunta al entrenador: “¿y
los del otro equipo no juegan?”. La moraleja es que muchas
veces planificamos centrados en el deber ser sin considerar
que las situaciones están en constante movimiento, que
puede haber escenarios y actores adversos que incidan en
que el plan pierda rápidamente validez. El pensamiento
estratégico considera los caminos que nos conducen a los
objetivos en medio de situaciones cambiantes.

201
WILMER JOSÉ TÉLLEZ ACOSTA

Para Matus, el pensamiento tradicional-normativo es


la causa de los magros resultados de la planificación en
América Latina (1984), en principio, porque no se trata de
un recetario (que funcionó quizá en otros países), de un
libro-plan, sino de una planificación que no puede alejarse
de la coyuntura política-económica-social, es decir, de los
cambios situacionales. Además, y aquí el valor científico,
como en una situación coexisten varios actores, no es
posible un diagnóstico único, sino una explicación múltiple
y distintiva que permita distinguir el fenómeno. Matus
(1985) expone cuatro momentos en la PES:
El momento explicativo: el actor que planifica está
permanentemente indagando sobre las oportunidades y
problemas que enfrenta e intentando explicar las causas
que lo generan. El momento normativo: el actor que planifica
diseña cómo debe ser la realidad o situación. Aquí el deber
ser es sólo un momento del proceso de planificación, y no
la totalidad del diseño como en la planificación tradicional-
normativa. El momento estratégico: parte de la pregunta:
¿cómo puedo construir viabilidad a mi diseño normativo?
El planificador no sólo diseña cómo deben ser las cosas,
sino también calcula cómo sortear los obstáculos que se
oponen al cumplimiento de ese diseño. El momento táctico-
operacional: Refiere a los cálculos que preceden y presiden la
acción. Su objeto es orientar cada paso que damos en el día
a día y evaluarlos en relación con la situación-objetivo.
Para concluir este apartado sobre métodos e investigación
en América Latina, he querido dejar evidencia de que la
sustancia histórica de nuestra realidad ha constituido un
motor de cambio; un conocimiento que pretende proyectarse
en una praxis que emerge desde la propia reflexión del sujeto,
en medio de situaciones complejas, adversas y cambiantes.
Desde esta perspectiva, y considerando las viejas tensiones

202
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

con la investigación positivista, así como el papel de la


participación en la investigación-acción, el científico es más
un acompañante que sistematiza los procesos cognitivos
que deja la práctica diaria de las personas. Pero también
es un acompañante de sus luchas de cambio, punto donde
el tecnicismo es insuficiente y la política empieza a tener
sentido como proceso estratégico en la correlación de fuerzas
sociales, y donde el científico debe actuar sin deslegitimar,
desde el ideologismo partidista, los intereses de la propia
comunidad.

Integración y conocimiento emergente


La concepción metodológica que demanda la
complejidad de los objetos sugiere caminar por senderos
distintos a los que se ha transitado anteriormente. Parece
desacertado, entonces, adoptar una metodología rígida que
se nos tiende como puente desde la literatura tradicional
—y formación académica universitaria—, más aún cuando
lo que perseguimos es un conocimiento sistémico sobre
estructuras cambiantes e inciertas. Advertimos, desde ya,
que la integración no es el camino si la entendemos como
una mera adopción de calles distintas a un mismo fin,
sería caer en el eclecticismo planteado por Beltrán (1985).
La integración es una estrategia que debe responder a las
demandas cognitivas del objeto, y se define mucho más allá
de nuestros talentos como investigadores.
Un albañil puede ser muy ducho con el martillo, pero
cuando se enfrenta al problema (objeto) se da cuenta de
que el meollo del asunto es desenroscar una tuerca aislada.
El objeto reclama de él no su principal habilidad, sino su
versatilidad para acoplar la herramienta con el problema.
Claro está, el albañil puede intentar desenroscar la tuerca
aislada con martillazos, y probablemente resuelva la

203
WILMER JOSÉ TÉLLEZ ACOSTA

situación. En el mundo de la investigación científica


sucede algo similar, el talento, habilidad o familiaridad con
ciertas técnicas o metodologías parecen ser los criterios
determinantes con que abordamos los objetos, pero puede
haber algo adicional, mucho más profundo: una postura
paradigmática. Eduardo Bericat (1998) señala al respecto
que existen múltiples modos globales de contemplar y
acceder a la realidad social, que afecta no sólo las posiciones
ontológicas, metateóricas, epistemológicas, sino también a
los enunciados científicos y técnicas empíricas.
Dentro de los supuestos de investigación en ciencias
sociales, Sautu, Boniolo, Dalle y Elbert (2005) señalan que
un paradigma es la orientación general de una disciplina,
define el modo de orientarse a aquellos elementos propios
del objeto que ha definido como su contenido temático
sustantivo. Sautu et al. (2005) sostienen, al igual que
Eduardo Bericat, el andamiaje ontológico, epistemológico,
axiológico y metodológico que sustentará el desarrollo de
investigación. Lo ontológico responde a la naturaleza de la
realidad (objetiva y subjetiva), lo epistemológico a la relación
entre el sujeto-objeto, lo axiomático al papel de los valores
en la investigación, y lo metodológico al diseño empírico
(operacionalización de variables, conceptos o categorías
emergentes, fiabilidad del instrumento, etc.).
A lo largo del texto, se ha detallado estos criterios
(ontológicos, epistemológicos, axiológicos, metodológicos)
dentro de dos paradigmas aparentemente opuestos, y
hasta contradictorios: cuantitativo-cualitativo. Nótese que
la historia de la ciencia ha reflejado un largo recorrido de
dos paradigmas que establecieron sus fronteras, como la
concepción avalorista y explicativa-causal en Durkheim,
en contraposición de los criterios de valor y significado de
la acción subjetiva social en la explicación-comprensiva de

204
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Weber. E incluso la permisividad intuitiva, inconsciente y


hasta metafísica del pensamiento complejo. Cada uno de
estos pisos paradigmáticos traza un protocolo metodológico
coherente verticalmente (Bericat, 1998), y sería inapropiado,
por ejemplo, plantearse una historia de vida para medir
algún concepto objetivamente, o realizar un cuestionario
cerrado para comprender a profundidad criterios subjetivos-
perceptivos de la realidad social.
El fundamento de una integración multimétodo se separa
de la lógica segregacionista, aquella que acepta la diversidad
de métodos y circunscribe su operatividad a determinados
problemas sin contemplar fusión alguna. La lógica de
integración recae precisamente en la utilidad de servirnos
de construcciones distintas para llegar más alto y ver más
lejos, reconociendo diferentes estructuras históricas que
sostienen sus dicotomías. Comenta Bericat (1998: 23): “Los
científicos sociales no pueden, a nuestro entender, seguir
admirando una sola construcción —o pirámide—, mientras
desprecian la otra”, tales construcciones están asentadas en
diferentes arenas de un mismo desierto, y sus cimas, aunque
estrechas, son diferentes entre sí.
En su libro Beyond Method, Gareth Morgan (1983, citado
en Bericat, 1998) presenta cinco posiciones de integración:
a) supremacía: pretende establecer una perspectiva como la
mejor, por encima de las demás, b) síntesis: intenta buscar
modos de combinación que maximicen las fortalezas
de ambas perspectivas y minimicen sus debilidades, c)
contingencia: el investigador analiza las circunstancias e
idiosincrasias del contexto y del fenómeno bajo estudio
para seleccionar entonces la perspectiva que mejor se
adapte, d) dialéctica: trata de aprovechar las diferencias en
tanto estímulo para construir en el futuro nuevos modos
de aprehensión de la realidad, e) vale todo: corresponde a

205
WILMER JOSÉ TÉLLEZ ACOSTA

la posición sostenida por Feyerabend, quien define que no


hay idea, por trasnochada y absurda que sea, que no sea
capaz de arrojar cierta luz sobre nuestro conocimiento de
la realidad social.
Bericat desecha tanto la supremacía como vale todo; la
primera, por su parcialidad, y la segunda, por su falta de rigor.
Desde nuestra perspectiva, la supremacía debe ser descartada
porque no hay método mejor que otro para el cumplimiento
de los objetivos de investigación, sino más apropiados, en caso
tal. La posición vale todo presenta tanta flexibilidad que puede
presentarse como una alternativa ante objetos complejos.
Entiendo la posición de Bericat de diferenciar flexibilidad de
anarquía metodológica, pero casos extremos pueden requerir
en ocasiones medidas extremas.
A continuación, se definen tres subtipos de estrategias
de integración multimétodos que sintetiza Eduardo
Bericat: complementación, combinación y triangulación.
La primera, se rige por el deseo de obtener dos imágenes
sobre un mismo tema, proporcionadas de acuerdo a la
respectiva aplicación de los métodos. Es un proceso
aditivo que presenta dos informes completamente
independientes. Se busca complementar ambas imágenes
para poder tener perspectivas variadas de la realidad. La
complementación presenta un mínimo de integración;
no existe solapamiento de los estudios.
La combinación trata de integrar subsidiariamente un
método con el otro. La aplicación del método A puede
alimentar el proceso del método B en cuanto a la calidad de
sus resultados. El método A tiene la función de compensar
debilidades del método B, pero sólo como potenciador
subsidiario. Es común, por ejemplo, encontrar cuestionarios
de preguntas cerradas con propósitos claros de medición,
pero dejar en algunos casos preguntas abiertas para obtener

206
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

algo de profundidad en respuestas de selección simple.


La información potencia el sentido de las respuestas del
cuestionario cerrado, es una estrategia subsidiaria para
alimentar la fase principal de la investigación, en este caso
cuantitativa.
Por último, está la estrategia de triangulación. No se trata
de una combinación subsidiaria de un método potenciador
de otro principal, tampoco de dos imágenes distintas sobre
un tema, sino del reconocimiento de un mismo e idéntico
aspecto de la realidad. Los métodos se implementan de
forma independiente y se enfocan en una misma parcela del
objeto, siendo aprehendido con instrumentos diferentes. En
la triangulación, el grado de integración es alto, se pretende
un solapamiento y convergencia de los resultados. La
principal bondad de la triangulación es reforzar la validez
de la investigación, ya que si los dos métodos presentan
imágenes similares de la realidad, existe mayor confianza
en los resultados. La aplicación de dos escalas actitudinales
sobre autoestima sería un ejemplo de triangulación.

Figura 6: Estrategias básicas de integración.


Fuente: Bericat (1998: 38).

207
WILMER JOSÉ TÉLLEZ ACOSTA

La triangulación es un término originalmente utilizado en


navegación y estrategias militares; su sentido es conseguir la
posición exacta de un objeto mediante múltiples referencias
de localización. Denzin (1978) presenta dos tipos de
triangulación en ciencias sociales: intermétodos (between-
methods) e intramétodos (within-methods). El primero,
está dirigido a integrar dos o más métodos para encontrar
congruencias y comparar datos de forma independiente.
Realizar observación participante y discusiones grupales para
estudiar el tema de participación comunitaria, es un ejemplo
que permitirá la comparación de datos y sustentar resultados
más confiables (complementación en Bericat). Mientras
que la triangulación intramétodos busca más bien integrar
una serie de opciones técnicas dentro del mismo protocolo
metodológico, como dos tipos de escalas cuantitativas,
observaciones múltiples o comparaciones grupales dentro
del enfoque cualitativo (triangulación en Bericat).
Cuando la triangulación se plantea una integración
multiparadigmática, debemos asegurar cierta consistencia
entre objetivos, teoría y diseño metodológico, sin ignorar
las dicotomías ontológicas, epistemológicas y axiológicas
pertinentes, entendiendo que la integración no es un
asunto de arbitrariedad, sino una estrategia que demanda
la propia complejidad del objeto. Aquí reside la versatilidad
del investigador frente a los retos de su campo.
Pareciese, en consecuencia con todo lo anterior, que cuando
la integración paradigmática, intermétodo o intramétodo
nos ofrece similares imágenes de un mismo objeto, legitima
nuestros resultados por no haber evidencia de contradicción,
y, por ende, valida el proceso investigativo. Pero cuando las
imágenes son disímiles, sería equiparable al fracaso. Nada
de esto es cierto. Si bien diferentes vías nos conducen a un
mismo lugar, podemos tener sólo evidencias de estar en

208
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

un punto del espacio, como el sentido de triangulación


en navegación: si dos métodos nos sugieren que estamos
en determinadas coordenadas, podemos tener confianza
de nuestra localización. En ciencias sociales, cuando la
integración genera antítesis, se requiere de un investigador que
reconcilie tales diferencias creativa y racionalmente, para que
pueda aprovechar la oportunidad de hacer emerger un nuevo
conocimiento con la superación sintética de contradicciones,
como en el pensamiento de Hegel.
La complejidad de los objetos hace muy poco probable
que dos miradas distintas sobre la realidad nos brinden
idénticas imágenes. Es la misma dinámica del fotógrafo que
se posiciona en diferentes ángulos para capturar imágenes de
un mismo objeto, sus fotos serán distintas, pero su potencial
holístico e integrador le permitirá reconstruir el objeto a
partir de aparentes contradicciones. Jick (1979) señala al
respecto que ante convergencias de resultados, la confianza
incrementa; y ante divergencias, surgen explicaciones
alternativas probablemente más complejas. La discrepancia
en el proceso de integración científica, más que un fracaso
de los resultados, será un fracaso del investigador si no logra
maniobrar dialécticamente los componentes dicotómicos
(resultados disímiles y construcción del objeto) del
conocimiento emergente.
Finalmente, cuando hablamos de integración científica, es
inevitable pensar por un momento en la interdisciplinariedad
científica. Más que estrategias de investigación o integración,
se trata de un nivel de conciencia que demanda la actual
ruptura disciplinaria, esas fronteras académicas formadas
con el auge de especialidades, porque los problemas de
investigación no se presentan en bloques disciplinarios,
como señala Martínez (1997), sino que sobrepasan
ordinariamente los métodos, técnicas, estrategias y teorías

209
WILMER JOSÉ TÉLLEZ ACOSTA

adoptadas desde nuestras áreas prácticas o recintos


disciplinarios.
En los estudios de sistemas complejos, dice Rolando
García (2006), “Ninguna investigación particular tiene la
capacidad de integrar diferentes disciplinas. Los procesos de
integración disciplinaria han significado replanteamientos
fundamentales que no se limitan a poner juntos (o a
separar) los conocimientos de diferentes dominios” (p. 23).
Agrega el autor que, además de no ser posible la integración
disciplinaria, tampoco es necesaria “puesto que el análisis
histórico de la ciencia permite poner en evidencia que las
diferentes disciplinas científicas se van integrando a lo largo
de su desarrollo” (p. 23).
En la práctica científica, es muy común la conformación
de grupos de trabajo interdisciplinarios como mecanismo de
integración teórico-metodológico, donde cada participante
trata de entender los procedimientos de trabajo de los otros,
enfocado en una meta común. Sin embargo, la esencia de los
objetos son naturalmente interdisciplinarios: el crimen, la
economía, la salud; es imposible pensarlos apropiadamente
desde nuestras parcelas, así la academia los haya segmentado,
atomizado desde su modelo educativo occidentalizado. En
el siglo XXI, el reto de la ciencia es mirar sobre las fronteras
disciplinarias y ver los objetos como algo más que la suma
de sus partes.
A modo de reflexión final general, puedo decir que la
principal antítesis de la ciencia es toda propuesta acabada de
conocimiento, pero también su otro extremo: el escepticismo
de creer imposible alcanzar la verdad, como decía Bertrand
Russell. La investigación científica y la propuesta de
integración metodológica tienen como eje central dar
respuestas más enérgicas y perspicaces ante los drásticos

210
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

movimientos de la sociedad contemporánea. Pensar en el


método único es tan riesgoso para la práctica empírica social
como la propuesta cognitiva acabada-dogmática y escéptica.
La pluralidad metodológica es la acción reactiva del cientista
ante la complejidad del objeto, pero también un instrumento
de libertad creativa, pues, como se dijo al comienzo, diseñar
una estrategia implica conciencia de la diversidad, quien
acepta la ruta única no tendrá posibilidades de diseñar el
traje ideal según la circunstancia.

211
WILMER JOSÉ TÉLLEZ ACOSTA

212
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

ANEXO
Martínez (1997, 95-115)

Postulados para una metodología estructural en las


ciencias humanas, denominador común de una serie de
métodos o estilos heurísticos: método hermenéutico, método
fenomenológico, método naturalista, método etnográfico, método
comprensivo, etc.

1. Ciencia es el conocimiento logrado a través de un


procedimiento rigurosamente sistemático y crítico.
2. El método es la elaboración y expresión práctica de la lógica.
3. Todos los métodos son invención del hombre, y no hay
método para inventar métodos.
4. El método ya no puede separarse de su objeto.
5. La estructura y la articulación de los procedimientos
metodológicos deben inspirarse en la naturaleza del proceso
mental del descubrimiento.
6. El instrumento básico de investigación es la personalidad
del investigador.
7. El proceso natural del conocer humano es hermenéutico:
busca el significado de los fenómenos a través de una
interpretación dialéctica o movimiento del pensamiento que
va del todo a las partes y de éstas al todo.
8. El proceso de investigación no se da en un vacío social:
el diseño, la naturaleza de las medidas y apreciaciones y
el reportaje de los resultados siempre son afectados por el
contexto personal y social del investigador.

213
WILMER JOSÉ TÉLLEZ ACOSTA

9. El objeto de estudio de las ciencias humanas no son los


“actos físicos” realizados por el hombre, sino las “acciones
humanas”, las cuales tienen un significado y un propósito, y
desempeñan una función.
10. La vida humana se presenta en “totalidades dinámicas y
estructuradas” orientadas hacia una meta.
11. En las ciencias humanas, el método, así como sus técnicas
y procedimientos, deben estar dirigidos al descubrimiento
de las estructuras o subestructuras psicológicas o sociales de
una persona o un grupo de personas.
12. La “vida humana” se expresa de varias formas: por medio
de expresiones corporales (faciales, textuales, posicionales,
etc.) acciones, lenguaje hablado o escrito, expresiones
artísticas, etcétera.
13. El comportamiento humano y, en general, toda acción
humana, tiene su significado pleno en el contexto de la
estructura biológica, psicológica y social del que forma parte.
14. La investigación en las ciencias humanas debe hacerse
a partir del contexto real, ecológico, en que se dan los
fenómenos. Los experimentos resultan inadecuados, ya que
siempre crean, en forma inevitable, “otra realidad”.
15. Los fenómenos humanos requieren para su completa
expresión un cierto tiempo; por eso, su naturaleza exige
un estudio longitudinal, diacrónico; no son suficientes los
estudios seccionales, transversales, sincrónicos.
16. Ningún método o técnica metodológica descubrirá
estructuras universales aplicables a todo un grupo o cultura,
sin haber descubierto antes las estructuras de sujetos o
grupos particulares.
17. La actividad categorizadora y conceptualizadora de la
mente humana comienza y termina con apreciaciones o
evaluaciones cualitativas; si las convierte en cuantitativas
(a través de escalas, relaciones matemáticas y parámetros

214
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

estadísticos), para su correcta interpretación deberá


convertirlas de nuevo en cualitativas.
18. El nivel de confiabilidad de un método (estabilidad a
través del tiempo, replicabilidad con los mismos resultados),
en las ciencias humanas, se basará, sobre todo, en el grado
de concordancia entre diferentes observadores, evaluadores
o jueces.
19. El nivel de validez de un método o una técnica
metodológica se juzgará por el grado de coherencia lógica
interna de sus resultados y por la ausencia de contradicciones
con resultados de otras investigaciones o estudios bien
establecidos.
20. La evidencia “racional” es la última instancia de
validación de toda prueba o “verificación”.
21. La explicación de una conducta humana se realiza
integrándola en estructuras más comprehensivas a través de
una plena descripción de las condiciones y relaciones en que
se da. En algunas ciencias humanas se aspira, además, lograr
una “comprensión” de la conducta.
22. El conocimiento, e incluso el dominio de “la metodología”,
no es condición suficiente ni tampoco necesaria para realizar
investigaciones exitosas.
23. La comprensión de la naturaleza de los procesos
heurísticos nos aconseja promover una gran libertad de
procedimientos metodológicos y de estilos cognoscitivos.

215
WILMER JOSÉ TÉLLEZ ACOSTA

216
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

REFERENCIAS

Aguilera del Pino, A. (2001). Tablas de contingencia


bidimensionales. Madrid: La Muralla.
Ander-Egg, E. (1975). Introducción a las técnicas de
investigación social para trabajadores sociales (4ta edición).
Buenos Aires: Hvmanitas.
---------- (2004). Método y técnicas de investigación social
II. La ciencia: su método y la expresión del conocimiento
científico. Buenos Aires: Grupo Editorial Lumen.
Aron, R. (2004). Las etapas del pensamiento sociológico.
Madrid: Tecnos.
Ayer, A. (1984). Lenguaje, verdad y lógica. Barcelona (España): Orbis.
Babbie, E. (1999). The basics of social research. New York:
Wadsworth Publishing Company.
Bacon, F. (1980). Novum Organon (1620). Barcelona: Orbis.
Barnechea, M. y Morgan, M. (2010). La sistematización de
experiencias: producción de conocimientos desde y para
la práctica. Tend. Retos Nos. 15, 97-107.
Beltrán, M. (1980). Cuestiones previas acerca de la ciencia
de la realidad social. En M. García, J. Ibáñez y F. Alvira

217
WILMER JOSÉ TÉLLEZ ACOSTA

(Comp). El análisis de la realidad social. Métodos y técnicas


de investigación (pp. 17-29). Madrid: Alianza.
---------- (1985). Cinco vías de acceso a la realidad social.
Revista Española de Investigación Sociológica No. 29, 7-42.
Bericat, E. (1998). La integración de los métodos
cuantitativos y cualitativos en la investigación social.
Barcelona (España): Ariel.
Bertanlanffy, L. (1987). Historia y situación de la teoría
general de sistemas. En L. Bertanlanffy, W. Ross y G.
Weinberg, Tendencias en la teoría general de sistemas
(3a reimpresión) (pp. 29-53). Madrid: Alianza
Universidad.
Blalock, H. (1971). Introducción a la investigación social.
Buenos Aires: Amorrortu.
Blummer, H. (1969). Symbolic interactionism, perspective and
method. University of California Press.
Botero, J. (2003). Fenomenología. En L. Hoyos (Ed.).
Lecciones de filosofía (pp. 311-332). Bogotá: Universidad
Nacional de Colombia.
Bourdieu, P., Chamboredon, J.-C, y Passeron, J.-C. (2013).
El oficio del sociólogo. Presupuestos epistemológicos. México
D.F.: Siglo XXI.
Braudel, F. (1970 ). La historia y las ciencias sociales (2a
edición). Madrid: Alianza.
Bunge, M. (1980). Epistemología. Curso de actualización.
México, D. F: Siglo XXI .
----------. (1981). La ciencia, su método y su filosofía. Buenos
Aires: Siglo Veinte.
Burns, T. (1992). Erving Goffman. London: Routledge.

218
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Campbell, D. y Stanley, J. (1973). Diseños experimentales y


cuasi-experimentales en la investigación social. Buenos
Aires: Amorrortu.
Campbell, T. (1999). Siete teorías de la sociedad. Madrid:
Cátedra.
Carmines, E y Zeller, R. (1979). Reliability and validity
assessment. Londres: SAGE publications.
Carr, E. (1984). ¿Qué es la historia? (2a edición). Barcelona
(España): Ariel.
Comte, A. (1980). Curso de filosofía positiva (lecciones 1 y 2)
[1842]. Barcelona (España): Orbis.
---------- (1980). Discurso sobre el espíritu positivo (1844).
Barcelona: Orbis.
Contreras, R. (2002). La Investigación Acción Participativa
(IAP): revisando sus metodologías y potencialidades.
En J. Durston y F. Miranda (Comp). Experiencias y
metodología de la investigación participativa (pp. 9-18).
Santiago de Chile: CEPAL.
Córdova, V. (2013). Historias de vida. Una metodología
alternativa para ciencias sociales. Caracas: Tropykos.
Cortada, N. y Carro, J. (1972). Estadística aplicada (5a.
edición). Buenos Aires: Editorial Universitaria de Buenos
Aires (EUDEBA).
Denzin, N. (1978). The research act. A theoretical
introduction to sociological methods (2nd. edition).
New York: McGraw-Hill, Inc.
Descartes, R. (2011). Discurso del método [1637]. Madrid: Alianza.
Diéz, J. y Moulines, U. (1999). Fundamentos de filosofía de la
ciencia (2a. edición). Barcelona (España): Ariel.

219
WILMER JOSÉ TÉLLEZ ACOSTA

Durkheim, E. (1976). El Suicidio [1897]. Madrid: Akal Editor.


---------- (2010). Las reglas del método sociológico [1895].
Buenos Aires: Editorial La Pleyade.
Fals-Borda, O. (1986). El problema de cómo investigar la
realidad para transformarla. Bogotá: Tercer Mundo.
Ferraroti, F. (1981). Storia e storie di vita. Roma: Laterza.
---------- (2007). La historia de vida como método .
Convergencia. Revista de Ciencias Sociales, 14(44), 15-40.
Feyerabend, P. (1970). Contra el método. Esquema de una teoría
anarquista del conocimiento. Barcelona (España):Orbis.
Gadamer, H.-G. (2011). El problema de la conciencia histórica
(3a. edición). Madrid: Tecnos (grupo ANAYA).
Galeano, E. (2000). Las venas abiertas de América Latina
(decimosexta edición). Madrid: Siglo XXI.
García Morente, M. (1978). Lecciones preliminares de filosofía.
México, D. F.:Editores Mexicanos Unidos , S.A.
García, E., Gil, J. y Rodríguez, G. (2000). Análisis Factorial.
Cuadernos de estadística 7. Madrid: La Muralla, S.A. /
Hespérides.
García, R. (2006). Sistemas complejos. Conceptos, método
y fundamentación epistemológica de la investigación
interdisciplinaria. Barcelona (España): Gedisa.
Garfinkel, H. (1967). Studies in ethnomethodology. New Jersey:
Prentice-Hall.
Goffman, E. (1959). The presentation of self in everyday life.
New York: Doubleday Anchor Books.
Grande, I. y Abalcal, E. (1989). Métodos multivariantes para la
investigación comercial. Barcelona (España): Ariel.

220
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Groves, R., Fowler, F., Couper, M., Lepkowski, J., Singer, E. ,


y Tourangeau, R. (2004). Survey Methodology. New Jersey:
Wiley-Interscience.
Guber, R. (2001). La etnografía, método, campo y reflexividad.
Bogotá: Grupo Norma.
Güell, A. (1979). Hipótesis y variables. En R. Boudon y P.
Lazarsfeld, Metodología de las ciencias sociales. Conceptos e
índices (volumen I) (pp. 47-62). Barcelona (España): Laía.
Hammersley, M. y Atkinson, P. (1994). Etnografía. Métodos
de investigación. Barcelona: Paidós.
Hegel, G. W. (1995). Lecciones sobre la historia de la filosofía I
(5a. edición). México, D.F.: Fondo de Cultura Económica.
Heritage, J. (1984). Garfinkel and ethnomethodology.
Cambridge: Polity Press.
Hernández, R., Fernández, C, y Baptista, P. (2010).
Metodología de la investigación (5a. edición). Lima: Mc
Graw-Hill / Interamericana Editores.
Horkheimer, M. (1973). Crítica a la razón instrumental (2a.
edición). Buenos Aires: SUR.
Horkheimer, M. y Adorno, T. (1985). La industria cultural.
En D. Bell et al., Industria cultural y sociedad de masas
(1a. reimpresión), (pp. 177-230). Caracas: Monte Ávila
Editores.
Hurtado, J. (2010). El proyecto de investigación. Comprensión
holística de la metodología y la investigación. Caracas:
Quirón/Sypal.
Ibáñez, J. (1980). Perspectivas de la investigacion social: el
diseño en la perspectiva estructural. En M. García, J. Ibáñez,
y F. Alvira (Comp), El análisis de la realidad social. Métodos y
técnicas de investigación (págs. 31-65). Madrid: Alianza.

221
WILMER JOSÉ TÉLLEZ ACOSTA

Institute for Economics and Peace (2016). Positive Peace


Report: a compilation of the leading research on positive peace
and resilience. Sydney.
Janoska-Bendl, J. (1972). Max Weber y la sociología de la
historia. Buenos Aires: SUR.
Jara, O. (2006). Sistematización de experiencias y corrientes
innovadoras del pensamiento latinoamericano. Una
aproximación histórica. Revista La Piragua No. 23, 7-16.
Jick, T. (1979). Mixing qualitative and quantitative methods:
triangulation in Action. Administrative Science Quarterly,
Vol 24, 602-611.
Johansen, O. (2006). Introducción a la teoría general de sistemas.
México, D.F.: Limusa.
Krotz, E. (1991). Viaje, trabajo de campo y conocimiento
antropológico. ALTERIDADES 1 (1), 50-57.
Kuhn, T. (1971). La estructura de las revoluciones científicas.
México, D. F.: Fondo de Cultura Económica.
Lazarsfeld, P. (1979). De los conceptos a los índices
empíricos. En R. Boudon y P. Lazarsfeld, Metodología de
las ciencias sociales. Conceptos e índices (Volumen I). (pp 34-
46). Barcelona (España): Laía.
Lederman, L. (1990). Assessing educational effectiveness:
the focus group interview as a technique for data
collection. Communication Education, 39(2), 117-127.
Lenin, V. (1976). Marx / Engels [1918]. Barcelona (España): LAIA.
López Casuso, R. (2009). Cálculo de probabilidades e
inferencia estadística (5a. edición). Caracas: Universidad
Católica Andrés Bello.
Magnusson, D. (1975). Teoría de los tests. México, D.F.: Trillas.

222
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Malinoswki, B. (1989). Diario de campo en Melanesia.


Barcelona (España): Júcar .
---------- (1986). Los argonautas del pacífico occidental (Tomo
I). Barcelona (España): Planeta-De Agostini, S. A.
Marías, J. (2005). Historia de la filosofía. Madrid: Alianza.
Márquez, T. (1988). Max Weber: metodología y ciencias sociales.
Caracas: División de publicaciones de la Universidad
Central de Venezuela.
Martínez, M. (1997). El paradigma emergente. Hacia una nueva
teoría de la racionalidad científica. México, D.F.: Trillas.
---------- (1998). La investigación cualitativa etnográfica en
educación. Manual teórico-práctico. México, D.F.: Trillas.
---------- (2002). Hermenéutica y análisis del discurso como
método de investigación social. PARADIGMA, Vol. XXIII
(1), 1-13.
---------- (2006). La investigación cualitativa (síntesis
conceptual). Rev. Invest. en Psicol. 9(1), 123-146.
---------- (2015). Comportamiento humano: nuevos métodos
de investigación. México, D.F.: Trillas.
Marx, C. (2003). Manuscritos de economía y filosofía [1844].
Madrid: Alianza.
Matus, C. (1984). Política y plan. Caracas: Publicaciones del
IVEPLAN.
---------- (1985). Planificación, libertad y conflicto
(Fundamentos de la reforma del sistema de planificación en
Venezuela). Caracas: Cuadernos del IVEPLAN.
Mead, G. H. (1964). On social phychology. The University of
Chicago Press.

223
WILMER JOSÉ TÉLLEZ ACOSTA

Mora y Araujo, M. (1971). Introducción. En M. Mora y


Araujo y otros, Medición y construcción de índices (págs.
9-27). Buenos Aires: Nueva Visión. Cuadernos de
Investigación Social.
Moran, D. (2000). Introduction to phenomenology. London:
Routledge (Taylor y Francis Group).
Moreno, A. (2004). “Historias de vida” e investigación. En
M. Martínez, Ciencia y arte en la metodología cualitativa
(pp. 65-74). México, D. F.: Trillas.
----------. (2015). El método de historias de vida. En M.
Martínez, Comportamiento humano: nuevos métodos de
investigación (pp. 259-284). México, D.F.: Trillas.
Morin, E. (2009). El Método 1. La naturaleza de la naturaleza
(8a. edición). Madrid: Cátedra.
Mutchnick, R. y Berg, B. (1996). Research methods for
the social sciences: practice and applications. Boston:
Allyn y Bacon.
Namakforoosh, M. (2000). Metodología de la investigación
(2da. edición). México, D.F.: Limusa.
Núñez Tenorio, J. R. (1976). Introducción a la c iencia: filosofía, ciencia
y método científico. Valencia (Venezuela): Vadell hermanos.
Oppenheimer, R. (1956). Analogy in science. American
psychologist No 11, 127-135.
Ortega, F. (2008). El método Delphi, prospectiva en Ciencias
Sociales a través del análisis de un caso práctico. Revista Escuela
de Administración de Negocios Nro. 64 (sep-dic), 31-54.
Palella, S. y Martins, F. (2008). Metodología de investigación
cuantitativa. Caracas: Fondo Editorial de la Universidad
Pedagógica Experimental Libertador (FEDUPEL).

224
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Pardinas, F. (1970). Metodología y técnicas de investigación


en ciencias sociales. Introducción elemental. México, D.
F.:Siglo XXI.
Pardo, R. (2012). La verdad como método: la concepción
heredada y la ciencia como producto. En H. Palma y R. Pardo
(Eds.). Epistemología de las ciencias sociales: Perspectivas y
problemas de las representaciones científicas de lo social (pp.
43-74). Buenos Aires: Editorial Biblos / Estudios.
Parsons, T. (1937). The structure of social action. New York:
McGraw-Hill.
---------- (1990). Prolegomena to a theory of social
institutions. American Socology Review, 319-333.
Pérez, C. (2005). Técnicas Estadísticas con SPSS 12. Aplicaciones
para el análisis de datos. Madrid: Pearson Educación, S.A.
Pérez-Tamayo, R. (2001). Ciencia básica y ciencia aplicada.
Salud Pública de México, 43 (4) julio-agosto, 368-372.
Piaget, J. (1973). La situación de las ciencias del hombre dentro
del sistema de las ciencias. En J. Piaget, P. Lazarsfeld, W.
Mackenzie y otros, Tendencias de la investigación en ciencias
sociales (pp. 44-120). Madrid: Alianza / Unesco.
Popper, K. (1967). Conjeturas y refutaciones. El desarrollo del
conocimiento científico. Barcelona (España): Paidós.
Posada, J. (2006). La subjetividad en las ciencias sociales,
una cuestión ontológica y no epistemológica. Cinta
moebio, No. 25, 8-16.
Prigogine, I. (2008). Las leyes del caos. Barcelona (España):
Drakontos.
Ramírez, R. (2005). Dialéctica de la verificación de hipótesis.
Caracas: CDCH-UCV.

225
WILMER JOSÉ TÉLLEZ ACOSTA

Ramírez, T. (2011). Ciencia, método y sociedad: contribución


a la crítica del empirísmo en la investigación social. Caracas:
Biblioteca EBUC-UCV.
Rapoport, A. (1987). Los usos del isomorfismo matemático en
la teoría general de sistemas. En L. Bertalanffy, W. Ross y G.
Weinberg, Tendencias en la teoría general de sistemas (3era
reimpresión) (pp. 54-94). Madrid: Alianza Universidad.
Ritzer, G. (2001). Teoría sociológica clásica (3ra. edición).
Madrid: Mc Graw Hill.
Rojas, B. (2010). Investigación cualitativa. Fundamentos y praxis
(2da. edición). Caracas: Fondo Editorial de la Universidad
Pedagógica Experimental Libertador (FEDUPEL).
Rossi, P. (1973). Introducción. En M. Weber, Ensayo
sobre metodología sociológica (pp. 9-37). Buenos Aires:
Amorrortu.
Rousseau, J.-J. (2005). El contrato social (1762). Madrid:
Biblioteca Edaf, S.A.
Russell, B. (1983). El conocimiento humano. Barcelona (España): Orbis.
Sabino, C. (1992). El proceso de investigación. Caracas:
Panamo.
Sautu, R., Boniolo, P., Dalle, P. y Elbert, R. (2005). Manual de
metodología. Construcción del marco teórico, formulación
de los objetivos y elección de la metodología. Buenos Aires:
Consejo Latinoamericano de Ciencias Sociales (CLACSO).
Schuster, F. (2002). Del naturalismo al esenario postempirista.
En F. Schuster (Comp.), Filosofía y métodos de las ciencias
sociales (pp. 33-58). Buenos Aires: Manantial.
Schütz, A. (1975). On phenomenology and social relations.
Chicago: The University of Chicago Press.

226
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

Simiand, F. (2003). Método histórico y ciencia social.


EMPIRIA. Revista de Metodología de Ciencias Sociales, No.
6, 163-202.
Singleston, R., Straits, B., Straits, M. y McAllister, R. (1988).
Approaches to social research. Oxford: Oxford University Press.
Spatz, C. (2001). Basic Statistic. 7 Tales of distributions (7th
edition). Beltmon: Wadsworth/Thomson Learning.
Stevens, S. (1946). On the theory of scales of measurement.
Science 103(2684), 677-680.
Strauss, A. y Corbin, J. (2002). Bases de la investigación
cualitativa. Técnicas y procedimientos para desarrollar la
teoría fundamentada. Medellín: Editorial Universidad de
Antioquia.
Tamayo, M. (1995). El proceso de la investigación científica (3a.
edición). México: Editorial Limusa.
Téllez, W. (2014). Crimen y castigo: una mirada desde las
líneas editoriales en prensa y TV. Revista Comunicación y
Criminalidad 1 (1), 4-24.
Trochim, W. (2001). The research methods knowledge base (2a.
edition). Cincinati: Cornelly University.
Vanasco, A. (1973). Vida y obra de Hegel. Barcelona (España):
Biblioteca Universal Planeta.
Velasco, H. y Díaz de Rada, Á. (2006). La lógica de la
investigación etnográfica. Un modelo de trabajo para
etnógrafos de escuela (5a. edición). Madrid: Trotta.
Vivanco, M. (2006). Diseño de muestras en investigación
social. En M. Canales (Ed.). Metodologías de la investigación
social. Introducción a los oficios (pp. 141-167). Santiago de
Chile: LOM Edciones.

227
WILMER JOSÉ TÉLLEZ ACOSTA

Wagner, H. (1970). Fenomenologia e relações sociais: textos


escolhidos de Alfred Schütz. Río de Janeiro: Zahar.
Weber, M. (1973). Ensayos sobre metodología sociológica.
Buenos Aires: Amorrortu.
---------- (2006). Conceptos sociológicos fundamentales.
Madrid: Alianza.
---------- (2007). Sociología del poder. Los tipos de dominación.
Madrid: Alianza.
Weiss, N. (2002). Elementary statistics instructor´s edition (5th
edition). Boston: Pearson Education, Inc.
Wilson, V. (1997). Focus groups: A useful qualitative
method for educational research? British Educational
Research Journal, 23(2), 209-224.
Wolf, M. (1979). Sociologías de la vida cotidiana (2a. edición).
Madrid: Cátedra.
Zeitlin, I. (2006). Ideología y teoría sociológica. Buenos Aires:
Amorrortu.

228
INVESTIGACIÓN CIENTÍFICA E INTEGRACIÓN METODOLÓGICA

229
WILMER JOSÉ TÉLLEZ ACOSTA

Este libro se terminó de imprimir


en el año 2017.
Se utilizó tipografía de la familia Minion Pro.

230