Vous êtes sur la page 1sur 33

Pilares de la investigación científica

La investigación en las Ciencias del Comportamiento, las Ciencias Sociales y las


Ciencias de la Salud se construye sobre tres pilares básicos (Kline, 2011; Pedhazur y
Smelkin, 1991):

 La MEDIDA se refiere a la identificación y definición de las variables


(observables o latentes) objetode investigación y la generación de datos empíricos
(numéricos o categóricos) que son la entrada de los procedimientos de análisis
estadístico.
 El DISEÑO es un plan estructurado para abordar un problema de investigación
con el objeto de obtener resultados rigurosos, libres de sesgo y generalizables, con
el menor esfuerzo posible.
 El ANÁLISIS concierne a la estimación de parámetros y la prueba de hipótesis
estadísticas acerca del objetivo de investigación planteado.

Fases del proceso de investigación


Siguiendo al profesor Arnau (1990, pp. 12-18), se describe el proceso de investigación
distinguiendo tres fases o niveles en su aplicación, en correspondencia con las secciones
del informe de investigación recomendados por la APA:

 NIVEL TEÓRICO-CONCEPTUAL, donde se introduce el problema de


investigación y se delimitan los objetivos e hipótesis (primarias y secundarias)
susceptibles de comprobación empírica en relación con el marco conceptual
donde se generó el problema.
 NIVEL TÉCNICO-METODOLÓGICO, donde se describe el diseño de la
investigación, incluyendo la definición de las variables experimentales
(independiente/s y dependiente/s) y de las variables extrañas o covariantes
(observadas y no observadas), los procedimientos de control de las variables
extrañas, la selección y características de los sujetos participantes junto con el
tratamiento ético de los mismos, el proceso de asignación de participantes a
grupos, los instrumentos usados y el procedimiento específico seguido para la
recogida de los datos empíricos.
 NIVEL ESTADÍSTICO-ANALÍTICO, donde se utilizan los procedimientos
descriptivos e inferenciales del análisis estadístico o se ajustan modelos
estadísticos (enfoque del modelado estadístico) con el objeto de realizar
inferencias de tipo causal o asociativo sobre los datos empíricos recogidos. La
normativa APA recomienda que, además de los resultados de las pruebas
estadísticas para los efectos observados, se incluyan también medidas de
magnitud del efecto, intervalos de confianza y una descripción (y a ser posible,
tratamiento) de los datos perdidos (missing data ).

Existe de hecho una última fase, que retorna de nuevo a la primera (el nivel
conceptual), donde los resultados obtenidos se comparan con los objetivos planteados y
la/s hipótesis (primarias y secundarias) de investigación, articulándolos dentro de la teoría
que generó el problema. Es imprescindible que la interpretación de los resultados tenga
en cuenta todas las limitaciones detectadas en el estudio.

Estrategias para la investigación empírica


Pueden distinguirse tres estrategias claramente diferenciadas para realizar
investigación empírica en Psicología (véase Ato et al., 2013b, Light et al., 1990), donde
cada una de las estrategias se caracteriza por formular hipótesis específicas, por generar
tipos de diseño determinados y por la consecución de cierto grado de control:

La estrategia manipulativa configura un conjunto de los diseños que son típicos de


la investigación experimental, pues se utilizan alguna forma de hipótesis causal, que se
formula genéricamente con el argumento ’X es la causa de Y’. Se requieren al menos dos
grupos de unidades experimentales, un grupo que recibe el tratamiento (también llamado
GRUPO EXPERIMENTAL o GE) y otro que no lo recibe o al que se administra un
fármaco alternativo (llamado GRUPO CONTROL o GC).

Las estrategias asociativas y descriptivas conforman un conjunto de los diseños que


son típicos de la investigación no experimental. La primera utiliza alguna forma de
hipótesis de covariación, que se formulan con el argumento ’X se relaciona
funcionalmente con Y ’, mientras que en la segunda, en general, no se formulan hipótesis
(causales o de covariación), sino que se limitan a describir las características de las
variables que son objeto de interés.

Unidad experimental, unidad de observación y unidad de muestreo


 Unidad experimental, que es el elemento más pequeño al que puede asignarse un
tratamiento.
 Unidad de observación, es simplemente el elemento más pequeño sobre el que se
registra (o se mide) la respuesta.
 Unidad de muestreo, que es un elemento seleccionado de una población de origen.

Inferencia causal
Se somete a prueba una hipótesis que asume una relación causa-efecto entre al
menos un Tratamiento o programa de intervención (la supuesta causa) y una Respuesta
(el supuesto efecto).

Kline (2009) sintetiza la propuesta de varios autores y señala que deben cumplirse
tres condiciones antes de poder hablar de causalidad:

 Antecedencia temporal: la supuesta causa debe ocurrir antes que el supuesto


efecto.
 Asociación: hay una covariación observable entre la presunta causa y el presunto
efecto.
 Aislamiento: no hay ninguna otra explicación posible (variables extrañas) sobre
la presunta relación entre la presunta causa y el presunto efecto.

El experimento como modelo de investigación


El diseño experimental típico posee dos propiedades distintivas esenciales, a saber:

 MANIPULACIÓN activa de (al menos) una variable independiente por parte del
investigador. La manipulación se entiende como facultad del investigador para
variar a voluntad los niveles de tratamiento (programa o intervención) que
representa la variable independiente.
 ALEATORIZACIÓN, o utilización de una regla de asignación aleatoria para
distribuir las unidades experimentales entre los niveles de tratamiento, evitando
la presencia de sesgos.

Para profundizar en las diferencias entre diseño experimental, cuasiexperimental y


no experimental, Judd y Kenny (1981a) han distinguido entre tres diferentes REGLAS
DE ASIGNACIÓN de unidades experimentales a los tratamientos:

 Regla de asignación aleatoria: las unidades experimentales se asignan al azar a los


grupos. En esta situación se asume que los diferentes grupos de unidades que
reciben los tratamientos son equivalentes antes de administrar el tratamiento.
 Regla de asignación no aleatoria, pero sí conocida: las unidades experimentales
se asignan a los tratamientos en función de una puntuación de corte (p.e., la
puntuación obtenida en un pretest). En este caso, los grupos no se asumen iguales,
pero la probabilidad de asignación de unidades experimentales, y por ende las
diferencias iniciales entre los grupos, se conoce perfectamente.
 Regla de asignación no aleatoria ni conocida: no se conoce, ni puede conocerse
con exactitud, cómo difieren entre sí los grupos de unidades antes de administrar
el tratamiento.

Estas reglas asumen la existencia de una variable de asignación, que representa una
probabilidad conocida e igual para todas las unidades experimentales (o sea, una
constante) en el caso (a), una puntuación de corte que representa la pertenencia a grupo
(o sea, una variable binaria) en el caso (b) y una variable extraña desconocida en el caso
(c).

Aunque se recomienda la aplicación de las dos etapas aleatorias en la investigación


experimental, la selección aleatoria se emplea sólo para extraer al azar un conjunto de
unidades experimentales de una población, mientras que la asignación aleatoria se utiliza
para distribuir al azar las unidades entre los dos grupos. Con la primera se persigue que
las unidades experimentales sean representativas de su población de origen, objetivo
fundamental de los diseños selectivos, y afecta en lo fundamental a la validez externa de
la investigación, pero no es común su aplicación en diseños experimentales. Con la
segunda se persigue que las unidades experimentales se distribuyan aleatoriamente entre
los grupos para asegurar la igualdad de los grupos ante de la administración del
tratamiento, evitando así los SESGOS DE SELECCIÓN, objetivo primario del diseño
experimental, y afecta en lo fundamental a la validez interna.

En el diseño experimental más simple, donde sólo hay un grupo de unidades


experimentales que recibe tratamiento (GE) y otro grupo que no lo recibe (GC), la
asignación aleatoria de unidades experimentales al GE y GC reparte de forma homogénea
las unidades experimentales entre los dos grupos antes de la administración del
tratamiento. Como consecuencia, es bastante probable (en particular si se dispone de un
tamaño muestral numeroso) equilibrar los grupos en todas las variables extrañas,
observables o no observables. Éste es un contexto óptimo para estimar efectos de
tratamiento libres de sesgo sistemático.

Técnicas de control de variables extrañas

En ocasiones el efecto de una variable extraña puede distorsionar sistemáticamente


los resultados en un grupo/tratamiento respecto de otro, produciendo entonces sesgo
sistemático, y en otras ocasiones puede afectar a la variación de la variable dependiente
incrementando la varianza de error, o sea, la variación no atribuible al efecto de la/s
variable/s independiente/s. Sesgo sistemático y error aleatorio pueden incluso actuar de
forma combinada, generando el peor de los escenarios posibles para interpretar un efecto
de tratamiento. De ahí la importancia de que el investigador sepa reconocer la presencia
de confundidores e introduzca técnicas de control apropiadas para corregir sus efectos.

Las técnicas de control de variables extrañas difieren en función de si los efectos de


tratamiento tienen naturaleza transversal (o sea, se estiman en una ocasión temporal
determinada), o longitudinal (o sea, se estiman a lo largo del tiempo). Hay tres técnicas
básicas de control de naturaleza transversal:

 ELIMINACIÓN de una variable extraña, que consiste simplemente en suprimirla


de la situación experimental.
 CONSTANCIA, que implica emplear un único Nivel de la variable extraña.
 EQUILIBRACIÓN, cuyo objeto es distribuir el efecto de las variables extrañas
entre los grupos.

La equilibración es la técnica de control más común para corregir o reducir el sesgo


de selección, o sea, la existencia de grupos no iguales antes de comenzar el tratamiento.
Hay dos formas básicas para intentar igualar el efecto de las variables extrañas entre los
grupos: mediante el control experimental, que son un amplio conjunto de técnicas que se
introducen durante la etapa de diseño de la investigación, o mediante el control
estadístico, que son técnicas de control que se introducen durante la etapa de análisis
estadístico de los datos.

La más importante técnica de control experimental es la ALEATORIZACIÓN, que


se asume tanto más efectiva cuanto mayor es el tamaño muestral y más objetiva es la
forma concreta de aplicarla. En el caso ideal, su principal virtud es la distribución de todas
las variables extrañas (observadas y no observadas) entre los grupos de tratamiento, no
afectando diferencialmente a un grupo respecto de otro. Su principal desventaja es que la
composición de los grupos mediante aleatorización usualmente genera grupos de
participantes muy heterogéneos.

Desgraciadamente, para muchos problemas de investigación no es aplicable o no es


ético aplicar la técnica de aleatorización. Si el investigador conoce qué variables extrañas
pueden estar interviniendo en tales casos, hay dos técnicas de control por equilibración
que pueden acaparar su atención para intentar reducir el error aleatorio y minimizar el
sesgo sistemático, a saber:

 BLOQUEO, que consiste en formar conjuntos homogéneos de participantes para


cada uno de los niveles de al menos una variable extraña y asignarlos después (de
forma aleatoria o no aleatoria) a las condiciones de tratamiento dentro de cada
bloque. Esta acción produce como resultado la introducción de la variable extraña
(categorizada) como un nuevo factor en el diseño de investigación. Si la
asignación de participantes de un conjunto homogéneo a los grupos es aleatoria el
diseño será experimental; si no es aleatoria, el diseño será cuasiexperimental
(siempre que sea el experimentador quien defina la naturaleza de los grupos) o
comparativo (si los grupos ya se han definido y el experimentador no tiene control
alguno sobre su producción).
 EMPAREJAMIENTO, que trata de conseguir, disponiendo de una muestra de
participantes para un grupo (p. ej., el GE), participantes con las mismas
características en un conjunto de variables extrañas para asignarlos a otro/s
grupo/s (p. ej., un GC). El emparejamiento es la técnica de control experimental
más versátil, porque se puede practicar tanto de forma individualizada (o sea,
emparejando caso a caso para formar los grupos) como de forma grupal o
generalizada (o sea, emparejando los grupos en su conjunto).

Sin embargo, a veces el control experimental no es posible o no se ha podido conseguir


un control efectivo. Cuando se utilizan grupos naturales, la única forma de
emparejamiento posible es el emparejamiento post-hoc (o sea, la constitución de un grupo
de control una vez que el tratamiento ha tenido lugar). Como alternativa al control
experimental, el control estadístico persigue el mismo objetivo que la equilibración, pero
utilizando procedimientos estadísticos para ajustar la desigualdad entre los grupos de
tratamiento. Las técnicas de control estadístico más relevantes son:

 Residualización, que consiste en controlar la influencia de al menos una variable


extraña conocida eliminando de la variable de respuesta lo que explica la variable
extraña. Se practica comúnmente con los coeficientes de correlación (y
determinación) parcial y semiparcial. Por ejemplo, R2Y X.Z es el coeficiente de
determinación parcial entre X e Y una vez que se ha eliminado de X y de Y el
efecto de Z, y R2Y (X.Z) es el coeficiente de determinación semiparcial entre X e Y
una vez eliminado de X, pero no de Y, el efecto de Z. La idea se generaliza a más
de una variable extraña.
 Ajuste de regresión mediante ANCOVA es la técnica de control estadístico más
usada. Consiste en introducir una (o más) variable/s extraña/s de naturaleza
numérica (continua o discreta), con el objeto de controlar su efecto eliminando la
varianza que explica de la variable de respuesta. La selección de las variables
extrañas y su relevancia como variables de control son la cuestión crucial para que
este procedimiento sea efectivo.

Validez de la investigación

La ventaja de la investigación experimental es la creación de unas condiciones


óptimas para posibilitar la inferencia causal. Su debilidad fundamental es el grado en que
se puede generalizar tal inferencia. Otras alternativas a la investigación no experimentales
se proponen lograr el máximo acercamiento posible a las propiedades de la investigación
experimental. Para valorar la calidad de la inferencia y el grado de generalización de la
misma, Shadish et al. (2002), desarrollando ideas inicialmente planteadas por Campbell
y Stanley (1963, 1966), y posteriormente elaboradas por Cook y Campbell (1979),
propusieron un esquema de la validez de la investigación que distingue cuatro tipos de
validez, los dos primeros relacionados con la validez de la inferencia causal y los dos
últimos con la generalización de la inferencia. El esquema de la validez se articula con
los tres pilares que consideramos entorno a las mismas cuestiones que un investigador
debe plantearse cuando realiza una investigación.

 Validez de la conclusión estadística: Se refiere esencialmente a dos inferencias


estadísticas relacionadas que pueden afectar a la relación entre las supuestas
variables causa y efecto, en concreto: 1) ¿covarían las variables causa y efecto?,
y 2) en caso de que covaríen, ¿cuál es la magnitud empírica de su covariación?

**Para la primera de las inferencias, se puede concluir de forma incorrecta que causa y
efecto covarían cuando de hecho no covarían (en cuyo caso se comete un error tipo I) o
concluir también incorrectamente que no covarían cuando de hecho sí lo hacen (en cuyo
caso se comete un error tipo II). Para la segunda de las inferencias, al obtener una
estimación de la covariación, se puede subestimar o sobreestimar la magnitud de la
covariación.
El medio más establecido de determinar si causa y efecto covarían es el contraste
de hipótesis, donde se compara una hipótesis nula contra una hipótesis alternativa y se
determina mediante una prueba estadística la probabilidad de rechazar la hipótesis nula
bajo el supuesto de que es verdadera. Por ejemplo, si se desea utilizar la prueba de t para
determinar si difieren las medias empíricas de dos grupos (GE y GC), la hipótesis nula
establece que la diferencia entre las medias es nula en la población de donde tales medias
empíricas se han extraido. La prueba produce un valor empírico del estadístico t (que se
asume distribuido según una distribución t de Student), y se acompaña de un argumento
de probabilidad (por ejemplo, p = .015), que es la probabilidad de que una diferencia
absoluta entre medias como la empíricamente obtenida haya ocurrido por azar en una
población donde se asume que la diferencia es nula.

Siguiendo una sugerencia de Fisher (1926), es común describir este resultado de


forma dicotómica, es decir, como estadísticamente significativo si p ≤ .05, o
estadísticamente no significativo si p > .05, dado un criterio prefijado de α = .05. Del
mismo modo se decide con otros criterios comúnmente aceptados (por ejemplo, el criterio
α =.01).

Una larga controversia ha existido en torno a las pruebas de significación, y la


elección de los criterios del .05 y del .01 para aceptar o rechazar hipótesis nulas es usual
dentro del enfoque NHST (Null Hypothesis Significance Testing’). Pero en lugar de
presentar un argumento de significación basado en criterios establecidos, actualmente se
prefiere presentar los resultados bajo la forma de tamaños de efecto e intervalos de
confianza en torno a los estimadores de los parámetros y los tamaños del efecto.

**Cabe notar que la conclusión estadísticamente significativo es un argumento que sólo


hace referencia a la probabilidad de una hipótesis, pero no a la relevancia práctica del
resultado obtenido. Todas las pruebas estadísticas se construyen utilizando como
numerador la diferencia observada (en el caso más simple, una diferencia de medias) y
como denominador el error típico de la diferencia. En general, cuanto mayor sea la
diferencia observada mayor será la probabilidad de ser significativa, pero la conclusión
depende también del error típico, que a su vez depende del tamaño muestral. Si el tamaño
muestral es pequeño, el error típico tiende a ser grande y más grande habrá de ser la
diferencia entre medias para resultar significativa; si el tamaño muestral es grande, el
error típico tiende a ser pequeño y más pequeña será la diferencia entre medias para
resultar significativa.
No es aconsejable fundamentar la interpretación de los resultados de investigación
en su significación estadística, ya que pueden obtenerse resultados significativos con
diferencias de escasa importancia científica o práctica y resultados no significativos con
diferencias de alta relevancia científica y práctica. Por tanto, a la hora de valorar los
resultados de una investigación debe considerarse también si el tamaño de la diferencia
es científica o prácticamente relevante. La interpretación conjunta de la significación
estadística y la magnitud de la diferencia permite aproximar la significación práctica del
resultado. Esta es la razón por la que resulta más conveniente un informe de los resultados
a base de un intervalo de confianza (que incluye una estimación puntual de la diferencia
y su error típico) más que un argumento de probabilidad, que concluir si la prueba resultó
o no significativa.

 Validez interna: Utilizamos el término validez interna para hacer referencia a


inferencias acerca de si la covariación observada en un efecto (Y) se ha producido
debido a cambios en el nivel o intensidad de una variable explicativa (X) y no por
otras fuerzas causales alternativas. La forma más común de inferir de causa a
efecto consiste en eliminar esas otras causas posibles (terceras variables, variables
extrañas, confundidores o variables espurias) que podrían haber ocurrido en
presencia o en ausencia de la variable explicativa y ser responsables el efecto
observado.

La presencia de variables espurias o de confundido en una investigación reducirá


la validez interna de la investigación, mientras que su ausencia se asocia con alta
validez interna. La asignación aleatoria de unidades experimentales a
tratamientos es por ello el procedimiento metodológico más efectivo para lograr
que un diseño tenga alta validez interna, porque elimina los sesgos de selección y
genera una situación donde es improbable que existan efectos de confundido.
Entre sus propiedades destacan (Anderson et al., 1980, p. 32-35) las siguientes:

— La asignación aleatoria implica en general una distribución similar de las


características de los participantes en cada grupo, antes de administrar el
tratamiento, y por tanto facilita la inferencia causal en mayor medida cuanto
mayor sea el tamaño muestral.

— La asignación aleatoria elimina el sesgo de selección. Si una muestra


seleccionada de una población se asigna a grupos mediante una regla de
asignación aleatoria, es bastante improbable que los sesgos de selección puedan
intervenir. Aunque es posible que ambos grupos no queden perfectamente
equilibrados en alguna característica antes de administrar el tratamiento, esta
posibilidad es tanto menor cuanto mayor es el tamaño de los grupos.

— La asignación aleatoria proporciona un fundamento para la inferencia


estadística al equilibrar los grupos antes de la administración de los tratamientos.

Validez de la conclusión estadística y validez interna se relacionan estrechamente.


Ambas se ocupan de analizar las operaciones de causa y efecto respecto de los
constructos que se supone que representan.

 Validez de constructo: Las teorías psicológicas se definen en términos de


conceptos teóricos y constructos hipotéticos que no pueden ser directamente
observados o medidos. Con el fin de ser sometidos a prueba empírica, los
constructos abstractos tienen que ser traducidos en indicadores tangibles
susceptibles de observación y medida. Este proceso se denomina
operacionalización. La validez de constructo se refiere precisamente a la
capacidad de generalizar de indicadores tangibles a sus constructos de referencia,
en otras palabras, representa una forma de generalizabilidad de los resultados
observados de un estudio empírico al marco conceptual en que se inserta.
 Validez externa: Se refiere a la cuestión de si un efecto observado en un contexto
de investigación puede ser observado en otros contextos, con diferentes
participantes, con otros tratamientos y respuestas distintos y con diferentes
procedimientos de investigación. Tiene que ver con la replicabilidad empírica del
fenómeno, es decir, con la posibilidad de que pueda ser reproducido en las mismas
condiciones en que originalmente se produjo.
Se ocupa de aquellas situaciones donde suelen producirse interacciones
estadísticas que generan inferencias incorrectas de generalización de los
resultados de un estudio a diferentes personas, contextos, tratamientos y
respuestas. En tales situaciones, la investigación sólo es representativa de las
personas, contextos, tratamientos y respuestas empleados, lo que limita
severamente su generalidad.
Planteamiento del problema

Consiste en describir de manera amplia la situación objeto de estudio, ubicándola


en un contexto que permita comprender su origen, relaciones e incógnitas por responder.

Formulación del problema

Es la concreción del planteamiento en una pregunta precisa y delimitada en cuanto


a espacio, variables y población.

Características:

 Se debe formular en forma de pregunta y obviar términos que impliquen juicios


de valor.
 La pregunta no debe originar respuestas como un simple si o un no.
 La respuesta a la pregunta debe aportar un nuevo conocimiento.
 Debe existir la posibilidad de ser respondido mediante procedimientos empíricos.
 Puede referirse al comportamiento de una variable o la relación entre dos o más
variables.

Objetivos de investigación

Es un enunciado que expresa lo que se desea indagar y conocer para responder a un


problema planteado.

Características de los objetivos de investigación:

 Precisan las variables o dimensiones que serán medidas.


 Delimitan el problema de la investigación.
 Se redactan comenzando con un verbo en infinitivo.

Tipos de objetivos de investigación:

 Objetivo general: Expresa el fin concreto de la investigación en correspondencia


directa con la formulación del problema.
 Objetivos específicos: Indican con precisión los conceptos, variables o
dimensiones que serán objeto de estudio. Se derivan del objetivo general y
contribuyen al logro de éste.
Hipótesis

Es una suposición que expresa la posible relación entre dos o más variables, la cual
se formula para responder tentativamente a un problema o pregunta de investigación.
Orientan la investigación, indicando al investigador dónde debe iniciar su labor de
verificación mediante la recolección de los datos o para generar nuevas teorías.

Las hipótesis se desprenden de la teoría, es decir, no surgen de la simple


imaginación sino que se derivan de un cuerpo de conocimientos existentes que le sirven
de respaldo (Arias, Fidias; 2004).

Hipótesis de investigación: Es la suposición que se aspira verificar o comprobar.


También se le denomina hipótesis de trabajo. Éstas se clasifican en:

 Explicativas: Expresan la posible causa de un hecho.

Ejemplo: “A fue ocasionado por B”

 Predictivas: Plantean el posible efecto o consecuencia de un hecho. Deben


redactarse empleando verbos en futuro:
Ejemplo: La aplicación del tratamiento X disminuirá el nivel de colesterol en la
sangre."
 Comparativas: Contrastan resultados o características de grupos en condiciones
diferentes.
o Direccional: Indica la tendencia de los resultados.
Ejemplo: "El grupo A obtendrá mayor puntaje que el grupo B."
o No direccional: No indica tendencia, sólo expresa la posible diferencia entre
los resultados esperados.
Ejemplo: "Existirá una diferencia entre el puntaje del grupo A y el puntaje
del grupo B."
 Correlacionales: suponen una posible relación estadística entre variables
cuantitativas.
Ejemplos: "A mayor X, mayor Y." "A menor X, mayor Y."
 Descriptivas: indican una probable relación no causal entre variables cualitativas.
Ejemplo: "A diferencia de las mujeres, los varones prefieren ocupar su tiempo
libre en actividades deportivas."
Hipótesis alternativas: Son aquellas que plantean opciones distintas a la hipótesis de
trabajo o de investigación.

Hipótesis nula: Es la que niega lo supuesto en la hipótesis de investigación. En el caso


de comparación de grupos, expresa que no existen diferencias significativas entre los
resultados obtenidos por éstos. Así mismo es contraria a la hipótesis no direccional.

¿Cómo redactar las hipótesis?

Mientras la formulación del problema adopta la forma interrogativa, las hipótesis se


redactan de manera afirmativa, excepto la hipótesis nula, que niega la hipótesis de
investigación. Claro está, dicha afirmación, como toda hipótesis, debe ser sometida a
prueba para poder llegar a una conclusión.

Ejemplo de hipótesis de investigación:

Hi: "El grupo A obtendrá mayor puntaje en la prueba de razonamiento numérico


que el grupo B."

Ejemplo de hipótesis nula:

Ho: "No existirá diferencia entre el puntaje del grupo A y del grupo B en la prueba
de razonamiento numérico.

Además, tenga presente las siguientes recomendaciones para la redacción de


cualquier tipo de hipótesis:

 Evite emplear adjetivos que impliquen juicios de valor, por


 Incluya las variables identificadas en la formulación del problema y en los
objetivos específicos.
 Pueden ser expresadas en términos conceptuales u operacionales.
Conceptos básicos de muestreo

Concepto de población

Una característica del conocimiento científico es la generalidad, de allí que la


ciencia se preocupe por extender sus resultados de manera que sean aplicables a muchos
casos similares o de la misma clase. En este sentido, una investigación puede tener como
propósito el estudio de un conjunto numeroso de objetos, individuos, e incluso
documentos. A dicho conjunto se le denomina población.

La población, o en términos más precisos población objetivo, es un conjunto finito


o infinito de elementos con características comunes para los cuales serán extensivas las
conclusiones de la investigación. Ésta queda delimitada por el problema y por los
objetivos del estudio.

Concepto de muestra y tipos de muestreo:

Cuando por diversas razones resulta imposible abarcar la totalidad de los elementos
que conforman la población accesible, se recurre a la selección de una muestra.

La muestra es un subconjunto representativo y finito que se extrae de la población


accesible. En este sentido, una muestra representativa es aquella que por su tamaño y
características similares a las del conjunto, permite hacer inferencias o generalizar los
resultados al resto de la población con un margen de error conocido.

Para seleccionar la muestra se utiliza una técnica o procedimiento denominado


muestreo. Existen dos tipos básicos de muestreo: Probabilístico o aleatorio y no
probabilístico.

Muestreo probabilístico o aleatorio: es un proceso en el que se conoce la probabilidad


que tiene cada elemento de integrar la muestra. Este procedimiento se clasifica en:

o Muestreo al azar simple: procedimiento en el cual todos los elementos tienen la


misma probabilidad de ser seleccionados. Dicha probabilidad, conocida
previamente, es distinta de cero (0) y de uno (1).
Ejemplo: Valiéndose de la lista de alumnos, el docente asigna un número a cada
uno. Luego todos los números se introducen en una caja para extraer, por sorteo,
los integrantes de la muestra.
o Muestreo al azar sistemático: se basa en la selección de un elemento en función
de una constante K. De esta manera se escoge un elemento cada k veces.
Ejemplo: Para una población de 120 individuos, se define una muestra integrada
por 30 sujetos. La constante K obtenida al azar es igual a 4. Luego se asigna un
número a cada uno de los 120 individuos y se calcula el valor de inicio con la
siguiente fórmula: N/n, entonces 120/30= 4. Esto significa que comenzaremos
seleccionando el número 4 al que se le sumará la constante K=4, y así
sucesivamente hasta obtener los treinta individuos que conformarán la muestra
definitiva: 4, 8, 12, 16, 20…
o Muestreo estratificado: consiste en dividir la población en subconjuntos cuyos
elementos posean características comunes, es decir, estratos homogéneos en su
interior. Posteriormente se hace la escogencia al azar en cada estrato.
Ejemplo: En una institución de educación superior, se divide la población por
carreras o especialidades, las cuales conformarán los estratos. Después se efectúa
la selección aleatoria en cada una de ellas. Muestreo por conglomerados: parte de
la división del universo en unidades menores denominadas conglomerados. Más
tarde se determinan los que serán objeto de investigación o donde se realizará la
selección.

Muestreo no probabilístico: Es un procedimiento de selección en el que se desconoce


la probabilidad que tienen los elementos de la población para integrar la muestra. Éste se
clasifica en:

o Muestreo casual o accidental: es un procedimiento que permite elegir


arbitrariamente los elementos sin un juicio o criterio preestablecido.
Ejemplo: Un encuestador se ubica en un sector y aborda a los transeúntes que
pasan por el lugar. Lógicamente, las personas que no circulen por la zona, carecen
de toda probabilidad para integrar la muestra.
o Muestreo intencional u opinático: en este caso los elementos son escogidos con
base en criterios o juicios preestablecidos por el investigador. Ejemplo: Para un
estudio sobre calidad de la educación, previamente, se establecen como criterios
de selección de la muestra los siguientes:
-Mínimo de 20 años de experiencia en el campo educativo.
-Poseer título de postgrado.
-Haber ocupado un cargo directivo.
Por supuesto, la muestra la integrarán sólo aquellos que cumplan con las
condiciones anteriores.
o Muestreo por cuotas: se basa en la elección de los elementos en función de ciertas
características de la población, de modo tal que se conformen grupos o cuotas
correspondientes con cada característica, procurando respetar las proporciones en
que se encuentran en la población.
Ejemplo: Se establecen como características importantes para un sondeo de
opinión, el sexo y la edad de la población. Luego se procederá a seleccionar cuotas
de hombres, mujeres, jóvenes y adultos.
La ciencia. Su método y su filosofía

Conocimiento científico: Conocimiento racional, sistemático, verificable y por


consiguiente falible que permite la reconstrucción conceptual del mundo que es cada vez
más amplia, profunda y exacta.

Ciencias formales:
Son racionales, sistemáticas y verificables, pero no son objetivas; no nos dan
información acerca de la realidad ni se ocupan de los hechos. La lógica y la matemática
tratan de entes ideales; cuya existencia radica en la mente humana. Los objetos materiales
son numerables, pero no son números; tampoco son números puros (abstractos) sus
cualidades o relaciones. Los números no existen fuera de nuestros cerebros, y aun allí
dentro existen al nivel conceptual, y no al nivel fisiológico. Lo mismo vale para la lógica
formal: algunas de sus partes pueden hacerse corresponder a aquellas entidades psíquicas
que llamamos pensamientos.

A los lógicos y matemáticos no se les da objetos de estudio: ellos construyen sus


propios objetos. La lógica y la matemática, por ocuparse de inventar entes formales y de
establecer relaciones entre ellos, se llaman a menudo ciencias formales, precisamente
porque sus objetos no son cosas ni procesos, sino formas en las que se puede verter un
surtido ilimitado de contenidos.

La matemática es empleada como herramienta para realizar la más precisa


reconstrucción de las complejas relaciones que se encuentran entre los hechos y entre los
diversos aspectos de estos. Semejante aplicación de las ciencias de la forma pura a la
inteligencia del mundo de los hechos, se efectúa asignando diferentes interpretaciones a
los objetos formales, en otras palabras formalizan enunciados fácticos. En suma, la lógica
y la matemática establecen contacto con la realidad a través del puente del lenguaje.

Por otro lado, el método por el cual se ponen a prueba los enunciados verificables
de las ciencias formales se contenta con la lógica para demostrar rigurosamente sus
teoremas. Cuando se demuestra un teorema lógico o matemático no se recurre a la
experiencia: el conjunto de postulados, definiciones, reglas de formación de las
expresiones dotadas de significado, y reglas de inferencia deductiva —en suma, la base
de la teoría dada—, es necesaria y suficiente para ese propósito. La demostración de los
teoremas no es sino una deducción: es una operación confinada a la esfera teórica. La
matemática y la lógica son, en suma, ciencias deductivas.
En matemática la verdad consiste en la coherencia del enunciado dado con un
sistema de ideas admitido previamente: por esto, la verdad matemática no es absoluta
sino relativa a ese sistema. Más aún las teorías matemáticas abstractas, esto es, que
contienen términos no interpretados (signos que pueden adquirir distintos significados)
pueden desarrollarse sin poner atención al problema de la verdad. Solo las conclusiones
(teoremas) tendrán que ser verdaderas: los axiomas mismos pueden elegirse a voluntad.
La batalla se habrá ganado si se respeta la coherencia lógica, esto es, si no se violan las
leyes del sistema de lógica que se ha convenido en usar.

Ciencias fácticas

Las ciencias fácticas necesitan más que la lógica formal para confirmar sus
conjeturas porque en primer lugar, ellas no emplean símbolos vacíos (variables lógicas)
que no son verdaderas ni falsas, sino tan sólo símbolos interpretados. En segundo lugar,
la racionalidad —esto es, la coherencia con un sistema de ideas aceptado previamente—
es necesaria pero no suficiente para los enunciados fácticos; en particular la sumisión a
algún sistema de lógica es necesaria pero no es una garantía de que se obtenga la verdad.

Los enunciados de las ciencias fácticas deben ser verificables en la experiencia, sea
indirectamente (en el caso de las hipótesis generales), sea directamente (en el caso de las
consecuencias singulares de las hipótesis). Únicamente después que haya pasado las
pruebas de la verificación empírica podrá considerarse que un enunciado es adecuado a
su objeto.

Por otro lado, el conocimiento fáctico, aunque racional, es esencialmente probable


porque la naturaleza misma del método científico impide la confirmación final de las
hipótesis fácticas. La inferencia científica es una red de inferencias deductivas
(demostrativas) y probables (inconcluyentes), en otras palabras, la demostración es
completa y final; la verificación es incompleta y por eso temporaria.

En resumidas cuentas, la coherencia es necesaria pero no suficiente en el campo de


las ciencias de hechos: para anunciar que un enunciado es (probablemente) verdadero se
requieren datos empíricos (proposiciones acerca de observaciones o experimentos). En
última instancia, sólo la experiencia puede decirnos si una hipótesis relativa a cierto grupo
de hechos materiales es adecuada o no. El mejor fundamento de esta regla metodológica
que acabamos de enunciar es que la experiencia le ha enseñado a la humanidad que el
conocimiento de hecho no es convencional, que si se busca la comprensión y el control
de los hechos debe partirse de la experiencia. Pero la experiencia no garantizará que la
hipótesis en cuestión sea la única verdadera: sólo nos dirá que es probablemente
adecuada.

Los rasgos esenciales del tipo de conocimiento que alcanzan las ciencias de la
naturaleza y de la sociedad son la racionalidad y la objetividad. Por conocimiento racional
se entiende que es teórico, esto quiere decir que está constituido por conceptos, juicios y
raciocinios que se organizan en un conjunto ordenado de proposiciones de acuerdo con
algún conjunto de reglas lógicas con el fin de producir nuevas ideas (inferencia
deductiva). Que el conocimiento científico de la realidad sea objetivo significa que
concuerda aproximadamente con su objeto buscando alcanzar la verdad fáctica; y que
verifica la adaptación de las ideas a los hechos recurriendo a un comercio peculiar con
los hechos (observación y experimento), intercambio que es controlable y hasta cierto
punto reproducible.

1) El conocimiento científico es fáctico: parte de los hechos, los respeta hasta cierto
punto,y siempre vuelve a ellos. La ciencia intenta describir los hechos tal como son. No
siempre es posible, ni siquiera deseable, respetar enteramente los hechos cuando se los
analiza, y no hay ciencia sin análisis. El investigador produce modificaciones sobre el
objeto que investiga, no aprehende su objeto tal como es, sino tal como queda modificado
por sus propias operaciones; sin embargo, en todos los casos tales cambios son objetivos.
Más aún, en todos los casos el investigador intenta describir las características y el monto
de la perturbación que produce en el acto del experimento; procura, en suma estimar la
desviación o "error" producido por su intervención activa.

2) El conocimiento científico trasciende los hechos: descarta los hechos, produce


nuevos hechos, y los explica. La investigación científica no se limita a los hechos
observados: los científicos exprimen la realidad a fin de ir más allá de las apariencias. El
conocimiento científico racionaliza la experiencia en lugar de limitarse a describir; la
ciencia explica los hechos por medio de hipótesis (en particular, enunciados de leyes) y
sistemas de hipótesis (teorías). Los científicos conjeturan lo que hay tras los hechos
observados, y de continuo inventan conceptos que carecen de correlato empírico, aun
cuando presumiblemente se refieren a cosas, cualidades o relaciones existentes
objetivamente, se infieren su existencia a partir de hechos experimentables y tales
conceptos son significativos tan sólo en ciertos contextos teóricos.
No son los hechos por sí mismos sino su elaboración teórica y la comparación de
las consecuencias de las teorías con los datos observacionales, la principal fuente del
descubrimiento de nuevos hechos.

Para elaborar conocimiento fáctico no se conoce mejor camino que el de la ciencia. El método de la
ciencia no es, por cierto, seguro; pero es intrínsecamente progresivo, porque es autocorrectivo: exige la
continua comprobación de los puntos de partida, y requiere que todo resultado sea considerado como
fuente de nuevas preguntas. para el partidario de la filosofía científica todo es problemático: todo
conocimiento fáctico es falible (pero perfectible),
la filosofía científica favorece la elaboración de técnicas específicas en cada campo, con la única
condición de que estas técnicas cumplan las exigencias esenciales del método científico en lo que respecta
a las preguntas y a las pruebas.

Los enunciados fácticos confirmados se llaman usualmente "datos empíricos"; se


obtienen con ayuda de teorías y son a su vez la materia prima de la elaboración teórica.
los científicos no consideran su propia experiencia individual como un tribunal
inapelable; se fundan, en cambio, en la experiencia colectiva y en la teoría.
Los resultados de la ciencia son generales, tanto en el sentido de que se refieren a clases de objetos
como en que están, o tienden a ser incorporados en síntesis conceptuales llamadas teorías.
La prescripción de que las hipótesis científicas deben ser capaces de aprobar el
examen de la experiencia es una de las reglas del método científico.
Las revoluciones científicas no son descubrimientos de nuevos hechos aislados, ni
son perfeccionamientos en la exactitud de las observaciones, sino que consisten en la
sustitución de hipótesis de gran alcance (principios) por nuevos axiomas, y en el
reemplazo de teorías enteras por otros sistemas teóricos.
la ciencia crea lenguajes artificiales inventando símbolos; a estos signos se les
atribuye significados determinados por medio de reglas de designación. Los símbolos
básicos serán tan simples como sea posible, pero podrán combinarse conforme a reglas
determinadas para formar configuraciones tan complejas como sea necesario (las leyes
de combinación de los signos que intervienen en la producción de expresiones complejas
se llaman reglas de formación);

3) La ciencia es analítica: la investigación científica aborda problemas


circunscriptos, uno a uno, y trata de descomponerlo todo en elementos (no necesariamente
últimos o siquiera reales). Los problemas de la ciencia son parciales y así son también,
por consiguiente, sus soluciones, pero, a medida que la investigación avanza, su alcance
se amplía.

La investigación comienza descomponiendo sus objetos a fin de descubrir el


"mecanismo" interno responsable de los fenómenos observados. Pero el desmontaje del
mecanismo no se detiene cuando se ha investigado la naturaleza de sus partes; el próximo
paso es el examen de la interdependencia de las partes, y la etapa final es la tentativa de
reconstruir el todo en términos de sus partes interconectadas.
El análisis no acarrea el descuido de la totalidad; lejos de disolver la integración, el
análisis es la única manera conocida de descubrir cómo emergen, subsisten y se
desintegran los todos. La ciencia no ignora la síntesis: lo que sí rechaza es la pretensión
irracionalista de que las síntesis pueden ser aprehendidas por una intuición especial, sin
previo análisis.

4) La ciencia es especializada: La unidad del método científico, su aplicación


depende, en gran medida, del asunto; esto explica la multiplicidad de técnicas y la relativa
independencia de los diversos sectores de la ciencia.

5) El conocimiento científico procura la precisión y claridad: Los problemas se


formulan de manera clara, definiendo mayoría de sus conceptos incluyéndolas en
esquemas teóricos: Las definiciones son convencionales, pero no se las elige
caprichosamente: deben ser convenientes y fértiles. Por otro lado, la ciencia procura
siempre medir y registrar los fenómenos para la descripción y la inteligencia de los
sucesos y procesos. Sin embargo, la formulación matemática, deseable como es, no es
una condición indispensable para que el conocimiento sea científico; lo que caracteriza el
conocimiento científico es la exactitud en un sentido general antes que la exactitud
numérica o métrica, la que es inútil si media la vaguedad conceptual.

6) El conocimiento científico es comunicable: no es inefable sino expresable, no es


privado sino público. El lenguaje científico comunica información a quienquiera haya
sido adiestrado para entenderlo. La comunicabilidad es posible gracias a la precisión; y
es a su vez una condición necesaria para la verificación de los datos empíricos y de las
hipótesis científicas, multiplicando las posibilidades de su confirmación o refutación.

7) El conocimiento científico es verificable: debe aprobar el examen de la


experiencia. A fin de explicar un conjunto de fenómenos, el científico inventa conjeturas
fundadas de alguna manera en el saber adquirido. Sus suposiciones pueden ser cautas o
audaces simples o complejas; en todo caso deben ser puestas a prueba. El test de las
hipótesis fácticas es empírico, esto es, observacional o experimental. La experimentación
puede calar más profundamente que la observación, porque efectúa cambios en lugar de
limitarse a registrar variaciones: aísla y controla las variables sensibles o pertinentes.

La ciencia fáctica es por esto empírica en el sentido de que la comprobación de sus


hipótesis involucra la experiencia; pero no es necesariamente experimental. Las técnicas
de verificación evolucionan en el curso del tiempo; sin embargo, siempre consisten en
poner a prueba consecuencias particulares de hipótesis generales (entre ellas, enunciados
de leyes). La verificabilidad hace a la esencia del conocimiento científico; si así no fuera,
no podría decirse que los científicos procuran alcanzar conocimiento objetivo.

8) La investigación científica es metódica: no es errática sino planeada. Todo trabajo


de investigación se funda sobre el conocimiento anterior, y en particular sobre las
conjeturas mejor confirmadas. Más aun, la investigación procede conforme a reglas y
técnicas que han resultado eficaces en el pasado pero que son perfeccionadas
continuamente, no sólo a la luz de nuevas experiencias, sino también de resultados del
examen matemático y filosófico

Los datos aislados y crudos son inútiles y no son dignos de confianza; es preciso
elaborarlos, organizarlos y confrontarlos con las conclusiones teóricas. El método
científico no provee recetas infalibles para encontrar la verdad: sólo contiene un conjunto
de prescripciones falibles (perfectibles) para el planeamiento de observaciones y
experimentos, para la interpretación de sus resultados, y para el planteo mismo de los
problemas.

9) El conocimiento científico es sistemático: una ciencia no es un agregado de


informaciones inconexas, sino un sistema de ideas conectadas lógicamente entre sí. Todo
sistema de ideas caracterizado por cierto conjunto básico (pero refutable) de hipótesis
peculiares, y que procura adecuarse a una clase de hechos, es una teoría.

El fundamento de una teoría dada no es un conjunto de hechos sino, más bien, un


conjunto de principios, o hipótesis de cierto grado de generalidad (y, por consiguiente, de
cierta fertilidad lógica). Las conclusiones (o teoremas) pueden extraerse de los principios,
sea en la forma natural, o con la ayuda de técnicas especiales que involucran operaciones
matemáticas.

10) El conocimiento científico es general: ubica los hechos singulares en pautas


generales, los enunciados particulares en esquemas amplios. El científico se ocupa del
hecho singular en la medida en que éste es miembro de una clase o caso de una ley; más
aún, presupone que todo hecho es clasificable y legal. No es que la ciencia ignore la cosa
individual o el hecho irrepetible; lo que ignora es el hecho aislado.

En efecto, uno de los principios ontológicos que subyacen a la investigación


científica es que la variedad y aun la unicidad en algunos respectos son compatibles con
la uniformidad y la generalidad en otros respectos. El científico moderno descarta los
detalles al procurar descubrir los rasgos comunes a individuos que son únicos en otros
respectos, al buscar las variables pertinentes (o cualidades esenciales) y las relaciones
constantes entre ellas (las leyes), el científico intenta exponer la naturaleza esencial de las
cosas naturales y humanas.

La generalidad del lenguaje de la ciencia no tiene, sin embargo, el propósito de


alejar a la ciencia de la realidad concreta: por el contrario, la generalización es el único
medio que se conoce para adentrarse en lo concreto, para apresar la esencia de las cosas
(sus cualidades y leyes esenciales).

11) El conocimiento científico es legal: busca leyes (de la naturaleza y de la cultura)


y las aplica. El conocimiento científico inserta los hechos singulares en pautas generales
llamadas "leyes naturales" o "leyes sociales". Tras el desorden y la fluidez de las
apariencias, la ciencia fáctica descubre las pautas regulares de la estructura y del proceso
del ser y del devenir. En la medida en que la ciencia es legal, es esencialista: intenta legar
a la raíz de las cosas. Encuentra la esencia en las variables relevantes y en las relaciones
invariantes entre ellas. Hay leyes de hechos y leyes mediante las cuales se pueden explicar
otras leyes. Es decir, los enunciados de las leyes se organizan en una estructura de niveles.

Ciertamente, los enunciados de las leyes son transitorios. Si se considera a las leyes
como las pautas mismas del ser y del devenir, entonces debieran cambiar junto con las
cosas mismas; por lo menos, debe admitirse que, al emerger nuevos niveles, sus
cualidades peculiares se relacionan entre sí mediante nuevas leyes.

12) La ciencia es explicativa: intenta explicar los hechos en términos de leyes, y las
leyes en términos de principios. Los científicos no se conforman con descripciones
detalladas; además de inquirir cómo son las cosas, procuran responder al por qué. La
ciencia deduce proposiciones relativas a hechos singulares a partir de leyes generales, y
deduce las leyes a partir de enunciados nomológicos aún más generales (principios). Solía
creerse que explicar es señalar la causa, pero en la actualidad se reconoce que la
explicación causal no es sino un tipo de explicación científica. La explicación científica
se efectúa siempre en términos de leyes, y las leyes causales no son sino una subclase de
las leyes científicas.

La historia de la ciencia enseña que las explicaciones científicas se corrigen o


descartan sin cesar. ¿Significa esto que son todas falsas? En las ciencias fácticas, la verdad
y el error no son del todo ajenos entre sí: hay verdades parciales y errores parciales. Las
explicaciones científicas no son finales pero son perfectibles.

13) El conocimiento científico es predictivo: Trasciende la masa de los hechos de


experiencia, imaginando cómo puede haber sido el pasado y cómo podrá ser el futuro. La
predicción es, en primer lugar, una manera eficaz de poner a prueba las hipótesis; pero
también es la clave del control y aun de la modificación del curso de los acontecimientos.
La predicción científica se funda sobre leyes y sobre informaciones específicas
fidedignas, relativas al estado de cosas actual o pasado. Es del tipo "ocurrirá E1 siempre
que suceda C1, pues siempre que sucede C es seguido por o está asociado con E". C y E
designan clases de sucesos en tanto que C1 y E1 denotan los hechos específicos que se
predicen sobre la base del o los enunciados que conectan a C con E en general.

14) La ciencia es abierta: no reconoce barreras a priori que limiten el conocimiento.


Si un conocimiento fáctico no es refutable en principio, entonces no pertenece a la ciencia
sino a algún otro campo. Las nociones acerca de nuestro medio, natural o social, o acerca
del yo, no son finales: están todas en movimiento, todas son falibles. Siempre es
concebible que pueda surgir una nueva situación (nuevas informaciones o nuevos trabajos
teóricos) en que nuestras ideas, por firmemente establecidas que parezcan, resulten
inadecuadas en algún sentido. A consecuencia del carácter hipotético de los enunciados
de leyes, y de la naturaleza perfectible de los datos empíricos la ciencia no es un sistema
dogmático y cerrado sino controvertido y abierto. O, más bien, la ciencia es abierta como
sistema porque es falible y por consiguiente capaz de progresar. El requisito de la
verificabilidad de las hipótesis científicas basta para asegurar el progreso científico.

15) La ciencia es útil: porque busca la verdad, la ciencia es eficaz en la provisión de


herramientas para el bien y para el mal. La utilidad de la ciencia es una consecuencia de
su objetividad; sin proponerse necesariamente alcanzar resultados aplicables, la
investigación los provee a la corta o a la larga.

La técnica precientífica era primordialmente una colección de recetas pragmáticas


no entendidas, muchas de las cuales desempeñaban la función de ritos mágicos. La técnica
moderna es, en medida creciente, ciencia aplicada.

Pero la tecnología es más que ciencia aplicada: en primer lugar porque tiene sus
propios procedimientos de investigación, adaptados a circunstancias concretas que distan
de los casos puros que estudia la ciencia. En segundo lugar, porque toda rama de la
tecnología contiene un cúmulo de reglas empíricas descubiertas antes que los principios
científicos. La tecnología no es meramente el resultado de aplicar el conocimiento
científico existente a los casos prácticos: la tecnología viva es esencialmente, el enfoque
científico de los problemas prácticos, es decir, el tratamiento de estos problemas sobre un
fondo de conocimiento científico y con ayuda del método científico.

En resumen, la ciencia es valiosa como herramienta para domar la naturaleza y


remodelar la sociedad; es valiosa en sí misma, como clave para la inteligencia del mundo
y del yo; y es eficaz en el enriquecimiento, la disciplina y la liberación de nuestra mente.

Método científico

El método científico no es una lista de recetas para dar con las respuestas correctas
a las preguntas científicas, sino el conjunto de procedimientos por los cuales se plantean
los problemas científicos y se ponen a prueba las hipótesis científicas.

La veracidad, que es un objetivo, no caracteriza el conocimiento científico de


manera tan inequívoca como el modo, medio o método por el cual la investigación
científica plantea problemas y pone a prueba las soluciones propuestas. Un dato será
considerado verdadero hasta cierto punto, siempre que pueda ser confirmado de manera
compatible con los cánones del método científico. En consecuencia, para que un trozo de
saber merezca ser llamado "científico", no basta —ni siquiera es necesario— que sea
verdadero. Debemos saber, en cambio, cómo hemos llegado a saber, o a presumir, que el
enunciado en cuestión es verdadero: debemos ser capaces de enumerar las operaciones
(empíricas o racionales) por las cuales es verificable (confirmable o disconfirmable) de
una manera objetiva al menos en principio.

Ahora bien, para verificar un enunciado —porque las proposiciones, y no los


hechos, son verdaderas y falsas y pueden, por consiguiente, ser verificadas— no basta la
contemplación y ni siquiera el análisis. Comprobamos nuestras afirmaciones
confrontándolas con otros enunciados. El enunciado confirmatorio (o disconfirmatorio),
que puede llamarse el verificans, dependerá del conocimiento disponible y de la
naturaleza de la proposición dada, la que puede llamarse verificandum. Los enunciados
confirmatorios serán enunciados referentes a la experiencia si lo que se somete a prueba
es una afirmación fáctica, esto es, un enunciado acerca de hechos, sean experimentados
o no. Observemos, de pasada, que el científico tiene todo el derecho de especular acerca
de hechos inexperienciales, esto es, hechos que en una etapa del desarrollo del
conocimiento están más allá de alcance de la experiencia humana; pero entonces está
obligado a señalar las experiencias que permiten inferir tales hechos inobservados o aun
inobservables.

La verificación de afirmaciones pertenecientes al dominio de las formas (lógica y


matemática) no requiere otro instrumento material que el cerebro; sólo la verdad fáctica
requiere la observación o el experimento.

Ahora bien, los enunciados verificables son de muchas clases. Hay proposiciones
singulares tales como "este trozo de hierro está caliente"; particulares o existenciales, tales
como "algunos trozos de hierro están calientes" (que es verificablemente falsa). Hay,
además, enunciados de leyes, tales como "todos los metales se dilatan con el calor" (o
mejor, "para todo x, si x es un trozo de metal que se calienta, entonces x se dilata"). Las
proposiciones singulares y particulares pueden verificarse a menudo de manera
inmediata, con la sola ayuda de los sentidos o eventualmente, con el auxilio de
instrumentos que amplíen su alcance; pero otras veces exigen operaciones complejas que
implican enunciados de leyes y cálculos matemáticos.

Cuando un enunciado verificable posee un grado de generalidad suficiente,


habitualmente se lo llama hipótesis científica. O, lo que es equivalente, cuando una
proposición general (particular o universal) puede verificarse sólo de manera indirecta —
esto es, por el examen de algunas de sus consecuencias— es conveniente llamarla
"hipótesis científica". Por ejemplo, "todos los trozos de hierro se dilatan con el calor", y
a fortiori, "todos los metales se dilatan con el calor", son hipótesis científicas: son puntos
de partida de raciocinios y, por ser generales, sólo pueden ser confirmados poniendo a
prueba sus consecuencias particulares, esto es, probando enunciados referentes a muestras
específicas de metal.

El núcleo de toda teoría científica es un conjunto de hipótesis verificables. Las


hipótesis científicas son, por una parte, remates de cadenas inferenciales no demostrativas
(analógicas o inductivas) más o menos oscuras; por otra parte, son puntos de partida de
cadenas deductivas cuyos últimos eslabones —los más próximos a los sentidos, en el caso
de la ciencia fáctica—, deben pasar la prueba de la experiencia.

El método científico no produce automáticamente el saber, pero nos evita perdernos


en el caos aparente de los fenómenos, aunque sólo sea porque nos indica cómo no plantear
los problemas y cómo no sucumbir al embrujo de nuestros prejuicios predilectos. Vale
decir, no hay reglas infalibles que garanticen por anticipado el descubrimiento de nuevos
hechos y la invención de nuevas teorías.

Las hipótesis no se nos imponen por la fuerza de los hechos, sino que son inventadas
para dar cuenta de los hechos. Es verdad que la invención no es ilegal, sino que sigue
ciertas pautas; pero éstas son psicológicas antes que lógicas, son peculiares de los diversos
tipos intelectuales. Algunas hipótesis se formulan por vía inductiva, esto es, como
generalizaciones sobre la base de la observación de un puñado de casos particulares. Pero
la inducción dista de ser la única o siquiera la principal de las vías que conducen a
formular enunciados generales verificables. Otras veces, el científico opera por analogía,
principios heurísticos o guiados por consideraciones filosóficas; lo único invariante es el
requisito de la verificabilidad.

Si la hipótesis que ha de ser puesta a prueba se refiere a objetos ideales (números,


funciones, figuras, fórmulas lógicas, suposiciones filosóficas, etc.), su verificación
consistirá en la prueba de su coherencia —o incoherencia— con enunciados (postulados,
definiciones, etc.) previamente aceptados. En este caso, la confirmación puede ser una
demostración definitiva.

En cambio, si el enunciado en cuestión se refiere (de manera significativa) a la


naturaleza o a la sociedad, puede ocurrir, o bien que podamos averiguar su valor de verdad
con la sola ayuda de la razón, o que debamos recurrir, además, a la experiencia. La mera
referencia a los hechos no basta para decidir qué herramienta, si el análisis o la
experiencia, ha de emplearse. Para convalidar una proposición hay que empezar por
determinar su status y estructura lógica. En consecuencia, el análisis lógico (tanto
sintáctico como semántico) es la primera operación que debiera emprenderse al
comprobar las hipótesis científicas, sean fácticas o no. Esta norma debiera considerarse
como una regla del método científico. Vale decir, el análisis lógico y matemático
comprobará la validez de los enunciados (hipótesis) que son analíticos en determinado
contexto.

Por otro lado, los enunciados fácticos no analíticos —esto es, las proposiciones
referentes a hechos, pero indecidibles con la sola ayuda de la lógica— tendrán que
concordar con los datos empíricos o adaptarse a ellos, esta es la segunda regla del método
científico. Esto quiere decir que el método científico, aplicado a la comprobación de
afirmaciones informativas, se reduce al método experimental.

Método experimental

La experimentación involucra la modificación deliberada de algunos factores, es


decir, la sujeción del objeto de experimentación a estímulos controlados. Pero lo que
habitualmente se llama "método experimental" no envuelve necesariamente experimentos
en el sentido estricto del término, y puede aplicarse fuera del laboratorio.

No es fácil decidir si una hipótesis concuerda con los hechos. En primer lugar, la
verificación empírica rara vez puede determinar cuál de los componentes de una teoría
dada ha sido confirmado o disconfirmado; habitualmente se prueban sistemas de
proposiciones antes que enunciados aislados. Pero la principal dificultad proviene de la
generalidad de las hipótesis científicas. En cambio, las proposiciones fácticas singulares
no son tan difíciles de probar. Lo difícil de comprobar son las proposiciones fácticas
generales, esto es, los enunciados referentes a clases de hechos y no a hechos singulares.
Un enunciado general como "los obesos son alegres" no se refiere solamente a nuestros
conocidos, sino a todos los gordos del mundo; por consiguiente, no podemos esperar
verificarlo directamente (esto es, por el examen de un inexistente "gordo general") ni
exhaustivamente (auscultando a todos los seres humanos presentes, pasados y futuros).
La metodología nos dice cómo debemos proceder; en este caso, examinaremos
sucesivamente los miembros de una muestra suficientemente numerosa de personas
obesas.

Vale decir, probamos una consecuencia particular de nuestra suposición general.


Esta es una tercera máxima del método científico: obsérvense singulares en busca de
elementos de prueba universales.

O sea, debemos empezar por determinar el exacto sentido de nuestra pregunta. Y


ésta es una cuarta regla del método científico, a saber: formúlese preguntas precisas.
Luego procederemos a elegir la técnica experimental (clase de balanza, tipo de examen
de corazón, etc.) y la manera de registrar datos y de ordenarlos. Además debemos decidir
el tamaño de la muestra que habremos de observar y la técnica de escoger sus miembros,
con el fin de asegurar que será una fiel representante de la población total. Una quinta
regla del método científico: la recolección y el análisis de datos deben hacerse conforme
a las reglas de la estadística.
Después que los datos han sido reunidos, clasificados y analizados, el equipo que
tiene a su cargo la investigación podrá realizar una inferencia. Pero nos gustaría formular
otras preguntas: deseamos entender la ley que hemos hallado. Esto lleva a la sexta regla
de método científico, a saber: no existen respuestas definitivas, y ello simplemente porque
no existen preguntas finales.

Método teórico

Toda ciencia fáctica especial elabora sus propias técnicas de verificación; entre
ellas, las técnicas de medición son típicas de la ciencia moderna. Pero en todos los casos
estas técnicas, por diferentes que sean, no constituyen fines en sí mismos; todas ellas
sirven para contrastar ciertas ideas con ciertos hechos por la vía de la experiencia.

El tipo de hipótesis característico de la ciencia moderna no es el de los enunciados


descriptivos aislados cuya función principal es resumir experiencias. Lo peculiar de la
ciencia moderna es que consiste en su mayor parte en teorías explicativas, es decir, en
sistemas de proposiciones que pueden clasificarse en: principios, leyes, definiciones, etc.,
y que están vinculadas entre sí mediante conectivas lógicas (tales como "y, o, si...
entonces", etc.). Las teorías dan cuenta de los hechos no sólo describiéndolos de manera
más o menos exacta, sino también proveyendo modelos conceptuales de los hechos, en
cuyos términos puede explicarse y predecirse, al menos en principio, cada uno de los
hechos de una clase. La conversión de las generalizaciones empíricas en leyes teóricas
envuelve trascender la esfera de los fenómenos y el lenguaje observacional: ya no se trata
de hacer afirmaciones acerca de hechos observables, sino de adivinar su "mecanismo"
interno. Es importante advertir, en efecto, que la experiencia dista de ser el único juez de
las teorías fácticas, o siquiera el último. Las teorías se contrastan con los hechos y con
otras teorías.

Una hipótesis de contenido fáctico no sólo es sostenida por la confirmación empírica


de cierto número de sus consecuencias particulares (p. ej. predicciones). Las hipótesis
científicas están incorporadas en teorías o tienden a incorporarse en ellas; y las teorías
están relacionadas entre sí, constituyendo la totalidad de ellas la cultura intelectual. Por
esto, no debiera sorprender que las hipótesis científicas tengan soportes no sólo
científicos, sino también extracientíficos: los primeros son empíricos y racionales, los
últimos son psicológicos y culturales.
Cuanto más numerosos sean los hechos que confirman una hipótesis, cuanto mayor
sea la precisión con que ella reconstruye los hechos, y cuanto más vastos sean los nuevos
territorios que ayuda a explorar, tanto más firme será nuestra creencia en ella, esto es,
tanto mayor será la probabilidad que le asignemos. Esto es, esquemáticamente dicho, lo
que se entiende por el soporte empírico de las hipótesis fácticas. Pero la experiencia
disponible no puede ser considerada como inapelable: en primer lugar, porque nuevas
experiencias pueden mostrar la necesidad de un remiendo: en segundo término, porque la
experiencia científica no

es pura, sino interpretada, y toda interpretación se hace en términos de teorías,


motivo por el cual la primera reacción de los científicos experimentados ante
informaciones sobre hechos que parecerían trastornar teorías establecidas es de
escepticismo.

Las teorías científicas deben adecuarse, sin duda, a los hechos, pero ningún hecho
aislado es aceptado en la comunidad de los hechos controlados científicamente a menos
que tenga cabida en alguna parte del edificio teórico establecido. Desde luego, el soporte
racional no es garantía de verdad; si lo fuera, las teorías fácticas serían invulnerables a la
experiencia. Los soportes empíricos y racionales de las hipótesis fácticas son
interdependientes.

En cuanto a los soportes extracientíficos de las hipótesis científicas, uno de ellos es


de carácter psicológico: influye sobre nuestra elección de las suposiciones y sobre el valor
que le asignamos a su concordancia con los hechos. Lo que hemos llamado soporte
cultural de las hipótesis fácticas consiste en su compatibilidad con alguna concepción del
mundo, y en particular, con la Zeitgeist prevaleciente. Es obvio que tendemos a asignar
mayor peso a aquellas hipótesis que congenian con nuestro fondo cultural y, en particular,
con nuestra visión del mundo, que aquellas hipótesis que lo contradicen dogmática. La
única manera de minimizar este peligro es cobrar conciencia del hecho de que las
hipótesis científicas no crecen en un vacío cultural.

Los soportes empíricos y racionales son objetivos, en el sentido de que en principio


son susceptibles de ser sopesados y controlados conforme a patrones precisos y
formulables. En cambio, los soportes extracientíficos son, en gran medida, materia de
preferencia individual, de grupo o de época; por consiguiente, no debieran ser decisivos
en la etapa de la comprobación, por prominentes que sean en la etapa heurística. Es
importante que los científicos adviertan la fuerte presión que ejercen los factores
psicológicos y culturales sobre la formulación, elección, investigación y credibilidad de
las hipótesis fácticas. La presión, para bien o para mal, es real y nos obliga a tomar partido
por una u otra concepción del mundo; es mejor hacerlo conscientemente que
inadvertidamente.

Pautas de la investigación científica

1. PLANTEO DEL PROBLEMA

1.1 Reconocimiento de los hechos y selección de los que probablemente sean


relevantes en algún respecto.

1.2 Descubrimiento del problema: hallazgo de la laguna o de la incoherencia en el


cuerpo del saber.

1.3 Formulación del problema: planteo de una pregunta que tiene probabilidad de
ser la correcta; esto es, reducción del problema a su núcleo significativo, probablemente
soluble y probablemente fructífero, con ayuda de conocimiento disponible.

2. CONSTRUCCIÓN DE UN MODELO TEÓRICO

2.1 Selección de los factores pertinentes: invención de suposiciones plausibles


relativas a las variables que probablemente son pertinentes.

2.2 Invención de las hipótesis centrales y de las suposiciones auxiliares: propuesta


de un conjunto de suposiciones concernientes a los nexos entre las variables pertinentes.

3. DEDUCCIÓN DE CONSECUENCIAS PARTICULARES

3.1 Búsqueda de soportes racionales: deducción de consecuencias particulares que


pueden haber sido verificadas en el mismo campo o en campos contiguos.

3.2 Búsqueda de soportes empíricos: elaboración de predicciones (o retrodicciones)


sobre la base de modelo teórico y de datos empíricos, teniendo en vista técnicas de
verificación disponibles o concebibles.

4. PRUEBA DE LAS HIPÓTESIS

4.1 Diseño de la prueba: planeamiento de los medios para poner a prueba las
predicciones; diseño de observaciones, mediciones, experimentos y demás operaciones
instrumentales.

4.2 Ejecución de la prueba: realización de las operaciones y recolección de datos.


4.3 Elaboración de los datos: clasificación, análisis, evaluación, reducción, etc., de
los datos empíricos.

4.4 Inferencia de la conclusión: interpretación de los datos elaborados a la luz del


modelo teórico.

5. INTRODUCCIÓN DE LAS CONCLUSIONES EN LA TEORÍA

5.1 Comparación de las conclusiones con las predicciones: contraste de los


resultados de la prueba con las consecuencias del modelo teórico, precisando en qué
medida éste puede considerarse confirmado o disconfirmado (inferencia probable).

5.2 Reajuste del modelo: eventual corrección o aun reemplazo del modelo.

5.3 Sugerencias acerca de trabajo ulterior: búsqueda de lagunas o errores en la teoría


y/o los procedimientos empíricos, si el modelo ha sido disconfirmado; si ha sido
confirmado y examen de posibles extensiones.

Ley científica

La definición de una ley, dependerá de las circunstancias o del contexto en que usa
la expresión, así como de su filosofía explícita o tácita. Si el científico concede que el
mundo físico subsiste aun cuando no haya quien lo perciba o lo piense, entonces la
expresión en cuestión podrá significar una conexión objetiva entre las cualidades fuerza,
masa y aceleración, sea que se las mida o no. En cambio, si el científico no asigna
existencia autónoma a los objetos físicos, entonces entenderá por "ley científica" una
relación invariante entre términos anclados de alguna manera a datos de los sentidos (los
cuales funcionarán como términos últimos o "hechos atómicos y no como señales
elementales de nuestro comercio con las cosas). Y si sólo accede a hablar acerca de
operaciones posibles, entonces podrá significar por "ley científica" cierta pauta de la
conducta humana (p. ej.. la predicción) en relación con cierta clase de datos empíricos En
total debiéramos distinguir, pues, por lo menos cuatro significados del término "ley" en:

(1) Ley1, o simplemente ley, son estructuras nómicas (pautas invariantes.) al nivel
óntico. Denota toda pauta inmanente del ser o del devenir; esto es, toda relación constante
y objetiva en la naturaleza, en la mente o en la sociedad.

(2) Ley2 o enunciado nomológico, son proposiciones acerca de pautas objetivas: son
pautas al nivel del conocimiento. Designa toda hipótesis general que tiene como referente
mediato una ley1, y que constituye una reconstrucción conceptual de ella cuyo referente
inmediato es el modelo teórico al que se aplica exactamente.

Lo que habitualmente designa el término “ley” no depende de nuestro


conocimiento, a menos que se trate de una ley del proceso cognoscitivo. Antes bien,
nuestro conocimiento de las leyes1 (esto es, las leyes2) presupone la existencia de pautas
objetivas. Las leyes1 no son verdaderas ni falsas: simplemente son. Sólo las leyes2 pueden
ser más o menos exactas. Las leyes1, aunque objetivas, no son objetos sensibles sino
inteligibles: no percibimos las leyes, sino que las inferimos a partir de los fenómenos, En
particular, las construcciones conceptuales llamadas "leyes científicas" (nuestras leyes2)
son las reconstrucciones cambiantes de las leyes objetivas en el nivel del pensamiento
racional. O, si se prefiere, las construcciones conceptuales llamadas "leyes2" son la
proyección deformada e incompleta de las leyes1 sobre el plano conceptual. En suma,
mientras las leyes de la naturaleza, del pensamiento y de la sociedad (leyes1) son la
estructura de la realidad, los correspondientes enunciados nomológicos (leyes2)
pertenecen a nuestros modelos ideales de la realidad.

(3) Ley3, o enunciado nomopragmático, son relaciones invariantes al nivel


pragmático: son guías para la acción fundada científicamente. Designa toda regla
mediante la cual puede regularse (exitosamente o no) una conducta. Las leyes3 se deducen
casi siempre de leyes2 en conjunción con datos empíricos, en otras palabras efecto, casi
siempre son aplicaciones de leyes2 a situaciones o a clases de situaciones específicas.

(4) Ley4, o enunciado metanomológico, son prescripciones metodológicas y/o


principios ontológicos. Designa todo principio general acerca de la forma y/o alcance de
los enunciados de ley pertenecientes a algún capítulo de la ciencia fáctica.

Vous aimerez peut-être aussi