Vous êtes sur la page 1sur 36

ASESORIA1.2….

VERBOS PARA LA FORMULACIÓN DE OBJETIVOS Y


CAPACIDADES

1.3. APLICACIÓN:

- Aplicar: (D. R. A. E.).- Emplear, administrar o poner en práctica un


conocimiento, medida o principio, a fin de obtener un determinado efecto o
rendimiento en una cosa o persona. (M. Moliner).- Emplear una cosa con
un fin determinado.

- Calcular: (D. R. A. E.).- t. Considerar, reflexionar una cosa con atención


y cuidado. (M. Moliner).- Reflexionar sobre las ventajas e inconvenientes
de cierta cosa.

- Clasificar: (D. R. A. E.).-. Ordenar o disponer por clases. (M. Moliner).-


Dividir un conjunto de cosas en clases.

- Codificar: (D. R. A. E.).-. Hacer o formar un cuerpo de leyes metódico y


sistemático. // 2. Transformar mediante las reglas de un código la
formulación de un mensaje. (M. Moliner).-Organizar un conjunto de leyes
o disposiciones en forma de código.

- Completar: (D. R. A. E.).-. Dar término o conclusión a una cosa o a un


proceder. (M. Moliner).- Hacer una cosa completa.

- Construir: (D. R. A. E.).-. Fabricar, edificar.// Gram. Ordenar las


palabras, o unirlas entre sí con arreglo a las leyes de la construcción
gramatical. (M. Moliner).- Hacer una cosa juntando los elementos
necesarios.

- Contornear: (D. R. A. E.).-. Dar vueltas alrededor o en contorno de un


paraje o un sitio. (M. Moliner).- Trazar o seguir el contorno de algo.

- Correr: (D. R. A. E.).- intr. Extenderse de una parte a otra. // 2. Hacer


alguna cosa con rapidez. (M. Moliner).- Propagar(se). Pasar. Recurrir a
algo.

- Delinear: (D. R. A. E.).-. trazar las líneas de una figura. (M. Moliner).-
Trazar las líneas de un dibujo; particularmente de un plano o proyecto.
Dibujar. Diseñar.
- Demostrar: (D. R. A. E.).-. Probar, sirviéndose de cualquier género de
demostración. Manifestar. Declarar. (M. Moliner).- Evidenciar, probar.
Hacer patente, sin que sea posible dudar de ella, la verdad de cierta cosa.

- Descubrir: (D. R. A. E.).-. Venir en conocimiento de una cosa que se


ignoraba. Manifestar, hacer patente. (M. Moliner).- Hacer que se conozca
la existencia de una cosa o su verdadera naturaleza.

- Dibujar: (D. R. A. E.).-. Delinear en una superficie, y sombrear imitando


la figura de un cuerpo. (M. Moliner).- Diseñar. Trazar sobre una superficie
con lápiz, pluma, carboncillo o cualquier utensilio capaz de dejar huella , la
figura de una cosa conocida o inventada. // 2. Describir una cosa con
palabras.

- Dirigir: (D. R: A. E.).-. Orientar, guiar, aconsejar a quien realiza un


trabajo. (M. Moliner).- Encaminar. Guiar. Disponer lo que tienen que hacer
otras personas. Regir. Disponer cómo hay que hacer cierta cosa o lo que
hay que hacer en cierto sitio.

- Emplear: (D. R. A. E.).- Usar. Hacer servir las cosas para algo.

- Escoger: (D. R. A. E.).-. Tomar o elegir una o más cosas o personas entre
otras. (M. Moliner).- Elegir. Tomar o designar ciertas cosas de entre varias,
para algún objeto.

- Generalizar: (D. R. A. E.).-. Abstraer lo que es común y esencial a


muchas cosas, para formar un concepto general que las comprenda todas. //
2. Considerar y tratar de manera general cualquier punto o cuestión.

- Ilustrar: (D. R. A. E.).-. Aclarar un punto o materia con palabras,


imágenes, o de otro modo. (M. Moliner).- Proporcionar a alguien
conocimientos o información sobre cierta cosa.

- Manipular: (D. R. A. E.).-. Operar con las manos o con cualquier


instrumento. (M. Moliner).- Realizar operaciones con las manos o con una
cosa.

- Modificar: (D. R. A. E.).-. Transformar o cambiar una cosa mudando


alguno de sus accidentes. // 2. Limitar, determinar o restringir las cosas a
cierto estado en que se singularicen y distingan unas de otras. (M.
Moliner).- Alterar. Cambiar. Reformar. Variar. Hacer que una cosa sea
diferente de como era.
- Operar: (D. R. A. E.).-. Realizar, llevar a cabo algo. Obrar, trabajar,
ejecutar diversos menesteres u ocupaciones. (M. Moliner).- Actuar u obrar;
realizar acciones con cierto fin.

- Organizar: (D. R. A. E.).-. Establecer o reformar algo para lograr un fin,


coordinando los medios y las personas adecuados. (M. Moliner).- Disponer
cómo ha de realizarse una cosa y preparar lo necesario para ella.

- Producir: (D. R. A. E.).-. Dar. Fabricar, elaborar cosas útiles. Se usa


hablando más propiamente de las obras de la naturaleza, y por extensión de
las del entendimiento. (M. Moliner).- Su significado lógico es hacer existir
y, en el uso, unas veces sustituye a hacer, fabricar o realizar, otras a dar,
otras a crear o criar y otras a causar; pero a ninguno de esos verbos los
sustituyen en todo los casos en que puede ser empleado.

- Producir: (D. R. A. E.).-. Dar. Fabricar, elaborar cosas útiles. Se usa


hablando más propiamente de las obras de la naturaleza , y por extensión
de las del entendimiento. (M. Moliner).- Su significado lógico es hacer
existir y, en el uso, unas veces sustituye a hacer, fabricar o realizar, otras a
dar, otras a crear o criar y otras a causar; pero a ninguno de esos verbos los
sustituyen en todo los casos en que puede ser empleado.

- Reestructurar: (D. R. A. E.).-. Modificar la estructura de una obra,


disposición, empresa, proyecto, organización, etc. (M. Moliner).- Modificar
la estructura de una cosa . Introducir cambios en la estructura.

- Relacionar: (D. R. A. E.).-. Poner en relación personas o cosas. // 2.


Hacer relación de un hecho. (M. Moliner).- Establecer una relación entre
dos o más cosas, sucesos, ideas, etc.

- Resolver: (D. R. A. E.).-. Tomar determinación fija y decisiva. // 2.


Hallar la solución de un problema. // 3. Desatar una dificultad o dar
solución a una duda. (M. Moliner).- Solucionar. Encontrar la solución a una
duda o un problema o la manera de vencer una dificultad.

- Seleccionar: (D. R. A. E.).-. Elegir, escoger por medio de una selección.


(M. Moliner). Elegir. Escoger. Coger o separar de un conjunto las cosas
que se consideran mejor.

En los Objetivos Generales y Específicos, se utilizan verbos que señalan


algún tipo de acción. Por lo general estos verbos terminan en: ar, er, ir, or,
ur. Ejemplo: Comparar, Establecer, Adquirir...etc. Para mayores detalles,
observe la siguiente tabla:
¿Y si los datos no siguen una distribución normal?...

Bondad de ajuste a una normal.


Transformaciones.
Pruebas no paramétricas

Cuando se analizan datos medidos por una variable


cuantitativa continua, las pruebas estadísticas de
estimación y contraste frecuentemente empleadas se
basan en suponer que se ha obtenido una muestra aleatoria
de una distribución de probabilidad de tipo normal o de
Gauss. Pero en muchas ocasiones esta suposición no
resulta válida, y en otras la sospecha de que no sea
adecuada no resulta fácil de comprobar, por tratarse de
muestras pequeñas. En estos casos disponemos de dos
posibles mecanismos: los datos se pueden transformar de
tal manera que sigan una distribución normal, o bien se
puede acudir a pruebas estadísticas que no se basan en
ninguna suposición en cuanto a la distribución de
probabilidad a partir de la que fueron obtenidos los datos, y
por ello se denominan pruebas no paramétricas
(distribución free), mientras que las pruebas que suponen
una distribución de probabilidad determinada para los datos
se denominan pruebas paramétricas.
Dentro de las pruebas paramétricas, las más habituales se
basan en la distribución de probabilidad normal, y al
estimar los parámetros del modelo se supone que los datos
constituyen una muestra aleatoria de esa distribución, por
lo que la elección del estimador y el cálculo de la precisión
de la estimación, elementos básicos para construir
intervalos de confianza y contrastar hipótesis, dependen del
modelo probabilístico supuesto.
Cuando un procedimiento estadístico es poco sensible a
alteraciones en el modelo probabilístico supuesto, es decir
que los resultados obtenidos son aproximadamente válidos
cuando éste varía, se dice que es un procedimiento
robusto.
Las inferencias en cuanto a las medias son en general
robustas, por lo que si el tamaño de muestra es grande, los
intervalos de confianza y contrastes basados en la t de
Student son aproximadamente válidos, con independencia
de la verdadera distribución de probabilidad de los datos;
pero si ésta distribución no es normal, los resultados de la
estimación serán poco precisos.

Procedimientos para verificar el ajuste a una


distribución de probabilidad
Existen diferentes pruebas para verificar el ajuste de
nuestros datos a una distribución de probabilidad. Las dos

más utilizadas son el contraste de Pearson, y la prueba


de Kolmogorov-Smirnov.

Contraste de Pearson.-
La idea del contraste de Pearson es muy sencilla: se
agrupan los datos en k clases (k>5), como si fuéramos a
construir un histograma, cubriendo todo el rango posible de
valores, siendo deseable disponer, aproximadamente, del
mismo número de datos en cada clase y al menos de tres
datos en cada una.
Llamamos Oi al número de datos observado en la clase i.
Mediante el modelo de probabilidad que se desea verificar
se calcula la probabilidad Pi asignada a cada clase, y por lo
tanto, para una muestra de n datos, la frecuencia esperada
según ese modelo de probabilidad es Ei=n.Pi.
Se calcula entonces el siguiente índice de discrepancia
entre las frecuencias observadas y las que era previsible
encontrar si el modelo fuera el adecuado:

que se distribuye aproximadamente como una si el


modelo es correcto.
Si el modelo se especifica de forma completa con las
probabilidades Pi, conocidas antes de tomar los datos, el
número de grados de libertad es k-1. Pero si se han
estimado r parámetros del modelo a partir de los datos,
entonces los grados de libertad son k-r-1.
Prueba de Kolmogorov-Smirnov.-
Este contraste, que es válido únicamente para variables
continuas, compara la función de distribución (probabilidad
acumulada) teórica con la observada, y calcula un valor de
discrepancia, representado habitualmente como D, que
corresponde a la discrepancia máxima en valor absoluto
entre la distribución observada y la distribución teórica,
proporcionando asimismo un valor de probabilidad P, que
corresponde, si estamos verificando un ajuste a la
distribución normal, a la probabilidad de obtener una
distribución que discrepe tanto como la observada si
verdaderamente se hubiera obtenido una muestra
aleatoria, de tamaño n, de una distribución normal. Si esa
probabilidad es grande no habrá por tanto razones
estadísticas para suponer que nuestros datos no proceden
de una distribución, mientras que si es muy pequeña, no
será aceptable suponer ese modelo probabilístico para los
datos.
Prueba de Shapiro-Wilks.-
Aunque esta prueba es menos conocida es la que se
recomienda para contrastar el ajuste de nuestros datos a
una distribución normal, sobre todo cuando la muestra es
pequeña (n<30).
Mide el ajuste de la muestra a una recta, al dibujarla en
papel probabilístico normal. Este tipo de representación
también lo proporcionan algunos programas de estadística,
de tal manera que
nos permite además apreciar el ajuste o desajuste de forma
vistoza
En escala probabilística normal se representa en el eje
horizontal, para cada valor observado en nuestros datos, la
función de distribución o probabilidad acumulada
observada, y en el eje vertical la prevista por el modelo de
distribución normal. Si el ajuste es bueno, los puntos se
deben distribuir aproximadamente según una recta a 45º.
En la imagen vemos que en este ejemplo existe cierta
discrepancia.
En cualquier caso siempre es adecuado efectuar una
representación gráfica de tipo histograma de los datos, y
comparar el valor de la media y la mediana, así como
evaluar el coeficiente de asimetría y apuntamiento, además
de llevar a cabo una representación en escala probabilística
de la distribución de probabilidad esperada versus
observada, como la de la figura.
Posibles soluciones cuando se rechaza la hipótesis de
normalidad
Si rechazamos o dudamos de la normalidad de nuestros
datos, existen varias soluciones posibles:
Si la distribución es más apuntada que la normal (mayor
parte de los valores agrupados en torno de la media y colas
más largas en los extremos), se debe investigar la
presencia de heterogeneidad en los datos y de posibles
valores atípicos o errores en los datos. La solución puede
ser emplear pruebas no paramétricas.
Si la distribución es unimodal y asimétrica, la solución
más simple y efectiva suele ser utilizar una transformación
para convertir los datos en normales.
Cuando la distribución no es unimodal hay que investigar la
presencia de heterogeneidad, ya que en estos casos la
utilización de transformaciones no es adecuada y los
métodos no paramétricos pueden también no serlo.
Una alternativa muy interesante a los métodos
paramétricos y a las pruebas no paramétricas clásicas, la
constituye la metodología de estimación autosuficiente
ya esbozada en otro artículo de esta serie.
Transformaciones para conseguir datos normales
La utilización de transformaciones para lograr que los datos
se ajusten a una distribución normal es en muchas
ocasiones la solución más natural, ya que existen gran
cantidad de parámetros biológicos que tienen una
distribución asimétrica como la de la figura de la izquierda,
y que se convierten en aproximadamente simétricas al
transformarlas mediante el logaritmo.
Tenemos problemas con la transformación logarítmica ln(x)
si la variable puede tomar el valor 0, por lo que en esos
casos, o incluso si existen valores muy pequeños, será
adecuado emplear la transformación ln(x+1). Cuando la
desviación típica de los datos es proporcional a la media o
cuando el efecto de los factores es multiplicativo, en lugar
de aditivo, está indicado el uso de la

transformación logarítmica.-

Otra transformación posible es , que es aplicable cuando


las varianzas son proporcionales a la media, lo que ocurre a
menudo cuando los datos provienen de una distribución de
Poisson (recuentos).

Otra transformación habitualmente empleada es 1/x, que


también precisa que sumemos una cantidad a cada valor si
existen ceros.

Estas tres transformaciones comprimen los valores altos de


los datos y expanden los bajos, en sentido creciente en el
siguiente orden: (la que menos), ln x, 1/x.

Si la concentración de datos está, a diferencia de la figura


anterior, en el lado de la derecha y la cola en la izquierda,
se puede utilizar la transformación x², que comprime la
escala para valores pequeños y la expande para valores
altos.

Cuando los datos son proporciones o porcentajes de una


distribución binomial, las diferencias con una distribución
normal son más acusadas para valores pequeños o grandes
de las proporciones, utilizándose entonces transformaciones
basadas en .

En todos los casos para los cálculos estadísticos basados en


la teoría normal, se utilizarán los valores transformados,
pero después para la presentación de los resultados se
efectuará la transformación inversa para presentarlos en su
escala de medida natural.

Más abajo se proporcionan algunos enlaces sobre el tema


de las transformaciones, de fácil lectura.
Pruebas no paramétricas

Se denominan pruebas no paramétricas aquellas que no


presuponen una distribución de probabilidad para los datos,
por ello se conocen también como de distribución libre
(distribution free). En la mayor parte de ellas los resultados
estadísticos se derivan únicamente a partir de
procedimientos de ordenación y recuento, por lo que su
base lógica es de fácil comprensión. Cuando trabajamos
con muestras pequeñas (n < 10) en las que se desconoce si
es válido suponer la normalidad de los datos, conviene
utilizar pruebas no paramétricas, al menos para corroborar
los resultados obtenidos a partir de la utilización de la
teoría basada en la normal.

En estos casos se emplea como parámetro de centralización


la mediana, que es aquel punto para el que el valor de X
está el 50% de las veces por debajo y el 50% por encima.

Vamos a comentar la filosofía de alguna de las pruebas no


paramétricas y en los enlaces se puede aumentar esta
información.

Prueba de Wilcoxon de los rangos con signo

Esta prueba nos permite comparar nuestros datos con una


mediana teórica (por ejemplo un valor publicado en un
artículo).

Llamemos M0 a la mediana frente a la que vamos a


contrastar nuestros datos, y sea X1, X2 .. Xn los valores
observados. Se calcula las diferencias X1-M0, X2-M0, ..., Xn-
M0. Si la hipótesis nula fuera cierta estas diferencias se
distribuirían de forma simétrica en torno a cero.

Para efectuar esta prueba se calculan las diferencias en


valor absoluto |Xi-M0| y se ordenan de menor a mayor,
asignándoles su rango (número de orden). Si hubiera dos o
más diferencias con igual valor (empates), se les asigna el
rango medio (es decir que si tenemos un empate en las
posiciones 2 y 3 se les asigna el valor 2.5 a ambas). Ahora
calculamos R+ la suma de todos los rangos de las
diferencias positivas, aquellas en las que Xi es mayor que
M0 y R- la suma de todos los rangos correspondientes a las
diferencias negativas. Si la hipótesis nula es ciertos ambos
estadísticos deberán ser parecidos, mientras que si
nuestros datos tienen a ser más altos que la mediana M0,
se reflejará en un valor mayor de R+, y al contrario si son
más bajos. Se trata de contrastar si la menor de las sumas
de rangos es excesivamente pequeña para ser atribuida al
azar, o, lo que es equivalente, si la mayor de las dos sumas
de rangos es excesivamente grande.

Prueba de Wilcoxon para contrastar datos pareados

El mismo razonamiento lo podemos aplicar cuando tenemos


una muestra de parejas de valores, por ejemplo antes y
después del tratamiento, que podemos denominar (X1,Y1),
(X2,Y2), ... ,(Xn,Yn). De la misma forma, ahora
calcularemos las diferencias X1-Y1, X2-Y2, ... , Xn-Yn y las
ordenaremos en valor absoluto, asignándoles el rango
correspondiente. Calculamos R+ la suma de rangos
positivos (cuando Xi es mayor que Yi), y la suma de rangos
negativos R-. Ahora la hipótesis nula es que esas
diferencias proceden de una distribución simétrica en torno
a cero y si fuera cierta los valores de R+ y R- serán
parecidos.

Prueba de Mann-Whitney para muestras independientes

Si tenemos dos series de valores de una variable continua


obtenidas en dos muestras independientes: X1, X2, ... , Xn,
Y1, Y2, ... , Ym, procederemos a ordenar conjuntamente
todos los valores en sentido creciente, asignándoles su
rango, corrigiendo con el rango medio los empates.
Calculamos luego la suma de rangos para las observaciones
de la primera muestra Sx, y la suma de rangos de la
segunda muestra Sy. Si los valores de la población de la
que se extrajo la muestra aleatoria de X se localizan por
debajo de los valores de Y, entonces la muestra de X
tendrá probablemente rangos más bajos, lo que se reflejará
en un valor menor de Sx del teóricamente probable. Si la
menor de las sumas de rangos es excesivamente baja, muy
improbable en el caso de que fuera cierta la hipótesis nula,
ésta será rechazada.

Existen más pruebas no paramétricas de entre las que a


continuación mencionamos las más habituales, remitiendo
al lector interesado a cualquier libro básico de
bioestadística:

• Prueba de Kruskal-Wallis para comparar K muestras


• Prueba de Friedman para comparar K muestras
pareadas (bloques)
• Coeficiente de correlación de Spearman para
rangos
• Prueba de rachas de Wald-Wolfowitz

Prueba T de Student para datos no relacionados (muestras


independientes)
Raymundo

Todas las pruebas paramétricas, en las cuales se incluye la


t de Student y la F de Fischer, se basan en supuestos
teóricos para utilizarse. Dichos supuestos matemáticos las
hacen válidas, pues al analizar las mediciones de las
observaciones, se tienen procedimientos de gran potencia-
eficiencia para evitar error del tipo I.
En tales pruebas paramétricas se exige una serie de
requisitos para aplicarlas como instrumento estadístico:
Las observaciones deben ser independientes.
Las observaciones se deben efectuar en universos
poblacionales distribuidos normalmente.
Las mediciones se deben elaborar en una escala de
intervalo, entendiendo que una escala de intervalo exige
que puedan efectuarse todas las operaciones aritméticas
admisibles. También se requiere que los intervalos entre las
mediciones tengan la misma magnitud.
Las varianzas de los grupos deben ser homogéneas, de
modo que cabe aclarar que en las mediciones realizadas en
biomedicina, es poco probable encontrar varianzas iguales.
Por ello, se utiliza la prueba ji cuadrada de Barlett para
decidir si las diferencias observables en la magnitud de las
varianzas son significativas o no.

El modelo matemático que en seguida se presenta,


corresponde a dos muestras independientes.
Donde:
t = valor estadístico de la prueba t de
Student.
1 = valor promedio del grupo 1.
2 = valor promedio del grupo 2.
σ p = desviación estándar ponderada de
ambos grupos.
N1 = tamaño de la muestra del grupo 1.
N2 = tamaño de la muestra del grupo 1.

Ecuación para obtener la desviación estándar ponderada:


Donde:
σ p = desviación estándar
ponderada.
SC = suma de cuadrados de cada
grupo.
N = tamaño de la muestra 1 y 2.
Pasos:
Determinar el promedio o media aritmética de cada grupo
de población.
Calcular las varianzas de cada grupo, a fin de demostrar la
homogeneidad de varianzas mediante la prueba de X2 de
Bartlett.
Calcular la suma de cuadrados de cada grupo: Suma de
cuadrados (SC) = Σ (X - )2.
Calcular la desviación estándar ponderada (σ p) de ambos
grupos.
Obtener la diferencia absoluta entre los grupos ( 1 - ).
2

Aplicar la fórmula y obtener el valor estadístico de t.


Calcular los grados de libertad (gl). gl = N1 + N2 -2
Obtener la probabilidad del valor t en la tabla.
Decidir si se acepta o rechaza la hipótesis.

Ejemplo:
Un investigador ha obtenido la talla de 20 niños de 5 años
de edad, de dos condiciones socioeconómicas contrastantes
(alta y baja). Considera que ambos grupos de población
tienen estaturas diferentes.
Elección de la prueba estadística.
Tenemos un modelo experimental con dos muestras
independientes.
Planteamiento de la hipótesis.
Hipótesis alterna (Ha). Las tallas de niños de 5 años de las
dos muestras, de condiciones socioeconómicas
contrastantes, son distintas.
Hipótesis nula (Ho). Las diferencias observadas en las tallas
de niños de las dos muestras de condición socioeconómica
similar se deben al azar.

Nivel de significación.
Para todo valor de probabilidad igual o menor que 0.05, se
acepta Ha y se rechaza Ho.
Zona de rechazo.
Para todo valor de probabilidad mayor que 0.05, se acepta
Ho y se rechaza Ha.
Talla en cm de niños de condiciones socioeconómicas baja
y alta.

Aplicación de la prueba estadística.


Suma de cuadrados.

Desviación estándar ponderada.

Ecuación t.

gl = N1 + N2 -2 = 10 + 10 - 2 = 18
El valor de to se compara con los valores críticos de la tabla
(tt) con 18 grados de libertad, y se obtiene que en el valor
más cercano al calculado, la probabilidad es de 0.001 (valor
crítico de t: 3.92).
Decisión.
Como el valor de to (3.99) tiene una probabilidad de
significancia menor que 0.001, también es menor que 0.05,
propuesto como nivel de significancia, por lo cual se acepta
Ha y se rechaza Ho.
Interpretación.
Las diferencias en talla de ambos niños de condiciones
socioeconómicas antagónicas (alta y baja) difieren
notoriamente en el nivel de confianza de p menor que
0.001.

En muchos estudios, incluidos la mayoría de los ensayos clínicos, es


necesario comparar ciertas características en dos o más grupos de sujetos.
Tal sería el caso, por ejemplo, si pensamos que un tratamiento nuevo puede
tener un porcentaje de mejoría mayor que otro estándar, o cuando nos
planteamos si los niños de las distintas comunidades autónomas tienen o no
la misma altura. En este artículo se analizará únicamente el problema de la
comparación de dos grupos con respecto a una variable continua. La
elección de un método de análisis apropiado en este caso dependerá de la
naturaleza de los datos y la forma en la que estos hayan sido obtenidos.
Fundamentalmente, cuando se comparan dos o más grupos de
observaciones pueden darse dos tipos de diseño: aquel en el que las
observaciones se refieren a dos grupos independientes de individuos, o el
caso en el que cada serie de datos se recoge en los mismos sujetos bajo
condiciones diferentes. El tipo de metodología será distinto según el caso
en el que nos encontremos. Otro aspecto a tener en consideración será el
tipo y distribución de los datos. Para grupos independientes, los métodos
paramétricos requieren que las observaciones en cada grupo provengan de
una distribución aproximadamente normal con una variabilidad semejante,
de modo que si los datos disponibles no verifican tales condiciones, puede
resultar útil una transformación1,2,3 de los mismos (aplicación del
logaritmo, raíz cuadrada, etc.) o, en todo caso, se debería recurrir a la
utilización de procedimientos no paramétricos4.

Normalmente en este tipo de análisis podremos establecer una hipótesis de


partida (hipótesis nula), que generalmente asume que el efecto de interés es
nulo, por ejemplo que la tensión arterial es la misma en hombres y mujeres
o que dos tratamientos para la hipercolesterolemia son igualmente
efectivos. Posteriormente se puede evaluar la probabilidad de haber
obtenido los datos observados si esa hipótesis es correcta. El valor de esta
probabilidad coincide con el valor-p que nos proporciona cada test
estadístico, de modo que cuanto menor sea éste más improbable resulta que
la hipótesis inicial se verifique.

En un primer apartado, se presentará el test t de Student para dos muestras


independientes, introduciendo las modificaciones necesarias en el caso de
que la variabilidad de ambos grupos sea distinta. A continuación se
introducirá el test t de Student para el caso de dos muestras dependientes.

t de Student para dos


muestras
independientes
Uno de los análisis estadísticos más comunes en la práctica es
probablemente el utilizado para comparar dos grupos independientes de
observaciones con respecto a una variable numérica. Como ejemplo,
consideremos los datos que se muestran en la Tabla 1, correspondientes a
75 individuos con sobrepeso sometidos a dos dietas alimenticias distintas,
de modo que se desea comparar el peso de los individuos que iniciaron
cada una de las dietas.

Como ya se ha adelantado, la aplicación de un contraste paramétrico


requiere la normalidad de las observaciones para cada uno de los grupos.
La comprobación de esta hipótesis puede realizarse tanto por métodos
gráficos (por medio de histogramas, diagramas de cajas o gráficos de
normalidad) como mediante tests estadísticos5 (test de Kolmogorov-
Smirnov, test de Shapiro-Wilks). Un número suficiente de observaciones
(digamos mayor de 30) como ocurre en el ejemplo planteado justifica, no
obstante, la utilización del mismo test. Así mismo, este tipo de metodología
exigirá que la varianza en ambos grupos de observaciones sea la misma. En
primer lugar se desarrollará el test t de Student para el caso en el que se
verifiquen ambas condiciones, discutiendo posteriormente el modo de
abordar formalmente el caso en el que las varianzas no sean similares.

Bajo las hipótesis de normalidad e igual varianza la comparación de ambos


grupos puede realizarse en términos de un único parámetro como el valor
medio (Figura 1a), de modo que en el ejemplo planteado la hipótesis de
partida será, por lo tanto:

H0: La media de peso inicial es igual en ambos grupos

Se denotará por {X1, X2,...,Xn} e {Y1,Y2,...,Ym} al peso observado en cada


uno de los sujetos sometidos a la dieta A y a la dieta B respectivamente. En
general no se exigirá que coincida el número de observaciones en cada uno
de los grupos que se comparan, de modo que en el ejemplo n=40 y m=35.

El t test para dos muestras independientes se basa en el estadístico:

(1)

donde e denotan el peso medio en cada uno de los grupos:

y , las cuasivarianzas muestrales correspondientes:

Con lo cual, en este caso particular, el valor utilizado para el contraste será:
Si la hipótesis de partida es cierta el estadístico (1) seguirá una distribución
t de Student con n+m-2 grados de libertad. De ser así, el valor obtenido
debería estar dentro del rango de mayor probabilidad según esta
distribución (Figura 2). Usualmente se toma como referencia el rango de
datos en el que se concentra el 95% de la probabilidad. El valor-p que
usualmente reportan la mayoría de paquetes estadísticos no es más que la
probabilidad de obtener, según esa distribución, un dato más extremo que
el que proporciona el test. Como ya se dijo, refleja también la probabilidad
de obtener los datos observados si fuese cierta la hipótesis inicial. Si el
valor-p es muy pequeño (usualmente se considera p<0.05) es poco probable
que se cumpla la hipótesis de partida y se debería de rechazar. La región de
aceptación corresponde por lo tanto a los valores centrales de la
distribución para los que p>0.05. En el ejemplo planteado el valor-p
correspondiente es de 0.425, de modo que no existe evidencia estadística de
que el peso medio en ambos grupos sea diferente. En la Tabla 2, se
determina los grados de libertad (en la primera columna) y el valor de α (en
la primera fila). El número que determina su intersección es el valor crítico
correspondiente. De este modo, si el estadístico que se obtiene toma un
valor mayor se dirá que la diferencia es significativa.

Otro modo de obtener esta misma información es mediante el cálculo de


intervalos de confianza para la diferencia de la respuesta media en ambos
grupos. A mayores, el intervalo de confianza constituye una medida de la
incertidumbre con la que se estima esa diferencia a partir de la muestra,
permitiendo valorar tanto la significación estadística como la magnitud
clínica de esa diferencia6. En el caso que nos ocupa, el intervalo de
confianza vendrá dado como:

donde denota el valor que según la distribución t de Student con n+m-


2 grados de libertad deja a su derecha el 2.5% de los datos. En el ejemplo,
el intervalo de confianza con una seguridad del 95% para la diferencia de
peso viene dado por:

que expresa en definitiva un rango de valores entre los que se puede


encontrar el valor real de la diferencia entre los pesos de ambos grupos.
Proporciona además la misma información que obteníamos del contraste
estadístico. El hecho de que el valor cero pertenezca al intervalo indica que
no se dispone de evidencia para concluir que el peso sea distinto en ambos
grupos.

A medida que el tamaño muestral aumenta, la distribución del estadístico


(1) se hace más próxima a la de una variable Normal estándar. De este
modo, en algunos textos se opta por utilizar esta distribución para realizar
la comparación de medias. Aunque esta aproximación es correcta para
muestras suficientemente grandes, ambos métodos proporcionan en este
caso resultados prácticamente idénticos, por lo que resulta más simple
utilizar, independientemente del tamaño de la muestra, la misma
metodología a partir de la distribución t. El mismo planteamiento podría
utilizarse en el caso de varianzas distintas o de muestras apareadas.

Dos muestras
independientes con
Varianza distinta
El caso en el que se dispone de dos grupos de observaciones
independientes con diferentes varianzas, la distribución de los datos en
cada grupo no puede compararse únicamente en términos de su valor medio
(Figura 1b). El contraste estadístico planteado en el apartado anterior
requiere de alguna modificación que tenga en cuenta la variabilidad de los
datos en cada población. Obviamente, el primer problema a resolver es el
de encontrar un método estadístico que nos permita decidir si la varianza en
ambos grupos es o no la misma. El F test o test de la razón de varianzas
viene a resolver este problema. Bajo la suposición de que las dos
poblaciones siguen una distribución normal y tienen igual varianza se
espera que la razón de varianzas:

siga una distribución F de Snedecor con parámetros (n-1) y (m-1).

Supongamos que en el ejemplo anterior se desee comparar la pérdida de


peso en los sujetos sometidos a cada una de las dos dietas. La aplicación
del estadístico (1) no será factible, ya que las varianzas en ambos grupos
son sustancialmente distintas. En este caso la razón de varianzas es de
3.97 / 0.80 = 4.96, valor que se debe comparar con una distribución F39,34.
El valor-p asociado será p<0.01, siendo muy poco probable que las
observaciones provengan de poblaciones con igual variabilidad.

En este tipo de situaciones, donde no se debe aplicar el contraste basado en


(1), podemos utilizar una modificación del t test para el caso de varianzas
desiguales, conocido como el test de Welch7 basada en el estadístico:

que, bajo la hipótesis nula seguirá una distribución t de Student con un


número f de grados de libertad que dependerá de las varianzas muestrales
según la expresión:

La técnica para realizar el contraste es análoga a la vista anteriormente


cuando las varianzas son desconocidas e iguales. Por ejemplo, en el caso
planteado, la pérdida media de peso para los individuos en cada una de las
dietas fue de e con las variabilidades anteriormente
expresadas. Esto conduce a un valor del estadístico de t=5.58 a relacionar
con una distribución t de Student con aproximadamente 56 grados de
libertad. El valor-p resultante es, por lo tanto, p<0.001 con lo cual podemos
rechazar la hipótesis de partida y concluir que la reducción de peso
experimentada es distinta según la dieta que se siga.

Al igual que en el caso anterior, podrá optarse por calcular el


correspondiente 95% intervalo de confianza para la diferencia de medias
dado por:

Dos muestras
dependientes
Ya se ha comentado que cuando se trata de comparar dos grupos de
observaciones, es importante distinguir el caso en el que son
independientes de aquel en el que los datos están apareados. Las series
dependientes surgen normalmente cuando se evalúa un mismo dato más de
una vez en cada sujeto de la muestra. También se puede encontrar este tipo
de observaciones en estudios de casos y controles donde cada caso se
aparea individualmente con un control.

Supongamos que queremos comprobar, en los datos de la Tabla 1 si


realmente se produce una pérdida de peso significativa en esos individuos,
para lo que se recoge en cada sujeto su peso antes y después de someterse a
la dieta. En este tipo de análisis el interés no se centra en la variabilidad
que puede haber entre los individuos, sino en las diferencias que se
observan en un mismo sujeto entre un momento y otro. Por este motivo,
resulta intuitivo trabajar con la diferencia de ambas observaciones (en el
ejemplo será la pérdida de peso), de modo que se quiere contrastar la
hipótesis:

H0: La pérdida de peso es nula

frente a la alternativa de que la pérdida de peso sea importante (es decir,


distinta de cero).

La veracidad de dicha hipótesis puede ser contrastada igualmente mediante


el test t de Student. Como se ha dicho, este tipo de métodos tienen como
hipótesis fundamental la normalidad de los datos. En este caso, sin
embargo, no será necesario que las observaciones en ambos grupos
provengan de poblaciones normales, sino que únicamente se requiere
verificar la normalidad de su diferencia. Denotando por la pérdida media
de peso la hipótesis de la que se parte es que:

frente a la alternativa

A partir de las observaciones muestrales {Y1,Y2,...,Yn} e {Y1,Y2,...,Yn} en


cada uno de los grupos se calcula la diferencia de peso para cada sujeto
{d1,d2,...,dn} con dj=Xj-Yj j=1,2,...,n. Nótese que en este caso un
requisito fundamental es que se tenga un número igual de observaciones en
ambos grupos. A partir de estos datos, el contraste se basa en el estadístico:
o en el cálculo del 95% intervalo de confianza:

donde denota la media de la pérdida de peso estimada a partir de la


muestra:

y denota la cuasivarianza muestral de la diferencia dada por:

En nuestro ejemplo el valor del estadístico vendría dado por:

a comparar del modo habitual con la distribución t de Student con n-1=74


grados de libertad. El intervalo de confianza para la pérdida media de peso
correspondiente a una seguridad del 95% es de (3.56;4.41), lo cual se
traduce en una pérdida de peso significativamente distinta de cero, tal y
como indica el valor-p correspondiente de p<0.001.

Figura 1. Comparación de dos poblaciones


normales
a) Poblaciones normales con igual varianza y
medias distintas
b) Poblaciones normales con igual y
diferentes varianzas.

Figura 2. Regiones de aceptación y rechazo en el


contraste de hipótesis
Tabla 1. Datos de 75 pacientes con
sobrepeso sometidos a dos dietas
alimenticias.
Diet Peso Peso Diet Peso Peso
a inicial final a inicial final
A 94,07 86,59 B 88,02 84,12
A 96,79 93,08 B 88,22 86,13
A 92,15 87,85 B 103,45 101,21
A 92,30 86,83 B 82,94 79,08
A 96,50 92,70 B 89,71 86,19
A 83,11 76,80 B 94,83 91,93
A 91,16 83,40 B 81,93 78,97
A 90,81 86,74 B 83,41 78,89
A 81,37 77,67 B 73,59 69,76
A 89,81 85,70 B 108,47 104,20
A 84,92 79,96 B 72,67 70,01
A 84,43 79,80 B 96,84 93,66
A 86,33 81,15 B 88,48 87,00
A 87,60 81,92 B 89,57 87,24
A 81,08 76,32 B 85,22 82,09
A 92,07 90,20 B 103,76 102,24
A 81,14 73,34 B 87,84 84,66
A 96,87 93,58 B 91,50 88,95
A 99,59 92,36 B 93,04 88,73
A 83,90 77,23 B 92,14 88,07
A 89,41 85,45 B 85,26 81,36
A 85,31 84,59 B 89,42 86,64
A 89,25 84,89 B 92,42 88,99
A 93,20 93,10 B 93,13 89,73
A 89,17 86,87 B 80,86 77,81
A 93,51 86,36 B 88,75 85,93
A 88,85 83,24 B 95,02 91,90
A 88,40 81,20 B 92,29 91,28
A 82,45 77,18 B 89,43 87,22
A 96,47 88,61 B 93,32 89,77
A 99,48 94,67 B 92,88 89,38
A 99,95 93,87 B 89,88 88,00
A 100,05 94,15 B 82,25 80,81
A 87,33 82,17 B 88,99 86,87
A 87,61 86,01 B 82,07 79,74
A 89,28 83,78
A 89,72 83,56
A 95,57 89,58
A 97,71 91,35
A 98,73 97,82

HIPÓTESIS ESTADISTICAS.-
definido y precisado, el siguiente paso en el proceso de
investigación es establecer la hipótesis de investigación. En
términos generales el término hipótesis se define como una
respuesta probable de carácter tentativo a un problema de
investigación y que es factible de verificación empírica. La
hipótesis expresa la relación entre dos o mas variables que
son susceptibles de medición. Una hipótesis planteada
correctamente debe poderse verificar o contrastar contra la
evidencia empírica.
Lo que se somete a comprobación no es exactamente la
hipótesis ni las variables que la integran, sino la relación
que expresan entre sí las variables estudiadas en la
investigación. De acuerdo con Zorrilla (1985) una hipótesis
se estructura con tres elementos:
a) Unidades de Análisis. También conocidas como unidades
de observación y representan el objeto de estudio, son
ejemplos, las personas, las empresas, los movimientos
sociales, los fenómenos naturales, etc. que se someten a
investigación.
b) Las Variables. Que son los atributos, características o
propiedades que presentan las unidades de análisis y que
serán sometidas a medición.
c) Enlace Lógico. Son términos de relación o enlace entre
las unidades de análisis y las variables, por ejemplo, las
expresiones: si…entonces…, existe relación entre…y…etc.
De acuerdo con Kerlinger (1983) las hipótesis deben cubrir
dos requisitos:
a) Expresar la relación entre una variable y otra.
b) Indicar la necesidad de verificar la relación entre las
variables
si no se cumplen ambos requisitos no se tiene una
verdadera hipótesis científica. La hipótesis es importante
por que ayuda a darle una dirección a la investigación,
además es también una predicción que puede ser probada
y que se deriva lógicamente del problema de investigación.
De acuerdo con Therese L. Baker (1997) si el objetivo del
estudio es una explicación entonces una pregunta de
investigación puede ser la base para formular una o mas
hipótesis.
La abundante literatura existente sobre metodología de la
investigación, describe una gran variedad de tipos de
hipótesis, no obstante, en la presente sección únicamente
se explicarán las siguientes: hipótesis de investigación,
hipótesis de nulidad, hipótesis alternativa e hipótesis
estadística.
a) Hipótesis de Investigación. Es el tipo de hipótesis al que
nos hemos referido anteriormente y se le define como una
aseveración, conjetura o proposición sobre las probables
relaciones entre dos o mas variables. Con frecuencia se
pueden expresar en forma descriptiva, correlacional, de
causalidad, de nulidad, etc. dependiendo del propósito y
naturaleza de la investigación que se intenta desarrollar.
a1) Hipótesis Descriptiva. La hipótesis descriptiva como su
nombre lo indica describe una situación relacional entre las
variables que se someten a estudio. Se utiliza en
investigaciones de tipo descriptivo, como pudieran ser los
estudios por encuesta.
Son ejemplos de hipótesis descriptiva los siguientes:
El periodo de recuperación de la inversión del proyecto
Duply Office es de dos años.
Los productos de consumo doméstico en México
aumentarán un 18 % en los próximos seis meses.
a2) Hipótesis Correlacional. La palabra correlación es un
término estadístico que expresa una posible asociación o
relación entre dos o mas variables, sin que sea importante
el orden de presentación de las variables, ya que no
expresan una relación de causalidad. Para verificarlas se
utilizan pruebas estadísticas de correlación.
Son ejemplos de hipótesis correlacional los siguientes:
A mayor apreciación del dólar norteamericano, mayor
depreciación del peso mexicano.
El volumen de importaciones en México disminuye con el
aumento en el tipo de cambio peso-dólar.
a3) Hipótesis de Causalidad. Las hipótesis de causalidad se
formulan para investigaciones experimentales. Expresan
una relación de causa-efecto entre las variables que se
someten a estudio. Una hipótesis de causalidad puede
expresar una relación causal entre una variable
independiente y una variable dependiente, o bien, puede
hacerlo entre mas de una variable independiente y una
variable dependiente. Son ejemplos de hipótesis de
causalidad: El elevado índice de inflación en México es
causa del bajo poder adquisitivo del peso mexicano.
Los factores de productividad total (insumo humano,
materia prima, energía, capital y otros gastos) del sector
manufacturero mexicano son los determinantes de la
productividad total.
b) Hipótesis de Nulidad. Este tipo de hipótesis expresa la
ausencia de relación, diferencia, causalidad, etc. entre dos
o mas variables. De acuerdo con D”Ary,Jacobs y Razavieh
(1982) la hipótesis de nulidad “…permite comparar los
descubrimientos con las expectativas mediante métodos
estadísticos,” (p. 85). Son ejemplos de hipótesis de nulidad:
La oferta de carreras profesionales del Instituto Tecnológico
de Cd.
Cuauhtémoc no satisface la demanda de formación
académica profesional de los egresados de nivel medio
superior en la región.
La tecnología de punta no representa una ventaja
competitiva definitiva de la empresa A al disminuir sus
costos de producción y hacer mas eficientes los procesos
productivos.
c) Hipótesis Estadísticas. Una hipótesis estadística expresa
en términos o símbolos estadísticos los anteriores tipos de
hipótesis. Se pueden expresar en términos de:
c1) Estadísticas de Estimación. Diseñadas para evaluar la
suposición respecto al valor de alguna característica de una
muestra de individuos o unidades de análisis.
c2) Estadísticas de Correlación. Traduce o transforma una
situación de correlación entre dos o mas variables a la
simbología estadística
propia de las pruebas estadísticas de correlación.
c3) Estadísticas de la Diferencia de Medias u otros Valores.
En este tipo de hipótesis se compara una estadística entre
dos o mas grupos.
Es un ejemplo de hipótesis estadística la siguiente:
La hipótesis “No hay relación entre el aprendizaje (mayor
cantidad de impresiones por hora) y el costo por unidad
impresa en la compañía Ediciones Tarahumara”, se expresa
como una hipótesis estadística de la siguiente manera:
Hipótesis nula: Ho: rxy = 0 (no hay relación entre…)
0 (existe relación entre…)≠ Hipótesis alternativa: H1: rxy

Vous aimerez peut-être aussi