Vous êtes sur la page 1sur 49

Capítulo 3. Pruebas Estadísticas paramétricas.

46

Capítulo 3

PRUEBAS ESTADISTICAS PARAMETRICAS

3.1. Introducción.

El objetivo es dar algunos métodos que se usan para tomar decisiones sobre
poblaciones, a partir de los resultados de una muestra aleatoria escogida de esa
población. Para llegar a tomar decisiones estadísticas se debe partir de afirmaciones
o conjeturas con respecto a la población en el que estamos interesados. Tales
suposiciones, pueden ser verdaderas o no. Una conjetura hecha sobre una población
o sobre sus parámetros deberá ser sometida a comprobación experimental con el
propósito de saber si los resultados de una muestra aleatoria extraída de esa
población, contradicen o no tal conjetura.

A diferencia de la estadística paramétrica, en la que el investigador aspira encontrar


en las características de la muestra que ha seleccionado, aquellas que distinguen a la
población de donde ésta procede; hay dos formas de actuar: 1) estimar el valor de un
parámetro a partir de la muestra, y 2) contrastar si su hipótesis es confirmada en la
muestra, poniendo a prueba la hipótesis de las diferencias nulas (H0), la que de no
confirmarse se explica por la hipótesis alterna (H1), que acepta que esas diferencias
existen dentro de cierto margen de probabilidad: cuando son significativa (a nivel de
una p < 0.05 o < 0.01) se rechaza la hipótesis nula y se acepta la hipótesis alterna.

3.2. Intervalo de confianza para la media poblacional .

3.2.1. Intervalo de confianza para la media : Varianza 2 supuestamente


conocida.
Se utiliza la distribución muestral de la media X para determinar el intervalo de
confianza del parámetro .

Si la población es normal N (μ, σ 2 ) , entonces, la distribución del estadístico X es


normal N (μ, σ 2 /n) para cualquier valor de n (n  2).

Si la población no es normal, pero tiene media  y varianza 2 finitas, entonces,


siempre que el tamaño n de la muestra sea suficientemente grande (n  30), por el
teorema del límite central, la distribución de X es aproximadamente normal
N (μ, σ 2 /n) .

Por tanto, según sea el caso, la distribución de la variable aleatoria:

X 
Z
/ n

es exactamente (o aproximadamente) normal N(0,1).

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 47

Por tanto, el intervalo de confianza del (1- ) x 100% para  es dado por:

σ σ
X  Z α/2  μ  X  Z α/2
n n

El valor de Z  / 2 se busca en la tabla normal N(0,1), tal que P( Z  Z  / 2 )   / 2 .


 
En la figura 5.1, tenemos que los valores a  X  Z1 / 2 y b  X  Z1 / 2
n n
son los límites de confianza de , inferior y superior, respectivamente.

Z
- z1-/2 0 z1-/2

a X b X
intervalo de 

Figura 3.1. Intervalo de estimación para .

Observación 1. Cuando la población es finita de tamaño N y el tamaño de la muestra


constituye más del 5% del tamaño de la población, se debe usar el factor de
corrección de población finita para modificar la desviación estándar. Así, el intervalo
de confianza del (1- ) x 100% para  es dado por:

σ Nn σ Nn
X - Z α/2 ·  μ  X  Z α/2 ·
n N 1 n N 1

Ejemplo 3.1. Una muestra aleatoria de 100 hogares de una ciudad indica que el
promedio de los ingresos mensuales es de $ 500. Encuentre un intervalo de confianza
del 95% para la media poblacional de los ingresos de todos los hogares de esa
ciudad. Suponga que  = $100.

Solución.
Sea X el ingreso familiar mensual de esa ciudad cuyo promedio  se quiere estimar a
partir de una muestra aleatoria de tamaño n =100. La estimación puntual de es
X  500 . Para el nivel de confianza 1- =0.95, en la tabla normal estándar se
encuentra: z / 2  z 0.025  1.96 .

 100
Entonces X  z0.975  500  (1.96)   500  19.6
n 100

Luego, el intervalo de confianza del 95% para  es: [480.4, 519.6]

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 48

Esto es, se tiene una confianza del 95% que el promedio del ingreso familiar 
de esa ciudad, está en el intervalo [$480.4, $519.6].

Ejercicio. Un analista de investigación de mercados escoge una muestra aleatoria de


100 clientes de un conjunto de 500 clientes de un gran centro comercial que
declararan ingresos mayores a 1,500 soles. El encuentra que los clientes de la
muestra gastaron en la tienda un promedio de S/. 2500.
Estimar el gasto promedio de la población finita al nivel de confianza del 95% .
Suponga que la desviación estándar de la población es  = S/.300.

3.2.2. Intervalo de confianza para la media : Varianza 2 desconocida.

A) Población no normal
Si la población no es normal pero el tamaño de la muestra es suficientemente grande
(n  30), se utiliza la desviación estándar S de la muestra, como estimación puntual
de la desviación estándar  de la población. Entonces, el intervalo de confianza del
(1- ) x 100% para  es aproximadamente:
S S
X  Z α/2 ·  μ  X  Z α/2 ·
n n

Observación 2. Cuando la población es finita de tamaño N y el tamaño de la muestra


constituye más del 5% del tamaño de la población, el intervalo de confianza del
(1- ) x 100% para la media  de una población con varianza desconocida y muestra
grande es:
S Nn S Nn
X  Z α/2 ·  μ  X  Z α/2 ·
n N 1 n N 1

B) Población normal
Si X y S son la media y la desviación estándar respectivamente de una muestra
aleatoria de tamaño n (n <30) escogida de una población normal con varianza 2
desconocida, entonces, el intervalo de confianza del (1- ) x 100 para  es:
S S
X  t α/2, n 1 ·  μ  X  t α/2, n 1 ·
n n

Observación 3. Cuando la población es finita de tamaño N y el tamaño de la muestra


constituye más del 5% del tamaño de la población, el intervalo de confianza del (1-
)x100% para  de una población normal con varianza desconocida y muestra
pequeña es:
S Nn S Nn
X  t α/2, n 1 ·  μ  X  t α/2, n 1 ·
n N 1 n N 1

Ejemplo 3.2. El peso neto de las latas de café instantáneo de un producto, debe tener
un peso neto de 280 gramos. Un inspector de la oficina de defensa al consumidor
tomo una muestra aleatoria de 5 latas de café obteniendo los siguientes pesos netos
en gramos:
280, 290, 285, 275, 284

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 49

a) Indicar si es razonable que el inspector, usando un intervalo de confianza del


95% ordene que se multe al productor.
b) ¿Con que grado de confianza se estima que el contenido promedio de café tenga
los límites de confianza 277.432 y 288.168?
Suponga una distribución normal de los pesos netos.

Solución.

a) Sea X el peso de los contenidos de café por lata, cuyo promedio  se quiere
estimar a partir de una muestra aleatoria de tamaño n = 5. Se supone que la
distribución de X es normal con desviación estándar  no conocida.

Para 1 -  = 0.95 y n -1 = 4 grados de libertad en la tabla t- Student se encuentra


t / 2, n 1 = t 0.025, 4  2.776 .

De la muestra se obtiene X  282.8 y S  5.63 . Luego tenemos:

S
X  t α/2, n 1 ·  282.8  2.776  5.63/ 5  282.8  6.99
n

Luego, el intervalo de confianza del 95% para  es: [275.81, 289.79]

Como el intervalo cubre al valor de 280 gramos, entonces es posible que el


inspector no multe al productor.

b)   [277.432, 288.168] con confianza 1- . El límite superior es:

X  t α/2, n 1 ·S/ n  282.8  t α/2, n 1  5.63/ 5  288.168

de donde resulta: t / 2, 4  2.132 ,  / 2  0.05 ,   0.10 y 1    0.90 .

3.2.3. Determinación del tamaño de muestra necesario para estimar la media.

Se puede determinar que tan grande debe ser el tamaño de la muestra, n, de manera
que si  se estima por X , el error de estimación no sea mayor que un valor dado e.

Entonces, si X estima a , entonces, se tiene una confianza del (1- ) x 100% de


que el error no será mayor que el valor dado e cuando el tamaño de la muestra sea
2
 Z ·σ 
n   α/2 
 e 

Si la población es finita de tamaño N y el muestreo es sin sustitución, error estándar


de  X  ( / n ) ( N  n) /( N  1) y el valor de n se calcula por:

z2 / 2 2 N
n 2
z / 2 2  e 2 ( N  1)

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 50

Ejemplo 3.3. Se desea realizar una encuesta en un gran sector de un área


metropolitana para determinar el ingreso familiar promedio de los 30 000 hogares de
ese sector. Se desea que el valor del estimador de la media se encuentre a S/.30.00 de
la media verdadera con un nivel de confiabilidad de 99%. Se va utilizar una
desviación estándar muestral igual a S/.200.00 que se obtuvo en una encuesta
anterior como estimador de la desviación estándar de la población. ¿Qué tamaño
debe tener la muestra que se necesita?

Solución. Tenemos

e = 30,  =200, N = 30000, 1-  = 0.99 y Z 0.995  2.58

Si sustituimos estos valores en la fórmula para n, se tiene:

z2 / 2 2 N (2.58) 2 ·(200) 2 (30000)


n 2   292.96  293
z / 2 2  e 2 ( N  1) (2.58) 2 (200) 2  (30) 2 (29999)

Por tanto, se necesitará una muestra de tamaño n = 293 hogares.

3.3. Intervalo de confianza para una proporción.


Si p̂ es la proporción de éxitos en una muestra aleatoria de tamaño n, entonces, el
intervalo de confianza del (1- ) x 100% para p es:

p̂(1  p̂) p̂(1  p̂)


p̂  Z / 2  p  p̂  Z / 2
n n

El valor de Z / 2 se halla en la tabla normal N(0,1), de manera que


P( Z  z  / 2 )   / 2 .

Ejemplo 3.4. Una encuestadora utiliza una muestra aleatoria de 600 electores que
acaban de votar y encontró que 240 votaron a favor del candidato A.
a) Estimar el porcentaje de electores a favor de A en toda la población, utilizando un
intervalo de confianza del 95%.
b) Si con la misma muestra la proporción a favor de B se estima en 38% con una
confianza del 95% que el error no es mayor a 3.88%, ¿Se puede proclamar a A
como ganador?

Solución.
a) La estimación puntual de la proporción p a favor de A en la población, es la
proporción a su favor en la muestra de n = 600 electores, es decir,
pˆ  240 / 600  0.40

Para 1 -  = 0.95 se tiene Z 0.975  1.96

Los límites de confianza inferior y superior de p son respectivamente:

p̂(1  p̂) (0.4)(0.6)


p̂  Z / 2  0.40  (1.96)  0.4  0.0392
n 600

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 51

Luego, el intervalo de confianza aproximado del 95% para p es:

0.3608  p  0.4392

Es decir, p 36.08%, 43.92% con confianza del 95%.

b) En este caso el error máximo de estimación de p es:

p̂(1  p̂)
e  Z / 2  0.0388
n
Entonces,
El intervalo de confianza del 95% a favor de A es 36.08%, 43.92%
El intervalo de confianza del 95% a favor de B es 34.12%, 41.88%

Dado que la intersección de los intervalos no es vació, no se puede proclamar a A


como ganador. En este caso se dice que hay un empate técnico.

Observación 1. Si se utiliza el valor previo de p̂ de una muestra preliminar o piloto,


el error máximo de estimación de p es:

p̂(1  p̂)
e  Z / 2
n

Entonces dado el error máximo e de la estimación de p con confianza de (1- ) x


100%, el tamaño n de la muestra resulta:

( Z / 2 ) 2 p̂(1  p̂)
n
e2

Ejemplo 3.5. Antes de una elección presidencial, un determinado partido político


está interesado en estimar la proporción de electores favorables a su candidato. Una
muestra piloto de 100 electores reveló que 60% de los electores eran favorables al
candidato en cuestión.
a) Determine el tamaño de muestra necesario para que el error cometido en la
estimación, sea a lo más 0.02 con probabilidad de 0.90
b) Si, en la muestra final (con tamaño igual al obtenido en (a), se observó que 55%
de los electores eran favorables al candidato en cuestión, construya un intervalo
de confianza para la proporción p.

Solución.
a) El estimador puntual de p es pˆ  0.60 .
Para 1-  = 0.90 se tiene Z / 2  Z 0.05  1.645 . Luego, se tiene una confianza de
90% que el error al estimar p no será mayor que 0.02 si el tamaño de la muestra
es,
(1.645) 2 (0.6)(0.4)
n  1623.615  1624 electores
(0.02) 2

b) Respuesta [0.55447, 0.56553]

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 52

Observación 2. Si el muestreo es sin reemplazo en una población finita de tamaño


N, entonces el valor del tamaño de la muestra n se calcula por:

( Z / 2 ) 2 P(1  P)·N
n
( Z / 2 ) 2 P(1  P)  e 2 ( N  1)

Si se desconoce P , se puede utilizar el valor de p  Pˆ  0.5 .

Ejemplo 3.6. Una empresa va a hacer un estudio de mercado antes de lanzar un


nuevo producto hacia una población de 30,000 consumidores.
¿Qué tamaño de muestra deberá escoger si quiere tener una confianza del 95% de
que el error de la estimación de la proporción a favor del producto no sea superior al
4%?

Solución. Para 1-  = 0.95 resulta Z / 2  Z  0.025  1.96 .

Utilizando el valor pˆ (1  pˆ )  1 / 4 y N = 30 000 se tiene:

( Z / 2 ) 2 p̂(1  p̂)·N (1.96) 2 (0.25)·(30000)


n   588.49  589
( Z / 2 ) 2 p̂(1  p̂)  e 2 ( N  1) (1.96) 2 (0.25)  (0.04) 2 (30000  1)

Se necesita 589 consumidores como minino

3.4. Pruebas estadísticas paramétricas.

Se denomina hipótesis estadística a cualquier afirmación o conjetura que se hace


acerca de la distribución de una o más poblaciones. La afirmación puede referirse
bien a la forma o tipo de distribución de probabilidad de la población o bien referirse
al valor o valores de uno o más parámetros de la distribución conocida su forma. En
las aplicaciones, se supone conocida la forma de la distribución de la población. En
este caso, las hipótesis estadísticas consisten en suponer que los parámetros, que
definen a la población, toman determinados valores numéricos.

Son hipótesis estadísticas, por ejemplo:


1. El ingreso promedio familiar mensual en la ciudad de Piura es no menos de 1300
nuevos soles.
2. La proporción de plantas industriales de cierta región que cumplen con los
estándares de contaminación ambiental es de 0.6.
3. La varianza de la longitud de cierto tipo de objetos es 0.25 cm2.
4. Son iguales las cuentas de gastos de representación de los ejecutivos de dos
departamentos de la empresa, cuyos gastos se distribuyen normalmente con
varianza común σ2.

Desde sus inicios, las computadoras se han utilizado en el manejo de los datos y en
ellas se puede hacer uso de las técnicas estadísticas, por lo que hay paquetes
estadísticos entre los cuales el SPSS (Statistical Package for the Social Sciences) es
quizá, el más usado, con más de tres décadas en el mercado.

El procedimiento estadístico que se usará para el análisis depende de:

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 53

1) El tipo de medida de la variable a analizar;


2) La distribución que caracteriza a las mediciones de las variables, la
homogeneidad de las varianzas en los grupos de ellas, el impacto de los
residuos y el tamaño de la muestra;
3) El poder de la prueba que se usará, es decir, la capacidad de aceptar o
rechazar, correctamente, la hipótesis nula.

En la tabla 3.1 se presenta una guía para la valoración de los datos estadísticos de
carácter cuantitativo.
Tabla 3.1. Valoración de las características de los datos.

1. Determinar el nivel de medida de la variable de interés.


2. Valorar la distribución de las variables.
 Medidas de tendencia central para cada variable.
 Valoración visual de la distribución de los datos.
 Examinar los diagramas de las probabilidades de la distribución.
 Si se considera necesario transformar las variables.
 Ver los resultados de la transformación.
3. Ver la homogeneidad de las varianzas.
4. Ver el tamaño de la muestra total y de los subgrupos.
5. Determinar qué prueba estadística paramétrica o no paramétrica es la
más adecuada.

Cuando se pretende probar una hipótesis respecto a uno o más parámetros de una
población que tiende a una distribución normal, las pruebas usadas son las de la
estadística paramétrica, como la t de Student. En la tabla 3.2 se presentan las
características comunes de estas pruebas paramétricas.
Tabla 3.2. Características comunes de las pruebas paramétricas.

1. Independencia de las observaciones a excepción de datos pareados.


2. Las observaciones para la variable dependiente se han obtenido de manera aleatoria
de una población con distribución normal.
3. La variable dependiente es medida al menos en una escala de intervalo.
4. Se recomienda un tamaño de muestra mínimo de 30 sujetos por grupo.
5. Los datos son obtenidos de poblaciones que tienen varianzas iguales (una varianza no
debe ser el doble o mayor que la otra).
6. Habitualmente las hipótesis se hacen sobre valores numéricos, especialmente el
promedio de una población (µ), como ejemplo:
H0 : µ1 = µ2
H1 : µ1 ≠ µ2
7. Otros posibles requisitos: variable independiente nominal o de intervalo,
homocedasticidad (para cada nivel de la variable independiente hay un variación
similar dependiente) y casillas de igual tamaño.

Por lo contrario, si los procedimientos estadísticos no requieren plantear inferencias


acerca de los parámetros de la población (su media y dispersión) se le conoce como
no paramétricos, o de distribución libre (ya que no se hacen suposiciones acerca de la
distribución de la población de donde procede la muestra).

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 54

3.4.1. Criterios para elegir una prueba estadística.

Una investigación bien planeada debe incluir referencias precisas de las técnicas
estadísticas que se van a utilizar en el análisis de los datos. El análisis estadístico es
el procedimiento objetivo por medio del cual se puede aceptar o rechazar un conjunto
de datos para confirmar una hipótesis, conocido el riesgo que se corre en función de
la probabilidad al tomar tal decisión.

Durante las décadas recientes el desarrollo de las pruebas estadísticas ha aumentado


a tal grado que en la actualidad existen varias pruebas alternativas, las cuales se
pueden usar para casi todo diseño experimental, de modo que el investigador se
encuentra ante el dilema de seleccionar la más apropiada y económica, para las
preguntas que desea contestar en su investigación.

Ante esta situación, es necesario tener una base racional, por medio de la cual se
seleccione la prueba más apropiada. Esta selección constituye el punto crítico del
análisis estadístico y debe someterse a los criterios siguientes:

a) Hipótesis.
b) Tipo de escala.
c) Potencia-eficiencia de la prueba estadística.
d) Característica de las muestras en el diseño.
e) Tendencia rectilínea o curvilínea del fenómeno.

3.4.2. Hipótesis.

La declaración de la hipótesis de trabajo o alterna (H1 o Ha) que se desea analizar


debe ser precisa y completa, pues se trata de la aseveración operacional que hace el
experimentador. Tiene que precisar la dirección que se espera o la ausencia de
dirección. Este punto es fundamental para decidir si la prueba estadística por elegir
será de una o dos colas.

El término “una cola” significa que sólo se infiere estadísticamente la aceptación o el


rechazo de la hipótesis de trabajo; y “dos colas”, que se infiere estadísticamente tanto
la aceptación (o el rechazo) de la hipótesis de trabajo como el rechazo (o la
aceptación) de la hipótesis de nulidad.

La hipótesis con determinada dirección tiene ventajas formales, a saber:

1. Demuestra que las reflexiones del investigador acerca del fenómeno que
estudia han sido adecuadas.
2. Permite conocer el marco dentro del cual se efectuó la investigación.
3. Demuestra que el análisis de los resultados se realizó con una mayor
sensibilidad del procedimiento estadístico.

Conjuntamente con el proceso anterior se declara la hipótesis de nulidad (H0) _


hipótesis cuya validez será sometida a comprobación experimental_, en la cual
simplemente se establece la ausencia de diferencia y se declara, para percibir con
claridad, que la hipótesis se ajusta a la prueba estadística. Esto significa que al

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 55

analizar un conjunto de observaciones, éstas deben sujetarse a un ensayo de hipótesis


de nulidad, condición en la que se basan todas las pruebas estadísticas.

Al contrastar hipótesis de diferencias y/o correlación, el investigador las establece en


función de una hipótesis alterna (Ha) _ punto fundamental de la experimentación_, en
contra de la hipótesis de nulidad (H0); sin embargo, para decidirse por cualquiera,
debe proponerse un razonable nivel de significación desde antes de aplicar la prueba
estadística.

El nivel de significación corresponde al límite de confianza, por el riesgo de error,


que enjuicia el investigador para aceptar su Ha como verdadera. De manera universal
y arbitraria tal nivel se ha fijado en 0.05 y 0.01 de error y en 0.95 y 0.99 de certeza,
para aceptar hipótesis nulas.

Por el contrario, también se debe establecer la zona de rechazo, la cual corresponde


al límite de confianza en la cual el investigador rechaza la hipótesis alterna y acepta
la hipótesis nula.

Bajo estos términos, el investigador debe ser meticuloso al elegir la prueba


estadística y al plantear la hipótesis, el nivel de significación y la zona de rechazo, ya
que es factible cometer dos errores graves en la decisión estadística:

Error de tipo I: rechazar la hipótesis de nulidad, siendo verdadera.


Error de tipo II: Aceptar la hipótesis de nulidad, siendo falsa.

La probabilidad de cometer un error de tipo I se denota por α. Entonces,


α = P[error tipo I] = P[rechazar H0 cuando H0 es verdadera]

La probabilidad de cometer un error tipo II se denota por β. Entonces,


β = P[error tipo II] = P[aceptar H0 cuando H0 es falsa]
Tabla 3.3.

H0 verdadera H0 falsa
Decisiones

Aceptar H0 Decisión correcta. Error tipo II


Probabilidad: 1 - α Probabilidad: β
Rechazar H0 Error tipo I Decisión correcta.
Probabilidad: α Probabilidad: 1 - β

Debe quedar claro que en cualquier inferencia estadística existe el peligro de cometer
cualquiera de estos errores, y por ello el investigador debe equilibrar las
probabilidades de incurrir en uno u otro.

Tipos de prueba de hipótesis. El tipo de prueba depende básicamente de la


hipótesis alternativa H1. Se denomina prueba de una cola a toda hipótesis donde la
alternativa H1 es unilateral. Si la alternativa H1 es bilateral, la prueba se denomina
prueba de dos colas.
H0 : θ = θ0 contra H1 : θ ≠ θ0 se denomina prueba bilateral o de dos colas.
H0 : θ ≤ θ0 , y H1 : θ > θ0 se denomina prueba unilateral de cola a la derecha.
H0 : θ ≥ θ0 , y H1 : θ < θ0 se denomina prueba unilateral de cola a la izquierda.

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 56

3.4.3. Tipo de escala.

En las observaciones de una investigación se puede utilizar una medición, que en


este campo consiste en asignar números a objetos de acuerdo con reglas de la lógica.

El sistema numérico es una creación altamente lógica, que ofrece múltiples


posibilidades para manifestaciones también de carácter lógico. Si de manera legítima
es posible asignar números al describir características, objetos y eventos, también
será factible operar con ellos en todos sus nodos permisibles y de esas operaciones
derivar conclusiones aplicables a los fenómenos observados.

Es justificable describir cosas reales por medio de números, siempre y cuando exista
un grado de isomorfismo _ por ejemplo, semejanza de propiedades entre las cosas
reales y el sistema numérico _; es decir, que ciertas propiedades de los números
deben tener paralelismo con los fenómenos observados para asignarles números.

Hay tres propiedades fundamentales de los números que permiten su aplicación en el


campo de la investigación científica:
1. Identidad.
2. Ordinalidad.
3. Aditividad.

a) Identidad. Cada número solamente es igual a sí mismo. Ningún otro número es


igual a él, es decir, posee identidad y, por consiguiente, a cualquier objeto o
evento diferente de los demás que tenga identidad se le podrá asignar un
número. Este carácter de identidad de los números da origen a la escala nominal,
que es un método para identificar cualitativamente los objetos y eventos, pero no
se le puede dar ningún significado cuantitativo, por ejemplo: si en un modelo
experimental se cuenta una serie de clases, en las cuales se consignan sus
frecuencias, éstas revelan un conjunto de clase.

En la tabla 3.4 hay una muestra de 160 empleados de una determinada empresa
participantes de un programa de capacitación en cómputo, que se ha clasificado
en dos grupos por sexo (masculino y femenino) y por la calificación obtenida al
concluir dicho programa.

Tabla 3.4. Características de una medida cualitativa con variable discontinua y escala
nominal.
Frecuencias
Serie de clases
(Número de empleados)
Hombres con calificación: Deficiente 08
Hombres con calificación: Bueno 20
Hombres con calificación: Aceptable 30
Hombres con calificación: Excelente 22
Mujeres con calificación: Deficiente 12
Mujeres con calificación: Bueno 15
Mujeres con calificación: Aceptable 33
Mujeres con calificación: Excelente 20
Total 160

Como punto de partida, la operación de escalamiento consiste en que, a partir de


una clase dada, se forman subclases que se excluyen mutuamente. La única

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 57

relación implicada es la de equivalencia, o sea, que los miembros de cualquier


subclase deben ser equivalentes en la propiedad de medida. A su vez, la relación
de equivalencia es reflexiva, simétrica y transitiva.

Por otro lado, las frecuencias significan conjuntos de trabajadores o serie de


clases con una categoría e identidad, que dan una medida de las observaciones y
son valores sujetos a operaciones aritméticas. En estas condiciones es posible
contrastar hipótesis de la distribución de los casos, mediante la aplicación de
pruebas estadísticas no paramétricas del tipo de prueba binomial, ji cuadrado y
McNemar. Todas estas pruebas son apropiadas para datos nominales, porque
revelan las frecuencias en las categorías, es decir, en datos enumerativos.

b) Ordinalidad. Los números también tienen un orden o rango mayor que otro, el
cual le precede en un continuo ascendente. Los objetivos susceptibles de un
ordenamiento a lo largo de un continuo tienen una escala ordinal.
Por ejemplo, los empleados participantes del programa de capacitación en
cómputo (ver tabla 3.4), cuando se clasifica su habilidad en el manejo de la
computadora bajo los términos: deficiente, bueno, aceptable y excelente; esto
indica un rango de orden y clasificación.

En conclusión, mientras que las escalas nominales sólo clasifican, las ordinales
además ordenan, de manera que dan como resultado una serie de clases y
categorías mutuamente exclusivas, llamadas rangos.

c) Aditividad. Los números tienen propiedad aditiva, lo cual significa que la suma
de dos de ellos (ambos diferentes de cero) da un tercer número único. Esta
propiedad no solamente los identifica y ordena, sino que además puede sujetarse
a todas sus operaciones aritméticas. Las conclusiones de tales operaciones son
válidas para las observaciones y originan la denominada escala de intervalo.

De las mediciones que se hayan realizado en el terreno de la investigación puede


inferirse el tipo de escala: nominal, ordinal o de intervalo.

Este el primer paso para elegir un procedimiento estadístico: Prueba paramétrica


o prueba no paramétrica.

Tabla 3.5. Mediciones, variables y escala para la elección de la prueba estadística.


Tipo de medición Variable Tipo de escala Prueba estadística
Cuantitativa Continua Intervalo Paramétrica
Cualitativa Discontinua Nominal
No paramétrica
Ordinal

3.4.4. Potencia-eficiencia de la prueba estadística.

La validez del análisis estadístico depende de la eficacia de la prueba estadística


empleada. Una prueba es eficaz cuando tiene una probabilidad muy pequeña de
rechazar una hipótesis verdadera, y una alta probabilidad de rechazarla cuando ésta
es falsa. Si se trata de dos pruebas estadísticas, cuya probabilidad de rechazar
hipótesis falsa sea igual, la selección debe inclinarse hacia la que tenga la mayor
probabilidad de aceptar hipótesis cuando es verdadera.

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 58

Las pruebas estadísticas se dividen en dos grandes grupos paramétricas y no


paramétricas.

Pruebas paramétricas. Son aquellas cuyo modelo especifica ciertas condiciones o


premisas que debe tener la población, de la cual se ha derivado la muestra bajo
análisis; además se requiere expresar las observaciones en escala de intervalo.

Pruebas no paramétricas. Son aquellas cuyo modelo no especifica ciertas


condiciones o premisas que debe tener la población.

Las pruebas paramétricas son las más eficaces y de uso común en la investigación
(de manera particular en las ciencias administrativas), como las de comparación de
promedios: la prueba t de Student y el análisis de varianza de Fisher.

3.4.5. Características de las muestras en el diseño.

Una prueba estadística se elige en función del tamaño, la selección y la distribución


en el diseño experimental de la muestra.

 Tamaño de la muestra.
La eficiencia de una prueba estadística disminuye cuando se reducen las
condiciones o premisas del modelo; en contraste, a medida que aumenta el
tamaño de la muestra, también aumenta su eficiencia.

Esta aseveración a menudo es cierta para muestras de tamaño definido, pero


puede carecer de veracidad si se comparan dos pruebas estadísticas con muestras
de tamaños diferentes, es decir, si con un tamaño de 30 por cada grupo, una
prueba A puede ser más eficiente que la B; en cambio, la prueba B es más
eficiente que cuando A sólo cuenta con un tamaño de muestra a 20. En otras
palabras, puede evitarse escoger entre potencia y generalización, para lo cual se
selecciona una prueba estadística que tenga amplia generalización, y luego se
aumenta su eficiencia, incrementando el tamaño de la muestra.

 Selección.
Las muestras por analizar pueden ser independientes y dependientes o
relacionadas.

Muestras independientes. Son aquellas cuyo universo de población es


diferente, lo cual no significa que provenga de áreas desconocidas, sino que, en
términos de estadística, la fenomenología estudiada puede ser consecuencia de
variables distintas y que por cada una hay un universo finito o infinito. Por
ejemplo, en la Tierra hay un número finito de seres humanos; pero la variable
sexo los divide en dos universos diferentes: hombres y mujeres. En el mismo
sentido, el estado civil, define otros universos distintos, expresamente: solteros,
casados, divorciados, viudos, etc. De esta manera es posible enumerar múltiples
variables, las cuales originan una infinidad de universos, de donde es factible
elegir muestras independientes.

Muestras dependientes o relacionadas. Se refieren a las provenientes de un


universo, a las que se aplicará un plan experimental, mediante el cual se espera

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 59

un cambio que forzosamente exige un punto de referencia de no cambio. Para


esta condición el mismo grupo experimental sirve como su propio control o
testigo en el momento previo al tratamiento. De esta manera, en el análisis de las
observaciones existen dos periodos: antes y después del tratamiento.

Los elementos de las muestras dependientes pueden ser elegidos de forma que se
parecen en bastantes de sus características (el prototipo serían los gemelos, pero
también pueden ser familiares, compañeros de aula, de habitación, etc.) o se trata
de los mismos individuos evaluados en dos momentos diferentes del tiempo.

 Distribución de la muestra en el diseño experimental.


En los diseños experimentales el número de muestras con que está elaborado el
modelo de investigación tiene singular valor para elegir la prueba estadística,
porque si no se aplica la prueba adecuada, las conclusiones originarán falsas
interpretaciones del experimento.

En los modelos de investigación se puede contar con una, dos muestras.


Asimismo, puede tratarse de muestras independientes o dependientes. Todas
estas características otorgan un atributo especial al diseño experimental, lo que
obliga a analizar los datos de manera diferente, acorde con el modelo estadístico
que mejor se ajuste a contestar las preguntas planteadas por la hipótesis.

3.4.6. Tendencia rectilínea o curvilínea del fenómeno.

Cuando la hipótesis resulta de probar la asociación o correlación de variables, es


importante conocer la linealidad del fenómeno. Si es rectilíneo y tiene una escala de
intervalo, puede aplicarse el coeficiente de correlación de Pearson; pero si este
procedimiento se aplica a un fenómeno curvilíneo_ aun cuando exista una verdadera
asociación_, podrá causar la aceptación de una hipótesis de no asociación.

Un fenómeno curvilíneo puede convertirse en rectilíneo por medio de


transformaciones matemáticas (por ejemplo, logaritmos, función recíproca, seno,
coseno, etc.), y así aplicar la correlación de Pearson.

Si se desconoce la linealidad, deberá aplicarse la prueba de análisis de covarianza


para determinar la función matemática más acorde con el fenómeno estudiado.

El objetivo de este capítulo es dar algunos métodos paramétricos que se usan para
tomar decisiones sobre poblaciones, a partir de los resultados de una muestra
aleatoria escogida de esa población. Para llegar a tomar decisiones estadísticas se
debe partir de afirmaciones o conjeturas con respecto a la población en el que
estamos interesados. Tales suposiciones, pueden ser verdaderas o no. Una conjetura
hecha sobre una población o sobre sus parámetros deberá ser sometida a
comprobación experimental con el propósito de saber si los resultados de una
muestra aleatoria extraída de esa población, contradicen o no tal conjetura.

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 60

3.5. Prueba de hipótesis con base en una sola muestra.

Un parámetro se puede estimar a partir de datos de la muestra, ya sea mediante un


solo número (una estimación puntual) o un intervalo completo de valores posibles
(un intervalo de confianza). Sin embargo, muchas veces el objetivo de una
investigación no es estimar un parámetro, sino decidir cuál de dos afirmaciones
contradictorias acerca de un parámetro es correcta. Los métodos para llevar a cabo
esto, comprenden la parte de la inferencia estadística (paramétrica) llamada prueba
de hipótesis.

En esta sección se desarrollan procedimientos de decisión para la mayor parte de los


problemas de prueba comunes con base en una muestra de una sola población.

3.5.1. Prueba de hipótesis acerca de una media, con varianza σ2 conocida.

Sea X la media de una muestra aleatoria de tamaño n seleccionada de una población


con media μ y varianza σ2 supuestamente conocida.

 Si la población es normal N(μ, σ2 ), entonces, la distribución de la estadística X


es exactamente normal N(μ, σ2 / n ) para cualquier valor de n (n ≥ 2).
 Si la población no es normal, pero el tamaño de la muestra n es suficientemente
grande (n ≥ 30 ), entonces, la distribución de X es aproximadamente normal
N(μ, σ2 / n ).

X  μ0
Como consecuencia, la estadística: Z ~ N(0,1)
σ/ n

Si se supone verdadera la hipótesis nula H0 : θ = θ0 , la estadística especificada por la


hipótesis es entonces, ahora:

X  μ0
Z
σ/ n

1. Prueba unilateral de cola a la derecha.

1. Hipótesis: H0 : μ = μ0 contra H1 : μ > μ0

2. Nivel de significancia: α (0 < α < 1)


X  μ0
3. Estadística de prueba: Z
σ/ n
4. Región crítica: La región crítica en el rango de variación de z es:

R.C   Z   / Z  Z1 

X  μ0
5. Decisión ó conclusión: Si el valor de Z  > Z1- α , se rechazara H0 al
σ/ n
nivel de significancia α. No se rechazara en caso contrario.

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 61

Z
0 z1-
Aceptar H0 Aceptar H1
Figura 3.2. Región critica cola a la derecha en escala Z.

2) Prueba unilateral de cola a la izquierda.

1. Hipótesis: H0 : μ = μ0 contra H1 : μ < μ0

2. Nivel de significancia: α

X  μ0
3. Estadística de prueba: Z 
σ/ n

4. Región crítica: La región crítica en el rango de variación de z es:

R.C   Z  - Z1 

α
-
Z
z1- 0

Rechazar H0 Aceptar H1

Figura 3.3. Región critica cola a la izquierda en escala Z.

3) Prueba bilateral o de dos colas.

En este caso las Hipótesis son: H 0 : μ = μ0 contra H 1 : μ ≠ μ0

La región crítica es: R.C   Z  - Z / 2 ó Z  Z/2 

Z
- z/2 0 z/2
Rechazar H0 Aceptar H0 Rechazar H0

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 62

Figura 3.4. Región critica bilateral en escalas Z.


Ejemplo 3.7. Al estudiar si conviene tener o no una sucursal en la ciudad de Sullana,
la gerencia de una gran tienda comercial de Lima, establece el siguiente criterio para
tomar una decisión.: Abrir la sucursal sólo si el ingresos promedio es no menos de S/
1,500 y no abrirla en caso contrario.
Si una muestra aleatoria de 100 ingresos familiares de esa ciudad a dado una media
de S/ 1,440.
¿ Cuál es la decisión a tomar al nivel de significancia del 5%?.

Solución.
Sea X la variable aleatoria que representa los ingresos familiares mensuales de los
pobladores de Sullana.

1. Hipótesis: H0 : μ = 1500 ( ó H0 :μ ≥ 1500 ) (se abre la sucursal)


H1: μ < 1500 ( no se abre la sucursal)

2. Nivel de significancia: α = 0.05

3. Estadística de prueba: como la población de los ingresos no es normal, pero


n = 100 es grande, por el teorema del límite central, la estadística apropiada es:

X  μ0
Z
σ/ n

cuya distribución es aproximadamente normal N(0,1).

4. Región critica: Si se supone verdadera la hipótesis nula H0 : μ = 1500, para


α = 0.05 y la alternativa unilateral de cola a la izquierda, en la distribución de Z,
se encuentra el valor critico Zα = Z0.05 = -1.645

α = 0.05

Z
z0.05 = -1.645 0

Luego la región critica en la variable de Z es : R.C   Z  - 1.645 

5. Cálculos: De la muestra se tiene X  1440

X  μ0 1440  1500
Z   2.5
σ/ n 240/ 100

6. Decisión. Dado que Z = -2.5 ε R.C, debemos rechazar H0 y concluir con no abrir
la sucursal en Sullana.

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 63

NOTA. Método del valor P de la prueba.

Otra forma de establecer la regla de decisión, es calculando el valor de P, a partir del


valor absoluto de Zk= ( Z k  (X  μ 0 )/(σ/ n ) , que se obtiene de la muestra, de
manera que:
a) P = P(Z > zk) (cola a la izquierda)
b) P = P(Z < zk) (cola a la derecha)
c) P = P(Z < - zk) + P(Z > zk) = 2P(Z > zk ) (para dos colas)

Si el valor de P < α, entonces, se rechazará H0. No se rechazará H0, en caso contrario.

Los programas estadísticos (Statgraphics, SPSS, Minitac, entre otros) contienen el


método del valor P en las pruebas de hipótesis.
En el ejemplo 1, el valor absoluto de Zk es igual a 2.5, entonces,

P  P(Z  2.5)  P(Z  2.5)  0.5  P(0  Z  2.5)  0.0062

dado que P = 0.0062 < α = 0.05, se debe rechazar H0 , con un riesgo α = 0.05 y que
este valor de Zk sólo ocurrirá en 62 casos de 10,000 experimentos. Una región
crítica de tamaño 0.0062 es muy pequeña y, por tanto, es poco probable que se
cometa error tipo I.

Ejemplo 3.8. Un proceso automático llena latas de conservas de atún. Si el peso neto
medio del contenido es 170 gramos se afirma que el proceso está controlado, en caso
contrario, el proceso no está controlado. En el proceso de enlatado se ha determinado
que los pesos netos del contenido en las latas se distribuyen como una normal con
desviación estándar de 20 gramos. Si una muestra aleatoria de 16 latas llenas de atún
ha dado el peso neto medio de 165 gramos, ¿se podría concluir que el proceso esta
fuera de control al nivel de significancia 5%?

Solución.
Sea X la variable aleatoria con la que se representa el peso neto del contenido en las
latas de atún
1. Hipótesis: H 0: μ = 170 (el proceso está controlado)
H 1: μ ≠ 170 (el proceso está fuera de control)

2. Nivel de significancia: α = 0.05

3. Estadística de prueba: como la población del contenido neto de atún es normal,


N(170, (20)2), la estadística apropiada es:

X  μ0
Z ~ N(0, 1)
σ/ n

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 64

4. Región critica: Para α = 0.05 y la alternativa bilateral, en la distribución de z, se


encuentra el valor critico:
Zα = Z0.05 = 1.96

Z
- 1.96 0 1.96

Luego la región critica en la variable Z es: R.C = { Z< -1.96 ó Z > 1.96 }

5. Cálculos: De la muestra se tiene X  165 , entonces el valor de Z es:

X  μ0 165  170
Z   1
σ/ n 20 / 16

6. Decisión. Dado que el valor Z = -1  R.C, no debemos rechazar H0 y concluir que


el proceso de enlatado esta controlado (bajo control).

3.5.2. Prueba de hipótesis acerca de una media, con varianza σ2 desconocida.

A) Población no normal.

Si la población no tiene distribución normal y si la varianza es desconocida, para


probar hipótesis acerca de la media μ, sólo si, el tamaño de la muestra es grande (n ≥
30), se utiliza la estadística:
X  μ0
Z
S/ n

cuya distribución es aproximadamente N (0,1).

Luego, las regiones criticas de las pruebas de H0: μ = μ0 contra las alternativas
respectivas H1: μ ≠ μ0 ó H1: μ > μ 0 ó H1: μ < μ0 son las mismas (aproximadamente
de la sección anterior).

B) Población normal.

Si la población tiene distribución normal N (  ,  2 ) , donde μ y σ2 son desconocidas,


para n ≤ 30 la estadística de prueba acerca de la media μ es:

X  μ0
T ~ t ( n1)
S/ n

1) Prueba bilateral o de dos colas.

1. Hipótesis: H0 : μ = μ0 contra H1 : μ ≠ μ0

2. Nivel de significancia: α ( 0 < α < 1)

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 65

X  μ0
3. Estadística de prueba: T 
S/ n
4. Región critica: la región critica en el rango de variación de t es:

R.C  { T   t ( /2, n 1) ó T  t ( /2, n 1) }

α/2 α/2

t
- t/2 0 t/2

Rechazar H0 Aceptar H0 Rechazar H0

Figura 3.5. Región critica bilateral en escala t.

5. Decisión. Se rechazará H0 con riesgo α, si el valor de t  R.C. No se rechazará H0


en caso contrario.

2) Prueba unilateral de cola a la derecha.

En este caso las hipótesis son H0 : μ = μ0 contra H0 : μ > μ0

La región critica en el rango de variación de T es: R.C = {T > t (1-α, n-1)}

0 t1- t
Aceptar H0 Rechazar H0

Figura 3.6. Región critica cola a la derecha en escala t.

3) Prueba unilateral de cola a la izquierda.

En este caso las hipótesis son H0 : μ = μ0 contra H0 : μ < μ0

La región critica en el rango de variación de T es: R.C = {T < - t ( α, n-1)}

t
- t1-  0
Rechazar H0 Aceptar H0

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 66

Figura 3.7. Región critica cola a la izquierda en escala t.

Ejemplo 3.9. Las cajas de cierto tipo de cereal procesado por una fábrica deben tener
un contenido promedio de 160 gramos. Por una queja ante el defensor del
consumidor de que tales cajas de cereal tienen menos contenido, un inspector tomó
una muestra aleatoria de 10 cajas encontrando los siguientes pesos de cereal en
gramos:
157, 157, 163, 158, 159, 162, 159, 158, 156, 161

¿Es razonable que el inspector multe al fabricante?. Utilice un nivel de significancia


del 5%.Suponga que los contenidos tienen distribución normal.

Solución.
Sea la variable aleatoria X que representa los pesos de los contenidos en las cajas del
cereal. Mediante la prueba de Kolmogorov-Sminor, se realizado la verificación del
supuesto de que la variable aleatoria X, tiene una distribución normal.

Se ha utilizado El SPSS, siguiendo la secuencia:

Analizar > Pruebas no paramétricas > cuadros de diálogos antiguos > Prueba de K-S
(Kolmogorov – Sminor) para una muestra.

Prueba de Kolmogorov-Smirnov para una muestra

Contenido_en_latas

N 10

a,b
Media 159,00
Parámetros normales
Desviación típica 2,309
Absoluta ,200
Diferencias más extremas Positiva ,200
Negativa -,107
Z de Kolmogorov-Smirnov ,632
Sig. asintót. (bilateral) ,819

a. La distribución de contraste es la Normal.


b. Se han calculado a partir de los datos.

Como el valor de p = 0.819 > α = 0.05, entonces se acepta la hipótesis de nulidad,


H0: Los contenidos netos en las cajas de cereal se distribuyen como distribución
normal.

Ahora que se ha verificado que la distribución de probabilidad de X es normal,


entonces se contrasta la hipótesis de que el contenido promedio en las latas es de
μ = 160 gramos y varianza σ2 desconocida.

1) Hipótesis: H0: μ = 160 contra H1: μ < 160

2) Nivel de significancia: α = 0.05

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 67

3) Estadística de prueba: población normal, con varianza desconocida y muestra


pequeña n = 10 < 30, emplearemos la siguiente estadística de prueba:
X  160
T
S/ n

que se distribuye según una distribución t- Student con 9 grados de libertad.

4) Región critica: Con el nivel de significancia α = 0.05 y para una prueba de


hipótesis unilateral de cola a la izquierda, en la tabla de probabilidades t- Student
se encuentra el valor de t(α, n-1) = t(0.05, 9) = 1.833.
Consecuentemente, la región critica es: R.C = { T < -1.833 }

5) Cálculos: De los datos de la muestra se obtiene: n = 10 , X  159 , S = 2.309,

X  160 159  160


T   1.37
S/ n 2.309 / 10

6) Decisión: dado que el valor T = -1.37  R.C. debemos aceptar H0 y concluir que
el inspector no multará al fabricante.

Nota. Mediante la aplicación del software SPSS, siguiendo la secuencia:

Analizar> comparar medias > Prueba T para una muestra

Estadísticos para una muestra

N Media Desviación típ. Error típ. de la


media

Contenido_en_latas 10 159,00 2,309 ,730

Prueba para una muestra

Valor de prueba = 160

t gl Sig. (bilateral) Diferencia de 95% Intervalo de confianza


medias para la diferencia

Inferior Superior

Contenido_en_latas -1,369 9 ,204 -1,000 -2,65 ,65

Como el p-valor de la prueba es 0.204/2= 0.102, es decir, p = P(T < -1.369) = 0.102,
es mayor que α = 0.05 no se rechaza H 0.

3.5.3. Prueba de hipótesis acerca de una proporción.


Sean X1, X2,..., Xn una muestra escogida de una población Bernoulli B(1, p), donde p
es la proporción de éxitos en la población.

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 68

X1  X 2  ...  X n X
Sea p̂   , la proporción de éxitos en la muestra, siendo X el
n n
número de éxitos en la muestra.

La estadística X tiene distribución exactamente binomial B(n, p).

Si n es suficientemente grande1, la estadística

X  np pˆ  p
Z   N (0, 1)
np (1  p) p(1  p) / n

si se supone verdadera la hipótesis nula H0 : p = p0 , entonces, la distribución


muestral de X es exactamente binomial B(n, p0), y la de la variable aleatoria

X  np0 pˆ  p0
Z   N (0, 1)
np0 (1  p0 ) p0 (1  p0 ) / n

Dado el nivel de significancia α, la prueba de la hipótesis nula H 0 : p = p0 , contra


cualquiera de las alternativas H1 : p ≠ p0 ó H1 : p > p0 ó H1 : p < p0 se basa tanto en
la estadística X como en la estadística Z.

3.5.3.1. Prueba bilateral.


Muestra grande.

La prueba es, H0 : p = p0 contra H1 : p ≠ p0

Luego, la región critica en los valores de Z es el intervalo:

R.C  { Z   Z1α/2 ó Z  Z1α/2 }

X  np0 pˆ  p0
Se rechaza H0 si el valor de Z    R.C.
np0 (1  p0 ) p0 (1  p0 ) / n

No se rechazará en caso contrario.

3.5.3.2. Prueba unilateral de cola a la derecha.

Muestra grande.

Las hipótesis son : Ho : p = po contra H1 : p > po


En este caso, la región critica en los valores de Z es el intervalo:

1
La aproximación normal a la distribución binomial se puede utilizar cuando np y n(1 - p) son mayores
que 5. De este modo, por ejemplo, cuando n = 50, se pueden aplicar los métodos de la curva normal,
si p queda entre 0.10 y 0.90; cuando n = 100, se pueden aplicar si p esta entre 0.05 y 0.95; y, cuando
n = 200, se pueden emplear si p queda entre 0.025 y 0.975. esto ilustra a qué nos referimos aquí,
cuando decimos que “ n es grande”.

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 69

R.C = {Z >Z1-α }

Se rechaza H0 si el valor de Z  R.C.


3.5.3.3. Prueba unilateral de cola a la izquierda.

Muestra grande.

Las hipótesis son: Ho: p = po contra H1 : p < po

La región crítica en los valores de Z es: R.C = { Z < - Z1-α }

Luego se rechaza H0 si el valor de Z  R.C.

Ejemplo 3.10. Un fabricante afirma que el 30% de todos los consumidores prefieren
su producto. Con el fin de evaluar está afirmación se tomó una muestra aleatoria de
400 consumidores y se encontró que 100 de ellos prefieren dicho producto. ¿Es ésta,
suficiente evidencia para inferir que el porcentaje de preferencia del producto no es
30%? Utilice el nivel de significancia del 1%.

Solución. Sea p la proporción poblacional de preferencia del producto.

1) Hipótesis: H0: p = 0.30 contra H1 : p ≠ 0.30

2) Nivel de significancia: α = 0.01.

3) Estadística de prueba: Si Ho es verdadera y n es grande, la estadística

pˆ  p0 pˆ  0.3
Z   N (0, 1)
p0 (1  p0 ) (0.3)(0.7)
n n

4) Región critica: Para α = 0.01 y una prueba bilateral, en la distribución de Z se


encuentra el valor critico Z0.995 = 2.575.
Luego, R.C = { Z < -2.575 ó Z > 2.575 }

x 100
5) Cálculos: n= 400, x = 100 , pˆ    0.25
n 400

pˆ  p0 0.25  0.3
Luego se tiene: Z   2.18
p0 (1  p0 ) (0.3)(0.7)
n 400

6) Decisión: Como Z =-2.18  R.C, no debemos rechazar H0, y concluimos que el


fabricante tiene la razón.

Ejercicio. Una empresa al seleccionar su personal lo somete a un curso de


entrenamiento. Por experiencia el 76% de los aspirantes aprueban el curso. Se
efectúan ciertos cambios en el programa para el cual se inscriben 40 y 24 lo

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 70

aprueban. ¿Podría afirmarse que los cambios introducidos reducen la selección? Use
α = 0.01.

Solución. pˆ  24 / 40  0.60 , Z=-2.07. No se rechaza la hipótesis H 0. La selección no se


reduce con los cambios introducidos, al nivel del 1%.
3.6. Prueba de hipótesis para dos muestras independientes (datos no
relacionados).

Esta prueba está indicada en aquellos casos cuando se quiere establecer si la


diferencia entre dos medias de una variable para dos grupos de casos, extraídas de
dos poblaciones independientes, es significativamente o si una media es mayor o
menor que la otra.

Todas las pruebas paramétricas, entre las cuales se incluyen la t de Student y la F de


Fisher, se basan en supuestos teóricos matemáticos que les otorgan validez y tienen
alta potencia-eficiencia para evitar el error tipo I.

Para aplicar tales pruebas paramétricas como instrumentos estadísticos es necesario


cumplir con algunos requisitos, expresamente:

1. Las observaciones deben ser independientes.


2. Las observaciones deben hacerse en universos poblacionales distribuidos
normalmente.
3. Las mediciones se deben elaborar en una escala de intervalo, entendiendo que
ello exige que puedan efectuarse todas las operaciones aritméticas admisibles.
También se requiere que los intervalos entre las mediciones sean
equivalentes.
4. Las varianzas de los grupos deben ser homogéneas, es decir, que la génesis
del error sea el mismo. En las mediciones en biomedicina es poco probable
que la generación del error sea idéntica, por ello es necesario utilizar la
prueba chi-cuadrado de Bartlett para decidir si las diferencias en la amplitud
de las varianzas se deben al azar o no.

3.6.1. Prueba de hipótesis acerca de dos medias con varianzas σ 12 y σ 22


supuestamente conocidas.

Sean X1 y X 2 las medias de dos muestras aleatorias independientes de tamaños n1 y


n2 seleccionadas respectivamente de dos poblaciones independientes, con medias μ1
y μ2 y varianzas σ 12 y σ 22 respectivas supuestamente conocidas.

- Si las dos poblaciones son normales, entonces las estadísticas:

X1 ~ N( μ 1 , σ12 /n 1 ) y X 2 ~ N( μ 2 , σ 22 /n 2 )

Luego la estadística X1 - X 2 ~ N( μ1 - μ 2 , σ12 /n 1  σ 22 /n 2 ) .

- Si las dos poblaciones no son normales, pero n1 y n2 son suficientemente grandes


(n1 ≥ 30 y n2 ≥ 30), entonces:

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 71

X1 - X 2  N( μ 1 - μ 2 , σ12 /n 1  σ 22 /n 2 )

Luego, según sean las dos poblaciones normales o no, la estadística:

X1  X 2  (μ 1  μ 2 )
Z
σ12 σ 22

n1 n 2

tiene distribución exactamente o aproximadamente norma N (0,1).

Si se supone verdadera la hipótesis nula H0 : μ1= μ2 ó H0 : μ1 - μ2 = 0, la estadística


de prueba es:
X1  X 2
Z ~ N(0, 1)
σ12 σ 22

n1 n 2

El valor obtenido de Z, se utiliza para probar H0 contra cualquiera de las hipótesis


alternativas H0 : μ1 ≠ μ2 , H0 : μ1 > μ2 o H0 : μ1 < μ2.

1) Prueba unilateral de cola a la derecha.

1) Hipótesis: H0 : μ1 = μ2 contra H1 : μ1 > μ2


2) Nivel de significancia: α

X1  X 2
3) Estadística de prueba: Z 
σ12 σ 22

n1 n 2

4) Región crítica: En el rango de variación de Z es: R.C = { Z > Zα }

Z
0 Z

Aceptar H0 Rechazar H0

Figura 3.8. Región critica cola a la derecha en escalas Z

5) Decisión: Se rechazará H0, si el valor de Z  R.C. No se rechazará H0 en caso


contrario.

2) Prueba unilateral de cola a la izquierda.

Las Hipótesis son: H0 : μ1 = μ2 contra H1 : μ1 < μ2

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 72

La región crítica en los valores de Z es: R.C = {Z < - Z1-α }

3) Prueba bilateral o de dos colas.


En este caso las Hipótesis son: H0 : μ1 = μ2 contra H1 : μ1 ≠ μ2

La región crítica en el rango de variación de Z es:

R.C = {Z < - Z1-α/2 ó Z > Z1-α/2 }

Nota. Cuando las hipótesis son de la forma:

1) H0 : μ1 - μ2 = do contra H1 : μ1 - μ2 ≠ do
2) H0 : μ1 - μ2 = do contra H1 : μ1 - μ2 > do
3) H0 : μ1 - μ2 = do contra H1 : μ1 - μ2 < do

(X1  X 2 )  d 0
Estadística de prueba es, Z 
σ12 σ 22

n1 n 2

cuya distribución es exactamente o aproximadamente normal N(0,1), según sean las


dos poblaciones normales o no.

Ejemplo 3.11. Un fabricante quiere comparar dos marcas de maquinas, A y B; para


fabricar un tipo de articulo. Observa dos muestras aleatorias de 60 artículos
procesados por A y B respectivamente y encuentra que las medias de proceso
respectivas son 1230 y 1190 segundos. Suponga que σ1 = 120 segundos y σ2 = 90
segundos.
a) al nivel de significancia del 5%, ¿se puede inferir que la maquina B es más rápida
que la máquina A?
b) al nivel de significancia del 5%, ¿se puede inferir que la media de B es menor que
la media de A en menos de 7 segundos?

Solución.
Sean X1 y X2 los tiempos de proceso con las maquinas A y B respectivamente y μ 1 y
μ2 sus medias respectivas. Se desconocen las distribuciones de probabilidad de X1 y
X2, pero las muestras son grandes.
a)
1) Hipótesis : H0 : μ1 = μ2 contra H1 : μ1 > μ2
2) Nivel de significancia: α = 0.05

3) Estadística de prueba : Si se supone verdadera H0 : μ1 = μ2 y para muestras


grandes n1 = 60 y n2 = 60, la estadística apropiada es:

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 73

X1  X 2
Z  N(0, 1)
σ12 σ 22

n1 n 2

4) Región critica: En el rango de variación de Z es: R.C = { Z > 1.645 }


5) Cálculos. De los datos se tiene:

n1 = n2 = 60 , X1  1230 , X 2  1190 ;  1  120 y σ 2  90

Luego:
1230 - 1190 40
Z   2.0655
(120) 2
(90) 2 19.365

60 60

6) Decisión. Como el valor de Z = 2.0655  R.C, debemos rechazar H0 y concluir


que la maquina B utiliza menor tiempo en el proceso de fabricación para dicho
tipo de articulo.

b) En este caso, se debe probar H0: μ1 - μ2 = 7 contra H1: μ1 - μ2 > 7

Si H0 es verdadera, la estadística de prueba es

(X1  X 2 )  7
Z ~ N(0, 1)
σ12 σ 22

n1 n 2

La región critica de la prueba unilateral de cola a la derecha, al nivel de significancia


α=0.05 es la misma como del caso a), es decir:

R.C = { Z > 1.645 }

El valor del estadístico es

(X1  X 2 )  7 (1230 - 1190) - 7


Z   1.7
σ12 σ 22 19.365

n1 n 2

Como el valor de Z = 1.7  R.C. , debemos rechazar H0 y concluir que la Máquina B


utiliza un tiempo promedio menos de 7 segundos debajo del promedio de A.

3.6.2. Prueba de hipótesis acerca de dos medias con Varianzas  12 y σ 22


supuestamente desconocidas.
A) Poblaciones no normales

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 74

Si las dos muestras aleatorias n1 y n2 independientes seleccionan respectivamente de


dos poblaciones cuyas distribuciones son no normales con varianzas  12 y σ 22
supuestas desconocidas, entonces, siempre que los tamaños de las muestras sean
grandes: n1 ≥ 30 y n2 ≥ 30, las varianzas  12 y σ 22 se estiman por S12 y S22 . En este
caso, para probar la hipótesis H0 : μ1 – μ2 = 0 se utiliza la estadística:
(X1  X 2 )  (μ 1  μ 2 )
Z  N(0,1)
S12 S 22

n1 n 2

B) Poblaciones normales

Sean X1 y X 2 las medias y S12 y S22 las varianzas de dos muestras aleatorias
independientes de tamaños n1 y n2 respectivamente, seleccionadas de dos
poblaciones N(μ 1 , σ12 ) y N(μ 2 , σ 22 ) donde μ1 , μ2 ,  12 y σ 22 son desconocidas.

B1) Varianza desconocidas supuestamente iguales ( σ12  σ 22  σ 2 ).

1) Prueba unilateral de cola a la derecha

Hipótesis: H0: μ1 = μ2 (ó μ1 - μ2 = 0)
H1: μ1 > μ2 (ó μ1 - μ2 > 0)

Si la prueba nula H0 es verdadera y si las poblaciones son normales con varianzas


desconocidas supuestas iguales, entonces la estadística de prueba es:

(X1  X 2 ) (X1  X 2 )
T 
2 2
S S 1 1

c c Sc 
n1 n 2 n1 n 2

que tiene distribución t- Student con n1 + n2 – 2 grados de libertad.

Donde Sc2 el estimador insesgado de la varianza común σ2 es:

(n1  1)S12  (n 2  1)S22


S 
2

n1  n 2  2
c

que tiene distribución t- Student con n1 + n2 –2 grados de libertad.


La región critica en el rango de variación de T es: R.C  T  t ( , n1  n 2  2) 

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 75

0 t

Aceptar H0 Rechazar H0

Figura 3.9. Región critica cola a la derecha en T.

2) Prueba unilateral de cola a la izquierda.

Las hipótesis son H0 : μ1 = μ2 contra H1 : μ1 < μ2


La región crítica en este caso será: R.C  T   t (1α, n1  n 2  2) 
Rechazar H0 si el valor de T  R.C. No rechazar H0 en caso contrario.

3) Prueba bilateral o de dos colas.

Las hipótesis son H0 : μ1 = μ2 contra H1 : μ1 ≠ μ2


La región crítica en este caso será: R.C  T   t ( α/2, n1  n 2  2) ó T  t ( α/2, n1  n 2  2) 
Rechazar H0 si el valor de T  R.C.

B2) Varianza desconocidas supuestamente distintas ( σ12  σ 22 ) .

Si las varianzas de las dos poblaciones normales independientes son desconocidas


supuestamente diferentes, entonces la estadística.

(X1  X 2 )  (μ 1  μ 2 )
T ~ t
S12 S 22 (g)

n1 n 2

siendo el grado de libertad g dado por:

2
 S12 S 22 
  
g  n1 n 2  2
2
 S12   S 22 
   
 n1    n 2 
n1  1 n 2  1

si g no es entero, se aproxima al entero mayor más cercano.

Si la hipótesis nula H0 : μ1 = μ2 se supone verdadera, entonces

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 76

(X1  X 2 )
T ~ t
S12 S 22 (g)

n1 n 2

El valor del estadístico T se utiliza para probar H 0 contra cualquiera de las hipótesis
alternativas H1 : μ1 ≠ μ2 ó H1 : μ1 > μ2 ó H1 : μ1 < μ2 , las regiones criticas y las
reglas de decisión son similares a los del caso B1.
Ejemplo 3.12. A un administrador en desarrollo de recursos humanos se le pide que
determine si los salarios por hora de los obreros semiespecializados son los mismos
en dos ciudades distintas. El resultado de está investigación se presenta en la
siguiente tabla.

Ciudad Salarios medios por Desviación estándar tamaño de la


hora de la muestra de la muestra muestra

A $ 8.95 $ 0.40 200


B 9.10 0.60 175

Suponga que la empresa desea probar la hipótesis en el nivel 0.05 de que no hay
diferencia entre los salarios por hora de los trabajadores semiespecializados de las
dos ciudades.

Solución.
Sean X1 y X2 las variables aleatorias que representan los salarios por hora de los
obreros semiespecializados de las ciudades A y B respectivamente.
1) Hipótesis: H0 : μ1 = μ2 contra H1 : μ1 ≠ μ2

2) Nivel de significancia: α =0.05

3) Estadística de prueba:
Si se supone H0 verdadera y dado que los tamaños de las muestras son grandes,
entonces la estadística de prueba a utilizar es:

X1  X 2
Z  N(0,1)
S12 S 22

n1 n 2

4) Región critica: Para α = 0.05 y una prueba de hipótesis bilateral, en la


distribución N(0,1) se encuentra Z0.95 = 1.96. la región critica en la variación de
Z es:
R.C = { Z < -1.96 ó Z > 1.96}

5) Cálculos: de los datos se tiene:

n1 = 200, X1  $8.95 , S1 = $ 0.40 n2 = 175, X 2  $9.10 , S2 = $ 0.60

entonces,

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 77

X1  X 2 8.95 - 9.10 - 0.15


Z    -2.809
S12 S 22 (0.40)2 (0.60) 2 0.0534
 
n1 n 2 200 175

6) Decisión: Como Z = -2.809  R.C, debemos rechazar la hipótesis H0 y llegamos


a la conclusión de que las medias de los salarios de obreros semiespecializados
de las dos ciudades son diferentes.
Nota. Con el método del P-valor para la prueba de dos muestras se obtiene:
2P(T>2.809) = 2(0.00248) = 0.00496. Dado que p = 0.00496 < 0.05 se debe rechazar
H0 en una prueba bilateral.

Ejemplo 3.13. Una empresa grande de corretaje de acciones desea determinar qué
tanto éxito han tenido sus nuevos ejecutivos de cuenta en la consecución de clientes.
Después de haber terminado su entrenamiento, los nuevos ejecutivos pasan varias
semanas haciendo llamadas a posibles clientes, tratando de conseguir prospectos para
abrir cuentas con la empresa. Los datos siguientes dan el número de cuentas nuevas
que fueron abiertas durante las primeras dos semanas por diez ejecutivas y ocho
ejecutivos de cuenta escogidos aleatoriamente. A un nivel α =0.05 ¿parece que las
mujeres son más efectivas que los hombres para conseguir nuevas cuentas?
Se supone que el número de cuentas nuevas se distribuyen como una normal, con
varianzas desconocidas pero iguales.
Número de cuentas nuevas

Ejecutivas de cuenta 12 11 14 13 13 14 13 12 14 12

Ejecutivos de cuenta 13 10 11 12 13 12 10 12

Solución.
Como ambas muestras son pequeñas (n1 y n2 < 30), debemos comprobar que los
números de cuentas de ejecutivas y ejecutivos se distribuyen como una normal.
Aplicaremos entonces la prueba de Kolmogorov-Smirnov para contrastar dicho test
de normalidad.

Mediante el Software el SPSS, siguiendo la secuencia:

Analizar > Pruebas no paramétricas > cuadros de diálogos antiguos > Prueba de K-S
para una muestra.

Prueba de Kolmogorov-Smirnov para una muestra

Ejecutivas_Cuentas Ejecutivos_Cuenta

N 10 8

a,b
Media 12,80 11,63
Parámetros normales
Desviación típica 1,033 1,188
Absoluta ,181 ,249
Diferencias más extremas Positiva ,181 ,164
Negativa -,177 -,249
Z de Kolmogorov-Smirnov ,571 ,704

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 78

Sig. asintót. (bilateral) ,900 ,705

a. La distribución de contraste es la Normal.


b. Se han calculado a partir de los datos.

Como ambos valores de p (0.900 y 0.705) son mayores que 0.05 y 0.01, entonces se
acepta la hipótesis nula de que las cuentas nuevas abiertas tanto para las ejecutivas
como para los ejecutivos de cuenta se distribuyen como una normal.
Analicemos la elección de la prueba estadística cuando el modelo de investigación
tiene dos muestras independientes, cuyas mediciones tienen escala de intervalo. De
acuerdo con los criterios de elección de la prueba estadística, corresponde a la prueba
t de Student, la cual se aplicará sabiendo que las poblaciones del número de cuentas
nuevas abiertas se distribuyen como una normal y suponiendo homogeneidad de
varianzas.
Sean X1 y X2 las variables aleatorias que representan los números de cuentas nuevas
de las ejecutivas y ejecutivos respectivamente.

Se sabe que X1 ~ N( μ 1 , σ12 ) y X 2 ~ N( μ 2 , σ 22 ) , donde las varianzas σ 12 y σ 22 son


desconocidas, pero iguales. Realizaremos el contraste de medias de poblaciones
normales con varianzas desconocidas pero iguales y muestras pequeñas.

1) Planteamiento de hipótesis.

Hipótesis H0: Las diferencias que se observan en las nuevas cuentas abiertas por los
ejecutivos y ejecutivas de cuentas, se deben al azar. (H1: μ1 = μ2)

Hipótesis H1: Los números de cuentas nuevas abiertas por las ejecutivas de cuentas
es mayor que la de los ejecutivos. Es decir, H1: μ1 > μ2

2) Nivel de significancia: α =0.05

3) Estadística de prueba: Si se supone H0 verdadera y dado que los varianzas


poblacionales son iguales, la estadística de prueba es:

X1  X 2
T
Sc2 Sc2

n1 n 2

que se distribuye según una t- Student con n1 + n2 –2 =16 grados de libertad.

4) Región critica: Para α = 0.05 y una prueba de hipótesis unilateral a la derecha, en


la distribución t(16) se encuentra t(0.05, 16) = 1.746. La región crítica en la variación
de T es:
R.C = {T > 1.746}
5) Cálculos: de los datos se tiene:

n1 = 10, X1  12.8 , S12  1.06667 n2 = 8, X 2  11.625 , S22  1.41071

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 79

(n1  1) S12  (n 2  1) S 22 9·(1.0667)  7·(1.41071)


Sc    1.10327
n1  n 2  2 16

Entonces,

X1  X 2 12.8 - 11.625 1.175


T    2.24525
S S2 2
(1.10327) (1.10327) 2 2 0.523327
 c c

n1 n 2 10 8
6) Decisión: Como T = 2.24525  R.C, debemos rechazar la hipótesis H0 al nivel
del 5% y concluir que las mujeres son más efectivas para conseguir nuevas
cuentas.

Con el software SPSS, al aplicar la secuencia:

Analizar > comparar medias > Prueba T para muestras independientes

Obtenemos el siguiente resultado:

Estadísticos de grupo

Sexo_ejecutivos N Media Desviación típ. Error típ. de la media

Prueba de Levene para Prueba T para la diferencia de medias


la igualdad de varianzas

F Sig. t gl Sig. Diferencia


(bilateral) de medias

Se han asumido
,240 ,631 2,245 16 ,039 1,175
varianzas iguales
Número_cuentas
No se han asumido
2,209 14,035 ,044 1,175
varianzas iguales

Ejecutivas 10 12,80 1,033 ,327


Número_cuentas
Ejecutivos 8 11,63 1,188 ,420

Prueba de muestras independientes

Con el SPSS para la comparación de dos muestras se obtiene: P(T > 2.24525) =
0.039/2 = 0.0196. Dado que p = 0.0196 < 0.05 se debe rechazar H0 en una prueba
unilateral.

Ejercicio. El encargado de compras de una compañía tiene que escoger entre dos
marcas de maquinas A y B, para procesar cierto producto. Por cuestiones de precio el
encargado desearía comprar la marca A a no ser que haya evidencia de que la
máquina B es más veloz. Se le permitió operar los dos tipos de maquinas durante un
periodo de prueba, escogiendo al azar luego, los tiempos en segundos de 10 objetos
procesados por cada máquina:

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 80

Máquina A: 55 56 57 56 58 53 54 59 60 57
Máquina B: 50 51 42 50 40 60 53 44 48 58

Utilizando un nivel de significancia del 5% y suponiendo poblaciones de tiempos


normales con varianzas desconocidas pero diferentes, ¿Qué tipo de maquina debería
comprar la empresa?.-

Respuesta. El valor de T es T = 3.1983, se rechaza H0. Concluimos que se debe


adquirir la maquina B.
3.7. Prueba de hipótesis para dos muestras dependientes (datos relacionados).

Cuando se desea comparar la diferencia de dos medias poblacionales dependientes,


es decir, cuando de una población se selecciona una muestra en forma aleatoria, que
se sujeta de una variable de interés y proporciona los primeros resultados (antes), se
le aplica un tratamiento (nuevo método de enseñanza-aprendizaje, un nuevo
medicamento para alguna enfermedad, dieta específica, terapia, etc.). Luego que a
dicha muestra que se le aplicó el tratamiento determinado, se somete nuevamente a
medición, con el fin de obtener los segundos resultados (después). En este caso, se
trata de una única muestra de unidades que ha sido evaluada en dos ocasiones
diferentes (muestras repetidas). Algunos investigadores llaman a este diseño “antes-
después” o muestras dependientes o relacionadas, esto es debido a que el método
estadístico utilizado también se aplica al de dos muestras correlacionadas o apareadas
(que consiste en muestras de parejas con unidades estadísticas similares, como por
ejemplo: grupo de gemelos, parejas de la misma familia, parejas del mismo grupos
de edad, compañeros de aula, parejas con una relación emocional, convivencia
profesional de intereses comunes o cualquier relación biunívoca de mucho tiempo).

Las pruebas estadísticas paramétricas para muestras dependientes, satisfacen los


mismos requisitos que las que satisfacen las pruebas paramétricas para muestras
independiente, excepto la independencia de las muestras. Así, en estas pruebas se
exige dependencia entre ambas muestras, en las que hay dos momentos uno antes y
otro después.

Compara las medias de dos variables en un solo grupo. Con ello se da a entender que
en el primer período, las observaciones servirán de control o testigo, para conocer los
cambios que se susciten después de aplicar una variable experimental.

La homogeneidad de varianzas, es un requisito que también debe satisfacerse y una


manera práctica es demostrarlo mediante la aplicación de la prueba chi-cuadrado de
Bartlett.

3.7.1. Prueba de hipótesis acerca de dos medias con muestras relacionadas con
varianzas poblacionales σ 12 y σ 22 desconocidas.

Sea (x1, y1), (x2, y2),…., (xn, yn) una muestra aleatoria de n datos aparejados, donde
las muestras correlacionadas, son seleccionadas respectivamente de dos poblaciones
normales X ~ N( μ1 , σ12 ) y Y ~ N( μ 2 , σ 22 ) . Podemos concebir estas diferencias
Di  x i - yi , i = 1, 2,…, n, como una muestra aleatoria seleccionada de una población

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 81

de diferencia D cuya distribución es normal N( μ D , σ 2D ) , con media μ D  1 -  2 y


varianza σ 2D   12 -  22 - 2  cov(x, y) .

- Si σ 2D es conocida, la estadística de prueba o de contraste es:

D   D D  ( 1   2 )
Z   N(0,1)
D n D n

- Por otro lado, si σ 2D es desconocida, entonces, la estadística de prueba es:


D   D D  ( 1   2 )
T   t ( n 1)
ˆ D n SD n

Si H0: μ D  1 -  2 = 0 (la diferencia de medias toma un determinado valor, cero si


se asumen iguales) se supone verdadera, la estadística T es:

D
T
ˆ D n

se distribuye como t (n-1) y se utiliza para probar H 0 : μ D  0 contra cualquiera de las


alternativas H1 : μ D  0 o H1 : μ D  0 o H1 : μ D  0 .

Ejemplo 3.14. Un administrador está probando la posibilidad de usar un nuevo


Software de computación. Cambiará de Software si hay prueba que el nuevo usa
menos tiempo que el antiguo al procesar determinada tarea. A fin de tomar una
decisión se selecciona una muestra aleatoria de 7 operadoras y se registra el tiempo
de procesamiento en segundos con ambos tal como se da en la tabla que sigue:
Tabla 3.6. Tiempo de realización de la tarea , en segundos.
Operadora Software Software
Di Di2
antiguo nuevo
1 10 6 + 4 16
2 10 10 0 0
3 15 12 +3 9
4 12 8 + 4 16
5 16 15 +1 1
6 14 16 -2 4
7 16 12 + 4 16
∑ 14 62

A partir de estos datos, ¿se cambiará el software de cómputo antiguo por el nuevo?
Use un nivel de significación del 5%.

Solución.

Cuando el tamaño de la muestra excede de 30 casos la t-Student se aproxima a la


distribución normal. En el ejemplo el tamaño de la muestra n = 7 no excede de 30

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 82

casos, por lo tanto, es razonable una prueba de Kolmogorov-Smirnov para ver en qué
medida se aproxima a la distribución normal.

Mediante el Software el SPSS, siguiendo la secuencia:

Analizar > Pruebas no paramétricas > cuadros de diálogos antiguos > Prueba de K-S
para una muestra.

Se obtiene:

Prueba de Kolmogorov-Smirnov para una muestra

Software_Antig Software_Nuev Diferencia


uo o

N 7 7 7

a,b
Media 13,29 11,29 2,00
Parámetros normales
Desviación típica 2,628 3,592 2,380
Absoluta ,180 ,150 ,234
Diferencias más extremas Positiva ,180 ,135 ,200
Negativa -,179 -,150 -,234
Z de Kolmogorov-Smirnov ,477 ,397 ,620
Sig. asintót. (bilateral) ,977 ,997 ,837

a. La distribución de contraste es la Normal.


b. Se han calculado a partir de los datos.

En nuestro caso podemos ver como las muestras 1 (Software-Antiguo), 2 (Software-


Nuevo) y la variable Di (diferencia entre las muestras 1 y 2) se distribuyen como una
normal, dado que los p-valores del estadístico de Kolmogorov –Smirnov es mayor de
0.05.

Puesto que la distribución del tiempo utilizado para terminar determinada tarea es
Normal, se va a utilizar la distribución t de Student, el cual es simétrica al igual que
la distribución normal, pero es más aplanada, es decir su coeficiente de curtosis o
apuntamiento es negativo.

Ahora el interés es saber si el software nuevo utiliza menos tiempo que el antiguo al
procesar determinada tarea. Por ello, se recurre a comparar medias en muestras
dependientes.

1. Planteamiento de las hipótesis


H0 : μ D  0
H1 : μ D  0

2. Nivel de significación: α = 0.05

3. Estadística de prueba, Se utilizará la estadística:

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 83

D
T  t ( 6)
ˆ D n

4. Región de rechazo. RC   T  t 0.05, 6   T  1.943

5. Cálculos. n = 7, x1  13.286 , x 2  11.286 , D  x1  x 2  2

1  ( D i ) 2  1  (14) 2 
S2D   i     5.667 , SD  2.3805
2
  7 
D 62
n  1  n  6 
Entonces el estadístico de prueba, toma el valor de:

D 2
T   2.223
SD n 2.3805 / 7

Decisión. Dado que el valor de T = 2.223 > 1.943, entonces se rechaza la hipótesis
de nulidad H0. Es decir que existe evidencia suficiente para concluir que software
nuevo utiliza menos tiempo que el antiguo al procesar determinada tarea.

Utilizando el software SPSS, siguiendo la secuencia:

Analizar > Comparar medias > Prueba T para muestras relacionadas.

Estadísticos de muestras relacionadas

Media N Desviación típ. Error típ. de la


media
Par 1 Software_Antiguo 13,29 7 2,628 ,993

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 84

Software_Nuevo 11,29 7 3,592 1,358

Prueba de muestras relacionadas

Diferencias relacionadas t gl Sig.

Media Desviación Error típ. de 95% Intervalo de confianza (bilateral)

típ. la media para la diferencia

Inferior Superior

Software_Antiguo
2,000 2,380 ,900 -,202 4,202 2,223 6 ,068
Software_Nuevo
Como el p _valor = Sig (bilateral)/2 = 0.068 /2 = 0.034 < 0.05, se rechaza H0. Es
decir que existe evidencia suficiente para concluir que software nuevo utiliza menos
tiempo para procesar determinada tarea.

3.8. Prueba de hipótesis sobre dos proporciones.

Sean X1 y X2 el número de éxitos en dos muestras aleatorias independientes de


tamaños n1 y n2 seleccionadas respectivamente de dos poblaciones de Bernoulli
B(1, p1) y B(1, p2), donde los parámetros p1 y p2 son las proporciones de éxitos
poblacionales.

Sean las proporciones de éxitos muestrales respectivamente:

X1 X2
p̂ 1  y p̂ 2 
n1 n2

Para n1 y n2 suficientemente grandes (n1 ≥ 30 y n2 ≥ 30 ), la variable

pˆ 1  pˆ 2  ( p1  p 2 )
Z  N (0,1).
p1 (1  p1 ) p 2 (1  p 2 )

n1 n2

Si H0 : p1 = p2 se supone verdadera, la estadística es:

pˆ 1  pˆ 2
Z  N (0,1).
pc (1  pc ) pc (1  pc )

n1 n2

donde pc es el valor común de los parámetros p1 y p2 cuya estimación insesgada es:

x 1  x 2 n 1 p̂1  n 2 p̂ 2
p̂  
n1  n 2 n1  n 2

1) Prueba unilateral de cola a la derecha.

Msc. José Mauricio Santa Cruz


Capítulo 3. Pruebas Estadísticas paramétricas. 85

1) Hipótesis: H 0 : p1 = p2 contra H 1: p1 > p2.


2) Nivel de significancia: α
3) Estadística de prueba:
pˆ 1  pˆ 2
Z .
pˆ (1  pˆ ) pˆ (1  pˆ )

n1 n2
4) Región critica: R.C  Z  Z  

5) Decisión: Se rechaza H0 si el valor de Z  R.C. No se rechaza H0 en caso


contrario.
2) Prueba unilateral de cola a la izquierda.

Hipótesis: H0: p1 = p2 contra H1: p1 < p2.

La Región crítica es R.C  Z  Z 

Se rechaza H0 si el valor de Z  R.C.

3) Prueba bilateral o de dos colas.

Hipótesis: H0: p1 = p2 contra H 1: p1 ≠ p2.

La Región crítica es: R.C  Z  Z α/2 ó Z  Z α/2 

Ejemplo 3.15. Un patrocinador de un programa especial de TV afirma que el programa


representa un atractivo mayor para los televidentes hombres que las mujeres, pero, el
personal de producción del programa piensa que es igual el porcentaje de televidentes
hombres y mujeres que ven el programa especial. Si una muestra aleatoria de 300
hombres y otra de 400 mujeres revelo que 120 hombres y 120 mujeres estaban viendo el
programa especial de TV. ¿Puede considerarse significativa la diferencia al nivel del
5%?-

Solución.

Sean p1 y p2 , respectivamente, las proporciones de hombres y mujeres que ven el


programa especial de televisión.

1) Hipótesis: H0: p1 = p2 contra H 1: p1 > p2.

2) Nivel de significancia: α = 0.05

3) Estadística de prueba: Si H0: p1 = p2 es verdadera y las muestras son grandes, la


estadística es:
pˆ 1  pˆ 2
Z  N (0,1)
pˆ (1  pˆ ) pˆ (1  pˆ )

n1 n2

Msc. José Mauricio Santa Cruz


Capítulo 4. Intervalos de confianza y prueba de hipótesis para la media y la proporción.. 86

4) Región critica: Para α = 0.05 y una prueba unilateral de cola a la derecha, la región
critica es:
R.C   Z  1.645 

5) Cálculos: los datos de la muestra dan:


Hombres: n1 = 300, X1 = 120 , Mujeres: n2 = 400, X2 = 120,

120 120
pˆ 1   0 .4 pˆ 2   0 .3
300 400

x 1  x 2 120  120
p̂    0.34
n 1  n 2 300  400

pˆ 1  pˆ 2 0.4  0.3
Z   2.764
pˆ (1  pˆ ) pˆ (1  pˆ ) (0.34)(0.66) (0.34)(0.66)
 
n1 n2 300 400

6) Decisión. Como el valor de Z = 2.764  R.C., debemos rechazar H0 y concluir que


los datos presentan evidencia de que el programa representa un mayor atractivo para
los hombres.

3.9. Análisis de varianza de Fisher de un factor.

El análisis de varianza de Fisher de una entrada o un factor, también referido como


ANOVA (The Analysis Of Variance) o prueba F de Fisher, está estrechamente
relacionado con la prueba t de Student, porque se utilizan los mismos parámetros
matemáticos. Los requisitos que ya fueron descritos en la sección 2.3, se vuelven a
mencionar en la sección 2.6.1.

La prueba F de Fisher se utiliza cuando en el diseño de investigación se tienen tres o


más muestras independientes. Además presenta una serie de ventajas, como
versatilidad, flexibilidad y tiene una gran potencia-eficiencia.

Esta técnica introducida por R. A Fisher en 1920 se origina en aplicaciones agrícolas, de


ahí que su lenguaje contenga términos de carácter agrícola tales como bloques o
parcelas y tratamientos (que se utiliza como sinónimo de variables independientes).
Posteriormente la técnica del análisis de varianza ha encontrado aplicación en casi todas
las disciplinas científicas y ha llegado a convertirse en un tema muy amplio.

Cada método de análisis de varianza está asociado a un modelo matemático específico.


Los modelos se clasifican según el número de variables que han de ser probadas. Si es
una variable, el modelo se denomina de clasificación simple o de un solo factor. Si son
dos variables, el modelo se denomina de clasificación doble o de dos factores.

Msc. José Mauricio Santa Cruz


Capítulo 4. Intervalos de confianza y prueba de hipótesis para la media y la proporción.. 86

3.9.1. Análisis de varianza de un factor: Diseño completamente aleatorizado.

Sea X una característica que se mide en k poblaciones (o tratamientos) diferentes con


medias respectivas µ1, µ2, …, µk y varianzas respectivas:  12 ,  22 ,,  k2 .

Se supone que:
1. Las k poblaciones son independientes.
2. Cada una de las poblaciones tiene distribución normal.
3. Las k varianzas son iguales a la varianza común  2 . Esta condición de
homogeneidad de la varianza se comprueba mediante el estadístico de Levene
que aparece en el programa SPSS.
Las k poblaciones juntas constituyen una población mayor cuya media µ (media total o
gran media) se define por:
k

μ i
μ i 1

Para cada i =1, 2,.., k, sea X i1, X i2 ,…, X i ni una muestra aleatoria simple de tamaño ni
escogida en la i-ésima población. Estas k muestras constituyen los subgrupos que se
supone pues son independientes. Las variables aleatorias X ij que denotan a la j-ésima
observación de la i-ésima muestra (i = 1, 2,.., k, j =1, 2,…, ni) son independientes y
tienen cada una distribución normal N (µ,  2 ).

En el modelo de clasificación de un factor completamente aleatorizado los valores x ij


de las k muestras (j-ésima observación de la i-ésima muestra) se registran en un arreglo
tabular como el de la tabla 3.7.
Tabla. 3.7.

Tratamientos
1 2 … i … k
x 11 x 21 x i1 x k1
x 12 x 22 x i2 x k2
.
.
.
x 1n i x 2 ni x i ni x k ni
Total T1. T2. … Ti . … T k. T..
ni n1 n2 ni nk n
Medias x 1. x2. … x i. … x k. x..

T i . es la suma de datos de la muestra i.

T .. es el total de datos de las k muestras.

n = n 1 + n 2 + …+ n k , es el total observado en las k muestras.

x i. es la media de la muestra i, (estimación insesgada de la media µ i ).

x.. media total muestral (estimación insesgada de la media µ )

Msc. José Mauricio Santa Cruz


Capítulo 4. Intervalos de confianza y prueba de hipótesis para la media y la proporción.. 86

Las hipótesis. La hipótesis nula H 0 consiste en afirmar que las medias de las k
poblaciones (o tratamientos) son iguales. Es decir:

H 0: µ 1 = µ 2 =… = µ k

La hipótesis alternativa es,


H 1: No todas las medias son iguales.

El análisis. El análisis de varianza se basa en una comparación de la cantidad de


variación en cada uno de los tratamientos. Si de un tratamiento al otro la variación es
significativamente alta, puede concluirse que los tratamientos tienen efectos diferentes
en las poblaciones.
a. Existe variación entre el número total de las observaciones. Esto se llama variación
total.
b. Existe variación entre los diferentes tratamientos (muestras). Esto se
llama variación entre muestras.
c. Existe variación dentro de un tratamiento dado (muestra). Esto se
denomina variación dentro de la muestra.

La prueba de la hipótesis H 0 contra H 1 se basa en dos estimaciones independientes de


la varianza poblacional común  2 . Estas estimaciones se obtienen particionando la
k ni
suma de cuadrados total SCT =  (x
i 1 j1
ij  x ..) 2 .

En efecto, se obtiene la siguiente identidad de suma de cuadrados


k ni k ni k ni

 (x i j  x ..) 2   (x i j  x .i .) 2   (x i .  x ..) 2
i 1 j1 i 1 j1 i 1 j1

Es conveniente simbolizar esta partición de suma de cuadrados por:

SCT = SCE + SCTR


donde:

SCE es la suma de cuadrados del error (o dentro de los tratamientos)


SCTR es la suma de cuadrados de los tratamientos (o entre los tratamientos)

En consecuencia, si la hipótesis nula es verdadera, el cociente;

SCTR / (k  1) CMTR
F  se distribuye según F(k - 1, n - k)
SCE / (n  k) CME

Es decir, la variable aleatoria F tiene distribución F con k – 1 y n – k grados de libertad.

Además, dado el nivel de significación α, para los grados de libertad k – 1 y n – k, en la


tabla de probabilidad de la distribución F se encuentra el valor crítico f (α , k - 1, n - k) .

Msc. José Mauricio Santa Cruz


Capítulo 4. Intervalos de confianza y prueba de hipótesis para la media y la proporción.. 86

0 f (α, k -1, n - k)

Aceptar H0 Aceptar H1

Figura 3.10. Región critica cola.


CMTR
A partir de los datos observados de la muestra se calcula Fcal  .
CME

La regla de decisión es: Rechazar la hipótesis nula H 0 si Fcal > f (α, k - 1, n - k). En
caso contrario no rechazar H 0.

En el modo P, si p  PF  Fcal  , se rechazará la hipótesis nula H 0 si p < α. En caso


contrario no se debe rechazar H 0.

Las sumas de cuadrados del total, de los tratamientos y del error se calculan utilizando
las siguientes equivalencias:
k ni
T..2 k ni
SCT   (x ij  x .. )   x  2 2
ij
i 1 j1 i 1 j1 n

k ni k Ti.2T2
SCTR   ( x i .  x .. )   2
 ..
i 1 j1 i 1 ni n

SCE = SCT – SCTR

Es práctico resumir las sumas de cuadrados, los grados de libertad, los cuadrados
medios y la F calculada en la tabla 3.8 denominada de análisis de varianza (ANVA).

Tabla 3.8. ANOVA de un factor completamente aleatorizado


Fuente de Suma de Grados de Cuadrados medios Razón F
variación cuadrados libertad calculada
SCTR
Entre SCTR k–1 CMTR  CMTR
k 1 Fcal 
Tratamientos CME
SCE
Error SCE n-k CME 
nk
Total SCT n-1

Ejemplo 3.16. Robert Shade es vicepresidente de mercadeo de First City Bank, en


Atlanta. Los recientes esfuerzos promocionales para atraer nuevos depositantes incluyen

Msc. José Mauricio Santa Cruz


Capítulo 4. Intervalos de confianza y prueba de hipótesis para la media y la proporción.. 86

algunos juegos y premios en cuatro sucursales del banco. Shade está convencido de que
diferentes tipos de premios atraerían a diferentes grupos de ingreso. Las personas de un
nivel de ingreso prefieren los regalos, mientras que los de otro grupo de ingreso pueden
sentirse más atraídas por viajes gratuitos a sitios favoritos para pasar vacaciones. Shade
decide utilizar el monto de los depósitos como una medida representativa del ingreso.
En la tabla 4.6 aparecen siete depósitos seleccionados aleatoriamente de cada sucursal,
aproximado al US$ 100 más cercano. El desea determinar si existe una diferencia en el
nivel promedio de depósitos entre las cuatro sucursales, utilizando un nivel de
significancia del 5%. Si se halla alguna diferencia, Shade ofrecerá una diversidad de
premios promocionales.

Tabla 3.9.
Depósito Sucursal 1 Sucursal 2 Sucursal 3 Sucursal 4
1 5.1 1.9 3.6 1.3
2 4.9 1.9 4.2 1.5
3 5.6 2.1 4.5 0.9
4 4.8 2.4 4.8 1.0
5 3.8 2.1 3.9 1.9
6 5.1 3.1 4.1 1.5
7 4.8 2.5 5.1 2.1

Solución. Como los depósitos (unidades experimentales) fueron seleccionados


aleatoriamente de cada sucursal (tratamientos o muestras) para participar en los juegos y
premios con la finalidad de atraer nuevos depositantes, entonces proviene de un diseño
completamente aleatorizado de un factor o una vía.

Verificaremos si los niveles de depósitos de las 4 muestras (sucursales) independientes


provienen de poblacionales normales y si las 4 varianzas son homogéneas
(  12   22   32 ).

Prueba de Kolmogorov-Smirnov para una muestra

Surcursal Sucursal Sucursal Sucursal


1 2 3 4

N 7 7 7 7

a,b
Media 4,871 2,286 4,314 1,457
Parámetros normales
Desviación típica ,5469 ,4259 ,5210 ,4392
Absoluta ,305 ,240 ,158 ,175
Diferencias más extremas Positiva ,195 ,240 ,158 ,175
Negativa -,305 -,183 -,110 -,129
Z de Kolmogorov-Smirnov ,807 ,635 ,419 ,464
Sig. asintót. (bilateral) ,532 ,815 ,995 ,982

a. La distribución de contraste es la Normal.


b. Se han calculado a partir de los datos.

Prueba de homogeneidad de varianzas


Depositos

Msc. José Mauricio Santa Cruz


Capítulo 4. Intervalos de confianza y prueba de hipótesis para la media y la proporción.. 86

Estadístico de gl1 gl2 Sig.


Levene

,136 3 24 ,938

Según la prueba de Kolmogorov-Smirnov, los valores de p son mayores que 0.05, esto
nos indica que las cantidades de depósitos de cada sucursal provienen de poblaciones
con distribución normal. En la prueba de homogeneidad de varianzas de Levene, nos
proporciona un valor de p = 0.938 que es mayor que 0.05, indicándonos que existe
evidencia suficiente de homogeneidad de varianzas de las cantidades depositadas en
cada sucursal.

Ahora, como se cumplen los supuestos, procedemos a realizar el test de Fisher.

Sea µ i la media de los niveles de depósitos del grupo (sucursal) i , i = 1, 2, 3, 4.

1) H 0: µ 1 = µ 2 = µ 3 = µ 4 contra

H1: No todas las medias µ i son iguales

2) Nivel de Significación: α = 0.05

CMTR
3) Estadística de prueba. F  que se distribuye según F(3, 24), donde k = 4 y
CME
n = 28.

4) Región critica. Para el nivel α = 0.05 en la tabla F se encuentra el valor crítico de la


prueba, f (0.05, 2, 24) = 3.01. Se rechazará H 0, si el valor de F > 3.01.

5) Cálculos. De los datos se obtienen:

T 1. = 34.1, T 2. = 16.0, T 3. = 30.2, T 4. = 10.2, T.. = 90.5

n1 = 7 , n2 = 7 , n3 = 7 , n4 = 7 n = 28

T..2 (90.5) 2
  292.5089
n 28
4 7
T2
SCT   x ij2  ..  5.12  4.9 2    1.52  2.12  292.5089  353.51  292.5089  61.0011
i 1 j1 n

4 Ti.2 T..2 (34.1) 2 (16.0) 2 (30.2) 2 (10.2) 2


SCTR         292.5089  347.8414  292.5089
i 1 ni n 7 7 7 7
 55.3325

SCE = SCT - SCTR = 61.0011 – 55.3325 = 5.6686

Luego la tabla ANOVA resultante es:

Msc. José Mauricio Santa Cruz


Capítulo 4. Intervalos de confianza y prueba de hipótesis para la media y la proporción.. 86

Fuente de variación Suma de Grados de Cuadrados medios Razón F


cuadrados libertad calculada

Entre método 55.3325 3 18.444 Fcal  78.0864


(tratamientos)

dentro del método 5.6686 24 0.2362


(Error)
Total 61.0011 27

6. Decisión. Dado que Fcal = 78.0864 > 3.01, se rechaza H 0 y concluimos con un nivel
de 5% que hay diferencias significativas entre los depósitos promedio de las 4
sucursales.
Mediante la aplicación del Software SPSS 20:

Analizar > Comparar medias > ANOVA de un factor …

ANOVA de un factor
Depósitos

Suma de gl Media F Sig.


cuadrados cuadrática

Inter-grupos 55,332 3 18,444 78,090 ,000


Intra-grupos 5,669 24 ,236
Total 61,001 27

Dado que el p-valor es 0.000 < 0.05, entonces se rechaza H 0 y podemos concluir con
un nivel de significancia 5% que si hay diferencias significativas entre los depósitos
promedio de las 4 sucursales.

3.9.2. Pruebas de la significación de las diferencias entre los tratamientos.

La prueba de F significativa indica realmente que la variabilidad entre los tratamientos


no se debe al azar, sino a un efecto distinto de dichos tratamientos, lo cual es
equivalente a indicar que las diferencias son significativas entre las medias de las
poblaciones, estimadas por las medias de las muestras; sin embargo, la prueba de F no
indica cuáles medias son iguales o cuáles son diferentes, ya que puede suceder que en
una serie de tratamientos la prueba de F indique diferencias en el conjunto, pero un par
en particular seaon los datos del análisis de varianza se hacen las pruebas de
significancia de las diferencias o las comparaciones entre las medias de los tratamientos.
Para ello, existen varios métodos.

Para determinar las medias que son significativamente diferentes unas de otras, existen
varios métodos entre ellos tenemos: Diferencia mínima significativa (DMS), de Tukey,
Scheffe, Bonferroni, Duncan, entre otros.

Mediante el Software SPSS, siguiendo la secuencia:

Analizar > Comparar medias > ANOVA de un factor >

Msc. José Mauricio Santa Cruz


Capítulo 4. Intervalos de confianza y prueba de hipótesis para la media y la proporción.. 86

Post hoc (comparaciones múltiples post hoc: asumiendo varianzas iguales: Tukey y DMS)

Comparaciones múltiples
Variable dependiente: Depósitos

(I) Sucursales (J) Sucursales Diferencia de Error Sig. Intervalo de confianza al


medias (I-J) típico 95%

Límite Límite
inferior superior
*
Sucursal 2 2,5857 ,2598 ,000 1,869 3,302

Sucursal 1 Sucursal 3 ,5571 ,2598 ,168 -,159 1,274


*
Sucursal 4 3,4143 ,2598 ,000 2,698 4,131
*
Sucursal 1 -2,5857 ,2598 ,000 -3,302 -1,869
*
Sucursal 2 Sucursal 3 -2,0286 ,2598 ,000 -2,745 -1,312
*
HSD de Sucursal 4 ,8286 ,2598 ,019 ,112 1,545
Tukey Sucursal 1 -,5571 ,2598 ,168 -1,274 ,159
*
Sucursal 3 Sucursal 2 2,0286 ,2598 ,000 1,312 2,745
*
Sucursal 4 2,8571 ,2598 ,000 2,141 3,574
*
Sucursal 1 -3,4143 ,2598 ,000 -4,131 -2,698
*
Sucursal 4 Sucursal 2 -,8286 ,2598 ,019 -1,545 -,112
*
Sucursal 3 -2,8571 ,2598 ,000 -3,574 -2,141
*
Sucursal 2 2,5857 ,2598 ,000 2,050 3,122
*
Sucursal 1 Sucursal 3 ,5571 ,2598 ,042 ,021 1,093
*
Sucursal 4 3,4143 ,2598 ,000 2,878 3,950
*
Sucursal 1 -2,5857 ,2598 ,000 -3,122 -2,050
*
Sucursal 2 Sucursal 3 -2,0286 ,2598 ,000 -2,565 -1,492
*
Sucursal 4 ,8286 ,2598 ,004 ,292 1,365
DMS *
Sucursal 1 -,5571 ,2598 ,042 -1,093 -,021
*
Sucursal 3 Sucursal 2 2,0286 ,2598 ,000 1,492 2,565
*
Sucursal 4 2,8571 ,2598 ,000 2,321 3,393
*
Sucursal 1 -3,4143 ,2598 ,000 -3,950 -2,878
*
Sucursal 4 Sucursal 2 -,8286 ,2598 ,004 -1,365 -,292
*
Sucursal 3 -2,8571 ,2598 ,000 -3,393 -2,321

*. La diferencia de medias es significativa al nivel 0.05.

Msc. José Mauricio Santa Cruz


Capítulo 4. Intervalos de confianza y prueba de hipótesis para la media y la proporción.. 86

En ambos métodos de comparaciones múltiples se puede concluir que en la sucursal 1


se obtuvo mayor cantidad de depósito.

Means and 95.0 Percent Tukey HSD Intervals

60

50

40
depositos

30

20

10

0
Sucursal 1 Sucursal 2 Sucursal 3 Sucursal 4
sucursales

Ejercicio. El director administrativo de una gran empresa industrial desea determinar si


los tres programas de capacitación distintos tienen efectos diferentes en los niveles de
productividad de los empleados. Estos programas son los tratamientos que puede
evaluar el análisis de varianza. Se seleccionan aleatoriamente 14 empleados y se
asignan a uno de los tres programas. Al terminar la capacitación, cada empleado
responde un examen para determinar su competencia. Se colocan cuatro empleados en
el primer programa de capacitación, y cinco en cada uno de los otros dos programas.
Cada uno de estos tres grupos se trata de manera independiente como muestras
separadas. Los puntajes de la prueba aparecen en la tabla 3.10.

Tabla 3.10. Puntaje de los trabajadores obtenidos.


Tratamientos
Programa 1 Programa 2 Programa 3
85 80 82
72 84 80
83 81 85
80 78 90
82 88

Mediante el ANOVA al nivel de significancia del 5%, pruebe la hipótesis de que los
puntajes de prueba promedio son los mismos para todos los tres programas de
capacitación.

Msc. José Mauricio Santa Cruz

Vous aimerez peut-être aussi