Vous êtes sur la page 1sur 43

INDICE

I. INTRODUCCION .......................................................................................... 5

CAPITULO I ...................................................................................................... 6

A) OBJETIVOS .............................................................................................. 6

1. OBJETIVO GENERAL .......................................................................... 6

2. OBJETIVO ESPECIFICO ...................................................................... 6

B) JUSTIFICACIÓN E IMPORTANCIA ...................................................... 7

1. JUSTIFICACION ................................................................................... 7

2. IMPORTANCIA ..................................................................................... 7

CAPITULO II ..................................................................................................... 8

I. HIPOTESIS Y PRUEBA DE HIPOTESIS. ................................................ 8

II. TIPOS DE PRUEBAS DE HIPÓTESIS .................................................... 9

Hipótesis de investigación (Hi): ............................................................. 9

Hipótesis estadísticas: ............................................................................. 9

La hipótesis nula, (Ho):......................................................................... 10

III. PROCEDIMIENTO SISTEMÁTICO PARA UNA PRUEBA DE


HIPÓTESIS DE UNA MUESTRA ......................................................... 12

Paso 1: Plantear la hipótesis nula Ho y la hipótesis alternativa H1. ..... 12


Paso 2: Seleccionar el nivel de significancia. ....................................... 12

Paso 3: Cálculo del valor estadístico de prueba.................................... 15

Paso 4: Formular la regla de decisión ................................................... 17

Paso 5: Tomar una decisión. ................................................................. 18

IV. PROCEDIMIENTO PARA PROBAR HIPOTESIS ............................ 19

4.1 Prueba de hipótesis de la media ........................................................... 19

Prueba medias de una muestra ...................................................................... 21

4.2 Prueba de hipótesis de dos medias. ...................................................... 22

4.3 Prueba de hipótesis de una proporción ................................................ 23

Prueba de proporciones de una muestra ........................................................ 24

4.4 Prueba de hipótesis de diferencia de proporciones .............................. 26

4.5 Prueba de hipótesis de Chi cuadrada .................................................. 27

4.6 Prueba de hipótesis de correlación ....................................................... 29

V. ANÁLISIS DE VARIANZA ................................................................ 31

5.1 ANOVA de un factor. .......................................................................... 31

5.1.1 ¿En qué se basa ANOVA de un factor? ............................................ 32

5.1.2 ¿Qué estadísticos se calculan en ANOVA? ...................................... 33

5.1.3 ¿Cómo se interpreta el test de F y la significación? ......................... 33


Ejemplo de ANOVA de un factor .............................................................. 34

5.2 ANOVA bifactoral ............................................................................... 37

5.3 ANOVA de 3 factores ......................................................................... 40

VI. CONCLUSIONES ............................................................................... 42

VII. BIBLIOGRAFIA ...................................................................................... 43


A Dios.

Por haberme permitido llegar hasta este punto y haberme dado salud para lograr mis
objetivos, además de su infinita bondad y amor.

Aquí el autor inicia su dedicatoria nombrando a Dios. Recuerda todos esos momentos
de estrés que viviste en la realización de tu tesis y toda la paciencia que le pediste a
Dios para continuar y no morir en el intento. Viste como el autor en un pequeño
párrafo pudo expresar mucho sin necesidad de extenderse.
I. INTRODUCCION

Dentro del estudio de la inferencia estadística, se describe como se puede tomar

una muestra aleatoria y a partir de esta muestra estimar el valor de un parámetro

poblacional en la cual se puede emplear el método de muestreo y el teorema del valor

central lo que permite explicar cómo a partir de una muestra se puede inferir algo acerca

de una población, lo cual nos lleva a definir y elaborar una distribución de muestreo de

medias muéstrales que nos permite explicar el teorema del límite central y utilizar este

teorema para encontrar las probabilidades de obtener las distintas medias maestrales de

una población.

Pero es necesario tener conocimiento de ciertos datos de la población como la media, la

desviación estándar o la forma de la población, pero a veces no se dispone de

esta información.

En este caso es necesario hacer una estimación puntual que es un valor que se usa para

estimar un valor poblacional. Pero una estimación puntual es un solo valor y se requiere

un intervalo de valores a esto se denomina intervalo de confianza y se espera que dentro

de este intervalo se encuentre el parámetro poblacional buscado. También se utiliza una

estimación mediante un intervalo, el cual es un rango de valores en el que se espera se

encuentre el parámetro poblacional

En nuestro caso se desarrolla un procedimiento para probar la validez de una

aseveración acerca de un parámetro poblacional este método es denominado Prueba

de hipótesis para una muestra.


CAPITULO I

A) OBJETIVOS

1. OBJETIVO GENERAL

 El propósito de la prueba de hipótesis no es cuestionar el valor calculado

del estadístico (muestral)

 Un juicio con respecto a la diferencia entre estadístico de muestra y un

valor planteado del parámetro.

2. OBJETIVO ESPECIFICO

 Brindar información de los conceptos básicos para una mayor

comprensión y aplicación del mismo.

 Aplicación de los conceptos de manera correcta para no cometer errores.


B) JUSTIFICACIÓN E IMPORTANCIA

1. JUSTIFICACION

 La prueba de hipótesis es un método esencial para la toma de decisiones.

La decisión relaciona la elección entre dos enunciados competitivos y

mutuamente excluyentes, respecto de uno o más parámetros de la

población. Los enunciados competitivos se conocen como hipótesis nula y

alternativa, respectivamente.

2. IMPORTANCIA

 Es muy importante realizar una prueba de hipótesis estadística a cualquier

estudio que se realice ya que esto nos ayuda a verificar si nuestra hipótesis

está en lo correcto o se rechaza, para tener una mejor seguridad al

presentar resultados o un rumbo a nuestra investigación


CAPITULO II

I. HIPOTESIS Y PRUEBA DE HIPOTESIS.

Tenemos que empezar por definir que es una hipótesis y que es prueba de hipótesis.

Hipótesis es una aseveración de una población elaborado con el propósito de poner a

prueba, para verificar si la afirmación es razonable se usan datos.

En el análisis estadístico se hace una aseveración, es decir, se plantea una hipótesis,

después se hacen las pruebas para verificar la aseveración o para determinar que no es

verdadera.

Por tanto, la prueba de hipótesis es un procedimiento basado en la evidencia muestral y

la teoría de probabilidad; se emplea para determinar si la hipótesis es una afirmación

razonable.

Prueba de una hipótesis: se realiza mediante un procedimiento sistemático de cinco

paso:

Siguiendo este procedimiento sistemático, al llegar al paso cinco se puede o no rechazar

la hipótesis, pero debemos de tener cuidado con esta determinación ya que en la

consideración de estadística no proporciona evidencia de que algo sea verdadero. Esta

prueba aporta una clase de prueba más allá de una duda razonable. Analizaremos cada

paso en detalle.
II. TIPOS DE PRUEBAS DE HIPÓTESIS

 Hipótesis de investigación (Hi):

Representa un elemento fundamental en el proceso de investigación. Luego

de formular un problema, el investigador enuncia la hipótesis, que orientará el

proceso y permitirá llegar a conclusiones concretas del proyecto que recién

comienza.

La hipótesis bien formulada tiene como función encausar el trabajo que se

desea llevar al efecto. Hayman (1974) cita: además que aclaran acerca de

cuáles son las variables, que han de analizarse y las relaciones que existen

entre ellas, y permiten derivar los objetivos del estudio constituyéndose en la

base de los procedimientos de investigación.

Tamayo (1989), señala que éstas se constituyen en un eslabón imprescindible

entre la teoría y la investigación que llevan al descubrimiento de un hecho.

Las razones anteriormente esgrimidas hacen suponer que éstas ocupan un

lugar primordial en la investigación al proporcionar los elementos necesarios

que permitirán llegar a los datos necesarios que permitirán llegar a los datos y

resolver el problema planteado.

 Hipótesis estadísticas:

Las hipótesis estadísticas son la transformación de las hipótesis de

investigación, nulas y alternativas en símbolos estadísticos. Se pueden

formular solamente cuando los datos del estudio que se van a recolectar y

analizar para aprobar o desaprobar las hipótesis son cuantitativos (números,


porcentajes, promedios). Es decir, el investigador traduce su hipótesis de

investigación y su hipótesis nula (y cuando se formulan hipótesis alternativas,

también éstas) en términos estadísticos.

Lo primero que debe hacer es analizar cuál es la estadística a que su

hipótesis hace referencia (en el ejemplo se trata de un promedio mensual de

casos atendidos).

El segundo paso consiste en encontrar cómo se simboliza esa estadística

(promedio se simboliza como X).

El tercer paso es traducir la hipótesis de investigación en hipótesis

estadística:

Hi: X > 200 (promedio mensual de casos atendidos)

La hipótesis estadística nula sería la negación de la hipótesis anterior:

Ho: X = 200 (“el promedio mensual de casos... es igual a 200”)

y la hipótesis alternativa sería:

Ha: X < 200 (“el promedio mensual de casos... es menor que 200”)

Posteriormente, el investigador comparará el promedio estimado por la

hipótesis con el promedio actual de la muestra que él seleccionó.

 La hipótesis nula, (Ho):

La definición simplista de la hipótesis nula es casi contraria a la de

la hipótesis alternativa (H1), aunque el principio es un poco más complejo.

La hipótesis nula (H0) es una hipótesis que el investigador trata de refutar,

rechazar o anular.
Generalmente, "nula" se refiere a la opinión general de algo, mientras que la

hipótesis alternativa es lo que el investigador realmente piensa que es la causa

de un fenómeno.

La conclusión de un experimento siempre se refiere a la nula, es decir,

rechaza o acepta la H0 en lugar de la H1.

A pesar de esto, muchos investigadores descuidan la hipótesis nula cuando

están probando hipótesis, lo que constituye una práctica mala y puede tener

efectos adversos.

 La hipótesis alternativa, (H1 Ó Ha)

Se entiende por hipótesis alternativa a la suposición alternativa a la hipótesis

nula formulada en un experimento y/o investigación. Esta surge como resultado de una

determinada investigación realizada sobre una población o muestra.

Entendida de manera sencilla, la hipótesis alternativa representa la conclusión que el

investigador quiere demostrar o afirmar tras su estudio. Esta se expresa con la expresión

“H1” y va a representar, por lo general, lo contrario a la hipótesis nula.

El método científico, al contrario de lo que podría pensarse, no trata de demostrar la

hipótesis alternativa (conclusión alcanzada a través de la investigación). Lo que

pretende el método científico, es demostrar que lo contrario a la hipótesis alternativa

(hipótesis nula), no es cierto. De esta manera, quedaría demostrada la hipótesis

alternativa.
III. PROCEDIMIENTO SISTEMÁTICO PARA UNA PRUEBA DE
HIPÓTESIS DE UNA MUESTRA

 Paso 1: Plantear la hipótesis nula Ho y la hipótesis alternativa H1.

Cualquier investigación estadística implica la existencia de hipótesis o afirmaciones

acerca de las poblaciones que se estudian.

La hipótesis nula (Ho) se refiere siempre a un valor especificado del parámetro de

población, no a una estadística de muestra. La letra H significa hipótesis y el subíndice

cero no hay diferencia. Por lo general hay un "no" en la hipótesis nula que indica que

"no hay cambio" Podemos rechazar o aceptar Ho.

La hipótesis nula es una afirmación que no se rechaza a menos que los datos maestrales

proporcionen evidencia convincente de que es falsa. El planteamiento de la hipótesis

nula siempre contiene un signo de igualdad con respecto al valor especificado del

parámetro.

La hipótesis alternativa (H1) es cualquier hipótesis que difiera de la hipótesis nula. Es

una afirmación que se acepta si los datos maestrales proporcionan evidencia suficiente

de que la hipótesis nula es falsa. Se le conoce también como la hipótesis de

investigación. El planteamiento de la hipótesis alternativa nunca contiene un signo de

igualdad con respecto al valor especificado del parámetro.

 Paso 2: Seleccionar el nivel de significancia.

Nivel de significancia: Probabilidad de rechazar la hipótesis nula cuando es verdadera.

Se le denota mediante la letra griega α, también es denominada como nivel de riesgo,

este término es más adecuado ya que se corre el riesgo de rechazar la hipótesis nula,

cuando en realidad es verdadera. Este nivel está bajo el control de la persona que realiza

la prueba.
Si suponemos que la hipótesis planteada es verdadera, entonces, el nivel de

significación indicará la probabilidad de no aceptarla, es decir, estén fuerade área de

aceptación.

El nivel de confianza (1-α), indica la probabilidad de aceptar la hipótesis planteada,

cuando es verdadera en la población.

La distribución de muestreo de la estadística de prueba se divide en dos regiones, una

región de rechazo (conocida como región crítica) y una región de no rechazo

(aceptación). Si la estadística de prueba cae dentro de la región de aceptación, no se

puede rechazar la hipótesis nula.

La región de rechazo puede considerarse como el conjunto de valores de la estadística

de prueba que no tienen posibilidad de presentarse si la hipótesis nula es verdadera. Por

otro lado, estos valores no son tan improbables de presentarse si la hipótesis nula es

falsa. El valor crítico separa la región de no rechazo de la de rechazo.

Tipos de errores

Cualquiera sea la decisión tomada a partir de una prueba de hipótesis, ya sea de

aceptación de la Ho o de la Ha, puede incurrirse en error:


Un error tipo I se presenta si la hipótesis nula Ho es rechazada cuando es verdadera y

debía ser aceptada. La probabilidad de cometer un error tipo I se denomina con la letra

alfa α

Un error tipo II, se denota con la letra griega β se presenta si la hipótesis nula es

aceptada cuando de hecho es falsa y debía ser rechazada.

En cualquiera de los dos casos se comete un error al tomar una decisión equivocada.

En la siguiente tabla se muestran las decisiones que pueden tomar el investigador y las

consecuencias posibles.

Para que cualquier ensayo de hipótesis sea bueno, debe diseñarse de forma que

minimice los errores de decisión. En la práctica un tipo de error puede tener más

importancia que el otro, y así se tiene a conseguir poner una limitación al error de

mayor importancia. La única forma de reducir ambos tipos de errores es incrementar el

tamaño de la muestra, lo cual puede ser o no ser posible.

La probabilidad de cometer un error de tipo II denotada con la letra griega beta β,

depende de la diferencia entre los valores supuesto y real del parámetro de la población.
Como es más fácil encontrar diferencias grandes, si la diferencia entre la estadística de

muestra y el correspondiente parámetro de población es grande, la probabilidad de

cometer un error de tipo II, probablemente sea pequeña.

El estudio y las conclusiones que obtengamos para una población cualquiera, se habrán

apoyado exclusivamente en el análisis de una parte de ésta. De la probabilidad con la

que estemos dispuestos a asumir estos errores, dependerá, por ejemplo, el tamaño de la

muestra requerida. Las contrastaciones se apoyan en que los datos de partida siguen una

distribución normal

Existe una relación inversa entre la magnitud de los errores α y β: conforme a aumenta,

β disminuye. Esto obliga a establecer con cuidado el valor de a para las

pruebas estadísticas. Lo ideal sería establecer α y β.

En la práctica se establece el nivel α y para disminuir el Error β se incrementa el

número de observaciones en la muestra, pues así se acortan los limites de confianza

respecto a la hipótesis planteada .La meta de las pruebas estadísticas es rechazar la

hipótesis planteada. En otras palabras, es deseable aumentar cuando ésta es verdadera, o

sea, incrementar lo que se llama poder de la prueba (1- β) La aceptación de la

hipótesis planteada debe interpretarse como que la información aleatoria de la muestra

disponible no permite detectar la falsedad de esta hipótesis.

 Paso 3: Cálculo del valor estadístico de prueba

Valor determinado a partir de la información muestral, que se utiliza para determinar si

se rechaza la hipótesis nula., existen muchos estadísticos de prueba para nuestro caso

utilizaremos los estadísticos z y t. La elección de uno de estos depende de la cantidad de

muestras que se toman, si las muestras son de la prueba son iguales a 30 o mas se utiliza

el estadístico z, en caso contrario se utiliza el estadístico t.


Tipos de prueba

a) Prueba bilateral o de dos extremos: la hipótesis planteada se formula con la

igualdad

Ejemplo

H0 : µ = 200

H1 : µ ≠ 200

b) Pruebas unilateral o de un extremo: la hipótesis planteada se formula con ≥ o ≤

H0 : µ ≥ 200 H0 : µ ≤ 200

H1 : µ < 200 H1 : µ > 200


En las pruebas de hipótesis para la media (μ), cuando se conoce la desviación estándar

(σ) poblacional, o cuando el valor de la muestra es grande (30 o más), el valor

estadístico de prueba es z y se determina a partir de:

El valor estadístico z, para muestra grande y desviación estándar poblacional

desconocida se determina por la ecuación:

En la prueba para una media poblacional con muestra pequeña y desviación estándar

poblacional desconocida se utiliza el valor estadístico t.

 Paso 4: Formular la regla de decisión

Se establece las condiciones específicas en la que se rechaza la hipótesis nula y las

condiciones en que no se rechaza la hipótesis nula. La región de rechazo define la

ubicación de todos los valores que son tan grandes o tan pequeños, que la probabilidad

de que se presenten bajo la suposición de que la hipótesis nula es verdadera, es muy

remota
Distribución muestral del valor estadístico z, con prueba de una cola a la derecha

Valor crítico: Es el punto de división entre la región en la que se rechaza la hipótesis

nula y la región en la que no se rechaza la hipótesis nula.

 Paso 5: Tomar una decisión.

En este último paso de la prueba de hipótesis, se calcula el estadístico de prueba, se

compara con el valor crítico y se toma la decisión de rechazar o no la hipótesis nula.

Tenga presente que en una prueba de hipótesis solo se puede tomar una de dos

decisiones: aceptar o rechazar la hipótesis nula. Debe subrayarse que siempre existe la

posibilidad de rechazar la hipótesis nula cuando no debería haberse rechazado (error

tipo I). También existe la posibilidad de que la hipótesis nula se acepte cuando debería

haberse rechazado (error de tipo II).


IV. PROCEDIMIENTO PARA PROBAR HIPOTESIS

4.1 Prueba de hipótesis de la media

En vez de estimar el valor de un parámetro, a veces se debe decidir si una afirmación

relativa a un parámetro es verdadera o falsa. Es decir, probar una hipótesis relativa a un

parámetro. Se realiza una prueba de hipótesis cuando se desea probar una afirmación

realizada acerca de un parámetro o parámetros de una población.

Una hipótesis es un enunciado acerca del valor de un parámetro (media, proporción,

etc.).

Prueba de Hipótesis es un procedimiento basado en evidencia muestral (estadístico) y

en la teoría de probabilidad (distribución muestral del estadístico) para determinar si una

hipótesis es razonable y no debe rechazarse, o si es irrazonable y debe ser rechazada.

La hipótesis de que el parámetro de la población es igual a un valor determinado se

conoce como hipótesis nula. Una hipótesis nula es siempre una de status quo o de no

diferencia.

En toda prueba de hipótesis se presentan 3 casos de zonas críticas o llamadas

también zonas de rechazo de la hipótesis nula, estos casos son los siguientes:
En toda prueba de hipótesis se pueden cometer 2 tipos de errores:
Prueba medias de una muestra

Se utiliza una prueba de una muestra para probar una afirmación con respecto a una

media de una población única.

Nota: Se considera práctico utilizar la distribución t solamente cuando se requiera que

el tamaño de la muestra sea menor de 30, ya que para muestras más grandes los

valores t y z son aproximadamente iguales, y es posible emplear la distribución normal

en lugar de la distribución t.
4.2 Prueba de hipótesis de dos medias.

Un test de hipótesis para dos muestras es similar en muchos aspectos al test para una

muestra.

 Se especifica una hipótesis nula, en la mayoría de los casos se propone que las

medias de las dos poblaciones son iguales y se establece la hipótesis alternativa

(uni o bilateral).

 Se especifica un nivel de significación α.

 Se calcula el p-valor: la probabilidad de obtener datos cuyas medias muestrales

difieren tanto o más que la diferencia observada cuando H0 es verdadera. Si esta

probabilidad es pequeña (menor que α ) se rechaza H0 y se concluye que la

diferencia observada no es atribuible al azar y las medias de las dos poblaciones

son diferentes.

El estadístico del test dependerá de la estructura de los conjuntos de datos. En

particular es importante establecer si los datos corresponden a muestras apareadas o

independientes.
MUESTRAS APAREADAS

La característica distintiva de las muestras apareadas es que para cada observación

del primer grupo, hay una observación relacionada en el segundo grupo. Este diseño

es más complejo que el de muestras independientes, pero lo presentamos en primer

término porque se pueden aplicar, con sólo tomar diferencias, todos los

procedimientos que hemos visto para una muestra.

Las muestras apareadas se obtienen cuando se realizan comparaciones sobre una

misma unidad experimental:

 Se determina en la misma unidad la concentración de una sustancia con dos

métodos diferentes.

 Se estudia un mismo individuo antes y después de un tratamiento.

4.3 Prueba de hipótesis de una proporción

Las pruebas de proporciones son adecuadas cuando los datos que se están analizando

constan de cuentas o frecuencias de elementos de dos o más clases. El objetivo de estas

pruebas es evaluar las afirmaciones con respecto a una proporción (o Porcentaje)

de población. Las pruebas se basan en la premisa de que una proporción muestral (es

decir, x ocurrencias en n observaciones, o x/n) será igual a la proporción verdadera de la

población si se toman márgenes o tolerancias para la variabilidad muestral. Las pruebas

suelen enfocarse en la diferencia entre un número esperado de ocurrencias, suponiendo

que una afirmación es verdadera, y el número observado realmente. La diferencia se

compara con la variabilidad prescrita mediante una distribución de muestreo que tiene

como base el supuesto de que es realmente verdadera.


En muchos aspectos, las pruebas de proporciones se parecen a las pruebas de medias,

excepto que, en el caso de las primeras, los datos muestrales se consideran como

cuentas en lugar de como mediciones. Por ejemplo, las pruebas para medias y

proporciones se pueden utilizar para evaluar afirmaciones con respecto a:

 Un parámetro de población único (prueba de una muestra)

 La igualdad de parámetros de dos poblaciones (prueba de dos muestras).

 La igualdad de parámetros de más de dos poblaciones (prueba de k muestras).

Además, para tamaños grandes de muestras, la distribución de muestreo adecuada

para pruebas de proporciones de una y dos muestras es aproximadamente normal,

justo como sucede en el caso de pruebas de medias de una y dos muestras.

Prueba de proporciones de una muestra

Cuando el objetivo del muestreo es evaluar la validez de una afirmación con respecto a

la proporción de una población, es adecuado utilizar una prueba de una muestra.

La metodología de prueba depende de si el número de observaciones de la muestra es

grande o pequeño.

Como se habrá observado anteriormente, las pruebas de grandes muestras de medias y

proporciones son bastante semejantes. De este modo, los valoresestadísticos de prueba

miden la desviación de un valor estadístico de muestra a partir de un valor propuesto. Y

ambas pruebas se basan en la distribución normal estándar para valores críticos. Quizá

la única diferencia real entre las ambas radica en la forma corno se obtiene la desviación

estándar de la distribución de muestreo.

Esta prueba comprende el cálculo del valor estadístico de prueba Z


Posteriormente este valor es comparado con el valor de Z, obtenido a partir de una tabla

normal a un nivel de significación seleccionado.

Como ocurrió con la prueba de medias de una muestra, las pruebas de proporciones

pueden ser de una o dos colas.

La primera alternativa establece una prueba de cola derecha, la segunda, izquierda y la

tercera, una prueba de dos colas.


4.4 Prueba de hipótesis de diferencia de proporciones

El estadístico de prueba que permite contrastar frente a a partir de dos muestras

aleatorias e independientes es siendo p la estimación de obtenida del total de


observaciones.

Si se consideran las proporciones como medias y se aplica la prueba t utilizada para comparar medias
poblacionales los resultados no son fiables ya que la estimación del error típico que realiza el programa no
coincide con la del estadístico de prueba. Para resolver el problema con el programa SPSS se deberá cruzar la
variable analizada con la que define los grupos (obtener la tabla de contingencia) y realizar el contraste de
independencia Chi-cuadrado.

El estadístico de prueba Chi-cuadrado se define: y presenta una distribución


Chi-cuadrado con (I-1)(J-1) grados de libertad. Las Eij se calculan multiplicando las frecuencias marginales y
dividendo el producto por n. Estas Eij son estimaciones de las frecuencias absolutas que cabría esperar en cada
casilla bajo el supuesto de que la proporción de éxitos es la obtenida a partir del total de observaciones
muestrales sin considerar diferencias entre los dos grupos.

La secuencia es:

Analizar

Estadísticos Descriptivos

Tablas de contingencia

En el cuadro de diálogo se indica la variable que se quiere contrastar (filas), la variable que define los dos
grupos (columnas) y se selecciona la opción Chi-cuadrado en Estadísticos.

EJEMPLO

Con referencia a la encuesta Enctrans.sav se quiere comprobar si la proporción de alumnos con


vehículo difiere significativamente entre los grupos definidos según el género.

La hipótesis nula del contraste es ; siendo la proporción poblacional de hombres con vehículo
y la proporción poblacional de mujeres con vehículo.

Con la secuencia Analizar > Estadísticos Descriptivos > Tablas de contingencia se accede al cuadro de
diálogo donde se indica que la variable a contrastar es Vehículo y que la variable de agrupación es el Género, y
se selecciona la opción Chi-cuadrado en Estadísticos. Al aceptar se obtiene el siguiente cuadro de resultados.

4.5 Prueba de hipótesis de Chi cuadrada

Esta prueba puede utilizarse incluso con datos medibles en una escala nominal. La

hipótesis nula de la prueba Chi-cuadrado postula una distribución de probabilidad

totalmente especificada como el modelo matemático de la población que ha generado la

muestra.

Para realizar este contraste se disponen los datos en una tabla de frecuencias. Para cada

valor o intervalo de valores se indica la frecuencia absoluta observada o empírica (Oi).

A continuación, y suponiendo que la hipótesis nula es cierta, se calculan para cada valor

o intervalo de valores la frecuencia absoluta que cabría esperar o frecuencia esperada

(Ei=n·pi , donde n es el tamaño de la muestra y pi la probabilidad del i-ésimo valor o

intervalo de valores según la hipótesis nula).


El estadístico de prueba se basa en las diferencias entre la Oi y Ei y se define como:

Este estadístico tiene una distribución Chi-cuadrado con k-1 grados de libertad si n es

suficientemente grande, es decir, si todas las frecuencias esperadas son mayores que 5.

En la práctica se tolera un máximo del 20% de frecuencias inferiores a 5.

Si existe concordancia perfecta entre las frecuencias observadas y las esperadas el

estadístico tomará un valor igual a 0; por el contrario, si existe una gran discrepancias

entre estas frecuencias el estadístico tomará un valor grande y, en consecuencia, se

rechazará la hipótesis nula. Así pues, la región crítica estará situada en el extremo

superior de la distribución Chi-cuadrado con k-1 grados de libertad.

Para realizar un contraste Chi-cuadrado la secuencia es:

Analizar, Pruebas no paramétricas, Chi-cuadrado


En el cuadro de diálogo Prueba chi-cuadrado se indica la variable a analizar

en Contrastar variables.

En Valores esperados se debe especificar la distribución teórica activando una de las

dos alternativas. Por defecto está activada Todas la categorías iguales que recoge la

hipótesis de que la distribución de la población es uniforme discreta. La

opción Valoresrequiere especificar uno a uno los valores esperados de las frecuencias

relativas o absolutas correspondientes a cada categoría, introduciéndolos en el mismo

orden en el que se han definido las categorías.

El recuadro Rango esperado presenta dos opciones: por defecto está activada Obtener

de los datos que realiza el análisis para todas las categorías o valores de la variable; la

otra alternativa, Usar rango especificado, realiza el análisis sólo para un deteminado

rango de valores cuyos límites Inferior y Superior se deben especificar en los recuadros

de texto correspondientes.

El cuadro de diálogo al que se accede con el botón Opciones ofrece la posibilidad de

calcular los Estadísticos Descriptivos y/o los Cuartiles, así como seleccionar la forma

en que se desea tratar los valores perdidos.

4.6 Prueba de hipótesis de correlación

El test de chi-cuadrado de contingencia se usa para comprobar la independencia de dos

caracteres estadísticos. En el marco gaussiano (y solamente en este marco) dos variables

aleatorias son independientes si y sólo si ellas no están correlacionadas. El problema

aquí es decidir si una correlación observada entre dos caracteres estadísticos, medidos

en los mismos individuos, es o no significativa.


Para el modelo probabilista, las observaciones provienen de

una muestra de una ley normal bidimensional, de

esperanza y con matriz de covarianza:

Es la ley de un par de variables cuyas esperanzas respectivas son y y las

varianzas y , El coeficiente de correlación es . El estimador natural de es

el coeficiente de correlación empírico, es decir la variable aleatoria dada por:

donde y denotan las medias empíricas de las y de las respectivamente.

La hipótesis nula que queremos comprobar es:


Empleamos para esto el siguiente resultado:

Teorema 3.8 Si es verdadera, entonces el estadígrafo:

Sigue la ley de Student .

El test bilateral de nivel tendrá por regla de decisión:

Rechazo de

V. ANÁLISIS DE VARIANZA

El análisis de la varianza parte de los conceptos de regresión lineal. Un análisis de la

varianza permite determinar si diferentes tratamientos muestran diferencias

significativas o por el contrario puede suponerse que sus medias poblacionales no

difieren. El análisis de la varianza permite superar las limitaciones de hacer contrastes

bilaterales por parejas que son un mal método para determinar si un conjunto de

variables con n > 2 difieren entre sí.

5.1 ANOVA de un factor.

Usamos ANOVA de un factor cuando queremos saber si las medias de una variable son

diferentes entre los niveles o grupos de otra variable. Por ejemplo, si comparamos el

número de hijos entre los grupos o niveles de clase social: los que son clase baja, clase

trabajadora, clase media-baja, clase media-alta y clase alta. Es decir, vamos a

comprobar mediante ANOVA si la variable “número de hijos” está relacionada con la


variable “clase social”. Concretamente, se analizará si la media del número de hijos

varía según el nivel de clase social a la que pertenece la persona.

Condiciones:

 En ANOVA de un factor solo se relacionan dos variables: una variable dependiente

(o a explicar) y una variable independiente (que en esta técnica se suele llamar

factor)

 La variable dependiente es cuantitativa (escalar) y la variable independiente es

categórica (nominal u ordinal).

 Se pide que las variables sigan la distribución normal, aunque como siempre esto es

difícil de cumplir en investigaciones sociales.

 También que las varianzas (es decir, las desviaciones típicas al cuadrado) de cada

grupo de la variable independiente sean similiares (fenómeno que se conoce como

homocedasticidad). Aunque esto es lo ideal, en la realidad cuesta de cumplir, e

igualmente se puede aplicar ANOVA

5.1.1 ¿En qué se basa ANOVA de un factor?

ANOVA de un factor compara las medias de la variable dependiente entre los grupos o

categorías de la variable independiente.

Por ejemplo, comparamos las medias de la variable “Número de hijos” según los grupos

o categorías de la variable “Clase social”.

Si las medias de la variable dependiente son iguales en cada grupo o categoría de la

variable independiente, los grupos no difieren en la variable dependiente, y por tanto no

hay relación entre las variables. En cambio, y siguiendo con el ejemplo, si las medias

del número de hijos son diferentes entre los niveles de la clase social es que las

variables están relacionadas.


5.1.2 ¿Qué estadísticos se calculan en ANOVA?

Al aplicar ANOVA de un factor se calcula un estadístico o test denominado F y su

significación. El estadístico F o F-test (se llama F en honor al estadístico Ronald Fisher)

se obtiene al estimar la variación de las medias entre los grupos de la variable

independiente y dividirla por la estimación de la variación de las medias dentro de los

grupos.

El cálculo del estadístico F es algo complejo de entender, pero lo que hace es dividir la

variación entre los grupos por la variación dentro de los grupos. Si las medias entre los

grupos varían mucho y la media dentro de un grupo varía poco, es decir, los grupos son

heterogéneos entre ellos y similares internamente, el valor de F será más alto, y por

tanto, las variables estarán relacionadas.

En conclusión, cuanto más difieren las medias de la variable dependiente entre los

grupos de la variable independiente, más alto será el valor de F. Si hacemos varios

análisis de ANOVA de un factor, aquel con F más alto indicará que hay más diferencias

y por tanto una relación más fuerte entre las variables.

La significación de F se interpretará como la probabilidad de que este valor de F se deba

al azar. Siguiendo un nivel de confianza del 95%, el más utilizado en ciencias sociales,

cuando la significación de F sea menor de 0,05 es que las dos variables están

relacionadas.

5.1.3 ¿Cómo se interpreta el test de F y la significación?

Hemos de analizar e interpretar al aplicar ANOVA de un factor:

 Significación: si es menor de 0,05 es que las dos variables están relacionadas y por

tanto que hay diferencias significativas entre los grupos


 Valor de F: cuanto más alto sea F, más están relacionadas las variables, lo que

significa que las medias de la variable dependiente difieren o varían mucho entre los

grupos de la variable independiente.

Ejemplo de ANOVA de un factor

Quiero averiguar si el número de hijos varían según el nivel educativo. Para ello

comparo las medias de números de hijos entre los diversos niveles educativos: sin

estudios, primarios, secundarios y universitarios. Utilizaré los datos de la Encuesta

Mundial de Valores realizada entre 2010 y 2014 en 58 países del mundo.

En SPSS realizaré una comparación de medias y ANOVA de un factor.

Análisis > Comparar medias > ANOVA de un factor

Introduciré las dos variables que quiero analizar:

 "Número de hijos" (How many children do you have): es una variable cuantitativa

(escalar) que va de 0 hasta 8 o más hijos. Esta será la variable dependiente o a

explicar

 "Clase social" (Social class): variable ordinal. Es la variable independiente o factor.

Las categorías o grupos de la clase social son: clase baja, clase trabajadora, clase

media baja, clase media alta, y clase alta.


Para obtener la comparación de medias y las desviaciones típicas, nos dirigimos a

Opciones y marcamos la opción de Descriptivos

El resultado es el siguiente:

En la tercera columna se observan las medias para cada grupo de clase social. Si nos

fijamos en las medias del número de hijos en cada grupo de clase social, podemos

observar que a medida que aumenta la clase social desciende la media del número de

hijos. Las personas de clase baja (lower class) tienen de media 2,18 hijos, las de clase

trabajadora (working class) 1,88 hijos, las de clase media-baja (lower middle class)
1,78, las de clase media alta 1,70 hijos y las de clase alta (upper class) tienen de media

1,69 hijos.

El valor de F es 137,477 y la significación es 0,000. Al ser la significación menor de

0,05 es que las diferencias de media de hijos entre los grupos de la clase social son

significativas. Aunque aparentemente podamos pensar que las diferencias no son

exageradas, la decisión de si las diferencias son significativas no depende de nuestro

criterio, sino de la significación de F. Este es el objetivo de aplicar ANOVA de un

factor: valorar estadísticamente si las diferencias de medias son significativas o no.


5.2 ANOVA bifactoral

Es un diseño de anova que permite estudiar simultáneamente los efectos de dos fuentes

de variación.

En el ejemplo 1, en el que se estudiaban diversos tratamientos para la hipertensión

arterial, se podría plantear que, quizás, la evolución de la misma fuera diferente para los

hombres y las mujeres, en cuyo caso, y si el número de hombres y mujeres en cada

muestra no fuera el mismo, podría ocurrir que una parte del efecto atribuido a los

tratamientos fuera debido al sexo.

En cualquier caso, el investigador puede estar interesado en estudiar si hay, o no,

diferencia en la evolución según el sexo. En un anova de dos vías se clasifica a los

individuos de acuerdo a dos factores (o vías) para estudiar simultáneamente sus efectos.

En este ejemplo se harían cinco grupos de tratamiento para los hombres y otros cinco

para las mujeres, en total diez grupos; en general, si el primer factor tiene a niveles y el

segundo tiene b, se tendrán ab muestras o unidades experimentales, cada una

con nindividuos o repeticiones.

Una observación individual se representa como:

El primer subíndice indica el nivel del primer factor, el segundo el nivel del segundo

factor y el tercero la observación dentro de la muestra. Los factores pueden ser ambos

de efectos fijos (se habla entonces de modelo I), de efectos aleatorios (modelo II) o uno

de efectos fijos y el otro de efectos aleatorios (modelo mixto). El modelo matemático de

este análisis es:


modelo I

modelo II

modelo mixto

donde m es la media global, ai o Ai el efecto del nivel i del 1º factor, bj o Bj el efecto del

nivel j del 2º factor y e ijk las desviaciones aleatorias alrededor de las medias, que

también se asume que están normalmente distribuidas, son independientes y tienen

media 0 y varianza s2.

A las condiciones de muestreo aleatorio, normalidad e independencia, este modelo

añade la de aditividad de los efectos de los factores.

A los términos ( ab )ij, (AB)ij, (aB)ij, se les denomina interacción entre ambos factores y

representan el hecho de que el efecto de un determinado nivel de un factor sea diferente

para cada nivel del otro factor.

Para entender mejor este concepto de interacción veamos un ejemplo sencillo sobre un

anova de dos factores, cada uno con dos niveles: supóngase un estudio para analizar el

efecto de un somnífero teniendo en cuenta el sexo de los sujetos. Se eligen al azar dos

grupos de hombres y otros dos de mujeres. A un grupo de hombres y otro de mujeres se

les suministra un placebo y a los otros grupos el somnífero. Se mide el efecto por el

tiempo que los sujetos tardan en dormirse desde el suministro de la píldora.


Se trata de un anova de dos factores (sexo y fármaco) fijos, cada uno con dos niveles

(hombre y mujer para el sexo y somnífero y placebo para el fármaco). Los dos tipos de

resultados posibles se esquematizan en la figura

A B

En la figura A se observa que las mujeres tardan más en dormirse, tanto en el grupo

tratado como en el grupo placebo (hay un efecto del sexo) y que los tratados con

placebo tardan más en dormirse que los tratados con somnífero en ambos sexos (hay un

efecto del tratamiento). Ambos efectos son fácilmente observables.

Sin embargo en la figura B es difícil cuantificar el efecto del somnífero pues es distinto

en ambos sexos y, simétricamente, es difícil cuantificar el efecto del sexo pues es

distinto en ambos grupos de tratamiento. En este caso, se dice que existe interacción.

Podría, incluso, darse el caso de que se invirtieran los efectos de un factor para los

distintos niveles del otro, es decir, que las mujeres se durmieran antes con el somnífero

y los hombres antes con el placebo.


La interacción indica, por tanto, que los efectos de ambos factores no son aditivos:

cuando se dan juntos, su efecto no es la suma de los efectos que tienen cuando están por

separado, por lo que, si en un determinado estudio se encuentra interacción entre

dos factores, no tiene sentido estimar los efectos de los factores por separado. A la

interacción positiva, es decir, cuando el efecto de los factores actuando juntos es mayor

que la suma de efectos actuando por separado, en Biología se le

denomina sinergia o potenciación y a la interacción negativa inhibición. En el ejemplo

de la figura B, se diría que el ser mujer inhibe el efecto del somnífero, o que el ser

hombre lo potencia (según el sexo que se tome como referencia).

5.3 ANOVA de 3 factores

El modelo de diseño de experimentos con dos factores se puede generalizar a tres o más

factores, aunque presenta el gran inconveniente de que para su aplicación es necesario

un tamaño muestral muy grande.

El modelo de diseño de experimentos completo con tres factores (T , T y T ),

interacción y replicación (K réplicas) tiene el siguiente modelo matemático:

En este modelo se tienen tres factores-tratamineto: el factor T (efecto ) con

niveles i = 1,...,I, el factor T (efecto ) con niveles j = 1,...,J, y el factor T (efecto )

con niveles r = 1,...,R. Cada tratamiento se ha replicado K veces. Por tanto se

tienen n = IJRK observaciones. El término ijk es la interacción de tercer orden

que, en la mayoría de las situaciones, se suponen nulas.


La descomposición de la variabilidad se obtiene la siguiente tabla ANOVA (Tabla 5.4.),

a partir de la cual se pueden obtener contrastes como en la sección anterior.

CUADRO DEL ANÁLISIS DE LA VARIANZA


MODELO COMPLETO DE TRES VÍAS
Fuente Suma de cuadrados g.l.
de variación
Factor T I 2 I-1
scT = J RK i=1 i

Factor T J 2 J-1
scT = IRK j=1 j

Factor T R 2 R-1
scT = IJK r=1 r

Inter. I J 2 (I - 1)(J - 1)
sc = RK i=1 j=1 ij

Inter. I R 2 (I - 1)(R - 1)
sc = JK i=1 r=1 ir

Inter. J R 2 (J - 1)(R - 1)
sc = IK j=1 r=1 jr

Inter. I J R (I - 1)(J - 1)(R -


sc =K i=1 j=1 r=1
2 1)
ijr

Residual I J R IJR(K - 1)
scR = i=1 j=1 r=1 t=
K 2
1 eijrk

Global I J R IJRK - 1
scG = i=1 j=1 r=1 t=
Ke 2
1 ijrk
VI. CONCLUSIONES

Si se condensan los resultados hasta aquí obtenidos, a manera de conclusiones se puede

abordar, que todo problema de prueba de hipótesis consiste en lo siguiente:

 Identificar una variable aleatoria X que tiene una distribución conocida, es

decir, que pertenece a una clase determinada, por ejemplo a las del tipo normal,

y con relación a la cual se quiere tomar una decisión respecto al valor de un

parámetro desconocido, pero asociado a ella, digamos (, (, ...,etc.

 Se plantea una hipótesis nula, donde se asume un valor para el parámetro; y una

hipótesis alternativa donde se contradice lo expresado en la hipótesis nula.

 Se escoge el nivel de significación a, que es la probabilidad de rechazar la

hipótesis nula siendo esta cierta.

 Se selecciona una muestra de tamaño n para estimar el parámetro desconocido

y poder posteriormente decidir si se rechaza o no H0.

 Se define la región crítica para la prueba de hipótesis de interés.

 Se toma la decisión de rechazar H0, con un nivel de significación a si el valor

estimado del parámetro está en la región crítica y de no rechazar H0 si este

valor no está en la región crítica.


VII. BIBLIOGRAFIA

 http://probafacil.com/prueba-de-hipotesis-estadistica/

 https://asesoriatesis1960.blogspot.com/2018/01/que-son-las-hipotesis-

estadisticas.html

 https://explorable.com/es/hipotesis-nula

 https://www.clubensayos.com/Ciencia/Procedimiento-Sistematico-Para-Una-

Prueba-De-Hipotesis/529121.html

 https://www.monografias.com/trabajos91/prueba-hipotesis-medias-excel-y-

winstats/prueba-hipotesis-medias-excel-y-winstats.shtml

 https://es.scribd.com/doc/59262046/Prueba-de-Hipotesis-de-Dos-Proporciones

 http://www.dm.uba.ar/materias/estadistica_Q/2010/2/C011Tests%20para%20dos

%20muestras.pdf

 https://www.monografias.com/trabajos91/prueba-hipotesis-proporciones-z-y-ji-

cuadrado-empleando-excel-y-winstats/prueba-hipotesis-proporciones-z-y-ji-

cuadrado-empleando-excel-y-winstats.shtml

 http://www.ub.edu/aplica_infor/spss/cap4-5.htm

 http://www.ub.edu/aplica_infor/spss/cap5-2.htm

 https://ljk.imag.fr/membres/Bernard.Ycart/emel/cours/ts/node16.html

 http://networkianos.com/anova-de-un-factor-que-es-como-analizar/

 http://www.hrc.es/bioest/Anova_10.html

 http://dm.udc.es/asignaturas/estadistica2/sec5_6.html

Vous aimerez peut-être aussi