Vous êtes sur la page 1sur 16

Pruebas de bondad de ajuste

Sistemas de calidad. Equipo 10

1. Introducción

En general, una prueba de hipótesis se realiza cuando se quiere contrastar un valor


observado con el valor de un parámetro teórico. El concepto de prueba de hipótesis
se puede extender para probar si un conjunto de datos proviene de cierta
distribución conocida, por ejemplo a distribución normal o uniforme. Esta prueba es
importante cuando se quiere usar por ejemplo la distribución normal como modelo
de probabilidad para analizar cierta variable, como es el caso para varios análisis
estadísticos en procesos industriales. El problema general del ajuste de
distribuciones consiste en probar la hipótesis:

H0: f(x) = f0(x)

contra la hipótesis alternativa de que f(x) no se ajusta a la densidad f 0(x).

2. Objetivo

Analizar los diferentes métodos de bondad de ajuste, en especial los que se pueden
utilizar para analizar una prueba de normalidad.

3. Temas que se deben incluir

Antecedentes de las pruebas de bondad de ajuste:


¿Cuál es el concepto de la prueba de hipótesis? ¿Y de la prueba de bondad
de ajuste?
Tipos de pruebas de bondad de ajuste:
¿Qué tipos de pruebas de bondad de ajuste existen? ¿Todas están basadas
en la estadística? ¿Cuáles son sus características y en qué difieren? ¿Para
qué tipo de problemas se usan? ¿Limitaciones de cada prueba?
Pruebas de normalidad:
¿Cuáles pruebas son específicamente para probar la normalidad? ¿De éstas
pruebas, cuáles han mostrado tener buen desempeño? Ejemplo: es
indispensable agregar ejemplos resueltos de cada una de las técnicas
presentadas.
Aplicación:
Se debe buscar una aplicación real de su campo de estudio (puede formar
parte de su trabajo final posteriormente), en donde se desea determinar la
distribución de probabilidad de un conjunto de datos, o en su caso la
comparación de dos conjuntos de datos para ver si provienen de la misma
población. Se hará un recuento de los métodos de bondad de ajuste aplicables
al caso seleccionado; se realizará la prueba de bondad con los métodos
aplicables y se sacará una conclusión sobre qué método parece ser el más
adecuado. En caso de ser posible, se hará una abstracción para ver si la
conclusión es válida para diferentes tipos de problema o si es solamente para
cierto tipo de problema.
Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10

4. Presentación del material

Se elaborará un resumen de 20 páginas máximo, que debe contener los temas


expuestos anteriormente, además de conclusiones y referencias (incluyendo
referencias electrónicas).

5. Fecha de entrega

Jueves 12 de abril 2018


En este momento se debe entregar todo el material en forma electróncia.
Preguntas: wann@unam.mx
Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10

Una prueba de hipótesis es una regla que especifica si se puede aceptar o rechazar
una afirmación acerca de una población dependiendo de la evidencia proporcionada
por una muestra de datos.

Una prueba de hipótesis examina dos hipótesis opuestas sobre una población: la
hipótesis nula y la hipótesis alternativa. La hipótesis nula es el enunciado que se
probará. Por lo general, la hipótesis nula es un enunciado de que "no hay efecto" o
"no hay diferencia". La hipótesis alternativa es el enunciado que se desea poder
concluir que es verdadero de acuerdo con la evidencia proporcionada por los datos
de la muestra.

Con base en los datos de muestra, la prueba determina si se puede rechazar la


hipótesis nula. Usted utiliza el valor p para tomar esa decisión. Si el valor p es menor
que el nivel de significancia (denotado como α o alfa), entonces puede rechazar la
hipótesis nula.

Un error común de percepción es que las pruebas estadísticas de hipótesis están


diseñadas para seleccionar la más probable de dos hipótesis. Sin embargo, al
diseñar una prueba de hipótesis, establecemos la hipótesis nula como lo que
queremos desaprobar. Puesto que establecemos el nivel de significancia para que
sea pequeño antes del análisis (por lo general, un valor de 0.05 funciona
adecuadamente), cuando rechazamos la hipótesis nula, tenemos prueba estadística
de que la alternativa es verdadera. En cambio, si no podemos rechazar la hipótesis
nula, no tenemos prueba estadística de que la hipótesis nula sea verdadera. Esto
se debe a que no establecimos la probabilidad de aceptar equivocadamente la
hipótesis nula para que fuera pequeña.

Existe una gran gama de pruebas de hipótesis para comprobar, a éstas se les llama
de bondad de ajuste. La bondad de ajuste de un modelo estadístico describe lo bien
que se ajusta un conjunto de observaciones. Las medidas de bondad en general,
resumen la discrepancia entre los valores observados y los k valores esperados en
el modelo de estudio.
Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10

Tipos de pruebas de bondad de ajuste:

 Chi Cuadrada
 Ji cuadrada
 Binomial
 Anderson Darling
 Fisher
 De independencia
 Distancia de Kolmogorov-Smirov
 Cramer Von Mises
 Kuiper

Chi Cuadrada

Una prueba de chi-cuadrada es una prueba de hipótesis que compara la distribución


observada de los datos con una distribución esperada de los datos.

Existen varios tipos de pruebas de chi-cuadrada:

Prueba de bondad de ajuste de chi-cuadrada

Utilice este análisis para probar qué tan bien una muestra de datos categóricos se
ajusta a una distribución teórica.

Por ejemplo, usted puede comprobar si un dado es justo, lanzando el dado muchas
veces y utilizando una prueba de bondad de ajuste de chi-cuadrada para determinar
si los resultados siguen una distribución uniforme. En este caso, el estadístico de
chi-cuadrada cuantifica qué tanto varía la distribución observada de los conteos con
respecto a la distribución hipotética.

Pruebas de chi-cuadrada de asociación e independencia

Los cálculos para estas pruebas son iguales, pero la pregunta que se está tratando
de contestar puede ser diferente.

Prueba de asociación: Utilice una prueba de asociación para determinar si una


variable está asociada a otra variable. Por ejemplo, determine si las ventas de
diferentes colores de automóviles dependen de la ciudad donde se venden.

Para realizar este contraste se disponen los datos en una tabla de frecuencias. Para
cada valor o intervalo de valores se indica la frecuencia absoluta observada o
empírica (Oi). A continuación, y suponiendo que la hipótesis nula es cierta, se
Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10
calculan para cada valor o intervalo de valores la frecuencia absoluta que cabría
esperar o frecuencia esperada (Ei=n·pi , donde n es el tamaño de la muestra y pi la
probabilidad del i-ésimo valor o intervalo de valores según la hipótesis nula). El
estadístico de prueba se basa en las diferencias entre la Oi y Ei y se define como:

Este estadístico tiene una distribución Chi-cuadrado con k-1 grados de libertad si n
es suficientemente grande, es decir, si todas las frecuencias esperadas son
mayores que 5. En la práctica se tolera un máximo del 20% de frecuencias inferiores
a 5.

Si existe concordancia perfecta entre las frecuencias observadas y las esperadas el


estadístico tomará un valor igual a 0; por el contrario, si existe una gran
discrepancias entre estas frecuencias el estadístico tomará un valor grande y, en
consecuencia, se rechazará la hipótesis nula. Así pues, la región crítica estará
situada en el extremo superior de la distribución Chi-cuadrado con k-1 grados de
libertad.

JI CUADRADA

En realidad la distribución ji-cuadrada es la distribución muestral de s2. O sea que


si se extraen todas las muestras posibles de una población normal y a cada
muestra se le calcula su varianza, se obtendrá la distribución muestral de
varianzas.

Para estimar la varianza poblacional o la desviación estándar, se necesita conocer


el estadístico X2. Si se elige una muestra de tamaño n de una población normal

con varianza , el estadístico:

tiene una distribución muestral que es una distribución ji-cuadrada con gl=n-
1 grados de libertad y se denota X2 (X es la minúscula de la letra griega ji). El
estadístico ji-cuadrada esta dado por:
Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10

donde n es el tamaño de la muestra, s2 la varianza muestral y la varianza de


la población de donde se extrajo la muestra. El estadístico ji-cuadrada también se
puede dar con la siguiente expresión:

Propiedades de las distribuciones ji-cuadrada

1. Los valores de X2 son mayores o iguales que 0.


2. La forma de una distribución X2 depende del gl=n-1. En consecuencia, hay
un número infinito de distribuciones X2.
3. El área bajo una curva ji-cuadrada y sobre el eje horizontal es 1.
4. Las distribuciones X2 no son simétricas. Tienen colas estrechas que se
extienden a la derecha; esto es, están sesgadas a la derecha.
5. Cuando n>2, la media de una distribución X2 es n-1 y la varianza es 2(n-1).
6. El valor modal de una distribución X2 se da en el valor (n-3).

La siguiente figura ilustra tres distribuciones X2. Note que el valor modal aparece
en el valor (n-3) = (gl-2).

La función de densidad de la distribución X2 esta dada por:

para x>0

Prueba Binomial

El objetivo de esta prueba es verificar hasta que punto las frecuencias observadas
para una variable dicotómica se ajustan a una proporción dada. En la figura
inferior podemos comprobar que hemos seleccionado la variable sexo y hemos
decidido contrastar la hipótesis de que nuestra muestra procede de una población
en la cual la proporción de hombres y mujeres es la misma. Con este objetivo
hemos decidido mantener la opción por defecto del SPSS Contrastar proporción a
Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10
,50. Si desearamos contrastar otra proporción simplemente lo especificaríamos en
dicha casilla. Dado que nuestra variable está codificada como 1 ó 2 la dicotomía
puede ser obtenida de los datos. En caso contrario deberíamos especificar el
punto de corte que el programa debería utilizar para definir dicha dicotomía.

Anderson Darling

El estadístico Anderson-Darling mide qué tan bien siguen los datos una
distribución específica. Para un conjunto de datos y distribución en particular,
mientras mejor se ajuste la distribución a los datos, menor será este estadístico.
Por ejemplo, usted puede utlizar el estadístico de Anderson-Darling para
determinar si los datos cumplen el supuesto de normalidad para una prueba t.

Las hipótesis para la prueba de Anderson-Darling son:

 H0: Los datos siguen una distribución especificada


 H1: Los datos no siguen una distribución especificada
Utilice el valor p correspondiente (si está disponible) para probar si los datos
provienen de la distribución elegida. Si el valor p es menor que un nivel de
significancia elegido (por lo general 0.05 o 0.10), entonces rechace la hipótesis
nula de que los datos provienen de esa distribución. Minitab no siempre muestra
un valor p para la prueba de Anderson-Darling, porque este no existe
matemáticamente para ciertos casos.

También puede utilizar el estadístico de Anderson-Darling para comparar el ajuste


de varias distribuciones con el fin de determinar cuál es la mejor. Sin embargo,
para concluir que una distribución es la mejor, el estadístico de Anderson-Darling
debe ser sustancialmente menor que los demás. Cuando los estadísticos están
cercanos entre sí, se deben usar criterios adicionales, como las gráficas de
probabilidad, para elegir entre ellos.

Distribución Anderson-Darling Valor p

Exponencial 9.599 p < 0.003


Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10

Distribución Anderson-Darling Valor p

Normal 0.641 p < 0.089

Weibull de 3 parámetros 0.376 p < 0.432

Exponencial

Normal

Weibull de 3 parámetros

DISTRIBUCION "F" FISHER

La necesidad de disponer de métodos estadísticos para comparar las varianzas de


dos poblaciones es evidente a partir del análisis de una sola población.
Frecuentemente se desea comparar la precisión de un instrumento de medición
con la de otro, la estabilidad de un proceso de manufactura con la de otro o hasta
la forma en que varía el procedimiento para calificar de un profesor universitario
con la de otro.

Intuitivamente, podríamos comparar las varianzas de dos

poblaciones, y , utilizando la razón de las varianzas muestrales s21/s22.


Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10
Si s21/s22 es casi igual a 1, se tendrá poca evidencia para indicar

que y no son iguales. Por otra parte, un valor muy grande o muy
pequeño para s 1/s22, proporcionará evidencia de una diferencia en las varianzas
2

de las poblaciones.

La variable aleatoria F se define como el cociente de dos variables aleatorias ji-


cuadrada independientes, cada una dividida entre sus respectivos grados de
libertad. Esto es,

donde U y V son variables aleatorias ji-cuadrada independientes con grados de


libertad 1 y 2 respectivamente.

Sean U y V dos variables aleatorias independientes que tienen distribución ji


cuadradas con grados de libertad, respectivamente. Entonces la

distribución de la variable aleatoria está dada por:

y se dice que sigue la distribución F con grados de libertad en el numerador

y grados de libertad en el denominador.

La media y la varianza de la distribución F son:

para
Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10

para

La variable aleatoria F es no negativa, y la distribución tiene un sesgo hacia la


derecha. La distribución F tiene una apariencia muy similar a la distribución ji-
cuadrada; sin embargo, se encuentra centrada respecto a 1, y los dos
parámetros proporcionan una flexibilidad adicional con respecto a la forma
de la distribución.

Si s12 y s22 son las varianzas muestrales independientes de tamaño n1 y


n2 tomadas de poblaciones normales con varianzas 2 2
1 y 2 ,
respectivamente, entonces:

Pruebas de independencia

El objetivo es verificar si existe una dependencia entre las variables cualitativas


que definen filas y columnas, es decir, si para todo i = 1, ..., k y j = 1, .., m se
verifica que la probabilidad del resultado correspondiente a la
combinación Ai ∩ Bj es el producto de las probabilidades marginales
correspondientes. P(Ai) es la probabilidad del resultado i para la variable fila
y P(Bj) la del resultado j para la variable columna.

P(Ai ∩ Bj) = P(Ai) · P(Bj)

Utilizaremos generalmente la notación más simplificada:

P(Ai ∩ Bj) = pij

P(Ai) = pi·

P(Bj) = p·j

Los valores de pi· y p·j se estimarán, a partir de los valores observados en la tabla
de contingencia, por ni·/N y n·j/N respectivamente.
Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10
Hipótesis nula de independencia: para toda combinación de resultados de las
variables fila y columna (i, j).

H0: pij = pi· p·j para todo i = 1, ..., k j = 1, .., m

La hipótesis alternativa, que implica dependencia, se puede formular diciendo que


alguna de las igualdades de la hipótesis nula es falsa.

Los valores observados son nij. Los valores esperados bajo la hipótesis nula de
independencia se calculan de la manera siguiente:

eij = N · pij = N · pi· · p·j = N · (ni·/N ) · (n·j/N ) = (ni· · n·j )/N

El estadístico de contraste se calcula de la manera habitual:

La distribución asintótica bajo la hipótesis nula es una χ2 con (k − 1) · (m − 1)


grados de libertad. Los grados de libertad pueden entenderse, de manera intuitiva,
entendiendo que el número de parámetros que se estiman son (k − 1) y (m − 1),
ya que queda fijada la probabilidad de la última clase de cada característica una
vez estimadas las restantes. Por tanto, aplicando la fórmula para los grados de
libertad se obtiene:

grados de libertad = número de clases − número de parámetros estimados − 1

grados de libertad = k · m − (k − 1) − (m − 1) − 1 = (k − 1) · (m − 1)

El criterio de decisión es el mismo que en el caso general:

Rechazamos la hipótesis nula si

donde el último término es el valor crítico asociado con una distribución χ2,
con (k − 1) · (m − 1) grados de libertad, tal que deja a su derecha una probabilidad
igual a α.

La condición de validez es que las frecuencias esperadas eij sean mayores que 5.

Prubea de Kolmogorov
Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10
La prueba de Kolmogorov es una prueba de bondad de ajuste, es decir, del grado
en que la distribución observada difiere de otra distribución. Es una alternativa a la
prueba Ji Cuadrado de bondad de ajuste cuanto el número de datos es pequeño.
La prueba no debe ser aplicada si hay muchos empates.

a) Supuestos. Los datos están medidos al menos a nivel ordinal.

b) Hipótesis Nula: No hay diferencias entre las distribuciones comparadas.

c) Estadístico de contraste: D (mayor diferencia entre las frecuencias relativas de


las distribuciones).

d) Distribución del estadístico de contraste: Específico dependiendo de la


distribución con que se compare la distribución observada.

Muchos de los resultados teóricos y prácticos de la estadística paramétrica


descansan en la distribución normal. El investigar si una muestra aleatoria de
tamaño n proviene de una distribución normal resulta de interés, y de hecho
existen muchas pruebas estadísticas al respecto entre las que destacan las
siguientes:

Prueba de Karl Pearson, basada en la distribución chi cuadrada y que


corresponde a una prueba de bondad de ajuste.

Prueba de Smirnov Kolmogorov, descansa en los desvíos de la distribución teórica


y empírica.

Prueba de Cramer-Von Mises, es útil para pequeñas muestras y usa los


momentos como criterio.

Prueba de Gram-Charlier, usa la distribución de mismo nombre para inferir si la


muestra es normal.

Prueba de Jarque y Bera, utiliza un estadístico en prueba que involucra la curtosis


y la asimetría.

Prueba de R.C. Geary, usa los cumulantes muestrales y sus medias y


desviaciones estándar.

Otras, como la de Shapiro- Wilk y aquéllas basadas en métodos numéricos.

PRUEBA DE NORMALIDAD DE R.C. GEARY


Sea x1, x2, ......, xn una muestra aleatoria de tamaño n de alguna distribución y
sea c > 0,
Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10

considere:

Especificamente cuando c=4:

a(c) = estimador de curtosis

donde:
Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10

donde k2 y k4 son los cumulantes 2o y 4o respectivamente.

esto es:

con 1 por la desigualdad de Cauchy-Schwartz y para distribuciones


simetricas unimodales y de la desigualdad de Gauss-Winclker se tiene
que 1.8 .

Por tanto:

Mesocurtica si =3

Platicurtica si <3

Leptocurtica si >3

Del desarrollo anterior, probar normalidad de muestras usando el criterio de Geary


equivale a lo siguiente:

Supongase que se desea probar:

Ho:{X1, X2,....., Xn} Normal

Ha:{X1, X2,....., Xn} Normal

Región crítica o de rechazo:

Si rechace Ho con significancia .

APLICACION

Con el propósito de usar el criterio de R.C. Geary para probar normalidad de


muestras a continuación se presentan cinco ejemplos, uno de ellos obtenido de un
experimento y los restantes en base a muestras simuladas de distribuciones
exponenciales y normales, generandose los siguientes datos:

(1)

46.0, 57.3, 62.5, 50.0, 57.3, 50.0, 50.5, 50.0, 48.0, 39.0

52.6, 49.8, 51.0, 60.4, 66.5, 50.5, 50.5, 50.5, 45.5, 51.5
Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10
47.9, 58.8, 52.0, 46.35, 46.8

(2)

2.16, 5.98, 20.90, 0.94, 2.45, 5.69, 4.09, 2.82, 7.44, 1.48

0.67, 3.15, 0.68, 7.04, 3.77, 16.57, 2.86, 0.32, 10.39, 2.27

14.73, 0.63, 5.34, 4.83, 4.18

(3)

12.25, 3.90, 3.95, 7.35, 7.50

(4)

12.25, 3.90, 3.95, 7.35, 7.50, 7.75, 5.90, -8.55, 10.40, 3.25

0.60, 11.70, 0.55, -4.90, 4.05, 11.70, 10.40, 9.25, 15.00, 7.80

0.05, 5.50, 0.10, 14.15, 2.60,

(5)

10.50, 31.65, 71.26, 4.64, 12.04, 0.07, 19.21, 1.74, 0.05, 25.28

A continuación se presenta el cuadro de inferencias asociadas a estas muestras:


Pruebas de bondad de ajuste
Sistemas de calidad. Equipo 10

Conclusiones

¿En que casos es recomendable cada estadístico?

Chi-Cuadrado: es recomendable para distribuciones discretas o continuas cuando


existe gran cantidad de datos. Se recomienda trabajar con datos agrupados.

Kolmogorov-Smirnov (K-S): es recomendable para distribuciones continuas y


muestras de cualquier tamaño. No requiere hacer uso de datos agrupados.

Anderson-Darling: es recomendable para distribuciones con colas pronunciadas.


No requiere hacer uso de datos agrupados

Referencias:

http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo12/B0C12m1t6.ht
m

https://www.uv.es/webgid/Inferencial/22_kolmogorov.html

http://www.itchihuahua.edu.mx/academic/industrial/estadistica1/cap03c.html

https://support.minitab.com/

http://psico.fcep.urv.es/spss/inferencia/npar.html

https://www.ibm.com/support/knowledgecenter/es/SSLVMB_24.0.0/spss/base/idh_ntbi.ht
ml

http://www.ub.edu/aplica_infor/spss/cap5-3.htm

https://www.medwave.cl/link.cgi/Medwave/Series/MBE04/5266

Vous aimerez peut-être aussi