Vous êtes sur la page 1sur 12

Potencia de prueba: La potencia es la probabilidad de rechazar la hiptesis nula cuando esta es falsa, es decir, es la probabilidad que cuando en realidad

no se cumple la hiptesis nula que planteamos, el procedimiento estadstico nos de como resultado que se rechaza la hiptesis nula. Por ejemplo si tenemos el contraste de hiptesis Ho : media = 20 H1 : media 20 Y nos dicen que la potencia es del 90%, debemos interpretarla as : si en realidad la media poblacional no es 20, al realizar el contraste de hiptesis tenemos una probabilidad del 90% de rechazar Ho (media=20) y aceptar H1 (la media no es 20) concluyendo acertadamente que la media no es 20 OTRO PUNTO:

POTENCIA DE PRUEBA Potencia de una prueba. El complemento (1-) de la probabilidad de cometer un error del tipo II se conoce como potencia de una prueba estadstica. La potencia de una prueba es la probabilidad de rechazar la hiptesis nula cuando de hecho esta es falsa y debera ser rechazada. Una manera en que podemos controlar la probabilidad de cometer un error del tipo II en un estudio, consiste en aumentar el tamao de la muestra. Tamaos ms grandes de muestra, nos permitirn detectar diferencias incluso muy pequeas entre las estadsticas de muestra y los parmetros de la poblacin. Cuando se disminuye , aumentar de modo que una reduccin en el riesgo de cometer un error de tipo I tendr como resultado un aumento en el riesgo de cometer un error tipo II. Prueba de hiptesis Z para la media (desvo de la poblacin conocido) El estadstico de prueba a utilizar es: La Potencia de una prueba representa la probabilidad de que la hiptesis nula no sea rechazada cuando de hecho es falsa y debera rechazrsele. La potencia de prueba 1- representa la sensibilidad de la prueba estadstica para detectar cambios que se presentan al medir la probabilidad de rechazar la hiptesis nula cuando de hecho es falsa y debera ser rechazada. La potencia de prueba estadstica depende de qu tan diferente en realidad es la media verdadera de la poblacin del valor supuesto. Una prueba de un extremo es ms poderosa que una de dos extremos, y se debera utilizar siempre que sea adecuado especificar la direccin de la hiptesis alternativa. Puesto que la probabilidad de cometer un error tipo I y la probabilidad de cometer un error tipo II tienen una relacin inversa y esta ltima es el complemento de la potencia de prueba (1-), entonces y la potencia de la prueba varan en proporcin directa. Un aumento en el valor del nivel de significacin escogido, tendra como resultado un aumento en la potencia y una disminucin en tendra

como resultado una disminucin en la potencia. Un aumento en el tamao de la muestra escogida tendra como resultado un aumento en la potencia de la prueba, una disminucin en el tamao de la muestra seleccionada tendra como resultado una disminucin en la potencia. EJEMPLO: Se realizan controles de calidad y de eficacia de vacunas contra herpes virus bovino-1 (HVB-1) aplicando un novedoso modelo de anlisis que incluye una etapa de estudio en ratones y otra posterior en bovinos. En la segunda etapa se le aplica la vacuna a un grupo de bovinos. Ms tarde se lo desafa con el herpes virus infeccioso, bajo estrictas normas de seguridad, para evaluar si la vacuna ha resultado protectiva. Este mtodo se denomina prueba de potencia, y ya ha sido realizado con xito para la empresa farmacutica Biognesis para controlar vacunas de serie contra HVB-1. El servicio a esta empresa en particular contina en la actualidad. Potencia de la prueba La potencia de una prueba es la probabilidad de rechazar la hiptesis nula cuando sta sea falsa. Se suele simbolizar como 1-. Se suele considerar OK una potencia de al menos 080 (es decir, asumiendo 100 experimentos en que hay un efecto real, lo detectaramos -en promedio- 80 veces.) La potencia de una prueba AUMENTA cuando aumentamos el tamao muestral. (Por ejemplo, en la prueba t para la diferencia de medias, ello se observa por cuanto n incrementa el valor de la t emprica.) La potencia de una prueba AUMENTA cuando el tamao del efecto aumenta. (Por ejemplo, en la prueba t para la diferencia de medias, cuanto mayor sea la diferencia de medias, mayor ser el valor de la t emprica.) La potencia de una prueba DISMINUYE cuando reducimos la probabilidad de error de tipo I (alpha o ). Es decir, si alpha es de 001 en lugar de 005, los valores crticos (v.g., las t tricas en el caso de la prueba de diferencia de medias) son algo ms extremos y necesitaremos un valor del estadstico de contraste (v.g., t emprica) mayor para rechazar la hiptesis nula. Potencia de la prueba Hay frmulas estadsticas (y programas en la internet) que permiten determinar la potencia de una prueba dado cierto tamao muestral, y la inversa, es decir, determinar el tamao muestral para una potencia dada. (Claro, que hemos de ser precavidos: para obtener tales valores necesitamos indicar lo que pensamos que sern los parmetros poblacionalesalgo que en realidad no sabemos.) CURVA DE POTENCIA : RE: ESTADSTICA Curva de potencias
La potencia de la prueba es algo as como la confianza con que rechazamos la hiptesis nula (o aceptamos la hiptesis nula). Cuanto ms se aleje la puntuacin obtenida de la propuesta por la

hiptesis nula, ms potencia tiene la prueba.

La curva de potencia es cmo quedara de desplazada la curva en el caso de que la hiptesis alternativa es aceptada. Como antes, cunto ms arriesgada sea nuestra hiptesis alternativa, ms se separar la curva de la propuesta por la nula.

Con un ejemplo se ve mejor:

Ho: CI nios=CI nias

H1: CI nios (distinta de) CI nias

Imaginamos dos casos:

media1=100 media2=105

Rechazamos hiptesis nula, pero no sera una prueba muy potente, porque hay una diferencia muy pequea entre uno y otro, por lo que es muy posible que nos estemos equivocando al rechazar la hiptesis nula (o al aceptar la hiptesis alternativa)(el espacio que comparten las dos curvas, es el riesgo de equivocarnos, porque si un dato cae ah, no se sabe a qu curva pertenece). . si una nia saca 103... estara por debajo de su grupo, o podemos considerar que la diferencia es demasiado pequea para considerarla?

La grfica quedara as:

caso 2:

media nios=100 media nias=130.

Rechazamos la hiptesis nula con ms confianza, porque las medias se separan lo suficiente como no correr el riesgo de equivocarnos. Si una nia saca 103, en caso de que nuestra hiptesis fuera cierta, podramos decir que est por debajo de la media de su grupo.

Esta hiptesis tendra ms potencia.

La grfica quedara:

CURVA DE POTENCIA: La curva de potencias te muestra la potencia de la misma hiptesis nula tomando sta distintos valores, es decir, con curvas cada vez ms separadas...

En el contexto de los planes de muestreo de aceptacin, la curva caracterstica de operacin representa grficamente la relacin existente entre un porcentaje de artculos defectuosos de un lote productivo (que por lo general se desconoce) y la probabilidad de aceptacin que se obtiene del mismo luego de aplicar un plan de muestreo como los detallados en la seccin de muestreo simple. Cuando la calidad de un lote es "buena" tanto al productor como al consumidor les interesa aceptar el lote con alta probabilidad. Por el contrario cuando la calidad de un lotes es "mala" especialmente al consumidor le interesa rechazar el lote la mayora de las veces. La probabilidad de aceptar un lote con 0 defectos es naturalmente un 100%. Alternativamente si el 100% de las unidades son defectuosas la probabilidad de aceptacin del lote es 0%. Por lo tanto una curva caracterstica de operacin siempre pasa por los puntos (0,1) y (100,0). Para porcentajes intermedios de artculos defectuosos se debe calcular la probabilidad de aceptacin del lote segn el plan de muestreo que se este aplicando.

Ejemplo de Curva Caracterstica de Operacin


Consideremos un plan de muestreo que est definido por N=1.000 y (n,c)=(80,4). Se requiere trazar la curva caracterstica de operacin para distintos valores de p (porcentaje de artculos defectuosos). Con el apoyo de una planilla de clculo trazar la curva de operacin es sencillo como se muestra en la siguiente imagen:

Notar que en nuestro ejemplo se cumplen las condiciones para utilizar la Distribucin de Poisson. Si tomamos un porcentaje de defectuosos a la entrada de un 5% (p=5%) se puede adicionamente hacer uso de las tablas de probabilidades para estimar la probabilidad de aceptacin. El parmetro de entrada para esta distribucin es n*p=80*0,05=4. Luego buscamos en la tabla el cruce de dicho valor para c=4. Se concluye que la probabilidad de aceptacin del lote es de un 62,9%.

Adicionalmente es interesante analizar lo siguiente. En el ejemplo, si el porcentaje de artculos defectuosos a la entrada es un 10%, la probabilidad de aceptacin del lote es slo de un 10%. Si esto se considera "mala calidad", este valor representa el "riesgo del consumidor". En forma similar si el porcentaje de artculos defectuosos a la entrada es un 2%, la probabilidad de aceptacin del lote es de un 97,6%. Si esto se considera "buena calidad" el diferencial de un 2,4% (100% - 97,6%) representa la probabilidad de rechazar este lote de "buena calidad". Esto es el "riesgo del productor".

VALOR P: En contrastes de hiptesis, en Estadstica, el valor p (a veces conocido simplemente como la p, valor p, o bien directamente en ingls p-value) est definido como la probabilidad de obtener un resultado al menos tan extremo como el que realmente se ha obtenido (valor del estadstico calculado), suponiendo que la hiptesis nula es cierta. Es fundamental tener en cuenta que el valor p est basado en la asuncin de la hiptesis de partida (o hiptesis nula).

Interpretacin
Se rechaza la hiptesis nula si el valor p asociado al resultado observado es igual o menor que el nivel de significacin establecido, convencionalmente 0,05 0,01, punto que se llama potencia del contraste. Es decir, el valor p nos muestra la probabilidad de haber obtenido el resultado que hemos obtenido si suponemos que la hiptesis nula es cierta. Si el valor p es inferior a la potencia del contraste nos indica que lo ms probable es que la hiptesis de partida sea falsa. Sin embargo, tambin es posible que estemos ante una observacin atpica, por lo que estaramos cometiendo el error estadstico de rechazar la hiptesis nula cuando sta es cierta basndonos en que hemos tenido la mala suerte de encontrar una observacin atpica. Este tipo de errores se puede subsanar rebajando el valor p; un valor p de 0,05 es usado en investigaciones habituales sociolgicas mientras que valores p de 0,01 se utilizan en investigaciones mdicas, en las que cometer un error puede acarrear consecuencias ms graves. Tambin se puede tratar de subsanar dicho error aumentando el tamao de la muestra obtenida, lo que reduce la posibilidad de que el dato obtenido sea casualmente raro. El valor p es un valor de probabilidad, por lo que oscila entre 0 y 1. As, se suele decir que valores altos de p NO RECHAZAN la hiptesis nula o, dicho de forma correcta, no permiten rechazar la H_{0}. De igual manera, valores bajos de p rechazan la H_{0}. Es importante recalcar que un contraste de hiptesis nula no permite aceptar una hiptesis; simplemente la rechaza o no la rechaza, es decir que la tacha de verosmil (lo que no significa obligatoriamente que sea cierta, simplemente es lo ms probable que sea cierta que sea falsa) o inverosmil.
USO :

Al probar hiptesis en las que la estadstica de prueba es discreta, la regin crtica se puede elegir de forma arbitraria y determinar su tamao. Si es demasiado grande, se puede reducir al hacer un ajuste en el valor crtico. Puede ser necesario aumentar el tamao de la muestra para compensar la disminucin que ocurre de manera automtica en la potencia de la prueba (probabilidad de rechazar Ho dado que una alternativa especfica es verdadera). Por generaciones enteras de anlisis estadstico, se ha hecho costumbre elegir un nivel de significancia de 0.05 0.01 y seleccionar la regin crtica en

consecuencia. Entonces, por supuesto, el rechazo o no rechazo estricto de H o depender de esa regin crtica. En la estadstica aplicada los usuarios han adoptado de forma extensa la aproximacin del valor P. La aproximacin se disea para dar al usuario una alternativa a la simple conclusin de "rechazo" o "no rechazo". La aproximacin del valor P como ayuda en la toma de decisiones es bastante natural pues casi todos los paquetes de computadora que proporcionan el clculo de prueba de hiptesis entregan valores de P junto con valores de la estadstica de la prueba apropiada.

Un valor P es el nivel (de significancia) ms bajo en el que el valor observado de la estadstica de prueba es significativo. El valor P es el nivel de significancia ms pequeo que conduce al rechazo de la hiptesis nula Ho. El valor P es el mnimo nivel de significancia en el cual Ho sera rechazada cuando se utiliza un procedimiento de prueba especificado con un conjunto dado de informacin. Una vez que el valor de P se haya determinado, la conclusin en cualquier nivel particular resulta de comparar el valor P con

1. Valor P 2. Valor P > rechazar Ho al nivel . No rechazar Ho al nivel

TEOREMA DE NEYMAN Y PEARSON: https://docs.google.com/viewer?a=v&q=cache:3d9bHaERek0J:www.dm.uba.ar/materias/estadisti ca_M/2005/1/clasetest4.pdf+TEOREMA+DE+NEYMAN+Y+PERSON&hl=es&gl=ve&pid=bl&srcid=AD GEESgkkDuSFKEtyXPk57yIj8yvr35bWYHttd4uSV8gt0xV0U7kAw10snfxSad8jXJtmmRDDegefcdsXzTUjaGJx8T-5eD2es0sQp7e456OmFGdlj7hmYsIsdte9E2xUev9F_Ckgo&sig=AHIEtbSnjdBE3b5x4gmAklPT_K7xzgle4Q

Lema de Neyman-Pearson
De Wikipedia, la enciclopedia libre Saltar a: navegacin, bsqueda

En estadstica, el lema fundamental de Neyman-Pearson es un resultado que describe el criterio ptimo para distinguir dos hiptesis simples H0: =0 y H1: =1. El criterio consiste en rechazar la hiptesis =0 tras observar funciones de verosimilitud cumpla cuando la razn de las

y k sea tal que

donde es el nivel de significatividad elegido. La prueba as descrita es la ms potente. El lema debe su nombre a sus dos creadores, Jerzy Neyman y Egon Pearson.
TEOREMA DE KOLMOGORO

Prueba de Kolmogrov-Smirnov
De Wikipedia, la enciclopedia libre Saltar a: navegacin, bsqueda

En estadstica, la prueba de Kolmogrov-Smirnov (tambin prueba K-S) es una prueba no paramtrica que se utiliza para determinar la bondad de ajuste de dos distribuciones de probabilidad entre s. En el caso de que queramos verificar la normalidad de una distribucin, la prueba de Lilliefors conlleva algunas mejoras con respecto a la de Kolmogrov-Smirnov; y, en general, el test de ShapiroWilk o la prueba de Anderson-Darling son alternativas ms potentes. Conviene tener en cuenta que la prueba Kolmogrov-Smirnov es ms sensible a los valores cercanos a la mediana que a los extremos de la distribucin. La prueba de AndersonDarling proporciona igual sensibilidad con valores extremos.

[editar] Estadstico
Adrianita dice que La distribucin de los datos Fn para n observaciones yi se define como

Para dos colas el estadstico viene dado por

donde F(x) es la distribucin presentada como hiptesis. Prueba de Smirnov - Kolmogorov (S-K) En esta prueba tambin se est interesado en el grado de concordancia entre la distribucin de frecuencia muestral y la distribucin de frecuencia terica, bajo la hiptesis nula de que la distribucin de la muestra es f0(x,q) e interesa probar que no existe diferencia significativa. La prueba trabaja con la funcin de distribucin ( distribucin de frecuencia acumulativa). Esta prueba pertenece al campo de la Estadstica No Paramtrica. Sea F0(x) la funcin de distribucin terica para la variable aleatoria X, y representa la probabilidad de que la variable aleatoria X tome un valor menor o igual a x (tambin se interpreta como la proporcin esperada de observaciones que tengan un valor menor o igual a x). Es decir: Sea Sn (x) la funcin de distribucin emprica, calculada con base en los valores observados de la muestra n observaciones. Sn (x) representa la proporcin de valores observados que son menores o iguales a x, y est definida como: Sn (x) = P ( X x/ dados los resultados muestrales) = m/n donde m es el nmero de valores observados que son menores o iguales a x. En la prueba de Smirnov-Kolmogorov se est interesado en la mayor desviacin entre la funcin de distribucin terica y la emprica, es decir entre F0 (x) y Sn(x), para todo el rango de valores de x. Bajo la hiptesis nula se espera que estas desviaciones sean pequeas y estn dentro de los lmites de errores aleatorios. Por lo tanto, en la prueba S-K se calcula la mayor desviacin existente entre F0 (x) y Sn(x), denotada por Dmax(x) y est dada por: Dmax(x) = Max | FX (x) - Sn (x) | La distribucin de Dmax(x) es conocida y depende del nmero de observaciones n. Se acepta la hiptesis nula de que no existe diferencia significativa entre las distribuciones tericas y empricas si el valor de Dmax(x) es menor o igual que el valor crtico Dmaxp(a,n). (Ver tabla adjunta para valores crticos).

Esta prueba se puede realizar para valores agrupados en intervalos de clase y tambin para valores sin agrupar. DURBIN: En las estadsticas , la estadstica Durbin-Watson es una estadstica de prueba utilizado para detectar la presencia de autocorrelacin (una relacin entre los valores separados entre s por un intervalo de tiempo dado) en los residuos (errores de prediccin) de un anlisis de regresin . Lleva el nombre de James Durbin y Watson Geoffrey Si e t es el residual asociado con la observacin en el tiempo t, entonces la estadstica de prueba es

donde T es el nmero de observaciones. Puesto que d es aproximadamente igual a 2 (1 r), donde r es la autocorrelacin de la muestra de los residuos, [1] d = 2 indica que no hay autocorrelacin. El valor de d siempre se encuentra entre 0 y 4. Si el estadstico de Durbin-Watson es sustancialmente menor que 2, no hay evidencia de una correlacin serial positiva. Como regla emprica, si de Durbin-Watson es menor de 1,0, puede ser motivo de alarma. Los pequeos valores de D indican perodos sucesivos de error son, en promedio, cerca de su valor el uno al otro, o se correlacion positivamente. Si d> 2 trminos de error sucesivas son, en promedio, muy diferente en un valor a otro, es decir, una correlacin negativa. En las regresiones, esto puede implicar una subestimacin del nivel de significacin estadstica . Para probar la autocorrelacin positiva en importancia, la estadstica de prueba d se compara con mnimos y mximos valores crticos (d L, y U d, ):

Si d <d L, , no hay evidencia estadstica de que los trminos de error se autocorrelada positivamente. Si d> d U, , no hay evidencia estadstica de que los trminos de error estn positivamente autocorrelacionados. Si d L, <d <d U, , la prueba no es concluyente.

Correlacin serial positiva es la correlacin serial en el que un error positivo para una observacin aumenta las probabilidades de un error positivo para otra observacin. Aunque una correlacin serial positiva no afecta a la consistencia de los coeficientes de regresin estimados, que afecta a nuestra capacidad de hacer vlidas las pruebas estadsticas. En primer lugar, la estadstica F para probar la significacin de la regresin puede ser inflado debido a que el error cuadrtico medio (MSE) se tiende a subestimar la varianza del error de la poblacin. En segundo lugar, una correlacin serial positiva por lo general hace que los mnimos cuadrados ordinarios (MCO) los errores estndar de los

coeficientes de regresin a subestimar los errores estndar verdaderos. Como consecuencia de ello, si una correlacin serial positiva est presente en la regresin, anlisis de regresin lineal por lo general nos llevar a calcular los errores estndar artificialmente pequeos para el coeficiente de regresin. Estos errores estndar pequeos har que el estimado estadstico t que se infla, lo que sugiere importancia donde tal vez no hay ninguno. El inflado t-estadstico, puede a su vez, nos lleva a rechazar incorrectamente la hiptesis nula, sobre los valores de la poblacin de los parmetros del modelo de regresin con ms frecuencia de lo que hara si los errores estndar fueron estimados correctamente. Este error de tipo I podra dar lugar a recomendaciones de inversin inadecuadas. Para probar la autocorrelacin negativa en importancia, la estadstica de prueba (4 - d) se compara a bajar y superiores valores crticos (d L, y U d, ):

Si (4 - d) <d L, , no hay evidencia estadstica de que los trminos de error de manera negativa autocorrelacin. Si (4 - d)> d U, , no hay evidencia estadstica de que los trminos de error son negativamente autocorrelacionados. Si d L, <(4 - d) <d U, , la prueba no es concluyente.

Correlacin serial negativa implica que un error positivo para una observacin aumenta la probabilidad de un error negativo para otra observacin y un error mximo de una observacin aumenta las probabilidades de un error positivo para otra. Los valores crticos, d L, y d U, , varan segn el nivel de significancia (), el nmero de observaciones, y el nmero de predictores en la ecuacin de regresin. Su derivacin es complejo estadsticos suelen obtenerlos de los apndices de textos estadsticos. Una nota importante es que el estadstico de Durbin-Watson, mientras que aparece en muchos programas de anlisis de regresin, no es relevante en muchas situaciones. Por ejemplo, si la distribucin de error no es normal, si hay autocorrelacin de orden superior, o si la variable dependiente es en una forma quedado como una variable independiente, esto no es una prueba adecuada para autocorrelacin. Una prueba sugiri que no tiene estas limitaciones es el de Breusch-Godfrey (LM de correlacin serial) de prueba Mtodo backward: se comienza por considerar incluidas en el modelo terico a todas las variables disponibles y se van eliminando del modelo de una en una segn su capacidad explicativa. En concreto, la primera variable que se elimina es aquella que presenta un menor coeficiente de correlacin parcial con la variable dependiente-o lo que es equivalente, un menor valor del estadstico t- y as sucesivamente hasta llegar a una situacin en la que la eliminacin de una variable ms suponga un descenso demasiado acusado en el coeficiente de determinacin. Mtodo forward: se comienza por un modelo que no contiene ninguna variable explicativa y se aade como primera de ellas a la que presente un mayor coeficiente de correlacin -en valor absoluto- con la variable dependiente. En los pasos sucesivos se va incorporando al modelo aquella variable que presenta un mayor coeficiente de correlacin parcial con la variable dependiente dadas las independientes ya incluidas en el modelo. El procedimiento

se detiene cuando el incremento en el coeficiente de determinacin debido a la inclusin de una nueva variable explicativa en el modelo ya no es importante.

Vous aimerez peut-être aussi