Vous êtes sur la page 1sur 10

TEST DE HIPTESIS (TEORA DE NEYMAN-PEARSON)

1. Nociones bsicas
2. Caso uniparamtrico
2.1 Hiptesis simple vs. hiptesis simple. Test ms potente. Teorema de Neyman-Pearson
2.1.1 Caso de variables continuas. Ejemplos
2.1.2 Caso de variables discretas. Ejemplos
2.2 Hiptesis compuesta vs. hiptesis compuesta
2.2.1 Test uniformemente ms potente (UMP)
2.2.1.1 Familias exponenciales
2.2.1.2 Test H 0 : 0 v.s H1 : 0 y H 0 : 0 v.s H1 : 0
2.2.1.2.1 Familias exponenciales
2.2.1.2.2 Razn de verosimilitud montona
2.2.1.3 Test uniformemente ms potente insesgados (UMIP)
2.2.1.3.1 Test H 0 :1 2 v.s H1 : 1 2
2.2.1.3.2 Test H 0 : 0 v.s H1 : 0
2.3 Test de razn de verosimilitudes. Ejemplos
3. Caso multiparamtrico
3.1 Observaciones
3.2 Test de razn de verosimilitudes. Ejemplos
4. Test usuales de poblaciones normales. Sumario
1. Nociones bsicas

Usaremos el siguiente ejemplo para introducir algunas nociones bsicas: se considera una variable normal,
Y N m, 2 , y se desea testar la hiptesis simple H : m m0 , usando una muestra de Y ,
y1, y2 , , yi , yn , independiente e idnticamente distribuida i.i.d .

Estadstico

El estadstico es una funcin de la muestra que sirve de base para elaborar la regla de decisin del test. La
1 n
media muestral, y yi , es un estimador de m , insesgado y de varianza mnima, as que es un buen
n i 1
estadstico para el test.

Criterios: Errores de primera y segunda especie

Un criterio de decisin razonable podra ser aceptar H si y est prximo a m0 , digamos si y m0 C , y


rechazar H si y m0 C . A C se le denomina valor critico. Cmo elegir el valor crtico, C ?. Para
responder a esta pregunta hay que considerar los dos tipos de errores a los que est sujeto el test: el error de
primera especie (Tipo I), consistente en rechazar H cuando es cierta, y el de segunda especie (Tipo II),
consistente en aceptar H cuando es falsa.

El criterio de eleccin de C consiste en acotar el riesgo de error de tipo I, esto es la probabilidad de rechazar
la hiptesis cuando es cierta, P RH H , de manera que no supere un cierto lmite admisible , tal que
0 1, y minimizar el riesgo de error de tipo II, esto es la probabilidad de aceptar la hiptesis cuando es
falsa, P AH no H .


El valor crtico, C , debe satisfacer la ecuacin P y m0 C m m0 . Esto implica
y m0

P y m0 C m m0 P m0 C y m0 C m m0 P
C
n n

C
n
m m0 , y


C y m0 C y m0
por tanto, P m m0 , donde se distribuye segn una normal cero
n n
n n
y m0 C 1 1
uno, N 0,1 . As que U 1 es el cuantl de orden 1 de la N 0,1 , que
n n 2 2 2
C 1
denotamos por U 1 y U 1 es el cuantl de orden , que denotamos por U 1 . Por ejemplo,
2 n 2 2 2

C
para 0.1 resulta U 1 U 0.55 1.645 y U 1 U0.45 1.645 , por lo que finalmente 1.645 y el
2 2 n

valor crtico debe ser C 1.645 .
n
Regla de decisin

La regla de decisin del test de hiptesis, con nivel de significacin del 10% (o de tamao 0.1 ), es:


Rechazar H RH si y m0 1.645
n

Aceptar H AH si y m0 1.645
n

Regiones de aceptacin y rechazo

Se denomina regin crtica a la definida por el conjunto de muestras posibles que conducen a RH , porque

superan el valor crtico, y es C1 y1 , y2 , , yi , yn y m0 1.645 . La regin de aceptacin est
n
definida por el conjunto de muestras posibles que conducen a AH , esto es

C0 y1 , y2 , , yi , yn y m0 1.645 .
n
Tamao del test

El tamao o nivel de significacin del test es . No existen criterios formales para la eleccin del valor de
. Los valores convencionales son 0.05 y 0.01 . En el ejemplo se ha tomado 0.1 .

p-valor

El p-valor es la probabilidad de que el estadstico tome un valor tan extremo o ms que el efectivamente
observado en la muestra, suponiendo que la hiptesis nula es cierta. Por ejemplo, si m0 2 y 1 , de modo
Y H N 2,1 , y si el tamao de la muestra es n 9 , el p-valor correspondiente a una media muestral de
2.58 es p valor 2.58 P y 2.58 1 P y 2.58 1 P 2.58 y 2.58 , donde

2.58 2 y 2 2.58 2 y 2
P 2.58 y 2.58 P P 13.74 1.74 donde
13 13 13 13
y 2 y 2
N 0,1 por lo que P 13.74 1.74 1.74 13.74 , donde . es la funcin de
13 13
distribucin de la N 0,1 y 1.74 0.9591 y 13.74 0.0 .

Finalmente, p valor 2.58 1 1.74 1 0.9591 0.0 0.0409 . El p-valor calculado es inferior al
nivel de significacin, 0.1 , por lo que la observacin cae en la regin de rechazo,
1
2.58 2 1.645 0.55 , y llevara a rechazar la hiptesis nula. Ntese que la hiptesis se rechazara
9
aunque el nivel de significacin fuera el convencional 0.05 , porque el p-valor calculado es inferior a l
(aunque no al convencional 0.01 ).

El p-valor marca pues un lmite mnimo al nivel de significacin que llevara a rechazar la hiptesis nula: si
esta hiptesis fuera cierta, es raro observar un valor tan extremo como el observado ( 0.0409 es una
probabilidad baja), por lo se considera que lo ms probable es que la hiptesis nula sea falsa y se opta por
rechazarla.

Hiptesis nula e hiptesis alternativa

La regla de decisin se ha basado en acotar el error de primera especie. Sin embargo, existen mltiples
regiones crticas y mltiples reglas de decisin que verifican esa cota. En el caso del ejemplo cabe sealar al
menos tres regiones crticas con el mismo riesgo de primera especie, P RH H 0.1 :

C1 y1 , y2 , yn y m0 1.645
1
, yi ,
n

C1 y1 , y2 , yn y m0 1.282
2
, yi ,
n

C1 y1 , y2 , , yi , yn y m0 0.126
3

n
En sta ltima, la probabilidad de rechazar la hiptesis es mayor cuando es cierta que cuando es falsa, y eso
no es razonable. Se hace necesario considerar el riesgo de segunda especie, P AH no H , para elegir entre
las mltiples regiones crticas del mismo tamao, , y el criterio de eleccin es optar por la de menor riesgo
de segunda especie.

La consideracin conjunta de los dos tipos de riesgos, requiere la formulacin del test en trminos de
hiptesis nula o de trabajo, H 0 , e hiptesis alternativa, H1 : en el caso del ejemplo una posible formulacin sera
H 0 : m m0 v.s. H1 :m m0 . El riesgo de primera especie es P RH 0 H 0 y el de segunda especie es

P AH 0 H1 .

sta es una hiptesis paramtrica, en el sentido de que es una hiptesis sobre los valores de un parmetro,
m , de una distribucin estadstica, Y N m, 2 . El conjunto de valores posibles de los parmetros de una
ley estadstica es el espacio paramtrico, , y la hiptesis paramtrica establece una particin de ese
espacio en dos: H 0 : m 0 v.s. H1 : m 1 : en el caso del ejemplo, 0 m R1 m m0 y

1 m R1 m m0 .

Potencia del test

La funcin de potencia, m , asocia a cada punto del espacio paramtrico, m m , la probabilidad de


rechazar la hiptesis nula en ese punto, m P RH 0 m ; m . La potencia del test en un punto

determinado del espacio paramtrico, m , es el valor de esa funcin en ese punto, P RH 0 m . La

potencia del test en el punto m1 1 es P RH 0 m1 1 P AH 0 m1 1 m1 , donde m1 denota el


riesgo de segunda especie en el punto m1 1 .

Cuando H 0 : m 0 es cierta y H1 : m 1 es falsa, el test ideal sera aquel que anule los riesgos de primera

especie, P RH 0 m 0; m 0 , y de segunda especie P AH 0 m 0; m 1 , de modo que la funcin de
potencia es nula, m 0; m 0 , bajo H 0 : m 0 y es igual a uno, m 1; m 1 , bajo H1 : m 1 .
Ntese que, en el caso del ejemplo, H 0 : m m0 v.s. H1 :m m0 , la potencia en el punto m m0 es la
misma en las tres reglas consideradas: P RH 0 m0 0.1 , y el riesgo de primera especie es igual en las
tres.

Sin embargo, el riesgo de segunda especie difiere notablemente. El test C13 no es admisible porque es
dominado por el test C11 . Ambos tienen el mismo riesgo de primera especie, pero el riesgo de segunda
especie de C13 es mayor que el de C11 en todo el subespacio paramtrico definido por la hiptesis
alternativa: m1 m1 ; m1 1 . En otros trminos, C11 es ms potente que C13 :
3 1

1 m 3 m ; m . A su vez, el test C11 es dominado por C1 2 para m m0 , aunque para


m m0 es C1 quien domina a C1 . Aparece as una nueva dificultad: ninguno de los tres test considerados
2 1

domina a los dems en todo el espacio paramtrico.

2. Caso uniparamtrico

Se considera una variable aleatoria, Y , cuya funcin de probabilidad, f y, , depende de un solo


parmetro, .

2.1 Hiptesis simple vs. hiptesis simple


Se supone que el espacio paramtrico consta de solo dos puntos, 0 ,1 . Para testar la hiptesis
H 0 : 0 vs. H1 : 1 , se consideran dos test, T y T*. El test T es ms potente que el test T*si
T 0 T * 0 y T 1 T * 1 .

Test ms potente (MP). Teorema de Neyman-Pearson

Sea L y1, y2 , , yi , yn ; la funcin de verosimilitud de la muestra. Si existe un test con regin crtica

L y1 , y2 , , yi , yn ;0

C1 y y1 , y2 , , yi , yn y para alguna constante positiva, , tal

L y1 , y2 , , yi , yn ;1

que P RH 0 H 0 P y 0 , entonces C1 define un test ms potente (MP) de tamao para
H 0 : 0 v.s. H1 : 1 .
; 0
En este caso simple, la funcin de potencia es:
1 ; 1
2.1.1. Caso de variables continuas

Se considera una variable normal, Y N m, 2 , cuya varianza es conocida, 2 02 ,y cuya media puede

tomar solo dos valores, de modo que el espacio paramtrico es m0 , m1 , 02 con 02 0 y m1 m0 . Se


desea testar la hiptesis simple H 0 : m m0 vs. H1 :m m1 , usando una muestra de Y ,
y1, y2 , , yi , yn , independiente e idnticamente distribuida i.i.d . La funcin de verosimilitud de la
1 1 1 n 2
muestra es L y1 , y2 , , yi , yn ; m exp yi m y la regin crtica es
2 2 2 i 1
n 2 2

n2

1 1 1 n 2
exp yi m0
2 02 2 0 i 1
n2 n 2 2

C1 y y , esto es,
1 1 1 n
2
exp yi m1
2 1 2 1 i 1
n 2 2

n 2 2

1 1 n n
2
2 i
C1 y y exp 1 yi m0
2
y m
2 0 i 1 i 1

C1 y y exp
1 1
2 0 2
n m12 m02 2ny m0 m1


C1 y y
1 1
2 02
n m12 m02 2ny m0 m1 ln

Finalmente, la regin crtica es:

2 02 ln n m12 m02
y y ; si m0 m1
2n m0 m1
C1
2 0 ln n m1 m0
2 2 2

y y ; si m0 m1
2n m0 m1

Se asume que m0 m1 , por lo que la regin crtica es C1 y y C; si m0 m1 , donde


2 02 ln n m12 m02
C
2n m0 m1

y se calcula de modo que satisfaga la ecuacin P y C m m0 . Esto implica

y m0 C m0 C m0

P y C m m0 P
n

n
m m0 U1
n
C m0 U1 0 n.
0 0 0

La regla de decisin del test de hiptesis, de tamao , es:

Rechazar H 0 si y m0 U1 0 n
Aceptar H 0 si y m0 U1 0 n

2.1.2. Caso de variables discretas

a) Bernoulli

Se considera una variable de Bernoulli, Y 1, p , cuyo espacio paramtrico es p0 , p1 con p0 p1 .


Se desea testar la hiptesis H 0 : p p0 vs. H1 : p p1 , usando una muestra de Y , y1 , y2 , , yi , yn ,
independiente e idnticamente distribuida i.i.d . La funcin de verosimilitud de la muestra es
n
yi n

yi y la regin crtica es
L y1 , y2 , yn ; p p 1 p
i 1
n
, yi , i 1


n n

yi n yi
n n
n yi
p0 1 p0 i1 i 1

yi
i 1
p 1 p
C1 y y n C1 y y 0


i 1

, esto es,
0

n
p 1 p
p1i1 1 p1
y 1 1
i
n yi
i 1

n
n n yi

yi i 1

p0 i1 1 p0 n p0 n
1 p0
C1 y y C i
y y ln n yi ln ln
1 p1 1 p1
1
p1 i 1 p1 i 1

n p 1 p0 1 p0
C1 y yi ln 0 ln ln n ln
i 1 p1 1 p1 1 p1
1 p0
ln n ln
n
1 p1
Finalmente, la regin crtica es C1 y yi C , donde C y se calcula de modo que
i 1 p0 1 p0
ln ln
p1 1 p1
n n
satisfaga la ecuacin P yi C p p0 , donde la variable aleatoria y i p p0 se distribuye segn
i 1 i 1

n
una binomial de parmetros n, p , es decir, y
i 1
i p p0 n, p .

n
No hay una expresin simple para la solucin de la ecuacin P yi C p p0 . La siguiente Tabla
i 1
muestra las probabilidades de rechazar la hiptesis nula,
n C n C n!
P yi C p p0 P yi c p0c 1 p0 , correspondientes a varios valores de
nc

i 1 c 0 i 1 c 0 c! n c !
C , para n 20, p0 0.3, p1 0.2 :

C n
P yi C p p0
i 1
0 0.0008
1 0.0076
2 0.0354
3 0.1070

Para 0.0354 resulta C 2 y la regla de decisin del test de hiptesis, de tamao 0.0354 , es:

n
Rechazar H 0 si y i 1
i 2
n
Aceptar H 0 si y
i 1
i 2
b) Poisson

Se considera una variable de Poisson, Y m , cuyo espacio paramtrico es m0 , m1 con m0 m1 .


Se desea testar la hiptesis H 0 : m m0 vs. H1 :m m1 , usando una muestra de Y , y1 , y2 , , yi , yn ,
independiente e idnticamente distribuida i.i.d .
n

yi
m i1
La funcin de verosimilitud de la muestra es L y1 , y2 , , yi , yn ; m e nm n
y la regin crtica es
y !
i 1
i


n
yi
m i 1
e nm0 n 0

n

yi
y !
i 1

i
m
C1 y y n m1 m0
i 1
n C1 y y e
0
, esto es,
yi m1

i 1
nm1 m1
e
n



i 1
yi !


n
yi
i 1
n m m m
n
m
C1 y y e 1 0 0 C1 y n m1 m0 yi ln 0
m1 i 1 m1

n n m1 m0 m
y yi m
; si m0 m1 ln m0 ln m1 ln 0 0
i 1 ln 1 m1
m
C1
0

y
n
n m1 m0 m0

yi ; si m0 m1 ln m0 ln m1 ln 0
i 1
m1 m
ln 1

m0
n
n

Finalmente, la regin crtica es C1 y

y
i 1
i C si m0 m1 o C1 y

y
i 1
i C si m0 m1 , donde

n m1 m0 n
C y se calcula de modo que satisfaga la ecuacin P yi C m m0 si
m1 i 1
ln
m0
n n
m0 m1 o P yi C m m0 si m0 m1 , donde la variable aleatoria y i m m0 se distribuye segn
i 1 i 1

n
una Poisson de parmetro nm0 , es decir, y i 1
i m m0 nm0 .

n
No hay una expresin simple para la solucin de la ecuacin P yi C m m0 si m0 m1 ni para
i 1
n
P yi C m m0 si m0 m1 . La siguiente Tabla muestra las probabilidades de rechazar la hiptesis
i 1
n
cuando m0 m1 , esto es la probabilidad P yi C m m0 , ms exactamente la probabilidad
i 1
C e 0 nm0
nm c
n C
n
P yi C m m0 1 P yi c , correspondientes a varios valores de C ,
i 1 c 0 i 1 c 0 c!
1 1
para n 6, m0 , m1 :
3 2

C n
P yi C m m0
i 1
0 0.135
1 0.406
2 0.677
3 0.857
4 0.947
5 0.983
6 0.995

n n
Por ejemplo, P yi 4 m m0 0.947 lo que implica P yi 4 m m0 1 0.947 0.053 y la
i 1 i 1
regla de decisin del test de hiptesis, de tamao 0.053 , es:

n
Rechazar H 0 si y i 1
i 4
n
Aceptar H 0 si y
i 1
i 4

2.2 Hiptesis compuesta vs. hiptesis compuesta

Se supone que el espacio paramtrico, R1 ,es una determinada regin de la recta real, particionada en
dos subregiones, 0 y 1 . Se desea testar la hiptesis H 0 : 0 vs. H1 : 1 .

2.2.1 Test uniformemente ms potente (UMP)

Se dice que un test T , de tamao , es uniformemente ms potente (UMP) para


H 0 : 0 vs. H1 : 1 si:
max
0

* ; 1 ,
donde * es la funcin de potencia de cualquier otro test, T * , del mismo tamao .

2.2.1.1 Familias exponenciales

La familia paramtrica f ( y; ); es una familia exponencial K -paramtrica si su funcin de probabilidad


es de la forma
K
Qk Tk y
f ( y; ) C h y e k 1
para algn K entero no negative y algunas funciones C . , h . , Q1 Qk QK .

Ejemplos
a) Binomial

La funcin de probabilidad de una Binomial


n
P(Y y; p) y (1 ) n y ; p p 0 1
y
puede expresarse como sigue:
n y ln 1
P(Y y; p) (1 ) e n

y
n
donde, C (1 )n , h y , Q ln ,T y y .
y 1
En consecuencia, la binomial es una familia exponencial uniparamtrica.

b) Poisson

La funcin de probabilidad de una Poisson


y
P(Y y; p) e ; 0
y!
puede expresarse como sigue:
1 y 1
P(Y y; p) e e e y ln C h y eQ T y
y! y!
1
donde, C e , h y , Q ln , T y y .
y!
En consecuencia, la Poisson es una familia exponencial uniparamtrica.

c) La normal
La funcin de probabilidad de una normal
y m 2
1 m 1
1 m
m

m, 2 2
1
f ( y; 2
) e 2 2
; 2
2 2 2
0

2

puede expresarse como sigue:


1 m2
1 y 2 2 my m2 m 1 2
22 2 y 2 y
1 e
f ( y; ) e 2 2
e 2
C h y eQ1 T1 y Q2 T2 y
2 2
2 2

1 m2

22
e m 1
donde, C , h y 1, Q1 , Q2 , T1 y y, T2 y y 2 .
2 2 2
2 2
En consecuencia, la normal es una familia exponencial biparamtrica.

Vous aimerez peut-être aussi