Vous êtes sur la page 1sur 24

5.

TESTS DE HIPTESIS

5 TESTS DE HIPOTESIS
5.1 GENERALIDADES

En el captulo 3, se presentaron mtodos que permiten encontrar los valores de los parmetros desconocidos
de la distribucin de poblacin y en el captulo anterior, la estimacin por intervalo permite dar una cierta
indicacin sobre la precisin de la estimacin puntual. Tales estimaciones, puntuales y por intervalo, que
fueron obtenidas a partir de valores muestrales, permiten formarse una opinin sobre la poblacin y entonces
darse una hiptesis de trabajo.

Ejemplos:

Antes de apostar "cara" o "sello" en el lanzamiento de una moneda, uno se pregunta si la moneda es
equilibrada o no. La hiptesis de trabajo es entonces si el parmetro p=probabilidad de sacar "cara" de
la Bernoulli es igual a 0.5;
Un agricultor se compromete a entregar a una fbrica de azcar remolacha con un cierto porcentaje p o
de glucosa; la hiptesis de trabajo es entonces p = p o o p p o ;
Los hombres chilenos pretenden ser ms altos que los argentinos en promedio; si 1 y 2 son los
promedios de las tallas respectivas de los hombres chilenos y argentinos, la hiptesis de trabajo es
1 2 ;
Cuando se hizo la estimacin puntual de la talla promedio 1 de los hombres chilenos, se hizo la
hiptesis que la v.a. X talla de los hombres chilenos sigue una distribucin F~Normal.

En los cuatro casos se proceder de la misma manera: se tiene una hiptesis de trabajo sobre la distribucin
de muna v.a. X y una muestra de observaciones de X; se trata entonces de decidir si la hiptesis planteada es
compatible con lo que se puede aprender del estudio de los valores muestrales. Se tiene que encontrar un
procedimiento para decidir si la muestra que se obtuvo esta en acuerdo con la hiptesis de trabajo.
Naturalmente no se espera que, para cualquier muestra, los valores empricos obtenidos en la muestra estn
en total acuerdo con la hiptesis; el problema es entonces decidir si la desviacin encontrada entre la
hiptesis y los valores observados es demasiado grande para poner en duda la hiptesis de trabajo. Ahora
bien si se pone en duda la hiptesis original, entonces se la rechaza en favor de una hiptesis alternativa.

En efecto, en el ejemplo de la moneda, si se encuentra una proporcin de 0.45 en 100 lanzamientos,


debemos rechazar la hiptesis p=0.5? y si se rechaza, ser a favor de la hiptesis p 0.5 ?

Se distingue la hiptesis de trabajo llamndola hiptesis nula y una hiptesis nula se confronta a una
hiptesis alternativa.

Con qu grado de desacuerdo uno tiene que abandonar la


hiptesis nula a favor de la hiptesis alternativa?

Para decidir, se necesita una regla de decisin. Cualquier regla de decisin debera tratar de minimizar los
errores de decisin. Si es la regla de decisin adoptada y ( ) la probabilidad de equivocarse cuando la
hiptesis nula es cierta y ( ) la probabilidad de equivocarse cuando la hiptesis alternativa es cierta, uno
buscara minimizar ambas probabilidades de error. Pero veremos, a travs de un ejemplo, que a tener ( )
nula, se hace ( ) igual a 1 e inversamente.

41
N. LACOURLY

Dada una hiptesis nula H o , ( ) es la probabilidad condicional de rechazar la hiptesis H o con la regla
de decisin cuando H o es cierta. Ahora bien la regla de decisin se basa en los valores muestrales; si
la muestra es de tamao n y los valores muestrales en , una regla de decisin consiste en dividir el
dominio n del conjunto de todas las muestras de tamao n en dos partes disjuntas: la parte W en donde se
rechaza la hiptesis nula H o y la parte W en donde no se rechaza.

Definicin 1: La parte W en donde se rechaza la hiptesis nula H o se llama regin de rechazo de H o o


regin crtica del test.

Como la regin crtica del test es aquella en donde se rechaza H o , se debera tomar en cuenta la hiptesis
alternativa.

Una regla de decisin consiste entonces en determinar la regin crtica del test en funcin de las dos
hiptesis.

5.2 HIPTESIS ESTADSTICAS

Las hiptesis estadsticas son muy precisas: se refieren al comportamiento de variables aleatorias. Pero en
los ejemplos expuestos en el prrafo anterior, se observara que las hiptesis no son todas del mismo tipo. En
los tres primeros ejemplos, la hiptesis concierne solamente a los valores de parmetros de una distribucin
cuya forma no est puesta en duda y es especificada a priori. Tales hiptesis se llaman hiptesis
paramtricas. En el ltimo ejemplo, es la distribucin completa que es puesta en juicio; se habla de
hiptesis no paramtricas.

Por ejemplo, sea una v.a. X de funcin de distribucin F ( x | ) , que depende de un parmetro . Si es
el espacio del parmetro y o un subconjunto de , entonces H : o es una hiptesis paramtrica,
mientras que H : F = Normal( 1,3 ) es una hiptesis no paramtrica.

Se puede clasificar tambin las hiptesis paramtricas segn su grado de especificidad. Cuando en la
hiptesis paramtrica H : o , o reducido a un slo valor, entonces se habla de hiptesis simple, en el
caso contrario se habla de hiptesis compuesta.

5.3 TEST DE HIPTESIS PARAMTRICAS

Trataremos en primer lugar los tests de hiptesis paramtricas para hiptesis simples antes de tratar el caso
general apoyndonos en los resultados del caso de las hiptesis simples. Encontrar una regla de decisin es
encontrar una regin crtica del test. Como hacerlo minimizando los errores de decisin? Para eso usaremos
la funcin de potencia.

5.3.1 Funcin de potencia y regin crtica del test

Sea un test de hiptesis sobre el parmetro ( ) de la funcin de distribucin F de una v.a. X:

H o : o contra H 1 : 1

42
5. TESTS DE HIPTESIS

Si una regla de decisin nos condujo a una regin crtica W para el test, entonces para cada valor de ,
determinaremos ( ) la probabilidad para que la regla de decisin nos conduce a rechazar H o : o
cuando el parmetro vale .

Definicin 2: La funcin ( ) = P( rechazar H o | ) se llama Funcin de Potencia del test.

OJO! aqu no es una variable aleatoria.

El conjunto W es la regin crtica del test y ( X 1 , X 2 ,..., X n ) el vector de los valores muestrales, entonces

( ) = P( X 1 , X 2 ,..., X n W ) ( ) .

Luego la regin crtica ideal es aquella que produce una funcin de potencia tal que:

0 si o
( ) =
1 si 1

En efecto, o , la decisin de rechazar H o es una decisin equivocada, entonces ( ) es una


probabilidad de error llamada de tipo I (o riesgo de primer especie). Por otro lado, para todo 1 , la
decisin de rechazar H o es una decisin correcta, entonces 1 ( ) es una probabilidad de error
llamada de tipo II (o riesgo de segundo especie).

Definicin 3: Se llama tamao del test a Sup { ( )}


o

El problema es que tal regin crtica ideal no existe; como lo veremos en el siguiente ejemplo, cuando se
hace disminuir uno de los errores a 0, se aumenta el otro a 1.

Ejemplo 1: Sea X 1 , X 2 ,..., X n una m.a.s. de una v.a. X uniforme en [ 0 , ] con > 0 . Consideramos la
hiptesis nula H o : 3 4 contra la hiptesis alternativa H 1 : < 3 o > 4 . Supongamos que una regla
de decisin nos llevo a decidir de no rechazar a la hiptesis nula H o cuando Max{ X 1 , X 2 ,..., X n } de
una m.a.s. de la v.a. X se encuentra en el intervalo [2.9,4.1] y a rechazar H o en el caso contrario. Luego la
regin crtica del test es un subconjunto W n tal que Max{ X 1 , X 2 ,..., X n } < 2.9 o >4.1. La funcin de
potencia del test es entonces:

( ) = P( Max{ X 1, ..., X n } < 2.9 | ) + P( Max{ X 1, ..., X n } > 4.1 | )

P( Max{ X 1 ,..., X n } < 2.9 | ) = 1


Si 2.9 ( ) = 1
P( Max{ X 1 ,..., X n } > 4.1 | ) = 0

43
N. LACOURLY

2.9
n
P( Max{ X 1 ,..., X n } < 2.9 | ) =
n
2.9
Si 2.9 < 4.1 ( ) =
P( Max{ X ,..., X } > 4.1 | ) = 0
1 n

2.9
n
P( Max{ X 1 ,..., X n } < 2.9 | ) = n n
2.9 4.1
Si > 4.1 n
( ) = 1 +
P( Max{ X ,..., X } > 4.1 | ) = 1 4.1


1 n

n
2.9
El tamao del test es igual a = Sup { ( )} = ( 3 ) = y el error de tipo II mnimo es igual a
3 4 3
n
2.9
Inf { 1 ( )} = 1 ( 4 ) = 1 . Entonces si se lleva a 0, el error de tipo II va a 1.
3 4 4

En los grficos 1 y 2, se muestra la funcin de potencia para los casos n=10 y n=50. Se observa que si
llevamos el tamao del test a = 0.10 , es decir que en el intervalo [3, 4] la probabilidad de equivocarse no
sobrepasa 10%, el error de tipo II el error disminuye de 0.10 a 0 entre 3 y 2.9, pero entre 4 y 4.1 es casi
igual a 1.

En este ejemplo si queremos disminuir el tamao del test , hay que elegir un intervalo W ms grande o
una muestra de tamao mayor. Pero en ambos casos se aumentara el error de tipo II. Para tratar de
acercarnos a la situacin ideal, se puede, por ejemplo, buscar minimizar una funcin de los dos errores, o
bien fijarse una cota mxima para el error de tipo I y minimizar el error de tipo II.

1( ) ( )
1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0

0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8

Grfico 1: Funcin de potencia para Grfico 2: Funcin de potencia para


la regin crtica [2.9,4.1] con n=10 la regin crtica [2.9,4.1] con n=50

44
5. TESTS DE HIPTESIS

5.3.2 Tests para hiptesis simples

Sean X 1 , X 2 ,..., X n , los valores muestrales independientes de una v.a. de funcin de densidad o
probabilidad f ( x | ) . Se plantea las hiptesis simples: H o : o contra H 1 : 1 .

Dada una regla de decisin , se tiene los dos errores:

( ) = P( rechazar H o | = o ) (error de tipo I)


( ) = P( no rechazar H o | = 1 ) (error de tipo II)

Presentaremos en primer lugar como minimizar una funcin simple de los dos errores, tomando una funcin
del tipo
a ( ) + b ( )

Usaremos la solucin anterior para encontrar la forma de construir la regin crtica, tal que, si uno se fija una
cota mxima para el error de tipo I, el error de tipo II sea mnima.

Dados dos escalares a y b, buscamos minimizar la funcin a ( ) + b ( ) sobre .


Denotamos f o ( x1 ,..., x n ) y f 1 ( x1 ,..., x n ) a las funciones de verosimilitud dado H o y dado H 1
respectivamente:

f o ( x1 ,..., x n ) =
f ( xi | o ) y f 1 ( x1 ,..., x n ) = f ( xi | 1 )

Teorema 1: Si * es la regla de decisin tal que:


se rechaza H o cuando af o ( x1 ,..., x n ) < bf 1 ( x1 ,..., x n )
se acepta H o cuando af o ( x1 ,..., x n ) > bf 1 ( x1 ,..., x n )
entonces a ( * ) + b ( * ) a ( ) + b ( ) .

Demostracin: Si W es la regin crtica asociada a una regla de decisin ,


( ) = ... f o ( x1 ,..., x n )dx1 ...dx n
W

( ) = ... f 1 ( x1 ,..., x n )dx1 ...dx n


W

Luego: a ( ) + b ( ) = a ... f o ( x1 ,..., xn )dx1 ...dxn + b ... f 1 ( x1 ,..., xn )dx1 ...dxn y el promedio
W W

de los errores a ( ) + b ( ) es mnimo cuando ... [ af o ( x1 ,..., xn ) bf 1 ( x1 ,..., xn )] dx1 ...dxn es


W
mnimo. Es decir si:

afo ( x1 ,...,xn ) bf1 ( x1 ,...,xn ) < 0 ( x1 ,...,xn ) W



afo ( x1 ,...,xn ) bf1 ( x1 ,...,xn ) > 0 ( x1 ,...,xn ) W

45
N. LACOURLY

Entonces * es ptimo para estos valores a y b dados. Se observar que los puntos tales que
af o ( x1 ,..., x n ) bf 1 ( x1 ,..., x n ) = 0 pueden ponerse en W o W , dado que en ambos casos se obtiene el
mnimo.

Definicin 4: Se llama Razn de Verosimilitudes de la muestra al cuociente


f 1 ( x1 ,..., x n )
f o ( x1 ,..., x n )

Sea o la cota mxima de error de tipo I que uno est dispuesto a aceptar.

Definicin 5: Se llama Nivel de Significacin del test a la cota mxima de error de tipo I aceptada.

Se tiene entonces que buscar una regla de decisin que produce el error de tipo I ( ) o y tal que
( ) sea mnimo. El siguiente lema, que deriva del teorema anterior, nos da la forma de proceder.

Lema 1 (NEYMAN-PEARSON): Si * es una regla de decisin tal que para algn k>0 fijo,
f 1 ( x1 ,..., x n )
se rechaza H o , si >k
f o ( x1 ,..., x n )
f ( x ,..., x n )
no se rechaza H o , si 1 1 <k,
f o ( x1 ,..., x n )
entonces para toda regla tal que ( ) ( * ) , se tiene ( ) ( * ) .

Ejemplo: sea X 1 ,..., X n una muestra aleatoria simple de la v.a. X ~ N ( , 2 ) , desconocida y la


varianza 2 conocida. Se estudia H o : = 1 contra H 1 : = 2 . La razn de verosimilitudes se escribe:


f 1 ( x1 ,..., x n ) 1
= exp{ [ ( xi 2 ) 2 ( xi 1 ) 2 ] }
f o ( x1 ,..., x n ) 2 2
i i

xi + 3n ] }
f 1 ( x1 ,..., x n ) 1
= exp{ [ 2
f o ( x1 ,..., x n ) 2 2 i

f 1 ( x1 ,..., x n )
= exp{ 2
3n xi
}
f o ( x1 ,..., x n ) 2 2

La regla de decisin que minimiza a a ( ) + b ( ) consiste en rechazar H o si

f 1 ( x1 ,..., x n ) a
>
f o ( x1 ,..., x n ) b

46
5. TESTS DE HIPTESIS

3 2 a
es decir: X n > + ln .
2 n b
Si 2 = 2 y n=20,, la regin crtica W, que es de la forma X n > c en donde c depende de a y b:
3 1 a
c= + ln ; si a=b, c=3/2, pero si a>b, c>3/2 y si a<b, c<3/2.
2 10 b
En particular, si a=2/3 y b=1/3, W = {( x1 ,..., x n ) n | X n > 1.57 } , pero si a=1/3 y b=2/3 entonces
W = {( x1 ,..., x n ) n | X n > 1.43 } .

2
El error ( ) de tipo I es ( 1 ) = P( X n > c | = 1 ) . Como X n ~ N ( , ) bajo la hiptesis H o ,
n
c 1
( ) = 1 , en que es la funcin de distribucin de N(0,1).
/ n
c2
El error ( ) de tipo II es 1 ( 2 ) = 1 P( X n > c | = 2 ) ; es decir ( ) = .
/ n
Si a=b, como c=3/2, para n=20, se obtiene ( ) = ( ) = 1 ( 1.58 ) = 0.057 , pero con n=100,
( ) = ( ) = 1 ( 3.54 ) 0.0 . Es decir que para los riesgos de equivocarse disminuyen cuando el
tamao de la muestra crece.

Si se obtuvo una media muestral X n = 1.30 para una muestra aleatoria de tamao 20, no se rechaza la
hiptesis nula H o : = 1 con un error de tipo I igual a 0.057 cuando se toma a=b; si se toma a=0.3 y
b=0.7, se rechaza H o a favor de H 1 con un error de tipo I igual a 0.11.

Si ahora se tiene un nivel de significacin fijado a o = 0.05 , se obtiene una regin crtica
W = {( x1 ,..., x n ) n | X n > c } tal que
P( X n > c | = 1 ) = 0.05

Como n ( X n 1 ) ~ N ( 0 ,1 ) , c es tal que 1 ( n ( c 1 ) / 2 ) = 0.05 . Finalmente ( 1.65 ) = 0.95 , se


obtiene entonces que n ( c 1 ) / 2 = 1.65 , o sea c=1.52. En este caso no se rechaza la hiptesis nula H o .

5.3.3 Tests U.M.P.

Vamos extender ahora los resultados del lema de Neyman-Pearson para hiptesis compuestas.

Sean las hiptesis compuestas H o : o contra H 1 : 1 . Si nos fijamos un nivel de significacin


o , buscamos una regla de decisin tal que la funcin de potencia cumple:

( | ) o o y ( | ) sea mxima 1 .

Ahora bien no es siempre posible encontrar un test que satisfaga esta condicin. En efecto si
= { 1 , 2 } , un test podr tener una potencia mxima para 1 pero no necesariamente para 2 .

47
N. LACOURLY

Retomando el ejemplo anterior, si tomamos como una hiptesis alternativa con dos valores H 1 : { 0 ,2 } ,
entonces para = 0 la regin crtica ms potente ser de la forma W = {( x1 ,..., x n ) n | X n < c' } , que,
como lo vimos, no es la regin crtica ms potente para = 2 .

Definicin 6: Si un test * maximiza la funcin de potencia para todo valor de la hiptesis alternativa
H 1 : 1 , se dice que el test * es uniformemente ms potente (U.M.P.); es decir que * es un test
U.M.P. al nivel de significacin o si ( * ) o y si para todo otro test tal que ( ) o , se tiene
( | ) ( | * ) para todo 1 .

Observamos en el ejemplo que la razn de las verosimilitudes dado = 2 y = 1 se escribe:


f n ( x1 ,..., x n | 2 ) n( 2 1 ) 1
= exp ( X n ( 2 1 ))
f n ( x1 ,..., x n | 1 ) 2 2
f n ( x1 ,..., x n | 2 )
Se observa que depende de ( x1 ,..., x n ) a travs slo de la media muestral X n ; adems
f n ( x1 ,..., x n | 1 )
crece en funcin de X n si = 2 . Es decir que este cuociente es montono con respecto a X n .

Definicin 7: Se dice que f n ( x1 ,..., x n | ) tiene una razn de verosimilitudes montona para un
f ( x ,..., x n | 2 )
estadstico g( x1 ,..., x n ) si y slo si ( 1 , 2 ) tal que 1 < 2 , el cuociente n 1 depende del
f n ( x1 ,..., x n | 1 )
vector ( x1 ,..., x n ) a travs de la funcin g( x1 ,..., x n ) y el cuociente es una funcin creciente de
g( x1 ,..., x n ) ( x1 ,..., x n ) .

En el ejemplo anterior f n ( x1 ,..., x n | ) tiene una razn de verosimilitud montona en X n . Veamos otro
ejemplo: una muestra aleatoria de una Bernoulli de parmetro p.

Tomando y = xi la funcin de verosimilitud se escribe: f n ( x1 ,..., x n | p ) = p y ( 1 p ) n y .


i
y n
f n ( x1 ,..., x n | p 2 ) p 2 ( 1 p1 ) 1 p2
Si 0 < p1 < p 2 < 1 : = cuociente que depende de ( x1 ,..., x n )
f n ( x1 ,..., x n | p1 ) p1 ( 1 p 2 ) 1 p1
a travs de y; adems es una funcin creciente de y, es decir que tiene una razn de verosimilitudes
montona en xi .
i

Definicin 8: Se llama test unilateral al test definido sobre la hiptesis H o : o contra la


hiptesis H 1 : > o , en donde o es un valor dado; se llama test bilateral al test definido sobre la hiptesis
H o : = o contra H 1 : o .

48
5. TESTS DE HIPTESIS

Vamos a mostrar que si f n ( x1 ,..., x n | ) tiene una razn de verosimilitudes montona en algn estadstico
T, entonces existe un test U.M.P. para las hiptesis H o : o contra H 1 : > o .

Teorema 2: Si f n ( x1 ,..., x n | ) tiene una razn de verosimilitudes montona en el estadstico T y si c es la


constante tal que P( T c | = o ) = o , entonces la regla de decisin que permite rechazar la hiptesis nula
si T c es un test U.M.P. para H o : o contra H 1 : > o al nivel de significacin o .

Demostracin: Sea 1 ( 1 > o ), ( ) = P( rechazar H o | = o ) = ( o | ) y


( ) = P( aceptar H o | = 1 ) = 1 ( 1 | ) .

Del lema de Neyman-Pearson, se deduce que entre todos los procedimientos tales que el error de tipo I
( ) o , el valor del error ( ) de tipo II ser mnimo para el procedimiento * que consiste en
f ( x ,..., x n | 1 )
rechazar H o cuando n 1 > k , con k elegido de tal forma que P( rechazar H o | = o ) o .
f n ( x1 ,..., x n | o )

f n ( x1 ,..., x n | 1 )
Como es una funcin creciente de T, un procedimiento, que rechaza H o cuando el
f n ( x1 ,..., x n | o )
cuociente es al menos igual a k, es equivalente al procedimiento que rechaza H o cuando T es al menos igual
a una constante c. La constante c es elegida de tal forma que P( rechazar H o | = o ) o .

Ahora bien esto es cierto para todo 1 > o . Luego este procedimiento es U. M. P. para H o : = o contra
H 1 : > o .

Por otro lado, la funcin de potencia es no decreciente en y por lo tanto que si ( | ) o , entonces
( | ) o para todo o .

Cuando f n ( x1 ,..., x n | ) no tiene una razn de verosimilitudes montona, el test de razn de verosimilitud
permite resolver una gran cantidad de problemas:

Si H o : o contra H 1 : 1 , se define

Sup { f n ( x1 ,..., x n )
1
( x1 ,.., x n ) =
Sup { f n ( x1 ,..., x n )
o

El test de razn de verosimilitudes consiste en rechazar H o si ( x1 ,.., x n ) > k y no rechazar H o en el


caso contrario. El problema es encontrar la distribucin de ( x1 ,.., x n ) . El siguiente teorema nos da una
solucin.

49
N. LACOURLY

Teorema 3: Si es un parmetro de dimensin p y si la hiptesis nula es de la forma H o : A = 0 en que


A M r p , entonces 2 ln( ( x1 ,..., x n )) tiene una distribucin asinttica r2 .

5.3.4 Tests usuales

Veamos algunos tests usuales que se basan en los resultados anteriores.

Test sobre una media con la varianza conocida: Sea una v.a. en que la varianza 2 es conocida y igual
a 36 2 y una muestra aleatoria de tamao n=9.

Sea H o : = 180 contra H 1 : > 180 y un nivel de significacin igual a 0.05.

De lo anterior, se deduce que la regin crtica ms potente es de la forma W = {( x1 ,..., x n ) n | X n > c }


con c determinado por: P( X n > c | = 180 ) = 0.05 .

Como X n ~ N ( ,144 ) , ( X n 180 ) / 12 ~ N ( 0 ,1 ) bajo la hiptesis nula,


P(( X n 180 ) / 12 > ( c 180 ) / 12 | = 180 ) = 0.05 (c-180)/12=1.65 c=200.

La regin crtica X n > 200 es U.M P. para todo > 180 de la hiptesis alternativa.

El error de tipo II depende de . Como lo muestra la tabla 1 y el grfico 3, el error de tipo II aumenta
cuando el valor de es muy cercano al valor 180 de H o : ( ) = P( X n > 200 | )

180 185 190 200 210 220 230


( ) 0.05 0.11 0.20 0.50 0.80 0.95 0.994
1 ( ) 0.95 0.89 0.80 0.50 0.20 0.05 0.006

Tabla 1: Potencia y error de tipo II para H 1 : > 180

1 1

0.9 0.9

0.8 0.8

0.7 0.7

0.6 0.6

0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
180 190 200 210 220 230 240 130 135 140 145 150 155 160 165 170 175 180

Grfico 3: Funcin de Potencia para H 1 : > 180 Grfico 4: Funcin de Potencia para H 1 : < 180

50
5. TESTS DE HIPTESIS

Sea ahora H o : = 180 contra H 1 : < 180 con un nivel de significacin igual a 0.05. La regin crtica
ms potente es de la forma W = {( x1 ,..., x n ) n | X n < c' } con c' determinado por:
P( X n < c' | = 180 ) = 0.05 . La regin crtica X n < 160 es U. M. P. para todo < 180 de la hiptesis
alternativa. La funcin de potencia esta dada en la tabla 2 y el grfico 4.

180 175 170 160 150 140 130


( ) 0.05 0.11 0.20 0.50 0.80 0.95 0.994
1 ( ) 0.95 0.89 0.80 0.50 0.20 0.05 0.006

Tabla 2: Potencia y error de tipo II para H 1 : < 180

Sea finalmente H o : = 180 contra H 1 : 180 con un nivel de significacin igual a 0.05. No existe un
test U. M. P. para este test bilateral; se propone como regin crtica
W = {( x1 ,..., x n ) n | X n < a }  {( x1 ,..., x n ) n | X n > b }
de tal forma que P( X n < a | = 180 ) = 0.025 y P( X n > b | = 180 ) = 0.025 .

Obtenemos a=156.5 y b=203.5, que da una funcin de potencia presentada en la tabla 3 y el grfico 5. Se
nota que la potencia es siempre inferior o igual a la potencia de la tabla 1 o 2 para todo .

140 150 160 170 175 180 185 190 200 210 220
( ) 0.91 0.70 0.38 0.13 0.07 0.05 0.07 0.13 0.38 0.70 0.91
1 ( ) 0.09 0.30 0.62 0.87 0.93 0.95 0.93 0.87 0.62 0.30 0.09
Tabla 3: Potencia y error de tipo II para H 1 : 180

0 .9

0 .8

0 .7

0 .6

0 .5

0 .4

0 .3

0 .2

0 .1

0
120 140 160 180 200 220 240 260

Grfico 5: : Potencia y error de tipo II para H 1 : 180 ( bilateral); ( unilateral)

51
N. LACOURLY

Se observara que este test se basa en el supuesto de distribucin normal de los valores muestrales. Cuando el
tamao de la muestra es grande, este supuesto es aceptable, pero para muestras pequeas, es importante
comprobar si lo es.

Test sobre una media con la varianza desconocida: Si retomamos el problema anterior pero suponemos
que la varianza es desconocida. En este caso se procede de manera parecida al caso anterior con la
( Xn )
distribucin de Student de la variable que es una Student a n-1 g.l. El problema en este caso es
Sn / n 1
la dificultad que se encuentra para calcular la potencia del test para una hiptesis alternativa.

Test sobre una varianza: Si ahora planteamos las hiptesis: H o : 2 o2 contra H 1 : 2 < o2 en donde
o2 es un escalar positivo dado.

nS n2
A partir del estadstico , que sigue una distribucin de 2 a n-1g.l. bajo la hiptesis nula, se construye
o2
la regin critica de nivel de significacin :
nS 2
P( 2n > c ) =
o

Test de comparacin de dos medias: Frecuentemente uno esta interesado no en uma sola media, pero en la
diferencia entre dos medias. Por ejemplo, la diferencia de sueldos medios 1 y 2 entre dos poblaciones
1 y 2 . Las hiptesis se escriben entonces:
H o : 1 2 = d o contra H 1 : 1 2 d o

Lo ms usual es tomar d o = 0 y la hiptesis alternativa puede ser unilateral H 1 : 1 2 > 0 .

Sea la v.a. sueldo X ~ N ( 1 , 12 ) en 1 y X ~ N ( 2 , 22 ) en 2 . Si se tiene una media muestral X 1 de


X obtenida sobre una muestra de tamao n1 en 1 y una media muestral X 2 de X obtenida sobre una
12 22
muestra de tamao n 2 en 2 , entonces X 1 X 2 ~ N ( 1 2 , + ) . Si las varianzas 12 y 22 son
n2 n1
conocidas, entonces se obtiene una regin crtica de nivel de significacin = 0.05 para H o : 1 2 = 0
contra H 1 : 1 2 > 0 definida por:

12 22
P( X 1 X 2 > 1.96 + ) = 0.05
n1 n2

Si las varianzas son desconocidas, pero si se supone que son iguales ( 12 = 22 = 2 ), entonces se estima
esta varianza y se usa un estadstico que sigue una distribucin t de Student. Un estimador insesgado de 2
es:
S 2 = ( n1 S 12 + n 2 S 22 ) /( n1 + n 2 2 )

52
5. TESTS DE HIPTESIS

en que S 12 y S 22 son las varianzas empricas sesgadas de 12 y 22 respectivamente. Entonces

X1 X2
T=
S / ( n1 + n 2 ) / n1 n 2

es una t de Student a n1 + n 2 2 grados de libertad.

La regin crtica se define entonces como:

P( X 1 X 2 > t S / ( n1 + n 2 ) / n1 n 2 ) =

en donde t se obtiene de la distribucin de Student a n1 + n 2 2 g.l.: P( t n1 + n2 2 > t ) = .

Aqu se hizo el supuesto de igualdad de las varianzas y de independencia de las dos muestras.

Test para pares de observaciones: Hay situaciones en donde las muestras no son independientes. Es el
caso cuando se toman muestras formadas de pares, es decir cuando cada observacin de una muestra es
relacionada a una observacin de la otra muestra. Por ejemplo, se considera la diferencia de edades de las
parejas en un grupo de matrimonios; una muestra esta formada de las esposas y la otra muestra de sus
maridos. La dos muestras no son independientes y son del mismo tamao. Sean (X,Y) las v.a. edades de la
mujer y su marido y una muestra de n matrimonios {( X i ,Yi ) | i = 1,2 ,..., n } . La diferencia entre las medias
empricas X n y Yn es un estimador insesgado de la diferencia 1 2 en la poblacin apareada:

E( X n Yn ) = E( X Y ) = E( X ) E( Y ) = 1 2

Pero la varianza de la diferencia X-Y debe tomar en cuenta de la dependencia entre X e Y:

Var( X Y ) = E [(( X Y ) ( 1 2 )) 2 ] = 12 + 22 2Cov( X ,Y )

Como no se conoce en general las varianzas 12 , 22 de X e Y respectivamente y la covarianza Cov(X,Y), lo


ms simple es estimar la varianza de la diferencia considerando que los valores muestrales son las
diferencias d i = X i Yi que provienen de una sola muestra:

( d
1
X2 Y = i d n )2
n i

d
1
en donde d n = i .
n i

X2 Y
El estimador de la varianza de la diferencia de las medias es entonces: X2 Y = y
n
X Y
~ t n 1
X Y / ( n 1 )

53
N. LACOURLY

Test de comparacin de dos varianzas: (la distribucin F de Fisher). Se quiere comparar las varianzas
12 , 22 de dos poblaciones normales a partir de muestras aleatorias independientes de cada poblacin. Si
X 1 ,..., X n y Y1 ,...,Ym son los valores muestrales tomados en las respectivas poblaciones,
nS 12

1 1
S 12 = ( X i X n ) 2 y S 22 = ( Yi Ym ) 2 son las varianzas muestrales sesgadas. Sean U = y
n i m i 12
mS 22
V= , entonces U ~ n21 y V ~ m2 1 y adems U y V son independientes.
22

U /( n 1 )
Vimos en el captulo anterior que sigue una distribucin F de Fisher a n-1 y m-1 grados de
V /( m 1 )
libertad.

U /( n 1 ) nS 12 /( n 1 )
Consideramos entonces el estadstico =
V /( m 1 ) mS 22 /( m 1 )

que sigue una distribucin Fn 1,m 1 bajo la hiptesis nula H o : 12 = 22 .

Se define entonces la regin crtica de nivel de significacin para H o : 12 = 22 a partir de

nS 2 /( n 1 )
P 12 > F =
mS 2 /( m 1 )

en donde F se calcula a partir de la distribucin F de Fisher a n-1 y m-1 g.l.

5.4 TESTS 2

Diversas situaciones pueden describirse a partir de una distribucin multinomial. Veremos previamente dos
distribuciones de vectores aleatorios, la distribucin normal multivariada, y la distribucin multinomial con
su comportamiento asinttico. Despus de presentar un test para un modelo multinomial, veremos
aplicaciones para hiptesis no paramtricas.

5.4.1 La distribucin normal multivariada

Se tiene dos definiciones equivalentes para la distribucin normal multivariada.

X1

X2
Sea X =

un vector aleatorio de
p


Xp

54
5. TESTS DE HIPTESIS

Definicin 9: Sea u : p . Se dice que X es un vector normal multivariado de orden p de vector de


media y de matriz de varianza-covarianza ( X ~ N p ( , ) ) si y slo si u( X ) ~ N ( u( ), u t u ) .

Es decir que si X es un vector normal, toda combinacin lineal de X es una v.a. normal.

Definicin 10: Se dice que X ~ N p ( , ) si su funcin caracterstica es

1 t
X ( u ) = exp( iut u u ) u p
2

Propiedades:

Tomando como vector u los vectores cannicos, se obtiene las leyes marginales de X, que son normales;
pero la recproca es falsa: un vector formado de variables normales no es necesariamente un vector
normal.
Sea A una matriz (pxq) y X ~ N p ( , ) Y = AX ~ N q ( A , AA t ) .
Si las v.a. X i son independientes, entonces la matriz es diagonal.
es semidefinida positiva. En efecto u t u es la varianza de la v.a. u t X .
Si es de rango r, existe una matriz (pxr) de rango r tal que = t . Entonces: X ~ N p ( , )
X = + Y con Y ~ N r ( 0 , I r ) es decir que las componentes del vector Y son centradas,
normalizadas y independientes entre si.
Si es invertible, es invertible tambin e Y = 1 ( X ) ~ N p ( 0 , I p ) .

Este ltimo resultado permite calcular la densidad del vector X. En efecto se puede calcular la densidad del
vector Y ~ N p ( 0 , I p ) :

p/2 p/2
1 1

1 1
f (Y ) = f ( yi ) = exp{ Yi 2 } = exp{ Y t Y }
i 2 2 i 2 2

1 1 / 2
Como Y t Y = ( X )t ( X ) , el Jacobiano de la transformacin es , luego la densidad de X es:
1 / 2
| | 1
h( X ) = exp{ ( X )t 1 ( X )}
( 2 ) p/2
2

+
Proposicin 1: Si X ~ N p ( , ) con de rango r, entonces || X ||2 + ~ r2 , en donde es una
inversa generalizada de .

Demostracin: Acordamos que si Y ~ N r ( 0 , I r ) , || Y ||2 = Yi2 ~ r2 .


i

Si X ~ N p ( , ) , como = , existe Y tal que X = + Y , con Y ~ N r ( 0 , I r ) .


t

55
N. LACOURLY

Pero se puede escribir Y = ( t ) 1 t ( X ) , luego:


|| Y ||2 = Yi2 = Y t Y = ( X )t + ( X ) en donde + es una inversa generalizada de , es decir tal
i

que + = . Se deduce que || X ||2 + ~ r2 .

5.4.2 La distribucin multinomial

Es una generalizacin de la distribucin binomial. En vez de tener dos alternativas en cada experimento, se
tienen k alternativas ( k 2 ). Por ejemplo, hay seis resultados posibles cuando se tira un dado. Si el nmero
"1" tiene una probabilidad p1 , el nmero "2" tiene una probabilidad p 2 ,...,el nmero "6" tiene una
probabilidad p6 ( p1 + p 2 ++ p6 =1) y si hacemos n lanzamientos independientes del dado, los nmeros
M 1 de "1", M 2 de "2",..., M 6 de "6" constituyen un vector aleatorio M con una distribucin multinonimal
de parmetros n , p1 ,..., p6 . Se observa que M
i
i = n . La funcin de probabilidad de M es:

n! p1m1 p 2m2 ... p6m6


P( M = m ) = P( M 1 = m1 ,..., M 6 = m6 ) =
m1 ! m 2 !...m6 !

p1

p2
Calculamos la esperanza y la varianza de M. Si p = , entonces E(M)=p.


p
6

Sea el resultado J i del lanzamiento i: J i = e1 = ( 1,0 ,0 ,0 ,0 ,0 )t , el primer vector cannico en 6 si el


resultado es "1",, J i = e6 = ( 0 ,0 ,0 ,0 ,0 ,1 )t , si el resultado es "6".
p1 0  0
n

0 p2  0

Entonces M = J i y E( J i ) = p , E( J i J it ) = e h eh P( J i = e h ) =
t
0 0  0
=Diag(p)


i =1 h
0 p6
0

Var( J i ) = E( J i J it ) E( J i )[ E( J i )] t = Diag ( p ) pp t = ( p ) . Luego Var( M ) = n ( p ) .

M np
Por el Teorema del Lmite Central, se tiene: tiene una distribucin asinttica normal N p ( 0 , ( p )) .
n

Ejercicio: Muestre que si el vector multinomial es de dimensin k, entonces el rango de la matriz ( p ) es


igual a k-1 (Se podr mostrar que el ncleo de ( p ) es de dimensin 1).

Proposicin 2: Si M es un vector de distribucin multinomial M ( n ,( p1 , p 2 ,..., p k )) , entonces

( M i npi ) 2
Q= npi
tiene una distribucin asinttica de k21 .
i

56
5. TESTS DE HIPTESIS

La demostracin se basa en el resultado del ejercicio.

5.4.3 Test de ajuste para un modelo multinomial

Sea un dado que se tira n=102 veces. Se obtiene entonces la distribucin emprica (tabla 4):

Mi 1 2 3 4 5 6 Total
fi 12 11 22 20 16 21 102

Tabla 4

Podemos concluir que el dado esta cargado?

Sea la hiptesis nula H o : pi 1 / 6 ( i) .

Entonces calculamos el estadstico Q para construir la regin crtica del test (tabla 5).

i Mi np i M i np i ( M i np i ) 2 / npi
1 12 17 -5 1.471
2 11 17 -6 2.118
3 22 17 5 1.471
4 20 17 3 0.529
5 16 17 -1 0.059
6 21 17 4 0.941
Total 102 102 0 6.589
Tabla 5

Se obtiene Q=6.589, y P 52 > 6.589 ) = 0.25 > 0.05 , por lo cual no se rechaza H o . Las diferencias no son
suficientemente significativas para concluir que el dado esta cargado.

5.4.4 Test de ajuste para una distribucin discreta

Se considera el nmero de accidentes X observados cada fin de semana en una carretera (tabla 6). Se quiere
probar la hiptesis que X sigue una distribucin de Poisson de parmetro a partir de datos obtenidos sobre
un ao.

No accidentes 0 1 2 3 4 5 6 o ms Total
No semanas 17 16 10 5 2 1 1 52
Tabla 6

En un primer tiempo supondremos conocido e igual a 1.5. Se tiene entonces H o : X ~ Poison( 1.5 ) .

57
N. LACOURLY

Bajo H o , los nmeros de semanas M o con 0 accidente, M 1 con 1 accidente, ..., M 6 con 6 o ms
accidentes sigue una distribucin multinomial de parmetros n=52, y p o = P( X = 0 ) , p1 = P( X = 1 ) ,,
5
p6 = P( X 6 ) . Calculamos los p j , con X ~ Poisson( 1.5 ) . Se observar que p6 = 1 p
j =0
j .

i Mi pi M i np i ( M i np i ) 2 / npi
0 17 0.2231 5.3988 2.5124
1 16 0.3347 0.5956 0.0204
2 10 0.2510 -3.0520 0.7137
3 5 0.1255 -1.5260 0.3568
4 2 0.0471 -0.4492 0.0824
5 1 0.0141 0.2668 0.0971
6 1 0.0045 0.7660 3.2735
Total 52 1 0 7.0563
Tabla 7

Se obtiene Q=7.0563 (tabla 7), y P( 62 > 7.0563 ) = 0.31 > 0.05 , por lo cual no se rechaza H o .

Ahora si se supone que no se conoce el parmetro , se puede estimar por


= X n = M i / 52 = 72 / 52 = 1.385
i
y proceder como en el caso conocido. Pero ahora el estadstico Q pierde un grado de libertad debido a la
estimacin.

Con el parmetro , Q=5.62 y P( 52 > 5.62 ) = 0.35 > 0.05 .

5.4.5 Test de ajuste para una distribucin continua

Si queremos construir un test usando el estadstico 2 para una hiptesis sobre una distribucin continua
como H o : X ~ N ( 1,0.25 ) , hay que transformar la variable en una variable discreta. Se divide el rango de X
en k intervalos disjuntos I 1 , I 2 ,..., I k y se cuenta los nmeros de observaciones de la muestra M i que caen
en el intervalo I i . El vector M de los efectivos de los intervalos sigue una distribucin multinomial de
parmetros de probabilidad determinados por la hiptesis nula.

Sea por ejemplo, las temperaturas medias X del mes de septiembre en Urbe durante 60 aos (tabla 8). Se
quiere probar la hiptesis nula H o : X ~ Normal .

Hay diferentes maneras de definir la particin de intervalos de . Una vez fijado el nmero de intervalos,
se pueden elegir del mismo largo o de la misma probabilidad. Tomaremos aqu 10 intervalos equiprobables.

Para calcular las probabilidades, hay que estimar previamente los parmetros y 2 de la normal:

= X n = 15.76 2 = S n2 = 13.82

58
5. TESTS DE HIPTESIS

Luego los intervalos I i se obtienen de tal forma que (tabla 9): P( X I j ) = 0.10 ( j) en donde
X ~ N ( 15.76 ,13.82 ) .

Se obtiene Q=9.35. El estadstico 2 tiene aqu 7 g.l. (Se estimaron dos parmetros). Como
P( 72 > 9.35 ) = 0.23 > 0.05 , no se rechaza la hiptesis de normalidad.

5.2 6.5 7.5 8.2 10.1 10.5 11.6 12.0 12.0 12.8 13.5 13.8
13.9 14.0 14.0 14.2 14.3 14.5 14.7 14.8 15.0 15.0 15.2 15.2
15.3 15.4 15.6 15.8 15.8 15.9 16.0 16.1 16.2 16.4 16.4 16.5
16.5 16.8 16.9 17.0 17.0 17.1 17.1 17.1 17.4 17.6 17.9 18.2
18.5 18.8 18.9 19.4 19.8 20.3 20.9 21.4 21.9 22.5 2.28 23.9
Tabla 8: Temperaturas medias

i Mi pi M i np i ( M i np i ) 2 / npi
]- ,10.96] 6 6 0 0.00
]10.96,12.64] 3 6 -3 1.50
]12.64,13.83] 3 6 -3 1.50
]13.83,14.83] 8 6 2 0.67
]14.83,15.76] 7 6 1 0.17
]15.76,16.69] 10 6 4 2.67
]16.69,17.69] 9 6 3 1.50
]17.69,18.88] 4 6 -2 0.67
]18.88,20.56] 4 6 -2 0.67
]20.56,+ [ 6 6 0 0.00
Total 60 60 0 9.35
Tabla 9

5.4.6 Test de independencia en una tabla de contingencia

Cuando dos v.a. discretas con valores en A y B respectivamente son independientes, se tiene:

P(X=i e Y=j)=P(X=i)P(Y=j) ( ( i , j ) A B

Si A y B son conjuntos finitos (card(A)=p, card(B)=q), las frecuencias M ij de observaciones obtenidas en


una muestra bivariada de tamao n siguen una distribucin multinomial de parmetro n y p en donde p es el
vector de las probabilidades conjuntas p ij en donde p ij = P( X = i e Y = j) bajo la hiptesis de
independencia de X e Y . En esta caso, se puede estimar estos parmetros p ij a partir de las frecuencias
marginales de X e Y: p i = M
j
ij /n y p j = M
i
ij /n p ij = p i p j el estimador de las

probabilidades conjuntas bajo la hiptesis de independencia entre X e Y.

( M ij np i p j ) 2
Usamos entonces el estadstico Q = i, j np i p j

59
N. LACOURLY

que sigue una distribucin asinttica 2 a (p-1)(q-1) g.l. (Hay p+q-1 parmetros a estimar, luego el nmero
de grados de libertad es: pq-1-(p+q-1)=(p-1)(q-1)).

Ejemplo 2: Sea un conjunto de consumidores que dan su apreciacin sobre una margarina. Se quiere
estudiar si existe una relacin entre la opinin de los consumidores y su nivel socio-econmico (NSE).

Se considera la tabla de contingencia obtenida a partir de une encuesta de estudio de mercado sobre 1600
consumidores (tabla 10), que contiene los nmeros de consumidores M ij del NSE i que tuvieron la
apreciacin j.

Apreciacin
NSE Total
Mala Regular Buena
A 140 100 45 285
B 50 225 350 625
C 15 175 500 690
Total 205 500 895 1600
Tabla 10: Tabla de contingencia de las apreciaciones

Las probabilidades p ij se estiman (Tabla 11) usando las frecuencias marginales de la tabla; por ejemplo,
para el NSE A con la apreciacin Mala se obtiene p11 = 285 205 / 1600 2 = 0.0228 y np11 = 36.51 .

Apreciacin
NSE Total
Mala Regular Buena
A 36.51 89.06 159.42 285
B 80.08 195.31 349.61 625
C 88.41 215.63 385.97 690
Total 205 500 895 1600
Tabla 11: Tabla de contingencia estimada bajo supuesto de independencia

Se obtiene el valor del estadstico Q=521.46. Como P( 42 > 521.46 ) 0.00 , se rechaza la hiptesis de
independencia entre el NSE y la apreciacin.

Nota: Se puede usar el mismo test para probar la independencia de dos variables continuas transformndolas
en variables discretas.

5.5 EJERCICOS

1. El cocinero del casino prepar la masa para hacer 500 empanadas. Ese mismo da, en un grupo de 20
alumnos que almorzaron juntos, alguien propuso contar la cantidad de pasas que cada uno encontr en
su empanada, obtenindose la distribucin dada en la tabla 12:
(a) Suponiendo que la distribucin de la cantidad de pasa X en una empanada sigue una distribucin de
Poisson, estime su parmetro .

60
5. TESTS DE HIPTESIS

(b) Justifique la hiptesis: " H o : La distribucin de la cantidad de pasas en una empanada sigue una
distribucin de Poisson" de las dos formas siguientes:
(i) A priori: Buscando la probabilidad de que una empanada tenga exactamente x pasas.
(ii) A posteriori: comparando los resultados esperados bajo la hiptesis con aquellos observados en la
muestra.

Nmero de pasas Nmero de empanadas


0 1
1 3
2 4
3 5
4 4
5 2
6 y ms 1
Tabla 12

(c) Se decide que las empanadas son "aceptables" si en promedio cada empanada tiene 3.5 pasas; el
cocinero afirma que est es la cantidad de pasas por empanada. Los alumnos, en cambio, objetan que las
empanadas tienen en promedio slo 2.5 pasas. Qu significa la eleccin de los tests de hiptesis
siguientes?:

H o: = 3.5 contra H 1: = 2.5


o
H o : = 2.5 contra H 1' : = 3.5
'

(d) D la regin crtica al test H o contra H 1 al nivel de significacin = 0.05 . D la potencia de este test
y concluir si las empanadas son "aceptables".
(e) Misma pregunta tomando H o' contra H 1' .
(f) Compare las dos decisiones anteriores.

2. Se tienen los pesos de diez parejas antes y despus de 6 meses de matrimonio:

Antes 72.0 69.0 81.0 71.0 88.0 78.0 68.0 76.0 86.0 95.0
Hombres
Despus 77.0 68.5 85.0 74.5 90.5 76.0 71.0 75.0 87.5 101.0
Antes 52.0 56.0 61.0 49.0 57.0 63.0 66.0 59.0 67.0 51.0
Mujeres
Despus 54.0 55.0 58.0 50.0 55.0 61.0 64.0 56.0 70.0 50.0

Cul es la influencia del matrimonio sobre el peso de los hombres y de las mujeres?

3. Se quiere probar si hay una diferencia de ingreso entre hombres y mujeres mdicos. Se hizo una
encuesta a n=200 mdicos seleccionados al azar e independientemente. Se obtuvo la siguiente
informacin:

Ingreso bajo Ingreso alto Total


Hombres 20 100 120
Mujeres 70 10 80
Total 90 110 200

61
N. LACOURLY

(a) Sean p1 y p 2 las proporciones en las poblaciones de mdicos hombres y mujeres; y sean p1' y p '2 las
proporciones poblacionales de mdicos con ingresos bajos y altos. Realice los tests
H o : p1' = p 2 contra H 1 : p1' p 2
y
H o' : p '2 = p1 contra H 1' : p '2 p1
(b) Estudie la independencia entre sexo e ingreso.

4. Supngase que X 1 ,..., X n constituyen una m.a.s. de una v.a. X con distribucin uniforme sobre [ 0 , ] y
que se quiere estudiar las siguientes hiptesis: H o : 2 contra H 1 : < 2 . Sea el estadstico
Y( n ) = Max{ X 1 ,..., X n } y considrese la regin crtica que contenga todas las muestras tales que Y( n ) 1.5 .

(a) Determnese la funcin de potencia para esta regin crtica.


(b) Determnese el tamao del test.

5. Supngase que se desconoce la proporcin p de artculos defectuosos en una poblacin de artculos y se


desea probar la hiptesis H o : p = 0.2 contra H 1 : p 0.2 . Supngase adems que se selecciona una m.a.s.
de tamao 20. Sea Y el nmero de artculos defectuosos en la muestra y considrese un procedimiento para
resolver el test tal que la regin crtica est dada por Y 7 o Y 1 .

(a) D el funcin de la potencia ( p ) en los puntos p=0, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.
(b) Determine el tamao del test.

6. Sea X 1 ,..., X n una m.a.s. de una distribucin normal de media desconocida y varianza igual a 1. Sea
o un real dado. Se tienen la hiptesis nula H o : = o y la hiptesis alternativa H 1 : o .
Supongamos que el tamao de la muestra es igual a 25, y considrese que el procedimiento para no rechazar
H o est dado por | X n o |< c . Determnese el valor de c para que el tamao del test sea 0.05.

7. Sea X 1 ,..., X n una m.a.s. de una distribucin de media desconocida y varianza igual a 1, y sean las
hiptesis H o : = 3.5 contra H 1 : = 5.0 .
(a) Entre los procedimientos para resolver el test anterior tal que ( ) 0.05 , descrbase un procedimiento
para el que ( ) sea un mnimo.
(b) Para n=4, encuntrese el valor mnimo descrito en (a).

8. Supngase que se selecciona una observacin X de una distribucin Uniforme en [0, ], donde es
desconocido y se plantean las siguientes hiptesis: H o : = 1 contra H 1 : = 2 .
(a) Demuestre que existe un procedimiento para resolver el test para el cual ( ) = 0 y ( ) < 1 .
(b) Entre todas las soluciones del test para las cuales ( ) = 0 , hllese una para el cual ( ) sea mnimo.

9. Sea X 1 ,..., X n una m.a.s. de una distribucin de Poisson( ) , con desconocido. Sean o y 1 dados,
con 1 > o . Se tienen las siguientes hiptesis: H o : = o contra H 1 : = 1 .
Demustrese que el valor de ( ) + ( ) es mnimo por un procedimiento que rechaza H o cuando
X n > c y encuntrese el valor de c.

62
5. TESTS DE HIPTESIS

10. Sea X 1 ,..., X n una m.a.s. de una distribucin con parmetro cuyo valor es desconocido. Supngase
adems que se desea constrastar las siguientes hiptesis: H o : o contra H 1 : > o .
Supngase adems, que el procedimiento que se va a utilizar ignora los valores observados en la muestra y,
en vez de ello, depende nicamente de una aleatorizacin auxiliar en la que se lanza una moneda
desequilibrada de forma que se obtendr cara con probabilidad 0.05 y sello con probabilidad 0.95. Si se
obtiene una cara, entonces se rechaza H o , y si se obtiene sello, no se rechaza H o . Descrbase la funcin de
potencia de este procedimiento.

11. Sea X 1 ,..., X n una m.a.s. de una distribucin con parmetro desconocido y una funcin de densidad
conjunta f n ( x1 ,..., x n | ) que tiene una razn de verosimilitudes montona en el estadstico T=r(X). Sea o
un valor especfico de y supngase que se quiere comparar la hiptesis nula H o : o contra la
hiptesis alternativa H 1 : < o . Sea c una constante tal que P( T c | = o ) = . Demuestre que el
procedimiento que rechaza H o si T c es UMP al nivel .

12. Sea X 1 ,..., X n una m.a.s. de una Poisson( ) con el parmetro desconocido. Supngase que se
quiere estudiar la hiptesis nula H o : 1 contra la hiptesis alternativa H 1 : < 1 . Supngase adems que
el tamao de la muestra es n=20. Para qu niveles de significacin , con 0 < < 0.03 , existen tests
UMP?

13. Consideremos una observacin X de una distribucin de Cauchy con un parmetro de localizacin
desconocido , esto es, una distribucin cuya funcin de densidad est dada por:
1
f ( x | ) = (x )
( 1 + ( x )2 )

Se desean constrastar la hiptesis nula H o : = 0 contra la hiptesis alternativa H 1 : > 0 .


Demuestre que no existe un test UMP de estas hiptesis a ningn nivel de significacin .

14. Sea X 1 ,..., X n una m.a.s. de una distribucin N ( ,1 ) . Supngase que se desea estudiar las hiptesis
H o : 0 contra H 1 : > 0

Se denota * al test UMP con nivel de significacin igual a 0.025 y ( | ) la funcin de potencia de
*

* .
(a) Determine el valor ms pequeo para el tamao de la muestra n para que ( | * ) 0.9 para todo
0.5 .
(b) Determine el valor ms pequeo para el tamao de la muestra n para que ( | * ) 0.001 para todo
0.1 .

15. Sea X 1 ,..., X n una m.a.s. de una distribucin Uniforme([ 0 , ]) , desconocido. Supongamos que
queremos contrastar las hiptesis
H o : = 3 contra H o : 3

63
N. LACOURLY

Considere que se rechaza H o si c 2 Max{ X 1 ,..., X n } c1 y sea ( | ) la funcin de potencia de .


Determine los valores de c1 y c2 para que ( 3 | ) = 0.05 y sea insesgado.

64

Vous aimerez peut-être aussi