Académique Documents
Professionnel Documents
Culture Documents
TESTS DE HIPTESIS
5 TESTS DE HIPOTESIS
5.1 GENERALIDADES
En el captulo 3, se presentaron mtodos que permiten encontrar los valores de los parmetros desconocidos
de la distribucin de poblacin y en el captulo anterior, la estimacin por intervalo permite dar una cierta
indicacin sobre la precisin de la estimacin puntual. Tales estimaciones, puntuales y por intervalo, que
fueron obtenidas a partir de valores muestrales, permiten formarse una opinin sobre la poblacin y entonces
darse una hiptesis de trabajo.
Ejemplos:
Antes de apostar "cara" o "sello" en el lanzamiento de una moneda, uno se pregunta si la moneda es
equilibrada o no. La hiptesis de trabajo es entonces si el parmetro p=probabilidad de sacar "cara" de
la Bernoulli es igual a 0.5;
Un agricultor se compromete a entregar a una fbrica de azcar remolacha con un cierto porcentaje p o
de glucosa; la hiptesis de trabajo es entonces p = p o o p p o ;
Los hombres chilenos pretenden ser ms altos que los argentinos en promedio; si 1 y 2 son los
promedios de las tallas respectivas de los hombres chilenos y argentinos, la hiptesis de trabajo es
1 2 ;
Cuando se hizo la estimacin puntual de la talla promedio 1 de los hombres chilenos, se hizo la
hiptesis que la v.a. X talla de los hombres chilenos sigue una distribucin F~Normal.
En los cuatro casos se proceder de la misma manera: se tiene una hiptesis de trabajo sobre la distribucin
de muna v.a. X y una muestra de observaciones de X; se trata entonces de decidir si la hiptesis planteada es
compatible con lo que se puede aprender del estudio de los valores muestrales. Se tiene que encontrar un
procedimiento para decidir si la muestra que se obtuvo esta en acuerdo con la hiptesis de trabajo.
Naturalmente no se espera que, para cualquier muestra, los valores empricos obtenidos en la muestra estn
en total acuerdo con la hiptesis; el problema es entonces decidir si la desviacin encontrada entre la
hiptesis y los valores observados es demasiado grande para poner en duda la hiptesis de trabajo. Ahora
bien si se pone en duda la hiptesis original, entonces se la rechaza en favor de una hiptesis alternativa.
Se distingue la hiptesis de trabajo llamndola hiptesis nula y una hiptesis nula se confronta a una
hiptesis alternativa.
Para decidir, se necesita una regla de decisin. Cualquier regla de decisin debera tratar de minimizar los
errores de decisin. Si es la regla de decisin adoptada y ( ) la probabilidad de equivocarse cuando la
hiptesis nula es cierta y ( ) la probabilidad de equivocarse cuando la hiptesis alternativa es cierta, uno
buscara minimizar ambas probabilidades de error. Pero veremos, a travs de un ejemplo, que a tener ( )
nula, se hace ( ) igual a 1 e inversamente.
41
N. LACOURLY
Dada una hiptesis nula H o , ( ) es la probabilidad condicional de rechazar la hiptesis H o con la regla
de decisin cuando H o es cierta. Ahora bien la regla de decisin se basa en los valores muestrales; si
la muestra es de tamao n y los valores muestrales en , una regla de decisin consiste en dividir el
dominio n del conjunto de todas las muestras de tamao n en dos partes disjuntas: la parte W en donde se
rechaza la hiptesis nula H o y la parte W en donde no se rechaza.
Como la regin crtica del test es aquella en donde se rechaza H o , se debera tomar en cuenta la hiptesis
alternativa.
Una regla de decisin consiste entonces en determinar la regin crtica del test en funcin de las dos
hiptesis.
Las hiptesis estadsticas son muy precisas: se refieren al comportamiento de variables aleatorias. Pero en
los ejemplos expuestos en el prrafo anterior, se observara que las hiptesis no son todas del mismo tipo. En
los tres primeros ejemplos, la hiptesis concierne solamente a los valores de parmetros de una distribucin
cuya forma no est puesta en duda y es especificada a priori. Tales hiptesis se llaman hiptesis
paramtricas. En el ltimo ejemplo, es la distribucin completa que es puesta en juicio; se habla de
hiptesis no paramtricas.
Por ejemplo, sea una v.a. X de funcin de distribucin F ( x | ) , que depende de un parmetro . Si es
el espacio del parmetro y o un subconjunto de , entonces H : o es una hiptesis paramtrica,
mientras que H : F = Normal( 1,3 ) es una hiptesis no paramtrica.
Se puede clasificar tambin las hiptesis paramtricas segn su grado de especificidad. Cuando en la
hiptesis paramtrica H : o , o reducido a un slo valor, entonces se habla de hiptesis simple, en el
caso contrario se habla de hiptesis compuesta.
Trataremos en primer lugar los tests de hiptesis paramtricas para hiptesis simples antes de tratar el caso
general apoyndonos en los resultados del caso de las hiptesis simples. Encontrar una regla de decisin es
encontrar una regin crtica del test. Como hacerlo minimizando los errores de decisin? Para eso usaremos
la funcin de potencia.
H o : o contra H 1 : 1
42
5. TESTS DE HIPTESIS
Si una regla de decisin nos condujo a una regin crtica W para el test, entonces para cada valor de ,
determinaremos ( ) la probabilidad para que la regla de decisin nos conduce a rechazar H o : o
cuando el parmetro vale .
El conjunto W es la regin crtica del test y ( X 1 , X 2 ,..., X n ) el vector de los valores muestrales, entonces
( ) = P( X 1 , X 2 ,..., X n W ) ( ) .
Luego la regin crtica ideal es aquella que produce una funcin de potencia tal que:
0 si o
( ) =
1 si 1
El problema es que tal regin crtica ideal no existe; como lo veremos en el siguiente ejemplo, cuando se
hace disminuir uno de los errores a 0, se aumenta el otro a 1.
Ejemplo 1: Sea X 1 , X 2 ,..., X n una m.a.s. de una v.a. X uniforme en [ 0 , ] con > 0 . Consideramos la
hiptesis nula H o : 3 4 contra la hiptesis alternativa H 1 : < 3 o > 4 . Supongamos que una regla
de decisin nos llevo a decidir de no rechazar a la hiptesis nula H o cuando Max{ X 1 , X 2 ,..., X n } de
una m.a.s. de la v.a. X se encuentra en el intervalo [2.9,4.1] y a rechazar H o en el caso contrario. Luego la
regin crtica del test es un subconjunto W n tal que Max{ X 1 , X 2 ,..., X n } < 2.9 o >4.1. La funcin de
potencia del test es entonces:
43
N. LACOURLY
2.9
n
P( Max{ X 1 ,..., X n } < 2.9 | ) =
n
2.9
Si 2.9 < 4.1 ( ) =
P( Max{ X ,..., X } > 4.1 | ) = 0
1 n
2.9
n
P( Max{ X 1 ,..., X n } < 2.9 | ) = n n
2.9 4.1
Si > 4.1 n
( ) = 1 +
P( Max{ X ,..., X } > 4.1 | ) = 1 4.1
1 n
n
2.9
El tamao del test es igual a = Sup { ( )} = ( 3 ) = y el error de tipo II mnimo es igual a
3 4 3
n
2.9
Inf { 1 ( )} = 1 ( 4 ) = 1 . Entonces si se lleva a 0, el error de tipo II va a 1.
3 4 4
En los grficos 1 y 2, se muestra la funcin de potencia para los casos n=10 y n=50. Se observa que si
llevamos el tamao del test a = 0.10 , es decir que en el intervalo [3, 4] la probabilidad de equivocarse no
sobrepasa 10%, el error de tipo II el error disminuye de 0.10 a 0 entre 3 y 2.9, pero entre 4 y 4.1 es casi
igual a 1.
En este ejemplo si queremos disminuir el tamao del test , hay que elegir un intervalo W ms grande o
una muestra de tamao mayor. Pero en ambos casos se aumentara el error de tipo II. Para tratar de
acercarnos a la situacin ideal, se puede, por ejemplo, buscar minimizar una funcin de los dos errores, o
bien fijarse una cota mxima para el error de tipo I y minimizar el error de tipo II.
1( ) ( )
1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8
44
5. TESTS DE HIPTESIS
Sean X 1 , X 2 ,..., X n , los valores muestrales independientes de una v.a. de funcin de densidad o
probabilidad f ( x | ) . Se plantea las hiptesis simples: H o : o contra H 1 : 1 .
Presentaremos en primer lugar como minimizar una funcin simple de los dos errores, tomando una funcin
del tipo
a ( ) + b ( )
Usaremos la solucin anterior para encontrar la forma de construir la regin crtica, tal que, si uno se fija una
cota mxima para el error de tipo I, el error de tipo II sea mnima.
( ) = ... f o ( x1 ,..., x n )dx1 ...dx n
W
Luego: a ( ) + b ( ) = a ... f o ( x1 ,..., xn )dx1 ...dxn + b ... f 1 ( x1 ,..., xn )dx1 ...dxn y el promedio
W W
45
N. LACOURLY
Entonces * es ptimo para estos valores a y b dados. Se observar que los puntos tales que
af o ( x1 ,..., x n ) bf 1 ( x1 ,..., x n ) = 0 pueden ponerse en W o W , dado que en ambos casos se obtiene el
mnimo.
Sea o la cota mxima de error de tipo I que uno est dispuesto a aceptar.
Definicin 5: Se llama Nivel de Significacin del test a la cota mxima de error de tipo I aceptada.
Se tiene entonces que buscar una regla de decisin que produce el error de tipo I ( ) o y tal que
( ) sea mnimo. El siguiente lema, que deriva del teorema anterior, nos da la forma de proceder.
Lema 1 (NEYMAN-PEARSON): Si * es una regla de decisin tal que para algn k>0 fijo,
f 1 ( x1 ,..., x n )
se rechaza H o , si >k
f o ( x1 ,..., x n )
f ( x ,..., x n )
no se rechaza H o , si 1 1 <k,
f o ( x1 ,..., x n )
entonces para toda regla tal que ( ) ( * ) , se tiene ( ) ( * ) .
f 1 ( x1 ,..., x n ) 1
= exp{ [ ( xi 2 ) 2 ( xi 1 ) 2 ] }
f o ( x1 ,..., x n ) 2 2
i i
xi + 3n ] }
f 1 ( x1 ,..., x n ) 1
= exp{ [ 2
f o ( x1 ,..., x n ) 2 2 i
f 1 ( x1 ,..., x n )
= exp{ 2
3n xi
}
f o ( x1 ,..., x n ) 2 2
f 1 ( x1 ,..., x n ) a
>
f o ( x1 ,..., x n ) b
46
5. TESTS DE HIPTESIS
3 2 a
es decir: X n > + ln .
2 n b
Si 2 = 2 y n=20,, la regin crtica W, que es de la forma X n > c en donde c depende de a y b:
3 1 a
c= + ln ; si a=b, c=3/2, pero si a>b, c>3/2 y si a<b, c<3/2.
2 10 b
En particular, si a=2/3 y b=1/3, W = {( x1 ,..., x n ) n | X n > 1.57 } , pero si a=1/3 y b=2/3 entonces
W = {( x1 ,..., x n ) n | X n > 1.43 } .
2
El error ( ) de tipo I es ( 1 ) = P( X n > c | = 1 ) . Como X n ~ N ( , ) bajo la hiptesis H o ,
n
c 1
( ) = 1 , en que es la funcin de distribucin de N(0,1).
/ n
c2
El error ( ) de tipo II es 1 ( 2 ) = 1 P( X n > c | = 2 ) ; es decir ( ) = .
/ n
Si a=b, como c=3/2, para n=20, se obtiene ( ) = ( ) = 1 ( 1.58 ) = 0.057 , pero con n=100,
( ) = ( ) = 1 ( 3.54 ) 0.0 . Es decir que para los riesgos de equivocarse disminuyen cuando el
tamao de la muestra crece.
Si se obtuvo una media muestral X n = 1.30 para una muestra aleatoria de tamao 20, no se rechaza la
hiptesis nula H o : = 1 con un error de tipo I igual a 0.057 cuando se toma a=b; si se toma a=0.3 y
b=0.7, se rechaza H o a favor de H 1 con un error de tipo I igual a 0.11.
Si ahora se tiene un nivel de significacin fijado a o = 0.05 , se obtiene una regin crtica
W = {( x1 ,..., x n ) n | X n > c } tal que
P( X n > c | = 1 ) = 0.05
Vamos extender ahora los resultados del lema de Neyman-Pearson para hiptesis compuestas.
( | ) o o y ( | ) sea mxima 1 .
Ahora bien no es siempre posible encontrar un test que satisfaga esta condicin. En efecto si
= { 1 , 2 } , un test podr tener una potencia mxima para 1 pero no necesariamente para 2 .
47
N. LACOURLY
Retomando el ejemplo anterior, si tomamos como una hiptesis alternativa con dos valores H 1 : { 0 ,2 } ,
entonces para = 0 la regin crtica ms potente ser de la forma W = {( x1 ,..., x n ) n | X n < c' } , que,
como lo vimos, no es la regin crtica ms potente para = 2 .
Definicin 6: Si un test * maximiza la funcin de potencia para todo valor de la hiptesis alternativa
H 1 : 1 , se dice que el test * es uniformemente ms potente (U.M.P.); es decir que * es un test
U.M.P. al nivel de significacin o si ( * ) o y si para todo otro test tal que ( ) o , se tiene
( | ) ( | * ) para todo 1 .
Definicin 7: Se dice que f n ( x1 ,..., x n | ) tiene una razn de verosimilitudes montona para un
f ( x ,..., x n | 2 )
estadstico g( x1 ,..., x n ) si y slo si ( 1 , 2 ) tal que 1 < 2 , el cuociente n 1 depende del
f n ( x1 ,..., x n | 1 )
vector ( x1 ,..., x n ) a travs de la funcin g( x1 ,..., x n ) y el cuociente es una funcin creciente de
g( x1 ,..., x n ) ( x1 ,..., x n ) .
En el ejemplo anterior f n ( x1 ,..., x n | ) tiene una razn de verosimilitud montona en X n . Veamos otro
ejemplo: una muestra aleatoria de una Bernoulli de parmetro p.
48
5. TESTS DE HIPTESIS
Vamos a mostrar que si f n ( x1 ,..., x n | ) tiene una razn de verosimilitudes montona en algn estadstico
T, entonces existe un test U.M.P. para las hiptesis H o : o contra H 1 : > o .
Del lema de Neyman-Pearson, se deduce que entre todos los procedimientos tales que el error de tipo I
( ) o , el valor del error ( ) de tipo II ser mnimo para el procedimiento * que consiste en
f ( x ,..., x n | 1 )
rechazar H o cuando n 1 > k , con k elegido de tal forma que P( rechazar H o | = o ) o .
f n ( x1 ,..., x n | o )
f n ( x1 ,..., x n | 1 )
Como es una funcin creciente de T, un procedimiento, que rechaza H o cuando el
f n ( x1 ,..., x n | o )
cuociente es al menos igual a k, es equivalente al procedimiento que rechaza H o cuando T es al menos igual
a una constante c. La constante c es elegida de tal forma que P( rechazar H o | = o ) o .
Ahora bien esto es cierto para todo 1 > o . Luego este procedimiento es U. M. P. para H o : = o contra
H 1 : > o .
Por otro lado, la funcin de potencia es no decreciente en y por lo tanto que si ( | ) o , entonces
( | ) o para todo o .
Cuando f n ( x1 ,..., x n | ) no tiene una razn de verosimilitudes montona, el test de razn de verosimilitud
permite resolver una gran cantidad de problemas:
Si H o : o contra H 1 : 1 , se define
Sup { f n ( x1 ,..., x n )
1
( x1 ,.., x n ) =
Sup { f n ( x1 ,..., x n )
o
49
N. LACOURLY
Test sobre una media con la varianza conocida: Sea una v.a. en que la varianza 2 es conocida y igual
a 36 2 y una muestra aleatoria de tamao n=9.
La regin crtica X n > 200 es U.M P. para todo > 180 de la hiptesis alternativa.
El error de tipo II depende de . Como lo muestra la tabla 1 y el grfico 3, el error de tipo II aumenta
cuando el valor de es muy cercano al valor 180 de H o : ( ) = P( X n > 200 | )
1 1
0.9 0.9
0.8 0.8
0.7 0.7
0.6 0.6
0.5 0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
180 190 200 210 220 230 240 130 135 140 145 150 155 160 165 170 175 180
Grfico 3: Funcin de Potencia para H 1 : > 180 Grfico 4: Funcin de Potencia para H 1 : < 180
50
5. TESTS DE HIPTESIS
Sea ahora H o : = 180 contra H 1 : < 180 con un nivel de significacin igual a 0.05. La regin crtica
ms potente es de la forma W = {( x1 ,..., x n ) n | X n < c' } con c' determinado por:
P( X n < c' | = 180 ) = 0.05 . La regin crtica X n < 160 es U. M. P. para todo < 180 de la hiptesis
alternativa. La funcin de potencia esta dada en la tabla 2 y el grfico 4.
Sea finalmente H o : = 180 contra H 1 : 180 con un nivel de significacin igual a 0.05. No existe un
test U. M. P. para este test bilateral; se propone como regin crtica
W = {( x1 ,..., x n ) n | X n < a } {( x1 ,..., x n ) n | X n > b }
de tal forma que P( X n < a | = 180 ) = 0.025 y P( X n > b | = 180 ) = 0.025 .
Obtenemos a=156.5 y b=203.5, que da una funcin de potencia presentada en la tabla 3 y el grfico 5. Se
nota que la potencia es siempre inferior o igual a la potencia de la tabla 1 o 2 para todo .
140 150 160 170 175 180 185 190 200 210 220
( ) 0.91 0.70 0.38 0.13 0.07 0.05 0.07 0.13 0.38 0.70 0.91
1 ( ) 0.09 0.30 0.62 0.87 0.93 0.95 0.93 0.87 0.62 0.30 0.09
Tabla 3: Potencia y error de tipo II para H 1 : 180
0 .9
0 .8
0 .7
0 .6
0 .5
0 .4
0 .3
0 .2
0 .1
0
120 140 160 180 200 220 240 260
51
N. LACOURLY
Se observara que este test se basa en el supuesto de distribucin normal de los valores muestrales. Cuando el
tamao de la muestra es grande, este supuesto es aceptable, pero para muestras pequeas, es importante
comprobar si lo es.
Test sobre una media con la varianza desconocida: Si retomamos el problema anterior pero suponemos
que la varianza es desconocida. En este caso se procede de manera parecida al caso anterior con la
( Xn )
distribucin de Student de la variable que es una Student a n-1 g.l. El problema en este caso es
Sn / n 1
la dificultad que se encuentra para calcular la potencia del test para una hiptesis alternativa.
Test sobre una varianza: Si ahora planteamos las hiptesis: H o : 2 o2 contra H 1 : 2 < o2 en donde
o2 es un escalar positivo dado.
nS n2
A partir del estadstico , que sigue una distribucin de 2 a n-1g.l. bajo la hiptesis nula, se construye
o2
la regin critica de nivel de significacin :
nS 2
P( 2n > c ) =
o
Test de comparacin de dos medias: Frecuentemente uno esta interesado no en uma sola media, pero en la
diferencia entre dos medias. Por ejemplo, la diferencia de sueldos medios 1 y 2 entre dos poblaciones
1 y 2 . Las hiptesis se escriben entonces:
H o : 1 2 = d o contra H 1 : 1 2 d o
12 22
P( X 1 X 2 > 1.96 + ) = 0.05
n1 n2
Si las varianzas son desconocidas, pero si se supone que son iguales ( 12 = 22 = 2 ), entonces se estima
esta varianza y se usa un estadstico que sigue una distribucin t de Student. Un estimador insesgado de 2
es:
S 2 = ( n1 S 12 + n 2 S 22 ) /( n1 + n 2 2 )
52
5. TESTS DE HIPTESIS
X1 X2
T=
S / ( n1 + n 2 ) / n1 n 2
P( X 1 X 2 > t S / ( n1 + n 2 ) / n1 n 2 ) =
Aqu se hizo el supuesto de igualdad de las varianzas y de independencia de las dos muestras.
Test para pares de observaciones: Hay situaciones en donde las muestras no son independientes. Es el
caso cuando se toman muestras formadas de pares, es decir cuando cada observacin de una muestra es
relacionada a una observacin de la otra muestra. Por ejemplo, se considera la diferencia de edades de las
parejas en un grupo de matrimonios; una muestra esta formada de las esposas y la otra muestra de sus
maridos. La dos muestras no son independientes y son del mismo tamao. Sean (X,Y) las v.a. edades de la
mujer y su marido y una muestra de n matrimonios {( X i ,Yi ) | i = 1,2 ,..., n } . La diferencia entre las medias
empricas X n y Yn es un estimador insesgado de la diferencia 1 2 en la poblacin apareada:
E( X n Yn ) = E( X Y ) = E( X ) E( Y ) = 1 2
( d
1
X2 Y = i d n )2
n i
d
1
en donde d n = i .
n i
X2 Y
El estimador de la varianza de la diferencia de las medias es entonces: X2 Y = y
n
X Y
~ t n 1
X Y / ( n 1 )
53
N. LACOURLY
Test de comparacin de dos varianzas: (la distribucin F de Fisher). Se quiere comparar las varianzas
12 , 22 de dos poblaciones normales a partir de muestras aleatorias independientes de cada poblacin. Si
X 1 ,..., X n y Y1 ,...,Ym son los valores muestrales tomados en las respectivas poblaciones,
nS 12
1 1
S 12 = ( X i X n ) 2 y S 22 = ( Yi Ym ) 2 son las varianzas muestrales sesgadas. Sean U = y
n i m i 12
mS 22
V= , entonces U ~ n21 y V ~ m2 1 y adems U y V son independientes.
22
U /( n 1 )
Vimos en el captulo anterior que sigue una distribucin F de Fisher a n-1 y m-1 grados de
V /( m 1 )
libertad.
U /( n 1 ) nS 12 /( n 1 )
Consideramos entonces el estadstico =
V /( m 1 ) mS 22 /( m 1 )
nS 2 /( n 1 )
P 12 > F =
mS 2 /( m 1 )
5.4 TESTS 2
Diversas situaciones pueden describirse a partir de una distribucin multinomial. Veremos previamente dos
distribuciones de vectores aleatorios, la distribucin normal multivariada, y la distribucin multinomial con
su comportamiento asinttico. Despus de presentar un test para un modelo multinomial, veremos
aplicaciones para hiptesis no paramtricas.
X1
X2
Sea X =
un vector aleatorio de
p
Xp
54
5. TESTS DE HIPTESIS
Es decir que si X es un vector normal, toda combinacin lineal de X es una v.a. normal.
1 t
X ( u ) = exp( iut u u ) u p
2
Propiedades:
Tomando como vector u los vectores cannicos, se obtiene las leyes marginales de X, que son normales;
pero la recproca es falsa: un vector formado de variables normales no es necesariamente un vector
normal.
Sea A una matriz (pxq) y X ~ N p ( , ) Y = AX ~ N q ( A , AA t ) .
Si las v.a. X i son independientes, entonces la matriz es diagonal.
es semidefinida positiva. En efecto u t u es la varianza de la v.a. u t X .
Si es de rango r, existe una matriz (pxr) de rango r tal que = t . Entonces: X ~ N p ( , )
X = + Y con Y ~ N r ( 0 , I r ) es decir que las componentes del vector Y son centradas,
normalizadas y independientes entre si.
Si es invertible, es invertible tambin e Y = 1 ( X ) ~ N p ( 0 , I p ) .
Este ltimo resultado permite calcular la densidad del vector X. En efecto se puede calcular la densidad del
vector Y ~ N p ( 0 , I p ) :
p/2 p/2
1 1
1 1
f (Y ) = f ( yi ) = exp{ Yi 2 } = exp{ Y t Y }
i 2 2 i 2 2
1 1 / 2
Como Y t Y = ( X )t ( X ) , el Jacobiano de la transformacin es , luego la densidad de X es:
1 / 2
| | 1
h( X ) = exp{ ( X )t 1 ( X )}
( 2 ) p/2
2
+
Proposicin 1: Si X ~ N p ( , ) con de rango r, entonces || X ||2 + ~ r2 , en donde es una
inversa generalizada de .
55
N. LACOURLY
Es una generalizacin de la distribucin binomial. En vez de tener dos alternativas en cada experimento, se
tienen k alternativas ( k 2 ). Por ejemplo, hay seis resultados posibles cuando se tira un dado. Si el nmero
"1" tiene una probabilidad p1 , el nmero "2" tiene una probabilidad p 2 ,...,el nmero "6" tiene una
probabilidad p6 ( p1 + p 2 ++ p6 =1) y si hacemos n lanzamientos independientes del dado, los nmeros
M 1 de "1", M 2 de "2",..., M 6 de "6" constituyen un vector aleatorio M con una distribucin multinonimal
de parmetros n , p1 ,..., p6 . Se observa que M
i
i = n . La funcin de probabilidad de M es:
p1
p2
Calculamos la esperanza y la varianza de M. Si p = , entonces E(M)=p.
p
6
M np
Por el Teorema del Lmite Central, se tiene: tiene una distribucin asinttica normal N p ( 0 , ( p )) .
n
( M i npi ) 2
Q= npi
tiene una distribucin asinttica de k21 .
i
56
5. TESTS DE HIPTESIS
Sea un dado que se tira n=102 veces. Se obtiene entonces la distribucin emprica (tabla 4):
Mi 1 2 3 4 5 6 Total
fi 12 11 22 20 16 21 102
Tabla 4
Entonces calculamos el estadstico Q para construir la regin crtica del test (tabla 5).
i Mi np i M i np i ( M i np i ) 2 / npi
1 12 17 -5 1.471
2 11 17 -6 2.118
3 22 17 5 1.471
4 20 17 3 0.529
5 16 17 -1 0.059
6 21 17 4 0.941
Total 102 102 0 6.589
Tabla 5
Se obtiene Q=6.589, y P 52 > 6.589 ) = 0.25 > 0.05 , por lo cual no se rechaza H o . Las diferencias no son
suficientemente significativas para concluir que el dado esta cargado.
Se considera el nmero de accidentes X observados cada fin de semana en una carretera (tabla 6). Se quiere
probar la hiptesis que X sigue una distribucin de Poisson de parmetro a partir de datos obtenidos sobre
un ao.
No accidentes 0 1 2 3 4 5 6 o ms Total
No semanas 17 16 10 5 2 1 1 52
Tabla 6
En un primer tiempo supondremos conocido e igual a 1.5. Se tiene entonces H o : X ~ Poison( 1.5 ) .
57
N. LACOURLY
Bajo H o , los nmeros de semanas M o con 0 accidente, M 1 con 1 accidente, ..., M 6 con 6 o ms
accidentes sigue una distribucin multinomial de parmetros n=52, y p o = P( X = 0 ) , p1 = P( X = 1 ) ,,
5
p6 = P( X 6 ) . Calculamos los p j , con X ~ Poisson( 1.5 ) . Se observar que p6 = 1 p
j =0
j .
i Mi pi M i np i ( M i np i ) 2 / npi
0 17 0.2231 5.3988 2.5124
1 16 0.3347 0.5956 0.0204
2 10 0.2510 -3.0520 0.7137
3 5 0.1255 -1.5260 0.3568
4 2 0.0471 -0.4492 0.0824
5 1 0.0141 0.2668 0.0971
6 1 0.0045 0.7660 3.2735
Total 52 1 0 7.0563
Tabla 7
Se obtiene Q=7.0563 (tabla 7), y P( 62 > 7.0563 ) = 0.31 > 0.05 , por lo cual no se rechaza H o .
Si queremos construir un test usando el estadstico 2 para una hiptesis sobre una distribucin continua
como H o : X ~ N ( 1,0.25 ) , hay que transformar la variable en una variable discreta. Se divide el rango de X
en k intervalos disjuntos I 1 , I 2 ,..., I k y se cuenta los nmeros de observaciones de la muestra M i que caen
en el intervalo I i . El vector M de los efectivos de los intervalos sigue una distribucin multinomial de
parmetros de probabilidad determinados por la hiptesis nula.
Sea por ejemplo, las temperaturas medias X del mes de septiembre en Urbe durante 60 aos (tabla 8). Se
quiere probar la hiptesis nula H o : X ~ Normal .
Hay diferentes maneras de definir la particin de intervalos de . Una vez fijado el nmero de intervalos,
se pueden elegir del mismo largo o de la misma probabilidad. Tomaremos aqu 10 intervalos equiprobables.
Para calcular las probabilidades, hay que estimar previamente los parmetros y 2 de la normal:
= X n = 15.76 2 = S n2 = 13.82
58
5. TESTS DE HIPTESIS
Luego los intervalos I i se obtienen de tal forma que (tabla 9): P( X I j ) = 0.10 ( j) en donde
X ~ N ( 15.76 ,13.82 ) .
Se obtiene Q=9.35. El estadstico 2 tiene aqu 7 g.l. (Se estimaron dos parmetros). Como
P( 72 > 9.35 ) = 0.23 > 0.05 , no se rechaza la hiptesis de normalidad.
5.2 6.5 7.5 8.2 10.1 10.5 11.6 12.0 12.0 12.8 13.5 13.8
13.9 14.0 14.0 14.2 14.3 14.5 14.7 14.8 15.0 15.0 15.2 15.2
15.3 15.4 15.6 15.8 15.8 15.9 16.0 16.1 16.2 16.4 16.4 16.5
16.5 16.8 16.9 17.0 17.0 17.1 17.1 17.1 17.4 17.6 17.9 18.2
18.5 18.8 18.9 19.4 19.8 20.3 20.9 21.4 21.9 22.5 2.28 23.9
Tabla 8: Temperaturas medias
i Mi pi M i np i ( M i np i ) 2 / npi
]- ,10.96] 6 6 0 0.00
]10.96,12.64] 3 6 -3 1.50
]12.64,13.83] 3 6 -3 1.50
]13.83,14.83] 8 6 2 0.67
]14.83,15.76] 7 6 1 0.17
]15.76,16.69] 10 6 4 2.67
]16.69,17.69] 9 6 3 1.50
]17.69,18.88] 4 6 -2 0.67
]18.88,20.56] 4 6 -2 0.67
]20.56,+ [ 6 6 0 0.00
Total 60 60 0 9.35
Tabla 9
Cuando dos v.a. discretas con valores en A y B respectivamente son independientes, se tiene:
P(X=i e Y=j)=P(X=i)P(Y=j) ( ( i , j ) A B
( M ij np i p j ) 2
Usamos entonces el estadstico Q = i, j np i p j
59
N. LACOURLY
que sigue una distribucin asinttica 2 a (p-1)(q-1) g.l. (Hay p+q-1 parmetros a estimar, luego el nmero
de grados de libertad es: pq-1-(p+q-1)=(p-1)(q-1)).
Ejemplo 2: Sea un conjunto de consumidores que dan su apreciacin sobre una margarina. Se quiere
estudiar si existe una relacin entre la opinin de los consumidores y su nivel socio-econmico (NSE).
Se considera la tabla de contingencia obtenida a partir de une encuesta de estudio de mercado sobre 1600
consumidores (tabla 10), que contiene los nmeros de consumidores M ij del NSE i que tuvieron la
apreciacin j.
Apreciacin
NSE Total
Mala Regular Buena
A 140 100 45 285
B 50 225 350 625
C 15 175 500 690
Total 205 500 895 1600
Tabla 10: Tabla de contingencia de las apreciaciones
Las probabilidades p ij se estiman (Tabla 11) usando las frecuencias marginales de la tabla; por ejemplo,
para el NSE A con la apreciacin Mala se obtiene p11 = 285 205 / 1600 2 = 0.0228 y np11 = 36.51 .
Apreciacin
NSE Total
Mala Regular Buena
A 36.51 89.06 159.42 285
B 80.08 195.31 349.61 625
C 88.41 215.63 385.97 690
Total 205 500 895 1600
Tabla 11: Tabla de contingencia estimada bajo supuesto de independencia
Se obtiene el valor del estadstico Q=521.46. Como P( 42 > 521.46 ) 0.00 , se rechaza la hiptesis de
independencia entre el NSE y la apreciacin.
Nota: Se puede usar el mismo test para probar la independencia de dos variables continuas transformndolas
en variables discretas.
5.5 EJERCICOS
1. El cocinero del casino prepar la masa para hacer 500 empanadas. Ese mismo da, en un grupo de 20
alumnos que almorzaron juntos, alguien propuso contar la cantidad de pasas que cada uno encontr en
su empanada, obtenindose la distribucin dada en la tabla 12:
(a) Suponiendo que la distribucin de la cantidad de pasa X en una empanada sigue una distribucin de
Poisson, estime su parmetro .
60
5. TESTS DE HIPTESIS
(b) Justifique la hiptesis: " H o : La distribucin de la cantidad de pasas en una empanada sigue una
distribucin de Poisson" de las dos formas siguientes:
(i) A priori: Buscando la probabilidad de que una empanada tenga exactamente x pasas.
(ii) A posteriori: comparando los resultados esperados bajo la hiptesis con aquellos observados en la
muestra.
(c) Se decide que las empanadas son "aceptables" si en promedio cada empanada tiene 3.5 pasas; el
cocinero afirma que est es la cantidad de pasas por empanada. Los alumnos, en cambio, objetan que las
empanadas tienen en promedio slo 2.5 pasas. Qu significa la eleccin de los tests de hiptesis
siguientes?:
(d) D la regin crtica al test H o contra H 1 al nivel de significacin = 0.05 . D la potencia de este test
y concluir si las empanadas son "aceptables".
(e) Misma pregunta tomando H o' contra H 1' .
(f) Compare las dos decisiones anteriores.
Antes 72.0 69.0 81.0 71.0 88.0 78.0 68.0 76.0 86.0 95.0
Hombres
Despus 77.0 68.5 85.0 74.5 90.5 76.0 71.0 75.0 87.5 101.0
Antes 52.0 56.0 61.0 49.0 57.0 63.0 66.0 59.0 67.0 51.0
Mujeres
Despus 54.0 55.0 58.0 50.0 55.0 61.0 64.0 56.0 70.0 50.0
Cul es la influencia del matrimonio sobre el peso de los hombres y de las mujeres?
3. Se quiere probar si hay una diferencia de ingreso entre hombres y mujeres mdicos. Se hizo una
encuesta a n=200 mdicos seleccionados al azar e independientemente. Se obtuvo la siguiente
informacin:
61
N. LACOURLY
(a) Sean p1 y p 2 las proporciones en las poblaciones de mdicos hombres y mujeres; y sean p1' y p '2 las
proporciones poblacionales de mdicos con ingresos bajos y altos. Realice los tests
H o : p1' = p 2 contra H 1 : p1' p 2
y
H o' : p '2 = p1 contra H 1' : p '2 p1
(b) Estudie la independencia entre sexo e ingreso.
4. Supngase que X 1 ,..., X n constituyen una m.a.s. de una v.a. X con distribucin uniforme sobre [ 0 , ] y
que se quiere estudiar las siguientes hiptesis: H o : 2 contra H 1 : < 2 . Sea el estadstico
Y( n ) = Max{ X 1 ,..., X n } y considrese la regin crtica que contenga todas las muestras tales que Y( n ) 1.5 .
(a) D el funcin de la potencia ( p ) en los puntos p=0, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.
(b) Determine el tamao del test.
6. Sea X 1 ,..., X n una m.a.s. de una distribucin normal de media desconocida y varianza igual a 1. Sea
o un real dado. Se tienen la hiptesis nula H o : = o y la hiptesis alternativa H 1 : o .
Supongamos que el tamao de la muestra es igual a 25, y considrese que el procedimiento para no rechazar
H o est dado por | X n o |< c . Determnese el valor de c para que el tamao del test sea 0.05.
7. Sea X 1 ,..., X n una m.a.s. de una distribucin de media desconocida y varianza igual a 1, y sean las
hiptesis H o : = 3.5 contra H 1 : = 5.0 .
(a) Entre los procedimientos para resolver el test anterior tal que ( ) 0.05 , descrbase un procedimiento
para el que ( ) sea un mnimo.
(b) Para n=4, encuntrese el valor mnimo descrito en (a).
8. Supngase que se selecciona una observacin X de una distribucin Uniforme en [0, ], donde es
desconocido y se plantean las siguientes hiptesis: H o : = 1 contra H 1 : = 2 .
(a) Demuestre que existe un procedimiento para resolver el test para el cual ( ) = 0 y ( ) < 1 .
(b) Entre todas las soluciones del test para las cuales ( ) = 0 , hllese una para el cual ( ) sea mnimo.
9. Sea X 1 ,..., X n una m.a.s. de una distribucin de Poisson( ) , con desconocido. Sean o y 1 dados,
con 1 > o . Se tienen las siguientes hiptesis: H o : = o contra H 1 : = 1 .
Demustrese que el valor de ( ) + ( ) es mnimo por un procedimiento que rechaza H o cuando
X n > c y encuntrese el valor de c.
62
5. TESTS DE HIPTESIS
10. Sea X 1 ,..., X n una m.a.s. de una distribucin con parmetro cuyo valor es desconocido. Supngase
adems que se desea constrastar las siguientes hiptesis: H o : o contra H 1 : > o .
Supngase adems, que el procedimiento que se va a utilizar ignora los valores observados en la muestra y,
en vez de ello, depende nicamente de una aleatorizacin auxiliar en la que se lanza una moneda
desequilibrada de forma que se obtendr cara con probabilidad 0.05 y sello con probabilidad 0.95. Si se
obtiene una cara, entonces se rechaza H o , y si se obtiene sello, no se rechaza H o . Descrbase la funcin de
potencia de este procedimiento.
11. Sea X 1 ,..., X n una m.a.s. de una distribucin con parmetro desconocido y una funcin de densidad
conjunta f n ( x1 ,..., x n | ) que tiene una razn de verosimilitudes montona en el estadstico T=r(X). Sea o
un valor especfico de y supngase que se quiere comparar la hiptesis nula H o : o contra la
hiptesis alternativa H 1 : < o . Sea c una constante tal que P( T c | = o ) = . Demuestre que el
procedimiento que rechaza H o si T c es UMP al nivel .
12. Sea X 1 ,..., X n una m.a.s. de una Poisson( ) con el parmetro desconocido. Supngase que se
quiere estudiar la hiptesis nula H o : 1 contra la hiptesis alternativa H 1 : < 1 . Supngase adems que
el tamao de la muestra es n=20. Para qu niveles de significacin , con 0 < < 0.03 , existen tests
UMP?
13. Consideremos una observacin X de una distribucin de Cauchy con un parmetro de localizacin
desconocido , esto es, una distribucin cuya funcin de densidad est dada por:
1
f ( x | ) = (x )
( 1 + ( x )2 )
14. Sea X 1 ,..., X n una m.a.s. de una distribucin N ( ,1 ) . Supngase que se desea estudiar las hiptesis
H o : 0 contra H 1 : > 0
Se denota * al test UMP con nivel de significacin igual a 0.025 y ( | ) la funcin de potencia de
*
* .
(a) Determine el valor ms pequeo para el tamao de la muestra n para que ( | * ) 0.9 para todo
0.5 .
(b) Determine el valor ms pequeo para el tamao de la muestra n para que ( | * ) 0.001 para todo
0.1 .
15. Sea X 1 ,..., X n una m.a.s. de una distribucin Uniforme([ 0 , ]) , desconocido. Supongamos que
queremos contrastar las hiptesis
H o : = 3 contra H o : 3
63
N. LACOURLY
64