Académique Documents
Professionnel Documents
Culture Documents
Contraste de Hipotesis
10.1.
Como ya hemos adelantado en el captulo 9, en muchos problemas de estadstica suponemos, o sospechamos, que una determinada poblacion esta descrita por
una determinada densidad de probabilidad, cuyos parametros podemos o no conocer total o parcialmente. En general se denomina hipotesis a una conjetura sobre
la poblacion, a menudo un modelo sobre la distribucion de probabilidad que sigue
dicha poblacion. Si la conjetura es sobre los valores de los parametros de la distribucion se la llama hipotesis parametrica. Si los parametros estan especificados
la hipotesis se denomina simple. Si por el contrario no lo estan se la llama compuesta. El contraste de hipotesis es un procedimiento para, a partir de una o
varias muestras, concluir sobre la validez o invalidez de una hipotesis.
Es importante no confundir hipotesis valida con hipotesis cierta. Estrictamente nunca podemos probar que una hipotesis cientfica es cierta. Lo que si podemos
es falsearla, es decir, probar que es falsa. Cuando aceptamos una hipotesis como
valida esta implcito que lo que queremos decir es que es consistente con todas
las observaciones hasta el momento, donde la palabra consistente debe ser lo mas
cuantitativa posible. Esto se logra especificando claramente el procedimiento utilizado para establecer la consistencia o falta de ella. Por eso es muy importante
dar no solamente una respuesta, hipotesis aceptada o rechazada, sino tambien el
como, con que procedimiento, la hemos elaborado.
Cuando nos planteamos un problema de contraste de hipotesis, generalmente
existe una hipotesis de partida, basada en la evidencia disponible hasta entonces
o simplemente en las creencias del investigador. A tal hipotesis se la denomina
hipotesis nula y se la suele denotar por H0 . A las hipotesis alternativas, a aque-
195
196
Figura 10.1: La densidad de probabilidad del estadstico t para la hipotesis nula, H0 , y para una
hipotesis alternativa, H1 . La region crtica es el intervalo (tc , ). Si el valor de t pertenece a ese
intervalo entonces se rechaza la hipotesis nula.
,
/ n
(10.1)
10.1.1.
g(t|H0 )dt
(10.2)
tc
correcta. En general para esta cantidad se elige un valor pequeno, tal como el 5 %,
el 1 % o el 0.1 %. En este ejemplo aceptaramos la hipotesis H0 si t < tc .
A la region de t fuera de la crtica se la denomina region de aceptancia. Al ser
t una funcion de x, t = t(xi |H), la region crtica en t tambien define una correspondiente region crtica en el espacio de las x de manera implcita por la formula
10.2. La probabilidad asociada a la region de aceptancia recibe el nombre de nivel de confianza (NC), ya que efectivamente coincide con el nivel de confianza
utilizado en el contexto de la estimacion de parametros, como hemos visto en la
seccion 9.5. El nivel de confianza es la probabilidad asociada a la region de confianza, y por lo tanto N C = 1. Esta es la justificacion de la notacion empleada
en el captulo 9, formulas 9.50 y 9.51. Es importante recalcar que , y por lo tanto
el N C, son cantidades que deben ser elegidas a priori, independientemente de la
muestra o muestras que utilicemos para calcular el valor de t.
Continuando con el ejemplo anterior supongamos que para aceptar la hipotesis
exigimos un nivel de significacion del 5 % (o equivalentemente un nivel de confianza del 95 %). Por lo que ya sabemos del ejemplo 2 de la seccion 9.6 (formula
9.52), tc = 1,96. Como 1,5 < 1,96, es decir, t < tc , t esta fuera de la region
crtica lo que nos lleva a la conclusion de que no debemos rechazar la hipotesis
nula, o que no hay evidencia estadstica significativa para aceptar la hipotesis
alternativa al nivel de significacion del 5 %.
Otro ejemplo
Otro ejemplo de un test de hipotesis sera el siguiente: para evaluar la eficacia
de un entrenamiento se selecciona a un grupo de 10 atletas que tengan una puntuacion de 5 puntos en un test (basado en multiples parametros fisiologicos) disenado
para medir la forma fsica. Despues del entrenamiento se avalua de nuevo el estado fsico de los 10 atletas y se encuentra que la puntuacion ha cambiado y tiene
los valores {6, 7, 4, 5, 7, 8, 7, 3, 8, 5}. Se puede aceptar que han mejorado? Para aplicar el test vamos a utilizar la media del estado de forma caracterizado por
los valores numericos anteriores, cuyo promedio es x = 6. A partir de la muestra
tambien podemos calcular la varianza muestral que en este caso nos da = 1,792.
Por el captulo 2 sabemos que la variable
t=
(
x )
,
/ n
(10.3)
atletas han mejorado su forma, es decir que > 5 con un nivel de significacion
del 5 %. (Consideramos solamente una hipotesis alternativa, la de que los atletas
han mejorado su forma. No consideramos la posibilidad de que ocurriese lo contrario).
La region crtica para aceptar H0 es en este caso la region de t mayor que el
valor tc tal que
Z
fstudent (x; = 5, nd = 9)dx
(10.4)
= 0,05 =
tc
A partir de unas tablas o de un programa se llega a que tc = 1,715. Por otra parte
el valor de t en la formula 10.3 es en nuestro caso 1,764. Ello implica que t esta en
la region crtica de aceptacion de H0 , por lo tanto debemos rechazar la hipotesis
nula, es decir, podemos decir que los atletas han mejorado su forma.
10.1.2.
tc
g(t|H1 )dt.
(10.5)
H0 cierta
correcto
Prob. 1
Error tipo I
Prob.
H0 falsa
Error tipo II
Prob.
correcto
Prob. 1
199
Volviendo de nuevo al ejemplo, la hipotesis alternativa es que la media despues del entrenamiento sea mayor que 5. En este caso es simplemente 1 , es
decir, la distribucion del estadstico es la misma, independientemente de cual sea
la media pues en ambos casos es la distribucion de Student con el mismo numero
de grados de libertad. Los casos de contraste de medias de poblaciones utilizando
la distribucion de Student estan explicados en mas detalle en la seccion 10.4.
Hay que destacar que la interpretacion de como la probabilidad de rechazar
H0 cuando H0 es verdadera tiene sentido solamente en la interpretacion frecuentista de probabilidad. Es decir, si hiciesemos el experimento muchas veces (o lo
que es lo mismo, si hiciesemos muchas muestras) nos da el porcentaje de veces
que obtendramos un resultado menos probable que el implicado por el valor de
tc si la hipotesis H0 es correcta. Esta probabilidad no nos dice nada acerca de la
validez de las hipotesis H0 y H1 . Por eso, tal como ya se ha dicho, es importante
establecer claramente los procedimientos que llevan a una afirmacion sobre las
hipotesis utilizadas. Tanto estas como el valor de deben de elegirse antes de
realizar el test.
10.1.3.
Tipos de Contraste
Un caso bastante comun donde se plantea el problema del contraste de hipotesis es en el de clasificacion de un fenomeno, observado repetidamente, en clases. La clasificacion se realiza en base a una cantidad, t, construida a partir de
las senales producidas en nuestro instrumento de observacion. Por ejemplo podemos estar observando las senales que deja una partcula elemental al pasar por
un detector y, a partir de ellas, clasificar la partcula como perteneciente a un tipo
determinado. O podemos estar examinando imagenes de un conjunto de galaxias
obtenidas con un telescopio y, a partir de las mismas, identificar cuales de ellas
son en realidad galaxias y no otros objetos tales como estrellas. H0 podra ser la
hipotesis de que lo que estamos observando es una senal y H1 la hipotesis de que
por el contrario se trata de ruido de fondo. Hagamos H0 S y H1 B. La
distribucion g(t|S) es la distribucion de la cantidad medida (o construida en base
a varias medidas) para la senal y g(t|B) la distribucion de dicha cantidad para el
ruido.
La region de aceptancia en t no fija de manera unvoca la region de aceptancia
en x definida implcitamente por la ecuacion 10.2. Distintas regiones de x pueden
tener el mismo nivel de significacion (ver mas abajo el contraste de una cola y
dos colas, por ejemplo). En este caso el criterio a seguir sera elegir aquella region
de x de manera que la la probabilidad asociada a la hipotesis alternativa, , fuese
mnima. O en otras palabras: elegir la region de x para la cual el test de la hipotesis
200
201
de manera que
Z
g(t|H0 )dt =
tc
(10.6)
Tambien se habla a veces de contraste de una o varias muestras. Varias muestras se refiere en general a casos donde lo que nos interesa es comparar si la diferencia entre las medias de dos poblaciones es o no significativa. Este es un caso
comun en aplicaciones clnicas, donde por ejemplo queremos comparar la eficacia
de un nuevo medicamento suministrandolo a un grupo de pacientes y compararlo
con otro grupo al que se le suministra un placebo, o, de manera mas general a un
grupo determinado y a otro grupo de control.
10.2.
El test de Kolmogorov-Smirnov
10.2.1.
202
(10.7)
es decir, D es la mayor de las diferencias absolutas entre cada una de las frecuencias acumuladas observadas y esperadas de los n puntos de la muestra (ver figura
10.3). Si los valores observados y esperados son similares, D sera pequena mientras que si hay discrepancias D aumentara. La bondad del ajuste se plasmara en
elegir un nivel de significacion de manera que si Dn < t la hipotesis de que
la muestra proviene de la distribucion H0 se da por valida y en caso contrario se
rechaza. Aqu t estara escogida de manera que la probabilidad de que Dn sea
mayor que t sea menor que , es decir
P (Dn > t ) < .
(10.8)
1X
Fn (x) =
I(xi x)
n i=1
donde I(x), es la llamada funcion indicadora, definida por
1 si xi x
I(xi < x) =
0 en caso contrario,
(10.9)
(10.10)
203
A la hora de calcular Dn hay una cierta ambiguedad entre si tomar las diferencias Fn (x) F0 (x) en la derecha o la izquierda de los intervalos (xj , xj+1 ) ya
que F es necesariamente discontinua (ver figura 10.4). Por eso se suelen tomar las
diferencias por separado
i
Dn+ = max { F0 (xi )}
(10.11)
1in n
y
i1
}
(10.12)
Dn = max {F0 (xi )
1in
n
y despues
Dn = max{Dn+ , Dn }
(10.13)
Figura 10.4: Diferencias por la izquierda y por la derecha para calcular el estadstico Dn (ver
texto).
2 2
P ( nD t) KS(t) = 1 2
(1)j1 e2j t
(10.14)
j=1
204
(10.15)
(10.16)
(10.17)
Por supuesto hoy en da hay maneras de calcular todo esto llamando a algun paquete de programas.
10.2.2.
Al comienzo de esta seccion dijimos que el test de Kolmogorov-Smirnov tambien es popular para evaluar si dos muestras provienen de la misma poblacion,
es decir, para comparar muestras. Supongamos en concreto dos muestras xi de
tamano m e yi de tamano n. La hipotesis nula consiste en suponer que ambas
muestras provienen de la misma distribucion H0 con funcion de distribucion acumulativa F0 . La hipotesis alternativa H1 consiste en suponer que la primera vienen
de la H0 pero la segunda viene de H1 , con funcion de distribucion acumulativa F1 .
En este caso lo que se calcula es el supremo de la diferencia entre las funciones
de distribucion acumulativas empricas F0 y F1 para formar el estadstico
mn
) sup | F0 (x) F1 (y) |
(10.18)
Dmn = (
m + n x,yR
Esta cantidad tiene las mismas propiedades que la Dn considerada antes. El procedimiento a seguir una vez formada Dmn es identico al del caso de una sola
muestra.
205
10.3.
nc nnc
1
1
2
2
(10.19)
10.3.1.
Este test suele emplearse cuando tenemos una variable discreta. Un contexto
tpico es el de una variable x para la cual construimos un histograma tal como en
la figura 10.5.
Supongamos N casillas en el histograma de x y llamemos ni al numero de
sucesos en el la casilla i. Supongamos tambien que sabemos el numero de sucesos
esperado para cada bin, al que llamamos i . Esta cantidad i es la que nos da el
modelo que estamos suponiendo valido, es decir, la distribucion H0 . El test consiste en decidir si los valores observados de x son compatibles con proceder de
una tal distribucion, o por el contrario son significativamente distintos, de nuevo
un problema de bondad de ajuste.
207
N
X
(ni i )2
i=1
(10.20)
Puede demostrarse que esta cantidad sigue una distribucion de tipo chi-cuadrado
con N grados de libertad siempre que las ni sean grandes y esten distribuidas de
acuerdo con la distribucion de Poisson (captulo 2). De ah que sea usual la notacion t 2 . En la practica grande suele tomarse como 5 o mayor. Lo importante
es que esta distribucion es de tipo 2 independientemente de cual es la distribucion que sigue la variable x. Podra ser que no conociesemos algun parametro de
la distribucion H0 . Lo que se hace en este caso es utilizar, si ello es posible, el estimador del mismo a partir de la muestra. Si tenemos k parametros desconocidos
entonces la cantidad t seguira una distribucion de tipo 2 , pero con N k grados
de libertad.
El valor-p de este test viene dado por
Z
p=
f (z; N )dz,
(10.21)
donde f(z;N) es la distribucion 2 para N grados de libertad y t es el valor obtenido con la formula 10.20 a partir de la muestra. En lo que sigue llamaremos 2 a
la variable t como es habitual. Una cantidad usada frecuentemente es el cociente
2 /N (el chi cuadrado por grado de libertad). El valor esperado de esta cantidad es 1, pero es necesario calcular p en cada caso. Por ejemplo para 2 = 15
208
P
ni se supone
P En el ejemplo anterior n =
P que puede fluctuar en torno a
i . Si este no es el caso, es decir, si n =
ni es fijo, lo que se tiene es una
distribucion multinomial de manera que las probabilidades de los distintos bins
sean pi = ni . En este caso
2 =
N
X
(ni pi n)2
i=1
pi n
(10.22)
Figura 10.7: Distribuciones 2 reducidas (es decir, 2 dividido por el numero de grados de
libertad), como funcion de n. Las distintas curvas corresponden a los valores de la probabilidad
indicados en la figura.
(10.23)
(10.24)
mientras los numeros observados en este caso son 90 y 60. De acuerdo con 10.20
210
tendremos
t=
2
X
(ni i )2
i=1
(10.25)
(10.27)
10.3.2.
en presencia de ruido
Confirmacion de una senal
(s + b )n (s +b )
e
n!
(10.28)
Supongamos que hacemos el experimento y observamos nobs sucesos. Sera esta observacion significativa para decir que hemos encontrado una senal, es decir,
que s es distinto de cero? Para responder a esta pregunta calculemos la probabilidad de encontrar nobs o mas sucesos suponiendo que solo hay ruido:
211
P (n nobs ) =
f (n; s = 0, b )
n=nobs
= 1
= 1
nX
obs 1
n=0
nX
obs 1
n=0
f (n; s = 0, b )
bn b
e
n!
(10.29)
Supongamos una situacion concreta en la que b = 0,5 y en la que observemos nobs = 5. La probabilidad anterior (el valor-p) es en este caso p = 1,7 104 .
Es por lo tanto muy improbable que esta observacion sea debida al ruido. Si la
hipotesis de que las observaciones son debidas al ruido es la correcta y repitiesemos el experimento muchas veces, solamente en una fraccion de 1,7 104 de los
casos observaramos 5 o mas sucesos.
Un error que debe ser evitado es el siguiente. Como la distribucion del numero
de sucesos es la de Poisson, y la varianza de la misma es igual ala media, uno estara tentado a decir que el numero de sucesos observado es 5 5. Substrayendo
el ruido tendramos que el numero de sucesos de senal sera ns = 4,5 5. Visto as, este numero no parece ser muy incompatible con cero. El problema viene
de que esta u ltima cantidad es la probabilidad de que nobs fluctue a nb o menor,
mientras que lo que realmente queremos es la probabilidad de que b fluctue a un
valor nobs o mayor.
10.4.
Se denomina test-t de Student a cualquier test de hipotesis donde la distribucion del estadstico de test sigue la distribucion t de Student (introducida en el
captulo 2) cuando la hipotesis nula es cierta.
Este test aparece en varias situaciones. La mas comun consiste en comprobar
si la media de una poblacion, que se supone distribuida de manera gausiana, es
consistente con el valor especificado en la hipotesis nula. Un ejemplo es el que vimos con algun detalle en la seccion 10.1 . El mismo tipo de test tambien aparece
en la comparacion de la media de dos muestras distintas de la misma poblacion,
que se suponen normales. Veamos estos casos en detalle.
212
A. Test si una muestra de n valores de una variable procede de una distribucion normal de media conocida
Este es el caso del ejemplo de la seccion 10.1, que utilizamos para introducir el
concepto de contraste de hipotesis. Si tenemos una muestra de tamano n, (x1 , x2 , ..., xn )
extrada de una distribucion gausiana sabemos que la media
n
xn =
1X
xi
n i=1
(10.30)
xn
/ n
(10.31)
s2n
1 X
(xi xn )2 .
=
n 1 i=1
(10.32)
xn
sn / n
(10.33)
(10.34)
donde r n 1 es el numero de grados de libertad. Es de destacar que esta distribucion no depende ni de ni de y de ah su importancia, como vamos a ver.
La deduccion de la distribucion de la probabilidad anterior es laboriosa y utiliza el
hecho que (n1)s2n sigue una distribucion de tipo 2 , con n1 grados de libertad.
Esta curva es simetrica con respecto a cero. Para estimar los lmites t correspondientes a un cierto nivel de confianza requerimos que
Z t
f (t; r)dt = .
(10.35)
2
213
x
.
s/ n
(10.36)
(10.37)
Dicha probabilidad puede calcularse, encontrase en unas tablas o en algun programa. Tambien puede calcularse a partir de la funcion de distribucion acumulativa
de la distribucion de Student, Fs , pues se cumple que
P (t < t ) = Fs [t ] =
(10.38)
(10.39)
12 22
+
n1 n2
(10.40)
las de la poblacion, con lo que la diferencia entre las medias sera tambien aproximadamente gausiana con una varianza como en 10.40 con s1 y s2 en vez de 1
y 2 .
El caso es mas complicado cuando las muestras son pequenas. Consideramos
dos situaciones distintas:
(1) 12 = 22 = 2 . En este caso puede demostrarse que la variable
t=
x1 x2
s
(10.41)
donde
n1 + n2 (n1 1)s21 + (n2 1)s22
n1 n2
n1 + n2 2
n1
X
1
(xi1 x1 )2
=
n1 (n1 1) i=1
s2 =
(10.42)
s21
(10.43)
s22
1
n2 (n2 1)
n2
X
(xi2 x2 )2
(10.44)
i=1
sigue una distribucion de Student con n1 +n2 2 grados de libertad (ver problema
10.1. La aplicacion del test de Student a t permite aceptar o rechazar la hipotesis
de si ambas muestras tienen o no la misma media.
(2) 12 6= 22 . En este caso puede demostrarse (pero la demostracion es mas complicada que la anterior) que la variable
x1 x2
t= p 2
s1 /n1 + s22 /n2
(10.45)
10.5.
(10.46)
uso mas comun se plantea cuando es necesario comparar las varianzas de dos poblaciones con la misma media, tal como explicamos mas abajo. Pero es tambien
importante en otros tests relacionados con la varianza.
El analisis de varianzas en general es uno de los temas mas importantes de
la estadstica y aparece en muchas situaciones. La varianza es una medida de la
dispersion con respecto a la media. Consideremos el caso particular en el que tomamos dos muestras de distinto tamano de una misma poblacion, descrita por una
densidad de probabilidad con media y varianza dadas. A partir de las muestras
podemos calcular la media y varianza muestrales. Es posible que las medias que
obtengamos sean las mismas pero no as las varianzas. En este caso tenemos que
hacernos la pregunta de si la diferencia entre las varianzas muestrales es consistente o no con el hecho de que las dos muestras tengan un tamano distinto y la
poblacion original tenga una cierta varianza.
Un ejemplo concreto es el que se nos plantea cuando medimos dos muestras
con instrumentos distintos. La varianza de las medidas con uno de los instrumentos sera distinta de la obtenida con el otro. Lo que queremos saber es si la
diferencia es la esperada estadsticamente o si un instrumento es mejor que el otro
(mejor, en el sentido de dar una varianza menor en las medidas). En lugar de la
calidad de un instrumento podramos estar evaluando la efectividad de un determinado medicamento en actuar contra una determinada enfermedad. Es inmediato
establecer un paralelismo entre ambas situaciones.
Para simplificar el tratamiento, supongamos dos poblaciones distribuidas de
manera gausiana y supongamos dos muestras de tamano n1 y n2 respectivamente.
Para cada una de las dos muestras formamos las varianzas muestrales s21 y s22
definidas por
n
s2i
1 X
(xi i )2 .
=
ni 1 i=1
(10.47)
(ni 1)s2i
i2
(10.48)
sigue una distribucion 2 con ni 1 grados de libertad. Para comparar las varianzas
de las muestras calculemos su cociente, llamado F, es decir
216
F =
s21
n2 1 21
m2 21
=
=
s22
n1 1 22
m1 22
(10.49)
donde mi = ni 1.
Si las varianzas muestrales son parecidas, esta cantidad no debera ser muy
distinta a 1. Lo que nos interesa es saber como esta distribuida F y calcular la
probabilidad de que su valor sea mayor o menor que el valor obtenido a partir de
las muestras particulares 1 y 2. Tal como hemos visto en el captulo 5, si tenemos
dos variables z1 y z2 las dos distribuidas de manera 2 con grados de libertad
r1 y r2 , su cociente z = z1 /z2 sigue la distribucion de Fisher con densidad de
probabilidad dada por
2
)
( r1 +r
P (z) = 1 2 1
( 2 r1 )( 2 r2 )
(10.50)
m2
Como lo que queremos es la distribucion de F = m
z podemos hacer un
1
simple cambio de variables para obtener la densidad de probabilidad de F la cual
viene dada por
z
m1
P (F ) = P (z)J( ) = P (z)
F
m2
m1
m1 +m2
m1 m1 ( 2 )
F 2 1
2
P (F ) = ( )
.
2)
m2
( m21 )( m22 ) ( m1 F + 1) (m1 +m
2
(10.51)
(10.52)
m2
Esta distribucion es parecida a una 2 (Figura 2.11). Esta definida para valores
positivos de F y se extiende a +, es una funcion tabulada en muchos libros
y disponible en libreras de programas, al igual que su funcion de distribucion
acumulativa. Una vez que la conozcamos podemos determinar la probabilidad de
que F sea mayor que una cierta cantidad f , de manera que la probabilidad
P (F > f ) = .
(10.53)
Si F > f se dice que 12 > 22 al nivel de significacion . En este ejemplo el test es asimetrico, pero en otros casos estamos interesados en saber si F
esta dentro de un intervalo (f1 , f2 ), es decir si
1
1
P (F > f1 ) = y P (F < f2 ) = .
2
2
217
(10.54)
10.6.
f1
1
F (t)dt = 1
2
f2
F (t)dt = .
(10.55)
El lema de Neyman-Pearson
Cuando el estadstico de test es una sola variable y quedan fijados una vez
especificado tc y las hipotesis H0 y H1 , tal como hemos mencionado en la seccion
10.1. Lo que pretendemos en general es que, una vez fijada (cuyo significado es
en muchos casos la ineficiencia de observar una senal), la cantidad (en muchos
casos el ruido) fuese mnima, o lo que es lo mismo que la potencia de H1 sea
maxima. Si tc es multidimensional, ~t(~x), puede ser complicado elegir la region
crtica de las variables ~x que nos permita optimizar la distincion entre H0 y H1 . El
lema de Neyman-Pearson facilita esta eleccion en terminos de una sola variable
como vamos a ver.
Consideremos en concreto dos hipotesis simples H0 y H1 y supongamos que
existen dos regiones del espacio de la variable (en general multidimensional) ~x,
Rc1 y Rc2 con la misma probabilidad asociada a la hipotesis H0 (nos limitamos
a dos pero podran ser mas). El lema de Neyman-Pearson nos da un criterio para
elegir entre las dos, en el sentido de que para una de ellas la potencia del contraste
de H1 sera maxima, o, equivalentemente, el parametro asociado a la hipotesis
alternativa H1 sera mnimo. Elegir tal region como la crtica nos proporciona por
lo tanto el test mas robusto para discriminar entre las hipotesis H0 y H1 .
El lema de Neyman-Pearson establece que si existe una cantidad c tal que el
cociente
f (~x|H0 )
c para ~x Rc1
=
(10.56)
rc =
c para ~x 6 Rc1 ,
f (~x|H1 )
la region Rc1 es la que corresponde al test mas robusto. Las expresion f (~x|Hi ) es
la llamada funcion de verosimilitud de la muestra calculada con la distribucion de
probabilidad de la hipotesis Hi que introduciremos en detalle en el captulo 11.
Como veremos all la funcion de verosimilitud es el producto de las probabilidades a posteriori de obtener los elementos de la muestra. La fraccion anterior se
218
denomina cociente de verosimilitud. En la practica el cociente anterior puede calcularse directamente en funcion de las variables ~t(~x) obtenidas de la muestra. El
test basado en el cociente de verosimilitud es similar al test para una sola variable
t, donde en este caso la variable es tc = rc .
Figura 10.8: Representacion de las regiones crticas Rc1 y Rc2 del espacio de las ~x0 s, asociadas a
un mismo valor de .
(10.57)
(10.58)
(10.59)
Puesto que las probabilidades asociadas a Rc1 y Rc2 son iguales y la region I es
comun se tendra que
Z
Z
f (~x|H0 )d~x =
f (~x|H0 )d~x.
(10.60)
A
219
(10.61)
Pero al estar B fuera de Rc1 , B 6 Rc1 , la misma igualdad nos dice que
Z
Z
f (~x|H0 )d~x c f (~x|H1 )d~x.
B
(10.62)
10.6.1.
El metodo de Fischer
220
La media de xi
dada por
(k)
Z
=
xi f (~x|Hk )d~x
k = 0, 1
(10.69)
y la matriz de covarianza
Z
(k)
(k)
(k)
Vij = (x i )i (x j )f (~x|Hk )d~x.
(10.70)
(10.72)
(0 1 )2
.
V [t]0 + V [t]1
(10.73)
En esta expresion tanto el numerador como el denominador pueden ser expresados en funcion de ~a. Para el numerador tenemos
(0 1 )2 =
=
n
X
i,j=1
n
X
(0)
(1)
(0)
(1)
ai aj (i i )(j j )
(10.74)
(10.75)
i,j=1
221
donde
Bij = (0 1 )i (0 1 )j ,
(10.76)
n
X
(0)
(1)
(10.77)
i,j
donde
(0)
(1)
(10.78)
J(~a) =
(~a)T B(~a)
.
(~a)T W (~a)
(10.79)
Para hallar el maximo, tendramos que derivar con respecto a los coeficientes
ai e igualar a cero. El resultado es que los coeficientes ~a quedan determinados
salvo una constante multiplicativa arbitraria.
~a W 1 (~)(0) (~)(1) .
(10.80)
10.7.
Problemas
10.1 Probar que la variable t definida en la ecuacion 10.41 sigue una distribucion
de Student con n1 + n2 2 grados de libertad.
10.2 Tenemos una muestra de 20 personas de una poblacion normal y obtenemos
que la media y varianza muestrales son x = 25,5 y s2 = 60,5.
(a) Encontrar el intervalo correspondiente a un nivel de confianza del 99 % para la
media de la poblacion.
(b) Es aceptable la hipotesis de que la varianza de la poblacion es 2 = 50?
10.3 En una poblacion el peso de las personas esta distribuido de manera estandar
con = 3.
222
223
...
224