Vous êtes sur la page 1sur 18

Notas curso Elementos de Estadstica y Probabilidad

Miguel Nakamura y Mara Guadalupe Russell


Agostodiciembre 2007.

ndice
1 Introduccin

1.1 Probabilidad y estadstica . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2 Ejemplos de inferencia estadstica . . . . . . . . . . . . . . . . . . . . . . . .

1.3 Modelacin matemtica . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4 Ejemplos de modelacin matemtica . . . . . . . . . . . . . . . . . . . . . .

11

1.5 Regularidad estadstica . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13

1.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

15

2 Modelos de probabilidad

16

2.1 Espacio muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

16

2.2

-lgebras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

18

2.3 Medida de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

2.4 Espacio de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

2.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

3 Espacios muestrales nitos y numerables


3.1 Espacios nitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1

27
27

Espacios uniformes . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

3.2 Espacios numerables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31

3.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

4 Propiedades de probabilidad

36

4.1 Leyes elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

36

4.2 Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

4.3 Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

44

4.4 Regla de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

47

4.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

49

5 Variables aleatorias

53

5.1 Deniciones bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

53

5.2 Razn de ser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

58

5.3 Variables aleatorias discretas . . . . . . . . . . . . . . . . . . . . . . . . . . .

60

5.4 Variables aleatorias continuas . . . . . . . . . . . . . . . . . . . . . . . . . .

63

5.5 Modelacin de distribuciones de v.a.s . . . . . . . . . . . . . . . . . . . . . .

65

5.6 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

67

5.6.1

Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

68

5.6.2

Interpretaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

70

5.7 Algunas interpretaciones probabilsticas de algunos momentos . . . . . . . .

73

5.7.1

La desigualdad de Chebychev . . . . . . . . . . . . . . . . . . . . . .

73

5.7.2

La ley de los grandes nmeros . . . . . . . . . . . . . . . . . . . . . .

75

5.8 Momentos muestrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

81

5.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

82

6 Familias de distribuciones

85

6.1 Distribuciones discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

89

6.1.1

Distribucin uniforme (discreta) . . . . . . . . . . . . . . . . . . . . .

89

6.1.2

Distribucin binomial . . . . . . . . . . . . . . . . . . . . . . . . . . .

89

6.1.3

Distribucin Geomtrica . . . . . . . . . . . . . . . . . . . . . . . . .

90

6.1.4

Distribucin de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . .

90

6.2 Distribuciones continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

93

6.2.1

Distribucin uniforme (continua) . . . . . . . . . . . . . . . . . . . .

93

6.2.2

Distribucin exponencial . . . . . . . . . . . . . . . . . . . . . . . . .

93

6.2.3

Distribucin normal . . . . . . . . . . . . . . . . . . . . . . . . . . . .

94

6.2.4

Distribucin Gumbel . . . . . . . . . . . . . . . . . . . . . . . . . . .

95

6.2.5

Distribucin log-normal . . . . . . . . . . . . . . . . . . . . . . . . .

96

6.3 Ajuste de distribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

96

6.3.1

Notas sobre el proceso de modelacin . . . . . . . . . . . . . . . . . .

96

6.3.2

Histogramas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

6.3.3

Estimacin por el mtodo de momentos . . . . . . . . . . . . . . . . . 103

6.3.4

Comparacin grca de histogramas con densidades ajustadas . . . . 108

6.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109


7 Introduccin a inferencia estadstica

112

7.1 Modelos estadsticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112


7.2 Razn de ser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.3 Estadstica: mitos y realidades . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.4 Estadsticas y distribuciones muestrales . . . . . . . . . . . . . . . . . . . . . 120
7.5 Distribuciones muestrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
7.5.1

Distribucin muestral de X n . . . . . . . . . . . . . . . . . . . . . . . 122

7.6 Formulacin de problemas estadsticos: estimacin y pruebas de hiptesis . . 125


7.7 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
8 Estimacin y pruebas de hiptesis paramtricas

133

8.1 Estimacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133


8.2 Estimacin puntual de un parmetro . . . . . . . . . . . . . . . . . . . . . . 135
8.2.1

Propiedades de estimadores puntuales . . . . . . . . . . . . . . . . . . 138

8.3 Estimacin por intervalos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140


8.3.1

Intervalos para la media de una distribucin normal . . . . . . . . . . 142

8.3.2

Intervalos de Wald . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145

8.3.3

Intervalos para medias, muestras grandes . . . . . . . . . . . . . . . . 146

8.3.4

Intervalos para proporciones, muestras grandes . . . . . . . . . . . . . 147

8.3.5

Problemas de diseo . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

8.3.6

Funciones de estimadores puntuales . . . . . . . . . . . . . . . . . . . 149


3

8.4 Pruebas de hiptesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151


8.4.1

Pruebas de hiptesis: analoga con un juicio y con peleas de box . . . 152

8.4.2

Deniciones bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

8.4.3

Pruebas de hiptesis para muestras grandes . . . . . . . . . . . . . . 160

8.4.4

p-valores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

8.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163


9 Referencias bibliogrcas

165

donde ^ =

1
.
Xn

Hemos visto intervalos de conanza para muestras grandes, incluyendo el importante caso
de estimacin de proporciones. Esto es lo que abarcaremos en el presente curso introductorio.
Cabe mencionar que existen muchas situaciones que no hemos cubierto con lo anterior, que
tendran que ser objeto de cursos adicionales de estadstica matemtica. Entre ellas, debe
tomarse en cuenta que:
Observacin:
No siempre n es grande.
No siempre ^ es aproximadamente normal, aunque n s sea grande.
No siempre dim( ) = 1.
No siempre X1 ; : : : ; Xn son i.i.d.
No siempre se conoce la distribucin muestral de ^.

8.4

Pruebas de hiptesis

Recordemos que el problema de prueba de hiptesis surge de preguntarse si el modelo de


probabilidad que rige al fenmeno de inters se encuentra o no se encuentra en un conjunto preestablecido de modelos. Consideraremos el caso de hiptesis paramtricas. Sea
ff (x; )j 2

g el modelo estadstico bajo consideracin, y sea

el valor del parmetro

(desconocido) que corresponde al fenmeno aleatorio de inters. Suponemos que el modelo estadstico est correctamente especicado, es decir que cumple
1
0;

. Sean

dos subconjuntos del espacio paramtrico (es decir, dos modelos estadsticos) tales que
1

= . El problema es discernir la plausibilidad de

en informacin contenida en una muestra aleatoria.

151

1,

con base

8.4.1

Pruebas de hiptesis: analoga con un juicio y con peleas de box

Pretendemos aqu ilustrar conceptos bsicos de pruebas de hiptesis, recurriendo a analogas


que no son de estadstica ni de matemticas. En un juicio en el que hay un acusado hay dos
hiptesis:

H0 : inocente
H1 : no inocente:
Es un hecho de que existe incertidumbre acerca de cul sea la verdad, por lo que un juicio
debe procurar reducir la incertidumbre al mximo para emitir una resolucin. El objetivo
del juicio es determinar si la evidencia es suciente para rechazar la inocencia del acusado.
En este proceso existen dos posibles errores que el juez puede cometer:
Error de Tipo I : rechazar inocencia cuando se es inocente;
Error de Tipo II : no rechazar inocencia cuando no se es inocente:
Es importante sealar que por razones ticas, es muy claro que cometer error de Tipo I
es mucho ms grave que cometer error de Tipo II.
Una prueba de la hiptesis lo constituye el juicio. En este contexto legal, se examina
evidencia, se realiza el juicio, y se da una sentencia (rechazar o no rechazar H0 ).
En el contexto estadstico, se examinan datos, se realiza una prueba, y se realiza una
conclusin (rechazar o no rechazar H0 ).
Cul es la posibilidad de cometer error del Tipo I? En el juicio, no se puede cuanticar,
aunque por ser el ms grave de los dos tipos de error, se espera que esta posibilidad sea
remota. En la prueba estadstica, se cuantica con un concepto llamado nivel, y se denota
por

= P (cometer error del tipo I). La probabilidad de cometer error del tipo II se denota

por

= P (cometer error del tipo II).


Por qu no hacer ambos tipos de error arbitrariamente pequeos, digamos

= :00001

= :00000000001? Porque si uno disminuye, el otro crece! Veamos un ejemplo en el

contexto legal. Supongamos que hay dos jueces, que actan de manera distinta.

152

Juez #1: rechaza inocencia () existe un videotape que muestra al acusado cometiendo
el crimen
Juez #2: rechaza inocencia () no existe coartada (testigo que diga que el acusado no
estuvo presente en la escena del delito)
Es muy raro que si alguien es inocente, exista un videotape de l cometiendo el delito.
Por lo tanto, el Juez #1 comete poco error del Tipo I. Pero, como existen muchsimos delitos
que no estn capturados en videotape, entonces comete muchsimo error de Tipo II.
En cambio, el Juez #2 comete poco error del Tipo II, porque si alguien es culpable ser
muy raro que exista un testigo que pueda dar la coartada. Pero, comete muchsimo error
del Tipo I porque muchos inocentes no podrn producir coartada, por ejemplo si estaban
en su casa durmiendo a solas. En estadstica, los jueces sern estadsticas de prueba, y los
veredictos se basarn en una regla muy clara que determine si H0 debe o no rechazarse a la
luz de los datos.
No es posible hacer arbitrariamente pequeos ambos tipos de error. Por lo tanto en
estadstica matemtica se adopta la siguiente losofa de operacin:
1. Fijar

de antemano.

2. Minimizar :
El usuario de una prueba estadstica estipula entonces

; la probabilidad tolerable del

peor de ambos tipos de error, y una vez controlado ste, procede matemticamente a buscar
pruebas que minimicen : Note que esto hace que el intercambio de roles entre H0 y H1 no
d lugar a una situacin simtrica, es decir, si se intercambian las hiptesis, no rechazar H0
no sera del todo equivalente a rechazar H1 : La razn es que al intercambiar los roles, se
invierten los errores I y II, o sea que la losofa de operacin arriba descrita, dictara jar ;
para luego minimizar . Equivalentemente, actuara como si el ms grave de los dos tipos
de error fuera el de Tipo II.
Note que jams se usa el verbo aceptar. La prueba rechazao no rechazaH0 pero
no se habla de aceptar. El no rechazar H0 no signica que se acepta H0 ; ni el rechazar
H0 signica que se acepta H1 : El no rechazar H0 simplemente signica que no hay evidencia
en los datos en contra de H0 : Rechazar H0 signica que hay evidencia en su contra, pero no
constituye demostracin ni argumento incuestionable de que H1 sea cierta. La hiptesis H0
153

representa el estado de creencia actual, y H1 representa la alternativa con la que se contrasta


H0 . En el juicio se dice el acusado es inocente hasta que no se encuentre evidencia de lo
contrario, y no se dice el acusado es culpable mientras no demuestre su inocencia.
Otro punto muy importante que merece notar es el siguiente: si fuera tajantemente
prohibido cometer error de Tipo I en un juicio, simple y sencillamente no habra juicios
porque el nico modo de garantizar que nunca se cometa error de Tipo I es no realizar
juicio alguno. La sociedad y el sistema jurdico toleran un (pequeo) margen de tolerancia
para cometer error de Tipo I. Igualmente, en estadstica, si se insistiera en que

= 0,

las pruebas de hiptesis nunca rechazaran H0 , provocando un correspondiente valor de


inaceptablemente alto.
Note adems que no se habla simplemente de rechazar H0 a secas, sino de rechazar
H0 a favor de H1 , es decir, es posible que una H0 se rechace cuando la alternativa es H1
pero que no se rechace cuando la alternativa es H10 :
Las pruebas de hiptesis se emplean en ciencia para obtener evidencia experimental que
sustente alguna hiptesis cientca, H. En tal caso, hay dos posibilidades: colocar la hiptesis
H en la nula, H0 , o colocarla en la alternativa, H1 . Si H0 = H, entonces el sustento de H
debe interpretarse como no rechazar H0 , y si H1 = H, entonces el sustento a favor de H
es rechazar H0 a favor de H1 . Sin embargo, para sustentar una hiptesis, desde el punto
de vista lgico es mucho ms fuerte rechazar H0 a favor de H que dejar de rechazar H a
favor de una alternativa. La explicacin es que si se pone H0 = H, siempre quedar la duda
en que si la razn por la cual H0 haya podido dejarse de rechazar, es porque la alternativa
que se le puso enfrente es un contrincante dbil. En contraste, si H0 representa el estado
actual de la naturaleza, y la evidencia emprica muestra que H0 debe rechazarse a favor de
H, esto constituye una base mucho ms slida a favor de H. En resumen, cuando el objetivo
es sustentar una hiptesis con datos experimentales, sta debe colocarse en la alternativa,
siendo un rechazo de H0 un argumento de mayor contundencia a favor de H. Este diferencia
de fuerza entre no rechazar y rechazar tambin puede ilustrarse con campeonatos de
boxeo. Si H0 es el campen del mundo (el estado actual de la naturaleza), y H1 es el
retador, ocurre un hecho muy espectacular el da en que H1 vence a H0 . En este caso sucede
que se baja del trono al campen mundial para ser ocupado por un nuevo peleador, quien
154

ahora se ostenta como el campen mundial. En cambio, si en una pelea, el campen mundial
H0 deende su cetro y gana, esto constituye un argumento ms dbil para su carcter de
campon mundial, pues su victoria puede deberse simplemente a que su retador, H1 era un
peleador dbil. Es decir, es ms contundente bajar del trono al campen (rechazar H0 ) que
ganar una defensa del cetro (dejar de rechazar H0 ).
A propsito de peleas de box, notemos tambin que aun en el caso de que H0 sea vencido
por H1 , que esto no demuestra que H1 es el mejor peleador del mundo. Simplemente denota,
que a partir de ahora, mientras no se demuestre lo contrario, lo es. En ciencia, hay instancias
de este razonamiento. Por ejemplo, la mecnica de Newton fue alguna vez H0 , el estado actual
del conocimiento, hasta que vino un retador llamado Einstein, quien con una H1 llamada
teora de relatividad, desbanc a la mecnica de Newton (para velocidades cercanas a la de
la luz). Hoy da, la teora de relatividad ocupa el lugar el H0 . El hecho de haber desbancado
a la mecnica de Newton no demuestra que la teora de relatividad es cierta. Es posible que
en un futuro se descubran fenmenos que no son explicados por la teora de relatividad, que
se elabore una nueva teora, que se contraste experimentalmente, y que se concluya rechazar
relatividad a favor de la nueva teora. Hoy da, no sabemos si existe o no esta teora nueva,
por lo que la actitud cientca es que la relatividad sigue valiendo mientras no se demuestre
lo contrario, es decir, que es el actual campen del mundo (o estado actual del conocimiento).
8.4.2

Deniciones bsicas

Hiptesis Es una suposicin acerca de los valores de los parmetros. Como se trata de una
suposicin fraseada en trminos de los parmetros, matemticamente una hiptesis es
un subconjunto de valores del espacio paramtrico. Ejemplos de hiptesis fraseadas
son = 0,

2, y p > 1=2, y en trminos de subconjuntos se trata de f0g,

( 1; 2], y (1=2; 1], respectivamente. Las hiptesis deben tener existencia previa, aun
antes de observar datos. Los valores del parmetro formulados en las hiptesis deben
de tener un signicado especial que los distinga de los dems valores. Por ejemplo,
p = 1=2 en el lanzamiento de una moneda tiene el signicado especial de ser honesta, y
cualquier otro valor carece de un signicado tan distintivo. De hecho, la toma de datos
se concibe precisamente para confrontar una hiptesis preestablecida con la realidad.
155

Un razonamiento a la inversa, es decir, examinar alguna estructura o patrn en los


datos y luego formular una hiptesis estadstica, resulta ilgico e indebido, pues de
hecho puede dar lugar a la manipulacin de resultados24 .
Hiptesis nula (H0 ) Es la hiptesis que se desea probar, la que se supone cierta hasta
que los datos sugieran lo contrario. Se puede interpretar como el estado actual de la
naturaleza, o la suposicin vlida de entrada (ver ejemplos ms adelante).
Hiptesis alternativa (H1 ) Es la hiptesis a favor de la cual se rechaza H0 si es que la
evidencia lo sugiere.
Hiptesis simple Es una hiptesis que se compone de un solo elemento.
Hiptesis compuesta Es una hiptesis que se compone de ms de un elemento.

Ejemplo 8.113 H0 :

= 0 vs. H1 :

6= 0. La nula es simple, y la

alternativa es compuesta.
24

Lo anterior es muy importante sealarlo. Es muy comn cometer el error de formular una hiptesis

conforme los resultados de muestreo, quizs porque se confunde el problema de estimacin con el problema
de prueba de hiptesis. Si tras realizar muestreo se obtiene un valor estimado puntual para la media igual a
2:5, resulta improcedente formularse la hiptesis

= 2:5. Este sera un ejemplo de una hiptesis formulada

con base en una muestra. Las hiptesis son suposiciones acerca de los parmetros que tienen algn signicado
cientco relevante, al margen de los datos que se hubieran podido obtener. Por ejemplo, la hiptesis

= 2:5

podra ser relevante si la constante 2:5 describiera la media de calibracin nominal que debera tener una
mquina industrial (ver Ejemplo 7.6). En ocasiones, las hiptesis planteadas pueden ser muestreos disfrazados
indebidamente de hiptesis. En el Ejemplo 7.6, no es claro en la formulacin si la constante 18.7 que aparece
en la hiptesis, es o no es a su vez producto de un problema de estimacin previamente resuelto. Si es as,
el problema sigue siendo de prueba de hiptesis. Pero la hiptesis se debera formular en trminos de la
diferencia entre dos medias (la del tratamiento original y la del tratamiento nuevo), en lugar de formularse
en trminos de la segunda media nicamente. En el Ejercicio 1 hay una situacin similar, en la que concierne
a la secretara de estado que intenta determinar si el desempleo ha cambiado con respecto al valor de 6%
que se obtuvo en el trimestre anterior. Si el 6% fue producto de estimacin estadstica, es un error formular
la hiptesis como p = :06. Si el 6% fue producto, por ejemplo, de haber estudiado exhaustivamente una
poblacin para determinar el desempleo, entonces la hiptesis p = :06 adquiere un signicado completamente
distinto.

156

Ejemplo 8.114 H0 : p = 1=2 vs. H1 : p > 1=2. La nula es simple, y la


alternativa es compuesta.

Ejemplo 8.115 H0 : p = 1=2 vs. H1 : p = 1=4 (no siempre se cumple que


H0 y H1 sean complementarias). Nula y alternativa son simples.

Ejemplo 8.116 Una moneda, es o no balanceada? Mientras no me digan


lo contrario, y mientras sta no se vea obviamente deformada, se supone que
s. Entonces H0 : p = 1=2. En este sentido, H0 es el estado actual de la
naturaleza.

Ejemplo 8.117 Un medicamento es mejor que el medicamento actual?


Mientras no se demuestre lo contrario, la suposicin de entrada es que el
medicamento es a lo ms igual que el actual. Note adems otro punto: cometer error de tipo I en este contexto implica lanzar al mercado un medicamento
siendo que en la realidad no es mejor, mientras que error de tipo II implica
dejar de lanzar al mercado un mejor medicamento. Desde el punto de vista
de relevancia para la salud, aqu es ms grave el error de tipo I.

Ejemplo 8.118 En un juicio, se dice que uno es inocente hasta que se


demuestre lo contrario. La inocencia es una hiptesis nula. Es la suposicin
que se supone vlida de entrada. La culpabilidad es la hiptesis alternativa.
Como vimos, el error de tipo I es ms grave que el error de tipo II.

Prueba de hiptesis Una prueba de hiptesis consiste de examinar evidencia en forma


de datos, para dar lugar a una de dos resoluciones posibles: Rechazar H0 a favor de
157

H1 , o no rechazar H0 . Bajo este planteamiento, hay dos tipos de error que se pueden
cometer:
Error de Tipo I Se comete cuando se resuelve rechazar H0 a favor de H1 siendo que H0
es cierta.
Error de Tipo II Se comete cuando se resuelve no rechazar H0 cuando H0 es falsa.
La denicin de errores de tipo I y II no es simtrica, en el sentido de que si se invierten
los roles de las hiptesis, que se invierten los tipos de error. La situacin asimtrica se
da porque en general, la teora estadstica considera las hiptesis de tal forma que el
error de tipo I es ms grave que el error de tipo II.
Prueba estadstica de una hiptesis Consiste de dos cosas: (i) elegir una estadstica
T = T (X1 ; : : : ; Xn ) llamada la estadstica de prueba, y (ii) determinar un subconjunto
de valores posibles de T , llamado la regin crtica, C, de la prueba. La regla a utilizar
es: rechazar H0 si y slo si T 2 C. Cuando T 2 C se dice que la prueba es signicativa,
y cuando T 2
= C se dice que la prueba es no signicativa. Note que una prueba
estadstica queda determinada por dos cosas: la estadstica de prueba, T , y la regin
crtica, C. La regin crtica no depende de la muestra X1 ; : : : ; Xn , lo que quiere decir
que aun antes de tomar la muestra, la regin crtica tiene existencia propia. Los datos
intervienen para tomar o no la resolucin de rechazar H0 , lo cual se realiza con la
regin crtica, al comparar el valor de T con el conjunto C. En resumen, una prueba
de hiptesis consta de dos ingredientes, y se caracteriza por la pareja (T; C).

Ejemplo 8.119 Suponga X1 ; : : : ; X20

Ber(p). Una moneda es legal? Las

hiptesis son H0 : p = 1=2 vs. H1 : p 6= 1=2. Suponga que se adopta como


P
estadstica de prueba a T = ni=1 Xi . Cul es una regin crtica razonable?

Parecera ser razonable C = f0; 1; 2; 3; 4; 5g[f15; 16; 17; 18; 19; 20g. Note que

si H1 hubiera sido H1 : p > 1=2, entonces la regin crtica sensata hubiera


sido entonces C = f15; 16; 17; 18; 19; 20g. Es decir, el conjunto C depende
de H1 .

158

Nivel de signicancia de una prueba ( ) Se dene como la probabilidad de cometer


error del Tipo I.
Potencia de una prueba Se dene como 1

, donde

es la probabilidad de cometer

error del Tipo II.


La teora estadstica asume la siguiente actitud para determinar una prueba (T; C).
Primero, presupone que el valor de

est predeterminado. Este valor representa la can-

tidad de error de tipo I que se est en la disposicin de cometer. Acto seguido, se determina
la estadstica T y la regin crtica C de tal manera que la prueba resultante tiene nivel
tal que la probabilidad de error de tipo II se minimiza.

Ejemplo 8.120 Suponga que un laboratorio desarrolla una droga para aumentar
la concepcin de varones. La hiptesis nula es H0 : p = 1=2; donde p es la
probabilidad de concebir un varn, y la hiptesis alternativa es H1 : p > 1=2. Se
toma una muestra de n sujetos de prueba a los que se les administra la droga, y
se registra si concibieron o no un varn. La muestra es entonces
X1 ; : : : ; Xn
donde cada Xi

Ber(p): Sea
Tn =

n
X

Xi :

i=1

Es natural interpretar valores grandes de Tn como evidencia en contra de H0 y


a favor de H1 : Suponga que n = 5 (para poder hacer cuentas fcilmente) y que
se resuelve rechazar H0 si y slo si Tn 2 f4; 5g: El conjunto C = f4; 5g recibe el
nombre de regin crtica, y la variable aleatoria Tn recibe el nombre de estadstica
de prueba. Cul es el nivel de esta prueba? Cul es la probabilidad de cometer
error del tipo II, bajo la suposicin p = :7?

Ejemplo 8.121 En el ejemplo anterior, considere una regin crtica de la forma


C = [c; n], utilizando la misma estadstica de prueba y el mismo juego de hiptesis
159

nula y alternativa. Cul es el valor de c que debe emplearse a manera de que el


nivel de la prueba sea a lo ms 0:15?

Ejemplo 8.122 Notacin: P (Tn 2 C) como funcin de p se denota por (p);


y se llama funcin de potencia de la prueba (Tn ; C): Cul es la grca de la
funcin

8.4.3

en el ejemplo anterior?

Pruebas de hiptesis para muestras grandes

A continuacin se anotarn, a manera de formulario, pruebas de hiptesis (es decir, estadsticas de prueba y regiones crticas) para pruebas de hiptesis acerca de medias y proporciones.
El enfoque ser presentar de entrada las pruebas, sin derivarlas aqu a partir de teora estadstica. Posteriormente, haremos algunos comentarios acerca las propiedades matemticas que
tienen estas pruebas. En la formulacin de hiptesis, interviene en lo general una constante
que dene las hiptesis. Por ejemplo, las hiptesis H0 :

= 2:5, H1 :

> 2:5, H0 :

etc. para medias, y las hiptesis H0 : p = :50, H1 : p > :25, H0 : p


proporciones. En lo sucesivo, usaremos la notacin

5,

:75, etc. para

y p0 para denotar a constantes que

denen hiptesis. Por ejemplo, las hiptesis anteriores pueden ser denotadas genricamente
como H0 :

0,

H1 :

>

0,

H0 :

0,

H0 : p = p0 , H1 : p > p0 , H0 : p

p0 , etc.

Estadsticas de prueba Como antes, X1 ; : : : ; Xn denota la muestra aleatoria. Recorq


P
P
damos que X n = (1=n) ni=1 Xi , Sn = (1=n) ni=1 (Xi X n )2 , y que p^ = # xitos
cuando
n

se trata de muestreo Bernoulli (en este caso, p^ = X n ). Las estadsticas de prueba sern:
Xn
p 0 , para pruebas relativas a una media, y
Sn = n
p^ p0
= q
, para pruebas relativas a una proporcin.

Tn =
Tn

p0 (1 p0 )
n

Regiones crticas Las siguientes tablas resumen la forma de la regin crtica, C, dependiendo de la forma que tienen las hiptesis nulas y alternativas, de tal manera que el nivel
de las pruebas que resultan, es la constante :
160

H0

regin crtica, C

H1

6=

jTn j > z

>

Tn > z

<

>

<

Tn <

Tn > z
Tn <

regin crtica, C

H0

H1

p = p0

p 6= p0

jTn j > z

p > p0

Tn > z

p < p0

Note que el valor de

=2

p0

p > p0

p0

p < p0

Tn <

=2

Tn > z
Tn <

es seleccionable a travs de las constantes z o z

=2 ,

dependiendo

del caso. Los puntos de corte que denen a la regin crtica se llaman puntos crticos. La
prueba cuya regin crtica es jTn j > z

=2

recibe el nombre de prueba de dos colas, y las

dems, pruebas de una sola cola. Note que el ser de una cola o de dos colas, es funcin de la
hiptesis alternativa. Note adems que si una prueba rechaza a nivel , y
la prueba tambin rechaza a nivel
8.4.4

> , entonces

p-valores

La teora estadstica sobre la que se basa el discurso para pruebas de hiptesis, que recibe
la denominacin de Teora de Neyman-Pearson, establece que dada una muestra y un nivel,
, que el resultado de la prueba es binario, en el sentido de concluir rechazar H0 o no
rechazar H0 . Esto es criticable. Supongamos que el valor crtico de una prueba fuera 1:96,
la regin crtica de la forma Tn > 1:96, y datos en dos situaciones diferentes dieran lugar a
valores de la estadstica de prueba Tn = 2:35 y Tn = 7:29. La actitud de Neyman-Pearson
dira simplemente, en ambos casos, rechazar H0 , siendo que es intuitivamente claro que
ambas situaciones son diferentes en alguna cualidad. En el segundo caso, se rechaza con
mayor fuerza que en el primero, y al decir slo rechazar H0 no involucramos esta fuerza
161

de la evidencia en contra de H0 . El concepto de p-valor tiene por objeto cuanticar la fuerza


con la que se rechaza una hiptesis nula. Se describe a travs de una probabilidad. Tiene
la interpretacin de ser la probabilidad de haber observado un valor ms extremoso de
la estadstica de prueba que ya se observ, o bien, la probabilidad de haber rechazado H0
slo por azar. De esta forma, un p-valor grande denota que la evidencia en contra de H0 es
dbil, y un p-valor chico denota que los datos contienen mucha evidencia en contra de H0 .
En este sentido de p-valores, podramos no hablar de pruebas de hiptesis, sino de pruebas
de signcancia, donde la cuanticacin del concepto abstracto de signicancia es el p-valor.
Sea tn el valor ya observado y calculado de la estadstica de prueba Tn . La denicin de
p-valores se resume en la siguiente tabla. La tercera columna, en trminos de la distribucin normal estndar, obedece al caso que nos ocupa de muestras grandes, en la cual la
distribucin relevante es la normal:
regin crtica, C
jTn j > z

=2

Tn > z
Tn <

p-valor
P (jTn j > jtn j)
P (Tn > tn )
P (Tn < tn )

p-valor en trminos de
1

(jtn j) + ( jtn j)
1

(tn )
(tn )

Ejemplo 8.123 Cuando un mago nos adivina la carta, hemos hecho inconscientemente el uso de una prueba de hiptesis estadstica, incluyendo el concepto de
p-valor. Para el mago, hay dos hiptesis, H0 : el mago adivina por mero azar, y
H1 : el mago tiene poderes que le ayudaron a adivinar. Se realiza un experimento,
se observa el resultado, y el pblico se asombra de que el mago haya adivinado
la carta. Por qu razn el pblico se asombra, es decir, rechaza H0 en lugar de
no rechazar H0 y concluir que fue simple suerte que favoreci al mago? Porque
el p-valor asociado es 1=52, lo cual el pblico considera sucientemente chico
como para interpretar que el hecho de que se haya adivinado la carta constituye
evidencia experimental a favor de H1 .

162

Ejemplo 8.124 Si el mago nos adivina la carta, cuando el mazo consiste de slo
3 cartas en lugar de 52, no nos asombraramos tanto, porque el p-valor es 1=3, lo
cual es grande como para concluir que H0 debe rechazarse contundentemente.

Los ejemplos anteriores indican que para nes de entretenimiento, un p-valor de :0192 es
sucientemente chico como para rechazar H0 . Pero dependiendo del contexto, es posible que
este valor no sea admisible. Por ejemplo, en un ensayo clnico para determinar la bondad de
un tratamiento mdico, un p-valor de 0:001 puede an considerarse como grande.

8.5

Ejercicios

1. Considere cada uno de los estimadores por el mtodo de momentos para cada una de las
familias de distribuciones cubiertas en la Seccin 6.3.3 y determine si los estimadores
resultantes, vistos como estimadores puntuales, son insesgados y consistentes.
2. Use tablas de distribucin normal estndar para comprobar que z:005 = 2:576, z:01 =
2:326, z:025 = 1:960, z:05 = 1:645, z:10 = 1:282, y z:25 = :674.
3. Demuestre que

( z )= .

4. Verique la siguiente interpretacin: si el intervalo de conanza es exitoso en cubir a


, entonces la distancia entre ^ y

es a lo ms el margen de error.

5. En un experimento psicolgico, los individuos reaccionan A o B. El experimentador


desea estimar p =proporcin de gente que reacciona como A. Cuntos sujetos de
prueba debe incluir para estimar p con conanza 90% con un margen de error de 4%,
si a) sabe que p es alrededor de 0:2, y b) no tiene idea acerca de p?
6. Un investigador sabe que en una poblacin,

= 18. Desea estimar

con conanza

95% y error de estimacin 2:5. Qu tamao de muestra debe emplear? Si

fuera la

mitad, en cuanto se reduce el tamao de muestra?


7. Suponga que ^ = 32:86, y que n = 150. Encuentre un intervalo de 95% de conanza
para la probabilidad P (X > 40).
163

8. Considere el modelo N( ; ). Suponga que es de inters el valor de k

, donde k es una

constante positiva, dada. Use el mtodo delta para encontrar un intervalo de conanza
para k

, con base en el estimador puntual para , ^ = X n .25

9. Determine el signicado geomtrico de p-valor, considerando casos de pruebas de dos


colas y de una cola (izquierda y derecha).
10. Demuestre que una hiptesis se rechaza a nivel

si y slo si el p-valor correspondiente

es menor que .
11. Demuestre que el p-valor es el nivel ms chico al que se hubiera rechazado la hiptesis
nula con los datos dados.

25

Un ejemplo de esta situacin es la siguiente: por leyes de mecnica, se sabe que la distancia recorrida

(d, en metros) en cada libre despus de t segundos es d = 9:81t2 =2. Suponga entonces que se tienen
observaciones X1 ; : : : ; Xn tales que son observaciones de N(t; ). Luego, el ejercicio proporciona un intervalo
de conanza para la distancia recorrida.

164

Vous aimerez peut-être aussi