Vous êtes sur la page 1sur 42

ESTIMACION DE PARAMETROS

La estadstica descriptiva tal como la hemos visto hasta aqu, no requiere de la teora de
probabilidades para describir el conjunto de datos x" ,x# ,...,xn . Como su nombre lo indica, slo son
tcnicas para describir, sin importar el orgen de los datos. En particular, no se hace ningn intento
para generalizar ms all de la informacin que se tiene en ese momento. La inferencia estadstica,
sin embargo, est fundamentalmente interesada en la poblacin, fuente u origen de los datos. Ella
supone que los nmeros x" ,x# ,...,xn son valores observados de variables aleatorias, los que han
sido recolectados como resultados de realizar, por ejemplo, un experimento que sigue un modelo
probabilstico. Este modelo probabilstico puede entonces ser utilizado para realizar inferencias
acerca del fenmeno estudiado en el experimento.

1.1. Propsito de la Inferencia Estadstica


Cuando hablamos de obtener conclusiones respecto de una poblacin particular, nos estamos
refiriendo a algunas caractersticas distribucionales de la poblacin. Especficamente, nos
referimos a algunos parmetros que caracterizan la distribucin poblacional. Esto significa que la
inferencia en cuestin ser relativa a un conjunto de parmetros poblacionales. De aqu que se
habla tambin de inferencia paramtrica
Como un ejemplo, supongamos que una estudiante de ingeniera tiene clases de Estadstica a las 8
AM los das Lunes, Mircoles y Viernes y hay una probabilidad ) (desconocida) de que ella llegue
atrasada a la clase en cualquiera de estos das. La llegada a esta clase cada da podemos pensarla
como un ensayo Bernoulli, donde xito corresponde al hecho de llegar atrasada a la clase de
Estadstica. Si consideramos que estos ensayos son independientes, para una sucesin de n das de
clases observamos X" , X# ,..., Xn variables aleatorias Bernoulli independientes, cada una de
parmetro ), donde Xi = 1 si la estudiante llega atrasada en el da i y Xi = 0 si no. Cmo esta
sucesin de ceros y unos podemos utilizarla para obtener informacin acerca de ), la probabilidad

de llegar atrasada a su clase de Estadstica cada da?. En este caso !xi corresponde al nmero de
n

i"

das, del total de n, en que ella llega atrasada, por lo que parece intuitivamente claro que
x =

!xi /n sera una buena aproximacin para ).


n

i"

En este ejemplo hemos observado valores de variables aleatorias independientes X" , X# ,..., Xn ,
donde cada una de las Xi tiene la misma distribucin de probabilidades. En estos casos hablamos
de muestra aleatoria de tamao n, un concepto que ya habamos adelantado en la Seccin 4.9.
Formalmente, y a modo de recuerdo, si X" , X# ,..., Xn son variables aleatorias independientes y
estn idnticamente distribudas, cada una con la misma distribucin de alguna variable aleatoria
X, entonces llamamos a X" ,X# ,...,Xn una muestra aleatoria (m.a.) de la variable aleatoria X.
1

Si X" , X# ,..., Xn es una muestra aleatoria de una variable aleatoria X, entonces se acostumbra a
llamar a X variable aleatoria poblacional o sencillamente poblacin.
_ ( X" , X# ,..., Xn ) es una muestra aleatoria, entonces su distribucin de
Por otra parte, si X=
probabilidades conjunta est completamente especificada por sus distribuciones marginales. Esto
es.
fX_ (x" ,x# ,...,xn ) = fX1 (x1 ).fX2 (x2 ).....fXn (xn )
= fX (x1 ).fX (x2 ).....fX (xn )
si X es una variable continua y
pX_ (x" ,x# ,...,xn ) = pX1 (x1 ).pX2 (x2 ).....pXn (xn )
= pX (x1 ).pX (x2 ).....pX (xn )
si X es una variable discreta.
Los valores observados x" , x# ,..., xn son llamados valores de la muestra aleatoria seleccionados
desde la poblacin en estudio.
La definicin que estamos manejando para una muestra aleatoria no es vlida para poblaciones
finitas, cuando por ejemplo n nmeros son seleccionados al azar y sin reemplazo desde una
poblacin de tamao N (N n); sin embargo, si una muestra de tamao n se selecciona al azar,
sin reemplazo, desde una poblacin finita y n es pequeo comparado con N, entonces X" , X# ,...,
Xn , satisface, aproximadamente, la definicin de muestra aleatoria.
Cuando X" , X# ,..., Xn es una muestra aleatoria de una poblacin X, y conocemos la distribucin
de probabilidades de X, entonces conocemos tambin la distribucin conjunta de X" , X# ,..., Xn y
podemos evaluar inmediatamente la distribucin de cada Xi . Generalmente, por supuesto, uno o
ms aspectos de la distribucin de probabilidades para la poblacin sern desconocidos para
nosotros, por ejemplo l o los parmetros que caracterizan a la distribucin o incluso podemos
desconocer la densidad o funcin de probabilidad, y por lo tanto, debemos slo suponer que X" ,
X# ,..., Xn son independientes y nuestra interrogante es saber si tienen alguna distribucin
especfica conocida, tal como una distribucin normal, exponencial etc. Nuestro propsito en la
inferencia, es utilizar los elementos de la muestra para determinar todos los aspectos desconocidos
de nuestro inters, en la mejor forma posible, al considerar la distribucin de probabilidades de la
poblacin.
Veremos que ciertas funciones de los elementos de una muestra aleatoria tales como
!Xi
n

X =

i"

(Media Muestral)

S# =

n
!(Xi
X)#

i"

n 1

(Varianza Muestral)

Xn = Mximo (X" ,X# ,...,Xn )


X" = Mnimo (X" ,X# ,...,Xn )
sern muy tiles en la inferencia estadstica.
Definicin. Cualquier funcin de los elementos de una muestra aleatoria que no dependa de algn
parmetro desconocido se llama estadstico.
Los estadsticos son, por lo tanto, variables aleatorias, cuyos valores observados pueden ser
evaluados despus que los valores observados para X" ,X# ,...,Xn son conocidos. Como de
costumbre, usaremos letras maysculas para denotar a las variables aleatorias, y minsculas para
representar sus valores observados. Como los estadsticos son variables aleatorias, sus valores
variarn de muestra en muestra y tiene sentido determinar la distribucin de estas variables
aleatorias. A estas distribuciones nos referiremos como distribuciones muestrales.

1.2. Distribucin de la media muestral


Teorema 1.1. Si X" ,X# ,...,Xn es una muestra aleatoria de una poblacin X que tiene media . y

varianza 5# , entonces X tiene valor esperado . y varianza 5# /n.

Demostracin. El valor esperado de X es


n

E(X ) = E(!Xi /n)

= (1/n) !E(Xi )
i"

i"

= (1/n) ! .
n

i"

= (1/n)(n.) = .
y su varianza es

Var (X ) = Var (DXi /n)


= (1/n# ) DVar(Xi ) por independencia de las Xi
= (1/n# ) D5# por estar las Xi idnticamente distribudas
3

= n5# /n# = 5# /n.

La raz cuadrada positiva de la varianza de X se conoce con el nombre de error estndar de la

media, 5
X = 5/ n .
Notemos que 5
X decrece a medida que el tamao de la muestra crece. Esto significa que cuando n

se hace grande por lo que tenemos ms informacin podemos esperar valores de X ms


cercanos a ., lo que significa que el valor observado
x es una buena aproximacin de ...
Teorema 1.2. Si X" ,X# ,...,Xn es una muestra aleatoria de una poblacin normal de parmetros . y

5# , entonces X tiene distribucin Normal con parmetros . y 5# /n.

Demostracin. Consideremos la funcin generadora de momentos de la variable aleatoria X .


_

MX_ (t) = E(etX )


= E(etDxi/n )
= E(etX" /n )E(etX# /n )...E(etXn /n )
= MX" (t/n) MX# (t/n)...MXn (t/n)
# #
= e.tn tn 5 #

" # #
= e.t # t 5 n

que corresponde a la funcin generadora de momentos de una variable aleatoria normal de


parmetros . y 5# /n.
Por otra parte, si la muestra proviene de una poblacin que no tiene distribucin normal, entonces
el siguiente teorema, del Lmite Central, cuya demostracin ya realizamos en la seccin 4.11, nos
garantiza que la distribucin de la sucesin de medias muestrales estandarizadas tiende a la
distribucin normal estndar. Este teorema, que reproducimos aqu, es la base para justificar
muchas aproximaciones en Estadstica.
Teorema 1.3. Si X" ,X# ,...,Xn es una muestra aleatoria de una poblacin infinita que tiene media .
y varianza 5# , entonces la distribucin lmite (cuando n tiende a _) de Zn , donde
Zn =

5n

Dxi n.

(X .)n
5

es la distribucin Normal estndar.

Ejemplo. Una maquina puede ser regulada de modo que descarge un promedio de . kilos por hora
(. desconocido). Se ha observado que la cantidad descargada por la maquina se distribuye normal
con 5# =1.0 kg. Se selecciona al azar una muestra de tamao n = 9 horas de descarga, pesando el
total descargado en cada hora seleccionada. Se desea encontrar la probabilidad que la media
muestral est entre +/- 0.3 kg. de la verdadera media ..
Si definimos la variable aleatoria Yi como el peso total descargado en la hora i, entonces Yi se

distribuye N(., 1), para todo i=1,...,9, por lo tanto, de acuerdo al Teorema 6.2, Y se distribuye
N(., 1/9). La probabilidad que deseamos determinar es

P(|Y .| 0.3) = P[ 0.3 (Y .) 0.3]

= P[ 0.3n/5 (Y .)n/5 0.3n/5]


= P[ 0.39/1 Z 0.39/1]
= P[ 0.9 Z 0.9]

utilizando las tablas de la distribucin normal estndar, obtenemos

P(|Y .| 0.3) = 2(0.3159) = 0.6318.


As, la probabilidad que la media muestral est dentro de +/- 0.3 de la media poblacional . es
0.6318.

1.3. Distribucin de la Varianza Muestral


En esta seccin veremos algunos resultados importantes, relacionados con la variamza muestral,
S# , que sern de referencia constante en este y en otros captulos del texto.
Teorema 1.4. Si X" ,X# ,...,Xn es una muestra aleatoria de una distribucin con media . y varianza
5# , entonces la varianza muestral S# =

D(Xi
X)#
n 1

tiene valor esperado igual a 5# .

Demostracin. Utilizando la definicin de esperanza tenemos


#
1
#
E(S# ) = n
1 E[DXi n X ]
#
1
#
= n
1 (DE(Xi ) nE(X ))
y usando la relacin E(X# ) = Var(X) + (E(X))# cualquiera sea la variable aleatoria X, tenemos
1
#
#
#
#
E(S# ) = n
1 (D(5 + . ) n(5 /n+. ))

1
#
#
#
#
= n
1 ((n5 +n . ) 5 n. )

(n1)5#
n 1

= 5# .
D(x
x )#

Notemos que si observamos x" ,x# ,...,xn , no es verdadero que s# = ni1


sea igual a 5# . Lo que
el Teorema 6.4 dice es que si tomamos repetidas muestras aleatorias del mismo tamao y
calculamos s# para cada una de ellas, entonces el promedio de los valores de s# es 5# . A causa de
este resultado, el valor observado s# para la variable aleatoria S# , parece ser una aproximacin
razonable para 5# .
Un resultado muy importante que se usa frecuentemente cuando se muestrea de poblaciones
normales est dado en el siguiente teorema.
Teorema 1.5. Sea X" ,X# ,...,Xn una muestra aleatoria de una poblacin X cuya distribucin es
normal de media . y varianza 5# . Entonces

a) La media muestral X y la varianza muestral S# son variables aleatorias


independientes.
b)

D(Xi
X)# (n1)S#
= 5#
#
5

es una variable aleatoria con distribucin Chi-cuadrado con


n 1 grados de libertad.

Demostracin. Consideremos la forma estndar de Xi , i =1,...,n


Zi =

Xi .
5

, i = 1,...,n,

entonces Z" ,...,Zn son variables normales estndar independientes. Sea

D(Xi .)/5
X.

Z = DZi /n =
=
n
5 .

#
Entonces Z N(0,1/n) y n Z N(0,1). Por lo tanto nZ es una variable aleatoria Chicuadrado con 1 grado de libertad.
Ahora, como Z" ,...,Zn son variables aleatorias normales independientes, ellas estn no

correlacionadas (Teorema 4.3), adems para cada i =1,...,n , Z y Zi Z estn no correlacionadas

(ver ejemplo de seccin 4.9). Ms an, Z y Zi Z son independientes ya que ellas tienen

distribucin normal bivariante para todo i=1,2,....,n. Por Teorema 4.6, Z y D(Zi Z )# son
#

independientes por lo que tambin lo son nZ y D(Zi Z )# , y finalmente aplicando el Teorema


4.5 encontramos que

D(Zi
Z)#
D(Xi
X)#

nZ = X y 5# n
=
= S#
1
n 1

son independientes, con lo que concluye la demostracin de parte (a).


(n1)S#

Para la parte (b), notemos que D(Zi Z )# =


y mostremos que esta variable tiene
5#
distribucin Chi cuadrado con n 1 grados de libertad. En efecto, como

#
D(Zi Z )# = D Z#i nZ
tenemos que

#
D Z#i = D(Zi Z )# + nZ .
Por otra parte, la funcin generadora de momentos de !Zi# es por definicin
n

i=1

#
#
#
E[et D Zi ] = E[et D(ZiZ) + tnZ ]
#
#
= E[et D(ZiZ) ] E[etnZ ]

por la independencia de las variables aleatorias involucradas.


#
Dado que DZ#i y nZ se distribuyen Chi-cuadrado con n y n-1 grados de libertad respectivamente,
tenemos
#

(1 2t)n# = E[et D(^i^ ) ] (1 2t)"# .


As,

E[et D(^i^ ) ] = (1 2t)n"#


es la funcin generadora que corresponde a una distribucin Chi-cuadrado con n 1 grados de
libertad.
Ejemplo. Consideremos nuevamente el Ejemplo anterior y supongamos que extraemos una
muestra aleatoria de tamao n=10. Si estas observaciones son utilizadas para calcular S# , podra
ser til especificar un intervalo de valores que incluya a S# con alta probabilidad; esto es, encontrar
por ejemplo los nmeros b" y b# tales que
P(S# < b" ) = 0.05 y P(S# b# ) = 0.95
para as tener
7

P(b" S# b# ) = 0.9
Notemos en este ejemplo que
P(b" S# b# ) = P[(n 1)b" /5# (n 1)S# /5# (n 1)b# )/5# ].
Dado que 5# =1 y n=10, se sigue que (n 1)S# /5# = 9S# , tiene distribucin ;# con 9 grados de
libertad. Usando las tablas ;# (9) podemos encontrar los dos nmeros 9b" y 9b# tales que
P(9b" 9S# 9 b# ) = 0.90
Los valores correspondientes de la tabla son: 9b" = 3.325 y 9b# = 16.919, de donde se tiene que b"
= 0.396 y b# = 1.88. Luego, el intervalo (0.369, 1.88) contiene a S# con probabilidad 0.90.
De los resultados del Teorema 1.5 es fcil ver que la distribucin de la variable aleatoria

n(X
.)/S, cuando X" ,...,Xn es una muestra aleatoria de una poblacin normal, es t-student

con n 1 grados de libertad. En efecto, sabemos que n(X .)/5 se distribuye N(0,1) y que
(n 1)S# /5# se distribuye ;# (n 1). Adems, estas dos variables son independientes, por lo que,
de acuerdo a la definicin de una variable t-student con / grados de libertad,
n(X .)/5

T = Z# =
= n (X .)/S
(n1)S /5# (n1)
; //

se distribuye t- student con n-1 grados de libertad.


Este resultado corresponde a la desmostracin del siguiente teorema:
Teorema 1.6. Si X" ,X# ,...,Xn es una muestra aleatoria de una poblacin normal con media . y

varianza 5# , entonces n(X .)/S tiene distribucin t-student con n 1 grados de libertad.
Lo ms importante de este resultado es que el parmetro 5 se cancela al formar el cuociente en la

definicin de la variable aleatoria T, y la distribucin para n(X .)/S es la misma no


importando el valor de 5. Esta variable aleatoria con distribucin t-student ser muy importante al
efectuar inferencias acerca de la media . de una poblacin normal con varianza 5# desconocida.
Para aclarar las frecuentes confusiones que se producen respecto del uso de la distribucin Normal
(estndar) y la distribucin t-student, en relacin a expresiones del tipo
T=

(X.)
S

y Z=

(X.)
5

o como en el caso de la media


T=

.)
(X
S/n

y Z=

(X.)
5 / n

observemos que si el valor de 5 es conocido y el tamao de n es suficientemente grande, entonces


Z tendr distribucin normal estndar (utilizando el Teorema del Lmite Central). Si 5 es
desconocida y la poblacin de donde se est muestreando es normal, entonces la distribucin de T
ser la de una t-student con (n-1) grados de libertad. No obstante lo anterior, y dada la similitud de
ambas distribuciones cuando n es grande; esto es, por ejemplo, cuando, n > 30 (este nmero es
tambin discutible), la distribucin t-student se puede aproximar por la normal estndar.
Ejemplo. La resistencia a la traccin de un cable se distribuye normalmente con media . y
varianza 5# ambas desconocidas. Se seleccionan al azar 6 trozos de alambre y se mide la
resistencia Xi de cada uno de ellos. Tanto la media como la varianza poblacional pueden ser

estimadas mediante X y S# , respectivamente. Encuentre la probabilidad que X est entre +/2S/n veces la verdadera media poblacional ...
Deseamos encontrar la probabilidad
P

2S
n

(X .)

2S
n

que es equivalente a calcular


P 2

n(X
.)
S

.)
n(X

2 = P(-2 T 2)

donde T =
tiene distribucin t-student con n 1 = 5 gl. Esta probabilidad corresponde
S
aproximadamente a
P( 2.015 T 2.015) = 0.90.

Por lo tanto, hay una probabilidad de 0.90 de que X est entre +/- dos desviaciones estndar de la
verdadera media. Si 5# hubiese sido conocida, esta probabilidad se habra obtenido mediante la
relacin
.)
n(X

25
25
P
(X .)
= P 2
2

5
n
n

= P( 2 Z 2)
= 0.9544.

1.4. Mtodos de Estimacin


Los problemas de inferencia estadstica (y sus soluciones) se dividen en dos reas: Estimacin de
parmetros y Pruebas de Hiptesis. Examinaremos la primera en esta seccin. Generalmente en un

problema de estimacin de parmetros se dispone una muestra aleatoria de una variable


poblacional X, cuya distribucin de probabilidades se supone conocida, salvo por algunos
parmetros que son desconocidos. El problema es entonces cmo usar las observaciones
muestrales para estimar los valores de estos parmetros.
Denotaremos por ) el parmetro desconocido, y por )^ a su estimador. No haremos distincin, en la
notacin, entre estadstico (variable aleatoria) usado como estimador de ) y el valor observado del
estadstico, en ambos casos usaremos )^, en el entendido que quedar claro, segn el contexto, a
cul de los dos nos estamos refiriendo.

1.5 Mtodo por Momentos


Un procedimiento sencillo para obtener estimadores de parmetros es el mtodo de los momentos
que fue propuesto por Karl Pearson (1894). Sea q()), una funcin que deseamos estimar. El
mtodo de los momentos consiste en escribir la funcin de ), q()), como una funcin continua h
de los primeros r momentos poblacionales, esto es,
q()) = h(." ,...,.< )
donde .k = E(Xk ) es el k-simo momento poblacional; k=1,2,...,r, y luego considerar como
estimador por momentos a
T(X" ,...,Xn ) = q(s)) = h(M" ,M# ,...,M< ),
donde Mk = 1n !Xki es el k-simo momento muestral; k = 1,2,...,r.
n

i=1

Veamos algunos ejemplos como ilustracin de este mtodo.


Ejemplo. Una muestra aleatoria de n observaciones X" ,... Xn se selecciona desde una poblacin
con distribucin uniforme sobre el intervalo (0, )), en que ) es desconocido. Deseamos encontrar,
mediante el mtodo de los momentos, un estimador s) de ).
El valor de ." para una variable aleatoria uniforme es ." = E(X) = )/2. As,
) = h(." ) = 2."
y

M" = 1/n ! Xi = X
i"

es el primer momento muestral. Por lo tanto, el estimador por momentos de ) es

T(X" ,X# ,...,Xn ) = s) = 2M" = 2X .

10

Ejemplo. Supongamos que queremos estimar, por el mtodo de momentos, la varianza, 5# , de una
poblacin cualquiera X.
Sabemos que 5# = E(X# ) (E(X)# ) = .# .#" = h(." , .# ) Luego, si consideramos una muestra
aleatoria X" ,...,Xn de esta poblacin, tenemos que el estimador por momento de la varianza
poblacional 5# es
T(X" ,...,Xn ) = h(M" ,M# ) = M# M#"
= 1n DX#i 1n DXi #
#
= 1n DX#i X
=

D(Xi
X)#
n

Para emplear el mtodo de momentos es necesario conocer los momentos poblacionales y no


necesariamente se debe conocer la distribucin de probabilidades de la poblacin. Aunque esta es
una ventaja del mtodo, este no proporciona estimadores nicos, debido a que el mtodo slo
exige exhibir una funcin h que involucre algunos momentos poblacionales y no siempre esta
funcin es nica, como lo veremos en el ejemplo siguiente.
Ejemplo. Estamos interesados en estimar el parmetro de una poblacin X con distribucin
Poisson de parmetro ) y, para ello, considermos una muestra aleatoria X" ,....,Xn de X.

Como ) = E(X), entonces un estimador por momentos de ) es M" = X , pero como tambin ) = 5# ,
1 #
en una distribucin Poisson, tenemos que un estimador por momentos tambin sera n
n S . Si
n=5 y los valores observados de la muestra aleatoria son: 1, 2, 2, 3, 1,. podemos reportar como
valor estimado de ) a s) = 1.8 o s) = 0.56.

1.6. Mtodo Mximo Verosmil


Este mtodo es en general superior al mtodo de los momentos (en aquellos casos que resulten dos
estimadores distintos por ambos mtodos). Para ilustrar el mtodo, consideremos la siguiente
situacin: Supongamos que disponemos de una caja que contiene tres bolas. Sabemos que algunas
de ellas son rojas y otras son blancas, pero no sabemos el nmero exacto de cada color y nuestro
inters es estimar ), el nmero total de bolas rojas. Se nos permite seleccionar al azar dos bolas. Si
nuestro muestreo da como resultado la extraccin de dos bolas rojas, Cul sera un buen
estimador para )?. Obviamente, ), el total de bolas rojas, deber ser dos o tres. Si el contenido real
es de dos rojas y una blanca, esto es ) = 2, la probabilidad de obtener dos bolas rojas en la muestra
es "3. En cambio, si ) = 3, tres bolas rojas en total, la probabilidad de obtener dos rojas es 1.

11

Parece entonces razonable elegir el valor tres como estimador de ) el nmero de bolas rojas en la
caja, dado que con este valor se maximiza la probabilidad de la muestra observada. Por cierto, es
probable que la caja contenga slo dos bolas rojas, pero la evidencia de la muestra otorga mayor
credibilidad o verosimilitud a la existencia de tres rojas por sobre slo dos.
Definicin. Suponga que x x" ,...,xn son los valores observados de una muestra aleatoria de una
poblacin X con funcin de probabilidad (o densidad), f(x.)), que depende de un parmetro
desconocido ). La funcin de probabilidad o densidad conjunta de la muestra aleatoria considerada
como funcin de ) define a la funcin de verosimilitud.
L()) = f(x" ,))f(x# ,) ... f(xn ,))
El mtodo de mxima verosimilitud consiste en obtener, como estimadores, aquellos valores de
los parmetros que maximizan la funcin de verosimilitud, L())=L(); x" ,...,xn ), considerada como
una funcin de ).
dL())

El mximo de L()) ocurre en muchos casos en aquel valor de ) donde d) = 0. As, en la


mayora de los casos el estimador mximo verosmil (EMV) de ) , s), se puede determinar desde
dL();x)
d)
)=)^

=0

Dado que L()) es siempre no negativa y logra su mximo para el mismo valor de ) que ln(L),
generalmente resulta ms simple obtener el EMV de ) resolviendo
dlnL();x)
d)
)=)^

=0

En las siguientes observaciones damos algunas propiedades importantes de los EMV.


Observaciones.
La extensin al caso de varios parmetros es natural. Si tenemos m parmetros, la funcin de
verosimilitud es L()" ,...,)m ;x" ,...,xn ) y los EMV de )j ; j = 1,...,m los obtenemos resolviendo el
sistema de ecuaciones
` lnL
` )j )=)^j

= 0 ; j =1,2,...,m .

Se puede probar que si s) es el EMV de ) y si g()) es una funcin de ), uno a uno y


diferenciable con respecto a ), entonces el EMV de g()) es g(s)). Esta es la propiedad conocida
como invarianza, y es muy importante en inferencia estadstica, ya que nos permite determinar
EMV de algunas funciones de parmetros (por ejemplo de funciones lineales), en condiciones muy
generales.
Ejemplo. Supongamos que x x" ,..., xn corresponden a la realizacin de n ensayos Bernoulli
independientes con probabilidad de xito ) en cada ensayo, donde xi =1 si el i-simo ensayo es un
12

xito y xi = 0 si es un fracaso. Queremos determinar el estimador mximo verosmil de la


probabilidad de xito ).
La funcin de verosimilitud de la muestra observada es:
L();x) = )y (1 ))ny ,
donde y = !xi.
n

i"

Para encontrar el valor de ) que maximiza L, notemos que L es igual a cero para )=0 y 1, y es
dL())
continua para valores entre 0 y 1. Luego podemos encontrar el punto mximo haciendo d) = 0 y
resolviendo la ecuacin resultante para ). Adems, dado que L es una funcin montona creciente,
ln(L) y L sern maximizados por el mismo valor de ), determinaremos el valor que maximiza
ln(L) (denotado habitualmente como l();x)); esto es,
l();x) = !xi ln()) + (n !xi )ln(1 )),
cuya derivada es
dl();x- )/d) = !xi (1/)) + (n !xi )( 1/(1 )))
Luego, el valor de ) que maximiza l();x)
- es la solucin de la ecuacin:
!xi /) (n !xi )/(1 )) = 0

cuya solucin es
s) = !xi /n =
x
que corresponde precisamente a la fraccin de xitos en los n ensayos.
Ejemplo. Supongamos que X" ,..., Xn representan los tiempos de fallas para una cierta pieza de un
equipo y que los tiempos de vida son exponenciales e independientes con parmetro (desconocido). Queremos encontrar el estimador mximo verosmil para -.
Sean x- = x" ,... xn los valores observados de X" ,..., Xn . La funcin de verosimilitud es entonces
L(-;x- ) = -n e-Dxi , xi > 0; i = 1,n
lnL(-;x- ) = nln- -Dxi .
dlnL(-;x- )
d-

n
-

Dxi

1
s e igualando a cero, tenemos que s= n =
Evaluando en - = Dxi
x .

13

Ejemplo. En el ejemplo anterior vimos que el estimador mximo verosmil para -, el parmetro

s=1/X
de una distribucin exponencial es . La propiedad de invarianza, dice que el estimador
s
mximo verosmil para la media de una variable con distribucin exponencial, . = 1/- es .
s = 1/
= X y el estimador mximo verosmil para P(X > c) es exp( c/x ) , para c>0 fijo.

1.7. Propiedades de los Estimadores Puntuales


Hemos estudiado hasta el momento dos mtodos para construir estimadores de parmetros (o
funciones de parmetros). En muchos casos estos dos mtodos conducen a los mismos
estimadores, pero tambin en muchos casos importantes esto no sucede as. Para la eleccin entre
dos o ms estimadores para el mismo parmetro es importante desarrollar criterios para
compararlos.
Consideremos la siguiente situacin: Un tirador dispara a un blanco y acierta justo en el centro de
l. Se trata, sin duda, de un excelente disparo. Pregunta: Sujetara Ud. el blanco sobre su cabeza
para el siguiente disparo?. Obviamente no podemos establecer la precisin del tirador en base a tan
pequea evidencia muestral. Sin embargo, si ste hace un milln de disparos y todos ellos aciertan
sucesivamente en el blanco, podramos confiar en la habilidad del tirador como para sujetar el
blanco en un prximo ensayo. La idea es que no podemos establecer las propiedades de un
estimador en base a un sola observacin. En lugar de ello, deberamos observar los resultados del
procedimiento un gran nmero de veces y construir distribuciones de frecuencia de los valores
obtenidos para el estimador, considerando varias observaciones. De la distribucin del estimador
podemos observar que tan cerca del parmetro de inters se agrupan los distintos valores.
Siguiendo el razonamiento anterior, nos interesa entonces establecer algunos criterios bajo los
cuales la calidad de un estimador puede ser evaluada. Estos criterios definen, en general,
propiedades deseables de los estimadores que nos sirven para compararlos.
Supongamos que deseamos especificar un estimador puntual de un parmetro poblacional ). El
valor estimado de ) se indica por el smbolo s). Con el ejemplo anterior es obvio que una de las
propiedades deseables sera que la distribucin muestral de los valores estimados estuviera
centrada en el valor poblacional, ), como se muestra en la Figura 5.1. En otras palabras,
desearamos que la media o el valor esperado del estimador sea igual al valor del parmetro; esto
es, deseamos que E(s)) = ). Los estimadores puntuales que poseen esta propiedad se llaman
estimadores insesgados.
Definicin. Sea s) un estimador puntual de un parmetro ). Se dice que s) es insesgado si y slo si
(ssi.) E(s)) = ) para todo ). En caso contrario se dice que s) es sesgado.
En otras palabras, con esto esperamos que "en promedio" s) sea cercano al verdadero valor del
parmetro.

14

Definicin. El sesgo B de un estimador puntual s) est dado por la expresin


B = E(s)) ).

De acuerdo a lo que hemos visto hasta aqu, si utilizamos X y S# como estimadores de la media
poblacional . y la varianza poblacional 5# , stos seran insesgados. Ahora, si usamos

1
n 1
5
s # = n D(Xi X )# como estimador de la varianza encontramos que su media es n 5# 5# , y por
tanto 5
s # sera un estimador sesgado de 5# . Parece natural que un buen estimador no slo debe ser
tal que su media est cercana al verdadero valor del parmetro, sino que tambin debera variar
poco. Por lo tanto, debemos considerar estadsticos que adems de ser insesgados tengan varianza
tan pequea como sea posible.

a)
b)
c)
^
Figura 1.1. Distribuciones de ) centradas en ) . a) y b) muestran mayor varianza
que c).
Las Figuras 6.1 corresponden a distribuciones de un estimador insesgado )^. Es evidente que la
representada por Figura 6.1 c) es preferida pues tiene una menor varianza, lo que implica que s)
estar ms "cerca" de ) que en las otras distribuciones mostradas.
Definicin. Sea s) un estimador insesgado de ). Decimos que s) es un estimador insesgado de
mnima varianza para ) , si para cualquier otro estimador insesgado ) de ) se tiene que
Var()^) Var() ), a ).
Lo anterior nos permite formular la siguiente regla: Dados dos estimadores para el parmetro ), y
siendo todo el resto de las condiciones equivalentes para ambos, se elegir siempre aquel de
menor varianza.

Ejemplo. Sabemos que la media muestral X es un estimador insesgado de la media poblacional.

Por lo tanto, X es un estimador insesgado de ., parmetro de una distribucin Normal; de . la


media de una distribucin Poisson(.) y de p parmetro de una distribucin Bernoulli. Nos interesa

averiguar si la calidad de X mejora cuando n crece. E(X ) = . que no depende de n; pero V(X ) =
15

5# /n decrece cuando n aumenta. Es claro entonces que, basndose en un criterio de mnima

varianza, la calidad de X como estimador de . mejora cuando n crece.


Una pregunta natural de formular es: basndonos en una muestra fija de tamao n, Podramos

encontrar otro estimador mejor para ., distinto de X , en trminos de insesgamiento y mnima


varianza, para estas distribuciones?. La respuesta est en la desigualdad de Cramer-Rao que
proporciona una cota inferior para la varianza de cualquier estimador insesgado del parmetro de
una distribucin de probabilidades, bajo condiciones de regularidad que incluyen:
i) El espacio de valores de la variable aleatoria involucrada debe ser independiente
del parmetro.
ii) La funcin de densidad (o funcin de probabilidad) debe ser una funcin continua y
diferenciable del parmetro.
Teorema 1.7. (Cramer-Rao). Sea X" ,..., Xn una muestra aleatoria de tamao n de una poblacin X
con funcin de densidad (o funcin de probabilidad) f(x;)), que depende de un parmetro )
desconocido, y satisface las condiciones de regularidad. Sea s) = T(X" ,....,Xn ) un estimador
insesgado para ). Entonces
Var(s))

1
` lnf(x,))
nE( ` ) )2

Demostracin. Desarrollaremos la demostracin para el caso en que X es una variable aleatoria


continua. Un resultado anlogo se puede establecer cuando X es discreta.
Dado que X" ,..., Xn es una muestra aleatoria., tenemos que
f(x" ,..., xn ;)) = f(x" ;))...f(xn ;)).
Por otra parte, por la propiedad de insesgamiento de )^ = T(X1 ,..., Xn ) y la definicin de valor
esperado tenemos
E(T(X1 ,...,Xn )) = ) ;
esto es,

) = ( T(x" ,...,xn ) f(x" ;))...f(xn ;))dx" ...dxn

(1.1)

Adems, sabemos que para i = 1,...,n


( f(xi ;))dxi = 1

(1.2)

Diferenciando (1.1) con respecto a ), tenemos

16

1 = ( T(x" ,...,xn )"

1 `
f(xj ;)) f(x" ;))...f(xn ;))dx" ...dxn
f(xj ;)) ` )

= ( T(x" ,...,xn ) "

`
lnf(xj ;)) f(x" ;))...f(xn ;))dx" ...dxn
`)

j"
n

j"

(1.3)

Diferenciando (1.2) respecto a ) tenemos


0=(

`
f(xj ;)) dxj , j = 1,n
`)

que podemos escribir como


0 =(

`
lnf(xj ;))f(xj ;))dxj ,
`)

j=1,n.

(1.4)

`
Si hacemos Y = ! `)
lnf(xj ;)) obtenemos de (1.4) y (1.3) que
n

j"

E(Y) = 0 y E(TY) = 1.
Adems,

`
Var(Y) = Var ! `)
lnf(xj ;))
n

j"

n
`
= ! Var( `)
lnf(xj ;)))
j"

n
#
`
= ! E `)
lnf(xj ;))
j"

#
`
= nE `)
lnf(xj ;)) .

Por otra parte


Cov(T,Y) = E(TY) pues E(Y) = 0
y por definicin de coeficiente de correlacin tenemos
E(TY)

3TY = 5 5
T Y

17

donde 5T# = Var (T) y 5]# = Var (Y) y 3T] es la correlacin entre T e ] . Entonces
E(TY) = 3TY 5T 5Y
o
1 = 3TY 5T 5Y
Finalmente, notando que 3# 1, tenemos que
1
Var (s)) = Var(T) 51# =
.
`
nE( `) lnf(x;)))2
]

Si s) no es un estimador insesgado de ), se puede probar que la cota de Cramer-Rao est dada por
la expresin
5s)#

(1+B(s)))#
`
nE( `)
lnf(x;)))2

(1+B(s)))#
I())

La cantidad I()) es conocida como cantidad de informacin o Informacin de Fisher. De aqu


que la CCR tambin se conoce con el nombre de Desigualdad de Informacin.
En la clase de estimadores insesgados, la cota inferior en la desigualdad de informacin es 1/I()),
independientemente del estimador que estemos considerando.
Bajo supuestos que implican la existencia de las segundas derivadas y el intercambio del orden de
ciertas integrales con sus derivadas, la desigualdad de Cramer-Rao se puede escribir tambin como
1
Var (s)) nE{` # ln f(X;
))/` )# }

Esta expresin alternativa es ms til para efectos computacionales.


La CCR puede extenderse fcilmente para ciertas transformaciones del parmetro.
Especficamente, si : = g()) es una transformacin uno a uno y diferenciable, entonces:
CCR para Var (:
s) = d) CCR para Var (s)),
dg()) #

donde :
s es un estimador insesgado de :.
Dado un estimador insesgado s) de ), la razn de su cota de Cramer-Rao a su varianza, se llama
eficiencia de s
) . Notemos que segn esta definicin, la eficiencia de cualquier estimador insesgado
es siempre menor o igual que uno. Un estimador insesgado con eficiencia uno se dice eficiente.

18

_
As, con respecto a la pregunta, Es X el mejor estimador para . en trminos de insesgamiento y
mnima varianza?, para responderla consideremos, por ejemplo, la funcin de densidad
correspondiente a una poblacin N(., 5# ), donde slo . es desconocido. Entonces,
ln f(X; .) = ln 1

21 5

` ln f(X; .)
`.

(X.)#
25 #

(X.)
5#

y
E

` ln f(X; .) #

`.

= E 5# = 1/5# .
X. 2

La CCR establece entonces,


_ que la varianza_ de cualquier estimador insesgado de . es mayor o
#
igual a 5 /n. Como Var(X)=5# /n, entonces X tiene mnima varianza entre todos los estimadores
_
insesgados para ., cuando la poblacin es normal y slo . es
desconocido.
Adems,
X
es un
_
estimador eficiente, pues la razn entre la CCR y la varianza de X es uno.
En algunas situaciones, es deseable obtener estimadores del parmetro de inters, considerando
como criterio la minimizacin tanto del sesgo, como de la varianza del estimador. Esto se logra
minimizando el promedio de la distancia al cuadrado entre s) y el verdadero valor ) del parmetro.
Esta cantidad se denomina Cuadrado Medio del Error.
Definicin. El Cuadrado Medio del error (CME) de un estimador puntual s) se define por
CME(s)) = E(s) ))# .
Notemos que
CME(s)) = E((s) E(s)) + (E(s)) )))#
= E((s) E(s)))# + (E(s)) )))# ,
dado que los dobles productos se hacen 0. Luego, CME(s)) = Var (s)) + B# .
Por lo tanto, si s) es un estimador insesgado del parmetro ), entonces CME(s)) = Var(s)).
Ejemplo. Sea X" , X# una muestra aleatoria de tamao
2 de X con distribucin Exponencial de
_
s
s
parmetro - desconocido. Consideremos a )" =X y a )# = X1 X2 estimadores de .=1/-. En
trminos del error cuadrtico medio, cul de los dos es mejor?.

19

_
El CME(s)" )=Var(s)" )=1/(2-# ), por ser X un estimador insesgado de .. Ahora,

CME(s)# ) = Var (X1 X2 ) + (EX1 X2 .)#


de donde

Var(X1 X2 ) = E(X1 X2 ) E(X1 )E(X2 ).

Caculemos E(X) con X exponencial de parmetro -.


E(X) =(

x"/# -e-x dx =

>(3/2)
= (1/-)"/# /2
-"/#

Por lo tanto

1#
Var(X1 X2 ) = 1/-# 1# /(16-# ) = 16
16-#

B(X1 X2 ) = ((1/4) (1/-) 1/-)# = 144


-

De aqu, el Error Cuadrtico Medio de s)# est dado por


CME(s)# ) = 421
-# .
Como 4 1 < 1 tenemos EMC(s)# ) < EMC(s)" ) y, de acuerdo a este criterio, s)# es preferido a s)1 .
Otra propiedad adicional que un estimador puede tener es la propiedad de consistencia. Esta es una
propiedad asinttica o de muestras grandes, ya que describe una propiedad lmite de la distribucin
de probabilidades del estimador, cuando el tamao de la muestra n aumenta.
Supongamos que lanzamos una moneda n veces, con probabilidad p de obtener cara en cada
ensayo. Si los lanzamientos son independientes, y definimos la variable aleatoria Y como el
nmero de caras en los n lanzamientos, entonces Y tiene distribucin Binomial. Si el verdadero
valor de p es desconocido, la proporcin muestral ^p=Y/n es un estimador insesgado de p. Qu
pasa a esta proporcin muestral si aumenta el nmero n de lanzamientos?. Intuitivamente diremos
que a medida que n aumenta, Y/n se acercar al verdadero valor de p. Como Y/n es una variable
aleatoria, esta cercana a p en trminos probabilsticos la cuantificamos mediante la expresin
P(|Y/n-p|<%) para un valor arbitrario %>0. Esta probabilidad ser cercana a 1 si nuestra intuicin es
correcta.
Definicin. El estimador s)n se dice consistente para ) si, para cualquier %>0, se tiene que
lim (P|s)n )| < %) = 1,
n_

20

o equivalentemente
lim P(|s)n )| > %) = 0 .
n_
Notemos que, de la desigualdad de Chebyshev
E(s)n ))#
CME(s)n )
P(|s)n )|> )
=
%#
%#

de donde se sigue que si el CME(s)n ) tiende a cero cuando n tiende a infinito; esto es, tanto la
varianza como el sesgo de s)n tienden a cero cuando n tiende a infinito, entonces s)n es un
estimador consistente de ).
Teorema 1.8 . Un estimador insesgado s)n de ) es consistente si
lim Var(s)n ) = 0.
n_
Ejemplo. Sea X" ,...,Xn una muestra aleatoria de una
_ poblacin con distribucin de probabilidades
#
con media . y varianza 5 <_. Verifiquemos que X es un estimador consistente de ..
_
_
_
#
Sabemos
que
E(X)=
.
y
Var(X)=
5
/n.
Dado
que
X
es un estimador insesgado para ., y como
_
Var(X) p 0, cuando n crece, el teorema anterior se aplica directamente.
_
Equivalentemente se puede decir que X converge en probabilidad a .. Este hecho es tambin
conocido como la Ley de los Grandes Nmeros.
Hasta el momento hemos utilizado la informacin contenida _en una muestra de tamao n para
calcular el valor de estadsticos de inters, como por ejemplo X y S# . Debemos preguntarnos, sin
embargo, si este proceso de condensacin de la informacin ha retenido toda la informacin
disponible acerca de . y 5# , o bien, si se ha perdido alguna informacin acerca de los parmetros
poblacionales durante el proceso de reduccin de los datos.
En consideracin a la pregunta anterior, debemos buscar estadsticos que resuman toda la
informacin contenida en la muestra acerca del parmetro desconocido de inters. Tales
estadsticos se dice que tienen la propiedad de suficiencia o ms simplemente son llamados
estadsticos suficientes.
Un estadstico T(X" ,...,Xn ) se dice suficiente si utiliza toda la informacin de una muestra
relevante a la estimacin del parmetro poblacional ); esto es, si todo el conocimiento que
podemos obtener acerca de ) especificando los valores observados de X = (X" ,...,Xn ), tambin
_
puede ser obtenido observando el valor del estadstico T(X).
Definicin. Sea X" ,...,Xn una muestra aleatoria de una distribucin de probabilidades con
parmetro desconocido ). T = T(X" ,...,Xn ) es un estadstico suficiente para ), si y slo si (ssi), la
distribucin condicional de (X" ,...,Xn ) dado T=t, para todo valor de t, es independiente de ).
21

Ejemplo. Consideremos los resultados observados de n ensayos Bernoulli independientes


X" ,...,Xn , donde Xi =1 con probabilidad p y es 0 con probabilidad 1 p.

Sea T = !Xi = N de xitos en los n ensayos. Si conocemos el valor de T, Podemos ganar


n

i=1

informacin adicional acerca de p, observando otras funciones de X" ,...,Xn ?.


Una manera de responder es observar la distribucin condicional de X" ,...,Xn dado T=t; esto es:
P(X" =x" ,...,Xn =xn , T=t)
P(T=t)

P(X" =x" ,...,Xn =xn |T=t) =

P(X" =x" ,...,Xn =xn )

P(T=t

= n t
nt
t p (1p)
pt (1p)nt }

nt
1

Como esta probabilidad condicional no depende de p, podemos concluir que una vez conocido T,
ninguna otra funcin de X" ,...,Xn proporciona informacin adicional sobre el posible valor de p.
En este sentido, T contiene la informacin relativa a p y, por tanto, es un estadstico suficiente para
p.
La definicin anterior, no nos permite en forma directa la obtencin de un estadstico suficiente
para un parmetro ). El siguiente teorema nos proporciona un criterio para obtener facilmente
estadsticos suficientes.
_ un estadstico basado en la muestra
Teorema 1.9. (de Factorizacin de Fisher) Sea T(X),
_
_ es un estadstico suficiente para ) si y solo si, la densidad conjunta de
aleatoria X=(X
" ,...,Xn ). T(X)
_ (la funcin de verosimilitud L(),x)), puede ser factorizada en dos funciones no negativas, de la
X
forma
_ )) h(X),
L(), _x) = g(T(x),
donde g es una funcin slo de T y ), y h no es funcin de ).
Ejemplo. Sea X" ,...,Xn una muestra aleatoria de una poblacin con distribucin exponencial con
media -; esto es, Xi posee funcin de densidad
f(); x3 ) = 1/- exp( x3 /-),

x3 > 0,

i=1,n

La funcin de verosimilitud de la muestra es la densidad conjunta

22

L = f(-; x" ,...,xn ) = f (-; x" ) f(-; x# )...f(-; xn )

= [exp( x" /-)]-... [exp( xn /-)]= [exp( !n3" x3 /-] -n


_
= [exp ( nx/-)]-n .

_
Como
L
es
una
funcin
que
depende
slo
de
y
x, aplicando _el teorema de factorizacin con g(-,
_
_
n
_ = 1, podemos concluir que X es un estimador suficiente para -.
x) = [exp( nx/-)]- y h(x)
!
Notemos tambin que X4 es otro estadstico suficiente para -.
Ejemplo. Sea X" ,...,Xn es una muestra aleatoria de una distribucin uniforme en (0, )) y
determinemos un estadstico suficiente para ).
La funcin de verosimilitud de la muestra aleatoria es
L(), _x) = (1/))n , x3 (0,)) para todo i=1,...,n
lo que es equivalente a escribir
_ = (1/))n , para xn <); donde xn = mx (x" , x# ,...,xn ).
L(), x)
As, tenemos la factorizacin
L(), _x) = (1/))n I!) (xn ) = g(), Xn ),
donde

IA (x) = 0 si xA

1 si xA

es la funcin indicadora de un conjunto A. Por lo tanto, aplicando el teorema de factorizacin con


h(x) = 1, un estadstico suficiente para ) es T(X" ,...,Xn ) = Xn .
1.8. Estimacin por Intervalos
Hasta aqu, hemos revisado las propiedades de estimadores puntuales de los parmetros de una
distribucin poblacional de probabilidades. Proporcionar un buen estimador, T(X), del parmetro o
funcin del parmetro, ), no es suficiente, ya que debemos de alguna manera dar cierta idea de la
incertidumbre de la estimacin, la que puede ser producto, por ejemplo, de la seleccin de la
muestra. Para esto incorporamos el concepto de precisin o de error del estimador.
Usualmente los investigadores proporcionan como estimacin de un parmetro desconocido ) a
_ %, donde % generalmente es el error cuadrtico medio de T o una estimacin de l. Sin
T(X) +
_
embargo, tambin hay dificultades al reportar, por ejemplo que )=2+0.01,
ya que a pesar que T(X)
23

sea un estimador insesgado y % sea exactamente la desviacin estndar de T(X), no tenemos


seguridad que las cotas T+% y T % incluyan a ). En realidad, en la mayora de los problemas, se
tiene una probabilidad positiva que [T(X) %, T(X)+%] no incluya a ), para cualquier % dado.
Ilustremos esta idea en el ejemplo siguiente
Ejemplo. Sea X" ,...,Xn una muestra aleatoria de una poblacin N(), 5# ) con 5# conocida. Nuestro
_
inters es estimar ), la media de la poblacin normal. Como el estimador
natural a usar es X y su
_
_ 5/n.
desviacin estndar es 5/n los investigadores establecern que ) = X+
_
_%, no incluyan a ) como sigue
Podemos calcular la probabilidad que estas cotas, X+
_
P(|X )|> %) = P

_
n (X) )
5

%n

%n

> 5 = P(|Z| > 5 )

%n

%n

= P(Z > 5 ) + P(Z < 5 )


=F(

%n
5

= 2F (

%n

) + (1 F ( 5 ))

%n
5

)>0

cualquiera sea % y n, donde F indica la funcin de distribucin de la normal estndar.


Si elegimos % o n suficientemente grande, esta probabilidad puede hacerse ms pequea que
cualquier
nmero positivo. Si hacemos %=5/n, por ejemplo, tenemos de las tablas normales que
_
P(|X )|>5/n) = 0.32, un nmero no muy pequeo para ser desechado.
Esta ilustracin nos sugiere que en lugar de elegir % igual a la desviacin estndar de nuestro
estimador, debemos elegir un nmero !, y despus preocuparnos de elegir % (o % y n)
suficientemente grande, de manera de tener
_
%n
P(|X )|> %) = 2F( 5 ) = !
_
_
y, finalmente, afirmar que ) est entre X % y X+%. Equivalentemente, podemos escribir,
_
_
_
P(X % ) X+%) = 1 P(|X )|>%) = 1 !
_
_
y afirmar con una confianza del (1 !) 100% que el intervalo aleatorio [X %, X %] incluye al
verdadero valor del parmetro ).
Lo anterior nos lleva, en la situacin general, a buscar un par de estadsticos, TI (X) y TS (X), tal
que

24

P(TI (X) ) TS (X)) = 1-!


para un ! preasignado.
En algunas ocasiones, particularmente cuando se trabaja con distribuciones discretas, no podemos
encontrar intervalos (TI , TS ) razonables tales que P(TI (X) ) TS (X)) sea exactamente igual a
1 !, para un ! fijo.
Definicin. El intervalo aleatorio de extremos (TI ,TS ) formado por los estadsticos TI y TS , con
TI YS , es un intervalo del (1 !) 100% de confianza para ), si para todo )
P(TI (X) ) TS (X)) 1 !

(6.5)

Los extremos TI y TS se llaman lmite de confianza inferior y superior, respectivamente. 1 ! se


llama Nivel de Confianza.
Es posible tambin, obtener cotas de confianza (1 !) 100% para ), tales que
P(TI )) 1 ! o bien P() TS ) 1 !,
donde TS y TI son estadsticos que conforman una cota superior e inferior para ), respectivamente.
Dado que la amplitud L = TS TI es una variable aleatoria, podemos pensar en elegir intervalos
de longitud esperada mnima como un buen criterio de calidad. Desafortunadamente, pueden no
existir estadsticos TI y TS que generen un intervalo de longitud esperada para todos los posibles
valores de ). Se puede probar que si un intervalo de amplitud mnima existe, l puede obtenerse
utilizando funciones de estadsticos suficientes como lmites de confianza.
_
_
Ejemplo. Claramente, el intervalo (X z"!" 5/n ; X + z"!# 5/n ) es un intervalo de
confianza a nivel 1 (!" +!# ), para la media de una poblacin normal con varianza 52 , ya que
satisface (6.5) con ! = !" +!# . Mostremos que el intervalo ms estrecho a nivel 1 ! de la forma
_
_
(X z"!" 5/n ; X+z"!# 5/n)
se obtiene considerando !" = !# =!/2. En efecto, la longitud (esperada) del intervalo es
L= 5 (z"!" + z"!# )
n

que, bajo la condicin !=!" +!# , pasa a ser


L= 5 (z"(!!# ) + z"!# ).
n

As, debemos encontrar !# de manera de minimizar L, lo que es equivalente a minimizar


25

f(!# ) = z1!+!2 + z1!2


= F" (1 !+!# )+ F" (1 !# ),
con F(t! ) = P(Z t! ) = ! , F" (!) = t! y Z es la normal estndar.
Derivando la funcin f respecto de !2 tenemos
1
f w (!# ) = :(F" (11!+! )) :(F" (1
!# )) ,
#

donde : es la funcin de densidad normal estndar.


Igualando a cero la derivada obtenemos
:(F1 (1 !+!2 )) = :(F1 (1 !2 ));
o bien,
:(x) = :(y),
donde x = F 1 (1 !+!2 ) e y = F1 (1 !2 )
cuya solucin es x = y, ya que : es una funcin par. Luego tenemos que F 1 (1 !+!2 ) =
F1 (1 !2 ) que es equivalente a 1 !+!2 =1 !2 , de donde se tiene que !2 = !/2 y luego
!1 =!2 =!/2.Por lo tanto, el intervalo de confianza ms estrecho a nivel 1 ! para la media de una
poblacin normal es
_
_
(X z"!/2 5/n ; X+z"!/2 5/n)
(6.6)
Un mtodo muy til para encontrar intervalos de confianza es el Mtodo del Pivote, que consiste
en determinar una cantidad, llamada Pivote, que posee las siguientes dos caractersticas: es una
funcin de las medidas muestrales y del parmetro ); y tiene una distribucin de probabilidades
conocida ( tabulada) que no depende del parmetro ).
A continuacin veremos ejemplos de uso de un pivote para construir intervalos de confianza a
nivel (1 !) para distintos parmetros de inters.
6.9. Intervalos de Confianza para la media en poblaciones N(.,, 5 # )
con 5 # conocida
Consideremos una muestra aleatoria
_ X" ,...,Xn de una poblacin X, con distribucin normal. Como
ya probamos en el Teorema 6.2, X se distribuye N(., 5# /n). Si definimos
P(Z< z"!/# ) = 1 !/2
y
26

P( z"!/# < Z < z"!/# ) = 1 !.


De aqu obtenemos

_
P( z"!/# < n (X .)/5 < z"!/# ) = 1 !,

lo que es equivalente a
_
_
P(X z"!/# 5n < . < X+z"!/#

5
n

) = 1 !.

As, los lmites de confianza para . son


_
_ z"!/# 5
X+
n
que coinciden con el obtenido en (6.6).
Este resultado podemos emplearlo tambin en el caso no normal, para estimar medias, si el tamao
muestral es suficientemente grande como para justificar la aplicacin del Teorema del Lmite
Central.
_
Notemos tambin que el intervalo de confianza es una funcin de X; por lo que variar con la
muestra. Por otra parte, la amplitud del intervalo es slo funcin del tamao muestral n, siendo
inversamente proporcional a n.
Un problema que surge de inmediato es Cul es el tamao mnimo de la muestra para lograr un
determinado grado de precisin en la estimacin de .?. Esta pregunta la respondemos en la
seccin que sigue.

6.10. Determinacin del tamao de muestra


Hasta aqu hemos calculado los intervalos de confianza basndonos en el supuesto de que se
conoce el tamao muestral n. Sin embargo, en muchas situaciones prcticas el tamao muestral
ptimo es desconocido. En tales casos es posible calcular dicho tamao ptimo, siempre que
podamos responder a las preguntas: Qu nivel de confianza deseamos?, y Cul es la diferencia
mxima, %, que podemos aceptar entre la estimacin puntual del parmetro poblacional y el
verdadero valor de dicho parmetro?.
As, si % representa el mximo error que podemos tolerar al estimar el parmetro poblacional )
mediante s), la magnitud del mximo error permisible al estimar ) mediante s
) la definimos como
|) s)| = |s) )| %.
27

Entonces, el grado de precisin depende tanto de % como de 1 !, el grado de confianza de que el


error no exceda al mximo error permisible.
En general el tamao de la muestra se obtiene de la expresin:

5s) z"!/# %,
donde z"-!/# queda determinado por el grado de confianza 1-!.
Para nuestro ltimo ejemplo tenemos:

% = z"!/# Var (X) = z"!/# 5n

de donde el tamao muestral debe ser al menos z#1!/2 5# /%# , cuando la varianza es conocida; esto
es,
n z#1!/2 5# /%# .
Si en particular deseamos el promedio diario . de rendimiento de un proceso de produccin de un
producto qumico y deseamos adems que con una probabilidad .95, el error de estimacin no sea
mayor que 5 toneladas. Entonces, dado que si repetimos las muestras un gran nmero de veces,
aproximadamente el 95% de las medias muestrales estar entre 25X_ de ., lo que estamos pidiendo
es que 25X_ sea igual a 5 tons., lo que significa que 25/n = 5. Despejando n obtenemos
n 4 5# /25.
Esto siginfica que para obtener un valor numrico para n, necesitamos conocer el valor poblacional
del parmetro 5# . Cuando no se dispone del verdadero valor de 5# , debemos utilizar la mejor
aproximacin disponible, como por ejemplo su estimador S# , obtenido de experiencias previas.
6.11. Intervalo de Confianza para la media en poblaciones N(., 5 # ) con 5 # desconocida
_
Sea X" ,...,Xn una muestra aleatoria de una poblacin N(., 5# ). Sabemos que T = n(X .)/S se
distribuye t-student con / =n 1 grados de libertad, entonces podemos determinar t"!/# tal que
P( t"!/# T t"!/# ) = 1 !.
De aqu, reemplazando y despejando . nos queda
_
_
P(X t"!/# Sn . X + t"!/# Sn) = 1 !.
As, los lmites de confianza son
28

_
_ t"!/# Sn
X+

_
_
(x t"!/# s/n ; x + t"!/# s/n)

_
_
es un intervalo del 100(1 !)% para ., si x y s son los valores observados de X y S,
respectivamente.
6.12. Intervalos de Confianza para 5 #
Recordemos aqu que 5# es un nmero que cuantifica la cantidad de variabilidad de la poblacin.
Este valor es generalmente estimado a partir de la expresin
_
n
S# =!3"
(X3 X)# /(n 1)
que es un estimador insesgado de 5# . Adems de necesitar informacin acerca de 5# , para calcular
intervalos de confianza para la media ., podramos estar interesados en obtener intervalos de
confianza para 5# propiamente tal; esto es, por ejemplo, la estimacin de la cantidad de variacin
en un proceso de produccin de ciertas unidades.
Como ya hemos mencionado, debemos empezar por definir un pivote. Supongamos una vez ms,
que disponemos de una muestra aleatoria X" ,...,Xn de una distribucin normal con media . y
varianza 5# , ambas desconocidas. Recordemos tambin que
_
!n3" [(X3 X)# ]5# = [(n 1) S# ]5# ,
tiene distribucin ;# con (n-1) grados de libertad. Podemos ahora, usando el mtodo del pivote,
proceder a encontrar dos cantidades ;#!/# y ;#"-!/# , tales que
#
P[;#!/# (n 1)S# /5# ;"
!/# )] = 1 !.

para un nivel de confianza 1 !.


Debido a la asimetra de la distribucin, nos preocupamos de encontrar los puntos que definen
igual rea en las colas.
Si reordenamos los extremos de la desigualdad en la expresin probabilstica anterior, se tiene,
P[(n 1)S# /;#1!/# 5# (n 1)S# /;#!/# ] = 1 !.
Luego,
[(n 1) s# /;#1!/# ; (n 1) s# /;#!/# ]

29

es un intervalo de confianza del 100(1 !)% para la varianza de una poblacin normal con media
desconocida.
Ejemplo. Un investigador desea verificar la variabilidad de un equipo diseado para medir el
volumen de una fuente de ruido. Utilizando este equipo, se obtienen tres mediciones
independientes del mismo sonido, ellas son: 4.1, 5.2 y 10.2. Se pide estimar 5# con un nivel de
confianza de .90.
Asumiendo normalidad, tenemos que s# = 10.57. Considerando !/2 = 0.05 y (n 1)=2 grados de
libertad, se obtienen los valores de tabla ;#!& = 0.103 y ;#*& = 5.991. Por lo tanto, el intervalo de
confianza para la varianza poblacional 5# es (3.53; 205.24).
Ntese que este intervalo es muy amplio, la razn de esta amplitud es el pequeo tamao de n.

6.13. Intervalo de Confianza para una Proporcin


Supongamos que deseamos construir un intervalo de confianza para el parmetro p, la
probabilidad de xito, _de una distribucin Bernoulli. Si disponemos de una muestra aleatoria,
X" ,...,Xn , sabemos que X es un estimador insesgado de p, y si n es grande
_
pq
X N(p, n ),
de donde
Z=

_
Xp
pq/n

N(0, 1) cuando n es grande.

Entonces existe Z"-!/# tal que


P( Z"!/# < Z< Z"!/# ) = 1 - !,
esto es,
P( Z"!/# <

_
Xp
pq/n

< Z"!/# ) = 1 !

Notemos que para determinar los lmites de confianza para p, necesitamos resolver para p la
ecuacin
_
|X p|

p(1p)/n

Z"!/# ,

lo que es equivalente a:
_
p(1p)
(X p)# Z#"!/#
n
o bien

30

p# (1+

Z#"!/#
n

_
) p(2X +

Z"!/#
n

_#
) + X 0,

que es una parbola, cuyas races definen el intervalo dentro del cual la parbola es negativa.
Resolviendo la ecuacin cuadrtica tenemos
1/2
_ Z#
_
_
Z#"!/#
!/ # ) +
!/ #
_ Z"
(X + "
X(1
X)
+

n
2n
4n
_
2X + Z#"!/# /n

que para n grande y para (1 !) razonable, podemos aproximarlo por

_
_
_
_ Z"!/# X(1 X)/n .
X+
As, un intervalo de confianza aproximado al 100(1-!)% para p est dado por
_
_
_
_
_
_
x Z"!/# x(1 x)/n ; x + Z"!/# x(1 x)/n
_
_
donde x es el valor observado de X.

Ejemplo. Supongamos que en una muestra aleatoria de 500 personas en la ciudad de Concepcin
se encontr que 375 no estn de acuerdo con los mtodos de eliminacin de desechos industriales.
Un intervalo de confianza del 95% para p, la proporcin real de la poblacin penquista que no est
de acuerdo con dichos mtodos, lo obtenemos como sigue
_
De la informacin tenemos que n = 500 y x = 372/500=0.74 y, para ! = 0.05 tenemos de las tablas
normales que Z"!/# = 1.96. As, el intervalo del 95% de confianza para p, est dado por
(0.74-0.04 , 0.74+0.04) = (0.70 , 0.78).

6.14. Tamao de Muestra para Proporciones


_
Notemos que_ la magnitud del error cometido, cuando utilizamos X como una estimacin de p, est
dada por X. p. Empleando nuevamente la distribucin normal, podemos asegurar con
probabilidad 1-! que la desigualdad
_
X. p z1!/2 p(1 p)/n
se cumplir; es decir, que el error ser a lo sumo z1!/2 p(1 p)/n.
_
Reemplazando X por p tenemos que el error mximo de estimacin es
_
_
% = z1!/2 X(1 X)/n.

31

Esta frmula podemos utilizarla para determinar el tamao muestral necesario para alcanzar un
grado deseado de precisin. As, obtenemos
n = p(1 p) (

z1!/2 2
);

sin embargo, esta frmula no podemos utilizarla en forma directa ya que, a menos que tengamos
informacin acerca del posible valor de p. Si no se dispone de esta informacin se puede utilizar
un criterio de varianza mxima ya que p(1 p) corresponde a la varianza de la poblacion
Bernoulli considerada. As, considerando el hecho que p(1 p) es a lo sumo 1/4, lo cual ocurre
cuando p=1/2, tenemos que con el tamao de muestra mnimo
z
/2 2
n = 14 ( 1!
% )
_
podemos asegurar con una probabilidad de al menos 1 ! que el error al estimar p por X no
excede a %; una vez obtenidos los datos, podremos asegurar con una confianza de al menos un
100(1 !)% que el error no sobrepasa %.
Ejemplo. Supongamos que deseamos estimar la proporcin real de unidades defectuosas en un
cargamento grande de ladrillos y que se se requiere una confianza del 95% de que el error en la
estimacin sea a lo sumo de 0.04. De qu tamao debe ser la muestra si: a) no se tiene idea acerca
de la proporcin muestral; b) se sabe que la proporcin real no excede a 0.12?.
Si no se tiene idea acerca de cmo podra ser la proporcin muestral entonces usamos la segunda
frmula para el tamao muestral y obtenemos
2
n = 14 ( 1.96
0.04 ) = 600.25

lo que indica que el tamao mnimo debera ser n= 601.


Si sabemos que la proporcin real no excede a 0.12, entonces tomamos p=0.12, y aplicando la
primera frmula para el tamao de muestra obtenemos
2
n = (0.12)(0.88)( 1.96
0.04 ) = 253.55

o n=254, redondeando al entero ms cercano.


Este ejemplo ilustra la importancia de disponer de alguna informacin auxiliar acerca de la
magnitud posible de p, ya que ello reduce en gran medida el tamao de la muestra requerida.

6.15. Intervalos de Confianza Basados en Dos Muestras


En todo lo visto anteriormente en este captulo de estimacin, hemos considerado una muestra
aleatoria de tamao n de una sola poblacin y hemos estado interesados en hacer inferencias sobre
32

los parmetros, desconocidos, involucrados en su distribucin de probabilidades. En muchos casos


interesa realizar comparaciones de los parmetros de dos o ms poblaciones. As, por ejemplo, si
tenemos dos tipos de autos de precios similares A y B y queremos comparar sus rendimientos
(km/lt), entonces si X es la variable. asociada al rendimiento de los autos tipo A, con X N(." ,
5"# )) e Y es la variable asociada al rendimiento del auto tipo B, con Y N(." , 5## ), podramos
estar interesados en estimar ." .# , la diferencia entre los rendimientos medios de los dos tipos
de autos. Podramos, adems, comparar las varianzas de sus rendimientos a partir del cuociente
5"# /5## .
Consideraremos ahora por lo tanto, problemas que involucren dos muestras aleatorias,
independientes, que provienen de dos poblaciones distintas.
_ = (X" ,...,Xn" ) una muestra aleatoria de una poblacin X con distribucin de probabilidad
Sea X
_ = (Y" ,...,Yn# ) una muestra aleatoria,
que depende de un parmetro desconocido )" y sea Y
independiente de la anterior, de una poblacin Y, cuya distribucin de probabilidades depende de
un parmetro desconocido )# . La independencia de las dos muestras implica que la funcin de
verosimilitud para las n" +n# , la muestra conjunta, es
LX_ Y_ ()" , )# ) = LX_ ()" ) LY_ ()# )
Luego los valores de )" y )# que maximicen la funcin de verosimilitud conjunta LX_ Y_ ()" , )# ) son
los mismos valores que maximizan a las funciones de verosimilitud LX_ ()" ) y LY_ ()# ). As, si s)"
maximiza a LX_ ()" ) y s)# maximiza a LY_ ()# ) entonces LX_ Y_ ( s)" , s)# ) es el valor mximo de la
funcin de verosimilitud conjunta. Por lo tanto, los estimadores mximo verosmil para una
funcin g()" , )# ) de los parmetros de las dos distribuciones
_ de_ probabilidades es g(s)" , s)# ). As,
por ejemplo, el estimador mximo verosmil de ." .# es X Y.

6.16. Intervalos de Confianza para Diferencia de Medias


_ e
Consideremos dos muestras aleatorias independientes X
Y de tamaos n1 y n2 respectivamente,
provenientes de dos poblaciones normales con medias .1 , .2 y varianzas 5"# , 5## , respectivamente,
donde las varianzas_ son_ conocidas. El estadstico natural para estimar la diferencia de medias en
las poblaciones es X Y y, como sabemos, la distribucin de este estadstico es
_ _
X Y N[." .# , (5"# /n" + 5## /n# )]
y
Z=

_ _
XY (.1 .2 )
5"# /n" + 5## /n#

N(0,1)

es el pivote que debemos considerar. De aqu, el intervalo de confianza del 100(1-!)% para
." .# est dado por

33

_ _
_ Z"!/# (5"# /n" + 5## /n# )"/# .
(X Y) +
Cuando 5"# y 5## son desconocidas, pero los tamaos de muestra n" y n# son suficientemente
grandes, reemplazamos dichas varianzas por sus correspondientes estimadores S#" y S## . Enseguida
se procede como en el caso en que las varianzas son conocidas.
Ahora bien, cuando 5"# y 5## son desconocidas, pero los tamaos de muestra n" y n# son pequeos,
la obtencin de la distribucin del pivote no es directa, a menos que las varianza de las dos
poblaciones normales sean iguales. En este caso, si 5"# = 5## = 5# , entonces
Z=

_
_
X Y (." .# )

5 1/n" + 1/n#

N(0, 1)

Podemos verificar fcilmente que, un estimador mximo verosmil para la varianza comn 5# de
ambas poblaciones es

5
s =
y que
S#: =

_
n1
n#
!3"
(X3 X)# + !3"
(Yi
Y)2
n" + n#
_
_
# (Y Y)#
!n3" (X3 X)# + !n3"
3
n" + n# 2

(n" 1) S#" + (n# 1) S##


n" +n# 2

es un estimador insesgado de 5# . Adems,


U" =

(n" 1)S#"
5#

;#n" ") ,

U# =

(n# 1)S##
5#

;#n# ") ,

de donde por Teorema 4.8.


U = U" + U# =

(n" 1)S#"
5#

(n# 1)S##
5#

;#n" +n# #) .

Se puede probar que Z y U son variables aleatorias independientes, por lo que


_ _
X Y (." .# )

T=
=
U/(n" +n# 2)
S: 1/n" + 1/n#
Z

tn" n# 2.

34

que el pivote que utilizamos en la construccin del intervalo. Por lo tanto, el intervalo de confianza
del 100(1 !)% viene dado por
_ _
_ t"!/# S: (1/n" +1/n# )"# .
(X Y) +

Ejemplo. Se realiza un estudio para comparar los contenidos de nicotina de dos marcas de
cigarrillo. 10 cigarrillos de la marca A dieron un contenido promedio en nicotina de 3.1 mlgr., con
una desviacin estndar de 0.5 mlgr., mientras que 8 cigarrillos de la marca B dieron un contenido
promedio de nicotina de 2.7 mlgr., con una desviacin estndar de 0.7.
Suponiendo que estos dos conjuntos de datos son muestras aleatorias provenientes de dos
poblaciones normales con varianzas iguales, estamos interesados en construir un intervalo del 95%
para la verdadera diferencia en el contenido medio de nicotina de las dos marcas.
Para ! = 0.05 encontramos en la tabla correspondiente a la distribucin t-student, con n" +n# 2 =
16 gl que t!*& = 2.12. Por otra parte, el valor de S: est dado por
S: = (

90.25 + 710.49 "/#


)
"'

= .596,

Por lo tanto un intervalo del 95% de confianza es: ( 0.20, 1.00).


Ahora, como la diferencia real podra as ser cero, no podemos concluir en base a este anlisis que
existe una diferencia real en los contenidos de nicotina en las dos marcas.

6.17. Intervalos de confianza para la razn de varianzas de dos


poblaciones Normales
El ejemplo anterior fue resuelto bajo el supuesto que 5"# /5## = 1. Sin este supuesto no habramos
tenido un procedimiento sencillo para determinar los lmites de confianza de un intervalo para
." .# .
Una forma de chequear la igualdad de varianza es a travs de la construccin de intervalos de
confianza del 100(1 !)% para 5"# /5## . Para ello consideremos dos muestras aleatorias
independientes X" ,...,Xn" y Y" ,...,Yn# , provenientes de dos poblaciones normales con medias y
varianzas desconocidas.
Sabemos que U" = (n" 1)S#" /5"# y U# = (n# 1)S## /5## son variables aleatorias independientes con
distribucin chi cuadrado con n" 1 y n# 2 grados de libertad, respectivamente. Luego el
cuociente
U" /(n" 1)
U# /(n# 1)

S#" 5##
S## 5"#

35

se distribuye F con (n" 1) gados de libertad en el numerador y (n# 1) grados de libertad en el


denominador. Entonces, utilizando este pivote, si f!/# y f"!/# son los correspondientes
percentiles de esta distribucin tenemos que
Pf!# S"# 5## f"!# = 1 !
# "
S# 5 #

de donde
P S## f!# 5## S## f"!# = 1 !
"
"
"
S#

5#

S#

Por lo tanto S## f!/# ; S## f"!/# es un intervalo del 100(1 !)% de
"
"
S#

S#

confianza para 5## /5"# .


Ejemplo. Considerando nuevamente el ejemplo anterior, tenemos que n" =10, n# =8, s" =0.5,
s# =0.7. Para 1 !=0.95, de las tablas de la distribucin F con 9 y 7 g.l. obtenemos:
f!!#& = "/f!*(& (7,9) = 1/4.2 = 0.238
y
f!*(& (9,7) = 4.82,
de donde
(0.33; 6.7) es un intervalo del 95% para 5## /5"# .
6.18. Intervalos de Confianza para Diferencia de Proporciones
Supongamos que X" ,...,Xn" es una muestra aleatoria de una poblacin Bernoulli con parmetro p" ,
y Y" ,...,Yn# una muestra aleatoria independiente, de otra poblacin_ Bernoulli
de parmetro p# .
_
Como vimos, los estimadores mximos verosmiles
para
p
y
p
son
X
y
Y
respectivamente,
y para
"
#
_ _
n" y n# suficientemente
_ _grandes sabemos que X e Y tienen distribucin aproximadamente normal.
As, la diferencia X Y se distribuye aproximadamente normal _con media
p" _ p# y_varianza
_
p" q" /n" + p# q# /n# . La varianza de p" p# la podemos estimar por X(1 X)/n" + Y(1 Y)/n# . De
manera que
Z=

_ _
XY (p
p )
_" _#
1/2
Y(1
n
+ nY)
_
_
X(1X)

"

N(0,1)

36

en forma aproximada y es un pivote adecuado para determinar un intervalo de confianza del


100(1-!)% para la diferencia de proporciones p" -p# . Por lo tanto
P( z"!/#

_ _
X
_Y (p
p )
_
_" _#
X(1nX) + Y(1nY) 1/2
"

z"!/# ) = 1 !

nos conduce al intervalo aproximado del 100(1-!)% para la p" p# . Este est dado por
_ _
_
_
_
_
_ z"!/# X(1 X)/n" + Y(1 Y)/n# "/# .
(X Y) +
Ejemplo. Supongamos que un fabricante necesita cierta pieza que puede ser proporcionada por
dos abastecedores A y B, a un mismo precio. Las piezas de A son defectuosas con probabilidad p"
y las de B con probabilidad p# . Supongamos adems que de n" =100 piezas del proveedor A se
encontraron 10 piezas defectuosas, mientras que de n# =150 del proveedor B se encontr 11
defectuosas. Interesa determinar un intervalo del 90% de confianza para la diferencia de
proporciones de piezas defectuosas de estos dos abastecedores.
De los datos tenemos
_ 10
_
9
= 0.10, sp# = y = 150
= 0.06
sp" = x = 100
z"-!/# = z!*& = 1.64 de la tabla normal estndar
As,
_ 1.64 ( (0.10)(0.90) + (0.06)(0.94) )"/# ,
0.10 0.06 +
100
150
o bien
( 0.0186; 0.986),
es un intervalo del 90% de confianza para p" p# . Igual que en el penltimo ejemplo, como este
intervalo contiene al cero, no podemos establecer cual es el proveedor con menor proporcin de
piezas defectuosas.

37

EJERCICIOS
1. Sea X" y X# una muestra aleatoria de tamao 2 proveniente de una poblacin X con media . y
varianza 5# .
a) Si disponemos de dos estimadores para .: .
s" =X=(X" +X# )/2 y
.
s# =(X" +2X# )/3. Cul de los dos es mejor?.
b) Para un estimador de la forma .
s= aX" +(1 a)X# , con 0 a 1.
Determine el valor de a que conduce al mejor estimador en esta forma.
2. Considere una muestra aleatoria X" ,...,X8 extraida desde una poblacin X con distribucin
geomtrica de la forma f(x,p)=px (1 p), con 0<p<1 y x=0,1,... Muestre que la media muestral es
un estadstico suficiente para p.
3. Sea X" , X# , X$ una muestra aleatoria de una poblacin X con distribucin normal de media . y
desviacin estndar 5. Cul es la eficiencia relativa del estimador .
s=(X" +X# +X$ )/4 con respecto
a X?.
4. Si X" , X# , X$ es una muestra de una poblacin Bernoulli con parmetro ), muestre que
Y=X" +2X# +X$ es un estimador suficiente para ).
5. La funcin de densidad de probabilidad de una poblacin est dada por:
f(x; )) =

2x/)2
0

0x)
e.o.c.

Basndose en una muestra aleatoria de tamao n:


Determine el estimador por momento (EM) y el estimador mximo verosmil (EMV) de ). Cul
de los dos es el mejor?.
6. Dada una muestra aleatoria de tamao n, extraida de una poblacin con densidad de
probabilidad
f(x; ., 5) =

1 (x5.)
5e

x>., . , 5>0

0
e.o.c.
Determine los estimadores mximos verosmiles para . y 5.
7. Sea X" ,...,Xn una muestra aleatoria de una distribucin Gamma (r,-).Encuentre el Estimador
Mximo Verosmil (EMV) y el estimador por Momentos (EM) de -, suponiendo que r es
conocido. Determine, adems, el EMV para )=(2- 1)# .
8. Suponga que el crecimiento anual de cierta variedad de pino sigue una distribucin normal con
media y varianza desconocida. Para una muestra de 5 pinos, los siguientes valores (en pies) fueron
registrados: 3, 5, 2, 1.5, y 3.5. Determine los estimadores, por el mtodo de los momentos, de . y
5# .
38

9. Sea X una variable aleatoria Binomial con parmetros n y p, con n conocido. Dada una muestra
aleatoria de m observaciones de X, determine el estimador de p mediante el mtodo de los
momentos y por el mtodo de mxima verosimilitud.
10. El tiempo de vida de una componente se supone exponencial con parmetro -. Diez de estas
componentes fueron sometidas a prueba en forma independiente y el nico dato registrado fue el
nmero de componentes que haban fallado antes de 100 horas de operacin. Se encontr que 3
haban fallado antes de las 100 horas. Cul es el estimador mximo verosmil para -?
11. Sea X" ,...Xn una muestra aleatoria de una poblacin X con densidad
f(x; )) = )x)" ; 0 x 1, )>0
Determine el Estimador Mximo verosmil de ).
12. Una mquina puede averiarse por dos razones A y B. Se desea estimar la probabilidad de
avera diaria de cada tipo sabiendo que:
i) La probabilidad de avera tipo A es el doble que la de B.
ii) No existen otros tipos de averas posibles.
iii) Se han observado 30 das con los resultados siguientes:
2 averas tipo A, 3 tipo B; 25 das sin averas.
13. Sea X" , X# una muestra de tamao dos de una distribucin uniforme con densidad
f(x) =

1/)
0

si 0 x )
e.o.c.

Determine la constante c 1 de manera que P(0 < ) < c(X" +X# )) = 1 !, con 0< ! < 1 dado.
14. El consumo de gasolina de cierto tipo de vehculo es aproximadamente normal con desviacin
estndar de 6 millas por galn. Si una muestra de 64 vehculos tiene un consumo promedio de 16
millas por galn:
a) Determine un intervalo de confianza del 95% para el consumo medio de
gasolina de todos los vehculos de este tipo.
b) Con un 95% de confianza, cul es el posible error si se considera que el
consumo medio es de 16 millas por galn?
c) Qu tan grande debe ser la muestra si queremos tener un 95% de
seguridad que la media muestral no difiera en ms de 0.5 millas por
galn de la verdadera media?.
15. Supongamos que la variable aleatoria X tiene una distribucin Poisson con parmetro -.
Consideremos adems una muestra alatoria de tamao n.
a) Determine el estimador mximo verosimil de -.
39

b) Determine un intervalo de confianza aproximado, del 95% para -.


16. El tiempo de vida de ciertas vlvulas producidas por
_ una industria sigue uan distribucin
normal. En una muestra aleatoria de 15 vlvulas se tienen x=1100 hrs. y s=50 hrs.
a) Determine un intervalo de confianza del 95% para el tiempo medio de
vida de este tipo de vlvulas.
b) Determine intervalos del 95% unilaterales y bilaterales para su varianza.
17. En determinada empresa manufacturera, durante un proceso de control de calidad, se encontr
que 12 de 100 items manufacturados presentaban defectos.
a) Encuentre un intervalo de confianza del 99% para la proporcin de items
defectuosos en el proceso de manufacturacin.
b) Con un 99% de confianza, cul es el posible error si la proporcin es
estimada por 0.12?.
18. La forestal Machitun se dedica a la explotacin de la especie Globulus de Eucaliptus. Una de
sus preocupaciones es estimar la altura promedio de dichos rboles a una edad determinada E! ,
donde se sabe que la desviacin estndar de las alturas de los rboles en E! es 2.5 mts. Para este
efecto, se consider una muestra aleatoria de 100 rboles, para los cuales la altura media es 8.0
mts. y la desviacin estndar result ser 2.0 mts.
a) Cul es la probabilidad que la media poblacional y la media muestral
difieran en una cantidad que no exceda de 0.5 mts?
b) Determine un intervalo de confianza del 95% para la verdadera altura
media de los rboles?
c) Los tcnicos desean que la diferencia entre la media muestral y
poblacional no exceda de 0.4 mts. con un 95% de seguridad. Fu
suficiente la muestra considerada inicialmente?.
d) Los tcnicos en realidad no estn muy seguros acerca del valor exacto
de la desviacin estndar poblacional. Qu hara usted para sacarlos de
esta duda?.
19. Una compaa tiene dos departamentos que produicen idnticos productos. Se sospecha que las
producciones por hora son diferentes en los dos departamentos. Para averiguar esto se consideran
muestras aleatorias de horas de produccin que proporcionan la siguiente informacin:
Depto. 1
Depto. 2

n1 =64
n# =49

_
x =100
_"
x# =90

Se sabe que las varianza de las producciones por hora estn dadas por 5"# =256 y 5## =196,
respectivamente. Hallar los lmites de confianza del 95% para D=." -.# , la diferencia verdadera
entre las producciones medias de los departamentos.
20. Se desea estimar la diferencia entre los salarios semanales de maquinistas y carpinteros. Se
toman dos muestras independientes, cada una de tamao 100, y se obtiene la siguiente
informacin:
40

Maquinistas
Carpinteros

n1 =100
n# =100

_
x1 =345
_
x2 =340

s#" =196
s## =204

Determinar los lmites de confianza del 95% para D=." -.# , si la poblacin se distribuye
normalmente.
21. Un telar se observa a intervalos de tiempo variable para estimar la proporcin de tiempo que se
_ 0.03 con una
encuentra en estado productivo. Se desea estimar esta proporcin dentro de +
confianza del 98%.
a) Qu tamao de muestra mnimo se requiere para asegurar una buena
precisin?.
b) Si p=0.8, cul es el tamao requerido para la muestra?.
c) Si p=0.8, cul es el tamao de muestra mnimo para estimar la
proporcin de la poblacin dentro de +/- 0.02 con un 98% de
confianza?.
22. Suponga que dispone de dos mtodos para medir el contenido de humedad en el proceso
de
_
coccin de la carne. El primer mtodo es aplicado en 41 ocasiones y se obtienen los datos_ x" =88.6
y s#" =109.63. El segundo mtodo es aplicado a una muestra de tamao 31 obtenindose x# =85.1 y
s## =65.99. Determine un intervalo del 99% de confianza para ." -.# , cuando se supone
distribuciones normales con 5"# =5## =5# .
23. Supongamos que la longitud de los clavos producidos por una mquina constituye una variable
aleatoria con distribucin normal. Una muestra de 5 clavos proporciona la siguiente informacin
en cuanto a longitud (en pulgadas): 1.14; 1.14; 1.15; 1.12; 1.10.
a) Construir un intervalo de confianza del 99% para la longitud media de
los clavos producidos por esta mquina.
b) Construir un intervalo de confianza del 90% para la varianza
poblacional.
24. La probabilidad que una plancha de Zinc fabricada por una mquina sea declarada de "segunda
clase", a causa de algn defecto, es p (desconocido).
a) Determine el estimador mximo verosimil de p, basado en los valores
observados de una muestra de 1000 planchas fabricadas por esta
mquina.
b) Si en 1000 planchas seleccionadas al azar en un da de produccin se
encuentra que 30 son de segunda, determine un intervalo de confianza
del 95% para p.
c) Determine el nmero de plancha requerida para asegurar con una
confianza de 0.95 que el error en la estimacin de la proporcin de
planchas de segunda clase, no sobrepase de 0.02.

41

25. En relacin al problema anterior, suponga que en la fbrica se selecciona una muestra de 1000
planchas para inspeccin cada da de trabajo. As, para cada da, se puede determinar un intervalo
de confianza del 95% para p y entonces, en 260 das de un ao de trabajo han sido calculados 260
intervalos de confianza. Cul es el nmero esperado de estos intervalos que cubren al verdadero
valor de p?. Cul es la probabilidad (aproximada) que al menos 240 de estos intervalos incluyan
al verdadero valor de p?.
26. El banco A seleccion una muestra al azar de 250 personas de entre sus 10.000 clientes con
cuenta corriente. Al mismo tiempo y en forma independiente, el banco B seleccion al azar 200
personas de entre sus 5000 clientes con cuenta corriente. El banco A encontr que 89 personas en
esta muestra utilizaban regularmente otros servicios del banco, mientras que el banco B encontr
que 52 personas de la muestra utilizaban otros servicios del banco. Estime la diferencia en la
proporcin de clientes con cuentas corrientes que regularmente usan otros servicios del banco, en
los bancos A y B. Use !=0.02.

42

Vous aimerez peut-être aussi