Vous êtes sur la page 1sur 18

Curso de Estadstica

Jhonny Escalona

ndice general
1. Muestreo Y Distribuciones Muestrales.
1.1. Distribucin Gamma y Distribucin . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Distribucin t-student y Distribucin F . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2

2. Estimacin de Parmetros.

1
3
7
8

10

2.1. Estimacin Puntual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10


2.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

ndice de guras

Captulo 1

Muestreo Y Distribuciones
Muestrales.
Considere un experimento aleatorio para el cual se desea escoger un modelo, posiblemente con
uno o varios parmetros que tendremos que ajustar.

Ejemplo 1. En el lanzamiento de una moneda, la variable aleatoria

X toma el valor de 1 si se

obtiene cara y 0 si se obtiene sello. As, P (X = 1) = p y P (X = 0) = 1 p. Por lo tanto, p es la


probabilidad de obtener cara y es un parmetro del modelo. Si suponemos que la moneda es justa,
tenemos que p = 21 . Para obtener informacin sobre el parmetro p y comprobar si la moneda es
justa, repetimos el experimento una cantidad n de veces.

Ejemplo 2. El nmero de electores en Venezuela para el ao 2012 es de aproximadamente 19


millones. Si se quiere determinar la proporcin de personas con intencin de votar, es decir la tasa
de participacin, claramente es imposible entrevistar a toda la poblacin electoral, en cambio, se
realiza una encuesta de unas 4000 personas y se le pregunta si tiene intencin de ir a votar.

Denicin 1.0.1. Una muestra aleatoria de tamao n es una coleccin X1 , . . . , Xn de variables


aleatorias independientes e identicamente distribuidas.

Denicin 1.0.2. Un estadstico es una funcin de una muestra aleatoria.


Denicin 1.0.3. Dada una muestra aleatoria X1 , . . . , Xn , se dene la media muestral como
= X1 + + Xn .
X
n

Proposicin 1.0.1. Si

X1 , . . . , Xn es una muestra aleatoria de una poblacin con media y


= y V ar(X)
= 2 .
varianza , entonces E(X)
n
2

CAPTULO 1.

Muestreo Y Distribuciones Muestrales.

Demostracin:
n

E(X)

= E

1X
Xi
n i=1

1
= E
n

n
X

!
Xi

i=1

1X
1X
E(Xi ) =
= .
n i=1
n i=1

Ya que X1 , . . . , Xn son variables aleatorias independientes se tiene


n

V ar(X)

1X
Xi
n i=1

= V ar

n
X
1
Xi
= 2 V ar
n
i=1

n
n
1 X
1 X 2
2
V
ar(X
)
=
=
.
i
2
2
n i=1
n i=1
n

Proposicin 1.0.2. Si X1 , . . . , Xn es una muestra aleatoria de una poblacin N (, 2 ), entonces


tiene distribucin N (, 2 ).
X
n

Demostracin: La funcin generadora de momentos de X es


MX (t)

= E(etX ) = E(e n X1 ++ n Xn )
t
t
t
t
= E(e n X1 ) E(e n Xn ) = MX1 ( ) MXn ( ).
n
n
t

= e n + 2

2 t2
n2

e n + 2

2 t2
n2

1 2 2
n

= et+ 2 t

As, la funcin generadora de momentos de X es la misma de una normal con media y varianza
2
2

n . Por lo tanto, X tiene distribucin N (, n ).

Denicin 1.0.4. Dada una muestra aleatoria X1 , . . . , Xn , con


muestral como
n
S2 =

Proposicin 1.0.3. Si

n 2 se dene la

varianza

1 X
2.
(Xi X)
n 1 i=1

X1 , . . . , Xn es una muestra aleatoria de una poblacin con varianza 2 ,

entonces E(S 2 ) = 2 .

Demostracin:
n
X
(Xi )2

i=1

n
X

+ (X
))2
((Xi X)

i=1

n
X
i=1

2+2
(Xi X)

n
n
X
X
X
) +
)2
(Xi X)(
(X
i=1

i=1

CAPTULO 1.

Ya que

Pn

Muestreo Y Distribuciones Muestrales.

i=1 (Xi

= 0, tenemos que
X)
n
X

(Xi )2 =

i=1

n
X
2 + n(X
)2 .
(Xi X)
i=1

Aplicando el operador esperanza tenemos


n
X

E[(Xi ) ] = E

( n
X

i=1

)
2
(Xi X)

)2 ].
+ nE[(X

i=1

=
Como E[(Xi )2 ] = V ar(Xi ) = 2 y E[(X )2 ] = V ar(X)
(
2

n = E

n
X
2
(Xi X)

2
n

se tiene

)
+ 2

i=1

De donde obtenemos E(S 2 ) = 2 .

1.1.

Distribucin Gamma y Distribucin

2 .

Denicin 1.1.1. La funcin : (0, +) 7 [0, +) denida por


Z
(x) =

tx1 et dt

es conocida como la funcin Gamma.


Utilizando la tcnica de integracin por partes se puede deducir la siguiente proposicin.

Proposicin 1.1.1. Para todo x > 0 se tiene (x + 1) = x(x)


Demostracin: Ejercicio.
De la anterior proposicin se deduce que (n + 1) = n! para todo n = 1, 2, . . ..

Proposicin 1.1.2.

1
2

Demostracin: Ejercicio.
Denicin 1.1.2. Diremos que una variable aleatoria tiene distribucin Gamma con parmetros
, > 0 si su funcin de densidad de probabilidad viene dad por
(
x
1
1
e
si x 0
() x
f (x) =
0
si x < 0

Observe que para = 1 la distribucin Gamma es la distribucin exponencial con parmetro > 0.

CAPTULO 1.

Muestreo Y Distribuciones Muestrales.

Proposicin 1.1.3. La funcin generadora de momentos de una variable aleatoria con distribucin
Gamma de parmetros , est denida en el intervalo (, 1 ) y viene dada por
1
.
(1 t)

M (t) =

Demostracin: Utilizando la denicin de funcin generadora de momentos tenemos


Z
M (t) =

etx

x
1
x1 e dx,
()

esta integral es equivalente a


M (t) =

()

x1 e(t )x dx,

observe que esta ltima integral es nita si t (, 1 ).


v
Realice el cambio de variable x = 1t
para obtener
1
M (t) =
()(1 t)

v 1 ev dv =

1
.
(1 t)

Derivando la funcin generadora de momentos y evaluando en t = 0 se obtiene la siguiente


proposicin.

Proposicin 1.1.4. Si

X es una variable aleatoria con distribucin Gamma de parmetros , ,


entonces E(X) = y V ar(X) = 2 .

Demostracin: Ejercicio.
Denicin 1.1.3. A la distribucin gamma de parmetros =

n
2

y = 2 se le denomina 2 con

n grados de libertad y la denotaremos por 2n .

De la proposicin 1.1.3 se tiene.

Proposicin 1.1.5. La funcin generadora de momentos de una variable aleatoria 2 con n grados
de libertad est denida en (, 12 ) y viene dada por
M (t) =

1
n .
(1 2t) 2

La prueba de la siguiente proposicin es inmediata.

Proposicin 1.1.6. Si

X es una variable aleatoria con distribucin 2 con n grados de libertad,

entonces E(X) = n y V ar(X) = 2n.

CAPTULO 1.

Muestreo Y Distribuciones Muestrales.

Proposicin 1.1.7. Si X es una variable aleatoria N (0, 1), entonces X 2 tiene distribucin 2 con
1 grado de libertad.

Demostracin: Sea Y

= X 2 . Como Y toma valores no negativos, FY (y) = 0 para y < 0. Si y 0,

entonces
FY (y)

P (Y y)

P (X 2 y)

= P ( y X y)
Z y
x2
1
e 2 dx
=

2
y
Z y
x2
1
e 2 dx
= 2
2
0
=

Derivando FY (y) obtenemos


y
1
1
fY (y) = y 2 e 2 ,
2

y>0

fY (y) = 0 en otro caso. Observe que esta funcin es la funcin de densidad de una variable aleatoria

gamma de parmetros =

1
2

y = 2, es decir, X 2 tiene distribucin 2 con 1 grado de libertad.

Proposicin 1.1.8. Si
N (0, 1), entonces

Pn

i=1

X1 , . . . , Xn es una muestra aleatoria de una poblacin con distribucin

Xi2 tiene distribucin 2 con n grados de libertad.

Demostracin: Ejercicio.
Proposicin 1.1.9. Si

X1 , . . . , Xn es una muestra aleatoria de una poblacin con distribucin

N (, ), entonces X y S 2 son variables aleatorias independientes.


2

Demostracin: Demostraremos el teorema para el caso = 0 y 2 = 1. Sea


1
1
u = ( , . . . , )t Rn .
n
n

Utilizando tcnicas de algebra es posible obtener una matriz ortogonal1 A cuya primera la sea ut .

Sea X = (X1 , . . . , Xn )t y Y = AX . Observe que Y1 = uX = nX .


Por propiedades de la matriz A se tiene 2
n
X
i=1

Xi2 =

n
X

Yi2 .

i=1

1 Una Matriz cuadrada A es ortogonal si A1 = At .


2 Si A es ortogonal y y = Ax para x, y Rn , entonces kxk = kyk.

CAPTULO 1.

Muestreo Y Distribuciones Muestrales.

El determinate del jacobiano de la transformacin inversa X = At Y es J = det(At ) = 1, as, la


funcin de densidad conjunta de Y es
fY (y) = fX (x)|J| =

(2)

1
2

e 2

Pn

i=1

x2i

(2)

1
2

e 2

Pn

i=1

yi2

Esta ltima ecuacin demuestra que Y1 , . . . , Yn es una muestra aleatoria N (0, 1) porque?. Por otro
lado,
n
X

Yi2

i=2

n
X

Yi2 Y12

i=1

n
X

2
Xi2 nX

i=1

n
X

2
(Xi X)

i=1

Como Y1 , . . . , Yn es una muestra aleatoria , se tiene que Y1 y


quiere decir que X y S 2 son independientes.

Pn

i=2

Yi2 son independientes, esto

Proposicin 1.1.10. Suponga que

Z = T + W , donde T y W son variables aleatorias indepen-

dientes. Si Z y T tienen distribucin 2m y 2n respectivamente, donde m > n. Entonces W tiene


distribucin 2 como m n grados de libertad.

Demostracin: Como T y W son variables aleatorias independientes, se tiene


MZ (t) = MT (t)MW (t),

esto implica,

1
1
m =
n MW (t),
(1 2t) 2
(1 2t) 2

de donde obtenemos
MW (t) =

1
(1 2t)

mn
2

Por lo tanto, W tiene distribucin 2mn .

Proposicin 1.1.11. Si
N (, ), entonces
2

n1 2
2 S

X1 , . . . , Xn es una muestra aleatoria de una poblacin con distribucin

tiene distribucin 2 con n 1 grados de libertad.

CAPTULO 1.

Muestreo Y Distribuciones Muestrales.

Demostracin: Observe que


2
n 
X
Xi
i=1

n1 2
=
S +n
2


2
X
.

(1.1)

Ya que X1 , . . . , Xn es una muestra aleatoria de una poblacin con distribucin N (, 2 ), se tiene




2

que cada Xi tiene distribucin N (0, 1) y por tanto cada Xi tiene distribucin 2 con 1
grado de libertad. Como
X1 , . . . , Xn son variables aleatorias independientes, de la proposicin
 1.1.8
2
Pn  Xi 2
2
tiene distribucin con n grado de libertad. Observe que n X
se tiene que i=1

tiene distribucin 2 con 1 grado de libertad. Utilizando la ecuacin (1.1) y las proposiciones 1.1.9
2
2
y 1.1.10 se tiene que n1
2 S tiene distribucin con n 1 grados de libertad.

1.2.

Distribucin t-student y Distribucin

F.

Proposicin 1.2.1. Suponga que Z tiene distribucin N (0, 1) y que Y tiene tiene distribucin 2
con n grados de libertad. Si Z y Y son independientes, entonces el estadstico Z tiene funcin
Y /n
de densidad
n+1
( n+1 )
f (x) = 2 n
n( 2 )

1+

x2
n

(1.2)

x R.

Demostracin: Ejercicio.
Denicin 1.2.1. Una variable aleatoria tiene distribucin t-student con n grados de libertad si
su funcin de densidad de probabilidad viene dada por (1.2).

Denicin 1.2.2. Una variable aleatoria tiene distribucin F con

m grados de libertad en el

numerador y n grados de libertad en el denominador si su funcin de densidad de probabilidad


viene dada por
f (x) =

m+n
 m  m2 m 
( n+m
m  2
2 )
2 1
x
1
+
x
,
n
m
n
n
2 ( 2 )

x > 0.

(1.3)

Teorema 1.2.1. Suponga que U y V son variables aleatorias con distribucin 2 con m y n grados
de libertad respectivamente. Si U y V son independientes, entonces U/m
V /n tiene distribucin F con
m grados de libertad en el numerador y n grados de libertad en el denominador.

Demostracin: Ejercicio.
Teorema 1.2.2. Suponga que

X1 , . . . , Xm y Y1 , . . . , Yn son muestras aleatorias independientes


2

x
y
respectivamente. Entonces SSxy2 /
/y2 tiene distribucin F con m grados de libertad en el numerador y n grados de libertad en el denominador.

N (x , x2 )

N (y , y2 )

CAPTULO 1.

Muestreo Y Distribuciones Muestrales.

Demostracin: Ya que X1 , . . . , Xm y Y1 , . . . , Yn son muestras aleatorias independientes, se tiene


que Sx2 y Sy2 son variables aleatorias independientes. Adems, de la proposicin 1.1.11 se tiene que
m1 2
n1 2
2
con m 1 y n 1 grados de libertad respectivamente. As,
2 Sx y 2 Sy tienen distribucin
x
y
por el teorema 1.2.1
Sx2 /x2
Sy2 /y2

tiene distribucin F con m 1 grados de libertad en el numerador y n 1 grados de libertad en el


denominador.

1.3.

Ejercicios

1. Suponga X tiene distribucin 2 con 2 grados de libertad. Calcular P (X > 5.99) y


P (2X 14.76). Hallar el valor de x tal que P (X x) =0.01.
2. Sea X una variable aleatoria con funcin generadora de momentos M (t) = (1 2t)6 , t < 12 .
Hallar P (X 5.23).
El siguiente problema da una relacin entre la distribucin gamma y la distribucin Poisson.
3. Demuestre que
Z

k1
X x e
1 k1 x
x
e dx =
,
(k)
x!
x=0

k = 1, 2, 3, . . . .

4. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con distribucin N (, 2 ). Calcular


V ar(S 2 ).
5. Suponga que X y S 2 son la media y varianza de una muestra aleatoria de tamao 25 de una
poblacin con distribucin N (3, 100). Calcular P (0 < X < 6, 5.52 < S 2 < 145.6).
6. Sea X una variable aleatoria con distribucin t student con 10 grados de libertad. Hallar
P (|X| > 2.228).
7. Sea X una variable aleatoria con distribucin t student con 14 grados de libertad. hallar el
valor de b tal que P (b < X < b) = 0.90.
8. Suponga que la variable aleatoria X tiene distribucin F con m = 5 grados de libertad en el
numerador y n = 10 grados de libertad en el denominador, hallar valores de a y b tales que
P (a < X < b) = 0.90 y P (X a) = 0.05, P (X b) = 0.95.

CAPTULO 1.

Muestreo Y Distribuciones Muestrales.

9. Demuestre que si X tiene distribucin F con m grados de libertad en el numerador y n grados


de libertad en el denominador, entonces X1 tiene distribucin F con n grados de libertad en
el numerador y m grados de libertad en el denominador.
10. Demuestre que si X tiene distribucin t student con n grados de libertad, entonces X 2
tiene distribucin F con 1 grados de libertad en el numerador y n grados de libertad en el
denominador.

Captulo 2

Estimacin de Parmetros.
Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad f (., ),
, es denominado espacio de parmetros. Sea x1 , . . . , xn son las observaciones de la muestra,
estamos interesados en obtener la distribucin de la cual fue generada estos datos, es decir, deseamos
determinar el valor de que caracteriza la distribucin. A este problema se le llama inferencia
estadstica. En muchos problemas de este tipo, la distribucin de probabilidad que gener los
datos es completamente conocida excepto por el valor del parmetro . Por ejemplo, el nmero de
defectos de cierto tipo cable tiene distribucin Poisson con parmetro , pero el valor de puede ser
desconocido. Si se puede observar el nmero de defectos de este tipo de cable, entonces, a partir de
estas observaciones, es posible producir una inferencia acerca del valor desconocido del parmetro
. En este cpitulo abordaremos este problema.
2.1.

Estimacin Puntual

Denicin 2.1.1. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad
f (., ), con . Un estimador de es una funcin de la muestra aleatoria.
Denicin 2.1.2. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad
= .
f (., ), con . Diremos que es un estimador insesgado de si E()
Ejemplo 3. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con media , entonces X es
un estimador insesgado para . Si x1 , . . . , xn son las observaciones, se dice que x es el valor estimado
de .
Si es un estimador insesgado de , entonces por la desigualdad de Chebyshev se tiene que para
cada  > 0,
P (| | )

10

V ar()
.
2


CAPTULO 2. Estimacin de Parmetros.

11

Intuitivamente, la desigualdad de Chebyshev, indica que si la varianza del estimador es pequea,


entonces los valores observados del estimador estaran muy cerca del valor desconocido . En este
sentido, es de inters obtener estimadores, que sean insesgado y que tengan varianza mnima.

Denicin 2.1.3. Supongamos que

X1 , . . . , Xn es una muestra aleatoria de una poblacin con


funcin de densidad f (., ). Diremos que un estimador es lineal si
= c1 X1 + + cn Xn ,

donde c1 , . . . , cn son constantes.

Proposicin 2.1.1. Supongamos que

X1 , . . . , Xn es una muestra aleatoria de una poblacin con


media y varianza . De todos los estimadores lineales insesgado de , X es el de mnima
2

varianza.

Demostracin: Sea

T = c1 X1 + + cn Xn un estimador lineal insesgado de . As, E(T ) =

(c1 + + cn ) = , por tanto c1 + + cn = 1. Como X1 , . . . , Xn son independientes se tiene


V ar(T )

= V ar(c1 X1 ) + + V ar(cn Xn )
= c21 V ar(X1 ) + + c2n V ar(Xn )
=

(c21 + + c2n ) 2 .

Suponiendo que T es de mnima varianza, aplicamos multiplicadores de Lagrange al problema


mncRn f (c) sujeto a c1 + + cn = 1. Donde f (c) = (c21 + + c2n ) 2 . Se obtiene c1 = c2 = =
.
cn = n1 . Es decir T = X

Denicin 2.1.4. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad
f . La funcin de verosimilitud asociada a la muestra es la funcin de densidad conjunta del
vector aleatorio (X1 , . . . , Xn ). Es decir, la funcin de verosimilitud es la funcin L : Rn [0, +)
denida por
L(x1 , . . . , xn ) = f (x1 ) f (xn ).

Supongamos que X1 , . . . , Xn es una muestra aleatoria de una poblacin con funcin de densidad
f (., ), con . La funcin de verosimilitud en este caso depende de , por lo tanto la denotaremos
por L . Si x1 , . . . , xn son las observaciones de la muestra, denotaremos por la estimacin de

mxima verosimilitud de , esto es el valor de que maximiza a la funcin de verosimilitud L . En


general, depende de x1 , . . . , xn .

Ejemplo 4. Supongamos que X1 , . . . , Xn es una muestra aleatoria de una poblacin con funcin de
densidad exponencial de parmetro y que x1 , . . . , xn son observaciones de la muestra. la funcin

12

CAPTULO 2. Estimacin de Parmetros.

de densidad de la poblacin es f (x, ) = 1 e para x 0. La funcin de verosimilitud viene dada


por
x

L (x1 , . . . , xn ) =

Derivando con respecto de se tiene

L (x1 , . . . , xn ) =

1 x1 ++xn

e
.
n

x1 + + xn
n
n+2 +1

!
e

x1 ++xn

n
Esta derivada tiene un cambio de signo en = x1 ++x
, de esta forma, la estimacin de mxima
n
x
++x
verosimilitud para es = 1 n n . Por lo tanto, el estimador de mxima verosimilitud es

1 , . . . , Xn ) = X1 + + Xn .
(X
n

En general, no es posible encontrar una expresin cerrada para el estimador de mxima verosimilitud, por ejemplo, si X1 , . . . , Xn es una muestra aleatoria de una poblacin con funcin de densidad
Gamma de parmetros , , para obtener la estimacin de mxima verosimilitud de , , hay que
recurrir a mtodos nmericos de optimizacin, esto debido a la presencia de la funcin en la
funcin de verosimilitud. Sin embargo, para este ejemplo, es posible obtener una expresin cerrada
para los estimadores de , por otra tcnica denominada el mtodo de los momentos.

Denicin 2.1.5. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad
f (., ), Rk . Se dene el m simo momento muestral como
n

Mk =

1X m
X .
n i=1 i

El mtodo de los momentos consiste en obtener estimadores para el vector de parmetros


resolviendo el sistema de ecuaciones E(X m ) = Mm , m = 1, . . . , k.

Ejemplo 5. Sea

X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad

Gamma de parmetros , . Para obtener estimadores de y por el mtodo de los momentos,


resolvemos E(X) = M1 , E(X 2 ) = M2 donde X tiene distribucin Gamma de parmetros , .
Utilizando E(X) = y V ar(X) = 2 , obtenemos que la solucin al sistema de ecuaciones
2
2
nX
(n1)S
E(X) = M1 , E(X 2 ) = M2 es
= (n1)S
.
2 y =

nX

Denicin 2.1.6. Sea un estimador de . Diremos que un estimador consistente de si


converge en probabilidad a . Es decir, si para todo  > 0
lm P (| | ) = 0.

Ejemplo 6. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con media y varianza 2 ,
entonces X es un estimador insesgado para . Adems X es un estimador consistente de ya que
de la desigualdad de Chebyshev se tiene que para todo  > 0
| )
P (|X

2
,
n2

13

CAPTULO 2. Estimacin de Parmetros.

lo que implica
| ) = 0.
lm P (|X

Denicin 2.1.7. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad
f (., ). Sea T un estadstico. Diremos que T es un estadstico suciente para si para todos los
posibles resultados t de T la distribucin condicional de X = (X1 , . . . , Xn ) dado T = t no depende
de

Teorema 2.1.1. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad
f (., ), . Sea T un estadstico. Entonces T es suciente para si y slo si existen funciones
h : Rn [0, +) y : R [0, +) tales que h no depende de y
L (x1 , . . . , xn ) = h(x1 , . . . , xn )(, T ).

Ejemplo 7. Supongamos que X1 , . . . , Xn es una muestra aleatoria de una poblacin con funcin de
densidad exponencial de parmetro y que x1 , . . . , xn son observaciones de la muestra. Entonces X
x
es un estadstico suciente para , ya que, la funcin de densidad de la poblacin es f (x, ) = 1 e
para x 0 y la funcin de verosimilitud viene dada por
L (x1 , . . . , xn ) =

Si colocamos h(x1 , . . . , xn ) = 1 y (, x) =

1 x1 ++xn

e
.
n

x
1 n

n e

se tiene que

L (x1 , . . . , xn ) = h(x1 , . . . , xn )(, x


).

2.2.

Ejercicios

1. Sea X1 , X2 , X3 una muestra aleatoria de una poblacin con distribucin uniforme en (


1
1
n(X1 , X2 , X3 ), K = max(X1 , X2 , X3 ) y T = 21 (G + K).
2 , + 2 ). Sea G = m

a ) Demuestre que T es un estimador insesgado de la media de la poblacin.


b ) Calcular V ar(G), V ar(K) y Cov(G, K).
.
c ) Demuestre que V ar(T ) < V ar(X)

Este es un ejemplo donde X no es el mejor estimador insesgado para la media de la poblacin.


Observe que T es no lineal.
2. Suponga que se tiene una muestra aleatoria X1 , . . . , Xn para cada una de las siguientes funciones de densidades

a ) f (x; ) = x e /x!, x = 0, 1, 2, . . ., theta 0, f (0; 0) = 1.

CAPTULO 2. Estimacin de Parmetros.

14

b ) f (x; ) = x1 , 0 < x < 1, > 0.


c ) f (x; ) = 1 ex/ , x > 0, > 0.
d ) f (x; ) = 12 e|x| , x R, R.
e ) f (x; ) = e(x) , x, R.
En cada caso, hallar el estimador de mxima verosimilitud para .
3. Para cada una de las distribuciones dadas en el ejercicio anterior, hallar el estimador para
por el mtodo de los momentos y demostrar que es consistente.
4. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con distribucin Bernoulli de parmetro
desconocido (0, 1). Pruebe que X es una estadstico suciente para .
5. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con distribucin Gamma de parmetros , , con conocido. Es X un estadstico suciente para ?

Bibliografa
[1] Hogg, R. V. and Craig, A. (1978). Introduction to Mathematical Statistics. Collier Macmillan
International Editions, Fourth edition.
[2] Morris, H. DeGroot (1988). Probabilidad y Estadstica. Addison Wesley, segunda edicin.
[3] Pestman, W. (1998). Mathematical Statistics. Walter de Gruyter, second edition.
[4] Ross, S. (1997). Introduction to Probability Models. Academic Press, Sixth edition.

15

Vous aimerez peut-être aussi