Académique Documents
Professionnel Documents
Culture Documents
Jhonny Escalona
ndice general
1. Muestreo Y Distribuciones Muestrales.
1.1. Distribucin Gamma y Distribucin . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Distribucin t-student y Distribucin F . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
2. Estimacin de Parmetros.
1
3
7
8
10
ndice de guras
Captulo 1
Muestreo Y Distribuciones
Muestrales.
Considere un experimento aleatorio para el cual se desea escoger un modelo, posiblemente con
uno o varios parmetros que tendremos que ajustar.
X toma el valor de 1 si se
Proposicin 1.0.1. Si
CAPTULO 1.
Demostracin:
n
E(X)
= E
1X
Xi
n i=1
1
= E
n
n
X
!
Xi
i=1
1X
1X
E(Xi ) =
= .
n i=1
n i=1
V ar(X)
1X
Xi
n i=1
= V ar
n
X
1
Xi
= 2 V ar
n
i=1
n
n
1 X
1 X 2
2
V
ar(X
)
=
=
.
i
2
2
n i=1
n i=1
n
= E(etX ) = E(e n X1 ++ n Xn )
t
t
t
t
= E(e n X1 ) E(e n Xn ) = MX1 ( ) MXn ( ).
n
n
t
= e n + 2
2 t2
n2
e n + 2
2 t2
n2
1 2 2
n
= et+ 2 t
As, la funcin generadora de momentos de X es la misma de una normal con media y varianza
2
2
Proposicin 1.0.3. Si
n 2 se dene la
varianza
1 X
2.
(Xi X)
n 1 i=1
entonces E(S 2 ) = 2 .
Demostracin:
n
X
(Xi )2
i=1
n
X
+ (X
))2
((Xi X)
i=1
n
X
i=1
2+2
(Xi X)
n
n
X
X
X
) +
)2
(Xi X)(
(X
i=1
i=1
CAPTULO 1.
Ya que
Pn
i=1 (Xi
= 0, tenemos que
X)
n
X
(Xi )2 =
i=1
n
X
2 + n(X
)2 .
(Xi X)
i=1
E[(Xi ) ] = E
( n
X
i=1
)
2
(Xi X)
)2 ].
+ nE[(X
i=1
=
Como E[(Xi )2 ] = V ar(Xi ) = 2 y E[(X )2 ] = V ar(X)
(
2
n = E
n
X
2
(Xi X)
2
n
se tiene
)
+ 2
i=1
1.1.
2 .
tx1 et dt
Proposicin 1.1.2.
1
2
Demostracin: Ejercicio.
Denicin 1.1.2. Diremos que una variable aleatoria tiene distribucin Gamma con parmetros
, > 0 si su funcin de densidad de probabilidad viene dad por
(
x
1
1
e
si x 0
() x
f (x) =
0
si x < 0
Observe que para = 1 la distribucin Gamma es la distribucin exponencial con parmetro > 0.
CAPTULO 1.
Proposicin 1.1.3. La funcin generadora de momentos de una variable aleatoria con distribucin
Gamma de parmetros , est denida en el intervalo (, 1 ) y viene dada por
1
.
(1 t)
M (t) =
etx
x
1
x1 e dx,
()
()
x1 e(t )x dx,
v 1 ev dv =
1
.
(1 t)
Proposicin 1.1.4. Si
Demostracin: Ejercicio.
Denicin 1.1.3. A la distribucin gamma de parmetros =
n
2
y = 2 se le denomina 2 con
Proposicin 1.1.5. La funcin generadora de momentos de una variable aleatoria 2 con n grados
de libertad est denida en (, 12 ) y viene dada por
M (t) =
1
n .
(1 2t) 2
Proposicin 1.1.6. Si
CAPTULO 1.
Proposicin 1.1.7. Si X es una variable aleatoria N (0, 1), entonces X 2 tiene distribucin 2 con
1 grado de libertad.
Demostracin: Sea Y
entonces
FY (y)
P (Y y)
P (X 2 y)
= P ( y X y)
Z y
x2
1
e 2 dx
=
2
y
Z y
x2
1
e 2 dx
= 2
2
0
=
y>0
fY (y) = 0 en otro caso. Observe que esta funcin es la funcin de densidad de una variable aleatoria
gamma de parmetros =
1
2
Proposicin 1.1.8. Si
N (0, 1), entonces
Pn
i=1
Demostracin: Ejercicio.
Proposicin 1.1.9. Si
Utilizando tcnicas de algebra es posible obtener una matriz ortogonal1 A cuya primera la sea ut .
Xi2 =
n
X
Yi2 .
i=1
CAPTULO 1.
(2)
1
2
e 2
Pn
i=1
x2i
(2)
1
2
e 2
Pn
i=1
yi2
Esta ltima ecuacin demuestra que Y1 , . . . , Yn es una muestra aleatoria N (0, 1) porque?. Por otro
lado,
n
X
Yi2
i=2
n
X
Yi2 Y12
i=1
n
X
2
Xi2 nX
i=1
n
X
2
(Xi X)
i=1
Pn
i=2
esto implica,
1
1
m =
n MW (t),
(1 2t) 2
(1 2t) 2
de donde obtenemos
MW (t) =
1
(1 2t)
mn
2
Proposicin 1.1.11. Si
N (, ), entonces
2
n1 2
2 S
CAPTULO 1.
n1 2
=
S +n
2
2
X
.
(1.1)
2
que cada Xi tiene distribucin N (0, 1) y por tanto cada Xi tiene distribucin 2 con 1
grado de libertad. Como
X1 , . . . , Xn son variables aleatorias independientes, de la proposicin
1.1.8
2
Pn Xi 2
2
tiene distribucin con n grado de libertad. Observe que n X
se tiene que i=1
tiene distribucin 2 con 1 grado de libertad. Utilizando la ecuacin (1.1) y las proposiciones 1.1.9
2
2
y 1.1.10 se tiene que n1
2 S tiene distribucin con n 1 grados de libertad.
1.2.
F.
Proposicin 1.2.1. Suponga que Z tiene distribucin N (0, 1) y que Y tiene tiene distribucin 2
con n grados de libertad. Si Z y Y son independientes, entonces el estadstico Z tiene funcin
Y /n
de densidad
n+1
( n+1 )
f (x) = 2 n
n( 2 )
1+
x2
n
(1.2)
x R.
Demostracin: Ejercicio.
Denicin 1.2.1. Una variable aleatoria tiene distribucin t-student con n grados de libertad si
su funcin de densidad de probabilidad viene dada por (1.2).
m grados de libertad en el
m+n
m m2 m
( n+m
m 2
2 )
2 1
x
1
+
x
,
n
m
n
n
2 ( 2 )
x > 0.
(1.3)
Teorema 1.2.1. Suponga que U y V son variables aleatorias con distribucin 2 con m y n grados
de libertad respectivamente. Si U y V son independientes, entonces U/m
V /n tiene distribucin F con
m grados de libertad en el numerador y n grados de libertad en el denominador.
Demostracin: Ejercicio.
Teorema 1.2.2. Suponga que
x
y
respectivamente. Entonces SSxy2 /
/y2 tiene distribucin F con m grados de libertad en el numerador y n grados de libertad en el denominador.
N (x , x2 )
N (y , y2 )
CAPTULO 1.
1.3.
Ejercicios
k1
X x e
1 k1 x
x
e dx =
,
(k)
x!
x=0
k = 1, 2, 3, . . . .
CAPTULO 1.
Captulo 2
Estimacin de Parmetros.
Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad f (., ),
, es denominado espacio de parmetros. Sea x1 , . . . , xn son las observaciones de la muestra,
estamos interesados en obtener la distribucin de la cual fue generada estos datos, es decir, deseamos
determinar el valor de que caracteriza la distribucin. A este problema se le llama inferencia
estadstica. En muchos problemas de este tipo, la distribucin de probabilidad que gener los
datos es completamente conocida excepto por el valor del parmetro . Por ejemplo, el nmero de
defectos de cierto tipo cable tiene distribucin Poisson con parmetro , pero el valor de puede ser
desconocido. Si se puede observar el nmero de defectos de este tipo de cable, entonces, a partir de
estas observaciones, es posible producir una inferencia acerca del valor desconocido del parmetro
. En este cpitulo abordaremos este problema.
2.1.
Estimacin Puntual
Denicin 2.1.1. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad
f (., ), con . Un estimador de es una funcin de la muestra aleatoria.
Denicin 2.1.2. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad
= .
f (., ), con . Diremos que es un estimador insesgado de si E()
Ejemplo 3. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con media , entonces X es
un estimador insesgado para . Si x1 , . . . , xn son las observaciones, se dice que x es el valor estimado
de .
Si es un estimador insesgado de , entonces por la desigualdad de Chebyshev se tiene que para
cada > 0,
P (| | )
10
V ar()
.
2
11
varianza.
Demostracin: Sea
= V ar(c1 X1 ) + + V ar(cn Xn )
= c21 V ar(X1 ) + + c2n V ar(Xn )
=
(c21 + + c2n ) 2 .
Denicin 2.1.4. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad
f . La funcin de verosimilitud asociada a la muestra es la funcin de densidad conjunta del
vector aleatorio (X1 , . . . , Xn ). Es decir, la funcin de verosimilitud es la funcin L : Rn [0, +)
denida por
L(x1 , . . . , xn ) = f (x1 ) f (xn ).
Supongamos que X1 , . . . , Xn es una muestra aleatoria de una poblacin con funcin de densidad
f (., ), con . La funcin de verosimilitud en este caso depende de , por lo tanto la denotaremos
por L . Si x1 , . . . , xn son las observaciones de la muestra, denotaremos por la estimacin de
Ejemplo 4. Supongamos que X1 , . . . , Xn es una muestra aleatoria de una poblacin con funcin de
densidad exponencial de parmetro y que x1 , . . . , xn son observaciones de la muestra. la funcin
12
L (x1 , . . . , xn ) =
L (x1 , . . . , xn ) =
1 x1 ++xn
e
.
n
x1 + + xn
n
n+2 +1
!
e
x1 ++xn
n
Esta derivada tiene un cambio de signo en = x1 ++x
, de esta forma, la estimacin de mxima
n
x
++x
verosimilitud para es = 1 n n . Por lo tanto, el estimador de mxima verosimilitud es
1 , . . . , Xn ) = X1 + + Xn .
(X
n
En general, no es posible encontrar una expresin cerrada para el estimador de mxima verosimilitud, por ejemplo, si X1 , . . . , Xn es una muestra aleatoria de una poblacin con funcin de densidad
Gamma de parmetros , , para obtener la estimacin de mxima verosimilitud de , , hay que
recurrir a mtodos nmericos de optimizacin, esto debido a la presencia de la funcin en la
funcin de verosimilitud. Sin embargo, para este ejemplo, es posible obtener una expresin cerrada
para los estimadores de , por otra tcnica denominada el mtodo de los momentos.
Denicin 2.1.5. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad
f (., ), Rk . Se dene el m simo momento muestral como
n
Mk =
1X m
X .
n i=1 i
Ejemplo 5. Sea
nX
Ejemplo 6. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con media y varianza 2 ,
entonces X es un estimador insesgado para . Adems X es un estimador consistente de ya que
de la desigualdad de Chebyshev se tiene que para todo > 0
| )
P (|X
2
,
n2
13
lo que implica
| ) = 0.
lm P (|X
Denicin 2.1.7. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad
f (., ). Sea T un estadstico. Diremos que T es un estadstico suciente para si para todos los
posibles resultados t de T la distribucin condicional de X = (X1 , . . . , Xn ) dado T = t no depende
de
Teorema 2.1.1. Sea X1 , . . . , Xn una muestra aleatoria de una poblacin con funcin de densidad
f (., ), . Sea T un estadstico. Entonces T es suciente para si y slo si existen funciones
h : Rn [0, +) y : R [0, +) tales que h no depende de y
L (x1 , . . . , xn ) = h(x1 , . . . , xn )(, T ).
Ejemplo 7. Supongamos que X1 , . . . , Xn es una muestra aleatoria de una poblacin con funcin de
densidad exponencial de parmetro y que x1 , . . . , xn son observaciones de la muestra. Entonces X
x
es un estadstico suciente para , ya que, la funcin de densidad de la poblacin es f (x, ) = 1 e
para x 0 y la funcin de verosimilitud viene dada por
L (x1 , . . . , xn ) =
Si colocamos h(x1 , . . . , xn ) = 1 y (, x) =
1 x1 ++xn
e
.
n
x
1 n
n e
se tiene que
2.2.
Ejercicios
14
Bibliografa
[1] Hogg, R. V. and Craig, A. (1978). Introduction to Mathematical Statistics. Collier Macmillan
International Editions, Fourth edition.
[2] Morris, H. DeGroot (1988). Probabilidad y Estadstica. Addison Wesley, segunda edicin.
[3] Pestman, W. (1998). Mathematical Statistics. Walter de Gruyter, second edition.
[4] Ross, S. (1997). Introduction to Probability Models. Academic Press, Sixth edition.
15