1. Sea {xi }ni=1 ∼ fX (x; θ). En clase se vio que para encontrar el estimador máximo verosímil se tiene
que resolver la siguiente ecuación:
máx L(x; θ).
θ
Supongamos que las primeras dos derivadas de fX (x; θ) existen y que fX (x; θ) > 0. Si se dene
`(x; θ) = log L(x; θ), demuestra que, para obtener el estimador máximo verisímil, es equivalente
resolver
máx `(x; θ).
θ
2. El principio de verosimilitud nos dice que, en la inferencia sobre θ, después de que x es observada,
toda información relevante al experimento esta contenida en la función de verosimilitud. Por lo tanto,
dos funciones de verosimilitud contienen la misma información sobre θ si son proporcionales entre
sí. Consideremos los dos siguientes modelos para las variables aleatorias X1 y X2 :
3. Sea {xi }ni=1 una muestra aleatoria de una población con fdp dada por:
4. Sea {xi }ni=1 una muestra aleatoria de la distribución Poisson con parámetro θ.
1
a) Encuentra un estimador insesgado para τ (θ) = (1 + θ) e−θ .
b) Encuentra el estimador máximo verosímil de τ (θ).
6. Sean {xi }m
i=1 varaibles aleatorias con distribución multinomial, es decir
m
n!
(1)
Y
f (x; p1 , . . . , pm ) = Qm pxi i ,
i=1 xi !
i=1
en donde x1 + · · · + xm = n y p1 + · · · + pm = 1.
Supongamos que n es conocido, encuentra el estimador, por el método de máxima verosimilitud,
para p1 , . . . , pm . HINT: En este caso la verosimilitud esta dada por la Ecuación (1) y recuerda que
la suma de las p0i s es igual a uno.
7. Sea {xi }ni=1 una muestra aleatoria con función de densidad dada por
si x > 1,
(
θ e−θ x
f (x; θ) =
1 − e−θ si 0 6 x 6 1.
8. Sea {Xi }ni=1 una muestra aleatoria de una población Ga(a, b). Si a y b son desconocidas, no existe
fórmula explícita para los EMV de ellas, pero el máximo puede encontrarse numéricamente. En-
cuentra los EMV de a y b para los datos que obtengas simulando en R 10000 observaciones de una
distribución gamma con parámetros a = 4.2 y b = .8 jando una semilla (set.seed) 123456.
10. Sea {Xi }3i=1 una muestra aleatoria de una población normal con media µ y varianza σ 2 . Consideremos
los siguientes estimadores para µ:
X1 + 2X2 + 3X3 X1 + 4X2 + X3
T1 (x) = T2 (x) =
6 6
Calcula el Error caudrático Medio de T1 y T2 . De estas dos propuestas, ¾cuál es la mejor? y ¾Existe
algún otro estimador mejor que estos dos?
2
11. Supongamos que se tiene una muestra aleatoria {xi }ni=1 con función de densidad dada por f (x; θ).
Sea x = (x1 , . . . , xn ) un conjunto de datos de T = (T1 , T2 ), donde T1 = T1 (x) y T2 = T2 (x) son dos
estadísticos independientemente distribuidos. Demuestra que su información de Fisher esta dada por
Encuentra la Cota Inferior de Crámer y Rao para τ (θ) = θ y la estadística T (x) para la cual se
alcanza la igualdad.