Vous êtes sur la page 1sur 18

Curso Inferencia

Estadı́stica
Miguel Ángel Chong R.
miguel@sigma.iimas.unam.mx

24 de septiembre del 2013

Miguel Chong Inferencia


Suficiencia

Cuando hacemos inferencia sobre un parámetro ✓, usando una


muestra aleatoria (X1 , . . . , Xn ) y un estadı́stico ✓ˆ (X1 , . . . , Xn ) que
resume la información proporcionada por la muestra. Podrı́amos
preguntarnos lo siguiente:
¿El resumen que realiza ✓ˆ (X1 , . . . , Xn ) con respecto a (X1 , . . . , Xn )
es tal que no se pierde información que pudiera contener la
muestra acerca del (los) parámetro(s) poblacional(es)?
Según Fisher, un estadı́stico es suficiente para hacer inferencia
sobre un parámetro ✓, si resume el conjunto de información
relevante suministrada por la muestra y ningún otro estadı́stico
(otra función de la muestra) puede proporcionar información
adicional a cerca del parámetro desconocido ✓.

Miguel Chong Inferencia


Definición Estadı́stico suficiente
Un estadı́stico es suficiente respecto al parámetro ✓ si la
distribución de probabilidad de la muestra (X1 , . . . , Xn )
condicionada al estadı́stico no depende del parámetro ✓, es decir
⇣ ⌘
F (X1 , . . . , Xn ) |✓ˆ (X1 , . . . , Xn ) = t) no depende de ✓ .

Miguel Chong Inferencia


Existe otra manera que nos permitirá de manera más fácil decir si
un estadı́stico es suficiente.
Teorema de Factorización
Una condición necesaria y suficiente para que el estadı́stico ✓ˆ (X )
sea suficiente, es que la función de verosimilitud de la muestra la
podamos escribir de la siguiente forma

n
Y
L(✓; X ) = f (xi ; ✓)
i=1
⇣ ⌘
= g ✓ˆ (X ) ; ✓ · h(X )

donde g (✓ˆ (X ) ; ✓) depende del parámetro y de la muestra, a través


del estadı́stico ✓ˆ (X ), y h(X ) no depende de ✓.

Miguel Chong Inferencia


Teorema Si el estadı́stico ˆ
⇣ ⌘ ✓1 (X ) es suficiente y existe una función inyectiva tal
que ✓ˆ2 (X ) = f ✓ˆ1 (X ) entonces el estadı́stico ✓ˆ2 (X ) es también suficiente.
⇣ ⌘
Demostración Por ser f inyectiva tenemos que si ✓ˆ2 (X ) = f ✓ˆ1 (X )
⇣ ⌘
entonces está bien definida ✓ˆ1 (X ) = f 1 ✓ˆ2 (X ) .
Por otro lado como ✓ˆ1 (X ) es suficiente tenemos que

⇣ ⌘
L(✓; X) = g ✓ˆ1 (X ) ; ✓ · h(X )
⇣ ⇣ ⌘ ⌘
= g f 1 ✓ˆ2 (X ) ; ✓ · h(X )
⇣ ⌘
= g1 ✓ˆ2 (X ) ; ✓ · h(X ),
⇣ ⌘ ⇣ ⌘
donde g1 ✓ˆ2 (X ) ; ✓ = g f 1
✓ˆ2 (X ) ; ✓ . Entonces ✓ˆ2 (X ) es suficiente para
✓.

De manera intuitiva podrı́amos entender este resultado como, si ✓ˆ1 (X ) se


puede calcularse a partir de ✓ˆ2 (X ), entonces el conocimiento de ✓ˆ2 (X ), debe
ser al menos tan bueno como el de ✓ˆ1 (X ).
Miguel Chong Inferencia
Notemos que un recı́proco al último teorema serı́a el siguiente:
Si los estadı́sticos estadisticos ✓ˆ1 (X ) y ✓ˆ2 (X ) son suficientes para
el parámetro ✓ entonces están relacionados funcionalmente, es
decir uno se puede ver como una función del otro.

Miguel Chong Inferencia


Ahora si una distribución depende de dos parámetros ✓1 y ✓2 , también podemos
encontrar vı́a el criterio de factorización estimadores suficientes ✓ˆ1 (X ) y ✓ˆ2 (X ) para
✓1 y ✓2 respectivamente, esto es lo que nos dice el siguiente resultado.
Teorema
Los estadı́sticos ✓ˆ1 (X ) y ✓ˆ2 (X ) son conjuntamente suficientes para ✓1 y ✓2
respectivamente si solo si
⇣ ⌘
L(✓1 , ✓2 ; X ) = g1 ✓ˆ1 (X ) , ✓ˆ2 (X ) ; ✓1 , ✓2 · h(X)

donde
⇣ ⌘
g1 ✓ˆ1 (X ) ; ✓1 depende del parámetro ✓1 y de la muestra, a través del estadı́stico
✓ˆ1 (X ),
⇣ ⌘
g2 ✓ˆ2 (X ) ; ✓2 depende del parámetro ✓2 y de la muestra, a través del estadı́stico
✓ˆ2 (X ) y
h(X ) no depende de ✓.

Miguel Chong Inferencia


Suficiencia Minimal

A continuación veremos un método general para encontrar un


estadı́stico que resuma la información de la muestra lo más posible
y sin pérdida de información sobre el parámentro ✓, y a este
estadı́stico lo llamaremos suficiente minimal.
Definición Estadı́stico suficiente y minimal
Un estimador es suficiente minimal, si es suficiente y cualquier
reducción de la información definida por el ya no es suficiente, es
decir desprecia información que está contenida en la muestra,
acerca del parámetro ✓.

Miguel Chong Inferencia


Existe un método general 1 para encontrar estadı́stico(s)
suficiente(s) minimal(es), este método supone la existencia de dos
muestras aleatorias de tamaño n, X = (X1 = x1 , . . . , Xn = xn ) y
Y = (Y1 = y1 , . . . , Yn = yn ), y se calcula el cociente de sus
verosimilitudes, es decir
⇣ ⌘
Qn g ˆ (X ) ; ✓ · h (X )

f (xi ; ✓) L(✓; X )
Qi=1
n = = ⇣ ⌘ .
i=1 f (yi ; ✓) L(✓; X ) g ✓ˆ (Y ) ; ✓ · h (Y )

Para que esta última igualdad no dependa del parámetro ✓


necesitamos que
⇣ ⌘ ⇣ ⌘
g ✓ˆ (X ) ; ✓ = g ✓ˆ (Y ) ; ✓ ,

y entonces diremos que ✓ˆ (X ) es suficiente y minimal para ✓.

1
Debido a Lehmann y She↵é
Miguel Chong Inferencia
Teorema de Rao-Blackwell
Sea una población con función de densidad f (x; ✓) y sea ✓ˆ un estimador
insesgado para el parámetro ✓ y T un estadı́stico suficiente del mismo
parámetro ✓. Entonces si hacemos:

h i
g (T ) = ˆ
E ✓|T

se verifica:
1 g (T ) es un estadı́stico y es función del estadı́stico suficiente.
2 E [g (T )] = ✓.
⇣ ⌘
3 Var (g (T ))  Var ✓ˆ .

Es decir, el estadı́stico g (T ) es función del estadı́stico suficiente, es un


estimador insesgado de ✓ y su varianza es menor que la del estimador
insesgado ✓.

Miguel Chong Inferencia


Completitud

Definición Familia completa


Una familia de distribuciones {F (x; ✓)} es completa si para
cualquier función h(x) la identidad:

E [h(x)] = 0 entonces P (h(x) = 0) = 1

en todos los puntos para los cuales f (x; ✓) > 0 para algún ✓.
Esta definición nos indica que una familia de distribuciones es
completa si el único estimador insesgado de cero es el mismo cero.

Miguel Chong Inferencia


Un estadı́stico T es completo si la correspondiente familia de
distribuciones de T es completa. Ası́ pues se pone de manifiesto
que la propiedad de completitud es una propiedad de la familia de
distribuciones.
Definición Estadı́stico suficiente completo.
Diremos que un estadı́stico suficiente T es completo, si la familia
de distribuciones del estadı́stico suficiente T es completa.

Miguel Chong Inferencia


Teorema de Lehmann-Sche↵é
Si T es un estadı́stico suficiente y completo para ✓, y si existe un
estimador insesgado ✓,ˆ del parámetro ✓, entonces existe un único
estimador UMVUE dado por

h i
ˆ
g (T ) = E ✓|T

Miguel Chong Inferencia


La familia exponencial
Existe una clase o familia de distribuciones en la que todos los
parámetros de las distribuciones que la integran tienen estadı́sticos
suficientes. Este grupo de distribuciones recibe el nombre de familia
exponencial de distribuciones, y como veremos será bastante fácil
obtener estadı́sticos suficientes del parámetro con esta familia.

Miguel Chong Inferencia


Definición Familia exponencial de distribuciones uniparamétrica.
Diremos que una familia de distribuciones es exponencial
uniparamétrica si la forma de la función de masa de probabilidad
P (X = x) en el caso discreto o la densidad densidad f (x; ✓) se
puede factorizar de la siguiente forma

f (x; ✓) = a (✓) b (x) ec(✓)d(x) ,

donde:
a (✓) y c (✓) son funciones reales de ✓ y
b (x) y d (x) son funciones reales de x.

Miguel Chong Inferencia


A partir de un elemento de la familia exponencial podemos encontrar estimadores
suficientes y minimal usando el método de Lehmann y Sche↵é para obtener un
estadı́stico suficiente y minimal de la familia exponencial
Supongamos que tenemos dos muestras

(X1 , . . . , Xn ) (Y1 , . . . , Yn ) .

Notemos que la verosimilitud con respecto a la primera muestra la podemos escribir


como

n
Y
L (x1 , . . . , xn ; ✓) = f (x1 , . . . , xn ; ✓) = f (xi ; ✓)
i=1
n
Y
= a (✓) b (xi ) ec(✓)d(xi )
i=1
n
X
n c(✓) d(xi )
Y
= an (✓) b (xi ) e i=1 .
i=1

De forma análoga tenemos que para la segunda muestra

n
X
n c(✓) d(yi )
Y
L (y1 , . . . , yn ; ✓) = an (✓) b (yi ) e i=1 .
Miguel Chong Inferencia
i=1
Por lo tanto el cociente de verosimilitudes queda como

n
X
c(✓) d(xi )
Qn
L (x1 , . . . , xn ; ✓) an (✓) i=1 b (xi ) e
i=1
= n
L (y1 , . . . , yn ; ✓) X
c(✓) d(yi )
Qn
an (✓) i=1 b (yi ) e i=1 .
0 1
n
X n
X
B C
Qn c(✓)@ d(xi ) d(yi )A
b (xi )
= Qi=1
n e i=1 i=1 ,
i=1 b (yi )

entonces el cociente de verosimilitudes no dependerá de ✓, siempre que


Xn Xn n
X n
X
d (xi ) d (yi ) = 0, o equivalentemente si d (xi ) = d (yi ), y por lo tanto
i=1 i=1 i=1 i=1
n
X
d (xi ) es el estadı́stico suficiente y minimal.
i=1

Miguel Chong Inferencia


Definición Estimador invariante.
Un estimador ✓ˆ del parámetro ✓ es invariante si una función del
estimador ✓,ˆ es igual a la función del estimador del parámetro

ˆ = fd
f (✓) (✓).

Miguel Chong Inferencia