Vous êtes sur la page 1sur 3

Estadstica Inferencial I

Propiedades de los estimadores

Carolina Soto N.
14/09/15

Propiedades de los estimadores


Insesgabilidad
Estimador insesgado. El trmino insesgado se refiere al hecho de que una media
de muestra es un estimador no sesgado de una media de poblacin porque la
distribucin de muestreo de las medias de muestra tomadas de la misma
poblacin es igual a la media de la poblacin misma.
Un estimador puntual es insesgado si la media de la distribucin muestral del
estadstico (esperanza matemtica del estadstico) es igual al parmetro por
estimar; es decir, si

es un estadstico cualquiera y

correspondiente y si

, entonces

es un estimador insesgado de

Como se vio en el ejemplo 9.3,


que

entonces
continuacin

son estimadores insesgados de

embargo, si se usa

es el parmetro
.

, de donde se concluye
y

, respectivamente. Sin

para estimar la varianza de una muestra,


. Esto se puede demostrar fcilmente como se ve a

El sesgo en este caso es

, el cual desaparecer cuando n tienda a infinito.

Consistencia o exactitud
Por lo general un estimador no es idntico al parmetro que se estima, existe una
diferencia entre ellos
que es el error de muestreo, pero si se aumenta el
tamao de la muestra suficientemente, la probabilidad de que esta diferencia sea
mayor que un nmero fijo
tender a cero. Esto es
cuando

Estadstica Inferencial I
Propiedades de los estimadores

Claramente,
son de

Carolina Soto N.
14/09/15

y Md son estimadores consistentes de

, as como

lo

Eficiencia o precisin
Un estimador

es ms eficiente que

menor que la del segundo (


Como se vio en el ejemplo 9.3

de q , si la varianza del primero es

).
y Md son estimadores insesgados de

tambin consistentes; sin embargo,


eficiente que Md para estimar .

, de donde

es un estimador ms

Suficiencia
Se dice de manera intuitiva que un estimador es suficiente, si transmite tanta
informacin de la muestra como sea posible acerca del parmetro, de modo que
se proporciona mayor informacin por cualquier otro estimador calculado de la
misma muestra: y si se obtiene el valor de un estadstico suficiente los valores de
muestra mismos no proporcionan ms informacin sobre el parmetro. Por
ejemplo, tanto la media ( ) como la mediana como el centro de amplitud (C.A.)
se pueden usar como estimadores de ; sin embargo, slo la media
toma en
cuenta cada valor o toda la informacin de la muestra, mientras que el centro de
amplitud slo toma en cuenta el primer y ltimo valor, y la mediana es una medida
de tendencia central de posicin. As pues, la media es un estimador suficiente
para .
Estimador insesgado de varianza mnima
Es aquel que tiene menor varianza que cualquier otro estimador insesgado para
todos los posibles valores del parmetro.
Para los problemas estadsticos prcticos, es importante determinar si es que
existe dicho estimador, ya que, naturalmente, se evitaran procedimientos menos
que ptimos, en igualdad de condiciones. Esto ha llevado al desarrollo sustancial
de la teora estadstica relacionada con el problema de la estimacin ptima.
Aunque la memoria particular de "ptimo" aqu - que requiere insesgamiento y
medir la "bondad" con la varianza - puede no ser siempre lo que se quiere para
cualquier situacin prctica dada, es una donde se encuentran los resultados
tiles y de aplicacin general.

Estadstica Inferencial I
Propiedades de los estimadores

Carolina Soto N.
14/09/15

Robustez
La robustez de un mtodo de estimacin se refiere a su condicin para obtener
estimaciones insensibles ante posibles violaciones de alguno de los supuestos
fijados al especificar un modelo, en particular, el relativo a la distribucin admitida
para la perturbacin aleatoria. Un estimador robusto produce buenas
estimaciones (en algn sentido), ante una amplia variedad de posibles procesos
generadores de datos. De acuerdo con la formalizacin habitual en la estadstica
matemtica, se supone que las observaciones del fenmeno en estudio son
generadas a partir de un proceso aleatorio, representado por un miembro F de la
familia paramtrica F de funciones de distribucin: F = {F ; }
Varianza mnima
Criterio de Varianza Mnima En general, el diseo de un estimador se realizar
siguiendo un criterio de optimalidad, el que habitualmente es el error cuadrtico
medio mnimo (MMSE). Definicin: Error Cuadrtico Medio El error cuadrtico
medio (MSE: Mean Square Error) entre un estimador y se define como
mse() = E[( ) 2].
Estimador insesgado de varianza mnima = estimador insesgado con menor
varianza dentro de la clase de los insesgados
si existe, es nico cmo encontrarlo?
Teorema: Cota de Cramer-Rao
(X1,...,Xn) m.a.s. de una variable aleatoria X cuya distribucin verifica ciertas
condiciones de regularidad.un estimador insesgado de
Proporciona la menor varianza posible de un estimador insesgado

Definicin: condiciones de regularidad y insesgado. es eficiente si:


Var() = cota C-R
Si es el estimador eficientees el insesgado de mnima varianza

Vous aimerez peut-être aussi