Vous êtes sur la page 1sur 4

REQUISITOS PARA SER UN BUEN ESTIMADOR

Un estimador, es un estadstico (esto es, una funcin de la muestra) usado


para
estimar
un
parmetro
desconocido
de
la
poblacin.
Por ejemplo, si se desea conocer el precio medio de un artculo (el
parmetro desconocido) se recogern observaciones del precio de dicho
artculo en diversos establecimientos (la muestra) y la media aritmtica de
las observaciones puede utilizarse como estimador del precio medio.
Estimacin, es un valor numrico especfico de nuestro estimador. Una
estimacin es un valor especfico observado de una estadstica.
1. Insesgabilidad:
Es deseable que un estimador sea insesgado o centrado, es decir,
que su sesgo sea nulo por ser su esperanza igual al parmetro que
se
desea
estimar.
Por ejemplo, si se desea estimar la media de una poblacin, la media
aritmtica de la muestra es un estimador insesgado de la misma, ya
que su esperanza (valor esperado) es igual a la media de la
poblacin.
Nota: Se denomina sesgo de un estimador a la diferencia entre la
esperanza (o valor esperado) del estimador y el verdadero valor del
parmetro a estimar.
2. Eficiencia:
Se refiere a que un estimador es ms eficiente o ms preciso que
otro estimador, si la varianza del primero es menor que la del
segundo. Un estimador es ms eficiente (ms preciso), por tanto,
cuanto
menor
es
su
varianza.
La eficiencia de los estimadores est limitada por las caractersticas
de la distribucin de probabilidad de la muestra de la que proceden.
Por ejemplo, si y son ambos estimadores de y diremos que es ms
eficiente que.
3. Consistente:
Un estimador se dice consistente si converge al parmetro, es decir,
si su distribucin se concentra alrededor del parmetro a medida que
aumenta el tamao de la muestra, de forma tal que el error de
muestreo
tiende
a
desaparecer.
Si un estimador es coherente, se vuelve ms confiable si tenemos
tamaos de muestras ms grandes.
4. Suficiente
Se dice que un estimador es suficiente si contiene o (absorbe) toda la
informacin relevante contenida en la muestra, de forma que ningn
otro estimador pueda proporcionar informacin adicional sobre el
parmetro desconocido de la poblacin.
TEOREMA DEL LIMITE CENTRAL
El teorema del lmite central o teorema central del lmite indica que, en
condiciones
muy
generales,
si Sn es
la
suma
de n variables
aleatorias independientes y de varianza no nula pero finita, entonces la funcin

de distribucin de Sn se aproxima bien a una distribucin normal (tambin


llamada distribucin gaussiana, curva de Gauss o campana de Gauss). As
pues, el teorema asegura que esto ocurre cuando la suma de estas variables
aleatorias e independientes es lo suficientemente grande.
1. Definicin
Sea
como1

la funcin de densidad de la distribucin normal definida

Con una media y una varianza 2. El


caso en el que su funcin de densidad sea
le conoce como normal estndar.

, a la distribucin se

Se define Sn como la suma de n variables aleatorias, independientes,


idnticamente distribuidas, y con una media y varianza 2 finitas
(20):
de manera que, la media de Sn es n y
la varianza n2, dado que son variables aleatorias independientes. Con
tal de hacer ms fcil la comprensin del teorema y su posterior uso, se
hace una estandarizacin de Sn como

Para que la media de la nueva variable sea igual a 0 y la desviacin


estndar sea igual a 1. As, las variables Zn convergern en
distribucin a la distribucin normal estndar N (0,1), cuando n tienda
a infinito. Como consecuencia, si (z) es la funcin de distribucin de
N(0,1), para cada nmero real z:

Donde Pr ( ) indica probabilidad y lim se refiere a lmite matemtico.


2. Enunciado formal
De manera formal, normalizada y compacta el enunciado del teorema
es:

Teorema del lmite central: Sea , ,...,


un conjunto de
variables aleatorias, independientes e idnticamente distribuidas con
media y varianza
. Sea

Entonces

Es muy comn encontrarlo con la variable estandarizada Zn en


funcin de la media muestral
,

Puesto que son equivalentes, as como encontrarlo en versiones no


normalizadas como puede ser:

Teorema (del lmite central): Sea


,
, ...,
un conjunto de
variables aleatorias, independientes e idnticamente distribuidas de
una distribucin con media y varianza 20. Entonces, si n es
suficientemente grande, la variable aleatoria

Tiene aproximadamente una distribucin normal con


y

3. Varianza nula o infinita


En el caso de n variables aleatorias Xi independientes e idnticamente
distribuidas, cada una de ellas con varianza nula o infinita, la distribucin
de las variables:

No convergen en distribucin hacia una normal. A continuacin se


presentan los dos casos por separado.
4. Varianza infinita
Considrese el caso de variables que siguen una distribucin de
Cauchy:

En este caso puede demostrarse que la distribucin asinttica


de Sn viene dada por otra distribucin de Cauchy, con menor varianza:

Para otras distribuciones de varianza infinita no es fcil dar una


expresin cerrada, par su distribucin de proababilidad aunque
su funcin caracterstica si tiene una forma sencilla, dad apor el teorema
de Lvy-Khintchine:

Donde

y:

Las condiciones anteriores equivalen a que una distribucin de


probabilidad sea una distribucin estable.
5. Varianza nula
Este caso corresponde trivialmente a una funcin degenerada tipo delta
de Dirac cuya funcin de distribucin viene dada por:

En este caso resulta que la variable


trivialmente tiene la misma
distribucin que cada una de las variables independientes.

Vous aimerez peut-être aussi