Un estimador, es un estadstico (esto es, una funcin de la muestra) usado
para estimar un parmetro desconocido de la poblacin. Por ejemplo, si se desea conocer el precio medio de un artculo (el parmetro desconocido) se recogern observaciones del precio de dicho artculo en diversos establecimientos (la muestra) y la media aritmtica de las observaciones puede utilizarse como estimador del precio medio. Estimacin, es un valor numrico especfico de nuestro estimador. Una estimacin es un valor especfico observado de una estadstica. 1. Insesgabilidad: Es deseable que un estimador sea insesgado o centrado, es decir, que su sesgo sea nulo por ser su esperanza igual al parmetro que se desea estimar. Por ejemplo, si se desea estimar la media de una poblacin, la media aritmtica de la muestra es un estimador insesgado de la misma, ya que su esperanza (valor esperado) es igual a la media de la poblacin. Nota: Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor esperado) del estimador y el verdadero valor del parmetro a estimar. 2. Eficiencia: Se refiere a que un estimador es ms eficiente o ms preciso que otro estimador, si la varianza del primero es menor que la del segundo. Un estimador es ms eficiente (ms preciso), por tanto, cuanto menor es su varianza. La eficiencia de los estimadores est limitada por las caractersticas de la distribucin de probabilidad de la muestra de la que proceden. Por ejemplo, si y son ambos estimadores de y diremos que es ms eficiente que. 3. Consistente: Un estimador se dice consistente si converge al parmetro, es decir, si su distribucin se concentra alrededor del parmetro a medida que aumenta el tamao de la muestra, de forma tal que el error de muestreo tiende a desaparecer. Si un estimador es coherente, se vuelve ms confiable si tenemos tamaos de muestras ms grandes. 4. Suficiente Se dice que un estimador es suficiente si contiene o (absorbe) toda la informacin relevante contenida en la muestra, de forma que ningn otro estimador pueda proporcionar informacin adicional sobre el parmetro desconocido de la poblacin. TEOREMA DEL LIMITE CENTRAL El teorema del lmite central o teorema central del lmite indica que, en condiciones muy generales, si Sn es la suma de n variables aleatorias independientes y de varianza no nula pero finita, entonces la funcin
de distribucin de Sn se aproxima bien a una distribucin normal (tambin
llamada distribucin gaussiana, curva de Gauss o campana de Gauss). As pues, el teorema asegura que esto ocurre cuando la suma de estas variables aleatorias e independientes es lo suficientemente grande. 1. Definicin Sea como1
la funcin de densidad de la distribucin normal definida
Con una media y una varianza 2. El
caso en el que su funcin de densidad sea le conoce como normal estndar.
, a la distribucin se
Se define Sn como la suma de n variables aleatorias, independientes,
idnticamente distribuidas, y con una media y varianza 2 finitas (20): de manera que, la media de Sn es n y la varianza n2, dado que son variables aleatorias independientes. Con tal de hacer ms fcil la comprensin del teorema y su posterior uso, se hace una estandarizacin de Sn como
Para que la media de la nueva variable sea igual a 0 y la desviacin
estndar sea igual a 1. As, las variables Zn convergern en distribucin a la distribucin normal estndar N (0,1), cuando n tienda a infinito. Como consecuencia, si (z) es la funcin de distribucin de N(0,1), para cada nmero real z:
Donde Pr ( ) indica probabilidad y lim se refiere a lmite matemtico.
2. Enunciado formal De manera formal, normalizada y compacta el enunciado del teorema es:
Teorema del lmite central: Sea , ,...,
un conjunto de variables aleatorias, independientes e idnticamente distribuidas con media y varianza . Sea
Entonces
Es muy comn encontrarlo con la variable estandarizada Zn en
funcin de la media muestral ,
Puesto que son equivalentes, as como encontrarlo en versiones no
normalizadas como puede ser:
Teorema (del lmite central): Sea
, , ..., un conjunto de variables aleatorias, independientes e idnticamente distribuidas de una distribucin con media y varianza 20. Entonces, si n es suficientemente grande, la variable aleatoria
Tiene aproximadamente una distribucin normal con
y
3. Varianza nula o infinita
En el caso de n variables aleatorias Xi independientes e idnticamente distribuidas, cada una de ellas con varianza nula o infinita, la distribucin de las variables:
No convergen en distribucin hacia una normal. A continuacin se
presentan los dos casos por separado. 4. Varianza infinita Considrese el caso de variables que siguen una distribucin de Cauchy:
En este caso puede demostrarse que la distribucin asinttica
de Sn viene dada por otra distribucin de Cauchy, con menor varianza:
Para otras distribuciones de varianza infinita no es fcil dar una
expresin cerrada, par su distribucin de proababilidad aunque su funcin caracterstica si tiene una forma sencilla, dad apor el teorema de Lvy-Khintchine:
Donde
y:
Las condiciones anteriores equivalen a que una distribucin de
probabilidad sea una distribucin estable. 5. Varianza nula Este caso corresponde trivialmente a una funcin degenerada tipo delta de Dirac cuya funcin de distribucin viene dada por:
En este caso resulta que la variable
trivialmente tiene la misma distribucin que cada una de las variables independientes.