Académique Documents
Professionnel Documents
Culture Documents
INTRODUCCION.
PARAMETROS POBLACIONALES.
Cuando nos dan la poblacin, de modo que conocemos f(x), entonces los parmetros
poblacionales son tambin conocidos.
Por ejemplo, hay razones para "suponer" que una poblacin tiene una distribucin de
probabilidad del tipo normal respecto a una variable aleatoria X, en tal caso no
sabramos el valor de ni (o al menos uno) y desearamos ESTIMAR lo no
conocido.
ESTADISTICOS MUESTRALES.
Una m. a. (n) estar formada por n variables aleatorias (X1 a Xn), la m. a. (n) se
"describe" por los valores (x1, x2,..., xn) que toman las v.a. X1 a Xn, estos
valores se obtienen "midiendo" las n variables aleatorias en los elementos de la
muestra.
2
Cualquier valor obtenido para una muestra con el fin de estimar un parmetro
poblacional se llama ESTADISTICO MUESTRAL.
DISTRIBUCION MUESTRAL.
MEDIA MUESTRAL.
Sean X1, X2,.....,Xn las variables aleatorias de una m. a. (n), entonces la Media
de la muestra o Media muestral es una variable aleatoria definida por:
_
X = (X1 + X2 + X3 +.....+ Xn) / n
MUESTREO.
Los mtodos estadsticos que nos permiten inferir, a partir de datos limitados
(muestras) los comportamientos (poblaciones) que a largo plazo se esperan, se llaman
"estadsticas inductivas" o "inferencias estadsticas" o "estimaciones". En el proceso
de formacin de inferencias podemos cometer "errores" con respecto al estado
natural. Debemos saber apreciar estos errores para tener una medida de "confianza"
en nuestras conclusiones inductivas. Debido a que estos errores son el resultado de
variables aleatorias, se los puede evaluar slo en trminos de probabilidades. Ahora
bien, un "estadstico" muestral, siendo una variable aleatoria, debe tener una
distribucin de probabilidad propia. La funcin de probabilidad de un "estadstico",
llamada "distribucin muestral del estadstico", tiene propiedades bien definidas, como
cualquier otro modelo de probabilidad. A partir de esas propiedades de la
distribucin de un "estadstico" podemos calcular los riesgos (errores debido al azar)
que se pueden cometer al hacer "estimaciones" para la "poblacin" en base a
"muestras".
Nos interesan las sumas de las variables aleatorias por dos razones. En primer lugar,
a menudo podemos encontrar que una variable aleatoria en estudio es inherentemente
una combinacin aditiva de elementos. Por ejemplo, la variable binomial con los
parmetros n y p es simplemente la suma de las n variables aleatorias independientes
que tiene la distribucin de Bernoulli con un parmetro comn p. En segundo lugar, se
calculan muchas "estadsticas muestrales" con las sumas de variables aleatorias.
Ahora bien, podemos recordar que si X1, X2, ,Xn son n variables aleatorias
independientes, cada una con una media y varianza finita , entonces la
propiedad aditiva es vlida tanto para la esperanza como para la varianza de su suma,
Sn; es decir E(Sn) es la suma de las esperanzas individuales, y la V(Sn) es la suma
de las varianzas individuales. Adems, puede demostrarse que si las n variables
aleatorias, no slo son independientes, sino que tienen igual distribucin de
probabilidad, I-ID, entonces:
E(Sn) = n y V(Sn) = n
4
DESIGUALDAD DE CHEBYSHEV.
Obsrvese que la probabilidad que X tenga un valor fuera del intervalo cerrado
de - h a + h no puede ser mayor que 1/h, no importa la forma que
asuma la distribucin de probabilidad.
Lo cual, por ejemplo, muestra que la probabilidad de que X asuma un valor con
4 a partir de , es por lo menos 0,9375.
Para ilustrar estos resultados, supongamos que los artculos de una enciclopedia tienen
una extensin media de 1000 caracteres y una desviacin tpica de 200 caracteres.
El teorema puede ser til a pesar de las cotas imprecisas porque se aplica a una
amplia gama de variables que incluye las que estn muy alejadas de la distribucin
normal, y porque las cotas son fciles de calcular.
5
_ _
De la misma manera tendremos E(X) = y V(X) = /n
Esta ltima cantidad nos permite deducir que la varianza de la media muestral se
aproxima a cero a medida que n tiende a infinito.
Puesto que la media muestral misma es una variable aleatoria, tomando una muestra
suficientemente grande podemos hacer que la probabilidad de la media muestral se
acerque a la media poblacional tanto como deseemos, es decir, se acerque a 1. O, si
el tamao de la muestra es bastante grande, entonces la probabilidad de que la
media muestral difiera de la media de la poblacin en ms de una diferencia positiva
definida en forma arbitraria se acerca a cero.
Todo esto queda resumido en lo que se llama la Ley de los Grandes Nmeros, que
dice:
Sea una v. a. (X), se extrae una m. a. (n), las n variables de la m. a. son I-ID.
Existen y que son FINITAS.
Lim P (|Sn/n - | ) = 0
n
Sn/n es la media aritmtica de (X1,....., Xn), la probabilidad que la media difiera del
parmetro poblacional , por ms de "tiende" a cero cuando n tiende a .
Por ejemplo, la probabilidad de que un individuo gane la lotera es bastante baja; sin
embargo, la probabilidad de que alguien gane la lotera es bastante alta, suponiendo
que suficientes personas comprasen boletos de lotera.
La Ley Dbil de los Grandes Nmeros establece que si X1, X2, X3,... es una
secuencia infinita de variables aleatorias, donde todas las variables aleatorias tiene el
mismo valor esperado y varianza 2; y son independientes, entonces la media de la
muestra es una v. a. tal que:
_
converge en probabilidad a . En otras palabras: la media muestral X se acerca a
la media poblacional .
La Ley Fuerte de los Grandes Nmeros establece que si X1, X2, X3,... es una
secuencia infinita de variables aleatorias que son independientes e idnticamente
distribuidas con E(X) = , entonces:
El Teorema Central del Lmite indica que, bajo condiciones muy generales, la
distribucin de la suma de variables aleatorias tiende a una Distribucin Normal
cuando la cantidad de variables es muy grande.
Esto quiere decir que si X1, X2,...,Xn, es una muestra aleatoria de una distribucin
con media y varianza 2. Entonces, si n es suficientemente grande, la variable
aleatoria
Sn = (X1 + X2 ++ Xn) = Xi ,i = 1 a n
Existen diferentes versiones del teorema, en funcin de las condiciones utilizadas para
asegurar la convergencia. Una de las ms simples establece que es suficiente que las
variables que se suman sean independientes, idnticamente distribuidas, con valor
esperado y varianza finitas.
La aproximacin entre las dos distribuciones es, en general, mayor en el centro de las
mismas que en sus extremos o colas, motivo por el que se prefiere el nombre
"Teorema del Lmite Central" ("central" califica al lmite, ms que al teorema).
Se asume que cada trmino de la suma aporta un efecto del mismo orden de magnitud,
y que es poco probable que un valor individual haga una gran contribucin a la suma.
Este teorema explica por qu algunos modelos tienden a la normal, bajo ciertas
condiciones.
El Teorema Central del Lmite (T.C.L.) nos permite usar la distribucin normal como la
distribucin de las medias de muestras grandes, sin interesar cual sea la distribucin
original de las variables aleatorias.
En muchos casos, puede concluirse de forma segura, que la aproximacin Normal ser
buena si n > 30, por lo tanto la variable aleatoria:
EJEMPLO:
Desarrollo:
_
Puesto que n es lo suficientemente grande, (n = 64), la distribucin de X
es, en forma aproximada, Normal con media y con desviacin estndar
/n = 16/64 = 2.
_
En forma equivalente, la distribucin de Z = (X - ) / 2 es, aproximadamente una
Normal ( = 0, =1).
De acuerdo con lo anterior, la probabilidad deseada es
_ _
Pr(l X - l < 4) = Pr( - 4 < X < + 4) estandarizando nos queda
Este aplicacin se conoce como Teorema de Moivre y sirve para aproximar a una
normal cuando n es grande y 0.1 < p < 0.9.
S.A.M./11-11-2013