Vous êtes sur la page 1sur 10

1

TEOREMA CENTRAL DEL LIMITE (T.C.L.).

INTRODUCCION.

Con frecuencia, en la prctica estamos interesados en extraer conclusiones vlidas


respecto a un conjunto grande de individuos u objetos. En lugar de examinar un grupo
entero, llamado POBLACIN, lo cual puede resultar difcil o imposible por problemas
de tiempo y/o costo, puede llegarse a la idea de examinar solamente una parte
pequea de esta poblacin, que se llama MUESTRA. Esto se hace con el propsito de
inferir ciertos hechos respecto de la poblacin, a partir de los resultados hallados en
la muestra, este proceso se conoce como INFERENCIA ESTADSTICA. El proceso
de obtener muestras se llama MUESTREO.

PARAMETROS POBLACIONALES.

Se considera que se CONOCE una poblacin cuando conocemos la funcin de


distribucin de probabilidad, f(x), de la variable aleatoria asociada X, que nos
interesa estudiar.

Por ejemplo, si X ~ n (x;,), se dice, que la poblacin es una poblacin


NORMAL, respecto de esa variable aleatoria X.

Hay ciertos valores que aparecen en f(x), como y de la distribucin Normal o p


en la distribucin Binomial. Otros valores como la mediana, los momentos, etc.,
pueden determinarse en trminos de estos. Todos estos valores se llaman
PARAMETROS POBLACIONALES.

Cuando nos dan la poblacin, de modo que conocemos f(x), entonces los parmetros
poblacionales son tambin conocidos.

El problema surge cuando no se conoce totalmente la funcin de probabilidad, f(x), y


slo se tiene una "idea" o "hiptesis" relativa al comportamiento de f(x).

Por ejemplo, hay razones para "suponer" que una poblacin tiene una distribucin de
probabilidad del tipo normal respecto a una variable aleatoria X, en tal caso no
sabramos el valor de ni (o al menos uno) y desearamos ESTIMAR lo no
conocido.

ESTADISTICOS MUESTRALES.

Se puede tomar o seleccionar una MUESTRA ALEATORIA de n elementos, m. a. (n),


desde la poblacin y emplearla para estimar los parmetros poblacionales
desconocidos.

Una m. a. (n) estar formada por n variables aleatorias (X1 a Xn), la m. a. (n) se
"describe" por los valores (x1, x2,..., xn) que toman las v.a. X1 a Xn, estos
valores se obtienen "midiendo" las n variables aleatorias en los elementos de la
muestra.
2

Esas n v. a. pueden ser INDEPENDIENTES Y CON IGUAL DISTRIBUCION DE


PROBABILIDAD: I-ID, si eso sucede su probabilidad conjunta es:

P(X1=x1, X2=x2,...., Xn=xn) = f(x1)f(x2)...f(xn)

Cualquier valor obtenido para una muestra con el fin de estimar un parmetro
poblacional se llama ESTADISTICO MUESTRAL.

Un estadstico no es sino una FUNCION de las v. a. (X1,...., Xn), es decir,


g(X1,....,Xn).

La funcin g(X1,...,Xn) es OTRA variable aleatoria cuyos valores pueden


representarse por g(X1=x1, X2=x2,...., Xn=xn).

En general, correspondiente a cada "parmetro" habr un "estadstico" a calcularse, a


partir de los valores (x1,x2,....,xn), de la muestra de n v. a.

El mtodo de clculo del estadstico es en general el mismo del parmetro.

Notacin. Parmetros: , , P,.....


__
Estadsticos: x, s, p,.....

DISTRIBUCION MUESTRAL.

Un estadstico se calcula a partir de la m. a. (n), (X1=x1,.....,Xn=xn), por lo cual


tambin es una variable aleatoria., la distribucin de probabilidad de un estadstico se
llama DISTRIBUCIN MUESTRAL del estadstico.

MEDIA MUESTRAL.

Sean X1, X2,.....,Xn las variables aleatorias de una m. a. (n), entonces la Media
de la muestra o Media muestral es una variable aleatoria definida por:
_
X = (X1 + X2 + X3 +.....+ Xn) / n

MUESTREO.

Si se consideraran todas las m. a. posibles de tamao n que se podran obtener de


una poblacin de N elementos y para cada muestra se calculara el estadstico,
obtendramos la distribucin muestral del estadstico, a la cual se le puede calcular
esperanza y varianza.

La formulacin de los procedimientos de decisin, depende de nuestro conocimiento de


las consecuencias que pueden resultar de las diferentes acciones tomadas en una
situacin dada y del estado natural predominante en el momento de llevar a la
3

prctica la decisin. En este caso, "estado natural" se refiere a los modelos de


probabilidad ideales, como los ya definidos (Binomial, Poisson, Normal, etc.). Sin
embargo en la prctica encontramos que los supuestos de los modelos no se cumplen a
cabalidad o que las propiedades precisas de los modelos no se conocen. Para tomar
decisiones razonables debemos conocer el modelo, por lo menos en forma aproximada.

Un mtodo de aproximar las caractersticas de un modelo de probabilidad de la


poblacin es mediante el uso de una tcnica estadstica llamada MUESTREO.

Si seleccionamos una muestra en forma aleatoria, entonces los "estadsticos"


calculados con los datos de la muestra son VARIABLES ALEATORIAS que se pueden
usar para estimar los correspondientes "parmetros" de la poblacin.

Los mtodos estadsticos que nos permiten inferir, a partir de datos limitados
(muestras) los comportamientos (poblaciones) que a largo plazo se esperan, se llaman
"estadsticas inductivas" o "inferencias estadsticas" o "estimaciones". En el proceso
de formacin de inferencias podemos cometer "errores" con respecto al estado
natural. Debemos saber apreciar estos errores para tener una medida de "confianza"
en nuestras conclusiones inductivas. Debido a que estos errores son el resultado de
variables aleatorias, se los puede evaluar slo en trminos de probabilidades. Ahora
bien, un "estadstico" muestral, siendo una variable aleatoria, debe tener una
distribucin de probabilidad propia. La funcin de probabilidad de un "estadstico",
llamada "distribucin muestral del estadstico", tiene propiedades bien definidas, como
cualquier otro modelo de probabilidad. A partir de esas propiedades de la
distribucin de un "estadstico" podemos calcular los riesgos (errores debido al azar)
que se pueden cometer al hacer "estimaciones" para la "poblacin" en base a
"muestras".

SUMA DE VARIABLES ALEATORIAS.

Nos interesan las sumas de las variables aleatorias por dos razones. En primer lugar,
a menudo podemos encontrar que una variable aleatoria en estudio es inherentemente
una combinacin aditiva de elementos. Por ejemplo, la variable binomial con los
parmetros n y p es simplemente la suma de las n variables aleatorias independientes
que tiene la distribucin de Bernoulli con un parmetro comn p. En segundo lugar, se
calculan muchas "estadsticas muestrales" con las sumas de variables aleatorias.

Ahora bien, podemos recordar que si X1, X2, ,Xn son n variables aleatorias
independientes, cada una con una media y varianza finita , entonces la
propiedad aditiva es vlida tanto para la esperanza como para la varianza de su suma,
Sn; es decir E(Sn) es la suma de las esperanzas individuales, y la V(Sn) es la suma
de las varianzas individuales. Adems, puede demostrarse que si las n variables
aleatorias, no slo son independientes, sino que tienen igual distribucin de
probabilidad, I-ID, entonces:

E(Sn) = n y V(Sn) = n
4

DESIGUALDAD DE CHEBYSHEV.

La desigualdad de Chebyshev muestra la relacin entre la esperanza, la varianza y las


asignaciones de probabilidad de una distribucin probabilstica.

Esta desigualdad es vlida para cualquier distribucin de probabilidad, siempre que


existan su media y varianza.

Esta desigualdad se puede expresar de dos maneras:

a) La primera asevera que la probabilidad de que una variable aleatoria X se


desve de su media en h es siempre menor o igual a 1/h , es decir:

P( | X - | >= h ) <= 1/h

Obsrvese que la probabilidad que X tenga un valor fuera del intervalo cerrado
de - h a + h no puede ser mayor que 1/h, no importa la forma que
asuma la distribucin de probabilidad.

b) La segunda versin de la desigualdad de Chebyshev dice que por lo menos


1 - 1/h de la probabilidad asociada con cualquier variable aleatoria estar
dentro de las h desviaciones standard de la media, es decir:

P( | X - | < h ) >= 1 - 1/h

Lo cual, por ejemplo, muestra que la probabilidad de que X asuma un valor con
4 a partir de , es por lo menos 0,9375.

En Teora de probabilidades, la desigualdad de Chebyshev es un resultado estadstico


que ofrece una cota inferior a la probabilidad de que el valor de una variable aleatoria
con varianza finita est a una cierta distancia de su esperanza matemtica o de su
media; equivalentemente, el teorema proporciona una cota superior a la probabilidad
de que los valores caigan fuera de esa distancia respecto de la media. El teorema es
aplicable incluso en distribuciones que no tienen forma de "curva de campana".

Para ilustrar estos resultados, supongamos que los artculos de una enciclopedia tienen
una extensin media de 1000 caracteres y una desviacin tpica de 200 caracteres.

De la desigualdad de Chebyshev se deduce que al menos el 75% de los artculos


tendrn una extensin comprendida entre 600 y 1400 caracteres (h= 2).

Las cotas proporcionadas por la desigualdad de Chebyshev, en general, no se pueden


mejorar; es posible construir una variable aleatoria cuyas cotas de Chebyshev sean
exactamente iguales a las probabilidades reales. Sin embargo, en general el teorema
proporcionar cotas poco precisas.

El teorema puede ser til a pesar de las cotas imprecisas porque se aplica a una
amplia gama de variables que incluye las que estn muy alejadas de la distribucin
normal, y porque las cotas son fciles de calcular.
5

LEY DE LOS GRANDES NUMEROS.

Se dice que un conjunto de n observaciones X1, X2,....,Xn constituye una muestra


aleatoria, si las Xi son variables aleatorias independientes y cada una de ellas tiene
igual distribucin de probabilidad que la v. a. X., (I - ID), de una "poblacin" con
media y varianza , se puede definir lo siguiente:

Sn = X1 + X2 +..........+ Xn , la suma de las n observaciones


_
y X = (X1 + X2+....... + Xn) / n la media muestral,

tendramos E (Sn) = n y V (Sn) = n

_ _
De la misma manera tendremos E(X) = y V(X) = /n

Esta ltima cantidad nos permite deducir que la varianza de la media muestral se
aproxima a cero a medida que n tiende a infinito.

Puesto que la media muestral misma es una variable aleatoria, tomando una muestra
suficientemente grande podemos hacer que la probabilidad de la media muestral se
acerque a la media poblacional tanto como deseemos, es decir, se acerque a 1. O, si
el tamao de la muestra es bastante grande, entonces la probabilidad de que la
media muestral difiera de la media de la poblacin en ms de una diferencia positiva
definida en forma arbitraria se acerca a cero.

Todo esto queda resumido en lo que se llama la Ley de los Grandes Nmeros, que
dice:

Sea una v. a. (X), se extrae una m. a. (n), las n variables de la m. a. son I-ID.
Existen y que son FINITAS.

Si Sn = (X1+ X2+......+ Xn), entonces:

Lim P (|Sn/n - | ) = 0
n

Sn/n es la media aritmtica de (X1,....., Xn), la probabilidad que la media difiera del
parmetro poblacional , por ms de "tiende" a cero cuando n tiende a .

Bsicamente la Ley de los Grandes Nmeros, establece que la frecuencia relativa de


los resultados de un cierto experimento aleatorio, tienden a estabilizarse en cierto
nmero, que es precisamente la probabilidad cuando el experimento se realiza muchas
veces.
6

Se dice que una sucesin de variables aleatorias definidas sobre un espacio de


probabilidad comn obedece la Ley de los Grandes Nmeros cuando la media de las
muestras de variables tiende a la media de las esperanzas de las variables aleatorias
de la sucesin, segn el nmero total de variables (n) aumenta.

En un contexto estadstico, las Leyes de los Grandes Nmeros implican


que la media de una muestra al azar, de una poblacin de gran tamao,
tender a estar cerca de la media de la poblacin completa.

En el contexto de teora de probabilidad, varias Leyes de Grandes Nmeros dicen que


el promedio de una secuencia de variables elegidas al azar con una distribucin de
probabilidad comn, converge a su valor esperado comn en el lmite, mientras el
tamao de la secuencia se aproxima al infinito.

Varias formulaciones de la ley de los grandes nmeros (y sus condiciones asociadas)


especifican la convergencia de formas distintas.

La frase "Ley de los Grandes Nmeros" es tambin usada ocasionalmente para


referirse al principio de que la probabilidad de cualquier evento posible (incluso uno
improbable) ocurra al menos una vez en una serie incrementa con el nmero de eventos
en la serie.

Por ejemplo, la probabilidad de que un individuo gane la lotera es bastante baja; sin
embargo, la probabilidad de que alguien gane la lotera es bastante alta, suponiendo
que suficientes personas comprasen boletos de lotera.

La Ley Dbil de los Grandes Nmeros establece que si X1, X2, X3,... es una
secuencia infinita de variables aleatorias, donde todas las variables aleatorias tiene el
mismo valor esperado y varianza 2; y son independientes, entonces la media de la
muestra es una v. a. tal que:

_
converge en probabilidad a . En otras palabras: la media muestral X se acerca a
la media poblacional .

La Ley Fuerte de los Grandes Nmeros establece que si X1, X2, X3,... es una
secuencia infinita de variables aleatorias que son independientes e idnticamente
distribuidas con E(X) = , entonces:

es decir, el promedio de una muestra converge casi seguramente a .

Esta ley justifica la interpretacin intuitiva de que el valor esperado de la variable


aleatoria como el "promedio a largo plazo al hacer un muestreo repetitivo".
7

TEOREMA CENTRAL DEL LIMITE.

El Teorema Central del Lmite indica que, bajo condiciones muy generales, la
distribucin de la suma de variables aleatorias tiende a una Distribucin Normal
cuando la cantidad de variables es muy grande.

Esto quiere decir que si X1, X2,...,Xn, es una muestra aleatoria de una distribucin
con media y varianza 2. Entonces, si n es suficientemente grande, la variable
aleatoria

tiene aproximadamente una distribucin normal con media y varianza /n

Tambin se cumple que

Sn = (X1 + X2 ++ Xn) = Xi ,i = 1 a n

tiene aproximadamente una distribucin normal con E(Sn) = n y V(Sn) = n .

Cuanto ms grande sea el valor de n, mejor ser la aproximacin.

El Teorema del Lmite Central garantiza una distribucin normal cuando n es


suficientemente grande.

Existen diferentes versiones del teorema, en funcin de las condiciones utilizadas para
asegurar la convergencia. Una de las ms simples establece que es suficiente que las
variables que se suman sean independientes, idnticamente distribuidas, con valor
esperado y varianza finitas.

La aproximacin entre las dos distribuciones es, en general, mayor en el centro de las
mismas que en sus extremos o colas, motivo por el que se prefiere el nombre
"Teorema del Lmite Central" ("central" califica al lmite, ms que al teorema).

Este teorema explica la vinculacin que existe entre diversas distribuciones de


probabilidad y la normal. Especifica las condiciones bajo las cuales puede esperarse
que una variable aleatoria tenga distribucin normal.

Si sumamos variables aleatorias del mismo tipo, si el nmero de trminos de la suma


es suficientemente grande, el resultado que se obtiene es una variable con distribucin
normal.

En la prctica, si todas las variables que sumamos tienen la misma distribucin, no es


necesario que n sea demasiado grande para que se verifique la normalidad de la suma.

Una aplicacin inmediata de este teorema es la interpretacin de la media aritmtica:


para calcular un promedio, sumamos variables que provienen de la misma poblacin, y
8

por lo tanto tienen igual distribucin. La media obtenida seguramente va a tener


distribucin normal, an para valores bajos de n.

Otro aspecto importante es la siguiente extensin del teorema: no es estrictamente


necesario que todas las variables tengan la misma distribucin. Basta con que sean
independientes, y tengan esperanza y varianza finitas, para que, si n es lo
suficientemente grande, el resultado de la suma tenga aproximadamente distribucin
normal.

Se asume que cada trmino de la suma aporta un efecto del mismo orden de magnitud,
y que es poco probable que un valor individual haga una gran contribucin a la suma.

Este teorema explica por qu algunos modelos tienden a la normal, bajo ciertas
condiciones.

El Teorema Central del Lmite (T.C.L.) nos permite usar la distribucin normal como la
distribucin de las medias de muestras grandes, sin interesar cual sea la distribucin
original de las variables aleatorias.

TEOREMA. Sea X1, X2,..., Xn una muestra aleatoria de tamao n de variables


independientes e idnticamente distribuidas (I-ID), con funcin de distribucin no
identificada, tomadas de una poblacin infinita, con media y varianza
finita.
_
El promedio muestral X =(X1 + X2 + + Xn) / n , tiene una distribucin con media
y varianza /n , que tiende a una distribucin NORMAL conforme n tiende a
infinito.

En otras palabras la variable aleatoria:

tiene como lmite una distribucin normal estndar cuando n tiende a


(independiente de la distribucin de X1, X2,... Xn).

La esencia del T. C. L. recae en el hecho que de que para n grande la


_
distribucin de la v. a. [X ] [/n] es, en forma aproximada, normal con
media 0 y desviacin estndar 1, sin importar cul sea el modelo de probabilidad a
partir del que se obtuvo la muestra.
_
El T.C.L. nos dice como se agrupan los valores de X alrededor de , cuando n es
grande.

El T.C.L. ayuda a explicar porque es tan frecuente encontrar v. a. Normales.

Si el modelo de probabilidad de la POBLACION es semejante a un modelo Normal, la


aproximacin Normal ser buena an para muestras pequeas.
9

Si el modelo de probabilidad de la POBLACION no se parece mucho a un modelo


Normal, por ejemplo por una alta asimetra, la aproximacin Normal solo ser buena
si la muestra es grande.

En muchos casos, puede concluirse de forma segura, que la aproximacin Normal ser
buena si n > 30, por lo tanto la variable aleatoria:

se emplea para formular inferencias acerca de cuando se conoce el valor de la


varianza poblacional . La variable aleatoria Z es Normal con = 0 y = 1
cuando la muestra de n variables aleatorias, X1 a Xn, se extrae de una poblacin
que tiene distribucin Normal y es, en forma aproximada, una Normal (=0, =1)
para cualquier otro modelo, cuando n es grande.

EJEMPLO:

Supngase que el nmero de barriles de petrleo crudo que produce un pozo


diariamente es una variable aleatoria, con una distribucin de probabilidad no
especificada. Si se observa la produccin en 64 das, seleccionados en forma
aleatoria, y si se sabe que la desviacin estndar del nmero de barriles por da es
= 16.
_
Determine la probabilidad de que la media muestral X se encuentre a no ms de
cuatro barriles del verdadero valor de la produccin por da

Desarrollo:
_
Puesto que n es lo suficientemente grande, (n = 64), la distribucin de X
es, en forma aproximada, Normal con media y con desviacin estndar
/n = 16/64 = 2.
_
En forma equivalente, la distribucin de Z = (X - ) / 2 es, aproximadamente una
Normal ( = 0, =1).
De acuerdo con lo anterior, la probabilidad deseada es
_ _
Pr(l X - l < 4) = Pr( - 4 < X < + 4) estandarizando nos queda

= Pr[ ( - 4 - ) / 2 < Z < ( + 4 - )) / 2]

= Pr[ -2 < Z < 2] haciendo uso de la Tabla Normal(0,1)


nos queda:
= 0.9554
10

Existen otros enunciados para el T.C.L. por ejemplo, el de Linderberg-Levy:

Sean X1, ,Xn , variables aleatorias independientes y con igual distribucin,


tales que E[Xi] = y V[Xi] = ambas finitas, si n es suficientemente grande,
la v. a. Sn. = X1 + + Xn se puede aproximar a una distribucin Normal con
E[Sn] = media = n y V[Sn] = varianza = n, que al estandarizar queda de la
siguiente manera:
Z = [Sn - n] [n] corresponde a una Normal (0,1)

El valor de n variar segn las v. a. de que se trate. Como valor prctico


suele darse n > 30. Sin embargo, si las v. a. son simtricas y tienen buenas
propiedades, la aproximacin se consigue para valores de n muchos ms pequeos.

Otra aplicacin interesante del T.C.L. es la siguiente:

Si X1,, Xn tienen un modelo Bernoulli y se considera la v. a. X = X1 + +Xn,


entonces:

[ X np ] [ np(1-p)] se aproxima a una Normal ( = 0, = 1).

Este aplicacin se conoce como Teorema de Moivre y sirve para aproximar a una
normal cuando n es grande y 0.1 < p < 0.9.

S.A.M./11-11-2013

Vous aimerez peut-être aussi