Académique Documents
Professionnel Documents
Culture Documents
2
).
6. Si X ~ N(
x
,
x
2
) e Y ~ N(
y
,
y
2
) son variables aleatorias normales independientes, entonces:
Su suma est normalmente distribuida con U = X + Y ~ N(
x
+
y
,
x
2
+
y
2
) (demostracin). Recprocamente,
si dos variables aleatorias independientes tienen una suma normalmente distribuida, deben ser normales
(Teorema de Crmer).
Su diferencia est normalmente distribuida con .
Si las varianzas de X e Y son iguales, entonces U y V son independientes entre s.
La divergencia de Kullback-
Leibler,
7. Si e son variables aleatorias independientes normalmente
distribuidas, entonces:
Su producto sigue una distribucin con densidad dada por
donde es una funcin de Bessel modificada de segundo tipo.
Su cociente sigue una distribucin de Cauchy con . De este modo la
distribucin de Cauchy es un tipo especial de distribucin cociente.
8. Si son variables normales estndar independientes, entonces sigue
una distribucin con n grados de libertad.
9. Si son variables normales estndar independientes, entonces la media
muestral y la varianza
muestral son independientes. Esta
propiedad caracteriza a las distribuciones normales y contribuye a explicar por qu el test-F no es robusto
respecto a la no-normalidad).
Estandarizacin de variables aleatorias normales
Como consecuencia de la Propiedad 1; es posible relacionar todas las variables aleatorias normales con la
distribucin normal estndar.
Si ~ , entonces
es una variable aleatoria normal estndar: ~ .
La transformacin de una distribucin X ~ N(, ) en una N(0, 1) se
llama normalizacin, estandarizacin o tipificacin de la variable X.
Una consecuencia importante de esto es que la funcin de distribucin de una distribucin normal es, por
consiguiente,
A la inversa, si es una distribucin normal estndar, ~ , entonces
es una variable aleatoria normal tipificada de media y varianza .
La distribucin normal estndar est tabulada (habitualmente en la forma de el valor de la funcin de
distribucin ) y las otras distribuciones normales pueden obtenerse como transformaciones simples, como
se describe ms arriba, de la distribucin estndar. De este modo se pueden usar los valores tabulados de la
funcin de distribucin normal estndar para encontrar valores de la funcin de distribucin de cualquier otra
distribucin normal.
El Teorema del Lmite Central
Artculo principal: Teorema del lmite central
Grfica de la funcin de distribucin de una normal con = 12 y = 3, aproximando la funcin de
distribucin de una binomial con n = 48 y p = 1/4
El Teorema del lmite central establece que bajo ciertas condiciones (como pueden
ser independientes e idnticamente distribuidas con varianza finita), la suma de un gran nmero de
variables aleatorias se distribuye aproximadamente como una normal.
La importancia prctica del Teorema del lmite central es que la funcin de distribucin de la normal
puede usarse como aproximacin de algunas otras funciones de distribucin. Por ejemplo:
Una distribucin binomial de parmetros n y p es aproximadamente normal para grandes valores
de n, y p no demasiado cercano a 1 0 (algunos libros recomiendan usar esta aproximacin slo
si np y n(1 p) son ambos, al menos, 5; en este caso se debera aplicar una correccin de
continuidad).
La normal aproximada tiene parmetros = np,
2
= np(1 p).
Una distribucin de Poisson con parmetro es aproximadamente normal para grandes valores de
.
La distribucin normal aproximada tiene parmetros =
2
= .
La exactitud de estas aproximaciones depende del propsito para el que se necesiten y de la tasa
de convergencia a la distribucin normal. Se da el caso tpico de que tales aproximaciones son
menos precisas en las colas de la distribucin. El Teorema de Berry-Essen proporciona un lmite
superior general del error de aproximacin de la funcin de distribucin.
Divisibilidad infinita
Las normales tienen una distribucin de probabilidad infinitamente divisible: Para una distribucin normal X
de media y varianza
2
0, es posible encontrar n variables aleatorias independientes {X
1
,...,X
n
} cada una
con distribucin normal de media /n y varianza
2
/n dado que la suma X
1
+ . . . + X
n
de estas n variables
aleatorias
tenga esta especfica distribucin normal (para verificarlo, sese la funcin caracterstica de convolucin y
la induccin matemtica).
Estabilidad
Las distribuciones normales son estrictamente estables.
Forma familia exponencial
La distribucin normal tiene forma de familia exponencial biparamtrica con dos parmetros naturales, y
1/
2
, y estadsticos naturales X y X
2
. La forma cannica tiene como parmetros y y estadsticos
suficientes y
Distribucin normal compleja
Considrese la variable aleatoria compleja gaussiana
donde X e Y son variables gaussianas reales e independientes con igual varianza . La funcin de
distribucin de la variable conjunta es entonces
Como , la funcin de distribucin resultante para la variable gaussiana compleja Z es
Distribuciones relacionadas
es una distribucin de
Rayleigh si donde y son dos distribuciones
normales independientes.
es una distribucin con grados de
libertad si donde para y son independientes.
es una distribucin de
Cauchy si para y son dos distribuciones normales
independientes.
es una distribucin log-normal si y .
Relacin con una distribucin estable: si entonces .
Distribucin normal truncada. si entonces truncando X por debajo de y por encima
de dar lugar a una variable aleatoria de
media donde
y es la
funcin de densidad de una variable normal estndar.
Si es una variable aleatoria normalmente distribuida e , entonces tiene una distribucin
normal doblada.
Estadstica descriptiva e inferencial
Resultados
De la distribucin normal se derivan muchos resultados, incluyendo rangos de percentiles ("percentiles" o
"cuantiles"), curvas normales equivalentes, stanines, z-scores, y T-scores. Adems, un nmero de
procedimientos de estadsticos de comportamiento estn basados en la asuncin de que esos resultados
estn normalmente distribuidos. Por ejemplo, el test de Student y el anlisis de varianza (ANOVA) (vase
ms abajo). La gradacin de la curva campana asigna grados relativos basados en una distribucin normal
de resultados.
Tests de normalidad
Artculo principal: Test de normalidad
Los tests de normalidad se aplican a conjuntos de datos para determinar su similitud con una distribucin
normal. La hiptesis nula es, en estos casos, si el conjunto de datos es similar a una distribucin normal, por
lo que un P-valor suficientemente pequeo indica datos no normales.
Prueba de Kolmogrov-Smirnov
Test de Lilliefors
Test de AndersonDarling
Test de RyanJoiner
Test de ShapiroWilk
Normal probability plot (rankit plot)
Test de JarqueBera
Test omnibs de Spiegelhalter
Estimacin de parmetros
Estimacin de parmetros de mxima verosimilitud
Vase tambin: Mxima verosimilitud
Supngase que
son independientes y cada una est normalmente distribuida con media y varianza
2
> 0. En trminos
estadsticos los valores observados de estas n variables aleatorias constituyen una "muestra de tamao n de
una poblacin normalmente distribuida. Se desea estimar la media poblacional y la desviacin tpica
poblacional , basndose en las valores observados de esta muestra. La funcin de densidad conjunta de
estas n variables aleatorias independientes es
Como funcin de y , la funcin de verosimilitud basada en las observaciones X
1
, ..., X
n
es
con alguna constante C > 0 (de la cual, en general, se permitira incluso que dependiera de X
1
, ..., X
n
,
aunque desapareciera con las derivadas parciales de la funcin de log-verosimilitud respecto a los
parmetros tenidos en cuenta, vase ms abajo).
En el mtodo de mxima verosimilitud, los valores de y que maximizan la funcin de verosimilitud se
toman como estimadores de los parmetros poblacionales y .
Habitualmente en la maximizacin de una funcin de dos variables, se podran considerar derivadas
parciales. Pero aqu se explota el hecho de que el valor de que maximiza la funcin de verosimilitud
con fijo no depende de . No obstante, encontramos que ese valor de , entonces se sustituye por en la
funcin de verosimilitud y finalmente encontramos el valor de que maximiza la expresin resultante.
Es evidente que la funcin de verosimilitud es una funcin decreciente de la suma
As que se desea el valor de que minimiza esta suma. Sea
la media muestral basada en las n observaciones. Ntese que
Slo el ltimo trmino depende de y se minimiza por
Esta es la estimacin de mxima verosimilitud de basada en las n observaciones X
1
, ..., X
n
. Cuando
sustituimos esta estimacin por en la funcin de verosimilitud, obtenemos
Se conviene en denotar la "log-funcin de verosimilitud", esto es, el logaritmo de la funcin de verosimilitud,
con una minscula , y tenemos
entonces
Esta derivada es positiva, cero o negativa segn
2
est entre 0 y
o sea igual a esa cantidad, o mayor que esa cantidad. (Si hay solamente una observacin, lo que significa
que n = 1, o si X
1
= ... = X
n
, lo cual slo ocurre con probabilidad cero, entonces por esta frmula,
refleja el hecho de que en estos casos la funcin de verosimilitud es ilimitada cuando decrece hasta cero.)
Consecuentemente esta media de cuadrados de residuos es el estimador de mxima verosimilitud de
2
, y
su raz cuadrada es el estimador de mxima verosimilitud de basado en las n observaciones. Este
estimador es sesgado, pero tiene un menor error medio al cuadrado que el habitual estimador insesgado,
que es n/(n 1) veces este estimador.
Sorprendente generalizacin
La derivada del estimador de mxima verosimilitud de la matriz de covarianza de una distribucin normal
multivariante es despreciable. Involucra el teorema espectral y la razn por la que puede ser mejor para ver
un escalar como la traza de una matriz 11 que como un mero escalar. Vase estimacin de la covarianza
de matrices.
Estimacin insesgada de parmetros
El estimador de mxima verosimilitud de la media poblacional , es un estimador insesgado de la media
poblacional.
El estimador de mxima verosimilitud de la varianza es insesgado si asumimos que la media de la poblacin
es conocida a priori, pero en la prctica esto no ocurre. Cuando disponemos de una muestra y no sabemos
nada de la media o la varianza de la poblacin de la que se ha extrado, como se asuma en la derivada de
mxima verosimilitud de arriba, entonces el estimador de mxima verosimilitud de la varianza es sesgado.
Un estimador insesgado de la varianza
2
es la cuasi varianza muestral:
que sigue una distribucin Gamma cuando las X
i
son normales independientes e idnticamente distribuidas:
con media y varianza
La estimacin de mxima verosimilitud de la desviacin tpica es la raz cuadrada de la estimacin de
mxima verosimilitud de la varianza. No obstante, ni sta, ni la raz cuadrada de la cuasivarianza muestral
proporcionan un estimador insesgado para la desviacin tpica (vase estimacin insesgada de la desviacin
tpica para una frmula particular para la distribucin normal.
Incidencia
Las distribuciones aproximadamente normales aparecen por doquier, como queda explicado por el teorema
central del lmite. Cuando en un fenmeno se sospecha la presencia de un gran nmero de pequeas
causas actuando de forma aditiva e independiente es razonable pensar que las observaciones sern
"normales". Hay mtodos estadsticos para probar empricamente esta asuncin, por ejemplo, el test
de D'Agostino-Pearson. El test de Kolmogorov-Smirnov, antes ampliamente usado, ahora parece estar
desaconsejado.
Hay causas que pueden actuar de forma multiplicativa (ms que aditiva). En este caso, la asuncin de
normalidad no est justificada y es el logaritmo de la variable en cuestin el que estara normalmente
distribuido. La distribucin de las variables directamente observadas en este caso se denomina log-normal.
Finalmente, si hay una simple influencia externa que tiene un gran efecto en la variable en consideracin, la
asuncin de normalidad no est tampoco justificada. Esto es cierto incluso si, cuando la variable externa se
mantiene constante, las distribuciones marginales resultantes son, en efecto, normales. La distribucin
completa ser una superposicin de variables normales, que no es en general normal. Ello est relacionado
con la teora de errores (vase ms abajo).
A continuacin se muestran una lista de situaciones que estaran, aproximadamente, normalmente
distribuidas. Ms abajo puede encontrarse una discusin detallada de cada una de ellas:
En problemas de recuento, donde el teorema central del lmite incluye una aproximacin de discreta a
continua y donde las distribuciones infinitamente divisibles ydescomponibles estn involucradas, tales como:
variables aleatorias binomiales, asociadas con preguntas s/no;
variables aleatorias de Poisson, asociadas con eventos raros;
En medidas fisiolgicas de especmenes biolgicos:
El logaritmo de las medidas del tamao de tejidos vivos (longitud, altura, superficie de piel, peso);
La longitud de apndices inertes (pelo, garras, rabos, dientes) de especmenes biolgicos en la direccin del
crecimento;
Otras medidas fisiolgicas podran estar normalmente distribuidas, aunque no hay razn para esperarlo a
priori;
Se asume con frecuencia que los errores de medida estn normalmente distribuidos y cualquier desviacin
de la normalidad se considera una cuestin que debera explicarse;
Variables financieras, en el modelo Black-Scholes:
Cambios en el logaritmo de
Cambios en el logaritmo de tasas de cambio, ndices de precios, ndices de existencias de mercado; estas
variables se comportan como el inters compuesto, no como el inters simple, por tanto, son multiplicativas;
Mientras que el modelo Black-Scholes presupone normalidad, en realidad estas variables exhiben colas
pesadas, como puede verse en crash de las existencias de mercado;
Otras variables financieras podran estar normalmente distribuidas, pero no hay razn para esperarlo a
priori;Intensidad de la luz:
La intensidad de la luz lser est normalmente distribuida;
La luz trmica tiene una distribucin de Bose-Einstein en escalas de tiempo muy breves y una distribucin
normal en grandes escalas de tiempo debido al teorema central del lmite.
Es relevante para la biologa y la economa el hecho de que los sistemas complejos tienden a mostrar la ley
de potencias ms que normal.
Medida de errores
La normalidad es la asuncin central de la teora matemtica de errores. De forma similar en el ajuste de
modelos estadstico, un indicador de la bondad del ajuste es que elerror residual (as es como se llaman los
errores en esta circunstancia) sea independiente y normalmente distribuido. La asuncin es que cualquier
desviacin de la normalidad necesita ser explicada. En ese sentido, en ambos, ajuste de modelos y teora de
errores, la normalidad es la nica observacin que no necesita ser explicada, sino que es esperada. No
obstante, si los datos originales no estn normalmente distribuidos (por ejemplo, si siguen una distribucin de
Cauchy, entonces los residuos tampoco estarn normalmente distribuidos. Este hecho es ignorado
habitualmente en la prctica.
Las medidas repetidas de la misma cantidad se espera que cedan el paso a resultados que estn agrupados
en torno a un valor particular. Si todas las fuentes principales de errores se han tomado en cuenta,
se asume que el error que queda debe ser el resultado de un gran nmero de muy pequeos
y aditivos efectos y, por consiguiente, normal. Las desviaciones de la normalidad se interpretan como
indicaciones de errores sistemticos que no han sido tomados en cuenta. Puede debatirse si esta asuncin
es vlida.
Una famosa observacin atribuida a Gabriel Lippmann dice:
[cita requerida]
Todo el mundo cree en la ley normal de los errores: los matemticos, porque piensan que es un hecho
experimental; y los experimentadores, porque suponen que es un teorema matemtico
Otra fuente podra ser Henri Poincar.
Caractersticas fsicas de especmenes biolgicos
Los tamaos de los animales adultos siguen aproximadamente una distribucin log-normal. La evidencia y
explicacin basada en modelos de crecimiento fue publicada por primera vez en el libro Problemas de
crecimiento relativo, de 1932, por Julian Huxley.
Las diferencias de tamao debido a dimorfismos sexuales u otros polimorfismos de insectos, como la divisin
social de las abejas en obreras, znganos y reinas, por ejemplo, hace que la distribucin de tamaos se
desve hacia la lognormalidad.
La asuncin de que el tamao lineal de los especmenes biolgicos es normal (ms que lognormal) nos lleva
a una distribucin no normal del peso (puesto que el peso o el volumen es proporcional al cuadrado o el cubo
de la longitud y las distribuciones gaussianas slo mantienen las transformaciones lineales). A la inversa,
asumir que el peso sigue una distribucin normal implica longitudes no normales. Esto es un problema
porque, a priori, no hay razn por la que cualquiera de ellas (longitud, masa corporal u otras) debera estar
normalmente distribuida. Las distribuciones lognormales, por otro lado, se mantienen entre potencias, as
que el "problema" se desvanece si se asume la lognormalidad.
Por otra parte, hay algunas medidas biolgicas donde se asume normalidad, tales como la presin
sangunea en humanos adultos. Esta asuncin slo es posible tras separar a hombres y mujeres en distintas
poblaciones, cada una de las cuales est normalmente distribuida.
Variables financieras
.Ya en 1900 Louis Bachelier propuso representar los precios de cambio usando la distribucin normal. Esta
aproximacin se ha modificado desde entonces ligeramente. A causa de la naturaleza multiplicativa
del inters compuesto, los indicadores financieros como valores de mercado y precios de las materias primas
exhiben un "comportamiento multiplicativo". Como tales, sus cambios peridicos (por ejemplo, cambios
anuales) no son normales, sino lognormales. Esta es todava la hiptesis ms comnmente aceptada
en economa.
No obstante, en realidad las variables financieras exhiben colas pesadas y as, la asuncin de normalidad
infravalora la probabilidad de eventos extremos como quiebras financieras. Se han sugerido correcciones a
este modelo por parte de matemticos como Benot Mandelbrot, quien observ que los cambios en el
logaritmo durante breves periodos de tiempo (como un da) se aproximan bien por distribuciones que no
tienen una varianza finita y, por consiguiente, el teorema central del lmite no puede aplicarse. Ms an, la
suma de muchos de tales cambios sigue unadistribucin de log-Levy.
Distribuciones en tests de inteligencia
A veces, la dificultad y nmero de preguntas en un test de inteligencia se selecciona de modo que
proporcionen resultados normalmente distribuidos. Ms an, las puntuaciones "en crudo" se convierten a
valores que marcan el cociente intelectual ajustndolas a la distribucin normal. En cualquier caso se trata de
un resultado causado deliberadamente por la construccin del test o de una interpretacin de las
puntuaciones que sugiere normalidad para la mayora de la poblacin. Sin embargo, la cuestin acerca de si
la inteligencia en s est normalmente distribuida es ms complicada porque se trata de una variable
latente y, por consiguiente, no puede observarse directamente.
Uso en estadstica computacional
Generacin de valores para una variable aleatoria normal
Para simulaciones por ordenador es til, en ocasiones, generar valores que podran seguir una distribucin
normal. Hay varios mtodos y el ms bsico de ellos es invertir la funcin de distribucin de la normal
estndar. Se conocen otros mtodos ms eficientes, uno de los cuales es la transformacin de Box-Muller.
Un algoritmo incluso ms rpido es el algoritmo zigurat. Ambos se discuten ms abajo. Una aproximacin
simple a estos mtodos es programarlos como sigue: simplemente smense 12 desviaciones uniformes (0,1)
y rstense 6 (la mitad de 12). Esto es bastante til en muchas aplicaciones. La suma de esos 12 valores
sigue la distribucin de Irwin-Hall; son elegidos 12 para dar a la suma una varianza de uno, exactamente. Las
desviaciones aleatorias resultantes estn limitadas al rango (6, 6) y tienen una densidad que es una
doceava seccin de una aproximacin polinomial de undcimo orden a la distribucin normal .
9
El mtodo de Box-Muller dice que, si tienes dos nmeros aleatorios U y V uniformemente distribuidos en (0,
1], (por ejemplo, la salida de un generador de nmeros aleatorios), entonces X e Y son dos variables
aleatorias estndar normalmente distribuidas, donde:
Esta formulacin aparece porque la distribucin con dos grados de libertad (vase la propiedad 4, ms
arriba) es una variable aleatoria exponencial fcilmente generada (la cual corresponde a la cantidad lnU en
estas ecuaciones). As, un ngulo elegido uniformemente alrededor de un crculo va la variable aleatoria V y
un radio elegido para ser exponencial se transforman entonces en coordenadas x e y normalmente
distribuidas.
Un mtodo mucho ms rpido que la transformacin de Box-Muller, pero que sigue siendo exacto es el
llamado algoritmo Zigurat, desarrollado por George Marsaglia. En alrededor del 97% de los casos usa slo
dos nmeros aleatorios, un entero aleatorio y un uniforme aleatorio, una multiplicacin y un test-si . Slo un
3% de los casos donde la combinacin de estos dos cae fuera del "corazn del zigurat", un tipo de rechazo
muestral usando logaritmos, exponenciales y nmeros aleatorios ms uniformes deberan ser empleados.
Hay tambin alguna investigacin sobre la conexin entre la rpida transformacin de Hadamard y la
distribucin normal, en virtud de que la transformacin emplea slo adicin y sustraccin y por el teorema
central del lmite los nmeros aleatorios de casi cualquier distribucin sern transformados en la distribucin
normal. En esta visin se pueden combinar una serie de transformaciones de Hadamard con permutaciones
aleatorias para devolver conjuntos de datos aleatorios normalmente distribuidos.
Aproximaciones numricas de la distribucin normal y su funcin de
distribucin
La funcin de distribucin normal se usa extensamente en computacin cientfica y estadstica. Por
consiguiente, ha sido implementada de varias formas.
Abramowitz y Stegun (1964) dan la conocida como "mejor aproximacin de Hastings" para (x) con x >
0 con un error absoluto |(x)| < 7.510
8
(algoritmo 26.2.17):
donde (x) es la funcin de densidad de la distribucin normal estndar,
y las constantes son b
0
= 0.2316419, b
1
= 0.319381530, b
2
= 0.356563782, b
3
= 1.781477937, b
4
=
1.821255978, b
5
= 1.330274429.
La Biblioteca Cientfica GNU calcula valores de la funcin de distribucin normal estndar usando
aproximaciones por funciones racionales a trozos. Otro mtodo de aproximacin usa polinomios de tercer
grado en intervalos.
10
El artculo sobre el lenguaje de programacin bc proporciona un ejemplo de cmo
computar la funcin de distribucin en GNU bc.
Para una discusin ms detallada sobre cmo calcular la distribucin normal, vase la seccin 3.4.1C.
de The Art of Computer Programming (El arte de la programacin por ordenador), de Knuth.