Vous êtes sur la page 1sur 23

Pg.

1

Estadstica I

UNIDAD: DISTRIBUCIONES
Distribucin normal ( campana de Gauss-Laplace)

Una de las distribuciones tericas mejor estudiadas en los textos de bioestadstica y ms utilizada
en la prctica es la distribucin normal, tambin llamada distribucin gaussiana. Su importancia
se debe fundamentalmente a la frecuencia con la que distintas variables asociadas a fenmenos
naturales y cotidianos siguen, aproximadamente, esta distribucin. Caracteres morfolgicos
(como la talla o el peso), o psicolgicos (como el cociente intelectual) son ejemplos de variables de
las que frecuentemente se asume que siguen una distribucin normal. No obstante, y aunque
algunos autores han sealado que el comportamiento de muchos parmetros en el campo de la
salud puede ser descrito mediante una distribucin normal, puede resultar incluso poco frecuente
encontrar variables que se ajusten a este tipo de comportamiento.
El uso extendido de la distribucin normal en las aplicaciones estadsticas puede explicarse,
adems, por otras razones. Muchos de los procedimientos estadsticos habitualmente utilizados
asumen la normalidad de los datos observados. Aunque muchas de estas tcnicas no son
demasiado sensibles a desviaciones de la normal y, en general, esta hiptesis puede obviarse
cuando se dispone de un nmero suficiente de datos, resulta recomendable contrastar siempre si
se puede asumir o no una distribucin normal. La simple exploracin visual de los datos puede
sugerir la forma de su distribucin. No obstante, existen otras medidas, grficos de normalidad y
contrastes de hiptesis que pueden ayudarnos a decidir, de un modo ms riguroso, si la muestra
de la que se dispone procede o no de una distribucin normal. Cuando los datos no sean
normales, podremos o bien transformarlos o emplear otros mtodos estadsticos que no exijan
este tipo de restricciones (los llamados mtodos no paramtricos).
A continuacin se describir la distribucin normal, su ecuacin matemtica y sus propiedades
ms relevantes, proporcionando algn ejemplo sobre sus aplicaciones a la inferencia estadstica.
En la seccin 1.1.3 se describirn los mtodos habituales para contrastar la hiptesis de
normalidad.
Propiedades de la distribucin normal:
La distribucin normal posee ciertas propiedades importantes que conviene destacar:
I. Tiene una nica moda, que coincide con su media y su mediana.
II. La curva normal es asinttica al eje de abscisas. Por ello, cualquier valor entre - y + es
tericamente posible. El rea total bajo la curva es, por tanto, igual a 1.
III. Es simtrica con respecto a su media . Segn esto, para este tipo de variables existe una
probabilidad de un 50% de observar un dato mayor que la media, y un 50% de observar un
dato menor.
IV. La distancia entre la lnea trazada en la media y el punto de inflexin de la curva es igual a
una desviacin tpica (). Cuanto mayor sea , ms aplanada ser la curva de la densidad.
V. El rea bajo la curva comprendida entre los valores situados aproximadamente a dos
desviaciones estndar de la media es igual a 0.95. En concreto, existe un 95% de
posibilidades de observar un valor comprendido en el intervalo (-1.96, +1.96).
VI. La forma de la campana de Gauss depende de los parmetros y (Figura 2). La media
indica la posicin de la campana, de modo que para diferentes valores de la grfica es
desplazada a lo largo del eje horizontal. Por otra parte, la desviacin estndar determina el
grado de apuntamiento de la curva. Cuanto mayor sea el valor de , ms se dispersarn los
datos en torno a la media y la curva ser ms plana. Un valor pequeo de este parmetro


Pg. 2
indica, por tanto, una gran probabilidad de obtener datos cercanos al valor medio de la
distribucin.
Figura 2. Ejemplos de distribuciones normales con diferentes
parmetros.

Como se deduce de este ltimo apartado, no existe una nica distribucin normal, sino
una familia de distribuciones con una forma comn, diferenciadas por los valores de su media y su
varianza. De entre todas ellas, la ms utilizada es la distribucin normal estndar, que
corresponde a una distribucin de media 0 y varianza 1. As, la expresin que define su densidad
se puede obtener de la Ecuacin 1, resultando:

Es importante conocer que, a partir de cualquier variable X que siga una distribucin N
(,), se puede obtener otra caracterstica Z con una distribucin normal estndar, sin ms que
efectuar la transformacin:
Ecuaci
n 2:

Esta propiedad resulta especialmente interesante en la prctica, ya que para una distribucin N
(0,1) existen tablas publicadas a partir de las que se puede obtener de modo sencillo la
probabilidad de observar un dato menor o igual a un cierto valor z, y que permitirn resolver
preguntas de probabilidad acerca del comportamiento de variables de las que se sabe o se asume
que siguen una distribucin aproximadamente normal.
Consideremos, por ejemplo, el siguiente problema: supongamos que se sabe que el peso de los
sujetos de una determinada poblacin sigue una distribucin aproximadamente normal, con una


Pg. 3
media de 80 Kg y una desviacin estndar de 10 Kg. Podremos saber cul es la probabilidad de
que una persona, elegida al azar, tenga un peso superior a 100 Kg?
Denotando por X a la variable que representa el peso de los individuos en esa poblacin, sta
sigue una distribucin . Si su distribucin fuese la de una normal estndar podramos
utilizar la tabla para calcular la probabilidad que nos interesa. Como ste no es el caso, resultar
entonces til transformar esta caracterstica segn la Ecuacin 2, y obtener la variable:

Para poder utilizar dicha tabla. As, la probabilidad que se desea calcular ser:

Como el rea total bajo la curva es igual a 1, se puede deducir que:

Esta ltima probabilidad puede ser fcilmente obtenida a partir de la Tabla, resultando ser
. Por lo tanto, la probabilidad buscada de que una persona elegida
aleatoriamente de esa poblacin tenga un peso mayor de 100 Kg., es de 10.9772=0.0228, es
decir, aproximadamente de un 2.3%.
De modo anlogo, podemos obtener la probabilidad de que el peso de un sujeto est
entre 60 y 100 Kg.:

De la Figura 2, tomando a =-2 y b =2, podemos deducir que:

Por el ejemplo previo, se sabe que . Para la segunda probabilidad, sin
embargo, encontramos el problema de que las tablas estndar no proporcionan el valor de
para valores negativos de la variable. Sin embargo, haciendo uso de la simetra de la
distribucin normal, se tiene que:

Finalmente, la probabilidad buscada de que una persona elegida al azar tenga un peso entre 60 y
100 Kg., es de 0.9772-0.0228=0.9544, es decir, aproximadamente de un 95%. Resulta interesante
comprobar que se obtendra la misma conclusin recurriendo a la propiedad (iii) de la distribucin
normal.
No obstante, es fcil observar que este tipo de situaciones no corresponde a lo que habitualmente
nos encontramos en la prctica. Generalmente no se dispone de informacin acerca de la
distribucin terica de la poblacin, sino que ms bien el problema se plantea a la inversa: a partir
de una muestra extrada al azar de la poblacin que se desea estudiar, se realizan una serie de
mediciones y se desea extrapolar los resultados obtenidos a la poblacin de origen. En un ejemplo
similar al anterior, supongamos que se dispone del peso de n =100 individuos de esa misma


Pg. 4
poblacin, obtenindose una media muestral de Kg., y una desviacin estndar muestral
S=12 Kg., querramos extraer alguna conclusin acerca del valor medio real de ese peso en la
poblacin original. La solucin a este tipo de cuestiones se basa en un resultado elemental de la
teora estadstica, el llamado teorema central del lmite. Dicho axioma viene a decirnos que las
medias de muestras aleatorias de cualquier variable siguen ellas mismas una distribucin normal
con igual media que la de la poblacin y desviacin estndar la de la poblacin dividida por .
En nuestro caso, podremos entonces considerar la media muestral , con lo
cual, a partir de la propiedad (iii) se conoce que aproximadamente un 95% de los posibles valores
de caeran dentro del intervalo . Puesto que los valores de y son
desconocidos, podramos pensar en aproximarlos por sus anlogos muestrales, resultando
.
Estaremos, por lo tanto, un 95% seguros de que el peso medio real en la poblacin de origen oscila
entre 75.6 Kg. y 80.3 Kg. Aunque la teora estadstica subyacente es mucho ms compleja, en
lneas generales ste es el modo de construir un intervalo de confianza para la media de una
poblacin.
Teorema de la combinacin lineal de variaciones normales y chi-cuadrada
Terorema de Chebshev, este teorema da una estimacin conservadora de la probabilidad de que
una variable aleatoria tome un valor dentro de k dentro de k desviaciones estndar de su media
para cualquier nmero real k. Proporcionaremos solo la demostracin para caso continuo.
La probabilidad de que cualquier variable aleatoria X tome un valor dentro de k desviaciones
estndar de la media es al menos 1- 2
1
k
. Es decir
( )
2
1
1
k
k u X k u P > + < < o o .
Distribuciones muestrales
En esta seccin estudiaremos las distribuciones ms importantes de variables aleatorias
continuas unidimensionales. El soporte de una variable aleatoria continua se define como aquella
regin de donde su densidad es no nula, ( ) 0 = x f . Para las distribuciones que enunciaremos,
podr ser bien todo , o bien un segmento de la forma | | 9 c b a, .

Distribuciones normales
La distribucin gaussiana, recibe tambin el nombre de distribucin normal, ya que una gran
mayora de las variables aleatorias continuas de la naturaleza siguen esta distribucin. Se dice que
una variable aleatoria X sigue una distribucin normal de parmetros y
2
, lo que representamos
del modo:

Si su funcin de densidad es:



Pg. 5

Observacin
Estos dos parmetros y 2coinciden adems con la media (esperanza) y la varianza
respectivamente de la distribucin como se demostrar ms adelante:

La forma de la funcin de densidad es la llamada campana de Gauss.
Figura: Campana de Gauss o funcin de densidad de una variable aleatoria de distribucin
normal. El rea contenida entre la grfica y el eje de abcisas vale 1.

Para el lector es un ejercicio interesante comprobar que sta alcanza un nico mximo
(moda) en , que es simtrica con respecto al mismo, y por tanto:

Con lo cual en coinciden la media, la mediana y la moda, y por ltimo, calcular sus
puntos de inflexin.
El soporte de la distribucin es todo , de modo que la mayor parte de la masa de
probabilidad (rea comprendida entre la curva y el eje de abcisas) se encuentra concentrado
alrededor de la media, y las ramas de la curva se extienden asintticamente a los ejes, de modo
que cualquier valor ``muy alejado" de la media es posible (aunque poco probable).
La forma de la campana de Gauss depende de los parmetros y :
- indica la posicin de la campana (parmetro de centralizacin);


Pg. 6

Figura: Distribuciones gaussianas con diferentes medias e igual
dispersin.

-
2
(o equivalentemente, ) ser el parmetro de dispersin. Cuanto menor sea,
mayor cantidad de masa de probabilidad habr concentrada alrededor de la media
(grafo de f muy apuntado cerca de ) y cuanto mayor sea ``ms aplastado" ser.
Figura: Distribuciones gaussianas con igual media pero varianza
diferente.

La funcin caracterstica de la distribucin normal, se comprueba ms adelante que es:



Pg. 7
Como consecuencia, la distribucin normal es reproductiva con respecto a los parmetros
, y 2, ya que:

Observacin
Como se ha mencionado anteriormente, la ley de probabilidad gaussiana la encontramos
en la mayora de los fenmenos que observamos en la naturaleza, por ello gran parte de lo que
resta del curso lo vamos a dedicar a su estudio y a el de las distribuciones asociadas a ella. Sin
embargo, a pesar de su utilidad, hay que apuntar un hecho negativo para esta ley de probabilidad:
La funcin
2
x
e

no posee primitiva conocida.


Las consecuencias desde el punto de vista prctico son importantes, ya que eso impide el
que podamos escribir de modo sencillo la funcin de distribucin de la normal, y nos tenemos que
limitar a decir que:

Sin poder hacer uso de ninguna expresin que la simplifique. Afortunadamente esto no
impide que para un valor de x fijo, F(x) pueda ser calculado. De hecho puede ser calculado con
tanta precisin (decimales) como se quiera, pero para esto se necesita usar tcnicas de clculo
numrico y ordenadores. Para la utilizacin en problemas prcticos de la funcin de distribucin F,
existen ciertas tablas donde se ofrecen (con varios decimales de precisin) los valores F(x) para
una serie limitada de valores xi dados. Normalmente F se encuentra tabulada para una distribucin
Z, normal de media 0 y varianza 1 que se denomina distribucin normal tipificada:

En el caso de que tengamos una distribucin diferente, se obtiene Z
haciendo el siguiente cambio:

De manera general se tiene:
Proposicin (Cambio de origen y escala)


Pg. 8
Sean . Entonces:


Este resultado puede ser utilizado del siguiente modo: Si , y nos interesa
calcular ,
1. Hacemos el cambio y calculamos ;
2. Usamos la tabla, relativa a la distribucin para obtener (de modo aproximado)
;
3. Como tenemos que el valor
obtenido en la tabla, FZ(z) es la probabilidad buscada.
1.1.1.1 Ejemplo
Supongamos que cierto fenmeno pueda ser representado mediante una variable
aleatoria , y queremos calcular la probabilidad de que X tome un valor entre 39 y
48, es decir,

Comenzamos haciendo el cambio de variable



Pg. 9
De modo que:

Vamos ahora a demostrar algunas de las propiedades de la ley gaussiana que hemos
mencionado anteriormente.
Proposicin
Sea . Entonces

Demostracin
Por ser la normal una ley de probabilidad se tiene que


Es decir, esa integral es constante. Con lo cual, derivando la expresin anterior con respecto a se
obtiene el valor 0:

Luego .


Pg. 10
Para demostrar la igualdad entre la var[X] y
2
, basta con aplicar la misma tcnica, pero
esta vez derivando con respecto a
2
:


Luego

Para demostrar el resultado relativo a la funcin caracterstica, consideramos en primer
lugar la variable aleatoria tipificada de X,

Y calculamos


Como , deducimos que

1.1.2 Distribucin Chi-Cuadrada (X
2
)
Si consideramos una v.a. , la v.a. X=Z2 se distribuye segn una ley de
probabilidad distribucin x2 con un grado de libertad, lo que se representa como:
Si tenemos n v.a. independientes , la suma de sus cuadrados respectivos es
una distribucin que denominaremos ley de distribucin x
2
con n grados de libertad, x
2
n.

La media y varianza de esta variable son respectivamente:
Y su funcin de densidad es:



Pg. 11
Los percentiles de esta distribucin que aparecen con ms frecuencia en la prctica los podemos
encontrar en la tabla.
Figura: Funcin de densidad de x
2
n para valores pequeos de n.

Figura: Funcin de densidad de x
2
n para valores grandes de n.

En consecuencia, si tenemos x1,,xn, v.a. independientes, donde cada ,
se tiene

Observacin


Pg. 12
La ley de distribucin x
2
muestra su importancia cuando queremos determinar la variabilidad (sin
signo) de cantidades que se distribuyen en torno a un valor central siguiendo un mecanismo
normal. Como ilustracin tenemos el siguiente ejemplo:
Ejemplo
Un instrumento para medir el nivel de glucemia en sangre, ofrece resultados bastantes
aproximados con la realidad, aunque existe cierta cantidad de error que se distribuye de modo
normal con media 0 y desviacin tpica .

Se realizan mediciones de los niveles de glucemia dados por el instrumento en un grupo
de n=100 pacientes. Nos interesa medir la cantidad de error que se acumula en las mediciones de
todos los pacientes. Podemos plantear varias estrategias para medir los errores acumulados. Entre
ellas destacamos las siguientes:
1. Definimos el error acumulado en las mediciones de todos los pacientes como

Cul es el valor esperado para E1?
2. Definimos el error acumulado como la suma de los cuadrados de todos los errores
(cantidades positivas):

Cul es el valor esperado para E2?
A la vista de los resultados, cul de las dos cantidades, E1 y E2, le parece ms conveniente
utilizar en una estimacin del error cometido por un instrumento.
Solucin: Suponiendo que todas las mediciones son independientes, se tiene que:

De este modo, el valor esperado para
E1 es 0, es decir, que los errores ei van a tender a
compensarse entre unos pacientes y otros. Obsrvese que si no
fuese conocido a priori, podramos utilizar E1, para obtener una aproximacin de

Sin embargo, el resultado E1 no nos indica en qu medida hay mayor o menor dispersin
en los errores con respecto al 0. En cuanto a E2 podemos afirmar lo siguiente:

En este caso los errores no se compensan entre s, y si no fuese conocido, podra ser
``estimado" de modo aproximado mediante


Pg. 13

Sin embargo, no obtenemos ninguna informacin con respecto a .
En conclusin, E1 podra ser utilizado para calcular de modo aproximado , y E2 para
calcular de modo aproximado . Las dos cantidades tienen inters, y ninguna lo tiene ms que la
otra, pues ambas formas de medir el error nos aportan informacin.
El siguiente resultado ser de importancia ms adelante. Nos afirma que la media de
distribuciones normales independientes es normal pero con menor varianza y relaciona los grados
de libertad de una v.a. con distribucin x, con los de un estadstico como la varianza:
Teorema (Cochran)
Sean v.a. independientes. Entonces



Distribucin de Student
La distribucin -Student se construye como un cociente entre una normal y la raz de una
x
2
independientes. De modo preciso, llamamos distribucin t-Student con n grados de libertad, tn a
la de una v.a. T,


Donde , . Este tipo de distribuciones aparece cuando tenemos n+1 v.a.
independientes


y nos interesa la distribucin de

La funcin de densidad de es


Pg. 14


Figura: Funcin de densidad de una de Student


La distribucin t de Student tiene propiedades parecidas a N(0,1):
Es de media cero, y simtrica con respecto a la misma;
Es algo ms dispersa que la normal, pero la varianza decrece hasta 1 cuando el nmero de
grados de libertad aumenta;

Figura: Comparacin entre las funciones de densidad de t1 y N(0,1).



Pg. 15
Para un nmero alto de grados de libertad se puede aproximar la distribucin de Student
por la normal, es decir,

Figura: Cuando aumentan los grados de libertad, la distribucin de Student se
aproxima a la distribucin normal tipificada.

Para calcular

En lugar de considerar una primitiva de esa funcin y determinar la integral definida,
buscaremos el resultado aproximado en una tabla de la distribucin tn. Vase la tabla, al final del
libro.
La distribucin de Snedecor
Otra de las distribuciones importantes asociadas a la normal es la que se define como
cociente de distribuciones x
2
independientes. Sean e v.a. independientes.
Decimos entonces que la variable

Sigue una distribucin de probabilidad de Snedecor, con (n,m) grados de libertad. Obsrvese que
.
La forma ms habitual en que nos encontraremos esta distribucin ser en el caso en que
tengamos n+m v.a. independientes


Y as


Pg. 16

De esta ley de probabilidad lo que ms nos interesa es su funcin de distribucin:



Pg. 17
y para ello, como en todas las distribuciones asociadas a la normal, disponemos de una
tabla donde encontrar aproximaciones a esas cantidades.
Figura: Funcin de densidad de .


Es claro que la distribucin de Snedecor no es simtrica, pues slo tienen densidad de
probabilidad distinta de cero, los punto de . Otra propiedad interesante de la distribucin de
Snedecor es:

1.2 Aproximacin a la normal de la ley binomial
Se puede demostrar (teorema central del lmite) que una variable aleatoria discreta con
distribucin binomial, se puede aproximar mediante una distribucin normal si n es
suficientemente grande y p no est ni muy prximo a 0 ni a 1. Como el valor esperado y la varianza
de X son respectivamente np y npq, la aproximacin consiste en decir que .
El convenio que se suele utilizar para poder realizar esta aproximacin es:

Aunque en realidad esta no da resultados muy precisos a menos que realmente n sea un
valor muy grande o
2
1
~ ~ q p . Como ilustracin obsrvense las figuras siguientes.
Figura: Comparacin entre la funcin de densidad de una variable
aleatoria continua con distribucin N(np,npq) y el diagrama de barras de una
variable aleatoria discreta de distribucin B(n,p) para casos en que la
aproximacin normal de la binomial es vlida. Es peor esta aproximacin


Pg. 18
cuando p est prximo a los bordes del intervalo [0,1].

Figura: La misma comparacin que en la figura anterior, pero
realizada con parmetros con los que damos la aproximacin normal de la
binomial es mejor.

Ejemplo
Durante cierta epidemia de gripe, enferma el 30% de la poblacin. En un aula con 200
estudiantes de Medicina, cul es la probabilidad de que al menos 40 padezcan la enfermedad?
Calcular la probabilidad de que haya 60 estudiantes con gripe.
Solucin: La variable aleatoria que contabiliza el nmero de alumnos que padece la gripe
es

Cuya media es =n*p=60 y su varianza es
2
=npq=42. Realizar los clculos con la ley
binomial es muy engorroso, ya que intervienen nmeros combinatorios de gran tamao, y


Pg. 19
potencias muy elevadas. Por ello utilizamos la aproximacin normal de X, teniendo en cuenta que
se verifican las condiciones necesarias para que el error sea aceptable:

As aproximando la variable aleatoria discreta binomial X, mediante la variable aleatoria
continua normal XN tenemos:


Tambin es necesario calcular P[X]=60. Esta probabilidad se calcula exactamente como:

Dada la dificultad numrica para calcular esa cantidad, y como la distribucin binomial no
est habitualmente tabulada hasta valores tan altos, vamos a utilizar su aproximacin normal, XN.
Pero hay que prestar atencin al hecho de que XN es una variable aleatoria continua, y por tanto
la probabilidad de cualquier punto es cero. En particular,

Lo que ha de ser interpretado como un error de aproximacin. Hay mtodos ms
aproximados para calcular la probabilidad buscada. Por ejemplo, podemos aproximar P[X]=60 por
el valor de la funcin de densidad de XN en ese punto (es en el nico sentido en que se puede
entender la funcin de densidad de la normal como una aproximacin de una probabilidad). As:

Por ltimo, otra posibilidad es considerar un intervalo de longitud 1centrado en el valor 60
del que deseamos hallar su probabilidad y hacer:

Ejemplo
Segn un estudio, la altura de los varones de cierta ciudad es una v.a. X, que podemos
considerar que se distribuye segn una ley gaussiana de valor esperado =175 cm. y desviacin


Pg. 20
tpica =10 cm. Dar un intervalo para el que tengamos asegurado que el 50% de los habitantes de
la ciudad estn comprendidos en l.
Solucin: Tenemos que . Si buscamos un intervalo donde
estar seguros de que el 50% de los habitantes tengan sus alturas comprendidas en l hay varias
estrategias posibles:
1. Podemos tomar el percentil 50, ya que este valor deja por debajo suya a la mitad, 0,5,
de la masa de probabilidad. Este valor, x0,5, se definira como:

Donde

El valor z0,5 lo podemos buscar en la tabla (distribucin N(0,1) y se obtiene:

Por tanto podemos decir que la mitad de la poblacin tiene una altura inferior a X
0,5
=175
cm. Este resultado era de esperar, ya que en la distribucin es simtrica y habr una mitad de
individuos con un peso inferior a la media y otro con un peso superior. Esto puede escribirse
como:
El 50% de la poblacin tiene un peso comprendido en el intervalo (-,175).

Figura: Intervalo donde tenemos asegurado que el 50% de la poblacin tiene un
peso comprendido en l. Como se observa, no es un tamao ptimo, en el sentido de que
el intervalo es demasiado grande (longitud infinita a la izquierda).




Pg. 21
2. Anlogamente podemos considerar el percentil 50, y tomar como intervalo aquellos
pesos que lo superan. Por las mismas razones que en el problema anterior, podremos decir:
El 50% de la poblacin tiene un peso comprendido en el intervalo [175,+).
3. Los anteriores intervalos, an dando un resultado correcto, no son satisfactorios en el
sentido de que son muy grandes, y no tienen en cuenta la simetra de la distribucin normal para
tomar un intervalo cuyo centro sea . Vamos a utilizar entonces otra tcnica que nos permita
calcular el intervalo centrado en la media, y que adems ser el ms pequeo posible que
contenga al 50% de la poblacin.
Para ello observamos que la mayor parte de probabilidad est concentrada siempre
alrededor de la media en las leyes gaussianas. Entonces podemos tomar un intervalo que
contenga un 25% de probabilidad del lado izquierdo ms prximo a la media, y un 25% del
derecho.

Figura: Intervalo donde tenemos asegurado que el 50% de la poblacin tiene un
peso comprendido en l. En este caso el intervalo es ms pequeo que el anterior y est
centrado en .

Esto se puede describir como el intervalo donde x0,25 es el valor que deja
por debajo de s al 25% de la masa de probabilidad y x
0,75
el que lo deja por encima (o lo que es lo
mismo, el que deja por debajo al 75% de las observaciones). Del mismo modo que antes estos
valores pueden ser buscados en una tabla de la distribucin normal, tipificando en primera
instancia para destipificar despus:

Donde

En una tabla encontramos el valor z0,75, y se destipifica:


Pg. 22

Anlogamente se calculara

Donde:






Por la simetra de la distribucin normal con respecto al origen, tenemos que z0,25= -
z0,75.Luego

En conclusin:
El 50% de la poblacin tiene un peso comprendido en el intervalo [168,25,181,75].
De entre los tres intervalos que se han calculado el que tiene ms inters es el ltimo, ya
que es simtrico con respecto a la media, y es el ms pequeo de todos los posibles (ms preciso).
Este ejemplo es en realidad una introduccin a unas tcnicas de inferencia estadstica que
trataremos posteriormente, conocidas con el nombre de ``estimacin confidencial'' o ``clculo de
intervalos de confianza''.

Problemas
Ejercicio 1. Para estudiar la regulacin hormonal de una lnea metablica se inyectan ratas albinas
con un frmaco que inhibe la sntesis de protenas del organismo. En general, 4 de cada 20 ratas
mueren a causa del frmaco antes de que el experimento haya concluido. Si se trata a 10 animales
con el frmaco, cul es la probabilidad de que al menos 8 lleguen vivas al final del experimento?
Ejercicio 2. En una cierta poblacin se ha observado un nmero medio anual de muertes por
cncer de pulmn de 12. Si el nmero de muertes causadas por la enfermedad sigue una
distribucin de Poisson, cul es la probabilidad de que durante el ao en curso?
1. Haya exactamente 10 muertes por cncer de pulmn?
2. 15 o ms personas mueran a causa de la enfermedad?
3. 10 o menos personas mueran a causa de la enfermedad?
Ejercicio 3. Daando los cromosomas del vulo o del espermatozoide, pueden causarse
mutaciones que conducen a abortos, defectos de nacimiento, u otras deficiencias genticas. La
probabilidad de que tal mutacin se produzca por radiacin es del 10%. De las siguientes 150
mutaciones causadas por cromosomas daados, cuntas se esperara que se debiesen a
radiaciones? Cul es la probabilidad de que solamente 10 se debiesen a radiaciones?
Ejercicio 4. Entre los diabticos, el nivel de glucosa en sangre X, en ayunas, puede suponerse de
distribucin aproximadamente normal, con media 106 mg/100 ml y desviacin tpica 8 mg/100 ml,
es decir



Pg. 23
1. Hallar
2. Qu porcentaje de diabticos tienen niveles comprendidos entre 90 y 120?
3. Hallar .
4. Hallar .
5. Hallar el punto x caracterizado por la propiedad de que el 25% de todos los diabticos tiene un
nivel de glucosa en ayunas inferior o igual a x.

BIBLIOGRAFA
- MC. ALLISTER. Elementos de Estadstica en la economa y los negocios. Primera Edicin.Ecasa.
Mxico D.F. 1987
- KENNETH D. HPKINS, B.R. HPKINS, GENE V GLASS. Estadstica Bsica para las Ciencias Sociales y
del Comportamiento.Tercera Edicin. Ed. Prentice Hall. Mxico D.F. 1997
- P. ARMITAGE, G. BERRY, Estadstica para la Investigacin Biomdica. Doyma, Barcelona, 1992.
- MARTN ANDRS, J.D. LUNA DEL CASTILLO, Bioestadstica para las Ciencias de la salud. Norma,
Mxico D.F. 1994
- R.D. REMINGTON, M.A. SCHORK, Estadstica Biomtrica y Sanitaria. Prentice Hall International,
Mxico D.F., 1979.
- STEEL, TORRIE, Bioestadstica (Principios y Procedimientos). Mac Graw-Hill, Mxico D.F., 1985.
- M. TSOKOS, Estadstica para Psicologa y Ciencias de la Salud. Interamericana Mac Graw-Hill,
Mxico D.F., 1989.
- S.L. WEINBERG, K.P. GOLDBERG, Estadstica Bsica para las Ciencias Sociales. Nueva Editorial
Interamericana, Mexico, 1982.
BIBLIOGRAFA BSICA Y COMPLEMENTARIA
A. Probabilidad y Estadstica para Ingeniera y Administracin.HINES, WILLIAM, W. Y
DOUGLAS C. MONTGOMERY.ED. CECSA 1986
B. Estadstica para Ingenieros.BOWKER ALBERT H. Y LIBERMAN GERALD J. ED. Prentice
Hall Hispanoamericana 1981
C. Mathematical Statistics.FREUND JHON E. Ed. Prentice Hall 2da. ed. 1971
D. Probability and Statistics for EngineersWALPOLE, RONALD E. Y RAYMOND H.
MYERS.ED. 2nd. ed. 1978 Captulo 5
E. Estadstica Matemtica ERWING KREYSZIG.ED. Limusa
F. Estadstica para Administracin.WILLIAM J. STEVENSON
G. WALPOLE. Probabilidad y Estadsitica para Ingenieros.Sexta Edicin. Prentice Hall.

Vous aimerez peut-être aussi