Vous êtes sur la page 1sur 20

UNIVERSIDAD AUTÓNOMA

DEL ESTADO DE MORELOS

INGENIERÍA INDUSTRIAL Y DE
SISTEMAS

Estadística Descriptiva y Probabilidad

Unidad 5 & Unidad 6

Alumnos:
Barragán Ramírez Adrián Mauricio
Gómez Romero Jessica
Gutiérrez Dávila Ximena
Rayón Pacheco Moisés
Tamayo Becerra Alondra Estefanía
Vega Osornio Eric Daniel

Fecha: 12/Diciembre/2018
Contenido
UNIDAD 5. DISTRIBUCIÓN DE PROBABILIDAD ....................................................................... 3
Introducción .................................................................................................................................... 3
Distribución binomial...................................................................................................................... 3
Distribución Hipergeométrica ......................................................................................................... 5
Distribución Geométrica ................................................................................................................. 7
Distribución de Poisson................................................................................................................... 8
UNIDAD 6. DENSIDADES DE PROBABILIDAD ........................................................................ 11
Introducción .................................................................................................................................. 11
Distribución Normal...................................................................................................................... 11
Distribución Exponencial .............................................................................................................. 12
Distribución ji cuadrada ................................................................................................................ 16
Teoría de Chebyshev ..................................................................................................................... 19
UNIDAD 5. DISTRIBUCIÓN DE PROBABILIDAD

Introducción
La distribución de probabilidad discreta describe el comportamiento de una variable
aleatoria, independientemente de si se representa de forma gráfica o mediante un histograma,
en forma tabular o con una fórmula. A menudo las observaciones que se generan mediante
diferentes experimentos estadísticos tienen el mismo tipo general de comportamiento. En
consecuencia, las variables aleatorias discretas asociadas con estos experimentos se pueden
describir esencialmente con la misma distribución de probabilidad y, por lo tanto, es posible
representarlas usando una sola fórmula. De hecho, se necesitan sólo unas cuantas
distribuciones de probabilidad importantes para describir muchas de las variables aleatorias
discretas que se encuentran en la práctica.
En este capitulo se estudian los modelos matemáticos para calcular la probabilidad en algunos
problemas típicos en los que intervienen variables aleatorias discretas. El objetivo es obtener
una fórmula matemática f(x) para determinar los valores de probabilidad de la variable
aleatoria X.

Distribución binomial
El número X de éxitos en n experimentos de Bernoulli se denomina variable aleatoria
binomial. La distribución de probabilidad de esta variable aleatoria discreta se llama
distribución binomial y sus valores se denotarán como b (x; n, p), ya que dependen del
número de ensayos y de la probabilidad de éxito en un ensayo dado. Por consiguiente, para
la distribución de probabilidad de X el número de productos defectuosos es
1 9
𝑃(𝑋 = 2) = 𝑓(2) = 𝑏 (2; 3, ) =
4 64
Generalicemos ahora la ilustración anterior con el fi n de obtener una fórmula para b (x; n,
p). Esto significa que deseamos encontrar una fórmula que dé la probabilidad de x éxitos en
n ensayos para un experimento binomial. Empiece por considerar la probabilidad de x éxitos
y n – x fracasos en un orden específico.
Características de un experimento binomial
a) La cantidad de ensayos que se realizan es finita. Sea esta cantidad n.
b) Cada ensayo tiene únicamente dos resultados posibles: “éxito” o “fracaso”.
c) Todos los ensayos realizados son independientes.
d) La probabilidad de “éxito” en cada ensayo permanece constante. Sea este valor P.
Definición de Distribución Binomial
Un experimento de Bernoulli puede tener como resultado un éxito con probabilidad p y un
fracaso con probabilidad q = 1 – p. Entonces, la distribución de probabilidad de la variable
aleatoria binomial X, el número de éxitos en n ensayos independientes, es:
𝑛
𝑏 = (𝑥; 𝑛, 𝑝) = ( ) 𝑝 𝑥 𝑞 𝑛−𝑥 , 𝑥 = 0,1,2, … , 𝑛.
𝑥
Observe que cuando n = 3 y p = 1/4, la distribución de probabilidad de X, el número de
artículos defectuosos, se escribe como

1 3 1 𝑥 1 3−𝑥
𝑏 = (𝑥; 3, ) = ( ) ( ) ( ) , 𝑥 = 0,1,2,3.
4 𝑥 4 4
Ejemplo 1. La probabilidad de que cierta clase de componente sobreviva a una prueba de
choque es de 3/4. Calcule la probabilidad de que sobrevivan exactamente 2 de los siguientes
4 componentes que se prueben.
Solución: Si suponemos que las pruebas son independientes y p = 3/4 para cada una de las 4
pruebas, obtenemos

1 4 3 2 1 2 4! 32 27
𝑏 = (2; 3, ) = ( ) ( ) ( ) = ( ) ( 4) =
4 2 4 4 2! 2! 4 128

¿De donde proviene le nombre binomial?


La distribución binomial deriva su nombre del hecho de que los n + 1 términos en la
expansión binomial de (𝑞 + 𝑝)𝑛 corresponden a los diversos valores de b (x; n, p) para x = 0,
1, 2, ..., n. Es decir;
𝑛 𝑛 𝑛 𝑛
(𝑞 + 𝑝)𝑛 = ( ) 𝑞 𝑛 + ( ) 𝑝𝑞 𝑛−1 + ( ) 𝑝2 𝑞 𝑛−2 + ⋯ + ( ) 𝑝𝑛
0 0 2 𝑛
= 𝑏(0; 𝑛, 𝑝) + 𝑏(1; 𝑛, 𝑝) + 𝑏(2; 𝑛, 𝑝) + ⋯ + 𝑏(𝑛; 𝑛, 𝑝)
Dado que p + q = 1, veamos que
𝑛

∑ 𝑏(𝑥; 𝑛, 𝑝) = 1
𝑥=0

Una condición que se debe cumplir para cualquier distribución de probabilidad.


Con frecuencia nos interesamos en problemas donde se necesita para obtener P(X<r) o P (a
≤ X ≤ b). Las sumatorias binomiales:
𝑟

𝐵 = (𝑟; 𝑛. 𝑝) = ∑ 𝑏(𝑥; 𝑛, 𝑝)
𝑥=0
Ejemplo 2. La probabilidad de que un paciente se recupere de una rara enferme dad
sanguínea es de 0.4. Si se sabe que 15 personas contrajeron la enfermedad, ¿cuál es la
probabilidad de que a) sobrevivan al menos 10, b) sobrevivan de 3 a 8, y c) sobrevivan
exactamente 5?
Solución: Sea X el número de personas que sobreviven.

a) 𝑃(𝑋 ≥ 10) = 1 − 𝑃(𝑋 < 10) = 1 − ∑9𝑥=0 𝑏(15; 0,0.4) = 1 − 0.9662 =


0.0338
b) 𝑃(3 ≤ 𝑋 ≤ 8) =
∑8𝑥=3 𝑏(𝑥; 15,0.4) = ∑8𝑥=0 𝑏(𝑥; 15,0.4) = ∑2𝑥=0 𝑏(𝑥; 15,0.4) = 0.9050 −
0.0271 = 0.8779
c) 𝑃(𝑋 = 5) = 𝑏(𝑥; 15,0.4) =
∑5𝑥=0 𝑏(𝑥; 15,0.4) = ∑4𝑥=0 𝑏(𝑥; 15,0.4) = 0.4032 − 0.2173 = 0.1859

Distribución Hipergeométrica
La manera más simple de ver la diferencia entre la distribución binomial y la distribución
hipergeométrica consiste en observar la forma en que se realiza el muestreo. Los tipos de
aplicaciones de la distribución hipergeométrica son muy similares a los de la distribución
binomial. Nos interesa el cálculo de probabilidades para el número de observaciones que
caen en una categoría específica. Sin embargo, la distribución binomial requiere que los
ensayos sean independientes. Por consiguiente, si se aplica esta distribución, digamos,
tomando muestras de un lote de artículos (barajas, lotes de artículos producidos), el muestreo
se debe efectuar reemplazando cada artículo después de observarlo. Por otro lado, la
distribución hipergeométrica no requiere independencia y se basa en el muestreo que se
realiza sin reemplazo.
Las aplicaciones de la distribución hipergeométrica se encuentran en muchos campos, sobre
todo en el muestreo de aceptación, las pruebas electrónicas y los controles de calidad.
Evidentemente, en muchos de estos campos el muestreo se realiza a expensas del artículo
que se prueba; es decir, el artículo se destruye, por lo que no se puede reemplazar en la
muestra.
En general, nos interesa la probabilidad de seleccionar x éxitos de los k artículos considerados
éxitos y n – x fracasos de los N – k artículos que se consideran fracasos cuando una muestra
aleatoria de tamaño n se selecciona de N artículos. Esto se conoce como un experimento
hipergeométrico; es decir, aquel que posee las siguientes dos propiedades:
1. De un lote de N artículos se selecciona una muestra aleatoria de tamaño n sin
reemplazo.
2. k de los N artículos se pueden clasificar como éxitos y N – k se clasifican como
fracasos.
El número X de éxitos de un experimento hipergeométrico se denomina variable aleatoria
hipergeométrica. En consecuencia, la distribución de probabilidad de la variable
hipergeométrica se conoce como distribución hipergeométrica, y sus valores se denotan con
h (x; N, n, k), ya que dependen del número de éxitos k en el conjunto N del que seleccionamos
n artículos.
Distribución hipergeométrica en el muestreo de aceptación.
Como en el caso de la distribución binomial, la distribución hipergeométrica se aplica en el
muestreo de aceptación, donde se toman muestras del material o las partes de los lotes con el
fi n de determinar si se acepta o no el lote completo.
Ejemplo 1. Una parte específica que se utiliza como dispositivo de inyección se vende en
lotes de 10. El productor considera que el lote es aceptable si no tiene más de un artículo
defectuoso. Un plan de muestreo incluye un muestreo aleatorio y la prueba de 3 de cada 10
partes. Si ninguna de las 3 está defectuosa, se acepta el lote. Comente acerca de la utilidad
de este plan.
Solución: Supongamos que el lote es verdaderamente inaceptable (es decir, que 2 de cada 10
partes están defectuosas). La probabilidad de que el plan de muestreo considere que el lote
aceptable es:

(𝟐𝟎)(𝟖𝟑)
𝑷(𝑿 = 𝟎) = = 𝟎. 𝟒𝟔𝟕
(𝟏𝟎
𝟑
)

Por consiguiente, si el lote es realmente inaceptable porque 2 partes están defectuosas, este
plan de muestreo permitirá que se acepte aproximadamente 47% de las veces. Como
resultado, este plan debería considerarse inadecuado.
La media y la varianza de la distribución hipergeométrica h (x; N, n, k) son
𝒏𝒌 𝑵−𝒏 𝒌 𝒌
𝝁= 𝒚 𝝈𝟐 = ∙ 𝒏 ∙ (𝟏 − )
𝑵 𝑵−𝟏 𝑵 𝑵
Distribución Geométrica
La distribución geométrica es un modelo adecuado para aquellos procesos en los que se
repiten pruebas hasta la consecución del éxito a resultado deseado y tiene interesantes
aplicaciones en los muestreos realizados de esta manera. También implica la existencia de
una dicotomía de posibles resultados y la independencia de las pruebas entre sí.

Donde:
p(x) = probabilidad de que ocurra un éxito en el ensayo x por primera y única
vez.
p = probabilidad de éxito.
q = probabilidad de fracaso.
Ejemplo 1:
1. Sí la probabilidad de que un cierto dispositivo de medición muestre una desviación
excesiva es de 0.05, ¿cuál es la probabilidad de que;
a) el sexto de estos dispositivos de medición sometidos a prueba sea el primero
en mostrar una desviación excesiva?,
b) b) el séptimo de estos dispositivos de medición sometidos a prueba, sea el
primero que no muestre una desviación excesiva?

Solución:
a) x = 6 que el sexto dispositivo de medición probado sea el primero
que muestre una variación excesiva
p = 0.05 =probabilidad de que un dispositivo de medición muestre una
variación excesiva
q = 0.95 =probabilidad de que un dispositivo de medición no muestre
una variación excesiva

p (x = 6) =

b) x = 5 que el quinto dispositivo de medición probado, sea el primero


que no muestre una desviación excesiva
p = 0.95 = probabilidad de que un dispositivo de medición no muestre
una variación excesiva
q = 0.05 = probabilidad de que un dispositivo de medición muestre una
variación excesiva

p (x = 5) =
2. Los registros de una compañía constructora de pozos, indican que la probabilidad de
que uno de sus pozos nuevos, requiera de reparaciones en el término de un año es de
0.20.
a) ¿Cuál es la probabilidad de que el quinto pozo construido por esta compañía
en un año dado sea el primero en requerir reparaciones en un año?

Solución:
x = 5 que el quinto pozo sea el primero que requiera reparaciones en un año
p = 0.20 = probabilidad de que un pozo requiera reparaciones en el término de
un año
q = 0.80 = probabilidad de que un pozo no requiera reparaciones en el término
de un año

P (x = 5) =
La media y la varianza de una variable aleatoria que sigue la distribución
geométrica son
𝟏 𝟏−𝑷
𝝁= 𝒚 𝝈𝟐 =
𝑷 𝒑𝟐

Distribución de Poisson
Los experimentos que producen valores numéricos de una variable aleatoria X, el número de
resultados que ocurren durante un intervalo de tiempo determinado o en una región específica
ca, se denominan experimentos de Poisson.
La distribución de Poisson es un modelo que puede usarse para calcular la probabilidad
correspondiente al número de éxitos que ocurren en una región o en intervalo de tiempo
especificados, si se conoce el número promedio de éxitos que ocurren.
Este modelo requiere que se cumplan las siguientes condiciones.
a) El número de éxitos que ocurren en una región o intervalo es independiente de lo que
ocurre en otra región o intervalo.
b) La probabilidad de que un resultado ocurra en una región o intervalo muy pequeño.
c) La probabilidad de que más de un resultado ocurra en una región muy pequeña no es
significativa.
El número X de resultados que ocurren durante un experimento de Poisson se llama variable
aleatoria de Poisson y su distribución de probabilidad se llama distribución de Poisson.
X: variable aleatoria discreta con distribución de Poisson (cantidad de éxitos en una región)
l: cantidad promedio de éxitos en la región o intervalo.
e = 2.71828
Sumatoria de la probabilidad de Poisson.
𝒆𝝀𝒕 (𝝀𝒕)𝒙
𝑷(𝒙; 𝝀𝒕) =
𝒙!
Ejemplos:
1. Si un banco recibe en promedio 6 cheques sin fondo por día, ¿cuáles son las probabilidades
de que reciba, a) cuatro cheques sin fondo en un día dado, b) 10 cheques sin fondos en
cualquiera de dos días consecutivos?

Solución:
a) x = variable que nos define el número de cheques sin fondo que llegan al
banco en un día cualquiera = 0, 1, 2, 3, …, etc.
 = 6 cheques sin fondo por día
 = 2.718

b)
x= variable que nos define el número de cheques sin fondo que llegan al banco
en dos días consecutivos = 0, 1, 2, 3, ......, etc., etc.
= 6 x 2 = 12 cheques sin fondo en promedio que llegan al banco en dos días
consecutivos
Nota: siempre debe de estar en función de x siempre o dicho de otra forma,
debe “hablar” de lo mismo que x.

2. En la inspección de hojalata producida por un proceso electrolítico continuo, se


identifican 0.2 imperfecciones en promedio por minuto. Determine las probabilidades
de identificar a) una imperfección en 3 minutos, b) al menos dos imperfecciones en 5
minutos, c) cuando más una imperfección en 15 minutos.
Solución:
a) x = variable que nos define el número de imperfecciones en la hojalata por
cada 3 minutos = 0, 1, 2, 3, ..., etc., etc.
= 0.2 x 3 =0.6 imperfecciones en promedio por cada 3 minutos en la hojalata

b) x = variable que nos define el número de imperfecciones en la hojalata por


cada 5 minutos = 0, 1, 2, 3, ..., etc., etc.
= 0.2 x 5 =1 imperfección en promedio por cada 5 minutos en la hojalata

=1-(0.367918+0.367918) = 0.26416

c) x = variable que nos define el número de imperfecciones en la hojalata por


cada 15 minutos = 0, 1, 2, 3, ..., etc., etc.
= 0.2 x 15 = 3 imperfecciones en promedio por cada 15 minutos en la hojalata

= 0.0498026 +
0.149408 = 0.1992106
UNIDAD 6. DENSIDADES DE PROBABILIDAD
Introducción
Los métodos estadísticos empleados tienen que ver con la variabilidad y en cada caso la
variabilidad que se estudia en datos científicos.
Los profesionales de la estadística usan leyes fundamentales de probabilidad e inferencias
estadística para sacar conclusiones respecto de los sistemas científicos.
Una de las distribuciones continuas más simples de la estadística es la distribución uniforme
continua. Esta distribución se caracteriza por una función de densidad que es plana por lo
cual la probabilidad es uniforme en un intervalo cerrado, digamos [A, B]. Aunque las
aplicaciones de la distribución uniforme continua no son tan abundantes como la de otras
distribuciones que se presentan en este capítulo, es apropiado para el principiante que
comience esta introducción a las distribuciones continuas con la distribución uniforme.

Distribución Normal
La distribución de probabilidad continua más importante en todo el campo de la estadística
es la distribución normal, su grafica denominada curva normal, es la curva con forma de
campana, la cual describe de manera aproximada muchos fenómenos que ocurren en la
naturaleza, la industria y la investigación.

Figura 6.1. La Curva Normal.

La distribución normal a menudo se denomina distribución gaussiana en honor a Karl


Friedrich Gauss quien también derivó su ecuación a partir de un estudio de errores en
mediciones repetidas de la misma cantidad.
La ecuación matemática para la distribución de probabilidad de la variable normal depende
de dos parámetros µ y σ, su media y su desviación estándar. por ello denotamos los valores
de la densidad de X por n (x, µ, σ)
La densidad de la variable aleatoria X, con media µ y varianza σ² es normal.
1 −
1
(x−μ)²
n(x; μ, σ) = e 2a2
√2πσ
Donde π = 3.14159…. y e= 2.71828

Una vez que se especifica µ y σ, la curva normal queda determinada por completo. Por
ejemplo, si µ= 50 y σ= 5, entonces se pueden calcular las ordenas n (x; 50,5) para diferentes
valores de x y dibujar la curva.

Enseguida se verán las propiedades de la curva normal:


1. La moda, que es el punto sobre el eje horizontal donde la curva tiene su punto
máximo
2. La curva es simétrica alrededor de un eje vertical a través de la media µ
3. La curva tiene sus puntos de inflexión en x= µ ± σ

Para evaluar la media primero calculamos



X−μ 1 x−μ
E(x − μ) = ∫ e−2( σ

dx
−∞ √2πσ

Al establecer que z= (x - µ) / σ y dx= σ dz obtenemos



1 1 2
E(x − μ) = ∫ ze−2z dz=0
√2π −∞

Muchas variables aleatorias tienen distribución de probabilidad que se pueden describir de


forma adecuada mediante la curva normal, una vez que se especifiquen µ y σ².

Distribución Exponencial
Aunque la distribución normal se puede utilizar para resolver muchos problemas de
ingeniería y ciencias, aún hay numerosas situaciones que requieren diferentes tipos de
funciones de densidad. En esta sección se estudiará esta función de densidad, la distribución
exponencial.
Resulta que la distribución exponencial es un caso especial de la distribución gamma, y
ambas tienen un gran número de aplicaciones. La distribución exponencial y la distribución
gamma desempeñan un papel importante en la teoría de colas y en problemas de
confiabilidad. Los tiempos entre llegadas en instalaciones de servicio y los tiempos de
operación antes de que partes componentes y sistemas eléctricos empiecen a fallar a menudo
se representan bien mediante la distribución exponencial. La relación entre la distribución
gamma y la exponencial permite que la gamma se utilice en problemas similares.
En la figura siguiente se muestran gráficas de varias distribuciones gamma para ciertos
valores específicos de los parámetros α y β. La distribución gamma especial para la que α =
1 se llama distribución exponencial.

La variable aleatoria continua X tiene una distribución exponencial, con parámetro β, si su


función de densidad es dada por:

La media y la varianza de la distribución exponencial son:

Aplicaciones de la distribución exponencial y la distribución gamma.


En la explicación anterior establecimos las bases para la aplicación de la distribución
exponencial en el “tiempo de llegada” o tiempo para problemas con eventos de Poisson. Aquí
ilustraremos algunas aplicaciones de modelado y después procederemos a analizar el papel
que la distribución gamma desempeña en ellas. Observe que la media de la distribución
exponencial es el parámetro β, el recíproco del parámetro en la distribución de Poisson. El
lector debería recordar que con frecuencia se dice que la distribución de Poisson no tiene
memoria, lo cual implica que las ocurrencias en periodos sucesivos son independientes. El
importante parámetro β es el tiempo promedio entre eventos. En la teoría de confiabilidad,
donde la falla de equipo con frecuencia se ajusta a este proceso de Poisson, β se denomina
tiempo medio entre fallas. Muchas descomposturas de equipo siguen el proceso de Poisson
y por ello se aplica la distribución exponencial. Otras aplicaciones incluyen tiempos de
supervivencia en experimentos biomédicos y tiempo de respuesta de computadoras. En el
siguiente ejemplo mostramos una aplicación simple de la distribución exponencial a un
problema de confiabilidad. La distribución binomial también desempeña un papel en la
solución.
Ejemplo 6.17: Suponga que un sistema contiene cierto tipo de componente cuyo tiempo de
operación antes de fallar, en años, está dado por T. La variable aleatoria T se modela bien
mediante la distribución exponencial con tiempo medio de operación antes de fallar β = 5. Si
se instalan 5 de estos componentes en diferentes sistemas, ¿cuál es la probabilidad de que al
final de 8 años al menos dos aún funcionen?
Solución: La probabilidad de que un componente determinado siga funcionando después de
8 años es dada por:

Representemos con X el número de componentes que todavía funcionan después de 8 años.


Entonces, utilizando la distribución binomial tenemos:

La propiedad de falta de memoria y su efecto en la distribución exponencial.


En los tipos de aplicación de la distribución exponencial en los problemas de confiabilidad y
de tiempo de vida de una máquina o de un componente influye la propiedad de falta de
memoria de la distribución exponencial. Por ejemplo, en el caso de, digamos, un componente
electrónico, en el que la distribución del tiempo de vida es exponencial, la probabilidad de
que el componente dure, por ejemplo, t horas, es decir, P (X > t), es igual que la probabilidad
condicional

Entonces, si el componente “alcanza” las t0 horas, la probabilidad de que dure otras t horas
es igual que la probabilidad de que dure t horas. No hay “castigo” a través del desgaste como
resultado de durar las primeras t0 horas. Por lo tanto, cuando la propiedad de falta de memoria
es justificada es más adecuada la distribución exponencial. Pero si la falla del componente es
resultado del desgaste lento o gradual (como en el caso del desgaste mecánico), entonces la
distribución exponencial no es aplicable y serían más adecuadas la distribución gamma o la
de Weibull. La importancia de la distribución gamma radica en el hecho de que define una
familia en la cual otras distribuciones son casos especiales. Pero la propia distribución
gamma tiene aplicaciones importantes en tiempo de espera y teoría de confiabilidad. Mientras
que la distribución exponencial describe el tiempo que transcurre hasta la ocurrencia de un
evento de Poisson (o el tiempo entre eventos de Poisson), el tiempo (o espacio) que transcurre
hasta que ocurre un número específico de eventos de Poisson es una variable aleatoria, cuya
función de densidad es descrita por la distribución gamma. Este número específico de eventos
es el parámetro α en la función de densidad gamma. De esta manera se facilita comprender
que cuando α = 1, ocurre el caso especial de la distribución exponencial. La densidad gamma
se puede desarrollar a partir de su relación con el proceso de Poisson de la misma manera en
que lo hicimos con la densidad exponencial. Los detalles se dejan al lector. El siguiente es
un ejemplo numérico de cómo se utiliza la distribución gamma en una aplicación de tiempo
de espera.

Ejemplo 6.18: Suponga que las llamadas telefónicas que llegan a un conmutador particular
siguen un proceso de Poisson con un promedio de 5 llamadas entrantes por minuto. ¿Cuál es
la probabilidad de que transcurra hasta un minuto en el momento en que han entrado 2
llamadas al conmutador?

Solución: Se aplica el proceso de Poisson, con un lapso de tiempo hasta que ocurren 2
eventos de Poisson que sigue una distribución gamma con β = 1/5 y α = 2. Denote con X el
tiempo en minutos que transcurre antes de que lleguen 2 llamadas. La probabilidad que se
requiere está dada por:

Mientras el origen de la distribución gamma trata con el tiempo (o espacio) hasta la


ocurrencia de α eventos de Poisson, hay muchos ejemplos donde una distribución gamma
funciona muy bien, aunque no exista una estructura de Poisson clara. Esto es particularmente
cierto para problemas de tiempo de supervivencia en aplicaciones de ingeniería y biomédicas.
Ejemplo 6.19: En un estudio biomédico con ratas se utiliza una investigación de respuesta
a la dosis para determinar el efecto de la dosis de un tóxico en su tiempo de supervivencia.
El tóxico es producido por el combustible que utilizan los aviones y, en consecuencia,
descargan con frecuencia a la atmósfera. Para cierta dosis del tóxico, el estudio determina

que el tiempo de supervivencia de las ratas, en semanas, tiene una distribución gamma con
α = 5 y β = 10. ¿Cuál es la probabilidad de que una rata no sobreviva más de 60 semanas?
Solución: Sea la variable aleatoria X el tiempo de supervivencia (tiempo hasta la muerte).
La probabilidad que se requiere es:

La integral anterior se puede resolver mediante la función gamma incompleta, que se


convierte en la función de distribución acumulativa para la distribución gamma. Esta función
se escribe como

que se denota como F (6; 5) en la tabla de la función gamma incompleta del apéndice A.23.
Observe que esto permite un cálculo rápido de las probabilidades para la distribución gamma.
De hecho, para este problema la probabilidad de que la rata no sobreviva más de 60 días es
dada por

Distribución ji cuadrada
Esta distribución se la obtiene de la distribución gamma. Tiene forma tipo campana con sesgo
positivo. Se puede demostrar que, si X es una variable aleatoria con distribución normal,
entonces X2 es una variable aleatoria con distribución ji-cuadrado. Este hecho explica la
importancia de la distribución ji-cuadrado en problemas de muestreo de poblaciones con
distribución normal. Una aplicación importante es la estimación de la varianza poblacional.
Otro caso especial muy importante de la distribución gamma se obtiene al permitir que α =
v/2 y β = 2, donde v es un entero positivo. Este resultado se conoce como distribución Ji
cuadrada. La distribución tiene un solo parámetro, v, denominado grados de libertad.
La variable aleatoria continua X tiene una distribución chi cuadrada, con v grados de libertad,
si su función de densidad es dada por

La distribución chi cuadrada desempeña un papel fundamental en la inferencia esta- dística.


Tiene una aplicación considerable tanto en la metodología como en la teoría. Aunque no
estudiaremos con detalle sus aplicaciones en este capítulo, es importante tener en cuenta que
los capítulos 8, 9 y 16 contienen aplicaciones importantes. La distribución chi cuadrada es
un componente importante de la prueba estadística de hipótesis y de la estimación estadística.
Los temas en los que se trata con distribuciones de muestreo, análisis de varianza y estadística
no paramétrica implican el uso extenso de la distribución chi cuadrada.

GRÁFICO DE LA DISTRIBUCIÓN JI-CUADRADO


La forma específica de esta distribución de probabilidad depende del valor de ν, el cual es el
parámetro para este modelo con la definición ν = n–1 y se denomina “grados de libertad”

Algunos valores de la distribución ji-cuadrado están tabulados para ciertos valores de ν y


para
valores típicos de α con la siguiente definición.
Teoría de Chebyshev
La varianza de una variable aleatoria nos dice algo acerca de la variabilidad de las
observaciones con respecto a la media. Si una variable aleatoria tiene una varianza o
desviación estándar pequeña, esperaríamos que la mayoría de los valores se agrupen
alrededor de la media. Por lo tanto, la probabilidad de que una variable aleatoria tome un
valor dentro de cierto intervalo alrededor de la media es mayor que para una variable aleatoria
similar con una desviación estándar mayor. Si pensamos en la probabilidad en términos de
área, esperaríamos una distribución continua con un valor grande de σ para indicar una
variabilidad mayor y, por lo tanto, esperaríamos que el área este más extendida, como en la
fi gura 4.2(a). Una distribución con una desviación
estándar pequeña debería tener la mayor parte de su área cercana a μ, como en
la fi gura 4.2(b).

Podemos argumentar lo mismo para una distribución discreta. En el histograma de


probabilidad de la figura 4.3(b) el área se extiende mucho más que en la fi gura 4.3(a), lo
cual indica una distribución más variable de mediciones o resultados.
El matemático ruso P. L. Chebyshev (1821-1894) descubrió que la fracción del área entre
cualesquiera dos valores simétricos alrededor de la media está relacionada con la desviación
estándar. Como el área bajo una curva de distribución de probabilidad, o la de un histograma
de probabilidad, suma 1, el área entre cualesquiera dos números es la probabilidad de que la
variable aleatoria tome un valor entre estos números. El siguiente teorema, planteado por
Chebyshev, ofrece una estimación conservadora de la probabilidad de que una variable
aleatoria tome un valor dentro de k desviaciones estándar de su media para cualquier número
real k.

(Teorema de Chebyshev) La probabilidad de que cualquier variable aleatoria X tome un


valor dentro de k desviaciones estándar de la media es de al menos 1 – 1/k2. Es decir,

Para k = 2 el teorema establece que la variable aleatoria X tiene una probabilidad


de al menos 1-1/22 = 3/4 de caer dentro de dos desviaciones estándar a partir de la media; es
decir, que tres cuartas partes o más de las observaciones de cualquier distribución se localizan
en el intervalo μ±2σ. De manera similar, el teorema afirma que al menos ocho novenos de
las observaciones de cualquier distribución caen en el intervalo μ±3σ.

Ejemplo
Una variable aleatoria X tiene una media μ = 8, una varianza σ2 = 9 y una distribución de
probabilidad desconocida. Calcule

El teorema de Chebyshev tiene validez para cualquier distribución de observaciones, por lo


cual los resultados generalmente son débiles. El valor que proporciona el teorema es solo un
límite inferior, es decir, sabemos que la probabilidad de una variable aleatoria que cae dentro
de dos desviaciones estándar de la media no puede ser menor que 3/4, pero nunca sabemos
cuánto podría ser en realidad. Solo cuando conocemos la distribución de probabilidad
podemos determinar probabilidades exactas. Por esta razón llamamos al teorema resultado
de distribución libre. Cuando se supongan distribuciones específicas, como ocurrirá en los
siguientes capítulos, los resultados serán menos conservadores. El uso del teorema de
Chebyshev se restringe a situaciones donde se desconoce la forma de la distribución.

Vous aimerez peut-être aussi