Vous êtes sur la page 1sur 9

DISTRIBUCIÓNES DE PROBABILIDAD

las distribuciones de frecuencias son una forma útil de resumir las variaciones en
los datos observados, las distribuciones de la probabilidad están relacionadas con
las distribuciones de probabilidad y distribuciones de frecuencias. De hecho,
podemos pensar que una distribución de probabilidad es una distribución de
frecuencias teórica. ¿Qué significa lo anterior? Una distribución de frecuencias
teórica es una distribución de probabilidades que describe la forma en que se espera
varíen los resultados. Como estas distribuciones representan expectativas de que
algo suceda, resultan modelos útiles para hacer inferencias y tomar decisiones en
condiciones de incertidumbre.
Analicemos un ejemplo. Una candidata política para un puesto en el gobierno local
está considerando los votos que puede obtener en las elecciones que se avecinan.
Suponga que los votos pue- den tomar sólo cuatro valores posibles. Si la estimación
de la candidata es como sigue:
Número de votos 1,000 2,000 3,000 4,000
Probabilidad de que éstos se obtengan 0.1 0.3 0.4 0.2 Total 1.0
Antes de analizar otros aspectos de las distribuciones de probabilidad, debemos
señalar que una distribución de frecuencias es un listado de las frecuencias
observadas de todos los resultados de un experimento que se presentaron
realmente cuando se efectuó éste, mientras que una distribución de probabilidad es
un listado de las probabilidades de todos los posibles resultados que podrían
obtenerse si el experimento se llevara a cabo. También,
las distribuciones de probabilidad pueden basarse en con- sideraciones teóricas (los
lanzamientos de una moneda) o en una estimación subjetiva de la posibilidad de
ciertos resultados (la estimación de la candidata). Las distribuciones de probabilidad
se pueden basar también en la experiencia. Los actuarios de las compañías de
seguros, por ejemplo, determinan las pólizas de seguros haciendo uso de los largos
años de experiencia que las compañías tienen acerca de los índices de mortalidad
para establecer la probabilidad de muerte entre los diferentes grupos de edad.

Tipos de distribuciones de probabilidad


Las distribuciones de probabilidad se clasifican como discretas y continuas. En la
distribución de probabilidad discreta está permitido considerar sólo un número
limitado de valores. ejemplo de distribución de probabilidad discreta, en la que
expresamos las ideas de la candidata sobre las elecciones que se avecinan. En ella,
los votos pueden tomar sólo cuatro valores posibles
(1,000, 2,000, 3,000 o 4,000). De manera análoga, la probabilidad de que usted
haya nacido en un mes dado es también discreta, puesto que sólo hay 12 posibles
valores (los 12 meses del año).
Distribuciones de probabilidad continuas
En una distribución de probabilidad continua, por otro lado, la variable que se está
considerando puede tomar cualquier valor dentro de un intervalo dado. Suponga
que estamos examinando el nivel de afluencia de un cierto número de arroyos, y
medimos este nivel en partes de afluencia por millones de partes de agua.
Podríamos esperar un intervalo bastante continuo de partes por millón (ppm), en
todas las corrientes, desde los niveles más bajos en los pequeños arroyos de
montaña hasta niveles en extremo altos en los arroyos contaminados. De hecho,
sería muy normal que la variable “partes por millón” tomara una cantidad enorme de
valores. Podríamos decir que la distribución de esta variable (ppm) es una
distribución continua. Las distribuciones continuas son una forma conveniente de
presentar distribuciones discretas que tienen muchos resultados posibles, todos
muy cercanos entre sí.

Variables aleatorias
Una variable es aleatoria si toma diferentes valores como resultado de un
experimento aleatorio. Esta variable aleatoria puede ser discreta o continua. Si
puede tomar sólo un número limitado de valores, entonces es una variable aleatoria
discreta. En el otro extremo, si puede tomar cualquier valor dentro de un intervalo
dado, entonces se trata de una variable aleatoria continua.
Una variable aleatoria es una especie de valor o magnitud que cambia de una
ocurrencia a otra sin seguir una secuencia predecible. Por ejemplo, en una clínica
para tratamiento del cáncer de mama no se tiene manera de saber con exactitud
cuántas mujeres van a ser atendidas en un día cualquiera,
El valor esperado de una variable aleatoria
Suponga que lanza una moneda 10 veces y obtiene siete caras, de la siguiente
manera:

Caras Cruces Total


7 3 10
Luego pide a una amiga que lance la moneda 20 veces; ella obtiene 15 caras y 5
cruces. De modo que ahora, en total, usted tiene 22 caras y 8 cruces de un total de
30 lanzamientos.
¿Qué esperaba? ¿Algo cercano a 15 caras y 15 cruces (mitad y mitad)? Suponga
ahora que una máquina lanza la moneda y obtiene 792 caras y 208 cruces de un
total de 1,000 lanzamientos de la misma moneda. Con este resultado, usted podría
sospechar que la moneda está alterada, debido a que no se comportó del modo que
esperaba.

Derivación subjetiva del valor esperado


El valor esperado es una idea fundamental en el estudio de las distribuciones de
probabilidad. Durante muchos años, el concepto ha sido puesto en práctica con
bastante regularidad por las compañías aseguradoras y, en los últimos 20 años,
también ha sido utilizado ampliamente por muchas de las personas que deben
tomar decisiones en condiciones de incertidumbre.
Para obtener el valor esperado de una variable aleatoria discreta, multiplicamos
cada valor que la variable puede tomar por la probabilidad de ocurrencia de ese
valor y luego sumamos los pro- ductos.
El valor esperado de una variable aleatoria es, sencillamente, el promedio
ponderado de cada resultado posible, multiplicado por la probabilidad de que ocurra
Uso del valor esperado en la toma de decisiones
valor esperado de una variable aleatoria y la importancia que éste tiene para los
tomadores de decisiones. Ahora necesitamos analizar cómo los tomado- res de
decisiones combinan las probabilidades de que una variable aleatoria asuma ciertos
valores con las ganancias o pérdidas monetarias que se dan cuando efectivamente
toma estos valores. De esta forma, los responsables son capaces de decidir
inteligentemente en condiciones de incertidumbre.

La distribución binominal

Distribución binomial y procesos de Bernoulli


Descripción del proceso de Bernoulli
Una distribución de probabilidad de variable aleatoria discreta utilizada ampliamente
es la distribución binomial. Esta distribución describe una variedad de procesos de
interés para los administra- dores. Por otra parte, describe datos discretos, no
continuos, que son resultado de un experimento conocido como proceso de
Bernoulli, en honor del matemático suizo nacido en el siglo XVII, Jacob Bernoulli. El
lanzamiento de la moneda no alterada un número fijo de veces es un proceso de
Bernoulli, y los resultados de tales lanzamientos pueden representarse mediante la
distribución binomial de probabilidad. El éxito o fracaso de los solicitantes de
empleo, entrevistados para prueba de aptitudes, también puede ser descrito como
un proceso de Bernoulli. Por otro lado, la distribución de frecuencias de la duración
de las luces fluorescentes de una fábrica se podría medir mediante una escala
continua de tiempo y no se podría clasificar como una distribución binomial.

Uso del proceso de Bernoulli


Podemos utilizar el resultado del lanzamiento de una moneda no alterada un cierto
número de veces como ejemplo de un proceso de Bernoulli. Podemos describir el
proceso de la siguiente manera:
 Cada intento (cada lanzamiento, en este caso) tiene solamente dos
resultados posibles: cara o cruz, sí o no, éxito o fracaso.
 La probabilidad del resultado de cualquier intento (lanzamiento) permanece
fijo con respecto al tiempo. Con una moneda no alterada, la probabilidad de
obtener cara siempre es 0.5 para cada lanzamiento, independientemente del
número de veces que se lance la moneda.
 Los intentos son estadísticamente independientes, es decir, el resultado de
un lanzamiento no afecta el resultado de cualquier otro lanzamiento.
Cada proceso de Bernoulli tiene su propia probabilidad característica. Considere
una situación en la que, a lo largo del tiempo, siete décimas partes de todas las
personas que solicitan cierto tipo de trabajo aprueban el examen de aptitudes.
Diríamos que, en este caso, la probabilidad característica es de 0.7, pero podríamos
describir el resultado del examen como de Bernoulli sólo si tenemos la certeza de
que la fracción de los que aprueban el examen (0.7) permanece constante en el
tiempo. Desde luego que las otras características del proceso de Bernoulli también
deben cumplirse. Cada examen tendría que tener solamente dos resultados (éxito
o fracaso) y los resultados de cada prueba deberían ser estadísticamente
independientes.
En un lenguaje más formal, el símbolo p representa la probabilidad de tener éxito
(0.7 en este ejemplo) y el símbolo q (q = 1 — p) es la probabilidad de que resulte en
un fracaso (0.3). Para re- presentar un cierto número de éxitos, utilizaremos el
símbolo r, y para representar el número total de intentos o de ensayos utilizamos el
símbolo n. En las situaciones que analizaremos, el número de ensayos está fijo
desde antes de empezar el experimento.
Calculemos, para utilizar este lenguaje en un problema sencillo, las posibilidades de
obtener exactamente dos caras (en cualquier orden) en tres lanzamientos de una
moneda no alterada. Simbólica- mente, expresamos los valores de la forma
siguiente:
• p = probabilidad característica o probabilidad de tener éxito = 0.5
• q = 1 — p = probabilidad de fracaso = 0.5
• r = número de éxitos deseados = 2
• n = número de intentos hechos = 3
Podemos resolver el problema utilizando la fórmula binomial:
Fórmula binomial
¡Probabilidad de r éxitos en n intentos = n!
——
r! (n — r)!
plan—r
[5-1]

Medidas de tendencia central y de dispersión para la distribución binomial


Antes, en este mismo capítulo, analizamos el concepto de valor esperado o media
de una distribución de probabilidad. La distribución binomial tiene un valor esperado
o media (µ) y una desviación estándar (o); veremos la forma en que ambas medidas
estadísticas se pueden calcular. De manera intuitiva, podemos pensar que si una
cierta máquina produce partes buenas con p = 0.5, entonces, a la larga, la media
de la distribución de las partes buenas de la producción será de 0.5 veces la
producción total. Si se tiene una probabilidad de 0.5 de obtener cara al lanzar una
moneda no alterada, después de un número grande de lanzamientos, la media de
la distribución binomial del número de caras será 0.5 veces el número total de
lanzamientos.
Simbólicamente, podemos representar la media de una distribución binomial como:
Media de una distribución binomial
µ = np [5-2]

en la que:
• n = número de ensayos
• p = probabilidad de tener éxito
Y podemos calcular la desviación estándar de una distribución binomial haciendo
uso de la fórmula:
en la que:
• n = número de ensayos
• p = probabilidad de éxito
• q = probabilidad de fracaso = 1 — p
Para ver la forma en que se utilizan las ecuaciones 5-2 y 5-3, tome el caso de una
máquina empacadora que produce el 20% de paquetes defectuosos. Si tomamos
una muestra aleatoria de 10 paquetes, podemos calcular la media y la desviación
estándar de la distribución binomial del proceso de la siguiente manera:

Cumplimiento de las condiciones para emplear el proceso de Bernoulli


Debemos ser cuidadosos al usar la distribución binomial de la probabilidad y
asegurar que se cum- plan las tres condiciones necesarias dadas anteriormente
para un proceso de Bernoulli, en particular las condiciones 2 y 3. La condición 2
requiere que la probabilidad del resultado de cualquier intento permanezca fija en el
tiempo. En muchos procesos industriales, sin embargo, resulta en extremo difícil
garantizar que, en efecto, éste sea el caso. Cada vez que una máquina industrial
produce una parte, por ejemplo, se da un desgaste infinitesimal de la máquina. Si
tal desgaste se acumula más allá de un punto razonable, la fracción de partes
aceptables producidas por la máquina se verá alterada, y la condición 2 para el uso
de la distribución binomial puede violarse. En el experimento del lanza- miento de
una moneda no se presenta este problema, pero es algo a considerar en las
aplicaciones a la vida real de la distribución binomial de la probabilidad.
La condición 3 requiere que los ensayos de un proceso de Bernoulli sean
estadísticamente independientes, es decir, que el resultado de un intento no afecte
de ningún modo el resultado de cualquier otro intento. Aquí, también, podemos
encontrar algunos problemas en aplicaciones reales. Tome en consideración un
proceso de selección para un empleo en el cual los candidatos con alto potencial se
ven impedidos por posiciones políticas. Si el entrevistador ha hablado con cinco
candi- datos no aceptables de manera consecutiva, puede ser que no entreviste al
sexto con imparcialidad completa. Los ensayos, por tanto, no son estadísticamente
independientes.
Es importante considerar que uno de los requerimientos para usar un proceso de
Bernoulli es que la probabilidad del resultado sea la misma a través del tiempo.

La distribución de Poisson
Existen muchas distribuciones de probabilidad discretas, pero nuestro análisis se
centrará sólo en dos: la distribución binomial, que acabamos de concluir, y la
distribución de Poisson, que es el tema de esta sección. La distribución de Poisson
debe su nombre a Simeón Denis Poisson (1781-1840), un francés que desarrolló la
distribución a partir de los estudios que realizó durante la última parte de su vida.
La distribución de Poisson se utiliza para describir ciertos tipos de procesos, entre
los que se encuentran la distribución de llamadas telefónicas que llegan a un
conmutador, las solicitudes de pacientes que requieren servicio en una institución
de salud, las llegadas de camiones y automóviles a una caseta de cobro, y el
número de accidentes registrados en cierta intersección. Estos ejemplos tienen en
común un elemento: pueden ser descritos mediante una variable aleatoria discreta
que toma valores enteros (0, 1, 2, 3, 4, 5, etc.). El número de pacientes que llegan
al consultorio de un médico en un cierto intervalo será de 0, 1, 2, 3, 4, 5 o algún otro
número entero. De manera parecida, si usted cuenta el número de automóviles que
llegan a una caseta de cobro de alguna carretera duran- te un periodo de 10
minutos, el número será de 0, 1, 2, 3, 4, 5 y así consecutivamente.

Características de los procesos que producen una distribución de probabilidad de


Poisson
El número de vehículos que pasan por una sola caja de una caseta de cobro en una
hora pico sirve para ilustrar las características de la distribución de probabilidad de
Poisson:
 El promedio (la media) del número de vehículos que llegan por hora pico
puede estimarse a partir de datos sobre tráfico que se tengan disponibles.
 Si dividimos la hora pico en periodos (intervalos) de un segundo cada uno,
encontraremos que las siguientes afirmaciones son verdaderas:

I. La probabilidad de que exactamente un vehículo llegue a una caja por


segundo es muy pequeña y es constante para cada intervalo de un segundo.
II. La probabilidad de que dos o más vehículos lleguen en un intervalo de un
segundo es tan pequeña que le podemos asignar un valor de cero.
III. El número de vehículos que llegan en un intervalo dado de un segundo es
independiente del momento en que dicho intervalo se presente en la hora
pico.
IV. El número de llegadas en cualquier intervalo de un segundo no depende del
número de llegadas en cualquier otro intervalo de un segundo.
Ahora estamos en disposición de generalizar a partir del ejemplo de la caseta de
cobro y aplicar es- tas características a otros procesos. Si estos nuevos procesos
cumplen con las mismas cuatro condiciones, entonces podemos utilizar la
distribución de probabilidad de Poisson para describirlos.
La distribución de Poisson como una aproximación de la distribución binomial
En algunas ocasiones, si deseamos ahorrarnos la tediosa tarea de calcular
distribuciones binomiales de probabilidad, podemos utilizar la distribución de
Poisson. La distribución de Poisson puede ser una razonable aproximación de la
binomial, pero sólo bajo ciertas condiciones. Tales condiciones se presentan
cuando n es grande y p es pequeña, esto es, cuando el número de ensayos es
grande y la probabilidad binomial de tener éxito es pequeña. La regla que utilizan
con más frecuencia los estadísticos es que la distribución de Poisson es una buena
aproximación de la distribución binomial cuando n es igual o mayor que 20 y p es
igual o menor a 0.05. En los casos en que se cumplen estas condiciones, podemos
sustituir la media de la distribución binomial (np) en lugar de la media de la
distribución de Poisson (h).

La distribución normal: distribución de una variable aleatoria continua


Una distribución de probabilidad continua que es muy importante es la distribución
normal. Varios matemáticos han contribuido a su desarrollo, entre los que podemos
contar al astrónomo-matemático del siglo XVIII Karl Gauss. En honor a su trabajo,
la distribución de probabilidad normal también es conocida como distribución
gaussiana.
Existen dos razones fundamentales por las cuales la distribución normal ocupa un
lugar tan prominente en la estadística. Primero, tiene algunas propiedades que la
hacen aplicable a un gran número de situaciones en las que es necesario hacer
inferencias mediante la toma de muestras. En el capítulo 6 encontraremos que la
distribución normal es una útil distribución de muestreo. Segundo, la distribución
normal casi se ajusta a las distribuciones de frecuencias reales observadas en
muchos fenómenos, incluyendo características humanas (peso, altura, coeficiente
intelectual), resultados de procesos físicos (dimensiones y rendimientos), y muchas
otras medidas de interés para los administradores, tanto en el sector público como
en el privado.

Selección de la distribución de probabilidad correcta


Si planeamos utilizar una probabilidad para describir una situación, debemos
escoger con cuidado la correcta. Necesitamos asegurar que no estamos utilizando
la distribución de probabilidad de Poisson cuando es la distribución binomial la que
más exactamente describe la situación que estamos estudiando. Recuerde que la
distribución binomial se aplica cuando el número de ensayos está fijo antes de que
empiece el experimento, y que cada ensayo es independiente y puede tener sólo
dos resultados mutuamente excluyentes (éxito/fracaso, y/o, sí/no). Al igual que la
distribución binomial, la de Poisson se aplica cuando cada ensayo es independiente
de los demás. Pero, aunque la probabilidad de Poisson se aproxima a cero después
de los primeros valores, el número de valores posibles es infinito. No se conoce el
límite de dos resultados mutuamente excluyentes. En ciertas condiciones, la
distribución de Poisson se puede utilizar como aproximación de la binomial, pero no
siempre es posible hacerlo. Todas las suposiciones que conforman la base de una
distribución deben cumplir- se, si la intención del uso de dicha distribución es
producir resultados significativos.
Aunque la distribución normal es la única distribución continua que hemos
analizado, debemos darnos cuenta de que existen otras distribuciones continuas
útiles. En los capítulos siguientes estudiaremos otras tres distribuciones continuas
más: la t de student, la y2 y la distribución F. Cada una de éstas es de interés para
los tomadores de decisiones que resuelven problemas haciendo uso de la
estadística.
En conclusión, la distribución de probabilidad está definida sobre el conjunto de
todos los sucesos y cada uno de los sucesos es el rango de valores de la variable
aleatoria. También puede decirse que tiene una relación estrecha con las
distribuciones de frecuencia. De hecho, una distribución de probabilidades puede
comprenderse como una frecuencia teórica, ya que describe cómo se espera que
varíen los resultados.
La distribución de probabilidad está completamente especificada por la función de
distribución, cuyo valor en cada x real es la probabilidad de que la variable aleatoria
sea menor o igual que x.

Vous aimerez peut-être aussi