Vous êtes sur la page 1sur 61

INGENIERIA INDUSTRIAL

MATERIA:

PROBABILIDAD Y ESTADÍSTICA.

TÍTULO DEL TEMA:


RESUMEN:
UNIDAD 3. FUNDAMENTOS DE PROBABILIDAD.
UNIDAD 4. VARIABLES ALEATORIAS.
UNIDAD 5. DISTRIBUCIONES DE PROBABILIDAD DISCRETAS.
UNIDAD 6. DISTRIBUCIONES DE PROBABILIDAD CONTINUAS.

PRESENTA:

MAIDED DEL CARMEN SANCHEZ CRUZ.


ISAEL MARCOS MATUS.
DEMIAN ALFREDO ESCOBAR ORDAZ.
JOSÉ DE JESÚS MARCOS JIMÉNEZ.

GRADO:

2° SEMESTRE.

ASESOR:

ING. SALOMÓN ARENAS LÓPEZ

LA VENTA, JUCHITÁN, OAXACA. JUNIO DE 2018.


 3 FUNDAMENTOS DE PROBABILIDAD.
3.1 Concepto clásico y como frecuencia relativa
3.2 Axiomas y teoremas.
3.3 Probabilidad clásica: Espacio finito equiparable.
3.4 Probabilidad condicional e independencia.
3.5 Teorema de Bayes.
3.6 Distribución Marginal Conjunta.
 4 VARIABLES ALEATORIAS.
4.1 Variables aleatorias discretas:
4.1.1 Distribución de probabilidad en forma general.
4.1.2 Valor esperado.
4.1.3 Variancia, desviación estándar.
4.1.4 Función acumulada.
4.2 Variables aleatorias Continuas:
3.2.1Distribución de probabilidad en forma general.
4.2.2 Valor esperado. 4.2.3 Variancia, desviación estándar.
4.2.4 Función acumulada.
4.2.5 Cálculos de probabilidad.
 5 DISTRIBUCIONES DE PROBABILIDAD DISCRETAS.
5.1 Distribución Binomial.
5.2 Distribución Hipergeométrica.
5.2.1 Aproximación de la Hipergeométrica por la Binomial.
5.3 Distribución Geométrica.
5.4 Distribución Multinomial.
5.5 Distribución de Poisson.
5.6 Aproximación de la Binomial por la de Poisson.
5.7 Distribución Binomial Negativa.
5.8 Distribución Uniforme (Discreta).
 6 DISTRIBUCIONES DE PROBABILIDAD CONTINUAS.
6.1 Distribución Uniforme (continua).
6.2 Distribución Exponencial.
6.3 Distribución Gamma.
6.4 Distribución Normal.
6.4.1 Aproximación de la Binomial a la Normal.
UNIDAD 3. FUNDAMENTOS DE PROBABILIDAD.
UNIDAD 4. VARIABLES ALEATORIAS.
4.1 VARIABLES ALEATORIAS DISCRETAS

Normalmente, los resultados posibles (espacio muestral E) de un experimento aleatorio no


son valores numéricos. Por ejemplo, si el experimento consiste en lanzar de modo
ordenado tres monedas al aire, para observar el número de caras ( ) y cruces ( ) que se
obtienen, el espacio muestral asociado a dicho experimento aleatorio sería:

En estadística resulta más fácil utilizar valores numéricos en lugar de trabajar directamente
con los elementos de un espacio muestral como el anterior. Así preferimos identificar los

sucesos con el valor numérico 1 que representa el número de caras


obtenidas al realizar el experimento. De este modo aparece el concepto de variable
aleatoria unidimensional como el de toda función

que atribuye un único número real xe, a cada suceso elemental e, del espacio muestral
E5.1.
Por ejemplo, en el ejemplo anterior, se define la variable aleatoria.

del siguiente modo:

Observación
 La variable X no recibe el calificativo de aleatoria por el hecho de que atribuya de

modo imprevisible un valor cualquiera a un elemento ya que este valor está


definido de forma precisa (determinística). Lo que es aleatorio en realidad, es que al
hacer el experimento, no sabemos qué elemento de E puede ocurrir.
=1.00mm
 La composición de una función real5.3 con una variable es también variable
aleatoria, pues está definida sobre Ey a cada elemento suyo le asocia un valor real.

En función de los valores que tome la variable, esta puede ser clasificada en discreta o
continua del siguiente modo:
v.a. discreta
es aquella que sólo puede tomar un número finito o infinito numerable de valores.
Por ejemplo,

v.a. continua
es la que puede tomar un número infinito no numerable de valores.

Observación
Si sobre los elementos de E existe una distribución de probabilidad, esta se transmite a los
valores que toma la variable X. Es decir, toda v.a. conserva la estructura probabilística del
experimento aleatorio que describe, en el sentido de que si es la función de probabilidad
definida sobre el espacio muestral E, ésta induce otra función definida sobre , de
forma que conserva los valores de las probabilidades.

Figura: Una v.a. transmite la estructura


probabilística del espacio muestral a .
De ahora en adelante omitiremos el asterisco y no diferenciaremos entre las
probabilidades calculadas sobre el espacio muestral del experimento aleatorio original, E,
y las calculadas sobre .
Vamos a estudiar los conceptos más importantes relacionados con la distribución de
probabilidad de una v.a., diferenciando entre los casos de v.a. discreta y v.a. continua.

4.1 VARIABLES ALEATORIAS DISCRETAS

Dada una v.a. discreta , su función de probabilidad f, se define de modo


que f(xi) es la probabilidad de que X tome ese valor:

Si xi no es uno de los valores que puede tomar X, entonces f(xi)=0. La representación


gráfica de la función de probabilidad se realiza mediante un diagrama de barras análogo al
de distribución de frecuencias relativas para variables discretas (figura 5.3). Por ejemplo, si
retomamos el caso del lanzamiento de 3 monedas de forma que cada una de ellas tenga
probabilidad 1/2 de dar como resultado cara o cruz, se tiene que (véase la figura 5.2):
Figura: Equivalencia entre las probabilidades calculadas
directamente sobre el espacio muestral E de resultados del
experimento aleatorio, y las calculadas sobre el

subconjunto mediante la v.a. X.

Observación
Obsérvese que X está definido sobre el espacio muestral de sucesos E, mientras que f lo
está sobre el espacio de números reales .
Las propiedades de la función de probabilidad de v.a. se deducen de forma inmediata de
los axiomas de probabilidad:

Es evidente que si tenemos tres constantes a<b<c, los sucesos y

son mutuamente exclusivos, es decir, , luego .

Por ello, si se define , se tiene que


4.1.1 DISTRIBUCION DE PROBABILIDAD EN FORMA GENERAL

Aleatoria discreta, F, que se define de modo que si , F(xi) es igual a la probabilidad


de que X tome un valor inferior o igual a xi:

Esta función se representa gráficamente del mismo modo que la distribución de


frecuencias relativas acumuladas. Volviendo al ejemplo de las tres monedas, se tiene que

Hay que observar que a valores no admisibles por la variable les pueden corresponder
valores de F no nulos. Por ejemplo,
Figura: Función de probabilidad a la izquierda, y función de
distribución a la derecha de una v.a. discreta

Es sencillo comprobar que las siguientes propiedades de la función de distribución son


ciertas:
Proposición (Distribuciones discretas)
La función de distribución F, es una función no decreciente, es decir,

Además, es continua a la derecha

y
4.1.3 VARIANZA Y DESVIACIÓN ESTÁNDAR.
La media y la varianza de una variable aleatoria continua se define de la manera similar al caso
de la variable aleatoria discreta. En las definiciones la integración remplaza a la sumatoria.1
Supóngale que X es una variable aleatoria continua con función de densidad de probabilidad fx (x),-
<x<.

La media de x, denotada por E (x) o x es



E ( X )  X   xf

x ( x)dx

La varianza de X, denotada por V(X) o 2x, es



V ( X )   2 x   ( x  x) 2 f ( x)dx

Así mismo la desviación estándar de X es
 x  v(x)

EJEMPLO:
Con la siguiente función f(x) =0.125x para 0<x<4, calcular la media, la varianza y la desviación
estándar.

Valor esperado:
4 4 4
E ( X )   X  x(0.125 x)dx   0.125 x 2 dx  0.125 x 2 dx 
0 0 0
3 4 3 3
0.125 x 0.125(4) 0.125(0) 8
3 
0

3

3
  2.666
3
Varianza:

1 MONTGOMERY, Douglas C. Op. Cit. Pág.168


4 16 X 64  1 
V ( x)   2   ( X  ) 2 0.125 x dx    X 2 
4 8
  dx 
0 3 0
 3 9  8 
4  X 3  16 x 2  64 x  4 X
3
2 x 2 8x   x4 2 x 3 8x 3 
4

0  8  24  72  0  8 3 9   8 * 4 3 * 3 9 * 2  0 
    dx      dx   

 x 4 2 x 3 8 x 2  4  4 4 243 842   0 4 203 802  8


18  0  32
             0.8888
 32 9 9 18   32 9 18  9

Desviación estándar:

8
x   0.9428
9

4.2 VARIABLES ALEATORIAS CONTINUAS


Si una variable discreta toma los valores x1,..., xk, la proposición de la página afirma que
las probabilidad de que al hacer un experimento, X tome uno de esos valores es 1, de
modo que cada posible valor xi contribuye con una cantidad f (xi) al total:

Aun cuando la variable tomase un número infinito de valores, x1, x2, ..., no hay ningún
problema en comprobar que cada xi contribuye con una cantidad f(xi) al total de modo que

Cuando la variable es continúa, no tiene sentido hacer una suma de las probabilidades de
cada uno de los términos en el sentido anterior, ya que el conjunto de valores que puede
tomar la variable es no numerable. En este caso, lo que generaliza de modo natural el

concepto de suma ( ) es el de integral ( ). Por otro lado, para variables continuas no

tiene interés hablar de la probabilidad de que , ya que esta debe de valer


siempre 0, para que la suma infinita no numerable de las probabilidades de todos los
valores de la variable no sea infinita.
De este modo es necesario introducir un nuevo concepto que sustituya en v.a. continuas,
al de función de probabilidad de una v.a. discreta. Este concepto es el de función de

densidad de una v.a. continua, que se define como una función integrable,
que verifica las dos propiedades siguientes:

y que además verifica que dado a<b, se tiene que

Figura: Función de densidad f. La probabilidad de un intervalo, es el


área que existe entre la función y el eje de abscisas.

Observación
Por ser f una función integrable, la probabilidad de un punto es nula:
y por ello al calcular la probabilidad de un intervalo no afectara nada el que este sea
abierto o cerrado por cualquiera de sus extremos, pues estos son puntos y por tanto de
probabilidad nula:

La función de distribución de la v.a. continua, F, se define de modo que dado ,


F(x) es la probabilidad de que X sea menor o igual que x, es decir

Figura: Función de distribución F, calculada a partir de la función de


densidad f.

Observación
Dado un intervalo de la forma (a,b], tenemos que
Es decir, la cantidad F(b) - F(a) representa la masa de probabilidad extendida a lo largo de
dicho intervalo. Si dividimos esta cantidad por la longitud del intervalo,

tenemos la masa media de probabilidad por unidad de longitud en (a,b], es decir, su


densidad media de probabilidad. Si hacemos tender a hacia b, , la cantidad

es la densidad de probabilidad del punto b (que como hemos mencionado no se ha de


confundir con la probabilidad de b).
Proposición
Distribuciones continuas La función de distribución F, es no decreciente

Además, es una función absolutamente continua que verifica:

Demostración
Los sucesos
y

son mutuamente exclusivos, siendo su unión el suceso . Por tanto

El resto es evidente pues por la relación (5.1)

y por otro lado

Cambio de variable
Sea X una v.a. cualquiera. Si realizamos el cambio de variable Y=h(X), tenemos una
nueva v.a. de modo que las probabilidades sobre la misma se calculan del modo:

Si X es una v.a. continua cuya función de densidad es fx, la función de densidad de Y, fy,
admite la siguiente expresión:
Proposición
Si X es una v.a. continua e Y=h(X), donde h es una función derivable e inyectiva, entonces
se tiene que para los elementos y de su imagen,

donde se tiene que


En el caso en que la aplicación no sea inyectiva, podemos tener para un y dado ciertos x1,
x2, ..., xn tales que f(xi)=y. En este caso:

donde

Una aplicación interesante del cambio de v.a. es la siguiente: Sea X una v.a. continua
cualquiera con función de distribución derivable, con derivada no nula (en su soporte), Fx.
Veamos cual es la distribución de la nueva v.a.

Y=Fx-1(X)

Como F es creciente, es también inyectiva. Por tanto para ,

La distribución de Y aparecerá más adelante con el nombre de distribución uniforme en


[0,1], y como justificación del método de Montecarlo.
Otro cambio de variable importante es Y=X2 ( , h(x)=x2). En este caso la

relación entre los puntos de y no es inyectiva. Aplicando la proposición


anterior se tiene entonces que
Esta última relación será de interés cuando más adelante definamos la distribución .
Medidas de tendencia central y dispersión de v.a.
De forma análoga a lo que se se hizo en el capítulo 2 sobre estadística descriptiva
podemos definir para variables aleatorias medidas de centralización, dispersión, simetría y
forma. Por su interés nos vamos a centrar en dos medidas sobre v.a. que son la
esperanza matemática que desempeña un papel equivalente al de la media y el momento
central de segundo orden, también denominado varianza.

4.4.2 VALOR ESPERADO


Sea X una v.a. discreta. Se denomina esperanza matemática de X o valor esperado, y

se denota bien o bien , a la cantidad que se expresa como:

donde es el conjunto numerable de índices de los valores que puede tomar la variable

(por ejemplo para un número finito de valores de la v.a. o bien


para una cantidad infinita numerable de los mismos.
Si X es una v.a. continua, se define su esperanza a partir de la función de densidad como
sigue:

Observación
Recordamos que si

y por tanto tiene sentido calcular su esperanza matemática:


Por las analogías existente entre la definición de media aritmética y esperanza
matemática, las propiedades de linealidad de la primera se trasladan a la segunda, como
es inmediato comprobar:

4.2.3 VARIANZA
La varianza la denotamos mediante o bien :

Obsérvese que del mismo modo en que se demuestra la relación. se comprueba que

y que usando la demostración de la proposición de la página se tiene que

Ejemplo
Consideramos una variable aleatoria discreta con función de probabilidad:

Obtener:
1.
El valor de la constante c para que sea una función de probabilidad.
2.
Los valores de las funciones de probabilidad y distribución para
3.
Calcular y .
Solución:
1.

ya que tenemos la suma de una progresión geométrica de razón menor que la


unidad:

Luego c=3. Así la función de probabilidad es:

2.
Calculemos sucesivos valores de f(x) y F(x):
xi f(x) F(x)
2 3/4=0,75 0,75
3 3/16=0,19 0,94
4 3/64=0,047 0,987
5 3/256=0,012 0,999

Se observa que cuando , y


3.

;
Ejemplo
Consideremos una variable aleatoria continua con función de densidad

Se pide:
1.
El valor de la constante c para que sea una función de densidad.
2.
La función de distribución.
3.
La media o valor esperado.
4.
Probabilidad de que la variable este comprendida entre 0,2 y 0,7
Solución:
1.

Por ser f una densidad se ha de verificar:

2.

Luego, la función de distinción es


3.
Media :

4.

Ejemplo
La variable aleatoria continua X tiene como función de densidad:

Determinar :
1.
Media
2.
Varianza
3.
Solución:
1.

2.

. El momento central de primer orden con respecto al origen


ya ha sido calculado antes. El momento central de segundo orden con respecto
al origen, es:

Luego

3.
Hay que calcular la probabilidad del intervalo de la Figura 5.6:
Figura: La probabilidad del intervalo 0,2--0,8
es el área de la zona sombreada

La esperanza matemática y la varianza pueden ser calculadas a partir de otras medidas,


que son los momentos.
Momentos de una v.a.

Se denomina momento de orden r ( ), , a:

Asimismo se denomina momento central de orden r, mr, a:


De este modo, es claro que la esperanza matemática es el momento de primer orden

y que la varianza es el momento central de segundo orden

Desigualdad de Tchebycheff y v.a. tipificadas

Si X es una variable aleatoria con esperanza , y varianza , se


puede demostrar que en general, una gran parte de la masa se encuentra en un intervalo
centrado en y que tiene por amplitud varias veces . Más precisamente, la desigualdad
de Thebycheff afirma que si consideramos un intervalo de centro y radio k veces , la
probabilidad de realizar una observación de la variable y que esta no esté en dicho
intervalo es inferior o igual a 1/k2. Matemáticamente esto se formula como:

Teorema (Thebycheff)

Si X es v.a. con y , entonces

Este importante resultado, por si sólo, justifica el que sea una medida de centralización y
(o bien ) de dispersión de X y motiva la introducción del concepto de tipificación de
variables aleatorias. Dada una v.a. X, definimos su v.a. tipificada, Z, como:

que es una v.a. tal que

El teorema de Thebycheff afirma sobre U que


Función característica
Para una v.a. X se define su función característica como:

donde recordamos que . Esta función también es conocida como


transformada de Fourier de f. Su denominación proviene del hecho de que una vez
conocida la función característica podemos determinar la función de distribución de la v.a.
y recíprocamente.

Teorema (Fourier)

Si X es una v.a. cuya función característica es , su función de probabilidad (o densidad

de probabilidad) es

Esta propiedad de es fundamental, ya que en una gran cantidad de casos es mucho


más fácil trabajar con la función característica que con la propia función de probabilidad (o
densidad). La razón de ello estriba en una serie de propiedades de la función
característica que la hacen muy manejable desde el punto de vista matemático. Algunas
de estas propiedades son enunciadas a continuación.
Proposición

Para se verifican las relaciones


Demostración
Vamos a suponer que X es continua, pues la demostración para el caso discreto es
totalmente análoga. Gracias a la relación (5.1), se tiene que

Por otro lado, es claro que . De la teoría de la integración es

conocido que . Por todo ello se tiene que si

Por último

En lo referente a cambios de origen y escala, el comportamiento de la función


característica es el siguiente:

Proposición

Demostración

Una propiedad de que es muy usada es que la suma de v.a. independientes tiene por
función característica el producto de las respectivas funciones características. Es decir:

Teorema
Sean X e Y v.a. independientes. Entonces
Este resultado es también cierto para el caso de n v.a. independientes.

La última propiedad de que enunciamos es que al igual que la función generatriz de


momentos, esta nos permite calcular los momentos de la variable (y por tanto su
esperanza y su varianza).

Proposición

Demostración
UNIDAD 5. DISTRIBUCIONES DE PROBABILIDAD
DISCRETAS.
5.1 Distribución Binomial.
Definición
Cuando se dispone de una expresión matemática, es factible calcular la probabilidad de
ocurrencia exacta correspondiente a cualquier resultado específico para la variable
aleatoria.
La distribución de probabilidad binomial es uno de los modelos matemáticos (expresión
matemática para representar una variable) que se utiliza cuando la variable aleatoria
discreta es el número de éxitos en una muestra compuesta por n observaciones.
Propiedades
- La muestra se compone de un número fijo de observaciones n
- Cada observación se clasifica en una de dos categorías, mutuamente excluyentes (los
eventos no pueden ocurrir de manera simultánea. Ejemplo: Una persona no puede ser de
ambos sexos) y colectivamente exhaustivos (uno de los eventos debe ocurrir. Ejemplo: Al
lanzar una moneda, si no ocurre cruz, entonces ocurre cara). A estas categorías se las
denomina éxito y fracaso.
- La probabilidad de que una observación se clasifique como éxito, p, es constante de una
observación o otra. De la misma forma, la probabilidad de que una observación se
clasifique como fracaso, 1-p, es constante en todas las observaciones.
- La variable aleatoria binomial tiene un rango de 0 a n
Ecuación:
PX=n!X!n-X!·pX·1-pn-X
Donde
PX=Probabilidad de X éxitos, dadas y
n = Número de observaciones
p = Probabilidad de éxitos
1-p = Probabilidad de fracasos
X = Número de éxitos en la muestra (= 0, 1, 2, 3, 4,………)
Ejemplo ilustrativo N° 1
Determine P(X=5) para n = 6 y p = 0,83
Solución:
Aplicando la ecuación se obtiene:
PX=n!X!n-X!·pX·1-pn-X
PX=5=6!5!6-5!·0,835·1-0,836-5=0,4018
En Excel se calcula de la siguiente manera:
a) Se escribe los datos y se inserta la función DISTR.BINOM. Clic en Aceptar. Los
argumentos de la función escribir como se muestra en la figura:
b) Clic en Aceptar
Ejemplo ilustrativo N° 2
Determinar P(X=4) para n =5 y p = 0,45
Solución:
Se puede aplicar la ecuación para cada probabilidad, pero para ahorrar tiempo se
recomienda encontrar las probabilidades con lectura en la tabla de probabilidades
binomiales. Realizando la lectura en la tabla de la distribución binomial para P(X=0) con
n=5 y p=0,5 se obtiene 0,0503. Continuando con la respectivas lecturas en la tabla se
obtiene: 0,2059 para P(X=1), 0,3369 para P(X=2), 0,2757 para P(X=3) y 0,1128 para
P(X=4),
Por lo tanto PX=4=0,0503+0,2059+0,3369+0,2757+0,1128=0,9816
Los cálculos realizados en Excel se muestran en la siguiente figura:
Media de la distribución binomial
La media de la distribución binomial es igual a la multiplicación del tamaño de la muestra
por la probabilidad de éxito
Desviación estándar de la distribución binomial

5.2 Distribución Hipergeometrica.

En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta


relacionada conmuestreos aleatorios y sin reemplazo. Suponga que se tiene una
población de N elementos de los cuales,d pertenecen a la categoría A y N-d a la B. La

distribución hipergeométrica mide la probabilidad de obtenerx ( ) elementos de la


categoría A en una muestra sin reemplazo de n elementos de la población original.
Propiedades
La función de probabilidad de una variable aleatoria con distribución hipergeométrica
puede deducirse a través de razonamientos combinatorios y es igual donde es el tamaño
de población, es el tamaño de la muestra extraída, es el número de elementos en la
población original que pertenecen a la categoría deseada y es el número de elementos en
la muestra que pertenecen a dicha categoría. La notación hace referencia al coeficiente
binomial, es decir, el número de combinaciones posibles al seleccionar elementos de un

total .
El valor esperado de una variable aleatoria X que sigue la distribución hipergeométrica es
y su varianza, En la fórmula anterior, definiendo
y se obtiene La distribución hipergeométrica es aplicable a muestreos sin reemplazo y
la binomial a muestreos con reemplazo. En situaciones en las que el número esperado de
repeticiones en el muestreo es presumiblemente bajo, puede aproximarse la primera por la
segunda. Esto es así cuando N es grande y el tamaño relativo de la muestra extraída, n/N,
es pequeño.

5.2.1 Aproximación de la hipergeometrica por la binomial

Aproximación de la hipergeométrica por la binomial


Distribución binomial
Es uno de los modelos matemáticos que se utiliza cuando la variable aleatoria discreta es
el número de éxitos en una muestra compuesta por n observaciones.
Cada observación se clasifica en una de dos categorías, mutuamente excluyentes y
colectivamente exhaustivos. A estas categorías se le denomina éxito y fracaso.
Formula de la distribución binomial
Distribución hipergeométrica
Es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo.
Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la
categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x
elementos de la categoría A en una muestra sin reemplazo de n elementos de la población
original.
Formula de distribución hipergeométrica
Aproximación de la hipergeométrica por la binomial
Es un método que se utiliza cuando el espacio muestral, que manejamos en el problema,
es mucho mayor que la muestra.

Ejemplo
Un cargamento de 100 grabadoras contiene 25 defectuosas. Si 10 de ellas son
aleatoriamente escogidas para revisión, ¿cual es la probabilidad de que 2 estén
defectuosas? utilizando

a) la formula para distribución hipergeométrica


b) la formula para la distribución como una aproximación
Obsérvese que la diferencia entre los dos valores es de apenas 0.010. En general, puede
mostrarse que h(x; n, K, N) se aproxima a b(x; n, p) con p = K/N cuando N se aproxima a
infinito, y buen método practico consiste en emplear la distribución binomial como
aproximación de la distribución hipergeométrica cuando n < N/10
Conclusión
Media:
Varianza:
Media:
Varianza:
Un experimento sigue el modelo de la distribución binomial si:
1.
En cada prueba del experimento sólo son posibles dos resultados: el suceso A (éxito) y su
contrario suceso .
2.
La probabilidad del suceso A es constante, es decir, que no varía de una prueba a otra. Se
representa por p.
3.
El resultado obtenido en cada prueba es independiente de los resultados obtenidos
anteriormente.
Características
Características
Los elementos de la muestra se toman todos a la vez y no individualmente o donde el
elemento seleccionado no se reintegra al experimento o a la muestra nuevamente.
1-
La población N del conjunto de unidades o elementos es de orden finito, de los cuales una
parte: N1= son "éxitos" y N2= son "fracasos".
2-
Cada elemento puede ser caracterizado como éxito o fracaso.
3-
Se obtiene una muestra aleatoria de "n" elementos todos a la vez (sin reemplazamiento) y
no de forma independiente. No son pruebas repetidas.
4-
El tamaño de la muestra aleatoria "n" es grande relativamente en comparación con el
tamaño de la población.
5-
Se busca la probabilidad de x= numero de éxitos a partir de los N1 resultados o
elementos, y n-x fracasos a partir de los N2 elementos asi clasificados, al obtener una
muestra de tamaño n.

5.3 Distribución geométrica

Ir a la navegaciónIr a la búsqueda
En teoría de probabilidad y estadística, la distribución geométrica es cualquiera de las
dos distribuciones de probabilidad discretas siguientes:
la distribución de probabilidad del número X del ensayo de Bernoulli necesaria para
obtener un éxito, contenido en el conjunto { 1, 2, 3,...} o
la distribución de probabilidad del número Y = X − 1 de fallos antes del primer éxito,
contenido en el conjunto { 0, 1, 2, 3,... }.

Propiedades

La distribución geométrica no tiene memoria, es decir,


Si la probabilidad de éxito en cada ensayo es p, entonces la de que x ensayos sean
necesarios para obtener un éxito es para x = 1, 2, 3,.... Equivalentemente, la de que

haya x fallos antes del primer éxito es para y = 0, 1, 2,....En ambos casos, la
secuencia de es una progresión geométrica.
El valor esperado de una variable aleatoria X distribuida geométricamente es y dado

que Y = X-1, .
Las funciones generatrices de X y la de Y son, respectivamente, .
Como su análoga continua, la distribución exponencial, la distribución geométrica carece
de memoria. Esto significa que si intentamos repetir el experimento hasta el primer éxito,
entonces, dado que el primer éxito todavía no ha ocurrido, la distribución de condicional
del número de ensayos adicionales no depende de cuantos fallos se hayan observado. El
dado o la moneda que uno lanza no tiene "memoria" de estos fallos. La distribución
geométrica es de hecho la única distribución discreta sin memoria.
De todas estas distribuciones de contenidas en {1, 2, 3,... } con un valor esperado dado μ,
la distribución geométrica X con parámetro p = 1/μ es la demayor entropía.
La distribución geométrica del número y de fallos antes del primer éxito es infinitamente
divisible, esto es, para cualquier entero positivo n, existen variables aleatorias
independientes Y 1,..., Yn distribuidas idénticamente la suma de las cuales tiene la misma
distribución que tiene Y. Estas no serán geométricamente distribuidas a menos que n = 1.
Distribuciones relacionadas
La distribución geométrica es un caso especial de la distribución binomial negativa con
parámetro k = 1. Más generalmente, si Y 1,...,Yk son variables independientes distribuidas

geométricamente con parámetro p, entonces sigue a una distribución binomial


negativa con parámetros k y p.
Si Y1,...,Yr son variables independientes distribuidas geométricamente (con diferentes

parámetros de éxito pm posibles ), entonces su mínimo es también geométricamente


distribuido, con parámetro

5.4 La distribución Multinomial

Este modelo se puede ver como una generalización del Binomial en el que, en lugar de
tener dos posibles resultados, tenemos r resultados posibles.
Supongamos que el resultado de una determinada experiencia puede ser r valores
distintos: A1, A2, ..., Ar cada uno de ellos con probabilidad p1, p2, ..., pr, respectivamente.

Si repetimos la experiencia n veces en condiciones independientes, podemos


preguntarnos la probabilidad de que el suceso A1 aparezca k1 veces, el
suceso A2, k2 veces y así sucesivamente:
Al modelo estadístico que nos da dicha probabilidad se le denomina Multinomial, y su
función de densidad viene dada por:

como se ve, el modelo Multinomial queda definido por los parámetros (n, p1, p2, ..., pr). La
fórmula anterior puede deducirse de forma análoga al caso Binomial. En realidad, si
tomamos r = 2 tenemos exactamente el modelo Binomial.
Se debe destacar que este modelo es un ejemplo de distribución multivariante, es decir,
de distribución conjunta de varias (r) variables aleatorias. En efecto, si definimos la
variable aleatoria X1 como número de veces que se produce el suceso A1 de un total
de n experiencias, y así sucesivamente, tenemos un conjunto de r variables aleatorias
discretas cuya función de densidad conjunta (valorada a la vez) viene definida por la
anterior fórmula. Nótese que si consideramos cada una de estas variables Xi (i =
1, 2, ..., r) por separado, su distribución es la Binomial de parámetros n y pi.

5.5Distribución de Poisson

Distribución de Poisson

=
El eje horizontal es el índice x. La función
solamente está definida en valores enteros de k.
Las líneas que conectan los puntos son solo
guías para el ojo y no indican continuidad.
Función de densidad de probabilidad

=
El eje horizontal es el índice k.
Función de distribución de probabilidad
Parámetros

Dominio

Función de
probabilidad(fp)
Función de
distribución(cdf) (dónde es
la Función gamma
incompleta)
Media

Mediana

Moda

Varianza
Coeficiente de
simetría
Curtosis

Entropía

Función generadora
de momentos(mgf)
Función característica

[editar datos en Wikidata]


En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de
probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la
probabilidad de que ocurra un determinado número de eventos durante cierto período de
tiempo. Concretamente, se especializa en la probabilidad de ocurrencia de sucesos con
probabilidades muy pequeñas, o sucesos "raros".
Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su
trabajoRecherches sur la probabilité des jugements en matières criminelles et matière
civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles).
Propiedades
La función de masa de probabilidad de la distribución de Poisson es

donde
k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de
que el evento suceda precisamente k veces).
λ es un parámetro positivo que representa el número de veces que se espera que ocurra
el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en
promedio 4 veces por minuto y estamos interesados en la probabilidad de que
ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución
de Poisson con λ = 10×4 = 40.
e es la base de los logaritmos naturales (e = 2,71828...)
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de
Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en
λ cuyos coeficientes tienen una interpretación combinatoria. De hecho, cuando el valor
esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-
ésimo momento iguala al número de particiones de tamaño n.
La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual

a , el mayor de los enteros menores que λ (los símbolos representan la función


parte entera). Cuando λ es un entero positivo, las modas son λ y λ − 1.
La función generadora de momentos de la distribución de Poisson con valor esperado λ es

Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles.


La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a
otra de parámetro λ es

Intervalo de confianza
Un criterio fácil y rápido para calcular un intervalo de confianza aproximada de λ es
propuesto por Guerriero (2012).1 Dada una serie de eventos k (al menos el 15 - 20) en un
periodo de tiempo T, los límites del intervalo de confianza para la frecuencia vienen dadas
por:

entonces los límites del parámetro están dadas por: .


Relación con otras distribuciones
Sumas de variables aleatorias de Poisson
La suma de variables aleatorias de Poisson independientes es otra variable aleatoria de
Poisson cuyo parámetro es la suma de los parámetros de las originales. Dicho de otra
manera, si

son N variables aleatorias de Poisson independientes, entonces

.
Distribución binomial
La distribución de Poisson es el caso límite de la distribución binomial. De hecho, si los

parámetros n y de una distribución binomial tienden a infinito (en el caso de 'n') y a

cero (en el caso de ) de manera que se mantenga constante, la distribución


límite obtenida es de Poisson.
Aproximación normal

Como consecuencia del teorema central del límite, para valores grandes de , una
variable aleatoria de Poisson X puede aproximarse por otra normal dado que el cociente
converge a una distribución normal de media 0 y varianza 1.u
Distribución exponencial
Supóngase que para cada valor t > 0, que representa el tiempo, el número de sucesos de
cierto fenómeno aleatorio sigue una distribución de Poisson de parámetro λt. Entonces, los
tiempos transcurridos entre dos sucesos sucesivos sigue la distribución exponencial.
Ejemplos
Si el 2% de los libros encuadernados en cierto taller tiene encuadernación defectuosa,
para obtener la probabilidad de que 5 de 400 libros encuadernados en este taller tengan
encuadernaciones defectuosas usamos la distribución de Poisson. En este caso
concreto, k es 5 y, λ, el valor esperado de libros defectuosos es el 2% de 400, es decir, 8.
Por lo tanto, la probabilidad buscada es

Procesos de Poisson
Artículo principal: Proceso de Poisson
La distribución de Poisson se aplica a varios fenómenos discretos de la naturaleza (esto
es, aquellos fenómenos que ocurren 0, 1, 2, 3,... veces durante un periodo definido de
tiempo o en un área determinada) cuando la probabilidad de ocurrencia del fenómeno es
constante en el tiempo o el espacio. Ejemplos de estos eventos que pueden ser
modelados por la distribución de Poisson incluyen:
El número de autos que pasan a través de un cierto punto en una ruta (suficientemente
distantes de los semáforos) durante un periodo definido de tiempo.
El número de errores de ortografía que uno comete al escribir una única página.
El número de llamadas telefónicas en una central telefónica por minuto.
El número de servidores web accedidos por minuto.
El número de animales muertos encontrados por unidad de longitud de ruta.
El número de mutaciones de determinada cadena de ADN después de cierta cantidad de
radiación.
El número de núcleos atómicos inestables que se han desintegrado en un determinado
período.
El número de estrellas en un determinado volumen de espacio.
La distribución de receptores visuales en la retina del ojo humano.
La inventiva2 de un inventor a lo largo de su carrera.
La distribución de la riqueza humana.
5.6 Aproximación de la binomial por la de poisson.
Introducción Distribuciones Binomial, Poisson, Normal
En este trabajo estudiaremos dos de las principales distribuciones de variables aleatorias
discretas y la distribución Normal que se puede aplicar tanto para variables aleatorias
discretas como para variables aleatorias continuas.
Una distribución de probabilidades para una variable aleatoria discreta es un listado
mutuamente excluyente de todos los resultados numéricos posibles para esa variable
aleatoria tal que una probabilidad específica de ocurrencia se asocia con cada resultado.
El valor esperado de una variable aleatoria discreta es un promedio ponderado de todos
los posibles resultados, donde las ponderaciones son las probabilidades asociadas con
cada uno de los resultados.

Distribución Binomial
Para hablar de la distribución Binomial primero tenemos que decir que esta dada por la
sumatoria de eventos bernoulli, la distribución de Bernoulli (o distribución dicotómica),
nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de
probabilidad discreta, que toma valor 1 para la probabilidad de éxito (p) y valor 0 para la
probabilidad de fracaso (q = 1 − p).

Si X es una variable aleatoria que mide "número de éxitos", y se realiza un único


experimento con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria
X se distribuye como una Bernoulli de parámetro p.
X˜Be(p)
La fórmula será:
f(x) = px(1 − p)1 − x con x = {0,1}
Su función de probabilidad viene definida por:

La distribución binomial es una distribución de probabilidades que surge al cumplirse cinco


condiciones:
Existe una serie de N ensayos,
En cada ensayo hay sólo dos posibles resultados,
En cada ensayo, los dos resultados posibles son mutuamente excluyentes,
Los resultados de cada ensayo son independientes entre si, y
La probabilidad de cada resultado posible en cualquier ensayo es la misma de un
ensayo a otro.
Su función de probabilidad es

donde

siendo las combinaciones de n en x (n elementos tomados de x en


x)

La esperanza y la varianza son

La Función de Distribución de la v.a. Binomial

Las siguientes características son las que describen a una distribución Binomial

Función generadora de momentos (mgf)

Función característica

Ejemplo:
Supóngase que en cierta población el 52 por ciento de todos los nacimientos que se
registraron son varones. Si aleatoriamente se escogen cinco registros de nacimientos
dentro de esa población, ¿cuál es la probabilidad de que exactamente tres de ellos
pertenezcan a varones?
Tenemos los siguientes datos:
N = 5 X = 3 p = 0.52

5.7 DISTRIBUCIÓN BINOMIAL NEGATIVA.


Esta distribución puede considerarse como una extensión o ampliación de la distribución
geométrica . La distribución binomial negativa es un modelo adecuado para tratar aquellos
procesos en los que se repite un determinado ensayo o prueba hasta conseguir un
número determinado de resultados favorables (por vez primera) .Es por tanto de gran
utilidad para aquellos muestreos que procedan de esta manera. Si el número de
resultados favorables buscados fuera 1 estaríamos en el caso de la distribución
geométrica . Está implicada también la existencia de una dicotomía de resultados posibles
en cada prueba y la independencia de cada prueba o ensayo, o la reposición de los
individuos muestreados.
Proceso experimental del que puede hacerse derivar
Esta distribución o modelo puede hacerse derivar de un proceso experimental puro o de
Bernouilli en el que se presenten las siguientes condiciones
El proceso consta de un número no definido de pruebas separadas o separables . El
proceso concluirá cuando se obtenga un determinado número de resultados favorables K
Cada prueba puede dar dos resultados posibles mutuamente excluyentes A y no A
La probabilidad de obtener un resultado A en cada una de las pruebas es p siendo la
probabilidad de no A , q . Lo que nos lleva a que p+q=1
Las probabilidades p y q son constantes en todas las pruebas. Todas las pruebas son
independientes. Si se trata de un experimento de extracción éste se llevará cabo con
devolución del individuo extraído, a no ser que se trate de una población en la que el
número de individuos tenga de carácter infinito.
(Derivación de la distribución) Si, en estas circunstancias aleatorizamos de forma que la
variable aleatoria x sea "el número de pruebas necesarias para conseguir K éxitos o
resultados A " ; entonces la variable aleatoria x seguirá una distribución binomial negativa
con parámetros p y k
será entonces
La variable aleatoria x podrá tomar sólo valores superiores a k
El suceso del que se trata podría verse como:

o lo que es lo mismo

dado que las pruebas son independientes y conocemos que P(A)= p y P(no A)= q

que sería la probabilidad de x si el suceso fuera precisamente con los resultados en ese

orden. Dado que pueden darse otros órdenes , en concreto formas u órdenes
distintos . La función de cuantía de la distribución binomial negativa quedará como :
Como ejemplo la representación gráfica
de una variable sería la
siguiente

Como en el caso de la geométrica ,


algunos autores aleatorizan de distinta
manera el mismo proceso . Así X sería el
número de fracasos (k) necesarios antes
de conseguir el r-ésimo éxito . En este
caso el número de pruebas sería k + r (
lo que nosotros hemos llamado x) y r lo
que nosotros hemos denominado k.

Para este tipo de aleatorización la


función de cuantía sería:

que como se observa es la misma si se realizan los antes nombrados cambios


La función generatriz de momentos será (según nuestra aleatorización) para una BN(k,p).

Aplicando el teorema de los momentos hallamos media y varianza que resultan ser:

No parece necesario recordar que si nos encontramos con una distribución BN( k=1,p)
realmente se trata de una distribución geométrica.

5.8DISTRIBUCION UNIFORME DISCRETA


La variable aleatoria discreta mas sencilla, es aquella que tomo sólo un número finito de
valores posibles n, cada uno con la misma probabilidad. Ella se denomina valores
entonces variable aleatoria discreta uniforme y su distribucion uniforme discreta está dada
por:
f(x) = 1/n

Para una variable aleatoria discreta uniforme X, que puede tomar los valores 1,2, ..., n, la

media es:

Y su desviación estándar es:


CARACTERISTICAS
- En la distribucion de probabilidad uniforme discreta, la variable aleatoria toma cada uno
de sus valores con idéntica probabilidad.
- El parámetro de la distribucion de probabilidad uniforme discreta, viene dado por la
inversa de los valores que puede tomar la variable aleatoria.
- La variable aleatoria que describe el numero de caras obtenidas al lanzar dos monedas
legales sigue una probabilidad de distribución uniforme.
- La media de una variable aleatoria discreta uniforme, f(x;k), siempre coincide con uno de
los valores de la misma observados en el experimento.
- La varianza de una variable aleatoria discreta uniforme, f(x;k), no depende del numero de
valores que pueda tomar la variable.

EJEMPLOS
.
UNIDAD 6. DISTRIBUCIONES DE PROBABILIDAD
CONTINUAS.

6.1. DISTRIBUCIÓN DE PROBABILIDAD UNIFORME.


En probabilidad esta distribución se hace referencia a:
DISTRIBUCION UNIFORME CONTINUA
En teoría de probabilidad y estadística, la distribución uniforme continua es una familia
de distribuciones de probabilidad para variables aleatorias continuas, tales que cada
miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango
son igualmente probables. El dominio está definido por dos parámetros, a y b, que son sus
valores mínimo y máximo. La distribución es a menudo escrita en forma abreviada
como U(a,b).
Función de densidad de probabilidad:
La función de densidad de probabilidad de la distribución uniforme continua es:

Los valores en los dos extremos a y b no son por lo general importantes porque no afectan
el valor de las integrales de f(x) dx sobre el intervalo, ni de x f(x) dx o expresiones
similares. A veces se elige que sean cero, y a veces se los elige con el valor 1/(b − a).
Este último resulta apropiado en el contexto de estimación por el método de máxima
verosimilitud. En el contexto del análisis de Fourier, se puede elegir que el valor de f(a)
ó f(b) sean 1/(2(b − a)), para que entonces la transformada inversa de
muchas transformadas integrales de esta función uniforme resulten en la función inicial, de
otra forma la función que se obtiene sería igual "en casi todo punto", o sea excepto en un
conjunto de puntos con medida nula. También, de esta forma resulta consistente con
la función signo que no posee dicha ambigüedad.
Función de distribución de probabilidad:
La función de distribución de probabilidad es:
DISTRIBUCIÓN UNIFORME DISCRETA
En teoría de la probabilidad, la distribución uniforme discreta es una distribución de
probabilidad que asume un número finito de valores con la misma probabilidad.

Si la distribución asume los valores reales , su función de probabilidad es

y su función de distribución la función escalonada

Su media estadística es

y su varianza
6.2. DISTRIBUCION DE PROBABILIDAD EXPONENCIAL.

En estadística la distribución exponencial es una distribución de


probabilidad continua con un parámetro cuya función de densidad es:

Su función de distribución es:

Donde representa el número e.


El valor esperado y la varianza de una variable aleatoria X con distribución exponencial son:

La distribución exponencial es un caso particular de distribución gamma con k = 1. Además


la suma de variables aleatorias que siguen una misma distribución exponencial es una
variable aleatoria expresable en términos de la distribución gamma.
A pesar de la sencillez analítica de sus funciones de definición, la distribución exponencial
tiene una gran utilidad práctica ya que podemos considerarla como un modelo adecuado
para la distribución de probabilidad del tiempo de espera entre dos hechos que sigan un
proceso de Poisson. De hecho la distribución exponencial puede derivarse de un proceso
experimental de Poisson con las mismas características que las que enunciábamos al
estudiar la distribución de Poisson, pero tomando como variable aleatoria, en este caso, el
tiempo que tarda en producirse un hecho
, esta relación es a = lObviamente, entonces, la variable aleatoria será continua. Por otro
lado existe una relación entre el parámetro a de la distribución exponencial, que más tarde
aparecerá, y el parámetro de intensidad del proceso
Al ser un modelo adecuado para estas situaciones tiene una gran utilidad en los siguientes
casos:
· Distribución del tiempo de espera entre sucesos de un proceso de Poisson
· Distribución del tiempo que transcurre hasta que se produce un fallo, si se cumple la
condición que la probabilidad de producirse un fallo en un instante no depende del tiempo
transcurrido .Aplicaciones en fiabilidad y teoría de la supervivencia.
6.3. LA DISTRIBUCIÓN GAMMA.
Este modelo es una generalización del modelo Exponencial ya que, en ocasiones, se utiliza
para modelar variables que describen el tiempo hasta que se produce p veces un
determinado suceso.

Su función de densidad es de la forma:

Como vemos, este modelo depende de dos parámetros positivos: α y p. La función Γ(p) es
la denominada función Gamma de Euler que representa la siguiente integral:

que verifica Γ(p + 1) = pΓ(p), con lo que, si p es un número entero positivo, Γ(p + 1) = p!

El siguiente programa permite visualizar la forma de la función de densidad de este modelo


(para simplificar, se ha restringido al caso en que p es un número entero).

Propiedades de la distribución Gamma

Su esperanza es pα.

Su varianza es pα2

La distribución Gamma (α, p = 1) es una distribución Exponencial de parámetro α. Es decir,


el modelo Exponencial es un caso particular de la Gamma con p = 1.

Dadas dos variables aleatorias con distribución Gamma y parámetro α común

X ~ G(α, p1) y Y ~ G(α, p2)

se cumplirá que la suma también sigue una distribución Gamma

X + Y ~ G(α, p1 + p2).
Una consecuencia inmediata de esta propiedad es que, si tenemos k variables aleatorias
con distribución Exponencial de parámetro α (común) e independientes, la suma de todas
ellas seguirá una distribución G(α, k).
Utilice la distribución gamma para modelar valores de datos positivos que sean
asimétricos a la derecha y mayores que 0. La distribución gamma se utiliza comúnmente
en estudios de supervivencia de fiabilidad. Por ejemplo, la distribución gamma puede
describir el tiempo que transcurre para que falle un componente eléctrico. La mayoría de
los componentes eléctricos de un tipo particular fallará aproximadamente en el mismo
momento, pero unos pocos tardarán más en fallar.

La distribución gamma es una distribución continua que se define por sus parámetros de
forma y escala. La distribución gamma de 3 parámetros se define por sus parámetros de
forma, escala y valor umbral. Por ejemplo, en la siguiente gráfica, la distribución gamma se
define según valores de forma y escala diferentes cuando el valor umbral se establece en
0.0. Note que la mayoría de los valores en una distribución gamma ocurren cercanos entre
sí, pero algunos valores quedan al final de la cola superior.

Cuando el parámetro de forma es un entero, la distribución gamma a veces se menciona


como distribución de Erlang. La distribución de Erlang se utiliza frecuentemente en
aplicaciones de teorías de colas.
6.4. DISTRIBUCION DE PROBABILIDAD NORMAL.

En estadística y probabilidad se llama distribución normal, distribución


de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable
continua que con más frecuencia aparece aproximada en fenómenos reales.
La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto
de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y
es el gráfico de una función gaussiana.
La importancia de esta distribución radica en que permite modelar numerosos fenómenos
naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte
de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables
incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse
asumiendo que cada observación se obtiene como la suma de unas pocas causas
independientes.
De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno,
sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí
que al uso de la estadística en psicología y sociología sea conocido como método
correlacional.
La distribución normal también es importante por su relación con la estimación por mínimos
cuadrados, uno de los métodos de estimación más simples y antiguos.
Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de
la normal son:
 caracteres morfológicos de individuos como la estatura;
 caracteres fisiológicos como el efecto de un fármaco;
 caracteres sociológicos como el consumo de cierto producto por un mismo grupo de
individuos;
 caracteres psicológicos como el cociente intelectual;
 nivel de ruido en telecomunicaciones;
 errores cometidos al medir ciertas magnitudes;
 etc.

La distribución normal también aparece en muchas áreas de la propia estadística. Por


ejemplo, la distribución muestra de las medias muéstrales es aproximadamente normal,
cuando la distribución de la población de la cual se extrae la muestra no es normal. Además,
la distribución normal maximiza la entropía entre todas las distribuciones con media
y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente
a una lista de datos resumidos en términos de media muestral y varianza. La distribución
normal es la más extendida en estadística y muchos test estadísticos están basados en una
supuesta "normalidad".
En probabilidad, la distribución normal aparece como el límite de varias distribuciones de
probabilidades continuas y discretas.

6.4.1. APROXIMACIÓN DE LA BINOMIAL A LA NORMAL.

En este caso se estarán calculando probabilidades de experimentos Binomiales de una


forma muy aproximada con la distribución Normal, esto puede llevarse a cabo si n¥® y p =
p(éxito) no es muy cercana a 0 y 1, o cuando n es pequeño y p tiene un valor muy cercano
a ½ ; esto es,

Donde:
x = variable de tipo discreto; solo toma valores enteros
m = np = media de la distribución Binomial
s= = desviación estándar de la distribución Binomial

Cuando ocurren las condiciones anteriores, la gráfica de la distribución Binomial, es muy


parecida a la distribución Normal, por lo que es adecuado calcular probabilidades con la
Normal en lugar de con la Binomial y de una forma más rápida.
En resumen, se utiliza la aproximación Normal para evaluar probabilidades Binomiales
siempre que p no esté cercano a 0 o 1. La aproximación es excelente cuando n es grande
y bastante buena para valores pequeños de n si p está razonablemente cercana a ½. Una
posible guía para determinar cuando puede utilizarse la aproximación Normal es tener en
cuenta el cálculo de npy nq. Sí ambos, np y nq son mayores o iguales a 5, la aproximación
será buena.

Antes de empezar a resolver problemas con la aproximación Normal, es bueno aclarar


que se están evaluando probabilidades asociadas a una variable discreta x, con una
distribución que evalúa variables de tipo continuo como es la Normal,
Por lo que z sufre un pequeño cambio como se muestra a continuación:

¿Por qué vamos a sumar o a restar ½ a x?


Este es un factor de corrección debido a que se está evaluando una variable discreta
con una distribución continua, por lo que hay que delimitar claramente desde que punto
se va a evaluar la variable, dicho de otra forma, en que límite de la barra (inferior o
superior) nos debemos posicionar para determinar la probabilidad requerida, cada barra
de probabilidad a evaluar tiene como base la unidad, ese es el porqué del ± ½.

Ejemplos:
1. La probabilidad de que un paciente se recupere de una rara enfermedad de la
sangre es de 0.4. Si se sabe que 100 personas han contraído esta enfermedad,
¿Cuál es la probabilidad de que: a) al menos 30 sobrevivan?, b) más de 46
sobrevivan?, c) menos de 50 no sobrevivan?
Solución:

a)
n = 100
p = p(paciente se recupere) = 0.40
q = p(paciente no se recupere) = 1 – p = 1 – 0.40 = 0.60
m = np = (100)(0.40) = 40 pacientes se recuperen
s= = pacientes que se recuperan
x = variable que nos define el número de pacientes que se recuperan
x = 0, 1, 2,....,100 pacientes que se recuperan

X = 29.5 m = 40

p( z = -2.14) =0.4838

p(x ³ 30 ) = p(z = -2.14) +0.5 = 0.4838 + 0.5 = 0.9838

a)
p(z = 1.33) = 0.4082
46) = 0.5 – p(z = 1.33) = 0.5 – 0.4082 = 0.0918

b) n = 100
p = p(paciente no sobreviva) = 0.60
q = p(paciente sobreviva) = 1 – p = 0.40
pacientes que no se recuperan
pacientes que no se recuperan
x = variable que nos define el número de pacientes que no sobreviven
x = 0, 1, 2, ....,100

p(x >
p( z = -2.14) = 0.4838

p(x < 50) = 0.5 – p(z = -2.14) = 0.5 – 0.4838 = 0.0162

2. Una prueba de opción múltiple tiene 200 preguntas, cada una con 4
posibles respuestas, de las cuáles solo una es la correcta ¿cuál es la probabilidad
de que al azar se den de 25 a 30 respuestas correctas para 80 de las 200
preguntas acerca de los cuales el estudiante no tiene conocimientos?

Solución:
n = 80
p = p(dar una contestación correcta) = 0.25
q = p(dar una contestación incorrecta) = 1 – p = 0.75
preguntas contestadas correctamente
preguntas contestadas correctamente
x = número de preguntas que son contestadas correctamente = 0, 1, 2,...,80
, p(z1 = 1.16) = 0.377

, p(z2 = 2.71) = 0.4966

p(25 £ x ³ 30) = p(z2) – p(z1) = 0.4966 – 0.377 = 0.1196

3. Si 35% de los productos manufacturados en cierta línea de producción es


defectuoso, ¿cuál es la probabilidad de que entre los siguientes 1000 productos
manufacturados en esa línea a) menos de 354 productos sean defectuosos?, b)
entre 342 y 364 productos sean defectuosos?, c)exactamente 354 productos sean
defectuosos?
Solución:
a)n = 1000
p = p(un producto sea defectuoso) = 0.35
q = p(un producto no sea defectuoso) = 1- p = 0.65
productos defectuosos
15.0831 productos defectuosos
x = número de productos defectuosos que se manufacturan en la línea = 0, 1, 2,..., 1000
, p(z = 0.23) = 0.091

p(x< 354 ) = 0.5 + p(z = 0.23) = 0.5 + 0.091 = 0.5091

b)

, p(z1= - 0.56) = 0.2123

@ 0.96, p(z2= 0.96) = 0.3315

p(342 £ x ³ 364) = p(z1) + p(z2) = 0.2123 + 0.3315 = 0.5438


c)

@ 0.23, p(z1 = 0.23) = 0.091

, p(z2= 0.30) = 0.1179

p(x = 354) = p(z2) - p(z1) = 0.1179 – 0.091 = 0.0269