Vous êtes sur la page 1sur 28

A LA PROBABILIDAD

ESTADISTICA DESCRIPTIVA E INTRODUCCION


Doble Grado en Ingeniera Informatica y Matematicas

Tema 6
Algunos modelos de distribuciones discretas.
Una vez expuesta la teora general sobre variables aleatorias y sus distribuciones de probabilidad, vamos a describir algunas distribuciones particulares que han demostrado, empricamente,
ser modelos apropiados para situaciones que ocurren en la vida real. A pesar de ello tales distribuciones presentan un caracter teorico en el sentido de que sus funciones de probabilidad o
de densidad se deducen matematicamente en base a ciertas hipotesis que se suponen validas
para los fenomenos aleatorios.
La eleccion de una distribucion de probabilidad para representar un fenomeno de interes
practico debe estar motivada tanto por la comprension de la naturaleza del fenomeno en s,
como por la posible verificacion de la distribucion seleccionada a traves de la evidencia emprica.
En todo momento debe evitarse aceptar de manera tacita una determinada distribucion de
probabilidad como modelo de un problema practico.
Una distribucion de probabilidad esta caracterizada, de forma general, por una o mas cantidades que reciben el nombre de parametros de la distribucion. Un parametro puede tomar
cualquier valor de un conjunto dado y, en ese sentido, se define una familia de distribuciones
de probabilidad que tendran la misma funcion generica de probabilidad o funcion de densidad.
En este tema estudiaremos varias distribuciones de tipo discreto de gran utilidad en aplicaciones. En cada caso, se expondra detalladamente como surgen (el modelo probabilstico
subyacente) y se deduciran sus momentos, funcion generatriz de momentos y otras caractersticas de interes

1. Distribuci
on degenerada
La distribucion discreta mas sencilla es la correspondiente a una variable aleatoria degenerada
o constante, es decir, la asociada a un experimento aleatorio que da lugar siempre al mismo
resultado. Por tanto, dicha variable aleatoria tomara un u
nico valor c.
Su funci
on masa de probabilidad es

x=c
1
P[X = x] =

0
x 6= c
Algunas de sus caractersticas son:
Funci
on de distribuci
on:

F (x) = P[X x] =

x<c

xc

Patricia Roman Roman

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

Momentos no centrados:
mk = E[X k ] = ck P[X = c] = ck ,

k = 1, 2,

Y, en particular, la MEDIA
E[X] = c.
Momentos centrados:
k = E[(X c)k ] = 0,

k = 1, 2,

Y, en particular, la VARIANZA
Var[X] = 0.
Esta propiedad caracteriza a las distribuciones degeneradas; es decir, una variable aleatoria tiene varianza cero si y solamente si es degenerada en un punto (Propiedades de la
varianza).
Funci
on generatriz de momentos:
M (t) = E[etX ] = etc

t R.

Notas
Si una variable aleatoria tiene funcion generatriz de momentos
MX (t) = e5t

t R

entonces, dado que la f.g.m. determina de forma u


nica la distribucion de la variable, X tiene
una distribucion degenerada en el punto 5, es decir
P[X = 5] = 1
Si una variable aleatoria tiene funcion generatriz de momentos
MX (t) = 1

t R

entonces, dado que la f.g.m. determina de forma u


nica la distribucion de la variable, X tiene
una distribucion degenerada en el punto 0, es decir
P[X = 0] = 1

Patricia Roman Roman

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

2. Distribuci
on uniforme discreta
Esta es la distribucion de probabilidad de una variable aleatoria discreta que toma un n
umero
finito de valores que son equiprobables y se utiliza para modelizar variables aleatorias asociadas a experimentos aleatorios que tienen un n
umero finito de posibles resultados que son
equiprobables. Su funci
on masa de probabilidad es
1
, i = 1, 2, , n
n
Se dice entonces que la variable aleatoria X se distribuye uniformemente sobre los puntos
x1 , x2 , , xn y se notara X U (x1 , x2 , . . . , xn ).
P[X = xi ] =

Ejemplo
La variable aleatoria asociada al experimento aleatorio de lanzar un dado al aire (tiene seis
resultados posibles y equiprobables si el dado esta bien construido)
1
P [X = i] = , i = 1, 2, , 6
6
Algunas de sus caractersticas son:
Funci
on de distribuci
on:

1
i
F (x) = (N
umero de valores xi x) =

n
n

si x < x1
si xi x < xi+1 , i = 1, . . . , n 1
si x xn

Momentos no centrados:
n

1X k
mk = E[X ] =
x ,
n i=1 i
k

k = 1, 2,

Y, en particular, la MEDIA
n

1X
E[X] =
xi = x.
n i=1
Momentos centrados:
n

1X
k = E[(X EX) ] =
(xi x)k ,
n i=1
k

Patricia Roman Roman

k = 1, 2,
3

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

Y, en particular, la VARIANZA
n

1X
(xi x)2 .
Var[X] =
n i=1
Funci
on generatriz de momentos:
n

M (t) = E[etX ] =

1 X txi
e
n i=1

t R.

En el caso particular xi = i, i = 1, 2, . . . , n
E[X] =

1
n

E[X 2 ] =

Pn

1
n

Var[X] =

i=1

Pn

i=

i=1

1 n(n+1)
n
2

i2 =

(n+1)(2n+1)
6

n+1
2

1 n(n+1)(2n+1)
n
6

(n+1)2
4

(n+1)(2n+1)
6

n2 1
12

3. Distribuci
on de Bernoulli
Supongamos un experimento aleatorio que da lugar, u
nicamente, a dos posibles resultados
que son mutuamente excluyentes y exhaustivos. Los dos posibles resultados se denotan como:
- exito (E), que sera el suceso objeto de estudio, y
- fracaso (F ), que es el complementario de E.
Evidentemente
E, F ,

E F = ,

E F = .

A este tipo de experimentos aleatorios se les llama experimentos o pruebas de Bernoulli.


Asociado a un experimento o prueba de Bernoulli y a su correspondiente espacio muestral
= {E, F }, se define la variable aleatoria con distribucion de Bernoulli como

si ocurre el suceso E
1
X=

0
si no ocurre el suceso E (ocurre F )
Si se denota por p a la probabilidad del suceso exito (E) y, por tanto, la probabilidad del
suceso fracaso sera 1 p, la funcion masa de probabilidad de esta variable aleatoria sera
P[X = 1] = p
P[X = 0] = 1 p
o bien,
Patricia Roman Roman

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

P[X = x] = px (1 p)1x ,

x = 0, 1; 0 < p < 1

y se notara como X B(1, p). (Los casos p = 0 y p = 1 dan lugar a variables degeneradas)
Ejemplos
- La variable aleatoria asociada al experimento aleatorio de lanzar una moneda (si la moneda
esta bien construida p = 1/2)
- La variable aleatoria asociada a contabilizar ocurrencias, por ejemplo si una persona es
votante de un partido o no, si una pieza manufacturada es defectuosa o no (variables indicadoras).
Algunas de sus caractersticas son:
Funcion de distribucion

F (x) =

x<0

1p

0x<1

x1

Momentos no centrados:
mk = p,

k = 1, 2,

Y, en particular,
E[X] = p,

E[X 2 ] = p

Momentos centrados:
k = (1 p)k p + (p)k (1 p),

k = 1, 2,

Y, en particular,
Var[X] = E[X 2 ] (E[X])2 = p p2 = p(1 p)
Funci
on generatriz de momentos:
M (t) = pet + (1 p)

Patricia Roman Roman

t R

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

Nota
Si una variable aleatoria tiene funcion generatriz de momentos
MX (t) = 0,8et + 0,2

t R

entonces, dado que la f.g.m. determina de forma u


nica la distribucion de la variable, X tiene
una distribucion B(1, 0,8).
Ejemplo.- Un agente de seguros dedicado a la venta de seguros de vida, realiza visitas a posibles
clientes con el fin de contratar un seguro de vida. Se sabe de su trayectoria como agente que
en el 60 % de las visitas logra contratar un seguro. Definir la variable aleatoria asociada a este
experimento aleatorio y obtener su media y varianza.
Tenemos un experimento aleatorio o prueba de Bernoulli que consiste en realizar una visita a
un cliente e intentar contratarle un seguro. Los dos posibles resultados seran:
- El cliente contrata el seguro, suceso exito.
- El cliente no contrata el seguro, suceso fracaso.
La variable aleatoria asociada al experimento se define como

si el cliente contrata el seguro (ocurre el suceso E)


1
X=

0
si el cliente no contrata el seguro (no ocurre el suceso E)
En este caso la probabilidad de exito es p = 0,6 y de aqu que la funcion masa de probabilidad
de la variable aleatoria X es
P[X = 1] = P (E) = 0,6 = p
P[X = 0] = P (E) = 0,4 = 1 p
La media y la varianza son
E[X] = p = 0,6
Var[X] = p(1 p) = 0,6 0,4 = 0,24

4. Distribuci
on binomial
Una generalizacion de la distribucion de Bernoulli se obtiene cuando:
- El experimento o prueba de Bernoulli se repite n veces de forma independiente.
- La probabilidad de exito p permanece constante en cada repeticion del experimento.
Se define ahora una variable aleatoria X como el n
umero de exitos en las n repeticiones independientes del experimento que puede tomar los valores k = 0, 1, , n. Calculemos la probabilidad
de que dicha variable tome cada uno de esos valores; esto es, P[X = k], k = 0, 1, , n, o lo
que es lo mismo, la probabilidad de obtener k exitos (o realizaciones del suceso E) en las n
pruebas de Bernoulli.
Una de las posibles formas de obtener k exitos en las n pruebas sera que se realizara E en
las k primeras pruebas y E en las n k restantes
Patricia Roman Roman

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

EE

k)

E E E

nk)

Al ser las pruebas independientes, la probabilidad de la interseccion de los n sucesos anteriores


sera el producto de las probabilidades de cada uno de los sucesos; esto es
pp

k)

p(1 p)(1 p)

nk)

(1 p) = pk (1 p)nk

Ahora habra que multiplicar esta probabilidad por el n


umero de posibles ordenaciones de los
k exitos y los n k fracasos, que es el n
umero de permutaciones de n elementos con repeticion
de k elementos de un tipo y n k de otro
 
n!
n
=
k!(n k)!
k
Por tanto
 
n x
P[X = x] =
p (1 p)nx ,
x

x = 0, 1, , n

Definici
on.- Se dice que una variable aleatoria X sigue una distribuci
on binomial de
parametros n y p, n N, p (0, 1) si modeliza el n
umero de exitos en n repeticiones independientes de un ensayo de Bernoulli con probabilidad p de exito, manteniendose esta constante
en las n repeticiones del experimento; o bien, si su funcion masa de probabilidad es
 
n x
P[X = x] =
p (1 p)nx ,
x = 0, 1, , n.
x
Se notara como X B(n, p).
Nota.-Observemos que la distribucion de Bernoulli no es mas que un caso particular de la
distribucion binomial con n = 1.
Probemos que, en efecto, es una funcion masa de probabilidad. En primer lugar, son valores
mayores o iguales que cero y, en segundo lugar, su suma vale uno. En efecto, teniendo en cuenta
el binomio de Newton
n
X

n  
X
n x
P[X = x] =
p (1 p)nx = [p + (1 p)]n = 1
x
x=0
x=0

Ejemplo: N
umero de caras al lanzar una moneda n veces de forma independiente.
Aplicaciones
Sus principales areas de aplicacion incluyen control de calidad, ventas, mercadotecnia, medicina,
investigacion de opiniones y otras.

Patricia Roman Roman

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

- N
umero de unidades defectuosas en un proceso de fabricacion. En un proceso de manufactura se produce un determinado producto en el que algunas unidades son defectuosas. Si la
proporcion de unidades defectuosas producidas por este proceso es constante durante un periodo razonable y si, como procedimiento de rutina, se seleccionan aleatoriamente un determinado
n
umero de unidades, entonces el n
umero de artculos defectuosos en dicha muestra se puede
modelizar mediante el empleo de la distribucion binomial.
- En aplicaciones de publicidad para la venta de un artculo, tambien puede considerarse
la distribucion binomial, si se supone que la probabilidad de venta es constante para todas las
personas consideradas.
- En Medicina, por ejemplo, para estudiar el n
umero de individuos que contraen una enfermedad, si para un grupo determinado de la poblacion la probabilidad de contraer tal enfermedad
se mantiene constante.
Algunas de sus caractersticas son:
Funci
on de distribuci
on:

F (x) = P[X x] =

x<0

P[X = 0] + . . . P[X = i]

i x < i + 1; i = 1, 2, . . . , n 1

xn

o bien,

[x]  
X
n k
F (x) =
p (1 p)nk

k=0

x<0

0x<n
xn

donde [x] denota la parte entera de x. Dicha funcion de distribucion es una funcion
escalonada con n + 1 saltos en los puntos 0, , n de longitudes P[X = 0], . . . , P[X = n]
Funci
on generatriz de momentos
M (t) = (pet + (1 p))n

t R

En efecto

Patricia Roman Roman

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

 
n
 tX  X
tx n
px (1 p)nx
=
e
M (t) = E e
x
x=0
=

n  
X
n
x=0

(pet )x (1 p)nx = [pet + (1 p)]n

Momentos: Dado que la variable esta acotada, existen los momentos de todos los ordenes,
pero nos limitaremos a calcular hasta los de orden dos.
Media
E[X] = np
lo cual se puede probar, o bien a partir de la funcion generatriz de momentos o bien,
directamente. Veamos la obtencion directa
 
n
n
X
X
n x
n!
nx
px (1 p)nx =
E[X] =
x
p (1 p)
=
x
x!(n x)!
x
x=0
x=0
n
X
x=1

n
X
(n 1)!
n!
x
nx
p (1 p)
= np
px1 (1 p)nx
(x 1)!(n x)!
(x 1)!(n x)!
x=1

Tomando y = x 1 y m = n 1, entonces
E[X] = np

m
X
y=0

m!
py (1 p)my = np
y!(m y)!

dado que los terminos de la u


ltima suma corresponden a la funcion masa de probabilidad
de una B(m, p) y, por tanto, suman uno.
Varianza
Var[X] = np(1 p)
dado que el momento no centrado de orden dos es m2 = E[X 2 ] = n(n 1)p2 + np. Este se
puede obtener a partir de la funcion generatriz de momentos o bien directamente. Veamos
esta u
ltima forma
E[X 2 ] = E[X(X 1)] + E[X]
Dado que E[X] ya es conocida, obtengamos la otra
Patricia Roman Roman

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

n
X

 
n
X
n x
n!
nx
px (1 p)nx
E[X(X 1)] =
x(x 1)
p (1 p)
=
x(x 1)
x!(n x)!
x
x=0
x=0
n
X
x=2

n
X
n!
(n 2)!
x
nx
2
p (1 p)
= n(n 1)p
px2 (1 p)nx
(x 2)!(n x)!
(x 2)!(n x)!
x=2

Tomando ahora y = x 2 y m = n 2, de forma analoga a la media , se obtiene


E[X(X 1)] = n(n 1)p

m
X
y=0

m!
py (1 p)my = n(n 1)p2
y!(m y)!

dado que los terminos de la u


ltima suma corresponden a la funcion masa de probabilidad
de una B(m, p) y, por tanto suman uno.
Propiedad de simetra.- Si X B(n, p), entonces la variable aleatoria que contabiliza
el n
umero de fracasos, Y = n X B(n, 1 p) y, ademas
P[X = x] = P[Y = n x]
Se puede probar calculando la funcion generatriz de momentos.
n
n
MY (t) = E[et(nX) ] = etn MX (t) = etn pet + (1 p) = (1 p)et + p .
C
alculo de probabilidades y representaciones gr
aficas
(Ver apuntes y scripts de R, y applets de Java con Geogebra)
EJERCICIOS
1.- Un club nacional de automovilistas comienza una campa
na telefonica con el proposito de
aumentar el n
umero de miembros. En base a experiencia previa, se sabe que una de cada 20
personas que reciben la llamada se une al club. Si en un da, 25 personas reciben la llamada
telefonica, cual es la probabilidad de que por lo menos dos de ellas se inscriban al club? Cu
al
es el n
umero esperado?
Solucion: Si cada persona que recibe la llamada se une o no al club, independientemente del
resto, entonces,
X : N
umero de personas que se unen al club de las 25 llamadas
Patricia Roman Roman

10

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

X B(25, 1/20)
P[X 2] = 1 P[X < 2] = 1 [P[X = 0] + P[X = 1]] =
"     
   1  24 #
0
25
25
1
19
25
1
19
=1
+
= 0.3576
0
20
20
1
20
20
1
= 1.25
20
2.- Un representante realiza cinco visitas cada da a los comercios de su ramo y, por experiencia
anterior, sabe que la probabilidad de que le hagan un pedido en cada visita es 0.4. Calcular
E[X] = np = 25

a) La distribucion del n
umero de pedidos por da.
b) Media y varianza del n
umero de pedidos por da.
c) Probabilidad de que el n
umero de pedidos que realiza durante un da sea 4.
d) La probabilidad de que realice por lo menos dos pedidos.
e) La probabilidad de que el n
umero de pedidos que realiza durante un da este comprendido
entre 1 y 3.
Solucion: Supuesto que en cada visita se hace un pedido o no independientemente de lo que se
haga en otra visita:
a) X : N
umero de pedidos diarios B(5, 0.4)
b) E[X] = 5 0.4 = 2, V ar[X] = 5 0.4 0.6 = 1.2

c) P (X = 4) = 54 0.44 0.61 = 0.0768.
Con R, dbinom(4,5,0.4)=0.0768.
d) P (X 2) = 1 P (X < 2) = 1 P (X 1) = 1 (P (X = 0) + P (X = 1)) = 0.66304.
Con R, 1-pbinom(1,5,0.4)=0.66304, o bien, dado que P (X 2) = P (X > 1),
pbinom(1,5,0.4,lower.tail=FALSE)=0.66304.



e) P (1 X 3) = P (X = 1)+P (X = 2)+P (X = 3) = 51 0.41 0.64 + 52 0.42 0.63 + 53 0.43 0.62 =
0.2592 + 0.3456 + 0.2304 = 0.8352.
Con R, sum(dbinom(1:3,5,0.4))=0.8352, o bien, pbinom(3,5,0.4)-pbinom(0,5,0.4)=0.8352.
3.- Se envan 20 invitaciones a los representantes estudiantiles para asistir a una conferencia.
De experiencias anteriores se sabe que la probabilidad de aceptar la invitacion es 0.8. Si las
decisiones de aceptar estas invitaciones son independientes, determinar la probabilidad de que
como mnimo 17 estudiantes acepten la invitacion.
Solucion:
X : N
umero de representantes que aceptan la invitacion B(20, 0.8)
Patricia Roman Roman

11

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

P (X 17) = P (X = 17) + P (X = 18) + P (X = 19) + P (X = 20)


Con R, pbinom(16,20,0.8,lower.tail=FALSE)=0.4114489.

5. Distribuci
on de Poisson
Esta distribucion sirve para representar el n
umero de ocurrencias de un determinado suceso durante un periodo de tiempo fijo o en una region fija del espacio, cuando el n
umero de
ocurrencias sigue unas determinadas pautas:
El n
umero de ocurrencias en un intervalo o region especificada debe ser independiente del
n
umero de ocurrencias en cualquier otro intervalo o region.
Si se considera un intervalo de tiempo muy peque
no (o una region muy peque
na), la
probabilidad de una ocurrencia es proporcional a la longitud del intervalo (al volumen de
la region) y la probabilidad de dos o mas ocurrencias es practicamente nula (despreciable).
Definici
on: Una variable aleatoria X tiene distribucion de Poisson de parametro ( > 0) si
su funcion masa de probabilidad es
P[X = x] = e

x
,
x!

x = 0, 1, . . .

Se nota X P().
Probemos que en efecto es una funcion masa de probabilidad. En primer lugar, son valores
mayores o iguales que cero y, en segundo lugar, su suma vale uno. En efecto, teniendo en
cuenta el desarrollo de la exponencial

X
x=0

P[X = x] =

x=0

X
x
x
= e
= e e = 1
x!
x!
x=0

Aplicaciones
Esta distribucion sirve para representar, por ejemplo:
- N
umero de accidentes que ocurren durante un determinado espacio de tiempo en una
determinada carretera.
- N
umero de llamadas telefonicas a una oficina (en un determinado intervalo de tiempo).
- N
umero de bacterias en un cultivo.
En general, las situaciones reales en las que se usa la distribucion de Poisson se caracterizan
porque la probabilidad del suceso cuyo n
umero de ocurrencias se contabiliza es peque
na y por
ello suele denominarse la LEY DE LOS SUCESOS RAROS.
Algunas de sus caractersticas son:
Patricia Roman Roman

12

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

Funci
on de distribuci
on

F (x) =

x<0

[x]
k
X

k!

x0

k=0

donde [x] denota la parte entera de x.


Funci
on generatriz de momentos
M (t) = e(e 1)
t

t R

En efecto
M (t) =

x
tx

e e

x=0

x!

=e

X
(et )x
x=0

x!

= e ee = e(e 1)
t

Media
E[X] =
lo cual se puede probar o bien directamente, o a partir de la funcion generatriz de momentos. Veamos la obtencion directa
E[X] =

X
x=0

xe

X
x
x1
= e
= e e =
x!
(x

1)!
x=1

Por tanto, el parametro de la distribucion es el n


umero medio de ocurrencias en el
intervalo de tiempo o region del espacio considerada.
Varianza
Var[X] =
Razonando de forma analoga a la binomial y calculando E[X(X 1)]
E[X(X 1)] =

X
x=0

x(x 1)e

x!

= e

X
x2
= 2 e e = 2
(x

2)!
x=2

se obtiene E[X 2 ] = 2 + , de donde se deduce el valor de la varianza.

Patricia Roman Roman

13

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

Relacion entre las distribuciones binomial y de Poisson


La distribucion de Poisson se puede obtener como lmite de una distribucion binomial: Consideramos una variable que modeliza el n
umero de sucesos ocurridos en un intervalo de tiempo,
y dividimos dicho intervalo en n subintervalos tan peque
nos de forma que en cada uno de ellos
pueda ocurrir a lo sumo un suceso con probabilidad no nula, a la que llamaremos p. De esta
forma el n
umero de sucesos que ocurren en cada subintervalo tiene una distribucion B(1, p) y,
al ocurrir los sucesos de forma independiente en los subintervalos, el n
umero de sucesos en el
intervalo es una B(n, p).
Claramente, cuando n aumenta, p disminuye ya que al aumentar n disminuye la amplitud
de los intervalos y, por tanto, la probabilidad de que ocurra un suceso en el.
En consecuencia, considerando un n
umero n grande de pruebas de Bernoulli independientes,
con probabilidad de ocurrencia p peque
na, y tomando = np, se obtiene la distribucion de
Poisson como lmite de la binomial cuando n . Es decir, si n , p 0 y np la
distribucion binomial tiende a una Poisson, es decir
 

x
n x
nx

x = 0, 1,
l
m
p
(1

p)
=
e
n
x!
x
p0
np

En efecto,
 
n x
n!
(np)x
P[X = x] =
p (1 p)nx =
(1 p)nx =
x
x
x!(n x)! n
(np)x n(n 1) (n x + 1)
(1 p)nx
x
x!
n
Ahora tomando lmites cuando n , p 0 de forma que np , se tiene
 

n x
e x
nx
l
m
p
(1

p)
=
n
x
x!
p0
=

np

dado que
lm

np

lm

(np)x
x
=
x!
x!

n(n 1) [n (x 1)]
=1
nx

lm (1 p)nx = elm(nx)(p) = e

n
p0

C
alculo de probabilidades y representaciones gr
aficas
(Ver apuntes y scripts de R, y applets de Java con Geogebra)

Patricia Roman Roman

14

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

EJERCICIOS
1.- En una cierta empresa constructora el n
umero de accidentes es por termino medio de 3 por
mes. Calcular:
a) La probabilidad de que no ocurra ning
un accidente en un mes dado.
b) La probabilidad de que ocurran menos de 5 accidentes en un mes dado.
c) La probabilidad de que ocurran mas de 3 accidentes en un mes dado.
d) La probabilidad de que ocurran exactamente 3 accidentes en un mes dado.
Si suponemos que los accidentes cuando ocurren son independientes unos de otros y ademas,
que ocurren con una tasa de ocurrencia constante, la variable aleatoria n
umero de accidentes
en un mes dado tiene una distribucion de Poisson. Dado que el n
umero medio de accidentes al
mes es 3 y el parametro de una Poisson es el valor medio ( = 3), la distribucion considerada
es una P(3). Las probabilidades solicitadas son
a) P[X = 0] =

30 3
e
0!

= 0.0498

Con R, dpois(0,3)=0.04978707.
b) P[X < 5] = P[X 4] = P[X = 0] + P[X = 1] + P[X = 2] + P[X = 3] + P[X = 4] =
0

=e

0!

+e

1!

+e

2!

+e

3!

+e

4!

= 0.0498 + 0.1494 + 0.2240 + 0.2240 + 0.1680 = 0.8152.


Con R, ppois(4,3)=0.8152632.
c) P[X > 3] = 1 P[X 3]
Con R, 1-ppois(3,3) o ppois(3,3,lower.tail=FALSE)=0.3527681.
d) P[X = 3] = 0.2240.
Con R, dpois(3,3)=0.2240418.
2.- Desde el a
no 1980 el n
umero medio de empresas, con mas de 100 trabajadores, que han
presentado suspension de pagos ha sido de 6.8 por a
no, y admitimos que el n
umero de empresas
con mas de 100 trabajadores, X, que han presentado suspension de pagos durante un periodo
determinado de tiempo sigue una distribucion de Poisson. Obtener
a) La probabilidad de que ninguna empresa de mas de 100 trabajadores presente suspension de
pagos durante un trimestre.
b) La probabilidad de que por lo menos dos empresas de mas de 100 trabajadores presenten
suspension de pagos durante un determinado a
no.
La distribucion que sigue X, el n
umero de empresas con mas de 100 trabajadores que han
presentado suspension de pagos durante un periodo de tiempo es una Poisson de parametro .
a) Como las empresas de mas de 100 trabajadores presentan suspension de pagos a razon de
6.8 por a
no, en un trimestre sera
Patricia Roman Roman

15

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

6.8
= 1.7
4
Luego la variable Y , n
umero de empresas con mas de 100 trabajadores que han presentado
suspension de pagos durante un trimestre es una Poisson de parametro = 1.7 y la probabilidad
pedida
P[Y = 0] = e1.7

1.70
= 0.1827
0!

Con R, dpois(0,1.7)= 0.1826835.


b) Para obtener ahora la probabilidad de que por lo menos dos empresas de mas de 100 trabajadores presenten suspension de pagos durante un determinado a
no consideraremos la variable
aleatoria X P(6.8). Luego
P[X 2] = 1 P[X = 0] P[X = 1] = 1 0.0011 0.0076 = 0.9913
Con R, ppois(1,6.8, lower.tail=FALSE)=0.9913126, o bien 1-ppois(1,6.8).
3.- A una calculadora le fallan, por termino medio en cada hora de trabajo, dos transistores. Se
sabe que el n
umero de fallos de los transistores sigue una distribucion de Poisson. La calculadora
deja de funcionar cuando se le averan seis o mas transistores. Calcular la probabilidad de que
una operacion de tres horas se pueda realizar sin avera.
X: N
umero de fallos en tres horas P(6)
Se pide
P(X < 6) = P(X 5) =

5
X
x=0

P (X = x) =

5
X
x=0

e6

6x
= 0.0025 + 0.0149 + 0.0446 + 0.0892 +
x

0.1339 + 0.1606 = 0.4457


Con R, ppois(5,6)=0.4456796.

6. Distribuci
on binomial negativa
Consideremos ahora un experimento aleatorio consistente en repeticiones independientes de
ensayos de Bernoulli con probabilidad de exito constante, hasta que aparezca el exito k-esimo. Es decir, en lugar de fijar el n
umero de ensayos y observar el n
umero de exitos en esas n
realizaciones, se repiten las realizaciones hasta obtener un n
umero determinado de exitos y contabilizamos los fracasos. Definimos la variable aleatoria con distribuci
on binomial negativa
como aquella que modeliza el n
umero de fracasos antes de que aparezca el exito k-esimo.
Nota.- Si en vez de contabilizar el n
umero de fracasos antes del k-esimo exito se contabiliza
el n
umero de pruebas necesarias (variable aleatoria Y = X + k), se obtiene la distribucion de
Pascal que verifica
Patricia Roman Roman

16

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

P[Y = n] = P[X = n k].


La variable aleatoria X puede tomar los valores x = 0, 1, 2, . . . y k debe ser un entero
positivo, es decir, k = 1, 2, . . . .
Calculemos la funcion masa de probabilidad de la variable aleatoria binomial negativa; esto
es,
P[X = x], x = 0, 1, 2, . . .
Uno de los posibles sucesos para el cual ocurre {X = x} sera que en las x primeras
repeticiones apareciera fracaso, en las k 1 siguientes exito y en la ultima exito
E .x). . E|E k1)
. . . E|E
y como las repeticiones de las pruebas de Bernoulli son independientes, la probabilidad del
suceso anterior sera
h
i
x)
k)
P E .x). . EE .k). . E = P(E) P(E) P(E) P(E) = (1 p)x pk
Pero la obtencion de los x fracasos y los k 1 exitos se pueden obtener de tantas maneras como
las permutaciones con repeticion de x + k 1 elementos en los que hay iguales x y k 1, es
decir


x+k1
(x + k 1)!
=
x!(k 1)!
x
Por tanto, la funcion masa de probabilidad de esta variable aleatoria es

P[X = x] =


x+k1
(1 p)x pk ,
x

x = 0, 1, 2, (k = 1, 2, ; 0 p < 1)

y se notara como X BN (k, p).


Comprobemos que es, en efecto, una funcion masa de probabilidad. Para ello tengamos en
cuenta lo siguiente

R, 0 = 1

R, x N, x = (1)(x+1)
x!

P
x
(1 + t) =
|t| < 1, R
x=0 x t ,
Propiedad:Para cualquier n
umero real > 0
 



r +r1
= (1)

r
r
Patricia Roman Roman

17

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

En primer lugar, es evidente que P[X = x] 0, x = 0, 1, 2, . . . y

P[X = x] =

x=0



X
k+x1
x

x=0

(1 p)x pr


X


k
[(1 p)]x pk = pk [1 (1 p)]k = pk pk = 1
x

x=0

Observemos que, de hecho, otra expresion de la funcion masa de probabilidad de la binomial


negativa es
 
k
P[X = x] =
[(1 p)]x pk
x
Ejemplos
- N
umero de preguntas falladas en un examen tipo test antes de tener el decimo acierto.
- N
umero de unidades defectuosas antes de obtener un n
umero concreto de correctas.
Algunas de las caractersticas de la distribucion binomial negativa son:
Funci
on de distribuci
on:

F (x) = P[X x] =

x<0


[x] 
X
i+k1

(1 p)i pk

x0

i=0

Funci
on generatriz de momentos:

M (t) =

p
1 (1 p)et

k
t < ln(1 p)

En efecto,


tX

E e

tx

e P[X = x] =

x=0

tx

x=0


k
((1 p))x pk
x

que converge si |et ((1 p))| < 1 et (1 p) < 1 t < ln(1 p)


=



X
k
x=0

t x k

((1 p)e ) p = p



X
k
x=0

((1 p)et )x

= pk (1 (1 p)et )k

Patricia Roman Roman

18

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

Momentos: Existen todos dado que existe la funcion generatriz de momentos. Nos limitaremos
a obtener los momentos de primer y segundo orden.
Media
E[X] =

k(1 p)
p

Veamos la obtencion de forma directa:


 

X
X
(k)(k 1) (k x + 1)
k
x k
k
x
((1 p))x =
E[X] =
x
((1 p)) p = p
x(x 1)!
x
x=1
x=0



X
k 1
k(1 p)
(k)
p ((1 p))
((1 p))x1 = k(1 p)pk (1 (1 p))k1 =
x1
p
x=1
k

Varianza
Var[X] =

k(1 p)
p2

Razonando de forma analoga al caso binomial, se obtiene


E[X 2 ] =

k(k + 1)(1 p)2 k(1 p)


+
,
p2
p

de donde se deduce la expresion de la varianza.


Relaci
on entre las distribuciones binomial y binomial negativa
Si X es una variable aleatoria con distribucion BN (k, p), el suceso {X = x} significa la interseccion de los sucesos
A = {se han obtenido k 1 exitos en los primeros k + x 1 ensayos
de una serie de pruebas independientes de Bernoulli}
B = {se ha obtenido un exito en el siguiente ensayo de la serie}
El suceso A equivale a {Y = k 1}, con Y B(k + x 1, p), y el segundo es independiente
del primero y ocurre con probabilidad p. Entonces
P[X = x] = P[Y = k 1] p

Caso particular: Distribuci


on Geom
etrica
La distribucion geometrica es un caso particular de la distribucion binomial negativa para
el caso de k = 1. Es decir, modeliza el n
umero de fracasos antes del primer exito en repeticiones independientes de ensayos de Bernoulli con probabilidad de exito p. Su funcion masa de
probabilidad es
Patricia Roman Roman

19

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

P[X = x] = (1 p)x p,

x = 0, 1, 2, (0 < p < 1)

y se notara como X G(p).


Sus caractersticas mas relevantes son
Funci
on de distribuci
on:

F (x) = P[X x] =

x<0

[x]
X

(1 p)i p

x0

i=0

Pero como

[x]
X

[x]
X
1 (1 p)[x]+1
i
= 1 (1 p)[x]+1
(1 p) p = p
(1 p) = p
1 (1 p)
i=0
i=0
i

se puede reescribir la funcion de distribucion como

F (x) = P[X x] =

x<0

1 (1 p)[x]+1

x0

Funci
on generatriz de momentos:

M (t) =

p
1 (1 p)et


t < ln(1 p)

Media:
E[X] =

1p
p

Varianza:
Var[X] =
1

1p
p2

Recordemos que la suma de los n terminos de una progresion geometrica an de razon r es


Sn =

Patricia Roman Roman

a1 an r
1r

20

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

Propiedad de olvido o falta de memoria:


Esta propiedad se formula de la siguiente forma: Si X es una variable aleatoria con
distribucion geometrica de parametro p, G(p), entonces se verifica que
P[X h + k|X h] = P[X k],

h, k = 0, 1, 2, . . .

Si se ha realizado la h-esima repeticion del experimento o prueba de Bernoulli y no se


ha obtenido ning
un exito, entonces la probabilidad de que se realicen por lo menos otras
k repeticiones sin que se presente ning
un exito, es decir que se realicen por lo menos h + k
repeticiones, es la misma que si consideramos que la primera repeticion es la h + 1-esima;
es decir, esa probabilidad es la misma que la probabilidad de que realicemos al menos k
repeticiones sin obtener el primer exito, y por consiguiente se olvidan las h repeticiones
realizadas inicialmente.
Vamos a demostrarla, si X G(p)
P[X x] = 1 P[X < x] = 1 F (x 1) = 1 (1 (1 p)x ) = (1 p)x .
Por tanto, si k, h, N
P[X h + k|X h] =

P[X h + k, X h]
=
P[X h]

P[X h + k]
(1 p)h+k
=
= (1 p)k = P[X k]
P[X h]
(1 p)h
Esta propiedad, ademas, caracteriza a la distribucion geometrica como la u
nica entero
valuada (positiva) que la cumple.
La distribucion de probabilidad geometrica se aplica frecuentemente en el estudio de la distribucion de la duracion de tiempos de espera. As pues, si las repeticiones del experimento se realizan
a intervalos regulares de tiempo, entonces la variable aleatoria con distribucion geometrica nos
dara el n
umero de intervalos de tiempo transcurridos hasta que aparezca el primer exito.
EJERCICIOS
1.- Un examen de Estadstica consta de 20 preguntas tipo test y se conoce de experiencias
anteriores que un alumno tiene probabilidad 0.7 de contestar bien cada pregunta. Obtener:
a) La probabilidad de que la primera pregunta que contesta bien sea la cuarta.
b) Sabiendo que para aprobar el examen es necesario contestar bien a 10 preguntas, cual es la
probabilidad de que apruebe al contestar la pregunta duodecima?
a) X= N
umero de fallos antes del primer exito, X G(0.7)
Patricia Roman Roman

21

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

P[X = 3] = (0.3)3 0.7 = 0.0189


Con R, dgeom(3,0.7)=0.0189.
b) X= N
umero de fallos antes del decimo exito, X BN (10, 0.7)


 
2 + 10 1
11
2
10
P[X = 2] =
(0.3) (0.7) =
(0.3)2 (0.7)10 .
2
2
Con R, dnbinom(2,10,0.7)=0.1398252.
Esta probabilidad se puede obtener mediante la relacion con la binomial Y = N
umero de exitos
en las 11 primeras pruebas, Y B(11, 0.7)
P [X = 2] = P [Y = 9] 0.7
2.- Una maquina dedicada a la fabricacion de piezas de alta precision produce las piezas de una
en una, siendo independiente la fabricacion de cada pieza. La probabilidad de fabricar una pieza
defectuosa es 0.15. Obtener
a) La probabilidad de que la primera pieza defectuosa durante ese da sea la n
umero 40.
b) Sabiendo que en la fabricacion de cada pieza se tardan 20 segundos cual sera el tiempo
medio que hay que esperar hasta que sea producida la primera pieza defectuosa?
c) Probabilidad de que las ocho primeras piezas fabricadas sean todas buenas.
a) X= N
umero de piezas buenas antes de la primera defectuosa, X G(0.15)
P [X = 39] = (0.85)39 0.15
Con R, dgeom(39,0.15)= 0.000265112.
= 00..85
= 5.666. que es el n
umero medio de piezas buenas antes de la primera
b) EX = 1p
p
15
defectuosa. Por tanto, el tiempo pedido es 20 (5.666 + 1) = 133.33 segundos.
c) P [X 8] = 1 F (7) = 1 P [X 7]
Con R, 1-pgeom(7,0.15) o pgeom(7,0.15, lower.tail=FALSE)= 0.2724905.
Si consideramos Y = N
umero de piezas buenas en las 8 primeras, Y B(8, 0.85)
P [Y = 8]
Con R, dbinom(8,8,0.85)= 0.2724905.

7. Distribuci
on hipergeom
etrica
Se denomina poblaci
on a cualquier coleccion de individuos, objetos o elementos arbitrarios
y una muestra de tama
no n de esa poblacion es cualquier subconjunto con n elementos.
El procedimiento de seleccion de muestras de una poblacion se denomina muestreo y este
puede realizarse de distintas formas, dando lugar a distintos tipos de muestras de las que
aqu vamos a distinguir las dos siguientes (suponiendo una poblacion finita):

Patricia Roman Roman

22

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas
O SIMPLE).
MUESTRA ALEATORIA CON REEMPLAZAMIENTO (CON DEVOLUCION
Se selecciona al azar un elemento de la poblacion (suponiendo que todos tienen la misma
probabilidad de ser seleccionado), se devuelve a la poblacion (despues de anotar las caractersticas de interes) y se selecciona otro tambien de forma aleatoria; se continua el proceso hasta
completar el tama
no muestral deseado.
Notemos que una muestra aleatoria con reemplazamiento puede contener elementos repetidos y, en ciertas ocasiones, esto no es conveniente (incluso puede no ser posible, por ejemplo,
al estudiar la duracion de vida de cierto tipo de bombillas).

MUESTRA ALEATORIA SIN REEMPLAZAMIENTO (SIN DEVOLUCION).


Se selecciona al azar un elemento de la poblacion (suponiendo que todos tienen la misma
probabilidad de ser seleccionado); a continuacion, sin devolverlo a la poblacion, se selecciona
otro suponiendo que los restantes tienen la misma probabilidad de ser elegidos y as sucesivamente.
Notemos que ahora todos los elementos de la muestra seran distintos.
El muestreo sin reemplazamiento es u
til en muchas situaciones practicas. Por ejemplo, consideremos una poblacion con N individuos que deben elegir entre dos candidatos A y B a cierto
puesto. Con objeto de realizar un sondeo de opinion antes de la eleccion se efect
ua un muestreo
de n individuos para ver su preferencia. En una situacion de este tipo parece logico hacer un
muestreo sin reemplazamiento, que proporcionara mas informacion sobre la intencion de voto
al tener todos los individuos diferentes.
Observemos que si en la poblacion hay N1 votantes de A y la muestra se elige con reemplazamiento, cada elemento de la muestra tiene probabilidad N1 /N de ser votante de A. Por tanto,
la seleccion de la muestra equivale a la repeticion de n pruebas de Bernoulli independientes con
probabilidad constante de exito (ser votante de A) y la variable X: N
umero de votantes de A
N1
en la muestra B(n, N )
Por el contrario, si el muestreo se realiza sin reemplazamiento, la probabilidad de exito vara
despues de cada seleccion y las pruebas de Bernoulli no son independientes:
La probabilidad de que el primer individuo seleccionado vote al candidato A es
N1
N
La probabilidad de que el segundo individuo seleccionado vote al candidato A depende
de lo que haya ocurrido en la primera prueba
P (2A/1A) =

N1 1
,
N 1

P (2A/1B) =

N1
.
N 1

Por tanto, la variable X: N


umero de votantes de A en la muestra, no tiene ahora una

distribucion binomial, sino que su distribucion es la denominada HIPERGEOMETRICA.


Antes de introducir formalmente esta distribucion notemos que, a efectos de calcular probabilidades, el muestreo sin reemplazamiento equivale a la seleccion simultanea de n elementos
Patricia Roman Roman

23

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

de la poblacion, suponiendo que todos los subconjuntos de n elementos tienen la misma probabilidad de ser elegidos.
En efecto, si la seleccion se realiza simultaneamente no cabe distinguir entre dos muestras

que tengan los mismos elementos (no se tiene en cuenta el orden) y hay en total Nn muestras distintas y la probabilidad de elegir una cualquiera de ellas (esto es, que n individuos
determinados formen parte de la muestra) es N1 .
(n)
Por otra parte, si la seleccion se realiza elemento a elemento, dos muestras con los mismos
elementos en distinto orden seran distintas y, en total, hay N (N 1) (N n + 1) muestras
distintas; la probabilidad de que una muestra este formada por n individuos concretos es
n!
1
= N
N (N 1) (N n + 1)
n
que es igual a la anterior.
Definici
on
Supongamos una poblacion de N individuos divididos en dos categoras de N1 y N2 (=
N N1 ) individuos cada uno. Se elige una muestra de n individuos de la poblacion (sin reemplazamiento o simultaneamente). La variable aleatoria X que contabiliza el n
umero de individuos de la primera categora en la muestra se dice que tiene distribucion hipergeom
etrica de
parametros N , N1 y n y se nota
X H(N, N1 , n),

n, N1 , N N {0}, n, N1 N

Funci
on masa de probabilidad
Evidentemente, un valor de la variable X debe ser un n
umero natural (debe incluirse el
cero) verificando
max(0, n (N N1 )) x mn(n, N1 )
pues como hay N1 elementos en la primera subpoblacion y N2 en la segunda subpoblacion se
tiene que cumplir
x n, x N1 x mn(n, N1 )
x 0, n x N2 x max(0, n N2 )
Obtengamos la funcion masa probabilidad de dicha variable aleatoria, esto es la P[X = x],
para los diferentes valores posibles de x.

P{X = x} =

N1 N N1
( x )( nx )

(Nn )

(x1) N N1 N N1 1
n
N1 N1 1

NN1(x1)
N NN1 (nx1)

N
N
1
N
x
N
x1
n+1
x

N1
N N1

= ( x )(Nnx )
(n)

Patricia Roman Roman

Muestra simultanea
(Regla de Laplace)
Muestra con reemp.

24

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

Luego la funcion masa de probabilidad de esta variable aleatoria sera




N1 N N1
P[X = x] =

nx

N
n

max(0, n (N N1 )) x mn(n, N1 )

Probemos que es una funcion masa de probabilidad. En efecto, las probabilidades son no negativas y ademas 2
mnX
(n,N1 )

P[X = x] =

x=m
ax(0,n(N N1 ))

mnX
(n,N1 )
x=m
ax(0,n(N N1 ))

N1
x

N N1
nx

N
n


=

N1 +N N1
n

N
n

N
n

N
n

=1

Ejemplos y/o aplicaciones


La distribucion hipergeometrica se aplica en el control estadstico de calidad de una fabricacion en serie. As pues, si el lote bajo control contiene N1 elementos buenos y N2 = N N1
elementos defectuosos, cuando tomamos una muestra de tama
no n sin reemplazamiento estaremos interesados en saber el n
umero de elementos buenos que han aparecido en la muestra de
tama
no n para as determinar la calidad del proceso de fabricacion.
En sondeos de opinion tambien tiene aplicacion la distribucion hipergeometrica. Podemos
realizar una encuesta para intentar conocer si los individuos de una poblacion tienen o no
intencion de votar en las proximas elecciones de tal manera que el n
umero de individuos,
de una muestra sin reemplazamiento, que tienen intencion de votar sigue una distribucion
hipergeometrica.

Algunas de sus caractersticas son:

Usando que dados dos n


umeros cualesquiera a y b y un entero positivo n, se verifica
 

n  
X
a
b
a+b
=
x nx
n
x=0


aunque realmente, dado que xa = 0 si x > a al haber un termino nulo en a(a 1) (a x + 1) se debe tomar

b
x a, y dado que nx
= 0 si n x > b se debe tomar x n b. Por tanto la suma parte de max(0, n b) y
llega a mn(n, a) y realmente se tiene
mn
(n,a)
X
x=m
ax(0,nb)

Patricia Roman Roman

 
 

a
b
a+b
=
x nx
n

25

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

Funci
on de distribuci
on:
x < max(0, n (N N1 ))

P
N (1p)
Np
[x] ( i )( ni )
F (x) =
N
i=0
(n)

max(0, n (N N1 )) x mn(n, N1 )
x > mn(n, N1 )

Funci
on generatriz de momentos:
Existe t R porque la variable toma un n
umero finito de valores.
mnX
(n,N1 )

MX (t) =

N1
tx x

x=m
ax(0,n(N N1 ))

N N1
nx

N
n

No se conoce una forma funcional especfica.


Media:
E[X] = n

N1
N

En efecto,

mnX
(n,N1 )

EX =

N1
x

x=m
ax(0,n(N N1 )

N N1
nx

N
n


=

mnX
(n,N1 )

1
N
n


x=m
ax(1,n(N N1 )




N1 1 N N1
N1
=
x1
nx

haciendo x 1 = k
N1
= N
n

mn(n1,N
X 1 1)
k=m
ax(0,(n1)(N N1 )





N N1
N1 N 1
nN1
N1 1
= N
=
k
(n 1) k
n1
N
n

Varianza:
Var[X] =

n(N n)N1 (N N1 )
N 2 (N 1)

Para ello, calculemos en primer lugar el momento no centrado de orden dos; es decir
E[X 2 ] = E[X(X 1)] + E[X]
Patricia Roman Roman

26

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

mnX
(n,N1 )

E[X(X 1)] =

x(x 1)

N1
x

x=m
ax(2,n(N N1 )

mnX
(n,N1 )

N1 (N1 1)

=
N
n

x=m
ax(2,n(N N1 )

N N1
nx

N
n


=




N1 2 N N1
=
x2
nx

haciendo x 2 = k
N1 (N1 1)

=
N
n

mn(n2,N
X 1 2)
k=m
ax(0,(n2)(N N1 )




N1 2
N N1
=
k
(n 2) k



n(n 1)N1 (N1 1)
N1 (N1 1) N 2

=
=
N
n2
N (N 1)
n
E[X 2 ] =

n(n 1)N1 (N1 1) nN1


+
N (N 1)
N

de donde se deduce la expresion de la varianza.


V ar[X] =

n(n 1)N1 (N1 1) nN1 n2 N12


n(N n)N1 (N N1 )
+

=
2
N (N 1)
N
N
N 2 (N 1)

EJERCICIOS
1.- Sea una baraja de 40 cartas. De ella se toma una muestra de 5 cartas sin reemplazamiento.
Obtener la probabilidad de obtener al menos dos ases.
Tenemos 40 cartas, de las cuales 4 son ases y se realiza un muestreo de tama
no 5 sin
reemplazamiento.
X: N
umero de ases en la muestra H(40, 4, 5)
y se pide
 
 
4 36
4 36
P[X 2] = 1 P[X = 0] P[X = 1] = 1

5

40
5

4

40
5

= 0,06899

Con R los parametros de la distribucion hipergeometrica son: tama


no de la primera subpoblacion (N1 ), tama
no de la segunda subpoblacion (N2 ) y tama
no de la muestra. As, la
probabilidad pedida se calcula mediante phyper(1, 4,36,5,lower.tail=FALSE)=0.06899004.
2.- Una determinada empresa quiere aumentar su plantilla de vendedores en 20 personas y se
presentan 40 personas al proceso de seleccion. Determinar la probabilidad de que, despues de
Patricia Roman Roman

27

A LA PROBABILIDAD
ESTADISTICA DESCRIPTIVA E INTRODUCCION
Doble Grado en Ingeniera Informatica y Matematicas

realizar todas las pruebas de seleccion, entre las 20 personas seleccionadas esten los 10 mejores
de las 40 personas que se presentaron.
Consideramos la variable aleatoria X: N
umero de los mejores vendedores entre los 20 seleccionados.
X H(40, 10, 20)
Nos piden
10
10

30
10

P[X = 10] =

40
20

= 0,000217

Con R, dhyper(10,10,30,20)=0.0002179599.

Patricia Roman Roman

28

Vous aimerez peut-être aussi