Vous êtes sur la page 1sur 55

Teora de probabilidades discretas

Apuntes del curso


Versi
on beta

Facultad de Ciencias Fsicas y Matematicas


Universidad de Chile
Escuela de Verano
Chile - 16 de diciembre de 2013

APUNTES DEL CURSO TEORIA DE PROBABILIDADES DISCRETAS


Escuela de Verano
Facultad de Ciencias Fsicas y Matem
aticas
Universidad de Chile.

Los presentes apuntes fueron confeccionados en base a los apuntes del curso Probabilidades y Estadstica del profesor Roberto Cortez Milan. Estos han sido creados con la exclusiva finalidad de ser
usados como apoyo docente para estudiantes y profesores de la Escuela de Verano bajo la expresa
autorizaci
on de su autor. Todos los derechos de edicion, reproduccion, difusion y uso de este material
fuera del se
nalado anteriormente se reservan a su autor.

Autores:
Roberto Cortez Mil
an
Editor:
Benjamn Ruiz Mu
noz
Coordinador:
Felipe Cel`ery Cespedes
Ilustraciones:
GeoGebra, software libre.
http://www.geogebra.org/cms/es/
Fecha de edici
on:
Diciembre del 2013.

Indice general

Captulo 1. Inducci
on y sumatorias
1.1. Principio de Inducci
on y Sumatorias
1.1.1. Principio de inducci
on
1.1.2. Sumatorias
1.1.3. Binomio de Newton
1.1.4. Series
Serie Geometrica
Serie Exponencial

1
1
1
4
8
10
11
12

Captulo 2. Combinatoria y axiom


atica de probabilidades
2.1. Espacio muestral y eventos
2.2. Combinatoria
2.3. Principios de conteo
2.4. Permutaciones
2.5. Subconjuntos
2.6. Bolitas en urnas
2.7. Axiom
atica de probabilidades
2.8. Axiomas de probabilidad
2.9. Propiedades b
asicas

15
15
17
18
19
21
23
25
25
27

Captulo 3. Probabilidades condicionales y variables discretas


3.1. Probabilidad condicional
3.2. Reglas de Bayes y de probabilidades totales
3.3. Independencia de eventos
3.4. Variables aleatorias
3.5. Definiciones y propiedades generales
3.6. Variables discretas
3.6.1. Variable Bernoulli
3.6.2. Variable binomial
3.6.3. Variable geometrica
3.6.4. Variable Poisson
3.7. Independencia de variables aleatorias

31
31
33
35
38
38
40
42
42
44
45
46

Bibliografa

49


MODULO

Inducci
on y sumatorias

1.1
SECCION

Principio de Inducci
on y Sumatorias
1.1.1.

Principio de inducci
on

Recordemos primero el conjunto de los naturales


N = {0, 1, 2, 3, 4, 5, ...}
Notemos que este conjunto lo podemos caracterizar por las siguientes reglas:
0N
Si n N n + 1 N
La idea intuitiva de que los naturales es un conjunto que parte desde el 0 y avanzan de uno en uno sin
detenerse jam
as es lo que se traduce en lo que llamamos el principio de induccion.
Definici
on 1.1 (Inducci
on). Supongamos que tenemos una proposicion abierta p(n) , y queremos
demostrar que es cierta para todos los naturales o a partir de cierto natural n0 en adelante ( es
decir demostrar (n n0 )p(n)), en principio no podemos probar uno por uno que la propiedad
es cierta porque son muchos, pero el principio de induccion nos dice que basta: primero probar
p(n) para el primer caso p(n0 ) (a p(n0 ) le llamamos caso base); segundo que si se cumple p(n),
entonces se cumple p(n + 1) (a p(n) le llamamos hip
otesis inductiva). Es decir el principio de
inducci
on es que:
(n n0 )p(n) p(n0 ) [(n n0 )p(n) p(n + 1)]
En resumen, para probar (n n0 )p(n), basta :
Probar el primer caso p(n0 )
1

1.1 Principio de Inducci


on y Sumatorias

Induccion y sumatorias

Asumir cierto p(n) alg


un n n0
Probar que es cierto p(n + 1).

Ejemplo 1.1. Demostremos por induccion la siguiente proposicion:


n 1 p(n) 1 + 2 + 3 + ... + n =

n(n + 1)
2

Caso base: Si n = 1, entonces p(1) 1 = 1 V .


n(n + 1)
Hip
otesis inductiva: Asumimos que p(n) 1 + 2 + 3 + ... + n =
se cumple para
2
cierto n 1.
Paso inductivo: Demostremos que p(n + 1) se cumple
Como p(n) es cierto, se tiene que
n(n + 1)
1 + 2 + 3 + ... + n =
2
sumando n + 1 a ambos lados:

n(n + 1)
1 + 2 + 3 + ... + n + (n + 1) =
+ (n + 1)
2

n
1 + 2 + 3 + ... + n + (n + 1) = (n + 1) [ + 1]
2

n+2
1 + 2 + 3 + ... + n + (n + 1) = (n + 1) [
]
2

(n + 2)(n + 1)
p(n + 1)
1 + 2 + 3 + ... + n + (n + 1) =
2
se cumple que
n.
Demostracio

n 1 p(n) 1 + 2 + 3 + ... + n =

n(n + 1)
2


Ejemplo 1.2. Probar por inducci


on que la multiplicacion de 3 n
umeros naturales consecutivos
distintos de 0 es divisible por 6
n. Probaremos que (n 1) n(n + 1)(n + 2) = 6k, k Z
Demostracio
Caso base: Si n = 1, entonces p(1) 1(2)(3) = 6 1, 1 Z V .
Hip
otesis inductiva: Asumimos que p(n) n(n + 1)(n + 2) = 6k, k Z se cumple para
cierto n 1.
Paso inductivo: Probaremos que (n + 1)(n + 2)(n + 3) = 6k, k Z, en efecto
(n + 1)(n + 2)(n + 3) = n(n + 1)(n + 2) + 3(n + 1)(n + 2)
Por hip
otesis de inducci
on n(n + 1)(n + 2) = 6k, ademas (n + 1)(n + 2) es un n
umero
par, por lo tanto (n + 1)(n + 2) = 2k , luego:
2

Inducci
on y sumatorias

1.1 Principio de Induccion y Sumatorias

n(n + 1)(n + 2) + 3(n + 1)(n + 2) = 6k + 3 2k = 6(k + k ), con (k + k ) Z


Por lo tanto (n 1) n(n + 1)(n + 2) = 6k, con k Z

Proposici
on 1.2 (Desigualdad de Bernuilli).
(n N)(h > 1) (1 + h)n 1 + nh
n. Lo probaremos por induccion.
Demostracio
Caso base: El caso n=0, se cumple.
Hip
otesis de inducci
on: Suponemos que para n N se cumple que
(h > 1) (1 + h)n 1 + nh
Paso inductivo: Demostremos que
(h > 1) (1 + h)n+1 1 + (n + 1)h
Por hip
otesis de inducci
on se tiene que:
(h > 1) (1 + h)n 1 + nh
si multiplicamos por (1 + h) > 0, nos queda que
(h > 1) (1 + h)n+1 (1 + nh)(1 + h) = 1 + (n + 1)h + nh2 1 + (n + 1)h
(h > 1) (1 + h)n+1 1 + (n + 1)h

Ejemplo 1.3. Un ejemplo donde se usa induccion de mala manera:
p(n) para n N, n 1 ; en un grupo de n personas cualesquiera, todas ellas tienen el mismo
sexo.
n.
Demostracio
Caso base: : si n = 1 en un grupo de 1 persona, todos tienen el mismo sexo V
Hip
otesis inductiva: Suponemos que p(n) es verdadero para cierto n 1
Paso inductivo: Demostremos que p(n + 1) se cumple
Si tenemos un grupo de n + 1 personas y las ponemos en una fila:

, , ,
1

...
,
... (n 1)

Si ahora separamos las primeras n de la u


ltima:

,
n

(n + 1)

, , ,

...
, ,
1
2
3 ... (n 1) n

M ISM O SEXO

Por hip
otesis de inducci
on las n primeras personas tienen el mismo sexo, de aqu se
concluye que la primera persona tiene el mismo sexo que la segunda. Analogamente si
separamos las n u
ltimas personas de la primera:

, , ,

...
, ,
2
3 ... (n 1) n (n + 1)

M ISM O SEXO

1.1 Principio de Inducci


on y Sumatorias

Induccion y sumatorias

Nuevamente por hip


otesis de induccion se tiene que las u
ltimas n personas tienen
el mismo sexo y como la primera persona tena el mismo sexo que la segunda y ahora
la segunda tiene el mismo sexo que la (n+1)-esima persona, en consecuencia las n + 1
personas tienen todas el mismo sexo.

Es claro que esto no puede ser cierto, si no estaramos en aprietos, Puedes identificar el error en la
demostraci
on?1
1.1.2. Sumatorias
Si tenemos una secuencia de n
umeros a1 , a2 , a3 , ..., an denotaremos la suma de estos n
umeros de la
siguiente manera:
n

a1 + a2 + a3 + ... + an = ai
i=1
n

1 + 2 + 3 + ... + n = i

Ejemplo 1.4.

i=1

0 + 2 + 4 + ... + 2n = 2i
i=0

1 + 2 + 4 + 8 + ... + 2 = 2i
n

i=0

De esta forma podremos simplificar la notacion cuando tratamos con sumas de grandes cantidades de
n
umeros, y m
as a
un nos permitir
a estudiar propiedades en las sumas.
Observaci
on 1.1. Es importante notar estas dos propiedades inductivas de las sumatorias:
n0

ai = an0
i=n0
n+1

i=n0

i=n0

ai = ai + an+1

Proposici
on 1.3 (Propiedades en las sumatorias).
1. Suma de la secuencia constante igual a 1.
q

1 = q p+1
i=p

2. Sea R, y sea (ai )qi=p , (bi )qi=p dos secuencias.


i. Factorizaci
on de constantes.
q

ai = ai
i=p

i=p

ii. Separaci
on de sumas.
1Qu
e pasa cuando n+1=2?

Inducci
on y sumatorias

1.1 Principio de Induccion y Sumatorias


q

(ai + bi ) = ai + bi
i=p

i=p

i=p

3. Traslaci
on de indices, dado k N.
q

q+k

ai = aik
i=p

i=p+k

4. Si k N tal que p k < q.


q

i=p

i=k+1

ai = ai + ai
i=p

5. Propiedad telesc
opica.
q

ai ai+1 = ap aq+1
i=p

n. Demostraremos la propiedad 5., para esto usaremos induccion:


Demostracio
p

Caso base: Para q=p se tiene que ai ai+1 = ap ap+1 V


i=p
n

Hip
otesis inductiva: Suponemos que para q = n p se cumple que ai ai+1 = ap an+1
i=p

Paso inductivo: Demostremos que


n+1

ai ai+1 = ap an+2

i=p

Como tenemos por hip


otesis de induccion que:
n

ai ai+1 = ap an+1
i=p

sumando a la igualdad an+1 an+2 se obtiene


n

ai ai+1 + an+1 an+2 = ap an+1 + an+1 an+2


i=p

as queda que
n+1

ai ai+1 = ap an+2

i=p


Definici
on 1.4 (Progresi
on Aritmetica). Una progresi
on aritm
etica es una suma de la forma
n

Sn = (a + kd)
k=0

Con a, d R
n

Proposici
on 1.5 (Propiedades de las progresiones aritmeticas). Si Sn = (a + kd), ak = a + kd
k=0

1. (n N) an+1 an = d
5

1.1 Principio de Inducci


on y Sumatorias
2. Sn = a(n + 1) + d

Induccion y sumatorias

n(n + 1)
2

n. Probaremos la propiedad 1., para esto ocuparemos las propiedades de las sumaDemostracio
torias, con esto
n

k=0

k=0

Sn = a + kd

Sn
Sn

=
=

(a + kd)
k=0
n

a + kd

k=0
n

Sn

k=0
n

= a1+dk
k=0

k=0
n

Sn

= a(n 0 + 1) + d k
k=0

como 1 + 2 + 3 + ... + n = k =
k=0

n(n + 1)
2
Sn = a(n + 1) + d

n(n + 1)
2


Definici
on 1.6 (Progresi
on Geometrica). Una progresi
on geom
etrica es una suma de la forma
n

Sn = ark
k=0

Con a, r R
n

Proposici
on 1.7 (Propiedades de las progresiones geometricas). Si Sn = ark , ak = ark
k=0

an+1
=r
1. (n N)
an
2. Si r 1, entonces Sn = a

1 rn+1
1r

n. Probaremos la propiedad 1., para esto ocuparemos las propiedades de las sumaDemostracio
torias, con esto
n

k=0

k=0

Sn = ark = a rk
calculemos ahora la siguiente suma

Inducci
on y sumatorias

1.1 Principio de Induccion y Sumatorias


n

S = rk
k=0

k=0
n

rS
rS S
rS S
(r 1)S
S

= r rk = rk + 1
=
=

k=0
n
k+1

r
k=0
n

k=0
n

rk
k=0

k+1

rk que resulta ser una suma telescopica

k=0
n+1

= r
r0 con r 1
n+1
r
1
=
r1

Por lo tanto
n

Sn = ark = a
k=0

1 rn+1
1r


Nuestra pr
oxima aplicaci
on de las sumatorias sera el Teorema del Binomio de Newton, para esto
definamos algunas cosas previas.
Definici
on 1.8 (Factorial de un n
umero). Dado una n
umero natural n se define el factorial de
n que denotamos como n!, seg
un la siguiente recurrencia:
0! = 1
n! = n (n 1)!

o equivalentemente n! = {

1
1 2 3 ... n

si n = 0
si n 1

Definici
on 1.9 (Combinatorio). Dados n, k N tales que n k se define el n
umero combinatorio
n
o coeficiente binomial que denotamos como ( ), seg
un la siguiente formula:
k
n
n!
( )=
k
k! (n k)!

Observaci
on 1.2. Los n
umeros combinatorios tienen muchas propiedades, algunas de ellas que nos
ser
an u
tiles son:
n
n
( )=1 y ( )=n
0
1

1.1 Principio de Inducci


on y Sumatorias

Induccion y sumatorias

n
n
( )=(
)
k
nk
n
n
n+1
( )+(
)=(
)
k
k+1
k+1
Estas propiedades se pueden probar directamente de la definicion.
Observaci
on 1.3. Esta u
ltima propiedad permite construir un metodo iterativo para calcular los
n
umeros combinatorios:
Iniciamos primero con k = 0 y k = n
n=3

k=0

n=0
n=1
n=2
n=3
n=4
n=5

1
1
1
1
1
1

k=1

k=2

k=3

k=4

k=5

1
1
1
1
1

En esta tabla el termino (nk) es que que se encuentra en la fila n y columna k, luego gracias a la formula
n
n
n+1
anterior ( ) + (
)=(
) podemos completar la tabla de manera que cada termino es la suma
k
k+1
k+1
de el que est
a sobre el con el que se encuentra en su diagonal superior-izquierda:
n=3

k=0

k=1

k=2

k=3

k=4

k=5

n=0
n=1
n=2
n=3
n=4
n=5

1
1
1
1
1
1

1
2
3
4
5

1
3
6
10

1
4
10

1
5

Esta estructura es lo que generalmente se conoce como Tri


angulo de Pascal.
1.1.3. Binomio de Newton
Sean a, b R, tales que a 0 b 0, vamos a deducir la formula para calcular (a + b)n :
(a + b)0 = 1
(a + b)1 = 1a + 1b
(a + b)2 = 1a2 + 2ab + 1b2
(a + b)3 = 1a3 + 3a2 b + 3ab2 + 1b3
(a + b)4 = 1a4 + 4a3 b + 6a2 b2 + 4ab3 + 1b4

Aqu se observa que aparecen los n


umeros combinatorios, con esto podemos conjeturar la siguiente
f
ormula:
8

Inducci
on y sumatorias

1.1 Principio de Induccion y Sumatorias

n
n
n
n
n
(a + b)n = ( )an + ( )an1 b + ( )an2 b2 + ... + (
)abn1 + ( )bn
0
1
2
n1
n
Que escrito en notaci
on de sumatoria:
Teorema 1.10 (Binomio de Newton).
n
n
(a, b R)(n N ) (a + b)n = ( )ank bk
k=0 k

n. Haremos la demostracion por induccion:


Demostracio
Caso base: Si n = 1
1
n
1
1
(a + b)1 = ( )ank bk = ( )a + ( )b = a + b V
0
1
k=0 k
Hip
otesis inductiva: Asumimos que para cierto n 1 se cumple que:
n
n
(a + b)n = ( )ank bk
k=0 k
Paso inductivo: Demostremos que:
n+1
n + 1 (n+1)k k
(a + b)n+1 = (
)a
b
k
k=0
Por hip
otesis inductiva sabemos que:
n
n
(a + b)n = ( )ank bk
k=0 k
multiplicando por (a+b) la igualdad

(a + b)(a + b)n

n
n
(a + b) ( )ank bk
k=0 k

entra a la suma el t
ermino (a+b)

(a + b)n+1

n
n
nk k
( )(a + b)a b
k=0 k

(a + b)n+1

n
n nk+1 k
b + ank bk+1
( )a
k=0 k

(a + b)n+1

n
n (n+1)k k n n nk k+1
b + ( )a b
( )a
k=0 k
k=0 k

sacamos 1o t
ermino

(a + b)n+1

cambio de ndice

n
n+1
n
n
n
= ( )a(n+1) + ( )a(n+1)k bk + (
)an(k1) bk
0
k=1 k
k=1 k 1

sacamos u
ltimo t
ermino

(a + b)n+1

n
n
n
n
n
n
= ( )a(n+1) + ( )b(n+1) + ( )a(n+1)k bk + (
)a(n+1)k bk
0
n
k=1 k 1
k=1 k

sumando estas expresiones

(a + b)n+1

n
n
n
n
= ( )a(n+1) + ( )b(n+1) + [( )a(n+1)k bk + (
)a(n+1)k bk ]
k
k

1
0
n
k=1

Por la f
ormula anterior para suma de combinatorios:
9

1.1 Principio de Inducci


on y Sumatorias

Induccion y sumatorias
n
n
n+1
( )+(
)=(
)
k
k1
k

(a + b)n+1

n
n
n
n + 1 (n+1)k k
= ( )a(n+1) + ( )b(n+1) + [(
)a
b ]
0
n
k
k=1

(a + b)n+1

= (

(a + b)n+1

n + 1 (n+1)
n + 1 (n+1) n
n + 1 (n+1)k k
)a
+(
)b
+ [(
)a
b ]
0
n+1
k
k=1

n + 1 (n+1)k k
)a
b
(
k
k=0

n+1


1.1.4.

Series

En esta parte extenderemos la noci


on de sumatorias, de modo que podamos sumar una cantidad
infinita de n
umeros, estudiaremos dos casos en particular, la serie geometrica y la serie exponencial.
Recordamos que dada una sucesi
on de n
umeros {xn }nN , lm xn denota el lmite de la sucesion de
n
n
umeros xn cuando n toma valores cada vez mas grandes.
La definici
on formal de lmite de una sucesion es la que sigue:
Definici
on 1.11 (Sucesi
on convergente). Dada una sucesion (xn ) de n
umeros reales y un real l
diremos que (xn ) converge a l, o los terminos xn tienden a l, si se cumple que
xn l ( > 0)(n0 N) tal que (n n0 ) xn l < 
Es decir que, para cada tolerancia  > 0 que nos demos en torno a el valor l (es decir si tomamos el
intervalo (l , l +)) existe un momento (n0 ), tal que a partir de este, la sucesion entra al intervalo
y no sale m
as.

Figura 1.1. Representacion grafica: convergencia de sucesiones

Ejemplo 1.5.
Un ejemplo importante es el de sucesion geometrica xn = rn , es decir:
10

Inducci
on y sumatorias

1.1 Principio de Induccion y Sumatorias

(xn ) = (r0 , r1 , r2 , ..., rk , ...)


Donde se tiene que

0,
si r < 1.

si r = 1.
lm r = 1,
n

, si r > 1.

n
en el caso en que r > 1, r diverge a infinito.
n

Otro ejemplo es el de la sucesion xn = n1 , cuyo lmite, cuando n tiende a infinito es 0.

Definici
on 1.12. Dada una sucesi
on infinita de n
umeros reales {a1 , ..., ak , ...}, definimos la serie
de los terminos ak como el lmite de las sumas parciales, es decir

ak = lm ak .
n

k=1

Adicionalmente diremos que la serie converge si


de otra forma diremos que diverge.

k=1

n
k=1 ak

= l R, es decir que tiene un valor real,

Ejemplo 1.6. Algunos ejemplos sencillos son:


Para la sucesi
on nula an = 0, la serie de los an
n=1 an = 0 + 0 + = 0, luego converge.
Si consideramos an tal que n n0 , an = 0, entonces

n0 1

n=1

n=1

an = an
que es una suma de finitos terminos, entonces converge.
Para an = 1 constante, nk=1 an = n, luego

an = lm an = lm n =
n

n=1

k=1

luego la serie diverge.

Serie Geom
etrica
Si consideramos ak = rk , la suma parcial hasta n se calcula seg
un 1.7 como
n

k
r =
k=0

1 rn+1
1r

Luego, para dependiendo del valor de r tenemos 3 casos:


Para r = 1, si r = 1, entonces an = 1 constante como en el ejemplo anterior, luego la serie
diverge, el caso en que r = 1 tambien diverge, queda como ejercicio para el lector.
Si r > 1 lm rn = , luego
n

11

1.1 Principio de Inducci


on y Sumatorias

Induccion y sumatorias
1 rn+1
= ,
n 1 r

k
r = lm
k=0

la serie diverge.
Si r < 1 lm rn = 0, luego
n

1 rn+1
1
=
,
n 1 r
1r

k
r = lm
k=0

la serie converge.
Serie Exponencial
En esta ocasi
on nos interesa ahora estudiar la convergencia de la siguiente serie

xk
k=0 k!

buscaremos para que valores de x esta serie tiene sentido, es decir, para que valores la serie converge.
Consideremos x > 0, y notemos que para la sucesion ak =

xk
k!

se tiene que

an+1
x
an+1
=
lm
=0
n an
an
(n + 1)
de la definici
on de lmite tenemos que n0 N tal que n n0 aan+1
<r<1
n
Entonces se tiene que
an0
an0 +1
an0 +2
an0 +m

=
an0
< ran0
< ran0 +1
< rm an0

< r2 an0

Luego podemos escribir que


n0 1

k=0

k=0

k=n0

n0 1

k=0

k=0

k=n0

n0 1

k=0

k=0

ak = ak + ak
nn
ak < ak + r 0 an0

n
ak < ak + an0 r

Luego como r < 1, entonces la serie es acotada por una suma finita mas una serie convergente, esto es
independiente del valor de x > 0, tambien se puede probar que se tiene el mismo resultado para x < 0,
adem
as podemos ver que en x = 0 la serie vale 1. Esto nos permite definir una funcion f R R tal
que

xk
k=0 k!

f (x) =

12

Inducci
on y sumatorias

1.1 Principio de Induccion y Sumatorias

Es m
as! esta funci
on es exactamente la reconocida funcion ex , donde e = 2,71828182846... es el n
umero
de Euler, por eso recibe el nombre de serie exponencial.
A continuaci
on se muestra una simulacion realizada en computador que calcula una aproximaci
on
e = e1 , mediante las sumas parciales (sn ) de la serie exponencial evaluada en x = 1.
s0 = 1,00000000000000
s1 = 2,00000000000000
s2 = 2,50000000000000
s3 = 2,66666666666667
s4 = 2,70833333333333
s5 = 2,71666666666667
s6 = 2,71805555555556
s7 = 2,71825396825397
s8 = 2,71827876984127
s9 = 2,71828152557319
s10 = 2,71828180114638
s11 = 2,71828182619849
s12 = 2,71828182828617
s13 = 2,71828182844676
s14 = 2,71828182845823
s15 = 2,71828182845899

Figura 1.2. Simulaci


on: C
alculo de sumas parciales de la serie exponencial para x = 1.

13


MODULO

Combinatoria y axiom
atica de probabilidades

2.1
SECCION

Espacio muestral y eventos


La Combinatoria es la rama de las matematicas que estudia estructuras finitas (o infinitas numerables
en algunos casos). En concreto la combinatoria se plantea la pregunta: de cuantas maneras se puede
resolver este sistema?. Por ejemplo, cu
antas menaras hay de ordenar a un curso en una fila? cuantos
posibles juegos de poker hay en un mazo?
Dentro del modelo de probabilidades tenemos que, ante un experimento a analizar, observamos diferentes posibles resultados que en su conjunto entenderemos como espacio muestral. Poder comprender
c
omo modelar los resultados y luego poder contar cuantos resultados posibles hay es fundamental para
la construcci
on de modelos que asignen una probabilidad correcta a cada evento.
Antes de definir que entenderemos por una probabilidad, debemos tener claro a que objetos queremos
asignarle una probabilidad.
Definici
on 2.1. El conjunto de todos los posibles resultados de un experimento aleatorio se
denomina espacio muestral, denotado con la letra . Cualquier subconjunto E del espacio muestral
se denomina evento.1
El espacio muestral reune todos los resultados que pueden obtenerse al realizar el experimento
aleatorio. Un evento E representa cu
al o cuales de esos posibles resultados son de interes particular.
Los elementos del espacio muestral se denotan con la letra , y cuando el resultado del experimento
es un elemento del evento E, es decir, cuando E, decimos que E ocurre.

15

2.1 Espacio muestral y eventos

Combinatoria y axiomatica de probabilidades

Ejemplo 2.1. En el experimento aleatorio consistente en lanzar una moneda, el espacio muestral
corresponde a
= {c, s},
donde c y s denotan cara y sello, respectivamente. El evento que representa el resultado en
que se obtiene cara es
E = {c} .

Ejemplo 2.2. Si el experimento aleatorio corresponde a lanzar dos dados, entonces


= {1, 2, 3, 4, 5, 6}2
denota los posibles resultados. Un cualquiera se descompone en = (1 , 2 ), donde i
representa el resultado del dado i-esimo, para i = 1, 2. Si nos interesa saber si la suma de los dados
fue igual a 7, el evento que representa esto es
E = { 1 + 2 = 7} = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}.

Ejemplo 2.3. Para el experimento consistente en el resultado de una carrera de 10 caballos,


numerados del 1 al 10, un espacio muestral adecuado es
= { {1, . . . , 10}10 i j , i j},
es decir, el conjunto de todas las tuplas de 10 elementos del conjunto {1, . . . , 10}, tales que sus
coordenadas son todas distintas. El elemento i corresponde al n
umero del caballo que llego en
la i-esima posici
on, de manera que
E = { 1 = k}
corresponde al evento en que el caballo ganador es el numerado k.

Ejemplo 2.4. Si el experimento consiste en la cantidad de automoviles que pasan por una determinada calle durante un da, un buen espacio muestral sera
= {0, 1, 2, . . .} = N.
Notemos que en principio no existe una cantidad maxima de automoviles, razon por la cual el
espacio debe consistir de todos los n
umeros naturales.

Ejemplo 2.5. Cuando el experimento consiste en medir el tiempo que tarda el autob
us en llegar
al paradero, este tiempo puede tomar cualquier n
umero real no negativo, por lo cual
= [0, ).

Ejemplo 2.6. Consideremos el experimento de lanzar una moneda n veces. En tal caso, el espacio
muestral debe dar cuenta de todos las posibles secuencias de caras y sellos de largo n, es decir,
= {0, 1}n ,
16

Combinatoria y axiom
atica de probabilidades

2.2 Combinatoria

donde esta vez hemos codificado con 0 y 1 a los resultados sello y cara, respectivamente.
En otras palabras, los elementos son secuencias de la forma = (1 , . . . , n ) tales que
i {0, 1} corresponde al resultado que se obtuvo en el i-esimo lanzamiento. Si nos interesa saber
si la cantidad de caras obtenidas fue un cierto n
umero k fijo, el evento que representa esto es
E = { i = k}.
i

Hemos definido el espacio muestral como el conjunto de todos los posibles resultados, lo cual pone a
nuestra disposici
on toda la operatoria conocida de conjuntos. En particular, si es un espacio muestral
y E, F son eventos, entonces:
E F es un nuevo evento que ocurre si y solo si ocurre E o bien ocurre F .
E F es el evento que ocurre si y solo si ocurren E y F simultaneamente. En el contexto de probabilidades es est
andar omitir el smbolo , anotando simplemente EF . Tambien utilizaremos
E, F .
E c = E es el evento en que no ocurre E.
Adem
as, com
unmente realizaremos operaciones con colecciones infinitas. Por ejemplo, si (En )nN es
una colecci
on numerable de eventos, entonces la union de todos ellos es el evento
En ,
nN

conformado por todos los elementos que pertenecen a alguno de los En , y la interseccion es el
evento
En ,
nN

conformado por los que pertenecen a todos y cada uno de los En .


2.2
SECCION

Combinatoria
Muchas veces se dispone de un experimento aleatorio con una cantidad finita de posibles resultados, y
de manera tal que no hay motivo para suponer que alguno de los resultados ocurre con mayor frecuencia
que otros. Por ejemplo, cuando se lanza un dado equilibrado uno espera que cada una de las caras del
dado sea igualmente probable; o si se extraen al azar 5 cartas de un mazo ingles, no hay razon para
que una combinaci
on de cartas extradas sea mas esperable que otras. Esto motiva:
Definici
on 2.2. Decimos que un espacio de probabilidad (, P) es equiprobable si es finito y
, , P({}) = P({ }).

17

2.3 Principios de conteo

Combinatoria y axiomatica de probabilidades

Dado un espacio equiprobable (, P) y un fijo cualquiera, escribiendo como la union disjunta


de sus singletons y aplicando el axioma 3, obtenemos:
1 = P() = P ( { }) = P({ }) = P({}) 1 = P({}),

es decir, P({}) = 1/ . Por lo tanto, en un espacio equiprobable todos los singletons tienen probabilidad igual a 1/n, donde n es la cantidad de elementos de . Mas a
un: si E es un evento cualquiera,
entonces, tenemos que
2

P(E) = P ( {}) = P({}) =


E

1
E
,
1=
E

es decir, la probabilidad de cualquier evento corresponde a la cantidad de elementos del evento sobre
el total de elementos del espacio muestral. Por lo tanto, en un espacio equiprobable basta con contar
los elementos del evento para poder calcular su probabilidad. Esto suele escribirse como
casos favorables
.
P(E) =
casos posibles
Sin embargo, determinar la cantidad de elementos de un conjunto puede llegar a ser extremadamente
difcil en determinadas situaciones. Por supuesto, si el espacio muestral posee pocos elementos, entonces
es posible escribir por extensi
on el evento de interes y contar sus elementos uno por uno, pero en general
este no ser
a el caso. A modo de ejemplo: de cuantas formas se pueden lanzar n monedas de manera
que se obtengan exactamente k caras?, de cuantas formas puede escogerse un comite de m personas
de un total de n?, cu
antos des
ordenes de los n
umeros 1, . . . , n dejan exactamente 1 n
umero en su
posici
on original?
En este captulo veremos tecnicas u
tiles de conteo y ejemplos emblematicos, los que nos serviran como
herramientas b
asicas para determinar la cantidad de elementos en conjuntos de todo tipo. El estudio
de estructuras finitas, incluyendo tecnicas de conteo, se conoce como combinatoria.
2.3
SECCION

Principios de conteo
A continuaci
on enunciamos los principios elementales de conteo que utilizaremos en el resto del captulo.
Proposici
on 2.3 (Principio aditivo). Si se dispone de dos conjuntos disjuntos A y B con n y m
elementos respectivamente, el experimento de escoger un elemento de A o bien de B, tiene n + m
posibles resultados.
Proposici
on 2.4 (Principio multiplicativo). Si se dispone de dos conjuntos A y B con n y m elementos
respectivamente, el experimento de escoger un primer elemento de A y ademas un segundo elemento
de B, tiene n m posibles resultados.
En el principio multiplicativo los elementos extrados han sido explcitamente llamados primer y
segundo elemento, para resaltar el hecho que se trata de un par ordenado, de modo que no es lo
mismo extraer (x, y) que (y, x). Esta distincion es importante cuando los conjuntos A y B comparten
elementos, como ser
a com
unmente el caso.
2En n
umero de elementos de un conjunto A se denota por A, y se dice que es la cardinalidad de A.

18

Combinatoria y axiom
atica de probabilidades

2.3 Principios de conteo

Naturalmente, estos principios pueden generalizarse para colecciones finitas: si A1 , . . . , Ak son conjuntos
disjuntos con n1 , . . . , nk elementos respectivamente, entonces el experimento de escoger un elemento de
uno de ellos tiene n1 + + nk posibles resultados. Similarmente, el experimento de extraer un elemento
de cada uno de ellos tiene n1 nk posibles resultados.
Ejemplo 2.7. Una persona tiene 5 camisas, 2 pantalones y 3 corbatas. Entonces puede vestirse
de 5 2 3 = 30 formas distintas.

Ejemplo 2.8. Se lanza un dado equilibrado n veces. Calculemos la probabilidad de que salgan
s
olo n
umeros pares. El espacio muestral corresponde a = {1, . . . , 6}n , con P equiprobable. El
evento en consideraci
on corresponde a que en cada lanzamiento se obtenga un n
umero par, es
decir, E = {2, 4, 6}n . Claramente = 6n y E = 3n , por lo cual
P(E) =

E 3n
=
= (1/2)n .
6n

Supongamos que se dispone de un conjunto A con cardinal n, y que cada vez que se extrae un elemento,
este se anota en una lista ordenada y se devuelve al conjunto. Si este procedimiento se repita k veces,
cu
antas posibles listas resultantes hay?
Notemos que este experimento corresponde a escoger un elemento de cada conjunto A1 , . . . , Ak , donde
todos los Ai son iguales a A. Luego, por el principio multiplicativo, hay
n n = nk
posibles listas resultantes.
Este ejemplo se conoce como muestreo con orden y reposici
on, pues cada elemento extrado es devuelto
al conjunto, y se distingue en que orden fueron apareciendo los elementos. Para poder determinar
cu
antos posibles resultados hay en los otros tipos de muestreo (en que no se distingue el orden o bien
los elementos extrados no son devueltos), necesitaremos una herramienta de conteo mas general.
Proposici
on 2.5 (Principio generalizado de conteo). Sea A un conjunto con n elementos, y por cada
ai A, sea Ai un conjunto con mi elementos. Si se escoge un primer elemento de A, y luego se escoge
un segundo elemento del conjunto Ai correspondiente al ai extrado, entonces hay ni=1 mi posibles
resultados. En particular, si Ai = m para todo i = 1, . . . , n, entonces hay n m posibles resultados.
n. Si se escoge ai de A, hay mi posibilidades para el segundo elemento, lo cual
Demostracio
significa que la cantidad de pares de la forma (ai , b) es mi . Como debe escogerse un u
nico elemento
de A (lo cual fija la primera coordenada del par), por principio aditivo corresponde sumar los posibles
resultados, obteniendo ni=1 mi .


19

2.4 Permutaciones

Combinatoria y axiomatica de probabilidades

2.4
SECCION

Permutaciones
Consideremos el muestreo con orden y sin reposici
on, es decir, supongamos que se dispone de un
conjunto A con n elementos, los cuales se van seleccionando de forma ordenada sin devolverlos al
conjunto, hasta completar una lista de k n elementos. Cuantos resultados posibles hay?
Por cada ai Ai , definimos Ai = A {ai }, es decir, Ai corresponde a los elementos que quedan
disponibles en caso que el primer elemento seleccionado sea ai . Claramente Ai = n1, y por el principio
generalizado de conteo, se tiene que hay n(n 1) formas de extraer los dos primeros elementos.
Adicionalmente, por cada par (ai , aj ) de elementos distintos, definimos Ai,j = A{ai , aj }, de modo que
Ai,j = n 2. Nuevamente por principio generalizado de conteo, se tiene que la cantidad de formas de
seleccionar los tres primeros elementos es la cantidad de formas de escoger los dos primeros multiplicado
por n 2, es decir, n(n 1)(n 2).
As sucesivamente, por inducci
on se obtiene facilmente que la cantidad de listas ordenadas de tama
no
k de elementos distintos extrados de un conjunto con n elementos es
n(n 1) (n k + 1).
Cuando k = n, es decir, cuando se extraen todos los elementos, la lista obtenida corresponde a una
permutaci
on o desorden de A, y la expresion anterior se conoce como el factorial de n: simb]n!:
factorial
n! = n(n 1)(n 2) 1.
Notemos que con esta notaci
on, n(n 1) (n k + 1) = n!/(n k)!. Hemos demostrado:
Proposici
on 2.6. Existen n!/(nk)! formas de extraer k elementos de forma ordenada de un conjunto
de tama
no n. En particular, existen n! permutaciones distintas de un conjunto de tama
no n.
Ejemplo 2.9. Existen 3! = 3 2 1 = 6 permutaciones de las letras a, b y c. Explcitamente, estas
son
abc, acb, bac, cab, bca, cba.

Ejemplo 2.10. De un mazo ingles con 52 cartas se extraen 5 al azar. Cual es la probabilidad
de que sean las 5 de la misma pinta?
Veamos: nuestro espacio muestral consiste de todas las formas posibles de extraer las 5 cartas del
mazo de manera ordenada, el cual tiene 52!/47! elementos. El evento de interes esta conformado
por aquellas formas en las que las cartas extradas son de la misma pinta. Como hay 13 cartas
de cada pinta, para una pinta fija hay 13!/8! formas de que las 5 cartas extradas sean de dicha
pinta. Como son 4 pintas y los casos son excluyentes, se tiene que la probabilidad buscada es
4 13!/8! 4 13 12 11 10 9
=
0,2 %.
52!/47!
52 51 50 49 48

20

Combinatoria y axiom
atica de probabilidades

2.4 Permutaciones

P(E)

0.8
0.6
0.4
0.2
0

10

20

30

40
k

50

60

70

80

Figura 2.1. Probabilidad de que haya al menos dos personas de cumplea


nos un
mismo da en funci
on de la cantidad de personas en el grupo.

Ejemplo 2.11: la paradoja de los cumplea


nos. El problema es: dado un grupo de k personas,
cu
al es la probabilidad de que al menos dos de ellas esten de cumplea
nos el mismo da?
Para responder esta pregunta, consideremos el espacio muestral = {1, . . . , 365}k , correspondiente
a todas las secuencias de das del a
no (ignorando a
nos bisiestos) en que pueden estar de cumplea
nos
las k personas, que suponemos se encuentran ordenadas en una lista. El evento de interes es
E = { i j, i = j }.
Para calcular la probabilidad de este evento, es mas comodo trabajar con su complemento:
E c = { i j, i j }.
Como el espacio es equiprobable, para calcular P(E c ) debemos determinar E c . El evento
E c corresponde al conjunto de todas las listas ordenadas de elementos distintos extrados de
{1, . . . , 365}, lo cual ya sabemos que tiene 365 364 (365 k + 1) posibles resultados. Por lo
tanto, la probabilidad buscada es
k
E c
(365 i + 1)
= 1 i=1

365k
Ocurre que la fracci
on de la derecha, a pesar de ser cercana a 1 para valores peque
nos de k
(digamos, menor que 10), r
apidamente se acerca a 0 a medida que k crece. Por lo tanto, para k
moderado, se vuelve extremadamente probable que haya dos personas de cumplea
nos el mismo
da. Por ejemplo, para k = 41 la probabilidad anterior ya es de un 90 %, y para k = 57 es de un
99 %. El comportamiento de P(E) en funcion de k se aprecia en la figura 2.1.

P(E) = 1 P(E c ) = 1

Aunque no se trate de una real paradoja, este ejemplo se conoce como la paradoja de los cumplea
nos debido a que, a primera vista, resulta poco intuitivo que la probabilidad de que haya
dos personas de cumplea
nos el mismo da sea tan alta a
un cuando se trate de un grupo peque
no.

21

2.5 Subconjuntos

Combinatoria y axiomatica de probabilidades

2.5
SECCION

Subconjuntos
Veamos ahora el muestreo sin orden ni reposici
on: se dispone de un conjunto con n elementos, y se
extraen k n sin devolverlos al conjunto. Si no se distingue el orden en que aparecieron los elementos
extrados, cu
antos posibles resultados hay? O dicho de otra forma: cuantos subconjuntos con k
elementos pueden extraerse de un conjunto de tama
no n?
Consideremos el caso en que s se distingue el orden de aparicion de los elementos extrados, y contemos
de dos formas distintas la cantidad de posibles resultados. Por un lado, ya sabemos que esta cantidad
corresponde a n(n 1)(n k + 1). Por otro lado, cada subconjunto de k elementos puede haberse
extrado de k! formas distintas, una por cada permutacion de sus elementos. Igualando estas dos formas
de conteo, concluimos que
(cantidad subconjuntos de tama
no k) k! = n(n 1)(n k + 1),
es decir, la cantidad buscada es
n(n 1)(n k + 1)
n!
n
=
= ( ),
k!
k!(n k)!
k
lo cual se conoce como coeficiente binomial. simb](nk): coeficiente binomial Obtenemos entonces:
Proposici
on 2.7. Existen (nk) subconjuntos de tama
no k de un conjunto con n elementos.
Ejemplo 2.12. En un grupo de 5 personas se debe escoger un comite con 2 integrantes. Esto
puede hacerse de
54
5
5!
=
= 10
( )=
2! 3!
2
2
formas distintas. Si las personas son a, b, c, d y e, la lista de posibles comites es
ab, ac, ad, ae, bc, bd, be, cd, ce, de.

Ejemplo 2.13. Se dispone de n bolitas blancas indistinguibles entre s, y de m bolitas negras


indistinguibles entre s. De cu
antas formas distintas pueden ponerse las n + m bolitas en una fila?
Suponiendo m n + 1, de cu
antas formas pueden ponerse en fila de modo que no queden dos
bolitas negras juntas?
Veamos lo primero: como las bolitas son indistinguibles, no importa cual bolita queda en cada
posici
on de la fila; todo lo que interesa es saber cuales de las n + m posiciones quedan ocupadas
por bolitas blancas y cu
ales por bolitas negras. Pero al fijar las posiciones de las bolitas blancas,
autom
aticamente el resto queda asignado a las negras. Por lo tanto, basta considerar las formas
de fijar las n posiciones en que ir
an las bolitas blancas dentro de las n + m posiciones disponibles,
)
formas.
lo cual puede hacerse de (n+m
n
El segundo caso requiere de un peque
no truco. La idea es ubicar en una fila las n bolitas blancas
y fijarse en los espacios que quedan entre ellas:

22

Combinatoria y axiom
atica de probabilidades

2.5 Subconjuntos

Si repartimos las bolitas negras de manera que cada una queda ubicada en uno de estos espacios,
nos aseguramos que siempre habr
a al menos una bolita blanca entre cada par de negras. Luego,
basta escoger m espacios para las bolitas negras entre los n + 1 disponibles, lo cual puede hacerse
) formas distintas.
de (n+1
m

En ciertos casos en que se requiere calcular la probabilidad de un determinado evento asociado a


extracciones de elementos, es posible trabajar con el espacio muestral de todas las formas ordenadas
de extracci
on, o bien con todos los posibles subconjuntos.
Ejemplo 2.14. Repitamos el ejemplo 2.10, ahora utilizando subconjuntos. Queremos calcular la
probabilidad de que al sacar 5 cartas al azar de un mazo ingles con 52 cartas, las 5 cartas extradas
tengan la misma pinta.
En este caso, trabajaremos con el espacio equiprobable de todas los subconjuntos de 5 cartas (sin
) elementos. Ademas, fija una
considerar su orden) que pueden extraerse del mazo, el cual tiene (52
5
)
pinta, hay (13
formas
de
que
las
5
cartas
extra
das
sean
de
dicha
pinta.
Luego, la probabilidad
5
buscada es
) 4 13!/(5! 8!) 4 13!/8!
4 (13
5
=
=
0,2 %,
52
52!/(5! 47!)
52!/47!
(5)
lo cual coincide con el resultado obtenido en el ejemplo 2.10.

Dado un conjunto de tama


no n, al escoger un subconjunto de tama
no k estamos separando los n
elementos en dos grupos: los que est
an en el subconjunto y los que no. Consideremos ahora un problema
m
as general: queremos separar los n elementos en m grupos distinguibles de tama
nos predeterminados
n1 , n2 , . . . , nm , donde m
antas formas puede hacerse esto?
i=1 ni = n. De cu
Veamos: sabemos que el primer grupo puede escogerse de (nn1 ) formas distintas. Una vez fijados los
elementos del primer grupo, para determinar el segundo grupo se disponen de n n1 elementos, de
1
) formas. Por principio generalizado de
los cuales se deben escoger n2 , lo cual puede hacerse de (nn
n2
n
nn1
conteo, hay (n1 )( n2 ) formas de escoger los dos primeros grupos.
As sucesivamente, se obtiene que la cantidad de formas en que pueden escogerse los m grupos es
n n n1
n n1 nm1
( )(
)(
).
n1
n2
nm
Desarrollando lo anterior y cancelando terminos, obtenemos una formula mas explcita:
(n n1 )!
(n m1
n!
n!
i=1 ni )!

=
n1 !(n n1 )! n2 !(n n1 n2 )!
nm !(n m
n
)!
n
!n
1
m!
i=1 i
n
= (
),
n1 , . . . , n m
n
): coeficiente multinomial Notemos que
lo cual se conoce como coeficiente multinomial. simb](n1 ,...,n
m
cuando m = 2, necesariamente n2 = n n1 , y por lo tanto se tiene (n1n,n2 ) = (nn1 ). Luego, hemos
demostrado una generalizaci
on de la Proposicion 2.7:
n
) formas de separar n elementos en m grupos distinguibles de
Proposici
on 2.8. Existen (n1 ,...,n
m
m
tama
nos n1 , . . . , nm , donde i=1 ni = n.

23

2.6 Bolitas en urnas

Combinatoria y axiomatica de probabilidades

H
Figura 2.2. Esquema del problema de repartir m bolitas indisinguibles en n urnas
distinguibles.

Ejemplo 2.15. Un grupo de 10 excursionistas debe separarse en dos equipos A y B de tama


nos
4 y 6 respectivamente, y cada equipo debe poseer un jefe. Es decir, deben separarse en 4 grupos
de tama
nos 1, 3 (el jefe y el resto del grupo A), 1 y 5 (el jefe y el resto del grupo B). Por lo tanto,
esto puede hacerse de
10
10!
= 10 9 8 7 = 5040
(
)=
1, 1, 3, 5
1! 1! 3! 5!
maneras distintas.

2.6
SECCION

Bolitas en urnas
Por u
ltimo, consideremos el muestreo sin orden y con reposici
on: se extraen m elementos de un conjunto
de tama
no n, de modo tal que despues de cada extraccion se devuelve el elemento al conjunto, y sin
tomar en cuenta el orden de aparici
on de los elementos (es decir, solo interesa saber la cantidad de
veces apareci
o cada uno). De cu
antas formas puede hacerse esto?
Una forma equivalente de ver el problema es considerando m bolitas indistinguibles, las cuales deben
repartirse en n urnas distinguibles, como se ilustra en la figura 2.2. Cada urna representa uno de los
elementos del conjunto, y escoger una urna para una bolita corresponde a extraer el elemento asociado
a dicha urna.
Para determinar la cantidad de formas de repartir las bolitas en las urnas, consideremos n 1 objetos
adicionales, que representan las separaciones entre las urnas. Ubicaremos las m bolitas y las n 1
separaciones en una fila con m + n 1 posiciones disponibles, de manera que las bolitas que quedan
entre la separaci
on i 1 y la i representan las bolitas que quedan en la urna i-esima:

24

Combinatoria y axiom
atica de probabilidades

2.6 Bolitas en urnas

urna 1

urna 2

urna 3

urna n

Esto genera una asociaci


on uno a uno entre las formas de organizar a las m bolitas y las n 1
separaciones en una fila y las formas de repartir las bolitas en las urnas, lo que implica que ambos
procedimientos poseen la misma cantidad de posibles resultados. Sin embargo, determinar esta cantidad
en el primer caso es directo: basta con escoger donde quedaran ubicadas las n 1 separaciones entre
) formas. Obtenemos:
las m + n 1 posiciones disponibles, lo cual puede hacerse de (m+n1
n1
) formas de extraer m elementos con reposici
Proposici
on 2.9. Existen (m+n1
on de un conjunto de
n1
tama
no n, sin considerar el orden de extracci
on.

Ejemplo 2.16. En una determinada zona marina, existen 3 especies de peces: a, b y c. Si se


extrae una muestra de 3 peces, hay
3+31
5
54
(
)=( )=
= 10
31
2
2
posibles muestras resultantes. Explcitamente, estas son:
aaa, aab, aac, abb, abc, acc, bbb, bbc, bcc, ccc.

Como ya dijimos, en el muestreo con reposicion y sin orden solamente interesa saber cuantas veces
aparece el elemento i-esimo, para todo i = 1, . . . , n. Si llamamos ki , i = 1, . . . , n a estas cantidades,
entonces ellas conforman una soluci
on a valores enteros no negativos de la ecuacion
k1 + + kn = m.
Por lo tanto, la Proposici
on 2.9 se expresa equivalentemente diciendo que la ecuacion anterior posee
(m+n1
)
soluciones
enteras
no negativas.
n1
Ejemplo 2.17. La ecuaci
on u + v + w + x + y + z = 3 posee
3+61
8
876
(
)=( )=
= 56
61
32
5
soluciones enteras no negativas. Ve
amoslo explcitamente: hay 3 tipos de soluciones: las que asignan
el valor 3 a una variable y 0 al resto, las que asignan 2 y 1 a dos variables y 0 al resto, y las que
asignan 1 a tres variables y 0 al resto. Del primer tipo, hay 6 soluciones, una por cada variable; del
segundo tipo, hay 6 5 soluciones, pues debe escogerse una variable para asignar el valor 2 y otra
para asignar el valor 1; del u
ltimo tipo, hay (63) soluciones, pues deben escogerse las 3 variables a
las que se les asignar
a el valor 1. En total, son
6
654
6 + 6 5 + ( ) = 6 + 30 +
= 36 + 20 = 56.
3
32

25

2.7 Axiom
atica de probabilidades

Combinatoria y axiomatica de probabilidades

2.7
SECCION

Axiom
atica de probabilidades
Todos poseemos cierta noci
on intuitiva acerca de los fenomenos aleatorios que ocurren en la cotidianeidad y sobre que significan sus probabilidades asociadas. Para nosotros, un fenomeno aleatorio es tal
que es imposible predecir su resultado con exactitud. El ejemplo mas sencillo corresponde a lanzar una
moneda y observar si sale cara o sello: la gran cantidad de variables involucradas en el experimento,
como la fuerza y el
angulo con que se lanza la moneda, la densidad del aire, las rugosidades del suelo,
etc., hacen imposible predecir su resultado. Otros ejemplos sencillos son: el tiempo que tarda en pasar
el autob
us en el paradero, la temperatura maxima diaria en una ciudad, la cantidad de personas que
asisten a un espect
aculo deportivo, etc.
Nuestro objetivo en este captulo es presentar las bases de una teora matematica de probabilidades
que nos sirva para modelar, comprender y analizar fenomenos aleatorios concretos. Estas bases se
desarrollan a partir de los axiomas de probabilidad.
Por que utilizar axiomas abstractos para modelar fenomenos de la vida real? Volvamos al ejemplo del
lanzamiento de la moneda. Supongamos que esta se lanza n veces, y denotemos c(n) a la cantidad de
caras que se observan. Intuitivamente, si la moneda no esta cargada, uno espera que la cantidad c(n)/n
se parezca a 1/2. Sin embargo, es de esperar que haya diferencias entre estas cantidades, en particular
cuando n es peque
no: si se lanza la moneda 10 veces es perfectamente razonable que se observen 6 caras
y 4 sellos; si se lanza 100 veces a
un es aceptable que haya 60 caras y 40 sellos. Pero cuando se lanza
1000 veces ya parece sospechoso que se observen 600 caras y 400 sellos. En otras palabras, la intuici
on
sugiere que c(n)/n debe parecerse a 1/2 cuando n es grande, es decir, se espera que c(n)/n 1/2
cuando n .
En general, si se dispone de un experimento aleatorio que se repite n veces, y E es un resultado posible
del experimento, si denotamos e(n) a la cantidad de veces que ocurre el resultado E en las primeras
n repeticiones, lo que la intuici
on sugiere es que
e(n)
= Probabilidad(E).
(2.1)
lm
n n
Esto parece indicar que la forma correcta de definir la probabilidad del resultado E es mediante el
lmite de la ecuaci
on anterior. Sin embargo, este enfoque presenta serios problemas: como asegurarse
que el lmite existe?, a
un suponiendo que existe, como saber que al volver a repetir el experimento
muchas veces el lmite sigue siendo el mismo?, como extraer propiedades u
tiles?
La idea de construir una teora axiom
atica de probabilidades busca justamente evitar estos inconvenientes tecnicos, para lo cual se definen las propiedades teoricas basicas (axiomas) que debiera cumplir
cualquier funci
on que represente una probabilidad. A partir de estas propiedades basicas iremos obteniendo otras m
as sofisticadas, hasta eventualmente concluir que (2.1) se satisface (bajo ciertas condiciones) como un teorema y no como una definicion. De todas formas, dicha ecuacion sigue representando
nuestra noci
on intuitiva de probabilidad, as que conviene siempre tenerla en consideracion.

26

Combinatoria y axiom
atica de probabilidades

2.8 Axiomas de probabilidad

2.8
SECCION

Axiomas de probabilidad
Dado un espacio muestral , queremos asignarle un n
umero a cualquier evento E, (que llamaremos
probabilidad de E), que capture las nociones intuitivas que uno tiene acerca de la probabilidad. Una
de estas nociones es que si se dispone de dos eventos disjuntos, entonces la probabilidad de que ocurra
cualquiera de ellos debe ser la suma de las probabilidades individuales, como se muestra en el siguiente
ejemplo.
Ejemplo 2.18. Consideremos el experimento de lanzar un dado equilibrado, cuyo espacio muestral es = {1, 2, 3, 4, 5, 6}, y los eventos E = {2, 4, 6}, F = {1, 3} y G = {3, 4}. Como el dado
est
a equilibrado, intuitivamente debera cumplirse que la probabilidad de un evento fuese la proporci
on de elementos del evento sobre el total de posibles resultados, es decir
3
2
Probabilidad(E) = , Probabilidad(F ) = = Probabilidad(G).
6
6
Notemos adem
as que como E F = {1, 2, 3, 4, 6}, se cumple
5
Probabilidad(E F ) = = Probabilidad(E) + Probabilidad(F ),
6
es decir, para los eventos E y F se cumple que la probabilidad de su union es la suma de sus
probabilidades. Sin embargo, esto no se cumple para los eventos E y G, pues E G = {2, 3, 4, 6},
y entonces
4 5
Probabilidad(E G) = = Probabilidad(E) + Probabilidad(G).
6 6
Obviamente, la diferencia fundamental entre ambos casos es que E y G tienen un elemento en
com
un, mientras que E y F no.

A diferencia del ejemplo anterior, los axiomas de probabilidad, que enunciaremos a continuacion, no
nos dir
an que valores particulares debe tomar esta funcion, sino que especificaran que reglas basicas
debe cumplir. Recordemos que P() denota la coleccion de todos los subconjuntos de , es decir, la
colecci
on de todos los posibles eventos.
Definici
on 2.10. Dado un espacio muestral , una probabilidad es una funcion P P() R
que satisface las siguientes tres propiedades:
Axioma 1:: 0 P(E) 1, E .
Axioma 2:: P() = 1.
Axioma 3:: Para toda colecci
on numerable de eventos (Ei )iN disjuntos de a pares, es decir,
Ei Ej = , i j, se cumple que
(2.2)

P ( Ei ) = P(Ei ).
iN

iN

El par (, P) se denomina espacio de probabilidad.


27

2.8 Axiomas de probabilidad

Combinatoria y axiomatica de probabilidades

El axioma 1 dice que P(E) siempre debe ser un n


umero entre 0 y 1, lo cual concuerda con nuestra
intuici
on de que la probabilidad representa la frecuencia observada del evento E cuando se repite
muchas veces el experimento. El axioma 2 dice simplemente que contiene todos los posibles resultados
del experimento, sin dejar nada fuera. El axioma 3 es el que mas informacion contiene. Nos dice que
la uni
on de una colecci
on numerable de eventos disjuntos debe tener probabilidad igual a la suma de
las probabilidades de cada evento de la coleccion, lo que corresponde a una version mas completa de la
propiedad ilustrada en el ejemplo 2.18. Es usualmente el axioma 3 el que se utiliza para probar todas
las propiedades que satisfacen los espacios de probabilidad.
Ejemplo 2.19. Consideremos el lanzamiento de una moneda, con espacio muestral = {c, s}.
Notemos que la colecci
on de todos los eventos de es
P() = {, {c}, {s}, }.
Para definir una probabilidad sobre este espacio muestral, debemos de definir P(E) para todo
E P() tal que se cumplan los 3 axiomas. Por el axioma 2, sabemos que P() = 1; ademas,
es intuitivo (y pronto lo demostraremos) que se tenga P() = 0. Para los otros dos eventos
disponemos de cierta holgura. Una posible opcion es que P({c}) = 1/2 = P({s}), pero no es la
u
nica. En general, para cualquier n
umero p [0, 1] se tiene que la funcion P definida por
P() = 0, P({c}) = p, P({s}) = 1 p, P() = 1
es una probabilidad para el espacio muestral (es decir, se cumplen los axiomas). La eleccion
de p depende de que caso se quiere modelar: si la moneda esta equilibrada, entonces p = 1/2 es
adecuado, pero si la moneda est
a cargada hacia la cara, entonces un p > 1/2 debe escogerse.

Ejemplo 2.20. Se dispone de una urna con 20 bolitas numeradas del 1 al 20, de la cual se
extrae una bolita al azar. El conjunto de todos los posibles resultados de este experimento es
= {1, . . . , 20}. Definimos una probabilidad P sobre este espacio muestral como
E
, E ,

es decir, la probabilidad de E es la proporcion de elementos de E sobre el total de elementos de


, lo cual representa bien el hecho que la extraccion de la bolita se realiza al azar. Para el evento
E en que la bolita extrada es un n
umero primo, se tiene entonces
{2, 3, 5, 7, 11, 13, 17, 19}
8
2
P(E) =
=
= .
20
20 5
P(E) =

Observaci
on 2.1. Hemos definido una probabilidad como una funcion de P() en R que cumple
ciertos axiomas. Esta definici
on funciona bien cuando es un conjunto finito o numerable, pero
ciertos problemas tecnicos aparecen cuando se considera un espacio muestral con una cantidad infinito
no-numerable de elementos. Por esta razon, se trabaja con una coleccion F P()
llamada -
algebra (que ser
a estrictamente mas peque
na que P() cuando sea infinito no-numerable),
y se pide que P sea una funci
on de F en R cumpliendo los axiomas (los eventos seran los elementos
de F). Sin embargo, para efectos de nuestra presentacion, la -algebra agrega complicaciones tecnicas
innecesarias, por lo cual trabajaremos sin ella.

28

Combinatoria y axiom
atica de probabilidades

2.9 Propiedades basicas

2.9
SECCION

Propiedades b
asicas
Utilizaremos el smbolo para denotar la union disjunta de eventos. Notemos que le estamos dando
un uso doble: es a la vez un operador de conjuntos y una afirmacion. Veamos una primera propiedad:
Proposici
on 2.11. Sea (, P) espacio de probabilidad. Entonces P() = 0.
n. Por axioma 1, sabemos que 0 P() 1. Tomando Ei = i N y aplicando
Demostracio
el axioma 3, tenemos entonces:
1 P() = P ( ) = P().
iN

iN

Si P() > 0, se obtiene 1 , una contradiccion. Luego, necesariamente P() = 0.


Proposici
on 2.12. Sea

(Ei )ni=1

una colecci
on finita de eventos disjuntos de a pares. Entonces
n

i=1

i=1

P ( Ei ) = Ei .
n. Definir Ei = para i > n y aplicar el axioma 3 y el hecho que P() = 0.
Demostracio

La proposici
on anterior es la versi
on finita del axioma 3, y es la que se ocupa usualmente en los
problemas pr
acticos y propiedades b
asicas, como en la proposicion 2.13. Seguiremos ocupando la
expresi
on axioma 3, ya sea para referirnos a la version finita o a la version numerable.
En el ejemplo 2.19 hemos definido explcitamente P(E) para cada evento E por separado. En general,
dado un espacio muestral finito con n elementos, la cantidad de eventos es 2n , lo cual es demasiado
grande como para definir P(E) caso por caso. Sin embargo, esto no es necesario. En efecto, sea espacio
de probabilidad (, P) con finito o numerable, digamos = {1 , 2 , . . .}. Se tiene que todo evento E
es la uni
on disjunta de sus singletons, que son una cantidad finita o numerable, y aplicando el axioma
3, obtenemos que
(2.3)

P(E) = P ( {i }) = P({i }).


i E

i E

Es decir, la probabilidad de cualquier evento queda definida por las probabilidades de los singletons. En
otras palabras, basta definir P({wi }) = pi para todo i (con pi 0 tales que i pi = 1) y automaticamente
queda definida P(E) para todo evento E. Notemos que este procedimiento no puede replicarse cuando
es infinito no-numerable, pues como la union de los singletons ya no sera finita ni numerable, no
podremos aplicar el axioma 3 para concluir (2.3).
Ejemplo 2.21. (Difcil) En el experimento de lanzar una moneda n veces, con espacio muestral
= {0, 1}n , donde 1 y 0 representan cara y sello respectivamente, se desea definir una
probabilidad de manera tal que cada lanzamiento posea probabilidad p de cara y probabilidad
1 p de sello. Para tal efecto definimos la probabilidad de los singletons como
n

P({}) = p i (1 p)n i = pi (1 p)1i ,


i=1

29

2.9 Propiedades b
asicas

Combinatoria y axiomatica de probabilidades

con = (1 , . . . , n ), donde i representa el resultado obtenido en el lanzamiento i-esimo. Es


decir, la probabilidad de {} corresponde a multiplicar por p tantas veces como caras haya en
la tupla , y multiplicar por 1 p por cada sello. Con esto, podemos calcular la probabilidad de
cualquier evento; por ejemplo, para cada k fijo, aplicando (2.3) se obtiene
P(lanzamiento k sale cara) = P({ k = 1})
= P({})
k =1

= pi (1 p)1i
k =1 i=1

= p pi (1 p)1i
k =1 ik

= p,
donde hemos utilizado que la u
ltima suma vale 1, lo cual puede probarse facilmente por induccion
en n. An
alogamente se prueba que la probabilidad de que el lanzamiento k-esimo salga sello es
1 p, como dese
abamos.
La siguiente proposici
on nos entrega propiedades basicas u
tiles de una probabilidad.
Proposici
on 2.13. Sea (, P) espacio de probabilidad, sean E, F eventos. Entonces:
1. P(E c ) = 1 P(E).
2. Si E F entonces P(E) P(F ), es decir, P() es una funci
on creciente de conjuntos.
3. P(E F ) = P(E) + P(F ) P(EF ).
n.
Demostracio

1. Usando el axioma 3, tenemos:


1 = P() = P(E E c ) = P(E) + P(E c ).

2. Notemos que F = EF E c F . Pero como E F , se tiene que EF = E. Luego:


P(F ) = P(E E c F ) = P(E) + P(E c F ) P(E).
3. Nuevamente utilizamos una union disjunta:
P(E F ) = P(EF c E c F EF )
= P(EF c ) + P(E c F ) + P(EF )
= [P(EF c ) + P(EF )] + [P(E c F ) + P(EF )] P(EF )
= P(EF c EF ) + P(E c F EF ) P(EF )
= P(E) + P(F ) P(EF ).

Hay ocasiones en que para calcular la probabilidad de un cierto evento, resulta mas facil calcular la
probabilidad de su complemento, y luego utilizar la parte 1 de la proposicion anterior.
En la proposici
on 2.13 se prob
o que para cualquier par de eventos E y F , se tiene que P(E F ) =
P(E) + P(F ) P(EF ), lo cual implica que P(E F ) P(E) + P(F ). A partir de esto, por induccion se
prueba f
acilmente que para cualquier coleccion finita E1 , . . . , En de eventos se cumple
n

i=1

i=1

P ( Ei ) P(Ei ).
Esta propiedad se conoce como la desigualdad de Boole, incluso se puede generalizar esto al caso
de una colecci
on numerable de eventos.
30


MODULO

Probabilidades condicionales y variables discretas

Hay ocasiones en que se desea calcular la probabilidad de un determinado evento cuando se dispone
de cierta informaci
on parcial acerca del resultado del experimento aleatorio.
Ejemplo 3.1. Se lanzan dos dados equilibrados. Cual es la probabilidad de que aparezca al
menos un 6? Supongamos adicionalmente que se sabe que la suma de los dados es 9 o mas.
Cu
anto vale ahora la probabilidad anterior?
Veamos: el espacio muestral equiprobable es = {1, . . . , 6}2 , donde = (1 , 2 ) es tal que i
denota el resultado del dado i. Sea E el evento en que aparece al menos un 6. Tenemos:
E c
25 11
P(E) = 1 P(E c ) = 1
=1
= ,

36 36
donde hemos usado que E c = 5 5 ya que ambos dados deben ser distintos de 6, lo cual tiene 5
formas de ocurrir.
Por otro lado, llamemos F al evento en que la suma de los dados es 9 o mas. Como sabemos que
el resultado del experimento es un elemento de F , ahora el conjunto de los posibles resultados
queda reducido a este conjunto. Calculando probabilidades en este nuevo contexto contando casos
favorables y dividiendo por los casos posibles, tenemos que la nueva probabilidad de E es
P(E dado que resultado esta en F )
casos favorables de E en F
casos totales de F
EF
=
F
{(3, 6), (6, 3), (4, 6), (6, 4), (5, 6), (6, 5), (6, 6)}
=
{(3, 6), (4, 5), (5, 4), (6, 3), (4, 6), (5, 5), (6, 4), (5, 6), (6, 5), (6, 6)}
7
= .
10
=

Como se muestra en el ejemplo anterior, la probabilidad del evento cambio al considerar informaci
on
adicional sobre el resultado del experimento, lo cual nos indica que tiene sentido estudiar que pasa en
general en situaciones similares. En este captulo le daremos sentido a la probabilidad de un evento
dada cierta informaci
on parcial, y veremos propiedades u
tiles al respecto.
31

3.1 Probabilidad condicional

Probabilidades condicionales y variables discretas

3.1
SECCION

Probabilidad condicional
En el ejemplo 3.1 el espacio era equiprobable, lo cual permitio calcular la probabilidad de E dado que
el resultado del experimento est
a en F utilizando los casos favorables sobre casos posibles relativos a
F , es decir
EF EF P(EF )
(3.1)
=
=
.
F
F
P(F )
En general, consideremos dos eventos E y F de un espacio de probabilidad (, P) cualquiera. Queremos
definir la probabilidad de E dado que el resultado esta en F en este contexto general. Como el espacio
no necesariamente es equiprobable, no tiene sentido volver a utilizar los casos favorables sobre casos
posibles relativos a F , pero s podemos ocupar la expresion de la derecha de (3.1). Esto motiva:
Definici
on 3.1. Sean E y F dos eventos tales que P(F ) > 0. Definimos la probabilidad condicional
simb]P(E F ): probabilidad condicional de E dado F como
P(E F ) =

P(EF )
.
P(F )

La definici
on anterior corresponde a calcular la probabilidad del evento E considerando solo la parte
que est
a en el evento F sobre el cual se esta condicionando, y normalizando por la probabilidad de F .
Ejemplo 3.2. En un jardn infantil hay 5 ni
nos y 10 ni
nas en el curso A y hay 9 ni
nos y 6 ni
nas
en el curso B. Se juntan ambos cursos y se escoge un alumno al azar. Cual es la probabilidad de
que el alumno sea del curso A si se sabe que es una ni
na?
Veamos: si llamamos E al evento en que el alumno proviene del curso A y F al evento en que
el alumno escogido es una ni
na, queremos calcular P(E F ). Por definicion de probabilidad
condicional, obtenemos:
P(EF ) 10/30 5
P(E F ) =
=
= .
P(F )
16/30 8

Con la definici
on de probabilidad condicional podemos evitar caer en errores producto de una mala
intuici
on.
Ejemplo 3.3. Un matrimonio tiene 2 hijos, de modo que cada hijo es varon o mujer con igual
probabilidad. Se sabe que al menos uno de ellos es varon, y alguien afirma que la probabilidad de
que ambos sean varones es de 1/2, pues debe ocurrir que el otro hijo tambien lo sea. Que puede
decirse al respecto?
Llamemos A al evento en que al menos uno de los hijos es varon y B al evento en que ambos lo
son. Notemos que P(A) = 3/4, pues el complemento corresponde a que ambos hijos sean mujer, lo
32

Probabilidades condicionales y variables discretas

3.2 Reglas de Bayes y de probabilidades totales

que tiene probabilidad 1/4. La probabilidad buscada es entonces


P(B A) =

P(BA) P(B) 1/4


=
=
= 1/3.
P(A)
3/4
3/4

La principal propiedad de la probabilidad condicional se obtiene facilmente sabiendo que P() es una
funci
on de probabilidad:
Proposici
on 3.2. Sea (, P) un espacio de probabilidad y F un evento fijo tal que P(F ) > 0. Entonces
= P( F ) es tal que (, P)
es un espacio de probabilidad.
la funci
on P()
cumple los axiomas. Los dos primeros se obtienen di n. Debemos probar que P
Demostracio
rectamente del hecho que P es una funcion de probabilidad. Para ver el tercer axioma, consideremos
eventos disjuntos de a pares (En )nN :
n ),
( En ) = P (F nN En ) = P (nN En F ) = P(En F ) = P(E
P
P(F )
P(F )
nN
nN P(F )
nN
donde hemos utilizado el hecho que los eventos (En F )nN son disjuntos de a pares, y que P() cumple
el tercer axioma.

3.2
SECCION

Reglas de Bayes y de probabilidades totales


En muchos problemas pr
acticos se dispone de dos eventos A y B, y los datos del problema entregan
explcitamente el valor de P(A B). Para calcular P(B A), se utiliza lo siguiente:
Proposici
on 3.3 (Regla de Bayes). Dados A, B eventos con probabilidad no nula, se cumple que
P(B A) =
n.
Demostracio
P(B A) =

P(A B)P(B)
.
P(A)

P(BA) P(BA) P(B) P(A B)P(B)


=
=
.
P(A)
P(B) P(A)
P(A)

Ejemplo 3.4. En un torneo de f


utbol se utiliza un test para detectar consumo de drogas en los
jugadores. Cuando se aplica el test a un jugador que consume drogas, hay un 90 % de probabilidad
que el test de positivo; adem
as, cuando el test se aplica a un jugador que no consume, hay un 5 %
de probabilidad de que el test de positivo. Se estima que un 2,5 % de los jugadores consume drogas.
Se escoge un jugador al azar, se le aplica el test, y este da positivo. Cual es la probabilidad de
que el jugador efectivamente sea consumidor?

33

3.2 Reglas de Bayes y de probabilidades totales

Probabilidades condicionales y variables discretas

Consideremos los eventos


A test da positivo
B jugador consume drogas.
Queremos calcular P(B A), para lo cual utilizamos la regla de Bayes:
P(A B)P(B) 90 % 2,5 %
=
,
P(A)
P(A)
donde hemos utilizado que la probabilidad de que el test de positivo dado que el jugador consume
drogas es de un 90 %. Para calcular P(A), hacemos lo siguiente:
P(B A) =

P(A) = P(AB AB c )
= P(AB) + P(AB c )
P(AB)P(B) P(AB c )P(B c )
+
P(B)
P(B c )
= P(A B)P(B) + P(A B c )P(B c )
=

(3.2)

= 90 % 2,5 % + 5 % 97,5 %
= 7,125 %,
donde ahora hemos utilizado adicionalmente que la probabilidad de que el test de positivo cuando
el jugador no consume es de un 5 %. Finalmente, obtenemos:
90 % 2,5 %
P(B A) =
31,6 %.
7,125 %
Notemos que en principio uno espera que cuando el test da positivo, sea altamente probable que
el jugador consuma drogas. Sin embargo el resultado obtenido nos dice que esto no es as.

El desarrollo realizado en (3.2) corresponde a una propiedad general muy u


til, que permite calcular la
probabilidad de un evento condicionando en otros eventos:
Proposici
on 3.4 (Regla de probabilidades totales). Sea A un evento, y sea E1 , . . . , En una colecci
on
finita de eventos con probabilidad no nula, tales que forman una partici
on de , es decir, son disjuntos
y = ni=1 Ei . Entonces
n

P(A) = P(A Ei )P(Ei ).


i=1

n. Descomponiendo A en las partes que estan en cada uno de los Ei , y utilizando


Demostracio
el axioma 3, tenemos:
n

i=1

i=1

P(A) = P ( AEi ) = P(AEi )

P(Ei ) n
= P(A Ei )P(Ei ).
P(Ei ) i=1

Observaci
on 3.1. La propiedad anterior se extiende analogamente al caso de una coleccion numerable
(Ei )iN de eventos, siempre que ellos formen una particion de .
Con las reglas de Bayes y de probabilidades totales puede resolverse una gran variedad de problemas
pr
acticos.

34

Probabilidades condicionales y variables discretas

3.3 Independencia de eventos

Ejemplo 3.5. Un ratoncito escoge al azar uno de tres posibles laberintos. Si escoge el primero, la
probabilidad de que encuentre su queso de premio es de 1/2, si escoge el segundo la probabilidad es
de 1/4, y si escoge el tercero la probabilidad es de 1/8. Cual es la probabilidad de que encuentre
su queso? Si se sabe que lo encontro, cual es la probabilidad de que haya escogido el primer
laberinto?
Consideremos los eventos
Q el ratoncito encuentra su queso
Li escogio el laberinto i, para i = 1, 2, 3.
Primero, calculemos P(Q), para lo cual utilizamos la regla de probabilidades totales:
P(Q) = P(Q L1 )P(L1 ) + P(Q L2 )P(L2 ) + P(Q L3 )P(L3 )
1 1 1 1 1 1
= + +
2 3 4 3 8 3
7
= .
24
Ahora debemos calcular P(L1 Q), para lo cual nos sirve la regla de Bayes:
P(L1 Q) =

P(Q L1 )P(L1 ) 1/2 1/3 4


=
= .
P(Q)
7/24
7

3.3
SECCION

Independencia de eventos
Como hemos visto en los ejemplos, la probabilidad de un evento E puede cambiar (y usualmente as es)
cuando se condiciona en la ocurrencia de otro evento F . En otras palabras, en muchos casos P(E) es
distinto de P(E F ), lo cual nos dice hay una cierta dependencia entre los eventos. Sin embargo, hay
casos en que P(E F ) coincide con P(E), y entonces interpretamos que no existe tal dependencia.
Notemos que esto ocurre si y s
olo si
P(EF )
P(E) = P(E F ) =
,
P(F )
lo cual motiva lo siguiente:
Definici
on 3.5. Dados dos eventos E y F , decimos que ellos son independientes, anotado E F ,
si
P(EF ) = P(E)P(F ).
Notemos que esta noci
on es simetrica, es decir, decir E F equivale a F E. Se cumple una propiedad
sencilla:
Proposici
on 3.6. Si E F , entonces E F c .
35

3.3 Independencia de eventos

Probabilidades condicionales y variables discretas

n. Debemos probar que P(EF c ) = P(E)P(F c ). Veamos:


Demostracio
P(E) = P(EF EF c ) = P(EF ) + P(EF c ) = P(E)P(F ) + P(EF c ).
Despejando P(EF c ), obtenemos:
P(EF c ) = P(E) P(E)P(F ) = P(E)[1 P(F )] = P(E)P(F c ).

La independencia de eventos se utiliza usualmente como una forma de comprender la manera en que
se realiza un experimento, y no tanto como una propiedad que deba demostrarse.
Ejemplo 3.6. Se dispone de una moneda con probabilidad p de cara, y se lanza n veces de manera
independiente. Cu
al es la probabilidad de que todos los lanzamientos resulten en cara?
Veamos: si llamamos Ci al evento en que se obtiene cara en el lanzamiento i-esimo, de los datos
del problema se deduce que estos eventos son independientes, de modo que la probabilidad de la
ocurrencia simult
anea de todos ellos es el producto de sus probabilidades:
n

i=1

i=1

i=1

P(cara en todos los lanzamientos) = P ( Ci ) = P(Ci ) = p = pn .

En el ejemplo anterior hemos utilizado una nocion mas general de independencia, que es valida para
colecciones arbitrarias de eventos.
Definici
on 3.7. Dada una colecci
on de eventos (Ei )iI , decimos que ellos son independientes si
para toda colecci
on finita de ndices distintos i1 , . . . , in , se tiene que
n

j=1

j=1

P ( Eij ) = P(Eij ).

Notemos que cuando se trata de una coleccion de mas de 2 eventos, debe cumplirse que la probabilidad
de la intersecci
on sea igual al producto de las probabilidades para cualquier sub-coleccion finita. En
particular, no basta verificarlo s
olo para los pares de eventos.
Ejemplo 3.7. Se lanza una moneda equilibrada dos veces de manera independiente. Sea A el
evento en que la primera moneda cae cara, B el evento en que la segunda moneda cae cara, y C
el evento en que ambas monedas caen para el mismo lado. Queremos estudiar la independencia
de estos eventos.
El espacio muestral corresponde a = {cc, cs, sc, ss}, el cual es equiprobable. En este , los
eventos se escriben como A = {cc, cs}, B = {cc, sc} y C = {cc, ss}. Claramente se tiene que
P(A) = P(B) = P(C) = 1/2. Notemos que A, B y C son independientes de a pares, pues:
P(AB) = P({cc}) = 1/4 = P(A)P(B),
P(AC) = P({cc}) = 1/4 = P(A)P(C),
P(BC) = P({cc}) = 1/4 = P(B)P(C).
Sin embargo, A, B y C no son conjuntamente independientes, pues
P(ABC) = P({cc}) = 1/4 1/8 = P(A)P(B)P(C).

36

Probabilidades condicionales y variables discretas

3.3 Independencia de eventos

En algunos ejemplos la independencia se obtiene solo cuando se condiciona en la ocurrencia de un


determinado evento. Esto se conoce como independencia condicional
Definici
on 3.8. Sean E, F y G eventos, con P(G) > 0. Decimos que E y F son condicionalmente
independientes con respecto a G si ellos son independientes bajo la probabilidad P( G), es decir,
si se cumple
P(EF G) = P(E G)P(F G).

Ejemplo 3.8. Se dispone de una moneda equilibrada y de otra moneda con probabilidad 3/4 de
cara. Se escoge una moneda al azar y se lanza dos veces de manera independiente. Sean E el evento
en que se obtiene cara en el primer lanzamiento, y F el evento en que el segundo lanzamiento
resulta cara. Queremos estudiar la independencia entre E y F .
Sea G el evento en que se escoge la moneda equilibrada. Calculemos P(E) utilizando la regla de
probabilidades totales:
P(E) = P(E G)P(G) + P(E Gc )P(Gc )
= (1/2) (1/2) + (3/4) (1/2)
= 5/8.
Para P(F ) el c
alculo es identico, obteniendo tambien 5/8.
Notemos que los lanzamientos son independientes, pero solo una vez que se ha escogido la moneda.
Es decir, E y F son condicionalmente independientes con respecto a G y con respecto a Gc . Luego:
P(EF ) = P(EF G)P(G) + P(EF Gc )P(Gc )
= P(E G)P(F G)P(G) + P(E Gc )P(F Gc )P(Gc )
= (1/2) (1/2) (1/2) + (3/4) (3/4) (1/2)
= 13/32.
Esto nos permite calcular P(F E):
P(F E) =

P(F E) 13/32
=
= 13/20.
P(F )
5/8

Notemos que P(F ) = 5/8 = 25/40 < 26/40 = 13/20 = P(F E). Es decir, al condicionar en el evento
en que el primer lanzamiento sale cara aumenta levemente la probabilidad de que la segunda
moneda tambien salga cara. Esto se debe a que si uno conoce el resultado del primer lanzamiento,
eso entrega indicios acerca de cu
al fue la moneda escogida, lo cual afecta las probabilidades del
segundo lanzamiento.

37

3.5 Definiciones y propiedades generales

Probabilidades condicionales y variables discretas

3.4
SECCION

Variables aleatorias
En muchas situaciones, para describir a cabalidad los posibles resultados de un experimento aleatorio,
hay que considerar un espacio de probabilidad (, P) donde es desmesuradamente grande o complejo.
Si se necesita centrar el an
alisis s
olo en una determinada cantidad asociada al resultado, tal vez trabajar
explcitamente en dicho espacio muestral agruegue demasiadas complicaciones practicas.
Por ejemplo, consideremos el experimento aleatorio de lanzar una moneda equilibrada 100 veces. El
espacio muestral que describe todas las posibles secuencias es = {c, s}100 , el cual posee 2100 1,31030
elementos! Sin embargo, si solamente interesa saber cuantas caras se obtuvieron, la cantidad buscada
ser
a un n
umero entero entre 0 y 100, lo cual es bastante mas manejable.
O si se desea estudiar el estado del tiempo en una determinada zona, la cantidad de informaci
on
necesaria que debe ser incluida en el espacio de probabilidad, de manera que se describa a cabalidad
dicho estado, es demasiado grande. Pero esta informacion se torna redundante si solo se quiere estudiar
la temperatura, o la presi
on, o la direccion del viento en un determinado punto de la zona en un cierto
instante.
En casos como los anteriores el espacio de probabilidad (, P) se deja implcito y se trabaja directamente con la variable de interes.
3.5
SECCION

Definiciones y propiedades generales

Definici
on 3.9. Una variable aleatoria es una funcion X R, donde (, P) es un cierto
espacio de probabilidad.

Las variables aleatorias ser


an nuestro objeto central de estudio durante este y los proximos captulos.
Se denotan usualmente con letras may
usculas: X, Y , Z, U , V , etc.
Ejemplo 3.9. Sea X la variable aleatoria que denota el n
umero de caras que se obtienen al lanzar
una moneda equilibrada 3 veces. Queremos dar un espacio de probabilidad (, P) adecuado y
escribir explcitamente X como funcion de en R.
Veamos: trabajemos en = {0, 1}3 , donde 1 denota cara y 0 denota sello. La funcion P
asociada es la definida en el ejemplo 2.21 tomando n = 3 y p = 1/2, es decir, la probabilidad de un
singleton viene dada por
n

P({}) = pi (1 p)1i = (1/2)3 ,


i=1

38

Probabilidades condicionales y variables discretas

3.5 Definiciones y propiedades generales

donde = (1 , 2 , 3 ). La ventaja de ocupar {0, 1} en lugar de {s, c} es que podemos escribir


directamente la variable X como funcion de en R mediante
X() = 1 + 2 + 3 .
Es claro que esta funci
on representa efectivamente la cantidad de caras, pues se suma 1 por cada
cara obtenida y se suma 0 por cada sello.
Observaci
on 3.2. Tecnicamente, una variable aleatoria X se define como una funcion medible de
en R. Esto significa que para todo A B(R), el conjunto X 1 (A) esta en F, donde F es la -algebra
sobre la que est
a definida la probabilidad P, ver observacion 2.1. Aca, B(R) es la -algebra boreliana
en R, la cual contiene todos los conjuntos de interes en la practica (por ejemplo, intervalos y uniones e
intersecciones numerables de ellos). En otras palabras, una variable aleatoria es una funcion X R
tal que para todo conjunto A R de interes, el conjunto X 1 (A) es un evento, es decir, tiene sentido
asignarle una probabilidad. Sin embargo, estas consideraciones no aportan en nuestra presentaci
on,
por lo cual trabajaremos sin mencionarlas.
Como dijimos previamente, usualmente no se hace explcito el espacio de probabilidad sobre el que
est
a definida la variable aleatoria en estudio. Por lo tanto, com
unmente no se conoce (ni interesa
conocer) la forma particular que tiene X como funcion de en R. Lo que s importa es trabajar con
las probabilidades asociadas a la variable.
Para estudiar dichas probabilidades, introduciremos una nueva notacion. Dada una variable aleatoria
X y un conjunto A R, usamos la expresion X A para referirnos al evento
{ X() A},
es decir, el conjunto de puntos del espacio muestral tales que su imagen va la funcion X esta en A.
Equivalentemente, X A corresponde al evento X 1 (A), es decir, la pre-imagen de A va la funci
on
X.
Esta notaci
on nos permite darle sentido a expresiones del tipo P(X A), que se lee la probabilidad

que X pertenezca a A. Esta


corresponde justamente a la probabilidad del evento { X() A}.
Por ejemplo:
P(X = a) = P(X {a}) = P({ X() = a)
P(a < X < b) = P(X (a, b)) = P({ a < X() < b)
P(X 2 a) = P(X (, a] [a, )) = P({ X 2 () a).
Ejemplo 3.10. Continuando con el ejemplo 3.9, nuevamente consideremos la variable aleatoria
X que representa la cantidad de caras que se obtienen al lanzar 3 veces una moneda equilibrada.
Dado x R, queremos calcular P(X = x).
Notemos que como X() = 1 + 2 + 3 , con i {0, 1}, la variable X solo toma los valores
k = 0, 1, 2, 3. La forma explcita de los eventos X 1 ({k}) = { 1 + 2 + 3 = k} y sus
probabilidades respectivas son:
P(X = 0) = P({(0, 0, 0)}) = 1/8
P(X = 1) = P({(1, 0, 0), (0, 1, 0), (0, 0, 1)}) = 3/8
P(X = 2) = P({(1, 1, 0), (1, 0, 1), (0, 1, 1)}) = 3/8
P(X = 3) = P({(1, 1, 1)}) = 1/8
P(X = x) = P() = 0, x {0, 1, 2, 3}.
39

3.6 Variables discretas

Probabilidades condicionales y variables discretas

Dada una variable aleatoria X, nos interesa estudiar P(X A) para cualquier A R, en particular
c
omo calcular estas cantidades. Es conveniente considerar estas probabilidades en un solo objeto:
Definici
on 3.10. La ley o distribuci
on de una variable aleatoria X es la funcion X P(R) R
dada por X (A) = P(X A), A R.

La ley de una variable aleatoria contiene toda la informacion que interesa conocer de ella, pues encapsula sus probabilidades asociadas. Dadas dos variables aleatorias X e Y , diremos que ellas tienen la
misma distribuci
on o ley si X = Y .
La forma explcita en que se calcula X (A) = P(X A) dependera de que tipo de variable es X. Existen
dos tipos principales de variables aleatorias: discretas y continuas. Las variables discretas son aquellas
en que el conjunto de posibles valores que puede tomar la variable es finito o numerable, com
unmente
N o un subconjunto de el. Las variables continuas, por otro lado, son aquellas en que cualquier n
umero
en R o en un intervalo [a, b] R es un posible valor.
3.6
SECCION

Variables discretas
Como dijimos previamente, las variables aleatorias discretas se utilizan cuando la cantidad de posibles
valores a obtener es finito o a lo m
as numerable. Sin embargo, la definicion de variable discreta que
daremos no se refiere (a primera vista) a los posibles valores de la variable, sino que a la forma en que
se calcula X (A):
Definici
on 3.11. Una variable aleatoria X se dice discreta si existe una funcion pX R [0, 1],
llamada funci
on de distribuci
on discreta,
tal que para cualquier A R se tiene
P(X A) = pX (x).
xA

Notemos que en la definici


on anterior aparece una sumatoria en que el ndice x recorre todo el conjunto
A, el cual puede ser no numerable. Utilizaremos la siguiente convencion para trabajar con este tipo de
sumatorias: dada una funci
on f R R a valores no-negativos y un conjunto A R, el valor de la
expresi
on xA f (x) corresponder
aa

{xAf (x)>0} f (x) si {x A f (x) > 0} es discreto


f (x) =

xA
+

40

Probabilidades condicionales y variables discretas

3.6 Variables discretas

donde un conjunto se dir


a discreto si es finito o numerable. Notemos que si A ya era un conjunto finito
o numerable, entonces la convenci
on anterior coincide con el sentido clasico de la expresion xA f (x),
ya que los valores en el conjunto {x A f (x) = 0} no aportan a la suma.
Para una funci
on f que puede tomar valores positivos y negativos, el valor de la suma xA f (x) ser
a
f (x) = f+ (x) f (x),
xA

xA

xA

donde las funciones f+ y f corresponden a la parte positiva y negativa de f respectivamente, definidas


como
f+ (x) = m
ax(0, f (x)) y f (x) = max(0, f (x)).
Notemos que (+) (+) no est
a definido, lo que significa que xA f (x) tampoco estara definida
en caso que los cambios de signo de f hagan que xA f+ (x) = y tambien que xA f (x) = .
La siguiente propiedad nos dice que nuestra definicion de variable aleatoria discreta efectivamente es
equivalente a que el conjunto de posibles resultados sea un conjunto finito o numerable.
Proposici
on 3.12. Una variable aleatoria X es discreta si y s
olo si el conjunto R = {x R P(X =
x) > 0} es discreto y P(X R) = 1.
n. Veamos primero la implicancia directa. Dada X variable discreta, observemos
Demostracio
que para todo x R se cumple P(X = x) = pX (x). En efecto:
P(X = x) = P(X {x}) =

x {x}RX

pX (x ) = pX (x).

Por lo tanto, R = {x R pX (x) > 0}. Dado esto, el conjunto R debe ser discreto, pues si no fuera as,
por definici
on de variable discreta y por la convencion anterior, tenemos
P(X R) = pX (x) = +,
xR

lo cual es una contradicci


on. Finalmente, notemos que P(X R) = 1, pues
P(X R) = pX (x) = pX (x) = P(X R) = 1.
xR

xR

Veamos la implicancia recproca. Dada X variable aleatoria cumpliendo que R es discreto y que P(X
R) = 1, debemos probar que existe una funcion p R [0, 1] tal que para todo A R se cumple
P(X A) = xA p( x). En efecto, tomando p(x) = P(X = x), tenemos que
P(X A) = P({X AR} {X ARc }) = P(X AR) + P(X ARc ),
donde P(X ARc ) P(X Rc ) = 0. Ademas, como R es discreto, podemos escribir el conjunto AR
como la uni
on de sus singletons y aplicar el axioma 3, con lo cual obtenemos:
P(X A) = P(X AR) = P ( {X = x}) = P(X = x) = p(x),
xAR

xAR

donde hemos usado que p(x) = 0 fuera de R.

xA

Si X es variable discreta, entonces para cualquier x R se tiene que pX (x) = P(X = x). El conjunto
{x R pX (x) > 0} se conoce como el rango o soporte de la variable aleatoria, anotado RX . Debido a
que P(X RX ) = 1, RX se interpreta como el conjunto de los posibles resultados de X. Com
unmente
el rango ser
a N o un subconjunto de el. Notemos que para cualquier A R,
P(X A) =

pX (x),
xARX

41

3.6 Variables discretas

Probabilidades condicionales y variables discretas

es decir, la probabilidad de que X caiga en A se calcula sumando los valores de pX (x) sobre todos los
elementos de A que est
an en el rango de X, lo cual es la forma estandar de calcular probabilidades
asociadas a una variable discreta. En particular, se cumple la siguiente igualdad:
pX (x) = 1,
xRX

la cual es una condici


on que se puede utilizar para verificar que una cierta funcion que se ha calculado
corresponde efectivamente a una distribucion discreta (en otras palabras, si la funcion calculada no
cumple la condici
on anterior, entonces hubo alg
un error en el calculo).
Ejemplo 3.11. Continuando con el ejemplo 3.10, consideremos la variable X que corresponde a
la cantidad de caras que se obtienen al lanzar 3 veces una moneda equilibrada. Mostremos que
esta variable es discreta y obtengamos su rango RX y su funcion de distribucion pX .
Por los c
alculos ya hechos, sabemos que
{x R P(X = x) > 0} = {0, 1, 2, 3},
y adem
as P(X {0, 1, 2, 3}) = 1. Es decir, el conjunto R = {x R P(X = x) > 0} es finito y tal que
P(X R) = 1. Luego, por la proposicion 3.12, se tiene que X es una variable aleatoria discreta,
con rango RX = {0, 1, 2, 3}, y con funcion de distribucion discreta dada por pX (x) = P(X = x),
cuyos valores son
pX (0) = P(X = 0) = 1/8
pX (1) = P(X = 1) = 3/8
pX (2) = P(X = 2) = 3/8
pX (3) = P(X = 3) = 1/8
pX (x) = P(X = x) = 0, x {0, 1, 2, 3}.

A continuaci
on veremos algunos ejemplos emblematicos de variables discretas y sus propiedades m
as
importantes.
3.6.1. Variable Bernoulli La variable aleatoria Bernoulli es la variable mas sencilla posible.
Supongamos que se dispone de un experimento aleatorio que puede resultar en exito con probabilidad
p y en fracaso con probabilidad 1 p, donde p [0, 1] es un valor fijo. Por ejemplo, podemos pensar
en el lanzamiento de una moneda con probabilidad p de cara, donde el exito del experimento corresponde a obtener cara, y sello corresponde al fracaso. Consideremos la variable aleatoria X que vale
1 si el restultado es un exito, y 0 si es fracaso. Esta variable X corresponde a la variable Bernoulli.
Formalmente:
Definici
on 3.13. Una variable aleatoria X se dice Bernoulli de parametro p [0, 1] si P(X =
1) = p y P(X = 0) = 1 p. Anotamos X Bernoulli(p).

Observaci
on 3.3. Utilizamos el smbolo como sinonimo de se distribuye o tiene distribucion.
Luego, la expresi
on X Bernoulli(p) se lee X tiene distribucion Bernoulli de parametro p.

42

Probabilidades condicionales y variables discretas

3.6 Variables discretas

Es claro que para una tal variable X se cumple RX


por

1p

pX (x) = p

= {0, 1}, con funcion de distribucion discreta dada


si x = 0
si x = 1
si x {0, 1}.

3.6.2. Variable binomial Consideremos nuevamente un experimento aleatorio que puede resultar en exito con probabilidad p [0, 1] y en fracaso con probabilidad 1p. Supongamos que se repite
este experimento n veces de manera independiente, y denotemos X a la variable aleatoria correspondiente a la cantidad de exitos que se obtuvieron en las n repeticiones. Queremos calcular la funcion de
distribuci
on discreta de X.
Los posibles valores para X van desde 0 (no se obtuvo ning
un exito) hasta n (todas las realizaciones
del experimento resultaron en exito). Es decir, el rango de X es RX = {0, . . . , n}. Dado k RX , cuanto
vale P(X = k)? Si nos interesara el caso en que los k exitos se obtienen en las k primeras realizaciones,
la probabilidad buscada sera
(3.3)

p p (1 p) (1 p) = pk (1 p)nk ,

k veces

n k veces

pues la probabilidad de cada exito es p y de cada fracaso es 1 p (estas cantidades se multiplican pues
las realizaciones son independientes). Sin embargo, los k exitos pueden haber ocurrido en muchas otras
posiciones distintas, y para cada una de esas formas la probabilidad es la que acabamos de calcular.
Especficamente, hay (nk) formas de escoger las posiciones en que se obtendran los k exitos. Y como
dichas formas son excluyentes, por cada una de ellas debe sumarse un termino de la forma (3.3). As,
el valor de P(X = k) viene dado por la siguiente definicion:
Definici
on 3.14. Una variable aleatoria X se dice binomial de parametros n N{0} y p [0, 1],
anotado X bin(n, p), si k {0, . . . , n} se tiene
n
P(X = k) = ( )pk (1 p)nk .
k
En la figura 3.1 se muestra la correspondiente funcion distribucion discreta pX de una variable X
bin(n, p), para algunos valores de n y p particulares.

43

3.6 Variables discretas

Probabilidades condicionales y variables discretas

0.35
n=20, p=0.1
n=20, p=0.5
n=20, p=0.75

0.3

pX(x)

0.25
0.2
0.15
0.1
0.05
0

10
x

15

20

Figura 3.1. Ejemplos de la funcion pX , donde X tiene distribucion binomial de


par
ametros n y p. Se utilizaron distintos valores de p. Como poda esperarse, si p
es cercano a 0 la funci
on pX (k) alcanza sus valores mas grandes para k peque
nos;
es decir, si p es peque
no, es m
as probable obtener pocos exitos. Similarmente, si p es
cercano a 1, es esperable obtener muchos exitos. Para p = 1/2 la funcion pX (k) alcanza
su m
aximo en k = n/2, y es simetrica con respecto a este valor.

Ejemplo 3.12. Se lanza una moneda equilibrada 10 veces de manera independiente. Luego, la
cantidad de caras que se obtienen es una variable X con distribucion binomial de parametros
n = 10 y p = 1/2. La probabilidad de obtener k caras es entonces
10
1 10
1 10
P(X = k) = ( )(1/2)k (1 1/2)10k = 10 ( ) =
( ).
k
2
1024 k
k
La probabilidad de que aparezcan exactamente 5 caras es
1
10 9 8 7 6 2 9 2 7
252
1
1 10
( )=

=
=
.
1024 5
1024
5432
1024
1024 4

3.6.3. Variable geom


etrica Nuevamente consideremos un experimento que puede resultar en
exito o fracaso con probabilidades p y 1 p, respectivamente, y supongamos que realizamos el experimento sucesivas veces de manera independiente. Sin embargo, a diferencia de la variable binomial,
en lugar de considerar una cantidad fija de realizaciones, el experimento se repetira hasta que se obtenga el primer exito. Si denotamos X a la variable aleatoria de la cantidad total de realizaciones del
experimento, entonces el evento {X = k} ocurre si y solo si las primeras k 1 resultan en fracaso y la
siguiente resulta en exito. Por lo tanto:
P(X = k) = (1 p) (1 p) p,

k 1 veces

lo cual motiva lo siguiente:


Definici
on 3.15. Una variable aleatoria X se dice geometrica de parametro p [0, 1], anotado
X geom(p), si k N {0} se tiene P(X = k) = (1 p)k1 p.
44

Probabilidades condicionales y variables discretas

3.6 Variables discretas

El rango de una variable X geometrica es RX = N {0}. Notemos que pX (k) decae exponencialmente
como funci
on de k. Mientras m
as peque
no es p, mas cercano a 1 es la cantidad 1p, lo que significa que
este decaimiento es m
as lento. Esto es esperable: si la probabilidad de exito es peque
na, es probable
que haya que repetir el experimento varias veces antes de obtener el primer exito. En la figura 3.2 se
grafica pX para distintos valores de p.

0.5
p=0.1
p=0.25
p=0.5

pX(x)

0.4
0.3
0.2
0.1
0

10

x
Figura 3.2. Ejemplos de la funcion pX , donde X tiene distribucion geometrica de
par
ametro p, para distintos valores de p. Notemos que mientras mas peque
no es p, mas
lento decae pX , lo que concuerda con nuestra intuicion de que cuando la probabilidad
de exito es baja entonces es m
as probable tener que esperar varias repeticiones para
obtener el primer exito.

Ejemplo 3.13. Se lanza un dado equilibrado hasta que se obtiene un 1. La variable aleatoria
X que corresponde a la cantidad de lanzamientos realizados tiene distribucion geometrica de
par
ametro p = 1/6, donde hemos identificado el exito del experimento con obtener un 1 en el
dado. Luego, la probabilidad de que el primer 1 salga en el cuarto lanzamiento es
5 3 1
125
1
P(X = 4) = (1 p)41 p = ( ) =
.
6
6 1296 10
Dada una variable geometrica X, el evento {X > k} corresponde a que el primer exito se obtenga
despues de la realizaci
on k-esima del experimento, o equivalentemente, que las primeras k realizaciones
resulten en fracaso. Por lo tanto, se tiene que P(X > k) = (1p)k . Con esto, podemos probar facilmente
la siguiente propiedad fundamental:
Proposici
on 3.16 (Perdida de memoria de la variable geometrica). Sea X variable geometrica. Entonces para todo k, l N,
(3.4)

P(X > k + l X > k) = P(X > l).

Recprocamente, si X es una variable aleatoria que toma valores en N cumpliendo (3.4), entonces X
es una variable geometrica.
45

3.6 Variables discretas

Probabilidades condicionales y variables discretas

n. Veamos primero la implicancia directa. Sea p el parametro de la distribucion de


Demostracio
X. Por definici
on de probabilidad condicional, tenemos:
P(X > k + l X > k) =

P(X > k + l, X > k) P(X > k + l) (1 p)k+l


=
=
,
P(X > k)
P(X > k)
(1 p)k

y cancelando terminos, obtenemos (1 p)l , que ya sabemos es igual a P(X > l). Veamos la implicancia
recproca: tomando l = 1 en (3.4) obtenemos
P(X > k + 1)
= P(X > 1), k N.
P(X > k)
Definiendo 1 p = q = P(X > 1), por induccion en k se prueba facilmente que P(X > k) = q k , k N.
Luego:
q k1 = P(X > k 1) = P(X > k) + P(X = k) = q k + P(X = k),
de donde se obtiene que P(X = k) = q k1 (1 q) = (1 p)k1 p. Es decir, X geom(p), como queramos.

La f
ormula (3.4) se conoce como perdida de memoria de la variable geometrica. Se interpreta del
siguiente modo: sabiendo que despues de k repeticiones a
un no ocurre el primer exito (lo que corresponde a condicionar en X > k), la probabilidad de que tarde mas de l repeticiones adicionales (o sea,
que X > k + l) coincide con la probabilidad (sin condicionar) de que el primer exito llegue despues de
l repeticiones. En otras palabras, la variable olvida que ya hubo k realizaciones que resultaron en
fracaso, de modo que las probabilidades desde k en adelante se calculan como si no hubieran ocurrido
realizaciones previas.
3.6.4. Variable Poisson La variable aleatoria de Poisson aparece naturalmente en diversas
situaciones, en particular en la modelacion de la cantidad de clientes que llegan a un determinado
lugar, como un banco, un centro comercial, o incluso clientes virtuales que acceden a una pagina
web. Informalmente hablando, bajo ciertos supuestos razonables sobre los tiempos (aleatorios) que
transcurren entre las llegadas de cada cliente, la variable de Poisson representa la cantidad total de
clientes que llegan durante una unidad de tiempo. Lamentablemente, a diferencia de las variables
definidas anteriormente, no podremos deducir la funcion de distribucion discreta a partir de esta
descripci
on informal de la variable. Por esto, damos su definicion directamente:
Definici
on 3.17. Una variable aleatoria X se dice Poisson de parametro > 0, anotado X
Poisson(), si para todo k N se tiene
P(X = k) = e

k
.
k!

En captulos posteriores justificaremos formalmente como se obtiene la distribucion de Poisson en


base a esta descripci
on mediante llegadas de clientes. En particular, veremos que el parametro > 0
representa la tasa a la que estos van llegando, expresado en cantidad de clientes por unidad de tiempo.
Notemos que el rango de X es RX = N; en particular, estamos admitiendo el caso en que no llegan
clientes. En la figura 3.3 se muestra el grafico de la funcion distribucion pX (k) = P(X = k).

46

Probabilidades condicionales y variables discretas

3.7 Independencia de variables aleatorias

0.5
=0.75
=3
=6

pX(x)

0.4
0.3
0.2
0.1
0

10

x
Figura 3.3. Ejemplos de la funcion pX , donde X tiene distribucion de Poisson de
par
ametro > 0, para distintos valores de . Para peque
no, pX tiende a concentrarse
cerca de 0, lo cual concuerda con la descripcion informal de la variable: cuando la tasa
de llegada de clientes es peque
na, entonces es mas probable que lleguen pocos clientes.

Ejemplo 3.14. La cantidad de automoviles que pasan por un punto de control de una carretera
en un determinado lapso de tiempo es una variable aleatoria X con distribucion Poisson(), con
= 2. Cu
al es la probabilidad de que pase a lo mas un automovil?
Por definici
on de la variable Poisson, tenemos:
P(X 1) = pX (0) + pX (1) = e2

20
21
3
+ e2 = 2 0,406.
0!
1! e

3.7
SECCION

Independencia de variables aleatorias


Hasta ahora hemos analizado a las variables aleatorias por separado. Sin embargo, en muchas situaciones hay que trabajar con dos o m
as variables de manera conjunta, y se hace necesario especificar como
se relacionan entre ellas. Dedicaremos esta parte a estudiar este comportamiento conjunto, pero por
ahora podemos trabajar con variables independientes, la cual es la forma mas simple en que dos variables se relacionan. Recordemos que dos eventos E y F se dicen independientes si P(EF ) = P(E)P(F )
(definici
on 3.18), lo cual corresponde a que condicionar en uno de ellos no afecta las probabilidades
del otro.

47

3.7 Independencia de variables aleatorias

Probabilidades condicionales y variables discretas

Definici
on 3.18. Dos variables aleatorias X e Y se dicen independientes, anotado X Y , si
para todo par de conjuntos A, B R los eventos {X A} e {Y B} son independientes, es decir,
se cumple
P(X A, Y B) = P(X A)P(Y B).

As como en la independencia de eventos, la independencia de variables aleatorias com


unmente se
utiliza como una forma de modelar la relacion entre las variables, y no tanto como una propiedad que
deba demostrarse.
Ejemplo 3.15: distribuci
on del mnimo de variables exponenciales independientes.
Sean X e Y variables independientes con distribucion exponencial de parametros y , respectivamente. Queremos calcular la distribucion de Z = mn(X, Y ). Dado z > 0, tenemos:
P(Z > z) = P(mn(X, Y ) > z) = P(X > z, Y > z),
donde hemos utilizado el hecho que el mnimo de dos cantidades es mayor que z si y solo si
cada una por separado es mayor que z. Utilizando la independencia de las variables, la u
ltima
probabilidad se separa en el producto de las probabilidades, obteniendo:
P(Z > z) = P(X > z)P(Y > z) = ez ez = e(+)z .
Esto significa que FZ (z) = P(Z z) = 1 e(+)z , es decir, Z es una variable exponencial de
par
ametro + .

Ejemplo 3.16: distribuci


on de la suma de variables Poisson independientes. Sean X e
Y variables independientes con distribucion de Poisson con parametros y , respectivamente.
Calculemos la distribuci
on de la variable Z = X + Y . Para k N, condicionando en los posibles
resultados de X, tenemos:
P(Z = k) = P(Z = k, X = i)
iN

= P(Y = k i, X = i)
iN

= P(Y = k i)P(X = i),


iN

donde hemos utilizado la independencia de X e Y en el u


ltimo paso. Notemos que P(Y = k i) = 0
para i > k. Utilizando la forma de la distribucion de Poisson, obtenemos
k

P(Z = k) = e
i=0

ki i
e
(k i)!
i!

= e(+)

1 k
k!
i ki

k! i=0 i!(k i)!

( + )k
,
k!
donde en el u
ltimo paso hemos utilizado la formula del binomio. Hemos probado entonces que
Z tiene distribuci
on de Poisson de parametro + . Esto tiene una interpretacion practica: si
X representa la cantidad de clientes que han llegado a una cierta tienda, e Y es la cantidad de
clientes de otra tienda (con par
ametros y ), entonces, si se asume independencia, la cantidad
= e(+)

48

Probabilidades condicionales y variables discretas

3.7 Independencia de variables aleatorias

de clientes totales que llegan a alguna de ellas es otra variable de Poisson, cuyo parametro es la
suma de los par
ametros originales.

La independencia de variables aleatorias es una propiedad bastante fuerte, en el sentido que si X e Y


son independientes, entonces cualquier funcion de X es independiente de cualquier funcion de Y :
Proposici
on 3.19. Sean X e Y variables independientes, y sean g, h R R funciones. Entonces
g(X) h(Y ).
n. Sean A, B R. Denotando g 1 (A), h1 (B) las pre-imagenes de los conjuntos A
Demostracio
y B va las funciones g y h, respectivamente, tenemos:
P(g(X) A, h(Y ) B) = P(X g 1 (A), Y h1 (B))
= P(X g 1 (A))P(Y h1 (B))
= P(g(X) A)P(h(Y ) (B)).

La siguiente es la propiedad fundamental de la ley X de una variable aleatoria X (definicion 3.10).


Proposici
on 3.20. X es una probabilidad sobre R.
n. Como X se define en terminos de la probabilidad P, es directo que 0 X (A)
Demostracio
1, A R; es decir, X cumple el axioma 1. Ademas,
X (R) = P(X R) = P({ X() R}) = P() = 1,
con lo cual se cumple tambien el axioma 2. El axioma 3 se obtiene directamente utilizando las buenas
propiedades de la pre-imagen: dada una coleccion numerable (An )nN de subconjuntos de R, tenemos
que
X ( An ) = P (X 1 ( An ))
nN

nN

= P ( X 1 (An ))
nN

= P(X 1 (An ))
nN

= X (An ).
nN

49

Bibliografa

[1]
[2]
[3]
[4]

Spivak, M. Calculus, Reverte,1993.


Cominetti R., Matamala M., Introducci
on al C
alculo - Apuntes 1er a
no FCFM, U. de Chile, 2012.

Gomez D., Rapaport I., Introducci


on al Algebra
- Apuntes 1er a
no FCFM, U. de Chile, 2012.
San Martin J., Cominetti R., Matamala M., Calculo diferencial e integral - Apuntes 1er a
no FCFM, U. de Chile,
2012.

51