Académique Documents
Professionnel Documents
Culture Documents
de la Teora
de Probabilidades
Wil liam La Cruz Bastidas
Departamento de Electr onica, Computaci on y Control
Escuela de Ingeniera Electrica
Facultad de Ingeniera
Universidad Central de Venezuela
Abril, 2012
Contenido
1 Espacio probabilstico 1
1.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Introduccion a la teora de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2.1
Algebra de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 Producto cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Experimentos y eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Experimentos deterministas y aleatorios . . . . . . . . . . . . . . . . . . . 5
1.3.2 Espacio muestral y eventos . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Deniciones y propiedades de la probabilidad . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Denicion axiomatica de la probabilidad . . . . . . . . . . . . . . . . . . . 8
1.4.2 Denicion frecuentista de la probabilidad . . . . . . . . . . . . . . . . . . 11
1.4.3 Denicion clasica de la probabilidad . . . . . . . . . . . . . . . . . . . . . 11
1.5 Calculo de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5.1 Casos no igualmente verosmiles . . . . . . . . . . . . . . . . . . . . . . . 12
1.5.2 Casos igualmente verosmiles . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Metodos de enumeracion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7 Probabilidad condicional e independencia . . . . . . . . . . . . . . . . . . . . . . 21
1.7.1 Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7.2 Probabilidad total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.7.3 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7.4 Eventos independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.8 Experimentos compuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.8.1 Experimento binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.8.2 Experimento geometrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.8.3 Experimento hipergeometrico . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.9 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.10 Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2 Una variable aleatoria 41
2.1 Denicion de variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2 Eventos denidos por una variable aleatoria . . . . . . . . . . . . . . . . . . . . . 42
2.3 Tipos de variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.1 Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.2 Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.3.3 Variable aleatoria mixta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.4 Funcion de densidad de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . 45
2.5 Funcion de distribucion acumulativa de probabilidades . . . . . . . . . . . . . . . 47
2.6 Distribuciones de probabilidad especiales . . . . . . . . . . . . . . . . . . . . . . . 48
iii
iv Contenido
2.6.1 Distribuciones discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.2 Distribuciones continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.7 Funciones de distribucion y densidad condicionadas . . . . . . . . . . . . . . . . . 55
2.8 Valor esperado de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . 58
2.8.1 Valor esperado de una funcion . . . . . . . . . . . . . . . . . . . . . . . . 59
2.8.2 Varianza de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . 59
2.8.3 Valor esperado y varianza condicionados . . . . . . . . . . . . . . . . . . . 60
2.9 Una funcion de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . 61
2.10 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.11 Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3 Dos variables aleatorias 73
3.1 Funciones de Densidad y DistribucionAcumulativa de Probabilidades . . . . . . . 73
3.2 Funciones de Densidad y DistribucionMarginales . . . . . . . . . . . . . . . . . . 77
3.3 Funciones de densidad y distribucion condicionadas . . . . . . . . . . . . . . . . . 80
3.4 Variables aleatorias independientes . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.5 Una funcion de dos variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . 88
3.6 Dos funciones de dos variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . 90
3.7 Valor esperado conjunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.8 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Tema 1
Espacio probabilstico
1.1 Introduccion
La necesidad de una teora de probabilidades surge cuando se estudia un experimento para
el cual no se puede predecir con certeza un resultado del mismo. La nocion de probabilidad
nace de la necesidad de medir de alguna manera la duda o la certeza que un suceso dado
ocurra o no.
El proposito de la teora de probabilidades es examinar las formas y medios para obtener esas
medidas de certeza, y hallar procesos satisfactorios de combinarlos cuando intervienen sucesos.
1.2 Introduccion a la teora de conjuntos
Con el n de discutir los conceptos basicos del modelo probabilstico que se desean desarrollar,
sera muy conveniente tener presente algunas ideas y conceptos de la teora matematica de
conjuntos. Como este tema es muy extenso, solamente se presentaran algunas nociones basicas.
Denicion 1.1 (Conjunto). Una serie o coleccion de objetos cualesquiera que posean una
caracterstica o propiedad en com un bien denida se denominara conjunto. Com unmente los
conjuntos se designan con letras may usculas A, B, etc.
Ejemplo 1.1. A continuacion se dan algunos ejemplos de conjuntos:
(a) V = {a, e, i, o, u}
(b) Z
+
= {n Z : n = 1, 2, 3, . . .}
(c) D = {1, 3, 9} = {n Z
+
: n es divisor de 9}
(d) N = {0, 1, 2, . . .} (N umeros naturales)
(e) R = {Conjunto de los n umeros reales}
(f) B = {(x, y) : x
2
+y
2
= 1, y x, y son n umeros reales}
Denicion 1.2 (Elemento de un conjunto). Los objetos que conforman la coleccion del conjunto
se llaman elementos del conjunto. Cuando a es un elemento de un conjunto A escribimos a A
y cuando a no es un elemento de un conjunto A escribimos a A
Denicion 1.3 (Conjunto universal). Se dene el conjunto universal como el conjunto de todos
los objetos que se pueden considerar. Corrientemente este conjunto se denota por U.
1
2 Tema 1 Espacio probabilstico
Denicion 1.4 (Conjunto vaco). Se dene el conjunto vaco como el conjunto que no contiene
elementos. Normalmente este conjunto se denota por .
Denicion 1.5 (Subconjunto). Se dice que un conjunto A es subconjunto del conjunto B si
todo elemento de A es elemento de B y se escribe A B. En otras palabras,
A B x(x A x B).
En el siguiente diagrama de Venn se observa la disposicion de los conjuntos A y B cuando
A B.
U
B
A
Denicion 1.6 (Postulado de extensionalidad). Se dice que dos conjuntos A y B son iguales,
si y solo si A B y B A. En otras palabras,
A, B(x(x A x B) A = B).
Denicion 1.7 (Conjunto de partes de un conjunto). Se dene el conjunto de partes de A,
denotado con P(A), como el conjunto de todos los subconjuntos de A. En otras palabras,
A, C (C P(A) C A).
1.2.1
Algebra de conjuntos
Denicion 1.8 (Union).
A B := {x U : x A x B}
U
B
A
Denicion 1.9 (Interseccion).
A B := {x U : x A x B}
U
B
A
1.2 Introducci on a la teora de conjuntos 3
Denicion 1.10 (Diferencia).
A\B = A B := {x U : x A x B}
U
B
A
Denicion 1.11 (Complemento).
A = A
:= {x U : x A}
U
A
Denicion 1.12 (Conjuntos disjuntos). Se dice que A y B son conjuntos disjuntos, si y s olo si
A B = .
U
B
A
1.2.2 Propiedades
1. Leyes Asociativas
(A B) C = A (B C)
(A B) C = A (B C)
2. Leyes Conmutativas
A B = B A
A B = B A
3. Leyes de Idempotencia
A A = A
A A = A
4. Inclusion respecto a una union e interseccion
4 Tema 1 Espacio probabilstico
A A B o B A B
A B A o A B B
5. Conjuntos vaco y universal
A = A
A =
A U = U
A U = A
6. Leyes de absorcion
A (A B) = A
A (A B) = A
7. Diferencia y Complemento
A A = U
A A =
_
A
_
= A
U =
= U
8. Leyes de Morgan
(A B) = A B
(A B) = A B
Denicion 1.13 (Union e Interseccion generalizadas). Se denen respectivamente la uni on e
interseccion generalizadas de los conjuntos A
1
, A
2
, . . . , A
n
como:
n
_
i=1
A
i
= A
1
A
2
A
n
:= {x U : x A
1
x A
2
x A
n
},
n
i=1
A
i
= A
1
A
2
A
n
:= {x U : x A
1
x A
2
x A
n
}.
1.2.3 Producto cartesiano
Sean X e Y dos conjuntos cualesquiera. Se denomina producto cartesiano de X por Y ,
denotado por X Y , al conjunto de pares ordenados denido como (observe la Figura 1):
X Y = {(x, y) : x X y Y }.
1.3 Experimentos y eventos 5
Y
X
X Y
Figura 1. Producto cartesiano de X por Y
1.3 Experimentos y eventos
1.3.1 Experimentos deterministas y aleatorios
En todos los experimentos tiene que pasar algo y se ha de observar alg un hecho, proceso o
sistema que esta funcionando, y hay que observar una parte de el. La cosa hecha o la parte
observada, junto con la observacion que se obtiene, es el experimento. La observacion misma
es un resultado del experimento.
Denotamos un experimento con la letra E y un resultado con letras griegas , , etc. Por
ejemplo, el siguiente enunciado describe un experimento:
E
1
: observar el n umero que sale en la cara superior de un dado,
y
: sale 1 en la cara superior del dado,
es un resultado. Se pueden distinguir dos tipos de experimentos: aleatorios y determinista.
Denicion 1.14 (Experimento aleatorio). Se dice que un experimento es aleatorio, si no se
puede predecir, en el sentido ordinario, el resultado antes de llevar a cabo el experimento.
Ejemplo 1.2.
E
1
: observar el n umero que sale en la cara superior de un dado.
E
2
: observar el tiempo que pierde una persona en una cola de autob us.
E
3
: se lanza una moneda tres veces y se observa la sucesion de caras y sellos obtenidos.
E
4
: medir la resistencia a la tension de una barra de acero.
Denicion 1.15 (Experimento determinista). Se dice que un experimento es determinista, si
se puede predecir el resultado antes de llevar a cabo el experimento.
Ejemplo 1.3. Se deja al lector buscar dos ejemplos de experimentos deterministas.
Para la teora que a continuacion desarrollamos solamente se consideran experimentos alea-
torios. En consecuencia, cuando se hable de experimento se referira a experimentos del tipo
aleatorio.
6 Tema 1 Espacio probabilstico
1.3.2 Espacio muestral y eventos
Denicion 1.16 (Espacio muestral). El conjunto de todos los posibles resultados de un expe-
rimento E se llama espacio muestral y se denota por S.
Denicion 1.17 (Espacio muestral discreto). Un espacio muestral de un experimento aleatorio
es discreto, si sus posibles resultados pueden ser enumerados. Si el n umero total de posibles
resultados de un experimento es nito, se dice que el espacio muestral es nito, de lo contrario
se dice que es innito.
Denicion 1.18 (Espacio muestral continuo). Un espacio muestral de un experimento aleatorio
es continuo, si posee un n umero innito de resultados que no pueden ser ordenados en una
sucesion.
Ejemplo 1.4. Para cada uno de los siguientes experimentos determine su espacio muestral,
ademas, diga si es discreto o continuo.
E
1
: observar el n umero que sale en la cara superior de un dado.
E
2
: observar el tiempo que pasa una persona en una cola de una agencia bancaria antes de ser
atendido.
E
3
: observar la sucesion de caras y sellos obtenidos al lanzar una moneda tres veces.
E
4
: contar el n umero de lanzamientos de una moneda legal hasta obtener una cara por primera
vez.
Soluci on.
El espacio muestral de E
1
es discreto y se puede denir como
S
1
= {1, 2, 3, 4, 5, 6}.
El espacio muestral de E
2
es continuo y se puede denir como
S
2
= {t R : 0 t T} = [0, T),
donde T > 0 es el tiempo total de servicio de la agencia bancaria.
El espacio muestral de E
3
es discreto y se puede denir como
S
3
= {ccc, ccs, csc, css, sss, ssc, scc, scs},
donde los smbolos c y s denotan respectivamente cara y sello. Ademas, el lugar que
ocupan estos smbolos esta en correspondencia con el n umero del lanzamiento donde se
obtuvo cara o sello.
El espacio muestral de E
4
es discreto y se puede denir como
S
4
= {1, 2, 3, 4, 5, . . .}.
Denicion 1.21 (Evento imposible). Cualquier evento que sea igual al conjunto vaco se llama
evento imposible.
Denicion 1.22 (Evento seguro). Cualquier evento que sea igual al espacio muestral se llama
evento seguro.
Denicion 1.23 (Eventos excluyentes). Se dice que los eventos A y B son eventos excluyentes
si, y solo si A y B no pueden ocurrir simultaneamente, es decir, se cumple que
A B = .
Ejemplo 1.6. Para los eventos B, C, D y F denidos en el Ejemplo 1.5, las siguientes propie-
dades son ciertas:
D es el evento seguro.
F es el evento imposible.
B y C son excluyentes.
8 Tema 1 Espacio probabilstico
1.4 Deniciones y propiedades de la probabilidad
Como se vio en las secciones anteriores, una de las caractersticas basicas del concepto de
experimento aleatorio es que no se sabe que resultado particular se obtendra al llevar a cabo el
experimento. Es decir, si A es un evento asociado a un experimento, no se puede indicar con
certeza si A ocurrira o no. Por lo tanto, es muy importante tratar de asociar un n umero con
el evento A que mida, de alguna forma, la posibilidad de que A ocurra. La manera de como se
asigna una medida a la ocurrencia de un evento, depende de como se dene probabilidad. A
continuacion se describiran tres deniciones de probabilidad: axiom atica, frecuentista y cl asica.
1.4.1 Denicion axiomatica de la probabilidad
Sean E un experimento y S su espacio muestral asociado. Para cada evento A S se
le asocia un n umero real, denotado por P(A) y llamado probabilidad de A, que satisface los
siguientes axiomas.
I. 0 P(A) 1.
II. P(S) = 1.
III. Si A y B son eventos excluyentes, entonces
P(A B) = P(A) +P(B).
IV. Si A
1
, . . . , A
n
, . . . son eventos mutuamente excluyentes, es decir, A
i
A
j
= para i = j,
entonces
P
_
_
i=1
A
i
_
=
i=1
P(A
i
).
A continuacion se presentaran algunos teoremas que se deducen de los axiomas de probabi-
lidad. Estos resultados no dependen de como calculamos P(A).
1.4 Definiciones y propiedades de la probabilidad 9
Teorema 1.1. P() = 0.
Demostraci on. Como S y son excluyentes, y S = S, entonces por el Axioma III se puede
escribir:
P(S) = P(S ) = P(S) +P(),
Ahora, por la ecuacion anterior y el Axioma II se deduce que P() = 0.
Teorema 1.2. Si A es un evento, entonces
P(A) = 1 P(A).
Demostraci on. Como AA = y AA = S, entonces por los Axiomas II y III se puede escribir:
1 = P(S) = P(A A) = P(A) +P(A).
Despejando P(A) en la ecuacion anterior se obtiene que P(A) = 1 P(A).
Teorema 1.3. Si A y B son eventos cualesquiera, entonces
P(A) = P(A B) +P(A B).
Demostraci on. Se tiene que
A = (A B) (A B)
y, ademas, los eventos (A B) y (A B) son excluyentes. Entonces, por el Axioma III P(A) =
P(A B) +P(A B).
Teorema 1.4. Si A y B son eventos cualesquiera, entonces
P(A A) = P(A) +P(B) P(A B).
Demostraci on. Se tiene que AB = A(BA), ademas, A y (BA) son excluyentes. Entonces,
por el Axioma III se obtiene que
P(A B) = P(A) +P(B A). (1.1)
Por el Teorema 1.3 se tiene que
P(B) = P(A B) +P(B A),
de donde se deduce que
P(B A) = P(B) P(A B). (1.2)
De (1.1) y (1.2) se obtiene que P(A A) = P(A) +P(B) P(A B).
10 Tema 1 Espacio probabilstico
Teorema 1.5. Si A y B son eventos tales que A B, entonces P(A) P(B).
Demostraci on. Como B = (BA) A y los eventos (BA) y A son excluyentes, entonces por
el Axioma III se puede escribir:
P(B) = P(B A) +P(A). (1.3)
Ahora, por el Axioma I se tiene que P(A) 0, P(B) 0 y P(B A) 0. Por lo tanto, de la
ecuacion (1.3) se concluye que P(A) P(B).
En el siguiente ejemplo se muestra la aplicacion de los axiomas y teoremas de probabilidades.
Ejemplo 1.7. Sean A, B y C tres eventos no vacos tales que: P(A) = 1/2, P(B) = 1/3, y
P(C) = 1/4. Por otra parte, si consideramos unicamente los eventos A, B y C a los efectos de
enunciar las siguientes armaciones, se tiene que: la probabilidad de que ocurra exclusivamente
el evento C es cero, y que solo ocurra B es tambien cero. Mientras, la probabilidad de que
ocurra unicamente el evento A es 1/6. Ademas, la probabilidad de que se de a lugar el evento
C y no se produzca el evento B es cero. Determinar la probabilidad de que ocurran los eventos
B o C.
Soluci on. Se debe calcular la probabilidad P(B C). Para ello necesitamos saber como est an
dispuestos los eventos A, B y C. Tenemos que B y C no pueden ocurrir exclusivamente, y A si
puede ocurrir sin que ocurran los eventos B y C, ademas, P(B) < P(A) y P(C) < P(A). Por
lo tanto, B y C son subconjuntos de A. Por otra parte, como P(C B) = 0 y P(C) < P(B),
entonces C es subconjunto de B. De esta forma, la disposicion de los eventos A, B y C se
muestra en el siguiente diagrama de Venn.
S
A
B
C
As, la probabilidad de que ocurran los eventos B o C es
P(B C) = P(B) = 1/3.
Ejemplo 1.8. Sean A, B y C tres eventos no vacos todos subconjuntos del espacio muestral
S. Se sabe que
P(A B C) = P(S),
P(A B) = P(A C) = 1/8,
P(B C) = 1/2,
_
A B
_
_
A C
_
= S.
Determinar la probabilidad de que ocurra el evento A.
Soluci on. Como S = , entonces aplicando las leyes de Morgan se puede escribir:
= S =
__
A B
_
_
A C
_
=
_
A B
_
_
A C
_
= (A B) (A C) . (1.4)
1.4 Definiciones y propiedades de la probabilidad 11
Ahora, como A(BC) = (AB) (AC), entones por (1.4) y las condiciones del problema
se tiene:
1 = P(A B C)
= P(A) +P(B C) P(A (B C))
= P(A) +P(B C) P((A B) (A C))
= P(A) +P(B C) P(A B) P(A C). (1.5)
Utilizando los valores P(AB) = P(AC) = 1/8 y P(BC) = 1/2, y luego despejando P(A)
en (1.5) se obtiene
P(A) = 3/4.
_
p
1
2p
2
p
3
= 0
p
1
p
2
2p
3
= 0
p
1
+p
2
+p
3
= 1
Resolviendo el sistema anterior se obtiene que:
p
1
=
3
5
, p
2
=
1
5
, p
3
=
1
5
.
Utilizando convenientemente estos valores en la expresion de P(A) dada en (1.9) se tiene
P(A) =
4
5
.
= {0, 1, 2},
donde cada uno de los resultados representa el n umero de caras que ocurren. Por lo tanto,
P(A) =
1
3
. Este analisis es obviamente incorrecto, ya que en el espacio muestral considerado
todos los resultados no son igualmente verosmiles.
A n de aplicar la ecuacion (1.10) se debera considerar el espacio muestral
S = {cc, cs, sc, ss}
en lugar del espacio muestral S
Ejemplo 1.13. Se lanzan dos dados normales. Encontrar la probabilidad de cada uno de los
siguientes eventos.
a) La suma de los n umeros obtenidos en los dados es igual a 7.
b) La suma de los n umeros obtenidos en los dados es igual a 7 o a 11
c) El n umero obtenido en uno de los dados es mayor que el obtenido en el otro dado.
d) En ambos dados se obtiene un n umero par.
Soluci on. Inicialmente se debe encontrar el espacio muestral asociado al experimento. Los
n umeros obtenidos en los dados se disponen en un par ordenado (x, y), donde la primera coor-
denada corresponde al n umero obtenido en uno de los dados, y la segunda al n umero obtenido
en el otro dado. De esta forma, el espacio muestral es
S = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6),
(3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6), (4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6),
(5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6), (6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6)},
el cual tiene 36 elementos. A continuacion se calculan las probabilidades de los eventos dados.
a) Sea A
1
el evento: la suma de los n umeros obtenidos en los dados es igual a 7. Luego,
A
1
= {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}. Como el n umero de elementos de A
1
es 6,
entonces P(A
1
) = 6/36 = 1/6.
b) Sea A
2
el evento: la suma de los n umeros obtenidos en los dados es igual a 7 o a 11.
Entonces, A
2
= {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1), (5, 6), (6, 5)}. Como el n umero de
elementos de A
2
es 8, entonces P(A
2
) = 8/36 = 2/9.
1.6 Metodos de enumeraci on 15
c) Sea A
3
el evento: el n umero obtenido en uno de los dados es mayor que el obtenido en el
otro dado. Procedamos de la siguiente manera. El complemento de A
3
es
A
3
= {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)}.
Como el n umero de elementos de A
3
es 6, entonces
P(A
3
) = 1 P(A
3
) = 1 1/6 = 5/6.
d) Sea A
4
el evento: en ambos dados se obtiene un n umero par. Entonces,
A
4
= {(2, 2), (2, 4), (2, 6), (4, 2), (4, 4), (4, 6), (6, 2), (6, 4), (6, 6)}.
Como el n umero de elementos de A
4
es 9, entonces P(A
4
) = 9/36 = 1/4.
n
1
n
2
n
2
n
2
n
2
Figura 2. Representacion graca del principio de multiplicacion
Ejemplo 1.15. Suponga que cuenta con 4 esferas de igual color y tres cajas vacas numeradas
1, 2 y 3. De cuantas maneras posible podra colocar una esfera en cada caja mediante el siguiente
procedimiento: primero debe colocar una esfera en la caja 1, luego otra en la caja 2 y por ultimo
una tercera esfera en la caja 3.
1.6 Metodos de enumeraci on 17
Soluci on. Se tienen tres procedimientos: 1. colocar una esfera en la caja 1, 2. colocar una esfera
en la caja 2, y 3. colocar una esfera en la caja 3. Es claro que el procedimiento i se hace antes
del procedimiento i + 1, para i = 1, 2. Ahora, como se dispone de 4 esferas, entonces se tiene
4 maneras posibles de colocar una esfera en la caja 1. Como se ya se ha colocado una esfera
en la caja 1, se cuenta con 3 esferas. As, se tiene 3 maneras posibles de colocar una esfera
en la caja 2. Ahora se cuenta con 2 esferas, luego se tiene 2 maneras posibles de colocar una
esfera en la caja 3. En consecuencia, el procedimiento 1 se puede hacer de 4 maneras posibles,
el procedimiento 2 de 3 y procedimiento 3 de 2 maneras. Por lo tanto, utilizando el principio
de multiplicacion, se obtiene que hay 4 3 2 = 24 maneras posibles de colocar 4 esferas en las
tres cajas numeradas, siguiendo el procedimiento dado.
Principio de adicion
Suponga que el procedimiento 1 se puede hacer de n
1
maneras. Suponga tambien que un
segundo procedimiento 2 se puede hacer de n
2
maneras. Suponga ademas que no es posible que
ambos procedimientos se hagan juntos. Entonces, el procedimiento que consta de efectuar el
procedimiento 1 o el procedimiento 2, se puede hacer de n
1
+n
2
maneras.
Empleemos otra vez el enfoque esquematico para visualizar el principio de adicion, como se
indica en la Figura 3.
L
1
L
2
Q
n
1
n
2
Figura 3. Representacion graca del principio de adicion
Todo lo anterior se puede generalizar para N procedimientos. Suponga que se tienen
1, 2, . . . , N, procedimientos tales que el procedimiento i se puede hacer de n
i
maneras, para
i = 1, 2, . . . , N. Ademas, suponga que no es posible que todos los procedimientos se puedan
realizar conjuntamente. Entonces, el procedimiento que consta de efectuar el procedimiento 1 o
el procedimiento 2 o o el procedimiento N, se puede hacer de n
1
+n
2
+ +n
N
maneras.
Ejemplo 1.16. Considere las esferas y cajas descritas en el Ejemplo 1.15. De cuantas maneras
posible podra colocar una y solo una esfera en una de las cajas?
Soluci on. Se tienen tres procedimientos: 1. colocar una esfera en la caja 1, 2. colocar una esfera
en la caja 2, y 3. colocar una esfera en la caja 3. Como no es podible colocar al mismo una esfera
en dos o mas cajas, entonces los procedimientos i e i + 1 no se pueden hacer conjuntamente,
para i = 1, 2. Ahora, como siempre se dispone de 4 esferas, entonces se tiene 4 maneras posibles
de colocar una esfera en la caja 1, 4 maneras de colocar una esfera en la caja 2 y 4 maneras
de colocar una esfera en la caja 3. En consecuencia, cada uno de los procedimiento 1, 2 y 3, se
pueden hacer de 4 maneras posibles. Por lo tanto, utilizando el principio de adicion, se obtiene
que hay 4 +4 +4 = 12 maneras posibles de colocar una y solo una esfera en una de las cajas.
18 Tema 1 Espacio probabilstico
Permutaciones de objetos diferentes
Suponga que se tienen n objetos diferentes. Considere dos casos: (a) Las maneras posibles
de permutar los n objetos; y (b) Las maneras posibles de escoger y permutar r objetos entre los
n que se tienen.
(a) De cuantas maneras, digamos P
n
, se pueden permutar estos objetos? Por ejemplo, si se
tienen los objetos a, b y c, se puede considerar las siguientes agrupaciones:
abc, acb, bac, bca, cab, cba.
As la respuesta es 6. En general, se considerara el siguiente esquema. Permutar los n objetos
es equivalente a colocarlos en una caja con n compartimientos, en alg un orden especco. La
primera casilla se puede llenar en una cualquiera de las n maneras, la segunda de cualquiera
de las (n 1) maneras , , y la ultima casilla de solo una manera. Por tanto, aplicando
el principio de multiplicacion, se observa que la caja se puede llenar de n(n 1)(n 2) 1
maneras. Este n umero tiene nombre y un smbolo especiales para el.
Denicion 1.24 (n-factorial). Sea n un entero positivo. El n umero entero denotado con
n! se llama n-factorial y se dene como
n! = n(n 1)(n 2) 2 1 =
n1
i=0
(n i).
Tambien se dene 0! = 1.
(b) Esta vez se desea escoger y permutar r objetos, 0 r n, de los n objetos que se tienen.
Se indica el n umero de maneras de hacerlo por V
n,r
(variaciones de n en r). Nuevamente se
recurre al esquema anterior de llenar una caja que tiene n compartimientos; ahora uno se
detiene despues que se ha llenado el r-esimo compartimiento. As, el primer compartimiento
puede llenarse de n maneras, el segundo de (n1) maneras, . . ., y el r-esimo compartimiento
de n (r 1) maneras. De esta forma, se puede realizar el procedimiento completo; de
nuevo usando el principio de multiplicacion, de
n(n 1)(n 2) (n r + 1)
maneras. Usando la notacion factorial introducida anteriormente, se puede escribir:
V
n,r
=
n!
(n r)!
.
Ejemplo 1.17. Cuantas banderas de tres colores pueden obtenerse con ocho colores distintos?
Soluci on. Aqu la disposicion de los colores en la bandera constituye una diferencia. En otras
palabras, dos banderas se consideran iguales si poseen los mismos colores y un mismo orden de
colocacion. Por tanto, se tienen
V
8,3
=
8!
(8 3)!
=
8!
5!
= 336
banderas.
1.6 Metodos de enumeraci on 19
Combinaciones
Considere nuevamente n objetos diferentes. Esta vez se encontrara el n umero de maneras de
escoger r de esos n objetos sin considerar el orden. Por ejemplo, se tienen los objetos a, b c, d,
y r = 2; se desea contar
ab, ac, ad, bc, bd, cd.
En otras palabras, no contamos ab y ba como diferentes, puesto que los mismos objetos est an
relacionados y solo dieren en el orden.
Para obtener el resultado general recuerde la formula para variaciones de n en r: el n umero
de maneras de elegir r objetos entre n y permutar los r elegidos es igual a
V
n,r
=
n!
(n r)!
.
Sea C
n,r
el n umero de maneras de elegir r entre n, sin considerar el orden. Observe que una
vez que se han escogido los r objetos, hay r! maneras de permutarlos. Por tanto, aplicando
nuevamente el principio de multiplicacion junto con el resultado anterior, se obtiene
r! C
n,r
= V
n,r
=
n!
(n r)!
.
As el n umero de maneras de elegir r entre n objetos diferentes, sin considerar el orden, est a
dado por
C
n,r
=
n!
r!(n r)!
.
Normalmente C
n,r
denota el n umero de combinaciones de r objetos entre n. En matem aticas
este n umero tiene un smbolo especial para designarlo. Escribiremos
_
n
r
_
=
n!
r!(n r)!
,
llamado n umero combinatorio de n en r. Para nuestro proposito,
_
n
r
_
se dene solo si n es un
entero positivo y si r es un entero 0 r n.
Ejemplo 1.18. Encontrar la probabilidad de que tres cartas extradas aleatoriamente y sin
reposicion de una baraja espa nola de 40 cartas, sean espadas.
Soluci on. Sea A el evento denido por A = {obtener tres espadas}. Entonces la probabilidad
de A es igual a la razon del n umero de formas o el n umero de combinaciones posibles de extraer
tres espadas entre 10, con respecto al n umero total de formas de extraer 3 cartas entre 40. Es
decir,
P(A) =
C
10,3
C
40,3
=
_
10
3
_
_
40
3
_ =
10!
3!(10 3)!
40!
3!(40 3)!
=
720
59280
=
3
247
.
Ejemplo 1.19. Considerando 26 letras del alfabeto espa nol, cual es la probabilidad de formar
una palabra (una palabra es un vector de caracteres en donde las letras que lo conforman pueden
repetirse) de cuatro letras donde ninguna de las letras aparece mas de una vez?
Soluci on. Sea A el evento: formar una palabra de cuatro letras donde ninguna de las letras
20 Tema 1 Espacio probabilstico
aparece mas de una vez. Se debe calcular la probabilidad P(A). El n umero de palabras de
cuatro letras que es posible formar es 26
4
. En otras palabras, el espacio muestral consta de
26
4
= 456976
resultados posibles. Por otra parte, el n umero de palabras de cuatro letras que se pueden formar,
donde ninguna de las letras aparece mas de una vez, viene dado por
V
26,4
=
26!
(26 4)!
= 358800.
En conclusion, la probabilidad de formar una palabra de cuatro letras donde ninguna de las
letras aparece mas de una vez es:
P(A) =
V
26,4
(26)
4
=
358800
456976
.
i=1
A
i
.
(c) P(A
i
) > 0, para i = 1, 2, . . . , n.
En otras palabras, cuando se efect ua el experimento E, ocurre uno y solo uno de los eventos A
i
.
A continuacion se deducira un principio muy importante para el calculo de la probabilidad
de un evento.
Proposicion 1.1 (Principio de probabilidad total). Sean E un experimento y S su espacio mu-
estral. Sea B un evento asociado con un experimento E. Suponga que los eventos A
1
, A
2
, . . . , A
n
representan una partici on del espacio muestral S. Entonces,
P(B) =
n
i=1
P(B|A
i
)P(A
i
). (1.12)
Demostraci on. Sea B un evento asociado con un experimento E. Suponga que los eventos
A
1
, A
2
, . . . , A
n
son una particion del espacio muestral S. A manera de ejemplo observe el sigui-
ente diagrama de Venn para el caso n = 8.
S
A
1
A
2
A
4
A
6
A
5
A
3
A
7
A
8
B
i=1
P(B A
i
).
Sin embargo, cada termino P(B A
i
) se puede expresar como P(B|A
i
)P(A
i
) y, por lo tanto,
la ecuacion (1.12) es cierta. Esta ecuacion se denomina principio de probabilidad total.
Ejemplo 1.24. Cierto artculo es manufacturado por tres fabricas, sean 1, 2 y 3. Se sabe que la
primera fabrica produce el doble de los artculos que la segunda y que esta y la tercera producen
el mismo n umero de artculos (durante un perodo de produccion especicado). Se sabe que el
2 por ciento de los artculos producidos por las dos primeras fabricas es defectuoso mientras que
el 4 por ciento de los manufacturados por la tercera es defectuoso. Se colocan juntos todos los
artculos producidos en una la y se escoge uno al azar. Cu al es la probabilidad de que este
artculo sea defectuoso?
Soluci on. Se denen los siguientes eventos:
B = {obtener un artculo defectuoso},
A
1
= {obtener un artculo de la fabrica 1},
A
2
= {obtener un artculo de la fabrica 2},
A
3
= {obtener un artculo de la fabrica 3}.
Se debe calcular P(B). Ahora, por el principio de probabilidad total (1.12), se puede escribir:
P(B) = P(B|A
1
)P(A
1
) +P(B|A
2
)P(A
2
) +P(B|A
3
)P(A
3
).
Ahora, P(A
1
) = 1/2, mientras que P(A
2
) = P(A
3
) = 1/4. Tambien P(B|A
1
) = P(B|A
2
) =
0.02, mientras que P(B|A
3
) = 0.04. Sustituyendo sus valores en la ecuacion anterior se obtiene
P(B) = 0.025.
1.7.3 Teorema de Bayes
Se puede usar el Ejemplo 1.24 para justicar otro resultado importante. Suponga que del
deposito se escoge un artculo y se encuentra que es defectuoso. Cual es la probabilidad de que
se produjese en la primera fabrica?
Usando la notacion descrita en el Ejemplo 1.24, se necesita P(A
1
|B). Se puede calcular
esta probabilidad como una consecuencia de lo siguiente. Sean A
1
, A
2
, . . . , A
n
una partici on del
espacio muestral S. Sea B un evento asociado a S. Aplicando la denicion de probabilidad
condicional, la ley multiplicativa, y el principio de probabilidad total, se obtiene:
P(A
i
|B) =
P(B|A
i
)P(A
i
)
n
i=1
P(B|A
i
)P(A
i
)
, para i = 1, 2, . . . , n. (1.14)
Este resultado se conoce como teorema de Bayes. Tambien se le llama formula para la
probabilidad de las causas. Puesto que los A
i
son una particion del espacio muestral, uno y
1.7 Probabilidad condicional e independencia 25
solo uno de los eventos A
i
ocurre. Por lo tanto, la formula (1.14) nos da la probabilidad de un A
i
particular (esto es, una causa), dado que el evento B ha ocurrido. Para aplicar este teorema,
debemos conocer los valores de las probabilidades P(A
i
). Muy a menudo esos valores no son
conocidos, y esto limita el uso del teorema de Bayes. Ha habido mucha controversia acerca del
teorema de Bayes. Matematicamente es perfectamente correcto; solo la eleccion impropia para
P(A
i
) hace el resultado objetable.
Volviendo a la pregunta propuesta en esta seccion y aplicando ahora la ecuacion (1.14), se
tiene:
P(A
1
|B) =
(0, 02)(1/2)
(0, 02)(1/2) + (0, 02)(1/4) + (0, 04)(1/4)
= 0, 4.
1.7.4 Eventos independientes
Se han considerado dos eventos A y B que no pueden ocurrir simultaneamente, es decir,
A B = . Tales sucesos se designaron excluyentes. Es claro que si A y B son excluyentes,
entonces P(A|B) = 0, porque la ocurrencia de B impide la ocurrencia de A. Por otra parte, si
A B entonces P(A|B) = 1.
En cada uno de los casos anteriores, sabiendo que B ocurrio, se nos dio una informaci on
precisa referente a la probabilidad de la ocurrencia de A. Sin embargo, hay muchos casos en
los cuales se sabe que si el evento B ocurre, no tiene inuencia alguna en la ocurrencia o no
ocurrencia de A.
Ejemplo 1.25. Suponga que se lanza un dado normal dos veces. Dena los eventos A y B
como sigue:
A = {el primer dado muestra un n umero par},
B = {el segundo dado muestra un 5 o un 6}.
Por intuicion se sabe que los eventos A y B no estan relacionados. Saber que B ocurre, no
proporciona informacion acerca de la ocurrencia de A. De hecho, el siguiente calculo lo pone
de maniesto. Tomando como espacio muestral S conformado con los 36 resultados posibles
considerados en el Ejemplo 1.22, se encuentra que
P(A) =
18
36
=
1
2
y P(B) =
12
36
=
1
3
,
mientras que
P(A B) =
6
36
=
1
6
.
Por lo tanto,
P(A|B) =
P(A B)
P(B)
=
1
6
1
3
=
1
2
.
As se tiene, como era de suponer, que la probabilidad P(A) es igual a la probabilidad
condicional P(A|B). De modo semejante
P(B|A) =
P(A B)
P(A)
=
1
6
1
2
=
1
3
= P(B).
y {} un evento
elemental de E
2
con probabilidad p
.
Esta denicion de espacio muestral y probabilidad para un experimento compuesto se puede
extender facilmente para la sucesion de n experimentos independientes.
1.8.1 Experimento binomial
Sea E un experimento con espacio muestral S. Suponga que se desea observar la ocurrencia
o no de un evento A. Sea p la probabilidad de A. Por lo tanto, P(A) = 1 p. Suponga tambien
que se realizan n repeticiones independientes de E donde en cada repeticion no se cambian las
probabilidades P(A) y P(A). En otras palabras, tenemos el experimento compuesto
E
n
= E E E
28 Tema 1 Espacio probabilstico
con espacio muestral
S
n
= S S S.
Se tiene interes en el n umero de veces que ocurre A en esas n repeticiones. Ahora bien, a una
ocurrencia de A se le denominara exito y la ocurrencia de A se le llamara fracaso. Observe que
se tienen solamente exitos y fracasos en las n repeticiones de E. Las repeticiones individuales
de E donde se observan dos opciones solamente, una complementaria a la otra, es decir exito y
fracaso, se le llaman ensayos o experimentos de Bernoulli.
Para calcular la probabilidad de que en n repeticiones de E hallan k exitos, es necesario
denir los siguientes eventos A
k
.
A
k
= {k exitos en n ensayos del experimento E}, para k = 0, 1, . . . , n.
El evento A
k
es la coleccion de arreglos de longitud n construidos con k smbolos A y n k
smbolos A; por ejemplo, el siguiente arreglo de caracteres es un evento elemental de S
n
que
tiene k exitos:
AAA A
. .
k veces
A A A A
. .
nk veces
Determinemos el n umero total de tales resultados. Este n umero se puede obtener respondiendo
a la siguiente pregunta: de cuantas maneras posibles se pueden disponer k smbolos A y n k
smbolos A? Estas maneras son
#A
k
=
_
n
k
_
.
Por ejemplo, si n = 3 tendremos A
0
, A
1
, A
2
y A
3
los eventos de obtener 0, 1, 2 y 3 exitos,
respectivamente. En la Tabla 1 se muestran los eventos elementales de S
3
que pertenecen a
cada evento A
k
para k = 0, 1, 2, 3.
Evento Eventos elementales
_
n
k
_
A
0
_
A A A
_
1
A
1
_
A A A
_ _
A A A
_ _
A A A
_
3
A
2
_
A A A
_ _
A A A
_ _
A A A
_
3
A
3
(A A A) 1
Tabla 1. Eventos elementales de S
3
Veamos ahora cuantos eventos elementales tiene el espacio muestral S
n
. Se tiene que
#S
n
=
n
k=0
#A
k
=
n
k=0
_
n
k
_
= (1 + 1)
n
= 2
n
,
lo cual indica que S
n
posee 2
n
eventos elementales.
Nos dirigimos a calcular la probabilidad de A
k
, la cual viene expresada como la suma de
las probabilidades de los eventos elementales que pertenecen a A
k
. Pero la probabilidad de un
evento elemental cualquiera de S
n
, que posee k exitos y n k fracasos, es:
P
_
_
AAA A
. .
k veces
A A A A
. .
nk veces
_
_
= p
k
(1 p)
k
,
luego, la probabilidad de que en n repeticiones de E se tienen k exitos es
P(A
k
) =
_
n
k
_
p
k
(1 p)
k
, para k = 0, 1, 2, . . . , n.
1.8 Experimentos compuestos 29
Observe que
n
k=0
P(A
k
) =
n
k=0
_
n
k
_
p
k
(1 p)
k
= (p + (1 p))
n
= 1.
Todo lo anterior constituye lo que se denomina distribuci on binomial.
Ejemplo 1.27. Una caja contiene 10 tornillos con tuerca y 8 sin tuerca. Se extraen al azar 4
tornillos, con reposicion. Cual es la probabilidad de que se extraigan 3 tornillos con tuerca?
Soluci on. Como los tornillos se toman con reposicion y la probabilidad de obtener un tornillo
con tuerca no cambia en cada extraccion, este experimento se puede caracterizar como de tipo
binomial. De esta forma, consideramos un exito el sacar un tornillo con tuerca. Sea p la
probabilidad de sacar un tornillo con tuerca de un total de 10 tornillos, es decir, p =
6
10
=
3
5
.
Por lo tanto, la probabilidad de que se extraigan 3 tornillos con tuerca es
P(A
3
) =
_
4
3
__
3
5
_
3
_
2
5
_
=
216
625
.
k=0
P(A
k
) =
k=0
(1 p)
k1
p = p
k=0
(1 p)
k1
= p
_
1
1 (1 p)
_
= 1.
Todo lo anterior constituye lo que se denomina distribuci on geometrica.
Ejemplo 1.28. Considere el siguiente juego entre dos jugadores A y B. El jugador A comienza
lanzando un dado y luego lo lanza B, y as sucesivamente hasta que alguno gane seg un las
siguientes reglas.
(i) El jugador A gana cuando el lanza el dado y se obtiene un n umero menor que 3.
30 Tema 1 Espacio probabilstico
(ii) El jugador B gana cuando el lanza el dado y se obtiene un n umero mayor o igua que 3.
Cual es la probabilidad de ganar del jugador A?
Soluci on. El experimento es geometrico, ya que se repite indenidamente hasta que alguno de
los jugadores gane. Para calcular la probabilidad pedida se denen los siguientes eventos:
G
A
= {el jugador A gana el juego},
J = {el n umero obtenido en el dado es menor que 3},
I = {el n umero obtenido en el dado es mayor o igual que 3}.
Se utilizaran los eventos J e I para esquematizar la manera de como puede ganar el jugador A.
Entonces, A gana si ocurre alguno de los siguientes eventos mutuamente excluyentes:
J o
IJJ o
IJIJJ o
IJIJIJJ o
IJIJIJIJJ o
.
.
.
donde la ubicacion de los eventos se corresponde J e I con el turno con que lanzan los jugadores
A y B. Ademas,
P(IJJ) = P(I)P(J)
2
P(IJIJJ) = P(I)
2
P(J)
3
P(IJIJIJJ) = P(I)
3
P(J)
4
P(IJIJIJIJJ) = P(I)
4
P(J)
5
.
.
.
y
P(J) =
2
6
=
1
3
, P(I) =
4
6
=
2
3
.
Por lo tanto, la probabilidad de ganar A es
P(G
A
) =
k=1
P(I)
k1
P(J)
k
=
k=1
_
2
3
_
k1
_
1
3
_
k
=
3
2
k=1
_
2
9
_
k
=
3
2
_
k=0
_
2
9
_
k
1
_
=
3
2
_
1
1
2
9
1
_
=
3
7
.
k=1
P(D|A
k
)P(A
k
),
2
Todas las esferas son de igual textura, peso y dimensi on.
3
Si por ejemplo se obtiene 1 en el dado, se deber a colocar una esfera azul en la caja; si logra un 2 en el dado,
deber a colocar 2 esferas en la caja, y as sucesivamente.
32 Tema 1 Espacio probabilstico
donde el evento D|A
k
esta denido como
D|A
k
= {Extraer cuatro esferas azules de la caja, dado que
se introdujeron k esferas azules} , k = 1, 2, . . . , 6.
Como es imposible extraer 4 esferas azules cuando se introducen 3 o menos esferas a la caja,
entonces P(D|A
k
) = 0 para k = 1, 2, 3. Ahora bien, el experimento de sacar 4 esferas de una
caja que tiene k = 4, 5, o 6 bolas azules y 10 bolas rojas es de tipo hipergeometrico. Entonces
la probabilidad P(D|A
k
) esta dada por
P(D|A
k
) =
_
k
4
__
10
0
_
_
10 +k
4
_ =
_
k
4
_
_
10 +k
4
_, k = 4, 5, 6.
Por otra parte, es claro que la probabilidad de introducir k esferas azules en la caja es igual a
la probabilidad de obtener un n umero k en el dado, para k = 1, 2, . . . , 6. En otras palabras,
P(A
k
) = 1/6 para k = 1, 2, . . . , 6.
De todo lo anterior se deduce que la probabilidad de extraer cuatro esferas azules de la caja
es
P(D) =
6
k=4
_
k
4
_
_
10 +k
4
_(1/6)
= (1/6)
6
k=4
k! (10 +k 4)!
(k 4)! (10 +k)!
=
155
72072
0.0021506
_
_
2
_
j=0
R
j
_
_
. (1.17)
Como
10
k=3
A
k
y
2
j=0
R
j
son eventos independientes, y los eventos A
k
y R
j
son mutuamente
excluyentes, entonces por (1.17) se tiene que
P(G
A
) = P
_
10
_
k=3
A
k
_
P
_
_
2
_
j=0
R
j
_
_
=
_
10
k=3
P(A
k
)
_
_
_
2
j=0
P(R
j
)
_
_
. (1.18)
Ahora, como
P(A
k
) =
_
10
k
__
2
5
_
k
_
3
5
_
10k
, para k = 0, 1, . . . , 10,
y
P(R
j
) =
_
10
j
__
2
5
_
j
_
3
5
_
10j
, para j = 0, 1, . . . , 10,
entonces por (1.18) la probabilidad de que el jugador A gane el juego es
P(G
A
) =
_
10
k=3
_
10
k
__
2
5
_
k
_
3
5
_
10k
_
_
_
2
j=0
_
10
j
__
2
5
_
j
_
3
5
_
10j
_
_
.
Problema 1.2. Sean seis cajas numeradas 1, 2, . . . , 6 tales que la caja j tiene 7j esferas azules
y j esferas rojas, para j = 1, 2, . . . , 6. Suponga que usted lanza una moneda normal sobre una
supercie plana. Si en la moneda se obtiene cara, usted toma una esfera de la caja 6 y la coloca
en la caja 1. Por el contrario, si en la moneda sale sello usted no altera el contenido de las cajas.
Finalmente como ultima etapa del experimento, usted toma una esfera de cada una de las cajas.
Determinar la probabilidad de extraer sendas esferas azules.
Soluci on. Sean los eventos C, A
j
, R y D denidos respectivamente como
C = {obtener cara en la moneda normal},
A
j
= {escoger una esfera azul de la caja j}, para j = 1, 2, . . . , 6,
R = {tomar una esfera roja de la caja 6},
D = {las seis esferas escogidas son azules}.
El evento D se puede expresar como D =
6
j=1
A
j
. Ademas, los eventos A
j
son independientes
dos a dos, es decir, P(A
i
A
k
) = P(A
i
)P(A
k
) para i = k. Por lo tanto,
P(D) =
6
j=1
P(A
j
). (1.19)
Por las condiciones planteadas en el enunciado del problema se tiene que
P(A
j
) =
7 j
7
, para j = 2, 3, 4, 5. (1.20)
34 Tema 1 Espacio probabilstico
Ahora se calculara las probabilidades P(A
1
) y P(A
6
). El evento A
1
se puede expresar como
A
1
= (C R A
1
) (C R A
1
) (C A
1
). Luego, por la ecuacion anterior y dado que los
eventos C y R son independientes, se puede escribir:
P(A
1
) = P(C R A
1
) +P(C R A
1
) +P(C A
1
)
= P(A
1
|C R)P(C)P(R) +P(A
1
|C R)P(C)P(R) +P(A
1
|C)P(C)
=
6
8
1
2
6
7
+
7
8
1
2
1
7
+
6
7
1
2
=
91
7 2
4
. (1.21)
Por otra parte, el evento A
6
se puede expresar como
A
6
= (C R A
6
) (C R A
6
) (C A
6
).
As, empleando un razonamiento similar al del calculo de P(A
1
) se obtiene:
P(A
6
) = P(C R A
6
) +P(C R A
6
) +P(C A
6
)
= P(A
6
|C R)P(C)P(R) +P(A
6
|C R)P(C)P(R) +P(A
6
|C)P(C)
=
1
6
1
2
6
7
+ 0
1
2
6
7
+
1
7
1
2
=
1
7
. (1.22)
Por (1.19), (1.20), (1.21) y (1.22) la probabilidad de que cada una de las seis esferas escogidas
es azul es
P(D) =
91
7 2
4
5
j=2
_
7 j
7
_
1
7
=
91 120
7
6
2
4
.
Problema 1.3. Se tienen dos cajas que contienen esferas de igual tama no y peso, pero de
distintos colores. La primera caja contiene 4 esferas blancas, 3 rojas y 4 negras. En cambio,
la segunda caja contiene 3 esferas blancas, 4 azules y 4 negras. Si se extraen con reposici on 3
esferas de cada caja, entonces determinar la probabilidad de que se extraigan al menos 2 esferas
negras. (Tenga presente que debe considerar el total de esferas extradas, es decir, las tres esferas
de la primera caja mas las otras tres de la segunda caja.)
Soluci on. Sean los eventos N: al menos 2 esferas en el total esferas extradas, E
k
: k esferas
negras en una muestra de tama no 3 tomada con reposicion de la primera caja, k = 0, 1, 2, 3,
y F
j
: j esferas negras en una muestra de tama no 3 tomada con reposicion de la segunda caja,
j = 0, 1, 2, 3. Se tiene que
P(N) = 1 P(N), (1.23)
donde el evento N es el complemento de N, el cual se puede expresar como
N = (E
0
F
0
) (E
1
F
0
) (E
0
F
1
). (1.24)
Por otra parte, se tiene que
P(E
k
) =
_
3
k
_
(4/11)
k
(7/11)
3k
, k = 0, 1, 2, 3; (1.25)
P(F
j
) =
_
3
j
_
(4/11)
j
(7/11)
3j
, j = 0, 1, 2, 3. (1.26)
1.9 Problemas resueltos 35
Ahora bien, como los eventos E
k
y F
j
son independientes y los eventos (E
k
F
j
) son mutuamente
excluyentes, entonces por (1.24), (1.25) y (1.26) se puede escribir:
P(N) = P(E
0
)P(F
0
) +P(E
1
)P(F
0
) +P(E
0
)P(F
1
)
=
7
3
11
3
7
3
11
3
+ 3
4
11
7
2
11
2
7
3
11
3
+
7
3
11
3
3
4
11
7
2
11
2
=
7
6
11
6
+ 24
7
5
11
6
= 31
7
5
11
6
(1.27)
De (1.23) y (1.27) se obtiene
P(N) = 1 31
7
5
11
6
=
11
6
31 7
5
11
6
.
Problema 1.4. Cuatro amigos (Alberto, Beatriz, Carmen y Luis) se sientan alrededor de una
mesa a jugar, apostando cierta cantidad de dinero. El juego consiste en que cada uno de ellos
lanzara un dado corriente, por turnos; el primero de ellos que saque el n umero 1 ganara y recibir a
de cada uno de sus compa neros 10 Bs.F. Ahora bien, Alberto toma el dado y decide lanzar de
primero. Luego de Alberto, se acordo que sera el turno de Beatriz, luego Carmen y, por ultimo,
Luis. Este orden se repite hasta lograr un ganador. Determinar la probabilidad de que Alberto
gane.
Soluci on. Sea A el evento: Alberto gana, el cual se puede escribir como
A =
_
i=1
A
i
, (1.28)
donde el evento A
i
es que Alberto gana en el i-esimo turno. Ademas, cada A
i
se puede expresar
como
A
i
=
_
_
i1
j=1
_
A
i
B
j
C
j
L
j
_
_
_
A
i
, para i = 1, 2, . . . (1.29)
donde los eventos B
j
, C
j
, y L
j
son, respectivamente, gana Beatriz, gana Carlos, y gana Luis, en
el j-esimo turno. Es claro que los eventos A
i
son mutuamente excluyentes, ademas, los eventos
A
j
, B
j
, C
j
, y L
j
son independientes. Por lo tanto, de (1.29) y (1.29) se tiene que la probabilidad
P(A) es
P(A) =
i=1
P(A
i
) =
i=1
P(A
i
)
i1
j=1
P
_
A
i
B
j
C
j
L
j
_
=
i=1
P(A
i
)
i1
j=1
P(A
i
)P(B
j
)P(C
j
)P(L
j
)
=
i=1
1
6
i1
j=1
_
5
6
_
4
=
i=1
1
6
_
5
6
_
4(i1)
=
1
6
i=0
_
5
6
_
4i
=
6
3
6
4
5
4
.
i=0
P(A
i
S E) +
2
i=0
P(A
i
L E)
=
2
i=0
P(E|A
i
S)P(S)P(A
i
)
+
2
i=0
P(E|A
i
L)P(L)P(A
i
). (1.30)
Ahora bien, se tiene que
P(L) =
2
3
, P(S) =
1
3
, P(D
A
) =
9
10
, P(D
B
) =
8
10
,
P(A
i
) =
_
4
i
__
6
2 i
_
_
10
2
_ , k = 0, 1, 2,
1.9 Problemas resueltos 37
P(E|A
0
S) = P(D
B
D
B
) = P(D
B
)P(D
B
) =
8
10
8
10
=
64
100
,
P(E|A
1
S) = P(D
A
D
B
) = P(D
A
)P(D
B
) =
9
10
8
10
=
72
100
,
P(E|A
2
S) = P(D
A
D
A
) = P(D
A
)P(D
A
) =
9
10
9
10
=
81
100
,
P(E|A
0
L) = P(D
B
D
B
) = 1 P(D
B
D
B
) = 1
2
10
2
10
=
96
100
,
P(E|A
1
L) = P(D
A
D
B
) = 1 P(D
A
D
B
) = 1
1
10
2
10
=
98
100
,
P(E|A
2
L) = P(D
A
D
A
) = 1 P(D
A
D
A
) = 1
1
10
1
10
=
99
100
.
De esta forma, sustituyendo todas las probabilidades anteriores en la ecuacion (1.30) se
obtiene
P(E) =
1
3
_
64
100
15
45
+
72
100
24
45
+
81
100
6
45
_
+
2
3
_
96
100
15
45
+
98
100
24
45
+
99
100
6
45
_
=
11946
13500
=
1991
2250
.
b) Consideremos los eventos A
i
y S denidos en la parte a). As, la probabilidad pedida es
P(A
1
|S). Por las condiciones del problema se tiene que los eventos A
i
y S son independientes
para cada i = 0, 1, 2. De esta forma,
P(A
1
|S) = P(A
1
) =
_
4
1
__
6
1
_
_
10
2
_ =
24
45
=
8
15
.
i=1
p
i
= 1.
La coleccion de pares (x
i
, p
i
), i = 1, 2, . . ., se llama distribuci on de probabilidades de X.
Denicion 2.1. La funcion
p
X
(x) = P(X = x) para x R, (2.1)
se denomina funcion de probabilidades de la variable aleatoria discreta X.
La funcion de probabilidades de X satisface:
p
X
(x) =
_
p
i
, si x = x
i
, i = 1, 2 . . .
0, si x = x
i
, i = 1, 2 . . .
Ejemplo 2.4. Consideremos la variable aleatoria X denida en el Ejemplo 2.1. Como se dijo
en el Ejemplo 2.3, los valores de X con probabilidad positiva son {1, 2, 3, . . . , n, . . .}. El evento
(X = k) signica que en el k-esimo lanzamiento se obtuvo cara por primera vez, entonces
p
k
= P(X = k) = (1/2)
k
, para k = 1, 2, . . ., y
k=1
p
k
=
k=1
(1/2)
k
=
k=0
(1/2)
k
1 = 1.
44 Tema 2 Una variable aleatoria
Por lo tanto, los pares (1, 1/2
k
) para k = 1, 2, . . ., son la distribucion de probabilidades de X, y
su funcion de probabilidades es
p
X
(x) =
_
(1/2)
x
, si x = 1, 2 . . .
0, en otro caso.
Ejemplo 2.5. Sea Z la variable aleatoria denida como el n umero de caras en tres lanzamientos
de una moneda. Determinar la funcion de probabilidades de Z.
Soluci on. El espacio muestral del experimento es
S = {ccc, ccs, csc, scc, sss, ssc, scs, css}.
Los eventos denidos por la variable aleatoria Z cuyo probabilidad es distinta de cero son:
(Z = 0) = {sss}
(Z = 1) = {ssc, scs, css}
(Z = 2) = {ccs, csc, scc}
(Z = 3) = {ccc}
Como los ocho eventos elementales son igualmente probables, la funcion de probabilidades de Z
es
p
Z
(z) =
_
_
1/8, z = 0,
3/8, z = 1,
3/8, z = 2,
1/8, z = 3,
0, en otros casos.
2/8
1/8
3/8
4/8
5/8
6/8
7/8
1
1 2 3
z
p
Z
(z)
0
Figura 1. Funcion de probabilidades para el Ejemplo 2.5
La funcion de probabilidades de Z es ilustrada gracamente en la Figura 1.
2.4 Funci on de densidad de probabilidades 45
2.3.2 Variable aleatoria continua
Sea X una variable aleatoria. Si el conjunto de valores de X con probabilidad positiva es un
conjunto no numerable de n umeros reales, llamamos a X variable aleatoria continua.
Ejemplo 2.6. Supongamos que escogemos aleatoriamente un punto del intervalo (0, 1). De-
namos la variable aleatoria X como la coordenada x del punto escogido. Efectivamente, X es
una variable aleatoria continua.
Para calcular la probabilidad de un evento A descrito a traves de una variable aleatoria
continua, es necesario denir una funcion real f
X
(x) a valores reales. La funcion f
X
se denomina
funci on de densidad de probabilidades. Por ejemplo, la probabilidad del evento (a < X b) se
calcula como
P(a < X b) =
_
b
a
f
X
(x) dx.
La funcion de densidad de probabilidades se describira detalladamente en la Seccion 2.4.
2.3.3 Variable aleatoria mixta
Hay situaciones donde podemos encontrar variables del tipo mixto, es decir, variables alea-
torias con la particularidad de ser continuas y discretas al mismo tiempo.
Sea X una variable aleatoria. Si el n umero de valores de X con probabilidad positiva es
nito o innito numerable, x
1
, . . . , x
n
, . . ., y tambien comprende alg un intervalo a x b,
llamamos a X variable aleatoria mixta.
Ejemplo 2.7. Supongamos que estamos probando un equipo y medimos su tiempo de funciona-
miento. Supongamos tambien que el equipo puede fallar en el tiempo t = 0. Sea X la variable
aleatoria denida como el tiempo de funcionamiento del equipo. Es claro que el conjunto de
valores de X con probabilidad positiva es {x R : x 0}. Por otra parte, como el equipo
puede fallar en el tiempo t = 0, entonces P(X = 0) > 0. Por lo tanto, la variable aleatoria X es
mixta.
Para calcular la probabilidad de un evento A descrito a traves de una variable aleatoria mixta,
se procede como en el caso de las variables aleatorias continuas, es decir, se emplea la funci on
de densidad de probabilidades para calcular la probabilidad de dicho evento (ver Seccion 2.4).
2.4 Funcion de densidad de probabilidades
En esta seccion no haremos una distincion entre los tipos de variables aleatorias. Todos los
conceptos que aqu aparecen se extienden a cualquier variable aleatoria. Sea X una variable
aleatoria cualquiera. La funcion de densidad de probabilidades de la variable aleatoria X,
denotada por f
X
, es una funcion real tal que satisface las siguientes condiciones:
a) f
X
(x) 0, para todo x R;
b)
_
f
X
(x) dx = 1;
c) P(a < X b) =
_
b
a
f
X
(x) dx, para todo a, b R.
En la siguiente denicion se describe como se construye la funcion de densidad de una variable
aleatoria discreta.
46 Tema 2 Una variable aleatoria
Denicion 2.2. Sean X una variable aleatoria discreta y x
1
, x
2
, . . . , x
n
, . . . el conjunto de
valores de X con probabilidad positiva. La funcion de densidad de probabilidades de la variable
aleatoria discreta X se dene como
f
X
(x) =
k
p
X
(x
k
)(x x
k
), (2.2)
donde p
X
(x) es la funcion de probabilidades de X, y k = 1, 2, . . . , n si el conjunto de valores de
X con probabilidad positiva es nito, o k = 1, 2, . . . , si es innito.
Ejemplo 2.8. Considere el siguiente experimento.
E = lanzar un dado normal repetidamente hasta obtener
un seis por primera vez.
Hallar la funcion de densidad de probabilidades de la variable aleatoria X denida como
X = n umero de lanzamientos del dado necesarios para obtener
un seis por primera vez.
Soluci on. Se tiene que el conjunto de valores de X con probabilidad positiva es {1, 2, 3, 4, . . .};
ademas,
P(X = k) =
_
5
6
_
k1
_
1
6
_
, para k = 1, 2, 3, . . .
As, la funcion de probabilidades de X es
p
X
(x) =
_
(5/6)
x1
(1/6), si x = 1, 2, . . . ,
0, en otro caso.
Por tanto, la funcion de densidad de X es
f
X
(x) =
k=1
p
X
(k)(x k) = (1/6)
k=1
(5/6)
k1
(x k).
En la Figura 2 se observa la graca de la funcion de densidad f
X
(x).
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
0.18
x
fX(x)
Figura 2. Funcion de densidad f
X
(x) = (1/6)
k=1
(5/6)
k1
(x k).
2.5 Funci on de distribuci on acumulativa de probabilidades 47
2.5 Funcion de distribucion acumulativa de probabilidades
Sea X una variable aleatoria cualquiera. La funcion de distribucion acumulativa de
probabilidades, o simplemente, funcion de distribucion de la variable aleatoria X, denotada
por F
X
, se dene como
F
X
(x) = P(X x), para x R. (2.3)
A continuacion damos un teorema que presenta algunas propiedades de la funcion de distri-
bucion acumulativa de probabilidades, las cuales se obtienen de forma inmediata a partir de su
denicion.
Teorema 2.1. Sea X una variable aleatoria cuya funci on de distribuci on es F
X
. Entonces se
cumple:
(i) La funci on F
X
no es decreciente. Esto es,
x
1
x
2
F
X
(x
1
) F
X
(x
2
).
(ii) F
X
es continua por la derecha, adem as,
lm
x
F
X
(x) = 0 y lm
x
F
X
(x) = 1.
El siguiente teorema muestra las relaciones entre la funci on de densidad y la funci on de
distribucion acumulativa de probabilidades.
Teorema 2.2. Sea X una variable aleatoria cuyas funciones de densidad y distribuci on son
respectivamente f
X
y F
X
. Entonces se cumple:
(i)
f
X
(x) =
d
dx
F
X
(x).
(ii)
F
X
(x) =
_
x
f
X
(s) ds.
Proposicion 2.1. Sea X una variable aleatoria cuyas funciones de densidad y distribuci on son
respectivamente f
X
y F
X
. Entonces se cumple:
(i) P(X a) = F
X
(a) =
_
a
f
X
(x) dx, para a R.
(ii) P(X > a) = 1 P(X a) = 1 F
X
(a) = 1
_
a
f
X
(x) dx, para a R.
(iii) P(a < X b) = F
X
(b) F
X
(a) =
_
b
a
f
X
(x) dx, para a, b R.
Ejemplo 2.9. Hallar la funcion de distribucion de la variable aleatoria X denida en el Ejem-
plo 2.8.
Soluci on. Se tiene que
F
X
(x) =
x
_
f
X
(s) ds.
48 Tema 2 Una variable aleatoria
Ademas, la funcion de densidad de X es
f
X
(x) = (1/6)
k=1
(5/6)
k1
(x k).
Por lo tanto, la funcion de distribucion de X es
F
X
(x) =
x
_
_
(1/6)
k=1
(5/6)
k1
(s k)
_
ds
= (1/6)
k=1
(5/6)
k1
x
_
(s k) ds
= (1/6)
k=1
(5/6)
k1
u(x k).
En la Figura 3 se observa la graca de la funcion de distribucion F
X
(x).
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
x
FX(x)
Figura 3. Funcion de distribucion F
X
(x) = (1/6)
k=1
(5/6)
k1
u(x k)
2.6 Distribuciones de probabilidad especiales
Abajo se dan los datos fundamentales de algunas de las distribuciones mas importantes.
Prestamos mas atencion a la distribucion normal.
2.6.1 Distribuciones discretas
Distribucion degenerada. La variable aleatoria X tiene una distribucion degenerada concen-
trada en a R, si X tiene
funcion de densidad
f
X
(x) = (x a),
2.6 Distribuciones de probabilidad especiales 49
funcion de distribucion
F
X
(x) = u(x a).
Distribucion de Bernoulli. La variable aleatoria X tiene una distribucion de Bernoulli de
parametro p (0 < p < 1), si X tiene
funcion de densidad
f
X
(x) = (1 p)(x) +p (x 1),
funcion de distribucion
F
X
(x) = (1 p) u(x) +p u(x 1).
Distribucion binomial. La variable aleatoria X tiene una distribucion binomial de parametros
n, p (0 < p < 1, n 1), si X tiene
funcion de densidad
f
X
(x) =
n
k=0
_
n
k
_
p
k
(1 p)
nk
(x k),
funcion de distribucion
F
X
(x) =
n
k=0
_
n
k
_
p
k
(1 p)
nk
u(x k).
Distribucion geometrica. La variable aleatoria X tiene una distribucion geometrica de par ametro
p (0 < p < 1), si X tiene
funcion de densidad
f
X
(x) =
k=1
p(1 p)
k1
(x k),
funcion de distribucion
F
X
(x) =
k=1
p(1 p)
k1
u(x k).
Distribucion de Poisson. La variable aleatoria X tiene una distribucion de Poisson de par ametro
( > 0), si X tiene
funcion de densidad
f
X
(x) =
k=0
k
k!
e
(x k),
funcion de distribucion
F
X
(x) =
n
k=0
k
k!
e
u(x k).
50 Tema 2 Una variable aleatoria
2.6.2 Distribuciones continuas
Distribucion uniforme. La variable aleatoria X tiene una distribucion uniforme en el inte-
rvalo (a, b) (a < b), si X tiene
funcion de densidad
f
X
(x) =
_
_
_
1
b a
, x (a, b),
0, x / (a, b),
funcion de distribucion
F
X
(x) =
_
_
0, x a,
x a
b a
, a < x < b,
1, x b.
Distribucion triangular. La variable aleatoria X tiene una distribucion triangular con mnimo
a, moda b y maximo c, si X tiene
funcion de densidad
f
X
(x) =
_
_
0, x a,
2(x a)
(c a)(b a)
, a < x b,
2(x c)
(c a)(b c)
, b < x c,
0, x > c.
funcion de distribucion
F
X
(x) =
_
_
0, x a,
(x a)
2
(c a)(b a)
, a < x b,
1 +
(x c)
2
(c a)(b c)
, b < x c,
1, x > c.
Distribucion exponencial. La variable aleatoria X tiene una distribucion exponencial de
parametro ( > 0), si X tiene
funcion de densidad
f
X
(x) =
_
e
x
, x 0,
0, x < 0,
funcion de distribucion
F
X
(x) =
_
0, x < 0,
1 e
x
, x 0.
Distribucion de Laplace. La variable aleatoria X tiene una distribucion de Laplace de par ametros
(, ) ( > 0), si X tiene
funcion de densidad
f
X
(x) =
2
e
|x|
.
2.6 Distribuciones de probabilidad especiales 51
Distribucion normal o gaussiana
La distribucion gaussiana o distribucion normal fue introducida por C.F. Gauss en relaci on
con la teora de los errores de medidas fsicas. La distribucion normal es la distribucion continua
mas importante, por las siguientes razones:
1. La mayora de las variables aleatorias que aparecen relacionadas con experimentos u ob-
servaciones practicas estan distribuidas normalmente.
2. La mayora de las variables aleatorias que no siguen una distribucion normal se pueden
convertir en una variable aleatoria con distribucion normal a traves de una transformaci on
sencilla.
3. Ciertas distribuciones mas complicadas se pueden aproximar mediante la distribucion nor-
mal; por ejemplo, las distribuciones binomial, geometrica, etc.
Denicion 2.3 (Funcion de densidad de la distribucion normal). Se dice que una variable ale-
atoria sigue una distribucion normal o esta distribuida normalmente, si su funcion de densidad
de probabilidades tiene la forma
f
X
(x) =
1
2
e
1
2
(
x
)
2
, (2.4)
donde y > 0, son parametros reales.
1
1 0 -1 -2 2 x
f
X
(x)
= 1
= 0.5
= 0.25
Figura 4. Funcion de densidad (2.4) con = 0 para varios valores de
En la Figura 4 se muestra la representacion graca de la funcion de densidad de la distribuci on
normal con = 0, para varios valores de . La curva que representa a f
X
(x) se denomina
campana de Gauss. Ademas, como la integral
_
|x|f
X
(x) dx
existe y f
X
(x) es simetrica con respecto a x = , entonces el parametro es el valor esperado o
media de la distribucion normal. Asimismo, la varianza de la distribucion normal esta dada por
V (X) = E(X)
2
E(X)
2
=
1
2
_
x
2
e
1
2
(
x
)
2
dx
_
1
2
_
xe
1
2
(
x
)
2
dx
_
2
=
2
+
2
2
=
2
.
El parametro se denomina desviacion estandar de la distribucion.
52 Tema 2 Una variable aleatoria
Denicion 2.4 (Funcion de distribucion de la distribucion normal). Sea X una variable alea-
toria distribuida normalmente cuya funcion de densidad de probabilidades esta dada por (2.4).
La funcion de distribuci on de probabilidades de X se dene como
F
X
(x) = P(X x) =
1
2
_
x
1
2
(
)
2
d. (2.5)
Es claro que la funcion e
1
2
(
)
2
no es integrable. Por ello, los valores de la funci on de
distribucion de probabilidades de la distribucion normal no se pueden calcular con metodos
elementales, sino que se calculan a traves de valores aproximados de la distribucion normal
estandar o normal con media 0 y desviacion estandar 1. Seguidamente se deduce el procedi-
miento para calcular los valores de la funcion de distribucion de una variable aleatoria distribuida
normalmente.
Sea X una variable aleatoria distribuida normalmente con media y desviacion estandar .
Sea Z una variable aleatoria denida como
Z =
X
. (2.6)
Veamos que Z sigue una distribucion normal con media 0 y desviacion estandar 1. Como X se
puede expresar por X = Z +, entonces la funcion de densidad de la variable aleatoria Z es
f
Z
(z) =
f
X
(z +)
1
=
1
2
e
z
2
/2
,
es decir, f
Z
(z) es la funcion de densidad de una distribucion normal con media 0 y desviaci on
estandar 1. De esta forma, se ha demostrado que si Z esta denida por (2.6), entonces Z es
una variable aleatoria con distribucion normal estandar. Este hecho permite calcular el valor de
F
X
(x) utilizando los valores de F
Z
(z). El valor de F
X
(x) para cada x R, esta dado por
F
X
(x) = F
Z
_
x
_
=
1
2
_ x
e
u
2
/2
du =
_
x
_
, (2.7)
donde
(z) =
1
2
_
z
e
u
2
/2
du.
Los valores de la funcion (z) se aproximan utilizando metodos numericos y se disponen en una
tabla. En la Tabla 1 se pueden apreciar algunos valores de (z).
A continuacion se dan algunas propiedades de la funcion (z).
i) Para todo z > 0 se cumple
(z) = 1 (z).
ii) Si X es normal con media 0 y desviacion estandar 1, entonces la probabilidad
P(c X c) =
es equivalente a (c) = (1 +)/2, para todo c > 0.
La ecuacion (2.7) permite establecer las siguientes propiedades:
Para a R, la probabilidad P(X a) esta dada por
P(X a) =
_
a
_
.
2.6 Distribuciones de probabilidad especiales 53
Tabla 1. Tabla de la distribucion normal estandar
z
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998
3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.8 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
54 Tema 2 Una variable aleatoria
Para a R, la probabilidad P(X > a) es
P(X > a) = 1
_
a
_
.
Para a, b R tales a b, la probabilidad P(a < X b) es
P(a < X b) =
_
b
_
a
_
.
Los siguientes ejemplos ayudan a entender el uso practico de la Tabla 1.
Ejemplo 2.10. Determinar las probabilidades
(a) P(X 1.44)
(b) P(X 2.16)
(c) P(X 0.923)
(d) P(X 1)
(e) P(X 2.9)
(f) P(2 X 10)
donde X es normal con media 0 y varianza 1.
Puesto que X es normal estandar, los valores deseados se pueden obtener directamente de
la Tabla 1. Se tiene entonces:
(a) P(X 1.44) = (1.44) = 0.9251
(b) P(X 2.16) = (2.16) = 1 (2.16) = 1 0.9846 = 0.0154
(c) P(X 0.923) =
(0.92) + (0.93)
2
=
0.8212 + 0.8238
2
= 0.8225
(d) P(X 1) = 1 (1) = 1 0.8413 = 0.1587
(e) P(X 2.9) = 1 P(X < 2.9) = 1 [1 (2.9)] = (2.9) = 0.9981
(f) P(2 X 10) = (10) (2) = 1 0.9772 = 0.0228
Ejemplo 2.11. Determinar las probabilidades en el Ejemplo 2.10, suponiendo que X es normal
con media = 1 y varianza
2
= 4.
De (2.6), (2.7) y la Tabla 1, se obtiene:
(a) P(X 1.44) = F
X
(1.44) =
_
1.44 1
2
_
= (0.22) = 0.5871
(b) P(X 2.16) = F
X
(2.16) =
_
2.16 1
2
_
= (1.58) = 1 (1.58) = 0.0571
(c) P(X 0.923) = F
X
(0.923) =
_
0.923 1
2
_
= (0.039) = 1 (0.039)
= 1
(0.03) + (0.04)
2
= 0.4860
(d) P(X 1) = 1 F
X
(1) = 1
_
1 1
2
_
= 1 (0) = 0.5
(e) P(X 2.9) = 1 F
X
(2.9) = 1
_
2.9 1
2
_
= 1 (1.95) = (1.95) = 0.9744
(f) P(2 X 10) =
_
10 1
2
_
_
2 1
2
_
= (4.5) (0.5) = 1 0.6915 = 0.3085
Ejemplo 2.12. Sea X una variable aleatoria que sigue una distribucion normal con media
= 2 y varianza
2
= 0.25. Determinar la constante c tal que:
2.7 Funciones de distribuci on y densidad condicionadas 55
(a) P(X c) = 0.2
(b) P(c X 1) = 0.5
(c) P(2 c X 2 +c) = 0.996
De (2.6), (2.7) y la Tabla 1, se obtiene:
(a) 0.2 = P(X c) = 1
_
c + 2
0.5
_
(2c + 4) = 0.8 2c + 4 = 0.845 c = 1.578
(b) 0.5 = P(c X 1) = (2)(2c+4) (2c+4) = 0.4772 (2c4) = 0.5228
2c 4 = 0.045 c = 2.02
(c) 0.996 = P(2 c X 2 + c) = (2c) (2c) = 2(2c) 1 (2c) = 0.998
2c = 2.88 c = 1.44
2.7 Funciones de distribucion y densidad condicionadas
Sea X una variable aleatoria cuya funcion de distribucion es F
X
y su funcion de densidad es
f
X
. Sea A un evento no imposible.
Denicion 2.5. La funci on de distribuci on de X condicionada al evento A, denotada por
F
X
(x|A), se dene como
F
X
(x|A) = P(X x|A) =
P ((X x) A)
P(A)
, para x R.
La siguiente denicion nos permitira introducir el concepto de funcion de densidad condicio-
nada.
Denicion 2.6. Sean X una variable aleatoria, A un evento y x un n umero real jo. Diremos
que x A si el evento (X = x) es subconjunto de A, esto es, (X = x) A.
Ejemplo 2.13. Sean X una variable aleatoria y A el evento A = (a < X b), donde a, b R.
Entonces, x A si y solo si a < x b.
Denicion 2.7. La funci on de densidad de X condicionada al evento A, denotada por f
X
(x|A),
se dene para cada x R como
f
X
(x|A) =
_
_
_
f
X
(x)
P(A)
, x A,
0, x A.
Comentario 2.1. Las funciones de distribucion y densidad condicionales satisfacen:
i) f
X
(x|A) 0.
ii) f
X
(x|A) =
d
dx
F
X
(x|A), y F
X
(x|A) =
_
x
f
X
(s|A) ds.
iii) lm
x
F
X
(x|A) = 0, y lm
x
F
X
(x|A) = 1.
iv) P(a < X b|A) = F
X
(b|A) F
X
(a|A) =
_
b
a
f
X
(x|A) dx.
En los siguientes cuatro ejemplos calculamos las expresiones analticas de F
X
(x|A) y f
X
(x|A)
cuando el evento A posee una forma particular.
56 Tema 2 Una variable aleatoria
Ejemplo 2.14. Sean a R y A = (X > a). Por denicion, la funcion de distribucion condicio-
nada F
X
(x|X > a) esta dada por
F
X
(x|X > a) = P(X x|X > a) =
P [(X x) (X > a)]
P(X > a)
.
Pero, P(X > a) = 1 P(X a) = 1 F
X
(a), y
(X x) (X > a) =
_
, x a
a < X x, x > a.
Por tanto,
F
X
(x|X > a) =
_
_
_
0, x a
F
X
(x) F
X
(a)
1 F
X
(a)
, x > a.
Por otra parte, la funcion de densidad condicionada f
X
(x|X > a) es
f
X
(x|X > a) =
_
_
_
f
X
(x)
P(A)
, x A
0, x A
=
_
_
_
f
X
(x)
P(X > a)
, x > a
0, x a
=
_
_
_
f
X
(x)
1 F
X
(a)
, x > a
0, x a.
_
f
X
(x)
P(X b)
, x b
0, x > b
=
_
_
f
X
(x)
F
X
(b)
, x b
0, x > b.
_
, x a
a < X x, a < x b
a < X b, x > b.
Por tanto,
F
X
(x|a < X b) =
_
_
0, x a
F
X
(x) F
X
(a)
F
X
(b) F
X
(a)
, a < x b
1, x > b.
Por otra parte, la funcion de densidad condicionada f
X
(x|a < X b) es
f
X
(x|a < X b) =
_
_
_
f
X
(x)
P(A)
, x A
0, x A
=
_
_
f
X
(x)
P(a < X b)
, a < x b
0, x a, o x > b
=
_
_
f
X
(x)
F
X
(b) F
X
(a)
, a < x b
0, x a, o x > b.
_
X x, x a
X a, a < x b
(X a) (b < X x), x > b.
Por tanto,
F
X
(x|(X a) (X > b)) =
_
_
F
X
(x)
1 +F
X
(a) F
X
(b)
, x a
F
X
(a)
1 +F
X
(a) F
X
(b)
, a < x b
F
X
(x) +F
X
(a) F
X
(b)
1 +F
X
(a) F
X
(b)
, x > b.
Por otra parte, la funcion de densidad condicionada f
X
(x|(X a) (X > b)) es
f
X
(x|(X a) (X > b)) =
_
_
_
f
X
(x)
P(A)
, x A
0, x A
=
_
_
f
X
(x)
P [(X a) (X > b)]
, x a o x > b
0, a < x b
=
_
_
f
X
(x)
1 +F
X
(a) F
X
(b)
, x a o x > b
0, a < x b.
xf
X
(x) dx.
Es claro que E(X) existe si y solo si
_
|x|f
X
(x) dx < .
Ejemplo 2.18. Sea X una variable aleatoria distribuida uniformemente en el intervalo (a, b).
Calcular el valor esperado de X.
Soluci on. Se tiene que
E(X) =
_
xf
X
(x) dx
=
_
b
a
x
b a
dx
=
a +b
2
.
2.8 Valor esperado de una variable aleatoria 59
g(x)f
X
(x) dx.
Ejemplo 2.19. Sea X una variable aleatoria distribuida uniformemente en el intervalo (0, /2).
Hallar el valor esperado de la funci on g(x) = sen x.
Soluci on. Se tiene que
E(sen X) =
_
sen xf
X
(x) dx
=
_
/2
0
2 sen x
dx
=
2
x
2
f
X
(x) dx
__
xf
X
(x) dx
_
2
=
_
b
a
x
2
b a
dx
_
_
b
a
x
b a
dx
_
2
=
(b a)
2
12
.
xf
X
(x|M) dx,
donde f
X
(x|M) es la funcion de densidad de probabilidades de X condicionada al evento M.
Denicion 2.10. El valor esperado de g(x) condicionado al evento M, denotado por E(g(X)|M),
se dene como
E(g(X)|M) =
_
g(x)f
X
(x|M) dx.
Denicion 2.11. La varianza de X condicionada a la ocurrencia del evento M, denotado por
V (X|M), se dene como
V (X|M) = E(X
2
|M) E(X|M)
2
.
Ejemplo 2.21. Sea X una variable aleatoria cuya funcion de densidad de probabilidades es:
f
X
(x) =
_
_
_
1
2
cos x, si /2 < x < /2;
0, si |x| /2.
Sea M un evento denido como M = {X R : /4 X /4}. Determine el valor esperado
y la varianza de X condicionados al evento M.
Soluci on. Se tiene que la funcion de densidad de probabilidades de X condicionada al evento
M es
f
X
(x|M) =
_
_
_
2
2
cos x, si /4 x /4;
0, si |x| > /4.
2.9 Una funci on de una variable aleatoria 61
Por lo tanto, podemos escribir:
E(X|M) =
_
xf
X
(x|M) dx,
=
2
2
_
/4
/4
xcos xdx
= 0
y
V (X|M) = E(X
2
|M) E(X|M)
2
=
2
2
_
/4
/4
x
2
cos xdx
=
1
16
_
2
+ 8 32
_
.
=
_
f
X
(x)
1
|g
(x)|
_
x=g
1
(y)
y R. (2.11)
X
Y
x = g
1
(y)
Y y
X x
Figura 5. Evento A
y
equivalente a (Y y) cuando g es monotona creciente.
(b) g es monotona decreciente. Como g es continua y monotona decreciente, entonces g
posee inversa. El evento A
y
equivalente a (Y y) es
A
y
= {X R : X g
1
(y)},
que se puede apreciar gracamente en la Figura 6.
Por la denicion de F
y
y la ecuacion (2.9) podemos escribir:
F
Y
(y) = P(X g
1
(y))
= 1 P(X < g
1
(y))
= 1
_
P(X g
1
(y)) P(X = g
1
(y))
_
= 1 P(X g
1
(y)) +P(X = g
1
(y))
= 1 F
X
(g
1
(y)) +P(X = g
1
(y)) y R. (2.12)
Ahora, derivando F
Y
(y), dada en la ecuacion (2.12), con respecto a y obtenemos la ex-
presion analtica de la funcion de densidad f
y
:
f
Y
(y) =
_
f
X
(x)
1
|g
(x)|
_
x=g
1
(y)
y R. (2.13)
2.9 Una funci on de una variable aleatoria 63
X
Y
g
1
(y)
Y y
X g
1
(y)
Figura 6. Evento A
y
equivalente a (Y y) cuando g es monotona decreciente.
(c) g es no-monotona. En el caso particular de la Figura 7, el evento A
y
equivalente a (Y y)
es
A
y
= {X R : (X x
1
) (x
2
X x
3
)}.
X
Y
Y y
x
1
x
2
x
3
X x
1
x
2
X x
3
Figura 7. Evento A
y
equivalente a (Y y) cuando g es no-monotona.
Por la denicion de F
y
podemos escribir:
F
Y
(y) = P(Y y)
= P((X x
1
) (x
2
X x
3
))
= P(X x
1
) +P(x
2
X x
3
)
= F
X
(x
1
) +F
X
(x
3
) F
X
(x
2
) +P(X = x
2
) y R, (2.14)
64 Tema 2 Una variable aleatoria
donde x
1
, x
2
, y x
3
dependen de cada y. Ahora, derivando F
Y
(y), dada en la ecua-
cion (2.14), con respecto a y obtenemos la expresion analtica de la funcion de densidad
f
y
:
f
Y
(y) =
f
X
(x
1
)
|g
(x
1
)|
+
f
X
(x
2
)
|g
(x
2
)|
+
f
X
(x
3
)
|g
(x
3
)|
y R, (2.15)
donde x
1
, x
2
, y x
3
dependen de y.
2.10 Problemas resueltos
En esta seccion se describe la resolucion de problemas que contemplan los conceptos b asicos
de una variable aleatoria.
Problema 2.1. Sea Z una variable aleatoria que sigue una distribucion triangular con mnimo
2, moda 1 y maximo 2. Sea W otra variable aleatoria que esta relacionada con la variable
aleatoria Z, cuya relacion se muestra en la siguiente gura.
1
1
0
Z
W
1
1
Determine la probabilidad del evento |W 1| 1.
Soluci on. Por las condiciones dadas en el enunciado del problema podemos escribir:
P(|W 1| 1) = P(0 W 2)
= P(0 W < 1) +P(W = 1) +P(1 < W 2)
= P(0 Z < 1) +P(Z 1) + 0
=
_
1
0
f
Z
(z) dz +
_
1
f
Z
(z) dz
=
_
1
0
_
1
6
(z + 2)
_
dz +
_
2
1
_
1
2
(z 2)
_
dz
=
5
12
+
1
4
=
2
3
.
Problema 2.2. Sea X una variable aleatoria cuya funcion de distribucion acumulativa de
probabilidades viene dada por
F
X
(x) =
_
_
0, si x < 0;
x+1
8
, si 0 x < 1;
x +
1
4
, si 1 x < 2;
1, si x 2.
2.10 Problemas resueltos 65
Si P(X > 3/2) = 3/8, determine el valor de la probabilidad P(|X 1/2| 1/2).
Soluci on. Determinemos primero el valor de en la expresion de F
X
(x). Tenemos que
P(X 3/2) = 1 P(X > 3/2) = 1
3
8
=
5
8
. (2.16)
Ahora, como F
X
(x) = x +
1
4
, para 1 x < 2, entonces por (2.16) obtenemos
5
8
= P(X 3/2) = F
X
(3/2) =
3
2
+
1
4
=
1
4
.
Por otra parte, el evento (|X 1/2| 1/2) se puede expresar como
(|X 1/2| 1/2) = (X = 0) (0 < X 1),
luego, por la expresion de F
X
(x) dada en el enunciado del problema, podemos escribir:
P(|X 1/2| 1/2) = P(X = 0) + (0 < X 1)
=
1
8
+F
X
(1) F
X
(0)
=
1
8
+
1
4
+
1
4
1
8
=
1
2
.
Problema 2.3. Sea Y una variable aleatoria cuya funcion de distribucion acumulativa de
probabilidades viene dada por
F
Y
(y) =
_
_
0, si y < 0;
1
8
, si 0 y < 1;
y +
1
4
, si 1 y < 2;
1, si y 2.
Si P(Y < 3/2) = 5/8, determine el valor esperado de Y condicionado al evento (|Y 1| 1/2).
Soluci on. Determinemos primero el valor de en la expresion de F
Y
(y). Como F
Y
(y) = y+
1
4
,
para 1 y < 2 y F
Y
(3/2) = 5/8, entonces
5
8
=
3
2
+
1
4
=
1
4
.
Por la expresion de F
Y
(y) dada en el enunciado del problema, la funcion de densidad de Y es
f
Y
(y) =
_
_
1
8
(y), si y = 0;
3
8
(y 1), si y = 1;
2
8
, si 1 < y < 2;
2
8
(y 2), si y = 2;
0, si y < 0 o y > 2.
66 Tema 2 Una variable aleatoria
Como
P(|Y 1| 1/2) = P(Y = 1/2) +P(1/2 < Y 3/2)
= F
Y
(3/2) F
Y
(1/2)
=
5
8
1
8
=
1
2
,
el valor esperado de Y condicionada al evento (|Y 1| 1/2) viene dado por
E(Y | |Y 1| 1/2) =
_
y f
Y
(y| |Y 1| 1/2) dy
=
1
P(|Y 1| 1/2)
_
3/2
1/2
y f
Y
(y) dy
= 2
_
_
1
+
1
y
3
8
(y 1) dy +
_
3/2
1
+
y
2
8
dy
_
= 2
_
3
8
+
2
8
_
y
2
2
_
3/2
1
_
= 2
_
3
8
+
2
8
5
8
_
=
17
16
.
Problema 2.4. Sea Z una variable aleatoria cuya funcion de densidad de probabilidades est a
dada por
f
Z
(z) =
_
_
2
5
(z), si z = 0;
1
5
, si 0 < z < 1;
2
5
(z 1), si z = 1;
0, si |z| > 1.
Sea m un evento relacionado con Z denido como m = {Z R : Z 1/2}. Determine el valor
de la funcion de distribucion acumulativa de probabilidades de Z condicionada al evento m,
para z = 1/4.
Soluci on. Debemos calcular F
Z
(1/4|m), donde m = {Z R : Z 1/2}. Por las condiciones
del enunciado del problema, obtenemos
P(Z < 0) = 1 P(Z 0) = 0,
luego,
P(m) = P(Z 1/2) = P(Z < 0) +P(Z = 0) +P(0 < Z 1/2)
=
_
0
+
0
2
5
(z) dz +
_
1/2
0
+
1
5
dz
=
2
5
+
1
2
1
5
=
1
2
.
2.10 Problemas resueltos 67
De esta forma, por la expresion de f
Z
(z) y la denicion de F
Z
(z|m) podemos escribir:
F
Z
(1/4|m) =
_
1/4
f
Z
(z|m) dz
=
1
P(m)
_
1/4
f
Z
(z) dz
= 2
_
_
0
+
0
2
5
(z) dz +
_
1/4
0
+
1
5
dz
_
= 2
_
2
5
+
1
4
1
5
_
=
9
10
.
Problema 2.5. Sea W una variable aleatoria que sigue una distribucion geometrica con par ametro
p = 1/3, es decir, su funcion de densidad de probabilidades esta dada por
f
W
(w) =
k=1
p(1 p)
k1
(w k) w R.
Sea un evento relacionado con W denido como
= {W R : W = n, donde n > 0 es un entero par}.
Determine la expresion matematica de la funcion de densidad de probabilidades de W condicio-
nada al evento , para 1 w 6.
Soluci on. Debemos calcular f
W
(w|), para 1 w 6. Por las condiciones del enunciado del
problema, obtenemos
P() =
n=1
1
3
_
2
3
_
2n1
=
1
2
n=1
_
4
9
_
n
=
1
2
_
n=0
_
4
9
_
n
1
_
=
1
2
_
1
1
4
9
1
_
=
1
2
4
5
=
2
5
.
De esta forma, por la expresion de f
W
(w) y la denicion de f
W
(w|) podemos escribir:
f
W
(w|) =
n=1
1
3
_
2
3
_
2n1
P()
(w 2n) =
n=1
5
4
4
n
9
n
(w 2n) w R.
68 Tema 2 Una variable aleatoria
Por lo tanto, la expresion matematica de la funcion de densidad de probabilidades de W condi-
cionada al evento es
f
W
(w|) =
5
4
4
9
(w 2) +
5
4
16
81
(w 4) +
5
4
64
729
(w 6)
=
5
9
(w 2) +
20
81
(w 4) +
80
729
(w 6)
=
405
729
(w 2) +
180
729
(w 4) +
80
729
(w 6) 1 w 6.
Problema 2.6. Sea un sistema tal que la relacion entre la entrada y la salida es
Y =
_
_
1, X < 1;
X, 1 < X < 1;
1, X > 1.
Si a la entrada de ese sistema hay una variable aleatoria X cuya funcion de distribucion acu-
mulativa de probabilidades viene dada por
F
X
(x) =
_
_
0, x < 2;
x
4
+
1
2
, 2 x < 2;
1, x 2;
entonces, determine la funcion de densidad de probabilidades de la salida Y .
Soluci on. Por las condiciones dadas en el enunciado del problema tenemos:
f
Y
(y) = 0, para y < 1 o y > 1, (2.17)
P(Y = 1) = P(X < 1) = F
X
(1
) =
1
4
, (2.18)
P(Y = 1) = P(X > 1) = 1 P(X 1) = 1 F
X
(1) =
1
4
, (2.19)
y
f
Y
(y) =
dF
X
dx
(x)
x=y
=
1
4
, para 1 < y < 1. (2.20)
Luego, por (2.17), (2.18), (2.19) y (2.20) obtenemos que la funcion de densidad de probabilidades
de Y esta dada por:
f
Y
(y) =
_
_
0, y < 1;
1
4
(y + 1), y = 1;
1
4
, 1 < y < 1;
1
4
(y 1), y = 1;
0, y > 1.
Problema 2.7. Sea Y una variable aleatoria cuya funcion de densidad de probabilidades es
f
Y
(y) =
_
_
0, y < 1;
k(y + 1), y = 1;
k, 1 < y < 1;
k
2
(y 1), y = 1;
0, y > 1.
2.10 Problemas resueltos 69
Sea X otra variable aleatoria relacionada con la variable aleatoria Y a traves de la funci on
Y = |X| 2. Determine la expresion matematica de la funcion de distribucion acumulativa de
probabilidades de X, para 2 < x < 1.
Soluci on. Debemos determinar la expresion de F
X
(x) para 2 < x < 1. Tenemos, para
2 < x < 1,
F
X
(x) = P(X x) = P(X 2) +P(2 < X x). (2.21)
Por otra parte, por las condiciones dadas en el enunciado del problema podemos escribir:
P(X 2) =
_
0
f
Y
(y) dy
=
_
1
0
k dy +
_
1
+
1
k
2
(y 1) dy
= P(Y 0) =
3
2
k (2.22)
y
P(2 < X x) = P(2 x Y < 0)
=
_
0
2x
f
Y
(y) dy
=
_
0
2x
k dy = k(x + 2), (2.23)
para 2 < x < 1.
De esta forma, por (2.21), (2.22) y (2.23), la expresion matematica de la funcion de distri-
bucion acumulativa de probabilidades de X, para 2 < x < 1, es
F
X
(x) = k x +
7
2
k, para 2 < x < 1.
Problema 2.8. Sea X una variable aleatoria cuya funcion de densidad de probabilidades est a
dada por
f
X
(x) =
_
_
3
k=(+1)
|k|(x k)
_
_
,
donde > 0 y {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. Sea Z otra variable aleatoria relacionada con la
variable aleatoria X a traves de la funcion Z = g(X), donde g : R R esta denida como
1
g(x) =
_
|x| u(x), x = 0;
0, x = 0.
Entonces, determine la expresion matematica de la funci on de densidad de probabilidades de la
variable aleatoria Z.
1
La funci on escal on unitario est a denida por u(t) =
_
0, t < 0;
1, t > 0.
70 Tema 2 Una variable aleatoria
Soluci on. Por las condiciones dadas en el enunciado del problema se tiene que la funci on de
densidad de probabilidades de la variable aleatoria Z tiene la forma
f
Z
(z) =
3
k=0
P(Z = k)(z k), para z R,
ademas,
P(Z = 0) = P(X 0) =
0
k=(+1)
|k| =
+1
k=0
k =
( + 1)( + 2)
2
,
P(Z = 1) = P(X = 1) = ,
P(Z = 2) = P(X = 2) = 2,
P(Z = 3) = P(X = 3) = 3.
Por lo tanto, la expresion matematica de la funcion de densidad de probabilidades de la
variable aleatoria Z es
f
Z
(z) =
( + 1)( + 2)
2
(z) +(z 1) + 2(z 2) + 3(z 3), para z R,
y {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}.
Problema 2.9. Sea X una variable aleatoria distribuida uniformemente en el intervalo (2, +
1), donde {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. Por otra parte, sea Y otra variable aleatoria relacionada
con la variable aleatoria X a traves de la funcion Y = g(X), donde g : R R esta denida
como
2
g(x) = (1 |x|) sgn(x).
Entonces, determine la expresion matematica de la funci on de distribucion acumulativa de pro-
babilidades de la variable aleatoria Y , para 0 < y < 1.
Soluci on. Sea X una variable aleatoria distribuida uniformemente en el intervalo(2, + 1),
donde {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. Sea Y una variable aleatoria denida como Y = (1
|X|) sgn(X). Se debe determinar la expresion matematica de la funci on de distribucion acumu-
lativa de probabilidades de Y para 0 < y < 1. As,
F
Y
(y) = P(Y y) = P(Y 1) +P(1 < Y 0) +P(0 < Y y), para 0 < y < 1.
(2.24)
Se tiene que
P(Y 1) = P(X 2) =
_
_
0, = 0;
1
+ 3
, = 1, 2, . . . , 9;
(2.25)
ademas,
P(1 < Y 0) = P(1 X 0) +P(1 X < 2), (2.26)
P(1 X < 0) =
1
+ 3
, (2.27)
2
La funci on signo est a denida por sgn(t) =
_
1, t < 0;
1, t > 0.
2.11 Problemas propuestos 71
P(1 X < 2) =
_
_
0, = 0;
1
+ 3
, = 1, 2, . . . , 9.
(2.28)
De (2.26), (2.27) y (2.28) se obtiene
P(1 < Y 0) =
_
_
1
+ 3
, = 0;
2
+ 3
, = 1, 2, . . . , 9.
(2.29)
Por otra parte,
P(0 < Y y) = P(1 y X < 1) +P(1 y X < 1). (2.30)
Ahora,
P(1 y X < 1) = P(1 y X < 1) =
y
+ 3
. (2.31)
De (2.30) y (2.31) se tiene
P(0 < Y y) =
2y
+ 3
. (2.32)
De esta forma, la expresion matematica de la funcion de distribucion acumulativa de proba-
bilidades de la variable aleatoria Y , para 0 < y < 1, es
F
Y
(y) =
_
_
1 + 2y
+ 3
, = 0;
+ 1 + 2y
+ 3
, = 1, 2, . . . , 9.
k=0
_
N
k
_
p
k
(1 p)
Nk
(x k) x R
Hallar la funcion de densidad de probabilidades condicionada al evento m = {X R :
|X 3| 3}.
72 Tema 2 Una variable aleatoria
2.4. Sea X una variable aleatoria distribuida triangularmente con mnimo 1, moda 3 y
maximo 5. Por otra parte, sea Y otra variable aleatoria, la cual esta relacionada con la
variable aleatoria X a traves de la funcion
3
Y = g(X) = max [0, (X 3)] X R.
Hallar la funcion de densidad de probabilidades de la variable aleatoria Y , para todo
0 < y 2.
3
La funci on m ax(a, b) =
_
a si a b,
b si a < b.
Tema 3
Dos variables aleatorias
En el tema de variable aleatoria unidimensional describimos experimentos que se les puede
asociar una una variable aleatoria, es decir, a cada evento elemental se le asigna un y solo un
n umero real. En este tema estudiamos experimentos cuyos resultados se describen utilizando
dos variables aleatorias simultaneamente.
A lo largo del tema consideraremos un experimento E al cual se le asocia un par de varia-
bles aleatorias X e Y . Los eventos elementales de este experimento pueden visualizarse como
un par ordenado (x, y) y, de esta forma, utilizar el plano cartesiano para hacer una represen-
tacion graca del mismo. Bajo estas condiciones, diremos que X e Y son variables aleatorias
conjuntas o, equivalentemente, el smbolo (X, Y ) denotara una variable aleatoria bidimensio-
nal. A continuacion describimos las caractersticas mas importantes de las variables aleatorias
conjuntas.
3.1 Funciones de Densidad y Distribucion
Acumulativa de Probabilidades
En esta seccion presentamos las funciones de densidad y distribucion acumulativa de pro-
babilidades de dos variables aleatorias conjuntas. Estas funciones juegan el mismo rol que las
respectivas funciones de densidad y distribucion de una variable aleatoria unidimensional.
Denicion 3.1. La funcion de densidad de probabilidades de las variables aleatorias
conjuntas X e Y , es una funcion f
XY
: R
2
R que satisface las si-guientes condiciones:
(a) f
XY
(x, y) 0, para todo (x, y) R
2
.
(b)
_
f
XY
(x, y) dydx = 1.
Ejemplo 3.1. Sea f
XY
: R
2
R una funcion de densidad de las variables aleatorias conjuntas
X e Y denida como
f
XY
(x, y) =
_
6 e
2x3y
, si x 0, y 0;
0, en otros casos.
(3.1)
Veamos que f
XY
es una funcion de densidad de probabilidades. Para ello, debemos comprobar
que f
XY
satisface las condiciones (a) y (b) de la Denicion 3.1. Es claro que f
XY
(x, y) 0,
para todo (x, y) R
2
. Ahora veriquemos que (b) es cierta. Por la denicion de f
XY
podemos
73
74 Tema 3 Dos variables aleatorias
escribir:
_
f
XY
(x, y) dydx =
_
0
_
0
6 e
2x3y
dydx
= 6
__
0
e
2x
dx
___
0
e
3y
dy
_
= 6
_
1
2
e
2x
_
1
3
e
3x
_
0
= 6
1
2
1
3
= 1.
Por lo tanto, f
XY
satisface las condiciones (a) y (b) de la Denicion 3.1, es decir, f
XY
es una
funcion de densidad de probabilidades de las variables aleatorias conjuntas X e Y .
Generalmente, cuando las variables aleatorias conjuntas X e Y son discretas, igual que en el
caso de una variable aleatoria, no se trabaja con la funcion de densidad de probabilidades, sino
que se emplea la funcion de probabilidades. Seguidamente damos la denicion de la funci on de
probabilidades de dos variables aleatorias conjuntas.
Denicion 3.2. La funcion de probabilidades de las variables aleatorias discretas conjuntas
X e Y , es una funcion p
XY
: R
2
R denida como
p
XY
(x, y) = P(X = x, Y = y).
La funcion de probabilidades satisface las siguientes propiedades:
(a) 0 p
XY
(x, y) 1, para todo (x, y) R
2
.
(b)
y
p
XY
(x, y) = 1.
Ejemplo 3.2. Sea p
XY
: R
2
R una funcion denida como
p
XY
(x, y) =
_
k(2x +y), x = 1, 2, y = 1, 2;
0, en otros casos.
(3.2)
Calculemos un valor de k > 0 para que p
XY
sea una funcion de probabilidades de las variables
aleatorias conjuntas X e Y . Para ello, basta con hallar un valor de k tal que p
XY
satisfaga la
condicion (b) de la Denicion 3.2. Esto es:
y
p
XY
(x, y) =
2
x=1
2
y=1
p
XY
(x, y)
= p
XY
(1, 1) +p
XY
(1, 2) +p
XY
(2, 1) +p
XY
(2, 2)
= k [3 + 4 + 5 + 6] = 18 k = 1,
de donde se deduce que k = 1/18.
En algunas aplicaciones es importante determinar la probabilidad de un evento particular.
Pasemos ahora a calcular la probabilidad de cualquier evento asociado a dos variables aleatorias
conjuntas.
Denicion 3.3. Sea A R
2
un evento asociado a las variables aleatorias conjuntas X e Y .
3.1 Funciones de Densidad y Distribuci on Acumulativa de Probabilidades 75
Si X e Y son variables aleatorias continuas, la probabilidad del evento A se dene como:
P(A) =
__
A
f
XY
(x, y) dydx.
Si X e Y son variables aleatorias discretas, la probabilidad del evento A se dene como:
P(A) =
y
p
XY
(x, y).
La suma anterior se hace sobre todos los puntos (x, y) pertenecientes al evento A.
Ejemplo 3.3. Sea A R
2
un evento denido como
A = {(X, Y ) R
2
: x
1
X x
2
, y
1
Y y
2
},
donde x
1
, x
2
, y
1
, y
2
R. Una posible representacion graca del evento A se puede apreciar en la
Figura 1. Seg un sea la naturaleza de las variables aleatorias conjuntas X e Y , la probabilidad
del evento A se calcula por la siguiente expresion:
P(A) = P(x
1
X x
2
, y
1
Y y
2
)
=
_
_
_
x2
x1
_
y2
y1
f
XY
(x, y) dydx, si X e Y son continuas;
x1xx2
y1yy2
p
XY
(x, y), si X e Y son discretas.
Y
X
x
2
x
1
y
2
y
1
0
A
Figura 1. Representacion graca del evento (x
1
X x
2
, y
1
Y y
2
)
_
y
f
XY
(r, s) dsdr
=
_
x
0
_
x
0
6 e
2r3s
dsdr
= 6
__
x
0
e
2r
dr
___
y
0
e
3s
ds
_
=
_
1 e
2x
_ _
1 e
3y
_
, para x 0, y 0.
Ahora supongamos que el par ordenado (x, y) R
2
es tal que x < 0 o y < 0. Entonces, por las
deniciones de f
XY
y F
XY
dadas respectivamente en (3.1) y (3.3) se concluye que
F
XY
(x, y) = 0, para x < 0 o y < 0.
De esta forma, por todo lo anterior tenemos que la funcion de distribucion acumulativa de
probabilidades de las variables aleatorias conjuntas X e Y es
F
XY
(x, y) =
_
(1 e
2x
)(1 e
3y
), si x 0, y 0;
0, en otros casos.
(3.4)
_
0, si x < 1, < y < ;
0, si < x < , y < 1;
3k, si 1 x < 2, 1 y < 2;
7k, si 1 x < 2, y 2;
8k, si x 2, 1 y < 2;
1, si x 2, y 2.
f
XY
(x, y) dy. (3.5)
La funci on de densidad de probabilidades marginal de Y , la cual se dene como
f
Y
(y) =
_
f
XY
(x, y) dx. (3.6)
Si X e Y son variables aleatorias discretas, las funciones de probabilidades marginales son:
La funci on de probabilidades marginal de X, la cual se dene como
p
X
(x) =
y
p
XY
(x, y). (3.7)
La funci on de probabilidades marginal de Y , la cual se dene como
p
Y
(y) =
x
p
XY
(x, y). (3.8)
La funci on de distribuci on de probabilidades marginal de X se dene como
F
X
(x) = P(X x, < Y < )
=
_
_
_
x
f
XY
(r, y) dydr, si X e Y son continuas;
ix
y
p
XY
(i, y), si X e Y son discretas;
para todo x R.
La funci on de distribuci on de probabilidades marginal de Y se dene como
F
Y
(y) = P( < X < , Y y)
=
_
_
_
_
y
f
XY
(x, s) dsdx, si X e Y son continuas;
jy
p
XY
(x, j), si X e Y son discretas;
para todo y R.
Ejemplo 3.6. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de pro-
babilidades denida por
f
XY
(x, y) =
_
k x(x y), si (x, y) D;
0, en otros casos,
(3.9)
donde k es un n umero real positivo y D = {(x, y) R
2
: 0 x 2, |y| x}, cuya representaci on
graca se muestra en la Figura 3. Determinar las funciones de densidad marginales f
X
y f
Y
.
3.2 Funciones de Densidad y Distribuci on Marginales 79
2
2
2 0
D
x
y
Figura 3. Representacion graca del conjunto D
Soluci on. Observamos que en el conjunto D la funcion de densidad f
XY
es positiva o cero.
Tambien observamos que para todo (x, y) D, f
XY
(x, y) = 0. Este hecho es muy importante
para el calculo de los funciones marginales.
Hallemos la funcion de densidad marginal de X. Supongamos primero que x > 0. Por las
deniciones de f
XY
y f
X
dadas respectivamente en (3.9) y (3.5) podemos escribir:
f
X
(x) =
_
f
XY
(x, y) dy =
_
f
XY
(x, y) dy
=
_
x
0 dy +
_
x
x
k x(x y) dy +
_
x
+
0 dy
= 2k x
3
, para todo 0 x 2. (3.11)
Por ultimo, supongamos que x > 2. Se tiene que
f
X
(x) =
_
f
XY
(x, y) dy =
_
_
0, si x < 0;
2k x
3
, si 0 x 2;
0, si x > 2.
Ahora calcularemos la funcion de densidad marginal de Y . Supongamos primero que y < 2.
Por las deniciones de f
XY
y f
Y
dadas respectivamente en (3.9) y (3.6) podemos escribir:
f
Y
(y) =
_
f
XY
(x, y) dx =
_
f
XY
(x, y) dx
=
_
y
0 dx +
_
2
y
k x(x y) dx +
_
2
+
0 dx
= k
_
8
3
2y +
5
6
y
3
_
, para todo 2 y 0. (3.14)
Supongamos que 0 < y 2. Se tiene que
f
Y
(y) =
_
f
XY
(x, y) dx
=
_
y
0 dx +
_
2
y
k x(x y) dx +
_
2
+
0 dx
= k
_
8
3
2y +
1
6
y
3
_
, para todo 0 < y 2. (3.15)
Finalmente, supongamos que y > 2. Se tiene que
f
Y
(y) =
_
f
XY
(x, y) dx =
_
_
0, si y < 2;
k
_
8
3
2y +
5
6
y
3
, si 2 y 0;
k
_
8
3
2y +
1
6
y
3
, si 0 < y 2;
0, si y > 2.
f
XY
(x, y) dy
_
_
dx
=
x0+/2
_
x0/2
f
X
(x) dx, (3.20)
donde f
X
es la funcion de densidad marginal de probabilidades de la variable aleatoria X.
Ahora, por (3.20) y la denicion de funcion de densidad de probabilidades condicionada dada
82 Tema 3 Dos variables aleatorias
en la Ecuacion (3.18), la funcion de densidad de probabilidades condicionada al evento A
1
es:
f
XY
(x, y|A
1
) =
_
_
_
f
XY
(x, y)
P(A
1
)
, si (x, y) A
1
;
0, si (x, y) A
1
.
=
_
_
f
XY
(x, y)
x0+/2
_
x0/2
f
X
(x) dx
, si |X x
0
| /2, Y R;
0, si |X x
0
| > /2, Y R.
Determinemos la funcion de densidad de probabilidades condicionada al evento A
1
. Por la
denicion de A
2
se tiene que
P(A
2
) =
__
A2
f
XY
(x, y) dydx
=
y0+/2
_
y0/2
f
XY
(x, y) dydx
=
y0+/2
_
y0/2
_
_
f
XY
(x, y) dx
_
_
dy
=
y0+/2
_
y0/2
f
Y
(y) dy, (3.21)
donde f
Y
es la funcion de densidad marginal de probabilidades de la variable aleatoria Y .
Por (3.21) y (3.18), la funcion de densidad de probabilidades condicionada al evento A
2
es:
f
XY
(x, y|A
2
) =
_
f
XY
(x,y)
P(A2)
, si (x, y) A
2
;
0, si (x, y) A
2
.
=
_
_
f
XY
(x, y)
y0+/2
_
y0/2
f
Y
(y) dy
, si |Y y
0
| /2, X R;
0, si |Y y
0
| > /2, X R.
f
XY
(x, y|A) dy, para todo x R.
Funci on de densidad marginal de Y condicionada al evento A
f
Y
(y|A) =
_
f
XY
(x, y|A) dx, para todo y R.
Si X e X son variables aleatorias discretas, entonces tenemos las siguientes funciones de
probabilidades marginales condicionadas:
Funci on de probabilidades marginal de X condicionada al evento A
p
X
(x|A) =
y
p
XY
(x, y|A), para todo x R.
Funci on de probabilidades marginal de Y condicionada al evento A
p
Y
(y|A) =
x
f
XY
(x, y|A), para todo y R.
Las funciones de distribucion acumulativas de probabilidades marginales condicionadas al
evento A estan denidas por:
F
X
(x|A) = P(X x| A)
=
_
_
_
x
f
X
(r|A) dr, si X e Y son continuas;
ix
p
X
(i|A), si X e Y son discretas,
y
F
Y
(y|A) = P(Y y | A)
=
_
_
_
y
f
Y
(s|A) ds, si X e Y son continuas;
jy
p
Y
(j|A), si X e Y son discretas.
Pasemos ahora a describir la deduccion de ciertas funciones de densidad marginales condicio-
nadas muy importantes. Para ello, consideremos los eventos A
1
y A
2
denidos en el Ejemplo 3.7.
En este ejemplo hallamos las funciones de densidad condicionadas f
XY
(x, y|A
1
) y f
XY
(x, y|A
2
),
dadas respectivamente por
f
XY
(x, y|A
1
) =
_
_
f
XY
(x, y)
x0+/2
_
x0/2
f
X
(x) dx
, si |X x
0
| /2, Y R;
0, si |X x
0
| > /2, Y R.
(3.22)
84 Tema 3 Dos variables aleatorias
y
f
XY
(x, y|A
2
) =
_
_
f
XY
(x,y)
y
0
+/2
_
y
0
/2
f
Y
(y) dy
, si |Y y
0
| /2, X R;
0, si |Y y
0
| > /2, X R.
(3.23)
De esta forma, por (3.22) la funcion de densidad marginal de Y condicionada al evento A
1
es:
f
Y
(y|A
1
) =
_
f
XY
(x, y|A
1
) dx
=
x0+/2
_
x0/2
f
XY
(x, y) dx
x0+/2
_
x0/2
f
X
(x) dx
=
f
XY
(x
0
, y)
f
X
(x
0
)
=
f
XY
(x
0
, y)
f
X
(x
0
)
. (3.24)
La Ecuacion (3.24) es valida para todo > 0 y todo x
0
R. De eta forma, si tiende a cero,
observamos que A
1
tiende al evento (X = x
0
) y la Ecuacion (3.24) adquiere la forma
f
Y
(y|X = x
0
) =
f
XY
(x
0
, y)
f
X
(x
0
)
,
la cual denotaremos como
f
Y
(y|x
0
) =
f
XY
(x
0
, y)
f
X
(x
0
)
.
Como x
0
fue escogido arbitrariamente, entonces la ecuacion anterior es valida para cualquier
x R. En otras palabras, todo lo anterior es la deduccion de la expresion analtica de la funci on
de densidad marginal de Y condicionada al evento (X = x), la cual esta dada por
f
Y
(y|x) =
f
XY
(x, y)
f
X
(x)
. (3.25)
Por otra parte, empleando la expresion de la funcion de densidad condicionada al evento
A
1
conjuntamente con un razonamiento similar al descrito anteriormente, se puede deducir la
expresion analtica de la funcion de densidad marginal de X condicionada al evento (Y = y), la
cual esta denida como
f
X
(x|y) =
f
XY
(x, y)
f
Y
(y)
. (3.26)
Todo lo anterior es valido cuando las variables aleatorias conjuntas X e Y son continuas. En
el caso que X e Y son discretas, se tienen las funciones de probabilidades marginales condicio-
nadas p
X
(x|y) y p
Y
(y|x), que estan denidas respectivamente como
p
X
(x|y) =
p
XY
(x, y)
p
Y
(y)
(3.27)
y
p
Y
(y|x) =
p
XY
(x, y)
p
X
(x)
. (3.28)
3.3 Funciones de densidad y distribuci on condicionadas 85
Las funciones de distribucion acumulativas de probabilidades marginales condicionadas F
X
(x|y)
y F
Y
(y|x), se denen respectivamente como
F
X
(x|y) = P(X x| Y = y)
=
_
_
_
x
f
X
(r|y) dr, si X e Y son continuas;
ix
p
X
(i|y), si X e Y son discretas,
(3.29)
y
F
Y
(y|x) = P(Y y | X = x)
=
_
_
_
y
f
Y
(s|x) ds, si X e Y son continuas;
jy
p
Y
(j|x), si X e Y son discretas.
(3.30)
Es importante notar que las funciones f
X
(x|y), f
Y
(y|x), p
X
(x|y), p
Y
(y|x), F
X
(x|y) y F
Y
(y|x),
dependen del par ordenado (x, y), es decir, son funciones denidas de R
2
en R. Tambien es de
resaltar que las ecuaciones (3.25), (3.26), (3.27), (3.28), (3.29), y (3.30), se deben utilizar con
cierto cuidado. Por ejemplo, si las funciones f
XY
(x, y) y f
X
(x) se anulan simultaneamente en un
par ordenado (x, y), la funcion f
Y
(y|x) no esta bien denida en ese par ordenado. En la pr actica
es conveniente identicar estos puntos. En el siguiente ejemplo se muestran algunos de estos
casos y se presenta una manera de calcular las funciones de densidad marginales condicionadas
f
X
(x|y) y f
Y
(y|x).
Ejemplo 3.8. Sean X e Y las variables aleatorias conjuntas dadas en el Ejemplo 3.6, cuya
funcion de densidad de probabilidades esta denida por (3.9). Determinar las funciones de
densidad marginales condicionadas f
X
(x|y) y f
Y
(y|x).
Soluci on. Calculemos primero f
Y
(y|x). En el Ejemplo 3.6 hallamos las funciones de densidad
de probabilidades marginales f
X
(x) y f
Y
(y), dadas respectivamente por
f
X
(x) =
_
_
0, si x < 0;
2k x
3
, si 0 x 2;
0, si x > 2;
(3.31)
y
f
Y
(y) =
_
_
0, si y < 2;
k
_
8
3
2y +
5
6
y
3
, si 2 y 0;
k
_
8
3
2y +
1
6
y
3
, si 0 < y 2;
0, si y > 2.
(3.32)
Como f
XY
(x, y) = 0 para todo (x, y) R
2
tal que x 0 o x > 2 e y R, y f
X
(x) = 0
para todo x 0 o x > 2, entonces la funcion f
Y
(y|x) no esta denida para todo (x, y) R
2
tal
que x 0 o x > 2 e y R. Como se debe denir f
Y
(y|x) en estos puntos? Una manera de
solucionar este problema es denir a f
Y
(y|x) igual a cero para todo (x, y) tal que f
XY
(x, y) = 0
y f
X
(x) = 0. En nuestro caso, la funcion f
Y
(y|x) la deniremos como
f
Y
(y|x) = 0, para (x, y) R
2
tal que x 0 o x > 2, y R. (3.33)
86 Tema 3 Dos variables aleatorias
Determinemos ahora el valor que toma f
Y
(y|x) para (x, y) R
2
tal que 0 < x 2 e y R.
Por (3.25), (3.9) y (3.31) podemos escribir:
f
Y
(y|x) = 0, para (x, y) R
2
tal que 0 < x 2, |y| > x, (3.34)
y
f
Y
(y|x) =
f
XY
(x, y)
f
X
(x)
=
k x(x y)
2k x
3
=
(x y)
2x
2
, para (x, y) R
2
tal que 0 < x 2, |y| x. (3.35)
Por (3.33), (3.34) y (3.35) la funcion de densidad marginal de Y condicionada a x es
f
Y
(y|x) =
_
_
0, si x 0, y R;
0, si 0 < x 2, |y| > x;
(xy)
2x
2
, si 0 < x 2, |y| x;
0, si x > 2, y R.
Finalmente, el procedimiento para obtener f
X
(x|y) se deja como ejercicio para el lector.
Como ayuda utilice un razonamiento similar al descrito anteriormente, conjuntamente con las
ecuaciones (3.26), (3.9) y (3.31). De esta forma, la funcion de densidad marginal de X condi-
cionada a y es
f
X
(x|y) =
_
_
0, si y 2, x R;
0, si 2 < y < 2, |y| > x;
6x(xy)
1612y+5y
3
, si 2 < y 0, |y| x;
6x(xy)
1612y+y
3
, si 0 < y < 2, |y| x;
0, si y 2, x R.
f
XY
(x, y) dy
=
_
0
ab e
(ax+by)
dy
= a e
ax
, para x > 0. (3.39)
De igual forma se tiene que
f
X
(x) = 0, para x 0. (3.40)
Por (3.39) y (3.40), la funcion de densidad marginal de X es
f
X
(x) =
_
0, si x 0;
a e
ax
, si x > 0.
(3.41)
Por un razonamiento similar obtenemos que la funcion de densidad marginal de Y es
f
Y
(y) =
_
0, si y 0;
b e
by
, si y > 0.
(3.42)
Finalmente, por (3.41) y (3.42) se concluye que la Ecuacion (3.38) es cierta, es decir,
f
XY
(x, y) = f
X
(x) f
Y
(y) para todo (x, y) R
2
. En otras palabras, las variables aleatorias
X e Y son independientes.
88 Tema 3 Dos variables aleatorias
3.5 Una funcion de dos variables aleatorias
Sean X e Y dos variables aleatorias conjuntas con f
XY
y F
XY
sus funciones de densidad y
distribucion, respectivamente. Sea g(x, y) una funcion denida de R
2
en R. Sea Z una variable
aleatoria relacionada con las variables aleatorias conjuntas X e Y a traves de la funcion
Z = g(X, Y ). (3.43)
En esta seccion nos dedicaremos a calcular las funciones de densidad y distribucion de la
variable aleatoria Z. A continuacion mostraremos un metodo general para calcular la funci on
de distribucion de la variable aleatoria Z. Por (3.43) se tiene que la funcion de distribuci on de
Z esta dada por
F
Z
(z) = P(Z z) = P(g(X, Y ) z) para todo z R. (3.44)
El evento g(X, Y ) z esta representado por cierta region en el plano XY , la cual esta acotada
por la curva de nivel z = g(X, Y ). Llamemos a esta region
R(z) = {(X, Y ) R
2
: g(X, Y ) z}.
As, la ecuacion (3.44) adquiere la forma
F
Z
(z) =
__
R(z)
f
XY
(x, y) dydx. (3.45)
En otras palabras, el valor de la funcion de distribucion de la variable aleatoria Z en un punto
z R, es la probabilidad de que las variables aleatorias conjuntas X e Y tomen valores en la
region R(z).
Por otra parte, la funcion de densidad de probabilidades de la variable aleatoria Z se puede
determinar a traves de la ecuacion
f
Z
(z) =
dF
Z
(z)
dz
.
En el siguiente ejemplo describimos el procedimiento para obtener las funciones de distri-
bucion y densidad de una funcion de dos variables aleatorias.
Ejemplo 3.10. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de
probabilidades dada por
f
XY
(x, y) =
_
1/4, si 0 < x < 2, 0 < y < 2;
0, en otros casos.
(3.46)
Sea Z otra variable aleatoria relacionada con las variables aleatorias X e Y a traves de la funci on
Z = g(X, Y ), donde g(X, Y ) = XY . Determinemos las funciones de distribucion y densidad de
la variable aleatoria Z.
Para cada z R calcularemos la funcion de distribucion de Z. Se tiene que
F
Z
(z) = P(Z z) = P(XY z) = P
_
Y
z
X
_
. (3.47)
Supongamos que z 0. Por (3.46) y (3.47) podemos escribir:
F
Z
(z) = 0, para todo z < 0. (3.48)
3.5 Una funci on de dos variables aleatorias 89
Supongamos que 0 < z < 4. Por (3.46) y (3.47) se tiene que
F
Z
(z) =
_
z/2
0
+
_
2
0
+
1
4
dydx +
_
2
z/2
_
z/x
0
+
1
4
dydx
=
1
4
_
_
z/2
0
+
2 dx +
_
2
z/2
z
x
dx
_
=
z(1 + 2 ln 2 ln z)
4
, para todo 0 < z < 4. (3.49)
Supongamos que z 4. Por (3.46) y (3.47) podemos escribir:
F
Z
(z) =
_
2
0
+
_
2
0
+
1
4
dydx = 1, para todo z 4. (3.50)
De (3.48), (3.49) y (3.50), la funcion de distribucion acumulativa de probabilidades de la
variable aleatoria Z es
F
Z
(z) =
_
_
0, si z 0;
z(1+2 ln 2lnz)
4
, si 0 < z < 4;
1, si z 4.
(3.51)
Ahora, derivando con respecto a z a la expresion de F
Z
(z) dada en (3.51), obtenemos que la
funcion de densidad de probabilidades de la variable aleatoria Z es
f
Z
(z) =
_
_
0, si z 0;
2 ln 2ln z
4
, si 0 < z < 4;
0, si z 4.
Las siguientes proposiciones presentan un procedimiento alternativo para calcular las funci-
ones de distribucion y densidad de la variable aleatoria Z, cuando las variables aleatorias X e
Y son independientes y la funcion g(X, Y ) tiene una forma muy particular.
Proposicion 3.1. Sean X e Y dos variables aleatorias independientes con funciones de densidad
marginales f
X
(x) y f
Y
(y) dadas. Sea Z una variable aleatoria relacionada con las variables
aleatorias X e Y a traves de la funci on Z = X +Y . Entonces,
f
Z
(z) = f
Y
f
X
=
_
f
Y
(y) f
X
(z y) dy z R.
Proposicion 3.2. Sean X e Y dos variables aleatorias independientes con funciones de densidad
marginales f
X
(x) y f
Y
(y) dadas. Sea Z una variable aleatoria relacionada con las variables
aleatorias X e Y a traves de la funci on Z = mn(X, Y ). Entonces,
f
Z
(z) = f
X
(z)(1 F
Y
(z)) +f
Y
(z)(1 F
X
(z)) z R,
y
F
Z
(z) = F
X
(z) +F
Y
(z) F
X
(z)F
Y
(z) z R.
Proposicion 3.3. Sean X e Y dos variables aleatorias independientes con funciones de densidad
marginales f
X
(x) y f
Y
(y) dadas. Sea Z una variable aleatoria relacionada con las variables
aleatorias X e Y a traves de la funci on Z = max(X, Y ). Entonces,
f
Z
(z) = f
X
(z)F
Y
(z) +f
Y
(z)F
X
(z) z R,
y
F
Z
(z) = F
X
(z)F
Y
(z) z R.
90 Tema 3 Dos variables aleatorias
3.6 Dos funciones de dos variables aleatorias
Sean X e Y dos variables aleatorias conjuntas con f
XY
y F
XY
sus funciones de densidad
y distribucion, respectivamente. Sean g
1
(x, y) y g
2
(x, y) dos funciones denidas de R
2
en R.
Sean Z y W dos variables aleatorias relacionadas con las variables aleatorias conjuntas X e Y
a traves de las funciones
Z = g
1
(X, Y ) y W = g
2
(X, Y ).
Nuestro proposito es hallar la funcion de densidad de probabilidades de las variables aleatorias
conjuntas Z y W. Supongamos que las funciones g
1
y g
2
son diferenciables e inyectivas en R
2
.
Sea G : R
2
R
2
una funcion denida por
G(x, y) =
_
g
1
(x, y)
g
2
(x, y)
_
.
Bajo estas condiciones la funcion de densidad de probabilidades de las variables aleatorias con-
juntas Z y W se dene como
f
ZW
(z, w) =
_
1
| det G
(x, y)|
f
XY
(x, y)
_
(x=g
1
1
(z,w), y=g
1
2
(z,w))
, (3.52)
donde g
1
1
y g
1
2
son respectivamente las funciones inversas de g
1
y g
2
, y G
(x, y) es el Jacobiano
de la funcion G(x, y), el cual esta dado por
G
(x, y) =
_
_
_
g1(x,y)
x
g1(x,y)
y
g2(x,y)
x
g2(x,y)
y
_
_
_.
Ejemplo 3.11. Sean X e Y variables aleatorias conjuntas con funcion de densidad f
XY
. Sean
Z y W dos variables aleatorias denidas por
Z = 2X +Y y W = X + 2Y.
En forma matricial, las variables aleatorias conjuntas Z y W se escribes como
_
Z
W
_
= A
_
X
Y
_
, (3.53)
donde A es una matriz de orden 2 dada por
A =
_
2 1
1 2
_
.
De esta forma, resolviendo el sistema de ecuaciones lineales (3.53) con incognitas X e Y , se tiene
que
X =
2Z W
3
e Y =
4W 2Z
6
.
Empleando estas ultimas ecuaciones conjuntamente con la ecuacion (3.52), se tiene que la funci on
de densidad de probabilidades de las variables aleatorias conjuntas Z y W es
f
ZW
(z, w) =
_
1
| det A|
f
XY
(x, y)
_
(x=
2zw
3
, y=
4w2z
6
)
=
1
3
f
XY
_
2z w
3
,
4w 2z
6
_
, para todo (z, w) R
2
.
g(x, y) f
XY
(x, y) dydx. (3.54)
A continuacion calcularemos el valor esperado para ciertas funciones g(X, Y ), cuando X e
Y son variables aleatorias continuas.
Si g(X, Y ) = X, el valor esperado de X se puede calcular como
E(X) =
_
xf
XY
(x, y) dydx
=
_
x
_
f
XY
(x, y) dydx
=
_
xf
X
(x) dx, (3.55)
donde f
X
(x) es la funcion de densidad marginal de probabilidades de X.
Si g(X, Y ) = Y , el valor esperado de Y se puede calcular como
E(Y ) =
_
y f
XY
(x, y) dydx
=
_
y
_
f
XY
(x, y) dxdy
=
_
y f
Y
(y) dy, (3.56)
donde f
Y
(y) es la funcion de densidad marginal de probabilidades de Y .
Si g(X, Y ) = X
2
, el valor esperado de X
2
se puede calcular como
E(X
2
) =
_
x
2
f
XY
(x, y) dydx
=
_
x
2
f
X
(x) dx. (3.57)
Si g(X, Y ) = Y
2
, el valor esperado de Y
2
se puede calcular como
E(Y
2
) =
_
y
2
f
XY
(x, y) dydx
=
_
y
2
f
Y
(y) dy. (3.58)
92 Tema 3 Dos variables aleatorias
Si g(X, Y ) = (XE(X))
2
= X
2
2E(X)X+E(X)
2
, por (3.55) y (3.57) el valor esperado
de (X E(X))
2
se puede calcular como
E((X E(X))
2
) =
_
(x E(X))
2
f
XY
(x, y) dydx
=
_
_
X
2
2E(X)X +E(X)
2
_
f
XY
(x, y) dydx
=
_
x
2
f
X
(x) dx 2E(X)
_
xf
X
(x) dx +
E(X)
2
_
f
XY
(x, y) dydx
= E(X
2
) 2E(X)
2
+E(X)
2
= E(X
2
) E(X)
2
,
en otras palabras, la varianza de la variable aleatoria X es
V (X) = E((X E(X))
2
).
Si g(X, Y ) = X + Y , por (3.55) y (3.56) el valor esperado de X + Y se puede calcular
como
E(X +Y ) =
_
(x +y) f
XY
(x, y) dydx = E(X) +E(Y ).
Si g(X, Y ) = XY , el valor esperado de XY se dene como
E(XY ) =
_
xy f
XY
(x, y) dydx. (3.59)
El valor esperado E(XY ) se denomina correlaci on de las variables aleatorias X e Y .
Si g(X, Y ) = (X+Y )
2
= X
2
+2XY +Y
2
, el valor esperado de (X+Y )
2
se puede calcular
como
E((X +Y )
2
) =
_
(X +Y )
2
f
XY
(x, y) dydx
= E(X
2
) + 2E(XY ) +E(Y
2
). (3.60)
Si g(X, Y ) = ((X +Y ) E(X +Y ))
2
, el valor esperado de g(X, Y ) se puede calcular
como
E(g(X, Y )) =
_
((X +Y ) E(X +Y ))
2
f
XY
(x, y) dydx
= E(X
2
) E(X)
2
+ E(Y
2
) E(Y )
2
+ 2E(XY )
2E(X)E(Y )
= V (X) +V (Y ) + 2(E(XY ) E(X)E(Y )), (3.61)
en otras palabras, la varianza de X +Y es
V (X +Y ) = V (X) +V (Y ) + 2(E(XY ) E(X)E(Y )).
La cantidad
Cov(X, Y ) = E(XY ) E(X)E(Y ), (3.62)
se denomina covarianza de las variables aleatorias X e Y .
3.8 Problemas resueltos 93
A continuacion mostramos algunos conceptos de mucha utilidad en las aplicaciones de la
teora de probabilidades. La siguiente proposicion dice que la covarianza de dos variables alea-
torias independientes X e Y es igual a cero. El resultado recproco no siempre es cierto. Se deja
como ejercicio para el lector encontrar dos variables aleatorias X e Y no independientes, cuya
covarianza es igual cero.
Proposicion 3.4. Sean X e Y variables aleatorias conjuntas con f
XY
su funci on de densidad
de probabilidades. Si las variables aleatorias X e Y son independientes, entonces
E(XY ) = E(X) E(Y )
y
Cov(X, Y ) = 0.
Denicion 3.5 (Coeciente de correlacion). El coeciente de correlacion de las variables alea-
torias conjuntas X e Y se dene como
XY
=
Cov(X, Y )
_
V (X) V (Y )
, (3.63)
ademas, 1
XY
1.
El coeciente de correlacion mide la relacion lineal entre las variables aleatorias X e Y . Si,
para ciertas variables aleatorias conjuntas X e Y tuviesemos que el coeciente de correlaci on es
XY
= 1, esto indicara que las variables aleatorias X e Y estan relacionadas linealmente, es
decir, si tomamos una muestra nita de pares ordenados (x
1
, y
1
), . . . , (x
n
, y
n
) de algunos valores
que pueden tomar las variables aleatorias conjuntas X e Y , entonces estos pares ordenados
estaran dispuestos sobre una lnea recta. En otras palabras, la variable aleatoria Y depende
linealmente de la variable aleatoria X.
3.8 Problemas resueltos
En esta seccion se describe la resolucion de problemas que contemplan los conceptos b asicos
de dos variable aleatorias conjuntas.
Problema 3.1. Sean X e Y dos variables aleatorias conjuntas con funcion de probabilidades
denida por:
p
XY
(x, y) =
_
k(x + 1), si (x, y) D;
0, en otros casos,
donde el conjunto D R
2
esta dado por
D = {(0, 0), (1, 0), (2, 0), (3, 0), (0, 1), (2, 1), (0, 2), (1, 2), (0, 3)}.
Determinar la funcion de densidad marginal de probabilidades de la variable aleatoria X condi-
cionada al evento m = {(X, Y ) R
2
: Y = 1}.
Soluci on. Debemos hallar f
X
(x|m). Se tiene que el evento m es un subconjunto de R
2
dado
por m = {(0, 1), (2, 1)}. Luego, la funcion f
X
(x|m) se puede denir como
f
X
(x|m) =
y, (0,y)m
p
XY
(0, y)
P(m)
(x) +
y, (2,y)m
p
XY
(2, y)
P(m)
(x 2) x R. (3.64)
94 Tema 3 Dos variables aleatorias
Por la denicion de la funcion de probabilidades de las variables aleatorias conjuntas X e Y
dada en el enunciado del problema podemos escribir:
P(m) = p
XY
(0, 1) +p
XY
(2, 1) = k + 3k = 4k, (3.65)
y, (0,y)m
p
XY
(0, y) = p
XY
(0, 1) = k, (3.66)
y, (2,y)m
p
XY
(2, y) = p
XY
(2, 1) = 3k. (3.67)
Por (3.64), (3.65), (3.66) y (3.67), la funcion de densidad marginal de probabilidades de la
variable aleatoria X condicionada al evento m es
f
X
(x|m) =
1
4
(x) +
3
4
(x 2) x R.
Problema 3.2. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de
probabilidades denida por:
f
XY
(x, y) =
_
k x, si (x, y) D;
0, en otros casos,
donde
D = {(x, y) R
2
: 0 x 2, |y| x}.
Determinar la expresion matematica de la funcion de densidad marginal de probabilidades de
la variable aleatoria Y condicionada al evento (X = 1), para el intervalo 0 < y < 1.
Soluci on. Debemos hallar f
Y
(y|X = 1) 0 < y < 1. Se tiene que
f
Y
(y|X = x) =
f
XY
(x, y)
f
X
(x)
, (3.68)
para todo (x, y) R
2
donde no se anulen simultaneamente las funciones f
XY
(x, y) y f
X
(x); en
otro lugar, la funcion f
Y
(y|X = x) se dene como 0. Ahora, la funcion de densidad marginal
de probabilidades de la variable aleatoria X es
f
X
(x) =
_
_
0, x < 0;
2k x
2
, 0 x 2;
0, x > 2.
(3.69)
Por (3.68), (3.69) y la denicion de la funcion de densidad de probabilidades dada en el enunciado
del problema, podemos escribir:
f
Y
(y|X = x) =
_
1
2x
, 0 < x < 2, |y| x;
0, en otro lugar.
(3.70)
As, utilizando (3.70) podemos armar que la expresion matematica de la funcion de densidad
marginal de probabilidades de la variable aleatoria Y condicionada al evento (X = 1), para el
intervalo 0 < y < 1, es
f
Y
(y|X = 1) =
1
2
0 < y < 1.
_
0 z 0,
k z
2
2
0 < z < 4,
1 z 4.
Problema 3.4. Sean X e Y dos variables aleatorias conjuntas con funcion de probabilidades
denida por:
p
XY
(x, y) =
_
k(x + 1), si (x, y) D;
0, en otros casos,
donde el conjunto D R
2
esta dado por
D = {(0, 0), (1, 0), (2, 0), (3, 0), (0, 1), (2, 1), (0, 2), (1, 2), (0, 3)}.
Sea Z otra variable aleatoria denida como Z = mn(X, Y ). Hallar la funcion de densidad de
probabilidades de la variable aleatoria Z.
Soluci on. Seg un las condiciones del problema, la funcion de densidad de probabilidades de la
variable aleatoria Z tiene la forma
f
Z
(z) = P(Z = 0)(z) +P(Z = 1)(z 1) z R. (3.75)
96 Tema 3 Dos variables aleatorias
Ahora, por la denicion de la funci on de probabilidades de las variables aleatorias conjuntas X
e Y dada en el enunciado del problema, podemos escribir:
P(Z = 0) = P(mn(X, Y ) = 0)
=
3
i=1
p
XY
(i, 0) +
3
j=0
p
XY
(0, j)
=
3
i=1
k(i + 1) +
3
j=0
k = 13k, (3.76)
P(Z = 1) = P(mn(X, Y ) = 1) = p
XY
(2, 1) +p
XY
(1, 2) = 5k. (3.77)
Por (3.75), (3.76) y (3.77), la funci on de densidad de probabilidades de la variable aleatoria Z
es
f
Z
(z) = 13k (z) + 5k (z 1) z R.
Problema 3.5. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de
probabilidades denida por:
f
XY
(x, y) =
_
k x, si (x, y) D;
0, en otros casos,
donde
D = {(x, y) R
2
: 0 x 2, |y| x}.
Sea Z otra variable aleatoria denida como Z = u ((X 1)Y ). Determinar la funci on de
densidad de probabilidades de la variable aleatoria Z.
Soluci on. Por las condiciones del problema la variable aleatoria Z es una variable aleatoria
discreta que toma los siguientes valores
Z = u((X 1)Y ) =
_
1, si X > 1, Y > 0 o X < 1, Y < 0;
0, si X < 1, Y > 0 o X > 1, Y < 0.
Por lo tanto, la funcion de densidad de probabilidades de la variable aleatoria Z tiene la forma
f
Z
(z) = P(Z = 0)(z) +P(Z = 1)(z 1) z R. (3.78)
Ahora, por la denicion de la funci on de densidad de probabilidades de las variables aleatorias
conjuntas X e Y dada en el enunciado del problema, podemos escribir:
P(Z = 0) =
_
1
0
_
x
0
kxdydx +
_
2
1
_
0
x
kxdydx
= k
__
1
0
x y|
x
0
dx +
_
2
1
x y|
0
x
dx
_
= k
__
1
0
x
2
dx +
_
2
1
x
2
dx
_
= k
__
2
0
x
2
dx
_
= k
x
3
3
2
0
=
8 k
3
, (3.79)
3.8 Problemas resueltos 97
P(Z = 1) =
_
1
0
_
0
x
kxdydx +
_
2
1
_
x
0
kxdydx
= k
__
2
0
x
2
dx
_
=
8 k
3
. (3.80)
Por (3.78), (3.79) y (3.80), la funci on de densidad de probabilidades de la variable aleatoria Z
es
f
Z
(z) =
8 k
3
(z) +
8 k
3
(z 1) z R.
Problema 3.6. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de
probabilidades denida por:
f
XY
(x, y) =
_
k|x|, si (x, y) D;
0, en otros casos,
donde
D = {(x, y) R
2
: |x| y 4 +|x|, |x| 4}.
Sea Z otra variable aleatoria denida como Z = X + Y . Hallar la expresion matematica de
la funcion de distribucion acumulativa de probabilidades de la variable aleatoria Z, para el
intervalo 0 < z < 4.
Soluci on. Debemos calcular F
Z
(z) para 0 < z < 4. Por las condiciones dadas en el enunciado
del problema tenemos que
F
Z
(z) = P(Z z) = P(X +Y z) = P(Y z X) z R. (3.81)
Por (3.81) y la denicion de la funci on de densidad de probabilidades de las variables aleatorias
conjuntas X e Y dada en el enunciado del problema, la expresion matematica de la funci on de
distribucion acumulativa de probabilidades de la variable aleatoria Z, para el intervalo 0 < z < 4,
es
F
Z
(z) =
_
0
4
_
zx
x
k(x) dydx +
_
z/2
0
_
zx
x
kxdydx
= k
_
_
0
4
x y|
zx
x
dx +
_
z/2
0
x y|
zx
x
dx
_
= k
_
_
0
4
xz dx +
_
z/2
0
zx 2x
2
dx
_
= k
_
z
_
x
2
2
_
0
4
+
_
zx
2
2
2x
3
3
_
z/2
0
_
=
k
24
z(192 +z
2
) 0 < z < 4.
_
c(x +y), x = 0, 1, 2, y = x, x + 1, . . . , 2;
c|x +y|, x = 1, 0, y = 1;
0, en otros casos;
(3.82)
donde c es una constante positiva. Determinar la funcion de densidad marginal de probabilidades
de la variable aleatoria X.
Soluci on. Es claro que la funcion de densidad marginal de probabilidades de la variable
aleatoria X es de la forma
f
X
(x) =
k=
P(X = k)(x k) x R. (3.83)
Como
P(X = k) =
y=
p
XY
(k, y),
entonces por las condiciones dadas en el enunciado del problema podemos escribir:
P(X = 1) = p
XY
(1, 1) = 2c,
P(X = 0) = p
XY
(0, 1) +p
XY
(0, 0) +p
XY
(0, 1) +p
XY
(0, 2) = 4c,
P(X = 1) = p
XY
(1, 1) +p
XY
(1, 2) = 5c,
P(X = 2) = p
XY
(2, 2) = 4c,
P(X = k) = 0, en otros casos.
De esta forma, empleando estas ultimas expresiones y (3.83) se obtiene que la funcion de densidad
marginal de probabilidades de la variable aleatoria X es
f
X
(x) = 2c (x + 1) + 4c (x) + 5c (x 1) + 4c (x 2) x R.
Problema 3.8. Sean X e Y dos variables aleatorias conjuntas cuya funcion de probabilidades
esta denida por (3.82) de la Pregunta 3.7. Por otra parte, sea el evento = {(X, Y ) R
2
:
Y > |X|}. Hallar la funcion de densidad marginal de probabilidades de la variable aleatoria Y
condicionada al evento .
Soluci on. Por las condiciones dadas en el enunciado del problema la probabilidad del evento
= {(X, Y ) R
2
: Y > |X|} esta dada por
P() = P ({(0, 1), (0, 2), (1, 2)}) = p
XY
(0, 1) +p
XY
(0, 2) +p
XY
(1, 2) = 6c. (3.84)
Por otra parte, la expresion matematica de la funcion de densidad marginal de probabilidades
de la variable aleatoria Y condicionada al evento es
f
Y
(y|) =
P((Y = 1) )
P()
(y 1) +
P((Y = 2) )
P()
(y 2) y R. (3.85)
Ahora, se tiene que
P((Y = 1) ) = p
XY
(0, 1) = c, (3.86)
3.8 Problemas resueltos 99
P((Y = 2) ) = p
XY
(0, 2) +p
XY
(1, 2) = 5c. (3.87)
Por (3.84), (3.85), (3.86) y (3.87), la funcion de densidad marginal de probabilidades de la
variable aleatoria Y condicionada al evento es
f
Y
(y|) =
1
6
(y 1) +
5
6
(y 2) y R.