Vous êtes sur la page 1sur 103

Fundamentos

de la Teora
de Probabilidades
Wil liam La Cruz Bastidas
Departamento de Electr onica, Computaci on y Control
Escuela de Ingeniera Electrica
Facultad de Ingeniera
Universidad Central de Venezuela
Abril, 2012
Contenido
1 Espacio probabilstico 1
1.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Introduccion a la teora de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2.1

Algebra de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 Producto cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Experimentos y eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Experimentos deterministas y aleatorios . . . . . . . . . . . . . . . . . . . 5
1.3.2 Espacio muestral y eventos . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Deniciones y propiedades de la probabilidad . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Denicion axiomatica de la probabilidad . . . . . . . . . . . . . . . . . . . 8
1.4.2 Denicion frecuentista de la probabilidad . . . . . . . . . . . . . . . . . . 11
1.4.3 Denicion clasica de la probabilidad . . . . . . . . . . . . . . . . . . . . . 11
1.5 Calculo de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5.1 Casos no igualmente verosmiles . . . . . . . . . . . . . . . . . . . . . . . 12
1.5.2 Casos igualmente verosmiles . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Metodos de enumeracion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7 Probabilidad condicional e independencia . . . . . . . . . . . . . . . . . . . . . . 21
1.7.1 Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7.2 Probabilidad total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.7.3 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7.4 Eventos independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.8 Experimentos compuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.8.1 Experimento binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.8.2 Experimento geometrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.8.3 Experimento hipergeometrico . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.9 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.10 Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2 Una variable aleatoria 41
2.1 Denicion de variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2 Eventos denidos por una variable aleatoria . . . . . . . . . . . . . . . . . . . . . 42
2.3 Tipos de variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.1 Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.2 Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.3.3 Variable aleatoria mixta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.4 Funcion de densidad de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . 45
2.5 Funcion de distribucion acumulativa de probabilidades . . . . . . . . . . . . . . . 47
2.6 Distribuciones de probabilidad especiales . . . . . . . . . . . . . . . . . . . . . . . 48
iii
iv Contenido
2.6.1 Distribuciones discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6.2 Distribuciones continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.7 Funciones de distribucion y densidad condicionadas . . . . . . . . . . . . . . . . . 55
2.8 Valor esperado de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . 58
2.8.1 Valor esperado de una funcion . . . . . . . . . . . . . . . . . . . . . . . . 59
2.8.2 Varianza de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . 59
2.8.3 Valor esperado y varianza condicionados . . . . . . . . . . . . . . . . . . . 60
2.9 Una funcion de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . 61
2.10 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.11 Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3 Dos variables aleatorias 73
3.1 Funciones de Densidad y DistribucionAcumulativa de Probabilidades . . . . . . . 73
3.2 Funciones de Densidad y DistribucionMarginales . . . . . . . . . . . . . . . . . . 77
3.3 Funciones de densidad y distribucion condicionadas . . . . . . . . . . . . . . . . . 80
3.4 Variables aleatorias independientes . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.5 Una funcion de dos variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . 88
3.6 Dos funciones de dos variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . 90
3.7 Valor esperado conjunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.8 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Tema 1
Espacio probabilstico
1.1 Introduccion
La necesidad de una teora de probabilidades surge cuando se estudia un experimento para
el cual no se puede predecir con certeza un resultado del mismo. La nocion de probabilidad
nace de la necesidad de medir de alguna manera la duda o la certeza que un suceso dado
ocurra o no.
El proposito de la teora de probabilidades es examinar las formas y medios para obtener esas
medidas de certeza, y hallar procesos satisfactorios de combinarlos cuando intervienen sucesos.
1.2 Introduccion a la teora de conjuntos
Con el n de discutir los conceptos basicos del modelo probabilstico que se desean desarrollar,
sera muy conveniente tener presente algunas ideas y conceptos de la teora matematica de
conjuntos. Como este tema es muy extenso, solamente se presentaran algunas nociones basicas.
Denicion 1.1 (Conjunto). Una serie o coleccion de objetos cualesquiera que posean una
caracterstica o propiedad en com un bien denida se denominara conjunto. Com unmente los
conjuntos se designan con letras may usculas A, B, etc.
Ejemplo 1.1. A continuacion se dan algunos ejemplos de conjuntos:
(a) V = {a, e, i, o, u}
(b) Z
+
= {n Z : n = 1, 2, 3, . . .}
(c) D = {1, 3, 9} = {n Z
+
: n es divisor de 9}
(d) N = {0, 1, 2, . . .} (N umeros naturales)
(e) R = {Conjunto de los n umeros reales}
(f) B = {(x, y) : x
2
+y
2
= 1, y x, y son n umeros reales}
Denicion 1.2 (Elemento de un conjunto). Los objetos que conforman la coleccion del conjunto
se llaman elementos del conjunto. Cuando a es un elemento de un conjunto A escribimos a A
y cuando a no es un elemento de un conjunto A escribimos a A
Denicion 1.3 (Conjunto universal). Se dene el conjunto universal como el conjunto de todos
los objetos que se pueden considerar. Corrientemente este conjunto se denota por U.
1
2 Tema 1 Espacio probabilstico
Denicion 1.4 (Conjunto vaco). Se dene el conjunto vaco como el conjunto que no contiene
elementos. Normalmente este conjunto se denota por .
Denicion 1.5 (Subconjunto). Se dice que un conjunto A es subconjunto del conjunto B si
todo elemento de A es elemento de B y se escribe A B. En otras palabras,
A B x(x A x B).
En el siguiente diagrama de Venn se observa la disposicion de los conjuntos A y B cuando
A B.
U
B
A
Denicion 1.6 (Postulado de extensionalidad). Se dice que dos conjuntos A y B son iguales,
si y solo si A B y B A. En otras palabras,
A, B(x(x A x B) A = B).
Denicion 1.7 (Conjunto de partes de un conjunto). Se dene el conjunto de partes de A,
denotado con P(A), como el conjunto de todos los subconjuntos de A. En otras palabras,
A, C (C P(A) C A).
1.2.1

Algebra de conjuntos
Denicion 1.8 (Union).
A B := {x U : x A x B}
U
B
A
Denicion 1.9 (Interseccion).
A B := {x U : x A x B}
U
B
A
1.2 Introducci on a la teora de conjuntos 3
Denicion 1.10 (Diferencia).
A\B = A B := {x U : x A x B}
U
B
A
Denicion 1.11 (Complemento).
A = A

:= {x U : x A}
U
A
Denicion 1.12 (Conjuntos disjuntos). Se dice que A y B son conjuntos disjuntos, si y s olo si
A B = .
U
B
A
1.2.2 Propiedades
1. Leyes Asociativas
(A B) C = A (B C)
(A B) C = A (B C)
2. Leyes Conmutativas
A B = B A
A B = B A
3. Leyes de Idempotencia
A A = A
A A = A
4. Inclusion respecto a una union e interseccion
4 Tema 1 Espacio probabilstico
A A B o B A B
A B A o A B B
5. Conjuntos vaco y universal
A = A
A =
A U = U
A U = A
6. Leyes de absorcion
A (A B) = A
A (A B) = A
7. Diferencia y Complemento
A A = U
A A =

_
A
_
= A
U =
= U
8. Leyes de Morgan
(A B) = A B
(A B) = A B
Denicion 1.13 (Union e Interseccion generalizadas). Se denen respectivamente la uni on e
interseccion generalizadas de los conjuntos A
1
, A
2
, . . . , A
n
como:
n
_
i=1
A
i
= A
1
A
2
A
n
:= {x U : x A
1
x A
2
x A
n
},
n

i=1
A
i
= A
1
A
2
A
n
:= {x U : x A
1
x A
2
x A
n
}.
1.2.3 Producto cartesiano
Sean X e Y dos conjuntos cualesquiera. Se denomina producto cartesiano de X por Y ,
denotado por X Y , al conjunto de pares ordenados denido como (observe la Figura 1):
X Y = {(x, y) : x X y Y }.
1.3 Experimentos y eventos 5
Y
X
X Y
Figura 1. Producto cartesiano de X por Y
1.3 Experimentos y eventos
1.3.1 Experimentos deterministas y aleatorios
En todos los experimentos tiene que pasar algo y se ha de observar alg un hecho, proceso o
sistema que esta funcionando, y hay que observar una parte de el. La cosa hecha o la parte
observada, junto con la observacion que se obtiene, es el experimento. La observacion misma
es un resultado del experimento.
Denotamos un experimento con la letra E y un resultado con letras griegas , , etc. Por
ejemplo, el siguiente enunciado describe un experimento:
E
1
: observar el n umero que sale en la cara superior de un dado,
y
: sale 1 en la cara superior del dado,
es un resultado. Se pueden distinguir dos tipos de experimentos: aleatorios y determinista.
Denicion 1.14 (Experimento aleatorio). Se dice que un experimento es aleatorio, si no se
puede predecir, en el sentido ordinario, el resultado antes de llevar a cabo el experimento.
Ejemplo 1.2.
E
1
: observar el n umero que sale en la cara superior de un dado.
E
2
: observar el tiempo que pierde una persona en una cola de autob us.
E
3
: se lanza una moneda tres veces y se observa la sucesion de caras y sellos obtenidos.
E
4
: medir la resistencia a la tension de una barra de acero.
Denicion 1.15 (Experimento determinista). Se dice que un experimento es determinista, si
se puede predecir el resultado antes de llevar a cabo el experimento.
Ejemplo 1.3. Se deja al lector buscar dos ejemplos de experimentos deterministas.
Para la teora que a continuacion desarrollamos solamente se consideran experimentos alea-
torios. En consecuencia, cuando se hable de experimento se referira a experimentos del tipo
aleatorio.
6 Tema 1 Espacio probabilstico
1.3.2 Espacio muestral y eventos
Denicion 1.16 (Espacio muestral). El conjunto de todos los posibles resultados de un expe-
rimento E se llama espacio muestral y se denota por S.
Denicion 1.17 (Espacio muestral discreto). Un espacio muestral de un experimento aleatorio
es discreto, si sus posibles resultados pueden ser enumerados. Si el n umero total de posibles
resultados de un experimento es nito, se dice que el espacio muestral es nito, de lo contrario
se dice que es innito.
Denicion 1.18 (Espacio muestral continuo). Un espacio muestral de un experimento aleatorio
es continuo, si posee un n umero innito de resultados que no pueden ser ordenados en una
sucesion.
Ejemplo 1.4. Para cada uno de los siguientes experimentos determine su espacio muestral,
ademas, diga si es discreto o continuo.
E
1
: observar el n umero que sale en la cara superior de un dado.
E
2
: observar el tiempo que pasa una persona en una cola de una agencia bancaria antes de ser
atendido.
E
3
: observar la sucesion de caras y sellos obtenidos al lanzar una moneda tres veces.
E
4
: contar el n umero de lanzamientos de una moneda legal hasta obtener una cara por primera
vez.
Soluci on.
El espacio muestral de E
1
es discreto y se puede denir como
S
1
= {1, 2, 3, 4, 5, 6}.
El espacio muestral de E
2
es continuo y se puede denir como
S
2
= {t R : 0 t T} = [0, T),
donde T > 0 es el tiempo total de servicio de la agencia bancaria.
El espacio muestral de E
3
es discreto y se puede denir como
S
3
= {ccc, ccs, csc, css, sss, ssc, scc, scs},
donde los smbolos c y s denotan respectivamente cara y sello. Ademas, el lugar que
ocupan estos smbolos esta en correspondencia con el n umero del lanzamiento donde se
obtuvo cara o sello.
El espacio muestral de E
4
es discreto y se puede denir como
S
4
= {1, 2, 3, 4, 5, . . .}.

Denicion 1.19 (Eventos). Un evento o suceso es un subconjunto del espacio muestral S.


Designaremos con letras may usculas A, B, C, . . ., a los eventos.
1.3 Experimentos y eventos 7
Denicion 1.20 (Evento atomico o elemental). Un evento atomico o elemental es un evento
que contiene un solo punto del espacio muestra S. En otras palabras, A = {} es un evento
atomico, donde es un resultado de E.
Ejemplo 1.5. Sea E
3
el experimento denido en el Ejemplo 1.4. Los eventos atomicos o
elementales de E
3
son: ccc, ccs, csc, css, sss, ssc, scc, scs. A continuacion mostramos algunos
eventos de E
3
.
A : obtener al menos dos caras. Equivalentemente,
A = {ccc, ccs, csc, scc}.
B : obtener cara en el primer lanzamiento. Equivalentemente,
B = {ccc, ccs, csc, css}.
C : obtener sello en el primer lanzamiento. Equivalentemente,
C = {sss, ssc, scc, scs}.
D : obtener al menos una cara o un sello. Equivalentemente,
D = S.
F : no se obtiene ni caras ni sellos. Equivalentemente,
F = .

Denicion 1.21 (Evento imposible). Cualquier evento que sea igual al conjunto vaco se llama
evento imposible.
Denicion 1.22 (Evento seguro). Cualquier evento que sea igual al espacio muestral se llama
evento seguro.
Denicion 1.23 (Eventos excluyentes). Se dice que los eventos A y B son eventos excluyentes
si, y solo si A y B no pueden ocurrir simultaneamente, es decir, se cumple que
A B = .
Ejemplo 1.6. Para los eventos B, C, D y F denidos en el Ejemplo 1.5, las siguientes propie-
dades son ciertas:
D es el evento seguro.
F es el evento imposible.
B y C son excluyentes.
8 Tema 1 Espacio probabilstico
1.4 Deniciones y propiedades de la probabilidad
Como se vio en las secciones anteriores, una de las caractersticas basicas del concepto de
experimento aleatorio es que no se sabe que resultado particular se obtendra al llevar a cabo el
experimento. Es decir, si A es un evento asociado a un experimento, no se puede indicar con
certeza si A ocurrira o no. Por lo tanto, es muy importante tratar de asociar un n umero con
el evento A que mida, de alguna forma, la posibilidad de que A ocurra. La manera de como se
asigna una medida a la ocurrencia de un evento, depende de como se dene probabilidad. A
continuacion se describiran tres deniciones de probabilidad: axiom atica, frecuentista y cl asica.
1.4.1 Denicion axiomatica de la probabilidad
Sean E un experimento y S su espacio muestral asociado. Para cada evento A S se
le asocia un n umero real, denotado por P(A) y llamado probabilidad de A, que satisface los
siguientes axiomas.
I. 0 P(A) 1.
II. P(S) = 1.
III. Si A y B son eventos excluyentes, entonces
P(A B) = P(A) +P(B).
IV. Si A
1
, . . . , A
n
, . . . son eventos mutuamente excluyentes, es decir, A
i
A
j
= para i = j,
entonces
P
_

_
i=1
A
i
_
=

i=1
P(A
i
).
A continuacion se presentaran algunos teoremas que se deducen de los axiomas de probabi-
lidad. Estos resultados no dependen de como calculamos P(A).
1.4 Definiciones y propiedades de la probabilidad 9
Teorema 1.1. P() = 0.
Demostraci on. Como S y son excluyentes, y S = S, entonces por el Axioma III se puede
escribir:
P(S) = P(S ) = P(S) +P(),
Ahora, por la ecuacion anterior y el Axioma II se deduce que P() = 0.
Teorema 1.2. Si A es un evento, entonces
P(A) = 1 P(A).
Demostraci on. Como AA = y AA = S, entonces por los Axiomas II y III se puede escribir:
1 = P(S) = P(A A) = P(A) +P(A).
Despejando P(A) en la ecuacion anterior se obtiene que P(A) = 1 P(A).
Teorema 1.3. Si A y B son eventos cualesquiera, entonces
P(A) = P(A B) +P(A B).
Demostraci on. Se tiene que
A = (A B) (A B)
y, ademas, los eventos (A B) y (A B) son excluyentes. Entonces, por el Axioma III P(A) =
P(A B) +P(A B).
Teorema 1.4. Si A y B son eventos cualesquiera, entonces
P(A A) = P(A) +P(B) P(A B).
Demostraci on. Se tiene que AB = A(BA), ademas, A y (BA) son excluyentes. Entonces,
por el Axioma III se obtiene que
P(A B) = P(A) +P(B A). (1.1)
Por el Teorema 1.3 se tiene que
P(B) = P(A B) +P(B A),
de donde se deduce que
P(B A) = P(B) P(A B). (1.2)
De (1.1) y (1.2) se obtiene que P(A A) = P(A) +P(B) P(A B).
10 Tema 1 Espacio probabilstico
Teorema 1.5. Si A y B son eventos tales que A B, entonces P(A) P(B).
Demostraci on. Como B = (BA) A y los eventos (BA) y A son excluyentes, entonces por
el Axioma III se puede escribir:
P(B) = P(B A) +P(A). (1.3)
Ahora, por el Axioma I se tiene que P(A) 0, P(B) 0 y P(B A) 0. Por lo tanto, de la
ecuacion (1.3) se concluye que P(A) P(B).
En el siguiente ejemplo se muestra la aplicacion de los axiomas y teoremas de probabilidades.
Ejemplo 1.7. Sean A, B y C tres eventos no vacos tales que: P(A) = 1/2, P(B) = 1/3, y
P(C) = 1/4. Por otra parte, si consideramos unicamente los eventos A, B y C a los efectos de
enunciar las siguientes armaciones, se tiene que: la probabilidad de que ocurra exclusivamente
el evento C es cero, y que solo ocurra B es tambien cero. Mientras, la probabilidad de que
ocurra unicamente el evento A es 1/6. Ademas, la probabilidad de que se de a lugar el evento
C y no se produzca el evento B es cero. Determinar la probabilidad de que ocurran los eventos
B o C.
Soluci on. Se debe calcular la probabilidad P(B C). Para ello necesitamos saber como est an
dispuestos los eventos A, B y C. Tenemos que B y C no pueden ocurrir exclusivamente, y A si
puede ocurrir sin que ocurran los eventos B y C, ademas, P(B) < P(A) y P(C) < P(A). Por
lo tanto, B y C son subconjuntos de A. Por otra parte, como P(C B) = 0 y P(C) < P(B),
entonces C es subconjunto de B. De esta forma, la disposicion de los eventos A, B y C se
muestra en el siguiente diagrama de Venn.
S
A
B
C
As, la probabilidad de que ocurran los eventos B o C es
P(B C) = P(B) = 1/3.

Ejemplo 1.8. Sean A, B y C tres eventos no vacos todos subconjuntos del espacio muestral
S. Se sabe que
P(A B C) = P(S),
P(A B) = P(A C) = 1/8,
P(B C) = 1/2,
_
A B
_

_
A C
_
= S.
Determinar la probabilidad de que ocurra el evento A.
Soluci on. Como S = , entonces aplicando las leyes de Morgan se puede escribir:
= S =
__
A B
_

_
A C
_
=
_
A B
_

_
A C
_
= (A B) (A C) . (1.4)
1.4 Definiciones y propiedades de la probabilidad 11
Ahora, como A(BC) = (AB) (AC), entones por (1.4) y las condiciones del problema
se tiene:
1 = P(A B C)
= P(A) +P(B C) P(A (B C))
= P(A) +P(B C) P((A B) (A C))
= P(A) +P(B C) P(A B) P(A C). (1.5)
Utilizando los valores P(AB) = P(AC) = 1/8 y P(BC) = 1/2, y luego despejando P(A)
en (1.5) se obtiene
P(A) = 3/4.

1.4.2 Denicion frecuentista de la probabilidad


Sean E un experimento y A un evento asociado E. Suponga que E se realiza N veces.
Suponga tambien que en las N veces que se realizo E, el evento A ocurrio n
N
(A) veces. Entonces,
la denicion frecuentista de la probabilidad de A esta dada por:
P(A) = lm
N
n
N
(A)
N
, (1.6)
donde se supone la existencia del lmite.
1.4.3 Denicion clasica de la probabilidad
Sea E un experimento que tiene n resultados mutuamente excluyentes e igualmente ve-
rosmiles
1
. En otras palabras el espacio muestral de E es:
S = {
1
,
2
, . . . ,
n
}.
Ahora, sea A un evento asociado a E denido como
A = {
l1
,
l2
, . . . ,
lm
},
donde l
i
{1, 2, . . . , n} tal que l
i
= l
j
, para i = j. Entonces, la denicion clasica de la
probabilidad de A esta dada por:
P(A) =
m
n
=
#A
#S
=
n umero de casos favorables
n umero de casos posibles
. (1.7)
Esta denicion se tratara con mayor detalle en la Seccion 1.5.2.
Ejemplo 1.9. Se lanza un dado normal. Sea A el evento denido como
A : obtener un n umero mayor que 4.
Esto es, A = {5, 6}. Como el espacio muestral asociado al experimento de lanzar un dado se
puede representar por
S = {1, 2, 3, 4, 5, 6},
entonces, P(A) = 2/6, ya que la probabilidad de cada evento elemental es 1/6.
1
Dos eventos A y B se dicen igualmente verosmiles si tienen la misma probabilidad de ocurrencia. En la
Secci on 1.5.2 se ampliar a m as esta denici on.
12 Tema 1 Espacio probabilstico
Ejemplo 1.10. La probabilidad de los eventos A, B, C, D y F denidos en el Ejemplo 1.5 son,
respectivamente:
P(A) = 1/2.
P(B) = 1/2.
P(C) = 1/2.
P(D) = 1.
P(F) = 0.
1.5 Calculo de probabilidades
Esta seccion se tratan solo experimentos que tengan asociado una espacio muestral discreto.
Para ser mas precisos, se estudia la manera de como se calcula la probabilidad de un evento
asociado a un espacio muestral nito.
Sea E un experimento que tiene n resultados diferentes. En otras palabras, el espacio
muestral de E es:
S = {
1
,
2
, . . . ,
n
}.
Seguidamente mostramos la manera de como se asigna un valor a la probabilidad de ocurrencia
de un evento cualquiera asociado a E.
1.5.1 Casos no igualmente verosmiles
A n de caracterizar P(A) en este modelo consideremos primero los eventos elementales,
digamos A = {
i
}. Se procedera como sigue.
A cada uno de los eventos elementales {
i
} se le asigna un n umero p
i
, llamado la probabilidad
de {
i
}, que satisface las siguientes condiciones:
i) P({
i
}) = p
i
0, i = 1, 2, . . . , n,
ii) p
1
+p
2
+ +p
n
= 1.
Puesto que {
i
} es un evento, estas condiciones deben estar de acuerdo con los axiomas de
probabilidades. Es muy sencillo vericar que es as. Es bueno aclarar que todos los n umeros p
i
no son necesariamente iguales.
Ahora, suponga que un evento A asociado a E esta denido como
A = {
l1
,
l2
, . . . ,
lm
},
donde l
i
{1, 2, . . . , n} tal que l
i
= l
j
, si i = j. Por lo tanto,
P(A) = p
l1
+p
l2
+ +p
lm
. (1.8)
En resumen, la asignacion de probabilidades de p
i
a cada uno de los eventos elementales {
i
},
sujeto a las condiciones anteriores i) y ii), determina de un modo unico P(A) para cada uno de
los sucesos A S, en donde P(A) esta dado por la ecuacion (1.8).
Ejemplo 1.11. Suponga que un experimento E tiene asociado el espacio muestral
S = {
1
,
2
,
3
}.
1.5 C alculo de probabilidades 13
Ademas, suponga que la probabilidad de las ocurrencias de los eventos elementales satisfacen
las siguientes ecuaciones
_
p
1
= 2p
2
+p
3
,
p
2
= p
1
2p
3
.
Sea A un evento denido por A = {
1
,
2
}. Determinar la probabilidad de A.
Soluci on. Utilizando la ecuacion (1.8) la probabilidad de A es
P(A) = p
1
+p
2
. (1.9)
De esta forma, para hallar P(A) basta con encontrar los valores de las probabilidades de los
eventos elementales. Determinemos tales valores.
Considerando las ecuaciones que satisfacen p
1
, p
2
y p
3
, conjuntamente con la ecuacion p
1
+
p
2
+p
3
= 1, se tiene que la probabilidad de las ocurrencias de los eventos elementales satisfacen
el siguiente sistema de ecuaciones lineales.
_

_
p
1
2p
2
p
3
= 0
p
1
p
2
2p
3
= 0
p
1
+p
2
+p
3
= 1
Resolviendo el sistema anterior se obtiene que:
p
1
=
3
5
, p
2
=
1
5
, p
3
=
1
5
.
Utilizando convenientemente estos valores en la expresion de P(A) dada en (1.9) se tiene
P(A) =
4
5
.

1.5.2 Casos igualmente verosmiles


La suposicion mas com un para espacios muestrales nitos es que todos los eventos elementales
son igualmente verosmiles. Si los n eventos elementales tienen la misma probabilidad, digamos
p
i
= p, entonces por la condicion p
1
+ + p
n
= 1 se deduce que p = 1/n. Por lo tanto, para
cualquier evento A que conste de m eventos elementales, se tiene que
P(A) =
m
n
. (1.10)
Este metodo de evaluar P(A) a menudo se indica como sigue:
P(A) =
n umero de maneras en que A puede ocurrir
n umero total de maneras en que E puede ocurrir
o, equivalentemente,
P(A) =
n umero de casos favorables
n umero de casos posibles
.
Es importante comprender que las expresiones anteriores de P(A) son solo una consecuencia de
la suposicion de que todos los eventos elementales son igualmente verosmiles y solo es aplicable
cuando se satisface esta suposicion. Observe los siguientes ejemplos.
14 Tema 1 Espacio probabilstico
Ejemplo 1.12. Sea E el experimento de lanzar dos veces una moneda normal. Sea A el evento
denido por
A : obtener una cara.
Para evaluar P(A) un analisis del problema podra ser el siguiente. El espacio muestral es
S

= {0, 1, 2},
donde cada uno de los resultados representa el n umero de caras que ocurren. Por lo tanto,
P(A) =
1
3
. Este analisis es obviamente incorrecto, ya que en el espacio muestral considerado
todos los resultados no son igualmente verosmiles.
A n de aplicar la ecuacion (1.10) se debera considerar el espacio muestral
S = {cc, cs, sc, ss}
en lugar del espacio muestral S

. Todos los resultados de S son igualmente verosmiles con


probabilidad igual a 1/4. En consecuencia, A = {cs, sc} y, utilizando la denicion clasica de
probabilidades, se obtiene
P(A) =
2
4
=
1
2
.

Ejemplo 1.13. Se lanzan dos dados normales. Encontrar la probabilidad de cada uno de los
siguientes eventos.
a) La suma de los n umeros obtenidos en los dados es igual a 7.
b) La suma de los n umeros obtenidos en los dados es igual a 7 o a 11
c) El n umero obtenido en uno de los dados es mayor que el obtenido en el otro dado.
d) En ambos dados se obtiene un n umero par.
Soluci on. Inicialmente se debe encontrar el espacio muestral asociado al experimento. Los
n umeros obtenidos en los dados se disponen en un par ordenado (x, y), donde la primera coor-
denada corresponde al n umero obtenido en uno de los dados, y la segunda al n umero obtenido
en el otro dado. De esta forma, el espacio muestral es
S = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6),
(3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6), (4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6),
(5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6), (6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6)},
el cual tiene 36 elementos. A continuacion se calculan las probabilidades de los eventos dados.
a) Sea A
1
el evento: la suma de los n umeros obtenidos en los dados es igual a 7. Luego,
A
1
= {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}. Como el n umero de elementos de A
1
es 6,
entonces P(A
1
) = 6/36 = 1/6.
b) Sea A
2
el evento: la suma de los n umeros obtenidos en los dados es igual a 7 o a 11.
Entonces, A
2
= {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1), (5, 6), (6, 5)}. Como el n umero de
elementos de A
2
es 8, entonces P(A
2
) = 8/36 = 2/9.
1.6 Metodos de enumeraci on 15
c) Sea A
3
el evento: el n umero obtenido en uno de los dados es mayor que el obtenido en el
otro dado. Procedamos de la siguiente manera. El complemento de A
3
es
A
3
= {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)}.
Como el n umero de elementos de A
3
es 6, entonces
P(A
3
) = 1 P(A
3
) = 1 1/6 = 5/6.
d) Sea A
4
el evento: en ambos dados se obtiene un n umero par. Entonces,
A
4
= {(2, 2), (2, 4), (2, 6), (4, 2), (4, 4), (4, 6), (6, 2), (6, 4), (6, 6)}.
Como el n umero de elementos de A
4
es 9, entonces P(A
4
) = 9/36 = 1/4.

En ejemplos anteriores y muchos otros subsecuentes, ha sido de gran importancia la elecci on


al azar de uno o mas objetos de una coleccion dada. Denamos con mayor precision la noci on
de eleccion al azar de elementos. Suponga que se tienen N objetos, digamos a
1
, a
2
, . . . , a
N
.
i) Escoger al azar un objeto de los N, signica que cada uno de los objetos tiene la misma
probabilidad de ser escogido. Esto es,
Prob(elegir a
i
) = 1/N, i = 1, 2, . . . , N.
ii) Escoger al azar dos objetos entre N objetos signica que cada uno de los pares de objetos
(sin considerar el orden) tiene la misma probabilidad de ser escogido que cualquier otro
par. Esta armacion nos lleva inmediatamente a la cuestion de cu antos pares diferentes
hay. Suponga que hay K de tales pares. Entonces, la probabilidad de cada par sera 1/K.
Mas adelante aprenderemos a calcular K.
iii) Escoger al azar n objetos (n N) entre N objetos signica que cada n-upla
(a
i1
, a
i2
, . . . , a
in
),
tiene la misma probabilidad de ser escogida como cualquier otra n-upla.
En consecuencia, para calcular la probabilidad de seleccionar al azar uno o mas objetos de
una coleccion dada, es necesario saber contar las maneras posibles de que ocurra tal selecci on.
En la siguiente seccion se dan algunos metodos de enumeracion.
1.6 Metodos de enumeracion
En los proximos apartados se muestran algunos procedimientos sistematicos de enumeraci on.
En los ejemplos presentados hasta el momento, no se encontro mucha dicultad para calcular
las maneras distintas de elegir uno o varios elementos entre un grupo dado. Pero es necesario
considerar situaciones poco complicadas para apreciar la necesidad de contar sistematicamente
o de procedimientos de enumeracion. El siguiente ejemplo brinda uno de ellos.
16 Tema 1 Espacio probabilstico
Ejemplo 1.14. Una caja contiene 20 pelotas azules y 80 verdes. Se eligen diez pelotas al
azar, sin sustituir una pelota antes que sea elegido el proximo. Cual es la probabilidad de que
exactamente la mitad de las pelotas escogidas sean azules?
Para darle respuesta a esta pregunta, considere el siguiente espacio muestral S. Cada uno de
los elementos de S consta de diez posibles pelotas de la caja, digamos (j
1
, j
2
, . . . , j
10
). Cu antos
resultados de este tipo hay? Y entre estos resultados, cuantos tienen la caracterstica de
que exactamente la mitad sean pelotas azules? Evidentemente es necesario responder tales
interrogantes para resolver el problema propuesto. Muchos problemas similares dan lugar a
preguntas analogas.
Principio de multiplicacion
Suponga que un procedimiento designado como puede hacerse de n
1
maneras. Adem as,
suponga que un segundo procedimiento designado como 2 puede hacerse de n
2
maneras. Suponga
tambien que cada una de las maneras de efectuar el procedimiento 1 puede ser seguida por
cualquiera de las maneras de efectuar el procedimiento 2. Entonces, el procedimiento que consta
de 1 seguido por 2 se puede hacer de n
1
n
2
maneras.
Para visualizar este principio es mas sencillo considerar el siguiente enfoque esquem atico.
Considere un punto Q y dos rectas L
1
y L
2
. El procedimiento 1 consiste en ir de Q a L
1
mientras que el procedimiento 2 consiste en ir de L
1
a L
2
. La Figura 2 indica como se obtiene
el resultado nal.
Todo lo anterior se puede generalizar para N procedimientos. Suponga que se tienen
1, 2, . . . , N, procedimientos tales que el procedimiento i se puede hacer de n
i
maneras, para
i = 1, 2, . . . , N. Ademas, cada una de las maneras de efectuar el procedimiento i puede ser se-
guida por cualquiera de las maneras de efectuar el procedimiento i +1, para i = 1, 2, . . . , N 1.
Entonces, el procedimiento que consta de efectuar el procedimiento 1 seguido por el procedi-
miento 2, . . ., seguido por el procedimiento N, se puede hacer de n
1
n
2
n
N
maneras.
Q
L
1
L
2

n
1
n
2
n
2
n
2
n
2
Figura 2. Representacion graca del principio de multiplicacion
Ejemplo 1.15. Suponga que cuenta con 4 esferas de igual color y tres cajas vacas numeradas
1, 2 y 3. De cuantas maneras posible podra colocar una esfera en cada caja mediante el siguiente
procedimiento: primero debe colocar una esfera en la caja 1, luego otra en la caja 2 y por ultimo
una tercera esfera en la caja 3.
1.6 Metodos de enumeraci on 17
Soluci on. Se tienen tres procedimientos: 1. colocar una esfera en la caja 1, 2. colocar una esfera
en la caja 2, y 3. colocar una esfera en la caja 3. Es claro que el procedimiento i se hace antes
del procedimiento i + 1, para i = 1, 2. Ahora, como se dispone de 4 esferas, entonces se tiene
4 maneras posibles de colocar una esfera en la caja 1. Como se ya se ha colocado una esfera
en la caja 1, se cuenta con 3 esferas. As, se tiene 3 maneras posibles de colocar una esfera
en la caja 2. Ahora se cuenta con 2 esferas, luego se tiene 2 maneras posibles de colocar una
esfera en la caja 3. En consecuencia, el procedimiento 1 se puede hacer de 4 maneras posibles,
el procedimiento 2 de 3 y procedimiento 3 de 2 maneras. Por lo tanto, utilizando el principio
de multiplicacion, se obtiene que hay 4 3 2 = 24 maneras posibles de colocar 4 esferas en las
tres cajas numeradas, siguiendo el procedimiento dado.
Principio de adicion
Suponga que el procedimiento 1 se puede hacer de n
1
maneras. Suponga tambien que un
segundo procedimiento 2 se puede hacer de n
2
maneras. Suponga ademas que no es posible que
ambos procedimientos se hagan juntos. Entonces, el procedimiento que consta de efectuar el
procedimiento 1 o el procedimiento 2, se puede hacer de n
1
+n
2
maneras.
Empleemos otra vez el enfoque esquematico para visualizar el principio de adicion, como se
indica en la Figura 3.
L
1
L
2
Q

n
1
n
2
Figura 3. Representacion graca del principio de adicion
Todo lo anterior se puede generalizar para N procedimientos. Suponga que se tienen
1, 2, . . . , N, procedimientos tales que el procedimiento i se puede hacer de n
i
maneras, para
i = 1, 2, . . . , N. Ademas, suponga que no es posible que todos los procedimientos se puedan
realizar conjuntamente. Entonces, el procedimiento que consta de efectuar el procedimiento 1 o
el procedimiento 2 o o el procedimiento N, se puede hacer de n
1
+n
2
+ +n
N
maneras.
Ejemplo 1.16. Considere las esferas y cajas descritas en el Ejemplo 1.15. De cuantas maneras
posible podra colocar una y solo una esfera en una de las cajas?
Soluci on. Se tienen tres procedimientos: 1. colocar una esfera en la caja 1, 2. colocar una esfera
en la caja 2, y 3. colocar una esfera en la caja 3. Como no es podible colocar al mismo una esfera
en dos o mas cajas, entonces los procedimientos i e i + 1 no se pueden hacer conjuntamente,
para i = 1, 2. Ahora, como siempre se dispone de 4 esferas, entonces se tiene 4 maneras posibles
de colocar una esfera en la caja 1, 4 maneras de colocar una esfera en la caja 2 y 4 maneras
de colocar una esfera en la caja 3. En consecuencia, cada uno de los procedimiento 1, 2 y 3, se
pueden hacer de 4 maneras posibles. Por lo tanto, utilizando el principio de adicion, se obtiene
que hay 4 +4 +4 = 12 maneras posibles de colocar una y solo una esfera en una de las cajas.
18 Tema 1 Espacio probabilstico
Permutaciones de objetos diferentes
Suponga que se tienen n objetos diferentes. Considere dos casos: (a) Las maneras posibles
de permutar los n objetos; y (b) Las maneras posibles de escoger y permutar r objetos entre los
n que se tienen.
(a) De cuantas maneras, digamos P
n
, se pueden permutar estos objetos? Por ejemplo, si se
tienen los objetos a, b y c, se puede considerar las siguientes agrupaciones:
abc, acb, bac, bca, cab, cba.
As la respuesta es 6. En general, se considerara el siguiente esquema. Permutar los n objetos
es equivalente a colocarlos en una caja con n compartimientos, en alg un orden especco. La
primera casilla se puede llenar en una cualquiera de las n maneras, la segunda de cualquiera
de las (n 1) maneras , , y la ultima casilla de solo una manera. Por tanto, aplicando
el principio de multiplicacion, se observa que la caja se puede llenar de n(n 1)(n 2) 1
maneras. Este n umero tiene nombre y un smbolo especiales para el.
Denicion 1.24 (n-factorial). Sea n un entero positivo. El n umero entero denotado con
n! se llama n-factorial y se dene como
n! = n(n 1)(n 2) 2 1 =
n1

i=0
(n i).
Tambien se dene 0! = 1.
(b) Esta vez se desea escoger y permutar r objetos, 0 r n, de los n objetos que se tienen.
Se indica el n umero de maneras de hacerlo por V
n,r
(variaciones de n en r). Nuevamente se
recurre al esquema anterior de llenar una caja que tiene n compartimientos; ahora uno se
detiene despues que se ha llenado el r-esimo compartimiento. As, el primer compartimiento
puede llenarse de n maneras, el segundo de (n1) maneras, . . ., y el r-esimo compartimiento
de n (r 1) maneras. De esta forma, se puede realizar el procedimiento completo; de
nuevo usando el principio de multiplicacion, de
n(n 1)(n 2) (n r + 1)
maneras. Usando la notacion factorial introducida anteriormente, se puede escribir:
V
n,r
=
n!
(n r)!
.
Ejemplo 1.17. Cuantas banderas de tres colores pueden obtenerse con ocho colores distintos?
Soluci on. Aqu la disposicion de los colores en la bandera constituye una diferencia. En otras
palabras, dos banderas se consideran iguales si poseen los mismos colores y un mismo orden de
colocacion. Por tanto, se tienen
V
8,3
=
8!
(8 3)!
=
8!
5!
= 336
banderas.
1.6 Metodos de enumeraci on 19
Combinaciones
Considere nuevamente n objetos diferentes. Esta vez se encontrara el n umero de maneras de
escoger r de esos n objetos sin considerar el orden. Por ejemplo, se tienen los objetos a, b c, d,
y r = 2; se desea contar
ab, ac, ad, bc, bd, cd.
En otras palabras, no contamos ab y ba como diferentes, puesto que los mismos objetos est an
relacionados y solo dieren en el orden.
Para obtener el resultado general recuerde la formula para variaciones de n en r: el n umero
de maneras de elegir r objetos entre n y permutar los r elegidos es igual a
V
n,r
=
n!
(n r)!
.
Sea C
n,r
el n umero de maneras de elegir r entre n, sin considerar el orden. Observe que una
vez que se han escogido los r objetos, hay r! maneras de permutarlos. Por tanto, aplicando
nuevamente el principio de multiplicacion junto con el resultado anterior, se obtiene
r! C
n,r
= V
n,r
=
n!
(n r)!
.
As el n umero de maneras de elegir r entre n objetos diferentes, sin considerar el orden, est a
dado por
C
n,r
=
n!
r!(n r)!
.
Normalmente C
n,r
denota el n umero de combinaciones de r objetos entre n. En matem aticas
este n umero tiene un smbolo especial para designarlo. Escribiremos
_
n
r
_
=
n!
r!(n r)!
,
llamado n umero combinatorio de n en r. Para nuestro proposito,
_
n
r
_
se dene solo si n es un
entero positivo y si r es un entero 0 r n.
Ejemplo 1.18. Encontrar la probabilidad de que tres cartas extradas aleatoriamente y sin
reposicion de una baraja espa nola de 40 cartas, sean espadas.
Soluci on. Sea A el evento denido por A = {obtener tres espadas}. Entonces la probabilidad
de A es igual a la razon del n umero de formas o el n umero de combinaciones posibles de extraer
tres espadas entre 10, con respecto al n umero total de formas de extraer 3 cartas entre 40. Es
decir,
P(A) =
C
10,3
C
40,3
=
_
10
3
_
_
40
3
_ =
10!
3!(10 3)!
40!
3!(40 3)!
=
720
59280
=
3
247
.

Ejemplo 1.19. Considerando 26 letras del alfabeto espa nol, cual es la probabilidad de formar
una palabra (una palabra es un vector de caracteres en donde las letras que lo conforman pueden
repetirse) de cuatro letras donde ninguna de las letras aparece mas de una vez?
Soluci on. Sea A el evento: formar una palabra de cuatro letras donde ninguna de las letras
20 Tema 1 Espacio probabilstico
aparece mas de una vez. Se debe calcular la probabilidad P(A). El n umero de palabras de
cuatro letras que es posible formar es 26
4
. En otras palabras, el espacio muestral consta de
26
4
= 456976
resultados posibles. Por otra parte, el n umero de palabras de cuatro letras que se pueden formar,
donde ninguna de las letras aparece mas de una vez, viene dado por
V
26,4
=
26!
(26 4)!
= 358800.
En conclusion, la probabilidad de formar una palabra de cuatro letras donde ninguna de las
letras aparece mas de una vez es:
P(A) =
V
26,4
(26)
4
=
358800
456976
.

Ejemplo 1.20. Considere el Ejemplo 1.14.


Soluci on. Sea A el evento: obtener cinco esferas azules y cinco verdes. Se debe calcular la
probabilidad P(A). Tomemos el espacio muestral S asociado al experimento denido como el
conjunto de todos los arreglos de longitud 10, cuyas componentes son las letras a y v; por
ejemplo,
aaavvavvvv
Las letras a y v indican el lugar que tiene en la muestra una pelota azul o verde, respectivamente.
De esta forma, el n umero de elementos del espacio muestral es el n umero de combinaciones de
100 en 10, esto es
C
100,10
=
100!
10!(100 10)!
.
Ahora bien, dentro de las 10 pelotas escogidas se deben considerar las maneras como se eligieron
5 pelotas azules y 5 pelotas verdes, este n umero viene dado por
C
20,5
C
80,5
.
De eta forma, la probabilidad de obtener cinco esferas azules y cinco verdes es
P(A) =
C
20,5
C
80,5
C
100,10
0, 0213535.

Permutaciones cuando no todos los objetos son diferentes


En todos los metodos de enumeracion presentados, se ha supuesto que todos los objetos
considerados eran diferentes. Sin embargo, no siempre es este el caso.
Suponga que tenemos n objetos tales que hay n
1
objetos de una clase, n
2
de segunda clase,
. . ., n
k
de una k-esima clase, en donde
n = n
1
+n
2
+ +n
k
. (1.11)
Entonces el n umero de permutaciones de esos objetos esta dada por
n!
n
1
!n
2
! n
k
!
.
La deduccion de esta formula se deja al lector. Notese que si todos los objetos son diferentes,
tenemos n
i
= 1, i = 1, 2, . . . , k, y, por tanto, la formula anterior se reduce a n!, el resultado
obtenido previamente.
1.7 Probabilidad condicional e independencia 21
Ejemplo 1.21. Como una ilustraci on se hallara el n umero de permutaciones diferentes de las 6
letras a, a, a, b, b, c. Hay 3 letras de una clase, 2 de una segunda y 1 de una tercera. De modo
que empleando la formula (1.11) se tiene el n umero
6!
3! 2! 1!
= 60.

1.7 Probabilidad condicional e independencia


1.7.1 Probabilidad condicional
Considere la diferencia que existe entre elegir al azar en un lote, un artculo, con o sin
reposicion. Suponga que el lote tiene la siguiente composicion: 80 artculos sin defectos y 20
defectuosos. Suponga que se le eligen dos artculos de este lote: (a) con reposicion; (b) sin
reposicion.
Se denen los siguientes eventos:
A = {el primer artculo es defectuoso},
B = {el segundo artculo es defectuoso}.
Si se se escoge con reposicion, P(A) = P(B) =
20
100
=
1
5
. Cada vez que se elige en el lote
hay 20 artculos defectuosos de un total de 100. Sin embargo, si se selecciona sin reposicion, los
resultados no son completamente inmediatos. Todava es cierto, naturalmente, que P(A) =
1
5
.
Pero, cual es el valor de P(B)? Es evidente que con el n de calcular P(B) se debera conocer
la composicion del lote, cuando se escoge el segundo artculo. En otras palabras, se debera
saber si el suceso A ocurrio o no. Este ejemplo indica la necesidad de presentar el siguiente
concepto importante.
Denicion 1.25. Sean A y B dos eventos asociados con un experimento E. Se indica con B|A
al evento condicional B dado que A ha ocurrido. La probabilidad condicional de B habiendose
presentado A, denotada por P(B|A), es la probabilidad del evento B|A, que se dene por
P(B|A) =
P(A B)
P(A)
=
P(AB)
P(A)
, dado que P(A) > 0.
Generalmente, los eventos B|A y A|B son diferentes. Por consiguiente,
P(B|A) = P(A|B).
En el ejemplo anterior, P(B|A) =
19
99
. Porque si A ha ocurrido, entonces al sacar por segunda
vez quedan solo 99 artculos, de los cuales 19 son defectuosos.
Cada vez que se calcula P(B|A) se esta esencialmente calculando P(B) con respecto al
espacio espacio muestral reducido de A en vez del espacio muestral original S. Considere el
siguiente diagrama de Venn.
S
A B
22 Tema 1 Espacio probabilstico
Cuando se calcula P(B) uno se pregunta que tan probable es que estemos en B, sabiendo
que se esta en S, y cuando se eval ua P(B|A) uno se pregunta que tan probable es que estemos
en B, sabiendo que se esta en A. (Esto es, el espacio muestral se ha reducido de S a A.)
En siguiente ejemplo muestra que P(A|B) y P(B|A) son generalmente diferentes.
Ejemplo 1.22. Se lanzan dos dados normales y se anotan los resultados (x
1
, x
2
), donde x
i
es
el resultado del i-esimo dado, para i = 1, 2. El espacio muestral S es
S = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6),
(3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6), (4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6),
(5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6), (6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6)}.
Considere los siguientes dos eventos:
A = {(x
1
, x
2
) : x
1
+x
2
= 10}, B = {(x
1
, x
2
) : x
1
> x
2
}.
As
A = {(5, 5), (4, 6), (6, 4)}
y
B = {(2, 1), (3, 1), (3, 2), (4, 1), (4, 2), (4, 3), (5, 1), (5, 2),
(5, 3), (5, 4), (6, 1), (6, 2), (6, 3), (6, 4), (6, 5)}.
Por tanto,
P(A) =
3
36
y P(B) =
15
36
.
Como
A B = {(6, 4)},
entonces
P(B|A) =
P(A B)
P(A)
=
1
3
y P(A|B) =
P(A B)
P(A)
=
1
15
,
con lo cual se verica que P(A|B) = P(B|A).
La consecuencia mas importante de la denicion de probabilidad condicional se obtiene
escribiendola de la manera siguiente:
P(A B) = P(B|A)P(A)
o, equivalentemente,
P(A B) = P(A|B)P(B).
Esto a veces se conoce como el teorema de multiplicaci on o ley multiplicativa de probabilidades.
Esta ley se puede generalizar a mas de dos eventos de la siguiente manera:
P(A
1
A
2
A
n
) = P(A
1
)P(A
2
|A
1
)P(A
3
|A
1
A
2
) P(A
n
|A
1
A
2
A
n1
).
Se puede aplicar la ley multiplicativa al calculo de la probabilidad de la ocu-rrencia si-
multanea de dos sucesos A y B.
1.7 Probabilidad condicional e independencia 23
Ejemplo 1.23. Considere otra vez el lote de artculos discutido al comienzo de la Seccion 1.7.1,
el cual consta de 20 artculos defectuosos y 80 sin defectos. Si se escogen 2 artculos al azar, sin
reposicion, cual es la probabilidad de que ambos artculos sean defectuosos?
Soluci on. Como antes, se denen los eventos A y B como sigue:
A = {el primer artculo es defectuoso},
B = {el segundo artculo es defectuoso}.
Por lo tanto, se debe calcular P(AB), la cual se obtiene utilizando la ley multiplicativa, como
P(B|A)P(A). Pero P(B|A) =
19
99
mientras P(A) =
1
5
. Por lo tanto,
P(AB) =
19
495
.

1.7.2 Probabilidad total


Anteriormente se utilizo el concepto de probabilidad condicional con el n de evaluar la
probabilidad de la ocurrencia simultanea de dos eventos. Ahora se utilizara este concepto para
calcular la probabilidad de un evento cualquiera B. Para ello es se necesita la siguiente denici on.
Denicion 1.26. Se dice que los eventos A
1
, A
2
, . . . , A
n
representan una particion del espacio
muestral S si:
(a) A
i
A
j
= para i = j. Esto es, que los eventos A
1
, A
2
, . . . , A
n
son mutuamente excluyentes.
(b) S =
n

i=1
A
i
.
(c) P(A
i
) > 0, para i = 1, 2, . . . , n.
En otras palabras, cuando se efect ua el experimento E, ocurre uno y solo uno de los eventos A
i
.
A continuacion se deducira un principio muy importante para el calculo de la probabilidad
de un evento.
Proposicion 1.1 (Principio de probabilidad total). Sean E un experimento y S su espacio mu-
estral. Sea B un evento asociado con un experimento E. Suponga que los eventos A
1
, A
2
, . . . , A
n
representan una partici on del espacio muestral S. Entonces,
P(B) =
n

i=1
P(B|A
i
)P(A
i
). (1.12)
Demostraci on. Sea B un evento asociado con un experimento E. Suponga que los eventos
A
1
, A
2
, . . . , A
n
son una particion del espacio muestral S. A manera de ejemplo observe el sigui-
ente diagrama de Venn para el caso n = 8.
S
A
1
A
2
A
4
A
6
A
5
A
3
A
7
A
8
B

24 Tema 1 Espacio probabilstico


Como A
1
, A
2
, . . . , A
n
es una particion del espacio muestral S se puede escribir:
B =
n
_
i=1
(B A
i
) = (B A
1
) (B A
2
) (B A
n
). (1.13)
Quizas algunos de los conjuntos B A
i
pueden ser vacos, pero esto no invalida la anterior
descomposicion de B. Lo importante es que los eventos B A
i
son mutuamente excluyentes.
Entonces, por (1.13) se tiene que
P(B) =
n

i=1
P(B A
i
).
Sin embargo, cada termino P(B A
i
) se puede expresar como P(B|A
i
)P(A
i
) y, por lo tanto,
la ecuacion (1.12) es cierta. Esta ecuacion se denomina principio de probabilidad total.
Ejemplo 1.24. Cierto artculo es manufacturado por tres fabricas, sean 1, 2 y 3. Se sabe que la
primera fabrica produce el doble de los artculos que la segunda y que esta y la tercera producen
el mismo n umero de artculos (durante un perodo de produccion especicado). Se sabe que el
2 por ciento de los artculos producidos por las dos primeras fabricas es defectuoso mientras que
el 4 por ciento de los manufacturados por la tercera es defectuoso. Se colocan juntos todos los
artculos producidos en una la y se escoge uno al azar. Cu al es la probabilidad de que este
artculo sea defectuoso?
Soluci on. Se denen los siguientes eventos:
B = {obtener un artculo defectuoso},
A
1
= {obtener un artculo de la fabrica 1},
A
2
= {obtener un artculo de la fabrica 2},
A
3
= {obtener un artculo de la fabrica 3}.
Se debe calcular P(B). Ahora, por el principio de probabilidad total (1.12), se puede escribir:
P(B) = P(B|A
1
)P(A
1
) +P(B|A
2
)P(A
2
) +P(B|A
3
)P(A
3
).
Ahora, P(A
1
) = 1/2, mientras que P(A
2
) = P(A
3
) = 1/4. Tambien P(B|A
1
) = P(B|A
2
) =
0.02, mientras que P(B|A
3
) = 0.04. Sustituyendo sus valores en la ecuacion anterior se obtiene
P(B) = 0.025.
1.7.3 Teorema de Bayes
Se puede usar el Ejemplo 1.24 para justicar otro resultado importante. Suponga que del
deposito se escoge un artculo y se encuentra que es defectuoso. Cual es la probabilidad de que
se produjese en la primera fabrica?
Usando la notacion descrita en el Ejemplo 1.24, se necesita P(A
1
|B). Se puede calcular
esta probabilidad como una consecuencia de lo siguiente. Sean A
1
, A
2
, . . . , A
n
una partici on del
espacio muestral S. Sea B un evento asociado a S. Aplicando la denicion de probabilidad
condicional, la ley multiplicativa, y el principio de probabilidad total, se obtiene:
P(A
i
|B) =
P(B|A
i
)P(A
i
)

n
i=1
P(B|A
i
)P(A
i
)
, para i = 1, 2, . . . , n. (1.14)
Este resultado se conoce como teorema de Bayes. Tambien se le llama formula para la
probabilidad de las causas. Puesto que los A
i
son una particion del espacio muestral, uno y
1.7 Probabilidad condicional e independencia 25
solo uno de los eventos A
i
ocurre. Por lo tanto, la formula (1.14) nos da la probabilidad de un A
i
particular (esto es, una causa), dado que el evento B ha ocurrido. Para aplicar este teorema,
debemos conocer los valores de las probabilidades P(A
i
). Muy a menudo esos valores no son
conocidos, y esto limita el uso del teorema de Bayes. Ha habido mucha controversia acerca del
teorema de Bayes. Matematicamente es perfectamente correcto; solo la eleccion impropia para
P(A
i
) hace el resultado objetable.
Volviendo a la pregunta propuesta en esta seccion y aplicando ahora la ecuacion (1.14), se
tiene:
P(A
1
|B) =
(0, 02)(1/2)
(0, 02)(1/2) + (0, 02)(1/4) + (0, 04)(1/4)
= 0, 4.
1.7.4 Eventos independientes
Se han considerado dos eventos A y B que no pueden ocurrir simultaneamente, es decir,
A B = . Tales sucesos se designaron excluyentes. Es claro que si A y B son excluyentes,
entonces P(A|B) = 0, porque la ocurrencia de B impide la ocurrencia de A. Por otra parte, si
A B entonces P(A|B) = 1.
En cada uno de los casos anteriores, sabiendo que B ocurrio, se nos dio una informaci on
precisa referente a la probabilidad de la ocurrencia de A. Sin embargo, hay muchos casos en
los cuales se sabe que si el evento B ocurre, no tiene inuencia alguna en la ocurrencia o no
ocurrencia de A.
Ejemplo 1.25. Suponga que se lanza un dado normal dos veces. Dena los eventos A y B
como sigue:
A = {el primer dado muestra un n umero par},
B = {el segundo dado muestra un 5 o un 6}.
Por intuicion se sabe que los eventos A y B no estan relacionados. Saber que B ocurre, no
proporciona informacion acerca de la ocurrencia de A. De hecho, el siguiente calculo lo pone
de maniesto. Tomando como espacio muestral S conformado con los 36 resultados posibles
considerados en el Ejemplo 1.22, se encuentra que
P(A) =
18
36
=
1
2
y P(B) =
12
36
=
1
3
,
mientras que
P(A B) =
6
36
=
1
6
.
Por lo tanto,
P(A|B) =
P(A B)
P(B)
=
1
6
1
3
=
1
2
.
As se tiene, como era de suponer, que la probabilidad P(A) es igual a la probabilidad
condicional P(A|B). De modo semejante
P(B|A) =
P(A B)
P(A)
=
1
6
1
2
=
1
3
= P(B).

El ejemplo anterior nos induce plantear el concepto de eventos independientes.


26 Tema 1 Espacio probabilstico
Denicion 1.27. Se dice que los eventos A y B son independientes si
P(A B) = P(A)P(B).
En el siguiente teorema se muestra otra denicion equivalente de eventos independientes.
Teorema 1.6. Los eventos A y B son independientes si y s olo si
P(A|B) = P(A) (1.15)
o
P(B|A) = P(B). (1.16)
Demostraci on. () Suponga que A y B son eventos independientes. Se demostrara que las ecu-
aciones (1.15) y (1.16) son ciertas. Por las deniciones de eventos independientes y probabilidad
condicional se puede escribir:
P(A|B) =
P(A B)
P(B)
=
P(A)P(B)
P(B)
= P(A)
y
P(B|A) =
P(A B)
P(A)
=
P(A)P(B)
P(A)
= P(B).
() Suponga que las ecuaciones (1.15) y (1.16) son ciertas. Se demostrara que los eventos
A y B son independientes. Por (1.15) y la denicion de probabilidad condicional se obtiene:
P(A B) = P(A|B)P(B) = P(A)P(B).
Con esto se completa la demostraci on del teorema.
Sera muy importante extender la nocion de independencia a mas de dos eventos. Considere
primero tres eventos asociados con un experimento, digamos: A, B, C. Si A y B, A y C, B y C,
son mutuamente independientes, entonces no se deduce, en general, que no haya dependencia
entre los tres eventos A, B y C. El siguiente ejemplo ilustra este punto.
Ejemplo 1.26. Suponga que se lanzan dos dados. Dena los eventos A, B y C, como sigue:
A = {el primer dado muestra un n umero par},
B = {el segundo dado muestra un n umero impar},
C = {ambos dados muestran n umeros pares o n umeros impares}.
Se tiene que
P(A) = P(B) = P(C) =
1
2
.
A un mas,
P(A B) = P(A C) = P(B C) =
1
4
.
Por lo tanto, los tres eventos son mutuamente independientes. Ahora, como
A B C =
entonces,
P(A B C) = 0 = P(A)P(B)P(C) =
1
8
.

1.8 Experimentos compuestos 27


Este ejemplo motiva la siguiente denicion.
Denicion 1.28. Se dice que los tres eventos A, B y C son mutuamente independientes si y
solo si todas las condiciones siguientes se cumplen:
(i) P(A B) = P(A)P(B),
(ii) P(A C) = P(A)P(C),
(iii) P(B C) = P(B)P(C),
(iv) P(A B C) = P(A)P(B)P(C).
Finalmente se generaliza esta nocion a n eventos, dando la siguiente denicion.
Denicion 1.29. Se dice que los n eventos A
1
, A
2
, . . . , A
n
son mutuamente independientes si
y solo si se tiene, para k = 2, 3, . . . , n,
P (A
i1
A
i2
A
i
k
) = P(A
i1
)P(A
i2
) P(A
i
k
).
(Se deja al lector vericar que hay 2
n
n 1 condiciones juntas anotas.)
1.8 Experimentos compuestos
En esta seccion se presenta la nocion de experimento compuesto. Se dice que un experimento
es compuesto si se obtiene como una sucesion de experimentos independientes. Por ejemplo, si se
considera el lanzamiento de una moneda legal seguido con el lanzamiento de un dado perfecto, el
experimento resultante es un experimento compuesto. En efecto, el experimento de lanzar una
moneda es independiente al experimento de lanzar un dado; ademas, se realizan uno despues
del otro.
Asociado a un experimento compuesto esta su espacio muestral S y la manera de como se
debe asignar la probabilidad a un evento contenido en S. A continuacion se presenta la denici on
de espacio muestral y probabilidad para un experimento compuesto.
Sean E
1
y E
2
dos experimentos independientes con espacios muestrales S
1
y S
2
, respectiva-
mente. El espacio que consta de todos los pares ordenados (x
1
, x
2
) tales que x
1
es un elemento
de S
1
y x
2
es un elemento de S
2
, se llama producto cartesiano de S
1
y S
2
, y se denota por
S
1
S
2
.
Por otra parte, sean {} un evento elemental de E
1
con probabilidad p

y {} un evento
elemental de E
2
con probabilidad p

. Entonces, el experimento compuesto E conformado por


la sucesion de los experimentos E
1
y E
2
se le asocia el espacio muestral S = S
1
S
2
. La
probabilidad del evento elemental {(, )} S se dene como
P ({(, )}) = p

.
Esta denicion de espacio muestral y probabilidad para un experimento compuesto se puede
extender facilmente para la sucesion de n experimentos independientes.
1.8.1 Experimento binomial
Sea E un experimento con espacio muestral S. Suponga que se desea observar la ocurrencia
o no de un evento A. Sea p la probabilidad de A. Por lo tanto, P(A) = 1 p. Suponga tambien
que se realizan n repeticiones independientes de E donde en cada repeticion no se cambian las
probabilidades P(A) y P(A). En otras palabras, tenemos el experimento compuesto
E
n
= E E E
28 Tema 1 Espacio probabilstico
con espacio muestral
S
n
= S S S.
Se tiene interes en el n umero de veces que ocurre A en esas n repeticiones. Ahora bien, a una
ocurrencia de A se le denominara exito y la ocurrencia de A se le llamara fracaso. Observe que
se tienen solamente exitos y fracasos en las n repeticiones de E. Las repeticiones individuales
de E donde se observan dos opciones solamente, una complementaria a la otra, es decir exito y
fracaso, se le llaman ensayos o experimentos de Bernoulli.
Para calcular la probabilidad de que en n repeticiones de E hallan k exitos, es necesario
denir los siguientes eventos A
k
.
A
k
= {k exitos en n ensayos del experimento E}, para k = 0, 1, . . . , n.
El evento A
k
es la coleccion de arreglos de longitud n construidos con k smbolos A y n k
smbolos A; por ejemplo, el siguiente arreglo de caracteres es un evento elemental de S
n
que
tiene k exitos:
AAA A
. .
k veces
A A A A
. .
nk veces
Determinemos el n umero total de tales resultados. Este n umero se puede obtener respondiendo
a la siguiente pregunta: de cuantas maneras posibles se pueden disponer k smbolos A y n k
smbolos A? Estas maneras son
#A
k
=
_
n
k
_
.
Por ejemplo, si n = 3 tendremos A
0
, A
1
, A
2
y A
3
los eventos de obtener 0, 1, 2 y 3 exitos,
respectivamente. En la Tabla 1 se muestran los eventos elementales de S
3
que pertenecen a
cada evento A
k
para k = 0, 1, 2, 3.
Evento Eventos elementales
_
n
k
_
A
0
_
A A A
_
1
A
1
_
A A A
_ _
A A A
_ _
A A A
_
3
A
2
_
A A A
_ _
A A A
_ _
A A A
_
3
A
3
(A A A) 1
Tabla 1. Eventos elementales de S
3
Veamos ahora cuantos eventos elementales tiene el espacio muestral S
n
. Se tiene que
#S
n
=
n

k=0
#A
k
=
n

k=0
_
n
k
_
= (1 + 1)
n
= 2
n
,
lo cual indica que S
n
posee 2
n
eventos elementales.
Nos dirigimos a calcular la probabilidad de A
k
, la cual viene expresada como la suma de
las probabilidades de los eventos elementales que pertenecen a A
k
. Pero la probabilidad de un
evento elemental cualquiera de S
n
, que posee k exitos y n k fracasos, es:
P
_
_
AAA A
. .
k veces
A A A A
. .
nk veces
_
_
= p
k
(1 p)
k
,
luego, la probabilidad de que en n repeticiones de E se tienen k exitos es
P(A
k
) =
_
n
k
_
p
k
(1 p)
k
, para k = 0, 1, 2, . . . , n.
1.8 Experimentos compuestos 29
Observe que
n

k=0
P(A
k
) =
n

k=0
_
n
k
_
p
k
(1 p)
k
= (p + (1 p))
n
= 1.
Todo lo anterior constituye lo que se denomina distribuci on binomial.
Ejemplo 1.27. Una caja contiene 10 tornillos con tuerca y 8 sin tuerca. Se extraen al azar 4
tornillos, con reposicion. Cual es la probabilidad de que se extraigan 3 tornillos con tuerca?
Soluci on. Como los tornillos se toman con reposicion y la probabilidad de obtener un tornillo
con tuerca no cambia en cada extraccion, este experimento se puede caracterizar como de tipo
binomial. De esta forma, consideramos un exito el sacar un tornillo con tuerca. Sea p la
probabilidad de sacar un tornillo con tuerca de un total de 10 tornillos, es decir, p =
6
10
=
3
5
.
Por lo tanto, la probabilidad de que se extraigan 3 tornillos con tuerca es
P(A
3
) =
_
4
3
__
3
5
_
3
_
2
5
_
=
216
625
.

1.8.2 Experimento geometrico


Suponga que se efect ua un experimento E y esta interesado solo en la ocurrencia o no de
alg un evento A. Suponga como en la presentacion del experimento binomial, que repetidamente
se efect ua E, que las repeticiones son independientes, y que en cada una de las repeticiones
P(A) = p y P(A) = 1 p permanecen constantes. Suponga tambien que el experimento se
repite hasta que A ocurra por primera vez. (Aqu nos separamos de las hipotesis que conducen
a la distribucion binomial. All el n umero de repeticiones era predeterminado, mientras que aqu
no.)
Dena los eventos A
k
para k = 1, 2, . . . como sigue:
A
k
= {k repeticiones de E hasta incluir la ocurrencia de A}, para k = 0, 1, . . .
Utilizando los smbolos A y A el evento A
k
se puede representar como
A A A A
. .
k1 veces
A
De esta forma, la probabilidad de repetir el experimento E hasta que ocurra A por primera vez
en la k-esima repeticion de E es:
P(A
k
) = (1 p)
k1
p, para k = 0, 1, 2, . . .
Ademas,

k=0
P(A
k
) =

k=0
(1 p)
k1
p = p

k=0
(1 p)
k1
= p
_
1
1 (1 p)
_
= 1.
Todo lo anterior constituye lo que se denomina distribuci on geometrica.
Ejemplo 1.28. Considere el siguiente juego entre dos jugadores A y B. El jugador A comienza
lanzando un dado y luego lo lanza B, y as sucesivamente hasta que alguno gane seg un las
siguientes reglas.
(i) El jugador A gana cuando el lanza el dado y se obtiene un n umero menor que 3.
30 Tema 1 Espacio probabilstico
(ii) El jugador B gana cuando el lanza el dado y se obtiene un n umero mayor o igua que 3.
Cual es la probabilidad de ganar del jugador A?
Soluci on. El experimento es geometrico, ya que se repite indenidamente hasta que alguno de
los jugadores gane. Para calcular la probabilidad pedida se denen los siguientes eventos:
G
A
= {el jugador A gana el juego},
J = {el n umero obtenido en el dado es menor que 3},
I = {el n umero obtenido en el dado es mayor o igual que 3}.
Se utilizaran los eventos J e I para esquematizar la manera de como puede ganar el jugador A.
Entonces, A gana si ocurre alguno de los siguientes eventos mutuamente excluyentes:
J o
IJJ o
IJIJJ o
IJIJIJJ o
IJIJIJIJJ o
.
.
.
donde la ubicacion de los eventos se corresponde J e I con el turno con que lanzan los jugadores
A y B. Ademas,
P(IJJ) = P(I)P(J)
2
P(IJIJJ) = P(I)
2
P(J)
3
P(IJIJIJJ) = P(I)
3
P(J)
4
P(IJIJIJIJJ) = P(I)
4
P(J)
5
.
.
.
y
P(J) =
2
6
=
1
3
, P(I) =
4
6
=
2
3
.
Por lo tanto, la probabilidad de ganar A es
P(G
A
) =

k=1
P(I)
k1
P(J)
k
=

k=1
_
2
3
_
k1
_
1
3
_
k
=
3
2

k=1
_
2
9
_
k
=
3
2
_

k=0
_
2
9
_
k
1
_
=
3
2
_
1
1
2
9
1
_
=
3
7
.

1.8 Experimentos compuestos 31


1.8.3 Experimento hipergeometrico
Suponga que se tiene un lote de N artculos, de los cuales r son defectuosos y (N r) no
son defectuosos. Suponga que se escogen al azar y sin reposicion n artculos del lote (n N).
Sea D
k
el evento denido como
D
k
= {k artculos defectuosos encontrados entre los n}, para k = 0, 1, . . . , r
La ocurrencia de D
k
indica que en la muestra de tama no n hay exactamente k artculos defectu-
osos y (n k) artculos no defectuosos. De esta forma, la probabilidad de encontrar k artculos
defectuosos entre los n, es
P(D
k
) =
_
r
k
__
N r
n k
_
_
N
n
_ , para k = 0, 1, 2, . . .
Ejemplo 1.29. Sea una caja con 10 esferas de color rojo dentro de ella y sean 8 esferas de color
azul fuera de la caja
2
. Se lanza un dado perfectamente equilibrado de seis caras. Seguidamente
se introducen sin reposicion en la caja el n umero de esferas azules en funcion del n umero obtenido
en el dado
3
. Luego se extraen al azar y sin reposicion cuatro esferas de la caja. Determinar la
probabilidad de extraer cuatro esferas azules de la caja.
Soluci on. El experimento se puede apreciar gracamente en la siguiente gura.
Caja
Extraer 4 esferas
Introducir k esferas azules
Lanzar un dado
Denamos los siguientes eventos:
D = {Extraer cuatro esferas azules de la caja}
A
k
= {Introducir k esferas azules en la caja} , k = 1, 2, . . . , 6.
De esta forma, la probabilidad que debemos calcular es P(D). Como la ocurrencia de cada A
k
condiciona la ocurrencia del evento D, entonces se puede escribir:
D =
6
_
k=1
(D A
k
) .
Los eventos A
k
particionan el espacio muestral asociado a la extraccion de 4 esferas. Por el
principio de probabilidad total se tiene que
P(D) =
6

k=1
P(D|A
k
)P(A
k
),
2
Todas las esferas son de igual textura, peso y dimensi on.
3
Si por ejemplo se obtiene 1 en el dado, se deber a colocar una esfera azul en la caja; si logra un 2 en el dado,
deber a colocar 2 esferas en la caja, y as sucesivamente.
32 Tema 1 Espacio probabilstico
donde el evento D|A
k
esta denido como
D|A
k
= {Extraer cuatro esferas azules de la caja, dado que
se introdujeron k esferas azules} , k = 1, 2, . . . , 6.
Como es imposible extraer 4 esferas azules cuando se introducen 3 o menos esferas a la caja,
entonces P(D|A
k
) = 0 para k = 1, 2, 3. Ahora bien, el experimento de sacar 4 esferas de una
caja que tiene k = 4, 5, o 6 bolas azules y 10 bolas rojas es de tipo hipergeometrico. Entonces
la probabilidad P(D|A
k
) esta dada por
P(D|A
k
) =
_
k
4
__
10
0
_
_
10 +k
4
_ =
_
k
4
_
_
10 +k
4
_, k = 4, 5, 6.
Por otra parte, es claro que la probabilidad de introducir k esferas azules en la caja es igual a
la probabilidad de obtener un n umero k en el dado, para k = 1, 2, . . . , 6. En otras palabras,
P(A
k
) = 1/6 para k = 1, 2, . . . , 6.
De todo lo anterior se deduce que la probabilidad de extraer cuatro esferas azules de la caja
es
P(D) =
6

k=4
_
k
4
_
_
10 +k
4
_(1/6)
= (1/6)
6

k=4
k! (10 +k 4)!
(k 4)! (10 +k)!
=
155
72072
0.0021506

1.9 Problemas resueltos


En esta seccion se describe la resolucion de problemas que contemplan los conceptos b asicos
de probabilidades, experimentos aleatorios y eventos.
Problema 1.1. Sean dos cajas numeradas 1 y 2 tales que la caja 1 tiene 2 esferas azules y 3
rojas, y la caja 2 tiene 3 esferas azules y 2 rojas. Sean dos jugadores A y B que realizan el
siguiente juego. El jugador A toma con reposicion diez esferas de la caja 1. Simultaneamente,
el jugador B escoge con reposicion diez esferas de la caja 2. El jugador A gana el juego cuando
el obtiene al menos 3 esferas azules y el jugador B escoge a lo sumo 2 esferas rojas. En cambio
el jugador B gana el juego cuando el toma al menos 3 esferas rojas y el jugador A toma a lo
sumo 2 esferas azules. Determinar la probabilidad de que el jugador A gane el juego.
Soluci on. Sean A
k
y B
j
los eventos denidos como
A
k
= {k esferas azules tomadas por A de la caja 1}, para k = 0, 1, . . . , 10,
R
j
= {j esferas rojas tomadas por B de la caja 2}, para j = 0, 1, . . . , 10.
1.9 Problemas resueltos 33
De esta forma, el jugador A gana el juego si ocurre el evento
G
A
=
_
10
_
k=3
A
k
_

_
_
2
_
j=0
R
j
_
_
. (1.17)
Como
10

k=3
A
k
y
2

j=0
R
j
son eventos independientes, y los eventos A
k
y R
j
son mutuamente
excluyentes, entonces por (1.17) se tiene que
P(G
A
) = P
_
10
_
k=3
A
k
_
P
_
_
2
_
j=0
R
j
_
_
=
_
10

k=3
P(A
k
)
_
_
_
2

j=0
P(R
j
)
_
_
. (1.18)
Ahora, como
P(A
k
) =
_
10
k
__
2
5
_
k
_
3
5
_
10k
, para k = 0, 1, . . . , 10,
y
P(R
j
) =
_
10
j
__
2
5
_
j
_
3
5
_
10j
, para j = 0, 1, . . . , 10,
entonces por (1.18) la probabilidad de que el jugador A gane el juego es
P(G
A
) =
_
10

k=3
_
10
k
__
2
5
_
k
_
3
5
_
10k
_
_
_
2

j=0
_
10
j
__
2
5
_
j
_
3
5
_
10j
_
_
.

Problema 1.2. Sean seis cajas numeradas 1, 2, . . . , 6 tales que la caja j tiene 7j esferas azules
y j esferas rojas, para j = 1, 2, . . . , 6. Suponga que usted lanza una moneda normal sobre una
supercie plana. Si en la moneda se obtiene cara, usted toma una esfera de la caja 6 y la coloca
en la caja 1. Por el contrario, si en la moneda sale sello usted no altera el contenido de las cajas.
Finalmente como ultima etapa del experimento, usted toma una esfera de cada una de las cajas.
Determinar la probabilidad de extraer sendas esferas azules.
Soluci on. Sean los eventos C, A
j
, R y D denidos respectivamente como
C = {obtener cara en la moneda normal},
A
j
= {escoger una esfera azul de la caja j}, para j = 1, 2, . . . , 6,
R = {tomar una esfera roja de la caja 6},
D = {las seis esferas escogidas son azules}.
El evento D se puede expresar como D =
6

j=1
A
j
. Ademas, los eventos A
j
son independientes
dos a dos, es decir, P(A
i
A
k
) = P(A
i
)P(A
k
) para i = k. Por lo tanto,
P(D) =
6

j=1
P(A
j
). (1.19)
Por las condiciones planteadas en el enunciado del problema se tiene que
P(A
j
) =
7 j
7
, para j = 2, 3, 4, 5. (1.20)
34 Tema 1 Espacio probabilstico
Ahora se calculara las probabilidades P(A
1
) y P(A
6
). El evento A
1
se puede expresar como
A
1
= (C R A
1
) (C R A
1
) (C A
1
). Luego, por la ecuacion anterior y dado que los
eventos C y R son independientes, se puede escribir:
P(A
1
) = P(C R A
1
) +P(C R A
1
) +P(C A
1
)
= P(A
1
|C R)P(C)P(R) +P(A
1
|C R)P(C)P(R) +P(A
1
|C)P(C)
=
6
8

1
2

6
7
+
7
8

1
2

1
7
+
6
7

1
2
=
91
7 2
4
. (1.21)
Por otra parte, el evento A
6
se puede expresar como
A
6
= (C R A
6
) (C R A
6
) (C A
6
).
As, empleando un razonamiento similar al del calculo de P(A
1
) se obtiene:
P(A
6
) = P(C R A
6
) +P(C R A
6
) +P(C A
6
)
= P(A
6
|C R)P(C)P(R) +P(A
6
|C R)P(C)P(R) +P(A
6
|C)P(C)
=
1
6

1
2

6
7
+ 0
1
2

6
7
+
1
7

1
2
=
1
7
. (1.22)
Por (1.19), (1.20), (1.21) y (1.22) la probabilidad de que cada una de las seis esferas escogidas
es azul es
P(D) =
91
7 2
4

5

j=2
_
7 j
7
_

1
7
=
91 120
7
6
2
4
.

Problema 1.3. Se tienen dos cajas que contienen esferas de igual tama no y peso, pero de
distintos colores. La primera caja contiene 4 esferas blancas, 3 rojas y 4 negras. En cambio,
la segunda caja contiene 3 esferas blancas, 4 azules y 4 negras. Si se extraen con reposici on 3
esferas de cada caja, entonces determinar la probabilidad de que se extraigan al menos 2 esferas
negras. (Tenga presente que debe considerar el total de esferas extradas, es decir, las tres esferas
de la primera caja mas las otras tres de la segunda caja.)
Soluci on. Sean los eventos N: al menos 2 esferas en el total esferas extradas, E
k
: k esferas
negras en una muestra de tama no 3 tomada con reposicion de la primera caja, k = 0, 1, 2, 3,
y F
j
: j esferas negras en una muestra de tama no 3 tomada con reposicion de la segunda caja,
j = 0, 1, 2, 3. Se tiene que
P(N) = 1 P(N), (1.23)
donde el evento N es el complemento de N, el cual se puede expresar como
N = (E
0
F
0
) (E
1
F
0
) (E
0
F
1
). (1.24)
Por otra parte, se tiene que
P(E
k
) =
_
3
k
_
(4/11)
k
(7/11)
3k
, k = 0, 1, 2, 3; (1.25)
P(F
j
) =
_
3
j
_
(4/11)
j
(7/11)
3j
, j = 0, 1, 2, 3. (1.26)
1.9 Problemas resueltos 35
Ahora bien, como los eventos E
k
y F
j
son independientes y los eventos (E
k
F
j
) son mutuamente
excluyentes, entonces por (1.24), (1.25) y (1.26) se puede escribir:
P(N) = P(E
0
)P(F
0
) +P(E
1
)P(F
0
) +P(E
0
)P(F
1
)
=
7
3
11
3

7
3
11
3
+ 3
4
11

7
2
11
2

7
3
11
3
+
7
3
11
3
3
4
11

7
2
11
2
=
7
6
11
6
+ 24
7
5
11
6
= 31
7
5
11
6
(1.27)
De (1.23) y (1.27) se obtiene
P(N) = 1 31
7
5
11
6
=
11
6
31 7
5
11
6
.

Problema 1.4. Cuatro amigos (Alberto, Beatriz, Carmen y Luis) se sientan alrededor de una
mesa a jugar, apostando cierta cantidad de dinero. El juego consiste en que cada uno de ellos
lanzara un dado corriente, por turnos; el primero de ellos que saque el n umero 1 ganara y recibir a
de cada uno de sus compa neros 10 Bs.F. Ahora bien, Alberto toma el dado y decide lanzar de
primero. Luego de Alberto, se acordo que sera el turno de Beatriz, luego Carmen y, por ultimo,
Luis. Este orden se repite hasta lograr un ganador. Determinar la probabilidad de que Alberto
gane.
Soluci on. Sea A el evento: Alberto gana, el cual se puede escribir como
A =

_
i=1
A
i
, (1.28)
donde el evento A
i
es que Alberto gana en el i-esimo turno. Ademas, cada A
i
se puede expresar
como
A
i
=
_
_
i1

j=1
_
A
i
B
j
C
j
L
j
_
_
_
A
i
, para i = 1, 2, . . . (1.29)
donde los eventos B
j
, C
j
, y L
j
son, respectivamente, gana Beatriz, gana Carlos, y gana Luis, en
el j-esimo turno. Es claro que los eventos A
i
son mutuamente excluyentes, ademas, los eventos
A
j
, B
j
, C
j
, y L
j
son independientes. Por lo tanto, de (1.29) y (1.29) se tiene que la probabilidad
P(A) es
P(A) =

i=1
P(A
i
) =

i=1
P(A
i
)
i1

j=1
P
_
A
i
B
j
C
j
L
j
_
=

i=1
P(A
i
)
i1

j=1
P(A
i
)P(B
j
)P(C
j
)P(L
j
)
=

i=1
1
6
i1

j=1
_
5
6
_
4
=

i=1
1
6
_
5
6
_
4(i1)
=
1
6

i=0
_
5
6
_
4i
=
6
3
6
4
5
4
.

36 Tema 1 Espacio probabilstico


Problema 1.5. En un galpon se encuentran 4 componentes tipo A y 6 componentes tipo B.
La probabilidad de que un componente tipo A dure mas de 6 meses es 0.9. Mientras que dicha
probabilidad para un componente tipo B es 4/5. Para ensamblar un aparato se necesitan dos
componentes, no importa de que tipo, los cuales pueden conectarse en serie o en paralelo. Un
da el tecnico encargado del ensamblaje selecciona dos componentes al azar de los que est an en
el galpon. Se tiene que la probabilidad de que el tecnico ensamble los componentes en paralelo
es de 2/3.
a) Determinar la probabilidad de que el equipo ensamblado por el tecnico dure mas de 6
meses.
b) Si se sabe que los componentes han sido conectados en serie, entonces determinar la
probabilidad de que el equipo este conformado por los dos tipos de componentes.
Soluci on.
a) Sean los eventos A: componente de tipo A, B: componente de tipo B, A
i
: i componentes
de tipo A en una muestra de tama no 2 tomada sin reposicion del galpon, L: componentes
ensamblados en paralelo, S: componentes ensamblados en serie, D
A
: el componente A dura
mas de seis meses, D
B
: el componente B dura mas de seis meses, y E: el equipo dura m as
de seis meses. De esta forma, el evento E se puede describir como:
E =
2
_
i=0
(A
i
S E) (A
i
L E),
ademas, los eventos (A
i
S E) y (A
i
S E) son mutuamente excluyentes. As, por los
condiciones del enunciado del problema, la probabilidad P(E) es
P(E) =
2

i=0
P(A
i
S E) +
2

i=0
P(A
i
L E)
=
2

i=0
P(E|A
i
S)P(S)P(A
i
)
+
2

i=0
P(E|A
i
L)P(L)P(A
i
). (1.30)
Ahora bien, se tiene que
P(L) =
2
3
, P(S) =
1
3
, P(D
A
) =
9
10
, P(D
B
) =
8
10
,
P(A
i
) =
_
4
i
__
6
2 i
_
_
10
2
_ , k = 0, 1, 2,
1.9 Problemas resueltos 37
P(E|A
0
S) = P(D
B
D
B
) = P(D
B
)P(D
B
) =
8
10

8
10
=
64
100
,
P(E|A
1
S) = P(D
A
D
B
) = P(D
A
)P(D
B
) =
9
10

8
10
=
72
100
,
P(E|A
2
S) = P(D
A
D
A
) = P(D
A
)P(D
A
) =
9
10

9
10
=
81
100
,
P(E|A
0
L) = P(D
B
D
B
) = 1 P(D
B
D
B
) = 1
2
10

2
10
=
96
100
,
P(E|A
1
L) = P(D
A
D
B
) = 1 P(D
A
D
B
) = 1
1
10

2
10
=
98
100
,
P(E|A
2
L) = P(D
A
D
A
) = 1 P(D
A
D
A
) = 1
1
10

1
10
=
99
100
.
De esta forma, sustituyendo todas las probabilidades anteriores en la ecuacion (1.30) se
obtiene
P(E) =
1
3
_
64
100

15
45
+
72
100

24
45
+
81
100

6
45
_
+
2
3
_
96
100

15
45
+
98
100

24
45
+
99
100

6
45
_
=
11946
13500
=
1991
2250
.
b) Consideremos los eventos A
i
y S denidos en la parte a). As, la probabilidad pedida es
P(A
1
|S). Por las condiciones del problema se tiene que los eventos A
i
y S son independientes
para cada i = 0, 1, 2. De esta forma,
P(A
1
|S) = P(A
1
) =
_
4
1
__
6
1
_
_
10
2
_ =
24
45
=
8
15
.

Problema 1.6. Sean A, B y C tres eventos no imposibles asociados a un experimento E cuyo


espacio muestral es S. Se sabe que
P(A|B) = P(B|A) = 1/2,
P(A \ B) = 1/4,
A B C = S,
((A B) C) = S.
Determinar la probabilidad de que ocurra el evento C.
Soluci on. Como ((A B) C) = S, entonces (A B) C = , es decir, los eventos (A B) y
C son mutuamente excluyentes. Ademas, A B C = S, as se obtiene
P(C) = 1 P(A B) (1.31)
Determinemos la probabilidad P(A B). Se tiene que
P(A B) = P(A) +P(B) P(A B). (1.32)
38 Tema 1 Espacio probabilstico
Como A = (A \ B) (A B), y A\ B y A B son excluyentes, entonces se puede escribir:
P(A) = P(A \ B) +P(A B) = P(A \ B) +P(B|A)P(A).
lo que implica
P(A) =
P(A \ B)
1 P(B|A)
.
Sustituyendo los valores P(A \ B) = 1/4 y P(B|A) = 1/2 en la ecuacion anterior se tiene
P(A) =
1/4
1 1/2
=
1
2
, (1.33)
ademas,
P(A B) = P(B|A)P(A) =
1
4
. (1.34)
Ahora, como P(A|B) = 1/2 y P(B) = P(A B)/P(A|B), entonces por (1.34)
P(B) =
1
2
. (1.35)
Por (1.32), (1.33), (1.34) y (1.35)
P(A B) =
1
2
+
1
2

1
4
=
3
4
.
De esta forma, sustituyendo el valor P(A B) = 3/4 en la ecuacion (1.31) se obtiene
P(C) =
1
4
.

1.10 Problemas propuestos


1.1. Sean A y B dos eventos independientes con P(A) = 0.4 y P(A B) = 0.7. Cual es la
probabilidad de P(B)? Resp.: 0.5
1.2. Considere dos eventos A y B, y las siguientes probabilidades conocidas P(A), P(B),
y P(A B). Encuentre una expresion para el evento que exactamente uno de los dos
eventos ocurra en terminos de P(A), P(B), y P(A B).
1.3. Dos eventos A y B tienen las siguientes probabilidades: P(A) = 1/4, P(B|A) = 1/2, y
P(A|B) = 1/3. Calcule lo siguiente.
a. P(A B) Resp.: 1/8
b. P(B) Resp.: 3/8
c. P(A B) Resp.: 1/2
1.4. Dos eventos A y B tienen las siguientes probabilidades: P(A) = 0.6, P(B) = 0.7, y
P(A B) = p. Encuentre el rango de valores que puede tomar p. Resp.: 0.3 p 0.6
1.5. Dos eventos A y B tienen las siguientes probabilidades: P(A) = 0.5, P(B) = 0.6, y
P(A B) = 0.25. Calcule P(A B). Resp.: 1/2
1.10 Problemas propuestos 39
1.6. Dos eventos A y B tienen las siguientes probabilidades: P(A) = 0.4, P(B) = 0.5, y
P(A B) = 0.3. Calcule lo siguiente.
a. P(A B) Resp.: 0.6
b. P(A B) Resp.: 0.1
c. P(A B) Resp.: 0.7
1.7. Sea A el conjunto de los enteros positivos pares, sea B el conjunto de los enteros positivos
que son divisibles por 3, y sea C el conjunto de los enteros positivos impares. Describa
los siguientes eventos:
a. E
1
= A B
b. E
2
= A B
c. E
3
= A C
d. E
4
= (A B) C
e. E
5
= A (B C)
1.8. Se dan cuatro eventos no vacos A, B, C y D tales que A y B son independientes; B
y C son independientes; A y C son independientes; ademas, los tres eventos A, B y C
no pueden ocurrir simultaneamente y los eventos (A + B + C) y D son mutuamente
excluyentes. Si suponemos que P(A) = P(B) = P(C) = p y P(D) = 1/5, entonces
determinar el maximo valor de p. Resp.: 1/2
1.9. Calcular la probabilidad de extraer una escalera (eso es, diez, sota, reina, rey, as del
mismo palo) de una baraja de 52 cartas, en un poker de cinco cartas. Resp.: 1/649740
1.10. Un dado normal se lanza seis veces. Cual es la probabilidad de que cada lanzamiento-
produzca un resultado diferente? Resp.: 5/324
1.11. Se toman tres muestras aleatorias independientes sobre los dgitos 0, 1, 2, , 9.
Determine la probabilidad de que el mismo dgito aparezca mas de una vez en las tres
muestras. Resp.: 0, 28
1.12. Calcular la probabilidad de que una mano de bridge (o sea, manos de 13 cartas extradas
de una baraja de 52) contenga m espadas, n corazones, i diamantes y k bastos.
Resp.:
C13,mC13,nC13,iC
13,k
C52,13
1.13. Usted cuenta con un dado perfecto de seis caras, y decide lanzarlo cuatro veces sobre
una supercie lisa. Calcule la probabilidad de que la suma de los resultados de los
lanzamientos del dado sea cinco. Resp.: 1/324
1.14. Usted cuenta con un dado perfectamente equilibrado de seis caras, y usted decide lan-
zarlo indenidamente hasta obtener el n umero de la cara de a-cuerdo al n umero del
lanzamiento. Es decir, usted detendra el lanzamiento del dado si obtiene la cara uno del
dado en el primer lanzamiento; o si obtiene la cara dos del dado en el segundo lanzami-
ento; o si obtiene la cara tres del dado en el tercer lanzamiento; o de igual forma para
el resto de los lanzamientos. Determine la probabilidad de detener los lanzamientos del
dado. Resp.:
6
5
+56
4
+5
2
6
3
+5
3
6
2
+5
4
6+5
5
6
6
1.15. Suponga que con usted se encuentran 40 estudiantes presentando un examen. Adem as,
suponga que la probabilidad de cada estudiante de haber nacido en cualquier da del
a no es la misma. Por otra parte, suponga que todos los a nos son de 365 das. Calcule
la probabilidad de que a lo sumo dos estudiantes cumplan a no hoy.
40 Tema 1 Espacio probabilstico
1.16. Se dan dos cajas denominadas A y B. La caja A contiene 10 monedas perfectas y 4
especiales, las cuales solo tienen cara en ambos lados. La caja B tiene 4 pelotas negras
y 3 rojas. Se selecciona al azar una moneda de la caja A y luego se lanza. Si sale cara,
se extrae una pelota de la caja B para descartarla; de lo contrario no se ejecuta ninguna
accion sobre la caja B. Seguidamente, se toma una pelota de la caja B. Calcule:
a. la probabilidad de descartar un pelota de la caja B;
b. la probabilidad de obtener una pelota negra en la ultima extraccion.
1.17. Una caja contiene 9 bolas blancas y 3 negras. Se toma una muestra de tres bolas sin
reposicion de la caja y luego se lanza un dado normal. Si el n umero que se obtiene en la
cara superior del dado es par, retiramos todas las bolas negras de la muestra extrada
y las restantes son devueltas a la caja; de lo contrario se regresa la muestra extrada
(sin modicar) a la caja. Seguidamente extraemos una bola de la caja. Calcule la
probabilidad de obtener una bola negra en la ultima extraccion.
Tema 2
Una variable aleatoria
En muchos experimentos se presenta la necesidad de asignar un n umero real x a cada uno
de los elementos del espacio muestral asociado al experimento. Es decir, x = X() es el valor
de una funcion X denida del espacio muestral a los n umeros reales. Considerando esto, damos
la siguiente denicion formal.
2.1 Denicion de variable aleatoria
Sea E un experimento y S su espacio muestral. Una funcion X que asigna a cada uno de
los elementos S, un n umero real X(), se llama variable aleatoria. Para ilustrar esta
denicion veamos el siguiente ejemplo.
Ejemplo 2.1. Consideremos el experimento:
E = lanzar una moneda normal repetidamente hasta obtener cara
El espacio muestral de este experimento se puede expresar como
S = {c, sc, ssc, sssc, ssssc, . . .},
donde la posicion de los smbolos s y c en cada cadena de caracteres, indica el n umero del
lanzamiento de la moneda donde se obtuvo un sello o una cara, respectivamente. De esta forma,
para denir una variable aleatoria para este experimento, podemos asignar a cada punto del
espacio muestral, el n umero del lanzamiento donde se obtuvo cara por primera vez. En otras
palabras, sea X : S R una funcion denida como
X({c}) = 1
X({sc}) = 2
X({ssc}) = 3
X({sssc}) = 4
.
.
.
o, equivalentemente,
X = n umero del lanzamiento de la moneda donde se obtuvo cara por primera vez.
41
42 Tema 2 Una variable aleatoria
que es la manera mas com un de denir una variable aleatoria. Ahora bien, X = k es una forma
simplicada de denotar
X({ss . . . s
. .
k1
c}) = k,
ademas, X = k signica, para nuestro experimento, que en el k-esimo lanzamiento se obtuvo
cara por primera vez.
2.2 Eventos denidos por una variable aleatoria
A continuacion describimos los eventos que pueden ser denidos utilizando una variable
aleatoria. Sean X una variable aleatoria y x un n umero real jo. Sea A
x
el evento subconjunto
del espacio muestral S que contiene todos los eventos elementales tales que la variable aleatoria
X le asigna el n umero x. Esto es,
A
x
= { S : X() = x} = (X = x).
Como A
x
es un evento, tiene una probabilidad la cual viene dada por
p = P(A
x
) = P(X = x).
Uno puede denir otros tipos de eventos en funcion de una variable aleatoria. Por ejemplo,
para n umeros reales jos x, a y b, podemos denir los siguientes eventos:
(X x) = { S : X() x},
(X > x) = { S : X() > x},
(a < X b) = { S : a < X() b}.
Estos eventos tienen probabilidades denotadas como:
P(X x) es la probabilidad de que X tome valores menores o iguales a x,
P(X > x) es la probabilidad de que X tome valores mayores que x,
P(a < X b) es la probabilidad de que X tome valores mayores que a y menores o iguales
a b.
Ejemplo 2.2. Consideremos la variable aleatoria X denida en el Ejemplo 2.1. Sea A el evento
denido como
A = { S : X() 15} = (X 15).
De esta forma, el evento A se puede escribir equivalentemente como
A = {c, sc, ssc, sssc, ssssc, . . . , ssssssssssssssc}.
Por lo tanto, la probabilidad de (X 15) esta dada por
P(X 15) = P(A)
= P({c}) +P({sc}) +P({ssc}) + +P({ssssssssssssssc})
=
1
2
+
1
2
2
+
1
2
3
+
1
2
4
+ +
1
2
15
= 1
1
2
15
.

2.3 Tipos de variables aleatorias 43


2.3 Tipos de variables aleatorias
Dependiendo de la naturaleza de los experimentos a los cuales esta asociada una variable
aleatoria, se pueden distinguir tres tipos de variables aleatorias: discretas, continuas y mixtas.
2.3.1 Variable aleatoria discreta
Sea X una variable aleatoria. Si el n umero de valores de X con probabilidad positiva es
nito o innito numerable, llamamos a X variable aleatoria discreta. Esto es, se pueden
anotar los valores de X con probabilidad positiva como x
1
, x
2
, . . . , x
n
, . . . En el caso nito la
lista termina y en el caso innito numerable la lista contin ua indenidamente.
Ejemplo 2.3. Consideremos la variable aleatoria X denida en el Ejemplo 2.1. Los valores de
X con probabilidad positiva estan expresados en el conjunto
{1, 2, 3, . . . , n, . . .}.
Por tanto, X es una variable aleatoria discreta.
Distribucion de probabilidades
Pasemos ahora a asignar probabilidades a eventos descritos por una variable aleatoria di-
screta.
Sea X una variable aleatoria discreta. Asumamos que x
1
, x
2
, . . . , x
n
, . . . son los unicos valores
de X con probabilidad positiva. Sea p
i
= P(X = x
i
) la probabilidad de que la variable aleatoria
X tome el valor x
i
. De esta forma, los n umeros p
i
deben satisfacer las condiciones siguientes:
a) p
i
0 para i = 1, 2, . . .,
b)

i=1
p
i
= 1.
La coleccion de pares (x
i
, p
i
), i = 1, 2, . . ., se llama distribuci on de probabilidades de X.
Denicion 2.1. La funcion
p
X
(x) = P(X = x) para x R, (2.1)
se denomina funcion de probabilidades de la variable aleatoria discreta X.
La funcion de probabilidades de X satisface:
p
X
(x) =
_
p
i
, si x = x
i
, i = 1, 2 . . .
0, si x = x
i
, i = 1, 2 . . .
Ejemplo 2.4. Consideremos la variable aleatoria X denida en el Ejemplo 2.1. Como se dijo
en el Ejemplo 2.3, los valores de X con probabilidad positiva son {1, 2, 3, . . . , n, . . .}. El evento
(X = k) signica que en el k-esimo lanzamiento se obtuvo cara por primera vez, entonces
p
k
= P(X = k) = (1/2)
k
, para k = 1, 2, . . ., y

k=1
p
k
=

k=1
(1/2)
k
=

k=0
(1/2)
k
1 = 1.
44 Tema 2 Una variable aleatoria
Por lo tanto, los pares (1, 1/2
k
) para k = 1, 2, . . ., son la distribucion de probabilidades de X, y
su funcion de probabilidades es
p
X
(x) =
_
(1/2)
x
, si x = 1, 2 . . .
0, en otro caso.

Ejemplo 2.5. Sea Z la variable aleatoria denida como el n umero de caras en tres lanzamientos
de una moneda. Determinar la funcion de probabilidades de Z.
Soluci on. El espacio muestral del experimento es
S = {ccc, ccs, csc, scc, sss, ssc, scs, css}.
Los eventos denidos por la variable aleatoria Z cuyo probabilidad es distinta de cero son:
(Z = 0) = {sss}
(Z = 1) = {ssc, scs, css}
(Z = 2) = {ccs, csc, scc}
(Z = 3) = {ccc}
Como los ocho eventos elementales son igualmente probables, la funcion de probabilidades de Z
es
p
Z
(z) =
_

_
1/8, z = 0,
3/8, z = 1,
3/8, z = 2,
1/8, z = 3,
0, en otros casos.
2/8
1/8
3/8
4/8
5/8
6/8
7/8
1
1 2 3
z
p
Z
(z)
0
Figura 1. Funcion de probabilidades para el Ejemplo 2.5
La funcion de probabilidades de Z es ilustrada gracamente en la Figura 1.
2.4 Funci on de densidad de probabilidades 45
2.3.2 Variable aleatoria continua
Sea X una variable aleatoria. Si el conjunto de valores de X con probabilidad positiva es un
conjunto no numerable de n umeros reales, llamamos a X variable aleatoria continua.
Ejemplo 2.6. Supongamos que escogemos aleatoriamente un punto del intervalo (0, 1). De-
namos la variable aleatoria X como la coordenada x del punto escogido. Efectivamente, X es
una variable aleatoria continua.
Para calcular la probabilidad de un evento A descrito a traves de una variable aleatoria
continua, es necesario denir una funcion real f
X
(x) a valores reales. La funcion f
X
se denomina
funci on de densidad de probabilidades. Por ejemplo, la probabilidad del evento (a < X b) se
calcula como
P(a < X b) =
_
b
a
f
X
(x) dx.
La funcion de densidad de probabilidades se describira detalladamente en la Seccion 2.4.
2.3.3 Variable aleatoria mixta
Hay situaciones donde podemos encontrar variables del tipo mixto, es decir, variables alea-
torias con la particularidad de ser continuas y discretas al mismo tiempo.
Sea X una variable aleatoria. Si el n umero de valores de X con probabilidad positiva es
nito o innito numerable, x
1
, . . . , x
n
, . . ., y tambien comprende alg un intervalo a x b,
llamamos a X variable aleatoria mixta.
Ejemplo 2.7. Supongamos que estamos probando un equipo y medimos su tiempo de funciona-
miento. Supongamos tambien que el equipo puede fallar en el tiempo t = 0. Sea X la variable
aleatoria denida como el tiempo de funcionamiento del equipo. Es claro que el conjunto de
valores de X con probabilidad positiva es {x R : x 0}. Por otra parte, como el equipo
puede fallar en el tiempo t = 0, entonces P(X = 0) > 0. Por lo tanto, la variable aleatoria X es
mixta.
Para calcular la probabilidad de un evento A descrito a traves de una variable aleatoria mixta,
se procede como en el caso de las variables aleatorias continuas, es decir, se emplea la funci on
de densidad de probabilidades para calcular la probabilidad de dicho evento (ver Seccion 2.4).
2.4 Funcion de densidad de probabilidades
En esta seccion no haremos una distincion entre los tipos de variables aleatorias. Todos los
conceptos que aqu aparecen se extienden a cualquier variable aleatoria. Sea X una variable
aleatoria cualquiera. La funcion de densidad de probabilidades de la variable aleatoria X,
denotada por f
X
, es una funcion real tal que satisface las siguientes condiciones:
a) f
X
(x) 0, para todo x R;
b)
_

f
X
(x) dx = 1;
c) P(a < X b) =
_
b
a
f
X
(x) dx, para todo a, b R.
En la siguiente denicion se describe como se construye la funcion de densidad de una variable
aleatoria discreta.
46 Tema 2 Una variable aleatoria
Denicion 2.2. Sean X una variable aleatoria discreta y x
1
, x
2
, . . . , x
n
, . . . el conjunto de
valores de X con probabilidad positiva. La funcion de densidad de probabilidades de la variable
aleatoria discreta X se dene como
f
X
(x) =

k
p
X
(x
k
)(x x
k
), (2.2)
donde p
X
(x) es la funcion de probabilidades de X, y k = 1, 2, . . . , n si el conjunto de valores de
X con probabilidad positiva es nito, o k = 1, 2, . . . , si es innito.
Ejemplo 2.8. Considere el siguiente experimento.
E = lanzar un dado normal repetidamente hasta obtener
un seis por primera vez.
Hallar la funcion de densidad de probabilidades de la variable aleatoria X denida como
X = n umero de lanzamientos del dado necesarios para obtener
un seis por primera vez.
Soluci on. Se tiene que el conjunto de valores de X con probabilidad positiva es {1, 2, 3, 4, . . .};
ademas,
P(X = k) =
_
5
6
_
k1
_
1
6
_
, para k = 1, 2, 3, . . .
As, la funcion de probabilidades de X es
p
X
(x) =
_
(5/6)
x1
(1/6), si x = 1, 2, . . . ,
0, en otro caso.
Por tanto, la funcion de densidad de X es
f
X
(x) =

k=1
p
X
(k)(x k) = (1/6)

k=1
(5/6)
k1
(x k).
En la Figura 2 se observa la graca de la funcion de densidad f
X
(x).
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
0.18
x
fX(x)
Figura 2. Funcion de densidad f
X
(x) = (1/6)

k=1
(5/6)
k1
(x k).
2.5 Funci on de distribuci on acumulativa de probabilidades 47
2.5 Funcion de distribucion acumulativa de probabilidades
Sea X una variable aleatoria cualquiera. La funcion de distribucion acumulativa de
probabilidades, o simplemente, funcion de distribucion de la variable aleatoria X, denotada
por F
X
, se dene como
F
X
(x) = P(X x), para x R. (2.3)
A continuacion damos un teorema que presenta algunas propiedades de la funcion de distri-
bucion acumulativa de probabilidades, las cuales se obtienen de forma inmediata a partir de su
denicion.
Teorema 2.1. Sea X una variable aleatoria cuya funci on de distribuci on es F
X
. Entonces se
cumple:
(i) La funci on F
X
no es decreciente. Esto es,
x
1
x
2
F
X
(x
1
) F
X
(x
2
).
(ii) F
X
es continua por la derecha, adem as,
lm
x
F
X
(x) = 0 y lm
x
F
X
(x) = 1.
El siguiente teorema muestra las relaciones entre la funci on de densidad y la funci on de
distribucion acumulativa de probabilidades.
Teorema 2.2. Sea X una variable aleatoria cuyas funciones de densidad y distribuci on son
respectivamente f
X
y F
X
. Entonces se cumple:
(i)
f
X
(x) =
d
dx
F
X
(x).
(ii)
F
X
(x) =
_
x

f
X
(s) ds.
Proposicion 2.1. Sea X una variable aleatoria cuyas funciones de densidad y distribuci on son
respectivamente f
X
y F
X
. Entonces se cumple:
(i) P(X a) = F
X
(a) =
_
a

f
X
(x) dx, para a R.
(ii) P(X > a) = 1 P(X a) = 1 F
X
(a) = 1
_
a

f
X
(x) dx, para a R.
(iii) P(a < X b) = F
X
(b) F
X
(a) =
_
b
a
f
X
(x) dx, para a, b R.
Ejemplo 2.9. Hallar la funcion de distribucion de la variable aleatoria X denida en el Ejem-
plo 2.8.
Soluci on. Se tiene que
F
X
(x) =
x
_

f
X
(s) ds.
48 Tema 2 Una variable aleatoria
Ademas, la funcion de densidad de X es
f
X
(x) = (1/6)

k=1
(5/6)
k1
(x k).
Por lo tanto, la funcion de distribucion de X es
F
X
(x) =
x
_

_
(1/6)

k=1
(5/6)
k1
(s k)
_
ds
= (1/6)

k=1
(5/6)
k1
x
_

(s k) ds
= (1/6)

k=1
(5/6)
k1
u(x k).
En la Figura 3 se observa la graca de la funcion de distribucion F
X
(x).
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
x
FX(x)
Figura 3. Funcion de distribucion F
X
(x) = (1/6)

k=1
(5/6)
k1
u(x k)
2.6 Distribuciones de probabilidad especiales
Abajo se dan los datos fundamentales de algunas de las distribuciones mas importantes.
Prestamos mas atencion a la distribucion normal.
2.6.1 Distribuciones discretas
Distribucion degenerada. La variable aleatoria X tiene una distribucion degenerada concen-
trada en a R, si X tiene
funcion de densidad
f
X
(x) = (x a),
2.6 Distribuciones de probabilidad especiales 49
funcion de distribucion
F
X
(x) = u(x a).
Distribucion de Bernoulli. La variable aleatoria X tiene una distribucion de Bernoulli de
parametro p (0 < p < 1), si X tiene
funcion de densidad
f
X
(x) = (1 p)(x) +p (x 1),
funcion de distribucion
F
X
(x) = (1 p) u(x) +p u(x 1).
Distribucion binomial. La variable aleatoria X tiene una distribucion binomial de parametros
n, p (0 < p < 1, n 1), si X tiene
funcion de densidad
f
X
(x) =
n

k=0
_
n
k
_
p
k
(1 p)
nk
(x k),
funcion de distribucion
F
X
(x) =
n

k=0
_
n
k
_
p
k
(1 p)
nk
u(x k).
Distribucion geometrica. La variable aleatoria X tiene una distribucion geometrica de par ametro
p (0 < p < 1), si X tiene
funcion de densidad
f
X
(x) =

k=1
p(1 p)
k1
(x k),
funcion de distribucion
F
X
(x) =

k=1
p(1 p)
k1
u(x k).
Distribucion de Poisson. La variable aleatoria X tiene una distribucion de Poisson de par ametro
( > 0), si X tiene
funcion de densidad
f
X
(x) =

k=0

k
k!
e

(x k),
funcion de distribucion
F
X
(x) =
n

k=0

k
k!
e

u(x k).
50 Tema 2 Una variable aleatoria
2.6.2 Distribuciones continuas
Distribucion uniforme. La variable aleatoria X tiene una distribucion uniforme en el inte-
rvalo (a, b) (a < b), si X tiene
funcion de densidad
f
X
(x) =
_
_
_
1
b a
, x (a, b),
0, x / (a, b),
funcion de distribucion
F
X
(x) =
_

_
0, x a,
x a
b a
, a < x < b,
1, x b.
Distribucion triangular. La variable aleatoria X tiene una distribucion triangular con mnimo
a, moda b y maximo c, si X tiene
funcion de densidad
f
X
(x) =
_

_
0, x a,
2(x a)
(c a)(b a)
, a < x b,
2(x c)
(c a)(b c)
, b < x c,
0, x > c.
funcion de distribucion
F
X
(x) =
_

_
0, x a,
(x a)
2
(c a)(b a)
, a < x b,
1 +
(x c)
2
(c a)(b c)
, b < x c,
1, x > c.
Distribucion exponencial. La variable aleatoria X tiene una distribucion exponencial de
parametro ( > 0), si X tiene
funcion de densidad
f
X
(x) =
_
e
x
, x 0,
0, x < 0,
funcion de distribucion
F
X
(x) =
_
0, x < 0,
1 e
x
, x 0.
Distribucion de Laplace. La variable aleatoria X tiene una distribucion de Laplace de par ametros
(, ) ( > 0), si X tiene
funcion de densidad
f
X
(x) =

2
e
|x|
.
2.6 Distribuciones de probabilidad especiales 51
Distribucion normal o gaussiana
La distribucion gaussiana o distribucion normal fue introducida por C.F. Gauss en relaci on
con la teora de los errores de medidas fsicas. La distribucion normal es la distribucion continua
mas importante, por las siguientes razones:
1. La mayora de las variables aleatorias que aparecen relacionadas con experimentos u ob-
servaciones practicas estan distribuidas normalmente.
2. La mayora de las variables aleatorias que no siguen una distribucion normal se pueden
convertir en una variable aleatoria con distribucion normal a traves de una transformaci on
sencilla.
3. Ciertas distribuciones mas complicadas se pueden aproximar mediante la distribucion nor-
mal; por ejemplo, las distribuciones binomial, geometrica, etc.
Denicion 2.3 (Funcion de densidad de la distribucion normal). Se dice que una variable ale-
atoria sigue una distribucion normal o esta distribuida normalmente, si su funcion de densidad
de probabilidades tiene la forma
f
X
(x) =
1

2
e

1
2
(
x

)
2
, (2.4)
donde y > 0, son parametros reales.
1
1 0 -1 -2 2 x
f
X
(x)
= 1
= 0.5
= 0.25
Figura 4. Funcion de densidad (2.4) con = 0 para varios valores de
En la Figura 4 se muestra la representacion graca de la funcion de densidad de la distribuci on
normal con = 0, para varios valores de . La curva que representa a f
X
(x) se denomina
campana de Gauss. Ademas, como la integral
_

|x|f
X
(x) dx
existe y f
X
(x) es simetrica con respecto a x = , entonces el parametro es el valor esperado o
media de la distribucion normal. Asimismo, la varianza de la distribucion normal esta dada por
V (X) = E(X)
2
E(X)
2
=
1

2
_

x
2
e

1
2
(
x

)
2
dx
_
1

2
_

xe

1
2
(
x

)
2
dx
_
2
=
2
+
2

2
=
2
.
El parametro se denomina desviacion estandar de la distribucion.
52 Tema 2 Una variable aleatoria
Denicion 2.4 (Funcion de distribucion de la distribucion normal). Sea X una variable alea-
toria distribuida normalmente cuya funcion de densidad de probabilidades esta dada por (2.4).
La funcion de distribuci on de probabilidades de X se dene como
F
X
(x) = P(X x) =
1

2
_
x

1
2
(

)
2
d. (2.5)
Es claro que la funcion e

1
2
(

)
2
no es integrable. Por ello, los valores de la funci on de
distribucion de probabilidades de la distribucion normal no se pueden calcular con metodos
elementales, sino que se calculan a traves de valores aproximados de la distribucion normal
estandar o normal con media 0 y desviacion estandar 1. Seguidamente se deduce el procedi-
miento para calcular los valores de la funcion de distribucion de una variable aleatoria distribuida
normalmente.
Sea X una variable aleatoria distribuida normalmente con media y desviacion estandar .
Sea Z una variable aleatoria denida como
Z =
X

. (2.6)
Veamos que Z sigue una distribucion normal con media 0 y desviacion estandar 1. Como X se
puede expresar por X = Z +, entonces la funcion de densidad de la variable aleatoria Z es
f
Z
(z) =
f
X
(z +)
1

=
1

2
e
z
2
/2
,
es decir, f
Z
(z) es la funcion de densidad de una distribucion normal con media 0 y desviaci on
estandar 1. De esta forma, se ha demostrado que si Z esta denida por (2.6), entonces Z es
una variable aleatoria con distribucion normal estandar. Este hecho permite calcular el valor de
F
X
(x) utilizando los valores de F
Z
(z). El valor de F
X
(x) para cada x R, esta dado por
F
X
(x) = F
Z
_
x

_
=
1

2
_ x

e
u
2
/2
du =
_
x

_
, (2.7)
donde
(z) =
1

2
_
z

e
u
2
/2
du.
Los valores de la funcion (z) se aproximan utilizando metodos numericos y se disponen en una
tabla. En la Tabla 1 se pueden apreciar algunos valores de (z).
A continuacion se dan algunas propiedades de la funcion (z).
i) Para todo z > 0 se cumple
(z) = 1 (z).
ii) Si X es normal con media 0 y desviacion estandar 1, entonces la probabilidad
P(c X c) =
es equivalente a (c) = (1 +)/2, para todo c > 0.
La ecuacion (2.7) permite establecer las siguientes propiedades:
Para a R, la probabilidad P(X a) esta dada por
P(X a) =
_
a

_
.
2.6 Distribuciones de probabilidad especiales 53
Tabla 1. Tabla de la distribucion normal estandar
z
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998
3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.8 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
54 Tema 2 Una variable aleatoria
Para a R, la probabilidad P(X > a) es
P(X > a) = 1
_
a

_
.
Para a, b R tales a b, la probabilidad P(a < X b) es
P(a < X b) =
_
b

_
a

_
.
Los siguientes ejemplos ayudan a entender el uso practico de la Tabla 1.
Ejemplo 2.10. Determinar las probabilidades
(a) P(X 1.44)
(b) P(X 2.16)
(c) P(X 0.923)
(d) P(X 1)
(e) P(X 2.9)
(f) P(2 X 10)
donde X es normal con media 0 y varianza 1.
Puesto que X es normal estandar, los valores deseados se pueden obtener directamente de
la Tabla 1. Se tiene entonces:
(a) P(X 1.44) = (1.44) = 0.9251
(b) P(X 2.16) = (2.16) = 1 (2.16) = 1 0.9846 = 0.0154
(c) P(X 0.923) =
(0.92) + (0.93)
2
=
0.8212 + 0.8238
2
= 0.8225
(d) P(X 1) = 1 (1) = 1 0.8413 = 0.1587
(e) P(X 2.9) = 1 P(X < 2.9) = 1 [1 (2.9)] = (2.9) = 0.9981
(f) P(2 X 10) = (10) (2) = 1 0.9772 = 0.0228
Ejemplo 2.11. Determinar las probabilidades en el Ejemplo 2.10, suponiendo que X es normal
con media = 1 y varianza
2
= 4.
De (2.6), (2.7) y la Tabla 1, se obtiene:
(a) P(X 1.44) = F
X
(1.44) =
_
1.44 1
2
_
= (0.22) = 0.5871
(b) P(X 2.16) = F
X
(2.16) =
_
2.16 1
2
_
= (1.58) = 1 (1.58) = 0.0571
(c) P(X 0.923) = F
X
(0.923) =
_
0.923 1
2
_
= (0.039) = 1 (0.039)
= 1
(0.03) + (0.04)
2
= 0.4860
(d) P(X 1) = 1 F
X
(1) = 1
_
1 1
2
_
= 1 (0) = 0.5
(e) P(X 2.9) = 1 F
X
(2.9) = 1
_
2.9 1
2
_
= 1 (1.95) = (1.95) = 0.9744
(f) P(2 X 10) =
_
10 1
2
_

_
2 1
2
_
= (4.5) (0.5) = 1 0.6915 = 0.3085
Ejemplo 2.12. Sea X una variable aleatoria que sigue una distribucion normal con media
= 2 y varianza
2
= 0.25. Determinar la constante c tal que:
2.7 Funciones de distribuci on y densidad condicionadas 55
(a) P(X c) = 0.2
(b) P(c X 1) = 0.5
(c) P(2 c X 2 +c) = 0.996
De (2.6), (2.7) y la Tabla 1, se obtiene:
(a) 0.2 = P(X c) = 1
_
c + 2
0.5
_
(2c + 4) = 0.8 2c + 4 = 0.845 c = 1.578
(b) 0.5 = P(c X 1) = (2)(2c+4) (2c+4) = 0.4772 (2c4) = 0.5228
2c 4 = 0.045 c = 2.02
(c) 0.996 = P(2 c X 2 + c) = (2c) (2c) = 2(2c) 1 (2c) = 0.998
2c = 2.88 c = 1.44
2.7 Funciones de distribucion y densidad condicionadas
Sea X una variable aleatoria cuya funcion de distribucion es F
X
y su funcion de densidad es
f
X
. Sea A un evento no imposible.
Denicion 2.5. La funci on de distribuci on de X condicionada al evento A, denotada por
F
X
(x|A), se dene como
F
X
(x|A) = P(X x|A) =
P ((X x) A)
P(A)
, para x R.
La siguiente denicion nos permitira introducir el concepto de funcion de densidad condicio-
nada.
Denicion 2.6. Sean X una variable aleatoria, A un evento y x un n umero real jo. Diremos
que x A si el evento (X = x) es subconjunto de A, esto es, (X = x) A.
Ejemplo 2.13. Sean X una variable aleatoria y A el evento A = (a < X b), donde a, b R.
Entonces, x A si y solo si a < x b.
Denicion 2.7. La funci on de densidad de X condicionada al evento A, denotada por f
X
(x|A),
se dene para cada x R como
f
X
(x|A) =
_
_
_
f
X
(x)
P(A)
, x A,
0, x A.
Comentario 2.1. Las funciones de distribucion y densidad condicionales satisfacen:
i) f
X
(x|A) 0.
ii) f
X
(x|A) =
d
dx
F
X
(x|A), y F
X
(x|A) =
_
x

f
X
(s|A) ds.
iii) lm
x
F
X
(x|A) = 0, y lm
x
F
X
(x|A) = 1.
iv) P(a < X b|A) = F
X
(b|A) F
X
(a|A) =
_
b
a
f
X
(x|A) dx.
En los siguientes cuatro ejemplos calculamos las expresiones analticas de F
X
(x|A) y f
X
(x|A)
cuando el evento A posee una forma particular.
56 Tema 2 Una variable aleatoria
Ejemplo 2.14. Sean a R y A = (X > a). Por denicion, la funcion de distribucion condicio-
nada F
X
(x|X > a) esta dada por
F
X
(x|X > a) = P(X x|X > a) =
P [(X x) (X > a)]
P(X > a)
.
Pero, P(X > a) = 1 P(X a) = 1 F
X
(a), y
(X x) (X > a) =
_
, x a
a < X x, x > a.
Por tanto,
F
X
(x|X > a) =
_
_
_
0, x a
F
X
(x) F
X
(a)
1 F
X
(a)
, x > a.
Por otra parte, la funcion de densidad condicionada f
X
(x|X > a) es
f
X
(x|X > a) =
_
_
_
f
X
(x)
P(A)
, x A
0, x A
=
_
_
_
f
X
(x)
P(X > a)
, x > a
0, x a
=
_
_
_
f
X
(x)
1 F
X
(a)
, x > a
0, x a.

Ejemplo 2.15. Sean b R y A = (X b). Por denicion, la funcion de distribucion condicio-


nada F
X
(x|X b) esta dada por
F
X
(x|X b) = P(X x|X b) =
P [(X x) (X b)]
P(X b)
.
Pero, P(X b) = F
X
(b), y
(X x) (X b) =
_
X x, x b
X b, x > b.
Por tanto,
F
X
(x|X b) =
_
_
_
F
X
(x)
F
X
(b)
, x b
1, x > b.
2.7 Funciones de distribuci on y densidad condicionadas 57
Por otra parte, la funcion de densidad condicionada f
X
(x|X b) es
f
X
(x|X b) =
_
_
_
f
X
(x)
P(A)
, x A
0, x A
=
_

_
f
X
(x)
P(X b)
, x b
0, x > b
=
_

_
f
X
(x)
F
X
(b)
, x b
0, x > b.

Ejemplo 2.16. Sean a, b R y A = (a < X b). Por denicion, la funcion de distribuci on


condicionada F
X
(x|a < X b) esta dada por
F
X
(x|a < X b) =
P [(X x) (a < X b)]
P(a < X b)
.
Pero, P(a < X b) = F
X
(b) F
X
(a), y
(X x) (a < X b) =
_

_
, x a
a < X x, a < x b
a < X b, x > b.
Por tanto,
F
X
(x|a < X b) =
_

_
0, x a
F
X
(x) F
X
(a)
F
X
(b) F
X
(a)
, a < x b
1, x > b.
Por otra parte, la funcion de densidad condicionada f
X
(x|a < X b) es
f
X
(x|a < X b) =
_
_
_
f
X
(x)
P(A)
, x A
0, x A
=
_

_
f
X
(x)
P(a < X b)
, a < x b
0, x a, o x > b
=
_

_
f
X
(x)
F
X
(b) F
X
(a)
, a < x b
0, x a, o x > b.

Ejemplo 2.17. Sean a, b R y A = (X a) (X > b). Por denicion, la funci on de


distribucion condicionada F
X
(x|(X a) (X > b)) esta dada por
F
X
(x|(X a) (X > b)) =
P [(X x) ((X a) (X > b))]
P [(X a) (X > b)]
.
58 Tema 2 Una variable aleatoria
Pero, P [(X a) (X > b)] = 1 +F
X
(a) F
X
(b), y
(X x) ((X a) (X > b)) =
_

_
X x, x a
X a, a < x b
(X a) (b < X x), x > b.
Por tanto,
F
X
(x|(X a) (X > b)) =
_

_
F
X
(x)
1 +F
X
(a) F
X
(b)
, x a
F
X
(a)
1 +F
X
(a) F
X
(b)
, a < x b
F
X
(x) +F
X
(a) F
X
(b)
1 +F
X
(a) F
X
(b)
, x > b.
Por otra parte, la funcion de densidad condicionada f
X
(x|(X a) (X > b)) es
f
X
(x|(X a) (X > b)) =
_
_
_
f
X
(x)
P(A)
, x A
0, x A
=
_

_
f
X
(x)
P [(X a) (X > b)]
, x a o x > b
0, a < x b
=
_

_
f
X
(x)
1 +F
X
(a) F
X
(b)
, x a o x > b
0, a < x b.

2.8 Valor esperado de una variable aleatoria


Denicion 2.8. Sea X una variable aleatoria con funcion de densidad f
X
(x). El valor esperado
de X, denotado por E(X), esta denido por
E(X) = x =
_

xf
X
(x) dx.
Es claro que E(X) existe si y solo si
_

|x|f
X
(x) dx < .
Ejemplo 2.18. Sea X una variable aleatoria distribuida uniformemente en el intervalo (a, b).
Calcular el valor esperado de X.
Soluci on. Se tiene que
E(X) =
_

xf
X
(x) dx
=
_
b
a
x
b a
dx
=
a +b
2
.
2.8 Valor esperado de una variable aleatoria 59

2.8.1 Valor esperado de una funcion


Sea g : R R una funcion. El valor esperado de la funcion g esta denido por
E(g(X)) =
_

g(x)f
X
(x) dx.
Ejemplo 2.19. Sea X una variable aleatoria distribuida uniformemente en el intervalo (0, /2).
Hallar el valor esperado de la funci on g(x) = sen x.
Soluci on. Se tiene que
E(sen X) =
_

sen xf
X
(x) dx
=
_
/2
0
2 sen x

dx
=
2

Propiedades del valor esperado


Para esta parte consideramos una variable aleatoria X cualquiera. A continua-cion damos
una lista de algunas propiedades del valor esperado.
i) E(a) = a, para todo a R.
ii) E(aX) = aE(X), para todo a R.
iii) E(aX +b) = aE(X) +b, para todo a, b R.
iv) E(ag(X)+bh(X)) = aE(g(X))+bE(h(X)), para todo a, b R y las funciones g : R R
y h : R R.
v) Si X es una variable aleatoria cuya funcion de densidad de probabilidades es una funci on
par, entonces E(X) = 0.
vi) Si X es una variable aleatoria cuya funcion de densidad de probabilidades f
X
satisface
que f
X
(m +x) = f
X
(mx) para cierto m R, entonces E(X) = m.
2.8.2 Varianza de una variable aleatoria
Sea X una variable aleatoria cualquiera. La varianza de una variable aleatoria X, denotada
por V (X), se dene como
V (X) = E
_
(X E(X))
2
_
.
Como (X E(X))
2
= X
2
2E(XE(X)) +E(X)
2
, entonces por la Propiedad (iv) del valor
esperado, la varianza de X se puede escribir equivalentemente como
V (X) = E(X
2
) E(X)
2
.
A continuacion damos tres propiedades de la varianza.
60 Tema 2 Una variable aleatoria
i) V (a) = 0, para todo a R.
ii) V (aX) = a
2
V (X), para todo a R.
iii) V (aX +b) = a
2
V (X), para todo a, b R.
Ejemplo 2.20. Sea X una variable aleatoria distribuida uniformemente en el intervalo (a, b).
Calcular la varianza de X.
Soluci on. Se tiene que
V (X) = E(X
2
) E(X)
2
=
_

x
2
f
X
(x) dx
__

xf
X
(x) dx
_
2
=
_
b
a
x
2
b a
dx
_
_
b
a
x
b a
dx
_
2
=
(b a)
2
12
.

2.8.3 Valor esperado y varianza condicionados


Sea X una variable aleatoria con funcion de densidad f
X
. Sea g : R R una funci on.
Consideremos un evento M asociado con la variable aleatoria X.
Denicion 2.9. El valor esperado de X condicionado al evento M, denotado por E(X|M), se
dene como
E(X|M) =
_

xf
X
(x|M) dx,
donde f
X
(x|M) es la funcion de densidad de probabilidades de X condicionada al evento M.
Denicion 2.10. El valor esperado de g(x) condicionado al evento M, denotado por E(g(X)|M),
se dene como
E(g(X)|M) =
_

g(x)f
X
(x|M) dx.
Denicion 2.11. La varianza de X condicionada a la ocurrencia del evento M, denotado por
V (X|M), se dene como
V (X|M) = E(X
2
|M) E(X|M)
2
.
Ejemplo 2.21. Sea X una variable aleatoria cuya funcion de densidad de probabilidades es:
f
X
(x) =
_
_
_
1
2
cos x, si /2 < x < /2;
0, si |x| /2.
Sea M un evento denido como M = {X R : /4 X /4}. Determine el valor esperado
y la varianza de X condicionados al evento M.
Soluci on. Se tiene que la funcion de densidad de probabilidades de X condicionada al evento
M es
f
X
(x|M) =
_
_
_

2
2
cos x, si /4 x /4;
0, si |x| > /4.
2.9 Una funci on de una variable aleatoria 61
Por lo tanto, podemos escribir:
E(X|M) =
_

xf
X
(x|M) dx,
=

2
2
_
/4
/4
xcos xdx
= 0
y
V (X|M) = E(X
2
|M) E(X|M)
2
=

2
2
_
/4
/4
x
2
cos xdx
=
1
16
_

2
+ 8 32
_
.

2.9 Una funcion de una variable aleatoria


Sean E un experimento y S su espacio muestral. Sea X una variable aleatoria denida en
S, cuya funcion de distribucion es F
X
y funcion de densidad es f
X
. Consideremos una funci on
g(x) denida de R en s mismo. Denamos la variable aleatoria Y como
Y = g(X).
Para cualquier evento C R asociado con la variable aleatoria Y , denimos P(C) como sigue:
P(C) = P ({X R : g(X) C}) . (2.8)
Los eventos C y {X R : g(X) C} son, efectivamente, eventos equivalentes. Es bueno aclarar
que la probabilidad P ({X R : g(X) C}) se calcula utilizando la funcion de densidad de X.
Nuestro proposito es encontrar las expresiones analticas de las funciones de distribuci on y
densidad de Y . El procedimiento general sera el siguiente:
i) Obtener F
Y
(y), donde F
Y
(y) = P(Y y). Para ello, se debe encontrar el evento
A
y
= {X R : g(X) y}.
equivalente al evento (Y y) y denir P(Y y) = P(A
y
), para cada y R.
ii) Diferenciar a F
Y
(y) con respecto a y para obtener f
Y
(y).
Pasemos ahora ha encontrar las expresiones analticas de F
Y
y f
Y
para tres casos generales de
la funcion g: (a) g es continua y monotona creciente; (b) g es continua y monotona decreciente;
y (c) g es continua y no-monotona.
(a) g es continua y monotona creciente. Como g es continua y monotona creciente, ento-
nces g posee inversa. De esta forma, podemos escribir:
X = g
1
(Y ). (2.9)
El evento A
y
equivalente a (Y y) es
A
y
= {X R : X g
1
(y)},
62 Tema 2 Una variable aleatoria
que se puede apreciar gracamente en la Figura 5.
Por la denicion de F
Y
y la ecuacion (2.9) podemos escribir:
F
Y
(y) = P(X g
1
(y)) = F
X
(g
1
(y)) y R. (2.10)
Ahora, derivando F
Y
(y), dada en la ecuacion (2.10), con respecto a y obtenemos la ex-
presion analtica de la funcion de densidad f
Y
:
f
Y
(y) =
d F
Y
dy
(y) =
d
dy
_
F
X
(g
1
(y))

=
_
f
X
(x)
1
|g

(x)|
_

x=g
1
(y)
y R. (2.11)

X
Y

x = g
1
(y)

Y y
X x

Figura 5. Evento A
y
equivalente a (Y y) cuando g es monotona creciente.
(b) g es monotona decreciente. Como g es continua y monotona decreciente, entonces g
posee inversa. El evento A
y
equivalente a (Y y) es
A
y
= {X R : X g
1
(y)},
que se puede apreciar gracamente en la Figura 6.
Por la denicion de F
y
y la ecuacion (2.9) podemos escribir:
F
Y
(y) = P(X g
1
(y))
= 1 P(X < g
1
(y))
= 1
_
P(X g
1
(y)) P(X = g
1
(y))
_
= 1 P(X g
1
(y)) +P(X = g
1
(y))
= 1 F
X
(g
1
(y)) +P(X = g
1
(y)) y R. (2.12)
Ahora, derivando F
Y
(y), dada en la ecuacion (2.12), con respecto a y obtenemos la ex-
presion analtica de la funcion de densidad f
y
:
f
Y
(y) =
_
f
X
(x)
1
|g

(x)|
_

x=g
1
(y)
y R. (2.13)
2.9 Una funci on de una variable aleatoria 63

X
Y

g
1
(y)

Y y

X g
1
(y)
Figura 6. Evento A
y
equivalente a (Y y) cuando g es monotona decreciente.
(c) g es no-monotona. En el caso particular de la Figura 7, el evento A
y
equivalente a (Y y)
es
A
y
= {X R : (X x
1
) (x
2
X x
3
)}.

X
Y

Y y
x
1

x
2
x
3

X x
1

x
2
X x
3
Figura 7. Evento A
y
equivalente a (Y y) cuando g es no-monotona.
Por la denicion de F
y
podemos escribir:
F
Y
(y) = P(Y y)
= P((X x
1
) (x
2
X x
3
))
= P(X x
1
) +P(x
2
X x
3
)
= F
X
(x
1
) +F
X
(x
3
) F
X
(x
2
) +P(X = x
2
) y R, (2.14)
64 Tema 2 Una variable aleatoria
donde x
1
, x
2
, y x
3
dependen de cada y. Ahora, derivando F
Y
(y), dada en la ecua-
cion (2.14), con respecto a y obtenemos la expresion analtica de la funcion de densidad
f
y
:
f
Y
(y) =
f
X
(x
1
)
|g

(x
1
)|
+
f
X
(x
2
)
|g

(x
2
)|
+
f
X
(x
3
)
|g

(x
3
)|
y R, (2.15)
donde x
1
, x
2
, y x
3
dependen de y.
2.10 Problemas resueltos
En esta seccion se describe la resolucion de problemas que contemplan los conceptos b asicos
de una variable aleatoria.
Problema 2.1. Sea Z una variable aleatoria que sigue una distribucion triangular con mnimo
2, moda 1 y maximo 2. Sea W otra variable aleatoria que esta relacionada con la variable
aleatoria Z, cuya relacion se muestra en la siguiente gura.

1
1
0
Z
W
1
1
Determine la probabilidad del evento |W 1| 1.
Soluci on. Por las condiciones dadas en el enunciado del problema podemos escribir:
P(|W 1| 1) = P(0 W 2)
= P(0 W < 1) +P(W = 1) +P(1 < W 2)
= P(0 Z < 1) +P(Z 1) + 0
=
_
1

0
f
Z
(z) dz +
_

1
f
Z
(z) dz
=
_
1

0
_
1
6
(z + 2)
_
dz +
_
2
1
_

1
2
(z 2)
_
dz
=
5
12
+
1
4
=
2
3
.

Problema 2.2. Sea X una variable aleatoria cuya funcion de distribucion acumulativa de
probabilidades viene dada por
F
X
(x) =
_

_
0, si x < 0;
x+1
8
, si 0 x < 1;
x +
1
4
, si 1 x < 2;
1, si x 2.
2.10 Problemas resueltos 65
Si P(X > 3/2) = 3/8, determine el valor de la probabilidad P(|X 1/2| 1/2).
Soluci on. Determinemos primero el valor de en la expresion de F
X
(x). Tenemos que
P(X 3/2) = 1 P(X > 3/2) = 1
3
8
=
5
8
. (2.16)
Ahora, como F
X
(x) = x +
1
4
, para 1 x < 2, entonces por (2.16) obtenemos
5
8
= P(X 3/2) = F
X
(3/2) =
3
2
+
1
4
=
1
4
.
Por otra parte, el evento (|X 1/2| 1/2) se puede expresar como
(|X 1/2| 1/2) = (X = 0) (0 < X 1),
luego, por la expresion de F
X
(x) dada en el enunciado del problema, podemos escribir:
P(|X 1/2| 1/2) = P(X = 0) + (0 < X 1)
=
1
8
+F
X
(1) F
X
(0)
=
1
8
+
1
4
+
1
4

1
8
=
1
2
.

Problema 2.3. Sea Y una variable aleatoria cuya funcion de distribucion acumulativa de
probabilidades viene dada por
F
Y
(y) =
_

_
0, si y < 0;
1
8
, si 0 y < 1;
y +
1
4
, si 1 y < 2;
1, si y 2.
Si P(Y < 3/2) = 5/8, determine el valor esperado de Y condicionado al evento (|Y 1| 1/2).
Soluci on. Determinemos primero el valor de en la expresion de F
Y
(y). Como F
Y
(y) = y+
1
4
,
para 1 y < 2 y F
Y
(3/2) = 5/8, entonces
5
8
=
3
2
+
1
4
=
1
4
.
Por la expresion de F
Y
(y) dada en el enunciado del problema, la funcion de densidad de Y es
f
Y
(y) =
_

_
1
8
(y), si y = 0;
3
8
(y 1), si y = 1;
2
8
, si 1 < y < 2;
2
8
(y 2), si y = 2;
0, si y < 0 o y > 2.
66 Tema 2 Una variable aleatoria
Como
P(|Y 1| 1/2) = P(Y = 1/2) +P(1/2 < Y 3/2)
= F
Y
(3/2) F
Y
(1/2)
=
5
8

1
8
=
1
2
,
el valor esperado de Y condicionada al evento (|Y 1| 1/2) viene dado por
E(Y | |Y 1| 1/2) =
_

y f
Y
(y| |Y 1| 1/2) dy
=
1
P(|Y 1| 1/2)
_
3/2
1/2
y f
Y
(y) dy
= 2
_
_
1
+
1

y
3
8
(y 1) dy +
_
3/2
1
+
y
2
8
dy
_
= 2
_
3
8
+
2
8
_
y
2
2
_

3/2
1
_
= 2
_
3
8
+
2
8

5
8
_
=
17
16
.

Problema 2.4. Sea Z una variable aleatoria cuya funcion de densidad de probabilidades est a
dada por
f
Z
(z) =
_

_
2
5
(z), si z = 0;
1
5
, si 0 < z < 1;
2
5
(z 1), si z = 1;
0, si |z| > 1.
Sea m un evento relacionado con Z denido como m = {Z R : Z 1/2}. Determine el valor
de la funcion de distribucion acumulativa de probabilidades de Z condicionada al evento m,
para z = 1/4.
Soluci on. Debemos calcular F
Z
(1/4|m), donde m = {Z R : Z 1/2}. Por las condiciones
del enunciado del problema, obtenemos
P(Z < 0) = 1 P(Z 0) = 0,
luego,
P(m) = P(Z 1/2) = P(Z < 0) +P(Z = 0) +P(0 < Z 1/2)
=
_
0
+
0

2
5
(z) dz +
_
1/2
0
+
1
5
dz
=
2
5
+
1
2

1
5
=
1
2
.
2.10 Problemas resueltos 67
De esta forma, por la expresion de f
Z
(z) y la denicion de F
Z
(z|m) podemos escribir:
F
Z
(1/4|m) =
_
1/4

f
Z
(z|m) dz
=
1
P(m)
_
1/4

f
Z
(z) dz
= 2
_
_
0
+
0

2
5
(z) dz +
_
1/4
0
+
1
5
dz
_
= 2
_
2
5
+
1
4

1
5
_
=
9
10
.

Problema 2.5. Sea W una variable aleatoria que sigue una distribucion geometrica con par ametro
p = 1/3, es decir, su funcion de densidad de probabilidades esta dada por
f
W
(w) =

k=1
p(1 p)
k1
(w k) w R.
Sea un evento relacionado con W denido como
= {W R : W = n, donde n > 0 es un entero par}.
Determine la expresion matematica de la funcion de densidad de probabilidades de W condicio-
nada al evento , para 1 w 6.
Soluci on. Debemos calcular f
W
(w|), para 1 w 6. Por las condiciones del enunciado del
problema, obtenemos
P() =

n=1
1
3
_
2
3
_
2n1
=
1
2

n=1
_
4
9
_
n
=
1
2
_

n=0
_
4
9
_
n
1
_
=
1
2
_
1
1
4
9
1
_
=
1
2

4
5
=
2
5
.
De esta forma, por la expresion de f
W
(w) y la denicion de f
W
(w|) podemos escribir:
f
W
(w|) =

n=1
1
3
_
2
3
_
2n1
P()
(w 2n) =

n=1
5
4

4
n
9
n
(w 2n) w R.
68 Tema 2 Una variable aleatoria
Por lo tanto, la expresion matematica de la funcion de densidad de probabilidades de W condi-
cionada al evento es
f
W
(w|) =
5
4

4
9
(w 2) +
5
4

16
81
(w 4) +
5
4

64
729
(w 6)
=
5
9
(w 2) +
20
81
(w 4) +
80
729
(w 6)
=
405
729
(w 2) +
180
729
(w 4) +
80
729
(w 6) 1 w 6.

Problema 2.6. Sea un sistema tal que la relacion entre la entrada y la salida es
Y =
_

_
1, X < 1;
X, 1 < X < 1;
1, X > 1.
Si a la entrada de ese sistema hay una variable aleatoria X cuya funcion de distribucion acu-
mulativa de probabilidades viene dada por
F
X
(x) =
_

_
0, x < 2;
x
4
+
1
2
, 2 x < 2;
1, x 2;
entonces, determine la funcion de densidad de probabilidades de la salida Y .
Soluci on. Por las condiciones dadas en el enunciado del problema tenemos:
f
Y
(y) = 0, para y < 1 o y > 1, (2.17)
P(Y = 1) = P(X < 1) = F
X
(1

) =
1
4
, (2.18)
P(Y = 1) = P(X > 1) = 1 P(X 1) = 1 F
X
(1) =
1
4
, (2.19)
y
f
Y
(y) =
dF
X
dx
(x)

x=y
=
1
4
, para 1 < y < 1. (2.20)
Luego, por (2.17), (2.18), (2.19) y (2.20) obtenemos que la funcion de densidad de probabilidades
de Y esta dada por:
f
Y
(y) =
_

_
0, y < 1;
1
4
(y + 1), y = 1;
1
4
, 1 < y < 1;
1
4
(y 1), y = 1;
0, y > 1.

Problema 2.7. Sea Y una variable aleatoria cuya funcion de densidad de probabilidades es
f
Y
(y) =
_

_
0, y < 1;
k(y + 1), y = 1;
k, 1 < y < 1;
k
2
(y 1), y = 1;
0, y > 1.
2.10 Problemas resueltos 69
Sea X otra variable aleatoria relacionada con la variable aleatoria Y a traves de la funci on
Y = |X| 2. Determine la expresion matematica de la funcion de distribucion acumulativa de
probabilidades de X, para 2 < x < 1.
Soluci on. Debemos determinar la expresion de F
X
(x) para 2 < x < 1. Tenemos, para
2 < x < 1,
F
X
(x) = P(X x) = P(X 2) +P(2 < X x). (2.21)
Por otra parte, por las condiciones dadas en el enunciado del problema podemos escribir:
P(X 2) =
_

0
f
Y
(y) dy
=
_
1

0
k dy +
_
1
+
1

k
2
(y 1) dy
= P(Y 0) =
3
2
k (2.22)
y
P(2 < X x) = P(2 x Y < 0)
=
_
0

2x
f
Y
(y) dy
=
_
0

2x
k dy = k(x + 2), (2.23)
para 2 < x < 1.
De esta forma, por (2.21), (2.22) y (2.23), la expresion matematica de la funcion de distri-
bucion acumulativa de probabilidades de X, para 2 < x < 1, es
F
X
(x) = k x +
7
2
k, para 2 < x < 1.

Problema 2.8. Sea X una variable aleatoria cuya funcion de densidad de probabilidades est a
dada por
f
X
(x) =
_
_
3

k=(+1)
|k|(x k)
_
_
,
donde > 0 y {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. Sea Z otra variable aleatoria relacionada con la
variable aleatoria X a traves de la funcion Z = g(X), donde g : R R esta denida como
1
g(x) =
_
|x| u(x), x = 0;
0, x = 0.
Entonces, determine la expresion matematica de la funci on de densidad de probabilidades de la
variable aleatoria Z.
1
La funci on escal on unitario est a denida por u(t) =
_
0, t < 0;
1, t > 0.
70 Tema 2 Una variable aleatoria
Soluci on. Por las condiciones dadas en el enunciado del problema se tiene que la funci on de
densidad de probabilidades de la variable aleatoria Z tiene la forma
f
Z
(z) =
3

k=0
P(Z = k)(z k), para z R,
ademas,
P(Z = 0) = P(X 0) =
0

k=(+1)
|k| =
+1

k=0
k =
( + 1)( + 2)
2
,
P(Z = 1) = P(X = 1) = ,
P(Z = 2) = P(X = 2) = 2,
P(Z = 3) = P(X = 3) = 3.
Por lo tanto, la expresion matematica de la funcion de densidad de probabilidades de la
variable aleatoria Z es
f
Z
(z) =
( + 1)( + 2)
2
(z) +(z 1) + 2(z 2) + 3(z 3), para z R,
y {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}.
Problema 2.9. Sea X una variable aleatoria distribuida uniformemente en el intervalo (2, +
1), donde {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. Por otra parte, sea Y otra variable aleatoria relacionada
con la variable aleatoria X a traves de la funcion Y = g(X), donde g : R R esta denida
como
2
g(x) = (1 |x|) sgn(x).
Entonces, determine la expresion matematica de la funci on de distribucion acumulativa de pro-
babilidades de la variable aleatoria Y , para 0 < y < 1.
Soluci on. Sea X una variable aleatoria distribuida uniformemente en el intervalo(2, + 1),
donde {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. Sea Y una variable aleatoria denida como Y = (1
|X|) sgn(X). Se debe determinar la expresion matematica de la funci on de distribucion acumu-
lativa de probabilidades de Y para 0 < y < 1. As,
F
Y
(y) = P(Y y) = P(Y 1) +P(1 < Y 0) +P(0 < Y y), para 0 < y < 1.
(2.24)
Se tiene que
P(Y 1) = P(X 2) =
_

_
0, = 0;
1
+ 3
, = 1, 2, . . . , 9;
(2.25)
ademas,
P(1 < Y 0) = P(1 X 0) +P(1 X < 2), (2.26)
P(1 X < 0) =
1
+ 3
, (2.27)
2
La funci on signo est a denida por sgn(t) =
_
1, t < 0;
1, t > 0.
2.11 Problemas propuestos 71
P(1 X < 2) =
_

_
0, = 0;
1
+ 3
, = 1, 2, . . . , 9.
(2.28)
De (2.26), (2.27) y (2.28) se obtiene
P(1 < Y 0) =
_

_
1
+ 3
, = 0;
2
+ 3
, = 1, 2, . . . , 9.
(2.29)
Por otra parte,
P(0 < Y y) = P(1 y X < 1) +P(1 y X < 1). (2.30)
Ahora,
P(1 y X < 1) = P(1 y X < 1) =
y
+ 3
. (2.31)
De (2.30) y (2.31) se tiene
P(0 < Y y) =
2y
+ 3
. (2.32)
De esta forma, la expresion matematica de la funcion de distribucion acumulativa de proba-
bilidades de la variable aleatoria Y , para 0 < y < 1, es
F
Y
(y) =
_

_
1 + 2y
+ 3
, = 0;
+ 1 + 2y
+ 3
, = 1, 2, . . . , 9.

2.11 Problemas propuestos


2.1. Suponga que usted tiene en una caja dos monedas perfectas y una tercera moneda cuyos
lados solo muestran caras. Usted decide extraer aleatoriamente una moneda de la caja
a objeto de lanzar la moneda extrada repetidamente hasta obtener una cara, y dene
una variable aleatoria X como el n umero de lanzamientos a ejecutar para obtener una
cara por vez primera. Hallar la funcion de densidad de probabilidades de la variable
aleatoria X.
2.2. Sea X una variable aleatoria distribuida de acuerdo a un tipo de distribucion Laplace,
es decir, con una funcion de densidad de probabilidades denida por
f
X
(x) = k e
|x1|
< x < .
Hallar la funcion de distribucion acumulativa de probabilidades para todo x 1.
2.3. Sea X una variable aleatoria distribuida binomialmente con par ametros N = 6 y p =
1/2, es decir, con funcion de densidad de probabilidades
f
X
(x) =
N

k=0
_
N
k
_
p
k
(1 p)
Nk
(x k) x R
Hallar la funcion de densidad de probabilidades condicionada al evento m = {X R :
|X 3| 3}.
72 Tema 2 Una variable aleatoria
2.4. Sea X una variable aleatoria distribuida triangularmente con mnimo 1, moda 3 y
maximo 5. Por otra parte, sea Y otra variable aleatoria, la cual esta relacionada con la
variable aleatoria X a traves de la funcion
3
Y = g(X) = max [0, (X 3)] X R.
Hallar la funcion de densidad de probabilidades de la variable aleatoria Y , para todo
0 < y 2.
3
La funci on m ax(a, b) =
_
a si a b,
b si a < b.
Tema 3
Dos variables aleatorias
En el tema de variable aleatoria unidimensional describimos experimentos que se les puede
asociar una una variable aleatoria, es decir, a cada evento elemental se le asigna un y solo un
n umero real. En este tema estudiamos experimentos cuyos resultados se describen utilizando
dos variables aleatorias simultaneamente.
A lo largo del tema consideraremos un experimento E al cual se le asocia un par de varia-
bles aleatorias X e Y . Los eventos elementales de este experimento pueden visualizarse como
un par ordenado (x, y) y, de esta forma, utilizar el plano cartesiano para hacer una represen-
tacion graca del mismo. Bajo estas condiciones, diremos que X e Y son variables aleatorias
conjuntas o, equivalentemente, el smbolo (X, Y ) denotara una variable aleatoria bidimensio-
nal. A continuacion describimos las caractersticas mas importantes de las variables aleatorias
conjuntas.
3.1 Funciones de Densidad y Distribucion
Acumulativa de Probabilidades
En esta seccion presentamos las funciones de densidad y distribucion acumulativa de pro-
babilidades de dos variables aleatorias conjuntas. Estas funciones juegan el mismo rol que las
respectivas funciones de densidad y distribucion de una variable aleatoria unidimensional.
Denicion 3.1. La funcion de densidad de probabilidades de las variables aleatorias
conjuntas X e Y , es una funcion f
XY
: R
2
R que satisface las si-guientes condiciones:
(a) f
XY
(x, y) 0, para todo (x, y) R
2
.
(b)
_

f
XY
(x, y) dydx = 1.
Ejemplo 3.1. Sea f
XY
: R
2
R una funcion de densidad de las variables aleatorias conjuntas
X e Y denida como
f
XY
(x, y) =
_
6 e
2x3y
, si x 0, y 0;
0, en otros casos.
(3.1)
Veamos que f
XY
es una funcion de densidad de probabilidades. Para ello, debemos comprobar
que f
XY
satisface las condiciones (a) y (b) de la Denicion 3.1. Es claro que f
XY
(x, y) 0,
para todo (x, y) R
2
. Ahora veriquemos que (b) es cierta. Por la denicion de f
XY
podemos
73
74 Tema 3 Dos variables aleatorias
escribir:
_

f
XY
(x, y) dydx =
_

0
_

0
6 e
2x3y
dydx
= 6
__

0
e
2x
dx
___

0
e
3y
dy
_
= 6
_

1
2
e
2x
_

1
3
e
3x
_

0
= 6
1
2

1
3
= 1.
Por lo tanto, f
XY
satisface las condiciones (a) y (b) de la Denicion 3.1, es decir, f
XY
es una
funcion de densidad de probabilidades de las variables aleatorias conjuntas X e Y .
Generalmente, cuando las variables aleatorias conjuntas X e Y son discretas, igual que en el
caso de una variable aleatoria, no se trabaja con la funcion de densidad de probabilidades, sino
que se emplea la funcion de probabilidades. Seguidamente damos la denicion de la funci on de
probabilidades de dos variables aleatorias conjuntas.
Denicion 3.2. La funcion de probabilidades de las variables aleatorias discretas conjuntas
X e Y , es una funcion p
XY
: R
2
R denida como
p
XY
(x, y) = P(X = x, Y = y).
La funcion de probabilidades satisface las siguientes propiedades:
(a) 0 p
XY
(x, y) 1, para todo (x, y) R
2
.
(b)

y
p
XY
(x, y) = 1.
Ejemplo 3.2. Sea p
XY
: R
2
R una funcion denida como
p
XY
(x, y) =
_
k(2x +y), x = 1, 2, y = 1, 2;
0, en otros casos.
(3.2)
Calculemos un valor de k > 0 para que p
XY
sea una funcion de probabilidades de las variables
aleatorias conjuntas X e Y . Para ello, basta con hallar un valor de k tal que p
XY
satisfaga la
condicion (b) de la Denicion 3.2. Esto es:

y
p
XY
(x, y) =
2

x=1
2

y=1
p
XY
(x, y)
= p
XY
(1, 1) +p
XY
(1, 2) +p
XY
(2, 1) +p
XY
(2, 2)
= k [3 + 4 + 5 + 6] = 18 k = 1,
de donde se deduce que k = 1/18.
En algunas aplicaciones es importante determinar la probabilidad de un evento particular.
Pasemos ahora a calcular la probabilidad de cualquier evento asociado a dos variables aleatorias
conjuntas.
Denicion 3.3. Sea A R
2
un evento asociado a las variables aleatorias conjuntas X e Y .
3.1 Funciones de Densidad y Distribuci on Acumulativa de Probabilidades 75
Si X e Y son variables aleatorias continuas, la probabilidad del evento A se dene como:
P(A) =
__
A
f
XY
(x, y) dydx.
Si X e Y son variables aleatorias discretas, la probabilidad del evento A se dene como:
P(A) =

y
p
XY
(x, y).
La suma anterior se hace sobre todos los puntos (x, y) pertenecientes al evento A.
Ejemplo 3.3. Sea A R
2
un evento denido como
A = {(X, Y ) R
2
: x
1
X x
2
, y
1
Y y
2
},
donde x
1
, x
2
, y
1
, y
2
R. Una posible representacion graca del evento A se puede apreciar en la
Figura 1. Seg un sea la naturaleza de las variables aleatorias conjuntas X e Y , la probabilidad
del evento A se calcula por la siguiente expresion:
P(A) = P(x
1
X x
2
, y
1
Y y
2
)
=
_

_
_
x2
x1
_
y2
y1
f
XY
(x, y) dydx, si X e Y son continuas;

x1xx2

y1yy2
p
XY
(x, y), si X e Y son discretas.
Y
X
x
2
x
1
y
2
y
1
0
A
Figura 1. Representacion graca del evento (x
1
X x
2
, y
1
Y y
2
)

Pasemos ahora a denir la funcion de distribucion acumulativa de probabilidades de las varia-


bles aleatorias conjuntas X e Y . Para esta denicion es necesario tener claro la representaci on
graca del evento (X x, Y y). Como ejemplo de una representacion graca del evento
(X x, Y y), para un par ordenado particular (x, y) ubicado en el primer cuadrante, observe
la Figura 2.
76 Tema 3 Dos variables aleatorias
(x, y)
Y
X
(X x, Y y)
Figura 2. Representacion graca del evento (X x, Y y)
Denicion 3.4. La funcion de distribucion acumulativa de probabilidades de las varia-
bles aleatorias conjuntas X e Y , denotada por F
XY
, se dene como
F
XY
(x, y) = P(X x, Y y). (3.3)
En otras palabras, el valor que toma F
XY
en el par ordenado (x, y) es la probabilidad del evento
(X x, Y y).
Ejemplo 3.4. Consideremos las variables aleatorias conjuntas X e Y del Ejemplo 3.1, cuya
funcion de densidad f
XY
esta dada en (3.1). Hallemos la funcion de distribucion acumulativa
de probabilidades F
XY
.
Supongamos primero que el par ordenado (x, y) R
2
es tal que x 0, y 0. Luego, por
las deniciones de f
XY
y F
XY
dadas respectivamente en (3.1) y (3.3) tenemos
F
XY
(x, y) = P(X x, Y y) =
_
x

_
y

f
XY
(r, s) dsdr
=
_
x
0
_
x
0
6 e
2r3s
dsdr
= 6
__
x
0
e
2r
dr
___
y
0
e
3s
ds
_
=
_
1 e
2x
_ _
1 e
3y
_
, para x 0, y 0.
Ahora supongamos que el par ordenado (x, y) R
2
es tal que x < 0 o y < 0. Entonces, por las
deniciones de f
XY
y F
XY
dadas respectivamente en (3.1) y (3.3) se concluye que
F
XY
(x, y) = 0, para x < 0 o y < 0.
De esta forma, por todo lo anterior tenemos que la funcion de distribucion acumulativa de
probabilidades de las variables aleatorias conjuntas X e Y es
F
XY
(x, y) =
_
(1 e
2x
)(1 e
3y
), si x 0, y 0;
0, en otros casos.
(3.4)

3.2 Funciones de Densidad y Distribuci on Marginales 77


Ejemplo 3.5. Consideremos las variables aleatorias conjuntas X e Y del Ejemplo 3.2, cuya
funcion de probabilidades p
XY
esta dada en (3.2). Hallemos la funcion de distribucion acumu-
lativa de probabilidades F
XY
. Para cada ubicacion del par ordenado (x, y) calcularemos el valor
de F
XY
(x, y).
Si (x, y) R
2
tal que x < 1, < y < , entonces por (3.2) y (3.3) tenemos que
F
XY
(x, y) = 0, para x < 1, < y < .
Si (x, y) R
2
tal que < x < , y < 1, entonces por (3.2) y (3.3) tenemos que
F
XY
(x, y) = 0, para < x < , y < 1.
Si (x, y) R
2
tal que 1 x < 2, 1 y < 2, entonces por (3.2) y (3.3) tenemos que
F
XY
(x, y) = p
XY
(1, 1) = 3k, para 1 x < 2, 1 y < 2.
Si (x, y) R
2
tal que 1 x < 2, y 2, entonces por (3.2) y (3.3) tenemos que
F
XY
(x, y) = p
XY
(1, 1) +p
XY
(1, 2) = 7k, para 1 x < 2, y 2.
Si (x, y) R
2
tal que x 2, 1 y < 2, entonces por (3.2) y (3.3) tenemos que
F
XY
(x, y) = p
XY
(1, 1) +p
XY
(2, 1) = 8k, para x 2, 1 y < 2.
Si (x, y) R
2
tal que x 2, y 2, entonces por (3.2) y (3.3) tenemos que
F
XY
(x, y) = 1, para x 2, y 2.
Por todo lo anterior tenemos que la funcion de distribucion acumulativa de probabilidades de
las variables aleatorias conjuntas X e Y es
F
XY
(x, y) =
_

_
0, si x < 1, < y < ;
0, si < x < , y < 1;
3k, si 1 x < 2, 1 y < 2;
7k, si 1 x < 2, y 2;
8k, si x 2, 1 y < 2;
1, si x 2, y 2.

3.2 Funciones de Densidad y Distribucion


Marginales
Sean X e Y variables aleatorias conjuntas. A continuacion denimos las funciones de densi-
dad, probabilidades y distribucion marginales. Seg un la naturaleza de las variables aleatorias,
tendremos funciones de densidad marginales o funciones de probabilidad marginales.
Si X e Y son variables aleatorias continuas, las funciones de densidad marginales son:
78 Tema 3 Dos variables aleatorias
La funci on de densidad de probabilidades marginal de X, la cual se dene como
f
X
(x) =
_

f
XY
(x, y) dy. (3.5)
La funci on de densidad de probabilidades marginal de Y , la cual se dene como
f
Y
(y) =
_

f
XY
(x, y) dx. (3.6)
Si X e Y son variables aleatorias discretas, las funciones de probabilidades marginales son:
La funci on de probabilidades marginal de X, la cual se dene como
p
X
(x) =

y
p
XY
(x, y). (3.7)
La funci on de probabilidades marginal de Y , la cual se dene como
p
Y
(y) =

x
p
XY
(x, y). (3.8)
La funci on de distribuci on de probabilidades marginal de X se dene como
F
X
(x) = P(X x, < Y < )
=
_

_
_
x

f
XY
(r, y) dydr, si X e Y son continuas;

ix

y
p
XY
(i, y), si X e Y son discretas;
para todo x R.
La funci on de distribuci on de probabilidades marginal de Y se dene como
F
Y
(y) = P( < X < , Y y)
=
_

_
_

_
y

f
XY
(x, s) dsdx, si X e Y son continuas;

jy
p
XY
(x, j), si X e Y son discretas;
para todo y R.
Ejemplo 3.6. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de pro-
babilidades denida por
f
XY
(x, y) =
_
k x(x y), si (x, y) D;
0, en otros casos,
(3.9)
donde k es un n umero real positivo y D = {(x, y) R
2
: 0 x 2, |y| x}, cuya representaci on
graca se muestra en la Figura 3. Determinar las funciones de densidad marginales f
X
y f
Y
.
3.2 Funciones de Densidad y Distribuci on Marginales 79
2
2
2 0
D
x
y
Figura 3. Representacion graca del conjunto D
Soluci on. Observamos que en el conjunto D la funcion de densidad f
XY
es positiva o cero.
Tambien observamos que para todo (x, y) D, f
XY
(x, y) = 0. Este hecho es muy importante
para el calculo de los funciones marginales.
Hallemos la funcion de densidad marginal de X. Supongamos primero que x > 0. Por las
deniciones de f
XY
y f
X
dadas respectivamente en (3.9) y (3.5) podemos escribir:
f
X
(x) =
_

f
XY
(x, y) dy =
_

0 dy = 0, para todo x > 0. (3.10)


Ahora supongamos que 0 x 2. Se tiene que
f
X
(x) =
_

f
XY
(x, y) dy
=
_
x

0 dy +
_
x
x
k x(x y) dy +
_

x
+
0 dy
= 2k x
3
, para todo 0 x 2. (3.11)
Por ultimo, supongamos que x > 2. Se tiene que
f
X
(x) =
_

f
XY
(x, y) dy =
_

0 dy = 0, para todo x > 2. (3.12)


As, de (3.10), (3.11) y (3.12) obtenemos que la funcion densidad marginal de X es
f
X
(x) =
_

_
0, si x < 0;
2k x
3
, si 0 x 2;
0, si x > 2.
Ahora calcularemos la funcion de densidad marginal de Y . Supongamos primero que y < 2.
Por las deniciones de f
XY
y f
Y
dadas respectivamente en (3.9) y (3.6) podemos escribir:
f
Y
(y) =
_

f
XY
(x, y) dx =
_

0 dx = 0, para todo y < 2. (3.13)


80 Tema 3 Dos variables aleatorias
Ahora supongamos que 2 y 0. Se tiene que
f
Y
(y) =
_

f
XY
(x, y) dx
=
_
y

0 dx +
_
2
y
k x(x y) dx +
_

2
+
0 dx
= k
_
8
3
2y +
5
6
y
3
_
, para todo 2 y 0. (3.14)
Supongamos que 0 < y 2. Se tiene que
f
Y
(y) =
_

f
XY
(x, y) dx
=
_
y

0 dx +
_
2
y
k x(x y) dx +
_

2
+
0 dx
= k
_
8
3
2y +
1
6
y
3
_
, para todo 0 < y 2. (3.15)
Finalmente, supongamos que y > 2. Se tiene que
f
Y
(y) =
_

f
XY
(x, y) dx =
_

0 dx = 0, para todo y > 2. (3.16)


Por (3.13), (3.14), (3.15) y (3.16), la funcion de densidad marginal de Y es
f
Y
(y) =
_

_
0, si y < 2;
k
_
8
3
2y +
5
6
y
3

, si 2 y 0;
k
_
8
3
2y +
1
6
y
3

, si 0 < y 2;
0, si y > 2.

3.3 Funciones de densidad y distribucion condicionadas


Sean X e Y dos variables aleatorias conjuntas con f
XY
y F
XY
sus funciones de densidad y di-
stribucion, respectivamente. Sea A un evento cualquiera relacionado con las variables aleatorias
conjuntas X e Y . Para cada par ordenado (x, y) R
2
denamos el evento
R(x, y) = {(X, Y ) R
2
: X x, Y y} A.
En la Figura 4 se observa una posible representacion graca del evento R(x, y), para cierto
evento A.
Se dene la funci on de distribuci on acumulativa de probabilidades condicionada al evento A
como
F
XY
(x, y|A) =
P (R(x, y))
P(A)
. (3.17)
Ahora bien, si las variables aleatorias conjuntas X e Y son continuas, la funci on de densidad
de probabilidades condicionada al evento A se dene como
f
XY
(x, y|A) =
_
_
_
f
XY
(x, y)
P(A)
, si (x, y) A;
0, si (x, y) A.
(3.18)
3.3 Funciones de densidad y distribuci on condicionadas 81
X
Y
( x, y)
A
R(x, y)
Figura 4. Una representacion graca del evento R(x, y)
Asimismo, si las variables aleatorias conjuntas X e Y son discretas, la funci on de probabili-
dades condicionada al evento A se dene como
p
XY
(x, y|A) =
_
_
_
p
XY
(x, y)
P(A)
, si (x, y) A;
0, si (x, y) A.
(3.19)
Ejemplo 3.7. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de pro-
babilidades f
XY
. Para (x
0
, y
0
) R
2
y un n umero > 0 peque no, consideremos los eventos A
1
y A
2
denidos respectivamente por
A
1
= {(X, Y ) R
2
: |X x
0
| /2, Y R}
y
A
2
= {(X, Y ) R
2
: |Y y
0
| /2, X R}.
Calculemos las funciones de densidad de probabilidades condicionadas a los eventos A
1
y A
2
,
esto es, hallar f
XY
(x, y|A
1
) y f
XY
(x, y|A
2
). Determinaremos primero la funcion de densidad de
probabilidades condicionada al evento A
1
. Por la denicion de A
1
se tiene que
P(A
1
) =
__
A1
f
XY
(x, y) dydx
=
x0+/2
_
x0/2
_
_

f
XY
(x, y) dy
_
_
dx
=
x0+/2
_
x0/2
f
X
(x) dx, (3.20)
donde f
X
es la funcion de densidad marginal de probabilidades de la variable aleatoria X.
Ahora, por (3.20) y la denicion de funcion de densidad de probabilidades condicionada dada
82 Tema 3 Dos variables aleatorias
en la Ecuacion (3.18), la funcion de densidad de probabilidades condicionada al evento A
1
es:
f
XY
(x, y|A
1
) =
_
_
_
f
XY
(x, y)
P(A
1
)
, si (x, y) A
1
;
0, si (x, y) A
1
.
=
_

_
f
XY
(x, y)
x0+/2
_
x0/2
f
X
(x) dx
, si |X x
0
| /2, Y R;
0, si |X x
0
| > /2, Y R.
Determinemos la funcion de densidad de probabilidades condicionada al evento A
1
. Por la
denicion de A
2
se tiene que
P(A
2
) =
__
A2
f
XY
(x, y) dydx
=

y0+/2
_
y0/2
f
XY
(x, y) dydx
=
y0+/2
_
y0/2
_
_

f
XY
(x, y) dx
_
_
dy
=
y0+/2
_
y0/2
f
Y
(y) dy, (3.21)
donde f
Y
es la funcion de densidad marginal de probabilidades de la variable aleatoria Y .
Por (3.21) y (3.18), la funcion de densidad de probabilidades condicionada al evento A
2
es:
f
XY
(x, y|A
2
) =
_
f
XY
(x,y)
P(A2)
, si (x, y) A
2
;
0, si (x, y) A
2
.
=
_

_
f
XY
(x, y)
y0+/2
_
y0/2
f
Y
(y) dy
, si |Y y
0
| /2, X R;
0, si |Y y
0
| > /2, X R.

Funciones de densidad y distribucion de probabilidades marginales con-


dicionadas
Sean X e Y dos variables aleatorias conjuntas con f
XY
y F
XY
sus funciones de densidad y di-
stribucion, respectivamente. Sea A un evento cualquiera relacionado con las variables aleatorias
conjuntas X e Y . En la seccion anterior denimos las funciones de densidad y probabilida-
des condicionadas al evento A. Las funciones de densidad y probabilidades marginales son,
simplemente, las marginales de las funciones f
XY
(x, y|A) y p
XY
(x, y|A), a saber:
3.3 Funciones de densidad y distribuci on condicionadas 83
Si X e X son variables aleatorias continuas, entonces tenemos las siguientes funciones de
densidad marginales condicionadas:
Funci on de densidad marginal de X condicionada al evento A
f
X
(x|A) =
_

f
XY
(x, y|A) dy, para todo x R.
Funci on de densidad marginal de Y condicionada al evento A
f
Y
(y|A) =
_

f
XY
(x, y|A) dx, para todo y R.
Si X e X son variables aleatorias discretas, entonces tenemos las siguientes funciones de
probabilidades marginales condicionadas:
Funci on de probabilidades marginal de X condicionada al evento A
p
X
(x|A) =

y
p
XY
(x, y|A), para todo x R.
Funci on de probabilidades marginal de Y condicionada al evento A
p
Y
(y|A) =

x
f
XY
(x, y|A), para todo y R.
Las funciones de distribucion acumulativas de probabilidades marginales condicionadas al
evento A estan denidas por:
F
X
(x|A) = P(X x| A)
=
_

_
_
x

f
X
(r|A) dr, si X e Y son continuas;

ix
p
X
(i|A), si X e Y son discretas,
y
F
Y
(y|A) = P(Y y | A)
=
_

_
_
y

f
Y
(s|A) ds, si X e Y son continuas;

jy
p
Y
(j|A), si X e Y son discretas.
Pasemos ahora a describir la deduccion de ciertas funciones de densidad marginales condicio-
nadas muy importantes. Para ello, consideremos los eventos A
1
y A
2
denidos en el Ejemplo 3.7.
En este ejemplo hallamos las funciones de densidad condicionadas f
XY
(x, y|A
1
) y f
XY
(x, y|A
2
),
dadas respectivamente por
f
XY
(x, y|A
1
) =
_

_
f
XY
(x, y)
x0+/2
_
x0/2
f
X
(x) dx
, si |X x
0
| /2, Y R;
0, si |X x
0
| > /2, Y R.
(3.22)
84 Tema 3 Dos variables aleatorias
y
f
XY
(x, y|A
2
) =
_

_
f
XY
(x,y)
y
0
+/2
_
y
0
/2
f
Y
(y) dy
, si |Y y
0
| /2, X R;
0, si |Y y
0
| > /2, X R.
(3.23)
De esta forma, por (3.22) la funcion de densidad marginal de Y condicionada al evento A
1
es:
f
Y
(y|A
1
) =
_

f
XY
(x, y|A
1
) dx
=
x0+/2
_
x0/2
f
XY
(x, y) dx
x0+/2
_
x0/2
f
X
(x) dx
=
f
XY
(x
0
, y)
f
X
(x
0
)
=
f
XY
(x
0
, y)
f
X
(x
0
)
. (3.24)
La Ecuacion (3.24) es valida para todo > 0 y todo x
0
R. De eta forma, si tiende a cero,
observamos que A
1
tiende al evento (X = x
0
) y la Ecuacion (3.24) adquiere la forma
f
Y
(y|X = x
0
) =
f
XY
(x
0
, y)
f
X
(x
0
)
,
la cual denotaremos como
f
Y
(y|x
0
) =
f
XY
(x
0
, y)
f
X
(x
0
)
.
Como x
0
fue escogido arbitrariamente, entonces la ecuacion anterior es valida para cualquier
x R. En otras palabras, todo lo anterior es la deduccion de la expresion analtica de la funci on
de densidad marginal de Y condicionada al evento (X = x), la cual esta dada por
f
Y
(y|x) =
f
XY
(x, y)
f
X
(x)
. (3.25)
Por otra parte, empleando la expresion de la funcion de densidad condicionada al evento
A
1
conjuntamente con un razonamiento similar al descrito anteriormente, se puede deducir la
expresion analtica de la funcion de densidad marginal de X condicionada al evento (Y = y), la
cual esta denida como
f
X
(x|y) =
f
XY
(x, y)
f
Y
(y)
. (3.26)
Todo lo anterior es valido cuando las variables aleatorias conjuntas X e Y son continuas. En
el caso que X e Y son discretas, se tienen las funciones de probabilidades marginales condicio-
nadas p
X
(x|y) y p
Y
(y|x), que estan denidas respectivamente como
p
X
(x|y) =
p
XY
(x, y)
p
Y
(y)
(3.27)
y
p
Y
(y|x) =
p
XY
(x, y)
p
X
(x)
. (3.28)
3.3 Funciones de densidad y distribuci on condicionadas 85
Las funciones de distribucion acumulativas de probabilidades marginales condicionadas F
X
(x|y)
y F
Y
(y|x), se denen respectivamente como
F
X
(x|y) = P(X x| Y = y)
=
_

_
_
x

f
X
(r|y) dr, si X e Y son continuas;

ix
p
X
(i|y), si X e Y son discretas,
(3.29)
y
F
Y
(y|x) = P(Y y | X = x)
=
_

_
_
y

f
Y
(s|x) ds, si X e Y son continuas;

jy
p
Y
(j|x), si X e Y son discretas.
(3.30)
Es importante notar que las funciones f
X
(x|y), f
Y
(y|x), p
X
(x|y), p
Y
(y|x), F
X
(x|y) y F
Y
(y|x),
dependen del par ordenado (x, y), es decir, son funciones denidas de R
2
en R. Tambien es de
resaltar que las ecuaciones (3.25), (3.26), (3.27), (3.28), (3.29), y (3.30), se deben utilizar con
cierto cuidado. Por ejemplo, si las funciones f
XY
(x, y) y f
X
(x) se anulan simultaneamente en un
par ordenado (x, y), la funcion f
Y
(y|x) no esta bien denida en ese par ordenado. En la pr actica
es conveniente identicar estos puntos. En el siguiente ejemplo se muestran algunos de estos
casos y se presenta una manera de calcular las funciones de densidad marginales condicionadas
f
X
(x|y) y f
Y
(y|x).
Ejemplo 3.8. Sean X e Y las variables aleatorias conjuntas dadas en el Ejemplo 3.6, cuya
funcion de densidad de probabilidades esta denida por (3.9). Determinar las funciones de
densidad marginales condicionadas f
X
(x|y) y f
Y
(y|x).
Soluci on. Calculemos primero f
Y
(y|x). En el Ejemplo 3.6 hallamos las funciones de densidad
de probabilidades marginales f
X
(x) y f
Y
(y), dadas respectivamente por
f
X
(x) =
_

_
0, si x < 0;
2k x
3
, si 0 x 2;
0, si x > 2;
(3.31)
y
f
Y
(y) =
_

_
0, si y < 2;
k
_
8
3
2y +
5
6
y
3

, si 2 y 0;
k
_
8
3
2y +
1
6
y
3

, si 0 < y 2;
0, si y > 2.
(3.32)
Como f
XY
(x, y) = 0 para todo (x, y) R
2
tal que x 0 o x > 2 e y R, y f
X
(x) = 0
para todo x 0 o x > 2, entonces la funcion f
Y
(y|x) no esta denida para todo (x, y) R
2
tal
que x 0 o x > 2 e y R. Como se debe denir f
Y
(y|x) en estos puntos? Una manera de
solucionar este problema es denir a f
Y
(y|x) igual a cero para todo (x, y) tal que f
XY
(x, y) = 0
y f
X
(x) = 0. En nuestro caso, la funcion f
Y
(y|x) la deniremos como
f
Y
(y|x) = 0, para (x, y) R
2
tal que x 0 o x > 2, y R. (3.33)
86 Tema 3 Dos variables aleatorias
Determinemos ahora el valor que toma f
Y
(y|x) para (x, y) R
2
tal que 0 < x 2 e y R.
Por (3.25), (3.9) y (3.31) podemos escribir:
f
Y
(y|x) = 0, para (x, y) R
2
tal que 0 < x 2, |y| > x, (3.34)
y
f
Y
(y|x) =
f
XY
(x, y)
f
X
(x)
=
k x(x y)
2k x
3
=
(x y)
2x
2
, para (x, y) R
2
tal que 0 < x 2, |y| x. (3.35)
Por (3.33), (3.34) y (3.35) la funcion de densidad marginal de Y condicionada a x es
f
Y
(y|x) =
_

_
0, si x 0, y R;
0, si 0 < x 2, |y| > x;
(xy)
2x
2
, si 0 < x 2, |y| x;
0, si x > 2, y R.
Finalmente, el procedimiento para obtener f
X
(x|y) se deja como ejercicio para el lector.
Como ayuda utilice un razonamiento similar al descrito anteriormente, conjuntamente con las
ecuaciones (3.26), (3.9) y (3.31). De esta forma, la funcion de densidad marginal de X condi-
cionada a y es
f
X
(x|y) =
_

_
0, si y 2, x R;
0, si 2 < y < 2, |y| > x;
6x(xy)
1612y+5y
3
, si 2 < y 0, |y| x;
6x(xy)
1612y+y
3
, si 0 < y < 2, |y| x;
0, si y 2, x R.

3.4 Variables aleatorias independientes


En algunos experimentos que tienen asociados dos variables aleatorias conjuntas X e Y , es
importante determinar si los eventos asociados a la variable aleatoria X son independientes de los
eventos asociados a la variable aleatoria Y . En esta seccion daremos los principios matem aticos
para estudiar este hecho de relativa importancia, el cual se denomina independencia de variables
aleatorias.
Sean X e Y dos variables aleatorias conjuntas con f
XY
su funcion de densidad de probabili-
dades. Se dice que las variables aleatorias X e Y son independientes si
f
X
(x|y) = f
X
(x), (3.36)
0, equivalentemente, si
f
Y
(y|x) = f
Y
(y). (3.37)
En el siguiente teorema mostramos una denicion equivalente de independencia de variables
aleatorias, que solo involucra a la funcion de densidad f
XY
y las funciones de densidad marginales
f
X
(x) y f
Y
(y).
3.4 Variables aleatorias independientes 87
Teorema 3.1. Sean X e Y dos variables aleatorias conjuntas con f
XY
su funci on de densidad
de probabilidades. Entonces, las variables aleatorias X e Y son independientes si, y s olo si
f
XY
(x, y) = f
X
(x) f
Y
(y) para todo (x, y) R
2
. (3.38)
Demostraci on. () Supongamos que las variables aleatorias X e Y son independientes. Demo-
stremos que (3.38) se cumple. Como f
X
(x|y) = f
XY
(x, y)/f
Y
(y), entonces por (3.36) podemos
escribir:
f
X
(x) = f
XY
(x, y)/f
Y
(y),
en otras palabras, (3.38) se cumple.
() Supongamos que la Ecuacion (3.38) es cierta. Demostremos que (3.36) se cumple (la
conclusion es la misma si se demuestra que (3.37) es cierta). Como (3.38) se cumple, podemos
escribir:
f
X
(x) = f
XY
(x, y)/f
Y
(y),
es decir, f
X
(x|y) = f
X
(x). Por lo tanto, la ecuacion (3.36) es cierta.
Ejemplo 3.9. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de pro-
babilidades dada por
f
XY
(x, y) =
_
ab e
(ax+by)
, si x > 0, y > 0;
0, en otros casos;
donde a > 0 y b > 0. Veriquemos que las variables aleatorias X e Y son independientes.
Para ello demostraremos que la Ecuacion (3.38) es cierta. Hallemos las funciones de densidad
marginales f
X
y f
Y
. Se tiene que
f
X
(x) =
_

f
XY
(x, y) dy
=
_

0
ab e
(ax+by)
dy
= a e
ax
, para x > 0. (3.39)
De igual forma se tiene que
f
X
(x) = 0, para x 0. (3.40)
Por (3.39) y (3.40), la funcion de densidad marginal de X es
f
X
(x) =
_
0, si x 0;
a e
ax
, si x > 0.
(3.41)
Por un razonamiento similar obtenemos que la funcion de densidad marginal de Y es
f
Y
(y) =
_
0, si y 0;
b e
by
, si y > 0.
(3.42)
Finalmente, por (3.41) y (3.42) se concluye que la Ecuacion (3.38) es cierta, es decir,
f
XY
(x, y) = f
X
(x) f
Y
(y) para todo (x, y) R
2
. En otras palabras, las variables aleatorias
X e Y son independientes.
88 Tema 3 Dos variables aleatorias
3.5 Una funcion de dos variables aleatorias
Sean X e Y dos variables aleatorias conjuntas con f
XY
y F
XY
sus funciones de densidad y
distribucion, respectivamente. Sea g(x, y) una funcion denida de R
2
en R. Sea Z una variable
aleatoria relacionada con las variables aleatorias conjuntas X e Y a traves de la funcion
Z = g(X, Y ). (3.43)
En esta seccion nos dedicaremos a calcular las funciones de densidad y distribucion de la
variable aleatoria Z. A continuacion mostraremos un metodo general para calcular la funci on
de distribucion de la variable aleatoria Z. Por (3.43) se tiene que la funcion de distribuci on de
Z esta dada por
F
Z
(z) = P(Z z) = P(g(X, Y ) z) para todo z R. (3.44)
El evento g(X, Y ) z esta representado por cierta region en el plano XY , la cual esta acotada
por la curva de nivel z = g(X, Y ). Llamemos a esta region
R(z) = {(X, Y ) R
2
: g(X, Y ) z}.
As, la ecuacion (3.44) adquiere la forma
F
Z
(z) =
__
R(z)
f
XY
(x, y) dydx. (3.45)
En otras palabras, el valor de la funcion de distribucion de la variable aleatoria Z en un punto
z R, es la probabilidad de que las variables aleatorias conjuntas X e Y tomen valores en la
region R(z).
Por otra parte, la funcion de densidad de probabilidades de la variable aleatoria Z se puede
determinar a traves de la ecuacion
f
Z
(z) =
dF
Z
(z)
dz
.
En el siguiente ejemplo describimos el procedimiento para obtener las funciones de distri-
bucion y densidad de una funcion de dos variables aleatorias.
Ejemplo 3.10. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de
probabilidades dada por
f
XY
(x, y) =
_
1/4, si 0 < x < 2, 0 < y < 2;
0, en otros casos.
(3.46)
Sea Z otra variable aleatoria relacionada con las variables aleatorias X e Y a traves de la funci on
Z = g(X, Y ), donde g(X, Y ) = XY . Determinemos las funciones de distribucion y densidad de
la variable aleatoria Z.
Para cada z R calcularemos la funcion de distribucion de Z. Se tiene que
F
Z
(z) = P(Z z) = P(XY z) = P
_
Y
z
X
_
. (3.47)
Supongamos que z 0. Por (3.46) y (3.47) podemos escribir:
F
Z
(z) = 0, para todo z < 0. (3.48)
3.5 Una funci on de dos variables aleatorias 89
Supongamos que 0 < z < 4. Por (3.46) y (3.47) se tiene que
F
Z
(z) =
_
z/2
0
+
_
2

0
+
1
4
dydx +
_
2

z/2
_
z/x
0
+
1
4
dydx
=
1
4
_
_
z/2
0
+
2 dx +
_
2

z/2
z
x
dx
_
=
z(1 + 2 ln 2 ln z)
4
, para todo 0 < z < 4. (3.49)
Supongamos que z 4. Por (3.46) y (3.47) podemos escribir:
F
Z
(z) =
_
2

0
+
_
2

0
+
1
4
dydx = 1, para todo z 4. (3.50)
De (3.48), (3.49) y (3.50), la funcion de distribucion acumulativa de probabilidades de la
variable aleatoria Z es
F
Z
(z) =
_

_
0, si z 0;
z(1+2 ln 2lnz)
4
, si 0 < z < 4;
1, si z 4.
(3.51)
Ahora, derivando con respecto a z a la expresion de F
Z
(z) dada en (3.51), obtenemos que la
funcion de densidad de probabilidades de la variable aleatoria Z es
f
Z
(z) =
_

_
0, si z 0;
2 ln 2ln z
4
, si 0 < z < 4;
0, si z 4.

Las siguientes proposiciones presentan un procedimiento alternativo para calcular las funci-
ones de distribucion y densidad de la variable aleatoria Z, cuando las variables aleatorias X e
Y son independientes y la funcion g(X, Y ) tiene una forma muy particular.
Proposicion 3.1. Sean X e Y dos variables aleatorias independientes con funciones de densidad
marginales f
X
(x) y f
Y
(y) dadas. Sea Z una variable aleatoria relacionada con las variables
aleatorias X e Y a traves de la funci on Z = X +Y . Entonces,
f
Z
(z) = f
Y
f
X
=
_

f
Y
(y) f
X
(z y) dy z R.
Proposicion 3.2. Sean X e Y dos variables aleatorias independientes con funciones de densidad
marginales f
X
(x) y f
Y
(y) dadas. Sea Z una variable aleatoria relacionada con las variables
aleatorias X e Y a traves de la funci on Z = mn(X, Y ). Entonces,
f
Z
(z) = f
X
(z)(1 F
Y
(z)) +f
Y
(z)(1 F
X
(z)) z R,
y
F
Z
(z) = F
X
(z) +F
Y
(z) F
X
(z)F
Y
(z) z R.
Proposicion 3.3. Sean X e Y dos variables aleatorias independientes con funciones de densidad
marginales f
X
(x) y f
Y
(y) dadas. Sea Z una variable aleatoria relacionada con las variables
aleatorias X e Y a traves de la funci on Z = max(X, Y ). Entonces,
f
Z
(z) = f
X
(z)F
Y
(z) +f
Y
(z)F
X
(z) z R,
y
F
Z
(z) = F
X
(z)F
Y
(z) z R.
90 Tema 3 Dos variables aleatorias
3.6 Dos funciones de dos variables aleatorias
Sean X e Y dos variables aleatorias conjuntas con f
XY
y F
XY
sus funciones de densidad
y distribucion, respectivamente. Sean g
1
(x, y) y g
2
(x, y) dos funciones denidas de R
2
en R.
Sean Z y W dos variables aleatorias relacionadas con las variables aleatorias conjuntas X e Y
a traves de las funciones
Z = g
1
(X, Y ) y W = g
2
(X, Y ).
Nuestro proposito es hallar la funcion de densidad de probabilidades de las variables aleatorias
conjuntas Z y W. Supongamos que las funciones g
1
y g
2
son diferenciables e inyectivas en R
2
.
Sea G : R
2
R
2
una funcion denida por
G(x, y) =
_
g
1
(x, y)
g
2
(x, y)
_
.
Bajo estas condiciones la funcion de densidad de probabilidades de las variables aleatorias con-
juntas Z y W se dene como
f
ZW
(z, w) =
_
1
| det G

(x, y)|
f
XY
(x, y)
_

(x=g
1
1
(z,w), y=g
1
2
(z,w))
, (3.52)
donde g
1
1
y g
1
2
son respectivamente las funciones inversas de g
1
y g
2
, y G

(x, y) es el Jacobiano
de la funcion G(x, y), el cual esta dado por
G

(x, y) =
_
_
_
g1(x,y)
x
g1(x,y)
y
g2(x,y)
x
g2(x,y)
y
_
_
_.
Ejemplo 3.11. Sean X e Y variables aleatorias conjuntas con funcion de densidad f
XY
. Sean
Z y W dos variables aleatorias denidas por
Z = 2X +Y y W = X + 2Y.
En forma matricial, las variables aleatorias conjuntas Z y W se escribes como
_
Z
W
_
= A
_
X
Y
_
, (3.53)
donde A es una matriz de orden 2 dada por
A =
_
2 1
1 2
_
.
De esta forma, resolviendo el sistema de ecuaciones lineales (3.53) con incognitas X e Y , se tiene
que
X =
2Z W
3
e Y =
4W 2Z
6
.
Empleando estas ultimas ecuaciones conjuntamente con la ecuacion (3.52), se tiene que la funci on
de densidad de probabilidades de las variables aleatorias conjuntas Z y W es
f
ZW
(z, w) =
_
1
| det A|
f
XY
(x, y)
_

(x=
2zw
3
, y=
4w2z
6
)
=
1
3
f
XY
_
2z w
3
,
4w 2z
6
_
, para todo (z, w) R
2
.

3.7 Valor esperado conjunto 91


3.7 Valor esperado conjunto
Sean X e Y variables aleatorias conjuntas con f
XY
su funcion de densidad de probabilidades.
Sea g(x, y) una funcion denida de R
2
en R. Sea Z una variable aleatoria relacionada con las
variables aleatorias conjuntas X e Y a traves de la funcion
Z = g(X, Y ).
El valor esperado de Z o, equivalentemente, el valor esperado de la funcion g(X, Y ) se dene
como
E(Z) = E(g(X, Y )) =
_

g(x, y) f
XY
(x, y) dydx. (3.54)
A continuacion calcularemos el valor esperado para ciertas funciones g(X, Y ), cuando X e
Y son variables aleatorias continuas.
Si g(X, Y ) = X, el valor esperado de X se puede calcular como
E(X) =
_

xf
XY
(x, y) dydx
=
_

x
_

f
XY
(x, y) dydx
=
_

xf
X
(x) dx, (3.55)
donde f
X
(x) es la funcion de densidad marginal de probabilidades de X.
Si g(X, Y ) = Y , el valor esperado de Y se puede calcular como
E(Y ) =
_

y f
XY
(x, y) dydx
=
_

y
_

f
XY
(x, y) dxdy
=
_

y f
Y
(y) dy, (3.56)
donde f
Y
(y) es la funcion de densidad marginal de probabilidades de Y .
Si g(X, Y ) = X
2
, el valor esperado de X
2
se puede calcular como
E(X
2
) =
_

x
2
f
XY
(x, y) dydx
=
_

x
2
f
X
(x) dx. (3.57)
Si g(X, Y ) = Y
2
, el valor esperado de Y
2
se puede calcular como
E(Y
2
) =
_

y
2
f
XY
(x, y) dydx
=
_

y
2
f
Y
(y) dy. (3.58)
92 Tema 3 Dos variables aleatorias
Si g(X, Y ) = (XE(X))
2
= X
2
2E(X)X+E(X)
2
, por (3.55) y (3.57) el valor esperado
de (X E(X))
2
se puede calcular como
E((X E(X))
2
) =
_

(x E(X))
2
f
XY
(x, y) dydx
=
_

_
X
2
2E(X)X +E(X)
2
_
f
XY
(x, y) dydx
=
_

x
2
f
X
(x) dx 2E(X)
_

xf
X
(x) dx +
E(X)
2
_

f
XY
(x, y) dydx
= E(X
2
) 2E(X)
2
+E(X)
2
= E(X
2
) E(X)
2
,
en otras palabras, la varianza de la variable aleatoria X es
V (X) = E((X E(X))
2
).
Si g(X, Y ) = X + Y , por (3.55) y (3.56) el valor esperado de X + Y se puede calcular
como
E(X +Y ) =
_

(x +y) f
XY
(x, y) dydx = E(X) +E(Y ).
Si g(X, Y ) = XY , el valor esperado de XY se dene como
E(XY ) =
_

xy f
XY
(x, y) dydx. (3.59)
El valor esperado E(XY ) se denomina correlaci on de las variables aleatorias X e Y .
Si g(X, Y ) = (X+Y )
2
= X
2
+2XY +Y
2
, el valor esperado de (X+Y )
2
se puede calcular
como
E((X +Y )
2
) =
_

(X +Y )
2
f
XY
(x, y) dydx
= E(X
2
) + 2E(XY ) +E(Y
2
). (3.60)
Si g(X, Y ) = ((X +Y ) E(X +Y ))
2
, el valor esperado de g(X, Y ) se puede calcular
como
E(g(X, Y )) =
_

((X +Y ) E(X +Y ))
2
f
XY
(x, y) dydx
= E(X
2
) E(X)
2
+ E(Y
2
) E(Y )
2
+ 2E(XY )
2E(X)E(Y )
= V (X) +V (Y ) + 2(E(XY ) E(X)E(Y )), (3.61)
en otras palabras, la varianza de X +Y es
V (X +Y ) = V (X) +V (Y ) + 2(E(XY ) E(X)E(Y )).
La cantidad
Cov(X, Y ) = E(XY ) E(X)E(Y ), (3.62)
se denomina covarianza de las variables aleatorias X e Y .
3.8 Problemas resueltos 93
A continuacion mostramos algunos conceptos de mucha utilidad en las aplicaciones de la
teora de probabilidades. La siguiente proposicion dice que la covarianza de dos variables alea-
torias independientes X e Y es igual a cero. El resultado recproco no siempre es cierto. Se deja
como ejercicio para el lector encontrar dos variables aleatorias X e Y no independientes, cuya
covarianza es igual cero.
Proposicion 3.4. Sean X e Y variables aleatorias conjuntas con f
XY
su funci on de densidad
de probabilidades. Si las variables aleatorias X e Y son independientes, entonces
E(XY ) = E(X) E(Y )
y
Cov(X, Y ) = 0.
Denicion 3.5 (Coeciente de correlacion). El coeciente de correlacion de las variables alea-
torias conjuntas X e Y se dene como

XY
=
Cov(X, Y )
_
V (X) V (Y )
, (3.63)
ademas, 1
XY
1.
El coeciente de correlacion mide la relacion lineal entre las variables aleatorias X e Y . Si,
para ciertas variables aleatorias conjuntas X e Y tuviesemos que el coeciente de correlaci on es

XY
= 1, esto indicara que las variables aleatorias X e Y estan relacionadas linealmente, es
decir, si tomamos una muestra nita de pares ordenados (x
1
, y
1
), . . . , (x
n
, y
n
) de algunos valores
que pueden tomar las variables aleatorias conjuntas X e Y , entonces estos pares ordenados
estaran dispuestos sobre una lnea recta. En otras palabras, la variable aleatoria Y depende
linealmente de la variable aleatoria X.
3.8 Problemas resueltos
En esta seccion se describe la resolucion de problemas que contemplan los conceptos b asicos
de dos variable aleatorias conjuntas.
Problema 3.1. Sean X e Y dos variables aleatorias conjuntas con funcion de probabilidades
denida por:
p
XY
(x, y) =
_
k(x + 1), si (x, y) D;
0, en otros casos,
donde el conjunto D R
2
esta dado por
D = {(0, 0), (1, 0), (2, 0), (3, 0), (0, 1), (2, 1), (0, 2), (1, 2), (0, 3)}.
Determinar la funcion de densidad marginal de probabilidades de la variable aleatoria X condi-
cionada al evento m = {(X, Y ) R
2
: Y = 1}.
Soluci on. Debemos hallar f
X
(x|m). Se tiene que el evento m es un subconjunto de R
2
dado
por m = {(0, 1), (2, 1)}. Luego, la funcion f
X
(x|m) se puede denir como
f
X
(x|m) =

y, (0,y)m
p
XY
(0, y)
P(m)
(x) +

y, (2,y)m
p
XY
(2, y)
P(m)
(x 2) x R. (3.64)
94 Tema 3 Dos variables aleatorias
Por la denicion de la funcion de probabilidades de las variables aleatorias conjuntas X e Y
dada en el enunciado del problema podemos escribir:
P(m) = p
XY
(0, 1) +p
XY
(2, 1) = k + 3k = 4k, (3.65)

y, (0,y)m
p
XY
(0, y) = p
XY
(0, 1) = k, (3.66)

y, (2,y)m
p
XY
(2, y) = p
XY
(2, 1) = 3k. (3.67)
Por (3.64), (3.65), (3.66) y (3.67), la funcion de densidad marginal de probabilidades de la
variable aleatoria X condicionada al evento m es
f
X
(x|m) =
1
4
(x) +
3
4
(x 2) x R.

Problema 3.2. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de
probabilidades denida por:
f
XY
(x, y) =
_
k x, si (x, y) D;
0, en otros casos,
donde
D = {(x, y) R
2
: 0 x 2, |y| x}.
Determinar la expresion matematica de la funcion de densidad marginal de probabilidades de
la variable aleatoria Y condicionada al evento (X = 1), para el intervalo 0 < y < 1.
Soluci on. Debemos hallar f
Y
(y|X = 1) 0 < y < 1. Se tiene que
f
Y
(y|X = x) =
f
XY
(x, y)
f
X
(x)
, (3.68)
para todo (x, y) R
2
donde no se anulen simultaneamente las funciones f
XY
(x, y) y f
X
(x); en
otro lugar, la funcion f
Y
(y|X = x) se dene como 0. Ahora, la funcion de densidad marginal
de probabilidades de la variable aleatoria X es
f
X
(x) =
_

_
0, x < 0;
2k x
2
, 0 x 2;
0, x > 2.
(3.69)
Por (3.68), (3.69) y la denicion de la funcion de densidad de probabilidades dada en el enunciado
del problema, podemos escribir:
f
Y
(y|X = x) =
_
1
2x
, 0 < x < 2, |y| x;
0, en otro lugar.
(3.70)
As, utilizando (3.70) podemos armar que la expresion matematica de la funcion de densidad
marginal de probabilidades de la variable aleatoria Y condicionada al evento (X = 1), para el
intervalo 0 < y < 1, es
f
Y
(y|X = 1) =
1
2
0 < y < 1.

3.8 Problemas resueltos 95


Problema 3.3. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de
probabilidades denida por:
f
XY
(x, y) =
_
k, si (x, y) D;
0, en otros casos,
donde
D = {(x, y) R
2
: 0 x y 4}.
Sea Z otra variable aleatoria denida como Z = max(X, Y ). Determinar la funcion de distri-
bucion acumulativa de probabilidades de la variable aleatoria Z.
Soluci on. Debemos calcular F
Z
(z). Por las condiciones del problema tenemos que
F
Z
(z) = P(Z z) = P(max(X, Y ) z) z R. (3.71)
Por (3.71) y la denicion de la funci on de densidad de probabilidades de las variables conjuntas
X e Y dada en el enunciado del problema, podemos escribir:
F
Z
(z) = 0 z 0, (3.72)
F
Z
(z) =
_
z
0
_
z
x
k dydx =
k z
2
2
0 < z < 4, (3.73)
F
Z
(z) =
_
4
0
_
4
x
k dydx = 1 z 4. (3.74)
Por (3.72), (3.73) y (3.74), la funcion de distribucion acumulativa de probabilidades de la variable
aleatoria Z es
F
Z
(z) =
_

_
0 z 0,
k z
2
2
0 < z < 4,
1 z 4.

Problema 3.4. Sean X e Y dos variables aleatorias conjuntas con funcion de probabilidades
denida por:
p
XY
(x, y) =
_
k(x + 1), si (x, y) D;
0, en otros casos,
donde el conjunto D R
2
esta dado por
D = {(0, 0), (1, 0), (2, 0), (3, 0), (0, 1), (2, 1), (0, 2), (1, 2), (0, 3)}.
Sea Z otra variable aleatoria denida como Z = mn(X, Y ). Hallar la funcion de densidad de
probabilidades de la variable aleatoria Z.
Soluci on. Seg un las condiciones del problema, la funcion de densidad de probabilidades de la
variable aleatoria Z tiene la forma
f
Z
(z) = P(Z = 0)(z) +P(Z = 1)(z 1) z R. (3.75)
96 Tema 3 Dos variables aleatorias
Ahora, por la denicion de la funci on de probabilidades de las variables aleatorias conjuntas X
e Y dada en el enunciado del problema, podemos escribir:
P(Z = 0) = P(mn(X, Y ) = 0)
=
3

i=1
p
XY
(i, 0) +
3

j=0
p
XY
(0, j)
=
3

i=1
k(i + 1) +
3

j=0
k = 13k, (3.76)
P(Z = 1) = P(mn(X, Y ) = 1) = p
XY
(2, 1) +p
XY
(1, 2) = 5k. (3.77)
Por (3.75), (3.76) y (3.77), la funci on de densidad de probabilidades de la variable aleatoria Z
es
f
Z
(z) = 13k (z) + 5k (z 1) z R.

Problema 3.5. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de
probabilidades denida por:
f
XY
(x, y) =
_
k x, si (x, y) D;
0, en otros casos,
donde
D = {(x, y) R
2
: 0 x 2, |y| x}.
Sea Z otra variable aleatoria denida como Z = u ((X 1)Y ). Determinar la funci on de
densidad de probabilidades de la variable aleatoria Z.
Soluci on. Por las condiciones del problema la variable aleatoria Z es una variable aleatoria
discreta que toma los siguientes valores
Z = u((X 1)Y ) =
_
1, si X > 1, Y > 0 o X < 1, Y < 0;
0, si X < 1, Y > 0 o X > 1, Y < 0.
Por lo tanto, la funcion de densidad de probabilidades de la variable aleatoria Z tiene la forma
f
Z
(z) = P(Z = 0)(z) +P(Z = 1)(z 1) z R. (3.78)
Ahora, por la denicion de la funci on de densidad de probabilidades de las variables aleatorias
conjuntas X e Y dada en el enunciado del problema, podemos escribir:
P(Z = 0) =
_
1
0
_
x
0
kxdydx +
_
2
1
_
0
x
kxdydx
= k
__
1
0
x y|
x
0
dx +
_
2
1
x y|
0
x
dx
_
= k
__
1
0
x
2
dx +
_
2
1
x
2
dx
_
= k
__
2
0
x
2
dx
_
= k
x
3
3

2
0
=
8 k
3
, (3.79)
3.8 Problemas resueltos 97
P(Z = 1) =
_
1
0
_
0
x
kxdydx +
_
2
1
_
x
0
kxdydx
= k
__
2
0
x
2
dx
_
=
8 k
3
. (3.80)
Por (3.78), (3.79) y (3.80), la funci on de densidad de probabilidades de la variable aleatoria Z
es
f
Z
(z) =
8 k
3
(z) +
8 k
3
(z 1) z R.

Problema 3.6. Sean X e Y dos variables aleatorias conjuntas con funcion de densidad de
probabilidades denida por:
f
XY
(x, y) =
_
k|x|, si (x, y) D;
0, en otros casos,
donde
D = {(x, y) R
2
: |x| y 4 +|x|, |x| 4}.
Sea Z otra variable aleatoria denida como Z = X + Y . Hallar la expresion matematica de
la funcion de distribucion acumulativa de probabilidades de la variable aleatoria Z, para el
intervalo 0 < z < 4.
Soluci on. Debemos calcular F
Z
(z) para 0 < z < 4. Por las condiciones dadas en el enunciado
del problema tenemos que
F
Z
(z) = P(Z z) = P(X +Y z) = P(Y z X) z R. (3.81)
Por (3.81) y la denicion de la funci on de densidad de probabilidades de las variables aleatorias
conjuntas X e Y dada en el enunciado del problema, la expresion matematica de la funci on de
distribucion acumulativa de probabilidades de la variable aleatoria Z, para el intervalo 0 < z < 4,
es
F
Z
(z) =
_
0
4
_
zx
x
k(x) dydx +
_
z/2
0
_
zx
x
kxdydx
= k
_

_
0
4
x y|
zx
x
dx +
_
z/2
0
x y|
zx
x
dx
_
= k
_

_
0
4
xz dx +
_
z/2
0
zx 2x
2
dx
_
= k
_
z
_
x
2
2
_

0
4
+
_
zx
2
2

2x
3
3
_

z/2
0
_
=
k
24
z(192 +z
2
) 0 < z < 4.

98 Tema 3 Dos variables aleatorias


Problema 3.7. Sean X e Y dos variables aleatorias conjuntas cuya funcion de probabilidades
esta denida por
p
XY
(x, y) =
_

_
c(x +y), x = 0, 1, 2, y = x, x + 1, . . . , 2;
c|x +y|, x = 1, 0, y = 1;
0, en otros casos;
(3.82)
donde c es una constante positiva. Determinar la funcion de densidad marginal de probabilidades
de la variable aleatoria X.
Soluci on. Es claro que la funcion de densidad marginal de probabilidades de la variable
aleatoria X es de la forma
f
X
(x) =

k=
P(X = k)(x k) x R. (3.83)
Como
P(X = k) =

y=
p
XY
(k, y),
entonces por las condiciones dadas en el enunciado del problema podemos escribir:
P(X = 1) = p
XY
(1, 1) = 2c,
P(X = 0) = p
XY
(0, 1) +p
XY
(0, 0) +p
XY
(0, 1) +p
XY
(0, 2) = 4c,
P(X = 1) = p
XY
(1, 1) +p
XY
(1, 2) = 5c,
P(X = 2) = p
XY
(2, 2) = 4c,
P(X = k) = 0, en otros casos.
De esta forma, empleando estas ultimas expresiones y (3.83) se obtiene que la funcion de densidad
marginal de probabilidades de la variable aleatoria X es
f
X
(x) = 2c (x + 1) + 4c (x) + 5c (x 1) + 4c (x 2) x R.

Problema 3.8. Sean X e Y dos variables aleatorias conjuntas cuya funcion de probabilidades
esta denida por (3.82) de la Pregunta 3.7. Por otra parte, sea el evento = {(X, Y ) R
2
:
Y > |X|}. Hallar la funcion de densidad marginal de probabilidades de la variable aleatoria Y
condicionada al evento .
Soluci on. Por las condiciones dadas en el enunciado del problema la probabilidad del evento
= {(X, Y ) R
2
: Y > |X|} esta dada por
P() = P ({(0, 1), (0, 2), (1, 2)}) = p
XY
(0, 1) +p
XY
(0, 2) +p
XY
(1, 2) = 6c. (3.84)
Por otra parte, la expresion matematica de la funcion de densidad marginal de probabilidades
de la variable aleatoria Y condicionada al evento es
f
Y
(y|) =
P((Y = 1) )
P()
(y 1) +
P((Y = 2) )
P()
(y 2) y R. (3.85)
Ahora, se tiene que
P((Y = 1) ) = p
XY
(0, 1) = c, (3.86)
3.8 Problemas resueltos 99
P((Y = 2) ) = p
XY
(0, 2) +p
XY
(1, 2) = 5c. (3.87)
Por (3.84), (3.85), (3.86) y (3.87), la funcion de densidad marginal de probabilidades de la
variable aleatoria Y condicionada al evento es
f
Y
(y|) =
1
6
(y 1) +
5
6
(y 2) y R.

Vous aimerez peut-être aussi