Académique Documents
Professionnel Documents
Culture Documents
Problema V.1.1
Calcule Si =
P
1
k (k 1) ::: (k i)rk i 1
con 0 < r < 1 i 2 IN
k i
= +1
Solucion:
Encontraremos una recurrencia para Si.
Caso (i = 0)
X
1 X1 d d X1 d( 1 1
krk 1
= dr (r ) = dr ( rk ) = dr
k
1 r 1) = (1 r) 2
k =1 k=1 k =1
(i ) i + 1)
X
1 X
1
k(k 1):::(k i)(k i 1)rk i 2
= k(k 1):::(k i) drd (rk i 1
))
k i
= +2 k i
= +2
Por lo tanto i
d d
Si = dr Si 8i 2 IN ) Si = dri ( 1 1 r )
+1 +1
Podemos suponer que Si = ari i con a = 1 para algunos ai aun por determinar. Al
(1 ) +2 0
(1 r)i +3
(1 r)i +2
+1
) Si = (1(i +r2)!
+1
)i +3
1
En general tendremos que:
Si = (1(i +r1)!
)i
+2
8i 2 IN
Solucion:
Lo que vamos a probar es que:
V (X ) 6= V (Y ) ) IE (X + Y )(X Y )) 6= IE ((X + Y )IE(X Y )
Desarrollando un poco tendremos que:
IE((X + Y )(X Y )) = IE (X 2
Y ) = IE(X ) IE (Y )
2 2 2
IE((X + Y )(X Y )) = V (X ) + IE (X ) V (Y ) IE (Y ) = V (X ) V (Y )+
2 2
2
Sean X; Y variables aleatorias a valores en f0; 1g. Muestre que:
IE (XY ) = IE (X )IE (Y ) , X; Y son independientes
Solucion:
Por denicion:
IE (X ) = 0 IP (X = 0) + 1 IP (X = 1)
IE(Y ) = 0 IP (Y = 0) + 1 IP (Y = 1)
IE(XY ) = (0 1)IP (X = 0; Y = 1) + (1 0)IP (X = 1; Y = 0) + (0 0)IP (X = 0; Y = 0)
+ (1 1)IP (X = 1; Y = 1)
Por lo tanto IE (XY ) = IE (X )IE (Y ) ) IP (X = 1; Y = 1) = IP (X = 1)IP (Y = 1) (1).
Utilizando (1) probaremos que:
IP (X = i; Y = j ) = IP (X = i)IP (Y = j ) 8i; j 2 f0; 1g
Esto es una condicion necesaria y suciente para que X e Y sean independientes, debido
a que solo toman valores en f0; 1g.
Al calcular las marginales de X e Y :
IP (X = 1) = IP (X = 1; Y = 0) + IP (X = 1; Y = 1)
IP (Y = 1) = IP (X = 0; Y = 1) + IP (X = 1; Y = 1)
Despejando y utilizando (1) se obtiene:
2
2
) V (X )V (Y ) = IE (X ) IE (Y ) IE(Y ) + IE(Y ) IE (X ) IE(X )
2
2 2 2
4
Sea X ; :::; Xn variables aleatorias con varianzas nitas tales que:
1
Solucion:
Probaremos por induccion que V ( Xi ) = V (Xi ) 8k 2 f1; :::; ng
Pk Pk
i i
(Caso n = 2)
=1 =1
Por denicion:
V (X + X ) = IE (X + X )
2
IE (X + X ) 2
1 2 1 2 1 2
Desarrollando el cuadrado:
2
IE (X + X ) = IE (X ) + IE(X ) + 2IE (X X ) 2 2
1 2 1 2 1 2
Ademas:
IE(X + X ) = [IE(X ) + IE(X )] = IE (X ) + 2IE (X )IE(X ) + IE(X )
1 2
2
1 2
2
1
2
1 2 2
2
Restando se obtiene:
V (X + X ) = IE(X ) IE (X ) + IE (X ) IE (X ) = V (X ) + V (X )
1 2
2
1 1
2 2
2 2
2
1 2
(k ) k + 1) Es evidente que:
kX +1
! X
k !
V Xi = V Xi + Xk +1 (1)
i =1 i =1
P k Pk
Veamos que IE Xk ( Xi ) = IE (Xk ) IE
+1 Xi lo que nos permite usar la +1
i i
Pk
=1 =1
5
En efecto al aplicar la hipotesis con j = k + 1 se obtiene:
" X
k # X
k ! X
k X
k
IE Xk ( +1 Xi ) = IE Xi Xk +1 = IE (Xi Xk ) =
+1 IE (Xi ) IE (Xk )
+1
i =1 i =1 i =1 i =1
i =1 i =1
kX +1
! kX +1
)V Xi = V (X i )
i =1 i =1
pmn
(U; W ) = p p 3
1 + (m 1) 1 + (n 1) 1 2
6
Solucion:
Recordemos que (X; Y ) = pCOV p
X;Y
V X V Y (
(
)
)
( )
i =1 j =1 i =1 j =1
m !
X m !
X
V (U ) = V Xi = V X + 1 Xi
m ! m !
i =1 i =2
X X
= V (X ) + V 1 Xi 2COV X ; 1 Xi
i =2 i =2
m !
X X
m m !
X
) V (U ) = V Xi + 1 2 COV (X ; Xi ) = V 1 Xi + 1 2(m 1) 1
i =2 i =2 i =2
En consecuencia:
m !
X m !
X
V Xi = 1 2(m 1) + V 1 Xi
m !
i =1 i =2
X
= 1 2(m 1) + 1 2(m 2) + V 1 1 Xi
i =3
i =1
mn 1 (n 1) 1 (m 1)
2 1 (n 1) 1 (m 1) 1 2 1
Observacion: Lo unico que se necesita para resolver el problema anterior es conocer las
propiedades basicas de la esperanza y la varianza, ya que todas las demas propiedades
se deducen directamente de ellas.
Problema V.1.7
Sea X una v.a. tal que E (X ) < +1, demostrar que:
2
Solucion:
(a) Para demostrar que X tiene esperanza es necesario y suciente demostrar que jX j
tiene esperanza.
En efecto, como (8t 2 IR) : jtj 1 + t obtenemos que:
2
jX j 1 + X 2
i.e. jX j tiene esperanza nita .Para vericar que tambien X tiene varianza nita,
basta notar que:
(X E (X )) = X2 2
2E (X ) X + [E (X )] 2
V (X ) = E [X 2E (X ) X + [E (X )] ]
2 2
= E (X ) E (2E (X ) X ) + E ([E (X )] )
2 2
= E (X ) 2E (X ) E (X ) + [E (X )]
2 2
= E (X ) [E (X )]
2 2
y por lo tanto V (X ) < +1. Como por otro lado siempre V (X ) 0 concluimos que
X tiene varianza nita.
8
(b) En efecto, denotando por (
; A; P ) el espacio probabilstico donde se encuentra
denida X es claro que
A" := f! 2
: jX (!) E (X )j > "g
es un conjunto medible i.e. A" 2 A: Claramente
(8! 2 A" ) : " jX (!) E (X )j
y
(8! 2= A" ) : 0 jX (!) E (X )j
Luego
(8! 2
) : "1A" (!) jX (!) E (X )j
y por lo tanto
(8! 2
) : " 1A" (!) jX (!) E (X )j
2 2
i.e.
P (A" ) V "(X )
2
o equivalentemente
P [jX E (X )j "] V "(X ) 2
Considere el problema
X
n
(P ) min
s.a. V (Y i Xi )
i =1
( ; :::; n) 2 IRn
1
Se pide que:
9
(a) Demuestre que si ( ; :::; n) es solucion de (P ) entonces el vector ( ; :::;
n)
donde := E (Y
P n 1
i Xi ) y (8i = 1; :::; n) : i := i es solucion de
0
i
0
=1
X
n
(P ) min
s.a. V (Y 0 i Xi)
i =1
( ; :::; n) 2 IRn
0
+1
X
n
E ( +0 i Xi ) = E (Y )
i =1
Solucion:
(a) En efecto si ( ; :::; n) 2 IRn es solucion de (P ) entonces
1
X
n X
n
(8( 1 ; :::; n) 2 IRn ) : V (Y X i ) V ( Y
i i Xi ) (1)
i =1 i =1
pero
X
n X
n X
n
V (Y X i ) = V ( Y
i Xi ) = V (Y
i 0
i Xi )
i =1 i =1 i =1
n
= V (Y 0 i X i )
i =1
X n X n X
n X n
E ( +
0 i iX ) = + E ( i X i ) = E ( Y 0
Xi ) + E ( Xi )
i i
i i i i
X X
=1 =1 =1 =1
n n
= E (Y ) E (
i iX ) + E ( i Xi ) = E (Y )
i =1 i =1
10
(b) Basta demostrar que si A es denida positiva, entonces el problema (P ) tiene
solucion, lo que por (a) nos permitira concluir que (P ) tiene solucion.
En efecto, dado ( ; :::; n) 2 IRn se tiene que:
1
X
n X
n X
n
V (Y i Xi) = V (Y ) + V ( iXi ) 2cov(Y; i Xi )
i i i
X X X
=1 =1 =1
n n n
= V (Y ) + cov( i Xi ; j X j ) 2 icov(Y; Xi )
i =1 j =1 i =1
X
n X
n
= V (Y ) + i j cov(Xi ; Xj ) 2 i cov(Y; Xi )
i;j =1 i =1
( ; :::; n) 2 IRn
1
( ; :::; n) 2 IRn
1
reescribe como
(P ) min 1 T A bT
s:a:
2
2
2 IR n
convexa luego
es mnimo de f si y solo si rf ( ) = 0
lo que a su vez es equivalente a
A = b
11
Vemos as que para que (P ) tenga solucion es suciente que la ecuacion A = b
2
tambien tenga, lo que es directo pues la matriz A es d.p., y por lo tanto invertible.
As hemos demostrado que (P ) tiene solucion y por lo tanto de las equivalencias
mostradas, junto con lo hecho en (a) concluimos que (P ) tiene solucion.
2
Antes de terminar notemos que la matriz A 2 IRnn siempre es s.d.p. .En efecto,
dado = ( ; :::; n) 2 IRn se tiene que:
1
X
n X
n X
n X
n X
n
T A = ij cov(Xi ; Xj ) = i cov(Xi ; j Xj ) = i cov(Xi ; j Xj )
i;j =1 i =1 j =1 i =1 j =1
X n X
n X
n X
n X
n
= cov(iXi ; j Xj ) = cov( iXi ; j Xj ) = V ( i X i ) 0
j =1 i i
=1 j i =1 =1 =1
Solucion:
(a) De la linealidad de la esperanza obtenemos que:
X
n X
n X
n
E (U ) = ai E (Xi ) = ai = ( ai )
i =1 i =1 i =1
Ademas
X
n X
n X
n X
n
V (U ) = cov(U; U ) = cov( ai Xi ; aj Xj ) = cov(ai Xi ; aj Xj )
i j i j
X
n X
n
=1 =1
X
n
=1 =1
(a1)
= ai cov(Xi ; aj Xj ) = ai aj cov(Xi ; Xj )
i =1 j =1 i;j =1
12
Dado que X ; :::; Xn son variables aleatorias independientes se tiene que si i 6= j
1
i =1 i =1 i =1
(b) Del hecho que X ; :::; Xn son v.a. independientes de esperanza nita sale que si i 6= j
entonces E (Xi Xj ) = E (Xi ) E (Xj ) = 0, luego
1
X
n X
n X
n
E (Z ) = aij E (Xi Xj ) = aij E (Xi Xj ) + aij E (Xi Xj )
i;j i;j=1 i;j=1
i6=j
i=j (b1)
=1
X n
= aii E (Xi ) 2
i =1
Dado i 2 f1; :::; ng como X es v.a con esperanza entonces V (Xi ) = E (Xi ) [E (Xi)] 2 2
X
n !
E (Z ) = 2
aii
i =1
Pero
X
n X
n X
n
E (Z ) = E [(
2
aij Xi Xj ) ( apq XpXq )] = E [ aij apq Xi Xj Xp Xq ]
i;j =1 p;q =1 i;j;p;q =1
X
n X n
= aij apq E (Xi Xj XpXq ) = aij apq E (Xi Xj Xp Xq )
i;j;p;q =1 i;j;p;q=1
jfi;j;p;qgj=1
X n X
n
+ aij apq E (Xi Xj XpXq ) + aij apq E (Xi Xj XpXq )
i;j;p;q=1 i;j;p;q=1
jfi;j;p;qgj=2 jfi;j;p;qgj3
(b2)
Dados i; j; p; q 2 f1; :::; ng se tiene que:
(b3) jfi; j; p; qgj = 1 ) E (Xi Xj XpXq ) = 4
lo que demuestra (b3). Si jfi; j; p; qgj = 2 entonces 9k; r 2 f1; :::; ng tales que k 6= r
13
e fi; j; p; qg = fk; rg luego E (XiXj XpXq ) = E (Xk Xr ), como k 6= r y Xk ; Xr son2 2
X n
B X
n
= 4
aii + @ 2 4
aij apq C A
i =1 i;j;p;q=1
jfi;j;p;qgj=2
de donde
0
! 1 !
X
n
B X
n
C X
n 2
V (Z ) = 4
aii + @
2
aij apq A
4
aii 4
i =1 i;j;p;q=1
jfi;j;p;qgj=2 i =1
Problema V.1.10
Sean X ; :::; Xn v.a. independientes tales que para cierto 2 IR se tiene que:
1
E [(Xi ) ] = 3 3
; E [(Xi ) ] = < +14 4
1 n
S := n 1 (Xi X )
2 2
i =1
Solucion:
14
Dado que (8i = 1; :::; n) : E (Xi ) = 0, resulta que:
(8i = 1; :::; n) : E (Xi ) = ; V (Xi ) = 2
Pn
Del problema anterior si denimos (8i = 1; :::; n) : ai n , como X = ai Xi se deduce
1
i
que: =1
Xn
E (X ) = ( ai ) =
i
X
=1
n
V (X ) = ( ai ) = n
2
2 2
i =1
Ademas
2 3
X n (X ) (X ) = 1 X
n Xn 2
S = n1 1
2
i n 1i
4 Yi
1 (X )5
nj
2
j
i
2 3
=1 =1 =1
2 3
X X X X
2
n n n n 1
= n 1 1 4Yi n1 Yi 5 = n 1 1 64 n n 1 Yi + Yj 75
2
i j i j n =1
=1 =1
j6 i =1
=
n ; i=j
luego deniendo (8i; j 2 f1; :::; ng) : bij
1
n
1
n ; i 6= j obtenemos que:
8n 9 8n 9( n
1 X n <X = 1 X n2
< X = X )
S = n 1 : bij Yj ; = n 1 : bij Yj ;
2
bik Yk
i j i j k
XXn n
=1 =1
X X
n n ! =1 =1 =1
1 Xn
S =n 1
2
ajk Yj Yk
j;k =1
15
De (1) y (2), junto al problema anteriormente desarrollado se obtiene que:
0 n 1 !
1 X X n
E (S ) = n 1 E @ ajk Yj Yk A = n 1
2
2
aii
j;k i
=1 =1
concluimos que:
X n !
2
E (S ) = n 1
2
aii = n 1 n n n 1 = :
2
2
i =1
Problema V.1.11
Una variable aleatoria X se dice positiva si, IP (X 2 IR ) = 1. Sean X ; :::; Xn variables
+ 1
X + ::: + Xn= n
1
Solucion:
Denamos las variables Yi como:
Yi = PXi 8i 2 f1; :::; ng
n
Xj
j =1
Siendo las variables aleatorias Xi positivas podemos asegurar que las variables aleatorias
Yi toman valores solo en [0; 1]. En principio, como son variables aleatorias, esto no tiene
mucho sentido. Sin embargo esto quiere decir que IP (Yi 2 [0; 1]) = 1 8i 2 f1; :::; ng.
Pn
Para ver esto basta notar que IP (0 Xi Xj ) = 1.
j =1
1 n i =1
Problema V.2.1
Considere el juego siguiente. Un jugador lanza una moneda hasta que sale cara, si salio
cara en la etapa n entonces obtiene un benecio de n . Calcule el valor esperado del
2
Ak = ! 2
!i = 0 8i < k wk = 1 8k 2
17
Es claro que:
IP (Ak ) = ( )k por lo tanto el valor esperado sera
1
P k ( )k 2 1
2
k 1
2
Sea Sr =
P k rk con 0 < r < 1
2
k
1
k 1 k 1 k 1 k
1
Sabemos que
P k rk =
r .
1 1
)2
k (1
h r i
1
Por lo tanto Sr = r dr d r2 r r
r =r
(1 ) +2 (1 )
(1 )2 r4
(1 )
2) (3=2) = ( 3 )2 = 6
Sr = (1=(1 2
=2) 2 3
Observacion:
La unica dicultad de este problema consiste en el calculo de la sumatoria que es un
ejercicio clasico cuya reduccion se basa en intercambiar un lmite de sumatoria con uno
de derivada.
Problema V.2.2
Se tiene una urna que contiene N bolas numeradas de 1 a N respectivamente. Se sacan
n bolas de la urna (n N ) y se ve el valor maximo de las n bolas.
Encuentre la distribucion de la variable aleatoria que toma el valor de dicho maximo y
su valor esperado.
Solucion:
Sea X la variable aleatoria a examinar. Es claro que el soporte de esta variable aleatoria
es fn; :::; N g ya que con n bolas es imposible sacar menos que n.
18
Para que el valor maximo obtenido sea n hay que obtener las bolas (1; 2; :::; n) que se
pueden mezclar de n! maneras.
El numero total de conguraciones posibles de las n bolas es:
N (N 1) ::: (N n + 1) = (N N !n)!
Entonces: IP (X = n) = n NN n = (N ) .
! ( )! 1
!
n
) IP (X = n + 1) = n 1
N
n
Del mismo modo, IP (X = n + 2) signica obtener la bola (n + 2) en alguna de las n
extracciones y el resto en (1; 2; :::; n + 1)
Por lo tanto:
n
+1
IP (X = n + 2) = n
1
N
n
En general:
n k+ 1
IP (X = n + k) = n 1
con k 2 f0; :::; N ng
N
n
En particular esto prueba que:
NXn n + k 1 = N ()
k =0
n 1 n
El valor esperado sera por denicion:
NXn n + k 1 N
IE(X ) = (n + k ) n 1 = n
k
= n k
=0
Como nn k nn k
+ +
1
1
n
+
N NXn n + k NXn n + k
) n IE (X ) = n n =n n
k =0 k =0
19
Usando () cambiando n por n + 1 obtenemos
NX
n n + 1 + k 1 N
( +1)
NX 1
) n = n+1
k =0
N N n + N n N N
n IE (X ) = n n + 1 + N n =n n+1 + N n
Si N = n solo hay un valor que es N luego en ese caso IE (X ) = N .
Para los demas valores de n:
" N + N #
IE(X ) = n n+1
N N n
n
= n (n + 1)!(NN ! n 1)! n!(NN ! n)! + (N Nn! )!n! n!(NN ! n)!
N n n(N + 1)
= n n + 1 + 1 = (n + 1) (Sirve aun con N = n)
Luego IE (X ) = n nN
(
+1
+1)
si 0 < n N .
Problema V.2.3
Una v.a. X se dice que tiene ley Poisson de parametro > 0, lo que se anota X P ()
si
k
(8k 2 IN ) : P [X = k] = e k!
Demostrar que E (X ) = y V (X ) = .
Solucion:
La v.a. X es discreta, pues IN es numerable y
X X1
+
k
X
+1 k
P [X 2 IN ] = P [X = k ] = e k! = e = e e = 1
k2IN k =0 k k!
=0
20
Luego
X1
+
X1 ke k X1 kk
+ +
E (X ) : = kP [X = k] = k =e
k =0 k ! k k!
=0 =1
X X
1 k
+ 1 k +
k! = e e =
1
= e
(k 1)! = e k k =1 =0
E (X ) =
2
k e k!
2
1)! = e ( k + 1) k!
k =0 k =1 k =0
X1
+
k X1 +
k
X1 k +
= e (k + 1) k! = ke k! + e
k =0 k =0 k k! =0
= E (X ) + e e = 2
+
y por lo tanto de (1) concluimos que:
V (X ) = + = :
2 2
Problema V.2.4
Una v.a. X se dice binomial de parametro (n; p) lo que se anota X B(n; p) con n 2 IN
y p 2 [0; 1] si n
(8k 2 f0; :::; ng) : P [X = k] = k pk (1 p)n k
Demuestre que E (X ) = np y V (X ) = npq donde q := 1 p.
Solucion:
Notemos que X es v.a. discrecta pues el conjunto f0; :::; ng es nito y
X
n n n
X
P [X 2 f0; :::; ng] = P [X = k ] = k n k n
k p (1 p) = [p + (1 p)] = 1
k =0 k =0
21
Sabemos que entonces
X
n n n
X X n n p )k
E (X ) := kP [X = k] = k kpk (1 p)n k = (1 p) n
k k( 1 p
k k k
n n
X
=0 =0 =1
= (1 p)n( 1 p p ) k (
k 1 p
p )k 1
k =1
k k
=1
k k pk (1 p)n k 2
k k
X n n X n n
=0 =1
= k
kp (1 p) + n k k(k 1)pk (1 p)n k
k k k k
X n n
=1 =1
n
= np + (1 p) ( 1 p )p k (
2
k 1)( p )k 2
k k 1 p
= np + (1 p)n ( 1 p p ) f 00 ( 1 p p )
=2
22
Problema V.2.5
Se dispone de N dados equilibrados que se lanzan simultaneamente de manera indepen-
diente. Cuando algun dado sale 6 se deja jo y se prosigue con los que todava no han
salido 6. El juego naliza cuando todos los dados estan en 6.
Calcule:
(1) Probabilidad de haber obtenido 6, en cada uno de los dados, en k lanzamientos.
(2) Valor esperado de terminar el juego. Evalue completamente en los casos N = 1; 2; 3.
Solucion:
(1) El espacio muestral sera:
8 2xm3 9
< . =
4 5
1
N 0
= :(~xm )m2IN ~xm = . 2 f1; :::; bg xnm = b ) xnm0 = b 8m m;
.
x Nm
El vector ~xm representa los resultados de los N dados obtenidos en el m-esimo lanza-
miento. Imponemos ademas que si un dado sale 6 en alguna etapa m se queda en 6 de
ah en adelante.
Como siempre en estos casos consideramos F = \cilindros de
". Asumimos indepen-
dencia entre las coordenadas de ~xm y entre ~xm y ~xm0 8m 6= m0.
El suceso buscado es:
8 263 9
< =
Ak = :x 2
~xk = 4 ... 5 ^ 9n0 2 f1; :::; N g xn0 k 6= 6;
1
6
Es decir Ak = \Todos los dados estan en 6 en la etapa k, y al menos 1 distinto de 6 en
k 1".
Llamemos Aik = x 2
xik = 6 ^ xi k 6= 6g con i 2 f1; :::; N .
( 1)
Para que ocurra Ak algun dado debe salir 6 por primera vez en el lanzamiento k. Hay
i dados con i 2 f1; :::; N g que pueden salir 6 por primera vez en k. Cuando jo este i,
puedo escoger Ni maneras de repartir cuales seran los dados que saldran 6. Sin importar
23
cuales sean estos la probabilidad sera igual por lo que la calcularemos para los primeros
i, luego combinamos y nalmente sumamos.
Entonces denimos los conjuntos Bki como:
k[ 1
! k[ 1
!
Ak \
1
Am \ ::: \
2
ANm = Bk 1
m =1 m =1
..
.
k[ 1
! k[ 1
!
Ak \ ::: \ Aik \
1
Aim
+1
\ ::: \ ANm = Bki
m=1 m=1
..
.
Ak \ ::: \ ANk = BkN
1
m =1
6 6 6 6
1 N i " (1 k ) #N i " 1 5 k #i 1
5 1
)IP (Bki ) = 6 1
6 6 6
5
" k # N i " k # i 6
= 1 5 1
1 5 1
6 6 6
N N " 5 k #N i " 1 5 k #i
X 1 1
IP (Ak ) = 1 i 6 6 6
i =1
" k #N " k #N
) IP (Ak ) = 1 5 5 1
1
8k 1
6 6
kIP (Ak ) = k m ( 1) 6 6
k k m
1
N N
2 m k
1
=0
3
X X X m k
( 1)m 4 k 5 k 5 5
1
= m 6 6
m=1 k 1 k 1
Recordando que:
PN krk = 1
si 0 < r < 1
m =1
(1 r2
)
X N N
X 5 m 1
kIP (Ak ) = m ( 1)m 6 1
[
m
1]5
k m
2
N N 5 m
1 =1 6
X 1
= m ( 1)m 6 1
m =1
(1
6)
(N = 2) 2
1 (1
+ 1
= 2: 6
5
6)
2
2 52
1
(36
36
25)
= 96
11
= 8:72
6 +
[ 1]
6
(N = 3) 3
1
= 18
3
2
36
11
3
3 (63
6
3
53 )
108
11
+ 216
91
= 10:555444
FUENTE : EDUCATED GUESSING
SAMUEL KOTZ, DONNA F. STROUP
Problema V.2.6
Se lanzan 3 dados de 6 lados de manera independiente, a continuacion se ordenan de
mayor a menor.
Sea X = X ; X ; X el vector de resultados.
(1) (2) (3)
Solucion:
25
(1) Los resultados posibles al lanzar 3 dados son 6 = 216. 3
igual a . 1
216
Sin embargo, los resultados posibles una vez que se han ordenado de mayor a menor
seran:
(k ; k ; k ) 2 f1; :::; 6g tales que k k k
1 2 3
3
1 2 3 [0]
Este sera el soporte de la distribucion conjunta de los dados.
Suponiendo que se tiene un tro de valores obtenidos ya ordenados de mayor a menor, la
pregunta es, > Cuantos resultados no ordenados dan ese resultado al ser ordenados ?. Si
la respuesta fuese la misma para cualquier trio entonces tambien esta distribucion sera
equiprobable, obviamente no es as.
Ahora particionaremos el soporte (0) en tres conjuntos donde el valor anterior es con-
stante.
Si (k = k = k ) [1] )
1 2 3 Hay un solo resultado posible.
Si (k = k 6= k _ k = k 6= k _ k = k 6= k ) [2] ) Hay tres resultados posibles.
1 2 3 1 3 2 2 3 1
si [0]
(2) Para obtener la marginal de X (1) a partir de la conjunta sumamos sobre todos los
valores de k y k . 2 3
XX 6 6
X
k X
k 1 1
IP [X = k ] =(1) 1 IP [X = (k ; k ; k )] =
1 2 3 IP [X = (k ; k ; k )]
1 2 3
k2 =1 k3 =1 k2 =1 k3 k2
=
Si (k > 2)
1
26
kX
1 X
k1 1
= IP [X = (k ; k ; k )] + IP [X = (k ; k ; k )]
1 2 3 1 1 1
k2 =1 k3 k2
=
1 + kX
1 kX
1
1 1 kX
1 1
= 216 IP [X = (k ; k ; k )] + 1 2 3 IP [X = (k ; k ; k )] 1 2 1
k 2 =1 k3 k2
= k2 =1
= [3(k 1) + 1] + kX kX IP [X = (k ; k ; k )] + kX IP [X = (k ; k ; k )]
1
1 2 1 1 1 1
216 k k k 2 =1 k 2 = 2 +1
1 2 3
2 =1
1 2 2
[6(k 1) + 1] 6 kX 1 2
= 1
216 + 216 (k 1 k 1 + 1) 1 2
k
[6( k 1) + 1] 6
2 =1
( k 1)
= 1
216 + 216 k (k 2) (k 2) (k 2) 2 1 1 1 1
1
Se verica que la formula anterior sirve aun cuando k vale 1 o 2. Resumimos la proba- 1
XX
6 6
X X
k 6 2
IP [X = k ] =
(2) 2 IP [X = (k ; k ; k )] = 1 2 3 IP [X = (k ; k ; k )]
1 2 3
k1 =1 k3 =1 k1 k2 k3
= =1
Si (k < 6)
2
27
X X
k6 2 X
k 2
= IP [X = (k ; k ; k )] +
1 2 3 IP [x = (k ; k ; k )] 2 2 3
k1 k2
= +1 k3 =1 k3 =1
3 1 X kX 6
X 2 1 6
= 216 (k 1) + 216 +
2 IP [X = (k ; k ; k )] + IP [X = (k ; k ; k )] 1 2 3 1 2 2
k k k 1 = 2 +1 k k3 =1 1 = 2 +1
= 3(k 1) +216
2 1 + 3(6 k ) + 6 (k 1)(6 k )
216
2
2 2
1
= 216 [16 + 6(k 1)(6 k )] 2 2
IP [X = k ] =
P P IP [X = (k ; k ; k )]
6 6
(3) 3 1 2 3
k1 k3 k2 k1
= =
X X6 6
X 6
= IP [X = (k ; k ; k )] +
1 2 3 IP [X = (k ; k ; k )] 3 2 3
k1 k3
= +1 k2 k1= k2 k3
=
1 + 3 (6 k ) + X 5
X
6
X 6
k1 k3
= +1 k2 k1 = +1 k1 k3
= +1
k ) + 1 + X (6 k ) 6
= 6(6 216 3
5
k k 216 1 = 3 +1
1
36(5 k ) 3 30 + 3k (k + 1)
= 6(6 k ) + 1 +216
3 3 3 3
216
28
k
3 IP
1 91=216
2 61=216
3 37=216
4 19=216
5 7=216
6 1=216
(3) Basta ver que:
IP [X = 1; X = 2; X = 3] 6= IP [X = 1]IP [X = 2]IP [X = 3]
(1) (2) (3) (1) (2) (3)
Para probar que no son independientes, lo cual es evidente sin mayores calculos.
(4)
IE (X ) = 1 + 2 +3 19 + 4216
(1)
37 + 5 61 + 6 91 = 4; 95833
IE (X ) = 91 + 2 61 + 3 37216
(3)
+ 4 19 + 5 7 + 6 1 = 2; 014166
IE(X ) = 3; 5 (2)
Por denicion:
X X X 6 6 6
IE (X ) = X IP [X = (k ; k ; k )] 1 2 3
k1 k2 k1 k3 k2
) IE(X ) = IE(X ); IE (X ); IE (X )
=1 = =
Observacion:
El metodo utilizado para resolver este problema no es el mas corto posible. Hay tecnicas
clasicas para calcular la distribucion de los denominados, estadsticos de orden, que
requieren menos calculos, pero son mas difciles de digerir. El objetivo de resolver el
problema de esta manera es practicar el manejo de sumatorias iteradas que son muy
utilizadas en el calculo de probabilidades.
Problema V.2.7
Dos personas X e Y disponen de x e y monedas respectivamente, que apuestan de una en
una en el siguiente juego. Cada jugador lanza una de sus monedas, si salen caras distintas
el que saca cara se lleva ambas monedas, si no es empate y se sigue jugando hasta que
uno de los dos pierde todas sus monedas. Calcule el valor esperado de lanzamientos hasta
que alguno pierda cuando (x; y) vale (1,1) (2,1) (1,2) y (2,2).
29
Solucion:
Sea E (x; y) el valor buscado. El espacio muestral asociado al experimento es,
= (c; c); (s; s); (s; c); (c; s)
=
IN F = \ cilindros de
00
1 1
Para calcular E (1; 1), denamos el suceso Ak como: Ak = \ X pierde en la etapa k "
O
k 1
) Ak = (c; c); (s; s) (s; c)
i =1
IP (Ak ) = 2
Debido a que la probabilidad de obtener cara es igual a la probabilidad de obtener sello
se tiene que:
Bk =\Y pierde en la etapa k" tiene probabilidad, IP (Bk ) = IP (Ak )
En consecuencia el valor esperado sera:
X
1 1 1 k 1 X
X 1 1 k 1 1
E (1; 1) = k IP (Ak [ Bk ) = k 2 2= 2 k
k =1 k =1 k =1
Recordemos que:
X
1 X
N d XN ! N !
X
0<r<1) krk = Nlim
1
( r k ) = lim d r k = d lim k r
k =1
!1 k =1
dr N !1 dr k dr =1
N !1 k =1
X
1
) k = drd 1 r r = 1(1 r r+) r = (1 1 r)
rk 1
2 2
k =1
E (1; 1) = 21 4 = 2
Para calcular E (2; 1), utilizamos las mismas deniciones para Ak y Bk , pero los elementos
de Ak han cambiado en consecuencia la probabilidad que X pierda ha cambiado. De
hecho no puede quebrar a la primera.
k[ O
i
1 1
kO i 1
Ak = (c; c); (s; s) (s; c) (c; c); (s; s) (s; c)
i =2 j =1 j =1
30
Entonces la probabilidad que X gane ahora es:
kX 1 k
1 2 1 2 1 k 1 2 2
IP (Ak ) =
2 4 = (k 1) 2 4
i =2
X
1 1 " 1
X k k
#
(k 1) 21 + 21 41 + 41
2
kIP (Ak [ Bk ) =
1 2
E (2; 1) = IP (B ) + 1 k 4
k =2 k =2
" X 1 1 k X 1 1 k #
1 1
= 4 4 k(k 1) 2 + k 2
2 1
+ 41
k k =2 =2
X
1 X1 d X1 ! 1
k (k 1)rk 2 k d
= k dr (r ) = dr kr k
1
d
= dr (1 r) 1
1 = (1 2 r)
2 3
k =2 k =2 k =2
E (2; 1) = 41 4 + 1 = 9
2
3
E (2; 2) = 2k(k 1) 2 4 = 4 2 4 = 16
3
2
k =2
Observacion:
Veamos como se podra calcular E (x; y) para los demas valores de x e y.
Dado que X tiene x e Y tiene y una vez que se juega una vez, pueden ocurrir 3 cosas:
(1) X pierde ) X tiene x 1 e Y tiene y + 1 con probabilidad 1
31
Lo anterior permite plantear una recurrencia entre E (x; y); E (x +1; y 1) y E (x 1; y +1)
con miras a una formula general.
Problema V.3.1
Sean X; Y variables aleatorias con densidad conjunta
n
f (x) = 2(x + y) 0 x y 1
0 si no
(a) Calcule las densidades marginales de X e Y .
(b) Calcule IE(XY ).
(c) >Son X e Y independientes ?. Justique su respuesta.
Solucion:
(a) Por denicion:
Z 1
y y
fX (x) = fXY (x; y)dy = 2 xy + 2 y x
2 =1
=
x x
1
= 2 x + 2 2 x + 2 = 3x + 2x + 1 (0 x 1)
2
2
2
Zy x x y
fY (y) = fXY (x; y)dx = 2 2 + yx x
2 =
=0
y0
2 0 = 3y (0 y 1)
2
=2 2 +y 2 2
x
y Z 2
x
0 0 0
Z 1
x y
1
= y 2 3 + 2 dy =
3 2
3 y + y dy
4 4
0
0
5 y 1 0
=
5
=
1
35 0 3
32
(c) No son independientes pues fX (x) fY (y) 6= fXY (x; y).
A priori no es posible que las variables X e Y fuesen independientes puesto que hay
dependencia de ambas variables con respecto al dominio de la densidad conjunta, y las
marginales no pueden depender de la otra variable.
Problema V.3.2
Una v.a. X se dice que tiene ley exponencial de parametro > 0, lo que se anota
X e() si tiene funcion de densidad
(8x 2 IR) : fX (x) = e x1 ; 1 (x) [0 + )
Demuestre que E (X ) = y V (X ) = .
1 1
2
Solucion:
Dado que la v.a. X tiene funcion de densidad y P [X 0] = 1 se tiene que
Z Z1
+
E (X ) = x fX (x)dx =
2 2
x e
2 x dx = x (e
2 x )0 dx
IR 0 0
Z1
x ) 1 +
+
=( x e 2xe xdx
+
2
0
0
33
luego como > 0 entonces x!lim1 x e x = 0 y por lo tanto
+
2
Z1
+
2 Z1
+
2 E (X ) = 2
E (X ) = 2
2
xe x dx = xe x dx =
2
0 0
Problema V.3.3
Una v.a. X se dice que tiene ley normal de media y varianza , lo que se anota 2
Solucion:
(a) Claramente (8x 2 IR) : fX (x) 0, luego para concluir que fX es funcion de densidad
habra que mostrar que:
Z
+
! 1
lim +
fX (x)dx = 1 (a1)
Consideremos la aplicacion lineal g : IR ! IR denida por g(x) := x entonces
resulta evidente que
Z gZ
( )
p1 e
+
x2
(8 > 0) : fx(x)dx = 2 dx
2
g
( )
p e dx = 1 (a2)
2
lim 2
! 1
+ 2
34
En efecto, dado > 0 se tiene que:
0Z 1 Z Z 2
Z Z 1
@ p1 e x dxA = 1e
+ + +
x y
( 2 + 2) x y
( 2 + 2)
dydx = 2 e d(x; y)
2
2
2 2 2
2 [ ; ;
+ ] [ + ]
p
es claro que R() [ ; +] [ ; +] R( 2) luego
ZZ 1 0Z 1 ZZ 2
d(x; y) @ p1 e x dxA
+
x y
( 2 + 2) x y
( 2 + 2)
2 e e d(x; y) (a3)
2
2 2 2
2
R( ) Rp
( 2 )
2 e d(x; y) = 2 e ddr = re dr = 1 e
2 2 2 2
R
( ) 0 0 0
luego
ZZ 1 x y
( 2 + 2)
ZZ 1 x y
( 2 + 2)
lim 2 e d(x; y) = 1 y lim 2 e d(x; y) = 1
2 2
! 1 ! 1
Rp
+ +
R ( ) ( 2 )
1 e x dxA = 1
+
lim @ p 2
2
! 1 + 2
R
y por lo tanto, como (8 > 0) : e x dx > 0 de la igualdad anterior obtenemos
+
1
2
2
2
que:
Z 1 x p +
p e dx
2
lim = 1=1 2
! 1
2 +
dremos de un hecho muy utilizado para este tipo de variable. Consideremos la v.a.
Y X que sabemos (pues > 0) que tiene funcion de densidad dada por
fY (y) := fX (y + ) = p 1 e = p1 e
y y
(8y 2 IR) : 1 + 2 2
2( )
2
2 2
i.e. Y N (0; 1). De la identidad
X = Y +
concluimos que si Y es v.a con esperanza entonces tambien lo es X y ademas
E (X ) = E (Y ) + (b1)
V (X ) = V (Y ) 2
(b2)
Demostraremos que E (Y ) = 0 y que V (Y ) = 1. En efecto
Z1
+ Z1 y y +
e
e
2
2
E (Y ) = yfY (y)dy = p e dy = ;lim p
2
=0
2 2
2
1 1
2 ! 1 2 +
y fY (y)dy = p ye dy
2
V (Y ) = E (Y ) =
2 2
2
1
2 1
Z1
+
y y 0 1Z1
+
y
Z 1
+
p p
2 2
= (e ) dy =
2 e dy = fY (y)dy
2
1
2 1
2 1
De lo desarrollado en (a), como Y N (0; 1) entonces fY es funcion de densidad
luego de la ultima expresion concluimos que: V (Y ) = 1. A partir de (b1) y (b2)
obtenemos que
E (X ) = 0 + =
V (X ) = 1 =
2 2
Problema V.3.4
Sea X variable aleatoria con funcion de densidad
f (x) = ( 1 )x 11x (x) > 0
(1+ )
1
36
Ademas sea X ; :::; Xn una muestra aleatoria indepediente de X .
1
Calcule la probabilidad de que al menos k de estas variables tomen valores menores que
2.5 sabiendo que IE (Y ) = 3, con Y = ln X .
Solucion:
Calculemos primero la distribucion de Y = ln X
80
<y si e
< 1
FY (y) = IP [Y y] = IP [ln X y] = IP [X ey ] = : Re x 1 = dx si e
1
(1+ )
1
1
1
Entonces: 0 y<0
Fy ( y ) = 1 e y y0
Ry
Observemos que 1 e y= = e s= dx, por lo tanto es una distribucion exponencial.
0
Z1
e 1 y= dy = 1
0
37
Como es habitual con familias i.i.d., por independencia e identica distribucion lo anterior
sera igual a:
(IP [1 X 2:5])j (IP [X > 2:5])n j
1 1
=
IP [1 X 2:5] = IP [0 ln X ln 2:5] = FX (ln 2:5) = 1 (e :
ln 2 5)
1 3
2
1 1 1
=
1 3
=1 5
2 = 1 3
j
probabilidad anterior por lo tanto la probabilidad pedida sera:
k n
X 2 = 1 3
j (1 p)j pn j con p = 5
j =0
Problema V.3.5
Suponga que X U [0; 1]. Determine los valores de t 2 IR tal que IE (X t ) sea nita.
>Cuales son esos valores?
Solucion:
Z t
IE (X t ) = xt dx = (tx+ 1) si t 6= 1
1
+1 1
Z dx
0
IE (1=X ) = x diverge
0
funcionando 3
2
Problema V.3.7
Sean X; Y variables aleatorias independientes absolutamente continuas con distribuciones
F y G respectivamente.
Calcule IE[G(X ) + F (Y )], y utilice lo anterior para calcular IE [F (X )].
Solucion:
Sabemos que 9f; g integrables tales que F (x) =
Rx f (t)dt y G(x) = Rx g(t)dt.
1 1
Como X e Y son independientes ) G(X ) y F (Y ) son independientes. Por denicion:
Z1 Z1
IE[G(X ) + F (Y )] = IE [G(X )] + IE [F (Y )] = G(t)f (t)dt + F (t)g(t)dt
1 1
Una vez que se prueba que las integrales convergen aplicando integracion por partes se
obtiene:
Z1 Z1 d 1
[G(t)f (t) + F (t)g(t)]dt = dt [F (t)G(t)]dt = F (t)G(t) 1 = 1 0
1 1
39
En consecuencia IE [G(X ) + F (Y )] = 1 8X; Y variables aleatorias absolutamente con-
tinuas.
Sea Y copia independiente de X ) IE [2 F (X )] = 1 por lo tanto IE [F (X )] = . 1
2
Para probar que las integrales estan bien denidas basta notar que:
Z1 Z1 Z1
G(t)f (t)dt = G(t)f (t)dt sup jG(t)j f (t)dt 1 1
1
1 t2IR 1
Esto pues G es distribucion y f es densidad por lo tanto la integral es nita, lo mismo
ocurre con la segunda integral lo que permite manipular las integrales aplicando el teo-
rema fundamental del calculo.
Observacion:
>Que ocurre con X; Y variables aleatorias discretas e independientes?
Otro problema interesante es calcular la distribucion de F (X ) siendo F la funcion de
distribucion de X cuando es absolutamente continua.
V.4 Funcion Caracterstica
Problema V.4.1
Dada una v.a. X se dene la funcion 'x : IR ! Cj (llamada funcion caracterstica de X )
por
(8t 2 IR) : 'X (t) := E (eitx) = E [cos(tX )] + iE [sen(tX )]
Demostrar que:
(a) 'X (0) = 1
(b) (8t 2 IR) : j'X (t)j 1
(c) (8t 2 IR) : 'X (t) = 'X ( t)
Solucion:
En efecto de la denicion sale que
'X (0) := E [cos(0 X )] + E [sen(0 X )] = E [1] + iE [0] = 1
lo que demuestra (a).
40
Antes de demostrar (b), recordemos que si Y es un v.a. con esperanza nita entonces
V (Y ) = E (Y ) [E (Y )] , de donde como V (Y ) 0 obtenemos que [E (Y )] E (Y ).
2 2 2 2
Dado t 2 IR como las variables aleatorias cos(tX ) y sen(tX ) son acotados, en particular
tienen esperanza nita. De lo anterior sale que:
(1) fE [cos(tX )]g E [cos (tX )]
2 2
= E [1] = 1
y por lo tanto como j'X (t)j :=
pfE [cos(tX )]g + fE [sen(tX )]g , de la desigualdad
2 2
Solucion:
En efecto, recordando las identidades trigonometricas:
cos( + ) = coscos sensen
sen( + ) = sencos + cossen
41
se tiene que
(8t 2 IR) : cos[t(X + Y )] = cos(tX )cos(tY ) sen(tX )sen(tY ) (1)
(8t 2 IR) : sen[t(X + Y )] = sen(tX )cos(tY ) + cos(tX )sen(tY ) (2)
Por otro lado dado t 2 IR como X e Y son independientes se tendra por ejemplo que
cos(tX ); cos(tY ) son idenpendientes, y por lo tanto como cos(tX ) y cos(tY ) son v.a. con
esperanza nita, sabemos que:
E [cos(tX )cos(tY )] = E [cos(tX )]E [cos(tY )] (4)
Analogamente se deduce que:
E [sen(tX )sen(tY )] = E [sen(tX )]E [sen(tY )] (5)
E [sen(tX )cos(tY )] = E [sen(tX )]E [cos(tY )] (6)
E [cos(tX )sen(tY )] = E [cos(tX )]E [sen(tY )] (7)
Al tomar esperanza en (1), (2) y luego usar las igualdades (4), (5), (6) y (7) se obtiene
que (8t 2 IR) :
'X Y (t) := E [cos(tX )]E [cos(tY )] E [sen(tX )]E [sen(tY )]
+
independientes entonces
(8t 2 IR) : 'X ::: Xn (t) = 'X (t) ::: 'Xn (t):
1+ + 1
42
como X es v.a. constante entonces es independiente de cualquier otra v.a. ,en particular
2
=: 'X (at)
y ademas
'X (t) := E [cos(t b)] + iE [sen(t b)] = cos(tb) + isen(tb) := eitb
2
Problema V.4.3
Demostrar que si X; Y son v.a. y FX ; FY son su respectivas funciones de distibucion
entonces
'X = 'Y , FX = FY
Solucion:
Demostremos primero que si
FX = FY ) 'X = 'Y
En efecto, dado t 2 IR como X e Y tiene igual distribucion entonces
(1) cos(tX ); cos(tY ) tienen igual distribucion, y
(2) sen(tX ); sen(tY ) tienen igual distribucion
FZ (a) + FZ (a ) = 1 lim Z e
T ita itb
FZ (b) + FZ (b ) e
+
2 2 2 T ! 1 + it 'Z (t)dt
T
1 Z T e ita e itb
+
1 2 1 2
Solucion:
(a) En efecto, dado t 2 IR como X es v.a. discreta se tiene por denicion que
X1
+
X1
+
X1
+
X1
+
k e X1 (eit )k
+
= eitk P [X = k] = eitk k! = e
k!
k =0 k =0 k =0
it it
= e ee = e e ( 1)
45
i.e. (8t 2 IR) : 'X (t) = e eit .
( 1)
(8t 2 IR) : 'X X (t) = 'X (t) 'X (t) = e eit e eit
1+ 2 1 2
1( 1) 2( 1)
it
=e e ( 1 + 2 )( 1)
1 2 1 2 1 2
Problema V.4.5
Un v.a. X se dice simetrica en torno a cero si (8x 0) : P [X x] = P [X x].
Demostrar que:
X es simetrica en torno a cero si y solo si (8t 2 IR) : 'X (t) 2 IR
Solucion:
Demostremos primero que
46