Vous êtes sur la page 1sur 46

Capitulo V:

V.1 Propiedades Basicas de la Esperanza y Varianza

Problema V.1.1
Calcule Si =
P
1
k  (k 1)    :::    (k i)rk i 1
con 0 < r < 1 i 2 IN
k i
= +1

Solucion:
Encontraremos una recurrencia para Si.
Caso (i = 0)
X
1 X1 d d X1 d( 1 1
krk 1
= dr (r ) = dr ( rk ) = dr
k
1 r 1) = (1 r) 2
k =1 k=1 k =1

(i ) i + 1)

X
1 X
1
k(k 1):::(k i)(k i 1)rk i 2
= k(k 1):::(k i) drd (rk i 1
))
k i
= +2 k i
= +2

Si = drd (Si k(k 1):::(k i)) = drd (Si )


+1

Por lo tanto i
d d
Si = dr Si 8i 2 IN ) Si = dri ( 1 1 r )
+1 +1

Podemos suponer que Si = ari i con a = 1 para algunos ai aun por determinar. Al
(1 ) +2 0

aplicar la recurrencia se obtiene:

ai d ( ai ) ) a = (i + 2)a = (i + 2)(i + 1):::2  1


= dr i i
+1

(1 r)i +3
(1 r)i +2
+1

) Si = (1(i +r2)!
+1
)i +3

1
En general tendremos que:
Si = (1(i +r1)!
)i
+2
8i 2 IN

Observacion: Este no es un problema de probabilidades. Sin embargo, el resultado de


estas sumatorias se utiliza normalmente en el calculo de esperanzas y momentos de orden
superior de muchas variables aleatorias comunmente utilizadas.
Problema V.1.2
Sean X; Y variables aleatorias con varianza nita, pruebe que:
Si V (X ) 6= V (Y ) ) X + Y; X Y no son independientes

Solucion:
Lo que vamos a probar es que:
V (X ) 6= V (Y ) ) IE (X + Y )(X Y )) 6= IE ((X + Y )IE(X Y )
Desarrollando un poco tendremos que:
IE((X + Y )(X Y )) = IE (X 2
Y ) = IE(X ) IE (Y )
2 2 2

Es bien sabido que: V (X ) = IE(X ) IE(X ) y V (Y ) = IE (Y ) IE (Y )


2 2 2 2

Al despejar IE(X ) y IE(Y ) de las ecuaciones anteriores y reemplazar probamos que:


2 2

IE((X + Y )(X Y )) = V (X ) + IE (X ) V (Y ) IE (Y ) = V (X ) V (Y )+
2 2

(IE (X ) + IE(Y ))(IE (X ) IE(Y ))


) IE ((X + Y )(X Y )) IE (X + Y )IE (X Y ) = V (X ) V (Y ) 6= 0:
Un resultado conocido asegura que si dos variables aleatorias A,B son independientes
entonces IE (A  B) = IE (A)IE (B). Por lo tanto que estas dos cantidades di eran prueba
que no son independientes.
Este resultado se puede escribir de una manera mas positiva, es decir > Que ocurre si las
variables X + Y y X Y son independientes ?.
Problema V.1.3

2
Sean X; Y variables aleatorias a valores en f0; 1g. Muestre que:
IE (XY ) = IE (X )IE (Y ) , X; Y son independientes
Solucion:
Por de nicion:
IE (X ) = 0  IP (X = 0) + 1  IP (X = 1)
IE(Y ) = 0  IP (Y = 0) + 1  IP (Y = 1)
IE(XY ) = (0  1)IP (X = 0; Y = 1) + (1  0)IP (X = 1; Y = 0) + (0  0)IP (X = 0; Y = 0)
+ (1  1)IP (X = 1; Y = 1)
Por lo tanto IE (XY ) = IE (X )IE (Y ) ) IP (X = 1; Y = 1) = IP (X = 1)IP (Y = 1) (1).
Utilizando (1) probaremos que:
IP (X = i; Y = j ) = IP (X = i)IP (Y = j ) 8i; j 2 f0; 1g
Esto es una condicion necesaria y su ciente para que X e Y sean independientes, debido
a que solo toman valores en f0; 1g.
Al calcular las marginales de X e Y :
IP (X = 1) = IP (X = 1; Y = 0) + IP (X = 1; Y = 1)
IP (Y = 1) = IP (X = 0; Y = 1) + IP (X = 1; Y = 1)
Despejando y utilizando (1) se obtiene:

IP (X = 1; Y = 0) = IP (X = 1)(1 IP (Y = 1)) = IP (X = 1)IP (Y = 1) (2)


IP (X = 0; Y = 1) = IP (Y = 1)(1 IP (X = 1)) = IP (X = 0)IP (Y = 1) (3)
Solo falta un termino pero:
IP (X = 0; Y = 0) = 1 IP (X = 0; Y = 1) IP (X = 1; Y = 1) IP (X = 1; Y = 0)
Al aplicar (1); (2); (3):

IP (X = 0; Y = 0) = 1 IP (X = 0)IP (Y = 1) IP (X = 1)(IP (Y = 1) + IP (Y = 0))


) IP (X = 0; Y = 0) = IP (X = 0)(1 IP (Y = 1)) = IP (X = 0)IP (Y = 0)
3
Observacion: >Que ocurre si X toma valores a; b e Y toma valores c; d? >Cual condicion
es la que asegura independencia entre X e Y ?
Problema V.1.4
Sean X; Y variables aleatorias con varianzas nitas. Pruebe que:
V (XY ) = V (X )V (Y ) + IE(X )V (X ) + IE(Y )V (X )
2 2

Cuando X; Y son independientes


Solucion:
V (XY ) = IE (XY ) IE (XY ) .
2 2

Si X e Y son independientes ) X e Y son independientes


2 2

) IE (XY ) = IE (X )IE (Y )IE (X Y ) = IE(X )IE (Y ) 2 2 2 2

Por lo tanto V (XY ) = IE(X )IE (Y ) IE(X ) IE(Y )


2 2
(1) 2 2

Ademas al usar: V (X ) = IE (X ) IE(X )


2 2

) V (X )V (Y ) = IE(X )IE (Y ) + IE (X ) IE(Y ) IE (X )IE (Y ) IE(Y )IE (X )


2 2 2 2 2 2 2 2

2
2

) V (X )V (Y ) = IE (X ) IE (Y ) IE(Y ) + IE(Y ) IE (X ) IE(X )
2
 2 2 2

Lo que nos permite concluir que V (XY ) V (X )V (Y ) = IE(X ) V (Y ) + IE (Y ) V (X ). 2 2

La de nicion de V (X ) para X variable aleatoria es en general:


V (X ) = IE ((X IE(X )) ) 2

Pero con un poco de desarrollo:


(X IE (X )) = X 2 2
2IE(X )X + IE (X ) 2

Al aplicar esperanza a la igualdad anterior:


) V (X ) = IE (X ) 2IE(X ) + IE (X ) = IE (X ) IE (X )
2 2 2 2 2

Siempre recordando que IE [IE(X )] = IE (X ) 8X variable aleatoria.


Problema V.1.5

4
Sea X ; :::; Xn variables aleatorias con varianzas nitas tales que:
1

IE(Xi Xj ) = IE(Xi )IE (Xj ) 8i 6= j 2 f1; :::; ng


Calcule V (
Pk Xi ) 8k 2 f1; :::; ng
i =1

Solucion:
Probaremos por induccion que V ( Xi ) = V (Xi ) 8k 2 f1; :::; ng
Pk Pk
i i
(Caso n = 2)
=1 =1

Por de nicion:
V (X + X ) = IE (X + X )
 2
 IE (X + X ) 2
1 2 1 2 1 2

Desarrollando el cuadrado:
 2

IE (X + X ) = IE (X ) + IE(X ) + 2IE (X X ) 2 2
1 2 1 2 1 2

Aplicando la hipotesis con i = 1 y j = 2:


 2

IE (X + X ) = IE(X ) + 2IE(X )IE (X ) + IE (X ) 2 2
1 2 1 1 2 2

Ademas:
IE(X + X ) = [IE(X ) + IE(X )] = IE (X ) + 2IE (X )IE(X ) + IE(X )
1 2
2
1 2
2
1
2
1 2 2
2

Restando se obtiene:
V (X + X ) = IE(X ) IE (X ) + IE (X ) IE (X ) = V (X ) + V (X )
1 2
2
1 1
2 2
2 2
2
1 2

(k ) k + 1) Es evidente que:
kX +1
! X
k !
V Xi = V Xi + Xk +1 (1)
i =1 i =1

 P k   Pk 
Veamos que IE Xk ( Xi ) = IE (Xk )  IE
+1 Xi lo que nos permite usar la +1
i i
Pk
=1 =1

hipotesis de induccion con k = 2 en (1) para las variables X y X . i k +1


i =1

5
En efecto al aplicar la hipotesis con j = k + 1 se obtiene:
" X
k # X
k ! X
k X
k
IE Xk ( +1 Xi ) = IE Xi Xk +1 = IE (Xi Xk ) =
+1 IE (Xi )  IE (Xk )
+1

i =1 i =1 i =1 i =1

Por lo tanto, como la esperanza es lineal:


" X
k # X
k X
k !
IE Xk ( +1 Xi ) = IE(Xk )  +1 IE(Xi ) = IE (Xk )  IE +1 Xi
i =1 i =1 i =1

Aplicando la induccion con k = 2 probamos que:


kX +1
! X
k !
V Xi = V Xi + V (Xk ) +1

i =1 i =1

kX +1
! kX +1

)V Xi = V (X i )
i =1 i =1

Observacion: La hipotesis iniciales equivalente a COV (Xi ; Xj ) = 0 8i 6= j . Este resul-


P n  P n
tado prueba en particular que V Xi = V (Xi ) cuando los Xi son independientes.
i i
En palabras se ha probado que la varianza de la suma es la suma de las varianzas cuando
=1 =1

las covarianzas son nulas. > Sera cierta la recproca ?.


Problema V.1.6
Sean X ; :::; Xm ; Y ; :::; Yn variables aleatorias tales que:
1 1

V (Xi ) = 1 8i 2 f1; :::; mg V (Yj ) = 1 8j 2 f1; :::; ng


(Xi ; Yj ) =  3 8i 2 f1; :::; mg 8j 2 f1; :::; ng
(Xi ; Xj ) =  1 8i; j 2 f1; :::; mg
(Yi ; Yj ) =  2 8i; j 2 f1; :::; ng
Sean U =
Pm Xi y W = Pn Yj muestre que:
i =1 j =1

pmn
(U; W ) = p p 3

1 + (m 1) 1 + (n 1) 1 2

6
Solucion:
Recordemos que (X; Y ) = pCOV p
X;Y
V X V Y (
(

)
)

( )

Con COV (X; Y ) = IE [(X IE(X ))(Y IE(Y ))]


Que se denominan coe ciente de correlacion y covarianza respectivamente.
Como la covarianza es bilineal tendremos que:
0m n 1 m n
X X XX
COV (U; W ) = COV @ Xi ; Yj A = COV (Xi ; Yj ) = m  n   3

i =1 j =1 i =1 j =1

Al calcular ahora la varianza de U obtenemos:

m !
X m !
X
V (U ) = V Xi = V X + 1 Xi
m ! m !
i =1 i =2

X X
= V (X ) + V 1 Xi 2COV X ; 1 Xi
i =2 i =2

m !
X X
m m !
X
) V (U ) = V Xi + 1 2 COV (X ; Xi ) = V 1 Xi + 1 2(m 1) 1

i =2 i =2 i =2

En consecuencia:
m !
X m !
X
V Xi = 1 2(m 1) + V 1 Xi
m !
i =1 i =2

X
= 1 2(m 1) + 1 2(m 2) + V 1 1 Xi
i =3

Iterando esta recurrencia se obtiene:


X
m
V (U ) = m 2 (m i) = m 2 m(m2 1) = m[1 (m 1) ]
1 1 1

i =1

Al utilizar el mismo razonamiento con W se tiene que:


V (W ) = n[1 (n 1) ] 2

Al reemplazar todos los resultados en la formula de la correlacion:


7
mn pmn
(U; W ) = p p p 3
=p p 3

mn 1 (n 1) 1 (m 1)
2 1 (n 1) 1 (m 1) 1 2 1

Observacion: Lo unico que se necesita para resolver el problema anterior es conocer las
propiedades basicas de la esperanza y la varianza, ya que todas las demas propiedades
se deducen directamente de ellas.
Problema V.1.7
Sea X una v.a. tal que E (X ) < +1, demostrar que:
2

(a) X tiene esperanza y varianza nita.


(b) (8" > 0) : P [jX E (X )j > "]  V "X .(
2
)

Solucion:
(a) Para demostrar que X tiene esperanza es necesario y su ciente demostrar que jX j
tiene esperanza.
En efecto, como (8t 2 IR) : jtj  1 + t obtenemos que:
2

jX j  1 + X 2

de donde como E (1) = 1 < +1 y E (X ) < +1 concluimos que:2

0  E (jX j)  E (1 + X ) = E (1) + E (X ) < +1


2 2

i.e. jX j tiene esperanza nita .Para veri car que tambien X tiene varianza nita,
basta notar que:
(X E (X )) = X2 2
2E (X )  X + [E (X )] 2

luego como 0  E (X ) < +1 y 1 < E (X ) < +1, concluimos que:


2

V (X ) = E [X 2E (X )  X + [E (X )] ]
2 2

= E (X ) E (2E (X )  X ) + E ([E (X )] )
2 2

= E (X ) 2E (X )  E (X ) + [E (X )]
2 2

= E (X ) [E (X )]
2 2

y por lo tanto V (X ) < +1. Como por otro lado siempre V (X )  0 concluimos que
X tiene varianza nita.
8
(b) En efecto, denotando por (
; A; P ) el espacio probabilstico donde se encuentra
de nida X es claro que
A" := f! 2
: jX (!) E (X )j > "g
es un conjunto medible i.e. A" 2 A: Claramente
(8! 2 A" ) : "  jX (!) E (X )j
y
(8! 2= A" ) : 0  jX (!) E (X )j
Luego
(8! 2
) : "1A" (!)  jX (!) E (X )j
y por lo tanto
(8! 2
) : " 1A" (!)  jX (!) E (X )j
2 2

De la monotona y linealidad de la esperanza, obtenemos que:


" E (1A" )  E (jX E (X )j ) = V (X )
2 2

i.e.
P (A" )  V "(X )
2

o equivalentemente
P [jX E (X )j  "]  V "(X ) 2

lo que demuestra (b).


Problema V.1.8
Sea (
; A; P ) un espacio probabilstico e Y; X ; :::; Xn v.a. de esperanza y varianza nita.
1

Considere el problema
X
n
(P ) min
s.a. V (Y i Xi )
i =1

( ; :::; n) 2 IRn
1

Se pide que:
9
(a) Demuestre que si (  ; :::; n) es solucion de (P ) entonces el vector (  ; :::; 
n)

donde := E (Y
P n  1

 
i Xi ) y (8i = 1; :::; n) : i := i es solucion de
0

i
0
=1

X
n
(P  ) min
s.a. V (Y 0 i Xi)
i =1

( ; :::; n) 2 IRn
0
+1

X
n
E ( +0 i Xi ) = E (Y )
i =1

(b) Demuestre que si la matriz A := [cov(Xi ; Xj )] in


1
j n
es de nida positiva entonces
(P  ) tiene solucion.
1

Solucion:
(a) En efecto si (  ; :::; n) 2 IRn es solucion de (P ) entonces
1

X
n X
n
(8( 1 ; :::; n) 2 IRn ) : V (Y  X i )  V ( Y
i i Xi ) (1)
i =1 i =1

pero
X
n X
n X
n
V (Y  X i ) = V ( Y
i  Xi ) = V (Y
i  0

i Xi )
i =1 i =1 i =1

luego de (1) obtenemos que


X
n X
n
(8( 0 ; :::; n) 2 IRn +1
) : V (Y  0
 Xi )  V (Y
i i X i )
i i (2)
X
=1 =1

n
= V (Y 0 i X i )
i =1

Para concluir que (  ; :::;    


n ) es solucion de (P ) basta veri car que ( ; :::; n )
satisface las restricciones de (P  ), lo que es directo pues
0 0

X n X  n X
n X n
E (  + 
0 i iX ) =  + E ( i X i ) = E ( Y 0
 Xi ) + E (  Xi )
i i
i i i i
X X 
=1 =1 =1 =1

n n
= E (Y ) E ( 
i iX ) + E ( i Xi ) = E (Y )
i =1 i =1

10
(b) Basta demostrar que si A es de nida positiva, entonces el problema (P ) tiene
solucion, lo que por (a) nos permitira concluir que (P  ) tiene solucion.
En efecto, dado ( ; :::; n) 2 IRn se tiene que:
1

X
n X
n X
n
V (Y i Xi) = V (Y ) + V ( iXi ) 2cov(Y; i Xi )
i i i
X X X
=1 =1 =1

n n n
= V (Y ) + cov( i Xi ; j X j ) 2 icov(Y; Xi )
i =1 j =1 i =1

X
n X
n
= V (Y ) + i j cov(Xi ; Xj ) 2 i cov(Y; Xi )
i;j =1 i =1

luego (P ) se escribe de manera equivalente como


X
n X
n
(P )
1 min
s:a:
V (Y ) + i j cov(Xi; Xj ) 2 icov(Y; Xi )
i;j =1 i =1

( ; :::; n) 2 IRn
1

que a su vez es equivalente al problema


1 X n Xn
(P ) 2 min
s:a: 2 i;j i j cov(Xi ; Xj ) i icov(Y; Xi )
=1 =1

( ; :::; n) 2 IRn
1

Al de nir entonces el vector bT := [cov(Y; Xi); :::; cov(Y; Xn )] vemos que (P ) se 2

reescribe como
(P ) min 1 T A bT
s:a:
2
2
2 IR n

De la equivalencia entre los problemas (P ); (P ) y (P ) bastara demostrar que (P )


1 2 2

tiene solucion si A es d.p .


En efecto como la funcion f : IRn ! IR de nida por f ( ) := T A bT es de 1

clase C en IRn y (8 2 IRn) : Hf ( ) = A es d.p. , concluimos que f es una funcion


2
2

convexa luego
 es mnimo de f si y solo si rf (  ) = 0
lo que a su vez es equivalente a
A  = b
11
Vemos as que para que (P ) tenga solucion es su ciente que la ecuacion A  = b
2

tambien tenga, lo que es directo pues la matriz A es d.p., y por lo tanto invertible.
As hemos demostrado que (P ) tiene solucion y por lo tanto de las equivalencias
mostradas, junto con lo hecho en (a) concluimos que (P  ) tiene solucion.
2

Antes de terminar notemos que la matriz A 2 IRnn siempre es s.d.p. .En efecto,
dado = ( ; :::; n) 2 IRn se tiene que:
1

X
n X
n X
n X
n X
n
T A = i j cov(Xi ; Xj ) = i cov(Xi ; j Xj ) = i cov(Xi ; j Xj )
i;j =1 i =1 j =1 i =1 j =1

X n X
n X
n X
n X
n
= cov( iXi ; j Xj ) = cov( iXi ; j Xj ) = V ( i X i )  0
j =1 i i
=1 j i =1 =1 =1

y por lo tanto (8 2 IRn) : T A  0, es decir, A es matriz s.d.p .


Problema V.1.9
(a) Sean a ; :::; an 2 IR y X ; :::; Xn v.a. independientes tales que
1 1

(8i = 1; :::; n) : E (Xi ) =  ; V (Xi ) =  < +1 2

Determine E (U ); V (U ) donde U es la v.a. de nida por U := ai Xi .


Pn
i
(b) Sean faij : i = 1; :::; n ; j = 1; :::; ng  IR y X ; :::; Xn v.a. independientes tales que
=1

(8i = 1; :::; n) : E (Xi ) = 0 ; V (Xi ) =  < +1 ; E (Xi ) =  < +1 2 4 4

Determine E (Z ); V (Z ) donde Z es la v.a de nida por Z :=


Pn a X X .
ij i j
i;j =1

Solucion:
(a) De la linealidad de la esperanza obtenemos que:
X
n X
n X
n
E (U ) = ai E (Xi ) = ai   = ( ai )
i =1 i =1 i =1

Ademas
X
n X
n X
n X
n
V (U ) = cov(U; U ) = cov( ai Xi ; aj Xj ) = cov(ai Xi ; aj Xj )
i j i j
X
n X
n
=1 =1

X
n
=1 =1
(a1)
= ai cov(Xi ; aj Xj ) = ai aj cov(Xi ; Xj )
i =1 j =1 i;j =1

12
Dado que X ; :::; Xn son variables aleatorias independientes se tiene que si i 6= j
1

entonces cov(Xi; Xj ) = 0, luego de (a1) obtenemos que:


X
n X
n X
n
V (U ) = ai cov(Xi; Xi ) =
2
ai V (Xi ) =  (
2 2
ai )
2

i =1 i =1 i =1

(b) Del hecho que X ; :::; Xn son v.a. independientes de esperanza nita sale que si i 6= j
entonces E (Xi  Xj ) = E (Xi )  E (Xj ) = 0, luego
1

X
n X
n X
n
E (Z ) = aij E (Xi Xj ) = aij E (Xi Xj ) + aij E (Xi Xj )
i;j i;j=1 i;j=1
i6=j
i=j (b1)
=1

X n
= aii E (Xi ) 2

i =1

Dado i 2 f1; :::; ng como X es v.a con esperanza entonces V (Xi ) = E (Xi ) [E (Xi)] 2 2

y por lo tanto E (Xi ) =  , de donde por (b1) obtenemos que:


2 2

X
n !
E (Z ) =  2
aii
i =1

Por otro lado, como Z es v.a con esperanza se tiene que V (Z ) = E (Z ) [E (Z )] . 2 2

Pero
X
n X
n X
n
E (Z ) = E [(
2
aij Xi Xj )  ( apq XpXq )] = E [ aij apq Xi Xj Xp Xq ]
i;j =1 p;q =1 i;j;p;q =1

X
n X n
= aij apq E (Xi Xj XpXq ) = aij apq E (Xi Xj Xp Xq )
i;j;p;q =1 i;j;p;q=1
jfi;j;p;qgj=1
X n X
n
+ aij apq E (Xi Xj XpXq ) + aij apq E (Xi Xj XpXq )
i;j;p;q=1 i;j;p;q=1
jfi;j;p;qgj=2 jfi;j;p;qgj3
(b2)
Dados i; j; p; q 2 f1; :::; ng se tiene que:
(b3) jfi; j; p; qgj = 1 ) E (Xi Xj XpXq ) =  4

(b4) jfi; j; p; qgj = 2 ) E (Xi Xj XpXq ) =  4

(b5) jfi; j; p; qgj  3 ) E (Xi Xj XpXq ) = 0


En efecto, si jfi; j; p; qgj = 1 ) i = j = p = q luego E (XiXj XpXq ) = E (Xi ) =  , 4 4

lo que demuestra (b3). Si jfi; j; p; qgj = 2 entonces 9k; r 2 f1; :::; ng tales que k 6= r
13
e fi; j; p; qg = fk; rg luego E (XiXj XpXq ) = E (Xk Xr ), como k 6= r y Xk ; Xr son2 2

v.a independientes entonces E (Xi Xj XpXq ) = E (Xk )E (Xr ) =    =  , lo que 2 2 2 2 4

prueba (b4). Si jfi; j; p; qgj  3 entonces al menos uno de los ndices i; j; p; q es


distinto de los otros tres; no hay perdida de generalidad en suponer i 6= j; i 6= p e
i 6= q, en cuyo caso como X ; :::; Xn son independientes se tendra que Xi ; Xj Xp Xq
1

son independientes, luego E (Xi Xj Xp Xq ) = E (Xi )E (Xi XpXq ) = 0, lo que demues-


tra (b5).
De la igualdad en (b2) junto a (b3), (b4) y (b5) obtenemos que:
0 1 0 1
Xn Xn
E (Z ) =  B
2
@ 4
aij apq C
A+ 4 B
@ aij apq C
A
i;j;p;q =1 i;j;p;q =1
jfi;j;p;qgj jfi;j;p;qgj
! 0 =1
1 =2

X n
B X
n
= 4
aii +  @ 2 4
aij apq C A
i =1 i;j;p;q=1
jfi;j;p;qgj=2

de donde
0
! 1 !
X
n
B X
n
C X
n 2

V (Z ) =  4
aii +  @
2
aij apq A 
4
aii 4

i =1 i;j;p;q=1
jfi;j;p;qgj=2 i =1

Problema V.1.10
Sean X ; :::; Xn v.a. independientes tales que para cierto  2 IR se tiene que:
1

E (Xi ) = 0 ; E [(Xi ) ] =  < +12 2

E [(Xi ) ] = 3 3
; E [(Xi ) ] =  < +14 4

Se de nen las v.a.


 1 X
n
X := n Xi
i
X
=1

1 n
S := n 1 (Xi X )
2 2

i =1

Determine E (X ); V (X ); E (S ). 2

Solucion:
14
Dado que (8i = 1; :::; n) : E (Xi ) = 0, resulta que:
(8i = 1; :::; n) : E (Xi ) =  ; V (Xi ) =  2

Pn
Del problema anterior si de nimos (8i = 1; :::; n) : ai  n , como X = ai Xi se deduce
1

i
que: =1

Xn
E (X ) =  ( ai ) = 
i
X
=1

n
V (X ) =  ( ai ) = n
2
2 2

i =1

Por otro lado, al de nir (8i = 1; :::; n) : Yi = Xi  se tiene que:


(1) Y ; :::; Yn son v.a. independientes
(2) (8i = 1; :::; n) : E (Yi) = 0 ; V (Yi ) =  < +1 y E (Yi ) =  < +1
1
2 4 4

Ademas
2 3
X n (X ) (X ) = 1 X
n Xn 2

S = n1 1
2
i n 1i
4 Yi
1 (X )5
nj
2
j
i
2 3
=1 =1 =1

2 3
X X X X
2
n n n n 1
= n 1 1 4Yi n1 Yi 5 = n 1 1 64 n n 1 Yi + Yj 75
2

i j i j n =1
=1 =1
j6 i =1
=

 n ; i=j
luego de niendo (8i; j 2 f1; :::; ng) : bij 
1
n
1
n ; i 6= j obtenemos que:
8n 9 8n 9( n
1 X n <X = 1 X n2
< X = X )
S = n 1 : bij Yj ; = n 1 : bij Yj ;
2
bik Yk
i j i j k
XXn n
=1 =1

X X
n n ! =1 =1 =1

= 1n 1i bij bik Yj Yk = 1 bij bik Yj Yk


n 1 j;k
=1 j;k =1 =1 i =1

Por lo tanto al de nir (8j; k 2 f1; :::; ng) : ajk 


Pn b b , vemos que
ij ik
i =1

1 Xn
S =n 1
2
ajk Yj Yk
j;k =1

15
De (1) y (2), junto al problema anteriormente desarrollado se obtiene que:
0 n 1 !
1 X  X n
E (S ) = n 1 E @ ajk Yj Yk A = n 1
2
2
aii
j;k i
=1 =1

pero dado i 2 f1; :::; ng como


X
n X
n
b`i = (n n 1) + nn 1 = (n n 1)n = (n n 1)
2

aii = b`i b`i = bii +


2 2
2 2 2
` =1 `=1
`6=i

concluimos que:
X n !
2

E (S ) = n 1 
2

aii = n 1  n  n n 1 =  :
2
2

i =1

Problema V.1.11
Una variable aleatoria X se dice positiva si, IP (X 2 IR ) = 1. Sean X ; :::; Xn variables
+ 1

aleatorias identicamente distribuidas y positivas. Sin importar cual sea su distribucion


muestre que:
 X + ::: + Xk  k
IE 1

X + ::: + Xn= n
1

Solucion:
De namos las variables Yi como:
Yi = PXi 8i 2 f1; :::; ng
n
Xj
j =1

Siendo las variables aleatorias Xi positivas podemos asegurar que las variables aleatorias
Yi toman valores solo en [0; 1]. En principio, como son variables aleatorias, esto no tiene
mucho sentido. Sin embargo esto quiere decir que IP (Yi 2 [0; 1]) = 1 8i 2 f1; :::; ng.
Pn
Para ver esto basta notar que IP (0  Xi  Xj ) = 1.
j =1

Esto asegura que IE (Yi ) < 1 8i = 1; :::; n.


16
Como las variables Xi tienen todas igual distribucion,
) IE (Xi ) = IE(Xj ) 8i; j 2 f1; :::; ng
Esto excluyendo el caso en que la esperanza de los Xi no este de nida..
Del mismo modo:
IE (Yi ) = IE (Yj ) 8i; j 2 f1; :::; ng
Pn
En el sentido de probabilidades Yi = 1, puesto que solo es falso cuando el divisor es
i
0 y esto tiene probabilidad 0.
=1

Como la esperanza es lineal se tendra:


n  IE(Yi ) = 1 8i = 1; :::; n.
En consecuencia:  X + ::: + Xk  X
k
IE X + ::: + X = IE(Yi ) = nk
1

1 n i =1

Observacion: Lo sorprendente del resultado es el hecho que el valor de esa esperanza no


dependa de la distribucion de los Xi . Sin embargo esto no es tan sorprendente puesto que
se esta considerando un cuociente de estas variables aleatorias. Las tecnicas utilizadas
para resolver el problema introducen la generalizacion de pertenencia a un conjunto de
un numero real para una variable aleatoria, esto es que la probabilidad de que la variable
este en ese conjunto es 1.
V.2 Esperanza y Varianza de Variables Aleatorias Discretas

Problema V.2.1
Considere el juego siguiente. Un jugador lanza una moneda hasta que sale cara, si salio
cara en la etapa n entonces obtiene un bene cio de n . Calcule el valor esperado del
2

bene cio del juego.


Solucion:
El espacio muestral sera
= [0; 1]IN  con la -algebra de los cilindros.
Dado ! = (!n)n2IN  2
; !i = 0 signi ca salio sello en la etapa i mientras que !i = 1
signi ca que salio cara en la etapa i
 
Sea A = ! 2
! = 1

 
1 1

Ak = ! 2
!i = 0 8i < k wk = 1 8k  2
17
Es claro que:
IP (Ak ) = ( )k por lo tanto el valor esperado sera
1
P k ( )k 2 1
2
k 1
2

Sea Sr =
P k  rk con 0 < r < 1
2

k
1

Unos sencillos calculos:


X X d k d X k d X k
r k  k  rk = r
1
k dr (r ) = r dr ( k  r ) = r dr (r k  r ) 1

k 1 k 1 k 1 k
1

Sabemos que
P k  rk =
r .
1 1
)2
k (1

h r i
1

Por lo tanto Sr = r dr d r2 r r
r =r
(1 ) +2 (1 )
(1 )2 r4
(1 )

Finalmente se concluye que:

Sr = (1 r r) [(1 r) + 2r] = r(1(1 +rr) )


3 3

Evaluando para el valor r = 1


2

2)  (3=2) = ( 3 )2 = 6
Sr = (1=(1 2

=2) 2 3

Observacion:
La unica di cultad de este problema consiste en el calculo de la sumatoria que es un
ejercicio clasico cuya reduccion se basa en intercambiar un lmite de sumatoria con uno
de derivada.
Problema V.2.2
Se tiene una urna que contiene N bolas numeradas de 1 a N respectivamente. Se sacan
n bolas de la urna (n  N ) y se ve el valor maximo de las n bolas.
Encuentre la distribucion de la variable aleatoria que toma el valor de dicho maximo y
su valor esperado.
Solucion:
Sea X la variable aleatoria a examinar. Es claro que el soporte de esta variable aleatoria
es fn; :::; N g ya que con n bolas es imposible sacar menos que n.
18
Para que el valor maximo obtenido sea n hay que obtener las bolas (1; 2; :::; n) que se
pueden mezclar de n! maneras.
El numero total de con guraciones posibles de las n bolas es:
N  (N 1)  :::  (N n + 1) = (N N !n)!
Entonces: IP (X = n) = n  NN n = (N ) .
! ( )! 1
!
n

De ahora en adelante no consideraremos las permutaciones, es decir nos preocuparemos


de cuantos grupos distintos podemos lograr y no del orden al interior de cada grupo.
Siguiendo el mismo tipo de razonamiento. X = n + 1 signi ca obtener la bola (n + 1) en
alguna de las n extracciones y las (n 1) bolas restantes deben pertenecer a (1; 2; :::; n)
esto es nn grupos posibles.
n 
1

) IP (X = n + 1) = n  1
N
n
Del mismo modo, IP (X = n + 2) signi ca obtener la bola (n + 2) en alguna de las n
extracciones y el resto en (1; 2; :::; n + 1)
Por lo tanto:
n 
+1

IP (X = n + 2) = n 
1
N
n
En general: 
n k+ 1

IP (X = n + k) = n  1
con k 2 f0; :::; N ng
N
n
En particular esto prueba que:
NXn n + k 1 = N ()
  
k =0
n 1 n
El valor esperado sera por de nicion:
NXn n + k 1 N 
IE(X ) = (n + k ) n 1 = n
k
 = n k
=0

Como nn k nn k
+ +
1
1
n
+

N  NXn n + k NXn n + k
) n  IE (X ) = n n =n n
k =0 k =0

19
Usando () cambiando n por n + 1 obtenemos
NX
n n + 1 + k 1  N 
( +1)

k n + 1 1 = n + 1 siempre que n < N


n n + k   N 
=0

NX 1

) n = n+1
k =0

N   N  n + N n  N   N 
n IE (X ) = n  n + 1 + N n =n n+1 + N n
Si N = n solo hay un valor que es N luego en ese caso IE (X ) = N .
Para los demas valores de n:
" N + N #
IE(X ) = n n+1
N N n
 n 
= n (n + 1)!(NN ! n 1)! n!(NN ! n)! + (N Nn! )!n!  n!(NN ! n)!
 N n  n(N + 1)
= n n + 1 + 1 = (n + 1) (Sirve aun con N = n)

Luego IE (X ) = n nN
(
+1
+1)
si 0 < n  N .
Problema V.2.3
Una v.a. X se dice que tiene ley Poisson de parametro  > 0, lo que se anota X  P ()
si
k
(8k 2 IN ) : P [X = k] = e  k!
Demostrar que E (X ) =  y V (X ) = .
Solucion:
La v.a. X es discreta, pues IN es numerable y
X X1
+

k
X 
+1 k
P [X 2 IN ] = P [X = k ] = e k! = e = e   e = 1
k2IN k =0 k k!
=0

20
Luego
X1
+
X1 ke k  X1 kk
+ +

E (X ) : = kP [X = k] = k =e
k =0 k ! k k!
=0 =1

X  X 
1 k
+ 1 k +

k! = e  e = 
 
1

= e
(k 1)! = e k k =1 =0

Como X es v.a. con esperanza nita, entonces:


V (X ) = E (X ) [E (X )] = E (X ) 
2 2 2 2
(1)
Finalmente
X1 
k X 1 k X1 k
= e  k (k 
+ + +

+1

E (X ) =
2
k e k!
2

1)! = e ( k + 1) k!
k =0 k =1 k =0

 X1
+
k X1 +
 k
 X1 k +

= e (k + 1) k! =  ke k! + e
k =0 k =0 k k! =0

= E (X ) + e   e =  2
+
y por lo tanto de (1) concluimos que:
V (X ) =  +   = :
2 2

Problema V.2.4
Una v.a. X se dice binomial de parametro (n; p) lo que se anota X  B(n; p) con n 2 IN
y p 2 [0; 1] si n
(8k 2 f0; :::; ng) : P [X = k] = k pk (1 p)n k
Demuestre que E (X ) = np y V (X ) = npq donde q := 1 p.
Solucion:
Notemos que X es v.a. discrecta pues el conjunto f0; :::; ng es nito y
X
n n n
X
P [X 2 f0; :::; ng] = P [X = k ] = k n k n
k p (1 p) = [p + (1 p)] = 1
k =0 k =0

21
Sabemos que entonces
X
n n n
X X n n p )k
E (X ) := kP [X = k] = k kpk (1 p)n k = (1 p) n
k k( 1 p
k k k
n n
X
=0 =0 =1

= (1 p)n( 1 p p )  k (
k 1 p
p )k 1

k =1

De namos la funcion f : IR ! IR por f () := (1 + )n =


Pn nk . Es claro que
k k
f 0 ( ) =
Pn nk kk 1
= n(1 + )n 1
, y por lo tanto
=0

k k
=1

E (X ) = (1 p)n ( 1 p p )  f 0 ( 1 p p ) = (1 p)n ( 1 p p )  n(1 + 1 p p )n = np 1

Por otro lado, como X es v.a. con esperanza nita entonces


V (X ) = E (X ) [E (X )] = E (X ) n p
2 2 2 2 2
(1)
pero
X
n n n
X
E (X ) =
2
k P [X = k ] =
2

k k pk (1 p)n k 2

k k
X n  n X n n
=0 =1

= k
kp (1 p) + n k k(k 1)pk (1 p)n k
k k k k
X n  n
=1 =1

= E (X ) + k k(k 1)pk (1 p)n k


k
X n n
=2

n
= np + (1 p) ( 1 p )p k (
2
k 1)( p )k 2

k k 1 p
= np + (1 p)n ( 1 p p ) f 00 ( 1 p p )
=2

como f 00 () = n(n 1)(1 )n de lo anterior concluimos que:


2

E (X ) = np + (1 p)n ( 1 p p )  n(n 1)(1 + 1 p p )n = np + p n(n 1)


2 2 2 2

y por lo tanto de (1) obtenemos que:


V (X ) = np + p n(n 1) n p = np np = np(1 p) = npq
2 2 2 2

22
Problema V.2.5
Se dispone de N dados equilibrados que se lanzan simultaneamente de manera indepen-
diente. Cuando algun dado sale 6 se deja jo y se prosigue con los que todava no han
salido 6. El juego naliza cuando todos los dados estan en 6.
Calcule:
(1) Probabilidad de haber obtenido 6, en cada uno de los dados, en k lanzamientos.
(2) Valor esperado de terminar el juego. Evalue completamente en los casos N = 1; 2; 3.
Solucion:
(1) El espacio muestral sera:
8  2xm3 9
< . =
4 5
1

N 0

= :(~xm )m2IN ~xm = . 2 f1; :::; bg xnm = b ) xnm0 = b 8m  m;
.
x Nm
El vector ~xm representa los resultados de los N dados obtenidos en el m-esimo lanza-
miento. Imponemos ademas que si un dado sale 6 en alguna etapa m se queda en 6 de
ah en adelante.
Como siempre en estos casos consideramos F = \cilindros de
". Asumimos indepen-
dencia entre las coordenadas de ~xm y entre ~xm y ~xm0 8m 6= m0.
El suceso buscado es:
8  263 9
< =
Ak = :x 2
~xk = 4 ... 5 ^ 9n0 2 f1; :::; N g xn0 k 6= 6;
1

6
Es decir Ak = \Todos los dados estan en 6 en la etapa k, y al menos 1 distinto de 6 en
k 1".
 
Llamemos Aik = x 2
xik = 6 ^ xi k 6= 6g con i 2 f1; :::; N .

( 1)

En palabras, Aik = \El dado i salio 6 en la etapa k por primera vez"


Por independencia entre lanzamientos:
IP (Aik ) = ( 65 )k  16
1

Para que ocurra Ak algun dado debe salir 6 por primera vez en el lanzamiento k. Hay
i dados con i 2 f1; :::; N g que pueden salir 6 por primera vez en k. Cuando jo este i,
puedo escoger Ni maneras de repartir cuales seran los dados que saldran 6. Sin importar
23
cuales sean estos la probabilidad sera igual por lo que la calcularemos para los primeros
i, luego combinamos y nalmente sumamos.
Entonces de nimos los conjuntos Bki como:
k[ 1
! k[ 1
!
Ak \
1
Am \ ::: \
2
ANm = Bk 1

m =1 m =1

..
.
k[ 1
! k[ 1
!
Ak \ ::: \ Aik \
1
Aim
+1
\ ::: \ ANm = Bki
m=1 m=1

..
.
Ak \ ::: \ ANk = BkN
1

La probabilidad de estos nuevos conjuntos es:


 kP m N i h k ii
Dado i 2 f1; :::; N g IP (Bk ) =
i 
1
1 5 1 1 5 1

m =1
6 6 6 6

 1 N i " (1 k ) #N i " 1  5 k #i 1


5 1

)IP (Bki ) = 6 1
 6 6 6
5

"  k # N i "  k # i 6

= 1 5 1
1 5 1

6 6 6

N N  "  5 k #N i " 1  5 k #i
X 1 1

IP (Ak ) = 1 i 6 6 6
i =1

Utilizando el teorema del Binomio de Newton:


"  k  5 k #N "  5 k #N
5
IP (Ak ) = 1 6 1
+6 6 1 6
1 1 1

"  k #N "  k #N
) IP (Ak ) = 1 5 5 1
1

8k  1
6 6

(2) El valor esperado sera:


24
X X X N N  " km   k m#
m 5 5 ( 1)

kIP (Ak ) = k m ( 1) 6 6
k k m
1

N N 
2  m k
1


=0

  3
X X X m k
( 1)m 4 k 5 k 5 5
1

= m 6 6
m=1 k 1 k 1

Recordando que:
PN krk = 1
si 0 < r < 1
m =1
(1 r2
)

X N N 
X  5 m  1
kIP (Ak ) = m ( 1)m 6 1 
[
m
1]5
k m
2

N N   5 m 
1 =1 6

X 1

= m ( 1)m 6 1
m =1

(3) Al evaluar la formula obtenida en (2).


(N = 1) =61
5

 
(1
6)

(N = 2) 2
1 (1
+ 1
= 2: 6
5
6)
2
2 52
1
(36
36
25)
= 96
11
= 8:72
6  + 
[ 1]
6

(N = 3) 3
1
= 18
3
2
36
11
3
3 (63
6
3
53 )
108
11
+ 216
91
= 10:555444
FUENTE : EDUCATED GUESSING
SAMUEL KOTZ, DONNA F. STROUP
Problema V.2.6
Se lanzan 3 dados de 6 lados de manera independiente, a continuacion se ordenan de
mayor a menor. 
Sea X = X ; X ; X el vector de resultados.
(1) (2) (3)

(1) Calcule la funcion de distribucion de X .


(2) Las funciones marginales de X ; X ; X (1) (2) (3)

(3) >Son X ; X ; X independientes?


(1) (2) (3)

((4) Calcule IE(X ), >(IE (X ); IE (X ); IE (X )) = IE(X )?


(1) (2) (3)

Solucion:
25
(1) Los resultados posibles al lanzar 3 dados son 6 = 216. 3

Como el experimento consiste en lanzarlos al azar de manera independiente es razonable


suponer que cualquier con guracion (k ; k ; k ) tiene igual probabilidad que debera ser
1 2 3

igual a . 1
216

Sin embargo, los resultados posibles una vez que se han ordenado de mayor a menor
seran:
(k ; k ; k ) 2 f1; :::; 6g tales que k  k  k
1 2 3
3
1 2 3 [0]
Este sera el soporte de la distribucion conjunta de los dados.
Suponiendo que se tiene un tro de valores obtenidos ya ordenados de mayor a menor, la
pregunta es, > Cuantos resultados no ordenados dan ese resultado al ser ordenados ?. Si
la respuesta fuese la misma para cualquier trio entonces tambien esta distribucion sera
equiprobable, obviamente no es as.
Ahora particionaremos el soporte (0) en tres conjuntos donde el valor anterior es con-
stante.
Si (k = k = k ) [1] )
1 2 3 Hay un solo resultado posible.
Si (k = k 6= k _ k = k 6= k _ k = k 6= k ) [2] ) Hay tres resultados posibles.
1 2 3 1 3 2 2 3 1

Si (k 6= k 6= k ) [3] ) Hay seis resultados posibles.


1 2 3

En consecuencia la distribucion conjunta sera:


8 si [1] ^ [0]
< 13==216
> si [2] ^ [0]
IP [X = (k ; k ; k )] = > 6=216
216 si [3] ^ [0]
:0
1 2 3

si  [0]

(2) Para obtener la marginal de X (1) a partir de la conjunta sumamos sobre todos los
valores de k y k . 2 3

XX 6 6
X
k X
k 1 1

IP [X = k ] =(1) 1 IP [X = (k ; k ; k )] =
1 2 3 IP [X = (k ; k ; k )]
1 2 3

k2 =1 k3 =1 k2 =1 k3 k2
=

Si (k > 2)
1

26
kX
1 X
k1 1

= IP [X = (k ; k ; k )] + IP [X = (k ; k ; k )]
1 2 3 1 1 1

k2 =1 k3 k2
=

1 + kX
1 kX
1
1 1 kX
1 1

= 216 IP [X = (k ; k ; k )] + 1 2 3 IP [X = (k ; k ; k )] 1 2 1

k 2 =1 k3 k2
= k2 =1

= [3(k 1) + 1] + kX kX IP [X = (k ; k ; k )] + kX IP [X = (k ; k ; k )]
1
1 2 1 1 1 1

216 k k k 2 =1 k 2 = 2 +1
1 2 3

2 =1
1 2 2

[6(k 1) + 1] 6 kX 1 2

= 1

216 + 216 (k 1 k 1 + 1) 1 2

k
[6( k 1) + 1] 6
 2 =1

( k 1)

= 1

216 + 216 k (k 2) (k 2) (k 2) 2 1 1 1 1
1

= 6(k 2161) + 1 + 6(k216 2) (k 2 1)


1 1 1

1 [(k 1)[6 + 3(k 2)] + 1]


= 216 1 1

Se veri ca que la formula anterior sirve aun cuando k vale 1 o 2. Resumimos la proba- 1

bilidad marginal en la siguiente tabla.


k 1 IP
1 1=216
2 7=216
3 19=216
4 37=216
5 61=216
6 91=216

De manera analoga para calcular la marginal de X : (2)

XX
6 6
X X
k 6 2

IP [X = k ] =
(2) 2 IP [X = (k ; k ; k )] = 1 2 3 IP [X = (k ; k ; k )]
1 2 3

k1 =1 k3 =1 k1 k2 k3
= =1

Si (k < 6)
2

27
X X
k6 2 X
k 2

= IP [X = (k ; k ; k )] +
1 2 3 IP [x = (k ; k ; k )] 2 2 3

k1 k2
= +1 k3 =1 k3 =1

3 1 X kX 6
X 2 1 6

= 216 (k 1) + 216 +
2 IP [X = (k ; k ; k )] + IP [X = (k ; k ; k )] 1 2 3 1 2 2

k k k 1 = 2 +1 k k3 =1 1 = 2 +1

= 3(k 1) +216
2 1 + 3(6 k ) + 6 (k 1)(6 k )
216
2
2 2

1
= 216 [16 + 6(k 1)(6 k )] 2 2

La distribucion marginal sera:


k 2 IP
1 16=216
2 40=216
3 52=216
4 52=216
5 40=216
6 16=216

Finalmente para calcular la distribucion marginal de X . (3)

IP [X = k ] =
P P IP [X = (k ; k ; k )]
6 6

(3) 3 1 2 3
k1 k3 k2 k1
= =

X X6 6
X 6

= IP [X = (k ; k ; k )] +
1 2 3 IP [X = (k ; k ; k )] 3 2 3

k1 k3
= +1 k2 k1= k2 k3
=

1 + 3 (6 k ) + X 5
X
6
X 6

= 216 216 3 IP [X =(k ; k ; k )] + 1 2 3 IP [X =(k ; k ; k )]


1 1 3

k1 k3
= +1 k2 k1 = +1 k1 k3
= +1

k ) + 1 + X (6 k ) 6
= 6(6 216 3
5

k k 216 1 = 3 +1
1

36(5 k ) 3  30 + 3k (k + 1)
= 6(6 k ) + 1 +216
3 3 3 3

216

Por lo tanto la distribucion marginal de X es: (3)

28
k
3 IP
1 91=216
2 61=216
3 37=216
4 19=216
5 7=216
6 1=216
(3) Basta ver que:
IP [X = 1; X = 2; X = 3] 6= IP [X = 1]IP [X = 2]IP [X = 3]
(1) (2) (3) (1) (2) (3)

Para probar que no son independientes, lo cual es evidente sin mayores calculos.
(4)
IE (X ) = 1 + 2  +3  19 + 4216
(1)
 37 + 5  61 + 6  91 = 4; 95833

IE (X ) = 91 + 2  61 + 3  37216
(3)
+ 4  19 + 5  7 + 6  1 = 2; 014166
IE(X ) = 3; 5 (2)

Por de nicion:
X X X 6 6 6

IE (X ) = X  IP [X = (k ; k ; k )] 1 2 3

k1 k2 k1 k3 k2
) IE(X ) = IE(X ); IE (X ); IE (X )
=1 = =

(1) (2) (3)

Observacion:
El metodo utilizado para resolver este problema no es el mas corto posible. Hay tecnicas
clasicas para calcular la distribucion de los denominados, estadsticos de orden, que
requieren menos calculos, pero son mas difciles de digerir. El objetivo de resolver el
problema de esta manera es practicar el manejo de sumatorias iteradas que son muy
utilizadas en el calculo de probabilidades.
Problema V.2.7
Dos personas X e Y disponen de x e y monedas respectivamente, que apuestan de una en
una en el siguiente juego. Cada jugador lanza una de sus monedas, si salen caras distintas
el que saca cara se lleva ambas monedas, si no es empate y se sigue jugando hasta que
uno de los dos pierde todas sus monedas. Calcule el valor esperado de lanzamientos hasta
que alguno pierda cuando (x; y) vale (1,1) (2,1) (1,2) y (2,2).
29
Solucion:
Sea E (x; y) el valor buscado. El espacio muestral asociado al experimento es,


= (c; c); (s; s); (s; c); (c; s)

=
IN F = \ cilindros de
00
1 1

Para calcular E (1; 1), de namos el suceso Ak como: Ak = \ X pierde en la etapa k "
O
k  1

) Ak = (c; c); (s; s)  (s; c)
i =1

Por independencia entre lanzamientos la probabilidad de que ocurra esto es:


 1 k
 14
1

IP (Ak ) = 2
Debido a que la probabilidad de obtener cara es igual a la probabilidad de obtener sello
se tiene que:
Bk =\Y pierde en la etapa k" tiene probabilidad, IP (Bk ) = IP (Ak )
En consecuencia el valor esperado sera:
X
1 1  1 k 1 X
X 1  1 k 1 1

E (1; 1) = k  IP (Ak [ Bk ) = k 2 2= 2 k
k =1 k =1 k =1

Recordemos que:
X
1 X
N d XN ! N !
X
0<r<1) krk = Nlim
1
( r k ) = lim d r k = d lim k r
k =1
!1 k =1
dr N !1 dr k dr =1
N !1 k =1

X
1  
) k = drd 1 r r = 1(1 r r+) r = (1 1 r)
rk 1
2 2
k =1

Al aplicarlo con r = nalmente obtenemos:


1
2

E (1; 1) = 21  4 = 2
Para calcular E (2; 1), utilizamos las mismas de niciones para Ak y Bk , pero los elementos
de Ak han cambiado en consecuencia la probabilidad que X pierda ha cambiado. De
hecho no puede quebrar a la primera.
k[ O
i 
1 1
kO i  1

Ak = (c; c); (s; s)  (s; c)  (c; c); (s; s)  (s; c)
i =2 j =1 j =1

30
Entonces la probabilidad que X gane ahora es:
kX  1 k
1 2 1 2  1 k  1  2 2

IP (Ak ) =
2 4 = (k 1) 2 4
i =2

La probabilidad de que Y pierda en la etapa k no ha cambiado por lo que tenemos:

X
1 1 " 1 
X k k
#
(k 1) 21 + 21 41 + 41
2

kIP (Ak [ Bk ) =
1 2

E (2; 1) = IP (B ) + 1 k 4
k =2 k =2

" X 1  1 k X 1  1 k #
1 1
= 4 4 k(k 1) 2 + k 2
2 1

+ 41
k k =2 =2

Recordemos una vez mas que:

X
1 X1 d X1 !  1 
k (k 1)rk 2 k d
= k dr (r ) = dr kr k
1
d
= dr (1 r) 1
1 = (1 2 r)
2 3
k =2 k =2 k =2

Nuevamente al utilizar este resultado con r = : 1


2

E (2; 1) = 41  4 + 1 = 9
2
3

Como la moneda es equilibrada las posibilidades de X y de Y son iguales si tienen el


mismo numero de monedas, esto asegura que:
E (x; y) = E (y; x) 8x; y 2 IN ) E (1; 2) = 9
Para calcular E (2; 2) notamos que Bk ahora es igual al anterior conjunto Ak .
X
1  1 k  1  2 2 2

E (2; 2) = 2k(k 1) 2 4 = 4  2  4 = 16
3
2
k =2

Observacion:
Veamos como se podra calcular E (x; y) para los demas valores de x e y.
Dado que X tiene x e Y tiene y una vez que se juega una vez, pueden ocurrir 3 cosas:
(1) X pierde ) X tiene x 1 e Y tiene y + 1 con probabilidad 1

(2) X gana ) X tiene x + 1 e Y tiene y 1 con probabilidad


4
1

(3) X; Y empatan ) X tiene x e Y tiene y con probabilidad


4
1
2

31
Lo anterior permite plantear una recurrencia entre E (x; y); E (x +1; y 1) y E (x 1; y +1)
con miras a una formula general.

V.3 Esperanza y Varianza de Variables Aleatorias Absolutamente Continuas

Problema V.3.1
Sean X; Y variables aleatorias con densidad conjunta
n
f (x) = 2(x + y) 0  x  y  1
0 si no
(a) Calcule las densidades marginales de X e Y .
(b) Calcule IE(XY ).
(c) >Son X e Y independientes ?. Justi que su respuesta.
Solucion:
(a) Por de nicion:
Z 1

y y  
fX (x) = fXY (x; y)dy = 2 xy + 2 y x
2 =1

=
x   x
1
= 2 x + 2 2 x + 2 = 3x + 2x + 1 (0  x  1)
2
2
2

Zy x  x y
fY (y) = fXY (x; y)dx = 2 2 + yx x
2 =

=0

y0

2  0 = 3y (0  y  1)
2

=2 2 +y 2 2

(b) Nuevamente por de nicion:


Z Zy1 Z Zy1

IE(XY ) = xy  fXY (x; y)dxdy = y 2(x + xy)dxdy 2

x
 y Z  2
x 
0 0 0

Z 1
x y
1

= y  2 3 + 2 dy =
3 2

3 y + y dy
4 4

0
0

5 y 1 0

=
5

=
1

35 0 3
32
(c) No son independientes pues fX (x)  fY (y) 6= fXY (x; y).
A priori no es posible que las variables X e Y fuesen independientes puesto que hay
dependencia de ambas variables con respecto al dominio de la densidad conjunta, y las
marginales no pueden depender de la otra variable.
Problema V.3.2
Una v.a. X se dice que tiene ley exponencial de parametro  > 0, lo que se anota
X  e() si tiene funcion de densidad
(8x 2 IR) : fX (x) = e x1 ; 1 (x) [0 + )

Demuestre que E (X ) =  y V (X ) =  .
1 1
2

Solucion:
Dado que la v.a. X tiene funcion de densidad y P [X  0] = 1 se tiene que
Z Z1
+

E (X ) := xfX (x)dx = xe x dx


IR 0

pero como (xe x )0 = e x xe x entonces


Z Z Z x
xe x dx = e x dx (xe x )0 dx = e  xe x = e x( 1 + x)
y por lo tanto 1
E (X ) = e x( 1 + x) = 1
+

Al ser X v.a. con esperanza nita, sabemos que:


V (X ) = E (X ) [E (X )] = E (X ) 1
2 2 2
2
(1)
Por otro lado:
Z Z1
+ Z1
+

E (X ) = x fX (x)dx =
2 2
x e
2 x dx = x (e
2 x )0 dx
IR 0 0

Z1
x ) 1 +
+

=( x e 2xe xdx
+
2

0
0

33
luego como  > 0 entonces x!lim1 x e x = 0 y por lo tanto
+
2

Z1
+
2 Z1
+
2 E (X ) = 2
E (X ) = 2
2
xe x dx = xe x dx =
   2

0 0

De (1) obtenemos que:


V (X ) = 2 2
1 = 1:
 
2 2

Problema V.3.3
Una v.a. X se dice que tiene ley normal de media  y varianza  , lo que se anota 2

X  N (;  ) si tiene densidad dada por


2

(8x 2 IR) : fX (x) = p 1 e 


x  1( 2
)
2
2
Se pide que:
(a) Muestre que fX es efectivamente funcion de densidad, y que
(b) E (X ) =  ; V (X ) =  2

Solucion:
(a) Claramente (8x 2 IR) : fX (x)  0, luego para concluir que fX es funcion de densidad
habra que mostrar que:
Z
+

! 1
lim +
fX (x)dx = 1 (a1)

Consideremos la aplicacion lineal g : IR ! IR de nida por g(x) := x  entonces
resulta evidente que
Z gZ
( )

p1 e
+
x2
(8 > 0) : fx(x)dx = 2 dx

2
g
( )

Como !lim1 g( ) = +1 y !lim1 g( ) = 1 para veri car (a1) es necesario y


+ +

su ciente demostrar que:


Z 1 x +

p e dx = 1 (a2)
2
lim 2
! 1
+ 2
34
En efecto, dado > 0 se tiene que:
0Z 1 Z Z 2
Z Z 1
@ p1 e x dxA = 1e
+ + +
x y
( 2 + 2) x y
( 2 + 2)
dydx = 2 e d(x; y)
2

2
2 2 2


2 [ ;  ;
+ ] [ + ]

De niendo para cada r > 0 la region


R(r) := f(x; y) 2 IR jx + y  r g
2 2 2 2

p
es claro que R( )  [ ; + ]  [ ; + ]  R( 2 ) luego
ZZ 1 0Z 1 ZZ 2

d(x; y)  @ p1 e x dxA 
+
x y
( 2 + 2) x y
( 2 + 2)

2 e e d(x; y) (a3)
2
2 2 2
2
R ( ) Rp
( 2 )

Mediante un cambio de variable que transforme coordenadas cartesianas en polares


se tiene que
Z 1 x y
Z Z  r
2
r2
Z r2 2
(8 > 0) :
( 2+ 2)

2 e d(x; y) = 2 e ddr = re dr = 1 e
2 2 2 2

R
( ) 0 0 0

luego
ZZ 1 x y
( 2 + 2)
ZZ 1 x y
( 2 + 2)
lim 2 e d(x; y) = 1 y lim 2 e d(x; y) = 1
2 2
! 1 ! 1
Rp
+ +

R ( ) ( 2 )

de donde en virtud de (a3) podemos concluir que:


0Z 1 2

1 e x dxA = 1
+

lim @ p 2
2

! 1 + 2
R
y por lo tanto, como (8 > 0) :  e x dx > 0 de la igualdad anterior obtenemos
+
1
2
2
2

que:
Z 1 x p +

p e dx
2
lim = 1=1 2
! 1

2  +

lo que demuestra (a2) y por lo tanto (a1).


35
(b) Para determinar la esperanza y varianza de la v.a. X con ley N (;  ) nos val- 2

dremos de un hecho muy utilizado para este tipo de variable. Consideremos la v.a.
Y  X  que sabemos (pues  > 0) que tiene funcion de densidad dada por
fY (y) := fX (y + ) =   p 1 e = p1 e
y   y
(8y 2 IR) : 1 + 2 2
 2( )
2
2 2
i.e. Y  N (0; 1). De la identidad
X = Y + 
concluimos que si Y es v.a con esperanza entonces tambien lo es X y ademas
E (X ) = E (Y ) +  (b1)
V (X ) =  V (Y ) 2
(b2)
Demostraremos que E (Y ) = 0 y que V (Y ) = 1. En efecto
Z1
+ Z1 y y +
e
e
2
2
E (Y ) = yfY (y)dy = p e dy = ; lim p
2
=0
2 2
2

1 1
2 ! 1 2 +

Por otro lado como E (Y ) = 0 entonces


Z1
+ Z1 y y
+

y fY (y)dy = p  ye dy
2
V (Y ) = E (Y ) =
2 2
2

1
2 1
Z1
+

y y 0 1Z1
+
y
Z 1
+

p p
2 2
= (e ) dy =
2 e dy = fY (y)dy
2

1
2  1
2  1
De lo desarrollado en (a), como Y  N (0; 1) entonces fY es funcion de densidad
luego de la ultima expresion concluimos que: V (Y ) = 1. A partir de (b1) y (b2)
obtenemos que
E (X ) =   0 +  = 
V (X ) =   1 = 
2 2

Problema V.3.4
Sea X variable aleatoria con funcion de densidad
f (x) = ( 1 )x   11x (x)  > 0
 (1+ )
1

36
Ademas sea X ; :::; Xn una muestra aleatoria indepediente de X .
1

Calcule la probabilidad de que al menos k de estas variables tomen valores menores que
2.5 sabiendo que IE (Y ) = 3, con Y = ln X .
Solucion:
Calculemos primero la distribucion de Y = ln X
80
<y si e < 1
FY (y) = IP [Y  y] = IP [ln X  y] = IP [X  ey ] = : Re x 1  = dx si e  1
(1+ )
 1

Es claro que e < 1 ) y < Ln1 = 0


1Z x 1 x   = ey = x = = (1 ey= )
ey
 ( 1  + )= ey
 = dx =
( 1 + ) 1
(1+ ) 1

 1
1

Entonces: 0 y<0
Fy ( y ) = 1 e y y0
Ry
Observemos que 1 e y= = e s= dx, por lo tanto es una distribucion exponencial.
0

Para poder determinar el valor del parametro calculemos la esperanza de Y en funcion


del parametro. Para esto basta integrar por partes.
Z1 Z1 Z1
IE (Y ) =  ye 1 y= dy =  1
ye y= dy = ye y= 1 + e y= dy
0
0 0 0

Como  e y= es funcion de densidad entonces:


1

Z1
 e 1 y= dy = 1
0

Esto muestra que: IE (Y ) =  )  = 3


Notemos que Xi 2 [1; 2:5] , ln Xi 2 [0; ln 2:5].
La probabilidad de que las primeras j variables Xi esten entre 1 y 2:5 y el resto fuera es
igual a:
IP [1  X  2:5 ^ ::: ^ 1  Xj  2:5 ^ Xj > 2:5 ^ ::: ^ Xn > 2:5]
1 +1

37
Como es habitual con familias i.i.d., por independencia e identica distribucion lo anterior
sera igual a:
(IP [1  X  2:5])j (IP [X > 2:5])n j
1 1

=
IP [1  X  2:5] = IP [0  ln X  ln 2:5] = FX (ln 2:5) = 1 (e :
ln 2 5)
1 3

2
1 1 1
=
1 3

=1 5
2 = 1 3

IP [X > 2:5] = 1 IP [1  X  2:5] = 5


1 1

De namos p = ( ) = entonces la respuesta anterior sera (1 p)j pn j podemos escoger


n grupos distintos de j variables para que tomen los valores entre 1 y 2:5 todos con la
2 1 3
5

j
probabilidad anterior por lo tanto la probabilidad pedida sera:
k n
X 2 = 1 3

j (1 p)j pn j con p = 5
j =0

Problema V.3.5
Suponga que X  U [0; 1]. Determine los valores de t 2 IR tal que IE (X t ) sea nita.
>Cuales son esos valores?
Solucion:
Z t
IE (X t ) = xt dx = (tx+ 1) si t 6= 1
1
+1 1

Z dx
0

IE (1=X ) = x diverge
0

Luego existe 8t 6= 1 en ese caso IE(X t ) = xtt j = t +1


+1
1
0
1
+1
con t 6= 1.
Problema V.3.6
El tiempo de funcionamiento de un satelite se modela como una variable aleatoria dis-
tribuida exponencialmente con un tiempo esperado de 1.5 a~nos.
38
Si se lanzan simultaneamente 3 satelites, >Cual es la probabilidad de que despues de 2
a~nos sigan funcionando exactamente 2?
Solucion:
Sin disponer de mayor informacion es razonable suponer que hay independencia entre
los tiempos de duracion de cada satelite. La funcion de distribucion exponencial de
parametro  es:
FX (x) = 1 e x=
Como IE(X ) =  )  = 1:5 = 3=2.
De los 3 satelites podemos escoger 2 de
 maneras, estos 2 seran los que seguiran
 = 3
3
2

funcionando 3
2

Sea X ; X una de las parejas de satelites escogida para durar, calculamos:


1 2

IP [X > 2; X > 2] = IP [X > 2]  IP [X > 2] = [e


1 2 1 2
4= ] 2
=e = 8 3

Luego la probabilidad pedida es: 3


e 8 3 =  0:208.
2

Problema V.3.7
Sean X; Y variables aleatorias independientes absolutamente continuas con distribuciones
F y G respectivamente.
Calcule IE[G(X ) + F (Y )], y utilice lo anterior para calcular IE [F (X )].
Solucion:
Sabemos que 9f; g integrables tales que F (x) =
Rx f (t)dt y G(x) = Rx g(t)dt.
1 1
Como X e Y son independientes ) G(X ) y F (Y ) son independientes. Por de nicion:
Z1 Z1
IE[G(X ) + F (Y )] = IE [G(X )] + IE [F (Y )] = G(t)f (t)dt + F (t)g(t)dt
1 1

Una vez que se prueba que las integrales convergen aplicando integracion por partes se
obtiene:
Z1 Z1 d 1
[G(t)f (t) + F (t)g(t)]dt = dt [F (t)G(t)]dt = F (t)G(t) 1 = 1 0
1 1
39
En consecuencia IE [G(X ) + F (Y )] = 1 8X; Y variables aleatorias absolutamente con-
tinuas.
Sea Y copia independiente de X ) IE [2  F (X )] = 1 por lo tanto IE [F (X )] = . 1
2

Para probar que las integrales estan bien de nidas basta notar que:
Z1 Z1 Z1

G(t)f (t)dt = G(t)f (t)dt  sup jG(t)j  f (t)dt  1  1
1
1 t2IR 1
Esto pues G es distribucion y f es densidad por lo tanto la integral es nita, lo mismo
ocurre con la segunda integral lo que permite manipular las integrales aplicando el teo-
rema fundamental del calculo.
Observacion:
>Que ocurre con X; Y variables aleatorias discretas e independientes?
Otro problema interesante es calcular la distribucion de F (X ) siendo F la funcion de
distribucion de X cuando es absolutamente continua.
V.4 Funcion Caracterstica

Problema V.4.1
Dada una v.a. X se de ne la funcion 'x : IR ! Cj (llamada funcion caracterstica de X )
por
(8t 2 IR) : 'X (t) := E (eitx) = E [cos(tX )] + iE [sen(tX )]
Demostrar que:
(a) 'X (0) = 1
(b) (8t 2 IR) : j'X (t)j  1
(c) (8t 2 IR) : 'X (t) = 'X ( t)
Solucion:
En efecto de la de nicion sale que
'X (0) := E [cos(0  X )] + E [sen(0  X )] = E [1] + iE [0] = 1
lo que demuestra (a).
40
Antes de demostrar (b), recordemos que si Y es un v.a. con esperanza nita entonces
V (Y ) = E (Y ) [E (Y )] , de donde como V (Y )  0 obtenemos que [E (Y )]  E (Y ).
2 2 2 2

Dado t 2 IR como las variables aleatorias cos(tX ) y sen(tX ) son acotados, en particular
tienen esperanza nita. De lo anterior sale que:
(1) fE [cos(tX )]g  E [cos (tX )]
2 2

(2) fE [sen(tX )]g  E [sen (tX )]


2 2

Al sumar (1) con (2) obtenemos que:


fE [cos(tX )]g + fE [sen(tX )]g  E [cos (tX )] + E [sen (tX )]
2 2 2 2

= E [cos (tX ) + sen (tX )]


2 2

= E [1] = 1
y por lo tanto como j'X (t)j :=
pfE [cos(tX )]g + fE [sen(tX )]g , de la desigualdad
2 2

anterior concluimos que:


j'X (t)j  1
lo que demuestra (b).
Por otro lado, recordando que las funciones trigonometricas sen() y cos() son funciones
impar y par respectivamente, es directo que
(8t 2 IR) : 'X (t) := E [cos(tX )] iE [sen(tX )] = E [cos( tX )] + iE [sen( tX )]
=: 'X ( t)
lo que demuestra (c).
Problema V.4.2
Demostrar que si X e Y son variables aleatorias independientes, entonces
(8t 2 IR) : 'X Y (t) = 'X (t)  'Y (t)
+

Concluir que (8a; b 2 IR)(8t 2 IR) : 'aX b(t) = eitb'X (at).


+

Solucion:
En efecto, recordando las identidades trigonometricas:
cos( + ) = cos cos sen sen
sen( + ) = sen cos + cos sen
41
se tiene que
(8t 2 IR) : cos[t(X + Y )] = cos(tX )cos(tY ) sen(tX )sen(tY ) (1)
(8t 2 IR) : sen[t(X + Y )] = sen(tX )cos(tY ) + cos(tX )sen(tY ) (2)
Por otro lado dado t 2 IR como X e Y son independientes se tendra por ejemplo que
cos(tX ); cos(tY ) son idenpendientes, y por lo tanto como cos(tX ) y cos(tY ) son v.a. con
esperanza nita, sabemos que:
E [cos(tX )cos(tY )] = E [cos(tX )]E [cos(tY )] (4)
Analogamente se deduce que:
E [sen(tX )sen(tY )] = E [sen(tX )]E [sen(tY )] (5)
E [sen(tX )cos(tY )] = E [sen(tX )]E [cos(tY )] (6)
E [cos(tX )sen(tY )] = E [cos(tX )]E [sen(tY )] (7)
Al tomar esperanza en (1), (2) y luego usar las igualdades (4), (5), (6) y (7) se obtiene
que (8t 2 IR) :
'X Y (t) := E [cos(tX )]E [cos(tY )] E [sen(tX )]E [sen(tY )]
+

+ iE [sen(tX )]E [cos(tY )] + iE [cos(tX )]E [sen(tY )]


= E [cos(tX )]  f E [cos(tY )] + iE [sen(tY )] g
+ i E [sen(tX )]  f E [cos(tY )] + i E [sen(tY )] g
= E [cos(tX )]'Y (t) + iE [sen(tX )]'Y (t)
= fE [cos(tX )] + iE [sen(tX )]g'Y (t)
= 'X (t)  'Y (t)
i.e. (8t 2 IR) : 'X Y (t) = 'X (t)  'Y (t).
+

Destacamos que inductivamente se demuestra que si X ; :::; Xn son variables aleatorias


1

independientes entonces
(8t 2 IR) : 'X ::: Xn (t) = 'X (t)  :::  'Xn (t):
1+ + 1

Demostremos ahora que dados a; b 2 IR


(8t 2 IR) : 'aX b(t) = eitb 'X (at)
+

En efecto al de nir las variables aleatorias


X := aX; X := b
1 2

42
como X es v.a. constante entonces es independiente de cualquier otra v.a. ,en particular
2

de X . Aplicando lo recien demostrado, obtenemos que


1

(8t 2 IR) : 'X X (t) = 'X (t)  'X (t)


1+ 2 1 2 (7)
Pero dado t 2 IR es claro que
'X (t) := E [cos(t  aX )] + iE [sen(t  aX )] = E [cos(at  X )] + iE [sen(at  X )]
1

=: 'X (at)
y ademas
'X (t) := E [cos(t  b)] + iE [sen(t  b)] = cos(tb) + isen(tb) := eitb
2

por lo tanto, de (7) obtenemos que


(8t 2 IR) : 'aX b(t) = eitb 'X (at):
+

Problema V.4.3
Demostrar que si X; Y son v.a. y FX ; FY son su respectivas funciones de distibucion
entonces
'X = 'Y , FX = FY

Solucion:
Demostremos primero que si
FX = FY ) 'X = 'Y
En efecto, dado t 2 IR como X e Y tiene igual distribucion entonces
(1) cos(tX ); cos(tY ) tienen igual distribucion, y
(2) sen(tX ); sen(tY ) tienen igual distribucion

lo anterior pues si de nimos para cada u 2 IR el conjunto


C (u) := fx 2 IR tal que cos(tx)  ug
entonces como X e Y tienen igual distribucion se tiene que
(8u 2 IR) : P [X 2 C (u)] = P [y 2 C (u)]
43
de donde
(8u 2 IR) : P [cos(tX )  u] = P [X 2 C (u)] = P [y 2 C (u)] = P [cos(tY )  u]
i.e. cos(tX ); cos(tY ) tienen igual distribucion, lo que demuestra (1). Un argumento
analogo demuestra (2).
Finalmente, usando que si dos v.a. tienen igual distribucion entonces una de ellas tiene
esperanza nita si y solo si la otra tiene esperanza nita, en cuyo caso ambas esperanzas
coinciden, de (1) y (2) sale que E [cos(tX )] = E [cos(tY )] y E [sen(tX )] = E [sen(tY )].
De esto se deduce trivialmente que 'X (t) = 'Y (t), y por lo tanto, como lo anterior se
tiene para todo t 2 IR, concluimos que 'X = 'Y .
Procedemos ahora a demostrar que si
'X = 'Y ) FX = FY
Para esto, aceptaremos el siguiente resultado (cuya demostracion se escapa a los objetivos
del presente curso).
Lema: Si Z es una v.a., FZ es la funcion de distribucion de Z y 'Z es la funcion
caracterstica de Z entonces (8a < b) :

FZ (a) + FZ (a ) = 1 lim Z e
T ita itb
FZ (b) + FZ (b ) e
+

2 2 2 T ! 1 + it 'Z (t)dt
T

En particular, si a y b son puntos de continuidad de FZ entonces FZ (a) = FZ (a ) y


FZ (b) = FZ (b ), de donde por el lema sale que:

1 Z T e ita e itb
+

FZ (b) FZ (a) = 2 T !lim1 + it 'Z (t)dt (3)


T
Basados en (3) demostraremos que FX = FY . En fecto, dado que FX e FY son funciones
crecientes, ellas tienen a lo mas una cantidad numerable de discontinuidades. Sean
DX := fx 2 IR tal que x es punto de discontinuidad de FX g, y
DY := fx 2 IR tal que x es punto de discontinuidad de FY g
entonces claramente D := DX [ DY es un conjunto numerable. Como 'X = 'Y entonces
ZTe
+
ita e itb ZTe
+
ita e itb
(8a < b)(8T > 0) : it 'X (t)dt = it 'Y (t)dt
T T
44
de donde por (3) obtenemos que
(8b 2 IR n D) : FX (b) = FY (b) (6)
De este modo hemos probado que FX y FY coinciden fuera de D. Para concluir bastara
demostrar que si b 2 D entonces FX (b) = FY (b). En efecto, como D es numerable
entonces dado cualquier numero real existe una sucesion decreciente de elementos fuera D
convergente a dicho numero. En particular, dado b 2 D se tendra que 9(bn)n2IN  IR n D
tal que bn #n b. De (6) sale que
(8n 2 IN ) : FX (bn ) = FY (bn) (7)
pero como FX e FY son funciones de distribucion en particular son continuas por la
derecha, luego como
h i
bn #n b ) lim F (b ) = FX (b) ^ lim
n x n
F (b ) = FY (b)
n Y n
En virtud de (7) concluimos que FX (b) = FY (b). Como lo anterior se tiene para cada
b 2 D, de (6) obtenemos que
(8b 2 IR) : FX (b) = FY (b)
i.e. FX = FY .
Problema V.4.4
Demostrar que:
(a) Si X  P () con  > 0 entonces (8t 2 IR) : 'X (t) = e eit ( 1)

(b) Concluya que si X ; X son v.a. independientes tales que X  P ( ) y X  P ( )


entonces X + X  P ( +  )
1 2 1 1 2 2

1 2 1 2

Solucion:
(a) En efecto, dado t 2 IR como X es v.a. discreta se tiene por de nicion que
X1
+
X1
+

'X (t) := E [cos(tX )] + iE [sen(tX )]= cos(tk)P [X = k] + i sen(tk)P [X = k]


k=0 k =0

X1
+
X1
+
k e  X1 (eit )k
+

= eitk P [X = k] = eitk k! = e 
k!
k =0 k =0 k =0
it it
= e ee = e e ( 1)

45
i.e. (8t 2 IR) : 'X (t) = e eit .
( 1)

(b) En efecto si X ; X son v.a. independientes de (a) es claro que


1 2

(8t 2 IR) : 'X X (t) = 'X (t)  'X (t) = e eit  e eit
1+ 2 1 2
1( 1) 2( 1)

it
=e  e ( 1 + 2 )( 1)

De lo hecho en (a), vemos que la v.a. X + X tiene la misma funcion caracterstica


que una v.a. P ( +  ), luego necesariamente X + X  P ( +  ).
1 2

1 2 1 2 1 2

Problema V.4.5
Un v.a. X se dice simetrica en torno a cero si (8x  0) : P [X  x] = P [X  x].
Demostrar que:
X es simetrica en torno a cero si y solo si (8t 2 IR) : 'X (t) 2 IR

Solucion:
Demostremos primero que

(1) X es simetrica en torno a cero ssi FX = F X

En efecto, si X es simetrica en torno a cero en particular se tiene que


(8t 2 IR) : FX (t) := P [X  t] = P [X  t] = P [ X  t] =: F X (t)
i.e. FX = F X . Reciprocamente, si FX = F X entonces (8x  0) : F X ( x) = FX ( x)
o equivalentemente (8x  0) : P [ X  x] = P [X  x] i.e.
(8x  0) : P [X  x] = P [X  x]
luego X es v.a. simetrica en torno a cero, lo que demuestra (1).
De (1), vemos que para demostrar la equivalencia pedida es necesario y su ciente de-
mostrar que:
FX = F X , (8t 2 IR) : 'X (t) 2 IR
En efecto, del problema anterior sabemos que:
FX = F X , 'X = ' X , (8t 2 IR) : 'X (t) = ' X (t)
Como (8t 2 IR) : ' X (t) = 'X (t) de las equivalencias anteriores se obtiene nalmente
que:
FX = F X , (8t 2 IR) : 'X (t) = 'X (t) , (8t 2 IR) : 'X (t) 2 IR:

46

Vous aimerez peut-être aussi