Vous êtes sur la page 1sur 32

ESTADSTICA II AO 2005

PRCTICA 7: VARIABLES ALEATORIAS MLTIPLES



EJERCICIO 1 (CANAVOS 6.5)

a) p
X
(x) = P (X = x) = P ('X = x; 'Y = 1;) + P ('X = x; 'Y = 0;) + P ('X = x; 'Y = 1;)
dado que 'Y = 1;, 'Y = 0; y 'Y = 1; son eventos disjuntos. Por lo tanto:
p
X
( 1 ) = 1/16 + 3/16 + 1/16 = 5/16
p
X
(0) = 3/16 + 0 + 3/16 = 6/16
p
X
(1) = 1/16 + 3/16 + 1/16 = 5/16
Entonces, para hallar la funcin de cuanta para X = 1 simplemente debemos sumar la
primera columna, para X = 0 la segunda y para X = 1 la tercera.
En cuanto a la funcin de probabilidad marginal para la variable Y, el razonamiento es el
mismo, pero en este caso sumamos las filas. Esta consideracin la resumimos en el
siguiente cuadro:

X = - 1 X = 0 X = 1 P
Y
(y)
Y = - 1 1/16 3/16 1/16 5/16
Y = 0 3/16 0 3/16 6/16
Y = 1 1/16 3/16 1/16 5/16
P
X
(x) 5/16 6/16 5/16

De ello deducimos que X y Y tienen la misma distribucin, pues coinciden sus
recorridos y su funcin de cuanta.
.
b) Las variables aleatorias son estadsticamente independientes p
XY
(x, y) = p
X
(x) p
Y
(y)
para todo x Rec (X), y Rec (Y). Pero, por ejemplo: 0 = p
XY
(0, 0) p
X
(0) p
Y
(0) = 6/16 x
6/16 y por lo tanto no son independientes. Obsrvese que alcanza con que en un solo
caso no se cumpla que p
XY
(x, y) = p
X
(x) p
Y
(y) para que podamos afirmar que X e Y no son
independientes.

c) Por definicin Cov (X, Y) = E (XY) E(X).E(Y) y E(XY) =

Y c Re y
X c Re x
XY
) y , x ( p y x y entonces:
E(XY) = ( 1) ( 1) (1/16) + ( 1) 0 (3/16) + ( 1) ( 1) (1/16) + ... + (1) (1) (1/16) = 0.
E(X) = ( 1) (1/16) + 0 (6/16) + (1) (1/16) = 0.
Por lo tanto, Cov (X, Y) = 0, es decir que dichas variables son incorrelacionadas a pesar
de que no son independientes.
Ms adelante veremos que si X y Y tienen distribucin normal y son incorrelacionadas,
entonces necesariamente son independientes. Sin embargo queda claro con este
ejemplo, que dicha propiedad no se cumple siempre.

EJERCICIO 2 (Examen Setiembre 1998)

X Bernoulli (p) y Y Bernoulli (1

p) independientes.

1) Si T = X Y, entonces Rec (T) = ' 1, 0, 1;
Recordando que son independientes:
p
T
( 1) = p
XY
(0, 1) = p
X
(0).p
Y
( 1) = (1 p) (1 p) = (1 p)
2

p
T
(0) = p
XY
(0, 0) + p
XY
(1, 1) = p
X
(0).p
Y
(0) + p
X
(1).p
Y
(1) = (1 p) p + p (1 p) = 2 p (1 p)
p
T
(1) = p
XY
(1, 0) = p
X
(1).p
Y
(0) = p.p = p
2

Entonces:
t P
T
(t)
-1 (1 p)
2

0 2.p.(1 p)
1 p
2





2) Para U = T + 1 slo cambia el recorrido por = '0, 1, 2;, las probabilidades permanecen
pues P(U = u) = P(T+1 = u) = P(T = u 1):
p
U
(0) = (1 p)
2

p
U
(1) = 2 p (1 p)
p
U
(2) = p
2

Entonces U tiene distribucin Binomial(2, p).

EJERCICIO 3 (EXAMEN FEBRERO 1997)

a) En primer lugar determinemos el recorrido de las variables W y T. Como Rec X = ' 1,
0, 1; y Rec Y = ' 1, 1;, entonces Rec W = ' 2, 1, 0, 1, 2; y Rec T = ' 1, 0, 1;.

p
W
( 2 ) = p
XY
( 1, 1) = (independencia) = p
X
( 1).p
Y
( 1) = 1/4.2/3 = 1/6
p
W
( 1 ) = p
XY
(0, 1) = p
X
(0).p
Y
( 1) = 1/4.2/3 = 1/6
p
W
(0 ) = p
XY
( 1, 1) + p
XY
(1, 1) = p
X
( 1).p
Y
(1) + p
X
(1).p
Y
( 1) = 1/4.1/3 + 1/2.2/3 = 5/12
p
W
(1) = p
XY
(0,1) = p
X
(0).p
Y
(1) = 1/4.1/3 = 1/12
p
W
(2) = p
XY
(1, 1) = p
X
(1).p
Y
(1) = 1/2.1/3 = 1/6

p
T
( 1) = p
XY
( 1, 1) + p
XY
(1, 1) = p
X
( 1).p
Y
(1) + p
X
(1).p
Y
( 1) = 1/4.1/3 + 1/2.2/3 = 5/12
p
T
(0) = p
X
(0) = 1/4
p
T
(1) = p
XY
( 1 , 1) + p
XY
(1, 1) = p
X
( 1).p
Y
( 1) + p
X
(1).p
Y
(1) = 1/4.2/3 + 1/2.1/3 = 1/3


b) W y T No son independientes. Si lo fueran, entonces debera ser p
WT
(w,t) = p
W
(w).p
T
(t)
para todo el recorrido de (W, T). Pero en este caso p
WT
(0, 0) = 0, pues el suceso (W = 0, T = 0)
es imposible, mientras que p
W
(0).p
T
(0) = 5/12. 0.


EJERCICIO 4 (NOVALES 7.13)

Una funcin p
XY
(x, y) es una funcin de probabilidad bivariante si y slo si p
XY
(x, y) 0 y

+
Y c Re y
X c Re x
21
y x
= 1.
Es obvio que p
XY
(x, y) 0 para x = 1, 2, 3 y y = 1, 2. Adems:

+
Y c Re y
X c Re x
21
y x
=
21
1 1+
+
21
2 1+
+
21
1 2 +
+
21
2 2 +
+
21
1 3 +
+
21
2 3 +
= 1.

Calculemos las funciones de probabilidad marginales:
a) p
X
(x) =

+
Y c Re y
21
y x
=
21
1 x +
+
21
2 x +
=
21
3 x 2 +
para x = 1, 2, 3.
b) P
Y
(y) =

+
X c Re x
21
y x
=
21
y 1+
+
21
y 2 +
+
21
y 3 +
=
21
y 3 6 +
=
7
y 2 +
para y = 1, 2.

Hallemos ahora sus esperanzas y varianzas:
E(X) = 1.
21
3 1 . 2 +
+ 2.
21
3 2 . 2 +
+ 3.
21
3 3 . 2 +
=
21
6 4
.
E(Y) = 1.
7
1 2 +
+ 2.
7
2 2 +
=
7
11
.

E(X
2
) = 1
2
.
21
3 1 . 2 +
+ 2
2
.
21
3 2 . 2 +
+ 3
2
.
21
3 3 . 2 +
=
21
114
=
7
38
.

V(X) =
7
38

2
21
46

,
_

=
441
278
.

E(Y
2
) = 1
2
.
7
1 2 +
+ 2
2
.
7
2 2 +
=
7
19
.
V(Y) =
7
19

2
7
11

,
_

=
49
12
.

Por otra parte, observemos que las variables no son independientes pues:
p
XY
(x, y) =
21
y x +

21
3 x 2 +
.
7
y 2 +
= p
X
(x) p
Y
(y)

Entonces: 2 , 1
3 . 2
21
3 . 2
21
) (
) , (
) / (
/

+
+

+
+

y
x
y x
x
y x
x p
y x p
x y p
X
XY
x X Y


Calculemos ahora la distribucin condicional de Y dado X = 3:

p
Y/X
(y/3) =
) 3 ( p
) y , 3 ( p
X
Y X
=
21
3 3 . 2
21
y 3
+
+
=
9
y 3 +
para y = 1, 2.
E(Y/X=3) = 1.
9
1 3 +
+ 2.
9
2 3 +
=
9
14
; E(Y
2
/X=3) = 1
2
.
9
1 3 +
+ 2
2
.
9
2 3 +
=
9
24


Por lo tanto:
V(Y/X=3) =
9
24

2
9
14

,
_

=
81
20
.

EJERCICIO 5 (CANAVOS 6.3)


1) La funcin de distribucin conjunta acumulativa de una funcin de densidad es:
F
XY
(x,y) =


x y
XY
dv du ) v , u ( f

Nota: recurdese que las variables de integracin se cambian para no confundirlas con los
lmites de integracin.
Para calcular F
XY
(x,y) (x,y) de R
2
es necesario, en este caso, dividir el plano R
2
en regiones,
determinadas por el rectngulo donde f
XY
(x,y) > 0.



R
1
R
4
R
5
3
R
1
R
1
R
2
R
3


1
R
1
R
1
R
1

1 2



Entonces:

-En R
1
: F
XY
(x,y) = 0 para x 1 y/o y 1, pues en ese caso f
XY
(x,y) = 0.
-En R
2
: F
XY
(x,y) =

x
1
y
1
XY
dv du ) v , u ( f =


x
1
y
1
dv du
5
v u 3
= du
5
2 / v v u 3
y
1
x
1
2

x
1
2
du
5
2 / 1 u 3
5
2 / y y u 3
=
x
1
2 2 2
5
2 / u ) 2 / u ( 3
5
) 2 / y ( u y ) 2 / u ( 3

5
2 / x ) 2 / x ( 3
5
) 2 / y ( x y ) 2 / x ( 3
2 2 2
5
2 / 1 ) 2 / 1 ( 3
5
) 2 / y ( y ) 2 / 1 ( 3
2

=
10
2 y y 3 x x 3 y x y x 3
2 2 2 2
+ + +
para 1 < x < 2, 1 < y < 3.
-En R
3
: F
XY
(x,y) = F
XY
(2,y) para x 2, 1 < y < 3, pues si x 2 entonces f
XY
(x,y) = 0.
Por ello F
XY
(x,y) = F
XY
(2,y) =
10
2 y y 3 2 4 . 3 y 2 y 4 . 3
2 2
+ + +
=
10
8 y y 9
2

.
-En R
4
: F
XY
(x,y) = F
XY
(x,3) para 1 < x < 2, y 3 por lo mismo que en c)
Por lo tanto F
XY
(x,y) = F
XY
(x,3) =
10
2 3 3 . 3 x x 3 3 x 3 x 3
2 2 2 2
+ + +
=
10
2 x 8 x 6
2
+
.
-En R
5
: F
XY
(x,y) = F
XY
(2,3) = 1 para x 2, y 3.


2) P(X<3/2Y<2) = F
XY
(3/2, 2) =
10
2 2 2 . 3 2 / 3 ) 2 / 3 ( 3 2 ) 2 / 3 ( 2 , ) 2 / 3 ( 3
2 2 2 2
+ + +
=
40
9
.

3) F
X
(x) = ) y , x ( F lim
XY
y +
= F
XY
(x,3) =
10
2 x 8 x 6
2
+
como en d) para 1 < x < 2
F
X
(x) = 0 si x 1; y F
X
(x) = 1 si x 2.
F
Y
(y) = ) y , x ( F lim
XY
x +
= F
XY
(2,y) =
10
8 y y 9
2

como en c) para 1 < y < 3.
F
Y
(y) = 0 si y 1; y F
Y
(y) = 1 si y 3.

4) f
X
(x) = F
X
(x) =
10
8 x 12
=
5
4 x 6
para 1 < x < 2.
f
X
(x) = F
X
(x) = 0 para x 1 y x 2.

f
Y
(y) = F
Y
(y) =
10
y 2 9
para 1 < y < 3.
f
Y
(y) = F
Y
(y) = 0 para y 1 y y 3.


5) Recordemos las siguientes frmulas:
Cov(X,Y) = E(XY) E(X).E(Y); (X,Y) =
) Y ( V ) X ( V
) Y , X ( Cov


E(XY) =

+

+

dy dx ) y , x ( f y x
XY
=


2
1
3
1
dy dx
5
y x 3
y x =


2
1
3
1
2 2
dy dx
5
xy y x 3
=
dx
5
) 3 / y ( x ) 2 / y ( x 3
2
1
3
1
3 2 2


= dx
5
) 3 / 1 ( x ) 2 / 1 ( x 3
5
) 3 / 3 ( x ) 2 / 3 ( x 3
2
1
3 2 2 3 2 2

=
dx
5
3 / x 2 / x 3
5
x 9 2 / x 27
2
1
2 2

= dx
30
x 2 x 9
30
x 54 x 81
2
1
2 2

= dx
30
x 52 x 72
2
1
2


=

2
1
2 3
30
x 26 x 24
=

30
2 . 26 2 . 24
2 3
30
1 . 26 1 . 24
2 3

= 3.

E(X) =

2
1
x
5
4 x 6
dx =
2
1
2 3
5
x 2 x 2
=
5
8
.
E(X
2
) =

2
1
x
2
5
4 x 6
dx =
2
1
3 4
5
3 / x 4 2 / x 3
=
2
1
3 4
30
x 8 x 9
=
30
79
.
V(X) =
30
79

2
5
8

,
_

=
150
11
.

E(Y) =

3
1
y
10
y 2 9
dy =
3
1
3 2
10
3 / y 2 2 / y 9
=
3
1
3 2
60
y 4 y 27
=
15
28
.
E(Y
2
) =

3
1
y
2

10
y 2 9
dy =
3
1
4 3
10
2 / y y 3
=
3
1
4 3
20
y y 6
=
5
19
.
V(Y) =
5
19

2
15
28

,
_

=
225
71
.

Por lo tanto:
Cov(X,Y) = 3
5
8
.
15
28
=
75
1
.
(X,Y) =
225 / 71 150 / 11
75 / 1
= 0,08765.


EJERCICIO 6

1) Para que f
XY
sea densidad es necesario que

1
0
1
0
k x y dx dy = 1. Por lo tanto:

1
0
1
0
k x y dx dy =

1
0
k x
1
0
2
2
y
dx =

1
0
k x
2
1
dx = k
1
0
2
4
x
=
4
k
= 1
Y entonces k = 4.
2) f
X
(x) =

1
0
4 x y dy = 4 x
1
0
2
2
y
= 2x si 0 x 1, y 0 en otro caso.
f
Y
(y) =

1
0
4 x y dx = 4 y
1
0
2
2
x
= 2y si 0 y 1, y 0 en otro caso..
3) f
X/Y
(x/y) =
) y ( f
) y , x ( f
Y
XY
=
y 2
y x 4
= 2x = f
X
(x) x [0,1] si y (0,1].
E(X/Y) =

1
0
x f
X/Y
(x/y) dx =

1
0
x f
X
(x) dx =

1
0
2 x
2
dx = 2
1
0
3
3
x
= 2/3.
Ntese que la variable aleatoria E(X/Y) es una constante, es decir, que toma el valor 2/3
con probabilidad 1 y adems, que en la cadena de igualdades el tercer miembro es E(X).

4) S, son independientes pues f
XY
(x,y) = f
X
(x).f
Y
(y) (x,y) R
2
(incluso se cumple la
igualdad fuera del cuadrado).



Nota: obsrvese que en el anlisis de la independencia se consideran todos los valores que
pueden tomar las respectivas densidades, ya que stas toman un valor determinado en una
determinada regin del plano y cero en el resto (OJO: en las revisiones o exmenes se
pierden puntos por esto).

EJERCICIO 7 (EXAMEN DE MAYO DE 1998)

1) La probabilidad solicitada es:
P(X > 0,5, Y > 0,5) =

+
1
5 , 0
1
5 , 0
3 3
dy dx ) y x ( 2 =

+
1
5 , 0
1
5 , 0
4
3
dx )
4
y
y x ( 2 =

+
1
5 , 0
3
dx )
32
15
x ( =

1
5 , 0
4
) x
32
15
4
x
( + = .
32
15

2) Para hallar (X, Y) debemos hallar previamente E(XY). E(X) y E(Y):
f
X
(x) =

+
1
0
3 3
dy ) y x ( 2 =
1
0
4
3
)
4
y
y x ( 2 + = 2 x
3
+ 1/2.
E(X) =

+
1
0
3
dx ) 2 / 1 x 2 ( x =
1
0
2 5
x
4
1
x
5
2
+ =
4
1
5
2
+ =
20
13
.
E(X
2
) =

+
1
0
3 2
dx ) 2 / 1 x 2 ( x =
1
0
3 6
x
6
1
x
3
1
+ =
6
1
3
1
+ =
2
1
.
V(X) =
2
20
13
2
1

,
_

= 0,0775.

E(XY) =

+
1
0
1
0
3 3
dy dx ) y x ( 2 y x =

+
1
0
1
0
5 2
4
dx )
5
y
x
2
y
x ( 2 =

+
1
0
4
dx )
5
1
x 2 x =
1
0
2 5
5
x
5
x
+ =
5
2


Por lo tanto:
(X, Y) =
) Y ( V ) X ( V
) Y , X ( Cov
= (idntica distrib.) =
) X ( V ) X ( V
) X ( E ) XY ( E
2

=
0775 , 0
20
13
5
2
2

,
_

= 0,29.

La conclusin de este problema es que predominan en la poblacin las familias que viajan en
Semana de Carnaval y no viajan en Semana de Turismo y viceversa.


EJERCICIO 8 (EXAMEN FEBRERO 2001)


1) Debe cumplir que

1
0

1
0

,
_

+ y c x
4
3
x dx dy = 1. Entonces:

1
0

1
0

,
_

+ y c x
4
3
x dx dy =

1
0
1
0
2 2
y x
2
c
y x
4
3

,
_

+ dx =

1
0

,
_

+ x
2
c
x
4
3
2
dx =
1
0
2 3
x
4
c
x
4
1

,
_

+ =
4
c 1+
= 1 c = 3.

2) F
XY
(x, y) = 0, si x 0 y 0. Cuando 0 x 1 y 0 y 1, se obtiene:
F
XY
(x, y) = (cambiamos las variables de integracin) =

x
0

y
0

,
_

+ v 3 u
4
3
u du dv =

x
0
y
0
2 2
v u
2
3
v u
4
3

,
_

+ dx =

x
0

,
_

+
2 2
y u
2
3
y u
4
3
dx =
x
0
2 2 3
y u
4
3
y u
4
1

,
_

+ =
2 2 3
y x
4
3
y x
4
1
+ , si 0 x 1, 0 y 1.
F
XY
(x, y) = F
XY
(x, 1) =
2 3
x
4
3
x
4
1
+ , si 0 x 1, y > 1 (pues luego de 1 integro ceros)
F
XY
(x, y) = F
XY
(1, y) =
2
y
4
3
y
4
1
+ , si x > 1, 0 y 1.
F
XY
(x, y) = 1, si x > 1, y > 1.

3) No son independientes.
F
X
(x) =
+ y
lim F
XY
(x, y) =

'

1 x si 1
1 x 0 x
4
3
4
x
0 x si 0
2
3

F
Y
(y) =
+ x
lim F
XY
(x, y) =

'

1 y si 1
1 y 0 y
4
3
4
y
0 y si 0
2

Y por lo tanto, no se verifica que: F
X
(x) F
Y
(y) = F
XY
(x, y) (x, y) R
2


4) P ( X < 0.3, Y < 1.4 ) = P ( X < 0.3, Y < 1 ) =
2 3
3 , 0
4
3
3 , 0
4
1
+ = 0.07425 (observar que
estamos en la tercera regin).

5) Debemos hallar E(X/Y=y) y, para ello, previamente, f
Y
(y) y f
X/Y=y
(x/y):
f
Y
(y) = F
Y
(y) =

'

+
caso otro en 0
1 y 0 y
2
3
4
1

f
X/Y=y
(x/y) =
) y ( f
) y , x ( f
Y
XY
=
y 2 / 3 4 / 1
) y 3 x 4 / 3 ( x
+
+
=
y 6 1
y x 12 x 3
2
+
+
, para 0 x 1, 0 y 1
= 0, en otro caso

Finalmente, podemos hallar E(X/Y=y) y: f
Y
(y) es distinto de cero:
E(X/Y=y) =

1
0
x
y 6 1
y x 12 x 3
2
+
+
dx =
1
0
3 4
y 6 1
y x 4 x 4 / 3
+
+
=
y 24 4
y 16 3
+
+
, si 0 y 1



EJERCICIO 9 (Primera Revisin de 1996)

Sabemos que: f
Y/X
(y/x) =
) x ( f
) y , x ( f
X
XY

Y por lo tanto: E(Y/X) =

+

y
) x ( f
) y , x ( f
X
XY
dy
Recordemos en este punto que E(Y/X) es la variable aleatoria que toma los valores

+

y
) x ( f
) y , x ( f
X
XY
dy con las mismas probabilidades que X, es decir, f
X
.

Y entonces, por definicin de la esperanza de una funcin de una v.a.:

E [E(Y/X)] =

+

(

+

y
) x ( f
) y , x ( f
X
XY
dy) f
X
(x) dx = (como f
X
es constante respecto a y) =

+

(

+

y
) x ( f
) y , x ( f
X
XY
f
X
(x) dy) dx =

+

(

+

y f
XY
(x,y) dy) dx = (cambio el orden de
integracin y saco la y de la integral respecto a x) =

+

y (

+

f
XY
(x,y) dx) dy
Ahora bien, como (

+

f
XY
(x,y) dx ) = f
Y
(y), nos queda que:
E [E(Y/X)] =

+

y f
Y
(y) dy = E(Y) E
X
[E(Y/X)] = E(Y)

EJERCICIO 10 (NOVALES 7.9)

Vamos a hacer las demostraciones suponiendo que X e Y son variables aleatorias
continuas. Si X e Y son discretas, el argumento de las demostraciones es el mismo,
cambiando integrales por sumatorias y densidades por cuantas.
a) Cov [X, E(Y/X)] = E [X E(Y/X)] E(X) E[E(Y/X)] = E(XY) E(X) E(Y)
La ltima igualdad se cumple dado que E[E(Y/X)] = E(Y) : en el ejercicio 9 demostramos esto
para el caso continuo; el caso discreto es similar y se puede demostrar para cualquier variable
aleatoria (recuerde que una v.a. no tiene porqu ser continua o discreta, puede ser mixta).
Tambin se cumple que E [X E(Y/X)] = E(XY). Probemos esto para el caso continuo:
Como vimos en el ejercicio 9: E(Y/X) =

+

y
) x ( f
) y , x ( f
X
XY
dy es una funcin que depende de X (y
no de Y) E(X.E(Y/X)) es la esperanza de una funcin de X E(X.E(Y/X)) = E
X
(X.E(Y/X)).
E [X E(Y/X)] = E [ X (

+

y
) x ( f
) y , x ( f
X
XY
dy)] =

+

x (

+

y
) x ( f
) y , x ( f
X
XY
dy) f
X
(x) dx =
=

+


+

y x f
XY
(x,y) dx dy = E(XY)
Adems, E[E(Y/X)] = E(Y) como ya vimos en el ejercicio anterior. Entonces:
Cov [X, E(Y/X)] = E(XY) E(X) E(Y) = Cov(X,Y).

b) Por definicin es: V(X/Y) = E(X/Y E(X/Y))
2
= E(X
2
/Y) E
2
(X/Y) y de acuerdo a lo que se
probar en la parte e) de este mismo ejercicio resulta:
E(X
2
/Y) =

+

2
x
) y ( f
) y , x ( f
Y
XY
dx. Por ello tenemos que:
E
Y
[V(X/Y)] =

+

(

+

2
x
) y ( f
) y , x ( f
Y
XY
dx) f
Y
(y) dy (

+

(

+

x
) y ( f
) y , x ( f
Y
XY
dx )
2
f
Y
(y) dy)
V
y
[E(X/Y)] =

+

(

+

x
) y ( f
) y , x ( f
Y
XY
dx )
2
f
Y
(y) dy (

+

(

+

x
) y ( f
) y , x ( f
Y
XY
dx ) f
Y
(y) dy)
2

Como el segundo miembro de E
Y
[V(X/Y)] y el primero de V
y
[E(X/Y)] son, en valor absoluto,
iguales pero con signos opuestos nos queda que:
E
Y
[V(X/Y)] + V
y
[E(X/Y)] =
=

+

(

+

2
x
) y ( f
) y , x ( f
Y
XY
dx) f
Y
(y) dy (

+

(

+

x
) y ( f
) y , x ( f
Y
XY
dx ) f
Y
(y) dy)
2
=
si invertimos ahora los rdenes de integracin en ambos miembros:
=

+

2
x (

+
) y ( f
) y , x ( f
Y
XY
f
Y
(y) dy ) dx (

+

x (

+
) y ( f
) y , x ( f
Y
XY
f
Y
(y) dy ) dx )
2
=
finalmente observando que

+
) y ( f
) y , x ( f
Y
XY
f
Y
(y) dy =

+

f
XY
(x,y) dy = f
X
(x):
=

+

2
x f
X
(x) dx (

+

x f
X
(x) dx )
2
= E(X
2
) E
2
(X) = V(X).


c) E [g(X).Y/X] =

+

y ) x ( g
) x ( f
) y , x ( f
X
XY
dy dada la definicin de la esperanza de una funcin de
una variable aleatoria y la frmula de esperanza condicional. Por otra parte como g(x) no
depende de y, sale afuera de la integral y nos queda:

+

y ) x ( g
) x ( f
) y , x ( f
X
XY
dy = g(X).

+

y
) x ( f
) y , x ( f
X
XY
dy = g(X).E(Y/X)
que es lo que queramos demostrar.

d) E [g(X).(Y E(Y/X)/X] = 0 g(X).E [(Y E(Y/X)/X] = 0 por parte c)
E [(Y E(Y/X)/X] = 0 (por linealidad de la esperanza condicional)
E (Y/X) E [E(Y/X)/X] = 0 E (Y/X) E (Y/X) = 0 (de nuevo por parte c)

e) Por definicin:
V (Y/X=x) = (notacin) = V (Y/x) = E [ (Y/x) E(Y/x) ]
2
= E [ (Y
2
/x) 2 (Y/x) E(Y/x) +
E
2
(Y/x) ] = E (Y
2
/x) 2 E
2
(Y/x) + E
2
(Y/x) = E (Y
2
/x) E
2
(Y/x).

EJERCICIO 11 (Examen de mayo de 2001)

Por definicin sabemos que: Cov(X,Y) = E(XY) E(X).E(Y); (X,Y) =
) Y ( V ) X ( V
) Y , X ( Cov
.

Por lo tanto Y
1
y Y
2
son incorrelacionadas ( = 0) :
Cov (Y
1
,Y
2
) = 0 E(Y
1
Y
2
) E(Y
1
).E(Y
2
) = 0
E [ (X
1
X
2
) (X
1
+ X
2
) ] E (X
1
X
2
) E (X
1
+ X
2
) = 0 E (
2
2
2
1
X X ) (E
2
(X
1
) E
2
(X
1
)) = 0
E (
2
1
X ) E
2
(X
1
) = E (
2
2
X ) E
2
(X
2
) V (X
1
) = V (X
2
). Entonces, Y
1
y Y
2
son
incorrelacionadas si se cumple que V (X
1
) = V (X
2
), es decir, que existan las varianzas de X
1
y
X
2
y que sean iguales.

EJERCICIO 12 (Primera Revisin de 1995)

a) Se trata de calcular la correlacin lineal entre cualquier X
j
elegida entre 1, 2, ..., n y el
promedio de las X
i
. Recordando que si dos variables son independientes, entonces son
incorrelacionadas (no se cumple el recproco necesariamente) y por lo tanto su covarianza es
cero. Calculemos primero Cov (X
j
, X ):
Cov (X
j
, X ) = Cov (X
j
.

n
1 i
i
X
n
1
) = (propiedad de covarianza: Novales pg. 242) =
=
n
1
Cov (X
j
.

n
1 i
i
X ) = (otra propiedad) =
n
1

n
1 i
i j
) X , X ( Cov =
n
1
Cov (X
j
, X
j
) =
n
1
V (X
j
) =
n
1
[ ) X ( E ) X ( E
j
2 2
j
] =
n
1
[
2
j
2
j
2
j
+ ] =
n
1
2
j


Para estas dos ltimas igualdades se aplica la propiedad que mencionamos al principio y que
implica que Cov (X
i
, X
j
) = 0, para i j. Adems obsrvese que, por definicin, Cov (X
j
, X
j
) =
V (X
j
).

Por otra parte:
V ( X ) = V (

n
1 i
i
X
n
1
) =
2
n
1
V (

n
1 i
i
X ) = (otra propiedad de la varianza) =
2
n
1
[

n
1 i
i
) X ( V +
2

j i
j i
) X , X ( Cov ] =
2
n
1

n
1 i
i
) X ( V =
2
n
1

n
1 i
2
j
= (idntica distribucin) =
2
n
1
n
2
j
=
n
1
2
j


Por lo tanto:

(X
j
, X ) =
) X ( V ) X ( V
) X , X ( Cov
j
j
=
2
j
2
j
2
j
n
1
n
1

=
n
1


b) En las demostraciones de la parte a) slo se utilizaron las propiedades de igual distribucin
e incorrelacin (no fue necesaria la independencia) por lo que la respuesta es la misma.

EJERCICIO 13 (Examen diciembre 1996)

1) Una funcin
2
X
1
X
p es una cuanta si y slo si cumple que
2
X
1
X
p 0 y que

)
2
X ,
1
X ( c Re )
2
x , 1
x (
2 1
2
X
1
X
) x , x ( p = 1.
Para que
2
X
1
X
p 0 slo es necesario que p 0.

)
2
X ,
1
X ( c Re )
2
x , 1
x (
2 1
2
X
1
X
) x , x ( p =
0 0
p 3 , 0
91
50
+
1 0
p 3 , 0
91
50
+
0 1
p 3 , 0
91
50
+
1 1
p 3 , 0
91
50
=
91
50
.( 1 + p + 0,3 + 0,3 p) = 1 1,3 p + 1,3 =
50
91
p + 1 =
3 , 1 x 50
91
=
5
7

p =
5
2
.

2) Sabemos que ) x ( p
1
1
X
=

)
2
X ( c Re
2
x
2 1
2
X
1
X
) x , x ( p y que el Rec(X
1
) = Rec (X
2
) = '0, 1;
y por lo tanto:
) x ( p
1
1
X
=
0
1
X
4 , 0 3 , 0
91
50
+
1
1
X
4 , 0 3 , 0
91
50
= 4 , 1 3 , 0
91
50
1
X
=
1
X
3 , 0
13
10
para x
1
= 0, 1.
Con el mismo procedimiento hallamos la marginal respecto de la variable X
2
:
) x ( p
2 2 X
=
2
X 0
4 , 0 3 , 0
91
50
+
2
x 1
4 , 0 3 , 0
91
50
=
2
x
4 , 0 3 , 1
91
50
=
2
X
4 , 0
7
5
para x
2
= 0, 1.
Entonces:
X
1
Bernoulli (3/13) y X
2
Bernoulli (2/7)

3) Debemos demostrar que ) x , x ( p
2 1
2
X
1
X
= ) x ( p
1
1
X
. ) x ( p
2 2 X
para todo x
1
Rec (X
1
),
x
2
Rec (X
2
). Como:
) x , x ( p
2 1
2
X
1
X
=
2
X
1
X
4 , 0 3 , 0
91
50
=
1
X
3 , 0
13
10
2
X
4 , 0
7
5
= ) x ( p
1
1
X
. ) x ( p
2 2 X

entonces las variables son independientes.

4) En general una funcin de probabilidad condicional o funcin de cuanta condicional
se define de la siguiente manera:
) x / x ( p
2 1
2
X /
1
X
=
) x ( p
) x , x ( p
2
2
X
2 1
2
X
1
X

Si hay independencia, entonces ) ( ) ( ) , (
2 1 2 1
2 1 2 1
x p x p x x p
X X X X
y resulta
) x / x ( p
2 1
2
X /
1
X
= ) (
1
1
x p
X
. Por lo tanto:
) 0 x / x ( p
2 1
2
X /
1
X
=
0
0
1
x
4 , 0
7
5
4 , 0 3 , 0
91
50
=
1
X
3 , 0
13
10
= ) x ( p
1
1
X


Obsrvese que si las variables son independientes, entonces lo que sucede con una
no influye sobre la otra y por lo tanto la distribucin condicional coincide con la
marginal.

5) Si Y = nmero de autos vendidos por da en la automotora, observamos que:
Y = X
1
+ X
2

Por lo tanto, como el Rec(X
1
) = Rec (X
2
) = '0, 1; y ambas variables son
independientes, entonces Rec(Y) = '0, 1, 2;
Aplicando ahora un razonamiento similar al ejercicio anterior:
p
Y
(0) = ) 0 , 0 ( p
2
X
1
X
=
91
50

p
Y
(1) = ) 1 , 0 ( p
2
X
1
X
+ ) 0 , 1 ( p
2
X
1
X
=
1 0
4 , 0 3 , 0
91
50
+
0 1
4 , 0 3 , 0
91
50
=
10
7
91
50
=
91
35

p
Y
(2) = ) 1 , 1 ( p
2
X
1
X
=
1 1
4 , 0 3 , 0
91
50
=
91
6


6) Si fueran independientes lo que ocurre con X
1
no debe influir en la distribucin de
probabilidades de Y, pero por ejemplo, si X
1
fuera 0, entonces Y no podra ser 2. Por
lo tanto, no son independientes.


EJERCICIO 14 (Examen marzo 2001)
1) P (X
1
= x
1
) =

2 2
2 1
X c Re x
2 1 X , X
) x , x ( p =

50
0 x
60
x
2
1
C
2 1 2 1
2
x x 110 x x 50
x
40 , 0 60 , 0 C
+
=
1
1
x 60
x
60 , 0 C
1
x 60
40 , 0

50
0 x
2
2 2
2
x 50 x 50
x
40 , 0 60 , 0 C

=
1 1
1
x 60 x 60
x
40 , 0 60 , 0 C

X
1
Bin ( n = 60, p = 0,60)
Por igual razonamiento deducimos que:
P (X
2
= x
2
) =
2 2
2
x 50 x 50
x
40 , 0 60 , 0 C

X
2
Bin ( n = 50, p = 0,60)

2) Como P (X
1
= x
1
) P (X
2
= x
2
) =
1 1
1
x 60 x 60
x
40 , 0 60 , 0 C

2 2
2
x 50 x 50
x
40 , 0 60 , 0 C

=
60
x
1
C
2 1
2
x x 50
x
60 , 0 C
+

2 1
x x 110
40 , 0

= P (X
1
= x
1
, X
2
= x
2
) x
1
Rec X
1
, x
2
Rec X
2

X
1
y X
2
son v.a. independientes

3) Si T = demanda mensual de alarmas, entonces T = X
1
+ X
2
con T Bin (n = 110, p = 0,60),
pues X
1
y X
2
son binomiales independientes con el mismo parmetro p. Adems, al estar en
las condiciones de Cochran (p = 0,6 y n 50, ver la GUA) podemos aproximarla por una N
(110 x 0,60; 110 x 0,60 x 0,40).
Se nos pide hallar k que cumpla:
P (T 10 + k) 0,99

,
_

+ +

40 , 26
66 k 50 , 0 10
0,99
138 , 5
50 , 55 k
2,326 k 67,45
Por lo tanto, la cantidad de alarmas a comprar es por lo menos 68.

4) Por definicin es: Y = 700 X
1
+ 500 X
2
.
Adems, como en 3), dado que X
1
y X
2
cumplen las condiciones de Cochran se pueden
aproximar por normales, con lo que:
X
1
Bin ( n = 60, p = 0,60) N (60 x 0,60; 60 x 0,60 x 0,40) = N (36; 14,4)
700 X
1
N (36 x 700; 14,4 x 700
2
) = N (25200; 7056000)

X
2
Bin ( n = 50, p = 0,60) N (50 x 0,60; 50 x 0,60 x 0,40) = N (30; 12)
500 X
2
N (30 x 500; 12 x 500
2
) = N (15000; 3000000)

Por otra parte, como X
1
y X
2
son independientes, 700 X
1
y 500 X
2
tambin lo son, y por tanto:
Y N (25200 + 15000; 7056000 + 3000000) = N (40200; 10056000)


5) P (Y > 50000) = 1 P (Y 50000) 1

,
_

10056000
40200 50000
= 1
,
_

12 , 3171
9800
= 1
( ) 09 , 3 = 1 0,999 = 0,001.


EJERCICIO 15

En primer lugar observemos que Rec(Y
1
,Y
2
) = '(y
1
,y
2
): y
1
y
2
, 1 y
1
6, 1 y
2
6; pues
necesariamente Y
1
= Mx(X
1
,X
2
) Mn(X
1
,X
2
) = Y
2
.

- P(Y
1
= i, Y
2
= j) = 0, para i < j, pues el Mx'X
1
, X
2
; Mn'X
1
, X
2
;.
- Si y
1
= y
2
: P(Y
1
= i, Y
2
= i) = P(X
1
= i, X
2
= i) = (indep.) = P(X
1
= i).P( X
2
= i) = 1/6.1/6 =
1/36.
- Si y
1
> y
2
: P(Y
1
= i, Y
2
= j) = (para i > j) = P(X
1
= i, X
2
= j) + P(X
1
= j, X
2
= i) = P(X
1
= i).P(
X
2
= j) + P(X
1
= j).P( X
2
= i) = 1/6.1/6 + 1/6.1/6 = 2/36.

EJERCICIO 16 (Examen marzo 1996)

1) p
XY
(x, y) = p
Y/X=x
(y/x).p
X
(x) =
y x y x
y
) p 1 ( p C

! x
e
x


=
y x y
) p 1 ( p
! y ! ) y x (
! x

! x
e
x


=

y
p 1
p

,
_

[ ]
! y ! ) y x (
) p 1 ( e
x




El Rec(X, Y) es el de los pares donde X y Y toma los valores '0, 1, 2, ...; , pero con la
restriccin y x .
2) p
Y
(y) =

X c Re x
y
p 1
p

,
_

[ ]
! y ! ) y x (
) p 1 ( e
x

+
y x
y
p 1
p

,
_

[ ]
! y ! ) y x (
) p 1 ( e
x



= (c. v. n = x y ) =

y
p 1
p

,
_

! y
1

+
0 n
[ ]
! n
) p 1 ( e
y n+

=
y
p 1
p

,
_

[ ]
! y
) p 1 (
y

+
0 n
[ ]
! n
) p 1 ( e
n p ) p 1 (


=

[ ]
! y
p
y

p
e

+
0 n
[ ]
! n
) p 1 ( e
n ) p 1 (


=
[ ]
! y
p
y

p
e

.
Obsrvese que esta ltima es la cuanta de una Poisson(p) y que la expresin que est
dentro de la sumatoria es la de una Poisson( (1p) ), y como la sumatoria se extiende a
todo el recorrido, entonces vale 1.

3) No son independientes, pues p
Y
(y) p
Y/X=x
(y).

4) a) Si X = nmero de fallas en una pieza de 10 metros y Y = nmero de fallas detectadas
por el inspector en una pieza de 10 metros, entonces, como la letra nos dice que la
aparicin de fallas sigue un proceso de Poisson a razn de una falla cada dos metros,
X Poisson(5); por otro lado, tambin afirma que la probabilidad de que una falla sea
detectada por un inspector es 0,95, constante e independiente de la deteccin de otras
fallas que pudieran aparecer en la tela y por ello Y/X=x Bin(x, 0,95). Finalmente, por la
demostracin de 1) concluimos lo requerido.
b) Si T
1
= total de fallas en 15 piezas = X
1
+ ... + X
15
, donde X
i
= nmero de fallas en la
i-sima pieza de 10 metros y recordando la propiedad que dice que la suma de
variables de Poisson independientes es otra Poisson con parmetro igual a la suma de
los parmetros, entonces T
1
p(t
1
,15x5) = p(t
1
,75).
Si T
2
= total de fallas detectadas por el inspector en las 15 piezas = Y
1
+ ... + Y
15
,
donde Y
i
= nmero de fallas detectadas por el inspector en la i-sima pieza de 10
metros, entonces, por 1), cada Y
i
Pois(5x0,95 = 4,75) y por el mismo razonamiento
que para T
1
concluimos que T
2
Pois(4,75x15 = 71,25).

c) Llamemos T
3
= nmero de fallas no detectadas por el inspector en las 15 piezas
revisadas = T
1
T
2
. Por lo tanto: E(T
3
) = E(T
1
T
2
) = E(T
1
) E(T
2
) = 75 71,25 =
3,75. Obsrvese, sin embargo, que esto no quiere decir que T
3
Pois(3,75).

EJERCICIO 17

Por como estn definidas ambas variables ambas tienen distribucin Bernoulli, por lo que
simplemente quedara probar que tienen igual parmetro.
Por un lado sabemos que: p
1
= P (X
1
= 1) =
N
N
1
.
Por otra parte: p
2
= P (X
2
= 1) = P (X
2
= 1 / X
1
= 1) P (X
1
= 1) + P (X
2
= 1 / X
1
= 0) P (X
1
= 0) =
1 N
1 N
1

N
N
1
+
1 N
N
1
N
N N
1

=
N
N
1
.


EJERCICIO 18

Sea, como se menciona en el ejercicio, N = el nmero de artculos que pasan por el escritorio
de inspeccin antes de que se encuentre el primer defectuoso, y sea I
i
la variable aleatoria que
vale 1 si el i-simo artculo fue efectivamente inspeccionado y 0 en caso contrario. Dado que
es posible suponer que la eleccin de un artculo para que sea inspeccionado es independiente
de la de otro, y que la probabilidad de que sea seleccionado es constante e igual a p, estamos
ante una sucesin de pruebas de Bernoulli (independientes), con lo que, cada I
i
Bern (p).
Sea, tambin, P
i
la variable que vale 1 si el i-simo artculo es defectuoso y 0 si no lo es,
entonces tambin cada P
i
Bern (q). Por lo tanto:
P (que se encuentre un artculo con fallas) =P ( 'que sea inspeccionado; ' sea defectuoso; )
= P ( I
i
= 1 P
i
= 1 ) = ( se puede suponer independencia entre estos eventos ) = P ( I
i
= 1 )
P (P
i
= 1) = pq.
La v.a. N, dada la forma en que est definida, se distribuye Geomtrica y por lo que se acaba
de demostrar, su parmetro es pq . Entonces encontramos la distribucin marginal de ella y es
Geo (n, pq).
Por otro lardo, se defini K = cantidad de artculos defectuosos no descubiertos entre los que
pasan por el escritorio de inspeccin antes de que se encuentre el primero con fallas. Nos
interesa, entonces, hallar la probabilidad de que un artculo sea fallado dado que no fue
detectado como malo para lo cual definimos los siguientes eventos:
A = ' un artculo es fallado;; B = ' un artculo no fue detectado como malo; y C = ' un artculo
no fue inspeccionado ;
Por lo tanto, por definicin de probabilidad condicional:
P ( A / B ) =
) B ( P
) B A ( P
=
) B ( P
) C A ( P
= (indep) =
) B ( P
) C ( P ) A ( P
=
) q ' p 1 (
' q q


Para comprender estas igualdades debe observarse que para que un artculo con fallas no sea
detectado como malo, no debe haber sido inspeccionado y que P (B) = (1 pq) por lo
razonado para N.
Por ello y dado que la probabilidad de que un artculo que tiene fallas, pero que no ha sido
detectado como malo, es constante e igual a
) q ' p 1 (
' q q

y que se puede suponer


independencia entre estos sucesos:
K / N = n Bin (k, n,
) q ' p 1 (
' q q

).
Podemos, ahora, calcular la distribucin conjunta, mediante una de las condicionadas y la
marginal conocida, observando la restriccin K N:
P (N = n, K = k) = P (K = k / N = n) P (N = n) =
n
k
C
k
) q ' p 1 (
' q q
1
]
1

k n
) q ' p 1 (
' q q
1

1
]
1

(1 pq)
n
pq =
= (simplificando y haciendo cuentas) =
n
k
C q
k+1
(q)
k
p
n k
p.
para k n. Si k > n la distribucin conjunta es nula.


Finalmente calculemos la marginal de K:
P (K = k ) =

+
k n
n
k
C q
k+1
(q)
k
p
n k
p = (cambio de variable m = n k ) =

+
0 m
k m
k
C
+
q
k+1
(q)
k
p
m
p
Reconocemos, dentro de la sumatoria, la funcin de cuanta de una Binomial Negativa con
parmetros (k+1) y q, con lo que:
P (K = k ) = [

+
0 m
k m
k
C
+
q
k+1
p
m
]

(q)
k
p =

(q)
k
p
La distribucin marginal de K resulta ser una Geo (p), lo cual es coherente con su definicin
dado que un artculo no es descubierto como fallado si y slo si no es inspeccionado.


EJERCICIO 19 (CANAVOS 6.4)


1) a) f
XY
(x, y) > 0, claramente para todo x > 0, y > 0.

a) Debemos probar adems que [ ]

+ +
+
0 0
dy dx ) 1 y ( x exp x = 1:
[ ]

+ +
+
0 0
dy dx ) 1 y ( x exp x = [ ] dx ) 1 y ( x exp
0
0
+
+

+ = dx ) x exp(
0

+
= exp( x)
+
0
= 1.


2) P(X < 2, Y < 1) = F
XY
(2, 1) = [ ]

+
2
0
1
0
dy dx ) 1 y ( x exp x = [ ] dx ) 1 y ( x exp
1
0
2
0

+ =
[ ]

+
2
0
dx ) x exp( ) x 2 exp( =
2
0
) x exp( ) x 2 exp(
2
1
= 1
2
1
) 2 exp( ) 4 exp(
2
1
+ =
) 2 exp( ) 4 exp(
2
1
2
1
+ = 0,3738.
3) f
X
(x) = [ ]dy ) 1 y ( x exp x
0

+
+ = exp [ x (y+1) ]
+
0
= ) x exp( si x>0, y vale 0 si x 0.
f
Y
(y) = [ ]dx ) 1 y ( x exp x
0

+
+ =(por partes)=x.(
[ ]
+
+
+

0
1 y
) 1 y ( x exp
)
[ ]
dx
1 y
) 1 y ( x exp
0

+
+
+

=
[ ]
+
+
+

0
2
) 1 y (
) 1 y ( x exp
=
2
) 1 y (
1
+
si y >0, y vale 0 si y 0.
4) Como f
X
(x).f
Y
(y) = ) x exp( .
2
) 1 y (
1
+
x.exp [ x (y+1) ] = f
XY
(x,y), entonces no son
independientes.
5) ) y / x ( f
Y / X
= 0 si y 0
) y / x ( f
Y / X
=
) y ( f
) y , x ( f
Y
Y X
=
[ ]
2
) 1 y /( 1
) 1 y ( x exp x
+
+
= x (y+1)
2
exp [ x (y+1) ] si y > 0.
E(X/Y) = [ ]dx ) 1 y ( x exp ) 1 y ( x x
0

+
+ + =(por partes)= x
2
(y+1)

exp [ x (y+1) ]
+
0

[ ]dx ) 1 y ( x exp ) 1 y ( x 2
0

+
+ +
Como el primer sumando da cero por el Teorema de rdenes, si aplicamos nuevamente partes:
2 x

exp [ x (y+1) ]
+
0
[ ]dx ) 1 y ( x exp 2
0

+
+ = 0 + [ ]dx ) 1 y ( x exp 2
0

+
+ =
[ ]
+
+
+

0
1 y
) 1 y ( x exp
2 =
) 1 y (
2
+
.

En resumen: E(X/Y) es entonces la variable aleatoria cuyo recorrido es '
) 1 y (
2
+
, para y > 0; y
con funcin de densidad igual a la de la f
Y.
Ntese que el recorrido de E(X/Y) no debe
depender de x.


EJERCICIO 20

1) f
X
(x) =

x
0
dy y x 8 =
x
0
2
y x 4 = 4 x
3
, para 0 x 1 1
= 0, en otro caso

f
Y
(y) =

1
y
dx y x 8 =
1
y
2
y x 4 = 4 y 4 y
3
, para 0 y 1
= 0, en otro caso
0 1

2) F
X
(x) = 0, si x < 0
F
X
(x) =

x
0
3
du u 4 =
x
0
4
u = x
4
, para 0 x 1
F
X
(x) = 1, si x > 1
P(X < 1/2) = F
X
(1/2) = (1/2)
4
= 1/16
3) F
Y
(y) = 0, si y < 0
F
Y
(y) =


y
0
3
dv ) v 4 v 4 ( =
y
0
4 2
v v 2 = 2 y
2
y
4
, si 0 y 1
F
Y
(y) = 1, si y > 1
P(Y < 1/2) = F
Y
(1/2) = 2 (1/2)
2
(1/2)
4
= 7/16

4) F
XY
(x, y) = 0, si x < 0 y < 0
F
XY
(x, y) =

y
0
(

x
v
du v u 8 ) dv =

y
0
x
v
2
v u 4 dv =

y
0
) v 4 v x 4 (
3 2
dv =
y
0
4 2 2
v v x 2 =
=
4 2 2
y y x 2 , si 0 x 1 y 0 y x
F
XY
(x, y) = F
XY
(x, x) = 2 x
2
.x
2
x
4
= x
4
, si 0 x 1 y y x
F
XY
(x, y) = F
XY
(1, y) =
4 2
y y 2 , si x > 1 y 0 y 1
F
XY
(x, y) = 1, si x > 1 y y >1

P(X<1/2, Y<1/2) = F
XY
(1/2, 1/2) = 2 (1/2)
2
(1/2)
2
(1/2)
4
= 1/16


EJERCICIO 21 (Examen diciembre 1998)

a) Si k > 0, entonces f
XY
> 0 y por lo tanto bastara que

+
0

+
0
f
XY
(x, y) dx dy = 1
Entonces:

+
0 n 1
k
( )
+

+ +
0
1 n
y x 1
1
dx =

+
0 1 n
k
( )
1 n
x 1
1

+
dx =
) n 2 ( ) 1 n (
k
( )
+

+
0
2 n
x 1
1
=
) 2 n ( ) 1 n (
k

= 1 k = ) 2 n ( ) 1 n (

b) Para ver si son independientes hallaremos, previamente, f
X
y f
Y
:
f
X
(x) =

+
0
( )
dy
y x 1
) 2 n ( ) 1 n (
n
+ +

=
( )
+

+ +

0
1 n
y x 1
) n 2 (
=
( )
1 n
x 1
) 2 n (

, si x > 0.
= 0, si x 0.
Como hay simetra en la frmula de f
XY
, deducimos que:

f
Y
(y) =
( )
1 n
y 1
) 2 n (

, si y > 0
= 0, si y 0.

Por lo tanto, para x > 0 y y > 0:
( )
n
y x 1
) 2 n ( ) 1 n (
+ +

= f
XY
(x, y) f
X
(x).f
Y
(y) =
( )
1 n
x 1
) 2 n (

( )
1 n
y 1
) 2 n (



y por lo tanto, no son independientes.

EJERCICIO 22 (Primer Control 1995)


Para calcular las esperanzas condicionales, debo hallar, previamente, las probabilidades
marginales y luego, mediante la conjunta y stas, las probabilidades condicionales.

f
X
(x) =

x
x
6 y
2
dy =
x
x
3
y 2

=
3
x 4 , para 0 x 1
= 0, en otro caso
f
Y
(y) =

1
y
6 y
2
dy =
1
y
2
x y 6 = 6 y
2
6
3
y , para 1 y 1
= 0, en otro caso.



y



0 1


y




E(Y/X=x) =

x
x
y
3
2
x 4
y 6
dy =
x
x
3
4
x 4
y 4 / 6

= 0

E(X/Y=y) =

1
y
x
3
2
2
y 6 y 6
y 6

dx =

1
y
x
y 1
1

dx =
2
x
2
1
y
y 1
1

=
2
1
y 1
y 1
2

=
=
2
1
(1 + y )


EJERCICIO 23 (PRIMERA REVISIN DE 1995)

U = utilidad por artculo = Y X
F
U
queda en funcin de k, pero la podemos hallar dado que

1
x
1
0
k x
2
y
2
dx dy = 1

1
x
1
0
k x
2
y
2
dx dy =

1
0
1
x
3 2
3
y x k
dx =

1
0
(
3
x k
2
)
3
x k
5
dx =
9
x k
3

1
0
6
18
x k
=
18
k
= 1 y
por lo tanto k = 18.


1) Recordando la propiedad: E(U) = E(Y) E(X) (aunque no sean independientes !!!),
entonces, para calcular lo solicitado debemos hallar las densidades marginales y luego las
respectivas esperanzas. Por lo tanto:

f
X
(x) = (por la restriccin x y) =

1
x
18 x
2
y
2
dy =
1
x
3 2
y x 6 = 6 x
2
6 x
5
, si 0 x 1
= 0, en otro caso.
E(X) =

1
0
x (6 x
2
6 x
5
) dx =
1
0
7 4
x
7
6
x
4
6
=
14
9

f
Y
(y) = (por la misma restriccin x y) =

y
0
18 x
2
y
2
dx =
y
0
2 3
y x 6 = 6 y
5
, si si 0 y 1
= 0, en otro caso.

E(Y) =

1
0
y (6 y
5
) dy =
1
0
7
y
7
6
=
7
6
.


Concluimos, entonces, que E(U) =
7
6

14
9
=
14
3
.


1) Como E(U/X = x
0
) = E(Y X / X = x
0
) = E(Y/X = x
0
) x
0
, lo nico que tengo que calcular es
E(Y/X = x
0
) y lo hago a partir de la densidad condicional:


( )

'

caso otro en 0
1 y x 0 si
x 1
y 3

) x ( f
) x , y ( f
) x / y ( f
3
2
X
YX
X / Y


Entonces:

E(Y/X = x
0
) =
( ) ( )
( )
( )

x 1 4
x 1 3
x
1
y
x 1 4
3
dy
x 1
y 3
dy ) x / y ( f y
3
0
4
0
0
4
1
x
3
0
3
0
3
0 X / Y
0


+




EJERCICIO 24

Como se elige un punto al azar en S, entonces x
2
+ y
2
< 1 1
f
XY
es constante all. Queda entonces hallar dicha
constante de tal forma que la integral en S de f
XY
d exactamente uno. 1 1
a)

S
XY
) y , x ( f dx dy =

S
k dx dy =

1
0
(

+

2
x 1
2
x 1
k dy ) dx 1
=

1
0
(
2
x 1
2
x 1
y k
+

) dx =

1
0
(
2
x 1 k 2 ) dx =
1
0
2
) x sen Arc x 1 x ( k + = k = 1
y entonces: k =

1


Dado que f
XY
es constante en S, si recordamos la frmula del volumen de un cilindro, se llega a
la misma conclusin.



b) No son independientes. Se pueden hallar las marginales o simplemente observar que,
dado que Rec (X,Y) = {(x,y): x
2
+ y
2
< 1} entonces P(Y y/X=x) depende del valor de x, y
por lo tanto P(Y y/X=x) P(Y y) en general.

EJERCICIO 25 (CANAVOS 6.10)

Aclaracin: En el libro de prcticas se debi imprimir:
f
XY
(x, y) =
! y
e x
x 2 y
, si x > 0 e y = 0, 1, 2, ...
= 0, en otro caso.

a) P ( Y = y ) = p
Y
(y) =

+
0 ! y
e x
x 2 y
dx = ( por partes ) =
+

,
_

0
x 2 y
! y
e
2
1
x

+
0 ! y
e
2
1
x y
x 2 1 y

,
_

dx =

+
0 2
1
! ) 1 y (
e x
x 2 1 y


dx = (aplico partes reiteradamente y-2 veces)
=

+
0
1 y
2
1

! 1
e x
x 2 1
dx =
+

,
_

0
1 y
x 2
2
e
2
1
x

+
0
(
y
2
1
) e
2 x
dx =
,
_

+1 Y
2
1
e
2 x +
0

=
1 y
2
1
+
, para y = 0, 1, 2, ... P(Y = y) =
y

,
_

2
1
.
2
1
con y = 0,1,2,3,. Y Geom(1/2).

b) f
X/Y
(x/2) =
) 2 ( f
) 2 , x ( f
Y
XY
= 0 si x 0
f
X/Y
(x/2) =
) 2 ( f
) 2 , x ( f
Y
XY
=
3
x 2 2
2
1
! 2
e x

= 4 x
2
e
2 x
si x > 0
X/Y=2 tiene distribucin Gamma(a=3, =2).

c) E ( X / Y = 2 ) =

+
0
x 4 x
2
e
2 x
dx = 4 x
3

,
_

2
1
e
2 x +
0

+
0
12 x
2

,
_

2
1
e
2 x
dx
=

+
0
6 x
2
e
2 x
dx = 6 x
2

,
_

2
1
e
2 x +
0

+
0
12 x


,
_

2
1
e
2 x
dx =

+
0
6 x e
2 x
dx
= 6 x
,
_

2
1
e
2 x +
0

+
0
6


,
_

2
1
e
2 x
dx =

+
0
3 e
2 x
dx = 3
,
_

2
1
e
2 x +
0
=
2
3
.

Para calcular la V ( X / Y = 2 ) se obtiene primero E ( X
2
/ Y = 2 ) de igual modo que en el
caso anterior y luego se aplica la igualdad V (X / Y = 2) = E (X
2
/ Y = 2) E
2
(X / Y = 2)
con lo que deducimos V ( X / Y = 2 ) = 3- (3/2)
2
=
4
3
.

Otra forma de dar solucin a esta parte, es observar que f
X/Y
(x/2) corresponde a la densidad
de una Gamma ( = 3, = ). Por ello, su esperaza es =
2
3
y su varianza
2
=
4
3
.




EJERCICIO 26

a) Para hallar la distribucin de Y, previamente debemos hallar la conjunta f
XY
:
f
XY
(x, y) = 0 si x [0,1]
f
XY
(x, y) = f
Y/X
(y/x).f
X
(x) = P(Y=y/X=x).P(X=x) =
y n y n
y
) x 1 ( x C

.1, para y = 0, 1, 2, ..., n
si x [ 0, 1 ]

En este ejercicio designaremos a las funciones de probabilidad por medio de la letra f, sean
stas discretas, continuas o mixtas.
Dada la conjunta podemos hallarla marginal de Y:
f
Y
(y) =

1
0
y n y n
y
) x 1 ( x C

dx =

1
0
y n y
) x 1 ( x
! y ! ) y n (
! n

dx =
1 n
1
+

1
0
y n y
) x 1 ( x
! y ! ) y n (
! ) 1 n (

+
dx
=
1 n
1
+

1
0
y n y
) x 1 ( x
) 1 y ( ) y 1 n (
) 2 n (

+ +
+
dx =
1 n
1
+
, para y = 0, 1, 2, ..., n
ya que el integrando es la funcin de densidad de una Beta con = y + 1 y = n + 1 y .
Entonces, la variable Y tiene una distribucin casi uniforme discreta (porque su recorrido
incluye el 0).
b) E(Y) =

+
n
0 y
1 n
1
y = .
2 2
) 1 .(
.
1
1
.
1
1
0
n n n
n
y
n
n
y

+
+




EJERCICIO 27 (PRIMERA REVISIN 1995)

1) El nmero esperado de intentos es E(N). Para calcularlo hay que hallar primero la
distribucin marginal de N:
p
N
(n) =

+
0 ! n
) t ( e
n t ) (

+
dt =
n

+
0 ! n
t e
n t ) ( +
dt =
1 n
n
) (
+
+

+
0
t ) ( n
1 n
e t
) 1 n (
) (
+
+
+
+
dt =
=
1 n
n
) (
+
+

, para n = 0, 1, ... ; dado que el integrando tiene distribucin Gamma (n+1, +).

Entonces:
N es una variable aleatoria geomtrica con .
1
) ( .

+
+


+
N E p

2) a) La letra del ejercicio define k = E(N/T=t
0
), con lo que para hallarla hay que calcular
previamente f
T
y f
N/T
:
f
T
(t) = 0 si t 0
f
T
(t) =

+
0 n
! n
) t ( e
n t ) (

+
=
t
e

+
0 n
! n
) t ( e
n t


=
t
e

si t > 0
p
N/T
(n/t) =
) t ( f
) t , n ( f
T
NT
=
! n
) t ( e
n t




Y por lo tanto, la distribucin de N/T es tambin Poisson ( t).
Como k = E(N/T = t
0
) y, por lo demostrado recin, N/T Poisson ( t) con E(N/T) = t,
entonces k = E(N/T = t
0
) = t
0
. Para este caso k = 5.

b) Dado que T Exp (), entonces t
0
= E(T) =

1
. Por ello: k = E(N/T =

1
) =

= E (N).
La razn de ello es que E(N/T =

1
) = E (N/T = E(T)) = E [ E (N/T) ] = E (N).


EJERCICIO 28

a) Se nos dice que X tiene una distribucin U [ 0, 2 ] si Y = 1 y U [ 1, 5 ] si Y = 1, por lo
tanto:
f
X/Y
(x/ 1) =
0 2
1

=
2
1
, si 0 x 2
= 0, en otro caso
f
X/Y
(x/+1) =
1 5
1

=
4
1
, si 1 x 5
= 0, en otro caso
b) E (X / Y = 1) =

2
0
dx
2
1
x = 1
E (X / Y = + 1) =

5
1
dt
4
1
x = 3
Es decir que E (X / Y) es la variable aleatoria que:

'



3
2
) 1 Y ( P ) 3 ) Y / X ( E ( P con 3
3
1
) 1 Y ( P ) 1 ) Y / X ( E ( P con 1

c) Para ello debemos hallar primero la distribucin conjunta, usando la frmula:
f
X, Y
(x, y) = f
X/Y
(x/y) p
Y
(y)
Entonces:
f
X, Y
(x, 1) = f
X/Y
(x/ 1) p
Y
( 1) =
2
1
3
1
=
6
1
, si 0 x 2
f
X, Y
(x, 1) = f
X/Y
(x/1) p
Y
( 1) =
4
1
3
2
=
6
1
, si 1 x 5
f
X, Y
(x, y) = 0, en otro caso
Recordando que f
X
(x) =

Y c Re y
f
X, Y
(x, y), y observando que las frmulas de la distribucin
conjunta se montan si 1 x 2, f
X
(x) =

'


+

5 x 2 si
6
1
2 x 1 si
3
1
6
1
6
1
1 x 0 si
6
1

d) E (X) =

1
0
dx
6
1
x +

2
1
dx
3
1
x +

5
2
dx
6
1
x =
12
1
+
2
1
+
12
21
=
3
7

E [ E (X / Y) ] = 1
3
1
+ 3
3
2
=
3
7


EJERCICIO 29 (Examen julio 1997)

1) Como (X, Y) =
) Y ( V ) X ( V
) Y , X ( Cov
= 0, entonces 0 = Cov(X, Y) = .

2) Como Cov(X, Y) = 0 y el vector aleatorio (X, Y) es normal bivariante, se cumple que son
independientes. Por lo tanto: X N(100, 625) y Y N(, 100).
Sabemos adems que P(X+Y > 150) = 0,10.

Observemos tambin que X+Y N(100+, 625+100) dado que es la suma de normales
independientes. Por ello estandarizando:
P(X+Y > 150) =
725
) 100 ( Y X
( P
+ +
>
725
) 100 ( 150 +
) = 0,10
Entonces: (
725
) 100 ( 150 +
) = 1 0,10 = 0,90
Y por lo tanto:
725
) 100 ( 150 +
= 1,28 = 15,5

3) Como en 2) deducimos que (X Y) N(100 15,5, 625 + 100). Entonces:
P( X Y1 > 100) = P(X Y > 100) + P(Y X > 100) = P(X Y > 100) + P(X Y < 100) =
725
5 , 84 Y X
( P

>
725
5 , 84 100
) +
725
5 , 84 Y X
( P

<
725
5 , 84 100
) =1 (0,5757) + ( 6,85) =
1 0,7176 + 0 = 0,2824.

4) La probabilidad de que haya demanda insatisfecha es:
P ( 'X > 125; 'Y > 25; ) = P(X > 125) + P(Y > 25) P( 'X > 125; 'Y > 25; ) =
P(X > 125) + P(Y > 25) P( X > 125, Y > 25 ) = (independencia) = P(X > 125) + P(Y > 25)
P( X > 125) P(Y > 25) = 1
625
100 X
( P

<
625
100 125
) + 1
100
5 , 15 Y
( P

<
100
5 , 15 25
)
[1
625
100 X
( P

<
625
100 125
) ] [1
100
5 , 15 Y
( P

<
100
5 , 15 25
) ] = 1 (1) + 1 (0,95)
[1 (1) ].[1 (0,95) ] = 0,1587 + 0,1711 0,0271 = 0,3026.


EJERCICIO 30

1) Como X
1
N(60, 81), entonces P(X
1
50) = P(
9
60 X
1


9
60 50
) = P(Z
9
10
) = 0,8667
X
2
N(65, 64), entonces P(X
2
50) = P(
8
65 X
2


8
65 50
) = P(Z
8
15
) = 0,9696
X
3
N(40, 81), entonces P(X
3
50) = P(
81
40
3
X

81
40 50
) = P(Z 1,11) = 0,1335.
2) Habr que calcular, entonces P(
3
X X X
3 2 1
+ +
50) y para ello, previamente, la distribucin
de la variable implcita.
Recordemos, antes, una propiedad muy importante de la normal multivariada:
Sea X N
n
(, ) (una normal multivariada de dimensin n, con vector de medias , y matriz de
covarianzas ), Entonces dada una matriz C
p x n
, CX N
p
(C, CC
tr
) (la nueva variable CX de
dimensin p, se distribuye tambin normal, con vector de medias C, y matriz de covarianzas
CC
tr
donde C
tr
es la matriz transpuesta de C).


Tomando, pues C
1 x 3
=
,
_

3
1
,
3
1
,
3
1
, entonces CX
1 x 1
=
3
X X X
3 2 1
+ +
tiene vector de medias
igual a C =
,
_

3
1
,
3
1
,
3
1

,
_

40
65
60
= 55 y matriz de covarianzas CC
tr
=

,
_

3
1
,
3
1
,
3
1

,
_

81 3 3
3 64 18
3 18 81

,
_

3 / 1
3 / 1
3 / 1
=
9
274


Por lo tanto:
P(
3
X X X
3 2 1
+ +
50) = P (
9
274
55
3
3 2 1

+ + X X X

9
274
55 50
) =P(Z0,99)=1- 0,8389=0,1611

3) Tomemos, en este caso, C =

,
_

1 0 0
0 1 0
0 0 0
= C
tr
. Por lo tanto, CX
3 x 3
= ( )
3 2
X X 0 con
vector de medias C =

,
_

1 0 0
0 1 0
0 0 0

,
_

40
65
60
=

,
_

40
65
0
y matriz de covarianzas CC
tr
=

,
_

1 0 0
0 1 0
0 0 0

,
_

81 3 3
3 64 18
3 18 81

,
_

1 0 0
0 1 0
0 0 0
=

,
_

81 3 0
3 64 0
0 0 0
. Como la primera componente del
vector ( )
3 2
X X 0 , es independiente de las otras dos (observar la matriz de covarianzas

,
_

81 3 0
3 64 0
0 0 0
), entonces ( )
3 2
X X N

,
_

,
_

,
_

81 3
3 64
;
40
65
.

4) ) X , X (
3 2
=
) X ( V ) X ( V
) X , X ( Cov
3 2
3 2
=
81 8
3
= 0,04167. Existe una leve correlacin positiva
entre ambas variables.


5) Y
1 x 1
= CX =
,
_

2
1
,
3
1
,
6
1
( )
3 2 1
X X X =
3
X 5 , 1 X X 5 , 0
3 2 1
+ +
. Entonces,
Y
=
,
_

2
1
,
3
1
,
6
1

,
_

40
65
60

=
3
155
y la matriz de covarianzas CC
tr
=
,
_

2
1
,
3
1
,
6
1

,
_

81 3 3
3 64 18
3 18 81

,
_

2 / 1
3 / 1
6 / 1
= 11 , 33
9
298
.
Entonces: Y N(155/3, 298/9).

6) Se pide hallar E(X
1
/X
3
=50) y E(X
2
/X
3
=50). Recordemos que si tenemos una distribucin
normal bivariada (podemos considerar las bivariadas (X
1
, X
3
) y (X
2
, X
3
) como en la parte 3)
entonces las distribuciones condicionales son normales con:

E(X
1
/X
3
=x
3
) = ) x (
3
X 3
3
X
1
X
3
X
1
X
1
X


+ y lo mismo para E(X
2
/X
3
=x
3
).
Concluimos:
E(X
1
/X
3
=50) = 60 + ) 40 50 (
81
9
81 9
3
= 60,37
E(X
2
/X
3
=50) = 65 + ) 40 50 (
81
8
81 8
3
= 65,37


EJERCICIO 31 (Examen diciembre 2000)

1) = Cov (X
2
, X
3
) debera ser positivo, pues, por ejemplo, si un alumno saca nota alta (baja)
en la segunda prueba debera corresponderle una nota alta (baja) en la tercera prueba.
Debera tenerse en cuenta tambin, que la matriz de covarianzas debe ser definida positiva, es
decir, que su determinante debe ser positivo. Si lo calculamos, obtenemos una inecuacin de
segundo grado en , y resolviendo sta, obtenemos la condicin: 119,57 113,32,
que es menos restrictiva que la anterior.

2) Como Cov (X
1
, X
3
) + Cov (X
2
, X
3
) = Cov (X
1
+ X
2
, X
3
) = 50, entonces:
20 + = 50 = 30

3) Si llamamos T = X
1
+ X
2
+ X
3
, debemos calcular P ( T 90 ) y para ello hallar la
distribucin de T. Procedemos como en el ejercicio anterior, observando que T tiene
distribucin normal y tomando C = C
1 x 3
= ( ) 1 , 1 , 1 con lo que:
C

,
_

3
2
1
X
X
X
= ( ) 1 , 1 , 1

,
_

3
2
1
X
X
X
= X
1
+ X
2
+ X
3
= T
La esperanza de T es:
E (T) = ( ) 1 , 1 , 1

,
_

30
25
20
= 75
Y su varianza:
V (T) = ( ) 1 , 1 , 1

,
_

144 30 20
30 100 10
20 10 64

,
_

1
1
1
= 428
Entonces:
P (T 90 ) = 1

,
_

428
75 90
= 1 ( 0,725) = 0,2342

EJERCICIO 32

Observamos, en primer lugar, que f
XY
es el doble de la densidad de una normal bivariada, pero
cuyo recorrido son el segundo y cuarto cuadrante.

1) f
X
(x) =

0 )
2
y
2
x (
2
1
dy e
1
=
2
x
2
1
e
2
1

0
2
y
2
1
dy e
2
=
2
x
2
1
e
2
1

2
2


0
2
y
2
1
dy e

=
2
x
2
1
e
2
1

, para x > 0.
(ya que
2
2


0
2
y
2
1
dy e es el doble de la integral de una normal, pero integrada en la
mitad de su recorrido, con lo que con la propiedad de la simetra dicha integral da 1).
El clculo para x 0, es similar con lo que nos queda la conocida frmula:
f
X
(x) =
2
x
2
1
e
2
1

para + < < x


la cual corresponde a la densidad de una N(0, 1).
La demostracin de que Y es tambin N(0, 1), es un calco de la anterior.


2) No son independientes. El Rec (X) = Rec (Y) = R; sin embargo, si X > 0, Y no puede
adoptar ningn valor positivo con probabilidad positiva. Otra forma es observar que no siempre
f
XY
= f
X
f
Y
. Por ejemplo, si x > 0 e y > 0, entonces f
X
(x).f
Y
(y) =
( )
2 2
.
2
1
.
. 2
1
y x
e
+

, mientras que
f
XY
(x,y) = 0 si x > 0 e y > 0.


3) La frmula de una normal bivariante, con marginales independientes sera:

f
XY
(x, y) =
)
2
y
2
x (
2
1
e
2
1
+

, para + < < y , x


Claramente, la distribucin conjunta no es normal bivariante.
La conclusin que extraemos de ello, implica que si las marginales son normales, ello no quiere
decir que la conjunta tambin lo sea. Recordemos que el recproco s es cierto, es decir, que si
la conjunta es normal bivariante, ello implica que las marginales tambin son normales.


EJERCICIO 33 (CANAVOS 6.1)

Recordamos que la funcin de cuanta de una distribucin multinomial es:
P (X
1
=x
1
, X
2
=x
2
,..., X
k
=x
k
) = ) x ..., , x ( p
k 1
k
X ..., ,
1
X
=
! x ... ! x
! n
k 1

k
x
k
2
x
2
1
x
1
p ... p p
donde p
i
es la probabilidad de que se d el suceso i-simo, y con las condiciones:

k
1 i
i
p = 1 y

k
1 i
i
x = n

Sean X
A
= cantidad de personas que prefieren la marca A en 60
X
B
= cantidad de personas que prefieren la marca B en 60
X
C
= cantidad de personas que prefieren la marca C en 60
Como se supone que no existen otras marcas en el mercado y que la preferencia se comparte
por igual entre las tres: p
A
= p
B
= p
C
= 1/3. Y por lo tanto lo solicitado es:
P (X
A
=27, X
B
=18, X
C
=15) = ) 15 , 18 , 27 ( p
C
X ,
B
X ,
A
X
=
! 15 ! 18 ! 27
! 60
27
3
1

,
_

18
3
1

,
_

15
3
1

,
_

= 0,00215.


EJERCICIO 34 (CANAVOS 6.2)

Sean: X
A
= cantidad de artculos listos para venderse en 25
X
B
= cantidad de artculos reprocesables en 25
X
C
= cantidad de artculos que se deben desechar en 25

Con: p
A
= 0,90, p
B
= 0,07 y p
C
= 0,03.

Por lo tanto: . 09988 , 0 03 , 0 . 07 , 0 . 9 , 0 .
! 1 ! 2 ! 22
! 25
) 1 , 2 , 22 (
1 2 22

C B A
X X X
p


EJERCICIO 35

a) Como la probabilidad de que salga cara en una moneda es igual a que salga nmero e igual
a 1/2, entonces, suponiendo que los resultados de las monedas son independientes, la
probabilidad de que no salga ninguna cara en tres monedas es 1/8 (debi haber salido nmero
en las tres), la probabilidad de que salga una sola cara es 3/8 (puede salir cara en la primera
moneda y nmero en las dems, cara en la segunda y nmero en la primera y tercera, etc.), la
probabilidad de que salga dos caras es tambin 3/8, y la probabilidad de que salgan tres caras
es 1/8.
Como los sucesos mencionados son disjuntos, abarcan todas las posibilidades y las
probabilidades permenecen constantes en cada ensayo, si repetimos el experimento n veces y
definimos una nueva variable T = nmero de tiradas donde aparecen tres caras, obtenemos
que (X, Y, Z, T) Multinomial (n; p
X
= 1/8; p
Y
= 3/8; p
Z
= 3/8; p
T
= 1/8).
Recordando, finalmente, que una variable cualquiera de la multinomial queda determinada
totalmente por las dems, se puede decir que (X, Y, Z) Multinomial (n; p
X
= 1/8; p
Y
= 3/8;
p
Z
= 3/8; p
T
= 1/8).
b) p
X, Z / Y
( ( x, z ) / y ) = P ( ( X = x, Z = z / Y = y ) ) =
) y Y ( P
) ) y Y ( ) z Z , x X ( ( P


=
) y Y ( P
) z Z , y Y , x X ( ( P


=
y n y
z y x n z y x
8
5
8
3
! ) y n ( ! y
! n
8
1
8
3
8
3
8
1
! ) z y x n ( ! z ! y ! x
! n

,
_

,
_

,
_

,
_

,
_

,
_


=
=
z y x n z x
z y x n z x
8
5
8
5
8
5
8
1
8
3
8
1
! ) z x ) y n ( ( ! z ! x
! ) y n (

,
_

,
_

,
_

,
_

,
_

,
_

=
=
z x ) y n ( z x
5
1
5
3
5
1
! ) z x ) y n ( ( ! z ! x
! ) y n (

,
_

,
_

,
_



Es decir que (X, Z) / Y = y Multinomial (n y;
Y
X
p
p
=1/5;
Y
Z
p
p
= 3/5;
Y
T
p
p
=1/5).

EJERCICIO 36 (Primera Revisin 2001)

1) Si Cov ( X
1
, X
2
) = 0,045
030 , 0 050 , 0
045 , 0
2 1
X , X
= 1,1619, lo cual es absurdo pues
el coeficiente de correlacin debe ser menor que 1.
Si Cov ( X
1
, X
2
) = 0,035
030 , 0 050 , 0
035 , 0
2 1
X , X
= 0,9037, lo cual es coherente.

2) Calculemos en primer lugar la distribucin de U y luego la probabilidad de seleccionar pollos
de distintas calidades.Como U = X
1
+ X
2
+ X
3
, por ser combinacin lineal de componentes de
un vector normal multivariante, tambin se distribuye normal.
La esperanza de U es:

E (U) = ( ) 1 , 1 , 1

,
_

1 , 0
7 , 0
6 , 1
= 2,4
Y su varianza:
V (U) = ( ) 1 , 1 , 1

,
_

0016 , 0 005 , 0 007 , 0


0050 , 0 030 , 0 035 , 0
0070 , 0 035 , 0 050 , 0

,
_

1
1
1
= 0,1756
Por otra parte:
P (que un pollo sea de baja calidad) = P ( U < 1,5 ) =

,
_

1756 , 0
4 , 2 5 , 1
= ( 2,1477) = 0,01587
P (que un pollo sea de alta calidad) = P ( U > 2,75 ) = 1

,
_

1756 , 0
4 , 2 75 , 2
= 1 (0,8352) =
1 0,7982 = 0,2018
P (que un pollo sea de mediana calidad) = 1 0,01587 0,2018 = 0,7823

Sean Y
1
= cantidad de pollos de baja calidad en 6
Y
2
= cantidad de pollos de mediana calidad en 6
Y
3
= cantidad de pollos de alta calidad en 6

Como la muestra es con reposicin las probabilidades se mantienen y entonces la distribucin
conjunta es:
Y = (Y
1
, Y
2
, Y
3
) Multinomial (6; 0,01587; 0,7823; 0,2018)

La probabilidad solicitada es la probabilidad del suceso que en la muestra de 6 se d un pollo
de baja calidad, sabiendo que tres de alta calidad:
P (Y
1
= 1, Y
2
= 2, Y
3
= 3) =
! 3 ! 2 ! 1
! 6
(0,01587) (0,7823)
2
(0,2018)
3
= 0,0048
P (Y
1
= 1/Y
3
= 3) =
= 0574 , 0
7982 , 0 2018 , 0
0048 , 0
) 3 (
) 3 , 2 , 1 (
) 3 (
) 3 , 1 (
3 3 6
3 3
3 2 1
3
3 1


C Y P
Y Y Y P
Y P
Y Y P


3.a) El vector (X
1
, X
2
+ X
3
) es normal multivariado y si llamamos C a la matriz

,
_

1 1 0
0 0 1
, se
observa que:

,
_

1 1 0
0 0 1

,
_

3
2
1
X
X
X
=

,
_

+
3 2
1
X X
X

Por lo tanto su vector de esperanzas ser:
C

,
_

1 , 0
7 , 0
6 , 1
=

,
_

1 1 0
0 0 1

,
_

1 , 0
7 , 0
6 , 1
=

,
_

8 , 0
6 , 1

Y su matriz de covarianzas:

C

,
_

0016 , 0 005 , 0 007 , 0


0050 , 0 030 , 0 035 , 0
0070 , 0 035 , 0 050 , 0
C
tr
=

,
_

1 1 0
0 0 1

,
_

0016 , 0 005 , 0 007 , 0


0050 , 0 030 , 0 035 , 0
0070 , 0 035 , 0 050 , 0

,
_

1 0
1 0
0 1
=

,
_

0416 , 0 042 , 0
0420 , 0 050 , 0


3.b) Debemos calcular la P (X
1
> 2 / X
2
+ X
3
= 0,49), para lo cual tenemos que hallar la
distribucin de X
1
/ X
2
+ X
3
. Por parte 3.a) conocemos la distribucin de (X
1
, X
2
+ X
3
) y por

propiedad 4 de la normal multivariante (GUA DE DEFINICIONES Y TEOREMAS), sabemos
que es tambin normal con esperanza:
1
X
+ ) x x (
3 2
3 2
1 3 2 1
X X 3 2
X X
X X X X
+
+
+
+


= 1,6 +
0416 , 0
050 , 0
0416 , 0 050 , 0
0420 , 0
(0,49 0,8) = 1,287

y su varianza:
) 1 (
2
X X X
2
X
3 2 1 1
+
= 0,050
1
1
1
]
1

,
_

2
0416 , 0 050 , 0
042 , 0
1 = 0,0076
Por lo tanto:
P (X
1
> 2 / X
2
+ X
3
= 0,49) = 1

,
_

0076 , 0
287 , 1 2
= 1 (8,18) = 0

EJERCICIO 37

Para resolver este ejercicio es necesario enunciar el siguiente Teorema:

Sean X y Y dos variables aleatorias independientes, de tipo continuo con funcin de densidad
conjunta f
XY
(x, y). Consideremos dos nuevas variables aleatorias U y V definidas a partir de
dos funciones continuas y montonas estrictas, tal que U = u(X, Y) y V = v(X, Y). Por ser
continuas y montonas tienen funciones inversas que llamamos x(U, V) y y(U, V). Entonces
la funcin de densidad conjunta de las dos nuevas variables es:
f
UV
(u, v) = J f
XY
[ x(u, v), y(u, v) ]
donde J denota el valor absoluto del determinante del Jacobiano de la transformacin:
J =
v
y
u
y
v
x
u
x


donde el soporte de f
UV
es el transformado del de f
XY
con la doble transformacin u = u(X, Y) y
v = v(X, Y).
a) U
1
[0, 1] y U
2
[0, 1], independientes, entonces:
) u , u ( f
2 1
2
U
1
U
= ) u ( f
1
1
U
) u ( f
2
2
U
=
[ ] [ ]

'

caso otro en 0
1 , 0 u y 1 , 0 u si 1
2 1

Entonces como

,
_

Y
X
=

,
_

+
2 1
2 1
U U
U U
; se cumple que X = u(U
1
, U
2
) = U
1
+ U
2
y Y = v(U
1
, U
2
) = U
1

U
2
y adems que:
U
1
= u
1
(X, Y) = x(X, Y) =
2
Y X +

U
2
= v
1
(X, Y) = y(X, Y) =
2
Y X

Por lo tanto:
J =
y
2
y x
x
2
y x
y
2
y x
x
2
y x

=
2
1
2
1
2
1
2
1

=
2
1

Finalmente:
f
XY
(x, y) = J
,
_

+
2
y x
,
2
y x
f
2
U
1
U
=
2
1
.1 =
2
1
; si [ ] 1 , 0
2
y x

+
y [ ] 1 , 0
2
y x



Y entonces:
f
XY
(x, y) =

'

+
caso otro en 0
2 y x 0 y 2 y x 0 si
2
1

0 x + y 2

2






0 2





2
0 x y 2


En definitiva el soporte de f
XY
es el rea doblemente rayada, o sea el rombo de aristas (0, 0),
(1, 1), (2, 0), (1, 1).

Calculemos ahora las marginales:
f
X
(x) =

+

dy ) y , x ( f
XY
=

'

caso otro en 0
2 x 1 si ) x 2 ( dy
2
1
1 x 0 si x dy
2
1
2 x
2 x
x
x

f
Y
(y) =

+

dx ) y , x ( f
XY
=

'

+
+

caso otro en 0
1 y 0 si ) y 1 ( dx
2
1
0 y 1 si 1 y dx
2
1
2 y
y
2 y
y



b) Como

,
_

Y
X
=

,
_

2 1
2 1
U / U
U . U
; se cumple que X = u(U
1
, U
2
) = U
1
.U
2
y Y = v(U
1
, U
2
) = U
1
/U
2
y
adems que:
U
1
= u
1
(X, Y) = x(X, Y) = XY
U
2
= v
1
(X, Y) = y(X, Y) = Y / X
Por lo tanto:
J =
y
y / x
x
y / x
y
xy
x
xy

=
y / x 2
y
1
x
y / x 2
y / 1
xy 2
x
xy 2
y
2

,
_

=
y 2
1


Entonces:
f
XY
(x, y) = J ( ) y / x , xy f
2
U
1
U
=
y 2
1
.1; si [ ] 1 , 0 xy y [ ] 1 , 0 y / x

Finalmente:
f
XY
(x, y) =

'


caso otro en 0
y x 0 y 1 y x 0 si
y 2
1





x.y = 1 y = x








1


1


En definitiva, de nuevo, el soporte de f
XY
es el rea doblemente rayada: en el primer cuadrante,
es la comprendida entre las rectas x = 0, y = x y la parte de hiprbola de ecuacin x . y =1.


Calculemos las marginales:

f
X
(x) =

+

dy ) y , x ( f
XY
=

'

caso otro en 0
1 x 0 si x L dy
y 2
1
x / 1
x

f
Y
(y) =

+

dx ) y , x ( f
XY
=

'

caso otro en 0
1 y si
y 2
1
dx
y 2
1
1 y 0 si
2
1
dx
y 2
1
y / 1
0
2
y
0



c) Como

,
_

Y
X
=

,
_



2 1
2 1
U L 2 ) U 2 ( cos
U L 2 ) U 2 ( sen
; se cumple que X = u(U
1
, U
2
) = ( )
2 1
U L 2 ) U 2 ( sen
y Y = v(U
1
, U
2
) = ( )
2 1
U L 2 ) U 2 ( cos y adems que:
U
1
= u
1
(X, Y) = x(X, Y) =

,
_

,
_

Y
X
g cot ar
2
1

U
2
= v
1
(X, Y) = y(X, Y) =
2
2
Y
2
X
e
+




Por lo tanto:
J =
y
e
x
e
y
y
x
ag cot ar
2
1
x
y
x
ag cot ar
2
1
2
2
y
2
x
2
2
y
2
x

,
_

,
_

=
( )
( ) ( ) y e x e
y x
x
2
1
y x
y
2
1
2
2
y
2
x
2
2
y
2
x
2 2 2 2

+

=
2
2
y
2
x
e
2
1
+



En este caso no hay restricciones pues como

,
_

2
y
x
ag cot ar 0 , entonces
1
Y
X
g cot ar
2
1
0

,
_

,
_

y claramente 0
2
2
Y
2
X
e
+

1, ya que es una potencia de


exponente negativo.

Concluimos, por ello, que:
f
XY
(x, y) =
2
2
y
2
x
e
2
1
+

si x, y +

Observamos que esta frmula corresponde a la de una normal bivariada donde sus
componentes son independientes y con distribuciones normales de esperanza cero y varianza
uno. Por este razonamiento, ya quedan determinadas las marginales, con lo que nos
ahorramos su clculo.


Nota: Tanto en este ejercicio como en otros se debe observar que la independencia o no de las
variables depende muchas veces del recorrido de stas: una funcin de densidad est
deterrninada, en definitiva, no slo por su frmula sino por su soporte (el cual, en rigor, es parte
de su frmula).

EJERCICIO 38

De igual modo que en ejercicio anterior, plantearemos una transformacin de variables del
siguente modo:

'

+
Y X
X
U
Y X V

'

) U 1 ( V U V V X V Y
U V X
, con las restricciones

'

< <
+ < <
1 U 0
V 0


Por lo tanto, el jacobiano queda:
J =
) V ( ) U 1 (
V U

= V = V, pues V > 0.

Entonces la densidad de la distribucin conjunta es:
f
V,U
(v, u) =
) b ( ) a (
1

(vu)
a-1
[ v (1 u) ]
b-1
e
vu


e
v (1 u)
v =
) b ( ) a (
1

v
a+b 1
e
v
u
a 1
(1 u)
b 1
=
) b a (
1
+
v
a+b 1
e
v

) b ( ) a (
) b a (

+
u
a 1
(1 u)
b 1
, para

'

< <
+ < <
1 u 0
v 0
.

Esta ltima frmula implica que la densidad conjunta es igual al producto de las dos
marginales donde:
f
V
(v) =
) b a (
1
+
v
a+b 1
e
v
, para 0 < v < +

f
U
(u) =
) b ( ) a (
) b a (

+
u
a 1
(1 u)
b 1
, para 0 < u < 1
Esto es que, V = X + Y Gamma (a+b, 1) y U =
Y X
X
+
Beta (a, b).
Observacin: La variable V = X + Y en este ejercicio es una variable auxiliar que permite
aplicar el teorema que transforma el par (X;Y) en otro par de variables. Si se hubiera pedido
hallar la distribucin de la variable (X + Y) entonces no era necesario aplicar el teorema pues
se puede observar a partir de la densidad conjunta de X e Y que estas variables son
independientes, que X Gamma (a, 1), Y Gamma (b, 1) y por tanto la variable X + Y tiene
distribucin Gamma (a + b, 1), lo cual es inmediato aplicando funcin generatriz de momentos.

EJERCICIO 39

Dadas X
1
, X
2
, ..., X
n
i.i.d. hallemos primero la distribucin de U = mx ' X
1
, X
2
, ..., X
n
;:
F
U
(u) = P(U u) = P(X
1
u, X
2
u, ..., X
n
u) = P(X
1
u) P(X
2
u) ...P(X
n
u)
La segunda igualdad se da debido a que el evento que el mximo sea menor o igual que un
nmero u es el mismo suceso que todas las variables sean menores o iguales que dicho
nmero u, y la ltima igualdad surge de la hiptesis de independencia.
Por otra parte como las X
1
, X
2
, ..., X
n
son igualmente distribuidas que X:
F
U
(u) = [P(X u)]
n
= ) (u F
n
X

Hasta aqu no usamos la hiptesis de que las X
1
, X
2
, ..., X
n
son absolutamente continuas por lo
que el resultado anterior es vlido en cualquier caso. Si U tiene densidad la calculamos del
siguiente modo:
f
U
(u) = F
U
(u) = [ ) (u F
n
X
] = n ) (
1
u F
n
X

f
X
(u)

Para el caso de V = mn ' X
1
, X
2
, ..., X
n
; el razonamiento es similar:
F
V
(v) = P(V v) = 1 P(V > v) = 1 P(V v) = 1 P(X
1
v, X
2
v, ..., X
n
v)
Ntese que en la tercera igualdad se usa la continuidad. Para la ltima se utiliza el hecho de
que el suceso de que el mnimo sea mayor o igual a un nmero v es el mismo suceso que
todas las variables sean mayores o iguales a l.
Aplicando las hiptesis de independencia e igual distribucin tenemos que:
F
V
(v) = 1 [P(X
1
v) P(X
2
v) ...P(X
n
v)] = 1 [P(X v)]
n
= 1 [1 F
X
(v)]
n

Y entonces:
f
V
(v) = n [1 F
X
(v)]
n-1
( f
X
(v)) = n [1 F
X
(v)]
n-1
f
X
(v)

EJERCICIO 40

Recordemos previamente las siguientes probabilidades de una variable Z Geomtrica (p):
P (Z = z) = (1 p)
z
p, para z = 0, 1, 2, ...
P (Z z) =

z
0 n
n
p ) p 1 ( =
) p 1 ( 1
) p 1 ( 1
1 z


+
p = 1 (1 p)
z+1
P (Z > z) = (1 p)
z+1


La cuanta del mn (X, Y) la hallamos del siguiente modo:
P (U = u) = P [mn (X, Y) = u] = P (X = u, Y > u) + P (X = u, Y = u) + P (X > u, Y = u) = (indep) =
(1 p)
u
p (1 p)
u+1
+ (1 p)
u
p (1 p)
u
p + (1 p)
u+1
(1 p)
u
p = (1 p)
2u
p (2 p), para u = 0,
1, ...
Hallemos, ahora, la de V = X Y para lo que distinguiremos dos casos:
a) Si v 0:
P ( V = v) = P (X Y = v) =

Y c Re y
P (Y = y, X = v + y) = (indep) =

+
0 y
(1 p)
y
p (1 p)
v+y
p =
(1 p)
v
p
2

+
0 y
[ (1 p)
2
]
y
= (1 p)
v
p
2

2
) p 1 ( 1
1

=
p 2
p ) p 1 (
v

.
b) Si v < 0:

P ( V = v) = P (X Y = v) =

X c Re x
P (X = x, Y = x v) = (indep) =

+
0 x
(1 p)
x
p (1 p)
x v
p =
= (por igual razonamiento que en a)) =
p 2
p ) p 1 (
v


.
Podemos resumir a) y b) con P (V = v) =
p 2
p ) p 1 (
v

, para v entero.

Calculemos la cuanta conjunta, es decir P ( mn (X, Y) = u, X Y = v), para u = 0, 1, ... y
v entero, distinguiendo tambin dos casos:
a) Si v 0:
P ( mn (X, Y) = u, X Y = v) = (al ser v 0, entonces X Y ) = P (Y = u, X = v + u) = (1 p)
u

p (1 p)
v+u
p = (1 p)
2u
p
2
(1 p)
v


b) Si v < 0:
P ( mn (X, Y) = u, X Y = v) = (al ser v < 0, entonces X < Y ) = P (X = u, Y = u v) = (1 p)
u

p (1 p)
u v
p = (1 p)
2u
p
2

v
) p 1 (

.

Tambin, aqu, a) y b) se puede resumir en:
(1 p)
2u
p
2

v
) p 1 ( , para u = 0, 1, ... y v entero

Finalmente, observando que el producto de las cuantas marginales calculadas anteriormente
es igual a la cuanta conjunta, deducimos que las variables son independientes.

Vous aimerez peut-être aussi