Vous êtes sur la page 1sur 70

Facultad de Ciencias

Fsicas y Matematicas
Universidad de Chile

Martinez, Servet

MA3401 - Probabilidades

Transcriptor:
Alan Beltran Flores1

Otono 2013
1
Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Roman, que pasaron sus apuntes de clases
a las que falte (justificadamente, por supuesto)
2
Indice general

Clase 01 - 12/03/2013 1

Clase 02 - 14/03/2013 5

Clase 03 - 19/03/2013 9

Clase 04 - 21/03/2013 13

Clase 05 - 26/03/2013 17

Clase 06 - 28/03/2013 21

Clase 07 - 02/04/2013 23

Clase 08 - 04/04/2013 25

Clase 09 - 09/04/2013 27

Clase 10 - 16/04/2013 31

Clase 11 - 18/04/2013 35

Clase 12 - 23/04/2013 37

Clase 13 - 25/04/2013 41

Clase 14 - 29/04/2013 45

Clase 15 - 02/05/2013 49

Clase 16 - 07/05/2013 53

Clase 17 - 09/05/2013 57

Clase 18 - 14/05/2013 61

Clase 19 - 16/05/2013 63

3
4 INDICE GENERAL
Clase 01 - 12/03/2013

Axiomatica de Probabilidades
- 6= conjunto de puntos llamado espacio muestral
- clase de eventos
Los elementos de son subconjuntos de , es decir, P(), en donde P() = { }
es el conjunto potencia de .

En la axiomatica, es una -algebra (sigma-algebra).

Definicion es una -algebra si:


0. P()
1. ,
2. B B c , en donde B c = \ B
[
3. Bn n N Bn
nN

A la propiedad 3 se le llama ser cerrado por complemento, mientras a la propiedad 4 se le


llama ser cerrado por union numerable.

Nota Bn n N lo escribiremos (Bn : n N)

Definicion Si es -algebra, a la pareja (, ) se le llama espacio medible.

Propiedad Toda -algebra es un algebra [de conjuntos], es decir, verifica las propiedades 0,
1, 2 y:
30 . A, B A B

Demostracion Tomemos B1 = A, B2 = B y Bn = A n > 2. Se tiene entonces que


Bn n N. Luego,
[
AB = Bn , que pertenece a gracias a 3.
nN

Observacion Notemos que la propiedad 3 equivale a:


n
[
n N, B1 , . . . , Bn = Bi
i=1

1
2 INDICE GENERAL

Demostracion Por induccion:


Para n = 1, es evidente. Entonces, si tenemos un n, demostremos para el n + 1:
n
[
B1 , ..., Bn , Bn+1 Bi ; Bn+1
i=1

Por 3 !
n
[ n+1
[
Bi Bn+1 Bi
i=1 i=1

Y queda asi demostrado.

Recuerdo Recordemos las leyes de Morgan:


Para finitos:
n
!c n n
!c n
[ \ \ [
Bi = (Bic ) | Bi = (Bic )
i=1 i=1 i=1 i=1

Para numerables:
!c !c
[ \ \ [
Bi = (Bic ) | Bi = (Bic )
nN nN nN nN

\
Nota Bi = { : Bn , n N}
nN

Propiedad Si es -algebra, entonces:


n
\
a) B1 , ..., Bn
i=1
\
b) (Bn : n N)
nN

Demostracion
n
0 [
a) B1 , ..., Bn (2) B1c , ..., Bnc (3 ) Bic
i=1
n
!c n
[ \
Bic = Bi
i=1 i=1
b) Es analoga a la anterior.

Propiedad Si es -algebra, entonces verifica que:

A, B A \ B

A, B A 4 B
INDICE GENERAL 3

Demostracion Ambas pueden ser escritas en forma de uniones e intersecciones

A\B = A Bc
A4B = (A \ B) (B \ A) = (A B c ) (B Ac )

Todos los conjuntos resultados de uniones e intersecciones, uniones numerables, diferencias y


diferencias simetricas estaran en .

Propiedad Sea -algebra. Sea (Bn : n N) . Entonces:

lm sup Bn
n

lm inf Bn
n

En donde:
\ [
lm sup Bn = Bk
n
nN kn

[ \
lm inf Bn = Bk
n
nN kn

Nota

lm sup Bn = { : n N k n tal que Bk }


n
= { : kn tal que Bkn }
= { : |{k N : Bn }| < }

lm inf Bn = { : n N k n tal que Bk }


n
= { : |{k N :
/ Bn }| < }

|A| = Cardinal de A

Observaciones Por la ley de Morgan:


 c
lm sup Bn = lm inf Bnc
n n
 c
lm inf Bn = lm sup Bnc
n n

Propiedad Sea 6= un espacio. Sean , 0 -algebras. Entonces 0 es -algebra. Luego,


para i = 1, ..., n:
n
\
Bi es -algebra.
i=1
4 INDICE GENERAL

Demostracion

0. 0 P()
1. , ; , 0 , 0
2. B 0 B c 0
[
3. (Bn : n N) 0 Bn 0
nN

2 y 3 son porque y son -algebras.

Propiedad Sean , 6= espacios. Si es -algebra en , entonces:


\
es -algebra.

Nota \
= {B P() : B }

Demostracion
\
0. P() P()

\
1. , ,

\ \
2. B B B c B c

\
3. (Bn : n N) (Bn : n N)

[ [ \
Bn Bn
nN nN
Clase 02 - 14/03/2013

Sea 6= . Notemos que siempre podemos definir en el las -algebras:

a) N = {, } -algebra trivial
b) P() -algebra discreta

Demostracion: Ambos cumplen trivialmente con 0, 1 y 2. Veamos 3:


[
a) Sea (Bn : n N). Si Bn = n N Bn = N
nN
[
Si n N tal que Bn = Bn = N
nN

Como esos son los unicos casos Posibles, entonces es verdad


[
b) (Bn : n N) P() Bn P()
nN

Nota N P(), excepto cuando = {}, en cuyo caso N = P() = {, {}}

Proposicion Sea 6= y sea P(). Entonces, ! -algebra que notaremos () y que


llamaremos -algebra generada por , que verifica las siguientes propiedades:

a) () es -algebra.
b) ()
c) Si y es -algebra, entonces ()

Nota () es la -algebra mas pequena que contiene a .

Demostracion Definamos = { : es -algebra y }. Se tiene P() , luego


6= . Por propiedad anterior, \
es -algebra

\
Como

\
Por ultimo, si 0 y 0 es -algebra, entonces 0 . Luego 0

5
6 INDICE GENERAL
\
Hemos probado que () = verifica (a, b, c). Ademas, es la unica -algebra que lo hace,

pues si 0 tambien lo verificase, deduciriamos de (c) que 0 () y que () 0 , concluyendo
que 0 = ().

Nota Si es numerable (finito o de cardinalidad de N), entonces siempre consideraremos


en la -algebra discreta P().
Observemos que en este caso numerable se tiene

P() = (), con = {{} : }

En efecto, si B P(), entonces:


[
B= {w}, union numerable de conjuntos en
B

Luego B (), de donde P() ()

Nota Sea 6= , = {{} : } la familia de singletons. Entonces:

() = {B : B es numerable o B c es numerable} DEMOSTRARLO

Definicion -algebra de Borel:


En = R, la -algebra de Borel se define por (R) = (), con = {(, a] : a R}

Propiedad a, b R, con a b se tiene que:



(, a] [a, b]
(, a) (a, b] cualquier union o interseccion

[a, ) [a, b) numerable, complemento o (R)
(a, ) (a, b) diferencia de estos conjuntos



{a}

Demostracion  Caso por caso



[ 1
1) (, a) = , a
n
 nN 
1 [  1

Como , a , n N, deducimos , a () = (R)
n n
nN
2) [a, ) = (, a)c . Como (, a) (R), se deduce que (, a)c (R)
3) [a, b) = (, b) [a, ). Como ambos estan en (R), entonces [a, b) (R)
4) a = [a, a] (R)

Nota B (R) se llamara Boreliano


Ademas, (R) P(R) (A R tal que A
/ (R))

Definicion Analogamente, se tiene en = Rn la -algebra de Borel, definida (Rn ) = (),


n
Y
con () = { (, ai ) : ai , . . . , an R}
i=1
INDICE GENERAL 7

Nota A los B Rn tal que B (Rn ) se les llama Borelianos.

n
Y
Nota |ai , bi | Rn (Rn ), ai , bi tal que ai bi .
i=1

Definicion Diremos que (Bn : n N) es familia disjunta si Bi Bj = i 6= j, con i, j N

Definicion Sea (, ) espacio medible. P es una medida de probabilidad en (, ) si verifica:

a) P es funcion P : [0, 1]
B P(B)
b) P() = 1
!
[ X
c) (Bn : n N) familia disjunta en se tiene que P Bn = P(Bn )
nN nN

A esta ultima propiedad se le llama -aditividad.

Propiedad Sea P medida de probabilidad. Entonces P() = 0.

Demostracion Tomemos Bn = !n N. Entonces (Bn : n N) son disjuntos.


[ X
Luego, por -aditividad P Bn = P(Bn ).
nN
[ X nN
Como Bn = , entonces P() = P().
nN nN
Luego, P() = o P() = 0. Y como P [0, 1], entonces P() = 0.
8 INDICE GENERAL
Clase 03 - 19/03/2013

Una medida en (, ) verifica:

(0) : R+ {}
(1) () = 0
(2) es -aditiva

Se dira medida finita si (B) 6= , B


Se tiene que si es medida, entonces es una medida de probabilidad si y solo si () = 1.
(B)
Por otra parte, si es medida finita y () 6= 0, entonces P(B) = , B es medida
()
de probabilidad.

Definicion ! medida en (R, (R)) llamada medida de Lebesgue que verifica:

((a, b]) = b a, a b en R

Se tiene (R) = , ({a}) = 0, a R

Definicion ! medida n en (Rn , (Rn )) llamada medida de Lebesgue que verifica:


n
Y n
Y
n ( (ai , bi )) = (bi ai )
i=1 i=1

Se tiene n (Rn ) = , n ({x}) = 0, x Rn

Propiedades Sea (, , P)) espacio de probabilidad. P es una medidad de probabilidad en


(, ). Entonces:

a) P es aditiva, es decir, si B1 , . . . , Bn son disjuntos, se tiene


n
! n
[ X
P Bi = P(Bi )
i=1 i=1
b) Si A, B , A B, entonces P(B \ A) = P(B) P(A)
c) Si A, B , A B, entonces P(A) P(B)
d) B , P(B c ) = 1 P(B)
e) P(A B) = P(A) + P(B) P(A B)

9
10 INDICE GENERAL

Nota Las propiedades a), b), c) y e) son comunes a todas las medidas.

Demostracion

a) Tomemos Bi = i > n. Luego, (Bi : i N) son disjuntos, y por -aditividad:


n
! ! n
P()=0X
[ [ X
P Bi = P Bi =
z}|{
P(Bi ) = P(Bi )
i=1 iN iN i=1

b) A B A B \ A = B Ac , son conjuntos disjuntos y verifican B = A (B \ A). Luego


por a) deducimos P(B) = P(A) + P(B \ A)
c) Como P(B \ A) 0, por b) deducimos P(A) P(B)
d) Resulta de tomar B , luego por b), y ya que B c = \ B:

P( \ B) = P() P(B) = 1 P(B)

e) A B = A B B \ A A \ B = A B (B \ A B) (A \ A B). Luego:
a)
P(A B) = P(A B) + P(B \ A B) + P(A \ A B)
b)
= P(A B) + P(B) P(A B) + P(A) P(A B)
= P(A) + P(B) P(A B)

Formula de Inclusion-Exclusion Sea B1 , . . . , Bn . Entonces:


! ! !
[n X \ X n X k
\
P Bi = (1)|J|+1 P Bi = (1)k+1 P Bi
i=1 J{1,...,n} iJ k=1 1i1 <...<ik n i=1
J6=

Primero suma todos las probabilidades de conjuntos, luego le resta las intersecciones dobles,
despues le suma las intersecciones triples, le resta las cuadruples y as.
Para el caso n = 2 obtenemos e). Para el caso n = 3 obtenemos:

P(A B C) = P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C)

Demostracion Por induccion, en auxiliar.

Propiedades Sea (Bn : n N) . Entonces:

(a) Si Bn Bn+1 n N (Se escribe Bn % y se dice Bn creciente), se tiene


!
[
P Bn = lm P(Bn ) (Continua Monotona Creciente)
n
nN
(b) Si Bn+1 Bn n N (Se escribe Bn & y se dice Bn decreciente), se tiene
!
\
P Bn = lm P(Bn ) (Continua Monotona Decreciente)
n
nN
!
[ X
(c) P es sub--aditiva. Es decir, P Bn P(Bn )
nN nN
INDICE GENERAL 11

Demostracion

(a) Definamos (An : n N) por A1 = B1 ; An+1 = Bn+1 \ Bn , n N. Se tiene


(An : n N) , ademas los An son disjuntos [probarlo] y se verifica que:
[ [
() An Bn n N An Bn
nN nN
n
[ [ [
() Bn = Ai n N Bn An
i=1 nN nN
[ [
() + () = An = Bn . Luego:
nN nN
! ! n
!
[ [ X X
P Bn =P An = P(An ) = lm P(Ai )
n
nN nN nN i=1
n
!
[
= lm P Ai = lm P(Bn )
n n
i=1
(b) Se deduce de (a) y Morgan. En efecto, Bn & Bnc % . Luego, por (a):
!
[
P Bn = lm (P(Bnc )) = lm (1 P(Bn )). Ademas:
c
n n
nN
!c ! !
\ \
P Bn =1P Bn , Luego
nN nN
! !
\ \
1P Bn = lm (1 P(Bn )) P Bn = lm (P(Bn ))
|{z} n n
nN Morgan nN
n
!
[
(c) Definamos (An : n N) por A1 = B1 ; An+1 = Bn+1 \ Bi n N
i=1
Se tiene (An : n N) , son disjuntos y verifican:
[n [ [
An Bn Bn = Ai , n N. Luego, An = Bn y deducimos
i=1 nN nN
! ! Por * y porque P es creciente
[ [ X z}|{ X
P Bn =P An = P(An ) P(Bn )
nN nN nN nN

Nota (c) implica la sub-aditividad:


B1 , . . . , Bn , y tomando Bi = , i > n, tenemos
n
! n
[ X
P P(Bn )
i=1 i=1
12 INDICE GENERAL

Corolario Sea (Bn : n N) !


[
(a) Si P(Bn ) = 0 n N, entonces P Bn =0
nN !
\
(b) Si P(Bn ) = 1 n N, entonces P Bn =1
nN

Demostracion Se demuestran:
(a) por sub--aditividad.
(b) por (a) y Morgan.
Clase 04 - 21/03/2013

Definicion Si lm inf Bn = lm sup Bn , se dice que lm Bn = lm sup Bn


n n n n
[
Si Bn %, se tiene que lm Bn = Bn
n
nN
\
Si Bn &, se tiene que lm Bn = Bn
n
nN

Propiedad Las ultimas propiedades (a) y (b), se pueden enunciar como:


Sea (Bn : n N) . Si Bn % o Bn &, entonces:
 
P lm Bn = lm P(Bn )
n n

Definicion y Propiedad Sea (, ) un espacio medible. Sea 0 , 0 6= (en particular


0 ). Se tiene:
()
|0 = {B : B 0 } = {B 0 : B }

(**) |0 es -algebra (en 0 ) y se llama -algebra inducida (o restringida) en 0 . La pareja


(0 , |0 ) es espacio medible. Ademas, |0 .

Demostracion (*) es trivial


(**) (1) , 0 |0 evidentemente.
(2) B |0 0 \ B = 0[ B c n |0
(3) (Bn : n N) |0 Bn |0
nN

Probabilidad Condicional
Sea (, , P) un espacio de probabilidades, que vamos a usar de aqu en adelante.

Definicion Sean A, B , con P(B) > 0. Definimos:


P(A B)
P(A|B) = y lo llamamos probabilidad de A condicional a B.
P(B)

13
14 INDICE GENERAL

Propiedades Obvias Sea P(B) > 0. Se tiene:

(a) P(A|B) = P(A B|B)


(b) P(A B) = P(A|B) P(B)
P(B)
(c) Si P(A) > 0 P(A|B) P(B) = P(B|A) P(A) P(A|B) = P(B|A)
P(A)

Propiedad Sea P(B) > 0. Entonces P( |B) : |B [0, 1] es una medida de probabilidad
A P(A|B)
en (B, |B ), es decir, (B, |B , P( |B)) es espacio de probabilidad.

Demostracion
P( B)
(a) P(|B) = =0
P(B)
P(B B)
(b) P(B|B) = =1
P(B)
!
[ X
(c) Nos basta demostrar que (Bn : n N) se cumple P An B = P(An |B)


nN nN
(pues |B ). En efecto:
! !
[ 1 [ 1 X X
An B = P An B = P(An B) = P(An |B)

P
P(B) P(B)
nN nN nN nN

Propiedades Sea P(B) > 0:

(a) P(B|B) = 1
(b) P(|B) = 0
(c) P(A4B) = 0 P(A|B) = 1
(d) P(A4B c ) = 1 P(A|B) = 0
(e) P(|B) = 1
(f) P(A) = 1 P(A|B) = 1
(g) P(A) = 0 P(A|B) = 0
(h) P(B) = 1 P(A|B) = P(A), A

Demostracion PROPUESTOS. Puede ser util, para (c), (d), (f) y (g), probar:

Sea (, , P). Entonces, A , se tiene: C , P(A4C) = 0 P(C) = P(A)

Formula de Bayes
Sea I un conjunto numerable (finito o no). Sea (Ai : i I) particion medible de , es
decir:
(0) (Ai : i I)
(p1 ) i I) disjuntos
(Ai : [
(p2 ) = Ai
iI
INDICE GENERAL 15
[ X
Luego, intersectando, B : B = (B Ai ), de donde P(B) = P(B Ai ). Si asumimos
iI iI
X
P(Ai ) > 0 i I, tenemos que P(B) = P(B|Ai ) P(Ai ). Si P(B) > 0, verificamos, j I:
iI

P(B|Aj ) P(Aj )
P(Aj |B) = X Conocida como la formula de Bayes
P(B|Ai ) P(Ai )
iI

Nota Lo anterior tambien es valido si (Ai : i I) es una P-particion medible, es decir:


(0) (Ai : i I)
0
(p1 ) P(Ai Aj ) =!0, i 6= j
0
[
(p2 ) P \ Ai = 0
iI

Proposicion B1 , . . . , Bn , con P(Bi ) > 0 i = 1, . . . , n, se tiene que:


!
\ n Yn i1
\
P Bi = P Bi Bj
i=1 i=1 j=1

= P(Bn |Bn1 . . . B1 ) . . . P(B2 |B1 ) P(B1 )

Demostracion

P(B1 . . . Bn ) = P(Bn |B1 . . . Bn1 ) P(Bn1 . . . B1 )


= P(Bn |B1 . . . Bn1 ) P(Bn1 |B1 . . . Bn2 ) P(Bn2 . . . B1 )
..
= .
= P(Bn |B1 . . . Bn1 ) . . . P(B2 |B1 ) P(B1 )

i1
0
\ \
Nota En la primera igualdad, cuando i = 1, Bj = , por lo que P B1 Bj =
j=1 j=1
P(B1 |) = P(B1 )
16 INDICE GENERAL
Clase 05 - 26/03/2013

Independencia
Definicion A, B se dicen (P-)independientes (notado
)si P(A B) = P(A) P(B)

Propiedades

(a) P(A) = 0 o 1 A es independiente en todo B


(b) Si P(A), P(B) > 0, entonces A B P(A|B) = P(A) P(B|A) = P(B)
(c) Si P(A), P(B) (0, 1), entonces, A B = A
B

(d) AA P(A) = 0 o 1

Demostracion

(a) Si P(A) = 0 P(A B) = 0 AB


Si P(A) = 1 P(B) = P(B A) + P(B Ac ) = P(B A) A
B
(b) Por definicion
(c) P(A B) = 0 6= P(A) P(B)
(d) P(A) = P(A A) = P(A)2 P(A) = 0 P(A) = 1

Proposicion B
A AB c
c
A B c
c
A B c

Demostracion Basta probar A B c . En efecto:


B A

P(A B c ) = P(A \ A B) = P(A) P(A B) = P(A) P(A) P(B)


= P(A)(1 P(B)) = P(A) P(B c )

Definicion Sea n 2. Sean B1 , . . . , Bn . B1 , . . . , Bn se dicen independientes si:


n
! n
\ Y
P Ai = P(Ai ), Ai = Bi o Ai = Bic , i = 1, . . . , n
i=1 i=1

Proposicion Sean B1 , . . . , Bn . Se tiene: !


\ Y
(a) B1 , . . . , Bn son independientes s y solo s J {1, . . . , n} P Bi = P(Bi )
iJ iJ
(b) Si B1 , . . . , Bn son
, entonces Bi1 , . . . , B1k son independientes, 1 i1 < . . . < ik n

17
18 INDICE GENERAL

Demostracion ...

Definicion (Bn : n N) es una familia de eventos independientes si J finito, J N


se tiene (Bi : i J) independiente. Se cumple (Bn : n N) es familia independiente si
n N, B1 , . . . , Bn independiente.

Observacion Sea (, , P) espacio de probabilidad. Sean a1 , a2 -algebras incluidas en


(se llaman sub--algebras). Ellas se dicen independientes s y solo s A1 a1 , A2 a2 , se
tiene P(A1 A2 ) = P(A1 ) P(A2 )
Se tiene que A, B son independientes s y solo s (A) y (B) son independientes, donde
(A) y (B) son las -algebras generadas por A y B respectivamente. En efecto es cierto, ya
que (A) = {, A, Ac , } y (B) = {, B, B c , }.

Caso Discreto Combinatorio


Si es numerable (finito o infinito), lo dotamos de la -lgebra = P(). En este caso, una me-
dida de probabilidad en (, ) esta determinada por una funcion, llamada densidad de probabili-
dad discreta p : R+ que verifica:
p()

X 0
(i) p()
(ii) p() = 1

Nota En particular p() [0, 1]


En efecto, si P es una medida de probabilidad en (, ), entonces p() = P({}),
verifica (i) y (ii), ya que
!
[ X
1 = P() = P {} = P({})

Recprocamente, si p verifica (i) y (ii) entonces P : [0, 1] definida por


X
P(B) = p(), B = P()
B

tambien lo cumple. Observemos


X que P({}) = p(). Ademas, P as definido es una funcion de
[0, 1], pues 0 P(B) p() = 1. Por otra parte, P() = 1, y ademas si (Bn : n N)

P() disjuntos se verifica que
! !
[ X X X X
P Bn = p() = p() = P(Bn )
S
nN Bn nN Bn nN
nN

por lo que la -aditividad se cumple.


INDICE GENERAL 19

Caso finito
Por lo dicho, una medida de probabilidad en (, ) esta dada por p : R+ .
La medida de probabilidad llamada equiprobable en es tal que

1
p() = ,
||

Tambien se le llama uniforme (en ). Es la unica medida de probabilidad en (, ) en que a


cada punto de se le da el mismo peso.
X |B|
En este caso se tiene la igualdad P(B) = p() = , es decir, un caso equiprobable.
||
B

|B| Casos favorables


B : P(B) = :
|| Casos posibles
20 INDICE GENERAL
Clase 06 - 28/03/2013

Combinatoria
Recordemos algunas igualdades de cardinalidad. Notaremos por In un conjunto de n ele-
mentos, |In | = n. Para todo efecto de cardinalidad podemos suponer In = {1, . . . , n}, (I0 = ,
|I0 | = 0)
Se tiene: k
Y Y k k
Y
Inl = |Inl | = nl


l=1 l=1 l=1

Luego |Ink | = nk . Esta igualdad se puede escribir como |F(Ik , In )| = nk , donde F(Ik , In ) =
{f : Ik In }. En efecto F(Ik , In ) Ink es una biyeccion.
f (f (i) : i Ik )
Sea I(Ik , In ) = {f : Ik In , f inyectiva}. Se tiene I(Ik , In ) 6= solo en el caso k n.
Supongamos k n. Se tiene

n!
|I(Ik , In )| = = n(n 1) (n k + 1)
(n k)!

I(Ik , In ) esta en biyeccion con {(x1 , . . . , xk ) Ink : xi 6= xj , i 6= j}

k1
Y
Demostracion I(Ik , In ) Inl
l=0
f (f (1), . . . , f (k))
Si f es inyectiva,
k1 In , f (2) In \ {f1 }, . . . , f (k) In \ {f (1), . . . , f (k 1)}. Luego
f (1)k1
Y Y
|I(Ik , In )| = Inl = (n l) = n(n 1) (n k + 1)


l=0 l=0
En particular, para k = n, I(Ik , In ) = P er(In ), conjunto de biyecciones de In In cuyos
elementos particion se llaman permutaciones de In . Se cumple que |P er(In )| = n!

Sea k n. Consideremos Pk (n) = {B : B In , |B| = k}, subconjuntos de In con k elementos.


Se tiene:
 
n n!
|Pk (n)| = = , k n
k (n k)! k!

21
22 INDICE GENERAL

Demostracion En I(Ik , In ) definamos la relacion de equivalencia:

f g {f (i) : i Ik } = {g(i) : i Ik }
f (Ik ) = g(Ik ) : los conjuntos imagen son los mismos

Sea I(Ik , In )/ el conjunto de clases de equivalencia. Se tiene

i : Pk (n) I(Ik , In )/
B i(B) = {f I(Ik , In ) : f (Ik ) = B}

i esta bien definido, pues |B| = k = |f (Ik )| f I(Ik , In ). Ademas, i es claramente biyeccion.
Luego:
n!
|Pk (n)| = |I(Ik , In )/ | =
(n k)! k!
pues f I(Ik , In ), |Clase de equivalencia de f | = |P er(f (1), . . . , f (k))| = k!

k
X
Definicion Sea In . Sean n1 , . . . , nk 0 tal que = n. Definimos
i=1

P art(n1 , . . . , nk ) = {(B1 , . . . , Bk ) : conjunto de particiones de In en k conjuntos


B1 , . . . , Bk tal que |Bi | = n1 , i = 1, . . . , k}

Notemos que si k = 2 se tiene n2 = n n1 , luego P art(n1 , n n1 ) Pn1 (n) es una biyeccion,


pues todo B Pn1 (n) determina unicamente (B, B c ) P art(n1 , n n1 ).
Se tiene:
k2
k1

   X X
n n n1 n nl n nl
|P art(n1 , . . . , nk )| =
n1 n2

l=1 l=1
nk1 nk
!
i1
X
n nl !
i1

k X k

n nl Y
Y
l=1
= =

i
!
l=1
i=1 i=1
X
ni n ! n i n ! l
l=1
n!
=
n1 ! nk !

Hipergeometrica
Hay una urna con n bolas, de las cuales n1 son rojas y n2 = n n1 son negras. Sea 1 k1
k n. Se saca al azar k bolas. Cual es la probabilidad de que se hayan sacado exactamente
k1 bolas rojas? (Con k2 = k k1 bolas negras)
Clase 07 - 02/04/2013

Revisitemos la Hipergeomeometrica.
In = J J c In = representa urna con n bolitas
J = conjunto de bolas rojas |J| = n1
J c = conjunto de bolas negras |J c | = n2 = n n1
El experimento consiste en sacar al azar un conjunto de k bolitas. Nos preguntamos por la
probabilidad de que este conjunto contuviera k1 bolitas rojas y luego k2 = k k1 bolitas negras,
donde 0 k1 k n.
Tomemos:
= Pk (n) = { : In , || = k}
El conjunto al azar, es un conjunto que se escoje de manera equiprobable en , es
1 1 1
decir, P({}) = = =   ,
|| |Pk (n)| n
k
Nos interesa calcular P(A), en donde:

A = { : | J| = k1 , | J c | = k k1 }
= { : | J| = k1 } Ya que || = k,
X |A| |A|
Con lo que P(A) = P({}) = = 
|| n
A
k
Ademas |A| : A Pk1 (n1 ) P(k2 )(n2 )
J Jc
que es claramente un biyeccion, por lo que concluimos que:
     
n n n1 n n1
k1 k k1 kk
P(Ak ) =  2 =   2
n n
k k
Que es tambien:   
k nk
k1 nk
P(Ak ) =   1
n
n1
En donde In = J J c ; = Pk (n) = { In : || = k}; Ak = { : | J| = k} es
cambiada a In = K K c ; e = Pn (n) = { In : || = n1 }; A
1
g k1 = { : | K| = k}
e

23
24 INDICE GENERAL

Generalizacion de la Hipergeometrica
Sea una urna In con n bolas, In esta particionado en bolas de r colores distintos.
[r Xr
In = Jl , Jl =bolas de color l. Notamos que Jl = nl , luego n = nl
l=1 l=1
Se saca al azar un conjunto de k bolas. Cual es la probabilidad de que obtenga k1 bolas de
r
X
J1 , ..., kr bolas de Jr ? Notar que k = kl
l=1
1 1
= Pk (n) = { : In , || = k}; P({}) = = 
|| n
k
Akl = { : | Jl | = kl }, l = 1, . . . , r
Se tiene que Ak1 ...kr Pk1 (J1 ) Pkr (Jr ) es biyeccion, luego:
( J1 , . . . , Jr )
    Y r  
n1 nr nl
|Ak1 ,...,kr | = =
k1 kr kl
l=1
r  
nl
Y
kl
Luego, la probabilidad buscada es: P(Ak1 ,...,kr ) = l=1  Notemos que si n = 2 es igual a
n
k
lo que habiamos hecho antes.

Observemos que lo hecho anteriormente, es decir, sacar el conjunto = Pk (n) de


manera equiprobable, es enteramente equivalente a: sacar una bola al azar de In , llamada v1 ,
sacar una segunda bola al azar de In \ {v1 } y as hasta sacar una k-esima vola al azar de
In \ {v1 , . . . , vk1 }. El conjunto = {v1 , . . . , vk } as escogido, es un conjunto de k elementos
elegidos al azar, es decir, de manera equiprobable en Pk (n). Este experimento es sacar las
bolas de In sin repeticion y sin reposicion.
En el caso con reposicion: Se sacan k bolas de manera independiente desde In , cada una de
ellas escogida de manera equiprobable.
Sea x1 , . . . , xk las bolas as escogidas de In . Es decir, xp In . En este caso |{x1 , . . . , xk }| k,
1 1
pues puede haber repeticion. As, se tiene = Ink y P(x1 , . . . , xk ) = = k
|In |k n
Clase 08 - 04/04/2013

Variables Aleatorias
Sea (, , P) espacio de probabilidad que consideraremos fijo.

Definicion La funcion X : R se dice variable aleatoria si C (R), X 1 (C) , es


decir, { : X() C} , C (R)
Es facil mostrar que X : R es variable aleatoria si y solo si a R, X 1 ((, a]) ,
es decir, si y solo si a R, { : X() a} .

Propiedades

(i) La funcion constante Xa : R definida por Xa () = a, es v. a.


(ii) Sea B , la funcion indicadora 1B : R  es v. a.
1 si B
1B () =
0 si
/B
Mas aun, para B se tiene que 1B es una v. a. si y solo si B
(iii) Si X es v. a. y R, entonces X es v. a.
(iv) Si X, Y son v. a., entonces X + Y es v.a.
(v) Si X, Y son v. a., entonces X Y es v. a.
X
(vi) Si X, Y son v. a., Y 6= 0, entonces es v. a.
Y
(vii) Si X, Y son v. a., entonces max(X, Y ) y mn(X, Y ) son v. a.
(viii) Si (Xn : n N) es familia de v. a. tal que lm Xn , entonces lm Xn es v. a.
n n

Nota Por (iii) y (iv), el conjunto de v. a. es espacio vectorial; por (iii), (iv) y (v) el conjunto
de v. a. es un algebra conmutativa; por (vii) el conjunto de v. a. es un reticulado (cerrado para
el maximo y el mnimo); por (i), (iii), (iv) y (v) el conjunto de v. a. es un algebra conmutativa
unitaria, pues la funcion constante 1 : R es el neutro de la multiplicacion.
1() = 1

Demostracion Solo la de (ii) y la de (i) por mientras:


(ii) Sea B y 1B : R 
1 si B
1B () =
0 si /B

25
26 INDICE GENERAL

Para probar que 1B es v. a. debemos probar que C (R), 11


B (C) . Se tiene que
11
B (C) = { : 1B () }, asi que, por casos:

Caso 1: Si {0, 1} C por definicion 11


B (C) =
/ C por definicion 11
Caso 2: Si 1 C, 0 B (C) = B
/ C por definicion 11
Caso 3: Si 0 C, 1 c
B (C) = B
/ C por definicion 11
Caso 4: Si {0, 1} B (C) =

Como son los unicos casos posibles, concluimos que 11


B (C) , C (R), luego 1B es v. a.

La segunda parte de (ii), resulta de lo hecho previamente (la parte si) y de (*?) tomando
C = {1} P(R), para la parte solo si.

(i) Notemos que si a = 1, X = 1 , luego ese caso se deduce de (ii).


En general la funcion Xa = a es v. a. pues:

si a C
Xa1 (C) =
si a
/C

Y como , , se deduce el resultado.


Clase 09 - 09/04/2013

Demostracion (Continuacion)

(iii) Sea X v. a. y R. Digamos 6= 0. Para C (R) debemos mostrar que (X)1 (C)
1 1
. Se tiene (X)1 (C) = { : X() C} = { : X() C} = X 1 ( C), en donde

1 1
C = {y R : y C} (R). Luego, como X es v. a., X 1 ( C) .

(vi) Sean X, Y v. a. Por demostrar que Z = max(X, Y ) es v. a. Para esto, basta probar que
Z 1 ((, a]) a R

Z 1 ((, a]) = { : Z() a} = { : max(X(), Y ()) a}


= { : X() a Y () a}
= { : X() a} { : Y () a}
= X 1 ((, a]) Y 1 ((, a])

Corolario
X
a) Sean X, Y v. a. Entonces, es v. a.
Y {Y 6=0}

b) Sea (Xn : n N) sucesion de v. a. Entonces ( lm Xn ) es v. a.

n { lm Xn }
n

X
Observacion Y () = 0 = 0 por definicion.
Y
es 1 si lm Xn y 0 en caso contrario.


{ lm Xn } n
n

Notacion Escribiremos {X C} = { : X() C}. As mismo, escribiremos su notacion


analoga {X1 C1 , . . . , Xn Cn } = { : X1 () C1 , . . . , Xn () Cn }
Tambien { lm Xn } = { : lm Xn }
n n

Observacion Lo que hemos hecho hasta ahora en R tambien se puede hacer en R = R


{, }, llamado R extendido.
(R) = (J), con J = {[, a], [a, ], (, a], [a, )}
Todas las propiedades son analogas cuando estan bien definidas:
( (
0 = 0 ()
Definidas: No definidas:
0=0 () ()

27
28 INDICE GENERAL

Propiedad Sean (Xn : n 1) v. a. tal que n N Xn : R (o R). Entonces

lm inf Xn y lm inf Xn son v. a., lm inf y lm sup van de a R


n n

Nota lm sup Xn ()| lm inf Xn () = sup.|nf. de la acumulacion de {Xn () : n N}.


n n

Definicion h : R R o R R se dice boreliano si C (R) : h1 (C) (R), con


h1 (C) = {x R : h(x) C}. Se prueba que esta propiedad es equivalente a:

a R, h1 ((, a]) = {x R : h(x) a} (R)

Nota Todas las funciones continuas o con un conjunto aislado numerable de discontinuida-
des son funciones borelianas.
Si C (R), la indicadora 1C es boreliana.
El conjunto de funciones borelianas tiene las propiedades ya descritas de v. a. (espacio
vectorial, reticulado, algebra unitaria).

Propiedad Sea X : R y h : R R boreliano, entonces hX : R es v. a.

Demostracion Sea C R. Entonces (hX)1 (C) = X 1 (h1 (C))

Definicion y Propiedad Sea X : R una v. a., entonces PX : (R) [0, 1] es


C P(X 1 (C))
una medida de probabilidad en (R, (R)) que se llama probabilidad inducida por X o ley de X.

Demostracion

(0) PX esta bien definida en (R) pues X es v. a. Luego C (R), X 1 (C) , luego
P(X 1 (C)) [0, 1]
(1) PX (R) = P(X 1 (C)) = P() = 1
(2) Sean (Cn : n N) (R) familia disjunta de borelianos. Entonces:
! ! !
[ [ [ X X
1 1
PX Cn = P(X Cn ) = P (X Cn ) = P(X 1 (Cn )) = PX (Cn )
nN nN nN nN nN

Observacion Notemos que para Xi : R v. a. i = 1, . . . , n se tiene:

C1 , . . . , Cn (R), { : Xi () Ci , i = 1, . . . , n}
n
\ n
\
{Xi Ci i = 1, . . . , n} = {Xi Ci } = X 1 (Ci )
i=1 i=1
INDICE GENERAL 29

Definicion Las v. a. X1 , . . . , Xn se dicen (P-)independientes si:


n
Y
P({Xi Ci , i = 1, . . . , n}) = P(Xi Ci ), C1 , . . . , Cn (R)
i=1

n
! n
\ Y
Esto es: P {Xi Ci } = P(Xi Ci )
i=1 i=1
Yn
= PXi (Ci )
i=1

Propiedad Para X v. a., (X) = {X 1 (C) : C (R)} es una -algebra contenida en .


Se tiene que X1 , . . . , Xn son independientes si y solo si las -algebras (X1 ), . . . , (Xn ) son
independientes entre si (en (, , P))

Demostracion Ejercicio.
30 INDICE GENERAL
Clase 10 - 16/04/2013

Variables Aleatorias Discretas


Definicion X : R v. a. se dice discreta si la imagen X() es un conjunto que notamos
I = X(), tal que I R numerable. Equivalentemente lo podriamos definir como X : I v.
a. tal que I es conjunto numerable; esto ocurre si y solo si

X 1 ({a}) = { : X() = a} , a I
Admitimos la generalizacion siguiente: X : R v. a. d. si I R numerable tal que
P(X I) = 1

Definicion Sea X : I v. a. d. Definimos su funcion de densidad discreta por:


PX (a) = P(X = a), a I
La funcion de densidad se extiende a R si PX (x) = 0, x
/ I.
Como P(X I) = 1, se tiene que:
X
PX (a) 0 PX (a) = 1
aI

Observacion Si Xi : Ii , i = 1, . . . , n son v. a. d., siempre podemos suponer Xi : I,


[ n
i = 1, . . . , n, tomando I = Ii . Analogamente si Xi : Ii es v. a. d para i N, lo podemos
[ i=1
hacer si tomamos I = Ii .
iN

Propiedad Sean Xi : I, i = 1, . . . , n v. a. d., entonces ellas son independientes si y solo


si n
\
!
Y n
P {Xi = ai } = P(Xi = ai )
i=1 i=1
En efecto, esto implica
n
! n
\ Y
P {Xi Ci } = P(Xi Ci ) Ci I, i = 1, . . . , n
i=1 i=1
Y por otra parte esto implica que se cumple Ci P(R), pues
n
! n
!
\ \
P {Xi Ci } = P {Xi (Ci I)}
i=1 i=1
ya que n
!
\
c
P {Xi (Ci I )} =0
i=1

31
32 INDICE GENERAL

Clases de Variables Aleatorias Discretas


1ra Clase - Constante
Sea a0 R. Xa0 : R es v. a. d. con I = {a0 }. En este caso
X() = a0
(
1 Si a = a0
PXa0 (a) = a,a0 = Se dice Xa0 v. a. constante a0 .
0 Si a 6= a0

2da Clase - Bernoulli(p)


Sea p [0, 1], X : R es v. a. Bernoulli(p) si P(X {0, 1}) = 1 tal que P(X = 0) = 1 p
P(X = 1) = p

Nota Si p = 0 o p = 1, es igual a la v. a. constante X0 o X1 respectivamente.

Y a
Observacion Sean a, b R, a 6= b. Si P(Y = a) = 1 p , entonces X = es Bernoulli(p).
ba
P(Y = b) = p
Dicho de otro modo, si X es Bernoulli(p), entonces Y = a + bX es tal que P(Y = a) = 1 p .
P(Y = b) = p

3ra Clase - Binomial(n, p)


Sea n 1, p [0, 1]. X : R v. a. d. se dice Binomial(n, p) si P(X {0, . . . , n}) = 1 y
 
n k
PX (k) = P(X = k) = p (1 p)nk , k {0, . . . , n}
k

Nota En lo anterior 0k = 0 si k > 0, 00 = 1. Observemos que


n n  
X X n k
PX (k) = p (1 p)nk = (p + (1 p))n = 1
k
k=0 k=0

n
X
Propiedades Sean X1 , . . . , Xn v. a. Bernoulli(p) independientes. Entonces Y = Xi es
  i=0
n k
Binomial(n, p), es decir, P(Y = k) = p (1 p)nk , k = 0, . . . , n
k
Nota Binomial se puede ver como el numero k de caras que aparecen en n lanzamientos.

Demostracion
n
!
X
P(Y = k) = P Xi = k= P(|{i {1, . . . , n} : Xi = 1}| = k)
i=1 !
[ X
=P {{i In : Xi = 1} = J} = P(Xi = 1, i J; Xi = 0, i J k )
JIn JIn
|J|=k |J|=k  
X Y Y X
|J| n|J| n k
= ( P(X = 1))( P(X = 0)) = p (1 p) = p (1 p)nk
0
|{z} k n
JIn iJ iJ JIn |{JIn :|J|=k}|=( k )
|J|=k |J|=k
INDICE GENERAL 33

Relacion entre Bernoulli(p) y la Indicadora Sea X v. a. Bernoulli(p). Entonces, X()


{0, 1} , de donde X = 1B con B = { : X() = 1}. En efecto,
(
1 Si B X() = 1
X() = 1B () =
0 Si / B X() = 0
Se tiene P(B) = p, pues P(B) = P(X = 1) = p X Bernoulli(p) es indicadora. Notemos que
X = 1B = 1{X=1}

Observacion Si Xi v. a. Bernoulli(p) i = 1, . . . , n, ellas son independientes si y solo si


(Bi : i = 1, . . . , n) son independientes, ya que Bi = 1{Xi =1} , i = 1, . . . , n

Definicion La sucesion de v. a. Xm : R, n N son independientes si y solo si N N :


X1 , . . . , XN son independientes. Es decir, una familia de v. a. es independiente si y solo si toda
subfamilia finita de ellas es independiente.

4ta Clase - Geometrica(p)


Sea p [0, 1]. La v. a. Z : R se dice Geometrica(p) si

P(Z N) = 1 y PZ (k) = P(Z = k) = (1 p)k1 p, k N

Nota En lo anterior 0k = 0 si k > 0, 00 = 1. Observemos que


X X 1
PZ (k) = (1 p)k1 p = p =1
1 (1 p)
kN k1

Propiedad Sea (Xi : i = 1 N) una familia independiente de v. a. Bernoulli(p). Entonces,


Y = nf({i N : Xi = 1}) es Geometrica(p), es decir: P(Y = k) = (1 p)k1 p, k N

Demostracion
P(Y = k) = P(nf({i N : Xi = 1}) = k) = P(Xi = 0 i < k; Xk = 1)
k1
Y
= P(Xi = 0)P(Xk = 1) = (1 p)k1 p
i=1

Nota P(Y = N) = 1, pues Y N {}, pero P(Y = ) Y= 0. Observemos que Y =


Xi = 0 i N, por lo que P(Y = ) = P(Xi = 0 i N) = (1 p) = 0
iN

Observacion Si Z Geometrica(p) W = Z 1 es Geometrica(p) en {0, 1, . . .}. Se tiene que

P(W {0, 1, . . .}) = 1


PW (k) = P(W = k) = P(Z 1 = k) = P(Z = k + 1) = (1 p)(k+1)1 p = (1 p)k p, k 0

5ta Clase - Poisson()


Sea > 0 R. La v. a. X se dice Poisson() si
k
P(X Z+ ) = 1 y PX (k) = P(X = k) = e , k 0
k!
34 INDICE GENERAL

Comprobemos Se tiene
X X k
P(X Z+ ) = PX (k) = e = e e = 1
k!
kZ+ kZ+

Propiedad
Sea X Poisson(), entonces si Yn es Binomial(n, p(n)) y np(n) |{z}
n
P(X = k) = lm P(Yn = k)
x
Se puede interpretar como el numero de llamadas recibidas en una unidad de tiempo con una
escala
Clase 11 - 18/04/2013

Funcion de Distribucion
Tratemos el caso general de v. a. de X R. Vamos a describir PX (que la llamaremos ley
de X) como PX (C) = P(X 1 C) = P(X C) Cuando C = (, ] se tiene PX ((, x]) =
P(X x), x R Vemos que esto ultimo caracteriza la ley de X. A continuacion definiremos y
consideraremos generales:

Definicion F : R [0, 1] se dice funcion de distribucion si verifica:


(0) F : R [0, 1] es funcion
(1) F creciente, es decir, x y F (x) F (y)
(2) F continua a la derecha, es decir, F (x+ ) = F (x), donde F (x+ ) = lm+ F (x + h) (3) F (0) = 1
h0
(4) F () = 0, donde F () = lm F (x)
x

Observaciones
Siempre existe F (x ) = lm+ F (x h) x R
h0
x es punto de continuidad si F (x ) = F (x+ ) = F (x)
x es punto de discontinuidad si F (x ) 6= F (x+ ) (Obviamente se tiene F (x ) F (x+ ))
Notamos DF = {x : F (x ) = 6 F (x+ )} el conjunto de discontinuidades de F

Teorema
a) Si P es una medida de probabilidad en (R, (R)), entonces F (x) := P((, x]), x R define
una funcion de distribucion.
b) Si F : R [0, 1] es funcion de distribucion, entonces !P medida de probabilidad en (R, (R))
tal que F (x) = P((, x])

Demostracion Solo demostraremos a).


Sea P medida de probabilidad en (R, (R)). Debemos demostrar que F (x) = P((, x]), x
R verifica (0) a (4) para ser distribucion.
(0) Como (, x] (R), P((, x]) esta bien definido y como P es medida de probabilidad
P((, x]) [0, 1]
(1) x y (, x] (, y) |{z} P((, x]) P((, y]) F (x) F (y)
P creciente
(2) F (x+ ) = F (x) equivale a: hn > 0, hn 0 se tiene lm F (X + hn ) = F (x). Entonces, sea
n \
hn que cumple con lo pedido. Se tiene (, x + hn ] decreciente y (, x] = (, x + hn ].
nN
Por continuidad monotona de P: P((, x]) = F (x) = lm P(, x + hn ] = F (x+ )
n

35
36 INDICE GENERAL
[
(3) Si xn , se tiene (, xn ) creciente y R = (, xn ). Por continuidad monotona
! nN
[
P(R) = P (, xn ) lm F (x) = 1
n
nN
\
(4) Si xn , (, xn ] es decreciente y = (, xn ], por lo que
nN
P() = lm P((, xn ]) lm F (xn ) = 0
n n

Propiedades Para F (x) = P((, x]), se tiene:


(a) P((, x)) = F (x ), x R
(b) P({x}) = F (x) F (x )
(c) P((a, b]) = F (b) F (a)
(d) P((a, b)) = F (b ) F (a)
(e) P([a, b]) = F (b) F (a )
(f) P([a, b)) = F (b ) F (a )
(g) P([a, )) = 1 F (a )
(h) P((a, )) = 1 F (a)

Demostracion Con (a) se obtienen todas las demas, asi que demostramos solo esa:
(a) Consideramos hn > 0, hn 0. Se tiene F (x ) = lm F (x hn ) = lm P((, x hn ))
n n
Clase 12 - 23/04/2013

Nota Observemos que si F (a ) = 0, entonces P([a, )) = 1, luego P(C) = P(C [a, )), C
(R). Si la (funcion
Z de) distribucion F tiene densidad f , entonces f (z) = 0, z (, a) y
luego P(C) = f (z) dz
C[a,)

Observacion Sea F (funcion de) distribucion con (funcion de) densidad f . Notemos que f
puede ser alterado o redefinido en un conjunto finito o numerable de punto sin que F o P sean
modificados. Mas generalmente, f puede modificarse en un conjunto A tal que (A) = 0 sin que
F o P sean modificados. Aqui : (R) [0, ) es la medida de Lebesgue.

Variables Aleatorias Absolutamente Continuas


Sea X : R v. a. La medida de probabilidad PX : (R) [0, 1] llamada ley de X carac-
terizada por la funcion de distribucion de X= FX : R [0, 1]
x FX (x) = PX ((, x)) = P(X x)
Se tiene DFX = {x R : FX (x) 6= FX (x )} conjunto numerable.
= {x R : PX ({x}) 0} = {x R : P(X = x) 0}
Si PX (DFX ) = 1 se tiene que X es v. a. discreta, pues toma valores en el conjunto numerable
DFX .
Si PX (DFX ) = 0, se tiene P(X = x) = 0 x R, o equivalentemente FX (x) = FX (x ) x
R, es decir FX es continua.

Definicion X es v. a. absolutamente continua si su funcion de distribucion FX es absoluta-


d(FX (x))
mente continua, es decir si: fX (x) = , x R llamada densidad de X y que verifica:
dx
Z Z
fX 0 y fX (z) dz = 1. Luego, C (R) se tiene PX (C) = P(X C) = fX (z) dz
C
Por lo dicho anteriormente, fX esta definida salvo en un conjunto que tenga medida de
Lebesgue 0.
Escribiremos X FX o X fX para decir respectivamente que X tiene distribucion FX o
densidad fX .

37
38 INDICE GENERAL

Familias de Variables Aleatorias Absolutamente Continuas


1ra Familia - Uniforme
Definicion Sea a < b. La variable aleatoria X se dice uniforme [a, b] si es abs. continua con den-

z 0 si z < a
1 a
sidad fX (z) = 1[a,b] (z) y funcion de distribucion asociada FX (z) = si z [a, b]
ba
b a
1 si z > b
1
Ademas PX (C) = PX (C [a, b]) = = (C [a, b]), medida de Lebesgue.
ba
Para definir la uniforme podemos utilizar 1|a,b| en vez de 1[a,b] , pues fX se puede modificar
en un numero finito de puntos.

Propiedad Sea U v. a. uniforme [0, 1). Entonces, la v. a. X = a + (b a)U es uniforme [a, b].
En efecto:
0 si x < a

 
x a
xa
FX (x) = P(X x) = P(a + (b a)U x) = P U = si x [a, b]
ba ba


1 si x > b

2da Familia - Exponencial ()


Sea > 0. La v. a. X se dice Exponencial () si es abs. continua con densidad fX (z) =
Z Z
ez 1(0,) (z). A se le llama tasa. Es claro que fX (z) dz = fX (z) dz = ez = 1.

0
( 0
x
1e si x > 0
Su funcion de distribucion es FX (x) = . Luego, FX (x) = 1 FX (x) =
0 si x 0
P(X > x) = ex , x > 0
X
Nota Si Y Geometrica(p), P(Y > n) = (1 p)k1 = (1 p)n = en , con =
k>n
log(1 p) si p (0, 1)
Luego, la Exponencial es la version continua de la Geometrica.

3ra Familia - Gamma ()


Z
Sea > 0. Recordemos que () = ex xa1 dx esta en (0, ) y se verifica (n) = (n 1)!,
0
para n N.
ez z 1
La v. a. X se dice Gamma() si es abs. continua con densidad fX (z) = 1(0,) (z)
()

Z
g(z)
Nota General Si g(x) 0 y 0 < g(x) dx < , entonces f (z) = R es funcion de
g(x) dx

densidad (es decir, es la normalizacion de g)
INDICE GENERAL 39

4ta Familia - Normal o Gaussiana


Sea R y > 0. La v. a. X se dice N (, 2 ) si es absolutamente continua con densidad
Z
1 1
( z )
2
fX (z) = e 2 , z R. Es claro que fX 0. Probemos que fX (z) dz = 1.
2

z
Demostracion Tomando y = debemos mostrar que

Z Z r
1 2
y2 y2
2

e dy = 1, equivalente a e dy =
2 2
0

y
Haciendo el cambio x = queda
2
Z Z Z
2 2
+y 2 )
ex dx = equivalente a e(x dx dy =
2 4
0 0 0

Luego, haciendo el cambio a coordenadas polares:



Z Z2
2
r er d dr =
4
0 0

Que es facil ver que se cumple.

Propiedad Sea X N (0, 1). Entonces Y = + X N (, 2 ).

Demostracion Sea Y = + X. Se tiene


y y
FY (z) = P(Y y) = P( + X y) = P(X ) = FX ( )

Luego Y es abs. continua con densidad

d(FY (z)) d(FX ( y


)) 1 y 1 z 2
) = e 2 ( ) N (, 2 )
1
fY (z) = (y) = = fX (
dz dy 2
40 INDICE GENERAL
Clase 13 - 25/04/2013

Independencia
Propiedad Si X1 , . . . , Xn son v. a. independientes y hi : R R, i = 1, . . . , n son funciones
borelianas, entonces las v. a. h1 (X1 ), . . . , hn (Xn ) son independientes.

Demostracion {hi (Xi )Ci } = {Xi h1


i (Ci )}, Ci (R) por ser boreliano.
De donde
P(hi (Xi ) Ci , i = 1, . . . , n) = P(Xi h1
i (Ci ), i = 1, . . . , n)
Yn n
Y
= P(Xi h1
i (C i )) = P(hi (Xi ) Ci )
i=1 i=1

Propiedad Es facil ver que las v. a. son independientes si y solo si


n
Y
P(Xi ai , i = 1, . . . , n) = P(Xi ai ), a1 , . . . , an R
i=1
Yn
= FXi (ai )
i=1

Nota En lo que sigue notaremos: FX1 ,...,Xn : R [0, 1] que llama-


(a1 , . . . , an ) FX1 ,...,Xn (a1 , . . . , an )
remos funcion de distribucion conjunta de las v. a. X1 , . . . , Xn . Ella verifica:
(0) FX1 ,...,Xn es funcion
(1) FX1 ,...,Xn es creciente: xi yi i = 1, . . . , n FX1 ,...,Xn (x1 , . . . , xn ) FX1 ,...,Xn (y1 , . . . , yn )
(2) FX1 ,...,Xn es continua por la derecha: FX1 ,...,Xn ((x1 , . . . , xn )+ )
= lm + . . . lm + FX1 ,...,Xn (x1 + h1 , . . . , xn + hn ) = FX1 ,...,Xn (x1 , . . . , xn )
h1 0 hn 0

(3) FX1 ,...,Xn (, . . . , ) = lm . . . lm FX1 ,...,Xn (x1 , . . . , xn ) = 1


x1 xn

(4) FX1 ,...,Xn (a1 , . . . , , . . . , an ) = lm FX1 ,...,Xn (x1 , . . . , xi , . . . , xn ) = 0


|{z} xi
Posicion i

Como en el caso real, se tiene que FX1 ,...,Xn : Rn [0, 1] caracteriza la medida de probabi-
lidad PX1 ,...,Xn : (Rn ) [0, 1] D (Rn ),
D PX1 ,...,Xn (D) = P({(X1 , . . . , Xn ) D})
= P({ : (X1 (), . . . , Xn ()) D})
que es llamada ley conjunta de X1 , . . . , Xn

41
42 INDICE GENERAL

Con esta notacion, las v. a. X1 , . . . , Xn son independientes si y solo si


n
Y
FX1 ,...,Xn (x1 , . . . , xn ) = FXi (xi )
i=1

Nota (X1 , . . . , Xn ) : Rn se llama vector aleatorio; con ley PX1 ,...,Xn en


(X1 (), . . . , Xn ())
(Rn , (Rn )) y distribucion FX1 ,...,Xn

Definicion El vector aleatorio (X1 , . . . , Xn ) se dice abs. continuo si fX1 ,...,Xn : Rn R+ que
Zx1 Zxn
verifique: FX1 ,...,Xn (x1 , . . . , xn ) = fX1 ,...,Xn (z1 , . . . , zn ) dz1 . . . dzn , (x1 , . . . , xn ) Rn

A fX1 ,...,Xn se le llama (funcion de) densidad conjunta de (X1 , . . . , XN ). Necesariamente
fX1 ,...,Xn verifica:

(0) fX1 ,...,Xn : Rn R


(1) fX1 ,...,Xn 0
Z Z
(2) fX1 ,...,Xn (z1 , . . . , zn ) dz1 . . . dzn = 1

d(FX1 ,...,Xn )
Ademas se cumple: (x1 , . . . , xn ) = fX1 ,...,Xn (x1 , . . . , xn ), (x1 , . . . , xn ) Rn
dx1 , . . . , dxn

Nota En este contexto fXi se llama la densidad marginal de fX1 ,...,Xn (Lo mismo con FXi , que
se llama la distribucion marginal de FX1 ,...,Xn )

Propiedad Las v. a. X1 , . . . , Xn absolutamente continuas (conjuntamente) son independientes


si y solo si: n
Y
fX1 ,...,Xn (x1 , . . . , xn ) = fXi (xi )
i=1

Es decir, la densidad conjunta en el producto de las densidades marginales.

Demostracion Tenemos que las v. a. X1 , . . . , Xn son independientes si y solo si


n
Y
FX1 ,...,Xn (x1 , . . . , xn ) = FXi (xi )
i=1 Zx1 Zxn
dn
Aplicando se obtiene lo buscado. Reciprocamente, si aplicamos a fX1 ,...,Xn
dx1 , . . . , dxn

obtenemos lo aqu presentado.

Nota Todo lo relativo a densidad conjunta es salvo conjunto de medida de Lebesgue 0 en Rn


Observemos que si X es abs. continua, entonces Y = X 2 es abs. continua, pero el vector
aleatorio (X, X 2 ) no es abs. continuo.

Definicion La sucesion de v. a. X1 , . . . , Xn son independientes si y solo si n 1; X1 , . . . , Xn


son independientes.
INDICE GENERAL 43

Cambio de Variables
Lo haremos solo en caso de una v. a. (mas adelante veremos el caso del vector aleatorio).

Teorema Sea X : R v. a. abs. continua con densidad fX y sea h : R R con derivada


continua. Entonces:

Y = hX : R
Y () = hX() = h(X())

Es v. a. abs. continua cuya funcion de densidad fY verifica:


X 1
fY (y) = fX (X(y)), y R
|h0 (X(y))|
X(y)h1 ({y})

Luego, si h es inyectiva (como h : R R esto significa h creciente o decreciente), lo anterior


es:
1
fY (y) = fX (h1 (y)), y R
|h0 (h1 (y))|

Nota Sea S = h(X()) R, el rango de h X. Entonces, las 2 anteriores ecuaciones se


deben leer y S en vez de y R
Por otra parte, se necesita que {z S : h0 (z) = 0} sea un conjunto de puntos aislados. Donde
S abierto, X() S, (h : S S).

Demostracion Lo hacemos considerando todas las regularidades que necesitamos. Sea h


creciente con h0 > 0.
FY (y) = P(Y y) = P(hX y)
= P(X h1 (y)) = FX (h1 (y))
|{z}
h creciente
d
Aplicando queda:
dy
d(FY (y)) d(FX (h1 (y))) 1
fY (y) = = = fX (h1 (y)) 0 1
dy dy h (h (y))

Sea h decreciente con h0 < 0.


FY (y) = P(Y y) = P(hX y)
= P(X h1 (y)) = P(X > h1 (y)) = 1 FX (h1 (y))
|{z}
h decreciente

d
Aplicando queda:
dy
1 1
fY (y) = fX (h1 (y)) = fX (h1 (y)) 0 1
h0 (h1 (y)) |h (h (y))|

Veamos el caso no inyectivo: Por simpleza solo veremos el caso h0 6= 0, excepto por el punto
0
h (x0 ) = 0, en que la situacion es un maximo o minimo.
44 INDICE GENERAL

Sea y [0, h(x0 )], h1 (y) = {X (y), X+ (y)}:

FY (y) = P(Y y) = P( : h(X()) y)


= P( : X() X (y) X() X+ (y))
= P(X X (y)) + P(X X+ (y))
|{z} | {z }
disjuntos abs. continua
= FX (X (y)) + (1 FX (X+ (y)))
Luego:
d(X (y)) d(X+ (y))
fY (y) = fX (X (y)) fX (X+ (y))
dy dy
1 1
= fX (X (y)) 0 + fX (X+ (y)) 0
|h (X (y))| |h (X+ (y))|
X 1
= fX (X(y)) 0
1
|h (X(y))|
X(y)h (y)
Clase 14 - 29/04/2013
Z
Si X v. a. abs. continua, entonces PX (x R : fX (x) > 0) = 1, pues fX (x)dx = 0. Luego,
{x:fX (x)=0}
en caso abs. continuo, podemos suponer que:

X() = {x R : fX (x) > 0}

As pues, sea D abierto, {x : fX (x) > 0} D, que lo llamaremos S. Para h : D R con


derivada continua y tal que {x D : h0 (x) = 0} es un conjunto finito de puntos aislados. Se
tendra que la v. a. Y = hX verifica el teorema ya enunciado.
Y es absolutamente continua con densidad fY tal que FY (y) = 0 si y
/ h(D). Para y h(D):

X 1
fY (y) = fX (X(y))
|h0 (X(y))|
X(y)h1 (y)

Si h es inyectivo, para y h(D):


1
fY (y) = fX (h1 (y))
|h0 (h1 (y))|

Ejemplo Sea X v. a. abs. continua con fX (x) > 0 x R. Sea h : R R con h(x) = x2 .
Y = hX = X 2 (y). Por lo anterior D = R = {x : fX (x) > 0}; h(D) = R+ . Y tiene densidad
fY (y) = 0 si y
/ R+ . Ademas, podemos considerar fY (0) = 0
Para y > 0 se tiene:

FY (y) = P(Y y) = P(X 2 y) = P( y X y)

= P(X y) P(X y) = FX ( y) FX ( y)

d
Luego, :
dy
1 1
fY (y) = fX ( y) + fX ( y)
2 y 2 y

X 1
h1 (y) = { y, y}, fY (y) = fX (X(y))
|h0 (X(y))|
X(y)h1 (y)

Complemento a la densidad del vector aleatorio.

45
46 INDICE GENERAL

Proposicion Sean X1 , ldots, Xn v. a. Supongamos que el vector aleatorio (X1 , . . . , Xn ) tiene


densidad conjunta fX1 ,...,Xn , es decir:
Z
P( : (X1 (), . . . , Xn () C) = fX1 ,...,Xn (x1 , . . . , xn )dX1 , . . . , dXn C (Rn )
C

Entonces cada v.a X1 es abs. continua con densidad fXi dada por
+
Z +
Z Z
fXi (xi ) = dz1 dzn fX1 ,...,Xn (z1 , . . . , xi , . . . , zn ), Sin tomar en cuenta zi
|{z}
posicion i

Demostracion
FXi = P(Xi xi ) = P(X1 , . . . , Xi xi , . . . , Xn Xn )
= P((X1 , . . . , Xn ) (, xi ) Rn1 )
+
Z Zxi +
Z
= dz1 dzi dzn fX1 ,...,Xn (z1 , . . . , zn )

Zx
d
h(t)dt = h(x)
dx

+
Z +
Z
dFXi (xi )
fXi (xi ) = = dz1 dzn fX1 ,...,Xn (z1 , . . . , xi , . . . , zn )
dxi

Esperanza
La esperanza es el valor medio o esperado de una v. a.

Definicion Sea X v. a. Entonces, cuando existe su esperanza es:


+
Z
E(X) = x dFX (x)

+0
Z +
Z
Sobre la existencia: E(X) = x dFX (x) + x dFX (x)
0
| {z } | {z }
0 0
Z0 Z
E(X) no existe si x dFX (x) = y x dFX (x) =
0
Z0 Z
E(X) existe si x dFX (x) > y/o x dFX (x) > (el y implica que es finito)
0
Cada vez que escribamos E(X) supondremos que existe y es finita.
INDICE GENERAL 47

Propiedades

(a) Si Xa = a, v. a. cte.E(Xa ) = a
(b) Si X = 1B con B (funcin indicadora)E(1B ) = P(B)
(c) X 0 E(X) 0; X Y E(X) E(Y )
(d) X, Y v. a. , R. Entonces: E(X + Y ) = E(X) + E(Y ). (Lineal)
X
(e) Si X es discreta, es decir para cierto I numerable X = a1{X=a} , entonces
aI
X X
E(X) = aP(X = a) = aPX (a)
aI aI
+
Z
(f) Si X es abs. continua con densidad fX : E(X) = x fX (x)dx

+
Z
(g) Si h : R R Boreliano, entonces E(h(X)) = h(x) dFX (x), dFX (x)

(g) E(X E(X)) = 0


(h) Si X, Y son v. a. independientes, entonces E(XY ) = E(X)E(Y ). Aun mas, si
: R R y : R R son borelianas, entonces (X), (Y ) son independientes,
por lo que E((X)(Y )) = E((X))E((Y ))
(i) Si h : R R es convexa, E(h(X)) h(E(X)). Si es concava, E(h(X)) h(E(X))
(j) Si Xn % X puntualmente y monotonamente, entonces E(Xn ) % E(X).
Si Xn & X puntualmente y monotonamente, entonces E(Xn ) & E(X)
X puntualmente y se tiene |Xn | Y con E(Y ) < , entonces E(Xn ) |{z}
Si Xn |{z} E(X)
n n
48 INDICE GENERAL
Clase 15 - 02/05/2013

Demostracion Propiedades de la clase anterior


(a) Sea Xa = a v. a. cte. FXa (x) = P(Xa a) = P(a Xa ) = escalon de Heaviside
1 Si x a
= 1a =
0 Si x < a
Z
E(Xa ) = x dFXa (x) = a (FXa (a) FXa (a )) = a
| {z }
=1

0
Si x < 0
c
(b) Sea B , X = 1B FX (x) = P( : 1B () x) = P(B ) = 1 P(B) Si x [0, 1)

1 Si x 1

+
Z
Entonces E(1B ) = xdFX (x) = 0(1 P(B)) + 1(1 (1 P(B))) = P(B)

X
(e) X discreta a valores en I R numerable. X = P(X = a) Entonces
aI
Z X X
E(X) = xdFX (x) = a(FX (a) FX (a )) = aP(X = a)
aI aI

(h) Probemoslo solo para X = 1B y Y = 1D con B, D . 1B y 1D independientes B y D


independientes.
E(1B 1D ) = E(1BD ) = P(B D) = P(B)P(D) = E(1B )E(1D )

Propiedades
(a) Si X1 , . . . , Xn son v. a. y h : Rn R funcion boreliana, entonces
h(X1 (), . . . , Xn () : R es v. a. Se tiene
h(X1 , . . . , Xn )
Z
E(h(X1 , . . . , Xn )) = h(X1 , . . . , Xn ) dFX1 ,...,Xn (x1 , . . . , xn )
Rn

Si los X1 , . . . , Xn son independientes se tiene


Z
E(h(X1 , . . . , Xn )) = h(X1 , . . . , Xn ) dFX1 (x1 ) . . . dFXn (xn )
Rn

49
50 INDICE GENERAL

n
Y
Y si ademas h(X1 , . . . , Xn ) = hi (xi ) queda
i=1

n
Z Y n Z
Y
E(h(X1 , . . . , Xn )) = hi (xi ) dFX1 (x1 ) . . . dFXn (xn ) = hi (xi ) dFXi (xi )
Rn i=1 i=1Rn

(b) Se tiene h 0, E(X) = 0 P(X = 0) = 1

Nota P(X = a) = 1 se dice X = a normalmente.

Demostracion Como X 0, si P(X = 0) < 1, a > 0 tal que P(X a) > 0. Ademas,
como X 0 se tiene X() a 1{Xa} . Luego, E(X) E(a)E(1{Xa} ) = aP(X a) lo que es
una contradiccion.

Si X v. a. notamos X = E(X). En general escribiremos mk = E(X k ) para k 1 y los


llamamos momentos de orden k. As pues m1 = X

Propiedades
E(X 2k ) (E(X))2k , k 1
Si X 0, entonces E(X k ) (E(X))k , k 1
Es decir, m2k m2k
1 y si X 0, mk m1
k

Demostracion Por (i) y como g(x) = x2k es convexa para k 1 se deduce la primera. La
segunda se deduce de g : R+ R, g(x) = xk con k 1 es convexa y de X() = R+ .

Varianza
Definicion Sea X v. a. Su varianza es

V ar(X) = E((X X )2 ) = E((X E(X))2 )

Propiedades Para X v. a. se verifica:


(1) V ar(X) 0
(2) V ar(X) > 0 P(X = X ) = 1 X = a cte. con probabilidad 1.
(3) Si , R, V ar( + X) = 2 V ar(X)
(4) V ar(X) = E(X 2 ) (E(X))2
(5) La funcion desviacion cuadratica (C) = E((X C)2 ) alcanza su minimo en C = X y
(X ) = V ar(X)
(6) Si X, Y son independientes, entonces V ar(X + Y ) = V ar(X) + V ar(Y ). Mas generalmente, si
n
X n
X
X1 , . . . , Xn son v. a. independientes y a0 , . . . , an R, se tiene V ar(a0 + ai xi ) = a2i V ar(Xi )
i=1 i=1

Nota V ar(X) esta definida si E(X) es finita. V ar(X) es finita si E(X) y E(X 2 ) son finitas.
Para todo efecto consideraremos que V ar(X) existe y es finita.
INDICE GENERAL 51

Demostracion
(1) (X X )2 0 V ar(X) = E((X X )2 ) 0
(2) Sea Y = (X X )2 , se tiene Y 0. E(Y ) = V ar(X). Si V ar(X) = 0 se tiene E(Y ) = 0, y
se concluye P(Y = 0) = 1, esto es P(X = X ) = 1. Ademas P(X = a) = 1 para cierto a R se
tiene E(X) = a, de donde P(X = X ) = 1 y V ar(X) = E((X X )2 ) = 0. Juntando todo esto
se tienen las equivalencias.
(3) Sea Y = + X. Por linealidad E(Y ) = + E(X), es decir, Y = + E(X) = + X .
Luego, V ar( + X) = V ar(Y ) = E(( + X X )2 ) = E( 2 (X X )2 ) = 2 V ar(X)
(4) V ar(X) = E((X X )2 ) = E(X 2 2XX + 2X )
= E(X 2 ) 2E(X)X + 2X = E(X 2 ) 2X
(5) (C) = E((X C)2 ) = E(X 2 2CX + C 2 ) = E(X 2 ) 2CX + C 2 . Derivando con respecto
a C, obtenemos C = X . Volviendo a derivar con respecto a C obtenemos 2 y 2 > 0, luego en
C = X alcanza su mnimo y por definicion (X ) = V ar(X).
(6) Sean X, Y v. a. indep. Se tiene x+y = X + Y .
V ar(X + Y ) = E((X + Y X y )2 ) = E((X X )2 + 2(X X )(Y Y ) + (Y Y )2 ) .
= V ar(X) + 2E((X x )(Y Y )) + V ar(Y )
Como X, Y indep., E(X x )E(Y Y ) que es 0 por (g). Luego, V ar(X +Y ) = V ar(X)+V ar(Y )

Covarianza
Definicion Si X, Y son v. a., su Covarianza es:

Cov(X, Y ) = E((X x )(Y Y ))


Propiedades
(1) V ar(X + Y ) = V ar(X) + 2Cov(X, Y ) + V ar(Y )
(2) Cov( + X, + Y ) = Cov(X, Y )
(3) Cov(X, X) = V ar(X)

Demostracion
(1) Por lo hecho en (6)
(2) Por un desarrollo analogo
(3) Directa

Definicion
Una v. a. Z tal que E(Z) = 0 se dice centrada
Una v. a. Z tal que E(Z) = 0 y V ar(Z) = 1 se dice normalizada.

Propiedades
Sea X v. a. Si E(X) es finita, entonces Z = X E(X) es centrada.
X E(X)
Sea X v. a. Si E(X) es finita y 0 < V ar(X) < , entonces Z = p es normalizada.
V ar(X)
Nota V ar(X) > 0 quiere decir que X no es constante.

Demostracion Punto 2:
!
X E(X) V ar(X)
V ar p = =1
V ar(X) |{z} V ar(X)
(3)
52 INDICE GENERAL

p X X
Nota X = V ar(X) se llama desviacion tpica. Luego, si X no es constante es
X
normalizada.
Clase 16 - 07/05/2013

Sumas de Variables Aleatorias Independientes


Caso Discreto
Recordemos que si X toma Xvalores en I R numerable, colocabamos PX (a) = P(X = a), su
densidad discreta y se tenia PX (a) = 1
aI

Proposicion Sean X e Y v. a. independientes a valores en Z. Entonces X + Y es v. a. a valores


en Z con densidad discreta:
X
PX+Y (k) = PX (l)PY (k l), k Z, es decir PX+Y (k) = PX PY
lZ

Convolucion.
Probabilidades totales
z}|{ X
Demostracion PX+Y = P(X + Y = k) = P(X + Y = l|X = l)
X lZ X
= P(Y = k l|X = l) = P(Y = k l)P(X = l)
lZ
X lZ
= PY (k l)PX (l)
lZ

X
Nota La convolucion p q(k) = p(l)q(k l):
lZ

Es conmutativa: p q = q p
Es asociativa: p (q r) = (p q) r. Luego, se escribe p q r
(
1 Si k = 0
0 dada por 0 (k) = es neutro de : p 0 = 0 p = p, pues 0 es la
2 Si k 6= 0
densidad discreta de X = 0

Propiedad Si X1 , . . . , Xn son v. a. ind. a valores en Z, entonces X1 + . . . + Xn es ind. a valores


en Z y:
PX1 +...+Xn = PX1 PXn

Demostracion Por induccion.

53
54 INDICE GENERAL

Corolario Sea X, Y v. a. indep. a valores en Z+ . Entonces, X + Y es a valores en Z+ y se


tiene:
k
X
PX+Y (k) = PX (k l)PY (k) = PX PK , k Z+
l=0

PX+Y (k) = 0 si k < 0

Demostracion PY (l) = 0 si l < 0 y PX (k l) = 0 si l > k, pues X, Y a valores en Z+

Una expresion analoga para X1 , . . . , Xn a valores en Z+ es:

k n2
P
k kl
X X1 i=1 li
X n1
X
PX1 ,...,Xn (k) = PX1 (l1 )PX2 (l2 ) PXn (k li )
l1 =0 l2 =0 ln1 i=0

Caso Absolutamente Continuo


Sea X v. a. Se tiene:
dFX (x) = P(X (x, x + dx])

Luego, si X v. a. abs. continua con densidad fX (x):

dFX (x) = fX (x)dx = P(X (x, x + dx])

Sea (X, Y ) vector aleatorio abs. continuo con densidad f(X,Y ) (x, y). Entonces:

f(X,Y ) (x, y) dx dy = P(X (x, x + dx], Y (y, y + dy])


= P((X, Y ) (x, x + dx] (y, y + dy])

Propiedad Sean X, Y v. a. abs. continuas e indep. Entonces, X + Y es v. a. abs. continua con


densidad:
Z
fX+Y (z) = fX (z) fY (z) = fX (x)fy (z x) dx

Si ademas X e Y toman valores en R+ (fX (u) = fY (u) = 0 cuando u < 0), entonces X + Y
toma valores en R+ y se tiene:

Zz
fX+Y (z) = fX (x)fy (z x) dx
0
INDICE GENERAL 55

Demostracion
Z
FX+Y (z) = P(X + Y z) = P(X (x, x + dx], X + Y z)

Z
= P(X (x, x + dx], Y z x)

Z
= P(X (x, x + dx])P(Y z x)

Z
= fX (x)FY (z x)

d
Entonces, haciendo obtenemos:
dz Z
fX+Y (z) = fX (x)fY (z x) dx

Propiedad Si X1 , . . . , Xn v. a. abs. continuas e indep., se tiene:

fPni=1 Xi = fX1 fXn

Demostracion Induccion

Nota Si f, g, h densidades, entonces:

f g = g f , es conmutativa.

f (g h) = (f g) h, es asociativa.

0 = delta de Dirac es el neutro de

Desigualdades - Tchevycheff
Propiedades

1. Si X v. a. 0, entonces,  > 0 X 1x

2. Si X v. a. y X = E(X) es finita, entonces p > 0,  > 0, |X X |p p 1|XX |

Demostracion Si X() , la desigualdad es lo mismo, pues 1X = 1

1. Si X [0, ), entonces queda X > 0.

2. Se aplica 1 a la v. a. Z = |X X |p y p .
56 INDICE GENERAL

Desigualdad de Tchevycheff
Sea X v. a.,  > 0, entonces
E(|X|)
1. P(|X| )

E(|X X |p )
2. Si X es finita, entonces: P(|X X | ) , p 1
ep
3. P(X ) et P(etX ), t > 0

Demostracion Se tiene:
1. |X| 1|X| . Luego, E(|X|) E(1|X|> ) = P(|X| )
2. Resulta de aplicar E a |X X |p p 1|XX |

3. Como t > 0, etX et 1X . Luego se aplica E


Clase 17 - 09/05/2013

Tipos de Convergencia
Primero veamos algunos tipos de convergencia. Sea (, , P) espacio de probabilidad y (Xn :
n N) es sucesion de v. a. y X es v. a.

Definicion

X con probabilidad casi segura (Pcs ) si P({ : Xn () X()}) = 1


(a) Xn |{z}
n

X en probabilidad si  > 0 : lm P({ : |Xn () X()| > }) = 0


(b) Xn |{z}
n
n

Lp
X en Lp (P) si para p 1, E(|Xn X|p ) |{z}
(c) Xn |{z} 0
n n

Proposicion Se tiene:

X Pcs Xn X en probabilidad.
(1) Xn |{z}
n

Lp
X Xn X en probabilidad.
(2) Xn |{z}
n

Demostracion

(1) Para m, n N definimos:


1
C(m, n) = { : |Xn () X() }
m
en donde C(m + 1, n) C(m, n). Se tiene:

X() m N n N tal que k n, C(m, k)


Xn () |{z}
n
\ [ \
C(m, k)
mN nN kn

\ [ \
X Pcs si y solo si P(
Luego, Xn |{z} C(m, k)) = 1
n mN nN kn

57
58 INDICE GENERAL
[ \
Se tiene que C(m, k) decrece con m, de donde:
nN kn
[ \
X Pcs si y solo si m N P(
Xn |{z} C(m, k)) = 1
n nN kn
\ [
esto es si y solo si m N P( ( C(m, k)c )) = 0
nN kn
[
Se tiene que C(m, k) decrece con n, de donde:
kn
[
X Pcs si y solo si m N lm P(
Xn |{z} C(m, k)c ) = 0
n
n kn
[
Como C(m, n)c C(m, k)c , se tiene que lo anterior implica
kn

m N, lm P(C(m, n)c ) = 0, esto es


n
1
m N, lm P(|Xn X| )=0
n m
X en probabilidad P
que equivale a Xn |{z}
n

E(|Xn X|p )
(2) Por Tchevycheff,  > 0 se tiene P(|Xn X| )
p

Nota Supongamos para p 1 fijo:

n N, E(|Xn |p ) < , E(|X|p ) <

Entonces:
Lp
X, subsucesion nk % tal que Xn |{z}
1. Si Xn |{z} X con Pcs
n n

Lp
X con Pcs y sup |Xn | Y , con E(|Y |p ) < , entonces Xn |{z}
2. Si Xn |{z} X
h1
n n

Ejemplo Tomemos = [0, 1], ([0, 1]) = {B (R) : tales que B [0, 1]} y P = , medida
de Lebesgue en ([0, 1], ([0, 1])), es decir, ((a, b]) = b a, (a, b] [0, 1]
Todo n [N lo representamos de manera unica como n = 2l + r, l 0, r {0, 1, . . . , 2l 1},
ya que N = {2l , . . . , 2l+1 1}. Entonces: Xn = 1( r , r+1 )
2l 2l
l0
Para  > 0 se tiene
 
r r+1 1
P(|Xn | > ) = (|Xn | > ) = , = 0
2l 2l 2l |{z}
n

0 en probabilidad P, pero { [0, 1] : Xn |{z}


Luego Xn |{z} 0} =
6 . Luego, Xn 9 0 con Pcs
n n
INDICE GENERAL 59

Teorema de los Grandes Numeros


Sea (XN : n 1) sucesion de v. a. indep. igualmente distribuidas. Asumimos que E(X1 ) es
finito. Entonces:
N
1 X
E(X1 ), Pcs
Xn |{z}
N n=1
N

Es decir:
N
1 X
P({ : lm Xn () = E(X1 )}) = 1
N N
n=1

Que significa que el promedio emprico converge al teorico, y se le llama a menudo Teorema
Fuerte de los Grandes Numeros.

Nota El Teorema Debil de los Grandes Numeros se refiere a:


N
1 X
E(X1 ), en probabilidad P
Xn |{z}
N n=1
N

Nota Si Xn Bernoulli(p), se tiene E(Xn ) = p. Luego, en este caso el Teorema de los Grandes
Numeros:
N
1 X
p, Pcs
Xn |{z}
N n=1 N

N
!
X
Xn = |{n {1, . . . , N } : Xn 1}| Binomial(n, p)
n=1

Demostracion Solo probaremos el Teorema Debil. En caso

E(|Xn |2 ) < , n E(|X|2 ) <

Por hipotesis E(X1 ) es finito. Probaremos bajo estas hipotesis la convergencia en L2 , ya que
probamos que implica la convergencia en probabilidad.
XN
Sea Sn = Xn . Se tiene:
n=1

  N
! N
Sn 1 X 1 X V ar(X1 )
V ar = 2 V ar Xn =
|{z} N 2 V ar(Xn ) |{z}
=
N N n=1 n=1
N
ind. = dist.

Por otra parte:  


Sn
E = E(X1 )
N
Luego:
   2 !
Sn Sn V ar(X1 )
V ar =E E(X1 ) =
N N N
60 INDICE GENERAL

Luego: " #
Sn L2 V ar(X1 )
E(X1 ) pues 0
N |{z} N |{z}
N N

Recordemos que por Tchevycheff:

V ar SNn
  
Sn V ar(X1 )
P E(X1 ) 
= 0
N 2 2 N |{z}
N

Que es la convergencia en probabilidad.


Clase 18 - 14/05/2013

Teorema de los Grandes Numeros en Lp


Sean (Xn : n N) v. a. ind. id. dist. tal que E(X1 ) finita. Supongamos que para p 1 fijo se
tiene: E(|X1 |p ) < . Entonces:
n
n p !
1X Lp
1 X
E(X1 ), i. e. E
Xi |{z} Xi E(X1 ) |{z} 0

n i=1 n
i=1

n n

Nota
n n
1X 1X
Xi E(X1 ) = (Xi E(Xi )), pues E(Xi ) = E(X1 ), i N
n i=1 n i=1

 
1
Expansion Diadica y v. a. Bernoulli
2
Ah, s, s

Transf. de Laplace y Funcion Generadora de Momentos


Definicion Sea X v. a. acotada inferiormente i. e. m R tal que P(X m) = 1. Su
Transformada de Laplace es a funcion:
Z
sX
X : R+ R+ con X (s) = E(e ) = esx dFX (x)
s X (s) m

Nota Como X es acotado inferiormente, X (s) es finito s R

Propiedades Sea X acotado inferiormente por m:


(a) X (s) (0, esm ], s 0. En particular si X 0 se tiene X (s) (0, 1]
(b) X (0) = 1
(c) Si R, 0 se tiene +X (s) = es X (s)
(d) La funcion X solo depende de FX . Aun mas, se cumple que:
X = Y FX = FY , donde X (s) = Y (s) s R+

61
62 INDICE GENERAL

dn X (s)
(e) Si E(|X n |) < , entonces = (1)n E(X n )
dsn 0

(f) Si X es discreta
X tomando valores
X en el conjunto numerable I [m, ), se tiene:
sa sa
X (s) = e PX (a) = e P(X = a)
aI aI

(g) Si X es abs. continua con densidad fX tal que fX = 0 si x < m se verifica:


Z
X (s) = esx fX (x) dx
m

(h) Si X e Y son independientes: X+Y (s) = X (s) Y (s)

Nota De (c) y (h) se obtiene:


Si X1 , . . . , Xn son v. a. indep. acotadas inferiormente, R y 1 , . . . , n 0, entonces:
n
Y
n
P = es Xj (j s)
+ j Xj
j=1 j=1

Demostracion
(a) esX esm si X m
(b) e0X = 1

(c) +X (s) = E(e(+X)s ) = es E(eXs ) = es X (s)


Z Z
(d) FX = FY X = esx dFX (x) = esx dFY (x) = Y (s), s R+

Z Z
Nota FX (x) = 1(,X] (z) dFX (z), X (s) = esz dFX (z)

(e) Si E(|X|n ) < , entonces:


Z  n sx  Z
dn X (s) d e
= dFX (x) = (1)n xn dFX (x) = (1)n E(X n )

dsn 0 dsn 0
m m

(h) Sean X e Y indep. Entonces:


X+Y (s) = E(es(X+Y ) ) = E(esX esY ) = E(esX )E(esY ) = X (s)Y (s)

A X (s), s R+ a menudo se le llama funcion generadora de momentos, aunque tambien


Z
X
se usa este nombre para la funcion X : (0, 1) R+ con X () = E( ) = x dFX (x).
X () m
Notemos que X () = X ( log()), (0, 1] y reciprocamente X (s) = X (es ), s 0
Clase 19 - 16/05/2013

Nota Si F funcion de distribucion tal que F (m ) = 0 (es decir, F esta concentrado en


[m, )), se define:
Z
s 0 F (s) = esx dF (x) Transformada de Laplace
m
Z
(0, 1] F () = x dF (x) Funcion generadora de F
m

Transformada de Fourier. Funcion Caracterstica


Definicion Sea X v. a. Su funcion caracteristica es la funcion:

X : R C con X (t) = E(eitX ) = E(cos(tX) + i sin(tX)) = E(cos(tX)) + iE(sin(tX))


t X (t)

Se tiene entonces:
Z Z Z
itx
X (t) = e FX (x) = cos(tx) dFX (x) + i sin(tx) dFX (x)

Nota Si F es funcion de distribucion, se define su funcion caracterstica por:


Z Z Z
itx
F : R C con F (t) = e FX (x) = cos(tx) dFX (x) + i sin(tx) dFX (x)
t X (t)

Propiedades

(a) Para toda v. a. X siempre su funcion caracterstica.

(b) |X (t)| 1, t R

(c) a, b R, a+bX (t) = eita X (bt)

(d) X solo depende de FX . Aun mas, X = Y FX = FY


dn
(e) Si E(|X|n ) < para cierto n N, entonces n X (t) = in E(X n )

dt 0

63
64 INDICE GENERAL

(f) Si X : discreta
X a valores en XI R numerable
itx
X (t) = e PX (a) = eitx P(X = a)
aI aI

(g) Si X abs. continua con densidad fX


Z Z Z
tx
X (t) = e fX (x)dx = cos(tx)fX (x) dx + i sin(tx)fX (x) dx

(h) Si X e Y son indep. se tiene: X+Y (t) = X (t)Y (t)

(i) X (t) = X (t), siendo a + ib = a ib su complejo conjugado.

(j) X (t) R, t R FX = FX , es decir X es simetrica con respecto al 0

(k) X (t) uniformemente continua si  > 0 > 0 tal que:


|t t0 | < () |X (t) X (t0 )| < 

Nota De (c) y (h) se tiene que si X1 , . . . , Xn indep. y , 1 , . . . , n R:


n
Y
n
P (t) = eit Xj (j t)
+ j Xj
j=1 j=1

Demostracion

(0) X v. a. cos(tx) y sin(tx) son v. a. Estan acotados, toman valores en [1, 1] por lo que
E(cos(tX)) y E(sin(tX)) y son finitas, de donde X (t) C esta bien definido.

(a) |X (t)|2 = |E(cos(tX)) + iE(sin(tX))|2 = (E(cos(tX)))2 + (E(sin(tX)))2


E(cos(tX)2 ) + E(sin(tX)2 ) = E(cos(tX)2 + sin(tX)2 ) = E(1) = 1

(i) X (t) = E(cos(tX)) + iE(sin(tX)) = E(cos(tX)) iE(sin(tX)) = X (t)

(j) X (t) R t X (t) = X (t) X (t) = X (t) X (t) = X (t) Luego, X = X


y por (b) concluimos que FX = FX

Nota Todos los demas son iguales a las demostraciones de Laplace.

Ejemplo

(1) Xa = a v. a. constante. Se tiene Xa (t) = eiat t R

(2) X Bernoulli(p), X (t) = (1 p) + peit t R

Propiedad Si X N (, 2 ), entonces:
1 2
2
X (t) = eit 2 t , t R
En particular, si X N (0, 1), entonces:
t2
X (t) = e 2
INDICE GENERAL 65

Demostracion Si X N (0, 1), entonces + X N (, 2 ). Usando la propiedad (c),


+X (t) = eit X (t). Luego, solo hay que demostrar el caso particular.
Sea X N (0, 1), entonces,
Z Z
1 2
itx x2 1 xit 2 t2
X (t) = e e dx = e( 2 ) e 2 dx
2 2

Y despues con un poquito de magia (que tengo que anadir despues) sale.

Teorema Central del Limite


Demos el marco conceptual para este resultado.

Definicion Sea (Fn : n 1)sucesion de funciones de distribucion y F funcion de distribucion.


Definimos:
d
Fn F x punto de continuidad de F se tiene lm Fn (x) = F (x)
n
y se dice que Fn converge debilmente a F

Nota x punto de continuidad de F si F (x ) = F (x). Recordemos que F (x) = F (x+ )


siempre, luego, x punto de continuidad si F (x ) = F (x) = F (x+ )

Definicion La sucesion de v. a. (Xn : n N) converge en distribucion a la v. a. X si:


d D
FXn FX . Se escribe XN X

Nota Tambien se dice que Xn converge en ley a X

En v. a. esta convergencia es la mas debil de las definidas, pues se tiene:

D
Propiedad Xn X en probabilidad Xn X
n

Demostracion Sea Xn X en probabilidad. Debemos mostrar que

lm FXn (x) = FX (x) x tal que FX (x ) = FX (x)


n

Nos bastara probar lo siguiente:


x0 < x < x00 , FX (x0 ) lm inf FXn (x) lm sup FXn (x) FX (x00 )
n n
Esto es suficiente pues si x es punto de continuidad de F nos basta tomar x0 % x y x00 & x y
se deduce FX (x) = lm FXn (x)
n
Solo probaremos la primera desigualdad, ya que la tercera es analoga y la segunda es trivial.

FX (x0 ) = P(X x0 ) = P(X x0 , |Xn X| > x x0 ) + P(X x0 , |Xn X| x x0 )


P(|Xn X| > x x0 ) + P(Xn x)

Tomando lm inf , como x x0 > 0 y usando Xn X en probabilidad, deducimos


n
66 INDICE GENERAL

Vous aimerez peut-être aussi