Académique Documents
Professionnel Documents
Culture Documents
Esperanza Matem
atica
Los conceptos de -algebra, medida (en particular las medidas de probabilidad), y funcion
medible (en particular las variables aleatorias), han surgido de los esfuerzos hechos en el
siglo XIX y principios del XX para ampliar el concepto de integral a clases cada vez mas
amplias de funciones. La ampliacion definitiva fue llevada a cabo por Lebesgue, despues
de que Borel abriera el camino. Lebesgue trabajo con la medida especial conocida como
medida de Lebesgue. Radon aplico el mismo punto de vista, trabajando con medidas
de Stieljes-Lebesgue. Por u
ltimo, Frechet, usando a
un el punto de vista de Lebesgue,
prescindio de las restricciones sobre el espacio de medida sobre el que estaban definidas
las funciones numericas a integrar.
La axiomatica de la probabilidad de Kolmogorov, introduciendola como una medida
sobre una -algebra de los sucesos, supuso un importante avance de la Teora de la
Probabilidad, que tuvo desde entonces el importante apoyo de la Teora de la Medida
en su evolucion. Asi, el concepto de Esperanza Matematica, que juega en el Calculo de
Probabilidades un papel preponderante como medida de centralizacion, paso de ser una
simple media aritmetica ponderada, calculable en ciertos casos, a su generalizacion como
una integral respecto de una medida de probabilidad. Al tiempo, la Teora de la Probabilidad ha enriquecido notablemente a la Teora de la Medida no solo por la justificacion
practica que supone, sino por la abundancia de nuevas ideas que ha introducido y por los
nuevos metodos de demostracion que ha impuesto.
Lebesgue tiene dos definiciones equivalentes de integral, una descriptiva a partir de
sucesiones convenientes (mas propia del Analisis Matematico), que basicamente consiste
en la completizacion del espacio de las variables simples respecto de la distancia inducida
por la integral, y otra constructiva. Usaremos la definicion constructiva de integral, de la
cual hay muchas variantes, pero las ideas basicas son siempre las mismas y, en general, la
integral se comienza definiendo siempre para funciones simples. Aunque no excluiremos
los valores infinitos, sin embargo deberemos evitar la aparicion de la expresion a
la que no daremos sentido.
Una de las propiedades esenciales de la integral es la de ser continua para limites
monotonos, y en la construccion aue vamos a realizar apuntaremos a conseguir rapidamente
este resultado.
Utilizaremos indistintamente los terminos Esperanza Matematica (o Esperanza para
abreviar), media
e integral,
y para una
variable aleatoria dada, X,R representaremos su
R
R
R
esperanza por XdP, X()dP (), X()P (d) o EX e incluso X cuando no haya
lugar a dudas sobre el espacio probabilstico (, , P ) que consideraremos fijo en todo el
tema.
Como generalizacion natural del concepto de media aritmetica, e incluso del de centro
de gravedad en sentido fsico, comenzaremos por definir la Esperanza Matematica para
variables simples.
Definici
on 1.1 Dada una variable simple X = ni=1 xi IAi , xi <, Ai P
, i = 1, ...n
llamaremos esperanza matematica (o integral) de X (respecto de P ) al valor ni=1 xi P (Ai ).
P
Para ver que la definicion es consistente habra que probar que el valor asignado a la
integral no depende de la representacion de X elegida.
1
n
X
xi IAi =
i=1
m
X
yj IBj ,
j=1
k
X
yjp = xi }.
p=1
yj P (Bj ) =
m
X
D, DBj
yj
j=1
j=1
D. Por tanto
P (D),
D, DBj
yj P (Bj ) =
j=1
D
n X
X
i=1 Di
P (D)(
yj ) =
n
X
xi
i=1
P (D)(
i=1 Di
j: DBj
P (D)xi =
n X
X
P (D) =
n
X
yj ) =
j: DBj
xi P (Ai ),
i=1
Di
justificando la definicion.
En particular se tiene (utilizando la descomposicion canonica) que
EX =
n
X
i=1
xi P (X = xi ) =
n
X
xi P X
i=1
(xi ) =
n
X
xi PX (xi ),
i=1
Proposici
on 1.2 Sea S la clase de las variables aleatorias simples definidas en el espacio
(, , P ). La esperanza matematica tiene sobre S las siguientes propiedades:
1.
2.
3.
4.
5.
6.
n
X
n
X
i=1
i=1
(kxi )P (Ai ) = k
xi P (Ai ) = kEX.
4) es inmediata a partir del hecho de que la esperanza de una variable simple no dependa
de la forma particular enPque se descomponga
como combinacion lineal de indicadores de
P
conjuntos de : Si X = ni=1 xi IAi , Y = m
j=1 yj IBj , con Ai , Bj , es obvio que
X + Y = x1 IA1 + x2 IA2 + ... + xn IAn + y1 IB1 + y2 IB2 + ... + ym IBm ,
y entonces
E(X + Y ) = x1 P (A1 ) + ... + xn P (An ) + y1 P (B1 ) + ... + ym P (Bm ) = EX + EY.
Para probar 5) observese que si X Y entonces Y X 0 y, por otra parte, Y X
tambien es una variable simple, luego de 2) obtenemos E(Y X) 0, y de 3) y 4) que
E(Y X) = EY EX, luego EX EY.
Por las propiedades de linealidad y monotona que hemos obtenido, para probar 6)
sera suficiente probar que si Xn 0, entonces EXn 0.
Si M = sup{x11 , x12 , ..., x1n1 }, siendo {x11 , x12 , ..., x1n1 } el conjunto de valores que toma
la variable X1 , es claro que para cualquier > 0, se tiene Xn M I{Xn >} + ; por las
propiedades ya probadas de la esperanza se tiene entonces EXn M P ({Xn > }) + ,
pero, como Xn 0, {Xn > } , luego P ({Xn > }) 0, y se obtiene 0 lim EXn
para todo > 0, y, en consecuencia EXn 0. 2
Teniendo en cuenta que toda variable positiva es lmite creciente de variables positivas
simples, y la propiedad de continuidad monotona secuencial de la esperanza en S es
posible extender la definicion de esperanza tambien a variables positivas (el conjunto de
estas se denotara por L+
0.
3
Definici
on 1.3 Sea X L+
0 y (Xn )n una sucesion de variables simples tales que Xn X.
La esperanza de X es el valor (finito o infinito) EX = lim EXn . (Notese que el lmite
existe por ser (EXn )n una sucesion creciente.)
Esta definicion de esperanza necesita ser justificada demostrando que no existe ambig
uedad:
que el valor adjudicado a EX no depende de la sucesion aproximadora. Con el siguiente lema preparamos ademas el argumento para probar facilmente la monotona de la
esperanza sobre L+
0.
Lema 1.4 Sean Xn , Y S, n N . Si Xn X, y X Y , entonces lim EXn EY.
Demostracion: Definiendo las nuevas variables (simples) Zn = inf{Xn , Y } se consigue
una nueva sucesion monotona y convergente, Zn Y , ahora hacia una variable simple, que
ademas verifica Zn Y y Zn Xn para todo n. Las propiedades dadas en la proposicion
1.2 aseguran entonces que EZn EY, EZn EXn y EZn EY , de donde
lim EXn lim EZn = EY.
(notese de nuevo que la existencia del lmite lim EXn esta garantizada por la monotona
de la sucesion (Xn )n ). 2
Proposici
on 1.5 Sean (Xn )n e (Yn )n dos sucesiones de variables en S, tales que Xn
X, Yn X. Entonces lim EXn = lim EYn (y, en consecuencia, la definicion 1.3 es
consistente).
Demostracion: De las convergencias Xn X, Yn X se deduce que lim Xn = X
Yk y lim Yn = X Xk para todo k. El lema 1.4 asegura entonces que lim EXn
EYk y lim EYn EXk para todo k, y, en consecuencia, lim EXn = lim EYn . 2
Respecto a la monotona de la esperanza tenemos:
Proposici
on 1.6 Sean X, Y L+
0 . Si X Y entonces EX EY .
Demostracion: Sean (Xn )n e (Yn )n dos sucesiones de variables en S, tales que Xn
X, Yn Y . Entonces Y Xk para todo k y, por el lema 1.4, lim EYn EXk para
todo k, luego EY = lim EYn lim EXn = EX. 2
En particular se obtiene la propiedad (por otra parte obvia a partir de la definicion):
EX 0 si X es una variable aleatoria positiva.
Otras propiedades de interes de la esperanza sobre las variables positivas se muestran
en la siguiente proposicion.
Proposici
on 1.7 Sea L+
0 el conjunto de las variables aleatorias positivas en (, , P ).
Entonces:
1. Si X L+
0 y c 0: E(cX) = cEX.
4
2. Si X1 , X2 L+
0 : E(X1 + X2 ) = EX1 + EX2 = E(sup(X1 , X2 )) + E(inf(X1 , X2 )).
3. Xn L+
0 , y Xn X EXn EX.
Demostracion: Todas las propiedades se demuestran a partir de las correspondientes de
la esperanza de variables simples dadas en la proposicion 1.2.
1) Sean Xn S tales que Xn X. Entonces, si c 0, tambien cXn S y cXn cX.
Ademas por 3) en la proposicion 1.2, E(cXn ) = cEXn . Por tanto se tendra
E(cX) = lim E(cXn ) = lim cEXn = cEX.
2) Sean Xn1 , Xn2 S tales que Xn1 X1 , Xn2 X2 . Entonces
Xn1 + Xn2 X1 + X2 y Xn1 + Xn2 S.
Como E(Xn1 + Xn2 ) = EXn1 + EXn2 por 4) en la proposicion 1.2, facilmente obtenemos
E(X1 + X2 ) = lim E(Xn1 + Xn2 ) = lim(EXn1 + EXn2 ) = EX1 + EX2 .
Finalmente la igualdad E(X1 + X2 ) = E(sup(X1 , X2 )) + E(inf(X1 , X2 )) es consecuencia
inmediata de la identidad X1 + X2 = sup(X1 , X2 ) + inf(X1 , X2 ).
3) Sea para cada n (Ymn )m una sucesion de variables simples tales que Ymn Xn .
Definiendo las nuevas variables (simples)
Zm = sup Ymn ,
n:nm
obtenemos una nueva sucesion creciente que verifica Ymn Zm Xm para todo m n.
Entonces la monotona de la esperanza sobre las variables simples nos asegura
EYmn EZm EXm si m n y EZm EZm+1 para todo m.
Haciendo m y despues n , obtenemos finalmente
X = lim Xm = lim Zm y lim EXm = lim EZm = E(lim Zm ) = E(lim Xm ) = EX.
2
La ampliacion del campo de definicion de la integral a variables cualesquiera esta
basada en la b
usqueda inmediata de linealidad conservando las propiedades de convergencia.
Definici
on 1.8 Sea X una variable aleatoria cualquiera. Si al menos uno de los valores
+
EX , EX es finito definimos la esperanza de X como el valor (posiblemente infinito)
EX = EX + EX .
Cuando los dos valores EX + y EX son finitos (o, de forma equivalente, cuando EX
es finito) diremos que la variable X es integrable.
5
1
1
I 1
+ 1I{|X|>1} .
n + 1 { n+1 <|X| n }
6
Es evidente que 0 Y2 |X| Y1 , y por tanto (al ser variables positivas), tenemos
0 EY2 E|X| EY1 .
Si X = 0 casi seguro, entonces EY1 = 0, y por tanto E|X| = 0.
Si, por el contrario, suponemos que E|X| = 0, entonces EY2 = 0, y debe ocurrir X = 0
casi seguro.
2) Ya se demostro en la proposicion 1.7.
3) Si c 0 se tiene E(cX) = E(cX)+ E(cX) = E(cX + ) E(cX ) = cEX +
cEX = cEX.
Si, por el contrario, c < 0 : E(cX) = E(c(X)) = cE(X) = c(E(X)+
E(X) ) = c(EX EX + ) = c(EX + EX ) = cEX.
4) Observemos en primer lugar que si X1 , X2 son dos variables positivas y X1 ()
X2 () 6= en todo punto , siendo una de ellas integrable, la variable X =
X1 X2 es casi integrable y EX = EX1 EX2 , ya que se tiene X + X1 y X
X2 (y por tanto X es casi integrable), y X + + X2 = X + X1 (de donde resulta que
EX + EX = EX1 EX2 ).
La aditividad de la esperanza en las condiciones propuestas es ahora consecuencia de
la descomposicion X + Y = (X + + Y + ) (X + Y ).
5) Si X es finita casi seguro tambien lo es Y , y por 1) tendremos
X = Y casi seguro X Y = 0 casi seguro E|X Y | = 0.
Por 4): 0 = E|X Y | = E(X Y )+ +E(X Y ) , y por 2): E(X Y )+ = E(X Y ) = 0.
Entonces E(X Y ) = 0, y por 3) y 4): EX = EY.
Ademas, si fuera P (X = ) > 0, debe ocurrir P (X = ) = 0 (en caso contrario no
existira EX), y por ser X = Y casi seguro, tambien P (Y = ) > 0 y P (Y = ) = 0,
luego sera EX = EY = . El caso es analogo.
6) Si X Y casi seguro, entonces X = inf(X, Y ) y Y = sup(X, Y ) casi seguro, y
ademas X Y, luego por 5) bastara probar el resultado cuando se da la desigualdad
X Y.
Si las variables son finitas (o finitas casi seguro) el resultado proviene de 2) y 4), y si
toman valores infinitos con probabilidad positiva, de la casi integrabilidad de las variables,
actuando como en la segunda parte de la demostracion de 5) se asegura igualmente el
resultado.
Respecto a la desigualdad |EX| E|X|, si E|X| = es trivial. Si E|X| < ,
entonces las variables X y X son integrables y ademas se tienen las desigualdades
X |X|, X |X|. Por tanto EX E|X| y EX = E(X) E|X|, pero como
|EX| = sup(EX, EX), el resultado es obvio.
7) Probaremos solo el caso creciente. Si Xn X y EXn0 < , entonces X Xn
Xn0 , si n n0 , y por tanto las variables X, Xn , si n n0 , son casi integrables. Ademas
0 Xn + Xn0 X + Xn0 si n , luego por la propiedad 4) y la proposicion 1.7:
EXn + EXn0 EX + EXn0 y entonces EXn EX. 2
A partir del resultado de convergencia monotona en la proposicion anterior obtendremos los famosos criterios de Fatou-Lebesgue de convergencia dominada, que al igual
7
que el criterio de Levy de convergencia monotona, permiten estudiar los lmites de integrales a partir de las integrales de los lmites.
Teorema 1.10 Sea (Xn )n una sucesion de variables aleatorias y sean Y, Z variables integrables.
Si Xn Y para todo n, entonces E lim inf Xn lim inf EXn .
Si Xn Z para todo n, entonces E lim sup Xn lim sup EXn .
Si Xn X y |Xn | Z, entonces EX = lim EXn .
Demostracion: Comenzaremos observando que si Y (resp. Z) es una variable integrable
y otra variable X verifica Y X (resp. Z X), entonces X (resp. X + ) es integrable
y X es, por tanto casi integrable. Entonces, si Y Xn para todo n e Y es integrable,
como Xn Yn := inf kn Xk lim inf Xn y ademas Yn Y para todo n, por el teorema
de la convergencia monotona obtenemos:
lim inf EXn lim EYn E lim inf Xn .
El segundo resultado se prueba analogamente, mientras que el u
ltimo es consecuencia
inmediata de los dos primeros al ser entonces lim inf Xn = lim sup Xn = X y por tanto
EX = E lim inf Xn lim inf EXn lim sup EXn E lim sup Xn = EX.
2
El proceso seguido en la construccion de la integral permite, como ya se advirtio en
la introduccion, obtener propiedades recorriendo los diferentes escalones visitados en esta
construccion, que, recuerdese que no son otros que los dados en la definicion constructiva
de las variables aleatorias. La siguiente proposicion formaliza esta idea.
Proposici
on 1.11 Sea una familia de variables aleatorias reales positivas, definidas en
el espacio medible (, ), que verifica las siguientes propiedades:
1. Si X, Y y a, b 0 son constantes cualesquiera entonces aX + bY .
2. Si Xn , n N y Xn X, entonces X .
3. Para todo A se tiene IA .
Entonces contiene todas las variables positivas.
Demostracion: Las propiedades primera y tercera aseguran que contiene todas las variables simples positivas, y, como toda variable positiva es lmite de una sucesion creciente
de variables simples y positivas, la segunda propiedad prueba el resultado. 2
Los siguientes resultados, sencillas consecuencias del principio establecido en la proposicion
anterior, suelen denominarse como teorema del cambio de variable, y demuestran ademas
que la esperanza matematica de una variable aleatoria solo depende de la distribucion de
probabilidades que engendra.
8
(X())P (d) =
Z
0
( 0 )PX (d 0 ).
(X())P (d) =
( )PX (d ) =
Z
<
xP(X) (dx),
Z
<p
(~x)f (~x)d~x.
f (~x)d~x =
IA (~x)f (~x)d~x
(1 F (x)dx.
n
X
xi pi = EX.
i=1
Sea ahora X una variable positiva cualquiera, y sea (Xn )n una sucesion de variables
simples positivas tal que Xn X. Si Fn (respectivamente F ) es la funcion de distribucion
10
(1 F (x))dx =
P (X > x)dx =
P (X x)dx
debido a que los integrandos son iguales salvo a lo sumo para un conjunto numerable (el
de los puntos de discontinuidad de F ).
En general, a
un si X no es positiva se tiene la identidad
Z
XdP = aP (X > a) +
P (X > x)dx,
(X>a)
G(x) =
0,
si x < 0
P (X a), si 0 x < a
F (x), si a x
Por tanto
n X
m
X
EX.Y = E(
xi yj IAiBj ) =
i=1 j=1
n X
m
X
xi yj P (Ai )P (Bj ) =
i=1 j=1
n X
m
X
xi yj P (Ai Bj ) =
i=1 j=1
n
X
xi P (Ai )
i=1
m
X
yj P (Bj ) = EX.EY.
j=1
Para el caso general definamos las funciones de Borel (ya utilizadas para demostrar
que toda variable aleatoria real es lmite de variables simples), n : <+ <+ ,
n (x) =:=
n
n2
X
k1
I[(k1)/2n ,k/2n ) (x) + I[n,] (x).
n
2
k=1
12