Vous êtes sur la page 1sur 19

5.

Esperanza, varianza y momentos de una variable aleatoria


Guadalupe Carrasco Licea
Octubre de 2012
El concepto de esperanza de una variable aleatoria X (que denotaremos por E (X)) es uno
de los conceptos ms importantes en la Teora Matemtica de Probabilidad. Aqu veremos
solamente los fundamentos de dicho concepto.

Esperanza
Empecemos considerando una variable aleatoria discreta X que toma un nmero nito de
valores fx1 ; x2 ; : : : ; xk g : Entonces los eventos [X = xi ] son mutuamente excluyentes y forman
una particin del espaico muestral. Imaginen que repiten un nmero grande N de veces el
experimento, siempre en las mismas condiciones, y se registra el nmero
Pk de veces que ocurre
cada uno de los valores. Sea ni el nmero de veces que ocurri xi ; i=1 ni = N: Entonces,
el promedio de los resultados obtenidos est dado por
k
X
xi ni
i=i

k
X

xi

i=1

ni
N

De acuerdo a la denicin frecuencial de la probabilidad, si se va aumentando el nmero N


de pruebas realizadas, la frecuencia relativa de xi tiende a estabilizarse en la probabilidad
correspondiente a cada valo, y obtenemos lo que se conoce como esperanza de la variable X:
E (X) =

k
X

xi P (X = xi ) =

i=1

k
X

xi fX (xi ) :

i=1

Es decir, la esperanza es el promedio de los valores que toma una variable cuando se repite
muchas veces el experimento. Tambin se puede ver como un promedio ponderado, donde
a cada posible valor de la variable se le asigna un peso igual a su probabilidad de ocurrir.
Si la variable aleatoria es discreta y toma un nmero numerable de valores fx1 ; x2 ; x3 ; : : : g ;
obtenemos una serie.
1
X
E (X) =
xi fX (xi )
i=1

P
que puede ser convergente o divergente. Si la serie 1
i=1 jxi j fX (xi ) es convergente, entonces
se dice que la variable aleatoria tiene esperanza nita y se dene la esperanza como acabamos
de ver.

Denicin 1 Esperanza de una variable aleatoria


P1discreta. Sea X una variable
aleatoria discreta que toma valores en fx1 ; x2 ; : : : g : Si i=1 jxi j fX (xi ) es convergente, entonces se dice que la variable aleatoria tiene esperanza nita y se dene la esperanza como
E (X) =

1
X
i=1

xi fX (xi )

Ejemplo 2 Se lanzan dos dados bien balanceados y se dene X como la variable aleatoria
que indica la diferencia absoluta de los resultados obtenidos. X toma valores en f0; 1; 2; 3; 4; 5g
y su esperanza es
1
X

E (X) =

xi fX (xi )

i=1

6
10
8
+1 +2
36
36
36
6
4
2
+3 + 4 + 5
36
36
36
70
=
36

= 0

Observen que la esperanza de una variable aleatoria puede no ser uno de los valores que la
variable puede tomar, a pesar de que tambin se le llama "valor esperado". En realidad es
un promedio, es decir, un nmero alrededor del cual estarn la mayora de los resultados que
se obtienen al repetir muchas veces el experimento. En ese sentido es un valor central de
los resultados. Por tal razn, tambin se le conoce como media de la variable aleatoria X:
Resumiendo la terminologa y la notacin, tenemos que la esperanza de X tambin se conoce
como valor esperado de X y como media de X: Las notaciones ms usuales son E (X) y X :
Ejemplo 3 Se hacen lanzamientos de una moneda bien balanceada hasta que se obtenga por
primera vez un sol. Sea X la variable aleatoria discreta que indica el nmero de guilas que
se obtienen antes de obtener el primer sol. X toma valores en f0; 1; 2; : : : g : Para obtener la
densidad de X, calculemos
1
P [X = x] =
2

1
2

1
2

x+1

Por lo que
fX (x) =

1 x+1
2

si x 2 f0; 1; 2; : : : g
en otro caso

Por lo tanto su esperanza es


E (X) =

1
X
x=1

1
2

1
=0 +1
2

1
22

+2

1
23

+3

1
24

+ :::

Sabiendo que esta serie es absolutamente convergente, podemos hacer un reacomodo para

observar a qu converge
E (X) =

1
X
x=1

1
2

1
+2
22

1
23

1
24

+3

+4

1
25

+ :::

1
1
1
1
1
1
+ 3 + 4 + ::: + 3 + 4 + 5 + :::
2
2
2
2
2
2
2
1
1
1
+ 4 + 5 + 6 + ::: +
2
2
2
2
1=23
1=24
1=2
+
+
+ :::
=
1 1=2 1 1=2 1 1=2
1
1
1
1=2
=
+ 2+ 3+
=1
=
2 2
2
1 1=2
=

Es decir, si repetimos muchas veces el experimento de lanzar monedas hasta que por primera
vez salga un sol, en promedio obtendremos un guila antes de detenernos (lo cul es lgico).
Si la variable aleatoria es absolutamente continua, la forma natural de sacar "promedios" es
usando la integral, demanera que obtendramos
Z 1
E (X) =
xfX (x) dx
1

De nuevo, esta integral (impropia) puede ser convergente o divergente, de donde se desprende
la siguiente denicin
Denicin 4 Esperanza de una variable aleatoria absolutamente Rcontinua. Sea
1
X una variable aleatoria absolutamente continua con densidad fX : Si
jxj fX (x) es
1
convergente, entonces se dice que la variable aleatoria tiene esperanza nita y se dene la
esperanza como
Z
1

E (X) =

xfX (x)

Ejemplo 5 Se selecciona un punto al azar en el intervalo (0; L) : Sea X la variable aleatoria


que indica el nmero seleccionado. Para obtener la densidad de X, empecemos calculando
su funcin de distribucin. Para un real x 0
FX (x) = P (X
De donde la densidad es
fX (x) =

x) =

x
:
L

1
L

si x 2 (0; L)
:
0 en otro caso

Por tanto, la esperanza de X est dada por


Z 1
E (X) =
xfX (x)
1
Z L
1
L2
1
=
x dx =
= L
L
2L
2
0
3

Ejemplo 6 Sea X una variable aleatoria con densidad


x 2 si 1 x < 1
0
en otro caso

fX (x) =

Vemos primero si esta funcin es realmente una densidad. Es claro que sus imgenes son
no negativas. La otra propiedad dice que debemos obtener 1 en la integral
Z 1
Z 1
Z k
2
fX (x) dx =
x dx = lim
x 2 dx
1

k!1

1
k

lim

K!1

=1

La esperanza de esta variable aleatoria es


Z
Z 1
fX (x) dx =
E (X) =
1

lim

k!1

x x

dx

1
dx = lim ln k = 1
k!1
x

Es decir, X no tiene esperanza nita.


Para terminar, veamos aqu la denicin de la esperanza de una variable aleatoria arbitraria.
Recurdese que las variables aleatorias que no son ni discretas ni absolutamente continuas,
no tienen denida una funcin de densidad, as que en el caso general la esperanza tiene que
denirse en trminos de la funcin de distribucin.
En el caso absolutamente continuo, podemos reescribir la esperanza de una variable aleatoria
X de la siguiente manera:
Z 0
Z 1
P [X x] dx:
P [X > x] dx
E (X) =
1

Esto se justica por lo siguiente


Z
Z 1
P [X > x] dx =
0

fX (y) dydx:

Cambiando el orden de integracin como se muestra en la gura siguiente:

Se cubre la misma regin cuando para cada x la ordenada corre desde y = x hasta innito,
que cuando para cada y la abscisa corre desde 0 hasta x = y: As obtenem os:
Z 1
Z 1Z y
Z 1
Z 1
Z y
P [X > x] dx =
fX (y) dxdy =
fX (y)
dx dy =
yfX (y) dy:
0

Anlogamente,
Z

P [X

x] dx =

=
=

fX (y) dydx

1
0

1
y

fX (y) dxdy
Z y
fX (y)
dx dy
0

yfX (y) dy:


1

El cmabio de variable se ilustra en la siguiente gura:

De ah que
E (X) =
=

Z
Z

1
1
1

yfX (y) dy =

P [X > x] dx

yfX (y) dy +
1

P [X

yfX (y) dy
1

x] dx:

Se puede generalizar esta forma de calcular la esperanza porque no depende de la funcin


de densidad. As obtenemos:
Denicin 7 Denicin general de esperanza. Sea Y una variable aleatoria arbitraria.
Entonces
Z 1
Z 1
E (X) =
[1 FX (x)] dx
FX ( x) dx
0
0
Z 1
Z 1
=
P [X > x] dx
P [X
x] dx
0

Si las dos integrales impropias dadas en la expresin anterior son absolutamente convergentes, se dice que la variable tiene esperanza nita.
5

Esperanza de una funcin de una variable aleatoria


Habamos visto que una funcin de una variable aleatoria, en general, no tiene la misma
distribucin que la variable aleatoria original. Hay sin embargo un resultado muy prctico
acerca de la esperanza de una funcin de una variable aleatoria que nos evita el problema de
calcular la distribucin de la nueva variable aleatoria. Es decir, sea X una variable aleatoria
y Y = g (X) : Entonces
P1
si X es v.a discreta
i=1 g (xi ) fX (xi )
R
E (Y ) = E (g (X)) =
1
g (x) fX (x) dx si X es v.a.absolutamente continua
1
siempre y cuando la serie y la integral converjan absolutamente. Veremos por separado los
casos discreto y absolutamente continuo.
Obsrven que en el caso discreto,
X
P [Y = yi ] =
P (X = xi ) :
fxi jg(xi )=yi g

Proposicin 8 Si X es una variable aleatoria con densidad y g (X) es una variable aleatoria
discreta, entonces
1
X
E (g (X)) =
g (xi ) P [X = xi ]
i=1

Demostracin. Sea Y = g (X) una variable aleatoria que toma los valores y1 ; y2 ; : : : :
Obsrvese que el conjunto de valores que toma X es
fx1 ; x2 ; x3 ; : : : g = fx j g (x) = y1 g [ fx j g (x) = y2 g [ fx j g (x) = y3 g [
As que:
E (g (X)) = E (Y ) =
=

1
X

yi P (Y = yi ) =

i=1

1
X

g (xi ) P [X = xi ]

i=1 fxi jg(xi )=yi g

g (xi ) P [X = xi ]

xi

Antes de probar la denicin equivalente para variables absolutamente continuas, recordemos


que en este caso:
Z 1
Z 1
E (X) =
P [X > x] dx
P [X
x] dx:
0

Proposicin 9 Si X y g (X) son variables aleatorias absolutamente continuas, entonces


Z 1
E (g (X)) =
g (x) fX (x) dx:
1

Demostracin.

P [g (X)
P [g (X) > x] dx
0
0
Z 1Z
Z 1Z
=
fX (y) dydx
0
fy j g(y)>xg
0
fy
!
Z
Z
Z

E (g (X)) =

x] dx

j g(y)

xg

g(y)

=
=
=

g(y)

dx fX (y) dy

fy j g(y)>0g

g (y) fX (y) dy +

fy j g(y)>0g
Z 1

fX (y) dydx
!
Z

dx fX (y) dy

fy j g(y) 0g

g (y) fX (y) dy

fy j g(y) 0g

g (y) fX (y) dy:

En el caso de una variable absolutamente continua Y = g (X) con g invertible, se puede usar
el Teorema de cambio de variable: se tiene que g 1 (y) = x y
Z
Z
f (x) dx = f (g (y)) g 0 (y) dy
Entonces, en la esperanza obtenemos:
Z 1
Z
yfY (y) dy =
1
Z
=
Z
=
Z
=
=

1
1
1

g (x) fg(X) (g (x)) dg (x)

dFX (g 1 (y))
dg (x)
dy
1
1
dg 1 (y)
g (x) fX g 1 (y)
dg (x)
dy
1
1
1
g (x) fX (x) dg(x) dg (x)
1
1

g (x)

dx

g (x) fX (x) dx

Ejemplo 10 Sea X con funcin de densidad


1
2

si
1<x<1
0 en otro caso

fX (x) =

Vamos a encontrar la esperanza de Y = X 2 : Ya habamos visto que la densidad de Y es


1
p
2 y

fY (y) =

si 0 < y < 1
en otro caso

As que, directamente, obtenemos


E (Y ) =
=

yfY (y) dy =

1p
1 3
ydy = y 2
2
3
7

=
0

y
p dy
2 y
1
3

Ahora, aplicando el resultado que queremos vericar


Z 1
g (x) fX (x) dx
E (Y ) =
1
Z 1
1 2
=
x dx
1 2
1 3
x
6

=
1

1 1
1
+ =
6 6
3

Propiedades bsicas de la esperanza


Veamos las principales propiedades de la esperanza de una variable aleatoria.
Proposicin 11 Sea X una variable aleatoria con densidad que tienen esperanza nita,
sean g1 y g2 funciones de R en R tales que g1 (X) y g2 (X) son variables aleatorias, y sea c
cualquier constante real. Entonces:
1. Si P (X = c) = 1; entonces E (X) = c: Nota: se puede escribir E (c) = c para una
constante c:
2. E (cg (X)) = cE (g (X)) :
3. E (g1 (X) + g2 (X)) = E (g1 (X)) + E (g2 (X)) :
4. Si g1 (x)

g2 (x) para toda x; entonces E (g1 (X))

E (g2 (X)).

Demostracin. Las demostraciones se harn considernado que X es absolutamente continua. Son anlogas cuando se trata de una variable aleatoria discreta:
1. Si P (X = c) = 1, entonces X es una variable aleatoria discreta que toma nicamente
el valor c: Por lo tanto, su esperanza est dada por E (X) = cP (X = c) = c:
2. Si X es absolutamente continua, entonces
Z 1
Z
E (cg (X)) =
cg (x) fX (x) dx = c
1

3.
E (g1 (X) + g2 (X)) =
=

1
1
1
1

g (x) fX (x) dx = cE (g (X))

[g1 (x) + g2 (x)] fX (x) dx


Z 1
g1 (x) fX (x) dx +
g2 (x) fX (x) dx

= E (g1 (X)) + E (g2 (X)) :

4. Tenemos que g2 (x) g1 (x)


0 para toda x; as que la integral correspondiente es
mayor o igual que cero. Entonces tenemos que
0

E (g2 (x)

g1 (X)) = E (g2 (X))


8

E (g1 (X)) :

De lo anterior se desprende que la esperanza es un oprador lineal, es decir:


!
n
n
X
X
E
ci gi (X) =
ci E (gi (X))
i=1

i=1

Observacin 12 En realidad, las n variables aleatorias no tienen que obtenrse como funciones de una misma variable X: Slo que la demostracin de este hecho requiere conocer
la funcin de densidad del vector aleatoreo (X1 ; X2 ; : : : ; Xn ) ; cosa que veremos en Proba 2.
Entonces, se tiene que
!
n
n
X
X
E
ci Xi =
ci E (Xi )
i=1

i=1

Veamos algunos ejemplos


Ejemplo 13 Se extraen bolas al azar, de una en una y sin reemplazo, de una urna que
contiene N bolas numeradas, hasta que todas las bolas quedan fuera. Un juego consiste en
que se gana un peso si el nmero de la bola coincide con el nmero de extraccin. Sea X
la variable aleatoria que indica la cantidad ganada. Vamos a calcular E (X) : En lugar de
hacerlo directamente, descompondremos la variable aleatoria X en una suma de variables
aleatorias ms sencillas. Sea
1 si la i:sima bola extrada tiene el nmero i
0 en otro caso

Xi =

Como cada Xi se reere a una sola extraccin, es fcil calcular su esperanza. La probabilidad
de que en la i sima extraccin se extraiga exctamente la tarjeta i es P (Xi = 1) = N1 y
P (Xi = 0) = 1 N1 1 ; as que E (Xi ) = (1) P (Xi = 1) + (0) P (Xi = 0) = N1 : Como X =
X1 + X2 +
+ XN
N
N
X
X
1
E (X) =
E (Xi ) =
=1
N
i=1
i=1

Es decir, en promedio, el jugador ganar $1, si repite muchas veces el juego, o bien, dicho
de otro modo, en promedio slo habr un "pareamiento" entre el nmero de extraccin y el
nmero de la bola.
1

Para 3 bolas, sea Ai : la primera extraccin sale i; B1 : la segunda extraccin sale la bola i y Ci : la
tercera extraccin sale la bola i: Entonces
1
para toda i
3
P (B2 ) = P (B2 jA1 ) P (A1 ) + P (B2 jA3 ) P (A3 )
1 1
1 1
1
=
+
=
2 3
2 3
3
P (C3 ) = P (C3 jA1 \ B2 ) P (A1 \ B2 ) + P (C3 jA2 \ B1 ) P (A2 \ B1 )
1
1
1
= 1
+1
= :
6
6
3
P (Ai )

Ejemplo 14 Una urna contiene N pares de tarjetas, cada par marcado con un nmero del
1 al N: Se extraen m tarjetas al azar (todas de un jaln). Vamos a encontrar la esperanza del nmero de parejas que quedan dentro de la urna. Sea X la variable aleatoria que
indica el nmero de parejas (completas) que quedaron dentro de la urna despus de la extraccin. Descompongamos X en variables aleatorias que se reeran a una sola pareja. Para
ello,tomemos
Xi =

1 si el par marcado con el nmero i queda dentro


0 en otro caso

Para que el par i quede adentro se requiere que las m tarjetas extradas hayan sido elegidas
de las 2N 2 que no tienen ese nmero, de manera que
E (Xi ) = P (Xi = 1) =

2N 2
m
2N
m

(2N 2)!
m!(2N 2 m)!
(2N )!
m!(2N m)!

m! (2N m)!
(2N 2)!
m! (2N 2 m)!
(2N )!
(2N m) (2N m 1)
=
2N (2N 1)
=

De donde se desprende que


E (X) =

N
X

E (Xi ) =

(2N

i=1

m) (2N m
2 (2N 1)

1)

Cuando se trata de una variable aleatoria discreta que toma valores no negativos, hay una
expresin para la esperanza que resulta muy til. Supongamos que X toma valores en
f0; 1; 2; : : : g Entonces
E (X) =

1
X

xP (X = x) =

1
X

xP (X = x)

x=1

x=0

= P (X = 1) + P (X = 2) + P (X = 3) +
+P (X = 2) + P (X = 3) +
+P (X = 3) +

..

= P (X 1) + P (X
1
X
=
P (X n)

2) + P (X

n=1

Por tanto
E (X) =

1
X
n=1

10

P (X

n)

3) +

Ejemplo 15 Una persona intenta cierta tarea hasta que la acaba. En cada intento, p es
la probabilidad de que concluya la tarea y q = 1 p es la probabilidad de que no lo logre. Supongamos que los intentos son independientes. Para calcular el nmero esperado de
intentos hasta que logre concluir la tarea, sea X el nmero de intentos. X toma valores
en f1; 2; 3; : : : g : Ntese que para n
1; P (X n) = q n 1 porque se requiere que hayan
ocurrido n 1 fracasos para que en al menos n intentos logre su objetivo. (En particular,
P (X 1) = 1 porque se requiere al menos un intento para que logre su objetivo). Por lo
tanto
1
X
1
1
= :
E (X) =
qn 1 =
1 q
p
n=1
Es importante tener en cuenta que la E (X) es un nmero, no una variable. De hecho, sin
realizar ni una sola vez el experimento, podemos calcular E (X) : Por ello, antes de realizarlo,
podemos estimar el valor que caer usando E (X) (aunque hay que tener en cuenta que E (X)
puede no ser uno de los valores que toma la variable aleatoria).

Varianza
Como mencionamos antes, la media es el promedio de los resultados que se obtienen al
realizar muchas veces el experimento. Sin embargo los valores que toma X pueden diferir
mucho de su media. Es importante tener tambin una idea de la dispersin de los posibles
resultados. De hecho, como antes de realizar el experimento no tenemos conocimiento de
qu valor obtendremos, podemos pensar en que la E (X) nos brinda una aproximacin o una
estimacin del resultado que se obtendr y, en este contexto, resulta muy importante tener
una idea de qu tan lejos de nuestra estimacin puede estar el resultado real.
Siguiendo el mismo razonamiento que seguimos para denir la esperanza, podemos pensar en
realizar muchas veces el experimento y en cada prueba observar qu tan lejos cae el resultado
obtenido de la media calculando jxi E (X)j : Si el resultadi xi ocurre ni veces en N pruebas,
obtendramos que la desviacin promedio es
n2
nk
n1
+ jx2 E (X)j
+
+ jxk E (X)j
jx1 E (X)j
N
N
N
Al aumentar el nmero N de pruebas realizadas siempre en las mismas condiciones, de
acuerdo a la denicin frecuencial, obtenemos
Desviacin media =

k
X
i=1

jxi

E (X)j P (X = xi ) = E [jX

E (X)j]

Sin embargo, hay un pequeo problema. Supongamos que estimamos el valor de una variable
aleatoria X por E (X) : Para que sea una buena aproximacin, debiera ocurrir que la funcin
h (u) = E (jX uj) alcance su mnimo en u = E (X) : Pero esto no ocurre. de hecho, la
funcin h (u) alcanza su mnimo en la mediana. Si se repite muchas veces un experimento
y se ordenan todos los resultados obtenidos de menor a mayor, la mediana es el valor que
queda extamente en el centro de ese ordenamiento. Se dene, de la siguiente forma. La
mediana M e (X) es un nmero para el que se cumple que
P (X

M e (X))

1
2

y
11

P (X

M e (X))

1
:
2

Podemos entonces adoptar como valor central a la mediana y a la desviacin media como
medida de dispersin. Pero la mediana no necesariamente es nica y su manejo no es
sencillo. Conviene
ms hacer un cambio en la forma de medir la dispersin. Recordemos
p
2
que jxj = x : Usando esta idea, en lugar de tomar jxi E (X)j usaremos (xi E (X))2
y luego veremos cmo agregar la raz cuadrada. Para distancias cortas ambas cantidades
son similares ( jxi E (X)j y (xi E (X))2 ), pero para distancias largas, (xi E (X))2 es
mucho ms grande que jxi E (X)j ; de manera que tomar cuadrados le d mas peso a los
valores alejados, aunque la probabilidad de estos valores deber ser pequea. La ventaja es
que la funcin h (u) = E (X u)2 si alcanza su mnimo en u = E (X) :
Denicin 16 Sea X una variable aleatoria. Denimos la varianza de X como
E (X))2

E (X
Si X es discreta, esta denicin indica que
X
var (X) =
(x

E (X))2 P (X = x)

E (X))2 fX (x)

(x

Si X es absolutamente continua, obtenemos


Z 1
var (X) =
(x

E (X))2 fX (x) dx

Las dos notaciones usuales para la varianza son var (X) y 2 : Pero la varianza, por obtenerse
elevando al cuadrado, cambia las unidades en las que se mide la variable aletaoria. Si por
ejemplo X mide una distancia en cm la varianza estar dada en cm2 ; de manera que para
tener una idea ms clara de la dispersin en las unidades originales, debemos extraer raz
cuadrada
Denicin 17 La desviacin estndar de una variable aleatoria X es
p
DE = var (X)

Las notaciones usuales para la desviacin estndar son DE (X) y : Evidentemente, la


desviacin estndar no nos da lo mismo que la desviacin media porque despus de elevar
al cuadrado cada diferencia, todava la multiplicamos por la probabilidad correspondiente y
las sumamos. Slo despus de eso, extraemos raz. Pero la desviacin estndar es una buena
medida de la dispersin.
Ejemplo 18 Calcular la varianza de la diferencia absoluta de los resultados al lanzar dos
70
: Por lo tanto
dados bien balanceados. Recordemos que obtuvimos que su media es 36
var (X) =

0
+ 3

70
36

70
36

6
36
2

6
36

+ 1
+ 4

= 2:05
12

70
36

70
36

10
36
2

4
36

+ 2
2

+ 5

70
36

70
36

8
36
2

2
36

Por lo tanto, su desviacin estndar es


DE (X) =

var (X) = 1:43

Ejemplo 19 Calculemos la varianza de la la variable aleatoria con distribucin


2x si x 2 (0; 1)
:
0 en otro caso

fX (x) =
Su esperanza es
E (X) =

2x2 dx =

Entonces
var (X) =

2
3

2x3

2 3
x
3

=
0

2
3

2xdx
8 2 8
x + x dx
3
9

1 4 8 3
x
x +
2
9
1 8 4
+ =
=
2 9 9
=

4 2
x
9
1
18

1
0

Propiedades de la varianza
1. El siguiente resultado nos brinda otra expresin para la varianza que resulta muy til.
Sea X una variable aleatoria con esperanza y varianza nitas, entonces
var (X) = E X 2

[E (X)]2

Demostracin: Aplicando las propiedades de la esperanza, se tiene que


var (X) = E (X

E (X))2 = E X 2

2XE (X) + (E (X))2

= E X2

2E (X) E (X) + (E (X))2

= E X2

[E (X)]2 :

Ntese que de aqu se desprende que existe varianza nita si X tiene esperanza nita
y X 2 tiene esperanza nita. En realidad, ms adelante veremos que basta pedir que
X 2 tenga esperanza nita para garantizar que tambin X la tenga.
2. Si la variable aleatoria es constante, en realidad no hay dispersin porque siempre que
se realice el experimento se obtendr el mismo valor de X: Para mostrarlo, usemos que
si X = k; E (X) = k; de manera que, de la expresin anterior para la varianza conduce
a
k2 = k2 k2 = 0
var (X) = E k 2
Esto tambin se suele escribir en la forma var (k) = 0:
13

3. Qu efecto tiene en la varianza el producto de una variable aleatoria por una constante?
var (aX) = E a2 X 2

(E (aX))2

= a2 E X 2

(aE (X))2

= a2 E X 2
= a2 var (X) :

(E (X))2

4. Por ltimo, vimos que en el caso de la esperanza, la media de una suma es la suma
de las medias. En el caso de la varianza el resultado no es tan sencillo. Analicemos la
varianza de una suma:
var (X + Y ) = E (X + Y )2

(E (X + Y ))2
(E (X) + E (Y ))2

= E X + 2XY + Y 2

= E (X) + 2E (XY ) + E Y 2
(E (X))2 2E (X) E (Y )
= var (X) + var (Y ) + 2 [E (XY ) E (X) E (Y )]

(E (Y ))2

Para que la varianza de una suma sea igual a la suma de las varianzas, el ltimo
sumando obtenido en la expresin anterior debiera ser cero. Cundo ocurre esto?.
Bueno pues en Proba 2 veremos que si X y Y son independientes, entoces E (XY ) =
E (X) E (Y ) ; de donde se obtiene el siguiente resultado
var (X + Y ) = var (X) + var (Y ) slo cuando X y Y son indepednientes.

Desigualdad de Chebyshev
Vamos a ver ahora una desigualdad, la desigualdad de Chevyshev, que proporciona una cota
para la probabilidad de que los valores de una variable aleatoria caigan en un intervalo alrededor de su esperanza. Esta desigualdad es en realidad un corolario del siguiente teorema, que
es vlido para cualquier variable aleatoria con varianza nita, pero que aqu demostraremos
para una variable aleatoria con densidad. Veamos primero un resultado preliminar.
Teorema 20 Desigualdad de Markov. Sea X una variable aleatoria y g una funcin
no-negativa con dominio en R: Si la E (g (X)) es nita y k es un real positivo, entonces
P (g (X)

k)

E (g (X))
k

Demostracin. Aunque el resultado es vlido para cualquier pareja de variables aleatorias


X y Y; aqu lo demostraremos el caso absolutamente continua. La demostracin es similar

14

para una variable discreta.


E (g (X)) =

g (x) fX (x) dx

g (x) fX (x) dx +

fxjg(x) kg

g (x) fX (x) dx

fxjg(x)<kg

g (x) fX (x) dx

fxjg(x) kg

kfX (x) dx = kP (g (X)

k)

fxjg(x) kg

de donde se obtiene el resultado.


Corolario 21 Desigualdad de Chebyshev. Si X tiene varianza
tonces
P (jX E (X)j r ) = P (X E (X))2 r2 2
E (X))2 y k = r2

Demostracin. Basta tomar g (X) = (X


Ntese que
P (jX

E (X)j

r )

1
) P (jX
r2

nita y r > 0; en1


r2

en el teorema anterior.

E (X)j < r )

1
r2

Por ejemplo, para r = 2; obtenemos que


P (jX

E (X)j

2 )

3
= :75
4

es decir, con probabilidad mayor que 0:75 los valores de X estn entre E (X) 2 y E (X) +
2 : Para r = 3
8
P (jX E (X)j 3 )
= 0:89
9
es decir, con probabilidad mayor que 0:89; los valores de X se encuentran entre E (X) 3
y E (X) + 3: Estas cotas no son muy buenas, en el sentido de que pueden estar lejos del
valor real, pero sirven para darnos una idea de qu tan lejos pueden estar los valores de X
de su esperanza.. La utilidad de la desigualdad de Chebyshev no se restringe a este aspecto
prctico, sino que se puede utilizar para la demostracin de algunos de los teoremas lmite
que veremos en Probabilidad 2.

Momentos y funciones generadoras


Momentos
Hemos visto dos cantidades vinculadas a una variable aleatoria: su esperanza y su varianza. Ambas dan informacin importante sobre la variable. Las ideas relacionadas con estas
cantidades se puede genralizar.
15

Denicin 22 Sea X una variable aleatoria y n un entero positivo. A la cantidad E (X n )


se le llama momento de orden n o n simo moneto de la variable X; cuando esta esperanza
existe.
El n simo momento existe si E (jXjn ) existe, es decir, si se trata de una suma nita, de
una serie convergente o de una integral impropia convergente. En particular, en el caso en
que X tome valores en un conjunto acotado, existen todos los momentos. Es decir, si existen
reales a y b tales que P (a X b) = 1; existen todos los momentos.
Adems, si existe el n simo momento, deben existir todos los momentos de orden menor
que n:
Proposicin 23 Si E (jXjn ) < 1 para un entero positivo n; entonces E jXjj < 1 para
cualquier entero positivo j < n:
Demostracin. Sea X una variable absolutamente continua.
Z 1
j
E jXj
=
jxjj fX (x) dx
Z
Z 1
j
jxjj fX (x) dx
jxj fX (x) dx +
=
Z fxjjxj>1g
Zfxjjxj 1g
jxjn fX (x) dx
1 fX (x) dx +
fxjjxj 1g

P (jXj

fxjjxj>1g

1) + E (jXj ) < 1

Obsrvese de lo anterior que si X tiene 2o momento nito, es decir, si E (X 2 ) < 1; entonces


X tiene esperanza y varianza nitas.
Denicin 24 Sea X una variable aleatoria. Si la esperanza
E ((X

E (X))n )

es nita, se le llama n simo momento centrado en la media, o momento central de orden


n, donde n es un nmero natural.
Ntese que el primer momento central es siempre cero ya que E (X E (X)) = E (X)
E (X) = 0: El segundo momento central es la varianza E (X E (X))2 : Por otro lado, si
la variable tiene una funcin de densidad simtrica respecto al eje vertical por la media, todos
los momentos de orden impar son cero. Los dems momentos tienen fundamentalmente usos
estadsticos que vern en otros cursos. En particular, los momentos centrales de orden par,
dan informacin acerca de qu tan picuda es la distribucin de una variable aleatoria.

Funcin generadora de momentos


La funcin exponencial tiene mucha aplicaciones importantes debido a que su derivada es
del mismo tipo que la funcin original. Sabemos que
dext
= xext ;
dt
16

En particular, al evaluar esta derivada en t = 0 obtenemos


dext
dt

=x
t=0

Vamos a usar este hecho para facilitar el clculo de momentos de una variable. Denimos
mX (t) = E etX :
Esta esperanza es nita (y est bien denida la funcin) cuando X toma valores en un
conjunto acotado. Si no es as, puede existir o no.
Derivando y evaluando en cero obtenemos
d
E etX
dt

mX 0 (t) =

=E
t=0

= E XetX

t=0

d tX
e
dt

t=0

= E (X)

Si calculamos la segunda derivada y evaluamos en cero, obtenemos:


mX

00

d2
(t) = 2 E etX
dt

= E X 2 etX

t=0

t=0

= E X2 :

En general, si calculamos la n sima derivada y evaluamos en cero, obtenemos


mX

(n)

(t) =

dn
E etX
dtn

= E X n etX

t=0

t=0

= E (X n ) :

De ah se desprende que el nombre de la funcin mX (t) sea funcin generadora de momentos.


Obsrvese que usando esta funcin se puede calcular la varianza de una variable aleatoria X
ya que var (X) = E (X 2 ) (E (X))2 :
Para que todo lo anterior funcione bien requerimos que mX (t) sea derivable en t = 0:
Formalicemos
Denicin 25 Sea X una variable aleatoria tal que E etX es nita para toda t en una
vecindad de cero ( a; a) : Denimos la funcin generadora de momentos de X como
mX (t) = E etX :
Observacin 26 E etX puede no ser nita para algno valor de t por lo que es crucial
en la denicin el hecho de que exista una vecindad del cero donde esta esperanza sea nita.
No basta que lo sea para toda t 0 o para toda t 0: Ntese que mX (0) = 1:
Ejemplo 27 Sea X una variable aleatoria con funcin de densidad
e
0

fX (x) =

si x > 0
en otro caso

La funcin generadora de momentos en este caso es


Z 1
tX
=
etx e x dx =
mX (t) = E e
0

x(

t)

17

t) e

x(

t)

dx

Por tanto,
E (X) =

d
mX (t)
dt

=
t=0

t)

t=0

y
E X

d2
= 2 mX (t)
dt

=
t=0

2
(

t)

2:

t=0

De maenra que
var (X) = E X 2

(E (X))2 =

2:

Las siguientes proposiciones enuncian las principales caractersticas de la funcin generadora.


Las enunciamos sin demostracin. La primera de ellas arma que la funcin generadora
caracteriza de manera nica la distribucin de una variable. Sin embargo, esto no signica
que todas las distribuciones tengan asociada una funcin generadora.
Proposicin 28 Sean X y Y dos variables aleatorias con funciones generadoras de momentos mX y mY respectivamente. Si mX (t) = mY (t) para toda t 2 ( b; b) donde b 2 R+ ;
entonces FX (u) = FY (u) para todo real u que sea punto de continuidad de ambas funciones
de distribucin.
En la siguiente proposicin se establece que la existencia de la funcin generadora garantiza
que todos los momentos alrededor del origen son nitos. Pero no se trata de un si y slo si
porque es falso que la existencia de todos los momentos de orden entero positivo garantice
la existencia de la funcin generadora de momentos.
Proposicin 29 Sea X una variable aleatoria con funcin generadora de momentos mX (t) ;
entonces E (X n ) es nito para toda n 2 N:
El siguiente resultado es el ms importante de esta seccin y arma que la funcin gemeradora, cuando existe, se puede expresar como una serie de potencias en una vecindad del
origen.
Proposicin 30 Sea X una variable aleatoria con funcin generadora de momentos mX ;
entonces existe un real positivo h tal que
mX (t) =

1
X

E Xk

k=0

tk
k!

para toda t 2 ( h; h) y, por tanto


dn
mX (t)
dtn

= E (X n )
t=0

con n 2 N:

18

Bibliografa
1. Chung K.L. (1978). Elementary Probability Theory with Stochastuc Processes. SpringerVerlag, New York.
2. Garca lvarez M. A. (2006). Introduccin a la teora de probabilidad 1. Fondo de
Cultura Econmica, Cd de Mxico.
3. Hernndez Arellano F.M., Clculo de probabilidades. Aportaciones matemticas, Sociedad Matemtica Mexicana.
4. Ross Sh. (2010). A First Course in Probability. Prentice Hall, New Jersey.

19

Vous aimerez peut-être aussi