Vous êtes sur la page 1sur 28

Distribucin de funcin de variables aleatorias.

Estadstica I 1



I.- Distribucin de funcin de variables
aleatorias (Teora de la distribucin)



1.1 Introduccin.



En este captulo se tratar el estudio defunciones de variables aleatorias, en
forma general podemos decir que para X1, X2, , Xn variables aleatorias, estaremos
interesados en conocer la distribucin conjunta de Y1=h1(X1, X2, , Xn), Y2=h2(X1, X2,
, Xn), , Yk=hk(X1, X2, , Xn). La distribucin de Y1, Y2, , Yk, satisface:

1 2
Y Y Y 1 2
( )
k
k
F y , y , , y K =P(Y1 y1, Y2 y2,, Yk yk)
= P(h1(X1, X2, , Xn) y1, h2(X1, X2, , Xn) y2,, hk(X1, X2, , Xn) yk)

El clculo de la anterior probabilidad al depender de la Xis, se reducira a
integrar o sumar la densidad conjunta sobre la regin que determina estas nuevas
variables, pero en muchas ocasiones ser de mucha utilidad saber explcitamente la
distribucin conjunta de estas nuevas variables, como lo es en el uso de la inferencia
estadstica.



1.2 Tcnica de la funcin de distribucin acumulativa.



Para X1, X2, , Xn varaibales aleatorias, definimos las siguientes variables de la
siguiente forma, Y1=h1(X1, X2, , Xn), Y2=h2(X1, X2, , Xn), , Yk=hk(X1, X2, ,
Xn). La distribucin de Y1, Y2, , Yk, satisface:

1 2
Y Y Y 1 2
( )
k
k
F y , y , , y K =P(Y1 y1, Y2 y2,, Yk yk)
= P(h1(X1, X2, , Xn) y1, h2(X1, X2, , Xn) y2,, hk(X1, X2, , Xn) yk)
2 Distribucin de funcin de variables aleatorias Mahil H.

Es decir, los eventos { Y1 y1, Y2 y2,, Yk yk } y {h1(X1, X2, , Xn) y1, h2(X1, X2,
, Xn) y2,, hk(X1, X2, , Xn) yk} son iguales, si conocemos la distribucin
conjunta de X1, X2, , Xn, podemos calcular la probabilidad del evento {h1(X1, X2, ,
Xn) y1, h2(X1, X2, , Xn) y2,, hk(X1, X2, , Xn) yk} y por tanto tambin podemos
calcular
1 2
Y Y Y 1 2
( )
k
k
F y , y , , y K .A esta forma de obtener la distribucin conjunta de Y1,
Y2, , Yk , se le denomina tcnica de la funcin de distribucin acumulativa.

Veamos unos ejemplos para ver como se aplica dicha tcnica.


Ejemplo 1.1. Sea X N(0,1), y Y= h(X) = X
2
. Apliquemos la tcnica de la funcin de
distribucin acumulativa, para encontrar la distribucin de Y.

FY(y) = P(Y y)
= P(X
2
y)
= P(
( )
X y y )
= 2
2
1
2
0
1
2
y
u
e du


=
2
2
1
2
0
1
2
y
z
e dz
u


=
0
1
2
y
z
e dz
z


=
( )
1
2
1
2 0
1
2
y
z
z e dz



La anterior es la distribucin de una
( )
2
1
.


Ejemplo 1.5.2. Sea X1, X2, , Xn variables aleatorias independientes sea;

Y(n)= h(X1, X2, , Xn) = max(X1, X2, , Xn).
Busquemos la distribucin de Y(n) , primero veamos que el evento { max(X1, X2, ,
Xn) y} es equivalente a { X1 y, X2 y, , Xn y} luego entonces,

Distribucin de funcin de variables aleatorias. Estadstica I 3

( )
( )
( )
( ) Y
P Y
n
n
F y y =
= ( )
1 2
P X X X
n
y, y, , y K
Por ser independientes

= ( ) ( ) ( )
1 2
P X P X P X
n
y y y L
= ( )
X
1
F
i
n
i
y
=


Si adems de independientes asumimos que tienen la misma distribucin, tendramos
entonces que

( )
( ) ( ) ( )
Y X
n
n
F y F y = .

Para el caso de que las Xis sean variables continuas encontramos que


( )
( ) ( ) ( ) ( )
1
Y X X
n
n
f y n F y f y

=


Ejemplo 1.3. Ahora busquemos la distribucin de Y(1) = min(X1, X2, , Xn), los
eventos { min(X1, X2, , Xn)> y} es equivalente a { X1 > y, X2 > y, , Xn > y} luego


( )
( )
( )
( )
1
Y
1 P Y
n
F y y = >
= ( )
1 2
1 P X X X
n
y, y, , y > > > K

Por ser independientes

= ( ) ( ) ( ) ( ) ( ) ( )
1 2
1 1 P X 1 P X 1 P X
n
y y y

L
= ( )
( )
X
1
1 1-F
i
n
i
y
=



Si adems de independientes asumimos que tienen la misma distribucin, tendramos
entonces que
( )
( ) ( ) ( )
1
Y X
1 1
n
F y F y = .

Para el caso de que las Xis sean variables continuas encontramos que


( )
( ) ( ) ( ) ( )
1
1
Y X X
1
n
f y n F y f y

=

4 Distribucin de funcin de variables aleatorias Mahil H.

Ejemplo 1.4. Ahora sean X y Y dos variables aleatorias continuas distribuidas
conjuntamente, busquemos la distribucin de Z = X + Y.

( )
Z
F z = P(Z z) = P(X+Y z)

= ( )
XY
x y z
f x, y dydx
+


= ( )
XY
z x
f x, y dydx




Haciendo u = y + x
= ( )
XY
z
f x, u x dudx






Ahora derivando con respecto a z

( )
( )
Z
Z
dF z
f z
dz
=
= ( )
XY
z
d
f x, u x dudx
dz





= ( )
XY
f x,z x dx



De forma similar podemos encontrar que para V = X Y

( ) ( )
V XY
f v f x, x v dx



Si ambas variables son independientes loa anterior nos queda como:

fZ(z)= ( ) ( )
X Y
f x f z x dx


y
( ) ( ) ( )
V Y X
f v f x f x v dx




Distribucin de funcin de variables aleatorias. Estadstica I 5

Ejemplo 1.5. Ahora sean X y Y dos variables aleatorias continuas distribuidas
conjuntamente, busquemos la distribucin de Z = XY.

( )
Z
F z = P(Z z) = P(XY z)
= ( )
XY
xy z
f x, y dydx


= ( ) ( )
0
XY XY
0
z
x
z
x
f x, y dydx f x, y dydx


+


Haciendo u = yx
=
0
XY XY
0
z
z
u du u du
f x, dx f x, dx
x x x x


| | | |
+
| |
\ \


=
0
XY XY
0
z
z
u du u du
f x, dx f x, dx
x x x x


| | | |
+
| |
\ \


=
0
XY XY
0
z z
u du u du
f x, dx f x, dx
x x x x


| | | |
+
| |

\ \


=
XY
1
z
u
f x, dudx
x x


| |
|
\


Entonces
( )
( )
Z
Z
dF z
f z
dz
=
=
XY
1
z
d u
f x, dxdu
dz x x


| |
|
\


=
XY
1 z
f x, dx
x x

| |
|
\



De forma similar podemos encontrar que para V =
X
Y


( ) ( )
V XY
f v x f x, vx dx

=






6 Distribucin de funcin de variables aleatorias Mahil H.
1.3 Tcnica de la funcin generadora de momentos.



Para X1, X2, , Xn variables aleatorias, con funcin de densidad conjunta
1 2
X X X 1 2
( )
n
n
f x , x , , x K definimos las siguientes variables de la siguiente forma,
Y1=h1(X1, X2, , Xn), Y2=h2(X1, X2, , Xn), , Yk=hk(X1, X2, , Xn). La funcin
generadora de Y1, Y2, , Yk, si existe esta es:

1 2
Y Y Y 1 2
( )
k
k
m t , t , , t K =
( ) ( )
1 1 2 2
Y +Y + +Y
E E
k k
t ,Y t t t
e e =
L

=
( ) ( ) ( )
( )
1 1 2 1 2 1 2 2 1 2
X ,X , ,X + X ,X , ,X + + X ,X , ,X
E
n n k n k
h t h t h t
e
K K L K


Como se puede verla generadora de momentos es una funcin de las variables
X1, X2, , Xn, as que esta la podemos calcular ya que conocemos su funcin de
densidad conjunta, una vez que se obtiene la generadora de momentos, despus hay
que ver a que distribucin esta asociada, las limitantes de estas tcnicas es que se
conoce la generadora de momentos de varias variables aleatorias para el caso univariado
pero prale caso multivariado son pocas las generadoras conocidas.


Ejemplo 1.6. Sea X N(0,1), y Y= h(X) = X
2
. Apliquemos la tcnica de la funcin
generadora de momentos, para encontrar la distribucin de Y.

mY(t) = E(e
tY
)
=
( )
2
X
E
t
e
=
2
2
1
2
1
2
x
tx
e e dx


=
( )
2
1
1 2
2
1
2
x t
e dx


=
( )
2
1
2
1
2
1
2 1 2
u
du
e
t


=
( )
1
2
1
1 2t


La anterior es la generadora de momentos de una
( )
2
1
, as X
2
tiene distribucin
( )
2
1
.


Distribucin de funcin de variables aleatorias. Estadstica I 7

Ejemplo 1.7. Sea X1 y X2 dos variables aleatorias independientes con distribucin N(0,1),
sea Y1= X1 X2 Y2= X1+X2. Apliquemos la tcnica de la funcin generadora de
momentos, para encontrar la distribucin conjunta de Y1 y Y2 .

( )
1 2
Y Y 1 2
m t , t =
( )
1 1 2 2
Y +Y
E
t t
e
=
( ) ( )
( )
1 2 1 1 2 2
X X + X X
E
t t
e
+

=
( ) ( )
( )
1 1 2 2 2 1
X X
E
t t t t
e
+ +

Como X1 y X2 son independientes

=
( )
( )
( )
( )
1 1 2 2 2 1
X X
E E
t t t t
e e
+

=
( ) ( )
2 2
1 2 2 1
t t t t
e e
+

=
2 2
1 2
t t
e
+

=
2 2
1 2
2 2
2 2
t t
e e
= ( ) ( )
1 2
Y 1 Y 2
m t m t

Tenemos que Y1 y Y2 cada una se distribuye como una N(0,2).y ambas son
independientes.

Nota. Recordemos que para Y= aX+b, con a, b constantes, tenemos que la generadora
de momentos de Y es: mY(t) = e
tb
mX(at)

Si X1, X2, , Xn son variables aleatorias independientes, definamos a S =
1
X
n
i
i =

la
generadora de momentos de S es:
mS(t) =
( )
S
E
t
e
=
( )
1 2
X X X
E
n
t t t
e
+ + + L

= ( )
X
=1
i
n
i
m t



Si adems de independencia la Xis son idnticamente distribuidas tenemos que

mS(t) = ( ) ( )
X
n
m t
8 Distribucin de funcin de variables aleatorias Mahil H.


Ejemplo 1.8. Sea X1, X2, , Xn son variables aleatorias independientes e idnticamente
distribuidas (i.i.d), con distribucin Poi(), busquemos la distribucin de S =
1
X
n
i
i =

.

mS(t) = ( ) ( )
X
n
m t =
( )
( )
1
t
n
e
e

=
( )
1
t
n e
e



est es la distribucin de una Poi(n).


Ejemplo 1.9. Sea X1, X2, , Xn son variables aleatorias independientes e idnticamente
distribuidas (i.i.d), con distribucin Exp(), busquemos la distribucin de S =
1
X
n
i
i =

.

mS(t) = ( ) ( )
X
n
m t =
n
t

| |
|
+ \


est es la distribucin de una Gam(n, ).



1.4 Transformaciones.



Primero empezaremos viendo el uso de esta tcnica para el caso de una sola
variable aleatoria, para despus extenderlo, al buscar la densidad de una funcin de la
variable aleatoria lo que estamos haciendo es una transformacin, que es determinada
por Y=h(X).

Si X es una variable aleatoria discreta, si X toma a x1, x2,, xn, como sus
posibles valores con probabilidad fX(x1), fX(x2),, fX(xn), los posibles valores de Y se
obtienen de sustituir los valores de X en h( ), as tendemos que varios valores de X
pueden dar el mismo valor de Y, as la probabilidad de que salga el valor yj de Y sera la
suma de las probabilidades de los valores de X que dan este valor, esto es:

fY(yj) = ( )
( ) { }
X
i j
i
:h x y
f x
=



Distribucin de funcin de variables aleatorias. Estadstica I 9


Ejemplo 1.10. Supongamos que X es una v.a con valores 2, 0, 2 con probabilidad

fX(2) = p1, fX(0) = p2, fX(2) = p3, con p1+ p2+p3 = 1 y pi > 0,

sea Y = X
2
+ 1, es claro que Y es una variable discreta que toma los valores de 1 y de 5
y su funcin de probabilidad (funcin de masa de probabilidad)

fY(1) = PX{x: x
2
+1 = 1} = PX{x: x
2
= 0} = fX(0) = p2
fY(5) = PX{x: x
2
+1 = 5} = PX{x: x = 2} = fX(2)+ fX(2) = p1 + p3


Ahora si X es una variable aleatoria continua, con densidad fX( ), sea
DX={x:fX()>0}, si a DX lo podemos descomponer en un nmero finito de conjuntos
disjuntos
1 2
X X X
D D D
m
, , , K , tal que y=h(x) defina una transformacin uno a uno de
cada uno de los conjuntos
1 2
X X X
D D D
m
, , , K en DY con y DY, entonces la densidad
conjunta de Y=h(X) se puede obtener. Sea x = ( )
1
i
h y

denota la inversa de y=h(x) para


x en
X
D
i
, y la derivada de x = ( )
1
i
h y

con respecto a y es continua y no cero para y


DY, entonces la densidad de Y=h(X) est dada por:

fY(y) = ( ) ( ) ( ) ( )
Y
1 1
X D
1
m
i i
i
d
h y f h y I y
dy

=




Ejemplo 1.11. Supongamos que X es una v.a continua con distribucin U(0,1),
busquemos la densidad de Y=lnX. La densidad de X es

fX(x) =
( )
( )
0 1
I
,
x
y
h
1
( y ) = e
y
As tenemos que
fY(y) =
( )
X
y y
d
e f e
dy

=
( )
( )
0 1
I
y y
,
e e

=
( )
( )
0
I
y
,
e y


Podemos ver que Y se distribuye como una Exp(1).


Ejemplo 1.12. Sea X N(0,1), y Y= h(X) = X
2
.Tenemos que por ser una normal X
toma valores en toda la recta real y nuestra funcin deja de ser uno a uno en toda la
10 Distribucin de funcin de variables aleatorias Mahil H.
recta pero si dividimos a DX en { }
1
X X
D D 0 x : x , x < y { }
2
X X
D D 0 x : x , x ,
obtenemos ( )
1
1
h y y

= y ( )
1
2
h y y

= , son transformaciones uno a uno en las


regiones que definimos, as tenemos que la densidad de Y es:

fY(y) =
( ) ( )
X X
d d
y f y y f y
dy dy
+
=
( ) ( )
X X
1 1
2 2
f y f y
y y
+
Por ser X una normal
=
( )
X
1
f y
y

=
( )
( )
1
2
0
1 1
I
2
y
,
e y
y


=
( )
1
2
1
2
1
2
y
y e



Y como ya lo habamos encontrado anteriormente Y es la distribucin de una
( )
2
1
.


Ejemplo 1.13. Sea X una v.a continua, con densidad
fX(x) =
| |
( )
2
0 3
I
3
,
x
x
| |
|
\

sea Y =
2 si X 2
0 si X=2
2 si X>2
<

, la densidad de Y sera

fY(2) =
| |
( )
2 2
0 3
0
8
I
3 27
,
x
x dx
| |
=
|
\


fY(0) = 0
fY(2) =
| |
( )
2 3
0 3
2
19
I
3 27
,
x
x dx
| |
=
|
\



Distribucin de funcin de variables aleatorias. Estadstica I 11


A continuacin enunciaremos un resultado muy importante, para la simulacin
de variables aleatorias.

Teorema 1.1. Si X es una v.a continua con funcin de distribucin FX(x), entonces U=
FX(x) se distribuye como U(0,1), Inversamente si U se distribuye como U(0,1), entonces
X= ( )
1
X
U F

tiene a FX(x) como funcin de distribucin acumulativa.



Demostracin.

)
P(U u) = P( FX(x) u ) = P ( X ( )
1
X
F u

)= ( ) ( )
1
X X
F F u

= u.
Esta es la distribucin de una U(0,1).

)
P(X x) = P ( ( )
1
X
U F

x) = P( U FX(x)) = FX(x)



Nota. Al resultado anterior se le suele llamar como la transformacin integral de la
probabilidad.


Ahora extendamos el tema de las transformaciones para ms de una dimensin,
empecemos con las discretas.

Sea
1 2
X X X 1 2
( )
n
n
f x , x , , x K la densidad conjunta del vector aleatorio discreto X = (X1,
X2, , Xn), Sea DX={(x1, x2, , xn):
1 2
X X X 1 2
( )
n
n
f x , x , , x K >0}, estamos interesados
en conocer la densidad conjunta de Y1=h1(X1, X2, , Xn), Y2=h2(X1, X2, , Xn), ,
Yk=hk(X1, X2, , Xn). La densidad la podemos encontrar de la siguiente manera:

P(Y1= y1, Y2 = y2,, Yk = yk) =
1 2
Y Y Y 1 2
( )
k
k
f y , y , , y K =
1 2
X X X 1 2
( )
n
n
f x , x , , x

K

Donde la suma es sobre todos los posibles valores (x1, x2, , xn) que pertenecen a DX
para los cuales (y1, y2, , yk) = (h1((x1, x2, , xn)),h2((x1, x2, , xn)), , hk((x1, x2, ,
xn))).

Ejemplo 1.14. Sea (X1, X2, X3) con la siguiente funcin de densidad,

12 Distribucin de funcin de variables aleatorias Mahil H.
( ) ( ) ( ) ( ) ( ) ( )
1 2 3
1 2 3
3 1 1 1 1 1
X X X 1 2 3 8 8 8 8 8 8
( ) 0 0 0 0 0 1 0 1 1 1 0 1 1 1 0 1 1 1
( )
x , x , x , , , , , , , , , , , ,
f x , x , x


Obtengamos la densidad conjunta de Y1= X1+X2+X3 y Y2 =|X3 X2|

1 2
Y Y
(0,0) f =
1 2 3
X X X
(0,0,0) f =
1
8

1 2
Y Y
(1,1) f =
1 2 3
X X X
(0,0,1) f =
3
8

1 2
Y Y
(2,0) f =
1 2 3
X X X
(0,1,1) f =
1
8

1 2
Y Y
(2,1) f =
1 2 3 1 2 3
X X X X X X
(1,0,1)+ (1,1,0) f f =
2
8

1 2
Y Y
(3,0) f =
1 2 3
X X X
(1,1,1) f =
1
8


Para el caso continuo tenemos algo muy similar al caso univariado, primero
definamos un resultado que nos ayudar a encontrar la densidad conjunta de nuestras
nuevas variables.

Si X = (X1, X2, , Xn), es un vector de v.a continuas, sea DX={(x1, x2, , xn):
1 2
X X X 1 2
( )
n
n
f x , x , , x K >0}, si a DX lo podemos descomponer en un nmero finito de
conjuntos disjuntos
1 2
X X X
D D D
m
, , , K , tal que y1=h1(x1, x2, , xn), y2= h2(x1, x2, , xn),
, yn=hn(x1, x2, , xn) son transformaciones uno a uno de
X
D
i
. dentro de DY, Y DY,
con i= 1, ,2, , m. Sea x1=
1
1 1 2
( )
i n
h y , y , , y

K , , xn=
1
1 2
( )
ni n
h y , y , , y

K la
transformacin inversa DY dentro de cada
X
D
i
con i= 1, ,2, , m. Sea

Ji =
1 1 1
1 1 1
1 2
1 1 1
2 2 2
1 2
1 1 1
1 2
i i i
n
i i i
n
ni ni ni
n
dh dh dh
dy dy dy
dh dh dh
dy dy dy
dh dh dh
dy dy dy



L
L
M M O M
L


para i= 1, ,2, , m. Asumimos que todas las derivadas parciales son continuas sobre DY
y el determinante Ji es distinto de cero, para todo i, entonces
Distribucin de funcin de variables aleatorias. Estadstica I 13


1 2
Y Y Y 1 2
( )
k
k
f y , y , , y K =
1 2
1 1 1
X X X 1 1 2 2 1 2 1 2
J ( ( ) ( ) ( ))
n
m
i i n i n ni n
i i
f h y , y , , y , h y , y , , y , , h y , y , , y

=

K K K K


para (y1, y2, , yn) DY.


Ejemplo 1.15. Sea X1 y X2 dos variables aleatorias independientes con distribucin
N(0,1). Sea Y1= X1 + X2 y Y2= X1/X2 .Entonces
x1 = ( )
1
1 1 2
h y , y

=
1 2
2
1
y y
y +
y x2 = ( )
1
2 1 2
h y , y

=
1
2
1
y
y +

J=
( )
( )
2 1
2
2
2
1
2
2
2
1
1
1
1
1
y y
y
y
y
y
y
+
+

+
+
=
( )
( )
1 2
3
2
1
1
y y
y
+

+
=
( )
1
2
2
1
y
y

+


1 2
Y Y 1 2
( ) f y , y =
( )
( )
( ) ( )
2
2
1 2 1
2 2
2 2
1
2
1 1
1
2
2
1
2
1
y y y
y y
y
e
y

+
+ +

+


De la suma de dos normales sabemos que es un normal, pero veamos cual es la
distribucin de Y2 obteniendo la marginal de la conjunta

2
Y 2
( ) f y =
( )
( )
( ) ( )
2
2
1 2 1
2 2
2 2
1
2
1 1
1
1 2
2
1
2
1
y y y
y y
y
e dy
y

+
+ +


=
( )
( )
( )
2 2
2 1
2
2
1
1
2
1
1 1 2
2
1
2 1
y y
y
y e dy
y

+



+

+



sea
u =
( )
( )
2 2
2 1
2
2
1
1
2
1
y y
y
+
+

entonces
du =
( )
( )
2
2
1 1 2
2
1
1
2
1
y
y dy
y
+
+

y as

14 Distribucin de funcin de variables aleatorias Mahil H.
2
Y 2
( ) f y =
( )
( )
2
2
2 2
2 0 2
1 1
2
1
2 1
u
y
e du
y
y

+
+
+

=
( )
2
2
1
1 y +


Que es la densidad de una Cauchy.


Ejemplo 1.16. Sea X1 y X2 dos variables aleatorias independientes con distribucin
Gam(ni, ) con i = 1,2, respectivamente. Supongamos que deseamos obtener la
distribucin de Y1=
1
1 2
X
X +X
. Aqu solamente tenemos una funcin, lo que tenemos
que hacer es proponer otra, en el exponente tenemos que este depende de la suma de
las dos variables, adems de que nos ayuda el saber que las suma de gammas nos da
otra gamma as que parece ser que Y2= X1+X2 es una buena eleccin, luego entonces
tenemos que

x1 = ( )
1
1 1 2
h y , y

=
1 2
y y y x2 = ( )
1
2 1 2
h y , y

=
2 1 2
y y y
y
J=
2 1
2 1
1
y y
y y
= y2

1 2
Y Y 1 2
( ) f y , y =
( ) ( )
( ) ( )
( )
( )
( )
( )
1 2
1 2 2
1 1
2 1 2 2 1 2 1 2 2 1 2 0 0
1 2
1 1
I I
n n
n n y
, ,
y y y y y y e y y y y y
n n

+





=
( ) ( )
( )
( )
( )
( )
( )
1 2
2
1 1 2 2
1
1 1
1 1 2 1 2 0 1 0
1 2
1 I I
n n
n
n n n y
, ,
y y y e y y
n n
+





Tenemos que
( )
( ) ( )
( )
1 2
1 2
1 2
n n
B n , n
n n

=
+

1 2
Y Y 1 2
( ) f y , y =
( )
( )
( )
( )
( )
( )
( )
1 2
2
1 1 2 2
1
1 1
1 1 1 2 2 0 1 0
1 2 1 2
1
1 I I
n n
n
n n n y
, ,
y y y y e y
B n , n n n
+


+



De aqu tenemos que Y1 y Y2 son independientes y que Y1, se distribuye como una
beta.






Distribucin de funcin de variables aleatorias. Estadstica I 15

1.5 Normal Multivariada


Definicin 1.5.1. Si X
t
AX > 0 se dice que X
t
AX es definida positiva, para todo X 0 y A
es positiva.

Definicin 1.5.2. Si X
t
AX 0 se dice que X
t
AX es semipositiva, para todo X 0 y A es
semipositiva.

Definicin 1.5.3. Si A es positiva o semipositiva A es no negativa.

Lema 1.5.1. La matriz A es positiva si, y slo si todos los determinantes de sus matrices
angulares son positivos.

Lema 1.5.2. Si P es no singular P
t
AP es o no es definida positiva ( semi ) si A es o no lo
es.

Lema 1.5.3. Matrices definidas positivas son no singulares.

Lema 1.5.4. Matrices semipositvas son singulares ( el caso contrario no siempre ocurre
es decir una matriz singular no es siempre semipositiva.

Lema 1.5.5. Las races de una matriz positiva ( semi ) son todas mayores que cero (
mayor o igual a cero).

Lema 1.5.6. AA
t
es positiva cuando A es de rango completo por filas y semipositiva en
cualquier otro caso.

Lema 1.5.7. A
t
A es positiva cuando A tiene rango completo por columna y semipositiva
en cualquier otro caso.

Lema 1.5.8. Si A es simtrica de orden n y rango r puede escribirse como A = LL
t
, L es
de n r de rango r.

Lema 1.5.9. Si A es simtrica, es positiva si, y slo si puede escribirse como PP
t
con P
no singular.


16 Distribucin de funcin de variables aleatorias Mahil H.
Teorema 1.5.2. Si X es un vector de p 1 con elementos x
i
y sea A un vector de p 1 con
elementos a
i
y sea Z = X
t
A = A
t
X la derivada de Z con respecto a X es
Z
X

=
1
Z
Z
| |
|

|
|
|

|
|

\
p
x
x
M =A
Demostracin.
El i-simo elemento de
Z
X

es;
1 Z =
| |

\
=

p
j j
j
i i
a x
x x

as que el i-simo elemento de
Z
X

es ai, por lo que


Z
X

=A


Teorema 1.5.3. Sea A un vector de p 1 y B de q 1 y X una matriz de p q cuyo ij-simo
elemento es x
ij
. Sea Z= A
t
XB =

q p
n nm m
m=1 n=1
a x b , entonces
Z
X

=AB
t
.

Demostracin.
El ij-simo elemento de
Z
X

es
Z
| |

\
=

q p
n nm m
m=1 n=1
ij ij
a x b
x x
=aibj
por tanto se sigue que
Z
X

= AB
t
.


Teorema 1.5.4. Sea A una matriz simtrica de p p y X de p 1. Sea Z= X
t
AX, entonces
Z
A

=2XX
t
D(XX
t
) , donde D(XX
t
) es la matriz diagonal cuyos elementos son la diagonal de
XX
t
.

Demostracin.

Distribucin de funcin de variables aleatorias. Estadstica I 17

El ij-simo elemento de
Z
A

es
Z
| |

\
=

p p
n m mn
m=1 n=1
ij ij
x x a
a a

si i = j ,
2
Z
=

i
ij
x
a
. Si i j
Z

ij
a
= 2xixj . As tenemos que
Z
A

=2XX
t
D(XX
t
).


Teorema 1.5.5. Sea A una matriz simtrica de p p y X de p 1. Sea Z= X
t
AX, entonces

Z
X

=2AX .

Demostracin.
El ij-simo elemento de
Z
X

es
Z
| |

\
=

p p
n m mn
m=1 n=1
i i
x x a
x x

=
2
1 1

| |
|
+
|
\


p q p
m mm n m mn
m=1 m= n=
m n
i
x a x x a
x

= 2xiaii + 2
1

p
n in
n=
n i
x a = 2
1

p
n in
n=
x a
luego entonces
Z
X

=2AX.



La generalizacin de la funcin de densidad de una distribucin Normal a varias
dimensiones juega un papel importante en el anlisis de regresin.

Una ventaja de la distribucin normal multivariada parte del hecho de que es
matemticamente tratable y se pueden obtener resultados buenos. Frecuentemente
este no es el caso con otras distribuciones multivariadas.

18 Distribucin de funcin de variables aleatorias Mahil H.
Antes de definir la distribucin Normal Multivariada, necesitamos definir
algunos momentos de un vector aleatorio, es decir, un vector cuyos componentes estn
distribuidos conjuntamente. La media o esperanza de un vector aleatorio X =
| |
|
|
|
\
M
1
m
x
x
de
m1 esta definido por ser el vector de esperanzas:
E(X) =
E( )
E( )
| |
|
|
|
\
M
1
m
x
x


Mas generalmente, si Z = (zij) es una matriz aleatoria de pq, entonces E(Z), la
esperanza de Z, es la matriz cuyo ij-simo elemento es E(zij). Aunque no entremos en
detalle del desarrollo del siguiente resultado, es simple comprobar que si B, C y D son
matrices de constantes de mp, qn y mn respectivamente, entonces

E (BZC + D) = B E(Z) C + D (1.1)

Si X tiene media u la matriz de varianza-covarianza(varcov) de X esta definida por la
matriz de

= Cov(X) =
t
E ( X )( X ) u u

.

El elemento ij-simo de es
( )( )
E


ij i i j j
= x - x - ,

la covarianza entre las variables xi y xj, y el ii-simo elemento es

( )
2
E


ii i i
= x - ,

la varianza de xi , la matriz de varianza-covarianza la podemos poner como

=

pp p p
p
p



L
M M M
L
L
2 1
2 22 12
1 12 11


es decir, es una matriz de orden p y donde ji es la covarianza entre la variable j e i ,
como podemos ver los elementos de la diagonal de son no negativos. es simtrica,
Distribucin de funcin de variables aleatorias. Estadstica I 19

es decir, =
t
. Adems, la clase de matrices de varianza-covarianza coincide con la
clase de matrices no-negativas definida. Recordemos que una matriz simtrica A de
mm es no negativa definida si

t
A 0 para toda R
m

y definida positiva si

t
A > 0 para toda R
m
.

Teorema 1.5.6. La matriz de mm es una matriz de varianza-covarianza , si, y solo si es
no-negativa definida.

Demostracin.


Supongamos que es la matriz de varianza-covarianza de un vector aleatorio X,
donde X tiene media u, entonces para toda R
mx1
,

Var (
t
X) =E [ (
t
X
t
u ) (
t
X
t
u )
t
] (1.2)
= E [
t
(X u )( X u)
t
]
=
t
0
luego es no negativa definida.

Ahora supongamos que es una matriz no-negativa definida de rango r,
digamos (r m). Escribimos = C C
t
, donde C es una matriz de mr de rango r. Sea
Y un vector de r1 de variables aleatorias independientes con media 0 y Cov (Y) = I
para X = CY. Entonces E (X) = 0 y

Cov (X) = E [XX
t
] = E[C YY
t
C
t
]
=CE (Y Y
t
)C
t

= CC
t
= ,

tal que es una matriz varcov.


Comnmente hacemos transformaciones lineales de vectores aleatorios y
necesitamos saber como las matrices de varianza-covarianza son transformadas.
Supongamos que X es un vector aleatorio de m1 con media ux y matriz de varianza-
covarianza x y sea Y = BX + b , donde B es de km y b es de k1. la media de Y es,
uY= B ux + b, y la matriz de varianza-covarianza de Y es;

y = E[ (Y uY )(Y uY )
t
] (1.3)
20 Distribucin de funcin de variables aleatorias Mahil H.
= E [ ( BX + b (BuX + b)) (BX + b (BuX + b))
t
]
= BE[(X uX ) (X uX )
t
]B
t

= B B
t


Recordemos que la distribucin normal univariada, con media u y varianza
2
,
tiene funcin de densidad:
f(x) =
2
1
2
2
1
2
x
e
| |

|
\
- < x <
ahora considerando el exponente:
2
|

\
|

u x
= (x u ) (
2
)
-1
(x u)
podemos generalizarlo para un vector de las observaciones sobre varias variables, X de
p1 tal que tendramos
(X uX)
t

1
(X uX)

donde el vector uX de p1 representa el valor esperado del vector aleatorio X y la
matriz es la matriz de varianza covarianza.
La constante de la normal univariada
2
2
1

se sustituya por una constante


mas general, la constante para la distribucin normal multivariada es (2 )
p/2
||
1/2
,
consecuentemente la densidad normal pdimensional para el vector aleatorio X tiene la
forma:

fX (X) =
2 / 1 2 /
| | ) 2 (
1

( ) ( )
t 1
X X
1
X X
2
e

u u


donde - < xi < , i = 1, . . ., p. y es de rango p. La media de X esta definida por
E[X] = u, y la matriz de varianza covarianza por E [(X uX)(X uX)
t
] = .

Usualmente la densidad normal p-dimensional se denota por Np (u, ), la cual
es anloga al caso univariado.

Ahora daremos la definicin formal de la densidad normal multivariada.

Definicin 1.5.4. Si y1, y2,,yp son p variables aleatorias y si Y es el vector p1 de estas
variables

f(y1, y2,,yp) = K
( ) ( )
t 1
Y R Y
2
e
u u
- < yi < , i = 1, , p

Distribucin de funcin de variables aleatorias. Estadstica I 21

es la funcin de densidad de una normal multivariada si se cumple

a) R es una matriz definida positiva, rij son constantes.
b) K es una constante positiva.
c) ui es el i-simo elemento de u, ui son constantes.
K =
( )
1 2
2
R
2
/
p /



Haciendo R =
1
, tenemos la misma funcin deducida anteriormente a partir
de la funcin de densidad normal univariada.

Otra definicin alterna es la siguiente.

Definicin 1.5.5. El vector aleatorio de m1 X se dice que tiene una distribucin normal
m-variada si, para cada R
mx1
, la distribucin de
t
X es normal univariada.

A partir de las definiciones ahora estableceremos algunas propiedades de la
distribucin normal multivariada.

Teorema 1.5.7. Si X es Nm (u , ) entonces la funcin caracterstica de X es

X (v) = exp ( iv
t
u v
t
v). (1.4)
v R
mx1

Demostracin.

Aqu
X (v) = E [ exp(iv
t
X

)

] = ( )
t
v X
1 ,
El lado derecho denota la funcin caracterstica de la variable aleatoria v
t
X
evaluada en 1. Ya que X es Nm(u, ) entonces v
t
X se distribuye como una normal
univariada, v
t
X N(v
t
u, v
t
v) tal que

( )
t
v X
1 = exp (i v
t
u v
t
v).

lo cual completa la demostracin.


Si ui con i = 1, 2, , r, son v.a.i.i.d con distribucin normal estndar, si U es el
vector de r1 cuyos elementos son dichas variables.

U(v) = E [ exp (i v
t
U)

]
22 Distribucin de funcin de variables aleatorias Mahil H.
=
1
E exp( i )
=

r
j j
j
v u (por
independencia)
=
2
1
1
exp
2
=
| |

|
\

r
j
j
v (por normalidad)
=
t
1
exp v v
2
| |

|
\

Ahora si ponemos
X = CU + u

donde C es una matriz de mr de rango r tal que = CC
t
, y u R
mx1
. Entonces X
tiene funcin caracterstica (1.4),

E [exp (iv
t
X)] = E[ exp (iv
t
CU) ] exp (iv
t
u)
= U(C
t
v) exp (i v
t
u)
= exp (- v
t
CC
t
v) exp (i u
t
v)
= exp ( iv
t
u v
t
v).

Vale comentar que podramos haber definido la distribucin normal
multivariada Nm(u, ) por medio de la transformacin lineal sobre variables normal
estndar independientes. Tal que dicha representacin en la prctica es muy til.



1.2.2 Formas lineales, Marginales y Condicionales.



Regresando a las propiedades de la distribucin normal multivariada, los
siguientes resultados muestran que cualquier transformacin lineal de un vector normal
tiene una distribucin normal.

Teorema 1.5.8. Si X es Nm ( u, ) y B es una matriz de dimensin km, b es un vector
de k1, entonces

Y = BX+b es Nk ( Bu + b , B B
t
).

Demostracin.

El hecho de que Y es normal k-variada es una consecuencia directa de la
definicin 1.5.5, puesto que todas las funciones lineales de los componentes de Y son
Distribucin de funcin de variables aleatorias. Estadstica I 23

funciones lineales de los componentes de X y estos son todos normales. La media y la
covarianza de la matriz Y estn claramente definidas.


Una propiedad importante de la distribucin normal multivariada es que todas las
distribuciones marginales son normales.

Teorema 1.5.9. Si X es Nm ( u, ), entonces la distribucin marginal de cualquier
subconjunto de k < m componentes de X es normal k-variada.

Demostracin.

Esto se sigue directamente de la definicin, o del teorema 1.5.8. Por ejemplo,
hacemos una particin de X, u y como
1
2
X
X
X
| |
=
|
\
,
1
2
u
| |
u =
|
u
\
,



=
22 21
12 11

donde X1 y u1 son de k1 y 11 es de kk, poniendo

B = [ Ik : 0] es de dimensin km y b = 0

En el teorema 1.5.8 se muestra inmediatamente que X1 es Nm ( u1 , 11 ).


Una consecuencia de este teorema es que la distribucin marginal de cada
componente de X es normal univariada. Lo inverso no es cierto en general; esto es, el
hecho de que cada componente de un vector aleatorio no es (marginalmente) normal
no implica que el vector tenga una distribucin normal multivariada. [Esta es una de las
razones por la cual el problema de pruebas (de hiptesis) de normalidad multivariada es
hasta cierto punto un tanto complicado en la prctica].
Recordemos que la independencia de dos variables aleatorias implican que la
covarianza entre ellas, si esta existe, es cero, pero que el caso contrario en general no es
cierto. Esta caracterstica, para la distribucin normal multivariada, es como la muestra
el siguiente resultado.

Teorema 1.5.10. Si X es Nm ( u , ) y X, u y es una particin como la siguiente:

1
2
X
X
X
| |
=
|
\
, u=
1
2
u
| |
|
u
\
,
|
|

\
|


=
22 21
12 11
,

donde X1 y u1 son de k 1 y 11 es de k k, entonces los subvectores X1 y X2 son
independientes si, y solo si 12 = 0.
24 Distribucin de funcin de variables aleatorias Mahil H.

Demostracin.

12 es la matriz de covarianzas entre los componentes de X1 y los componentes
de X2, de tal manera que la independencia de X1 y X2 implica que 12 = 0.

Sea 12 = 0, la funcin de densidad de X es,

f(X) =
( )
1 2
2 11
22
1
0
2
0
/
p /

| |

\
t 1
1 1 11 1 1
2 2 22 2 2
X 0 X
1
X 0 X 2
e

u u | | | | | |

| | |
u u
\ \ \

=
( )
1 2 1 2 2
11 22
1
2
/ / p /

( ) ( ) ( ) ( )
( )
t t 1 1
1 1 11 1 1 2 2 22 2 2
1
X X X X
2
e

u u + u u

=f(X1)f(X2)
por lo tanto X1, X2 son independientes.


Este teorema se puede extender al caso donde se hacen particiones de X en un
numero de subvectores. Lo importante de esto es que para determinar si dos
subvectores de un vector distribuido normalmente son independientes es suficiente
comprobar que la matriz de covarianzas entre lo dos subvectores es cero.

Teorema 1.5.11. Si los vectores aleatorios X y Y de m 1 son independientes y X + Y
tienen una distribucin normal m-variada, entonces X y Y se distribuyen como normal.

Demostracin.
Para cada R
mx1
, la distribucin de
t
(X + Y) =
t
X +
t
Y es normal (por el
teorema 1.5.8, ya que X + Y es normal). Puesto que
t
X y
t
Y son independientes,
implica que ambas son normales, y por lo tanto X y Y son normal m-variada.

Una propiedad bien conocida de la distribucin normal univariada es que las
combinaciones lineales de variables normales independientes son normales. La
generalizacin a la situacin multivariada, es como se muestra a continuacin.
Teorema 1.5.12. Si X1 , . . . ,XN son todas independientes, y Xi es Nm (ui , i ) para i =
1, . . . , N, entonces para cualquier constante fija 1 , . . . , N ,
Distribucin de funcin de variables aleatorias. Estadstica I 25

=
N
i
i i
X
1
es |

\
|


= =
N
i
N
i
i i i i m
N
1 1
2
, u .

La demostracin de este teorema se sigue de la definicin 1.5.5, o por inspeccin
de la funcin caracterstica de

=
N
i
i i
X
1
.
Teorema 1.5.13. Si X ~ N(u, ), XR
k

1
, con X =
1
2
X
X
| |
|
\
, ( X1, X2 son
conjuntamente normales) X2 | X1 ~ N( ( )
1 1
2 21 11 1 1 22 21 11 12
X ,

u + u ).

Demostracin.

Sea A =
1
21 11
I 0
I

| |
|

\
, es claro que |A| = I, si
W = A(X-u) =
1
21 11
I 0
I

| |
|

\
1 1
2 2
X
X
u
| |
|
u
\
=
( ) ( )
1 1
1
21 11 1 1 2 2
X
X X

u
| |
|
u + u
\

Luego
W=
1
2
W
W
| |
|
\
~N
11
1
22 21 11 12
0 0
0 0
,

| | | | | |
| | |

\ \ \

( )
1 2
W W 1 2
f W,W =
( )
1
1 2 2
11
1
2
/ k /

( )
1 t
1 11 1
1
W W
2
e


( )
2
1 2
2
1
22 21 11 12
1
2
/
k /


( )
1
t 1
2 22 21 11 12 2
1
W W
2
e

| |

|
\


( )
1 2
X X 1 2
f X ,X = ( ) ( )
1 2
W W
f A X-u |I|
= ( ) ( ) ( )
1 2
1
W W 1 1 2 2 22 11 1 1
f X - X - X - ,

u u u
=
( )
1
1 2 2
11
1
2
/ k /

( )
1 t
1 11 1
1
W W
2
e


( )
2
1 2
2
1
22 21 11 12
1
2
/
k /


( )
1
t 1
2 22 21 11 12 2
1
W W
2
e

| |

|
\


( )
2 1
X |X 2 1
f X |X =
26 Distribucin de funcin de variables aleatorias Mahil H.
( )
2
1 2
2
1
22 21 11 12
1
2
/
k /


( ) ( ) ( ) ( ) ( ) ( ) ( )
t 1
1 1 1
2 2 21 11 1 1 22 21 11 12 2 2 21 11 1 1
1
X X X X
2
e

| |
u u u u
|
\


Como podemos ver X2 | X1 ~ N( ( )
1 1
2 21 11 1 1 22 21 11 12
X ,

u + u ).


Definicin 1.5.6. A Q =
t 1
( X ) ( X )

u u se le denomina la forma cuadrtica asociada


a la funcin de densidad fX(X) = K
( ) ( )
t 1
X X
1
X X
2
e

u u


Teorema 1.5.14. Sea X ~ N(u , ) con forma cuadrtica Q, el vector de medias u es
aquel que da la solucin al sistema de ecuaciones
Q
X

=0.
Demostracin.
La densidad la podemos poner como fX(X) = K
1
Q
2
e

el valor de X que
maximiza fX(X) es el valor de X tal que Q=0, como Q=
t 1
( X ) ( X )

u u y es
definida positiva, Q slo puede ser cero en el punto Xu=0, es decir el punto en donde
X = u, por lo que podemos decir que u es el punto que maximiza a fX(X).
La solucin al sistema
X
f ( X)
X

=0 da el punto mximo de fX(X) y por lo


mencionado anteriormente tal punto es u. Pero como
X
f ( X)
X

=
1
Q
2
1 Q
Ke
2 X


| |

|
\

Se sigue que el vector que satisface
X
f ( X)
X

=0, es el mismo que satisface


Q
X

=0. Por
tanto el vector u es la solucin al sistema
Q
X

=0


Ejemplo 1.5.17.. Sea x1, x2, dos variables distribuidos conjuntamente como una normal
multivariada con forma cuadrtica
Distribucin de funcin de variables aleatorias. Estadstica I 27

Q =
2 2
1 2
2 x x + x1x2 3x1 2x2+4
A partir de la forma cuadrtica deseamos encontrar el vector de medias y la
matriz de varianza covarianza. La forma cuadrtica la podemos escribir como
Q=
t 1
( X ) ( X )

u u =
t 1
X X


t 1 t 1 t 1
X X

u u + u u
El nico trmino que tiene trminos de segundo grado es
t 1
X X

, as tenemos que
t 1
X X

=
2 2
1 2
2 x x + x1x2 =
t
1 1
2 2
1
1
2
1
2
2
x x
x x
| |

|
| | | |
|
| |
\ \ |

|
\

as tenemos que
1
=
1
1
2
1
2
2
| |

|
|
|

|
\
y =
8 2
7 7
2 4
7 7
| |
|
|
|
|
\

ahora slo nos hace falta obtener la media, por el teorema anterior esta la podemos
obtener resolviendo el sistema
Q
X

=0.
Tenemos que
1
Q
x

= 2x1 x2 3 = 0
2
Q
x

= x1 + 4x2 2 = 0
La solucin al sistema anterior es x2 = 1, x1 = 2 as tenemos que u1 = 2 y u2 =1.


28 Distribucin de funcin de variables aleatorias Mahil H.

BIBLIOGRAFA




1.- [1974] Mood A., Graybill F. and Boes D., Introduction to theory of statistics. 3era ed. McGraw-Hill. USA

2.- [2002] G. Casella; R.L. Berger, Statistical Inference. 2 ed. Wadsworth & Brooks. USA

3.- [1961] F.A. Graybill, An introduction to Linear Statistical Models, Vol I, Mc Graw Hill, USA.

4.- [1999] W.H. Greene, Anlisis Economtrico. 3era edicin, Prentice Hall, Espaa.

5.- [2002] Mendenhall; Scheaffer; Wackerly Estadstica Matemtica con aplicaciones. 6 ed. Thopson.
Mxico.

6.- [1974] Mood A., Graybill F. and Boes D., Introduction to theory of statistics. 3era ed. McGraw-Hill. USA

7.- [1971] Searle, Linear Models. Wiley, USA

Vous aimerez peut-être aussi