Académique Documents
Professionnel Documents
Culture Documents
UCR ECCI CI-1352 Probabilidad y Estadstica Prof. M.Sc. Kryscia Daviana Ramrez Benavides
Sea X una variable aleatoria con distribucin de probabilidad f(x). La media o valor esperado de X es
Si X es discreta
= X = E ( X ) = xf (x )
x
Si X es continua
= X = E ( X ) = xf (x )dx
Teorema. Sea X una variable aleatoria con distribucin de probabilidad f(x). La media o valor esperado de la variable aleatoria g(X) es
Si X es discreta
g ( X ) = E [g ( X )] = g (x ) f (x )
x
+
Si X es continua
g ( X ) = E [g ( X )] = g (x ) f (x )dx
Sean X y Y variables aleatorias con distribucin de probabilidad conjunta f(x,y). La media o valor esperado de la variable aleatoria g(X,Y) es
Si X y Y son discretas
g ( X ,Y ) = E [g ( X , Y )] = g (x, y ) f (x, y )
y x
Si X y Y son continuas
g ( X ,Y ) = E [g ( X , Y )] =
+ +
Sean X y Y variables aleatorias con distribucin de probabilidad conjunta f(x,y). La media o valor esperado de la variable aleatoria X es
Si X y Y son discretas
y
X = E ( X ) = xf (x, y ) = xg (x )
x x
Si X y Y son continuas
X = E(X ) =
+ +
Sean X y Y variables aleatorias con distribucin de probabilidad conjunta f(x,y). La media o valor esperado de la variable aleatoria Y es
Si X y Y son discretas
y x
Y = E (Y ) = yf (x, y ) = yh( y )
y
Si X y Y son continuas
Y = E (Y ) =
+ +
Varianza y Covarianza
Sea X una variable aleatoria con distribucin de probabilidad f(x) y la media . La varianza de X es
2 = 2 = Var ( X ) = E ( X )2 = (x )2 f (x )
X
Si X es discreta
Si X es continua
2 2
X
= = Var ( X ) = E ( X ) =
2
2 ( x ) f ( x )dx
La cantidad x se llama desviacin estndar de una observacin respecto a su media. Cuando estas desviaciones se elevan al cuadrado y despus se promedian, 2 ser mucho menor para un conjunto de valores x que sean cercanos a , que para un conjunto de valores que vare de forma considerable de .
Teorema. La varianza de una variable aleatoria X es 2 2 ( ) 2 = 2 = Var X = E X X Prueba. Caso discreto (el caso continuo es igual, pero en vez de sumatorias son integrales). 2 = 2 = Var ( X ) = ( x )2 f ( x )
( )
2 = (x 2 2x + 2 ) f ( x ) 2 = x 2 f ( x ) 2 xf ( x ) + 2 f (x ) = xf (x ) y
x x x x x x
f (x ) = 1
x x
2 = x 2 f (x ) 2 2 + 2 = x 2 f (x ) 2
UCR-ECCI CI-1352 Probabilidad y Estadstica 2 2 2 E X = Esperanza Matemtica
( )
Teorema. Sea X una variable aleatoria con distribucin de probabilidad f(x). La varianza de la variable aleatoria g(X) es
2( ) = Var [g ( X )] = E (g ( X ) g ( X ) )2 = (g (x ) g ( X ) )2 f (x )
g X
Si X es discreta
2
g(X
= Var [g ( X )] = E (g ( X ) g ( X ) ) =
2
Si X es continua
(g (x ) ( ) ) f (x )dx
2 g X
10
Si X y Y son discretas
Si X y Y son continuas
+ +
XY = cov( X , Y ) = E [( X X )(Y Y )] =
(x )( y ) f (x, y )dxdy
X Y
11
La covarianza de dos variables aleatorias es una medida de la naturaleza de la asociacin entre las dos. La covarianza slo describe la relacin lineal entre dos variables aleatorias.
Describe la naturaleza de la relacin. Si la covarianza es positiva significa que X y Y son linealmente ascendentes (valores grandes de X estarn relacionados con valores grandes de Y, y valores pequeos de X estarn relacionados con valores pequeos de Y). Si la covarianza es negativa significa que X y Y son linealmente descendentes (valores grandes de X estarn relacionados con valores pequeos de Y, y viceversa). 12
Cuando X y Y son estadsticamente independientes la covarianza es cero. Lo opuesto, sin embargo, por lo general no es cierto. Dos variables pueden tener covarianza cero e incluso as no ser estadsticamente independientes. Una covarianza entre X y Y es cero, quiz indica que X y Y no tiene una relacin lineal, pero no que sean independientes.
13
Teorema. La covarianza de dos variables aleatorias X y Y con medias X y Y, respectivamente, est dada por XY = cov( X , Y ) = E ( XY ) X Y Prueba. Caso discreto (el caso continuo es igual, pero en vez de sumatorias son integrales).
XY = cov( X , Y ) = (x X )( y Y ) f (x, y )
x y
XY = (xy X y Y x + X Y ) f (x, y )
x y
f (x, y ) = 1
x y
14
Sean X y Y variables aleatorias con covarianza XY y desviacin estndar X y Y, respectivamente. El coeficiente de correlacin X y Y es
XY
XY = XY
15
Teorema. Si a y b son constantes, entonces E(aX b) = aE(X) b Corolario. Al hacer a = 0, se ve que E(b) = b Corolario. Al hacer b = 0, se ve que E(aX) = aE(X) Prueba. Caso continuo (el caso discreto es igual, pero en vez de integrales son sumatorias).
E (aX b ) =
+ +
(ax b ) f (x )dx
+
(X ) b
f (x )dx = 1
16
Teorema. El valor esperado de la suma o diferencia de dos o ms funciones de una variable aleatoria X, es la suma o diferencia de los valores esperados de las funciones. Es decir, E[g(X) h(X)] = E[g(X)] E[h(X)] Prueba. Caso continuo (el caso discreto es igual, pero en vez de integrales son sumatorias).
E ( g ( x ) h( x )) =
+
(g (x ) h(x )) f (x )dx
+
E ( g ( x ) h( x )) = E (g ( x )) E (h( x ))
UCR-ECCI CI-1352 Probabilidad y Estadstica Esperanza Matemtica
E ( g ( x ) h( x )) = g ( x ) f ( x )dx h( x ) f ( x )dx
17
Teorema. El valor esperado de la suma o diferencia de dos o ms funciones de las variables aleatorias X y Y, es la suma o diferencia de los valores esperados de las funciones. Es decir, E[g(X,Y) h(X,Y)] = E[g(X,Y)] E[h(X,Y)] Corolario. Al hacer g(X,Y) = g(X) y h(X,Y) = h(Y), se ve que E[g(X) h(Y)] = E[g(X)] E[h(Y)] Corolario. Al hacer g(X,Y) = X y h(X,Y) = Y, se ve que E(X Y) = E(X) E(Y)
E (g (x, y ) h(x, y )) =
(g (x, y ) h(x, y )) f (x, y )dxdy E (g (x, y ) h(x, y )) = g (x, y ) f (x, y )dxdy h(x, y ) f (x, y )dxdy
+ + + +
+ +
( (
))
( (
))
(h(x, y ))
18
Teorema. Sean X y Y dos variables aleatorias independientes. Entonces E(XY) = E(X)E(Y) Prueba. Caso continuo (el caso discreto es igual, pero en vez de integrales son sumatorias).
E ( XY ) = E ( XY ) =
+ +
f (x, y ) = g (x )h( y )
+ + +
19
Teorema. Si a y b son constantes, entonces 2aX + b = a22X = a22 Corolario. Al hacer a = 1, se ve que 2X + b = 2X = 2 Corolario. Al hacer b = 0, se ve que 2aX = a22X = a22 Prueba.
= E (aX + b aX +b ) aX +b = E (aX + b ) = aE ( X ) + b = a X + b
2 aX + b 2 2 aX +b 2
2
2 2 2 ( ) ( ) ( ) [ ] aX = E aX + b a + b = E aX + b a b +b X X 2
2
{ } [ = E [(aX a ) ] = a E [( X ) ] = a
X X
2 X
20
2 aX + bY
21
Corolario. Si X y Y son variables aleatorias independientes, entonces 2aX + bY = a22X + b22Y Corolario. Si X y Y son variables aleatorias independientes, entonces 2aX bY = a22X + b22Y Corolario. Si X1, X2, , Xn son variables aleatorias independientes, entonces 2a1X1 + a2X2 + + anXn = a212X1 + a222X2 + + a2n2Xn
22
Teorema de Chebyshev
Si una V.A. tiene una varianza o desviacin estndar pequea, se esperara que la mayora de los valores se agruparan alrededor de la media.
El matemtico ruso P.L. Chebyshev descubri que la fraccin del rea entre cualesquiera dos valores simtricos alrededor de la media est relacionada con la desviacin estndar. Como el rea bajo una curva de distribucin de probabilidad, o en un histograma de probabilidad, suma 1, el rea entre cualesquiera dos nmeros es la probabilidad de que la V.A. tome un valor entre estos nmeros.
23
24
25
La probabilidad de que cualquier variable aleatoria X tome un valor dentro de k desviaciones estndar de la media es al menos 1 1/k2. Es decir, 1 P( k < X < + k ) 1 2 k Este teorema tiene validez para cualquier distribucin de observaciones y, por esta razn, los resultados por lo general son dbiles.
26
El valor que el teorema proporciona es slo un lmite inferior; es decir, la probabilidad de una variable aleatoria caiga dentro de dos desviaciones estndar de la media no puede ser menor a 1 1/k2. Slo cuando se conoce la distribucin de probabilidad, se puede determinar probabilidades exactas. Por esta razn el teorema se conoce por el nombre de distribucin libre. El uso de este teorema se relega a situaciones donde se desconoce la forma de la distribucin.
27
Referencias Bibliogrficas
Walpole, R.E.; Myers, R.H.; Myers, S.L. & Ye, K. Probabilidad y estadstica para ingeniera y ciencias. Octava Edicin. Pearson Prentice-Hall. Mxico, 2007.
28