Académique Documents
Professionnel Documents
Culture Documents
b) Fabrico de peas cilndricas Captulo 5 - Distribuies conjuntas de probabilidades e complementos 5.1 Duas variveis aleatrias discretas. Distribuies conjuntas, marginais e condicionais. Independncia Nos Captulos 3 e 4 estudou-se a distribuio de Em relao a uma mesma experincia podem ser consideradas vrias variveis aleatrias. Exemplos: a) Transmisso/recepo de sinais em que cada um classificado como: alta, mdia ou baixa qualidade. Considerem-se as v.a. X - n de sinais de alta qualidade Y - n de sinais de baixa qualidade Trata-se de duas variveis discretas. 1 Definio: Dadas duas variveis aleatrias discretas, chama-se funo de probabilidade conjunta a f XY ( x, y ) = P( X = x,Y = y ) , tal que (2)
probabilidade de v.a. (discretas ou contnuas), consideradas isoladamente. Para duas ou mais v.a. o seu comportamento simultneo estudado usando as chamadas distribuies de probabilidade conjuntas.
(1) f XY ( x, y ) 0 , ( x,y )
f ( x, y) = 1
XY x y
Exemplo: Lanamento de dois dados perfeitos. Seja X - n de vezes que sai a face 6 Y - n de vezes que sai a face 5 P( X = 0,Y = 0) = x=0,1,2 y=0,1,2
1 8/36 2/36 0
2 1/36 0 0
P( X = 2,Y = 2) = 0
1 8/36 2/36
P( X = x,Y = y) = 1
x=0 y=0
16/36 0
8/36 1
1/36 2 x
A partir da tabela podem calcular-se tambm as probabilidades (chamadas marginais) para X ou Y. Por exemplo: P( X = 0) = f XY (0,0) + f XY (0,1) + f XY (0,2) = = f XY (0, y)
y=0 2
1 1 Nota: verificar que X ~ Bin 2, e Y ~ Bin 2, 6 6 (diz-se que X e Y so identicamente distribudas) Definio: Se X e Y forem v.a. discretas com funo de probabilidade conjunta f XY ( x, y) , as funes de probabilidade marginais de X e Y so f X ( x ) = P( X = x ) = f XY ( x, y)
y
Estas probabilidades podem ser acrescentadas tabela da funo de probabilidade conjunta: Y\X 0 1 2 P( X = x ) 0 16/36 8/36 1/36 25/36 1 8/36 2/36 0 10/36 2 1/36 0 0 1/36
P( Y = y )
f Y ( y) = P(Y = y ) = f XY ( x, y)
x
Nota: dada uma funo de probabilidade conjunta, E( X ) , V ( X ) , E(Y ) e V (Y ) podem ser calculados usando a f.p. conjunta ou as f.p. marginais: E( X ) = X = xf X ( x ) = x f XY ( x, y) = y x x = xf XY ( x, y)
x y
Definio: Dadas as v.a. discretas X e Y com f.p. conjunta f XY ( x, y) , a funo de probabilidade condicionada de Y dado X=x (tal que f X ( x ) > 0 ) f Y |x ( y) = P(Y = y| X = x ) = e verifica (2)
f XY ( x, y ) f X ( x)
Exemplo (cont.): Y|X=1 8 36 8 P(Y = 0| X = 1) = = 10 36 10 2 36 2 P(Y = 1| X = 1) = = 10 36 10 0 P(Y = 2| X = 1) = =0 10 36 E(Y| X = 1) = 0 Y|X=0 16 36 16 = 25 36 25 8 36 8 P(Y = 1| X = 0) = = 25 36 25 1 36 1 P(Y = 2| X = 0) = = 25 36 25 P(Y = 0| X = 0) = E(Y| X = 0) = 0 16 8 1 10 +1 +2 = 25 25 25 25 8 2 2 +1 = 10 10 10
(1) f Y |x ( y) 0 , y
f ( y) = 1
Y |x y
(tem as propriedades de uma f.p.) Definio: O valor esperado condicionado de Y dado X=x E(Y| x ) = Y |x = yf Y |x ( y)
y
O conceito de independncia de acontecimentos pode ser estendido a variveis aleatrias. Definio: Dadas duas v.a. discretas X e Y, se uma das seguintes condies se verificar ento as outras tambm se verificam e as v.a. so independentes (1) (2) (3) f XY ( x, y) = f X ( x ) f Y ( y), x, y f Y |x ( y) = f Y ( y ), x, y com f X ( x ) > 0
f X|y ( x ) = f X ( x ), x, y com f Y ( y) > 0
5.2 Duas variveis aleatrias contnuas. Distribuies conjuntas, marginais e condicionais. Independncia Do mesmo modo que para caracterizar uma v.a. contnua foi necessrio introduzir o conceito de funo de densidade de probabilidade, define-se para duas variveis aleatrias contnuas a funo de densidade de probabilidade conjunta. D e f i n i o : A funo de densidade de
Exemplo (cont.): Sero X e Y independentes? No, porque, por exemplo, P( X = 2,Y = 2) = 0 P( X = 2) P(Y = 2) Consequncia da definio de independncia: Se X e Y so independentes, ento P( X A e Y B ) = P( X A ) P( Y B ) 9
probabilidade conjunta para duas v.a. contnuas, X e Y, representada por f XY ( x, y) , satisfaz: (1) f XY ( x, y ) 0 ( x,y )
+ +
(2)
f ( x, y)dxdy = 1
XY R
Definio: Dadas duas v.a. contnuas, X e Y, com f.d.p. conjunta f XY ( x, y ) , as funes de densidade de probabilidade marginais de X e Y so dadas por f X ( x) = f Y ( y) =
+ +
f ( x, y)dy
XY XY
yf ( y)dy
Y |x 2
f ( x, y)dx
Definio: Dadas duas v.a. contnuas, X e Y, com f.d.p. conjunta f XY ( x, y ) , a funo de densidade de probabilidade condicionada de Y dado X=x (tal que f X ( x) > 0 ) f ( x, y ) f Y |x ( y) = XY f X ( x) e verifica: (1) f Y |x ( y) 0, y
+
(y )
Y |x
f Y |x ( y )dy
Nota: Definies semelhantes para X dado Y=y. A definio de independncia coincide com a que foi dada para as variveis discretas mas em que f XY ( x, y ) , f X ( x ) , f Y ( y) , f Y |x ( y) e f X|y ( x ) so funes de densidade de probabilidade.
(2)
f ( y)dy = 1
Y |x
11
12
Interpretao do sinal da covarincia: 5.3 Covarincia e correlao cov( X,Y ) > 0 : Pretende-se uma medida que mea algum aspecto da variao conjunta de duas variveis aleatrias. Definio: a covarincia entre duas v.a., X e Y, dada por cov( X,Y ) = XY = E ( X X )(Y Y ) Se ambas as v.a. forem discretas tem-se
y
y
XY = ( x X )( y Y ) f XY ( x, y)
x y
XY =
+ +
( x )( y ) f ( x, y)dxdy
X Y XY
13
14
cov( X,Y ) = 0:
y
y
x
Propriedades da covarincia: 1) cov( X,Y ) = E( XY ) X Y 2) cov( X,Y ) = cov(Y, X ) 3) cov( X, X ) = V ( X ) 4) cov( aX,Y ) = a cov( X,Y ) 5) cov( X + Z,Y ) = cov( X,Y ) + cov( Z,Y ) n n n n 6) cov Xi , Y j = cov Xi ,Y j i =1 j =1 i =1 j =1
15
16
Exemplo (cont.): Calcular a covarincia entre X e Y Y\X 0 1 2 0 16/36 8/36 1 8/36 2/36 2 1/36 0
Medida cujo sinal d a mesma indicao mas que adimensional e cujo valor absoluto j interpretvel: Definio: A correlao ou coeficiente de correlao entre duas v.a. X e Y
1/36 0 0 16 2 E( XY ) = 0 0 +...+1 1 +...+2 2 0 = 36 36 2 = 36 1 1 1 X e Y ~ Bin 2, E( X ) = E(Y ) = 2 = 6 6 3 2 1 1 logo cov( X,Y ) = = 36 9 18 Significado: em mdia h uma tendncia para y decrescer quando x cresce e vice-versa. O valor absoluto da covarincia no interpretvel porque esta pode ser arbitrariamente alterada por uma mudana de escala (propriedade 4). 17
XY =
Propriedades:
cov( X,Y ) = XY V ( X )V (Y ) X Y
18
XY 1
X Y + , sabe-se que X Y
= =
E( X 2 )
2 X
E (Y 2 )
2 Y
= 1 + 1 + 2 XY 0 XY 1
2 X 2 Y
2 E( X 2 ) X
2 E (Y 2 ) Y
2 2 E( XY ) X Y +2 2 2 2 X Y = XY X Y XY
XY = XY = 0
Demonstrao: Vamos admitir que X e Y so ambas discretas (seria semelhante para ambas contnuas, substituindo os integrais por somatrios)
+2
E( XY ) X Y = XY
b) XY 1
Y\X -1 0 1 P( X = x )
-1 0 1/12 0 1/12
1 0 1/12 0 1/12
logo E( XY ) = xyf XY ( x, y) =
x y
= xyf X ( x ) f Y ( y) =
x y
XY = 0 , mas X e Y no so independentes.
5.4 Combinaes lineares de variveis aleatrias D e f i n i o : dadas p v.a., X1 , X2 ,..., X p e p constantes c1 ,c2 ,...,c p , Y = c1 X1 + c2 X2 +...+c p X p uma combinao linear de X1 , X2 ,..., X p . 21 22
XY = XY = 0 no implica X e Y independentes
Demonstrao: V (c1 X1 + c2 X2 ) =
= c1 x1 f ( x1 , x2 ) + c2 x2 f ( x1 , x2 ) =
x1 x2 x1 x2
= E (c1 X1 + c2 X2 ) E(c1 X1 + c2 X2 ) =
2 2 2 2 = E(c12 X12 + c2 X2 + 2c1c2 X1 X2 ) (c11 + c2 2 ) = 2 2 2 = c12 E( X12 ) + c2 E( X2 ) + 2c1c2 E( X1 X2 )
] [
( )
2 2 2 = c12 E( X12 ) 12 + c2 E( X2 ) 2 +
] [
2 2 c12 12 c2 2 2c1c2 1 2 =
+ 2c1c2 E( X1 X2 ) 1 2
c.q.d. 23 24
+ 2 3) Caso particular de 2)
i =1 j =i +1
c c
cov Xi , X j
binomial a) Se X1 ~ Bin(n1 , p) , X2 ~ Bin(n2 , p) e X1 e X2 forem independentes, ento X1 + X2 ~ Bin(n1 + n2 , p) ( X1 + X2 representa o nmero de sucessos em
n1 + n2 provas de Bernoulli independentes com
P(sucesso) constante e igual a p) b) (Generalizao) Se Xi ~ Bin(ni , p) , i = 1,..., k , independentes, ento k X1 +...+ Xk ~ Bin ni , p i =1 independentes, ento X1 +...+ Xn ~ Bin(n, p) 25 Caso particular: Xi ~ Ber( p) = Bin(1, p) , i = 1,...,n 26
N o t a : o mesmo acontece se as v.a. forem independentes duas a duas, uma vez que, como j se viu, nesse caso as covarincias duas a duas so nulas.
II) Propriedade reprodutiva da distribuio de Poisson a) Se X1 ~ Poisson( 1 ) , X2 ~ Poisson( 2 ) e X1 e X2 forem independentes, ento X1 + X2 ~ Poisson( 1 + 2 ) (Este caso pode ser visto como um limite do caso I)a)) b) (Generalizao) Se Xi ~ Poisson( i ) ,
IV) Mudana de escala na distribuio exponencial Se X ~ Exp( ) e c > 0 , ento Y = cX ~ Exp Demonstrao: Seja para y > 0 y FY ( y) = P(Y y ) = P(cX y) = P X = c
y y = FX = 1 e c c
FX ( x ) = 1 e x , x > 0 28
27
5.5 Desigualdade de Chebychev* Esta desigualdade permite relacionar Estes valores so teis se no conhecermos a distribuio da varivel, mas podem ser muito pessimistas. Por exemplo para X ~ N ( , 2 ) , podem ser determinados exactamente e Proposio: Para qualquer v.a. X, com valor esperado e desvio padro , verifica-se 1 P( X c ) 2 c (s til para c > 1 ). Exemplo: c 1.5 2 3 4 P( X c ) (qq v.a. X)
0.444
c 1.5 2 3 4
0.25
0.111
0.063
0.25
0.111
0.063
29
30
1, se X c Y= 0, caso contrrio Tem-se E(Y ) = 1 P(Y = 1) = P( X c ) , por outro lado como y = 0 ou y = 1 , e pela definio de Y,
importncia da distribuio normal. T.L.C.: Se para todo o inteiro positivo n, X1 ,..., Xn forem v.a. independentes e identicamente distribudas com valor esperado e varincia 2 , ento para cada z , real, tem-se n Xi n lim P i =1 z = ( z ) n n Consequncia: Para X1 ,..., Xn nas mesmas condies e n grande verifica-se
n b n a n P a < Xi < b n n i =1
( X )2 ( X )2 Y
Logo
e ( X ) Y c 2 2Y
2
2 c 2 2 P( X c ) P( X c ) 1 c2
E ( X ) c 2 2 E (Y )
2
31
32
Observaes: A demonstrao do teorema exige algumas ferramentas matemticas avanadas. Como E( Xi ) = , V ( Xi ) = 2 e X1 ,..., Xn so v.a. independentes tem-se n n E Xi = n e V Xi = n 2 i =1 i =1 pelo que n n Xi n Xi n i =1 E i =1 = 0 V = 1 n n n As v.a. X1 ,..., Xn podem ser discretas ou contnuas. A aproximao das distribuies Binomial e Poisson distribuio normal (ver Captulo 4), pode ser justificada por este teorema. Geralmente considera-se n grande se n 30 . 33
Exemplo: Suponha-se que ao adicionar nmeros reais cada nmero arredondado previamente para o inteiro mais prximo. Admita-se que os erros de arredondamento so v.a. independentes e identicamente distribudas com distribuio uniforme contnua no intervalo [-0.5;0.5] (esta suposio razovel se desconhecermos partida tudo sobre os referidos nmeros reais e admitirmos que tambm eles se distribuem uniformemente e independentemente nalgum intervalo) a) Qual a probabilidade de que, ao adicionar 1500 nmeros, o valor absoluto do erro seja superior a 15? Pode afirmar-se que o valor absoluto do erro est certamente compreendido entre 0 e 750, mas este valor muito pessimista.
34
n P Ei < 10 0.9 i =1 n 12 i =1 a n Pelo T.L.C. conclui-se que Tn ~ N 0, 12 10 10 P( 10 < T n < 10) n 12 n 12 Tn = Ei Como ( x ) = 1 ( x ) 10 10 1 n 12 = 0.9 n 12 10 = 0.95 n 12 10 = 1 (0.95) = 1.645 n 12
n
E (T n ) = 0
V (T n ) =
Logo P( T > 15) = 1 P( T 15) = 1 P( 15 T 15) = T 15 15 = 1 P = 125 125 125 T 1.34 = 1 P 1.34 125 1 ((1.34) ( 1.34)) = = 1 (0.9099 0.0901) = 0.1802 35
Pode-se "observar" o T.L.C. em "aco": Exemplo: Vamos realizar a experincia do exerccio anterior. Para isso seleccionamos totalmente ao acaso e de modo independente n nmeros reais num dado intervalo e fazemos a diferena para o inteiro mais prximo (isto equivalente a seleccionar aleatoriamente n "erros" ao acaso no intervalo [-0.5;0.5]), em seguida somam-se os n erros. Temos ento uma observao de Tn . Repetimos este processo 1000 vezes (isto pode ser feito em computador).
Resultados: n=1
Histogram of s1
0.30 Relative Frequency 0.00
-2
Em seguida construmos o histograma das frequncias relativas das 1000 observaes de T n Tn Sn = n = n n 12 e sobreposmo-lhe a densidade da distribuio N (0,1) 37
0.05
0.10
0.15
0.20
0.25
-1
0 s1
38
n=5 n = 10
Histogram of s5
0.4
Histogram of s10
0.4
Relative Frequency
0.3
Relative Frequency
-3 -2 -1 0 s5 1 2 3
0.2
0.1
0.0
0.0
0.1
0.2
0.3
-3
-2
-1 s10
A aproximao parece boa mesmo s com n = 10. (Uma explicao que a distribuio de partida simtrica e contnua) 39 40
Experimentemos com outra distribuio: E x e m p l o : Seja Xi ~ Exp(1) , por exemplo, intervalo de tempo entre chegadas num processo de Poisson com taxa = 1 . A v.a. Tn = Xi chegada. Vamos repetir o procedimento descrito no exemplo anterior. Ou seja, para cada n, obtemos
n
Resultados: n=1
i =1
Histogram of se1
0.6 Relative Frequency 0.0 0.1 0.2 0.3 0.4 0.5
1000 observaes de Sn = ( = E( Xi ) = 1 Tn n Tn n = n n
2 = V ( Xi ) = 1)
Em seguida construmos o histograma das frequncias relativas das 1000 observaes de Sn e sobreposmo-lhe a densidade da distribuio N (0,1) . 41
4 se1
10
42
n=5
n = 20
Histogram of se5
0.4 0.4
Histogram of se20
Relative Frequency
0.3
Relative Frequency
-2 -1 0 1 se5 2 3 4
0.2
0.0
0.1
0.0
0.1
0.2
0.3
-2
-1
0 se20
43
44
n = 30
n = 40
Histogram of se30
0.4
Histogram of se40
0.3
Relative Frequency
Relative Frequency
0.2
0.1
0.0
0.0
0.1
0.2
0.3
-2
0 se30
-2
0 se40
Aqui temos de ter n maior para que a aproximao comece a ser razovel. 45 46