Vous êtes sur la page 1sur 12

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

b) Fabrico de peas cilndricas Captulo 5 - Distribuies conjuntas de probabilidades e complementos 5.1 Duas variveis aleatrias discretas. Distribuies conjuntas, marginais e condicionais. Independncia Nos Captulos 3 e 4 estudou-se a distribuio de Em relao a uma mesma experincia podem ser consideradas vrias variveis aleatrias. Exemplos: a) Transmisso/recepo de sinais em que cada um classificado como: alta, mdia ou baixa qualidade. Considerem-se as v.a. X - n de sinais de alta qualidade Y - n de sinais de baixa qualidade Trata-se de duas variveis discretas. 1 Definio: Dadas duas variveis aleatrias discretas, chama-se funo de probabilidade conjunta a f XY ( x, y ) = P( X = x,Y = y ) , tal que (2)

X - comprimento da pea Y - dimetro da pea Trata-se de duas variveis contnuas.

probabilidade de v.a. (discretas ou contnuas), consideradas isoladamente. Para duas ou mais v.a. o seu comportamento simultneo estudado usando as chamadas distribuies de probabilidade conjuntas.

(1) f XY ( x, y ) 0 , ( x,y )

f ( x, y) = 1
XY x y

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Exemplo: Lanamento de dois dados perfeitos. Seja X - n de vezes que sai a face 6 Y - n de vezes que sai a face 5 P( X = 0,Y = 0) = x=0,1,2 y=0,1,2

Organizao da funo de probabilidade conjunta em tabela: Y\X 0 1 2 Grfico:


3 y 2 1/36

0 16/36 8/36 1/36

1 8/36 2/36 0

2 1/36 0 0

4 4 6 6 4 1 P( X = 1,Y = 0) = 2 = P( X = 0,Y = 1) 6 6 1 1 P( X = 1,Y = 1) = 2 6 6 1 1 P( X = 2,Y = 0) = = P( X = 0,Y = 2) 6 6


P( X = 1,Y = 2) = 0 = P( X = 2,Y = 1)

P( X = 2,Y = 2) = 0
1 8/36 2/36

P( X = x,Y = y) = 1
x=0 y=0

16/36 0

8/36 1

1/36 2 x

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

A partir da tabela podem calcular-se tambm as probabilidades (chamadas marginais) para X ou Y. Por exemplo: P( X = 0) = f XY (0,0) + f XY (0,1) + f XY (0,2) = = f XY (0, y)
y=0 2

1 1 Nota: verificar que X ~ Bin 2, e Y ~ Bin 2, 6 6 (diz-se que X e Y so identicamente distribudas) Definio: Se X e Y forem v.a. discretas com funo de probabilidade conjunta f XY ( x, y) , as funes de probabilidade marginais de X e Y so f X ( x ) = P( X = x ) = f XY ( x, y)
y

Estas probabilidades podem ser acrescentadas tabela da funo de probabilidade conjunta: Y\X 0 1 2 P( X = x ) 0 16/36 8/36 1/36 25/36 1 8/36 2/36 0 10/36 2 1/36 0 0 1/36
P( Y = y )

f Y ( y) = P(Y = y ) = f XY ( x, y)
x

25/36 10/36 1/36 1

Nota: dada uma funo de probabilidade conjunta, E( X ) , V ( X ) , E(Y ) e V (Y ) podem ser calculados usando a f.p. conjunta ou as f.p. marginais: E( X ) = X = xf X ( x ) = x f XY ( x, y) = y x x = xf XY ( x, y)
x y

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Definio: Dadas as v.a. discretas X e Y com f.p. conjunta f XY ( x, y) , a funo de probabilidade condicionada de Y dado X=x (tal que f X ( x ) > 0 ) f Y |x ( y) = P(Y = y| X = x ) = e verifica (2)

f XY ( x, y ) f X ( x)

Exemplo (cont.): Y|X=1 8 36 8 P(Y = 0| X = 1) = = 10 36 10 2 36 2 P(Y = 1| X = 1) = = 10 36 10 0 P(Y = 2| X = 1) = =0 10 36 E(Y| X = 1) = 0 Y|X=0 16 36 16 = 25 36 25 8 36 8 P(Y = 1| X = 0) = = 25 36 25 1 36 1 P(Y = 2| X = 0) = = 25 36 25 P(Y = 0| X = 0) = E(Y| X = 0) = 0 16 8 1 10 +1 +2 = 25 25 25 25 8 2 2 +1 = 10 10 10

(1) f Y |x ( y) 0 , y

f ( y) = 1
Y |x y

(tem as propriedades de uma f.p.) Definio: O valor esperado condicionado de Y dado X=x E(Y| x ) = Y |x = yf Y |x ( y)
y

e a respectiva varincia condicionada


V (Y| x ) = ( y Y |x ) f Y |x ( y)
2 y

Nota: Definies semelhantes para X dado Y=y. 7 8

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

O conceito de independncia de acontecimentos pode ser estendido a variveis aleatrias. Definio: Dadas duas v.a. discretas X e Y, se uma das seguintes condies se verificar ento as outras tambm se verificam e as v.a. so independentes (1) (2) (3) f XY ( x, y) = f X ( x ) f Y ( y), x, y f Y |x ( y) = f Y ( y ), x, y com f X ( x ) > 0
f X|y ( x ) = f X ( x ), x, y com f Y ( y) > 0

5.2 Duas variveis aleatrias contnuas. Distribuies conjuntas, marginais e condicionais. Independncia Do mesmo modo que para caracterizar uma v.a. contnua foi necessrio introduzir o conceito de funo de densidade de probabilidade, define-se para duas variveis aleatrias contnuas a funo de densidade de probabilidade conjunta. D e f i n i o : A funo de densidade de

Exemplo (cont.): Sero X e Y independentes? No, porque, por exemplo, P( X = 2,Y = 2) = 0 P( X = 2) P(Y = 2) Consequncia da definio de independncia: Se X e Y so independentes, ento P( X A e Y B ) = P( X A ) P( Y B ) 9

probabilidade conjunta para duas v.a. contnuas, X e Y, representada por f XY ( x, y) , satisfaz: (1) f XY ( x, y ) 0 ( x,y )
+ +

(2)

f ( x, y)dxdy = 1
XY R

(3) P(( X,Y ) R) = f XY ( x, y )dxdy regio R 10

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Definio: Dadas duas v.a. contnuas, X e Y, com f.d.p. conjunta f XY ( x, y ) , as funes de densidade de probabilidade marginais de X e Y so dadas por f X ( x) = f Y ( y) =
+ +

Definio: O valor esperado condicionado de Y dado X=x E(Y| x ) = Y |x =


+

f ( x, y)dy
XY XY

yf ( y)dy
Y |x 2

e a respectiva varincia condicionada V (Y| x ) =


+

f ( x, y)dx

Definio: Dadas duas v.a. contnuas, X e Y, com f.d.p. conjunta f XY ( x, y ) , a funo de densidade de probabilidade condicionada de Y dado X=x (tal que f X ( x) > 0 ) f ( x, y ) f Y |x ( y) = XY f X ( x) e verifica: (1) f Y |x ( y) 0, y
+

(y )
Y |x

f Y |x ( y )dy

Nota: Definies semelhantes para X dado Y=y. A definio de independncia coincide com a que foi dada para as variveis discretas mas em que f XY ( x, y ) , f X ( x ) , f Y ( y) , f Y |x ( y) e f X|y ( x ) so funes de densidade de probabilidade.

(2)

f ( y)dy = 1
Y |x

(3) P(Y B| X = x ) = f Y |x ( y)dy


B

11

12

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Interpretao do sinal da covarincia: 5.3 Covarincia e correlao cov( X,Y ) > 0 : Pretende-se uma medida que mea algum aspecto da variao conjunta de duas variveis aleatrias. Definio: a covarincia entre duas v.a., X e Y, dada por cov( X,Y ) = XY = E ( X X )(Y Y ) Se ambas as v.a. forem discretas tem-se

y
y

XY = ( x X )( y Y ) f XY ( x, y)
x y

Se ambas as v.a. forem contnuas tem-se

Nota: pontos com iguais probabilidades.

XY =

+ +

( x )( y ) f ( x, y)dxdy
X Y XY

13

14

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

cov( X,Y ) = 0:

cov( X,Y ) < 0 :

y
y

x
Propriedades da covarincia: 1) cov( X,Y ) = E( XY ) X Y 2) cov( X,Y ) = cov(Y, X ) 3) cov( X, X ) = V ( X ) 4) cov( aX,Y ) = a cov( X,Y ) 5) cov( X + Z,Y ) = cov( X,Y ) + cov( Z,Y ) n n n n 6) cov Xi , Y j = cov Xi ,Y j i =1 j =1 i =1 j =1

15

16

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Exemplo (cont.): Calcular a covarincia entre X e Y Y\X 0 1 2 0 16/36 8/36 1 8/36 2/36 2 1/36 0

Medida cujo sinal d a mesma indicao mas que adimensional e cujo valor absoluto j interpretvel: Definio: A correlao ou coeficiente de correlao entre duas v.a. X e Y

1/36 0 0 16 2 E( XY ) = 0 0 +...+1 1 +...+2 2 0 = 36 36 2 = 36 1 1 1 X e Y ~ Bin 2, E( X ) = E(Y ) = 2 = 6 6 3 2 1 1 logo cov( X,Y ) = = 36 9 18 Significado: em mdia h uma tendncia para y decrescer quando x cresce e vice-versa. O valor absoluto da covarincia no interpretvel porque esta pode ser arbitrariamente alterada por uma mudana de escala (propriedade 4). 17

XY =
Propriedades:

cov( X,Y ) = XY V ( X )V (Y ) X Y

1) 1 XY 1, X,Y 2) a) XY = 1 sse Y = aX + b com a > 0 b) XY = 1 sse Y = aX + b com a < 0

18

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Demonstrao: 1) a) Considere-se a v.a. auxiliar

XY 1
X Y + , sabe-se que X Y

2) b) Pela demonstrao anterior, X Y V + = 0 XY = 1 X Y X Y Y X mas V + =0 + = constante, o X Y X Y


2

X Y V + 0, X,Y , por outro lado X Y


2 X X Y Y X Y V + = E + E + = X Y X Y X Y

que demonstra o resultado. Teorema: Se X e Y so independentes ento

= =

E( X 2 )
2 X

E (Y 2 )
2 Y

= 1 + 1 + 2 XY 0 XY 1
2 X 2 Y

2 E( X 2 ) X

2 E (Y 2 ) Y

2 2 E( XY ) X Y +2 2 2 2 X Y = XY X Y XY

XY = XY = 0
Demonstrao: Vamos admitir que X e Y so ambas discretas (seria semelhante para ambas contnuas, substituindo os integrais por somatrios)

+2

E( XY ) X Y = XY

b) XY 1

Repetir a demonstrao anterior Y X com a v.a. auxiliar X Y 19 20

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Exemplo: X e Y so independentes sse


f XY ( x, y) = f X ( x ) f Y ( y), x, y

Y\X -1 0 1 P( X = x )

-1 0 1/12 0 1/12

0 1/6 1/2 1/6 5/6

1 0 1/12 0 1/12

P( Y = y ) 1/6 2/3 1/6 1

logo E( XY ) = xyf XY ( x, y) =
x y

= xyf X ( x ) f Y ( y) =
x y

Tem-se E( X ) = E(Y ) = 0 e E( XY ) = 0 , pelo que

= xf X ( x ) yf Y ( y ) = E( X ) E(Y ) y x pelo que XY = 0 e XY = 0 Muito importante: a proposio inversa no verdadeira, isto

XY = 0 , mas X e Y no so independentes.
5.4 Combinaes lineares de variveis aleatrias D e f i n i o : dadas p v.a., X1 , X2 ,..., X p e p constantes c1 ,c2 ,...,c p , Y = c1 X1 + c2 X2 +...+c p X p uma combinao linear de X1 , X2 ,..., X p . 21 22

XY = XY = 0 no implica X e Y independentes

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Valor esperado duma combinao linear: 1) E(c1 X1 + c2 X2 ) = c1 E( X1 ) + c2 E( X2 ) Demonstrao: E(c1 X1 + c2 X2 ) = (c1 x1 + c2 x2 ) f ( x1 , x2 ) =


x1 x2

Varincia duma combinao linear: 1) V (c1 X1 + c2 X2 ) =

2 = c12V ( X1 ) + c2 V ( X2 ) + 2c1c2 cov( X1 , X2 )

Demonstrao: V (c1 X1 + c2 X2 ) =

= c1 x1 f ( x1 , x2 ) + c2 x2 f ( x1 , x2 ) =
x1 x2 x1 x2

= c1 E( X1 ) + c2 E( X2 ) 2) Generalizao de (1) E c1 X1 + c2 X2 +...+c p X p = = c1 E( X1 ) + c2 E( X2 )+...+c p E X p

= E (c1 X1 + c2 X2 ) E(c1 X1 + c2 X2 ) =
2 2 2 2 = E(c12 X12 + c2 X2 + 2c1c2 X1 X2 ) (c11 + c2 2 ) = 2 2 2 = c12 E( X12 ) + c2 E( X2 ) + 2c1c2 E( X1 X2 )

] [

( )

2 2 2 = c12 E( X12 ) 12 + c2 E( X2 ) 2 +

] [

2 2 c12 12 c2 2 2c1c2 1 2 =

+ 2c1c2 E( X1 X2 ) 1 2

c.q.d. 23 24

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

2) Generalizao de (1) V c1 X1 +...+c p X p = ci2V ( Xi ) +


i =1

Casos especiais de somas de variveis aleatrias: I) Propriedade reprodutiva da distribuio


i j

+ 2 3) Caso particular de 2)

i =1 j =i +1

c c

cov Xi , X j

binomial a) Se X1 ~ Bin(n1 , p) , X2 ~ Bin(n2 , p) e X1 e X2 forem independentes, ento X1 + X2 ~ Bin(n1 + n2 , p) ( X1 + X2 representa o nmero de sucessos em
n1 + n2 provas de Bernoulli independentes com

Se cov Xi , X j = 0, i j , ou seja, se as v.a. forem no correlacionadas duas a duas tem-se


V c1 X1 +...+c p X p = ci2V ( Xi )
i =1

P(sucesso) constante e igual a p) b) (Generalizao) Se Xi ~ Bin(ni , p) , i = 1,..., k , independentes, ento k X1 +...+ Xk ~ Bin ni , p i =1 independentes, ento X1 +...+ Xn ~ Bin(n, p) 25 Caso particular: Xi ~ Ber( p) = Bin(1, p) , i = 1,...,n 26

N o t a : o mesmo acontece se as v.a. forem independentes duas a duas, uma vez que, como j se viu, nesse caso as covarincias duas a duas so nulas.

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

II) Propriedade reprodutiva da distribuio de Poisson a) Se X1 ~ Poisson( 1 ) , X2 ~ Poisson( 2 ) e X1 e X2 forem independentes, ento X1 + X2 ~ Poisson( 1 + 2 ) (Este caso pode ser visto como um limite do caso I)a)) b) (Generalizao) Se Xi ~ Poisson( i ) ,

III) Propriedade reprodutiva da distribuio Normal 2 Se X1 ~ N (1 , 12 ) , X2 ~ N ( 2 , 2 ) e X1 e X2 forem independentes, ento


2 2 c1 X1 + c2 X2 ~ N (c11 + c2 2 ,c12 12 + c2 2 )

IV) Mudana de escala na distribuio exponencial Se X ~ Exp( ) e c > 0 , ento Y = cX ~ Exp Demonstrao: Seja para y > 0 y FY ( y) = P(Y y ) = P(cX y) = P X = c
y y = FX = 1 e c c

i = 1,..., k , independentes, ento k X1 +...+ Xk ~ Poisson i i =1

uma vez que para X ~ Exp( ) ,

FX ( x ) = 1 e x , x > 0 28

27

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

5.5 Desigualdade de Chebychev* Esta desigualdade permite relacionar Estes valores so teis se no conhecermos a distribuio da varivel, mas podem ser muito pessimistas. Por exemplo para X ~ N ( , 2 ) , podem ser determinados exactamente e Proposio: Para qualquer v.a. X, com valor esperado e desvio padro , verifica-se 1 P( X c ) 2 c (s til para c > 1 ). Exemplo: c 1.5 2 3 4 P( X c ) (qq v.a. X)
0.444

probabilidades, relativas a uma qualquer v.a., discreta ou contnua, com os parmetros e :

comparados com aqueles: P( X c ) X ~ N ( , 2 ) = 0.1336 = 0.0456 = 0.0027 = 0.0001 P( X c ) (qq v.a. X)


0.444

c 1.5 2 3 4

0.25
0.111

0.063

0.25
0.111
0.063

* Excepto para Probabilidades, Erros e Estatstica

29

30

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Demonstrao: Considere-se a v.a. auxiliar Y, definida da seguinte forma

5.6 Teorema do Limite Central Este teorema justifica a grande utilidade e

1, se X c Y= 0, caso contrrio Tem-se E(Y ) = 1 P(Y = 1) = P( X c ) , por outro lado como y = 0 ou y = 1 , e pela definio de Y,

importncia da distribuio normal. T.L.C.: Se para todo o inteiro positivo n, X1 ,..., Xn forem v.a. independentes e identicamente distribudas com valor esperado e varincia 2 , ento para cada z , real, tem-se n Xi n lim P i =1 z = ( z ) n n Consequncia: Para X1 ,..., Xn nas mesmas condies e n grande verifica-se
n b n a n P a < Xi < b n n i =1

( X )2 ( X )2 Y
Logo

e ( X ) Y c 2 2Y
2

2 c 2 2 P( X c ) P( X c ) 1 c2

E ( X ) c 2 2 E (Y )
2

31

32

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Observaes: A demonstrao do teorema exige algumas ferramentas matemticas avanadas. Como E( Xi ) = , V ( Xi ) = 2 e X1 ,..., Xn so v.a. independentes tem-se n n E Xi = n e V Xi = n 2 i =1 i =1 pelo que n n Xi n Xi n i =1 E i =1 = 0 V = 1 n n n As v.a. X1 ,..., Xn podem ser discretas ou contnuas. A aproximao das distribuies Binomial e Poisson distribuio normal (ver Captulo 4), pode ser justificada por este teorema. Geralmente considera-se n grande se n 30 . 33

Exemplo: Suponha-se que ao adicionar nmeros reais cada nmero arredondado previamente para o inteiro mais prximo. Admita-se que os erros de arredondamento so v.a. independentes e identicamente distribudas com distribuio uniforme contnua no intervalo [-0.5;0.5] (esta suposio razovel se desconhecermos partida tudo sobre os referidos nmeros reais e admitirmos que tambm eles se distribuem uniformemente e independentemente nalgum intervalo) a) Qual a probabilidade de que, ao adicionar 1500 nmeros, o valor absoluto do erro seja superior a 15? Pode afirmar-se que o valor absoluto do erro est certamente compreendido entre 0 e 750, mas este valor muito pessimista.

34

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Considerem-se as v.a. Ei - erro na parcela i T - erro total T = Ei


i =1
2

b) Quantos nmeros podem ser somados (n) para que


1500

n P Ei < 10 0.9 i =1 n 12 i =1 a n Pelo T.L.C. conclui-se que Tn ~ N 0, 12 10 10 P( 10 < T n < 10) n 12 n 12 Tn = Ei Como ( x ) = 1 ( x ) 10 10 1 n 12 = 0.9 n 12 10 = 0.95 n 12 10 = 1 (0.95) = 1.645 n 12
n

(0.5 (0.5)) = 1 Tem-se E( Ei ) = 0 e V ( Ei ) = 12 12 1500 E(T ) = 1500 0 = 0 V (T ) = = 125 12


Pelo T.L.C. conclui-se que T = Ei ~ N (0,125)
a i =1 1500

E (T n ) = 0

V (T n ) =

Logo P( T > 15) = 1 P( T 15) = 1 P( 15 T 15) = T 15 15 = 1 P = 125 125 125 T 1.34 = 1 P 1.34 125 1 ((1.34) ( 1.34)) = = 1 (0.9099 0.0901) = 0.1802 35

n 12 = 6.079 n = 12 6.0792 = 443.45 Resposta: n 443 36

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Pode-se "observar" o T.L.C. em "aco": Exemplo: Vamos realizar a experincia do exerccio anterior. Para isso seleccionamos totalmente ao acaso e de modo independente n nmeros reais num dado intervalo e fazemos a diferena para o inteiro mais prximo (isto equivalente a seleccionar aleatoriamente n "erros" ao acaso no intervalo [-0.5;0.5]), em seguida somam-se os n erros. Temos ento uma observao de Tn . Repetimos este processo 1000 vezes (isto pode ser feito em computador).

Resultados: n=1
Histogram of s1
0.30 Relative Frequency 0.00
-2

Em seguida construmos o histograma das frequncias relativas das 1000 observaes de T n Tn Sn = n = n n 12 e sobreposmo-lhe a densidade da distribuio N (0,1) 37

0.05

0.10

0.15

0.20

0.25

-1

0 s1

38

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

n=5 n = 10
Histogram of s5
0.4

Histogram of s10
0.4

Relative Frequency

0.3

Relative Frequency
-3 -2 -1 0 s5 1 2 3

0.2

0.1

0.0

0.0

0.1

0.2

0.3

-3

-2

-1 s10

A aproximao parece boa mesmo s com n = 10. (Uma explicao que a distribuio de partida simtrica e contnua) 39 40

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

Experimentemos com outra distribuio: E x e m p l o : Seja Xi ~ Exp(1) , por exemplo, intervalo de tempo entre chegadas num processo de Poisson com taxa = 1 . A v.a. Tn = Xi chegada. Vamos repetir o procedimento descrito no exemplo anterior. Ou seja, para cada n, obtemos
n

Resultados: n=1

i =1

Histogram of se1
0.6 Relative Frequency 0.0 0.1 0.2 0.3 0.4 0.5

representa o intervalo de tempo at n-sima

1000 observaes de Sn = ( = E( Xi ) = 1 Tn n Tn n = n n

2 = V ( Xi ) = 1)

Em seguida construmos o histograma das frequncias relativas das 1000 observaes de Sn e sobreposmo-lhe a densidade da distribuio N (0,1) . 41

4 se1

10

42

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

n=5

n = 20

Histogram of se5
0.4 0.4

Histogram of se20

Relative Frequency

0.3

Relative Frequency
-2 -1 0 1 se5 2 3 4

0.2

0.0

0.1

0.0

0.1

0.2

0.3

-2

-1

0 se20

43

44

Ana Pires, IST, Outubro de 2000

Ana Pires, IST, Outubro de 2000

n = 30

n = 40

Histogram of se30
0.4

Histogram of se40

0.3

Relative Frequency

Relative Frequency

0.2

0.1

0.0

0.0

0.1

0.2

0.3

-2

0 se30

-2

0 se40

Aqui temos de ter n maior para que a aproximao comece a ser razovel. 45 46

Vous aimerez peut-être aussi