Académique Documents
Professionnel Documents
Culture Documents
Conte
udo
1 TEORIA DAS PROBABILIDADES
1.1 Experiencia aleatoria; Universo e acontecimento
1.2 Axiom
atica de Kolmogorov . . . . . . . . . . .
1.2.1 Caso nito . . . . . . . . . . . . . . . .
1.2.2 Caso geral . . . . . . . . . . . . . . . . .
1.3 Algebra
de Borel . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
. 3
. 8
. 8
. 11
. 13
2 PROBABILIDADE CONDICIONADA
2.1 Denicao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Propriedades da probabilidade condicionada . . . . . . . . . . . . .
2.3 Independencia estocastica de acontecimentos . . . . . . . . . . . .
2.3.1 Independencia de uma famlia nita de acontecimentos . . .
2.3.2 Independencia de uma famlia numer
avel de acontecimentos
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
15
19
19
22
DE DISTRIBUIC
3 VARIAVEL
ALEATORIA
E FUNC
AO
AO
3.1 Vari
avel aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Vari
avel aleatoria e funcao mensuravel . . . . . . . . . . . .
3.2 Funcao de distribuicao . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Classicacao das leis de probabilidade sobre R . . . . . . . . . . .
3.3.1 Leis discretas . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Leis contnuas . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.3 Leis mistas . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
27
29
33
33
41
53
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
55
55
56
58
58
59
62
67
67
68
69
69
69
70
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Probabilidades e Estatstica I
5 Momentos
5.1 Valor Medio ou Esperanca Matematica . . . . . . . . . . . .
5.1.1 Propriedades do valor medio . . . . . . . . . . . . .
5.2 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Vari
ancia e desvio-padr
ao . . . . . . . . . . . . . . . . . . .
5.3.1 Propriedades da vari
ancia . . . . . . . . . . . . . . .
5.4 Desigualdade de Tchebychev . . . . . . . . . . . . . . . . .
5.5 Momentos de vectores aleatorios . . . . . . . . . . . . . . .
5.5.1 Vector medio . . . . . . . . . . . . . . . . . . . . . .
5.5.2 Valor medio de uma funcao real de um ve.a. . . . . .
5.5.3 Covari
ancia e correlacao de duas vari
aveis aleatorias
5.5.4 Matriz de covari
ancias . . . . . . . . . . . . . . . . .
5.5.5 Valor medio condicional . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
71
71
74
75
78
78
79
80
80
80
82
86
87
6 Fun
c
ao geradora de momentos
6.1 Denicao de funcao geradora de momentos de um ve.a. X em Rm . . . . . . . . . . . . . .
6.2 Propriedades da funcao geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . .
6.3 Caracterizacao da funcao geradora de momentos das margens e de sub-vectores de um ve.a.
6.4 A funcao geradora de momentos e a independencia de v.a.s . . . . . . . . . . . . . . . . . .
6.5 A funcao geradora de momentos de uma combinacao linear de v.a.s . . . . . . . . . . . . .
6.6 A funcao geradora de momentos e os momentos de um ve.a. . . . . . . . . . . . . . . . . . .
.
.
X
.
.
.
90
90
91
91
92
92
94
Anexo A: Transforma
c
oes de vectores aleat
orios
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
98
Captulo 1
Experi
encia aleat
oria; Universo e acontecimento
Probabilidades e Estatstica I
um n
umero ou grupo de n
umeros;
um atributo ou grupo de atributos;
uma combinacao de registos quantitativos e qualitativos.
Na maioria das vezes nao estamos interessados na descricao completa do resultado observado, sendo
apenas importante o registo de algumas caractersticas consideradas relevantes para um objectivo nal.
Considerem-se, entao, as caractersticas interessantes associadas a uma dada experiencia aleatoria.
Deni
c
ao 1.1.3 Denomina-se espa
co de resultados ou universo o conjunto fundamental (n
ao vazio)
constitudo por todos os resultados que e possvel obter quando se efectua a experiencia aleat
oria. Este espaco
de resultados representa-se por . Os resultados individuais s
ao os pontos ou elementos .
Se tem um n
umero nito ou innito numer
avel de elementos fala-se em espaco de resultados discreto;
se e um conjunto transnumer
avel, sendo aqui mais importante o caso = Rk , k 1, fala-se em espaco
de resultados contnuo.
Exemplo 1.1.4
Na experiencia que consiste no lancamento de uma moeda e registo do tipo de face
virada para cima, o espaco de resultados e = {F, C}, onde F representa a sada de face e C a
sa
da de coroa. Tratando-se do lancamento de duas moedas, = {F F, F C, CF, CC}.
Em dois lancamentos de um dado ordin
ario em que queremos registar o n
umero de pintas da face
virada para cima, o espaco de resultados e = {(i, j) : i, j = 1, 2, 3, 4, 5, 6} com um total de 6 6 = 36
elementos.
O lancamento de uma moeda seguido do lancamento de um dado e uma experiencia aleat
oria cujo
espaco de resultados e = {F 1, F 2, F 3, F 4, F 5, F 6, C1, C2, C3, C4, C5, C6} com um total de 2 6 =
12 elementos.
A combinac
ao de N experiencias aleat
orias com espaco de resultados, respectivamente 1 , 2 , . . . , N
e uma experiencia aleat
oria cujo espaco de resultados e o produto cartesiano = 1 2 . . . N .
Se 1 tem m1 elementos, 2 tem m2 elementos, . . . N tem mN elementos, ent
ao ter
a m1 m2
. . . mN elementos.
Se a combinac
ao envolve N experiencias identicas, isto e, se consiste na repetica
o por N vezes da
mesma experiencia, com espaco de resultados , ent
ao o espaco de resultados final e N = . . ..
a mN elementos.
Se tem m elementos, N ter
Para o transplante de medula num dado indivduo e difcil encontrar um dador compatvel. Imagine-se
a experiencia que consiste em pesquisar os dadores volunt
arios, um a um, ate se encontrar um caso
compatvel. Se designarmos por C um caso compatvel e por C umcaso n
ao compatvel, podemos
C CC,
C C CC,
. . . Este espaco tem um n
admitir que o espaco de resultados e = C, CC,
umero
infinito numer
avel de elementos.
A observac
ao do tempo de vida humana e uma experiencia aleat
oria com espaco de resultados contnuo,
+
= {x : x > 0} = R .
A observac
ao do tempo de vida de um casal (marido e mulher) e uma experiencia aleat
oria com espaco
2
+
de resultados contnuo, = {(x, y) : x > 0, y > 0} = R
Deni
c
ao 1.1.5 Os subconjuntos do espaco de resultados designam-se por acontecimentos; Os subconjuntos de constitudos por um u
nico elemento, isto e, {} dizem-se acontecimentos elementares.
Probabilidades e Estatstica I
pesquisar, no m
aximo, 3 dadores para se encontrar um caso compatvel, e represent
avel por C, CC, C CC .
muito importante estudar as relacoes que se podem estabelecer entre acontecimentos e das operacoes
E
que se podem efectuar sobre eles. Sendo os acontecimentos denidos como conjuntos e possvel fazer um
paralelismo perfeito entre a algebra de conjuntos e a algebra de acontecimentos. Contudo, face ao caracter
particular de que o conjunto acontecimentose reveste e a` denicao de realizacao de um acontecimento,
adopta-se, em alguns casos, uma nomenclatura diferente da estabelecida para a algebra de conjuntos. Vejamos alguns casos particulares:
A realizac
ao de A implica a realizac
ao de B se, e so se, todo o elemento de A e elemento de B;
escreve-se A B;
A e B s
ao acontecimentos identicos se, e so se, A B e B A, isto e, se, e so se, a realizacao de um
implica a realizacao do outro; Escreve-se A = B;
A intersecca
o dos acontecimentos A e B e o acontecimento que se realiza se, e so se, A e B se realizam
conjuntamente. O acontecimento interseccao representa-se por A B e e formado pelos elementos
comuns a A e B;
A uni
ao dos acontecimentos A e B e o acontecimento que se realiza se, e so se, A ou B se realizam. O
acontecimento uniao representa-se por A B e e formado pelos elementos que pertencem a A ou que
pertencem a B;
O acontecimento diz-se o acontecimento impossvel ;
A e B dizem-se acontecimentos mutuamente exclusivos se a sua interseccao e o acontecimento impossvel, isto e, se, e so se, A B = ;
O acontecimento diz-se o acontecimento certo;
A diferenca entre A e B e o acontecimento que se realiza se, e so se, B se realiza sem que se realize
A. O acontecimento diferenca representa-se por B A e e formado pelo elementos tais que B
e
/ A.
O complementar de A e o acontecimento que se realiza se nao se realizar o acontecimento A. O
acontecimento complementar representa-se por Ac ou por A e e formado pelos elementos de que nao
pertencem a A, isto e, A = A. Evidentemente, A A = e A A = .
ou seja, B A = B A.
Probabilidades e Estatstica I
Leis de De Morgan A B = A B
Dupla nega
c
ao
A=A
Associatividade
Comutatividade
Distributividade
Idempot
encia
Absor
c
ao
Modulares
A (B C) = (A B) C
AB =BA
A (B C) = (A B) (A C)
AA=A
AB AB =A
A=A
A=
A B = A B
n
i=1
Ai =
n
i=1
Ai
i=1
i=1
n
i=1
Ai =
n
i=1
Ai
i=1
Opera
c
oes sobre uma innidade numer
avel de acontecimentos
Denem-se tambem operacoes sobre innidades numer
aveis de acontecimentos.
A uni
ao de A1 , A2 , . . . , An , . . . e o acontecimento que se realiza se, e so se, pelo menos um Ai se realiza,
A1 A2 . . . An . . . =
i=1
Ai
Probabilidades e Estatstica I
(sucessao mon
otona crescente)
A1 A2 . . . An . . .
(sucessao mon
otona decrescente)
Sucess
oes mon
otonas crescentes
Se tivermos uma sucessao mon
otona crescente A1 A2 . . . An . . ., por um lado
A1 A2 A3 . . . = A2 A3 A4 . . . = A3 A4 A5 . . . = . . .
donde limAn =
Ai
i=1
A2 A3 A4 . . . = A2 ,
A3 A3 A5 . . . = A3 , . . .
Ai .
i=1
Portanto, lim An =
Ai .
i=1
Sucess
oes mon
otonas decrescentes
Se tivermos uma sucessao mon
otona decrescente A1 A2 . . . An . . ., por um lado
A1 A2 A3 . . . = A1 ,
A2 A3 A4 . . . = A2 ,
A3 A3 A5 . . . = A3 , . . .
Probabilidades e Estatstica I
donde limAn =
Ai .
i=1
Ai .
i=1
Portanto, lim An =
Ai .
i=1
Exemplo 1.1.10
1. Considere-se, com = R, a sucess
ao de termo geral,
An = {x : 0 x 1} , se n e mpar.
An = {x : 1 x 0} , se n e par.
Tem-se
A1 A2 A3 A4 . . . = A2 A3 A4 . . . = {x : 1 x 1}
e
A1 A2 A3 A4 . . . = A2 A3 A4 . . . = {0} .
Donde
limAn = {x : 1 x 1}
limAn = {0}
2. Considere-se, com = R, a sucess
ao de termo geral,
An = {x : n x 0} , se n e mpar.
An = {x : 1/n x n} , se n e par.
Neste caso, limAn = e limAn = .
1.2
1.2.1
Axiom
atica de Kolmogorov
Caso finito
A probabilidade e uma funcao P (), mais precisamente e uma funcao de conjunto. Isto e, a cada conjunto
(acontecimento) A faz corresponder um n
umero real que e a sua probabilidade. Como funcao de
conjunto, e tal como acontece, por exemplo, com as funcoes reais de variavel real, e necessario estabelecer o
respectivo domnio, ou seja, a classe de conjuntos de para os quais P () e denida.
Deni
c
ao 1.2.1 Uma classe n
ao vazia de conjuntos F diz-se uma a
lgebra (ou um corpo) se, e s
o se, verifica
as seguintes propriedades:
Probabilidades e Estatstica I
1. A F A F;
2. A F, B F A B F.
Nota: Quando e nito, uma algebra e uma classe adequada para domnio da funcao de conjunto
P () porque inclui todos os acontecimentos que tem interesseem serem probabilizados. De facto, as duas
propriedades de uma algebra, permitem que nela se incluam os acontecimentos , , os complementares, as
uni
oes e as interseccoes.
Deni
c
ao 1.2.2 Ao par (, F) em que F e uma a
lgebra de acontecimentos de , chamamos espa
co de
acontecimentos.
Das propriedades de uma algebra de acontecimentos para corpo de conjuntos resulta que:
Proposi
c
ao 1.2.3 Se (, F) e um espaco de acontecimentos ent
ao
1. F.
2. Se A F e B F ent
ao A B F.
3. F.
ao A B F.
4. Se A F e B F ent
5. Se A F e B F ent
ao (A B) (B A) F.
Nota: Em geral F e a algebra de todos os subconjuntos de , isto e, F = P ().
Vejamos entao o sistema de axiomas introduzido por Kolmogorov na sua vers
ao para o caso em que e
nito.
Deni
c
ao 1.2.4 Axiomas das probabilidades (caso finito):
Seja (, F) um espaco de acontecimentos. P e uma probabilidade sobre (, F) se P e uma func
ao real
definida sobre F verificando os seguintes axiomas:
P1 A F, P (A) 0;
P2 P () = 1;
P3 A, B F e A B = ,
P (A B) = P (A) + P (B).
Observa
c
oes:
1. O axioma P3 e muitas vezes designado por axioma da aditividade.
2. A denicao de probabilidade segundo Kolmogorov abrange o conceito frequencista de probabilidade.
Probabilidades e Estatstica I
10
#A
#
cardinal, denida por #B = no de elementos do conjunto B.
5. Se Ai Aj = , i = j P
6. P
n
i=1
Ai
i=1
Ai
n
P (Ai )
i=1
P (Ai )
i=1
7. P (A B) = P (A) P (A B)
8. Se A B = P (B A) = P (B) P (A)
9. P (A B) = P (A) + P (B) P (A B)
10. F
ormula de Poincare:
n
n
Ai =
P (Ai )
P
i=1
i=1
1i<jn
n1
P (Ai Aj ) + . . . + (1)
n
Ai
i=1
Probabilidades e Estatstica I
1.2.2
11
Caso geral
Quando tem innitos elementos, o conjunto de axiomas P1-P3 revela-se insuciente para a construcao de
um modelo matematico que seja potente para lidar com todos os acontecimentos que se podem considerar.
O exemplo que se segue tenta ilustrar algumas dessas insuciencias.
Exemplo 1.2.6 Uma experiencia aleat
oria consiste no lancamento de uma moeda ate que apareca a face
cara. Convencionando que o natural n significa que a face caraapareceu pelo 1a vez no n-esimo
lancamento, o espaco de resultados pode representar-se por = {1, 2, 3, 5, . . .}. Considere-se em a classe
F composta pelo conjunto , por todos os conjuntos finitos de e pelos respectivos complementares. Sem
dificuldade, podemos mostrar que F e uma a
lgebra. Contudo e simples imaginar acontecimentos interessantes que n
ao pertencem a F. Por exemplo, o acontecimento A-a face carasai pela primeira vez num
lancamento de ordem mpar. A = {1, 3, 5, . . .} e n
ao pertence a F, pois n
ao e finito nem e complementar
de um conjunto finito. No entanto, A pode expressar-se como a uni
ao infinita de elementos de ,
A=
{2i 1}
i=1
P ({2i 1})
P (A) =
i=1
Mas, para o c
alculo de P (A), esta serie n
ao se pode justificar pelos axiomas P1-P3.
O exemplo ilustra a ideia de que, caso seja innito, existem acontecimentos interessantes que se
exprimem pela uni
ao nita de acontecimentos, e que, nesse caso precisamos de saber como calcular a
respectiva probabilidade.
Comecemos por alargar a classe de acontecimentos aos quais podemos aplicar a funcao probabilidade.
Deni
c
ao 1.2.7 Uma classe n
ao vazia de conjuntos F diz-se uma -
algebra (ou um -corpo) se, e s
o se,
verifica as seguintes propriedades:
1. A F A F;
2. Ai F, i = 1, 2, 3, . . .
Ai F.
i=1
Deni
c
ao 1.2.8 Ao par (, F) em que F e uma -
algebra de acontecimentos de , chamamos espa
co de
acontecimentos.
Podemos agora denir o conjunto de axiomas de Kolmogorov para o caso innito.
Deni
c
ao 1.2.9 Axiomas das probabilidades (caso geral):
Seja (, F) um espaco de acontecimentos. P e uma probabilidade sobre (, F) se P e uma func
ao real
definida sobre F verificando os seguintes axiomas:
Probabilidades e Estatstica I
12
P1 A F, P (A) 0;
P2 P () = 1;
P3* Para toda a sucess
ao de acontecimentos An , em que Ai Aj = , i = j
An =
P (An ) .
P
nN
nN
An
P (An )
P
nN
nN
Probabilidades e Estatstica I
13
Mas,
lim An =
An =
nN
An lim An =
nN
An = lim An ,
nN
e, portanto,
1 lim P (An ) = P lim An = P lim An = 1 P (lim An )
n
1.3
Algebra
de Borel
J
a foi dito, que no caso de ser nito, o mais habitual e considerar para domnio de P () a algebra correavel,
spondente a` classe das partes de , P () (constituda por 2 elementos). Quando e innito numer
podemos ainda considerar a -algebra que se identica com a classe das partes de , para domnio de P ().
Quando e innito transnumer
avel, a classe das partes de e ainda uma -algebra. Contudo, esta e
demasiado rica e pode nao ser possvel atribuir uma probabilidade, de modo compatvel com a axiomatica,
a todo e qualquer A P (). Por isso, e habitual, a teoria das probabilidades se aplicar a uma -algebra
mais restrita, digamos F, constituda apenas pelos conjuntos de probabiliz
aveis e so a estes atribumos a
designacao de acontecimentos.
Um caso particular, de grande import
ancia, e aquele em que = R (Rk ). Nesta situacao, a funcao probabilidade tem por domnio a designada -algebra de Borel em R (Rk ), que se representa por B. A -algebra
de Borel contem os conjuntos (acontecimentos) de maior importancia em quase todas as aplicacoes, isto e,
os intervalos abertos, semi-abertos, fechados (nitos ou innitos), as uni
oes nitas ou innitas numer
aveis
daqueles, as interseccoes nitas ou innitas numer
aveis dos mesmos e os complementares.
Captulo 2
PROBABILIDADE CONDICIONADA
2.1
Defini
c
ao
P (A) =
#A
#
ao equiprov
aveis.
uma vez que tem um no finito de elementos e os resultados elementares s
Consideremos os acontecimentos:
A-sada de `
as
C-sada de copa
R-sada de rei
Evidentemente,
P (A) =
1
4
=
52
13
P (C) =
13
1
=
52
4
P (R) =
4
1
=
52
13
Suponhamos que um jogador menos honesto viu que a carta seleccionada e uma figura, isto e, um rei, um
valete ou uma dama.
H
a assim, para este jogador, um dado novo: ele sabe que ocorreu o acontecimento F -sada de figura.
Para ele, o conhecimento da ocorrencia de F , condiciona a probabilidade de observac
ao dos acontecimentos A, C e R.
Alem disso, o acontecimento F , que tem probabilidade de ocorrencia,
P (F ) =
12
3
=
52
13
C |F
R |F
0
=0
12
P (C |F ) =
3
1
=
12
4
P (R |F ) =
4
1
=
12
3
Probabilidades e Estatstica I
15
Para este jogador menos honesto, o modelo de probabilidade associado ao espaco de acontecimentos
(, F), ser
a
A F,
P (A |F ) =
# (A F )
#F
P (A |B ) =
P (A B)
P (B)
2.2
F [0, 1]
A P (A |B )
P (B)
P ( B)
=
=1
P (B)
P (B)
=
=
P (An |B )
= nN
P (B)
P (B)
nN
nN
i=1
Probabilidades e Estatstica I
16
Demonstracao: Para n = 2, com P (A1 ) > 0, pela denicao de probabilidade condicionada e imediato
que
P (A1 A2 ) = P (A1 ) P (A2 |A1 )
Admitamos que a tese e valida para k > 2, k N, isto e, que
k1
k
Ai = P (A1 ) P (A2 |A1 ) . . . P Ak
Ai
P
i=1
i=1
Nota: A validade de P (A1 A2 . . . An1 ) > 0 assegura a boa denicao de todas as probabilidades
condicionadas envolvidas. De facto,
(A1 A2 . . . An1 ) (A1 A2 . . . An2 ) . . . (A1 A2 ) A1
logo
0 < P (A1 A2 . . . An1 ) P (A1 A2 . . . An2 ) . . . P (A1 )
Probabilidades e Estatstica I
17
Deni
c
ao 2.2.5 Diz-se que uma sucess
ao de subconjuntos (An )nN de um conjunto , constitui uma
parti
c
ao de , se forem disjuntos dois a dois e a sua uni
ao coincide com , ou seja, se
Ai Aj = , i = j
An =
nN
Teorema 2.2.6 (Teorema da probabilidade total) Seja (, F, P ) um espaco de probabilidade e (An )nN
uma sucess
ao de acontecimentos em F constituindo uma partica
o de . Suponha que P (An ) > 0, n N.
Ent
ao dado um qualquer acontecimento B F,
P (B) =
P (B |An ) P (An )
n=1
(B An )
e que
(B Ai ) (B Aj ) = , i = j
n=1
Ent
ao
P (B) = P
n=1
(B An )
P (B An ) =
n=1
P (B |An ) P (An )
n=1
Probabilidades e Estatstica I
18
Exemplo 2.2.8 Suponha uma qualquer famlia seleccionada ao acaso, tem n filhos com probabilidade pn ,
n = 0, 1, 2, . . . , 0 < p < 1. Por sua vez, numa famlia com
o n
umero dos que tem olhos azuis, e
n filhos,
nk
n k
aleat
orio e a probabilidade de assumir um valor k e de k b (1 b)
, k = 0, 1, 2, . . . , n, 0 < b < 1.
1. Qual o valor de , se conhecer o valor de p?
2. Qual a probabilidade de uma qualquer famlia ter m filhos de olhos azuis?
Considerem-se os acontecimentos:
Fn - famlia com n filhos, n = 0, 1, 2, . . .;
Ak - famlia com k filhos de olhos azuis, k = 0, 1, 2, . . ..
P (Fn ) = pn , n = 0, 1, 2, . . . , 0 < p < 1
n k
b (1 b)nk , k = 0, 1, 2, . . . , n,
P (Ak |Fn ) =
k
0<b<1
P (Fn ) =
n=0
n=0
pn =
=1p
1p
2.
P (Am ) =
n=m
n m
b (1 b)nm (1 p) pm =
=
m
n=m
m
n
b
((1 b) p)n =
= (1 p)
m
1b
n=m
= (1 p) (bp)m
m + (1 b) p m (1 b) p
m (1 (1 b) p)2
i i
k + p kp
p = pk
Nota:
k
k (1 p)2
i=k
i = 1, 2, . . .
1
P (B |U2 ) P (U2 )
=
P (B)
4
Probabilidades e Estatstica I
2.3
19
Independ
encia estoc
astica de acontecimentos
2.3.1
Independ
encia de uma famlia finita de acontecimentos
P (B |A ) = P (B) ,
P (B |A ) = P (B) .
Deni
c
ao 2.3.1 Os acontecimentos A e B de um espaco de acontecimentos (, F, P ) dizem-se estocasticamente independentes (ou apenas independentes) se
P (A B) = P (A) P (B) .
Nota: Esta denicao permite concluir que a independencia de dois acontecimentos e equivalente a
P (A |B ) = P (A) e P (B |A ) = P (B), desde que P (A) P (B) > 0.
Exemplo 2.3.2 Exerccio 47
Exemplo 2.3.3 Montagem de componentes em s
erie e em cadeia
Um aparelho electr
onico tem duas componentes C1 e C2 , montadas em serie. As componentes C1 e C2
avariam-se com probabilidade p1 e p2 , respectivamente.
Qual a probabilidade de o sistema se encontrar em condicoes de funcionamento?
Como se trata de uma montagem em serie, o aparelho funciona se e s
o se ambas as componentes estiverem operacionais. Sendo F , F1 e F2 os acontecimentos que expressam o funcionamento do sistema e
das respectivas componentes, tem-se
F = F1 F2
P (F ) = P (F1 F2 )
e a informac
ao fornecida n
ao permite ir mais alem.
Se for acrescentado que as componentes funcionam independentemente, isto e, que n
ao se avariam por
simpatia, pode escrever-se
P (F ) = P (F1 ) P (F2 ) = (1 p1 ) (1 p2 )
Se a montagem for em paralelo, para o sistema funcionar e suficiente o funcionamento de pelo menos
uma das componentes, donde, e a manter-se a independencia de funcionamento das componentes,
P (F ) = P (F1 F2 ) = P (F1 ) + P (F2 ) P (F1 F2 ) = P (F1 ) + P (F2 ) P (F1 ) P (F2 ) =
= (1 p1 ) + (1 p2 ) (1 p1 ) (1 p2 ) = 1 p1 p2
s
Proposi
c
ao 2.3.4 Se A e B s
ao acontecimentos independentes em (, F, P ), ent
ao A e B
ao tambem
independentes.
Probabilidades e Estatstica I
20
Demonstracao:
= P (A B) = P (A) P (A B) = P (A) P (A) P (B) = P (A) P B
P AB
Deni
c
ao 2.3.5 Seja (, F, P ) um espaco de probabilidade e B1 , B2 , . . . , Bn acontecimentos deste espaco.
Diz-se que B1 , B2 , . . . , Bn s
ao acontecimentos mutuamente independentes se
r
r
Bki =
P (Bki ) .
{k1 , . . . kr } {1, . . . , n} , P
i=1
i=1
se tenha
P (Bj |Bk1 . . . Bkr ) = P (Bj )
Demonstracao:
Condi
c
ao necess
aria Seja j {1, . . . , n} xo arbitrariamente e {k1 , . . . kr } ({1, . . . , n} {j}) tal que
P (Bk1 . . . Bkr ) > 0.
Calculemos P (Bj |Bk1 . . . Bkr ), usando a denicao de probabilidade condicionada.
P (Bj ) ri=1 P (Bki )
P (Bj Bk1 . . . Bkr )
r
=
P (Bj |Bk1 . . . Bkr ) =
P (Bk1 . . . Bkr )
i=1 P (Bki )
porque B1 , B2 , . . . , Bn sao acontecimentos mutuamente independentes.
Condi
c
ao suciente Teremos de demonstrar que
r
Bki
i=1
r
i=1
Bki
r1
Bkr
Bki
= P (Bk1 ) P (Bk2 |Bk1 ) . . . P
i=1
r
P (Bki ) .
i=1
r1
i=1
Bki
> 0, ent
ao
Probabilidades e Estatstica I
a) Suponhamos que P
21
r1
Bki
i=1
hip
otese permitem que escrevamos
r1
r
r
Bki = P (Bk1 ) P (Bk2 |Bk1 ) . . . P Bkr
Bki =
P (Bki )
P
i=1
i=1
b) Suponhamos que P
i=1
r1
= 0.
Bki
i=1
r
Bki Bk1
i=1
P
r
P (Bk1 ) P
Bki
i=1
r
=0P
Bki
i=1
r
Bki
i=1
r
P (Bki )
i=1
t
= 0.
Bki
i=1
i=1
Mas como kt e o menor ndice para o qual se verica P
t
Bki
i=1
logo
P
t
t1
t1
Bkt
Bki P
Bki =
=P
Bki
i=1
i=1
i=1
i=1
Ent
ao
0=P
t
Bki
= P (Bkt ) P
i=1
t1
>0
logo
P
r
i=1
Bki
r
i=1
P (Bki )
P (Bkt ) = 0
Bki
i=1
= 0, ent
ao P
t1
i=1
Bki
> 0,
Probabilidades e Estatstica I
2.3.2
22
Independ
encia de uma famlia numer
avel de acontecimentos
Deni
c
ao 2.3.8 Seja (An )nN uma sucess
ao qualquer de acontecimentos de um espaco de probabilidade
(, F, P ). Diz-se que os acontecimentos desta famlia s
ao independentes se e s
o se
k
k
k N, {B1 , . . . , Bk } (An )nN , P
Bi =
P (Bi ) .
i=1
i=1
Proposi
c
ao 2.3.9 Se (An )nN uma sucess
ao de acontecimentos independentes de um espaco de probabilidade (, F, P ), ent
ao
An =
P (An )
P
nN
nN
k
Bi
i=1
k
P (Bi )
i=1
n=1
quando k e
lim Bk =
k
Bk =
k=1
k
An =
k=1 n=1
An
n=1
Ent
ao
lim P (Bk ) = P (lim Bk ) lim P
lim
k
P (An ) = P
n=1
nN
An
k
An
=P
n=1
n=1
P (An ) = P
An
nN
An
nN
P (An ) < +, ent
ao P limAn = 0.
(, F, P ) tal que
n=1
n=1
P (An ) = +,
Probabilidades e Estatstica I
23
Demonstracao:
a) Queremos provar que P limAn = 0, ou seja, como
limAn =
Ak
n=1 k=n
Ak
= 0.
n=1 k=n
k=n
Bn
e que
n=1
Assim
Bn
= lim P (Bn ) = lim P
n
n=1
ou ainda
P limAn = P
n=1 k=n
Ak
lim
k=n
Ak
= lim
P (Ak )
k=n
P (Ak ) = 0
k=n
P (An ).
n=1
(Acn )nN
n=1 k=n
k=n
Bn e
n=1
P (limBn ) = P (lim Bn ) = lim P (Bn ) = lim P
n
Ack
= lim
k=n
(Ack )
k=n
Ora, 1 x ex , x R, logo
P (limBn ) lim
k=n
exp (P (Ak )) = lim exp
n
k=n
P (Ak )
=0
= lim
k=n
(1 P (Ak ))
Probabilidades e Estatstica I
24
Em resumo, como
P
limAn
c
=P
Ack
= P (limBn ) = 0
n=1 k=n
entao
P limAn = 1
Nota: Este lema permite-nos armar que, se (An )nN e uma sucessao de acontecimentos independentes,
a probabilidade de ocorrer uma innidade desses acontecimentos n
ao pode valer sen
ao 0 ou 1. Tambem
podemos armar que a probabilidade de se realizar quando muito um n
umero nito de acontecimentos de
(An )nN e apenas 0 ou 1.
Se (An )nN e uma sucessao de acontecimentos independentes, a ocorrencia de uma innidade destes
acontecimentos e um acontecimento quase impossvel ou quase certo.
Nota: Seja (, F, P ) um espaco de probabilidade e o acontecimento A F. Se A = e P (A) = 1
entao A diz-se um acontecimento quase certo. Se A = e P (A) = 0, ent
ao A diz-se um acontecimento
quase impossvel.
Uma proposicao S, relativa a uma experiencia aleatoria descrita pelo espaco de probabilidade (, F, P ),
diz-se quase-certamente verdadeira ou que e verdadeira com probabilidade 1 se o subconjunto A de denido
por A = { : S () e verdadeira} e um acontecimento, isto e, A F e ainda, A = e P (A) = 1.
Captulo 3
VARIAVEL
ALEATORIA
E FUNC
AO
DE DISTRIBUIC
AO
3.1
Vari
avel aleat
oria
25
Probabilidades e Estatstica I
26
X ((j, k)) = j + k
Probabilidades e Estatstica I
27
3.1.1
Vari
avel aleat
oria e fun
c
ao mensur
avel
B B.
X assim denida n
ao e mais do que uma funcao mensur
avel de (, F) em (R, B)
O resultado seguinte, cuja demonstracao pode consultar em Adams & Guillemin (1996), p.54, caracteriza
de modo simples uma variavel aleatoria.
Teorema 3.1.6 Uma aplicaca
o X : R e uma vari
avel aleat
oria se e s
o se
X 1 (], x]) F,
x R.
X 1 (Bj ) ; X 1 Bj =
X 1 (Bj )
X 1 Bj =
j
x R;
b) X 1 (], x[) F,
x R;
c) X 1 (]x, +[) F,
x R;
Probabilidades e Estatstica I
d) X 1 ([x, +[) F,
28
x R.
se x < 0,
1
{C}
se 0 x < 1,
X (], x]) =
{F, C} se x 1,
mostra que X e uma vari
avel aleat
oria.
Exemplo 3.1.9 Um exemplo importante de vari
avel aleat
oria e a que resulta da utilizac
ao da fun
c
ao
indicatriz, ou fun
c
ao caracterstica, de um conjunto. A fun
c
ao indicatriz do conjunto A e a
func
ao de em {0, 1} definida por
1 A
IA () =
0
/A
Exerc
que, se X e uma vari
avel aleat
oria e B e a -
algebra de Borel, ent
ao X 1 (B) =
1 cio 3.1.10 Mostre
X (B) , B B e uma -
algebra sobre o universo .
Deni
c
ao 3.1.11 X 1 (B) denomina-se -
algebra de acontecimentos gerada por X.
Nota: A -algebra de acontecimentos gerada por X, n
ao esgota a -algebra F de acontecimentos de .
Ponto da situa
c
ao: Tnhamos um espaco de probabilidade (, F, P ) para descrever uma experiencia
aleatoria. Com a introducao de uma vari
avel aleatoria X, podemos transferir a an
alise da experiencia para
outro espaco de acontecimentos (R, B), onde R passa a ser o universo (agora com caracter numerico) e B e
a -algebra de Borel. Falta-nos saber como probabilizar este novo espaco de acontecimentos. Ora a pr
opria
denicao de vari
avel aleatoria, permite denir uma probabilidade sobre (R, B), que sera a imagem de P pela
aplicacao mensuravel X. Tal probabilidade ser
a representada por PX .
Proposi
c
ao 3.1.12 Seja (, F, P ) um espaco de probabilidade e X : R uma vari
avel aleat
oria. A
aplicac
ao PX definida por
B B, PX (B) = P ({ : X () B}) = P X 1 (B)
e uma probabilidade sobre (R, B).
Dito de outro modo, para PX assim definida, (R, B, PX ) e um espaco de probabilidade.
Demonstracao: Tem-se, utilizado a denicao de PX e a axiomatica sobre P ,
P1 B B, PX (B) = P X 1 (B) 0, pois X 1 (B) F.
P2 PX (R) = P X 1 (R) = P () = 1
P3 (Bn )nN , sucessao de elementos de B disjuntos dois a dois,
=P
Bn = P X 1
Bn
X 1 (Bn ) =
PX
n=1
n=1
n=1
porque X 1 (Bn ) e uma sucessao de elementos de F disjuntos dois a dois,
n=1
P X
(Bn ) =
PX (Bn )
n=1
Probabilidades e Estatstica I
29
1
36
PX (]9, +[) = P (X > 9) = P ({(4, 6) , (5, 5) , (5, 6) , (6, 4) , (6, 5) , (6, 6)}) =
6
36
3.2
Fun
c
ao de distribui
c
ao
Deni
c
ao 3.2.1 Seja Q uma medida de probabilidade sobre o espaco (R, B). Chama-se fun
c
ao de distribui
c
ao (f.d.) de Q a
` func
ao F definida por
F
: R R
x Q (], x])
Proposi
c
ao 3.2.2 A func
ao de distribuica
o F de uma medida de probabilidade Q goza das seguintes propriedades:
a) F e limitada,
b) F e mon
otona n
ao decrescente,
c) F e contnua a
` direita,
d)
i)
ii)
lim F (x) = 0,
lim F (x) = 1,
x+
e) a, b R, a < b,
Demonstracao:
a) Como Q e uma medida de probabilidade, ent
ao
x R, 0 Q (], x]) 1 x R, 0 F (x) 1.
b) Queremos provar que, h R+ , x R, F (x) F (x + h).
Como h > 0, tem-se ], x] ], x + h] e dado que Q e uma medida de probabilidade, tem-se
Q (], x]) Q (], x + h]) e portanto F (x) F (x + h).
Probabilidades e Estatstica I
30
yx
+
An = ], x]
n=1
Ent
ao pela proposicao 1.2.11,
lim F (xn ) = lim Q (], xn ]) = lim Q (An ) = Q (lim An ) = Q (], x]) = F (x)
d)
i) Como sabemos que F e monotona e limitada, podemos assegurar que existe e e nito o lim F (x).
x
+
An = ], [ =
n=1
Ent
ao pela proposicao 1.2.11,
lim F (xn ) = lim Q (], xn ]) = lim Q (An ) = Q (lim An ) = Q () = 0
ii) Como sabemos que F e monotona e limitada, podemos assegurar que existe e e nito o lim F (x).
x+
+
An = ], +[ = R
n=1
Ent
ao pela proposicao 1.2.11,
lim F (xn ) = lim Q (], xn ]) = lim Q (An ) = Q (lim An ) = Q (R) = 1
Probabilidades e Estatstica I
31
Proposi
c
ao 3.2.3 Se F e funca
o de distribuic
ao de uma medida de probabilidade Q, ent
ao,
xo R, F x
o = lim F (x) = F (xo ) Q ({xo })
xx
o
e portanto
xo R,
Q ({xo }) = F (xo ) F x
o
lim xn = xo , xn = xo
A sucessao de acontecimentos (An )nN denida por An = ]xn , xo ] e monotona decrescente e tem por limite
An = {xo }. Ent
ao a proposicao 1.2.11 garante que
lim An =
n=1
Teorema 3.2.4 A qualquer medida de probabilidade Q sobre (R, B) pode fazer-se corresponder uma func
ao
de distribuic
ao F , satisfazendo a condic
ao
x R,
Probabilidades e Estatstica I
Demonstracao:
de F por
32
D = {x R : Q ({x}) > 0} .
Resta-nos provar que este conjunto tem, no m
aximo,
umero innito numer
avel de elementos.
um n
1
.
Dena-se, para cada n N, o conjunto Dn = x R : Q ({x})
n
ao
Este conjunto tem, no maximo n pontos. De facto, se #Dn = n + 1, ent
n+1
n+1
n+1
> 1,
{xi } =
Q ({xi })
Q (Dn ) = Q
n
i=1
i=1
o que e absurdo.
Mas a sucessao de conjuntos (Dn )nN e monotona crescente
D 1 D2 D 3 . . . Dn . . .
pelo que limDn = limDn = lim Dn =
Dn .
n=1
Ent
ao temos, por um lado lim Dn = {x R : Q ({x}) > 0} = D.
umero nito de elementos, e portanto D = lim Dn =
Por outro lado, cada Dn tem um n
Dn e a uni
ao
n=1
numer
avel de conjuntos nitos, logo e, no maximo, numer
avel
A denicao que se segue faz a associacao entre a medida de probabilidade de uma v.a. X, isto e PX e a
respectiva funcao de distribuicao.
Deni
c
ao 3.2.7 Seja X uma vari
avel aleat
oria. Chama-se fun
c
ao de distribui
c
ao da vari
avel aleat
oria
` func
ao
X `
a funca
o de distribuica
o FX da sua lei de probabilidade PX , isto e, a
FX
: R R
x FX (x) = PX (], x]) .
Probabilidades e Estatstica I
33
Classifica
c
ao das leis de probabilidade sobre R
3.3
3.3.1
Leis discretas
Q ({x})
B B, Q (B) = Q B S S = Q (B S) + Q B S = Q (B S) =
xBS
B B, Q (B) =
Q ({x})
xBS
Deni
c
ao 3.3.4 A func
ao f denomina-se fun
c
ao de probabilidade da lei de probabilidade Q.
Probabilidades e Estatstica I
34
Vari
avel aleat
oria discreta
Dizemos que uma v.a. X e discreta se a sua lei de probabilidade, PX , e discreta.
Em resumo: A vari
avel aleatoria X e discreta se o conjunto de pontos de descontinuidade da sua funcao
de distribuicao, S, e nito ou innito numer
avel e verica PX (S) = 1.
S denomina-se suporte de X.
Alem disso, existe uma funcao f : R [0, 1] dada por
xS
PX ({x}) ,
f (x) =
0,
caso contrario
que caracteriza a sua lei.
Esta funcao f e designada por fun
c
ao de probabilidade da vari
avel aleatoria X.
A funcao de distribuicao de uma v.a. X discreta, de suporte S = {x1 , x2 , . . . , xn . . .} e funcao de
probabilidade f , e dada por
1, A
0,
/A
Claro que X = IA .
Esta v.a. indica-nos se o acontecimento A ocorre, ou n
ao, numa prova de Bernoulli, da experiencia
modelada por (, F, P ).
Probabilidades e Estatstica I
35
n-k vezes
Probabilidades e Estatstica I
36
nk
e expresso por uma interseccao de n acontecimentos indeEnt
ao o acontecimento Ak A
pendentes uma vez que as realizacoes de E sao independentes e em cada uma destas interseccoes
so intervem uma realizacao de E. Assim,
P r A A . . . A A A . . . A = P r (A1 ) P r (A2 ) . . . P r (An )
Alem disso, como as experiencias sao realizadas nas mesmas condicoes, isto e, P (A) e constante
com valor p, ent
ao P r (A1 ) = P r (A2 ) = . . . = P r (Ak ) = p e P r (Ak+1 ) = P r (Ak+2 ) = . . . =
P r (An ) = 1 p, pelo que
P r A A . . . A A A . . . A = pk (1 p)nk
b) Por outro lado, o acontecimento {X = k} corresponde a` uni
ao de todos os elementos de C da
forma
B1 B2 . . . Bn
isto e
onde B1 B2 . . . Bn contem k factores iguais a A e n k factores iguais a A,
#
(B1 . . . Bn ) :
k dos B1 , . . . , Bn sao iguais a A e
X 1 ({k}) =
n k dos B1 , . . . , Bn sao iguais a A
Sendo X 1 ({k}) uma uni
ao de acontecimentos de Fn , ent
ao tambem pertence a Fn . Por outro
lado,
aveis e em n
umero igual
todos aqueles acontecimentos sao mutuamente exclusivos, equiprov
n
a
.
k
Finalmente,
1
n k
p (1 p)nk
k {1, . . . , n} , PX ({k}) = P r X ({k}) =
k
S
o falta vericar se
n 0
p (1 p)n0 ,
PX ({0}) = P (X = 0) =
0
ou seja, se
c) S = {0, 1, . . . , n} e o suporte de PX .
Ora,
k {0, 1, . . . , n} , PX ({k}) > 0, porque 0 < p < 1;
n
n
n
n k
PX (S) = PX
{k} =
PX ({k}) =
p (1 p)nk = (p + 1 p)n = 1
k
k=0
k=0
k=0
Probabilidades e Estatstica I
37
=
n P (Xn = k 1)
k
lim
Esta igualdade pode ser interpretada do seguinte modo: Para n sucientemente elevado, Xn tem quase
o mesmo comportamento aleatoria que uma v.a. Y tomando os seus valores em N0 e tal que
k N, P (Y = k) =
P (Y = k 1)
k
Se admitirmos que de facto existe uma tal probabilidade sobre (R, B) de suporte N0 , ent
ao
k N, P (Y = k) =
P (X = k 1) =
P (X = k 2) = . . . =
P (X = 0)
k
kk1
k!
e
1=
k=0
P (Y = k) = P (Y = 0)
+ k
k=0
k!
= e P (Y = 0) P (Y = 0) = e
k
k!
Probabilidades e Estatstica I
38
Nota: O exerccio anterior, permite-nos dizer que, se X B (n, p), para n sucientemente grande, p
muito pequeno e = np
k
k!
isto e, uma lei Binomial de par
ametros (n, p) pode ser aproximada por uma lei de Poisson de par
ametro
= np.
k {0, 1, . . . , n} , P (X = k) e
Na pr
atica, se n 30 e min (np, n (1 p)) 5, considera-se razoavelesta aproximacao.
Lei Hipergeom
etrica Suponhamos que temos um conjunto de N > 0 elementos (a populacao), dos quais
0 M N gozam de uma certa caracterstica A e os restantes N M n
ao gozam desta caracterstica
M N M
k
,
Nnk
Probabilidades e Estatstica I
39
n-k vezes
nk2
An1 = Ak A
A
nk1
An = Ak A
A
nk
e expresso por uma interseccao de n acontecimentos nao
Ent
ao o acontecimento Ak A
independentes uma vez que as extraccoes dos elementos sao feitas sem reposicao. Assim, pelo
teorema da probabilidade composta
P r A A . . . A A A . . . A =
k1
= P r (A1 ) P r (A2 |A1 ) P r (A3 |A1 A2 ) . . . P r Ak
Ai
i=1
k
n1
P r Ak+1
Ai . . . P r An
Ai =
i=1
i=1
M 1 M 2
M (k 1)
M
...
N
N 1
N 2
N (k 1)
N M 1
N M (n k 1)
N M
...
=
N k
N k1
N (n 1)
M!
(N M )!
(N n)!
(M k)! (N M (n k))!
N!
Probabilidades e Estatstica I
40
n
igual a
, ent
ao
k
(N M )!
(N n)!
n
M!
=
P (X = k) =
N!
k (M k)! (N M (n k))!
n!
M!
(N M )!
(N n)!
=
=
k! (n k)! (M k)! (N M (n k))!
N!
(N M )!
n! (N n)!
M!
=
=
k! (M k)! (n k)! (N M (n k))!
N!
M N M
k
Nnk
n
Finalmente,
M N M
PX ({k}) = P (X = k) =
,
Nnk
S
o falta vericar se, para k = max (0, M + n N ), podemos determinar do mesmo modo, a
respectiva probabilidade.
c) Veriquemos que S = {max (0, M + n N ), . . . , min (M, n)} e o suporte de PX .
Ora,
k S, PX ({k}) > 0;
min (M,n)
PX (S) =
min (M,n)
PX ({k}) =
M N M
k
Nnk
n
N
n
= N
= 1,
n
min (a,n)
k=max (0,nb)
a
b
a+b
=
k
nk
n
Admitemos que a populacao era muito grande, ou seja que N e muito grande, e que o no de elementos
que se retiram para a amostra e relativamente pequeno, quando comparado com N . Nesse caso as
aproximacoes que se seguem sao razo
aveis:
p =
1p =
1p =
M 1
M
M 2
M
M (k 1)
M
p=
... p =
N
N 1
N
N 2
N
N (k 1)
N M
N M
N M
N M 1
1p=
...
M
N k
M
N k1
N M (n k 1)
N M
M
N (n 1)
e portanto,
n k
P (X = k)
p (1 p)nk ,
k
Probabilidades e Estatstica I
41
3.3.2
Leis contnuas
Esta classe de leis tem como caracterstica o facto de a sua funcao distribuicao ser uma funcao contnua.
Deni
c
ao 3.3.6
x R,
b) Sendo X uma v.a. sobre (, F, P ), dizemos que X e uma v.a. contnua se a sua lei de probabilidade,
PX , o for, isto e, se
x R,
PX ({x}) = 0.
f (t) dt = 1
Deni
c
ao 3.3.8
a) Uma lei de probabilidade Q sobre (R, B) diz-se absolutamente contnua se a sua
func
ao de distribuic
ao F for absolutamente contnua, ou seja, se
$ x
x R, F (x) = Q (], x]) =
f (t) dt,
Demonstracao:
f (t) dt
Q (]a, b]) =
Probabilidades e Estatstica I
42
A. Condicao necessaria
Sabemos que F e absolutamente contnua, ou seja, sabemos que existe uma densidade de probabilidade
f tal que
$ x
f (t) dt
x R F (x) =
f (t) dt
Q (]a, b]) =
a
Ora
$
a, b R (a < b)
$
f (t) dt
f (t) dt =
f (t) dt
a
B. Condicao suciente
Sabemos que, associada a Q, existe uma densidade de probabilidade sobre R, f , tal que
$
a, b R (a < b)
f (t) dt
Q (]a, b]) =
a
f (t) dt
F (x) =
Consideremos a sucessao de intervalos {]n, x]}nN . Trata-se de uma sucessao crescente de intervalos
e portanto
lim {]n, x]} =
(]n, x]) = ], x]
n=1
e
Q (lim {]n, x]}) = lim Q (]n, x]) Q (], x]) = lim Q (]n, x])
n
Ent
ao
x R, F (x) = Q (], x]) = lim Q (]n, x]) =
n
$ x
$ x
f (t) dt =
f (t) dt
= lim
n
Probabilidades e Estatstica I
43
Demonstracao: Seja Q uma lei de probabilidade sobre (R, B) absolutamente contnua com densidade f .
Queremos provar que
x R, Q ({x}) = 0.
"
"
Consideremos x R, a sucessao de intervalos x n1 , x + n1 nN . Trata-se de uma sucessao mon
otona
decrescente, e portanto
%
%
%
%
1
1
1
1
x ,x +
=
= {x}
lim x , x +
n
n
n
n
n
n=1
%
&
&
%
1
1
1
1
lim Q x , x +
= Q lim x , x +
= Q ({x})
n
n
n
n
n
n
%
1
1
x R, Q ({x}) = Q lim x , x +
n
n
n
$ x+ 1
n
f (t) dt =
= lim
n
%
1
x n
f (x) =
d
F (x);
dx
{xi } =
Q ({xi }) = 0
Q (D1 ) = Q
i=1
i=1
D
a-se o nome de suporte de Q ao boreliano S onde f e estritamente positiva. Se X e uma v.a.
absolutamente contnua, d
a-se o nome de suporte de X ao boreliano S onde a densidade de probabilidade
de PX e estritamente positiva.
Probabilidades e Estatstica I
44
y<a
0,
ya
ya
,
a
<
yb =
I
(y) + I[b,+[ (y)
=
ba
b a [a,b[
1,
y>b
Probabilidades e Estatstica I
45
A densidade de probabilidade de Y , e
1
1
, y ]a, b[
I
g (y) =
(y)
=
ba
0,
b a ]a,b[
y
/ ]a, b[
A v.a. Y diz-se ter lei uniforme no intervalo [a, b] e escreve-se de modo abreviado X U [a, b].
Figura 3.1: Densidade da lei uniforme
f (x)
1/ (b a)
De modo an
alogo se poderao denir as leis uniformes sobre [a, b[, ]a, b] e ]a, b[, com a, b R e a < b.
Exerccio 3.3.14 Seja X uma v.a. com funca
o de distribuica
o F contnua. Supondo que F e estritamente mon
otona decrescente, ent
ao a v.a. U = F (X) segue uma lei uniforme no intervalo [0, 1].
Exerccio 3.3.15 Seja U uma v.a. com lei uniforme no intervalo [0, 1]. Consideremos F uma qualquer func
ao de distribuic
ao.
Defina-se a inversa generalizada de F (segundo Paul Levy) por
v [0, 1] ,
ao de distribuica
o F .
Ent
ao a v.a. X = F 1 (U ) tem func
Lei exponencial
Teorema 3.3.16 Seja X uma v.a. cuja funcao de distribuicao F verica, F (x) = 0,
F (x) < 1, se x > 0 e
se x < 0,
P (X > x + y)
= P (X > x)
P (X > y)
1 P (X x + y)
= 1 P (X x)
1 P (Y y)
1 F (x + y)
= 1 F (x)
1 F (y)
Probabilidades e Estatstica I
46
x+
F (x) = 1
lim
x+
1 ecx = 1 c < 0
Teorema 3.3.17 Seja Y uma v.a. cuja funcao de distribuicao G verica, G (y) = 0,
G (y) < 1, se y > e
se y < ,
Probabilidades e Estatstica I
47
Lei gama
A fun
c
ao gama
Consideremos uma constante real > 0. A funcao gama, , e denida por
$ +
x1 ex dx.
() =
0
Propriedades da funcao :
(1) = 1;
Se > 1, () = ( 1) ( 1);
Se n N, (n) = (n 1)!;
(1/2) = .
A lei gama
Considerem-se tres constantes reais, , > 0, > 0 e, no integral que dene a funcao gama, facamos
a mudanca de vari
avel y = x + .
$ +
$ +
1 y 1 (y)/
1 x
x
e dx =
e
dy
() =
Ent
ao
$
1
()
1
e(y)/ dy = 1
Como a funcao integranda e sempre positiva para y > , segue-se que a funcao
y 1 (y)/
1
e
I],+[ (y)
f (y) =
()
Probabilidades e Estatstica I
48
Lei de Weibull
Dizemos que uma v.a. X segue a lei de Weibull de par
ametros (, , ), com R, , R+ ,
abreviadamente X W (, , ), se e absolutamente contnua com densidade de probabilidade
f (x) =
1
x
exp
I],+[ (x)
e funcao de distribuicao
x
I],+[ (x)
F (x) = 1 exp
Probabilidades e Estatstica I
49
Lei normal
Esta e uma das leis sobre R mais importantes, quer no domnio da Teoria das Probabilidades que no
domnio da Estatstica. Essa importancia advem quer da capacidade da lei descrever com qualidade
muitos fen
omenos aleatorios concretos, quer das propriedades matem
aticas que possui.
Comecemos por abordar a designada lei normal reduzida.
Deni
c
ao 3.3.18 Uma v.a. Z diz-se ter lei normal reduzida, abreviadamente, Z N (0, 1) se a
densidade de probabilidade associada `
a sua lei de probabilidade e:
1
2
(z) = ez /2 ,
2
zR
(z) dz =
=
=
=
$ +
1
2
ez /2 dz =
2
$ 0
$ +
1
1
2
z 2 /2
e
dz +
ez /2 dz =
2
2 0
$ +
$ +
1
1
1 1/2 y
1
y
y 1/2 ey dy,
e dy +
2 0
2
2 0
2
$ +
1
1 1
(1/2) = 1
y 1/2 ey dy =
2
(1/2)
2 2 0
e encontra-se tabelada.
Figura 3.5: Funcao distribuicao da lei normal reduzida
para y = z 2 /2
Probabilidades e Estatstica I
50
Proposi
c
ao 3.3.19 A lei normal reduzida e simetrica relativamente a
` origem, isto e, se Z N (0, 1),
ent
ao
z R,
P (Z z) = P (Z z)
Da resulta que
z R,
P (Z z) = 1 P (Z z)
ou ainda
z R,
(z) = 1 (z)
P (Z z) =
z
1
2
et /2 dt = fazendo y = t
2
1
2
ey /2 dy = P (Z z)
2
Figura 3.6: A simetria da lei normal reduzida e consequencias para a sua funcao distribuicao
Deni
c
ao 3.3.20 Uma v.a. X diz-se ter lei normal de par
ametros , 2 , com R e R+ ,
a sua lei de probabilidade e:
abreviadamente, X N , 2 se a densidade de probabilidade associada `
1 x 2
1
f (x) = e 2 ( ) ,
2
xR
A vericacao de que f e de facto uma densidade pode ser feita do mesmo modo que a realizada para
1 x 2
.
a v.a. Z, considerando uma mudanca de vari
avel y =
2
O resultado que se segue, permitir-nos-a calcular probabilidades para a v.a. X, usando a v.a. Z.
Probabilidades e Estatstica I
51
X
N (0, 1);
a) Se X N , 2 , ent
ao a v.a. Z =
b) Se Z N (0, 1), e a, b s
ao constantes reais, com b > 0, ent
ao a v.a. X = a + bZ N a, b2 .
Proposi
c
ao 3.3.21
Demonstracao:
a) A prova e feita `a custa da funcao de distribuicao F da v.a. X e da funcao de distribuicao da
v.a. Z. Sabemos que
$ x
1 t 2
1
e 2 ( ) dt
F (x) = P (X x) =
2
Por outro lado,
X
z
(z) = P (Z z) = P
= P (X z + ) = F (z + ) =
$ z+
1 t 2
1
e 2 ( ) dt =
=
2
$ z
2
t
1
y2
e
dy =
fazendo y =
=
2
$ z
2
y
1
e 2 dy
=
2
b) A demonstracao e an
aloga a` anterior
Observa
c
ao: Exemplos de calculo de probabilidades.
Suponhamos que X N , 2 .
X
x
x
x
P (X x) = P
=P Z
=
, x R;
x
y
, xy
P (x X y) = P (X y) P (X x) =
Probabilidades e Estatstica I
52
Proposi
c
ao 3.3.22 A lei N , 2 e simetrica relativamente a , isto e, se X N , 2 ent
ao
x R,
P (X + x) = P (X x)
Para
cao do par
ametro , consideremos as seguintes probabilidades relativas a X
a interpreta
N , 2 :
P ( X + ) = P (1 Z 1) = 2 (1) 1 = 0.6826
P ( 1.5 X + 1.5) = P (1.5 Z 1.5) = 2 (1.5) 1 = 0.8664
P ( 2 X + 2) = P (2 Z 2) = 2 (2) 1 = 0.9545
P ( 3 X + 3) = P (3 Z 3) = 2 (3) 1 = 0.9973
O par
ametro reecte a dispersao da vari
avel X. Vericamos que, para um valor xo da probabilidade,
quando aumenta, aumenta a amplitude do intervalo.
X 2
tem uma lei do
ao a v.a. U =
Teorema 3.3.23 Se X e uma v.a. com lei N , 2 , ent
F (u) = P (U u) = P X 2 u = P u X u =
$ u
$ 0
$ u
1
1
1
2
z 2 /2
z 2 /2
e
ez /2 dz =
=
dz = e
dz +
2
2
2
u
0
u
$ u
1
2
ez /2 dz =
(dada a simetria relativamente a 0 da lei N (0, 1))
= 2
2
0
$ u
1 1 1 t/2
e
dt =
fazendo t = z 2
= 2
2 2 t
$ u0
1
1
et/2 dt
=
2 t
0
Probabilidades e Estatstica I
53
Para u ], 0],
F (u) = P (U u) = P X 2 u = P () = 0
3.3.3
Leis mistas
x R,
Qd ({x}) =
Q ({x})
>0
Consideremos agora,
B B, Qc (B) =
Q (B) Qd (B)
1
Qc ({x}) =
Q ({x}) Qd ({x})
=0
1
Ent
ao
B B, Q (B) = Qd (B) + (1 ) Qc (B)
b) Provemos agora a unicidade da decomposicao. Para tal, consideremos duas leis discretas Qd e Q d , sobre
(R, B), duas leis absolutamente contnuas Qc e Q c , sobre (R, B) e duas constantes reais , ]0, 1[,
vericando-se
Q = Qd + (1 ) Qc
Q = Q d + 1 Q c
O nosso objectivo e mostrar que
= , Qd = Q d
Qc = Q c
Probabilidades e Estatstica I
54
i) Mostremos que Sd Sd .
x Sd ,
Qd ({x}) + (1 ) Qc ({x}) = Q d ({x}) + 1 Q c ({x})
Qd ({x}) = Q d ({x})
Q d ({x}) > 0 x Sd
ii) Mostremos que Sd Sd .
x Sd ,
Qd ({x}) + (1 ) Qc ({x}) = Q d ({x}) + 1 Q c ({x})
Qd ({x}) = Q d ({x})
Qd ({x}) > 0 x Sd
iii) Ent
ao Sd = Sd o que implica que Q (Sd ) = Q (Sd ).
Sendo Qd (Sd ) = Q d (Sd ) = 1 e Qc (Sd ) = Q c (Sd ) = 0 conclumos que = .
Ent
ao
x R, Qd ({x}) = Q d ({x}) Qd = Q d
j
a que Qd e Q d sao leis discretas.
Se
B B,
Captulo 4
Introdu
c
ao
Probabilidades e Estatstica I
56
m
Xi1 (Bi ) F
i=1
4.2
Fun
c
ao de distribui
c
ao de uma lei de probabilidade sobre Rm
Probabilidades e Estatstica I
57
1. F e n
ao decrescente;
2. (x1 , . . . , xm ) Rm ,
lim
h1 o+ ,...,hm o+
F (x1 + h1 , . . . , xm + hm ) = F (x1 , . . . , xm ).
lim
x1 +,...,xm +
F (x1 , . . . , xm ) = 1;
(b) i {1, 2, . . . , m} ,
lim F (x1 , . . . , xm ) = 0;
xi
m
i=1
todo o i, tem-se
m
m
]ai , bi ]
= F (b1 , . . . , bm )
F (b1 , . . . , bi1 , ai , bi+1 , . . . , bm ) +
Q
i=1
i=1
m
m
i=1 j=i+1
n
. . . (1) F (a1 , . . . , am )
Demonstracao: As provas das propriedades 1, 2 e 3 s
ao an
alogas a`s realizadas para o caso unidimensional.
Ou
ltimo resultado pode ser provado usando a f
ormula de Poincare
Ou
ltimo resultado da anterior proposicao estabelece logo que
Proposi
c
ao 4.2.3 Qualquer lei de probabilidade Q sobre (Rm , Bm ) tem uma e uma s
o func
ao de distribuica
o.
Seja (X1 , X2 , . . . , Xm ) um ve.a. de dimens
ao m denido sobre (, F, P ) e com lei de probabilidade
P(X1 ,X2 ,...,Xm ) .
Deni
c
ao 4.2.4 Chama-se fun
c
ao de distribui
c
ao do ve.a. (X1 , X2 , . . . , Xm ) `
a funca
o de distribuic
ao
F(X1 ,X2 ,...,Xm ) da sua lei de probabilidade, isto e,
(x1 , . . . , xm ) Rm , F(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =
= P (X1 x1 , X2 x2 , . . . , Xm xm ) =
m
], xi ] ,
= P(X1 ,X2 ,...,Xm )
i=1
m
{Xi xi }.
i=1
ao de distribuica
o do ve.a. (X1 , X2 , . . . , Xm ). Existem as
Proposi
c
ao 4.2.5 Seja F(X1 ,X2 ,...,Xm ) a func
umeros em
func
oes de distribuica
o de todos os sub-vectores de (X1 , X2 , . . . , Xm ). Isto e, para i1 , . . . , ik n
{1, 2, . . . , m} verificando i1 < . . . < ik , existe e e func
ao de distribuica
o, a func
ao F(X1 ,...,Xi ) , definida por
1
Probabilidades e Estatstica I
58
Caracteriza
c
ao das leis de probabilidade sobre Rm
4.3
Tal como foi estudado para as leis de probabilidade em R, sobre Rm vamos ter leis de probabilidade discretas
e contnuas.
4.3.1
Deni
c
ao 4.3.1
1. Uma lei de probabilidade Q sobre (Rm , Bm ) diz-se discreta se existe um subconjunto
finito ou infinito numer
avel de Rm , M , tal que Q (M ) = 1.
Ao menor subconjunto M verificando esta condic
ao, chama-se suporte da lei de probabilidade e
representa-se por S.
2. Um ve.a. (X1 , X2 , . . . , Xm ) diz-se discreto se a sua lei de probabilidade P(X1 ,...,Xm ) o for. A correspondente funca
o de probabilidade e designada por fun
c
ao de probabilidade conjunta e e habitual
ser representada por p(X1 ,X2 ,...,Xm ) .
Uma lei de probabilidade Q sobre (Rm , Bm ) discreta e caracterizada por uma funcao p, a que chamamos
func
ao de probabilidade de Q, denida por
Q ({(x1 , . . . , xm )}) , (x1 , . . . , xm ) S
m
(x1 , . . . , xm ) R , p (x1 , . . . , xm ) =
0,
caso contrario
A propriedade que se segue mostra que as margens de um ve.a. discreto sao vari
aveis aleatorias discretas.
ao
Proposi
c
ao 4.3.2 Seja (X1 , X2 , . . . , Xm ) um ve.a. discreto cuja lei de probabilidade tem suporte S e func
de probabilidade p(X1 ,X2 ,...,Xm ) . Nestas condic
oes, as vari
aveis aleat
orias Xi , i {1, 2, . . . , m}, s
ao discretas
de suportes
Si = {x R : (x1 , . . . , xi1 , x, xi+1 , . . . , xm ) S}
e func
oes de probabilidade
pXi (x) =
c
ao de probabilidade marginal de Xi .
pXi e designada por fun
Demonstracao: Seja i {1, 2, . . . , m} arbitrariamente xo.
1. Provemos que a v.a. Xi e discreta de suporte Si .
Consideremos o subconjunto de R,
Si = {x R : (x1 , . . . , xi1 , x, xi+1 , . . . , xm ) S}
(a)
PXi (Si ) = P (Xi Si ) = P {(X1 , . . . , Xi , . . . , Xm ) S} = 1.
(b) Como S e o suporte de P(X1 ,...,Xm ) , Si e nito ou innito numer
avel e e o menor subconjunto de
R tal que PXi (Si ) = 1.
Assim, a v.a. Xi e discreta de suporte Si .
Probabilidades e Estatstica I
59
4.3.2
1
32 I{0} (x) + 3I{1} (x) + 9I{2} (x)
1
32 14I{0} (y) + 18I{1} (y)
+ 19I{3} (x)
Deni
c
ao 4.3.5
Probabilidades e Estatstica I
60
Deni
c
ao 4.3.6 Chama-se densidade de probabilidade sobre Rm a toda a func
ao f definida sobre Rm
e com valores em R tal que
a) f e n
ao negativa;
b) f e integr
avel sobre Rm e
$ +
$ +
...
f (x1 , . . . , xm ) dx1 . . . dxm = 1.
Deni
c
ao 4.3.7
a) Uma lei de probabilidade Q sobre (Rm , Bm ) e absolutamente contnua se a sua
funca
o de distribuic
ao F for absolutamente contnua, ou seja, se
m
$
$ xm
x1
m
], xi ] =
...
f (t1 , . . . , tm ) dt1 . . . dtm ,
(x1 , . . . , xm ) R , F (x1 , . . . , xm ) = Q
i=1
f (x1 , . . . , xm ) =
F
(x1 , . . . , xm ) .
x1 . . . xm
Proposi
c
ao 4.3.9 Uma lei de probabilidade Q sobre (Rm , Bm ) e absolutamente contnua com densidade de
probabilidade f se, e s
o se,
m
$
$ bm
b1
m
]ai , bi ] =
...
f (t1 , . . . , tm ) dt1 . . . dtm .
(a1 , . . . , am ) , (b1 , . . . , bm ) R , (ai < bi ) , Q
a1
i=1
am
Este resultado quando aplicado sobre a lei de probabilidade P(X1 ,X2 ,...,Xm ) de um ve.a. (X1 , X2 , . . . , Xm ),
permite-nos saber que (a1 , . . . , am ) , (b1 , . . . , bm ) Rm , (ai < bi ),
m
]ai , bi ] =
P (a1 < X1 b1 , a2 < X2 b2 , . . . , am < Xm bm ) = P(X1 ,X2 ,...,Xm )
$
b1
i=1
bm
...
=
a1
am
Alem disso o valor da probabilidade mantem-se, se os extremos de algum ou de todos os intervalos nao
sao nitos ou se passarem de abertos a fechados.
Vamos agora vericar que as margens de um ve.a. absolutamente contnuo s
ao v.a.s absolutamente
contnuas e saber como deduzir as respectivas densidades de probabilidade.
ao m, absolutamente contnuo com densiProposi
c
ao 4.3.10 Seja (X1 , X2 , . . . , Xm ) um ve.a. de dimens
dade de probabilidade conjunta f(X1 ,X2 ,...,Xm ) . Para todo o i {1, 2, . . . , m}, Xi e uma v.a. absolutamente
contnua de densidade fXi tal que
x R, fXi (x) =
$ +
$ +
...
f(X1 ,X2 ,...,Xm ) (x1 , . . . , xi1 , x, xi+1 , . . . , xm ) dx1 . . . dxi1 dxi+1 . . . dxm .
=
Probabilidades e Estatstica I
61
%
$ x &$ +
$ +
=
...
f(X1 ,X2 ,...,Xm ) (x1 , . . . , xm ) dx1 . . . dxi1 dxi+1 . . . dxm dxi
Assim
FXi (x) =
e
$
fXi (x) =
...
Ser
a fi de facto uma densidade de probabilidade?
ao negativa.
x R, fXi (x) 0, porque e o integral de uma funcao n
ao e integr
avel, pelo que fXi e integr
avel. E
Sendo f uma densidade de probabilidade sobre Rm , ent
obvio tambem que
$ +
fXi (x) dx = 1
Probabilidades e Estatstica I
62
Exemplo 4.3.13 Suponha que o ve.a. (X, Y ) e absolutamente contnuo com densidade de probabilidade
conjunta
ax (x y) , 0 < x < 2, x < y < x
f(X,Y ) (x, y) =
0,
caso contr
ario
Determine:
a) o valor da constante real a;
b) as densidade de probabilidade marginais.
Resposta:
a) a = 1/8
x3
I
(x)
4 ]0,2[
3 (2 y)2 (y 1) + 2y 3
(2 y)2 (4 + y)
I]2,0[ (y) +
I]0,2[ (y)
fY (y) =
24
48
b) fX (x) =
4.4
Independ
encia de v.a.s
Uma das questoes mais importantes que se podem colocar no estudo probabilstico ou estatstico de um
ve.a. (X1 , X2 , . . . , Xm ) diz respeito `a existencia ou n
ao de uma relacao ou associacao entre as v.a.s que
constituem o vector aleatorio.
Repare que, se se comprovar que duas v.a.s de um par aleat
orio estao fortemente associadas, ao conhecer
o valor de uma delas e possvel estimar com algumaprecisao o valor da outra.
O estudo do relacionamento entre v.a.s passa pelo estudo da sua independencia.
Sejam X1 , X2 , . . . , Xm m v.a.s todas denidas sobre o mesmo espaco de probabilidade (, F, P ) com
leis de probabilidade PX1 , PX2 , . . . , PXm e funcoes de distribuicao FX1 , FX2 , . . . , FXm , respectivamente.
Seja X (X1 , X2 , . . . , Xm ) o ve.a. de lei de probabilidade P(X1 ,X2 ,...,Xm ) e funcao de distribuicao
F(X1 ,X2 ,...,Xm ) .
ao independentes se
Deni
c
ao 4.4.1 As v.a.s X1 , X2 , . . . , Xm s
m
m
Bi =
PXi (Bi ) .
B1 , B2 , . . . , Bm B, P(X1 ,X2 ,...,Xm )
i=1
i=1
Contudo, para n
os far
a mais sentido expressar a independencia de v.a.s usando acontecimentos, porque
sobre independencia de acontecimentos ja sabemos algo.
A proposicao que se segue permite expressar a independencia de v.a.s a partir da independencia dos
acontecimentos por elas gerados.
ao independentes se, e s
o se, os acontecimentos
Proposi
c
ao 4.4.2 As v.a.s X1 , X2 , . . . , Xm s
1
1
1
X1 (B1 ) , X2 (B2 ) , . . . , Xm (Bm ) de F s
ao independentes, quaisquer que sejam os borelianos
B1 , B2 , . . . , Bm de R.
Demonstracao: A prova consiste em estabelecer a independencia entre a independencia de X1 , X2 , . . . , Xm
e a seguinte condicao:
k
k
1
B
Bij
(A) {i1 , . . . , ik } {1, 2, . . . , m} , Bi1 B, . . . , Bik B, P
Xi1
P
X
=
i
j
ij
j
j=1
j=1
Probabilidades e Estatstica I
63
i) Se as vari
aveis independentes, ent
ao
k
m
P
Xi1
P Xl1 (Bl )
B
=
i
j
j
j=1
l=1
k
m
Xi1
Bl =
Bij = P(X1 ,X2 ,...,Xm )
j
j=1
l=1
m
l=1
k
PXl (Bl ) =
m
P Xl1 (Bl ) =
l=1
P Xij Bij
j=1
ii) Se se verica a propriedade (A) e imediato que as v.a.s X1 , X2 , . . . , Xm sao independentes. Basta
fazer k = m e {i1 , . . . , ik } = {1, 2, . . . , m}
De seguida, vamos estabelecer criterios que permitem caracterizar a independencia de vari
aveis aleatorias
`a custa da funcao de distribuicao e `a custa da funcao de probabilidade ou da densidade de probabilidade,
caso estejamos no caso discreto ou no caso contnuo, respectivamente.
Teorema 4.4.3 Uma condic
ao necess
aria e suficiente para que as v.a.s X1 , X2 , . . . , Xm sejam indepenoes de distribuic
ao
dentes e que a func
ao de distribuica
o F(X1 ,X2 ,...,Xm ) do ve.a. (X1 , X2 , . . . , Xm ) e as func
marginais FXi de Xi , i {1, 2, . . . , m}, verifiquem a seguinte igualdade:
(B)
m
FXi (xi ) .
i=1
i=1
m
pXi (xi ) .
i=1
Demonstracao:
ao a condicao (C) decorre imediatamente da denicao de
a) Se X1 , X2 , . . . , Xm sao independentes, ent
v.a.s independentes bastando considerar os borelianos Bi = {Xi = xi }, para todo o i {1, 2, . . . , m}.
Probabilidades e Estatstica I
64
b) Por comodidade de escrita, a suciencia da condicao e estabelecida apenas para n = 2. No caso geral,
a demonstracao e an
aloga. Ora,
(x1 , x2 ) R2 , F(X1 ,X2 ) (x1 , x2 ) = P ({(X1 , X2 ) ], x1 ] ], x2 ]}) =
= P(X1 ,X2 ) (], x1 ] ], x2 ]) =
= P ({X1 ], x1 ]} {X2 ], x2 ]})
i) Se ], x1 ] S1 = ou ], x2 ] S2 = tem-se
PX1 (], x1 ]) = 0 ou PX2 (], x2 ]) = 0
e tambem
P(X1 ,X2 ) (], x1 ] ], x2 ]) = 0.
ii) Se ], x1 ] S1 = ou ], x2 ] S2 = tem-se
(1) (2)
xj ,xj
=
(1)
#
P(X1 ,X2 )
(1)
(1)
(2)
PX1
#
'
#
'
(1)
(2)
xj
PX2
xj
=
(2)
#
'
(1)
xj
PX1
(1)
'
xj S1 ,xj x1 xj S2 ,xj x2
(2)
xj , xj
(1)
xj S1 ,xj x1
#
'
(2)
xj
PX2
=
(2)
(2)
xj S2 ,xj x2
m
fXi (xi ) .
i=1
Probabilidades e Estatstica I
65
Demonstracao:
1. Nas condicoes enunciadas, determinemos a f.d. de X (X1 , X2 , . . . , Xm ).
(x1 , x2 , . . . , xm ) R , F(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =
m
x1
m
FXi (xi ) =
i=1
xm
$ xm
$ x1
...
fX1 (t1 ) . . . fXm (tm ) dtm . . . dtm .
=
S
o resta provar que a funcao f(X1 ,X2 ,...,Xm ) denida por
(x1 , x2 , . . . , xm ) Rm , f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =
m
fXi (xi ) ,
i=1
Rm .
...
$
fX1 (t1 ) dt1 . . .
2. Da proposicao 4.3.10 sabemos que, para cada i {1, 2 . . . , m}, a v.a. Xi e absolutamente contnua e
admite como densidade de probabilidade a funcao
$
fXi (x) =
...
= gi (x)
g1 (t1 ) dt1 . . .
gm (tm ) dtm =
= gi (x)
uma vez que para todo o i {1, 2 . . . , m}, gi e uma densidade de probabilidade sobre R.
Assim,
(x1 , x2 , . . . , xm ) Rm , f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =
m
fXi (xi ) .
i=1
Finalmente,
$
F(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =
x1
xm
$
x1
m
FXi (xi )
i=1
Probabilidades e Estatstica I
66
Este u
ltimo teorema permite que se enuncie de modo pr
atico um criterio para a independencia de v.a.s
absolutamente contnuas.
Corol
ario 4.4.7 Uma condica
o necess
aria e suficiente para que um ve.a. X (X1 , X2 , . . . , Xm ) absolutamente contnuo seja formado por v.a.s independentes e que a sua densidade de probabilidade conjunta seja
da forma
(x1 , x2 , . . . , xm ) R , f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =
m
m
fXi (xi ) ,
i=1
onde, para todo o i {1, 2 . . . , m}, fXi e, respectivamente, a densidade de probabilidade da v.a. absolutamente contnua Xi .
Exemplo 4.4.8 Reatemos o exemplo 4.3.13. As v.a.s X e Y s
ao independentes?
E para terminarmos, o que acontece sobre a independencia de transformadas de v.a.s independentes?
Ser
ao tambem independentes?
ao m v.a.s independentes e 1 , 2 , . . . , m s
ao m func
oes reais de
Proposi
c
ao 4.4.9 Se X1 , X2 , . . . , Xm s
vari
avel real verificando, para todo o i {1, 2 . . . , m},
Bi B,
1
i (Bi ) B,
(4.4.1)
ent
ao
1 (X1 ) , . . . , m (Xm )
ou de modo an
alogo
1 X1 , . . . m Xm
s
ao v.a.s independentes.
Nota: A condicao 4.4.1 diz-nos que as funcoes i sao funcoes mensuraveis de (R, B) em (R, B). Isto
serve para assegurar que 1 (X1 ) , . . . , m (Xm ) sao vari
aveis aleatorias.
Demonstracao:
independentes.
i {1, 2 . . . , m} , Bi B,
m
*
+
m
= P
: (1 X1 , . . . m Xm ) ()
=
Bi
Bi
P(1 X1 ,...m Xm )
i=1
i=1
= P ({ : (1 X1 ) () B1 } . . . { : (m Xm ) () Bm }) =
= P (1 X1 )1 (B1 ) . . . (m Xm )1 (Bm ) =
1
1
= P X11 1
1 (B1 ) . . . Xm m (Bm )
A proposicao 4.4.2 permite ent
ao escrever
m
1 1
m (Bm ) =
= P X11 1
Bi
. . . P Xm
P(1 X1 ,...m Xm )
1 (B1 )
i=1
= P (1 X1 )1 (B1 ) . . . P (m Xm )1 (Bm ) .
Probabilidades e Estatstica I
67
Observa
c
oes:
1. A recproca desta proposicao pode n
ao ser valida.
2. Todas as funcoes contnuas s
ao mensuraveis. Mais geralmente, a soma, a diferenca, o produto, o
quociente (desde que denido) e a composicao de funcoes mensuraveis e mensuravel. N
ao se esqueca
que tambem a funcao indicatriz e mensuravel.
4.5
Leis condicionais
4.5.1
Caso em que X
e um vector aleat
orio discreto
P (Y A, X = xi )
.
P (X = xi )
P (Y A, X = x)
, se x SX .
P (X = x)
Probabilidades e Estatstica I
4.5.2
68
Seja (X, Y ) um ve.a. absolutamente contnuo com densidade de probabilidade g(X,Y ) . A proposicao 4.3.11
permite-nos saber que X e Y sao ve.a.s absolutamente contnuos. Representemos por gX a densidade de
probabilidade marginal de X e por gY a densidade de probabilidade marginal de Y .
Seja SX o suporte de X, isto e, SX = {x Rm : gX (x) > 0}.
Dena-se a seguinte famlia de funcoes sobre Rn :
y Rn , gY |x (y) =
g(X,Y ) (x, y)
, x SX
gX (x)
{x: gX (x)>0}
gX (x) dx
gX
{x: gX (x)0}
$ +
$ +
...
(x) dx
...
$ +
=
=
$ +
...
$
$ +
+
...
g(X,Y ) (x, (y1 , . . . , yn )) dy1 . . . dyn =
1
gX (x)
1
gX (x) = 1
gX (x)
Nestas condicoes, dene-se PX q.c., a lei condicional de Y sabendo X como a lei de probabilidade sobre
(Rn , Bn ) absolutamente contnua de densidade de probabilidade
y Rn , gY |x (y) =
g(X,Y ) (x, y)
, x SX
gX (x)
g(X,Y ) (x, y)
gX (x) gY (y)
=
= gY (y) , x SX
gX (x)
gX (x)
Probabilidades e Estatstica I
69
Exemplo 4.5.2 Reatemos o exemplo 4.3.13. Determine a densidade condicional de Y sabendo X. Calcule
tambem a P (1 < Y < 1 |X = 2 ).
1xy
Resposta: fY |x (y) =
I
(y) I]0,2[ (x) e P (1 < Y < 1 |X = 2 ) = 1/2.
2 x2 ]x,x[
Repare que, x ]0, 2[, a v.a. Y |X = x tem lei uniforme no intervalo ]x, x[.
4.6
Duas transforma
co
es importantes de um ve.a.
4.7
4.7.1
Leis discretas
Lei multinomial
A lei multinomial e uma generalizacao natural da lei binomial.
Seja E uma experiencia aleatoria onde se pode observar um de k acontecimentos A1 , A2 , . . . , Ak mutuamente exclusivos e exaustivos, ou seja, = A1 A2 . . . Ak .
Seja 0 < pi < 1 a probabilidade de se realizar o acontecimento Ai , i = 1, 2, . . . , k.
Repare que p1 + p2 + . . . + pk = 1.
Admitamos que a experiencia E e repetida n vezes nas mesmas condicoes. Isto signica que as probabilidades p1 , p2 , . . . , pk se mantem constantes em todas as realizacoes da experiencia e que os resultados
das mesmas sao independentes.
Probabilidades e Estatstica I
70
xi = n
S = (x1 , x2 . . . , xk ) : 0 xi n, i = 1, 2, . . . , k e
i=1
e que
(x1 , x2 , . . . , xk ) S,
(x1 , x2 . . . , xk1 ) : 0 xi n, i = 1, 2, . . . , k 1 e
k1
+
xi n
i=1
e
(x1 , x2 , . . . , xk1 ) S, P(X1 ,X2 ,...,Xk1 ) {(x1 , x2 , . . . , xk1 )} =
= P (X1 = x1 , X2 = x2 , . . . , Xk1 = xk1 ) =
n!
xk1
px1 . . . pk1
(1 p1 . . . pk1 )nx1 ...xk1
=
x1 ! . . . xk1 ! (n x1 . . . xk1 )! 1
Exemplo 4.7.1 Relativamente ao exerccio , se X =no de trabalhadores com atitude hostil e Y =
orio (X, Y ) tem distribuic
ao multinomial de
no de trabalhadores com atitude cooperativa, o par aleat
par
ametros (12, 0.3, 0.6).
A probabilidade de, em 12 trabalhadores, 5 terem atitude hostil e 4 terem atitude cooperativa, ser
a de
P (X = 5, Y = 4) =
4.7.2
12!
0.35 0.64 0.13
5!4!3!
2
(2)m/2 det
onde e um vector de Rm arbitrariamente xo e e uma matriz quadrada de ordem m, real, simetrica
e denida positiva, diz-se ter lei multinormal (ou lei normal multivariada) de par
ametros (, ).
A import
ancia das leis multinormais justica que adiante se faca um estudo mais exaustivo das suas
propriedades e do signicado dos par
ametros e .
Captulo 5
Momentos
Os par
ametros que vamos introduzir neste captulo podem ser denidos em toda a sua generalidade, quando
consideramos uma qualquer probabilidade Q sobre (R, B), a` custa do integral de Lebesgue. Sendo nosso
objectivo dirigirmo-nos a pessoas n
ao necessariamente familiarizados com aquele integral, vamos apresentar
aqui as formas que tais denicoes assumem nos casos particulares de Q ser uma lei de probabilidade associada
a uma v.a. discreta ou absolutamente contnua.
Estes parametros nao caracterizam, em geral, a lei de probabilidade a que est
ao associados; no entanto,
podem fornecer informacao relevante sobre a localizacao, dispers
ao, simetria, . . . , dos valores da vari
avel
que lhe esta associada (ou do suporte dessa lei).
5.1
Valor M
edio ou Esperan
ca Matem
atica
Caso discreto
Comecamos por introduzir a denicao de valor medio de uma v.a. com lei de probabilidade discreta.
ao de
Deni
c
ao 5.1.1 Seja X uma v.a. discreta de suporte S = {x1 , x2 , . . . , xk , . . .} e com func
(ou esperan
ca matem
atica) da v.a. X como sendo
E (X) =
xn P (X = xn ) .
n=1
Observa
c
oes:
1. E (X) n
ao e necessariamente um valor assumido pela v.a. X.
2. Se S e nito, existe sempre E (X). Mas se S e innito numer
avel, E (X) so e denido quando
a serie envolvida na denicao e absolutamente convergente. Isto pode justicar-se do seguinte
modo:
Se a serie for absolutamente convergente, podemos fazer qualquer reordenacao dos seus termos
sem que isso afecte a soma da serie. Se a serie for simplesmente convergente, uma reordenacao
dos seus termos pode conduzir a uma serie divergente ou convergente, cujo valor depende dessa
reordenacao.
71
Probabilidades e Estatstica I
72
3. O valor medio expressa o ponto de equilbrio de uma v.a. e faz parte do grupo das chamadas
medidas de localizac
ao.
n k
E (X) =
kP (X = k) =
k
p (1 p)nk =
k
k=0
k=1
k=0
n!
n!
pk (1 p)nk =
pk (1 p)nk =
k
k! (n k)!
(k 1)! (n k)!
n
k=1
n (n 1)!
p pk1 (1 p)n1(k1) =
(k 1)! (n 1 (k 1))!
k=1
n1
n 1
pj (1 p)n1j = np (p + 1 p)n1 = np
= np
j
=
j=0
e e dada por
xf (x) dx.
E (X) =
Exemplo 5.1.4 Seja X uma v.a. com lei normal de par
ametros , 2 e determinemos o seu valor
medio.
Comecemos por verificar que esse valor medio pode ser definido.
$
$
|x| f (x) dx =
=
=
=
=
$ +
1
|x|
2
1 x
e 2
2
dx =
1
2
| + t| et /2 dt = para t = (x ) /
2
$ +
$ +
1
1
2
2
et /2 dt +
||
|t| et /2 dt =
2
2
$ 0
$ +
1
1
t2 /2
t2 /2
(t) e
dt +
t e
dt =
|| +
2
2
0
$ +
$ +
1
1
t2 /2
t2 /2
|| +
t e
dt +
t e
dt =
2
2
0
0
, t2 /2 -+
e
= || + 2 < +
|| + 2
0
2
2
Probabilidades e Estatstica I
73
Podemos ent
ao calcular o E (X).
E (X) =
$ +
1
x
2
1 x
e 2
2
dx =
1
2
( + t) et /2 dt = para t = (x ) /
2
$ +
$ +
1
1
2
2
et /2 dt =
t et /2 dt +
=
2
2
, t2 /2 -+
=
+1=
e
Nota: Uma v.a. X com lei normal de par
ametros , 2 , tem valor medio igual ao valor do 1o
par
ametro da sua lei.
Caso misto
Se X e uma v.a. com lei mista Q = Qd + (1 ) Qc , com ]0, 1[, Y e a v.a. discreta com lei Qd
e W e a v.a. absolutamente contnua com lei Qc , ent
ao E (X) = E (Y ) + (1 ) E (W ).
Vamos agora apresentar a denicao de valor medio de uma transformada de uma v.a. X.
Deni
c
ao 5.1.5 Caso discreto
Seja X uma v.a. discreta de suporte S = {x1 , x2 , . . . , xk , . . .} e com func
ao de probabilidade f (xn ) =
P (X = xn ) , n N e considere-se uma func
ao : R R tal que (X) seja uma vari
avel aleat
oria.
E ( (X)) =
(xn ) P (X = xn ) .
n=1
se,
E ( (X)) =
Observa
c
oes:
1. A anterior denicao de valor medio e um caso particular desta.
2. Como |X| e uma v.a., ent
ao podemos dizer que o valor medio E (X) existe se, e so se, existe E (|X|).
Probabilidades e Estatstica I
5.1.1
74
Propriedades do valor m
edio
Proposi
c
ao 5.1.6
ao
1. Se X e uma v.a. igual a a quase certamente, a R, (isto e, se X tem uma lei degenerada em a) ent
E (X) = a.
2. Seja : R R uma func
ao tal que (X) e uma vari
avel aleat
oria. Se existe E ( (X)), ent
ao
(a) existe E (a (X) + b), quaisquer que sejam os n
umeros reais a e b e tem-se
E (a (X) + b) = aE ( (X)) + b.
(b) |E ( (X))| E (| (X)|).
ao func
oes reais de vari
avel real tais que i (X) s
ao v.a.s que admitem valor
3. (a) Se 1 , 2 , . . . , N s
medio, para todo o n = 1, 2, . . . , N , ent
ao
N
N
E
i (X) =
E (i (X)) .
i=1
i=1
|a|
e
$
E (a (X) + b) =
$
| (x)| f (x) dx + |b|
f (x) dx < +
(a (X) + b) f (x) dx =
$ +
= a
(x) f (x) dx + b
f (x) dx =
= aE ( (X)) + b
A demonstracao e an
aloga para o caso em que X e v.a. discreta.
(b) No caso em que X e uma v.a. discreta de suporte S = {x1 , x2 , . . . , xk , . . .} e funcao de probabilidade f (xi ) = P (X = xi ) , i N.
(xi ) P (X = xi )
| (xi )| P (X = xi ) = E (| (X)|)
|E ( (X))| =
i=1
i=1
Probabilidades e Estatstica I
75
3. (a) No caso geral, a prova ultrapassa o nvel desta disciplina. Vamos apenas demonstrar o resultado
no caso em que X e v.a. absolutamente contnua de densidade de probabilidade f e i (X) ser
tamb
contnua, i {1, 2, . . . , N }. Comecamos por vericar a existencia de
Nem absolutamente
E
i (X) .
i=1
N
$ +
i (X)
i (x)
f (x) dx
E
=
i=1
i=1
$
N
i=1
Ent
ao
E
i (X)
i=1
N
N $
i=1
i=1
i (x) f (x) dx
E (i (X))
i=1
5.2
Momentos
Probabilidades e Estatstica I
76
Calculemos agora o momento de ordem 2. Sabemos que ele existe porque o suporte de X e finito.
n
n
n k
m2 = E X 2 =
p (1 p)nk =
k 2 P (X = k) =
k2
k
k=0
k=0
n
n
n!
nk
2 n
k
=
p (1 p)
pk (1 p)nk =
k
=
k2
k
k! (n k)!
k=1
k=1
k=2
k=2
k=1
n!
n!
pk (1 p)nk =
pk (1 p)nk =
k
(k 1 + 1)
(k 1)! (n k)!
(k 1)! (n k)!
n
k=1
n!
pk (1 p)nk +
(k 2)! (n k)!
k=1
n!
pk (1 p)nk =
(k 1)! (n k)!
n (n 1) (n 2)!
p2 pk2 (1 p)n2(k2) +
(k 2)! (n 2 (k 2))!
n (n 1)!
p pk1 (1 p)n1(k1) =
(k 1)! (n 1 (k 1))!
k=1
n2
n1
n 2
n 1
n2j
2
j
p (1 p)
pj (1 p)n1j =
+ np
= n (n 1) p
j
j
+
j=0
n2
= n (n 1) p (p + 1 p)
2
j=0
n1
+ np (p + 1 p)
= n (n 1) p2 + np
Exemplo 5.2.3 Seja Z uma v.a. com lei normal reduzida, isto e, Z N (0, 1). J
a vimos que E (Z) = 0.
Calculemos
o
segundo
momento
de
Z.
Relativamente
`
a
sua
exist
e
ncia,
podemos
em
primeiro
lugar constatar
que E
Z 2
= E Z 2 . Portanto ao calcularmos m2 = E Z 2 se este for finito, garantimos de imediato
que tambem existe.
$ +
$ +
2
1
2
2
z f (z) dz =
z 2 ez /2 dz =
=
m2 = E Z
2
$ +
,
+
1
1
2
2
ez /2 dz =
=
+
z ez /2
2
2
1
= 0+1=1
2
a sabemos
Se X e uma v.a. com lei normal
de par
ametros , 2 , qual o seu segundo momento? Pelo que j
2
sobre esta lei, se X N , , ent
ao X = + Z. Assim
m2 = E X 2 = E ( + Z)2 =
= E 2 + 2 Z + 2 Z 2 = 2 + 2 E (Z) + 2 E Z 2 =
= 2 + 2
O que podemos dizer acerca da garantia de existencia de momentos?
Proposi
c
ao 5.2.4 A existencia de E X k implica a existencia de (X n ) para todo o n k, n N.
Demonstracao: A demonstracao pode passar pelas seguintes etapas:
a) Se |X| < 1, ent
ao |X n | < 1, logo E (|X n |) < E (1) = 1.
Probabilidades e Estatstica I
77
b) Se |X| 1, ent
ao |X n |
X k
, logo E (|X n |) E
X k
< +.
c) No caso geral, |X n | < 1 +
X k
e entao E (|X n |) < 1 + E
X k
< +
Quando temos uma v.a. X com valor medio E (X), ent
ao a v.a. X E (X) tem sempre valor medio
nulo porque
E (X E (X)) = E (X) E (E (X)) = E (X) E (X) = 0
Por esta razao, dizemos que a v.a. X E (X) e uma v.a. centrada.
Relativamente a v.a.s centradas, tem alguma utilidade denir os respectivos momentos.
Deni
c
ao 5.2.5 D
a-se o nome de momento centrado de ordem k da v.a. X a k = E (X E (X))k
(desde que existam).
possvel relacionar os momentos de uma v.a. X com os momentos centrados da mesma variavel. Para
E
j
a estabelecamos uma garantia sobre a sua existencia.
Proposi
c
ao 5.2.6 Dada uma v.a. X, existe E X k se, e s
o se, existe E (X a)k para todo o a R.
Demonstracao: a R, tem-se
k
k
k
X i (a)ki
(X a) =
i
i=0
e consequentemente,
k
k
k
|X|i |a|ki
(X a)
i
i=0
Assim, se existe E X k , tambem existem E X i , i = 1, 2, . . . , k e portanto E
(X a)k
< +.
A recproca e imediata considerando a = 0.
k
Na proposicao anterior, se considerarmos
o
caso
particular
de
a
=
E
(X),
camos
a
saber
que
E
X
Proposi
c
ao 5.2.7 Se X e uma v.a., para a qual existe momento de ordem k, ent
ao
k
k
(E (X))ki mi
(1)ki
considerando m0 = 1
k = E (X E (X))k =
i
i=0
e
mk = E X
=
k
k
i=1
(E (X))i ki
considerando 0 = 1
k
k
X i (a)ki
(X a) =
i
i=0
k
k
k
(X a)i aki
X = (X a + a) =
i
i=0
Probabilidades e Estatstica I
5.3
78
Vari
ancia e desvio-padr
ao
5.3.1
Propriedades da vari
ancia
Probabilidades e Estatstica I
5.4
79
Desigualdade de Tchebychev
Vamos apresentar tres desigualdades que nos permitem estimar probabilidades de certos acontecimentos
relativos a uma v.a. X, se soubermos algo sobre os momentos dessa v.a..
1. Proposi
c
ao 5.4.1 (Desigualdade de Tchebychev)
ao estritamente crescente e tal que E ( (X))
Seja X uma v.a. positiva. Seja : R+ R+ uma func
existe. Ent
ao
> 0,
P ( (X) )
E ( (X))
()
P (X )
E (X)
P (|X E (X)| )
V (X)
2
Se sobre uma v.a. X, apenas conhecermos o seu valor medio e a sua vari
ancia, esta u
ltima desigualdade
permite-nos tirar ilacoes sobre os valores da vari
avel que, com uma certa probabilidade, se encontram perto
do seu valor medio.
Observa
c
ao: Admitamos que X e uma v.a. e que sabemos que E (X) = m e que V (X) = 2 .
Se na desigualdade de Bienayme-Tchebychev, considerarmos = t, ent
ao
P (|X m| t)
1
2
= 2
t2 2
t
e portanto
t R+ , P (|X m| < t) 1
1
t2
Probabilidades e Estatstica I
5.5
80
5.5.1
Vector m
edio
Deni
c
ao 5.5.1 Seja X (X1 , X2 , . . . , Xm ) um ve.a. de dimens
ao m, tal que E (Xi ) existe para todo o
i {1, 2, . . . , m}. A esperan
ca matem
atica, valor m
edio ou vector m
edio de X e o vector de Rm de
componentes E (Xi ) , i = 1, . . . , m, isto e,
E (X) = (E (X1 ) , E (X2 ) , . . . , E (Xm )) .
As componentes de E (X) interpretam-se como as coordenadas do baricentro (centro de massas ou centro
de gravidade) da massa probabilista associada a` lei de probabilidade de X.
Exemplo 5.5.2 Determine o vector medio do par aleat
orio (X, Y ) descrito no exerccio 95.
5.5.2
Valor m
edio de uma fun
c
ao real de um ve.a.
Seja uma funcao denida sobre Rm com valor em R e mensuravel de (Rm , Bm ) em (R, B), isto e, vericando
B B, 1 (B) Bm
Nota: Todas as funcoes contnuas s
ao mensuraveis. Tambem a funcao indicatriz de um boreliano B de
Rm e funcao mensuravel.
Seja X (X1 , X2 , . . . , Xm ) um ve.a. denido sobre um espaco de probabilidade (, F, P ) e uma funcao
nas condicoes acima descritas. Entao (X) = (X1 , X2 , . . . , Xm ) e uma v.a. denida sobre (, F, P ).
De facto,
B B, ( (X))1 (B) = X 1 1 (B) F
Bm
Deni
c
ao 5.5.3
a) Se X (X1 , X2 , . . . , Xm ) e um ve.a. discreto de suporte S, chama-se esperan
ca
matem
atica ou valor m
edio de (X) ao n
umero real
E ( (X)) =
(x1 , . . . , xm ) P (X1 = x1 , . . . , Xm = xm ) ,
(x1 ,...,xm )S
desde que
| (x1 , . . . , xm )| P (X1 = x1 , . . . , Xm = xm )
(x1 ,...,xm )S
seja finito.
ca
b) Se X (X1 , X2 , . . . , Xm ) e um ve.a. absolutamente contnuo de densidade f , chama-se esperan
matem
atica ou valor m
edio de (X) ao n
umero real
$ +
$ +
...
(x1 , . . . , xm ) f (x1 , . . . , xm ) dx1 . . . dxm ,
E ( (X)) =
desde que
$ +
...
seja finito.
Probabilidades e Estatstica I
81
Nota: Se existe E ( (X)) existe, o seu valor coincide com o E (Y ), para Y = (X), caso deduzssemos
a lei desta u
ltima v.a. e depois determin
assemos o seu valor medio.
Exemplo 5.5.4 Para o exerccio 95, determine o valor esperado do total de avi
oes procurados diariamente.
Determine tambem E (XY ).
Proposi
c
ao 5.5.5 Se X (X1 , X2 , . . . , Xm ) e um ve.a. possuindo vector medio e a1 , . . . , am s
ao constantes
reais, ent
ao
m
m
ai Xi =
ai E (Xi )
E
i=1
i=1
Demonstracao: Facamos a demonstracao para o caso em que X (X1 , X2 , . . . , Xm ) e um ve.a. absolutamente contnuo com densidade de probabilidade conjunta f .
m
$ +
$ +
E
=
ai Xi
...
(a1 x1 + . . . + am xm ) f (x1 , . . . , xm ) dx1 . . . dxm =
i=1
= a1
...
$ +
$ +
+ am
...
xm f (x1 , . . . , xm ) dx1 . . . dxm =
$ +
$ +
x1 fX1 (x1 ) dx1 + . . . + am
xm fXm (xm ) dxm =
= a1
= a1 E (X1 ) + . . . + am E (Xm )
aloga
Para o caso em que X (X1 , X2 , . . . , Xm ) e um ve.a. discreto, a demonstracao e an
Proposi
c
ao 5.5.6 Se X (X1 , X2 , . . . , Xm ) e um ve.a. possuindo vector medio e as margens X1 , X2 , . . . , Xm
s
ao independentes, ent
ao
m
m
E
Xi =
E (Xi )
i=1
i=1
i=1
i=1
m
$ +
$ +
m
...
x
fXi (xi ) dx1 . . . dxm =
=
i
i=1
i=1
m $ +
|xi | fXi (xi ) dxi =
=
=
i=1
m
E (|Xi |) < +
i=1
i=1
Probabilidades e Estatstica I
m
Xi
...
i=1
82
...
i=1
$ +
m
m $
i=1
m
m
+
i=1
m
i=1
E (Xi )
i=1
5.5.3
Covari
ancia e correla
c
ao de duas vari
aveis aleat
orias
Y ()
E
E (Y )
E (X)
X ()
A dispersao de (X, Y ) em torno de (E (X) , E (Y )) pode ser descrita pela variancia da v.a. EH que
representa o comprimento do segmento EH.
Tendo em conta que 2 + 2 = 1, prova-se que
EH = (X E (X)) + (Y E (Y ))
Probabilidades e Estatstica I
83
V (Xi ) + 2
i=1
m
m
i=1 j=i+1
ao independentes,
b) se as margens X1 , X2 , . . . , Xm s
V (X1 + X2 + . . . + Xm ) =
i=1
V (Xi )
cov (Xi , Xj )
Probabilidades e Estatstica I
84
Demonstracao:
2
m
m
m
=
= E
Xi
Xi E
Xi
V
i=1
= E
i=1
m
i=1
2
=
(Xi E (Xi ))
i=1
m
m
i=1
m
i=1 j=i
V (Xi ) +
cov (Xi , Xj ) =
i=1 j=i
m
V (Xi ) + 2
i=1
cov (Xi , Xj )
i=1 j=i+1
Exerccio 5.5.14 Se X e Y s
ao v.a.s possuindo momento de 2a ordem, mostre que
V (X Y ) = V (X) + V (Y ) 2 cov (X, Y )
Proposi
c
ao 5.5.15 (Desigualdade de Schwarz)
ao
Se X e Y s
ao v.a.s possuindo momento de 2a ordem, ent
a) [E (|XY |)]2 E X 2 E Y 2 ;
b) [E (XY )]2 E X 2 E Y 2 .
Demonstracao:
a) Como
a, b R,
|ab|
a2 + b2
2
segue-se que E |XY | existe se E X 2 < + e E Y 2 < +.
Consideremos agora um qualquer n
umero real. Como
(|X| + |Y |)2 2X 2 + 22 Y 2
entao
,
R, E (|X| + |Y |)2 2E X 2 + 22 E Y 2 < +
,
Estando assegurada a existencia de E (|X| + |Y |)2 , vem
,
R, E (|X| + |Y |)2 0
Probabilidades e Estatstica I
85
e ainda
,
E (|X| + |Y |)2 = E X 2 + 2 E Y 2 + 2E (|X| |Y |)
o quando
Obtemos assim uma equacao de 2a grau em , que e nao negativa, para todo o , quando e s
o discriminante da equacao e negativo ou nulo, isto e
4 [E (|X| |Y |)]2 4E X 2 E Y 2 0
b) Demonstra-se de modo analogo
Nota: Esta proposicao, diz-nos que se existiram os momentos de 2a ordem das v.a.s X e Y , existir
aa
covari
ancia entre X e Y .
Como medida do grau de dependencia entre duas v.a.s, a covari
ancia apresenta o inconveniente de n
ao
ser uma medida limitada. Como tal nunca poderemos fazer armacoes do tipo como a covariancia tem
um valor elevado entre o grau de dependencia entre X e Y e forte. Mas quais os valores elevadosda
covari
ancia? E quais os valores pequenosda covari
ancia?
O coeciente de correlacao vem colmatar as insuciencias da covari
ancia no que diz respeito a` medicao
da dependencia entre duas v.a.s.
Deni
c
ao 5.5.16 Sejam (X, Y ) um par aleat
orio, possuindo vari
ancia n
ao nula. Chama-se coeficiente
de correla
c
ao entre X e Y (ou do par (X, Y )), e representa-se por (X, Y ), ao valor real
X E (X) Y E (Y )
,
(X, Y ) = cov
(X)
(Y )
Observa
c
oes:
a) Repare que (X, Y ) =
cov (X, Y )
;
(X) (Y )
b) As v.a.s X e Y dizem-se n
ao correlacionadas se (X, Y ) = 0.
Teorema 5.5.17 Nas condic
oes da definic
ao anterior, tem-se
a) | (X, Y )| 1;
b) | (X, Y )| = 1 a, b, c R (ab = 0) : P (aX + bY + c = 0) = 1.
Demonstracao:
a) A prova e imediata por aplicacao da alnea b) da proposicao 5.5.15 a`s v.a.s X E (X) e Y E (Y ).
b)
E (Z) = 0
pelo que
V (Z) = E Z 2 = 0
Ent
ao existe k = E (Z) = 0 tal que P (Z = k) = 1, ou seja existem constantes a, b, c nas condicoes
expressas na tese, tais que P (aX + bY + c = 0) = 1.
Probabilidades e Estatstica I
86
5.5.4
Matriz de covari
ancias
m
m
i j ij =
i=1 j=1
m
m
2
m
i (Xi E (Xi )) 0
= E
i=1
Probabilidades e Estatstica I
87
Observa
c
oes:
a) X caracteriza a dispersao de X (X1 , X2 , . . . , Xm ) em torno de E (X) = (E (X1 ) , E (X2 ) , . . . , E (Xm ));
b) A desigualdade 5.5.15 garante a existencia da matriz X se existirem os momentos de 2a ordem das
margens do ve.a. X;
ao
c) A matriz X e uma matriz diagonal sempre que as margens do ve.a. X forem duas a duas n
correlacionadas.
ao m tal que todas as margens possuem momento de 2a
Seja X (X1 , X2 , . . . , Xm ) um ve.a. de dimens
ordem. A necessidade de avaliar o grau de dependencia entre os diversos pares de margens leva `a introducao
da matriz de elemento generico ij = (Xi , Xj ) , i, j {1, . . . , m}.
ao de X.
Deni
c
ao 5.5.20 A matriz simetrica X = [ij ] , i, j {1, . . . , m}, e chamada matriz de correlac
ao negativa, isto e
Proposi
c
ao 5.5.21 X e uma matriz semi-definida n
(1 , . . . , m ) Rm , X T 0
Observa
c
oes:
a) A desigualdade 5.5.15 garante a existencia da matriz X se existirem os momentos de 2a ordem das
margens do ve.a. X;
b) Os elementos da diagonal da matriz X sao todos iguais a 1;
ao
c) A matriz X e uma matriz identidade sempre que as margens do ve.a. X forem duas a duas n
correlacionadas.
5.5.5
Valor m
edio condicional
Conhecida a lei condicional de Y dado X podemos interessar-nos pelos momentos desta lei, denominados
momentos condicionais de Y dado X. Iremos apenas referir-nos ao valor medio condicional supondo que Y
m
e uma
v.a. em (R,
B). Assim o ve.a. (X, Y ) assume agora valores em (R , Bm ) e o ve.a. X assume valores
m1
em R
, Bm1 .
Deni
c
ao 5.5.22
a) Se Y e uma v.a. discreta de suporte SY tal que
|y| P (Y |X = x ) < +
ySY
ent
ao o valor m
edio condicional de Y |X = x e a funca
o de x dada por
y P (Y |X = x )
E (Y |X = x ) =
ySY
ent
ao o valor m
edio condicional de Y |X = x e a func
ao de x dada por
$ +
y gY |x (y) dy
E (Y |X = x ) =
Probabilidades e Estatstica I
88
Proposi
c
ao 5.5.23 Seja uma aplicac
ao de Rm em R tal que (X, Y ) e uma v.a. real possuindo valor
medio. Ent
ao a v.a. real E ( (X, Y ) |X = x ) est
a quase certamente definida em relaca
o a PX e tem-se
E ( (X, Y )) = E [E ( (X, Y ) |X = x )]
Demonstracao:
a) No caso em que (X, Y ) e um ve.a. absolutamente contnuo com densidade de probabilidade conjunta f , representemos por g a densidade de probabilidade marginal de X e por gY |x a densidade de
probabilidade condicional de Y |X = x . Ent
ao
$ +
$ +
...
| (x1 , . . . , xm1 , y)| f (x1 , . . . , xm1 , y) dx1 . . . dxm1 dy =
E (| (X, Y )|) =
$ +
$ +
...
| (x1 , . . . , xm1 , y)| g (x1 , . . . , xm1 ) gY |x (y) dx1 . . . dxm1 dy =
=
$ +
$ + $ +
=
...
| (x1 , . . . , xm1 , y)| gY |x (y) dy g (x1 , . . . , xm1 ) dx1 . . . dxm1 =
$ +
$ +
...
E (| (x1 , . . . , xm1 , Y )| |X = (x1 , . . . , xm1 ) ) g (x1 , . . . , xm1 ) dx1 . . . dxm1 < +
=
Ent
ao E (| (X, Y )| |X = (x1 , . . . , xm1 ) ) e PX -q.c. nita o que assegura a existencia PX -q.c. de
E ( (X, Y ) |X = (x1 , . . . , xm1 ) ).
De modo an
alogo se deduz que E ( (X, Y )) e igual a
$ +
$ +
...
E ( (X, Y ) |X = (x1 , . . . , xm1 ) ) g (x1 , . . . , xm1 ) dx1 . . . dxm1
ySY
< +
Ent
ao E (| (X, Y )| |X = (x1 , . . . , xm1 ) ) e PX -q.c. nita o que assegura a existencia PX -q.c. de
E ( (X, Y ) |X = (x1 , . . . , xm1 ) ). De modo an
alogo se deduz que E ( (X, Y )) e igual a
ySY
Probabilidades e Estatstica I
89
Observa
c
ao:
a) Designando por EX o valor medio relativamente a PX , a igualdade agora estabelecida escreve-se de
modo abreviado
E ( (X, Y )) = EX (E ( (X, Y ) |X = x ))
Em particular,
E (Y ) = EX (E (Y |X ))
b) Se Y (Y1 , Y2 , . . . , Yn ) e um ve.a. tal que E (Yi |X ), existe para todo o i {1, . . . , n}, ent
ao o valor
medio condicional de Y |X , e o vector aleatorio (E (Y1 |X ) , . . . , E (Ym |X )).
Captulo 6
Func
ao geradora de momentos
Dedicamos este captulo a` apresentacao e estudo do conceito de funcao geradora de momentos, particularmente u
til na determinacao de momentos de variaveis aleatorias e na deducao da lei de probabilidades de
vari
aveis aleatorias.
6.1
Defini
c
ao de fun
c
ao geradora de momentos de um ve.a. X em Rm
n
tX
n t k
nk
tk n
k
=
p (1 p)
pe (1 p)nk = 1 p 1 et
e
=
, tR
MX (t) = E e
k
k
k=0
k=0
$ +
2
1
1
2
2
e 2 (zt) dz = et /2 , t R
= et /2
2
90
Probabilidades e Estatstica I
91
6.2
ev
v
eu 1 eu ev
u
u+v
=2
ev
u (u + v)
ev 1
eu 1 + u
v
Propriedades da fun
c
ao geradora de momentos
6.3
Caracteriza
c
ao da fun
c
ao geradora de momentos das margens e de
sub-vectores de um ve.a. X
Representemos por D a vizinhanca Rm de 0 (0, 0, . . . , 0) onde esta denida a funcao geradora de momentos
de um ve.a. X (X1 , X2 , . . . , Xm ), isto e
#
T
'
D = t (t1 , . . . , tm ) Rm : i {1, . . . , m} si R+ e para |ti | si , E etX
< +
Proposi
c
ao 6.3.1 Seja X (X1 , X2 , . . . , Xm ) um ve.a. com func
ao geradora de momentos MX definida
em D. Ent
ao existe a funca
o geradora da margem Xi , i {1, 2, . . . , m} e pode ser determinada por
ti D i ,
ti Di , MXi (ti ) = E eti Xi = E e0X1 +...+0Xi1 +ti Xi +0Xi+1 +...+0Xm = MX (0, . . . , 0, ti , 0, . . . , 0)
o que garante que MXi (ti ) e nito e o resultado pretendido
Exemplo 6.3.2 Determinar a func
ao geradora de momentos das margens X e Y do vector aleat
orio (X, Y )
referido no exemplo 6.1.4.
2
ev
ev 1
u
e 1+u
= 2 (eu u 1)
MX (u) = M(X,Y ) (u, 0) = lim 2
v0 u (u + v)
v
u
u
v
u
v
e 1 e e
2
e
= 2 (ev (v 1) + 1)
MY (v) = M(X,Y ) (0, v) = lim 2
u0 v
u
u+v
v
ao geradora de momentos MX definida
Proposi
c
ao 6.3.3 Seja X (X1 , X2 , . . . , Xm ) um ve.a. com func
em D. Para todo o k {2, 3, . . . , m 1} e 1 i1 < i2 . . . < ik m, existe a func
ao geradora de momentos
do sub-vector (Xi1 , . . . , Xik ) e pode ser determinada por
M(Xi
Demonstracao: A demonstracao e an
aloga a` anterior
Probabilidades e Estatstica I
6.4
92
A fun
c
ao geradora de momentos e a independ
encia de v.a.s
Proposi
c
ao 6.4.1 Seja X (X1 , X2 , . . . , Xm ) um ve.a. com func
ao geradora de momentos MX definida
ao independentes se, e s
o se,
em D. As v.a.s X1 , X2 , . . . , Xm s
t (t1 , . . . , tm ) D,
MX (t) =
m
MXi (ti ) .
i=1
i=1
Provemos a recproca apenas para o caso em que X (X1 , X2 , . . . , Xm ) e um ve.a. absolutamente contnuo
aloga).
com densidade de probabilidade conjunta f(X1 ,X2 ,...,Xm ) (para o caso discreto, a prova e an
$
MX (t) =
et1 x1 +t2 x2 +...+tm xm f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) dx1 dx2 . . . dxm =
m
R
= E et1 X1 E et2 X2 . . . E etm Xm =
$
$
$
t1 x1
t2 x2
e
fX1 (x1 ) dx1
e
fX2 (x2 ) dx2 . . . etm xm fXm (xm ) dxm =
=
R
R
$R
t1 x1 +t2 x2 +...+tm xm
e
fX1 (x1 ) fX2 (x2 ) . . . fXm (xm ) dx1 dx2 . . . dxm
=
Rm
6.5
A fun
c
ao geradora de momentos de uma combina
c
ao linear de v.a.s
Proposi
c
ao 6.5.1 Seja X (X1 , X2 , . . . , Xm ) um ve.a. com func
ao geradora de momentos MX definida
em D, b uma constante real e a (a1 , a2 , . . . , am ) um vector de Rm . Ent
ao a v.a. Y = aX T + b tem func
ao
geradora de momentos definida por
t R : at D,
Demonstracao:
t(a1 X1 +a2 X2 +...+am Xm +b)
bt a1 tX1 +a2 tX2 +...+am tXm
bt
atX T
MY (t) = E e
=E e e
=e E e
= ebt MX (at)
Probabilidades e Estatstica I
93
Exemplo 6.5.2 Consideremos X uma v.a. com lei normal de par
ametros , 2 e determinemos a sua
func
ao geradora de momentos. Pelo teorema 3.3.21, sabemos que se Z N (0, 1), ent
ao X = + Z.
2 /2
t
Tambem pelo exemplo 6.1.3, sabemos que MZ (t) = e , t R. Assim
MX (t) = et MZ (t) = et e
2 t2 /2
= et+
2 t2 /2
tR
e2t 2et + 1
t2
Corol
ario 6.5.4 Nas mesmas condic
oes da anterior proposica
o, se X1 , X2 , . . . , Xm s
ao v.a.s indepenT
dentes, ent
ao Y = aX + b tem func
ao geradora de momentos definida por
t R : i {1, 2, . . . , m} , ai t Di ,
bt
MY (t) = e
m
MXi (ai t) .
i=1
Exemplo 6.5.5 Considere X1 , X2 , . . . , Xm v.a.s independentes tais que i {1, 2, . . . , m} , Xi B (ni , p).
Determinemos a f.g.m. da v.a. T = X1 + X2 + . . . + Xm e tentemos identificar a respectiva lei.
Pelo exemplo 6.1.2, sabemos que
n
i {1, 2, . . . , m} , t R, MXi (t) = 1 p 1 et i
Ent
ao
t R,
m
MXi (t) =
i=1
m
n
n +n +...+nm
1 p 1 et i = 1 p 1 et 1 2
i=1
m
i=1
MXi (t) =
m
i=1
exp i t +
t
i2
2
2
2 t
= exp (1 + 2 + . . . + m ) t + 12 + 22 + . . . + m
2
2 .
ametros 1 + 2 + . . . + m , 12 + 22 + . . . + m
ou seja T = X1 + X2 + . . . + Xm tem lei normal de par
Probabilidades e Estatstica I
6.6
94
A fun
c
ao geradora de momentos e os momentos de um ve.a.
Alem da possibilidade de permitir identicar e determinar a lei de v.a.s, a funcao geradora de momentos
tambem permite que caracterizemos a existencia de momentos de uma v.a. e que realizemos o seu calculo.
Para efeitos de uma explicacao mais intuitiva, consideremos X uma v.a. absolutamente contnua, com
densidade de probabilidade f . Se existir a funcao geradora de momentos de X numa vizinhanca de raio
s > 0 de 0, ent
ao
$
etx f (x) dx < +
t R: |t| s, MX (t) =
R
k N, MX (0) =
k
MX (t) |t=0 =
tk
xk f (x) dx = E X k
Mais rigorosamente (embora com demonstracao completa fora do ambito desta disciplina),
Teorema 6.6.1 Se a func
ao geradora de momentos est
a definida para t R: |t| s, s R+ , verifica-se
k
(k)
k N, MX (0) = k MX (t) |t=0 = E X k
t
A generalizacao deste resultado a ve.a.s X (X1 , X2 , . . . , Xm ) resulta em
o geradora de
Teorema 6.6.2 Seja X (X1 , X2 , . . . , Xm ) um ve.a. em (Rm , Bm ) tal que a sua funca
momentos existe numa vizinhanca Rm de 0 (0, 0, . . . , 0), isto e, no conjunto
'
T
#
< +
D = t (t1 , . . . , tm ) Rm : i {1, . . . , m} si R+ e para |ti | si , E etX
m
km existe, e, sendo k =
Ent
ao, para k1 , k2 , . . . , km N0 , o E X1k1 X2k2 . . . Xm
ki , tem-se
i=1
k
tk11 tk22 . . . tkmm
MX (t1 , t2 , . . . , tm ) existe e
km
=
E X1k1 X2k2 . . . Xm
(0,0,...,0)
M
(t
,
t
,
.
.
.
,
t
)
1
2
m
X
. . . tkmm
k
tk11 tk22
Probabilidades e Estatstica I
95
Exemplo 6.6.4 Consideremos X uma v.a. com lei normal de par
ametros , 2 e determinemos o seu
valor medio e sua vari
ancia, recorrendo a
` func
ao geradora de momentos.
2 2
MX (t) = et+ t /2
MX (u)
u
2
MX (u)
u2
MY (v)
v
2
MY (v)
v 2
eu (u 2) + u + 2
u3
u
e ((u 2) (u 3) + u) 2 (u + 3)
2
u 4
2
v
e v 2 (v 1) 2
2
v3
3
v
e v 3v 2 + 6 (v 1) + 6
2
4
v u
& v
e (v 1) e (u 1) + 1 eu (u + v 1) + ev
+
2
v2
u2
(u + v)2
%
ev eu (u + v 2) + ev (u + v + 2)
v
(u + v)3
= 2
=
=
=
2
M
(u, v) =
uv (X,Y )
+
tem-se
E (X) =
E X2 =
V (X) =
E (Y ) =
E Y2 =
V (Y ) =
E (XY ) =
cov (X, Y ) =
1
MX (u) |u=0 =
u
3
1
2
MX (u) |u=0 =
2
u
6
2
1
2
E X E (X) =
18
2
MY (v) |v=0 =
v
3
2
1
MY (v) |v=0 =
2
v
2
2
1
E Y E 2 (Y ) =
18
2
1
M(X,Y ) (u, v)
(u,v)=(0,0) =
uv
4
1
E (XY ) E (X) E (Y ) =
36
Probabilidades e Estatstica I
96
&
Conclus
ao, =
1
3
(1, 2) e =
1
36
%
2 1
.
1 2
97
Anexo A
Transforma
c
oes de vectores aleat
orios
Admitamos que (X1 , X2 , . . . , Xm ) e um ve.a. de dimensao m 1, absolutamente contnuo com densidade
de probabilidade conjunta f(X1 ,X2 ,...,Xm ) e suporte
S(X1 ,X2 ,...,Xm ) = (x1 , x2 , . . . , xm ) Rm : f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) > 0 .
Consideremos o ve.a. (Y1 , Y2 , . . . , Ym ) em que as v.a.s Y1 , Y2 , . . . , Ym resultam de transformacoes
h1 , h2 , . . . , hm sobre o ve.a. (X1 , X2 , . . . , Xm ). Melhor dizendo, cada uma das transformacoes h1 , h2 , . . . , hm ,
sao funcoes de Rm em R e
Y1 = h1 (X1 , X2 , . . . , Xm )
Y2 = h2 (X1 , X2 , . . . , Xm )
..
Ym = hm (X1 , X2 , . . . , Xm )
Se as funcoes h1 , h2 , . . . , hm forem contnuas e biunvocas, entao o anterior sistema de transformacoes
pode ser traduzido por
X1 = g1 (Y1 , Y2 , . . . , Ym )
Y1 = h1 (X1 , X2 , . . . , Xm )
X2 = g2 (Y1 , Y2 , . . . , Ym )
Y2 = h2 (X1 , X2 , . . . , Xm )
..
..
.
.
Ym = hm (X1 , X2 , . . . , Xm )
Xm = gm (Y1 , Y2 , . . . , Ym )
Dena-se a matriz jacobiana J, das transformadas
(X1 , X2 , . . . , Xm )
dg
dx
d g1
d g1
d x1
1
1
.
.
.
dy
dy
d ym
dy
dy
d g21 d g22
d x12 d x22
d g2
d y1 d y2 . . . d ym d y1 d y2
J =
..
..
..
..
..
= ..
.
.
.
. .
.
d xm
d xm
d gm
d gm
d gm
.
.
.
d y1
d y2
d y1
d y2
d ym
por g1 , g2 , . . . , gm de (Y1 , Y2 , . . . , Ym ) em
...
...
..
.
...
d x1
d ym
d x2
d ym
..
.
d xm
d ym
98
Exemplo .0.6 Sejam Z1 N (0, 1) e Z2 N (0, 1) v.a.s independentes. Pretendemos deduzir a lei de
probabilidade das v.a.s Y1 = Z1 + Z2 e Y2 = Z1 Z2 e mostrar tambem que s
ao independentes.
Dada a independencia das v.a.s Z1 e Z2 a densidade de probabilidade conjunta do par aleat
orio (Z1 , Z2 )
e
2
2
z1
z2
1
1
f(Z1 ,Z2 ) (z1 , z2 ) = fZ1 (z1 ) fZ1 (z1 ) = e 2 e 2 =
2
2
1 1 (z12 +z22 )
2
e 2
, (z1 , z2 ) R
=
2
Y2 = Z1 Z2
Z2 = Z1 Y2
Z2 =
Calculemos a matriz jacobiana
7 &
6
J=
d z1
d y1
d z2
d y1
d z1
d y2
d z2
d y2
1
2
1
2
O seu determinante e dJ =
1
2
12
1
2
Y1 +Y2
2
Y1 Y2
2
1
2
1
2
12 = 12 .
Ent
ao a densidade de probabilidade conjunta do ve.a. (Y1 , Y2 ) e
f(Y1 ,Y2 ) (y1 , y2 ) = f(X1 ,X2 ) (x1 , x2 ) |dJ ) | =
1 12
e
2
1 1 12
e
2 2
y1 +y2
2
2
2
y y
+ 12 2
2 +2y 2
2y1
2
4
1
=
2
1 1 12
e
=
2 2
2
y1
y2
+ 22
2
(y1 , y2 ) R2
Vejamos agora se Y1 e Y2 s
ao v.a.s independentes. Para tal, teremos de mostrar que
f(Y1 ,Y2 ) (y1 , y2 ) = fY1 (y1 ) fY2 (y2 ) ,
Ora
2
y1
y2
+ 22
2
(y1 , y2 ) R2 .
1 1
1 1 1 y12 1 y22
e
e 2 2e 2 2 =
=
2 2
2 2
2
2
y
y
1
1
12 1
12 2
2
2
=
e
e
2 2
2 2
12
fY1 (y1 )
fY2 (y2 )
sendo fY1 (y1 ) a densidade de probabilidade de uma lei N (0, 2) e fY2 (y2 ) a densidade de probabilidade de
uma lei N (0, 2).
Resumindo, as v.a.s Z1 + Z2 e Z1 Z2 s
ao independentes, Z1 + Z2 N (0, 2) e Z1 Z2 N (0, 2).
Lista de Figuras
3.1
3.2
3.3
3.4
3.5
3.6
3.7
5.1
99
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
45
47
48
48
49
50
51