Vous êtes sur la page 1sur 100

Probabilidades e Estatstica I

Ano Lectivo 2005/2006

Conte
udo
1 TEORIA DAS PROBABILIDADES
1.1 Experiencia aleatoria; Universo e acontecimento
1.2 Axiom
atica de Kolmogorov . . . . . . . . . . .
1.2.1 Caso nito . . . . . . . . . . . . . . . .
1.2.2 Caso geral . . . . . . . . . . . . . . . . .

1.3 Algebra
de Borel . . . . . . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

3
. 3
. 8
. 8
. 11
. 13

2 PROBABILIDADE CONDICIONADA
2.1 Denicao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Propriedades da probabilidade condicionada . . . . . . . . . . . . .
2.3 Independencia estocastica de acontecimentos . . . . . . . . . . . .
2.3.1 Independencia de uma famlia nita de acontecimentos . . .
2.3.2 Independencia de uma famlia numer
avel de acontecimentos

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

14
14
15
19
19
22

DE DISTRIBUIC

3 VARIAVEL
ALEATORIA
E FUNC
AO
AO
3.1 Vari
avel aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Vari
avel aleatoria e funcao mensuravel . . . . . . . . . . . .
3.2 Funcao de distribuicao . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Classicacao das leis de probabilidade sobre R . . . . . . . . . . .
3.3.1 Leis discretas . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Leis contnuas . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.3 Leis mistas . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

25
25
27
29
33
33
41
53

4 LEIS DE PROBABILIDADE SOBRE Rm


4.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Funcao de distribuicao de uma lei de probabilidade sobre Rm . . . . . . .
4.3 Caracterizacao das leis de probabilidade sobre Rm . . . . . . . . . . . . .
4.3.1 Leis de probabilidade discretas sobre Rm . . . . . . . . . . . . . . .
4.3.2 Leis de probabilidade contnuas sobre Rm . . . . . . . . . . . . . .
4.4 Independencia de v.a.s . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5 Leis condicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5.1 Caso em que X e um vector aleatorio discreto . . . . . . . . . . . .
4.5.2 Caso em que (X, Y ) e um vector aleatorio absolutamente contnuo
4.6 Duas transformacoes importantes de um ve.a. . . . . . . . . . . . . . . . .
4.7 Casos importantes de leis de probabilidade em Rm . . . . . . . . . . . . .
4.7.1 Leis discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7.2 Leis absolutamente contnuas . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

55
55
56
58
58
59
62
67
67
68
69
69
69
70

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

Probabilidades e Estatstica I
5 Momentos
5.1 Valor Medio ou Esperanca Matematica . . . . . . . . . . . .
5.1.1 Propriedades do valor medio . . . . . . . . . . . . .
5.2 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Vari
ancia e desvio-padr
ao . . . . . . . . . . . . . . . . . . .
5.3.1 Propriedades da vari
ancia . . . . . . . . . . . . . . .
5.4 Desigualdade de Tchebychev . . . . . . . . . . . . . . . . .
5.5 Momentos de vectores aleatorios . . . . . . . . . . . . . . .
5.5.1 Vector medio . . . . . . . . . . . . . . . . . . . . . .
5.5.2 Valor medio de uma funcao real de um ve.a. . . . . .
5.5.3 Covari
ancia e correlacao de duas vari
aveis aleatorias
5.5.4 Matriz de covari
ancias . . . . . . . . . . . . . . . . .
5.5.5 Valor medio condicional . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

71
71
74
75
78
78
79
80
80
80
82
86
87

6 Fun
c
ao geradora de momentos
6.1 Denicao de funcao geradora de momentos de um ve.a. X em Rm . . . . . . . . . . . . . .
6.2 Propriedades da funcao geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . .
6.3 Caracterizacao da funcao geradora de momentos das margens e de sub-vectores de um ve.a.
6.4 A funcao geradora de momentos e a independencia de v.a.s . . . . . . . . . . . . . . . . . .
6.5 A funcao geradora de momentos de uma combinacao linear de v.a.s . . . . . . . . . . . . .
6.6 A funcao geradora de momentos e os momentos de um ve.a. . . . . . . . . . . . . . . . . . .

.
.
X
.
.
.

90
90
91
91
92
92
94

Anexo A: Transforma
c
oes de vectores aleat
orios

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

98

Captulo 1

TEORIA DAS PROBABILIDADES


1.1

Experi
encia aleat
oria; Universo e acontecimento

A teoria das probabilidades ocupa-se dos metodos de an


alise que sao comuns ao estudo dos fen
omenos
aleatorios seja qual for o campo a que pertencam. Justica-se assim, a introducao da teoria da probabilidade
como teoria matematica dos fenomenos aleatorios, isto e, dos fen
omenos sujeitos ao acaso.
Vamos estudar os fenomenos aleatorios fazendo apelo ao conceito emprico de experienciaaleatoria.
Entendemos experienciacomo qualquer processo ou conjunto de circunst
ancias capaz de produzir resultados observ
aveis. Quando o processo esta sob a inuencia de factores casuais (ou seja de factores que nao
podemos controlar) e conduz a resultados incertos fala-se em experiencia aleatoria.
Para uma melhor formalizacao,
Deni
c
ao 1.1.1 Uma experi
encia aleat
oria apresenta as seguintes caractersticas fundamentais:
1. Pode repetir-se uma grande n
umero de vezes nas mesmas condico
es ou pelo menos em condic
oes muito
semelhantes;
2. Cada vez que se repete obtem-se um resultado individual, mas nunca h
a conhecimento suficiente para
prever exactamente esse resultado mesmo que se desenvolvam todos os esforcos para manter sob controlo as condic
oes relevantes;
3. Enquanto os resultados individuais se mostram irregulares a ponto de iludir qualquer tentativa de
previs
ao exacta, te-se verificado que os resultados obtidos ao cabo de uma longa serie de repetic
oes
patenteiam uma regularidade estatstica quando tomados em conjunto.
Exemplo 1.1.2 S
ao exemplos de experiencia aleat
oria:
lancamento de um dado e registo do n
umero de pintas da face virada para cima;
registo das caractersticas de uma carta retirada ao acaso de um baralho;
anotac
ao do sexo de uma crianca numa sucess
ao de nascimentos;
registo do tempo de vida num dado conjunto de pessoas;
registo do n
umero de sinistros por ap
olice do ramo autom
ovel, em tres anos consecutivos, em dada
companhia de seguros
O resultado obtido quando se realiza uma experiencia aleatoria pode representar-se por:
3

Probabilidades e Estatstica I

um n
umero ou grupo de n
umeros;
um atributo ou grupo de atributos;
uma combinacao de registos quantitativos e qualitativos.
Na maioria das vezes nao estamos interessados na descricao completa do resultado observado, sendo
apenas importante o registo de algumas caractersticas consideradas relevantes para um objectivo nal.
Considerem-se, entao, as caractersticas interessantes associadas a uma dada experiencia aleatoria.
Deni
c
ao 1.1.3 Denomina-se espa
co de resultados ou universo o conjunto fundamental (n
ao vazio)
constitudo por todos os resultados que e possvel obter quando se efectua a experiencia aleat
oria. Este espaco
de resultados representa-se por . Os resultados individuais s
ao os pontos ou elementos .
Se tem um n
umero nito ou innito numer
avel de elementos fala-se em espaco de resultados discreto;
se e um conjunto transnumer
avel, sendo aqui mais importante o caso = Rk , k 1, fala-se em espaco
de resultados contnuo.
Exemplo 1.1.4
Na experiencia que consiste no lancamento de uma moeda e registo do tipo de face
virada para cima, o espaco de resultados e = {F, C}, onde F representa a sada de face e C a
sa
da de coroa. Tratando-se do lancamento de duas moedas, = {F F, F C, CF, CC}.
Em dois lancamentos de um dado ordin
ario em que queremos registar o n
umero de pintas da face
virada para cima, o espaco de resultados e = {(i, j) : i, j = 1, 2, 3, 4, 5, 6} com um total de 6 6 = 36
elementos.
O lancamento de uma moeda seguido do lancamento de um dado e uma experiencia aleat
oria cujo
espaco de resultados e = {F 1, F 2, F 3, F 4, F 5, F 6, C1, C2, C3, C4, C5, C6} com um total de 2 6 =
12 elementos.
A combinac
ao de N experiencias aleat
orias com espaco de resultados, respectivamente 1 , 2 , . . . , N
e uma experiencia aleat
oria cujo espaco de resultados e o produto cartesiano = 1 2 . . . N .
Se 1 tem m1 elementos, 2 tem m2 elementos, . . . N tem mN elementos, ent
ao ter
a m1 m2
. . . mN elementos.
Se a combinac
ao envolve N experiencias identicas, isto e, se consiste na repetica
o por N vezes da
mesma experiencia, com espaco de resultados , ent
ao o espaco de resultados final e N = . . ..
a mN elementos.
Se tem m elementos, N ter
Para o transplante de medula num dado indivduo e difcil encontrar um dador compatvel. Imagine-se
a experiencia que consiste em pesquisar os dadores volunt
arios, um a um, ate se encontrar um caso
compatvel. Se designarmos por C um caso compatvel e por C umcaso n
ao compatvel, podemos
C CC,
C C CC,
. . . Este espaco tem um n
admitir que o espaco de resultados e = C, CC,
umero
infinito numer
avel de elementos.
A observac
ao do tempo de vida humana e uma experiencia aleat
oria com espaco de resultados contnuo,
+
= {x : x > 0} = R .
A observac
ao do tempo de vida de um casal (marido e mulher) e uma experiencia aleat
oria com espaco
2
+
de resultados contnuo, = {(x, y) : x > 0, y > 0} = R
Deni
c
ao 1.1.5 Os subconjuntos do espaco de resultados designam-se por acontecimentos; Os subconjuntos de constitudos por um u
nico elemento, isto e, {} dizem-se acontecimentos elementares.

Probabilidades e Estatstica I

Repare que, como qualquer conjunto e subconjunto de si pr


oprio, e um acontecimento.
Deni
c
ao 1.1.6 Ao realizar-se a experiencia aleat
oria associada a um espaco de resultados , diz-se que
o acontecimento A, A , se realiza se o resultado da experiencia e um elemento que pertence a A.
Exemplo 1.1.7 No exemplo dos dois lancamentos de uma moeda, = {F F, F C, CF, CC}, existem 4
acontecimentos elementares, {F F }, {F C}, {CF } e {CC} e s
ao exemplos de outros acontecimentos,
A = {F C, CF } sada de exactamente uma face ou de exactamente uma coroa;
B = {F F, F C} sada de uma face no primeiro lancamento;
C = {F C, CF, CC} sada de pelo menos uma coroa.
No exemplo do transplante de medula, o acontecimento ser
 necess
 ario pesquisar 3 dadores ate se en
a ao subconjunto C CC
e o acontecimento ser necess
ario
contrar um caso compatvel corresponder


pesquisar, no m
aximo, 3 dadores para se encontrar um caso compatvel, e represent
avel por C, CC, C CC .
muito importante estudar as relacoes que se podem estabelecer entre acontecimentos e das operacoes
E
que se podem efectuar sobre eles. Sendo os acontecimentos denidos como conjuntos e possvel fazer um
paralelismo perfeito entre a algebra de conjuntos e a algebra de acontecimentos. Contudo, face ao caracter
particular de que o conjunto acontecimentose reveste e a` denicao de realizacao de um acontecimento,
adopta-se, em alguns casos, uma nomenclatura diferente da estabelecida para a algebra de conjuntos. Vejamos alguns casos particulares:
A realizac
ao de A implica a realizac
ao de B se, e so se, todo o elemento de A e elemento de B;
escreve-se A B;
A e B s
ao acontecimentos identicos se, e so se, A B e B A, isto e, se, e so se, a realizacao de um
implica a realizacao do outro; Escreve-se A = B;
A intersecca
o dos acontecimentos A e B e o acontecimento que se realiza se, e so se, A e B se realizam
conjuntamente. O acontecimento interseccao representa-se por A B e e formado pelos elementos
comuns a A e B;
A uni
ao dos acontecimentos A e B e o acontecimento que se realiza se, e so se, A ou B se realizam. O
acontecimento uniao representa-se por A B e e formado pelos elementos que pertencem a A ou que
pertencem a B;
O acontecimento diz-se o acontecimento impossvel ;
A e B dizem-se acontecimentos mutuamente exclusivos se a sua interseccao e o acontecimento impossvel, isto e, se, e so se, A B = ;
O acontecimento diz-se o acontecimento certo;
A diferenca entre A e B e o acontecimento que se realiza se, e so se, B se realiza sem que se realize
A. O acontecimento diferenca representa-se por B A e e formado pelo elementos tais que B
e
/ A.
O complementar de A e o acontecimento que se realiza se nao se realizar o acontecimento A. O
acontecimento complementar representa-se por Ac ou por A e e formado pelos elementos de que nao
pertencem a A, isto e, A = A. Evidentemente, A A = e A A = .
ou seja, B A = B A.

Nota: O acontecimento diferenca entre A e B tambem se pode escrever B A,

Probabilidades e Estatstica I

Exerccio 1.1.8 Sejam A, B e C acontecimentos de . Aplique as operaco


es da
algebra de acontecimentos
para representar os acontecimentos:
a) apenas ocorrencia de A;
b) ocorrencia de pelo menos um dos acontecimentos;
c) ocorrencia de um e um s
o dos acontecimentos;
d) ocorrencia de exactamente dois dos acontecimentos.
Exerccio 1.1.9 Uma caixa contem 20 fichas cada uma das quais corresponde a uma empresa. A experiencia aleat
oria que consiste em retirar uma ficha ao acaso tem espaco de resultados
= {i : i = 1, 2, . . . , 20} Considerem-se os acontecimentos:
A1 = {1 , 4 , 5 , 6 , 15 } empresas com 100 empregados ou menos;
ao mais de
A2 = {2 , 3 , 9 , 14 , 17 , 18 , 19 , 20 } empresas com mais de 100 empregados mas n
200 empregados;
A3 = {7 , 8 , 10 , 11 , 12 , 13 , 16 } empresas com mais de 200 empregados;
B1 = {10 , 14 , 20 } empresas com resultados positivos nos dois u
ltimos anos;
B2 = {10 , 14 , 15 , 17 , 20 } empresas com resultados positivos no u
ltimo ano.
Determine os elementos e descreva os acontecimentos: A1 B1 , A2 B2 e (A1 A2 ) B2 .
Tambem convem relembrar algumas propriedades das operacoes da algebra de conjuntos, que naturalmente sao as que se denem sobre acontecimentos.
A (B C) = (A B) C
AB =BA
A (B C) = (A B) (A C)
AA=A
AB AB =B
A=
A=A

Leis de De Morgan A B = A B

Dupla nega
c
ao
A=A

Associatividade
Comutatividade
Distributividade
Idempot
encia
Absor
c
ao
Modulares

A (B C) = (A B) C
AB =BA
A (B C) = (A B) (A C)
AA=A
AB AB =A
A=A
A=

A B = A B

Propriedades sobre um qualquer n


umero nito de acontecimentos

n1 

n
n
n1




Ai =
Ai An
Ai =
Ai An
i=1
i=1
i=1
i=1
n1 
n1 
n1
n1




Ai An =
(Ai An )
Ai An =
(Ai An )
i=1

n


i=1

Ai =

n


i=1

Ai

i=1

i=1

n


i=1

Ai =

n


i=1

Ai

i=1

Opera
c
oes sobre uma innidade numer
avel de acontecimentos
Denem-se tambem operacoes sobre innidades numer
aveis de acontecimentos.
A uni
ao de A1 , A2 , . . . , An , . . . e o acontecimento que se realiza se, e so se, pelo menos um Ai se realiza,
A1 A2 . . . An . . . =


i=1

Ai

Probabilidades e Estatstica I

A interseccao de A1 , A2 , . . . , An , . . . e o acontecimento que se realiza se, e so se, todos os Ai se realizam,


A1 A2 . . .
Limite de sucess
oes de acontecimentos
Para denir a operacao de passagem ao limite, consideremos A1 , A2 , . . . , An , . . . uma sucessao numer
avel
de acontecimentos.
Ao acontecimento que se realiza quando e so quando se realiza uma innidade de acontecimentos da sucessao
chama-se limite superior da sucess
ao e representa-se por limAn . Isto e, limAn e o conjunto formado pelos
pontos que pertencem a uma innidade de acontecimentos Ai . Pode provar-se que
limAn = (A1 A2 A3 . . .) (A2 A3 A4 . . .) (A3 A4 A5 . . .) . . .
Ao acontecimento que se realiza quando e so quando se realizam todos os acontecimentos da sucessao
excepto quando muito um n
umero nito deles, chama-se limite inferior da sucess
ao e representa-se por
limAn . Isto e, limAn e o conjunto formado pelos pontos que pertencem a todos os acontecimentos da
sucessao, excepto para um n
umero nito deles. Pode provar-se que
limAn = (A1 A2 A3 . . .) (A2 A3 A4 . . .) (A3 A4 A5 . . .) . . .
Evidentemente que limAn limAn , pois se limAn , pertence a todos os termos da sucessao salvo
quando muito a um n
umero nito deles, logo pertence a innitos termos da sucess
ao, isto e, limAn .
Se limAn = limAn , ao valor comum chama-se limite da sucess
ao ou acontecimento limite.
Um caso importante de sucessoes com limite e o das sucessoes monotonas,
A1 A2 . . . An . . .

(sucessao mon
otona crescente)

A1 A2 . . . An . . .

(sucessao mon
otona decrescente)

Sucess
oes mon
otonas crescentes
Se tivermos uma sucessao mon
otona crescente A1 A2 . . . An . . ., por um lado
A1 A2 A3 . . . = A2 A3 A4 . . . = A3 A4 A5 . . . = . . .
donde limAn =

Ai

i=1

Por outro lado,


A1 A2 A3 . . . = A1 ,
donde limAn = A1 A2 . . . =

A2 A3 A4 . . . = A2 ,

A3 A3 A5 . . . = A3 , . . .

Ai .

i=1

Portanto, lim An =

Ai .

i=1

Sucess
oes mon
otonas decrescentes
Se tivermos uma sucessao mon
otona decrescente A1 A2 . . . An . . ., por um lado
A1 A2 A3 . . . = A1 ,

A2 A3 A4 . . . = A2 ,

A3 A3 A5 . . . = A3 , . . .

Probabilidades e Estatstica I

donde limAn =

Ai .

i=1

Por outro lado,


A1 A2 A3 . . . = A2 A3 A4 . . . = A3 A4 A5 . . . = . . .
donde limAn = A1 A2 . . . =

Ai .

i=1

Portanto, lim An =

Ai .

i=1

Exemplo 1.1.10
1. Considere-se, com = R, a sucess
ao de termo geral,
An = {x : 0 x 1} , se n e mpar.
An = {x : 1 x 0} , se n e par.
Tem-se
A1 A2 A3 A4 . . . = A2 A3 A4 . . . = {x : 1 x 1}
e
A1 A2 A3 A4 . . . = A2 A3 A4 . . . = {0} .
Donde
limAn = {x : 1 x 1}
limAn = {0}
2. Considere-se, com = R, a sucess
ao de termo geral,
An = {x : n x 0} , se n e mpar.
An = {x : 1/n x n} , se n e par.
Neste caso, limAn = e limAn = .

1.2
1.2.1

Axiom
atica de Kolmogorov
Caso finito

A probabilidade e uma funcao P (), mais precisamente e uma funcao de conjunto. Isto e, a cada conjunto
(acontecimento) A faz corresponder um n
umero real que e a sua probabilidade. Como funcao de
conjunto, e tal como acontece, por exemplo, com as funcoes reais de variavel real, e necessario estabelecer o
respectivo domnio, ou seja, a classe de conjuntos de para os quais P () e denida.
Deni
c
ao 1.2.1 Uma classe n
ao vazia de conjuntos F diz-se uma a
lgebra (ou um corpo) se, e s
o se, verifica
as seguintes propriedades:

Probabilidades e Estatstica I

1. A F A F;
2. A F, B F A B F.
Nota: Quando e nito, uma algebra e uma classe adequada para domnio da funcao de conjunto
P () porque inclui todos os acontecimentos que tem interesseem serem probabilizados. De facto, as duas
propriedades de uma algebra, permitem que nela se incluam os acontecimentos , , os complementares, as
uni
oes e as interseccoes.
Deni
c
ao 1.2.2 Ao par (, F) em que F e uma a
lgebra de acontecimentos de , chamamos espa
co de
acontecimentos.
Das propriedades de uma algebra de acontecimentos para corpo de conjuntos resulta que:
Proposi
c
ao 1.2.3 Se (, F) e um espaco de acontecimentos ent
ao
1. F.
2. Se A F e B F ent
ao A B F.
3. F.
ao A B F.
4. Se A F e B F ent
5. Se A F e B F ent
ao (A B) (B A) F.
Nota: Em geral F e a algebra de todos os subconjuntos de , isto e, F = P ().
Vejamos entao o sistema de axiomas introduzido por Kolmogorov na sua vers
ao para o caso em que e
nito.
Deni
c
ao 1.2.4 Axiomas das probabilidades (caso finito):
Seja (, F) um espaco de acontecimentos. P e uma probabilidade sobre (, F) se P e uma func
ao real
definida sobre F verificando os seguintes axiomas:
P1 A F, P (A) 0;
P2 P () = 1;
P3 A, B F e A B = ,

P (A B) = P (A) + P (B).

Observa
c
oes:
1. O axioma P3 e muitas vezes designado por axioma da aditividade.
2. A denicao de probabilidade segundo Kolmogorov abrange o conceito frequencista de probabilidade.

Probabilidades e Estatstica I

10

3. A denicao de probabilidade segundo Kolmogorov inclui a denicao classica de Laplace. Segundo


Laplace, se e constitudo por um n
umero finito de resultados igualmente possveis, ent
ao a probabilidade de ocorrencia de um acontecimento A e o quociente entre o n
umero de casos favor
aveis `
a
ocorrencia de A e o n
umero de casos possveis de observar na experiencia. Analisemos com mais
detalhe este conceito de Laplace para a probabilidade. O que ele nos diz e que,
Se e nito e n
ao vazio e considerarmos a algebra das partes de , P (), a probabilidade de um
acontecimento A P () dene-se por
P (A) =
# e a funcao

#A
#
cardinal, denida por #B = no de elementos do conjunto B.

A funcao probabilidade que acabamos de denir axiomaticamente goza de um certo n


umero de propriedades elementares, que sao consequencia imediata da axiom
atica, e que passamos a detalhar.
Proposi
c
ao 1.2.5 Propriedades da func
ao probabilidade:

1. P A = 1 P (A).
2. P () = 0
3. Se A B P (A) P (B)
4. P (A) 1

5. Se Ai Aj = , i = j P

6. P

n


i=1


Ai

i=1


Ai

n


P (Ai )

i=1

P (Ai )

i=1

7. P (A B) = P (A) P (A B)
8. Se A B = P (B A) = P (B) P (A)
9. P (A B) = P (A) + P (B) P (A B)
10. F
ormula de Poincare:

n
n


Ai =
P (Ai )
P
i=1

i=1

1i<jn


n1

P (Ai Aj ) + . . . + (1)

n



Ai

i=1

11. Desigualdade de Boole:


max (0, P (A) + P (B) 1) P (A B) min (P (A) , P (B))
ao P (A) = pi1 + . . . + pik
12. Seja = {1 , . . . , N } e pi = P (i ) , i = 1, . . . , N . Se A = {i1 , . . . , ik } ent

Probabilidades e Estatstica I

1.2.2

11

Caso geral

Quando tem innitos elementos, o conjunto de axiomas P1-P3 revela-se insuciente para a construcao de
um modelo matematico que seja potente para lidar com todos os acontecimentos que se podem considerar.
O exemplo que se segue tenta ilustrar algumas dessas insuciencias.
Exemplo 1.2.6 Uma experiencia aleat
oria consiste no lancamento de uma moeda ate que apareca a face
cara. Convencionando que o natural n significa que a face caraapareceu pelo 1a vez no n-esimo
lancamento, o espaco de resultados pode representar-se por = {1, 2, 3, 5, . . .}. Considere-se em a classe
F composta pelo conjunto , por todos os conjuntos finitos de e pelos respectivos complementares. Sem
dificuldade, podemos mostrar que F e uma a
lgebra. Contudo e simples imaginar acontecimentos interessantes que n
ao pertencem a F. Por exemplo, o acontecimento A-a face carasai pela primeira vez num
lancamento de ordem mpar. A = {1, 3, 5, . . .} e n
ao pertence a F, pois n
ao e finito nem e complementar
de um conjunto finito. No entanto, A pode expressar-se como a uni
ao infinita de elementos de ,
A=

{2i 1}

i=1

Parece assim, ser necess


ario considerar como acontecimentos a probabilizar, aqueles que correspondem
a uni
oes infinitas numer
aveis de acontecimentos.
Continuando o nosso exemplo, suponhamos que, para i = 1, 2, 3, . . ., conhecemos pi = P ({i}) =
P (sair carano i-esimo lancamento).
Como calcular P (A)?
Ser
a natural esperar que
+

P ({2i 1})
P (A) =
i=1

Mas, para o c
alculo de P (A), esta serie n
ao se pode justificar pelos axiomas P1-P3.
O exemplo ilustra a ideia de que, caso seja innito, existem acontecimentos interessantes que se
exprimem pela uni
ao nita de acontecimentos, e que, nesse caso precisamos de saber como calcular a
respectiva probabilidade.
Comecemos por alargar a classe de acontecimentos aos quais podemos aplicar a funcao probabilidade.
Deni
c
ao 1.2.7 Uma classe n
ao vazia de conjuntos F diz-se uma -
algebra (ou um -corpo) se, e s
o se,
verifica as seguintes propriedades:
1. A F A F;
2. Ai F, i = 1, 2, 3, . . .

Ai F.

i=1

Deni
c
ao 1.2.8 Ao par (, F) em que F e uma -
algebra de acontecimentos de , chamamos espa
co de
acontecimentos.
Podemos agora denir o conjunto de axiomas de Kolmogorov para o caso innito.
Deni
c
ao 1.2.9 Axiomas das probabilidades (caso geral):
Seja (, F) um espaco de acontecimentos. P e uma probabilidade sobre (, F) se P e uma func
ao real
definida sobre F verificando os seguintes axiomas:

Probabilidades e Estatstica I

12

P1 A F, P (A) 0;
P2 P () = 1;
P3* Para toda a sucess
ao de acontecimentos An , em que Ai Aj = , i = j




An =
P (An ) .
P
nN

nN

Ao terno (, F, P ) chamamos espa


co de probabilidade.
O axioma P3* e conhecido por axioma da -aditividade.
Como e not
orio o axioma P3 e uma particularizacao do axioma P3*. Como tal, com este novo sistema
de axiomas, continuam v
alidas as propriedades enunciadas na proposicao 1.2.5 e podemos ainda apresentar propriedades relativas a` probabilidade de acontecimentos que resultam de operacoes numeraveis e de
passagens ao limite.
Proposi
c
ao 1.2.10 Sub--aditividade
ao numer
avel de acontecimentos ent
ao
Se (An )nN e uma sucess




An
P (An )
P
nN

nN

Relativamente `a passagem ao limite


ao mon
otona de acontecimentos,
Proposi
c
ao 1.2.11 Sendo (An )nN uma sucess
P (lim An ) = lim P (An )
n

Demonstracao: Se a sucessao (An )nN e monotona crescente, isto e, se A1 A2 . . . An . . ., j


a
vimos que lim An = A1 A2 A3 . . . An . . . . . ., e por sua vez
lim An = A1 A2 A3 . . . An . . . . . . = A1 (A2 A1 ) (A3 A2 ) . . . ,
com A1 , A2 A1 , A3 A2 , . . . acontecimentos mutuamente exclusivos. Logo por (P3*),
P (lim An ) = P (A1 ) + P (A2 A1 ) + P (A3 A2 ) + . . . ,
isto e,
P (lim An ) =
=

lim (P (A1 ) + P (A2 A1 ) + . . . + P (An An1 )) =

lim P (A1 (A2 A1 ) . . . (An An1 )) = lim P (An )

como se queria demonstrar.


ao A1 A2
Se a sucessao (An )nN e mon
otona decrescente, isto e, se A1 A2 . . . An . . ., ent

otona crescente. Assim


. . . An . . ., pelo que An nN e uma sucessao mon



P lim An = lim P An = lim (1 P (An )) = 1 lim P (An ) .
n

Probabilidades e Estatstica I

13

Mas,
lim An =

An =

nN

An lim An =

nN

An = lim An ,

nN

e, portanto,




1 lim P (An ) = P lim An = P lim An = 1 P (lim An )
n

Para sucessoes nao mon


otonas, mas que tenham limite, a proposicao 1.2.11 e ainda v
alida.
Proposi
c
ao 1.2.12 Sendo (An )nN uma sucess
ao de acontecimentos, e existindo o respectivo limite,
P (lim An ) = lim P (An )
n

1.3

Algebra
de Borel

J
a foi dito, que no caso de ser nito, o mais habitual e considerar para domnio de P () a algebra correavel,
spondente a` classe das partes de , P () (constituda por 2 elementos). Quando e innito numer
podemos ainda considerar a -algebra que se identica com a classe das partes de , para domnio de P ().
Quando e innito transnumer
avel, a classe das partes de e ainda uma -algebra. Contudo, esta e
demasiado rica e pode nao ser possvel atribuir uma probabilidade, de modo compatvel com a axiomatica,
a todo e qualquer A P (). Por isso, e habitual, a teoria das probabilidades se aplicar a uma -algebra
mais restrita, digamos F, constituda apenas pelos conjuntos de probabiliz
aveis e so a estes atribumos a
designacao de acontecimentos.
Um caso particular, de grande import
ancia, e aquele em que = R (Rk ). Nesta situacao, a funcao probabilidade tem por domnio a designada -algebra de Borel em R (Rk ), que se representa por B. A -algebra
de Borel contem os conjuntos (acontecimentos) de maior importancia em quase todas as aplicacoes, isto e,
os intervalos abertos, semi-abertos, fechados (nitos ou innitos), as uni
oes nitas ou innitas numer
aveis
daqueles, as interseccoes nitas ou innitas numer
aveis dos mesmos e os complementares.

Captulo 2

PROBABILIDADE CONDICIONADA
2.1

Defini
c
ao

Exemplo 2.1.1 Considere a experiencia aleat


oria que consiste em retirar uma carta de um baralho, n
ao
viciado, com 52 cartas.
O modelo de probabilidade (, F, P ) associado a esta experiencia pode definir-se por
= {cartas do baralho}
F = P ()
A F,

P (A) =

#A
#

ao equiprov
aveis.
uma vez que tem um no finito de elementos e os resultados elementares s
Consideremos os acontecimentos:
A-sada de `
as
C-sada de copa
R-sada de rei
Evidentemente,
P (A) =

1
4
=
52
13

P (C) =

13
1
=
52
4

P (R) =

4
1
=
52
13

Suponhamos que um jogador menos honesto viu que a carta seleccionada e uma figura, isto e, um rei, um
valete ou uma dama.
H
a assim, para este jogador, um dado novo: ele sabe que ocorreu o acontecimento F -sada de figura.
Para ele, o conhecimento da ocorrencia de F , condiciona a probabilidade de observac
ao dos acontecimentos A, C e R.
Alem disso, o acontecimento F , que tem probabilidade de ocorrencia,
P (F ) =

12
3
=
52
13

para outro qualquer jogador, ter


a para o nosso jogador menos honesto, probabilidade 1.
Tambem para ele, os acontecimentos A, C e R passar
ao a ser,
A |F

C |F

R |F

e as respectivas probabilidades ser


ao
P (A |F ) =

0
=0
12

P (C |F ) =

3
1
=
12
4

P (R |F ) =

4
1
=
12
3

Repare que, para alguns acontecimentos, existe alteraca


o da probabilidade, tal como a nossa intuic
ao indicaria, mas para outros, como C no nosso exemplo, n
ao se regista alterac
ao.
14

Probabilidades e Estatstica I

15

Para este jogador menos honesto, o modelo de probabilidade associado ao espaco de acontecimentos
(, F), ser
a
A F,

P (A |F ) =

# (A F )
#F

bem definido, pois #F = 0.


Deni
c
ao 2.1.2 Seja (, F, P ) um espaco de probabilidade e seja B um acontecimento de F com probabilidade
n
ao nula. Chama-se probabilidade condicionada por B `
a funca
o P ( |B ) definida sobre F por
A F,

P (A |B ) =

P (A B)
P (B)

P (A |B ) le-se probabilidade de A condicionada por B ou probabilidade condicional de A dado B.

2.2

Propriedades da probabilidade condicionada

Teorema 2.2.1 Dado um espaco de probabilidade (, F, P ) e fixado um acontecimento B F, tal que


P (B) > 0, ent
ao a func
ao
P ( |B ) :

F [0, 1]
A P (A |B )

e uma probabilidade e (, F, P ( |B )) e um espaco de probabilidade.


Demonstracao:
1. A F, dado que A B F, ent
ao por P1, P (A B) > 0 e como P (B) > 0, ent
ao P (A |B ) > 0.
2. P ( |B ) =

P (B)
P ( B)
=
=1
P (B)
P (B)

3. Seja (An )nN uma sucessao de elementos de F, mutuamente exclusivos. Ent


ao a sucessao (An B)nN
e uma sucessao de elementos de F, mutuamente exclusivos. Assim, pelo axioma P 3,
 






P
nN An B
nN (An B)
=
=
An |B =
P
P (B)
P (B)
nN

P (An B)
P (An B)

=
=
P (An |B )
= nN
P (B)
P (B)
nN

nN

Se P ( |B ) e uma medida de probabilidade, ent


ao todas as propriedades j
a demonstradas para uma
medida de probabilidade, podem ser de novo utilizadas. A ttulo de exemplo:


1. P A |B = 1 P (A |B ) , A F
2. P (A C |B ) = P (A |B ) + P (C |B ) P (A C |B )
Teorema 2.2.2 (Teorema da probabilidade composta) Dado um espaco de acontecimentos (, F) e
ao
n 2 acontecimentos A1 , A2 , . . . , An tais que P (A1 A2 . . . An1 ) > 0, ent

 n1 
n



Ai = P (A1 ) P (A2 |A1 ) P (A3 |A1 A2 ) . . . P An
Ai
P

i=1

i=1

Probabilidades e Estatstica I

16

Demonstracao: Para n = 2, com P (A1 ) > 0, pela denicao de probabilidade condicionada e imediato
que
P (A1 A2 ) = P (A1 ) P (A2 |A1 )
Admitamos que a tese e valida para k > 2, k N, isto e, que

 k1 
 k



Ai = P (A1 ) P (A2 |A1 ) . . . P Ak
Ai
P

i=1

i=1

desde que P (A1 A2 . . . Ak1 ) > 0.


Admitindo que P (A1 A2 . . . Ak ) > 0, a denicao de probabilidade condicionada e aplicacao da
hip
otese de inducao,
k
 k
 

k+1 




Ai
Ai P Ak+1 Ai
= P
P

i=1
i=1
i=1
k




= P (A1 ) P (A2 |A1 ) . . . P Ak+1 Ai

i=1

Nota: A validade de P (A1 A2 . . . An1 ) > 0 assegura a boa denicao de todas as probabilidades
condicionadas envolvidas. De facto,
(A1 A2 . . . An1 ) (A1 A2 . . . An2 ) . . . (A1 A2 ) A1
logo
0 < P (A1 A2 . . . An1 ) P (A1 A2 . . . An2 ) . . . P (A1 )

Exemplo 2.2.3 Pela experiencia adquirida em anos anteriores e expectativas para o pr


oximo ano, um
gestor, atribui probabilidades a diferentes hip
oteses sobre o volume de vendas em cada ano:
P (H1 ) = 1/6 H1 -vendas inferiores a 100 unidades
P (H2 ) = 1/2 H2 -vendas entre 100 e 200 unidades
P (H3 ) = 1/3 H3 -vendas superiores a 200 unidades
A verificar-se o caso mais desfavor
avel, decide-se por lancar uma campanha publicit
aria visando o aumento da procura. Contudo para o financiamento dessa campanha, decide pedir um emprestimo banc
ario,
que lhe poder
a ser concedido (E) ou n
ao. Este gestor sabe que a concess
ao do emprestimo e condicionada
pelo volume de vendas do u
ltimo ano, e que P (E |H1 ) = 1/5.
Qual a probabilidade de no pr
oximo ano ter vendas inferiores a 100 unidades e ter conseguido o emprestimo
requerido.
Qual a probabilidade de no pr
oximo ano ter vendas inferiores a 100 unidades e n
ao ter conseguido o
emprestimo requerido.
Exemplo 2.2.4 Um lote de 30 pecas contem 10 defeituosas. Retirando-se ao acaso, sucessivamente sem
reposic
ao, 3 pecas, qual a probabilidade de que todas sejam n
ao defeituosas? E qual a probabilidade da 1a e
a
a
3 serem n
ao defeituosas e a 2 ser defeituosa?

Probabilidades e Estatstica I

17

Deni
c
ao 2.2.5 Diz-se que uma sucess
ao de subconjuntos (An )nN de um conjunto , constitui uma
parti
c
ao de , se forem disjuntos dois a dois e a sua uni
ao coincide com , ou seja, se

Ai Aj = , i = j
An =
nN

Teorema 2.2.6 (Teorema da probabilidade total) Seja (, F, P ) um espaco de probabilidade e (An )nN
uma sucess
ao de acontecimentos em F constituindo uma partica
o de . Suponha que P (An ) > 0, n N.
Ent
ao dado um qualquer acontecimento B F,
P (B) =

P (B |An ) P (An )

n=1

Demonstracao: Comecamos por constatar que


B=

(B An )

e que

(B Ai ) (B Aj ) = , i = j

n=1

Ent
ao

P (B) = P

n=1


(B An )

P (B An ) =

n=1

P (B |An ) P (An )

n=1

Exemplo 2.2.7 Considerem-se tres urnas com a seguinte composic


ao:
Urna 1 - 1 bola branca e 2 bolas azuis;
Urna 2 - 2 bolas brancas e 1 bola azul;
Urna 3 - 3 bolas brancas e 3 bolas azuis,
e a experiencia aleat
oria assim descrita:

E feito o lancamento de um dado n


ao viciado. Se o no de pintas observado na face virada para cima for:
1,2 ou 3, selecciona-se ao acaso uma bola da urna 1;
4, selecciona-se ao acaso uma bola da urna 2;
5 ou 6, selecciona-se ao acaso uma bola da urna 3.
Qual a probabilidade de, no final, se observar uma bola de cor branca?
Considerem-se os acontecimentos:
U1 selecc
ao da urna 1;
U2 selecc
ao da urna 2;
U3 selecc
ao da urna 3;
B sada de bola branca.
P (U2 ) = 1/6
P (U3 ) = 2/6
P (U1 ) = 3/6
Desde logo, sabemos que
P (B |U1 ) = 1/3 P (B |U2 ) = 2/3 P (B |U3 ) = 1/2
o do universo,
Dado que U1 , U2 e U3 constituem uma partica
P (B) = P (B U1 ) + P (B U2 ) + P (B U3 )
= P (B |U1 ) P (U1 ) + P (B |U2 ) P (U2 ) + P (B |U3 ) P (U3 ) =
= 4/9

Probabilidades e Estatstica I

18

Exemplo 2.2.8 Suponha uma qualquer famlia seleccionada ao acaso, tem n filhos com probabilidade pn ,
n = 0, 1, 2, . . . , 0 < p < 1. Por sua vez, numa famlia com
o n
umero dos que tem olhos azuis, e
n filhos,
nk
n k
aleat
orio e a probabilidade de assumir um valor k e de k b (1 b)
, k = 0, 1, 2, . . . , n, 0 < b < 1.
1. Qual o valor de , se conhecer o valor de p?
2. Qual a probabilidade de uma qualquer famlia ter m filhos de olhos azuis?
Considerem-se os acontecimentos:
Fn - famlia com n filhos, n = 0, 1, 2, . . .;
Ak - famlia com k filhos de olhos azuis, k = 0, 1, 2, . . ..
P (Fn ) = pn , n = 0, 1, 2, . . . , 0 < p < 1
 
n k
b (1 b)nk , k = 0, 1, 2, . . . , n,
P (Ak |Fn ) =
k

0<b<1

ao do universo das famlias.


(Fn )nN0 e uma partic
1.
1 = P () =

P (Fn ) =

n=0

n=0

pn =

=1p
1p

2.
P (Am ) =

P (Am |Fn ) P (Fn ) =

n=m



n m
b (1 b)nm (1 p) pm =
=
m
n=m
m


 
n
b
((1 b) p)n =
= (1 p)
m
1b
n=m
= (1 p) (bp)m

m + (1 b) p m (1 b) p
m (1 (1 b) p)2

 

i i
k + p kp
p = pk
Nota:
k
k (1 p)2
i=k

Teorema 2.2.9 (Teorema de Bayes) Nas mesmas condico


es do teorema da probabilidade total, consideremos um acontecimento B F, tal que P (B) > 0. Ent
ao
P (B |Ai ) P (Ai )
,
P (Ai |B ) =
n=1 P (B |An ) P (An )

i = 1, 2, . . .

Demonstracao: A demonstracao e imediata a partir do teorema da probabilidade composta e do teorema


da probabilidade total
Exemplo 2.2.10 Consideremos o pen
ultimo exemplo. Sabendo unicamente que a bola seleccionada e de
cor branca, qual a probabilidade de se terem observado quatro pintas no lancamento do dado?
P (U2 |B ) =

1
P (B |U2 ) P (U2 )
=
P (B)
4

Probabilidades e Estatstica I

2.3

19

Independ
encia estoc
astica de acontecimentos

2.3.1

Independ
encia de uma famlia finita de acontecimentos

Seja (, F, P ) um espaco de probabilidade.


Intuitivamente, dizemos que dois acontecimentos sao independentes se a realizacao de um deles nao
altera a probabilidade de realizacao do outro, isto e, se A e B sao elementos de F tais que P (A) > 0 e
P (B) > 0 (P (A) P (B) > 0), ent
ao
P (A |B ) = P (A)

P (B |A ) = P (B) ,

o que implica que


P (A B) = P (A) P (B) .
ao
Mas tambem, se A e B sao acontecimentos tais que P (A) P (B) > 0 e P (A B) = P (A) P (B), ent
P (A |B ) = P (A)

P (B |A ) = P (B) .

Deni
c
ao 2.3.1 Os acontecimentos A e B de um espaco de acontecimentos (, F, P ) dizem-se estocasticamente independentes (ou apenas independentes) se
P (A B) = P (A) P (B) .
Nota: Esta denicao permite concluir que a independencia de dois acontecimentos e equivalente a
P (A |B ) = P (A) e P (B |A ) = P (B), desde que P (A) P (B) > 0.
Exemplo 2.3.2 Exerccio 47
Exemplo 2.3.3 Montagem de componentes em s
erie e em cadeia
Um aparelho electr
onico tem duas componentes C1 e C2 , montadas em serie. As componentes C1 e C2
avariam-se com probabilidade p1 e p2 , respectivamente.
Qual a probabilidade de o sistema se encontrar em condicoes de funcionamento?
Como se trata de uma montagem em serie, o aparelho funciona se e s
o se ambas as componentes estiverem operacionais. Sendo F , F1 e F2 os acontecimentos que expressam o funcionamento do sistema e
das respectivas componentes, tem-se
F = F1 F2

P (F ) = P (F1 F2 )

e a informac
ao fornecida n
ao permite ir mais alem.
Se for acrescentado que as componentes funcionam independentemente, isto e, que n
ao se avariam por
simpatia, pode escrever-se
P (F ) = P (F1 ) P (F2 ) = (1 p1 ) (1 p2 )
Se a montagem for em paralelo, para o sistema funcionar e suficiente o funcionamento de pelo menos
uma das componentes, donde, e a manter-se a independencia de funcionamento das componentes,
P (F ) = P (F1 F2 ) = P (F1 ) + P (F2 ) P (F1 F2 ) = P (F1 ) + P (F2 ) P (F1 ) P (F2 ) =
= (1 p1 ) + (1 p2 ) (1 p1 ) (1 p2 ) = 1 p1 p2
s
Proposi
c
ao 2.3.4 Se A e B s
ao acontecimentos independentes em (, F, P ), ent
ao A e B
ao tambem
independentes.

Probabilidades e Estatstica I

20

Demonstracao:



= P (A B) = P (A) P (A B) = P (A) P (A) P (B) = P (A) P B

P AB
Deni
c
ao 2.3.5 Seja (, F, P ) um espaco de probabilidade e B1 , B2 , . . . , Bn acontecimentos deste espaco.
Diz-se que B1 , B2 , . . . , Bn s
ao acontecimentos mutuamente independentes se

 r
r


Bki =
P (Bki ) .
{k1 , . . . kr } {1, . . . , n} , P
i=1

i=1

Nota: Se n acontecimentos sao mutuamente independentes, ent


ao sao independentes dois a dois. Contudo, a recproca n
ao e valida.
Exemplo 2.3.6 Consideremos um tetraedro equilibrado com uma face vermelha, outra verde, outra amarela
e outra com as tres cores anteriores. Realizemos a experiencia aleat
oria que consiste no lancamento do
tetraedro e observac
ao da face virada para baixo. Sejam A, B e C os acontecimentos:
A-observac
ao de uma face contendo vermelho;
B-observac
ao de uma face contendo verde;
C-observac
ao de uma face contendo amarelo.
A, B e C s
ao acontecimentos independentes dois a dois?
A, B e C s
ao acontecimentos mutuamente independentes?
o da independe
ncia de uma famlia finita de acontecimentos a
` custa da
Caracterizac
a
probabilidade condicionada
condic
ao
Proposi
c
ao 2.3.7 Sejam B1 , B2 , . . . , Bn acontecimentos do espaco de probabilidade (, F, P ). E
necess
aria e suficiente para que os acontecimentos B1 , B2 , . . . , Bn sejam mutuamente independentes que
j {1, . . . , n} ,

{k1 , . . . kr } ({1, . . . , n} {j}) : P (Bk1 . . . Bkr ) > 0

se tenha
P (Bj |Bk1 . . . Bkr ) = P (Bj )
Demonstracao:
Condi
c
ao necess
aria Seja j {1, . . . , n} xo arbitrariamente e {k1 , . . . kr } ({1, . . . , n} {j}) tal que
P (Bk1 . . . Bkr ) > 0.
Calculemos P (Bj |Bk1 . . . Bkr ), usando a denicao de probabilidade condicionada.

P (Bj ) ri=1 P (Bki )
P (Bj Bk1 . . . Bkr )
r
=
P (Bj |Bk1 . . . Bkr ) =
P (Bk1 . . . Bkr )
i=1 P (Bki )
porque B1 , B2 , . . . , Bn sao acontecimentos mutuamente independentes.
Condi
c
ao suciente Teremos de demonstrar que

r {1, . . . , n} , {k1 , . . . kr } {1, . . . , n} , P

r



Bki

i=1

Pelo Teorema da Probabilidade Composta, podemos dizer que, se P



P

r


i=1


Bki

r1



Bkr
Bki


= P (Bk1 ) P (Bk2 |Bk1 ) . . . P

i=1

r


P (Bki ) .

i=1

r1

i=1


Bki

> 0, ent
ao

Probabilidades e Estatstica I

a) Suponhamos que P

21


r1


> 0. Nestas condicoes, o teorema da probabilidade composta e a

Bki

i=1

hip
otese permitem que escrevamos
r1



 r
r




Bki = P (Bk1 ) P (Bk2 |Bk1 ) . . . P Bkr
Bki =
P (Bki )
P

i=1

i=1

b) Suponhamos que P

i=1

r1


= 0.

Bki

i=1
r


i) Seja P (Bk1 ) = 0. Nestas condicoes, e porque

Bki Bk1

i=1


P

r



P (Bk1 ) P

Bki

i=1

r



=0P

Bki

i=1

r



Bki

i=1

r


P (Bki )

i=1

Consequentemente, tambem neste caso se tem a igualdade pretendida.


ii) Consideremos agora t {2, . . . , r} tal que kt e o menor ndice que verica P

t



= 0.

Bki

i=1

Nestas condicoes, a hip


otese permite-nos escrever



 t
t1


=
P
Bki = P Bkt
Bki
i=1

i=1


Mas como kt e o menor ndice para o qual se verica P

t



Bki

i=1

logo

P

t


t1
 t1




Bkt Bki P
Bki =


=P

Bki

i=1

i=1

i=1

e pela nossa hip


otese


t1
 t


Bki = P (Bkt ) P
Bki
P
i=1

i=1

Ent
ao

0=P

t



Bki

= P (Bkt ) P

i=1

t1




>0

logo

P

r


i=1


Bki

r

i=1

P (Bki )

P (Bkt ) = 0

Bki

i=1

= 0, ent
ao P

t1

i=1


Bki

> 0,

Probabilidades e Estatstica I

2.3.2

22

Independ
encia de uma famlia numer
avel de acontecimentos

Deni
c
ao 2.3.8 Seja (An )nN uma sucess
ao qualquer de acontecimentos de um espaco de probabilidade
(, F, P ). Diz-se que os acontecimentos desta famlia s
ao independentes se e s
o se
 k

k


k N, {B1 , . . . , Bk } (An )nN , P
Bi =
P (Bi ) .
i=1

i=1

Proposi
c
ao 2.3.9 Se (An )nN uma sucess
ao de acontecimentos independentes de um espaco de probabilidade (, F, P ), ent
ao




An =
P (An )
P
nN

nN

Demonstracao: Relembremos o resultado da proposicao 1.2.11. Se (An ) uma sucessao mon


otona de acontecimentos de , entao
lim P (An ) = P (lim An )

assim como das denicoes de limite de sucessoes de acontecimentos.


Se (An )nN e uma sucessao de acontecimentos independentes, pela denicao verica-se

k N, P

k



Bi

i=1

k


P (Bi )

i=1

Ora a sucessao (Bk )kN , denida por Bk =

An e uma sucessao mon


otona decrescente e o seu limite,

n=1

quando k e
lim Bk =

k


Bk =

k=1


k


An =

k=1 n=1

An

n=1

Ent
ao


lim P (Bk ) = P (lim Bk ) lim P

lim

k



P (An ) = P

n=1

nN


An

k



An


=P

n=1


n=1

P (An ) = P

An

nN

An

nN

Teorema 2.3.10 (Lema de Borel-Cantelli)


a) Se (An )nN e uma sucess
ao de acontecimentos em



P (An ) < +, ent
ao P limAn = 0.
(, F, P ) tal que
n=1

ao de acontecimentos em (, F, P ) independentes tal que


b) Se (An )nN e uma sucess


ent
ao P limAn = 1.

n=1

P (An ) = +,

Probabilidades e Estatstica I

23

Demonstracao:


a) Queremos provar que P limAn = 0, ou seja, como
limAn =

Ak

(realizacao de uma innidade de acontecimentos An )

n=1 k=n

queremos provar que P


Ak

= 0.

n=1 k=n

Se denirmos a sucessao de acontecimentos (Bn )nN por Bn =

Ak , esta sucessao e monotona

k=n

decrescente. Sabemos entao que


limBn = lim Bn =

Bn

e que

P (lim Bn ) = lim P (Bn )


n

n=1

Assim


Bn


= lim P (Bn ) = lim P
n

n=1

ou ainda


P limAn = P

n=1 k=n

Ak

lim

k=n


Ak

= lim

P (Ak )

k=n

P (Ak ) = 0

k=n

porque se trata do resto de ordem n da serie convergente

P (An ).

n=1

(Acn )nN

e uma sucessao de acontecimentos independentes. Por outro lado,





 
c 
= P (limAcn ) = P
Ack
P limAn

b) Pela proposicao 2.3.4,

n=1 k=n

Como a sucessao de acontecimentos denida por Bn =


limBn = lim Bn =

Ack , n N, e crescente, entao

k=n

Bn e

n=1


P (limBn ) = P (lim Bn ) = lim P (Bn ) = lim P
n


Ack

= lim

k=n

(Ack )

k=n

Ora, 1 x ex , x R, logo
P (limBn ) lim


k=n


exp (P (Ak )) = lim exp
n

k=n


P (Ak )

=0

= lim


k=n

(1 P (Ak ))

Probabilidades e Estatstica I

24

Em resumo, como
P



limAn

c 


=P


Ack

= P (limBn ) = 0

n=1 k=n

entao


P limAn = 1
Nota: Este lema permite-nos armar que, se (An )nN e uma sucessao de acontecimentos independentes,
a probabilidade de ocorrer uma innidade desses acontecimentos n
ao pode valer sen
ao 0 ou 1. Tambem
podemos armar que a probabilidade de se realizar quando muito um n
umero nito de acontecimentos de
(An )nN e apenas 0 ou 1.
Se (An )nN e uma sucessao de acontecimentos independentes, a ocorrencia de uma innidade destes
acontecimentos e um acontecimento quase impossvel ou quase certo.
Nota: Seja (, F, P ) um espaco de probabilidade e o acontecimento A F. Se A = e P (A) = 1
entao A diz-se um acontecimento quase certo. Se A = e P (A) = 0, ent
ao A diz-se um acontecimento
quase impossvel.
Uma proposicao S, relativa a uma experiencia aleatoria descrita pelo espaco de probabilidade (, F, P ),
diz-se quase-certamente verdadeira ou que e verdadeira com probabilidade 1 se o subconjunto A de denido
por A = { : S () e verdadeira} e um acontecimento, isto e, A F e ainda, A = e P (A) = 1.

Captulo 3

VARIAVEL
ALEATORIA
E FUNC
AO

DE DISTRIBUIC
AO
3.1

Vari
avel aleat
oria

Em alguns casos os elementos do universo sao desde logo n


umeros reais ou conjuntos ordenados de n
umeros
reais. Por exemplo, a medicao de um comprimento, a temperatura m
axima registada num dia, a producao
anual de uma variedade de batata, etc. Noutros casos n
ao e um conjunto de numerico, mas o estudo
da experiencia aleatoria associada a , como por exemplo, um estudo estatstico, aconselha que se faca a
atribuicao de um valor real ou ate um conjunto de n
umeros reais a cada elemento . Esta atribuicao
pode ate ser meramente convencional.
Considere-se a funcao numerica X (), real e nita, cujo domnio e e cujo contradomnio est
a em R.
Uma tal aplicacao de em R, X : R, formaliza matematicamente a atribuicao de um n
umero real a
cada elemento de .
Por meio de k funcoes como a acima referida, X1 () , X2 () , . . . , Xk (), isto e atraves da aplicacao
(X1 , X2 , . . . , Xk ) : Rk , caracteriza-se a atribuicao de k n
umeros reais a cada elemento de .
Exemplo 3.1.1 No lancamento de uma moeda em que = {F, C}, e usual tomar X () definida pela
correspondencia, = C X (C) = 0, = F X (F ) = 1. O domnio de X e o conjunto = {F, C} e o
contradomnio o conjunto {0, 1}. Este u
ltimo facto pode assinalar-se dizendo que X assume valores x = 0, 1.
A atribuic
ao de valores numericos aos elementos de e, no caso presente, convencional.
Exemplo 3.1.2 De um lote de pecas, das quais algumas s
ao defeituosas, tiram-se ao acaso, e com reposic
ao,
a sada de uma n
tres pecas que se analisam. Seja D a sada de uma defeituosa e D
ao defeituosa. Para
espaco amostra pode considerar-se









D,
D , D,
D, D
, D, D,
D
, D,
D, D , D, D,
D , D, D, D
, (D, D, D)
D,
D
, D,
= D,
Se apenas interessa o n
umero de pecas defeituosas na amostra de tres pecas, sendo irrelevante a ordem por
que aparecam, e natural introduzir X definida pela correspondencia,








D,
D
= 0 X D,
D,
D = X D,
D, D
= X D, D,
D
=1
X D,






D = X D, D, D
= 2 X ((D, D, D)) = 3
D, D = X D, D,
X D,
O contradomnio de X e o conjunto {0, 1, 2, 3}, isto e, X pode assumir os valores x = 0, 1, 2, 3.

25

Probabilidades e Estatstica I

26

Exemplo 3.1.3 Considere-se uma populac


ao de empresas das quais se escolhe uma ao acaso. O espaco
de resultados e = {1 , 2 , . . . , m }, onde m e o n
umero de empresas na populac
ao. Podemos estabelecer
diversas correspondencias sobre :
X1 () = no de empregados na empresa ;
X2 () = encargos salariais anuais na empresa ;
X3 () = capital social da empresa ;
X4 () = volume anual de vendas da empresa .
Exemplos com este u
ltimo mostram que frequentemente n
ao interessa analisar os elementos do universo
com todos os pormenores e caractersticas subjacentes, sendo ate conveniente, abstrair de aspectos estranhos
aos prop
ositos do estudo.
Por agora, vamos apenas considerar uma propriedade ou caracterstica dos elementos de .
Dado um acontecimento A , a imagem de A por X, designada por X (A), e o conjunto de valores de
R que X assume para os elementos A:
X (A) = {X () : A}
Por outro lado, a cada subconjunto B R pode fazer-se corresponder o subconjunto X 1 (B) formado
por todos os pontos , tais que X () B,
X 1 (B) = { : X () B}
A X 1 (B) chama-se imagem inversa de B por X.
Exemplo 3.1.4 No lancamento de dois dados pode apenas interessar, em dado jogo, a soma dos pontos
obtidos. Tem-se,
= {(j, k) : j, k = 1, 2, 3, 4, 5, 6} ,

X ((j, k)) = j + k

Eis alguns exemplos de imagens,


A1 = {(1, 1) , (1, 2) , (1, 3) , (2, 1)} X (A1 ) = {2, 3, 4}
A2 = {(5, 6) , (6, 5) , (6, 6)} X (A2 ) = {11, 12}
A3 = {(j, k) : j k 6} X (A3 ) = {2, 3, 4, 5, 6, 7}
e de imagens inversas
B1 = {2, 3} X 1 (B1 ) = {(1, 1) , (1, 2) , (2, 1)}
B2 = [2, +[ X 1 (B2 ) =
B3 = {0, 4} X 1 (B3 ) = {(1, 3) , (2, 2) , (3, 1)}
B4 = ], 2[ X 1 (B4 ) =
Do conceito de imagem inversa resulta claramente que X () assume valores de um subconjunto B R
quando e s
o quando pertence `a imagem inversa de B,
X () B X 1 (B)

Probabilidades e Estatstica I

27

Nestas condicoes justica-se denir a probabilidade da vari


avel X assumir um valor do conjunto B R pela
probabilidade do acontecimento X 1 (B),


PX (X () B) = P X 1 (B)
ou, em simbologia mais simples,


PX (B) = P X 1 (B)
Resulta desta atribuicao que a probabilidade do primeiro membro existe se e s
o se X 1 (B) for um acontecimento, isto e, um conjunto probabiliz
avel logo pertencente `a -algebra de conjuntos de que se tem
representado por F.
No caso em que e nito ou innito numer
avel vimos j
a que podemos considerar
F = P (), pelo
que X 1 (B) e sempre um acontecimento. No caso geral, para que exista P X 1 (B) importa introduzir
algumas restricoes, quer em relacao aos conjuntos B de R, quer em relacao `as funcoes X.

3.1.1

Vari
avel aleat
oria e fun
c
ao mensur
avel

Supondo denida em R a -algebra de Borel, B, as funcoes X dever


ao ser tais que X 1 (B) F, B B,
para que possamos calcular


P ({ : X () B}) = P X 1 (B) .
Somos assim conduzidos `a seguinte denicao:
Deni
c
ao 3.1.5 Dada uma aplicac
ao X : R dizemos que X e uma vari
avel aleat
oria (v.a.) se
X 1 (B) F,

B B.

X assim denida n
ao e mais do que uma funcao mensur
avel de (, F) em (R, B)
O resultado seguinte, cuja demonstracao pode consultar em Adams & Guillemin (1996), p.54, caracteriza
de modo simples uma variavel aleatoria.
Teorema 3.1.6 Uma aplicaca
o X : R e uma vari
avel aleat
oria se e s
o se
X 1 (], x]) F,

x R.

Como a transformacao por X 1 preserva as operacoes sobre conjuntos; por exemplo,





X 1 (Bj ) ; X 1 Bj =
X 1 (Bj )
X 1 Bj =
j

pode ser demonstrado (Adams & Guillemin (1996), p.54) que,


Proposi
c
ao 3.1.7 Qualquer das condic
oes seguintes e necess
aria e suficiente para que a func
ao X seja
uma vari
avel aleat
oria (func
ao mensur
avel):
a) X 1 (], x]) F,

x R;

b) X 1 (], x[) F,

x R;

c) X 1 (]x, +[) F,

x R;

Probabilidades e Estatstica I
d) X 1 ([x, +[) F,

28

x R.

Exemplo 3.1.8 No lancamento de uma moeda em que = {F, C}, consideremos F = P () e X : R


a func
ao definida por X (C) = 0 e X (F ) = 1. Ent
ao

se x < 0,

1
{C}
se 0 x < 1,
X (], x]) =

{F, C} se x 1,
mostra que X e uma vari
avel aleat
oria.
Exemplo 3.1.9 Um exemplo importante de vari
avel aleat
oria e a que resulta da utilizac
ao da fun
c
ao
indicatriz, ou fun
c
ao caracterstica, de um conjunto. A fun
c
ao indicatriz do conjunto A e a
func
ao de em {0, 1} definida por

1 A
IA () =
0
/A
Exerc
que, se X e uma vari
avel aleat
oria e B e a -
algebra de Borel, ent
ao X 1 (B) =
 1 cio 3.1.10 Mostre

X (B) , B B e uma -
algebra sobre o universo .
Deni
c
ao 3.1.11 X 1 (B) denomina-se -
algebra de acontecimentos gerada por X.
Nota: A -algebra de acontecimentos gerada por X, n
ao esgota a -algebra F de acontecimentos de .
Ponto da situa
c
ao: Tnhamos um espaco de probabilidade (, F, P ) para descrever uma experiencia
aleatoria. Com a introducao de uma vari
avel aleatoria X, podemos transferir a an
alise da experiencia para
outro espaco de acontecimentos (R, B), onde R passa a ser o universo (agora com caracter numerico) e B e
a -algebra de Borel. Falta-nos saber como probabilizar este novo espaco de acontecimentos. Ora a pr
opria
denicao de vari
avel aleatoria, permite denir uma probabilidade sobre (R, B), que sera a imagem de P pela
aplicacao mensuravel X. Tal probabilidade ser
a representada por PX .
Proposi
c
ao 3.1.12 Seja (, F, P ) um espaco de probabilidade e X : R uma vari
avel aleat
oria. A
aplicac
ao PX definida por


B B, PX (B) = P ({ : X () B}) = P X 1 (B)
e uma probabilidade sobre (R, B).
Dito de outro modo, para PX assim definida, (R, B, PX ) e um espaco de probabilidade.
Demonstracao: Tem-se, utilizado a denicao de PX e a axiomatica sobre P ,


P1 B B, PX (B) = P X 1 (B) 0, pois X 1 (B) F.


P2 PX (R) = P X 1 (R) = P () = 1
P3 (Bn )nN , sucessao de elementos de B disjuntos dois a dois,










=P
Bn = P X 1
Bn
X 1 (Bn ) =
PX
n=1

n=1

n=1


porque X 1 (Bn ) e uma sucessao de elementos de F disjuntos dois a dois,


n=1

P X

(Bn ) =
PX (Bn )
n=1

Probabilidades e Estatstica I

29

Nota: Escreveremos frequentemente, de modo simplicado,


PX (B) = P (X B)
avel
Deni
c
ao 3.1.13 A probabilidade PX assim definida sobre (R, B) diz-se lei de probabilidade da vari
aleat
oria X. O espaco de probabilidade (R, B, PX ) diz-se espa
co de probabilidade induzido pela
vari
avel aleat
oria X.
Exemplo 3.1.14 Retomemos o exemplo 3.1.4. Se os dados forem equilibrados,
PX ({2}) = P (X = 2) = P ({(1, 1)}) =

1
36

PX (]9, +[) = P (X > 9) = P ({(4, 6) , (5, 5) , (5, 6) , (6, 4) , (6, 5) , (6, 6)}) =

6
36

PX (]0, 2[) = P (0 < X < 2) = P () = 0


Nota: Se conhecermos P , a probabilidade
PX ca
inteiramente conhecida. Mas a probabilidade PX apenas

determine P no espaco mensuravel , X 1 (B) .
Se quisermos estudar uma experiencia aleatoria atraves de uma variavel aleatoria X, que caracteriza os
resultados da experiencia, e necessario conhecer o espaco de probabilidade associado (R, B, PX ), ou seja, e
necessario conhecer os aspectos particulares que descrevem ou caracterizam a probabilidade PX .

3.2

Fun
c
ao de distribui
c
ao

Deni
c
ao 3.2.1 Seja Q uma medida de probabilidade sobre o espaco (R, B). Chama-se fun
c
ao de distribui
c
ao (f.d.) de Q a
` func
ao F definida por
F

: R R
x Q (], x])

Proposi
c
ao 3.2.2 A func
ao de distribuica
o F de uma medida de probabilidade Q goza das seguintes propriedades:
a) F e limitada,
b) F e mon
otona n
ao decrescente,
c) F e contnua a
` direita,
d)

i)
ii)

lim F (x) = 0,

lim F (x) = 1,

x+

e) a, b R, a < b,

Q (]a, b]) = F (b) F (a)

Demonstracao:
a) Como Q e uma medida de probabilidade, ent
ao
x R, 0 Q (], x]) 1 x R, 0 F (x) 1.
b) Queremos provar que, h R+ , x R, F (x) F (x + h).
Como h > 0, tem-se ], x] ], x + h] e dado que Q e uma medida de probabilidade, tem-se
Q (], x]) Q (], x + h]) e portanto F (x) F (x + h).

Probabilidades e Estatstica I

30

c) Queremos provar que, para toda a sucess


ao (xn )nN de n
umeros reais que tende para x por valores
maiores que x (xn x+ ), se tem lim F (xn ) = F (x).
n

Como ja esta provado que F e monotona e limitada, ent


ao podemos assegurar que existem os limites
laterais de F em todo o ponto x R, isto e, existe e e nito lim F (y) (assim como lim F (y)).
yx+

yx

Calculemos entao o valor deste limite considerando uma qualquer sucess


ao (xn )nN decrescente a
tender para x.
Seja An = ], xn ] , n N.
A sucessao (An )nN e decrescente, pelo que o seu limite existe e e
lim An =

+


An = ], x]

n=1

Ent
ao pela proposicao 1.2.11,
lim F (xn ) = lim Q (], xn ]) = lim Q (An ) = Q (lim An ) = Q (], x]) = F (x)

d)

i) Como sabemos que F e monotona e limitada, podemos assegurar que existe e e nito o lim F (x).
x

Resta-nos determinar o seu valor.


umeros reais decrescente tendendo para e dena-se
Seja (xn )nN uma qualquer sucessao de n
An = ], xn ] , n N.
A sucessao (An )nN e decrescente, pelo que o seu limite existe e e
lim An =

+


An = ], [ =

n=1

Ent
ao pela proposicao 1.2.11,
lim F (xn ) = lim Q (], xn ]) = lim Q (An ) = Q (lim An ) = Q () = 0

ii) Como sabemos que F e monotona e limitada, podemos assegurar que existe e e nito o lim F (x).
x+

Resta-nos determinar o seu valor.


Seja (xn )nN uma qualquer sucessao de n
umeros reais crescente tendendo para + e dena-se An =
], xn ] , n N.
A sucessao (An )nN e crescente, pelo que o seu limite existe e e
lim An =

+


An = ], +[ = R

n=1

Ent
ao pela proposicao 1.2.11,
lim F (xn ) = lim Q (], xn ]) = lim Q (An ) = Q (lim An ) = Q (R) = 1

e) Denam-se em (R, B), os acontecimentos B = ], b] e A = ], a]. Como a < b, ent


ao ]a, b] = B A
e tambem A B. Pelas propriedades da medida de probabilidade, Q (B A) = Q (B) Q (A) =
F (b) F (a)

Probabilidades e Estatstica I

31

Proposi
c
ao 3.2.3 Se F e funca
o de distribuic
ao de uma medida de probabilidade Q, ent
ao,

xo R, F x
o = lim F (x) = F (xo ) Q ({xo })
xx
o

e portanto
xo R,


Q ({xo }) = F (xo ) F x
o

umero real e considere-se (xn )nN uma qualquer sucessao de n


umeros
Demonstracao: Seja xo um qualquer n
reais monotona crescente para xo , isto e,
x1 x2 x3 . . . xn . . . ,

lim xn = xo , xn = xo

A sucessao de acontecimentos (An )nN denida por An = ]xn , xo ] e monotona decrescente e tem por limite


An = {xo }. Ent
ao a proposicao 1.2.11 garante que
lim An =
n=1

Q ({xo }) = Q (lim An ) = lim Q (An ) = lim Q (]xn , xo ]) = lim (F (xo ) F (xn )) =


n
n
n

= F (xo ) lim F (xn ) = F (xo ) F xo
n

Teorema 3.2.4 A qualquer medida de probabilidade Q sobre (R, B) pode fazer-se corresponder uma func
ao
de distribuic
ao F , satisfazendo a condic
ao
x R,

F (x) = Q (], x])

e, reciprocamente, a qualquer func


ao de distribuic
ao F pode fazer-se corresponder uma u
nica medida de
probabilidade Q sobre (R, B), satisfazendo a condica
o anterior.
evidente que Q determine F . A segunda parte da demonstracao ca fora do ambito
Demonstracao: E
do nosso estudo
Fica patente, com este teorema, que uma medida de probabilidade Q ca completamente determinada
pelos conhecimento dos seus valores nos borelianos da forma ], x].
A proposicao seguinte diz-nos em que condicoes sera contnua uma funcao de distribuicao.
Proposi
c
ao 3.2.5 Seja Q uma medida de probabilidade sobre (R, B) com func
ao de distribuic
ao F . F e
o se, Q ({xo }) = 0.
contnua em xo R se, e s
Demonstracao: Pela proposicao 3.2.3, sabemos que

xo R, Q ({xo }) = F (xo ) F x
o
Se F e contnua no ponto xo , ent
ao F (x
o ) = F (xo ), logo Q ({xo }) = 0
Em geral, as funcoes de distribuicao podem n
ao ser contnuas em R. Contudo, podemos demonstrar que
tem, no maximo, uma innidade numer
avel de pontos de descontinuidade.
Proposi
c
ao 3.2.6 A func
ao de distribuica
o de uma medida de probabilidade Q sobre (R, B), admite quando
muito uma infinidade numer
avel de pontos de descontinuidade.

Probabilidades e Estatstica I
Demonstracao:
de F por

32

A proposicao 3.2.5 permite-nos caracterizar o conjunto de pontos de descontinuidade

D = {x R : Q ({x}) > 0} .
Resta-nos provar que este conjunto tem, no m
aximo,
umero innito numer
avel de elementos.
 um n
1
.
Dena-se, para cada n N, o conjunto Dn = x R : Q ({x})
n
ao
Este conjunto tem, no maximo n pontos. De facto, se #Dn = n + 1, ent
n+1
 n+1


n+1
> 1,
{xi } =
Q ({xi })
Q (Dn ) = Q
n
i=1

i=1

o que e absurdo.
Mas a sucessao de conjuntos (Dn )nN e monotona crescente
D 1 D2 D 3 . . . Dn . . .
pelo que limDn = limDn = lim Dn =

Dn .

n=1

Ent
ao temos, por um lado lim Dn = {x R : Q ({x}) > 0} = D.
umero nito de elementos, e portanto D = lim Dn =
Por outro lado, cada Dn tem um n

Dn e a uni
ao

n=1

numer
avel de conjuntos nitos, logo e, no maximo, numer
avel
A denicao que se segue faz a associacao entre a medida de probabilidade de uma v.a. X, isto e PX e a
respectiva funcao de distribuicao.
Deni
c
ao 3.2.7 Seja X uma vari
avel aleat
oria. Chama-se fun
c
ao de distribui
c
ao da vari
avel aleat
oria
` func
ao
X `
a funca
o de distribuica
o FX da sua lei de probabilidade PX , isto e, a
FX

: R R
x FX (x) = PX (], x]) .

Nota: Outras notacoes utilizadas sao PX (], x]) = P (X ], x]) = P (X x).

Probabilidades e Estatstica I

33

Classifica
c
ao das leis de probabilidade sobre R

3.3
3.3.1

Leis discretas

Seja Q uma medida de probabilidade sobre (R, B).


Deni
c
ao 3.3.1 Se existe um subconjunto finito ou infinito numer
avel de R, D, tal que Q (D) = 1, dizemos
que Q e uma lei de probabilidade discreta.
Ao menor subconjunto D que verica Q (D) = 1 chamamos suporte de Q e representamo-lo por S.
Proposi
c
ao 3.3.2 Se Q e uma lei de probabilidade discreta ent
ao o suporte de Q e o conjunto dos pontos
de descontinuidade da sua func
ao de distribuic
ao.
Demonstracao: Representemos por D o conjunto de pontos de descontinuidade da funcao de distribuicao
de Q. Pela proposicao 3.2.5, sabemos que D = {x R : Q ({x}) > 0}. Queremos provar que D = S.
1. Provemos que S D, ou seja que x S, Q ({x}) > 0.
ao
Admitamos que existia um xo S tal que Q ({xo }) = 0. Ent
1 = Q (S) = Q (S {xo }) + Q ({xo }) = Q (S {xo })
Concluiramos assim que S n
ao poderia ser o suporte de Q porque existiria um menor subconjunto,
nomeadamente o conjunto S {xo } S tal que Q (S {xo }) = 1.
ou seja que x S,
x D,
ou
2. Mostremos que D S. Isso sera equivalente a mostrar que S D,

ainda que x S, Q ({x}) = 0.


ao
Admitamos que existia um xo S tal que Q ({xo }) > 0. Ent

1 = Q (S) = 1 Q S =
! 

"
= 1 Q S {xo } + Q ({xo }) =


= 1 Q S {xo } Q ({xo }) < 1
Ent
ao S n
ao pode ser o suporte de Q
Proposi
c
ao 3.3.3 Toda a lei de probabilidade discreta Q sobre (R, B) de suporte S e caracterizada pela
func
ao f definida por

Q ({x}) ,
xS
x R, f (x) =
0,
caso contr
ario
Demonstracao:
1. Por denicao de f , dada uma lei de probabilidade discreta Q sobre (R, B), essa funcao f ca perfeitamente determinada.
2. Provemos que, dada a funcao f associada a uma medida de probabilidade Q sobre (R, B) discreta e
de suporte S, essa medida Q ca completamente conhecida. Isto e, provemos que B B, sabemos o
valor de Q (B).






Q ({x})
B B, Q (B) = Q B S S = Q (B S) + Q B S = Q (B S) =
xBS

uma vez que B S e um boreliano de R nito ou innito numer


avel. Assim

B B, Q (B) =
Q ({x})
xBS

Deni
c
ao 3.3.4 A func
ao f denomina-se fun
c
ao de probabilidade da lei de probabilidade Q.

Probabilidades e Estatstica I

34

Vari
avel aleat
oria discreta
Dizemos que uma v.a. X e discreta se a sua lei de probabilidade, PX , e discreta.
Em resumo: A vari
avel aleatoria X e discreta se o conjunto de pontos de descontinuidade da sua funcao
de distribuicao, S, e nito ou innito numer
avel e verica PX (S) = 1.
S denomina-se suporte de X.
Alem disso, existe uma funcao f : R [0, 1] dada por

xS
PX ({x}) ,
f (x) =
0,
caso contrario
que caracteriza a sua lei.
Esta funcao f e designada por fun
c
ao de probabilidade da vari
avel aleatoria X.
A funcao de distribuicao de uma v.a. X discreta, de suporte S = {x1 , x2 , . . . , xn . . .} e funcao de
probabilidade f , e dada por

x R, FX (x) = PX (], x]) =


f (xi )
xi x

Exemplos importantes de leis discretas


Lei degenerada ou a lei de Dirac Sejam (, F, P ) um espaco de probabilidade e a R, a xo.
Consideremos a v.a.
X : R
X () = a
X e uma v.a. discreta com funcao de probabilidade

1, x = a
f (x) =
= I{a} (x)
0, x = a
Dizemos que X tem uma lei de Dirac no ponto a, ou alternativamente, que X tem uma lei
degenerada em a ou ainda, que X = a quase certamente (q.c.).
Lei de Bernoulli Consideremos uma experiencia aleatoria E, a` qual est
a associado um espaco de acontecimentos (, F). Admitamos que, sobre os resultados da experiencia, nos interessa apenas observar se
se realiza ou nao realiza um certo acontecimento A F.
costuma
A realizacao de A costuma designar-se por sucesso e a n
ao realizacao de A (a realizacao de A)
designar-se por insucesso.
Associada `a nossa experiencia, estamos a considerar uma outra que tem apenas dois resultados possveis
e que e usual designar por prova de Bernoulli.
Admitamos que A F e um acontecimento de probabilidade P (A) = p ]0, 1[. Dena-se a v.a.
X : R
X () =

1, A
0,
/A

Claro que X = IA .
Esta v.a. indica-nos se o acontecimento A ocorre, ou n
ao, numa prova de Bernoulli, da experiencia
modelada por (, F, P ).

Probabilidades e Estatstica I

35

A sua lei de probabilidade e


f (1) = P (X = 1) = P ({ : X () = 1}) = P (A) = p

f (0) = P (X = 0) = P ({ : X () = 0}) = P A = 1 p
de suporte S = {0, 1}.
Dizemos que a v.a. X segue uma lei de Bernoulli de par
ametro p e escrevemos, de modo abreviado,
X B (p).
Nota: Se p = 0 ou p = 1, a lei de Bernoulli coincide com a lei degenerada nos pontos 0 e 1,
respectivamente. Dizemos nestes casos que a lei de Bernoulli e degenerada.
Lei Binomial Sejam (, F, P ) um espaco de probabilidade associado a uma experiencia aleatoria E e A F
um acontecimento associado a E tal que P (A) = p ]0, 1[.
Realizemos n vezes a experiencia E, nas mesmas condicoes e suponhamos que as diferentes realizacoes
sao independentes umas das outras. Se associarmos a cada realizacao da experiencia, uma prova de
Bernoulli para o acontecimento A, ent
ao teremos uma sucessao de provas de Bernoulli (as provas s
ao
independentes e em todas mantem-se constante P (A) = p).
Seja X igual ao n
umero de vezes que o acontecimento A ocorre nas n provas de Bernoulli.
Esta vari
avel aleatoria assume valores no suporte S = {0, 1, 2, . . . , n}. Vamos mostrar que a sua lei de
probabilidade e
 
n k
p (1 p)nk
k S = {0, 1, . . . , n} , PX ({k}) = P (X = k) =
k
Demonstracao: O espaco de resultados associado ao conjunto das n repeticoes da experiencia E,
nas condicoes enunciadas, sera n . Dena-se em n a -algebra Fn gerada pela seguinte classe C de
subconjuntos de n :
C = {B1 B2 . . . Bn : Bi F, i {1, 2, . . . , n}}
a) Uma realizacao possvel do acontecimento {X = k}, com k {1, 2, . . . , n}, e a ocorrencia do
seguinte acontecimento de Fn ,

. . . A = Ak A nk
. . . A A


A A
 A
k vezes

n-k vezes

Designemos por P r a medida de probabilidade sobre (n , Fn ) denida a` custa de P ; tem-se




P r A A . . . A A A . . . A = P r (A1 A2 . . . Ak Ak+1 Ak+2 . . . An )
onde
A1 = A n1
A2 = A n2
..
.
Ak = k1 A nk
Ak+1 = k A n(k+1)
..
.
An1 = n2 A
An = n1 A

Probabilidades e Estatstica I

36

 nk
e expresso por uma interseccao de n acontecimentos indeEnt
ao o acontecimento Ak A
pendentes uma vez que as realizacoes de E sao independentes e em cada uma destas interseccoes
so intervem uma realizacao de E. Assim,


P r A A . . . A A A . . . A = P r (A1 ) P r (A2 ) . . . P r (An )
Alem disso, como as experiencias sao realizadas nas mesmas condicoes, isto e, P (A) e constante
com valor p, ent
ao P r (A1 ) = P r (A2 ) = . . . = P r (Ak ) = p e P r (Ak+1 ) = P r (Ak+2 ) = . . . =
P r (An ) = 1 p, pelo que


P r A A . . . A A A . . . A = pk (1 p)nk
b) Por outro lado, o acontecimento {X = k} corresponde a` uni
ao de todos os elementos de C da
forma
B1 B2 . . . Bn
isto e
onde B1 B2 . . . Bn contem k factores iguais a A e n k factores iguais a A,
#
(B1 . . . Bn ) :
k dos B1 , . . . , Bn sao iguais a A e
X 1 ({k}) =

n k dos B1 , . . . , Bn sao iguais a A
Sendo X 1 ({k}) uma uni
ao de acontecimentos de Fn , ent
ao tambem pertence a Fn . Por outro
lado,
aveis e em n
umero igual
 todos aqueles acontecimentos sao mutuamente exclusivos, equiprov
n
a
.
k
Finalmente,
 
 1

n k
p (1 p)nk
k {1, . . . , n} , PX ({k}) = P r X ({k}) =
k
S
o falta vericar se

 
n 0
p (1 p)n0 ,
PX ({0}) = P (X = 0) =
0

ou seja, se
c) S = {0, 1, . . . , n} e o suporte de PX .
Ora,
k {0, 1, . . . , n} , PX ({k}) > 0, porque 0 < p < 1;
 n

n
n  


n k
PX (S) = PX
{k} =
PX ({k}) =
p (1 p)nk = (p + 1 p)n = 1
k
k=0

k=0

k=0

Esta lei diz-se lei binomial de par


ametros n e p. A vari
avel aleatoria X diz-se vari
avel binomial
escrevendo-se, de modo abreviado, X B (n, p).
Nota: Quando p = 0 ou p = 1, obtemos leis degeneradas ja que X = 0 ou X = n q.c., respectivamente.
A lei de Bernoulli de par
ametro p coincide com a lei Binomial de par
ametros 1 e p.

Probabilidades e Estatstica I

37

Lei de Poisson Analisemos as caractersticas da lei Binomial quando o par


ametro n e muito grande e
o par
ametro p e muito pequeno, mas de modo a que o produto np tenha uma ordem de grandeza
razoavel.
Para tal, consideremos uma sucessao de v.a.s {Xn }nN denidas num mesmo espaco de probabilidade
(, F, P ) e com a seguinte lei
n N, Xn B (n, pn )
umero
formando {pn }nN uma sucessao de probabilidades em ]0, 1[ tal que lim npn = , sendo um n
n
real positivo fixo.
Claro que, nestas condicoes, a sucessao {pn }nN converge para 0 e
 
n k
p (1 pn )nk
n k + 1 pn
P (Xn = k)
k n

=
=
k N, n k,
n
P (Xn = k 1)
k
1 pn
pk1
(1 pn )nk+1
n
k1
Logo,
P (Xn = k)

=
n P (Xn = k 1)
k
lim

Esta igualdade pode ser interpretada do seguinte modo: Para n sucientemente elevado, Xn tem quase
o mesmo comportamento aleatoria que uma v.a. Y tomando os seus valores em N0 e tal que
k N, P (Y = k) =

P (Y = k 1)
k

Se admitirmos que de facto existe uma tal probabilidade sobre (R, B) de suporte N0 , ent
ao
k N, P (Y = k) =

P (X = k 1) =
P (X = k 2) = . . . =
P (X = 0)
k
kk1
k!

e
1=

k=0

P (Y = k) = P (Y = 0)

+ k

k=0

k!

= e P (Y = 0) P (Y = 0) = e

Em resumo, Y tem uma lei discreta de suporte N0 cuja funcao de probabilidade e


k N0 , PX ({k}) = P (X = k) = e

k
k!

Esta lei e designada por lei de Poisson de par


ametro , abreviadamente, Y P ().
Nota: Esta lei e adequada para modelar o n
umero de ocorrencias de um acontecimento de probabilidade muito pequena (acontecimento raro) de um dado tipo quando n
ao limitamos o n
umero de
realizacoes da experiencia.
Exerccio 3.3.5 Mostrar que nas condic
oes enunciadas para a deduc
ao da lei de Poisson, se tem
 
n k
k
k N0 ,
pn (1 pn )nk = e
lim P (Xn = k) = lim
n
n k
k!

Probabilidades e Estatstica I

38

Nota: O exerccio anterior, permite-nos dizer que, se X B (n, p), para n sucientemente grande, p
muito pequeno e = np
k
k!
isto e, uma lei Binomial de par
ametros (n, p) pode ser aproximada por uma lei de Poisson de par
ametro
= np.
k {0, 1, . . . , n} , P (X = k) e

Na pr
atica, se n 30 e min (np, n (1 p)) 5, considera-se razoavelesta aproximacao.
Lei Hipergeom
etrica Suponhamos que temos um conjunto de N > 0 elementos (a populacao), dos quais
0 M N gozam de uma certa caracterstica A e os restantes N M n
ao gozam desta caracterstica

(gozam da caracterstica A).


Realizemos uma experiencia aleatoria que consiste em retirar, ao acaso e sem reposicao, 0 < n N
elementos da populacao (a amostra). Associemos aos resultados desta experiencia, uma v.a. X denida
por X=no de elementos extrados que gozam da caracterstica A.
Evidentemente que os valores admissveis para X serao todos os naturais k, tais que
max (0, M + n N ) k min (M, n).
O universo associado a` experiencia sera
= {conjuntos de n elementos seleccionados dos N existentes} .
Como a escolha dos n elementos e realizada ao acaso, entao todas as possveis amostras sao igualmente prov
aveis. Por outro lado, o universo e constitudo por um n
umero nito de resultados. Isto
signica que podemos usar a lei de Laplace para determinarmos probabilidades associados a` experiencia
aleatoria, nomeadamente as probabilidades associadas aos valores da v.a. X.
Comecemos pela contagem dos casos possveis. O total de casos possveis serao o total de maneiras de
escolher os n elementos (sem repeticao) de entre os N existentes, ou seja
 
N
o
N casos possveis:
n
Para a contagem dos casos favoraveis `a realizacao do acontecimentos {X = k}, teremos se saber quantos
conjuntos de n elementos existem em que k desses elementos tem a caracterstica A e os restantes n k
n
ao tem a caracterstica A. Evidentemente que esse total e
 

M
N M
o
N casos favoraveis:
k
nk
Assim
PX ({k}) = P (X = k) =

M N M
k

,
Nnk

max (0, M + n N ) k min (M, n).

Esta v.a. diz-se ter lei hipergeom


etrica de par
ametros N, M e n, ou de modo abreviado,
X H (N, M, n).
Aproxima
c
ao entre as leis hipergeom
etrica e binomial
A deducao da funcao de probabilidade da v.a. X pode ser feita de modo semelhante `a que adopt
amos
para a lei binomial.
Demonstracao:

Probabilidades e Estatstica I

39

a) Se representarmos por A o acontecimento seleccao de um elemento com a caracterstica A(ou


seja, um sucesso).
Uma realizacao possvel do acontecimento {X = k}, com k > max (0, M + n N ), e a ocorrencia
do seguinte acontecimento,

. . . A = Ak A nk
. . . A A


A A
 A
k vezes

n-k vezes

Designemos por P r a medida de probabilidade sobre o espaco de acontecimentos associado `a


experiencia. (n , Fn ) denida a` custa de P ; tem-se


P r A A . . . A A A . . . A = P r (A1 A2 . . . Ak Ak+1 Ak+2 . . . An )
onde
A1 = A n1
A2 = A A n2
..
.
Ak = Ak1 A nk
Ak+1 = Ak A n(k+1)
..
.

 nk2
An1 = Ak A
A
 nk1
An = Ak A
A
 nk
e expresso por uma interseccao de n acontecimentos nao
Ent
ao o acontecimento Ak A
independentes uma vez que as extraccoes dos elementos sao feitas sem reposicao. Assim, pelo
teorema da probabilidade composta


P r A A . . . A A A . . . A =
 k1 


= P r (A1 ) P r (A2 |A1 ) P r (A3 |A1 A2 ) . . . P r Ak
Ai

i=1
k


 n1 




P r Ak+1 Ai . . . P r An
Ai =


i=1

i=1

M 1 M 2
M (k 1)
M

...

N
N 1
N 2
N (k 1)
N M 1
N M (n k 1)
N M

...
=
N k
N k1
N (n 1)
M!
(N M )!
(N n)!
(M k)! (N M (n k))!
N!

b) Sendo X 1 ({k}) uma uni


ao de acontecimentos mutuamente exclusivos, equiprovaveis e em n
umero

Probabilidades e Estatstica I

40

 
n
igual a
, ent
ao
k

 
(N M )!
(N n)!
n
M!
=
P (X = k) =
N!
k (M k)! (N M (n k))!
n!
M!
(N M )!
(N n)!
=
=
k! (n k)! (M k)! (N M (n k))!
N!
(N M )!
n! (N n)!
M!
=
=
k! (M k)! (n k)! (N M (n k))!
N!
M N M
k

Nnk

n

Finalmente,
M N M
PX ({k}) = P (X = k) =

,
Nnk

max (0, M + n N ) < k min (M, n).

S
o falta vericar se, para k = max (0, M + n N ), podemos determinar do mesmo modo, a
respectiva probabilidade.
c) Veriquemos que S = {max (0, M + n N ), . . . , min (M, n)} e o suporte de PX .
Ora,
k S, PX ({k}) > 0;

min (M,n)

PX (S) =

min (M,n)

PX ({k}) =

k=max (0,M +nN )

k=max (0,M +nN )

M N M
k

Nnk

n

N
n
= N
= 1,
n

entrando em linha de conta com o seguinte resultado da an


alise combinat
oria

min (a,n)

k=max (0,nb)

 
 

a
b
a+b
=
k
nk
n

Admitemos que a populacao era muito grande, ou seja que N e muito grande, e que o no de elementos
que se retiram para a amostra e relativamente pequeno, quando comparado com N . Nesse caso as
aproximacoes que se seguem sao razo
aveis:
p =
1p =
1p =

M 1
M
M 2
M
M (k 1)
M

p=

... p =

N
N 1
N
N 2
N
N (k 1)
N M
N M
N M
N M 1

1p=

...
M
N k
M
N k1
N M (n k 1)
N M

M
N (n 1)

e portanto,
 
n k
P (X = k)
p (1 p)nk ,
k

max (0, M + n N ) k min (M, n).

Probabilidades e Estatstica I

41

Em resumo: A lei hipergeometrica de par


ametros (N, M, n) pode ser aproximada pela lei binomial
M
de par
ametros n e p =
. A aproximacao e razoavelse N for grande e o n
umero de elementos que
N
n
seleccionarmos nao for muito grande, especicando melhor, se
< 0.1.
N

3.3.2

Leis contnuas

Esta classe de leis tem como caracterstica o facto de a sua funcao distribuicao ser uma funcao contnua.
Deni
c
ao 3.3.6
x R,

a) Seja Q uma medida de probabilidade sobre (R, B). Q e contnua se


Q ({x}) = 0.

b) Sendo X uma v.a. sobre (, F, P ), dizemos que X e uma v.a. contnua se a sua lei de probabilidade,
PX , o for, isto e, se
x R,

PX ({x}) = 0.

Leis absolutamente contnuas


Esta classe de leis e um subconjunto da classe das leis contnuas.
As leis absolutamente contnuas s
ao caracterizadas por uma funcao real denominada funcao densidade.
Em que condicoes podemos dizer que uma funcao real de vari
avel real e uma densidade de probabilidade.
Deni
c
ao 3.3.7 Uma func
ao f : R R e uma densidade de probabilidade sobre R se,
a) f e n
ao negativa em R;
$
b) f e integr
avel sobre R e

f (t) dt = 1

Deni
c
ao 3.3.8
a) Uma lei de probabilidade Q sobre (R, B) diz-se absolutamente contnua se a sua
func
ao de distribuic
ao F for absolutamente contnua, ou seja, se
$ x
x R, F (x) = Q (], x]) =
f (t) dt,

para alguma func


ao f que seja densidade de probabilidade sobre R.
b) Uma vari
avel aleat
oria X diz-se absolutamente contnua se a sua lei de probabilidade PX o e.
Proposi
c
ao 3.3.9 Uma lei de probabilidade Q sobre (R, B) e absolutamente contnua com densidade de
probabilidade f se, e s
o se,
$
a, b R (a < b)

Demonstracao:

f (t) dt

Q (]a, b]) =

Probabilidades e Estatstica I

42

A. Condicao necessaria
Sabemos que F e absolutamente contnua, ou seja, sabemos que existe uma densidade de probabilidade
f tal que
$ x
f (t) dt
x R F (x) =

Queremos provar que


$
a, b R (a < b)

f (t) dt

Q (]a, b]) =
a

Ora
$
a, b R (a < b)

Q (]a, b]) = F (b) F (a) =

$
f (t) dt

f (t) dt =

f (t) dt
a

B. Condicao suciente
Sabemos que, associada a Q, existe uma densidade de probabilidade sobre R, f , tal que
$
a, b R (a < b)

f (t) dt

Q (]a, b]) =
a

Queremos provar que


$
x R

f (t) dt

F (x) =

Consideremos a sucessao de intervalos {]n, x]}nN . Trata-se de uma sucessao crescente de intervalos
e portanto
lim {]n, x]} =

(]n, x]) = ], x]

n=1

e
Q (lim {]n, x]}) = lim Q (]n, x]) Q (], x]) = lim Q (]n, x])
n

Ent
ao
x R, F (x) = Q (], x]) = lim Q (]n, x]) =
n
$ x
$ x
f (t) dt =
f (t) dt
= lim
n

e podemos assegurar que existe o u


ltimo integral porque f e integr
avel em R
Proposi
c
ao 3.3.10 Toda a lei de probabilidade sobre (R, B) absolutamente contnua e uma lei de probabilidade contnua.

Probabilidades e Estatstica I

43

Demonstracao: Seja Q uma lei de probabilidade sobre (R, B) absolutamente contnua com densidade f .
Queremos provar que
x R, Q ({x}) = 0.

"
"
Consideremos x R, a sucessao de intervalos x n1 , x + n1 nN . Trata-se de uma sucessao mon
otona
decrescente, e portanto
%
%
%
%

1
1
1
1
x ,x +
=
= {x}
lim x , x +
n
n
n
n
n
n=1

%
&

&
%
1
1
1
1
lim Q x , x +
= Q lim x , x +
= Q ({x})
n
n
n
n
n
n
%

1
1
x R, Q ({x}) = Q lim x , x +
n
n
n
$ x+ 1
n
f (t) dt =
= lim
n

%

1
x n

= 0, uma vez que f e integr


avel
Nota: Conclumos desta propriedade que, se X e uma v.a. absolutamente contnua, ent
ao
PX (]a, b[) = PX ([a, b[) = PX (]a, b]) = PX ([a, b])
ou seja,
P (a < X < b) = P (a X < b) = P (a < X b) = P (a X b)
O teorema seguinte, estabelece como se relacionam as funcoes de distribuicao e a densidade de probabilidade de uma lei de probabilidade absolutamente contnua.
Teorema 3.3.11 Se Q e uma medida de probabilidade sobre (R, B) absolutamente contnua, a sua func
ao
de distribuic
ao F
a) e deriv
avel excepto, quando muito, num conjunto numer
avel de pontos;
b) Se a derivada de F for contnua em R, ent
ao x R,

f (x) =

d
F (x);
dx

c) Se a derivada de F for limitada em R e contnua em R excepto num conjunto numer


avel D1 , ent
ao
d
F (x)
x R D1 , f (x) =
dx
Nota: Se x D1 , por convencao, consideramos f (x) = 0.
ao implica alteracoes no calculo de probabiliPodemos considerar outros valores para f em D1 , o que n
dades, uma vez que, como D1 e, no maximo, numer
avel,



{xi } =
Q ({xi }) = 0
Q (D1 ) = Q
i=1

i=1

D
a-se o nome de suporte de Q ao boreliano S onde f e estritamente positiva. Se X e uma v.a.
absolutamente contnua, d
a-se o nome de suporte de X ao boreliano S onde a densidade de probabilidade
de PX e estritamente positiva.

Probabilidades e Estatstica I

44

Teorema 3.3.12 Toda a densidade de probabilidade sobre R, f , determina uma u


nica probabilidade Q sobre
(R, B) absolutamente contnua verificando
$ b
a, b R, a < b, Q (]a, b[) =
f (t) dt.
a

Podemos encontrar uma demonstracao em Rohatgi (1976).

Exemplos importantes de leis contnuas


Lei uniforme em [a, b]
Teorema 3.3.13 Seja X uma v.a. de suporte S = [0, 1]. Se PX (]x, y]) = P (x < X y) depender
apenas da amplitude y x para todo 0 x y 1, ent
ao X tem uma funcao de distribuicao
F (x) = x I[0,1] (x) + I]1,+[ (x)
Demonstracao: Seja P (x < X y) = f (y x) para todo 0 x y 1. Ent
ao
f (x + y) = P (0 < X x + y) = P (0 < X x) + P (x < X x + y) = f (x) + f (y)
importante notar que f e contnua a` direita.
E
Observa
c
ao: A funcao g, solucao da equacao x, y R, g (x + y) = g (x) + g (y) e contnua a` direita
e x R, g (x) = cx, sendo c uma constante real n
ao nula. Ent
ao f (x) = cx, com 0 x 1.
Como, para 0 x 1,
F (x) = P (X x) = P (X 0) + P (0 < X x) =
= F (0) + P (0 < X x) =
= f (x) =
= cx, 0 x 1
Por outro lado, como F (1) = 1, ent
ao c = 1, logo F (x) = x, 0 x 1
A v.a. X diz-se ter lei uniforme no intervalo [0, 1] e escreve-se de modo abreviado X U [0, 1].
A correspondente densidade de probabilidade e
f (x) = I]0,1[ (x)
Admitamos que Y e uma vari
avel aleatoria cujo suporte e o intervalo real limitado [a, b], (a < b) e que
todos os intervalos contidos em [a, b], com a mesma amplitude, tem igual probabilidade.
Podemos considerar Y = (b a) X + a, sendo X uma v.a. com lei uniforme no intervalo [0, 1] e a
correspondente funcao de distribuicao sera,




ya
ya
G (y) = P (Y y) = P ((b a) X + a y) = P X
=F
=
ba
ba

y<a
0,
ya
ya
,
a
<
yb =
I
(y) + I[b,+[ (y)
=
ba

b a [a,b[
1,
y>b

Probabilidades e Estatstica I

45

A densidade de probabilidade de Y , e

1
1
, y ]a, b[
I
g (y) =
(y)
=
ba
0,
b a ]a,b[
y
/ ]a, b[
A v.a. Y diz-se ter lei uniforme no intervalo [a, b] e escreve-se de modo abreviado X U [a, b].
Figura 3.1: Densidade da lei uniforme
f (x)

1/ (b a)

De modo an
alogo se poderao denir as leis uniformes sobre [a, b[, ]a, b] e ]a, b[, com a, b R e a < b.
Exerccio 3.3.14 Seja X uma v.a. com funca
o de distribuica
o F contnua. Supondo que F e estritamente mon
otona decrescente, ent
ao a v.a. U = F (X) segue uma lei uniforme no intervalo [0, 1].
Exerccio 3.3.15 Seja U uma v.a. com lei uniforme no intervalo [0, 1]. Consideremos F uma qualquer func
ao de distribuic
ao.
Defina-se a inversa generalizada de F (segundo Paul Levy) por
v [0, 1] ,

F 1 (v) = inf {u : F (u) v}

ao de distribuica
o F .
Ent
ao a v.a. X = F 1 (U ) tem func
Lei exponencial
Teorema 3.3.16 Seja X uma v.a. cuja funcao de distribuicao F verica, F (x) = 0,
F (x) < 1, se x > 0 e

se x < 0,

x, y > 0, P (X > x + y |X > y ) = P (X > x) .


Ent
ao existe uma constante real > 0, tal que
F (x) = 1 ex/ I[0,+[ (x)
Demonstracao: Sejam x, y > 0,
P (X > x + y |X > y ) = P (X > x)

P (X > x + y)
= P (X > x)
P (X > y)
1 P (X x + y)
= 1 P (X x)
1 P (Y y)
1 F (x + y)
= 1 F (x)
1 F (y)

P ((X > x + y) (X > y))


= P (X > x)
P (X > y)

Probabilidades e Estatstica I

46

Dena-se x R+ , g (x) = ln (1 F (x)). Ent


ao


1 F (x + y)
1 F (x + y)
= 1 F (x) ln
= ln (1 F (x))
1 F (y)
1 F (y)
ln (1 F (x + y)) ln (1 F (y)) = ln (1 F (x))
g (x + y) g (y) = g (x)
g (x + y) = g (x) + g (y)
Nestas condicoes, g e uma funcao contnua a` direita e existe uma constante real nao nula c, tal que
x R+ , g (x) = cx. Ent
ao
x R+ , g (x) = ln (1 F (x)) = cx x R+ , F (x) = 1 ecx
Como F dever
a ser funcao de distribuicao ent
ao
lim

x+

F (x) = 1

lim

x+

1 ecx = 1 c < 0

A prova ca completa se considerarmos c = 1/, com > 0


A v.a. X assim denida diz-se ter lei exponencial de par
ametros (0, ), com R+ , ou de modo
abreviado, X E (0, ).
A sua densidade de probabilidade e
1
f (x) = ex/ I]0,+[ (x)

Teorema 3.3.17 Seja Y uma v.a. cuja funcao de distribuicao G verica, G (y) = 0,
G (y) < 1, se y > e

se y < ,

x, y > , P (Y > x + y |X > y ) = P (X > x + ) .


sendo uma constante real. Ent
ao existe uma constante real > 0, tal que
G (y) = 1 e(y)/ I[,+[ (y)
Demonstracao: Se considerarmos X uma v.a. com distribuicao exponencial de par
ametros (0, ),
entao Y = X + e
G (y) = P (Y y) = P (X + y) = P (X y ) = F (y ) =
= 1 e(y)/ I[,+[ (y)

A v.a. Y assim denida diz-se ter lei exponencial de par


ametros (, ), com R e R+ , ou
de modo abreviado, Y E (, ).
A sua densidade de probabilidade e
1
g (y) = e(y)/ I],+[ (y)

Probabilidades e Estatstica I

47

Figura 3.2: Densidade da lei exponencial

Lei gama
A fun
c
ao gama
Consideremos uma constante real > 0. A funcao gama, , e denida por
$ +
x1 ex dx.
() =
0

Propriedades da funcao :
(1) = 1;
Se > 1, () = ( 1) ( 1);
Se n N, (n) = (n 1)!;

(1/2) = .
A lei gama
Considerem-se tres constantes reais, , > 0, > 0 e, no integral que dene a funcao gama, facamos
a mudanca de vari
avel y = x + .

$ + 
$ +
1 y 1 (y)/
1 x
x
e dx =
e
dy
() =

Ent
ao
$

1
()

1

e(y)/ dy = 1

Como a funcao integranda e sempre positiva para y > , segue-se que a funcao


y 1 (y)/
1
e
I],+[ (y)
f (y) =
()

e uma densidade de probabilidade para , > 0, > 0.


Uma v.a. Y cuja lei de probabilidade tem esta densidade de probabilidade, diz-se ter lei gama de
par
ametros (, , ), R e , R+ , e escreve-se de modo abreviado, Y (, , ).

Probabilidades e Estatstica I

48

Casos particulares da lei gama:


Se = 1, a lei gama coincide com a lei exponencial de parametros (, );
Se = 0, = 2 e = n/2, com n N, a lei gama e designada por lei do qui-quadrado com
n graus de liberdade e, abreviadamente, escreve-se Y 2n .
Figura 3.3: Densidade da lei gama

Lei de Weibull
Dizemos que uma v.a. X segue a lei de Weibull de par
ametros (, , ), com R, , R+ ,
abreviadamente X W (, , ), se e absolutamente contnua com densidade de probabilidade

f (x) =

1

 
 
x
exp
I],+[ (x)

e funcao de distribuicao
 
 
x
I],+[ (x)
F (x) = 1 exp

Nota: Se = 1, a lei de Weibull coincide com a lei exponencial de par


ametros (, ).
Figura 3.4: Densidade da lei Weibull

Probabilidades e Estatstica I

49

Lei normal
Esta e uma das leis sobre R mais importantes, quer no domnio da Teoria das Probabilidades que no
domnio da Estatstica. Essa importancia advem quer da capacidade da lei descrever com qualidade
muitos fen
omenos aleatorios concretos, quer das propriedades matem
aticas que possui.
Comecemos por abordar a designada lei normal reduzida.
Deni
c
ao 3.3.18 Uma v.a. Z diz-se ter lei normal reduzida, abreviadamente, Z N (0, 1) se a
densidade de probabilidade associada `
a sua lei de probabilidade e:
1
2
(z) = ez /2 ,
2

zR

Comecemos por vericar se e de facto uma densidade de probabilidade em R. N


ao h
a d
uvidas de
que e uma funcao n
ao negativa em R e,
$

(z) dz =

=
=
=

$ +
1
2

ez /2 dz =
2
$ 0
$ +
1
1
2
z 2 /2

e
dz +
ez /2 dz =
2
2 0
$ +
$ +
1
1
1 1/2 y
1

y
y 1/2 ey dy,
e dy +
2 0
2
2 0
2
$ +
1
1 1
(1/2) = 1
y 1/2 ey dy =
2

(1/2)
2 2 0

A funcao de distribuicao da lei normal, representa-se por e ser


a
$ z
$ z
1
2
et /2 dt
(t) dt =
z R, (z) = P (Z z) =
2

e encontra-se tabelada.
Figura 3.5: Funcao distribuicao da lei normal reduzida

para y = z 2 /2

Probabilidades e Estatstica I

50

Proposi
c
ao 3.3.19 A lei normal reduzida e simetrica relativamente a
` origem, isto e, se Z N (0, 1),
ent
ao
z R,

P (Z z) = P (Z z)

Da resulta que
z R,

P (Z z) = 1 P (Z z)

ou ainda

z R,

(z) = 1 (z)

Demonstracao: Consideremos z > 0.


$

P (Z z) =
z

1
2
et /2 dt = fazendo y = t
2
1
2
ey /2 dy = P (Z z)
2

Figura 3.6: A simetria da lei normal reduzida e consequencias para a sua funcao distribuicao



Deni
c
ao 3.3.20 Uma v.a. X diz-se ter lei normal de par
ametros , 2 , com R e R+ ,
a sua lei de probabilidade e:
abreviadamente, X N , 2 se a densidade de probabilidade associada `
1 x 2
1
f (x) = e 2 ( ) ,
2

xR

A vericacao de que f e de facto uma densidade pode ser feita do mesmo modo que a realizada para


1 x 2
.
a v.a. Z, considerando uma mudanca de vari
avel y =
2

O resultado que se segue, permitir-nos-a calcular probabilidades para a v.a. X, usando a v.a. Z.

Probabilidades e Estatstica I

51

Figura 3.7: Reducao da lei normal



X
N (0, 1);
a) Se X N , 2 , ent
ao a v.a. Z =



b) Se Z N (0, 1), e a, b s
ao constantes reais, com b > 0, ent
ao a v.a. X = a + bZ N a, b2 .

Proposi
c
ao 3.3.21

Demonstracao:
a) A prova e feita `a custa da funcao de distribuicao F da v.a. X e da funcao de distribuicao da
v.a. Z. Sabemos que
$ x
1 t 2
1
e 2 ( ) dt
F (x) = P (X x) =
2
Por outro lado,

X
z

(z) = P (Z z) = P
= P (X z + ) = F (z + ) =
$ z+
1 t 2
1
e 2 ( ) dt =
=
2



$ z
2
t
1
y2
e
dy =
fazendo y =
=

2
$ z
2
y
1
e 2 dy
=
2

b) A demonstracao e an
aloga a` anterior
Observa
c
ao: Exemplos de calculo de probabilidades.


Suponhamos que X N , 2 .






X
x
x
x
P (X x) = P

=P Z
=
, x R;





x
y

, xy
P (x X y) = P (X y) P (X x) =

O resultado que se segue permite-nos fazer a interpretacao do par


ametro .

Probabilidades e Estatstica I

52





Proposi
c
ao 3.3.22 A lei N , 2 e simetrica relativamente a , isto e, se X N , 2 ent
ao
x R,

P (X + x) = P (X x)

Demonstracao: Usando a simetria da lei normal reduzida relativamente a` origem e a transformacao


entre qualquer lei normal e a lei normal reduzida, ou seja as proposicoes 3.3.19 e 3.3.21,


x
x
=P Z
= P (X x)
P (X + x) = P Z

Para
cao do par
ametro , consideremos as seguintes probabilidades relativas a X

 a interpreta
N , 2 :
P ( X + ) = P (1 Z 1) = 2 (1) 1 = 0.6826
P ( 1.5 X + 1.5) = P (1.5 Z 1.5) = 2 (1.5) 1 = 0.8664
P ( 2 X + 2) = P (2 Z 2) = 2 (2) 1 = 0.9545
P ( 3 X + 3) = P (3 Z 3) = 2 (3) 1 = 0.9973
O par
ametro reecte a dispersao da vari
avel X. Vericamos que, para um valor xo da probabilidade,
quando aumenta, aumenta a amplitude do intervalo.




X 2
tem uma lei do
ao a v.a. U =
Teorema 3.3.23 Se X e uma v.a. com lei N , 2 , ent

qui-quadrado com 1 grau de liberdade.




Demonstracao: Se X tem lei N , 2 entao pela alnea a) da proposicao 3.3.21, sabemos que
X
tem uma lei normal reduzida. Assim so teremos que provar que a v.a. U = Z 2 tem uma
Z=

lei do qui-quadrado com 1 grau de liberdade.


Para que U tenha uma lei do qui-quadrado com 1 grau de liberdade, a densidade de probabilidade de
U dever
a ser
 u 1/21
1
1
1
eu/2 , u ]0, +[
eu/2 =
f (u) =
2 (1/2) 2
2 u
e a respectiva funcao de distribuicao,
$ u
1
1

et/2 dt, u ]0, +[


F (u) = P (U u) =
2 t
0
F (u) = 0, u ], 0]
Consideremos u ]0, +[.





F (u) = P (U u) = P X 2 u = P u X u =
$ u
$ 0
$ u
1
1
1
2
z 2 /2
z 2 /2
e
ez /2 dz =
=
dz = e
dz +

2
2
2
u
0
u
$ u
1
2
ez /2 dz =
(dada a simetria relativamente a 0 da lei N (0, 1))
= 2
2
0
$ u


1 1 1 t/2

e
dt =
fazendo t = z 2
= 2
2 2 t
$ u0
1
1

et/2 dt
=
2 t
0

Probabilidades e Estatstica I

53

Para u ], 0],



F (u) = P (U u) = P X 2 u = P () = 0

3.3.3

Leis mistas

Teorema 3.3.24 (Decomposi


c
ao de Lebesgue) Seja Q uma lei de probabilidade sobre (R, B) nem discreta nem absolutamente contnua. Ent
ao existe uma constante real ]0, 1[, existe uma lei discreta Qd e
existe uma lei absolutamente contnua Qc tais que
Q = Qd + (1 ) Qc
Alem disso, esta decomposic
ao e u
nica.
Demonstracao:
a) Seja S = {x R : Q ({x}) > 0}. J
a sabemos que S e quando muito numer
avel. Alem disso, como Q
n
ao e discreta nem contnua, tem-se 0 < Q (S) < 1.
Consideremos = Q (S) e dena-se Qd a lei de probabilidade sobre (R, B) por
1
Q (B S)

Qd e discreta porque S e um conjunto quando muito numer


avel, logo B S sera tambem quando muito
um conjunto numer
avel. Por outro lado,
B B, Qd (B) =

x R,

Qd ({x}) =

Q ({x})
>0

Consideremos agora,
B B, Qc (B) =

Q (B) Qd (B)
1

Podemos provar que Qc e uma lei de probabilidade sobre (R, B).


Alem disso, Qc e contnua pois
x R,

Qc ({x}) =

Q ({x}) Qd ({x})
=0
1

Ent
ao
B B, Q (B) = Qd (B) + (1 ) Qc (B)
b) Provemos agora a unicidade da decomposicao. Para tal, consideremos duas leis discretas Qd e Q d , sobre
(R, B), duas leis absolutamente contnuas Qc e Q c , sobre (R, B) e duas constantes reais , ]0, 1[,
vericando-se


Q = Qd + (1 ) Qc
Q = Q d + 1 Q c
O nosso objectivo e mostrar que
= , Qd = Q d

Qc = Q c

Sejam Sd e Sd os suportes de Qd e de Q d , respectivamente.




Sd = x R : Q d ({x}) > 0
Sd = {x R : Qd ({x}) > 0} ;

Probabilidades e Estatstica I

54

i) Mostremos que Sd Sd .
x Sd ,



Qd ({x}) + (1 ) Qc ({x}) = Q d ({x}) + 1 Q c ({x})

Qd ({x}) = Q d ({x})
Q d ({x}) > 0 x Sd
ii) Mostremos que Sd Sd .
x Sd ,



Qd ({x}) + (1 ) Qc ({x}) = Q d ({x}) + 1 Q c ({x})

Qd ({x}) = Q d ({x})
Qd ({x}) > 0 x Sd
iii) Ent
ao Sd = Sd o que implica que Q (Sd ) = Q (Sd ).
Sendo Qd (Sd ) = Q d (Sd ) = 1 e Qc (Sd ) = Q c (Sd ) = 0 conclumos que = .
Ent
ao
x R, Qd ({x}) = Q d ({x}) Qd = Q d
j
a que Qd e Q d sao leis discretas.
Se
B B,

Q (B) = Qd (B) + (1 ) Qc (B) = Qd (B) + (1 ) Q c (B)


Qc (B) = Q c (B)

Exemplo 3.3.25 Seja Q a lei de probabilidade sobre (R, R) com func


ao de distribuica
0
$ x

1
2
1 t/
e
F (x) = I]1,+[ (x) +
dt I]0,+[ (x)
3
3
0
com R+ .
Verificamos que Q e uma mistura da lei degenerada no ponto 1 e da lei exponencial de par
ametros
(0, ), isto e
1
2
Q = Qd + Qd
3
3
com Qd uma lei de probabilidade discreta de suporte Sd = {1} e Qc uma lei de probabilidade absolutamente
1
contnua de densidade de probabilidade f (x) = ex/ I]0,+[ .

Captulo 4

LEIS DE PROBABILIDADE SOBRE Rm


4.1

Introdu
c
ao

Por vezes e necessario fazer a an


alise simult
anea de v
arias propriedades ou caractersticas quantitativas dos
elementos do universo de uma experiencia aleatoria E. Nesta situacao, a cada resultado da experiencia
e associada nao apenas uma vari
avel, mas um vector de variaveis aleatorias, que designaremos por vector
aleatorio.
Exemplo 4.1.1 Consideremos uma populac
ao de empresas, das quais se escolhe uma ao acaso. Se existirem
m empresas, ent
ao o universo e = {1 , 2 , . . . , m } onde i representa a empresa i.
Sobre este universo de empresas podemos definir v
arias correspondencias (ou vari
aveis aleat
orias):
X (), sendo X () o n
umero de empregados da empresa ;
W (), sendo W () o encargo total anual em sal
arios da empresa ;
Y (), sendo Y () o valor anual dos impostos cobrados a
` empresa ;
Z (), sendo Z () o volume de vendas anual da empresa ;
e muitas mais.
Se quisermos estudar em conjunto as vari
aveis aleat
orias X, W e Y , ser
a necess
ario considerar o estudo
do vector aleat
orio (X, W, Y ).
Seja (, F, P ) o espaco de probabilidade de uma experiencia aleatoria E.
ao m (ve.a.) definido sobre (, F, P ) a todo o
Deni
c
ao 4.1.2 Chama-se vector aleat
orio de dimens
m-uplo de vari
aveis aleat
orias, (X1 , X2 , . . . , Xm ), definidas sobre (, F, P ).
Desta denicao conclumos que um vector aleatorio (X1 , X2 , . . . , Xm ) e determinado pelas m v.a.s X1 ,
aveis aleat
orias marginais
X2 , . . . , Xm . A tais v.a.s chamamos margens de (X1 , X2 , . . . , Xm ) ou vari
Nota: A denicao de vector aleatorio e consistente com a denicao de vector aleatorio como funcao
mensuravel de (, F) em (Rm , Bm ).
De facto, o que a denicao nos diz e que (X1 , X2 , . . . , Xm ) e uma aplicacao sobre (, F) com valores em
Rm ,
(X1 , X2 , . . . , Xm ) : Rm
(X1 () , X2 () , . . . , Xm ())
tal que
i {1, 2, . . . , m} , Bi B, (X1 , X2 , . . . , Xm )1 (B1 B2 . . . Bm ) F
55

Probabilidades e Estatstica I

56

onde B designa a -algebra de Borel de R.


Por outro lado, (X1 , X2 , . . . , Xm ) e uma vari
avel aleatoria sobre Rm se
(X1 , X2 , . . . , Xm ) : Rm
(X1 () , X2 () , . . . , Xm ())
e uma aplicacao tal que
B Bm , (X1 , X2 , . . . , Xm )1 (B) F
onde Bm designa a -algebra de Borel de Rm .
Ora, tendo em conta que as v.a.s Xi estao denidas sobre F e que toda a -algebra e estavel para a
interseccao nita, tem-se
(X1 , X2 , . . . , Xm )1 (B1 B2 . . . Bm ) =

m


Xi1 (Bi ) F

i=1

Seja Bm a -algebra sobre Rm gerada pela classe S de partes de Rm denida por


S = {B1 B2 . . . Bm : Bi B, i {1, 2 . . . , m}}
algebra de Borel de Rm .
A -algebra Bm e chamada -
Atendendo a que Bm e a -algebra gerada pela classe S, prova-se que se (X1 , X2 , . . . , Xm ) e um vector
aleatorio de dimens
ao m, ent
ao
B Bm , (X1 , X2 , . . . , Xm )1 (B) F
Deni
c
ao 4.1.3 Chama-se lei de probabilidade de um ve.a. (X1 , X2 , . . . , Xm ) `
a probabilidade P(X1 ,X2 ,...,Xm )
em (Rm , Bm ), imagem da probabilidade P sobre (, F) pela aplicac
ao mensur
avel (X1 , X2 , . . . , Xm ), ou seja


B Bm , P(X1 ,X2 ,...,Xm ) (B) = P (X1 , X2 , . . . , Xm )1 (B) .
As leis de probabilidade das margens Xi do ve.a. (X1 , X2 , . . . , Xm ) sao chamadas leis marginais e
representadas por PXi , i = 1, . . . , m.

4.2

Fun
c
ao de distribui
c
ao de uma lei de probabilidade sobre Rm

Seja Q uma lei de probabilidade sobre (Rm , Bm ).


Deni
c
ao 4.2.1 Chama-se fun
c
ao de distribui
c
ao (f.d.) de Q `
a funca
o F definida sobre Rm e com
valores em [0, 1] tal que
m


m
(x1 , . . . , xm ) R , F (x1 , . . . , xm ) = Q
], xi ] .
i=1

Supondo Rm munido da relacao de ordem usual,


Proposi
c
ao 4.2.2 A func
ao de distribuic
ao de F de uma lei de probabilidade Q sobre (Rm , Bm ) goza das
seguintes propriedades:

Probabilidades e Estatstica I

57

1. F e n
ao decrescente;
2. (x1 , . . . , xm ) Rm ,

lim

h1 o+ ,...,hm o+

F (x1 + h1 , . . . , xm + hm ) = F (x1 , . . . , xm ).

Designamos esta propriedade de F por continuidade a


` direita de F ;
3. (a)

lim

x1 +,...,xm +

F (x1 , . . . , xm ) = 1;

(b) i {1, 2, . . . , m} ,

lim F (x1 , . . . , xm ) = 0;

xi

Para todo o boreliano de Rm da forma

m


]ai , bi ], com (a1 , . . . , am ) Rm , (b1 , . . . , bm ) Rm , e ai < bi para

i=1

todo o i, tem-se

m
m


]ai , bi ]
= F (b1 , . . . , bm )
F (b1 , . . . , bi1 , ai , bi+1 , . . . , bm ) +
Q
i=1

i=1

m
m

F (b1 , . . . , bi1 , ai , bi+1 , . . . , bj1 , aj , bj+1 , . . . , bm )

i=1 j=i+1
n

. . . (1) F (a1 , . . . , am )
Demonstracao: As provas das propriedades 1, 2 e 3 s
ao an
alogas a`s realizadas para o caso unidimensional.
Ou
ltimo resultado pode ser provado usando a f
ormula de Poincare
Ou
ltimo resultado da anterior proposicao estabelece logo que
Proposi
c
ao 4.2.3 Qualquer lei de probabilidade Q sobre (Rm , Bm ) tem uma e uma s
o func
ao de distribuica
o.
Seja (X1 , X2 , . . . , Xm ) um ve.a. de dimens
ao m denido sobre (, F, P ) e com lei de probabilidade
P(X1 ,X2 ,...,Xm ) .
Deni
c
ao 4.2.4 Chama-se fun
c
ao de distribui
c
ao do ve.a. (X1 , X2 , . . . , Xm ) `
a funca
o de distribuic
ao
F(X1 ,X2 ,...,Xm ) da sua lei de probabilidade, isto e,
(x1 , . . . , xm ) Rm , F(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =
= P (X1 x1 , X2 x2 , . . . , Xm xm ) =
m


], xi ] ,
= P(X1 ,X2 ,...,Xm )
i=1

onde (X1 x1 , X2 x2 , . . . , Xm xm ) e o acontecimento

m


{Xi xi }.

i=1

ao de distribuica
o do ve.a. (X1 , X2 , . . . , Xm ). Existem as
Proposi
c
ao 4.2.5 Seja F(X1 ,X2 ,...,Xm ) a func
umeros em
func
oes de distribuica
o de todos os sub-vectores de (X1 , X2 , . . . , Xm ). Isto e, para i1 , . . . , ik n
{1, 2, . . . , m} verificando i1 < . . . < ik , existe e e func
ao de distribuica
o, a func
ao F(X1 ,...,Xi ) , definida por
1

(x1 , . . . , xk ) R , F(Xi ,...,Xi ) (x1 , . . . , xk ) =


1
k

 i1 1
i2 i1 1
], x1 ] R
], x2 ] Ri3 i2 1 . . . ], xk ] Rmik .
= Q R
k

Demonstracao: A demonstracao passa pela vericacao das propriedades 1 a 3 da proposicao 4.2.2

Probabilidades e Estatstica I

58

Caracteriza
c
ao das leis de probabilidade sobre Rm

4.3

Tal como foi estudado para as leis de probabilidade em R, sobre Rm vamos ter leis de probabilidade discretas
e contnuas.

4.3.1

Leis de probabilidade discretas sobre Rm

Deni
c
ao 4.3.1
1. Uma lei de probabilidade Q sobre (Rm , Bm ) diz-se discreta se existe um subconjunto
finito ou infinito numer
avel de Rm , M , tal que Q (M ) = 1.
Ao menor subconjunto M verificando esta condic
ao, chama-se suporte da lei de probabilidade e
representa-se por S.
2. Um ve.a. (X1 , X2 , . . . , Xm ) diz-se discreto se a sua lei de probabilidade P(X1 ,...,Xm ) o for. A correspondente funca
o de probabilidade e designada por fun
c
ao de probabilidade conjunta e e habitual
ser representada por p(X1 ,X2 ,...,Xm ) .
Uma lei de probabilidade Q sobre (Rm , Bm ) discreta e caracterizada por uma funcao p, a que chamamos
func
ao de probabilidade de Q, denida por

Q ({(x1 , . . . , xm )}) , (x1 , . . . , xm ) S
m
(x1 , . . . , xm ) R , p (x1 , . . . , xm ) =
0,
caso contrario
A propriedade que se segue mostra que as margens de um ve.a. discreto sao vari
aveis aleatorias discretas.
ao
Proposi
c
ao 4.3.2 Seja (X1 , X2 , . . . , Xm ) um ve.a. discreto cuja lei de probabilidade tem suporte S e func
de probabilidade p(X1 ,X2 ,...,Xm ) . Nestas condic
oes, as vari
aveis aleat
orias Xi , i {1, 2, . . . , m}, s
ao discretas
de suportes
Si = {x R : (x1 , . . . , xi1 , x, xi+1 , . . . , xm ) S}
e func
oes de probabilidade
pXi (x) =

p(X1 ,X2 ,...,Xm ) (x1 , . . . , xi1 , x, xi+1 , . . . , xm ) ISi (x) .

(x1 S1 ,...,xi1 Si1 ,xi+1 Si+1 ,...,xm Sm )

c
ao de probabilidade marginal de Xi .
pXi e designada por fun
Demonstracao: Seja i {1, 2, . . . , m} arbitrariamente xo.
1. Provemos que a v.a. Xi e discreta de suporte Si .
Consideremos o subconjunto de R,
Si = {x R : (x1 , . . . , xi1 , x, xi+1 , . . . , xm ) S}
(a)
PXi (Si ) = P (Xi Si ) = P {(X1 , . . . , Xi , . . . , Xm ) S} = 1.
(b) Como S e o suporte de P(X1 ,...,Xm ) , Si e nito ou innito numer
avel e e o menor subconjunto de
R tal que PXi (Si ) = 1.
Assim, a v.a. Xi e discreta de suporte Si .

Probabilidades e Estatstica I

59

2. Determinacao de pi (x) = P (Xi = x) ISi (x).


pi (x) = P (Xi = x) ISi (x)
= P ({X1 R} . . . {Xi1 R} {Xi = x} {Xi+1 R} . . . {Xm R}) ISi (x) ,
o que e equivalente a` expressao apresentada na proposicao
Uma generalizacao desta proposicao garante que qualquer sub-vector de um ve.a. discreto e tambem
discreto e explicita qual a correspondente funcao de probabilidade.
Proposi
c
ao 4.3.3 Seja (X1 , X2 , . . . , Xm ) um ve.a. discreto cuja lei de probabilidade tem suporte S e
func
ao de probabilidade p(X1 ,X2 ,...,Xm ) . Para todos os valores i1 , . . . , ik em {1, 2, . . . , m}, com i1 < . . . < ik ,
(Xi1 , . . . , Xik ) e um ve.a. discreto de suporte S(i1 ,...,ik ) definido por
#
'
S(i1 ,...,ik ) = (x1 , . . . , xk ) Rk : (y1 , . . . , yi1 1 , x1 , yi1 +1 , . . . , yik 1 , xk , yik +1 , . . . , ym ) S
e func
ao de probabilidade, designada por fun
c
ao de probabilidade marginal de (Xi1 , . . . , Xik ),

p(X1 ,X2 ,...,Xm ) (y1 , . . . , yi1 1 , x1 , yi1 +1 , . . . , yik 1 , xk , yik +1 , . . . , ym ) ,


p(Xi ,...,Xi ) (x1 , . . . , xk ) =
1
k
efectuando o somat
orio para
(y1 , . . . , yi1 1 , yi1 +1 , . . . , yik 1 , yik +1 , . . . , ym ) S(1,...,i1 1,i1 +1,...,ik 1,ik +1,...,m) .
Exemplo 4.3.4 Seja (X, Y ) um ve.a. discreto cuja func
ao de probabilidade conjunta e dada por

  2
a x + y 2 , se (x, y) {0, 1, 2, 3} {0, 1}
p(X,Y ) (x, y) =
0,
caso contr
ario
Determine:
a) o valor da constante real a;
b) as func
oes de probabilidade marginais.
Resposta:
a) a = 1/32
b) pX (x) =
pY (y) =

4.3.2

1
32 I{0} (x) + 3I{1} (x) + 9I{2} (x)


1
32 14I{0} (y) + 18I{1} (y)


+ 19I{3} (x)

Leis de probabilidade contnuas sobre Rm

Deni
c
ao 4.3.5

1. Uma lei de probabilidade Q sobre (Rm , Bm ) diz-se contnua se

(x1 , . . . , xm ) Rm , Q ({(x1 , . . . , xm )}) = 0.


2. Um ve.a. de dimens
ao m, (X1 , X2 , . . . , Xm ), diz-se contnuo se a sua lei de probabilidade o for.
Tal como no caso das v.a.s unidimensionais contnuas, existe no conjunto das leis de probabilidade
contnuas sobre (Rm , Bm ), uma classe particularmente importante: a classe das leis absolutamente contnuas.
As denicoes seguintes caracterizam tal classe.

Probabilidades e Estatstica I

60

Deni
c
ao 4.3.6 Chama-se densidade de probabilidade sobre Rm a toda a func
ao f definida sobre Rm
e com valores em R tal que
a) f e n
ao negativa;
b) f e integr
avel sobre Rm e
$ +
$ +
...
f (x1 , . . . , xm ) dx1 . . . dxm = 1.

Deni
c
ao 4.3.7
a) Uma lei de probabilidade Q sobre (Rm , Bm ) e absolutamente contnua se a sua
funca
o de distribuic
ao F for absolutamente contnua, ou seja, se
m
 $
$ xm
x1

m
], xi ] =
...
f (t1 , . . . , tm ) dt1 . . . dtm ,
(x1 , . . . , xm ) R , F (x1 , . . . , xm ) = Q

i=1

para alguma funca


o f que seja densidade de probabilidade sobre Rm .
b) Um ve.a. (X1 , X2 , . . . , Xm ) diz-se absolutamente contnuo se a sua lei de probabilidade P(X1 ,...,Xm )
o for. A correspondente densidade de probabilidade, designada por densidade de probabilidade
conjunta, e habitual ser representada por f(X1 ,X2 ,...,Xm ) .
Teorema 4.3.8 Se Q e uma medida de probabilidade sobre R absolutamente contnua de func
ao de distribuic
ao F . Ent
ao F e deriv
avel excepto, quando muito, num conjunto numer
avel de pontos D1 e
(x1 , . . . , xm ) Rm D1 ,

f (x1 , . . . , xm ) =

F
(x1 , . . . , xm ) .
x1 . . . xm

Proposi
c
ao 4.3.9 Uma lei de probabilidade Q sobre (Rm , Bm ) e absolutamente contnua com densidade de
probabilidade f se, e s
o se,
m
 $
$ bm
b1

m
]ai , bi ] =
...
f (t1 , . . . , tm ) dt1 . . . dtm .
(a1 , . . . , am ) , (b1 , . . . , bm ) R , (ai < bi ) , Q
a1

i=1

am

Este resultado quando aplicado sobre a lei de probabilidade P(X1 ,X2 ,...,Xm ) de um ve.a. (X1 , X2 , . . . , Xm ),
permite-nos saber que (a1 , . . . , am ) , (b1 , . . . , bm ) Rm , (ai < bi ),
m


]ai , bi ] =
P (a1 < X1 b1 , a2 < X2 b2 , . . . , am < Xm bm ) = P(X1 ,X2 ,...,Xm )
$

b1

i=1
bm

...

=
a1

am

f(X1 ,X2 ,...,Xm ) (t1 , . . . , tm ) dt1 . . . dtm

Alem disso o valor da probabilidade mantem-se, se os extremos de algum ou de todos os intervalos nao
sao nitos ou se passarem de abertos a fechados.
Vamos agora vericar que as margens de um ve.a. absolutamente contnuo s
ao v.a.s absolutamente
contnuas e saber como deduzir as respectivas densidades de probabilidade.
ao m, absolutamente contnuo com densiProposi
c
ao 4.3.10 Seja (X1 , X2 , . . . , Xm ) um ve.a. de dimens
dade de probabilidade conjunta f(X1 ,X2 ,...,Xm ) . Para todo o i {1, 2, . . . , m}, Xi e uma v.a. absolutamente
contnua de densidade fXi tal que
x R, fXi (x) =
$ +
$ +
...
f(X1 ,X2 ,...,Xm ) (x1 , . . . , xi1 , x, xi+1 , . . . , xm ) dx1 . . . dxi1 dxi+1 . . . dxm .
=

fXi e designada por densidade de probabilidade marginal de Xi .

Probabilidades e Estatstica I

61

Demonstracao: Seja i um valor arbitrariamente xo de {1, 2, . . . , m}.


Seja FXi a funcao de distribuicao de Xi .
FXi (x) = P (Xi x) =
= P (X1 R, . . . , Xi1 R, Xi x, Xi+1 R, . . . , Xm R) =


= P(X1 ,X2 ,...,Xm ) Ri1 ], x] Rni =
$ x
$ +
$ +
...
...
f(X1 ,X2 ,...,Xm ) (x1 , . . . , xm ) dx1 . . . dxm =
=

%
$ x &$ +
$ +
=
...
f(X1 ,X2 ,...,Xm ) (x1 , . . . , xm ) dx1 . . . dxi1 dxi+1 . . . dxm dxi

Assim

FXi (x) =

fXi (t) dt,

e
$
fXi (x) =

...

f(X1 ,X2 ,...,Xm ) (x1 , . . . , xm ) dx1 . . . dxi1 dxi+1 . . . dxm

Ser
a fi de facto uma densidade de probabilidade?
ao negativa.
x R, fXi (x) 0, porque e o integral de uma funcao n

ao e integr
avel, pelo que fXi e integr
avel. E
Sendo f uma densidade de probabilidade sobre Rm , ent
obvio tambem que
$ +
fXi (x) dx = 1

A proposicao que se segue generaliza o anterior resultado a qualquer subvector de (X1 , X2 , . . . , Xm ).


Proposi
c
ao 4.3.11 Seja (X1 , X2 , . . . , Xm ) um ve.a. de dimens
ao m, absolutamente contnuo com denumeros i1 , . . . , ik em {1, 2, . . . , m}, com
sidade de probabilidade conjunta f(X1 ,X2 ,...,Xm ) . Para todos os n
i1 < . . . < ik , (Xi1 , . . . , Xik ) e uma ve.a. absolutamente contnuo de densidade f(X1 ,...,Xi ) tal que
1

(x1 , . . . , xk ) Rk , f(X1 ,...,Xi ) (x1 , . . . , xk ) =


1
k
$ +
$ +
...
f(X1 ,X2 ,...,Xm ) (y1 , . . . , yi1 1 , x1 , yii +1 , . . . , yik 1 , xk , yik +1 , . . . , ym ) dy1 . . . dym .
=

f(X1 ,...,Xi ) e designada por densidade de probabilidade marginal de (Xi1 , . . . , Xik ).


1
k
orio absolutamente contnuo sobre (Rm , Bm ). A
Proposi
c
ao 4.3.12 Se (X1 , X2 , . . . , Xm ) um vector aleat
sua func
ao de distribuic
ao F(X1 ,X2 ,...,Xm ) e deriv
avel excepto, quando muito, num conjunto numer
avel de
pontos D1 e
(x1 , . . . , xm ) Rm D1 ,

f(X1 ,X2 ,...,Xm ) (x1 , . . . , x2 ) =

m F(X1 ,X2 ,...,Xm )


(x1 , . . . , xm )
x1 . . . xm

Probabilidades e Estatstica I

62

Exemplo 4.3.13 Suponha que o ve.a. (X, Y ) e absolutamente contnuo com densidade de probabilidade
conjunta

ax (x y) , 0 < x < 2, x < y < x
f(X,Y ) (x, y) =
0,
caso contr
ario
Determine:
a) o valor da constante real a;
b) as densidade de probabilidade marginais.
Resposta:
a) a = 1/8
x3
I
(x)
4 ]0,2[
3 (2 y)2 (y 1) + 2y 3
(2 y)2 (4 + y)
I]2,0[ (y) +
I]0,2[ (y)
fY (y) =
24
48

b) fX (x) =

4.4

Independ
encia de v.a.s

Uma das questoes mais importantes que se podem colocar no estudo probabilstico ou estatstico de um
ve.a. (X1 , X2 , . . . , Xm ) diz respeito `a existencia ou n
ao de uma relacao ou associacao entre as v.a.s que
constituem o vector aleatorio.
Repare que, se se comprovar que duas v.a.s de um par aleat
orio estao fortemente associadas, ao conhecer
o valor de uma delas e possvel estimar com algumaprecisao o valor da outra.
O estudo do relacionamento entre v.a.s passa pelo estudo da sua independencia.
Sejam X1 , X2 , . . . , Xm m v.a.s todas denidas sobre o mesmo espaco de probabilidade (, F, P ) com
leis de probabilidade PX1 , PX2 , . . . , PXm e funcoes de distribuicao FX1 , FX2 , . . . , FXm , respectivamente.
Seja X (X1 , X2 , . . . , Xm ) o ve.a. de lei de probabilidade P(X1 ,X2 ,...,Xm ) e funcao de distribuicao
F(X1 ,X2 ,...,Xm ) .
ao independentes se
Deni
c
ao 4.4.1 As v.a.s X1 , X2 , . . . , Xm s
m

m


Bi =
PXi (Bi ) .
B1 , B2 , . . . , Bm B, P(X1 ,X2 ,...,Xm )
i=1

i=1

Contudo, para n
os far
a mais sentido expressar a independencia de v.a.s usando acontecimentos, porque
sobre independencia de acontecimentos ja sabemos algo.
A proposicao que se segue permite expressar a independencia de v.a.s a partir da independencia dos
acontecimentos por elas gerados.
ao independentes se, e s
o se, os acontecimentos
Proposi
c
ao 4.4.2 As v.a.s X1 , X2 , . . . , Xm s
1
1
1
X1 (B1 ) , X2 (B2 ) , . . . , Xm (Bm ) de F s
ao independentes, quaisquer que sejam os borelianos
B1 , B2 , . . . , Bm de R.
Demonstracao: A prova consiste em estabelecer a independencia entre a independencia de X1 , X2 , . . . , Xm
e a seguinte condicao:

k
k




 
1

B
Bij
(A) {i1 , . . . , ik } {1, 2, . . . , m} , Bi1 B, . . . , Bik B, P
Xi1
P
X
=
i
j
ij
j
j=1

j=1

Probabilidades e Estatstica I

63

i) Se as vari
aveis independentes, ent
ao

k
m






P
Xi1
P Xl1 (Bl )
B
=
i
j
j
j=1

l=1

onde Bl = R, para todo o l = ij .


Assim,

k


m




Xi1
Bl =
Bij = P(X1 ,X2 ,...,Xm )
j

j=1

l=1

m

l=1
k


PXl (Bl ) =

m




P Xl1 (Bl ) =

l=1



P Xij Bij

j=1

ii) Se se verica a propriedade (A) e imediato que as v.a.s X1 , X2 , . . . , Xm sao independentes. Basta
fazer k = m e {i1 , . . . , ik } = {1, 2, . . . , m}
De seguida, vamos estabelecer criterios que permitem caracterizar a independencia de vari
aveis aleatorias
`a custa da funcao de distribuicao e `a custa da funcao de probabilidade ou da densidade de probabilidade,
caso estejamos no caso discreto ou no caso contnuo, respectivamente.
Teorema 4.4.3 Uma condic
ao necess
aria e suficiente para que as v.a.s X1 , X2 , . . . , Xm sejam indepenoes de distribuic
ao
dentes e que a func
ao de distribuica
o F(X1 ,X2 ,...,Xm ) do ve.a. (X1 , X2 , . . . , Xm ) e as func
marginais FXi de Xi , i {1, 2, . . . , m}, verifiquem a seguinte igualdade:
(B)

(x1 , x2 , . . . , xm ) R , F(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =


m

m


FXi (xi ) .

i=1

A demonstracao da condicao necessaria e obvia e a demonstracao da condicao suciente esta fora do


nvel desta disciplina.
ao discretas, ent
ao uma condic
ao necess
aria e suficiente para
Teorema 4.4.4 Se as v.a.s X1 , X2 , . . . , Xm s
que sejam independentes e que se verifique a seguinte propriedade:
m

m


(C) x1 S1 , . . . , xm Sm , P
{Xi = xi } =
P (Xi = xi ) ,
i=1

i=1

ou, noutra notac


ao:
(C)

x1 S1 , . . . , xm Sm , p(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =

m


pXi (xi ) .

i=1

Demonstracao:
ao a condicao (C) decorre imediatamente da denicao de
a) Se X1 , X2 , . . . , Xm sao independentes, ent
v.a.s independentes bastando considerar os borelianos Bi = {Xi = xi }, para todo o i {1, 2, . . . , m}.

Probabilidades e Estatstica I

64

b) Por comodidade de escrita, a suciencia da condicao e estabelecida apenas para n = 2. No caso geral,
a demonstracao e an
aloga. Ora,
(x1 , x2 ) R2 , F(X1 ,X2 ) (x1 , x2 ) = P ({(X1 , X2 ) ], x1 ] ], x2 ]}) =
= P(X1 ,X2 ) (], x1 ] ], x2 ]) =
= P ({X1 ], x1 ]} {X2 ], x2 ]})
i) Se ], x1 ] S1 = ou ], x2 ] S2 = tem-se
PX1 (], x1 ]) = 0 ou PX2 (], x2 ]) = 0
e tambem
P(X1 ,X2 ) (], x1 ] ], x2 ]) = 0.
ii) Se ], x1 ] S1 = ou ], x2 ] S2 = tem-se

P(X1 ,X2 ) (], x1 ] ], x2 ]) =

(1) (2)
xj ,xj

=
(1)

#
P(X1 ,X2 )

(1)

(1)

(2)

PX1

#
'
#
'
(1)
(2)
xj
PX2
xj
=

(2)


#
'

(1)
xj
PX1

(1)

'

(S1 S2 )(],x1 ]],x2 ])

xj S1 ,xj x1 xj S2 ,xj x2

(2)

xj , xj

(1)

xj S1 ,xj x1

#
'

(2)
xj
PX2
=

(2)

(2)

xj S2 ,xj x2

= FX1 (x1 ) FX2 (x2 )


Exemplo 4.4.5 Reatemos o exemplo 4.3.4. As v.a.s X e Y s
ao independentes?
Teorema 4.4.6
1. Se as v.a.s X1 , X2 , . . . , Xm s
ao independentes e admitem densidades de probabilidade
fX1 , fX2 , . . . , fXm , respectivamente, X (X1 , X2 , . . . , Xm ) e um ve.a. absolutamente contnuo de
densidade de probabilidade conjunta f(X1 ,X2 ,...,Xm ) dada por
(x1 , x2 , . . . , xm ) R , f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =
m

m


fXi (xi ) .

i=1

2. Seja X (X1 , X2 , . . . , Xm ) um ve.a. absolutamente contnuo de densidade de probabilidade conjunta


f(X1 ,X2 ,...,Xm ) da forma
f(X1 ,X2 ,...,Xm ) = g1 g2 . . . gm
onde, para todo o i {1, 2 . . . , m}, gi e densidade de probabilidade sobre R.
Nestas condic
oes, as v.a.s X1 , X2 , . . . , Xm s
ao independentes e admitem, respectivamente, as densidades fX1 , fX2 , . . . , fXm dadas por
x R,

fXi (x) = gi (x) .

Probabilidades e Estatstica I

65

Demonstracao:
1. Nas condicoes enunciadas, determinemos a f.d. de X (X1 , X2 , . . . , Xm ).
(x1 , x2 , . . . , xm ) R , F(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =
m

x1

m


FXi (xi ) =

i=1
xm

fX1 (t1 ) dt1 . . .


fXm (tm ) dtm =

$ xm
$ x1
...
fX1 (t1 ) . . . fXm (tm ) dtm . . . dtm .
=

S
o resta provar que a funcao f(X1 ,X2 ,...,Xm ) denida por
(x1 , x2 , . . . , xm ) Rm , f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =

m


fXi (xi ) ,

i=1

e uma densidade de probabilidade sobre

Rm .

f(X1 ,X2 ,...,Xm ) 0 porque fXi 0, i {1, 2, . . . , m}.


$

...

f(X1 ,X2 ,...,Xm ) (t1 , . . . , tm ) dt1 . . . dtm =

$
fX1 (t1 ) dt1 . . .

fXm (tm ) dtm = 1

2. Da proposicao 4.3.10 sabemos que, para cada i {1, 2 . . . , m}, a v.a. Xi e absolutamente contnua e
admite como densidade de probabilidade a funcao
$
fXi (x) =

...

= gi (x)

g1 (t1 ) . . . gi (x) . . . gm (tm ) dt1 . . . dti1 dti+1 . . . dtm =


$

g1 (t1 ) dt1 . . .

gm (tm ) dtm =

= gi (x)
uma vez que para todo o i {1, 2 . . . , m}, gi e uma densidade de probabilidade sobre R.
Assim,
(x1 , x2 , . . . , xm ) Rm , f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =

m


fXi (xi ) .

i=1

Finalmente,
$
F(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =

x1

xm

fX1 (t1 ) . . . fXm (tm ) dtm . . . dtm =


$ xm
fX1 (t1 ) dt1 . . .
fXm (tm ) dtm =
...

$
x1

m


FXi (xi )

i=1

e o teorema 4.4.3 assegura a independencia das v.a.s X1 , X2 , . . . , Xm

Probabilidades e Estatstica I

66

Este u
ltimo teorema permite que se enuncie de modo pr
atico um criterio para a independencia de v.a.s
absolutamente contnuas.
Corol
ario 4.4.7 Uma condica
o necess
aria e suficiente para que um ve.a. X (X1 , X2 , . . . , Xm ) absolutamente contnuo seja formado por v.a.s independentes e que a sua densidade de probabilidade conjunta seja
da forma
(x1 , x2 , . . . , xm ) R , f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) =
m

m


fXi (xi ) ,

i=1

onde, para todo o i {1, 2 . . . , m}, fXi e, respectivamente, a densidade de probabilidade da v.a. absolutamente contnua Xi .
Exemplo 4.4.8 Reatemos o exemplo 4.3.13. As v.a.s X e Y s
ao independentes?
E para terminarmos, o que acontece sobre a independencia de transformadas de v.a.s independentes?
Ser
ao tambem independentes?
ao m v.a.s independentes e 1 , 2 , . . . , m s
ao m func
oes reais de
Proposi
c
ao 4.4.9 Se X1 , X2 , . . . , Xm s
vari
avel real verificando, para todo o i {1, 2 . . . , m},
Bi B,

1
i (Bi ) B,

(4.4.1)

ent
ao
1 (X1 ) , . . . , m (Xm )

ou de modo an
alogo

1 X1 , . . . m Xm

s
ao v.a.s independentes.
Nota: A condicao 4.4.1 diz-nos que as funcoes i sao funcoes mensuraveis de (R, B) em (R, B). Isto
serve para assegurar que 1 (X1 ) , . . . , m (Xm ) sao vari
aveis aleatorias.
Demonstracao:
independentes.

aveis aleatorias. Resta provar que s


ao
J
a sabemos que 1 (X1 ) , . . . , m (Xm ) sao vari

i {1, 2 . . . , m} , Bi B,
m

*
+
m


= P
: (1 X1 , . . . m Xm ) ()
=
Bi
Bi
P(1 X1 ,...m Xm )
i=1

i=1

= P ({ : (1 X1 ) () B1 } . . . { : (m Xm ) () Bm }) =


= P (1 X1 )1 (B1 ) . . . (m Xm )1 (Bm ) =

 1



1
= P X11 1
1 (B1 ) . . . Xm m (Bm )
A proposicao 4.4.2 permite ent
ao escrever
m





 1  1

m (Bm ) =
= P X11 1
Bi
. . . P Xm
P(1 X1 ,...m Xm )
1 (B1 )
i=1





= P (1 X1 )1 (B1 ) . . . P (m Xm )1 (Bm ) .

Probabilidades e Estatstica I

67

Assim, tendo em conta a denicao de lei imagem,


m


P(1 X1 ,...m Xm )
Bi = P(1 X1 ) (B1 ) . . . P(m Xm ) (Bm ) .
i=1

Observa
c
oes:
1. A recproca desta proposicao pode n
ao ser valida.
2. Todas as funcoes contnuas s
ao mensuraveis. Mais geralmente, a soma, a diferenca, o produto, o
quociente (desde que denido) e a composicao de funcoes mensuraveis e mensuravel. N
ao se esqueca
que tambem a funcao indicatriz e mensuravel.

4.5

Leis condicionais

Sejam X e Y dois ve.a.s denidos sobre um espaco de probabilidade (, F, P ) e assumindo valores em


(Rm , Bm ) e (Rn , Bn ), respectivamente. O objectivo deste estudo e o de conhecer a lei do ve.a. de dimensao
n, Y , sabendo que uma realizacao do ve.a. X conduziu ao resultado x Rm ; esta lei sera chamada lei
condicional de Y sabendo que X = x e denotada por PY |X=x
Vamos separar o estudo da referida lei condicional quando X e um ve.a. discreto e quando (X, Y )
e um ve.a. absolutamente contnuo. Vamos designar, como usualmente, por P(X,Y ) , PX e PY as leis de
probabilidade de (X, Y ), X e Y , respectivamente.

4.5.1

Caso em que X
e um vector aleat
orio discreto

Suponhamos que X e um ve.a. discreto sobre (Rm , Bm ) de suporte SX = {x1 , . . . , xk , . . .} Rm .


Como PX ({xi }) > 0, i N, tem-se que, se A Bn ,
P (Y A |X = xi ) =

P (Y A, X = xi )
.
P (X = xi )

Nestas condicoes, dene-se a lei condicional de Y sabendo X por


A Bn , PY |X=x (A) =

P (Y A, X = x)
, se x SX .
P (X = x)

Nota: Para todo o x SX , PY |X=x e uma funcao de probabilidade sobre (Rn , Bn ).


Assim, como PX (SX ) = 1, dizemos que a lei condicional de Y sabendo X esta denida PX quase certamente
(q.c.).
Da denicao de lei condicional de Y sabendo X, conclumos imediatamente que, se X e Y sao ve.a.
independentes ent
ao
PY |X=x = PY , x SX
Exemplo 4.5.1 Reatemos o exemplo 4.3.4. Determine a lei condicional de X dado Y , indicando o suporte
e a func
ao de probabilidade das v.a.s X |Y = 0 e de X |Y = 1 . Tratam-se de leis discretas?
1
Resposta: SX|Y =0 = {1, 2, 3} e pX|Y =0 (x) = 14
I{1} (x) + 4I{2} (x) + 9I{3} (x)


1
SX|Y =1 = {0, 1, 2, 3} e pX|Y =1 (x) = 18 I{0} (x) + 2I{1} (x) + 5I{2} (x) + 10I{3} (x)

Probabilidades e Estatstica I

4.5.2

68

Caso em que (X, Y )


e um vector aleat
orio absolutamente contnuo

Seja (X, Y ) um ve.a. absolutamente contnuo com densidade de probabilidade g(X,Y ) . A proposicao 4.3.11
permite-nos saber que X e Y sao ve.a.s absolutamente contnuos. Representemos por gX a densidade de
probabilidade marginal de X e por gY a densidade de probabilidade marginal de Y .
Seja SX o suporte de X, isto e, SX = {x Rm : gX (x) > 0}.
Dena-se a seguinte famlia de funcoes sobre Rn :
y Rn , gY |x (y) =

g(X,Y ) (x, y)
, x SX
gX (x)

e analisemos as suas propriedades.


1. gY |x esta denida PX q.c., uma vez que
$
PX (SX ) =
$
=

{x: gX (x)>0}

gX (x) dx

gX
{x: gX (x)0}
$ +
$ +

...

(x) dx

gX (x1 , . . . , xm ) dx1 . . . dxm = 1

2. x SX , gY |x e uma densidade de probabilidade sobre Rn . De facto


(a) x SX , gY |x (y) 0.
(b)
$

...

$ +

=
=

$ +

...
$

gY |x (y1 , . . . , yn ) dy1 . . . dyn =

g(X,Y ) (x, (y1 , . . . , yn ))


dy1 . . . dyn =
gX (x)

$ +
+
...
g(X,Y ) (x, (y1 , . . . , yn )) dy1 . . . dyn =

1
gX (x)

1
gX (x) = 1
gX (x)

Nestas condicoes, dene-se PX q.c., a lei condicional de Y sabendo X como a lei de probabilidade sobre
(Rn , Bn ) absolutamente contnua de densidade de probabilidade
y Rn , gY |x (y) =

g(X,Y ) (x, y)
, x SX
gX (x)

A esta densidade chama-se densidade condicional de Y dado X=x.


Desta denicao conclumos tambem que, se X e Y sao independentes,
y Rn , gY |x (y) =

g(X,Y ) (x, y)
gX (x) gY (y)
=
= gY (y) , x SX
gX (x)
gX (x)

ou seja a lei de probabilidade de Y sabendo X coincide com a lei de probabilidade de Y e portanto, o


conhecimento de X n
ao afecta a lei de probabilidade de Y .

Probabilidades e Estatstica I

69

Exemplo 4.5.2 Reatemos o exemplo 4.3.13. Determine a densidade condicional de Y sabendo X. Calcule
tambem a P (1 < Y < 1 |X = 2 ).
1xy
Resposta: fY |x (y) =
I
(y) I]0,2[ (x) e P (1 < Y < 1 |X = 2 ) = 1/2.
2 x2 ]x,x[
Repare que, x ]0, 2[, a v.a. Y |X = x tem lei uniforme no intervalo ]x, x[.

4.6

Duas transforma
co
es importantes de um ve.a.

Exerccio 4.6.1 Seja (X1 , X2 , . . . , Xm ), m 1, um ve.a. com func


ao de distribuic
ao F(X1 ,X2 ,...,Xm ) .
1. Considere a v.a. Mm = max (X1 , X2 , . . . , Xm ).
(a) Deduza a func
ao de distribuic
ao da v.a. Mm .
Soluc
ao: FMm (x) = F(X1 ,X2 ,...,Xm ) (x, x, . . . , x).
ao v.a.s independentes com funca
o de distribuic
ao FXi , i = 1, 2, . . . , m,
(b) Se X1 , X2 , . . . , Xm s
deduza a funca
o de distribuic
ao de Mm .

Soluc
ao: FMm (x) = m
i=1 FXi (x).
ao v.a.s independentes e identicamente distribudas (i.i.d), com func
ao de
(c) Se X1 , X2 , . . . , Xm s
distribuic
ao F , i = 1, 2, . . . , m, deduza a func
ao de distribuica
o de Mm .
Soluc
ao: FMm (x) = [F (x)]m = F m (x).
2. Considere a v.a. Nm = min (X1 , X2 , . . . , Xm ) e a func
ao
(x1 , x2 , . . . , xm ) Rm , S(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) = P (X1 > x1 , X2 > x2 , . . . , Xm > xm ) .
(a) Deduza a funca
o de distribuic
ao da v.a. Nm em termos de S(X1 ,X2 ,...,Xm ) .
Soluc
ao: FNm (x) = 1 S(X1 ,X2 ,...,Xm ) (x, x, . . . , x).
ao v.a.s independentes com funca
o de distribuic
ao FXi , i = 1, 2, . . . , m,
(b) Se X1 , X2 , . . . , Xm s
deduza a funca
o de distribuic
ao de Nm .

Soluc
ao: FNm (x) = 1 m
i=1 (1 FXi (x)).
ao v.a.s independentes e identicamente distribudas (i.i.d), com func
ao de
(c) Se X1 , X2 , . . . , Xm s
distribuic
ao F , i = 1, 2, . . . , m, deduza a func
ao de distribuica
o de Nm .
Soluca
o: FNm (x) = 1 [1 F (x)]m .

Casos importantes de leis de probabilidade em Rm

4.7
4.7.1

Leis discretas

Lei multinomial
A lei multinomial e uma generalizacao natural da lei binomial.
Seja E uma experiencia aleatoria onde se pode observar um de k acontecimentos A1 , A2 , . . . , Ak mutuamente exclusivos e exaustivos, ou seja, = A1 A2 . . . Ak .
Seja 0 < pi < 1 a probabilidade de se realizar o acontecimento Ai , i = 1, 2, . . . , k.
Repare que p1 + p2 + . . . + pk = 1.
Admitamos que a experiencia E e repetida n vezes nas mesmas condicoes. Isto signica que as probabilidades p1 , p2 , . . . , pk se mantem constantes em todas as realizacoes da experiencia e que os resultados
das mesmas sao independentes.

Probabilidades e Estatstica I

70

Denam-se k v.a.s X1 , X2 , . . . , Xk do seguinte modo:


i {1, 2, . . . , k} , Xi = no de vezes que o acontecimento Ai ocorre nas n realizacoes de E
Relativamente ao ve.a. (X1 , X2 , . . . , Xk ) podemos dizer que o seu suporte e
+
*
k

xi = n
S = (x1 , x2 . . . , xk ) : 0 xi n, i = 1, 2, . . . , k e
i=1

e que
(x1 , x2 , . . . , xk ) S,

P(X1 ,X2 ,...,Xk ) {(x1 , x2 , . . . , xk )} =


= P (X1 = x1 , X2 = x2 , . . . , Xk = xk ) =
n!
px1 px2 . . . pxk k
=
x1 !x2 ! . . . xk ! 1 2

Mas se considerarmos Ak = (A1 A2 . . . Ak1 ), ent


ao pk = 1 p1 p2 . . . pk1 , Xk =
n X1 X2 . . . Xk1 e xk = n x1 x2 . . . xk1 .
Assim sendo, dizemos que (X1 , X2 , . . . , Xk1 ) e um ve.a. com lei multinomial de par
ametros
(n, p1 , . . . , pk1 ).
O seu suporte e
*
S=

(x1 , x2 . . . , xk1 ) : 0 xi n, i = 1, 2, . . . , k 1 e

k1

+
xi n

i=1

e
(x1 , x2 , . . . , xk1 ) S, P(X1 ,X2 ,...,Xk1 ) {(x1 , x2 , . . . , xk1 )} =
= P (X1 = x1 , X2 = x2 , . . . , Xk1 = xk1 ) =
n!
xk1
px1 . . . pk1
(1 p1 . . . pk1 )nx1 ...xk1
=
x1 ! . . . xk1 ! (n x1 . . . xk1 )! 1
Exemplo 4.7.1 Relativamente ao exerccio , se X =no de trabalhadores com atitude hostil e Y =
orio (X, Y ) tem distribuic
ao multinomial de
no de trabalhadores com atitude cooperativa, o par aleat
par
ametros (12, 0.3, 0.6).
A probabilidade de, em 12 trabalhadores, 5 terem atitude hostil e 4 terem atitude cooperativa, ser
a de
P (X = 5, Y = 4) =

4.7.2

12!
0.35 0.64 0.13
5!4!3!

Leis absolutamente contnuas

Lei multinormal ou normal multivariada


Um ve.a. (X1 , X2 , . . . , Xm ) absolutamente contnuo com densidade de probabilidade conjunta


1
1
T
1
exp (x ) (x )
x (x1 , x2 , . . . , xm ) , f(X1 ,X2 ,...,Xm ) (x) =

2
(2)m/2 det
onde e um vector de Rm arbitrariamente xo e e uma matriz quadrada de ordem m, real, simetrica
e denida positiva, diz-se ter lei multinormal (ou lei normal multivariada) de par
ametros (, ).
A import
ancia das leis multinormais justica que adiante se faca um estudo mais exaustivo das suas
propriedades e do signicado dos par
ametros e .

Captulo 5

Momentos
Os par
ametros que vamos introduzir neste captulo podem ser denidos em toda a sua generalidade, quando
consideramos uma qualquer probabilidade Q sobre (R, B), a` custa do integral de Lebesgue. Sendo nosso
objectivo dirigirmo-nos a pessoas n
ao necessariamente familiarizados com aquele integral, vamos apresentar
aqui as formas que tais denicoes assumem nos casos particulares de Q ser uma lei de probabilidade associada
a uma v.a. discreta ou absolutamente contnua.
Estes parametros nao caracterizam, em geral, a lei de probabilidade a que est
ao associados; no entanto,
podem fornecer informacao relevante sobre a localizacao, dispers
ao, simetria, . . . , dos valores da vari
avel
que lhe esta associada (ou do suporte dessa lei).

5.1

Valor M
edio ou Esperan
ca Matem
atica

Caso discreto
Comecamos por introduzir a denicao de valor medio de uma v.a. com lei de probabilidade discreta.
ao de
Deni
c
ao 5.1.1 Seja X uma v.a. discreta de suporte S = {x1 , x2 , . . . , xk , . . .} e com func

|xn | P (X = xn ) < +, define-se o valor m


edio
probabilidade f (xn ) = P (X = xn ) , n N. Se
n=1

(ou esperan
ca matem
atica) da v.a. X como sendo
E (X) =

xn P (X = xn ) .

n=1

Observa
c
oes:
1. E (X) n
ao e necessariamente um valor assumido pela v.a. X.
2. Se S e nito, existe sempre E (X). Mas se S e innito numer
avel, E (X) so e denido quando
a serie envolvida na denicao e absolutamente convergente. Isto pode justicar-se do seguinte
modo:
Se a serie for absolutamente convergente, podemos fazer qualquer reordenacao dos seus termos
sem que isso afecte a soma da serie. Se a serie for simplesmente convergente, uma reordenacao
dos seus termos pode conduzir a uma serie divergente ou convergente, cujo valor depende dessa
reordenacao.

71

Probabilidades e Estatstica I

72

3. O valor medio expressa o ponto de equilbrio de uma v.a. e faz parte do grupo das chamadas
medidas de localizac
ao.

Exemplo 5.1.2 Seja X uma v.a. com lei binomial de par


ametros (n, p) e determinemos o seu valor
medio. Como o suporte desta lei e S = {0, 1, . . . , n}, finito, ent
ao podemos garantir a existencia de
E (X).
 
n
n

n k
E (X) =
kP (X = k) =
k
p (1 p)nk =
k
k=0

k=1

k=0

n!
n!
pk (1 p)nk =
pk (1 p)nk =
k
k! (n k)!
(k 1)! (n k)!
n

k=1

n (n 1)!
p pk1 (1 p)n1(k1) =
(k 1)! (n 1 (k 1))!
k=1
n1

n 1
pj (1 p)n1j = np (p + 1 p)n1 = np
= np
j
=

j=0

Caso absolutamente contnuo


Apresentamos agora a denicao de valor medio de uma v.a. com lei absolutamente contnua.
Deni
ao 5.1.3 Seja X uma v.a. absolutamente contnua com densidade de probabilidade f . Se
$ + c
|x| f (x) dx < + dizemos que o valor m
edio (ou esperan
ca matem
atica) da v.a. X existe

e e dada por

xf (x) dx.

E (X) =



Exemplo 5.1.4 Seja X uma v.a. com lei normal de par
ametros , 2 e determinemos o seu valor
medio.
Comecemos por verificar que esse valor medio pode ser definido.
$

$
|x| f (x) dx =
=

=
=
=

$ +

1
|x|
2

1 x

e 2

2

dx =

1
2
| + t| et /2 dt = para t = (x ) /
2

$ +
$ +
1
1
2
2
et /2 dt +
||
|t| et /2 dt =
2
2


$ 0
$ +
1
1
t2 /2
t2 /2
(t) e
dt +
t e
dt =
|| +
2
2

0
$ +

$ +
1
1
t2 /2
t2 /2
|| +
t e
dt +
t e
dt =
2
2
0
0

, t2 /2 -+
e
= || + 2 < +
|| + 2
0
2
2

Probabilidades e Estatstica I

73

Podemos ent
ao calcular o E (X).


E (X) =

$ +

1
x
2

1 x

e 2

2

dx =

1
2
( + t) et /2 dt = para t = (x ) /
2

$ +
$ +
1
1
2
2
et /2 dt =
t et /2 dt +
=
2
2

, t2 /2 -+
=
+1=
e



Nota: Uma v.a. X com lei normal de par
ametros , 2 , tem valor medio igual ao valor do 1o
par
ametro da sua lei.
Caso misto
Se X e uma v.a. com lei mista Q = Qd + (1 ) Qc , com ]0, 1[, Y e a v.a. discreta com lei Qd
e W e a v.a. absolutamente contnua com lei Qc , ent
ao E (X) = E (Y ) + (1 ) E (W ).
Vamos agora apresentar a denicao de valor medio de uma transformada de uma v.a. X.
Deni
c
ao 5.1.5 Caso discreto
Seja X uma v.a. discreta de suporte S = {x1 , x2 , . . . , xk , . . .} e com func
ao de probabilidade f (xn ) =
P (X = xn ) , n N e considere-se uma func
ao : R R tal que (X) seja uma vari
avel aleat
oria.

| (xn )| P (X = xn ) < +, e tem-se


Ent
ao E ( (X)) existe se, e s
o se,
n=1

E ( (X)) =

(xn ) P (X = xn ) .

n=1

Caso absolutamente contnuo


Seja X uma v.a. absolutamente contnua com densidade de probabilidade f e considere-se uma
func$
ao : R R tal que (X) seja uma vari
avel aleat
oria. Ent
ao E ( (X)) existe se, e s
o
+

se,

| (x)| f (x) dx < + e tem-se


$

(x) f (x) dx.

E ( (X)) =

Observa
c
oes:
1. A anterior denicao de valor medio e um caso particular desta.
2. Como |X| e uma v.a., ent
ao podemos dizer que o valor medio E (X) existe se, e so se, existe E (|X|).

Probabilidades e Estatstica I

5.1.1

74

Propriedades do valor m
edio

Proposi
c
ao 5.1.6
ao
1. Se X e uma v.a. igual a a quase certamente, a R, (isto e, se X tem uma lei degenerada em a) ent
E (X) = a.
2. Seja : R R uma func
ao tal que (X) e uma vari
avel aleat
oria. Se existe E ( (X)), ent
ao
(a) existe E (a (X) + b), quaisquer que sejam os n
umeros reais a e b e tem-se
E (a (X) + b) = aE ( (X)) + b.
(b) |E ( (X))| E (| (X)|).
ao func
oes reais de vari
avel real tais que i (X) s
ao v.a.s que admitem valor
3. (a) Se 1 , 2 , . . . , N s
medio, para todo o n = 1, 2, . . . , N , ent
ao
N

N

E
i (X) =
E (i (X)) .
i=1

i=1

oes reais de vari


avel real tais que 1 (X) e 2 (X) s
ao v.a.s e |1 (X)|
(b) Sejam 1 e 2 duas func
ao 1 (X) tambem admite valor medio e tem-se
|2 (X)|. Se 2 (X) admite valor medio, ent
E (|1 (X)|) E (|2 (X)|) .
Demonstracao:
1. X e v.a. discreta com suporte S = {a} e P (X = a) = 1. Ent
ao E (X) = aP (X = a) = a.
2. (a) No caso em que X e uma v.a. absolutamente contnua de densidade de probabilidade f . O
E (a (X) + b) existe, porque
$ +
E (|a (X) + b|) =
|a (X) + b| f (x) dx

|a|
e

$
E (a (X) + b) =

$
| (x)| f (x) dx + |b|

f (x) dx < +

(a (X) + b) f (x) dx =

$ +

= a

(x) f (x) dx + b

f (x) dx =

= aE ( (X)) + b
A demonstracao e an
aloga para o caso em que X e v.a. discreta.
(b) No caso em que X e uma v.a. discreta de suporte S = {x1 , x2 , . . . , xk , . . .} e funcao de probabilidade f (xi ) = P (X = xi ) , i N.



(xi ) P (X = xi )
| (xi )| P (X = xi ) = E (| (X)|)
|E ( (X))| =


i=1

i=1

No caso em que X e v.a. absolutamente contnua, a demonstracao e analoga.

Probabilidades e Estatstica I

75

3. (a) No caso geral, a prova ultrapassa o nvel desta disciplina. Vamos apenas demonstrar o resultado
no caso em que X e v.a. absolutamente contnua de densidade de probabilidade f e i (X) ser
tamb
contnua, i {1, 2, . . . , N }. Comecamos por vericar a existencia de
 Nem absolutamente


E
i (X) .
i=1



 N
$ +





i (X)
i (x) f (x) dx
E
=




i=1

i=1
$
N

i=1

Ent
ao
E


i (X)

i=1

N

N $

i=1

|i (x)| f (x) dx < +



i (x) f (x) dx =

i=1

i (x) f (x) dx

E (i (X))

i=1

Outros casos podem ser demonstrados de modo identico.


(b) Tambem aqui sera necessario optar por uma estrategia de demonstracao an
aloga ao caso anterior.
E, para cada situacao, a demonstracao n
ao oferece diculdades

5.2

Momentos

Podem ser estudados outros par


ametros associados a uma v.a. e que designamos genericamente por momentos. Os momentos nao sao mais do que valores medios de funcoes particulares e que vericam os propriedades
exigidas na seccao anterior.
Seja X uma v.a. denida num
 k espaco de probabilidade (, F, P ) e seja k N. Suponhamos que para
um valor xo de k, existe o E X .

Deni
c
ao 5.2.1 D
a-se o nome de momento de ordem k de X a mk = E X k .
Exemplo 5.2.2 Seja X uma v.a. com lei binomial de par
ametros (n, p). J
a vimos que m1 = E (X) = np.

Probabilidades e Estatstica I

76

Calculemos agora o momento de ordem 2. Sabemos que ele existe porque o suporte de X e finito.
 
n
n


n k
m2 = E X 2 =
p (1 p)nk =
k 2 P (X = k) =
k2
k
k=0
k=0
 
n
n

n!
nk
2 n
k
=
p (1 p)
pk (1 p)nk =
k
=
k2
k
k! (n k)!
k=1

k=1

k=2

k=2

k=1

n!
n!
pk (1 p)nk =
pk (1 p)nk =
k
(k 1 + 1)
(k 1)! (n k)!
(k 1)! (n k)!
n

k=1

n!
pk (1 p)nk +
(k 2)! (n k)!

k=1

n!
pk (1 p)nk =
(k 1)! (n k)!

n (n 1) (n 2)!
p2 pk2 (1 p)n2(k2) +
(k 2)! (n 2 (k 2))!

n (n 1)!
p pk1 (1 p)n1(k1) =
(k 1)! (n 1 (k 1))!
k=1
n2
n1

n 2

n 1
n2j
2
j
p (1 p)
pj (1 p)n1j =
+ np
= n (n 1) p
j
j
+

j=0

n2

= n (n 1) p (p + 1 p)
2

j=0
n1

+ np (p + 1 p)

= n (n 1) p2 + np

Exemplo 5.2.3 Seja Z uma v.a. com lei normal reduzida, isto e, Z N (0, 1). J
a vimos que E (Z) = 0.
Calculemos
o
segundo
momento
de
Z.
Relativamente
`
a
sua
exist
e
ncia,
podemos
em
primeiro
lugar constatar



que E Z 2 = E Z 2 . Portanto ao calcularmos m2 = E Z 2 se este for finito, garantimos de imediato
que tambem existe.
$ +
$ +
 2
1
2
2
z f (z) dz =
z 2 ez /2 dz =
=
m2 = E Z
2

$ +
,
+
1
1
2
2
ez /2 dz =
=
+
z ez /2

2
2

1
= 0+1=1
2


a sabemos
Se X e uma v.a. com lei normal
de par
ametros , 2 , qual o seu segundo momento? Pelo que j

2
sobre esta lei, se X N , , ent
ao X = + Z. Assim



m2 = E X 2 = E ( + Z)2 =



= E 2 + 2 Z + 2 Z 2 = 2 + 2 E (Z) + 2 E Z 2 =
= 2 + 2
O que podemos dizer acerca da garantia de existencia de momentos?

Proposi
c
ao 5.2.4 A existencia de E X k implica a existencia de (X n ) para todo o n k, n N.
Demonstracao: A demonstracao pode passar pelas seguintes etapas:
a) Se |X| < 1, ent
ao |X n | < 1, logo E (|X n |) < E (1) = 1.

Probabilidades e Estatstica I

77



b) Se |X| 1, ent
ao |X n | X k , logo E (|X n |) E X k < +.


c) No caso geral, |X n | < 1 + X k e entao E (|X n |) < 1 + E X k < +
Quando temos uma v.a. X com valor medio E (X), ent
ao a v.a. X E (X) tem sempre valor medio
nulo porque
E (X E (X)) = E (X) E (E (X)) = E (X) E (X) = 0
Por esta razao, dizemos que a v.a. X E (X) e uma v.a. centrada.
Relativamente a v.a.s centradas, tem alguma utilidade denir os respectivos momentos.


Deni
c
ao 5.2.5 D
a-se o nome de momento centrado de ordem k da v.a. X a k = E (X E (X))k
(desde que existam).
possvel relacionar os momentos de uma v.a. X com os momentos centrados da mesma variavel. Para
E
j
a estabelecamos uma garantia sobre a sua existencia.



Proposi
c
ao 5.2.6 Dada uma v.a. X, existe E X k se, e s
o se, existe E (X a)k para todo o a R.
Demonstracao: a R, tem-se
k  

k
k
X i (a)ki
(X a) =
i
i=0

e consequentemente,
k  


k

k
|X|i |a|ki
(X a)
i
i=0







Assim, se existe E X k , tambem existem E X i , i = 1, 2, . . . , k e portanto E (X a)k < +.
A recproca e imediata considerando a = 0.
 k
Na proposicao anterior, se considerarmos
o
caso
particular
de
a
=
E
(X),
camos
a
saber
que
E
X



existe se, e so se, existe E (X E (X))k .


Resta a questao de saber como se relacionam.

Proposi
c
ao 5.2.7 Se X e uma v.a., para a qual existe momento de ordem k, ent
ao


k



k
(E (X))ki mi
(1)ki
considerando m0 = 1
k = E (X E (X))k =
i
i=0

e

mk = E X


=

k  

k
i=1

(E (X))i ki

considerando 0 = 1

Demonstracao: Para o primeiro resultado, a demonstracao e evidente, bastando considerar a = E (X)


e o desenvolvimento
k  

k
k
X i (a)ki
(X a) =
i
i=0

Para o segundo resultado, basta considerar a = E (X) e o desenvolvimento


k  

k
k
k
(X a)i aki
X = (X a + a) =
i
i=0

Probabilidades e Estatstica I

5.3

78

Vari
ancia e desvio-padr
ao

Um momento centrado especialmente importante e o momento centrado de ordem 2.


Deni
c
ao 5.3.1 D
a-se o nome de vari
ancia da v.a. X ao seu momento centrado de ordem 2, e representase por V (X)


V (X) = E (X E (X))2
Proposi
c
ao 5.3.2

V (X) = E X 2 E 2 (X)
Exemplo 5.3.3 Se X e uma v.a. com lei binomial de par
ametros (n, p), a sua vari
ancia e

V (X) = E X 2 E 2 (X) = n (n 1) p2 + np (np)2 = np (1 p)


ancia e
Exemplo 5.3.4 Se X e uma v.a. com lei normal de par
ametros , 2 , a sua vari
 2
V (X) = E X E 2 (X) = 2 2 2 = 2
Nota importante: Se X N (, ), o primeiro par
ametro coincide com o valor medio de X e o
segundo par
ametro coincide
com
a
vari
a
ncia
de
X.
Por
isto,
muito vezes nos referimos a uma v.a. X com


2
lei normal de par
ametros , , dizendo que X e uma v.a. com lei normal de valor medio e vari
ancia
2.
A vari
ancia e uma medida importante porque permite expressar numericamente a dispersao de uma v.a..
Por isso a vari
ancia faz parte do grupo das designadas medidas de dispers
ao.
Contudo, como medida de dispers
ao, a vari
ancia apresenta um inconveniente. Ela mede a dispersao da
vari
avel numa escala de medicao igual ao quadrado da escala de medicao da v.a. a que se aplica. Assim,
por exemplo, se X e uma medida registada em cm, a sua variancia vem expressa em cm2 .
Isto constitui problema porque n
ao podemos comparar os valores da vari
ancia de X com os valores de
X.
Ser
a desejavel encontrar uma medida de dispers
ao para uma v.a. expressa na mesma escala de medicao
que essa variavel. Tal e conseguido com o desvio-padr
ao.
Deni
c
ao 5.3.5 Se X e uma v.a. com vari
ancia, d
a-de o nome de desvio-padr
ao a
.
(X) = V (X)

5.3.1

Propriedades da vari
ancia

Admitindo que X e uma v.a. para a qual existe vari


ancia, tem-se
Proposi
c
ao 5.3.6 A vari
ancia de uma v.a. X e nula se, e s
o se, X e uma v.a. degenerada em E (X)
(isto e, se X = E (X) quase certamente).
Se X e uma v.a. para a qual existe vari
ancia e quaisquer que sejam os n
umeros reais a e b,
V (aX + b) = a2 V (X)

Probabilidades e Estatstica I

5.4

79

Desigualdade de Tchebychev

Vamos apresentar tres desigualdades que nos permitem estimar probabilidades de certos acontecimentos
relativos a uma v.a. X, se soubermos algo sobre os momentos dessa v.a..
1. Proposi
c
ao 5.4.1 (Desigualdade de Tchebychev)
ao estritamente crescente e tal que E ( (X))
Seja X uma v.a. positiva. Seja : R+ R+ uma func
existe. Ent
ao
> 0,

P ( (X) )

E ( (X))
()

No caso particular em que e a funcao identidade,


Proposi
c
ao 5.4.2 (Desigualdade de Markov)
Seja X uma v.a. positiva tal que E (X) existe. Ent
ao
> 0,

P (X )

E (X)

Se considerarmos a desigualdade de Markov aplicada a` vari


avel aleatoria Y = (X E (X))2 , tem-se
Proposi
c
ao 5.4.3 (Desigualdade de Bienaym
e-Tchebychev)
Seja X uma v.a. admitindo momento de segunda ordem. Ent
ao
> 0,

P (|X E (X)| )

V (X)
2

Se sobre uma v.a. X, apenas conhecermos o seu valor medio e a sua vari
ancia, esta u
ltima desigualdade
permite-nos tirar ilacoes sobre os valores da vari
avel que, com uma certa probabilidade, se encontram perto
do seu valor medio.
Observa
c
ao: Admitamos que X e uma v.a. e que sabemos que E (X) = m e que V (X) = 2 .
Se na desigualdade de Bienayme-Tchebychev, considerarmos = t, ent
ao
P (|X m| t)

1
2
= 2
t2 2
t

e portanto
t R+ , P (|X m| < t) 1

1
t2

Signica isto que, a probabilidade da v.a. X assumir valores no intervalo


]m t, m + t[ = ]E (X) t (X) , E (X) + t (X)[
1
e superior ou igual a 1 2 , t R+ .
t
Casos particulares interessantes:
Se t = 2, a v.a. X assume valores no intervalo ]E (X) 2 (X) , E (X) + 2 (X)[ com probabilidade
1
superior ou igual a 1 2 = 0.75.
2
Se t = 3, a v.a. X assume valores no intervalo ]E (X) 3 (X) , E (X) + 3 (X)[ com probabilidade
1
superior ou igual a 1 2 = 0.89.
3

Probabilidades e Estatstica I

5.5

80

Momentos de vectores aleat


orios

5.5.1

Vector m
edio

Deni
c
ao 5.5.1 Seja X (X1 , X2 , . . . , Xm ) um ve.a. de dimens
ao m, tal que E (Xi ) existe para todo o
i {1, 2, . . . , m}. A esperan
ca matem
atica, valor m
edio ou vector m
edio de X e o vector de Rm de
componentes E (Xi ) , i = 1, . . . , m, isto e,
E (X) = (E (X1 ) , E (X2 ) , . . . , E (Xm )) .
As componentes de E (X) interpretam-se como as coordenadas do baricentro (centro de massas ou centro
de gravidade) da massa probabilista associada a` lei de probabilidade de X.
Exemplo 5.5.2 Determine o vector medio do par aleat
orio (X, Y ) descrito no exerccio 95.

5.5.2

Valor m
edio de uma fun
c
ao real de um ve.a.

Seja uma funcao denida sobre Rm com valor em R e mensuravel de (Rm , Bm ) em (R, B), isto e, vericando
B B, 1 (B) Bm
Nota: Todas as funcoes contnuas s
ao mensuraveis. Tambem a funcao indicatriz de um boreliano B de
Rm e funcao mensuravel.
Seja X (X1 , X2 , . . . , Xm ) um ve.a. denido sobre um espaco de probabilidade (, F, P ) e uma funcao
nas condicoes acima descritas. Entao (X) = (X1 , X2 , . . . , Xm ) e uma v.a. denida sobre (, F, P ).
De facto,


B B, ( (X))1 (B) = X 1 1 (B) F
  
Bm

Deni
c
ao 5.5.3
a) Se X (X1 , X2 , . . . , Xm ) e um ve.a. discreto de suporte S, chama-se esperan
ca
matem
atica ou valor m
edio de (X) ao n
umero real

E ( (X)) =
(x1 , . . . , xm ) P (X1 = x1 , . . . , Xm = xm ) ,
(x1 ,...,xm )S

desde que

| (x1 , . . . , xm )| P (X1 = x1 , . . . , Xm = xm )

(x1 ,...,xm )S

seja finito.
ca
b) Se X (X1 , X2 , . . . , Xm ) e um ve.a. absolutamente contnuo de densidade f , chama-se esperan
matem
atica ou valor m
edio de (X) ao n
umero real
$ +
$ +
...
(x1 , . . . , xm ) f (x1 , . . . , xm ) dx1 . . . dxm ,
E ( (X)) =

desde que
$ +

...

seja finito.

| (x1 , . . . , xm )| f (x1 , . . . , xm ) dx1 . . . dxm

Probabilidades e Estatstica I

81

Nota: Se existe E ( (X)) existe, o seu valor coincide com o E (Y ), para Y = (X), caso deduzssemos
a lei desta u
ltima v.a. e depois determin
assemos o seu valor medio.
Exemplo 5.5.4 Para o exerccio 95, determine o valor esperado do total de avi
oes procurados diariamente.
Determine tambem E (XY ).
Proposi
c
ao 5.5.5 Se X (X1 , X2 , . . . , Xm ) e um ve.a. possuindo vector medio e a1 , . . . , am s
ao constantes
reais, ent
ao

m
m

ai Xi =
ai E (Xi )
E
i=1

i=1

Demonstracao: Facamos a demonstracao para o caso em que X (X1 , X2 , . . . , Xm ) e um ve.a. absolutamente contnuo com densidade de probabilidade conjunta f .
m

$ +
$ +

E
=
ai Xi
...
(a1 x1 + . . . + am xm ) f (x1 , . . . , xm ) dx1 . . . dxm =

i=1

= a1

...

$ +

x1 f (x1 , . . . , xm ) dx1 . . . dxm + . . . +

$ +

+ am
...
xm f (x1 , . . . , xm ) dx1 . . . dxm =

$ +
$ +
x1 fX1 (x1 ) dx1 + . . . + am
xm fXm (xm ) dxm =
= a1

= a1 E (X1 ) + . . . + am E (Xm )
aloga
Para o caso em que X (X1 , X2 , . . . , Xm ) e um ve.a. discreto, a demonstracao e an
Proposi
c
ao 5.5.6 Se X (X1 , X2 , . . . , Xm ) e um ve.a. possuindo vector medio e as margens X1 , X2 , . . . , Xm
s
ao independentes, ent
ao

m
m


E
Xi =
E (Xi )
i=1

i=1

Demonstracao: Facamos a demonstracao para o caso em que X (X1 , X2 , . . . , Xm ) e um ve.a.absoluta


m

Xi .
mente contnuo com densidade de probabilidade conjunta f . Comecemos por provar que existe E


 m
$ + 
$ +
m






E Xi
...
=
xi f (x1 , . . . , xm ) dx1 . . . dxm =


i=1
i=1
m
$ + 
$ +
m



...
x
fXi (xi ) dx1 . . . dxm =
=

i

i=1 i=1
m $ +

|xi | fXi (xi ) dxi =
=
=

i=1
m


E (|Xi |) < +

i=1

i=1

Probabilidades e Estatstica I

m



Xi

...

i=1

82

...

i=1
$ + 
m

m $

i=1

m


m
+ 

i=1

xi f (x1 , . . . , xm ) dx1 . . . dxm =


xi

m


fXi (xi ) dx1 . . . dxm =

i=1

xi fXi (xi ) dxi =

E (Xi )

i=1

5.5.3

Covari
ancia e correla
c
ao de duas vari
aveis aleat
orias

Para caracterizar a dispers


ao de uma v.a. em torno do seu valor medio, introduzimos o conceito de vari
ancia.
No caso de ve.a. nao basta conhecer a vari
ancia das margens para caracterizar a dispersao do ve.a.. Na
realidade a vari
ancia das margens justicam apenas a dispers
ao de cada margem Xi em torno do respectivo
valor medio E (Xi ) sem entrar em linha de conta com os eventuais graus de dependencia entre os diversos
pares de v.a. marginais.
Por simplicidade, consideremos um par aleat
orio (X, Y ) admitindo momentos de 2o ordem. A caracterizacao da dispers
ao do par (X, Y ) em torno do seu vector medio (E (X) , E (Y )) e em todas as direccoes
pode ser descrita do seguinte modo:
Seja D a recta que passa por (E (X) , E (Y )) de cossenos directores e . Representamos por H a
projeccao ortogonal de (X, Y ) sobre D. Para uma realizacao particular (X () , Y ()) de (X, Y ), seja H ()
a respectiva projeccao ortogonal.

Figura 5.1: Interpretacao geometrica da covari


ancia
6
A Z ()
A
A
D
A 

A
H ()


Y ()


 E


E (Y )







E (X)

X ()

A dispersao de (X, Y ) em torno de (E (X) , E (Y )) pode ser descrita pela variancia da v.a. EH que
representa o comprimento do segmento EH.
Tendo em conta que 2 + 2 = 1, prova-se que
EH = (X E (X)) + (Y E (Y ))

Probabilidades e Estatstica I

83

Assim, EH e uma v.a. de valor medio nulo e




2 

=
V EH = E EH




= 2 E (X E (X))2 + 2 E (Y E (Y ))2 + 2E ((X E (X)) (Y E (Y ))) =
= 2 V (X) + 2 V (Y ) + 2E ((X E (X)) (Y E (Y )))
Alem dos momentos de 1a e de 2a ordem de X e de Y aparece o momento E ((X E (X)) (Y E (Y ))).
Deni
c
ao 5.5.7 Seja (X, Y ) um par aleat
orio em que as margens admitem momento de 2a ordem. Chamase covari
ancia de (X, Y ) (ou entre X e Y ), e representa-se por cov (X, Y ), ao valor
cov (X, Y ) = E ((X E (X)) (Y E (Y )))
Nota: A covari
ancia entre X e Y e o valor medio da funcao real (X, Y ) = (X E (X)) (Y E (Y ))
do ve.a. (X, Y ).
Observa
c
ao: A covari
ancia e uma medida da associacao (ou relacao) entre duas v.a.s.
ao
Proposi
c
ao 5.5.8 Se X e Y s
ao v.a.s admitindo momento de 2a ordem, ent
cov (X, Y ) = E (XY ) E (X) E (Y )
Exerccio 5.5.9 Demonstre esta proposic
ao.
ao constantes reais
Proposi
c
ao 5.5.10 Se X e Y s
ao v.a.s admitindo momento de 2a ordem e a, b, c, d s
com a = 0 e c = 0, ent
ao
cov (aX + b, cY + d) = ac cov (X, Y )
Exerccio 5.5.11 Demonstre esta proposic
ao.
ao cov (X, Y ) =
Proposi
c
ao 5.5.12 Se X e Y s
ao v.as independentes e admitindo momento de 2a ordem, ent
0.
Demonstracao: Pela proposicao 5.5.6, o resultado e imediato.
ao
Proposi
c
ao 5.5.13 Sejam X1 , X2 , . . . , Xm v.a.s possuindo momento de 2a ordem. Ent
a)
V (X1 + X2 + . . . + Xm ) =

V (Xi ) + 2

i=1

m
m

i=1 j=i+1

ao independentes,
b) se as margens X1 , X2 , . . . , Xm s
V (X1 + X2 + . . . + Xm ) =

i=1

V (Xi )

cov (Xi , Xj )

Probabilidades e Estatstica I

84

Demonstracao:


2
m
m
m

=
= E
Xi
Xi E
Xi
V
i=1


= E

i=1
m

i=1

2
=

(Xi E (Xi ))

i=1

m
m

(Xi E (Xi ))2 +


(Xi E (Xi )) (Xj E (Xj )) =
= E
i=1

i=1
m

i=1 j =i

V (Xi ) +

cov (Xi , Xj ) =

i=1 j =i
m

V (Xi ) + 2

i=1

cov (Xi , Xj )

i=1 j=i+1

Exerccio 5.5.14 Se X e Y s
ao v.a.s possuindo momento de 2a ordem, mostre que
V (X Y ) = V (X) + V (Y ) 2 cov (X, Y )
Proposi
c
ao 5.5.15 (Desigualdade de Schwarz)
ao
Se X e Y s
ao v.a.s possuindo momento de 2a ordem, ent
 
a) [E (|XY |)]2 E X 2 E Y 2 ;
 
b) [E (XY )]2 E X 2 E Y 2 .
Demonstracao:
a) Como
a, b R,

|ab|

a2 + b2
2



segue-se que E |XY | existe se E X 2 < + e E Y 2 < +.
Consideremos agora um qualquer n
umero real. Como
(|X| + |Y |)2 2X 2 + 22 Y 2
entao

,


R, E (|X| + |Y |)2 2E X 2 + 22 E Y 2 < +

,
Estando assegurada a existencia de E (|X| + |Y |)2 , vem
,
R, E (|X| + |Y |)2 0

Probabilidades e Estatstica I

85

e ainda

,


E (|X| + |Y |)2 = E X 2 + 2 E Y 2 + 2E (|X| |Y |)

o quando
Obtemos assim uma equacao de 2a grau em , que e nao negativa, para todo o , quando e s
o discriminante da equacao e negativo ou nulo, isto e
 
4 [E (|X| |Y |)]2 4E X 2 E Y 2 0
b) Demonstra-se de modo analogo
Nota: Esta proposicao, diz-nos que se existiram os momentos de 2a ordem das v.a.s X e Y , existir
aa
covari
ancia entre X e Y .
Como medida do grau de dependencia entre duas v.a.s, a covari
ancia apresenta o inconveniente de n
ao
ser uma medida limitada. Como tal nunca poderemos fazer armacoes do tipo como a covariancia tem
um valor elevado entre o grau de dependencia entre X e Y e forte. Mas quais os valores elevadosda
covari
ancia? E quais os valores pequenosda covari
ancia?
O coeciente de correlacao vem colmatar as insuciencias da covari
ancia no que diz respeito a` medicao
da dependencia entre duas v.a.s.
Deni
c
ao 5.5.16 Sejam (X, Y ) um par aleat
orio, possuindo vari
ancia n
ao nula. Chama-se coeficiente
de correla
c
ao entre X e Y (ou do par (X, Y )), e representa-se por (X, Y ), ao valor real


X E (X) Y E (Y )
,
(X, Y ) = cov
(X)
(Y )
Observa
c
oes:
a) Repare que (X, Y ) =

cov (X, Y )
;
(X) (Y )

b) As v.a.s X e Y dizem-se n
ao correlacionadas se (X, Y ) = 0.
Teorema 5.5.17 Nas condic
oes da definic
ao anterior, tem-se
a) | (X, Y )| 1;
b) | (X, Y )| = 1 a, b, c R (ab = 0) : P (aX + bY + c = 0) = 1.
Demonstracao:
a) A prova e imediata por aplicacao da alnea b) da proposicao 5.5.15 a`s v.a.s X E (X) e Y E (Y ).
b)

i) Suponhamos que | (X, Y )| = 1. Nestas condicoes, consideremos a v.a.


Z = (X, Y ) (X) (Y E (Y )) (Y ) (X E (X)) .
Constatamos que

E Z 2 = 0 e que

E (Z) = 0

pelo que


V (Z) = E Z 2 = 0

Ent
ao existe k = E (Z) = 0 tal que P (Z = k) = 1, ou seja existem constantes a, b, c nas condicoes
expressas na tese, tais que P (aX + bY + c = 0) = 1.

Probabilidades e Estatstica I

86

b) Admitamos que P (aX + bY + c = 0) = 1. Ent


ao
E (aX + bY + c) = aE (X) + bE (Y ) + c = 0
Assim, [a (X E (X)) + b (Y E (Y ))]2 e uma v.a. discreta de suporte S = {0}. Como consequencia,


P a2 (X E (X))2 + b2 (Y E (Y ))2 + 2ab (X E (X)) (Y E (Y )) = 0 = 1
Existem entao reais a, b, c, com ab = 0, tais que
,
,
a2 E (X E (X))2 + b2 E (Y E (Y ))2 + 2ab cov (X, Y ) = 0
o que implica
4a2 [cov (X, Y )]2 4a2 V (X) V (Y ) 0
Isto leva a que
|cov (X, Y )| (X) (Y )
ou seja
| (X, Y )| 1
Tendo em conta a alnea a) do teorema, so podemos ter | (X, Y )| = 1

5.5.4

Matriz de covari
ancias

Seja X (X1 , X2 , . . . , Xm ) um ve.a. de dimens


ao m tal que todas as margens possuem momento de 2a
ordem. A necessidade de avaliar o grau de dispers
ao entre os diversos pares de margens leva `a introducao
da matriz de elemento generico ij = cov (Xi , Xj ) , i, j {1, . . . , m}.
ancias de
Deni
c
ao 5.5.18 A matriz simetrica X = [ij ] , i, j {1, . . . , m}, e chamada matriz de covari
X.
ao negativa, isto e
Proposi
c
ao 5.5.19 X e uma matriz semi-definida n
(1 , . . . , m ) Rm , X T 0
Demonstracao: Tem-se
X T

m
m

i j ij =

i=1 j=1

m
m

i j (Xi E (Xi )) (Xj E (Xj )) =


= E
i=1 j=1


2
m

i (Xi E (Xi )) 0
= E
i=1

Probabilidades e Estatstica I

87

Observa
c
oes:
a) X caracteriza a dispersao de X (X1 , X2 , . . . , Xm ) em torno de E (X) = (E (X1 ) , E (X2 ) , . . . , E (Xm ));
b) A desigualdade 5.5.15 garante a existencia da matriz X se existirem os momentos de 2a ordem das
margens do ve.a. X;
ao
c) A matriz X e uma matriz diagonal sempre que as margens do ve.a. X forem duas a duas n
correlacionadas.
ao m tal que todas as margens possuem momento de 2a
Seja X (X1 , X2 , . . . , Xm ) um ve.a. de dimens
ordem. A necessidade de avaliar o grau de dependencia entre os diversos pares de margens leva `a introducao
da matriz de elemento generico ij = (Xi , Xj ) , i, j {1, . . . , m}.
ao de X.
Deni
c
ao 5.5.20 A matriz simetrica X = [ij ] , i, j {1, . . . , m}, e chamada matriz de correlac
ao negativa, isto e
Proposi
c
ao 5.5.21 X e uma matriz semi-definida n
(1 , . . . , m ) Rm , X T 0
Observa
c
oes:
a) A desigualdade 5.5.15 garante a existencia da matriz X se existirem os momentos de 2a ordem das
margens do ve.a. X;
b) Os elementos da diagonal da matriz X sao todos iguais a 1;
ao
c) A matriz X e uma matriz identidade sempre que as margens do ve.a. X forem duas a duas n
correlacionadas.

5.5.5

Valor m
edio condicional

Conhecida a lei condicional de Y dado X podemos interessar-nos pelos momentos desta lei, denominados
momentos condicionais de Y dado X. Iremos apenas referir-nos ao valor medio condicional supondo que Y
m
e uma
v.a. em (R,
B). Assim o ve.a. (X, Y ) assume agora valores em (R , Bm ) e o ve.a. X assume valores
 m1
em R
, Bm1 .
Deni
c
ao 5.5.22
a) Se Y e uma v.a. discreta de suporte SY tal que

|y| P (Y |X = x ) < +
ySY

ent
ao o valor m
edio condicional de Y |X = x e a funca
o de x dada por

y P (Y |X = x )
E (Y |X = x ) =
ySY

b) Se Y e uma v.a. absolutamente contnua e gY |x e a densidade de probabilidade de Y |X = x tal que


$ +
|y| gY |x (y) dy < +

ent
ao o valor m
edio condicional de Y |X = x e a func
ao de x dada por
$ +
y gY |x (y) dy
E (Y |X = x ) =

Probabilidades e Estatstica I

88

Proposi
c
ao 5.5.23 Seja uma aplicac
ao de Rm em R tal que (X, Y ) e uma v.a. real possuindo valor
medio. Ent
ao a v.a. real E ( (X, Y ) |X = x ) est
a quase certamente definida em relaca
o a PX e tem-se
E ( (X, Y )) = E [E ( (X, Y ) |X = x )]
Demonstracao:
a) No caso em que (X, Y ) e um ve.a. absolutamente contnuo com densidade de probabilidade conjunta f , representemos por g a densidade de probabilidade marginal de X e por gY |x a densidade de
probabilidade condicional de Y |X = x . Ent
ao
$ +
$ +
...
| (x1 , . . . , xm1 , y)| f (x1 , . . . , xm1 , y) dx1 . . . dxm1 dy =
E (| (X, Y )|) =

$ +
$ +
...
| (x1 , . . . , xm1 , y)| g (x1 , . . . , xm1 ) gY |x (y) dx1 . . . dxm1 dy =
=


$ +
$ + $ +
=
...
| (x1 , . . . , xm1 , y)| gY |x (y) dy g (x1 , . . . , xm1 ) dx1 . . . dxm1 =

$ +
$ +
...
E (| (x1 , . . . , xm1 , Y )| |X = (x1 , . . . , xm1 ) ) g (x1 , . . . , xm1 ) dx1 . . . dxm1 < +
=

Ent
ao E (| (X, Y )| |X = (x1 , . . . , xm1 ) ) e PX -q.c. nita o que assegura a existencia PX -q.c. de
E ( (X, Y ) |X = (x1 , . . . , xm1 ) ).
De modo an
alogo se deduz que E ( (X, Y )) e igual a
$ +
$ +
...
E ( (X, Y ) |X = (x1 , . . . , xm1 ) ) g (x1 , . . . , xm1 ) dx1 . . . dxm1

b) No caso em que (X, Y ) e um ve.a.


cao de probabilidade conjunta
p e suporte S,
 discreto com fun

m1
representemos ainda por SX = (x1 , . . . , xm1 ) R
: (x1 , . . . , xm1 , y) S o suporte do ve.a.
discreto X e por SY = {y R: (x1 , . . . , xm1 , y) S} o suporte da v.a. discreta Y .

| (x1 , . . . , xm1 , y)| p (x1 , . . . , xm1 , y) =


E (| (X, Y )|) =

(x1 ,...,xm1 ,y)S

| (x1 , . . . , xm1 , y)| P (X = (x1 , . . . , xm1 ) , Y = y) =

(x1 ,...,xm1 ,y)S

(x1 ,...,xm1 ,y)S

(x1 ,...,xm1 )SX

| (x1 , . . . , xm1 , y)| P (Y = y |X = (x1 , . . . , xm1 ) ) P (X = (x1 , . . . , xm1 )) =

| (x1 , . . . , xm1 , y)| P (Y = y |X = (x1 , . . . , xm1 ) ) P (X = (x1 , . . . , xm1 )) <

ySY

< +
Ent
ao E (| (X, Y )| |X = (x1 , . . . , xm1 ) ) e PX -q.c. nita o que assegura a existencia PX -q.c. de
E ( (X, Y ) |X = (x1 , . . . , xm1 ) ). De modo an
alogo se deduz que E ( (X, Y )) e igual a

(x1 , . . . , xm1 , y) P (Y = y |X = (x1 , . . . , xm1 ) ) P (X = (x1 , . . . , xm1 ))


(x1 ,...,xm1 )SX

ySY

Probabilidades e Estatstica I

89

Observa
c
ao:
a) Designando por EX o valor medio relativamente a PX , a igualdade agora estabelecida escreve-se de
modo abreviado
E ( (X, Y )) = EX (E ( (X, Y ) |X = x ))
Em particular,
E (Y ) = EX (E (Y |X ))
b) Se Y (Y1 , Y2 , . . . , Yn ) e um ve.a. tal que E (Yi |X ), existe para todo o i {1, . . . , n}, ent
ao o valor
medio condicional de Y |X , e o vector aleatorio (E (Y1 |X ) , . . . , E (Ym |X )).

Captulo 6

Func
ao geradora de momentos
Dedicamos este captulo a` apresentacao e estudo do conceito de funcao geradora de momentos, particularmente u
til na determinacao de momentos de variaveis aleatorias e na deducao da lei de probabilidades de
vari
aveis aleatorias.

6.1

Defini
c
ao de fun
c
ao geradora de momentos de um ve.a. X em Rm

Seja (, F, P ) um espaco de probabilidade e X (X1 , X2 , . . . , Xm ) um ve.a. denido sobre (, F, P ) e com


valores em (Rm , Bm ).
Deni
c
ao 6.1.1 O valor esperado
 T


= E et1 X1 +t2 X2 +...+tm Xm ,
MX (t) = E etX
c
ao geradora de momentos do ve.a.
se existir para i {1, 2, . . . , m} , |ti | si , si R+ , define a fun
X (X1 , X2 , . . . , Xm ).
Observa
c
ao: Repare que, se existir a funcao geradora de momentos do ve.a. X (X1 , X2 , . . . , Xm ),
entao ela esta denida para o ponto 0 (0, 0, . . . , 0) e MX (0) = 1.

Exemplo 6.1.2 Determinemos a func


ao geradora de momentos de uma v.a. X com lei Binomial de
par
ametros (n, p).
 
n
n  

n
 tX



n  t k
nk
tk n
k
=
p (1 p)
pe (1 p)nk = 1 p 1 et
e
=
, tR
MX (t) = E e
k
k
k=0

k=0

Exemplo 6.1.3 Determinemos a func


ao geradora de momentos de uma v.a. Z com lei Normal reduzida,
Z N (0, 1).
$ +
$ +

1
2
2
2
1
1
2
e 2 (z 2tz+t t ) dz =
etz ez /2 dz =
MZ (t) = E etZ =
2
2

$ +
2
1
1
2
2
e 2 (zt) dz = et /2 , t R
= et /2
2

90

Probabilidades e Estatstica I

91

Exemplo 6.1.4 Determinar a func


ao geradora de momentos do par aleat
orio (X, Y ) com densidade de
probabilidade conjunta
f (x, y) = 2I]0,1[]x,1[ (x, y) .
Soluc
ao:
M(X,Y ) (u, v) = 2

6.2

ev
v

eu 1 eu ev

u
u+v


=2

ev
u (u + v)



ev 1
eu 1 + u
v

Propriedades da fun
c
ao geradora de momentos

A funcao geradora de momentos de um ve.a. X (X1 , X2 , . . . , Xm ) caracteriza a sua lei de probabilidade.


Teorema 6.2.1 [Teorema da unicidade da funca
o geradora de momentos]
Sejam X e Y dois ve.a.s definidos sobre o espaco de probabilidade (, F, P ) com valores em (Rm , Bm ).
Tem-se
MX = MY PX = PY .
Demonstracao: A demonstracao deste teorema ca fora do ambito desta disciplina

6.3

Caracteriza
c
ao da fun
c
ao geradora de momentos das margens e de
sub-vectores de um ve.a. X

Representemos por D a vizinhanca Rm de 0 (0, 0, . . . , 0) onde esta denida a funcao geradora de momentos
de um ve.a. X (X1 , X2 , . . . , Xm ), isto e
#
 T
'
D = t (t1 , . . . , tm ) Rm : i {1, . . . , m} si R+ e para |ti | si , E etX
< +
Proposi
c
ao 6.3.1 Seja X (X1 , X2 , . . . , Xm ) um ve.a. com func
ao geradora de momentos MX definida
em D. Ent
ao existe a funca
o geradora da margem Xi , i {1, 2, . . . , m} e pode ser determinada por
ti D i ,

MXi (ti ) = MX (0, . . . , 0, ti , 0, . . . , 0) ,

com Di = {ti R: t (t1 , . . . , ti , . . . , tm ) D}


Demonstracao:





ti Di , MXi (ti ) = E eti Xi = E e0X1 +...+0Xi1 +ti Xi +0Xi+1 +...+0Xm = MX (0, . . . , 0, ti , 0, . . . , 0)
o que garante que MXi (ti ) e nito e o resultado pretendido
Exemplo 6.3.2 Determinar a func
ao geradora de momentos das margens X e Y do vector aleat
orio (X, Y )
referido no exemplo 6.1.4.


2
ev
ev 1
u
e 1+u
= 2 (eu u 1)
MX (u) = M(X,Y ) (u, 0) = lim 2
v0 u (u + v)
v
u
 u

v
u
v
e 1 e e
2
e

= 2 (ev (v 1) + 1)
MY (v) = M(X,Y ) (0, v) = lim 2
u0 v
u
u+v
v
ao geradora de momentos MX definida
Proposi
c
ao 6.3.3 Seja X (X1 , X2 , . . . , Xm ) um ve.a. com func
em D. Para todo o k {2, 3, . . . , m 1} e 1 i1 < i2 . . . < ik m, existe a func
ao geradora de momentos
do sub-vector (Xi1 , . . . , Xik ) e pode ser determinada por
M(Xi

,...,Xik ) (ti1 , . . . , tik )

= MX (0, . . . , 0, ti1 , 0, . . . , 0, ti2 , 0 . . . , 0, tik , 0 . . . , 0)

Demonstracao: A demonstracao e an
aloga a` anterior

Probabilidades e Estatstica I

6.4

92

A fun
c
ao geradora de momentos e a independ
encia de v.a.s

Proposi
c
ao 6.4.1 Seja X (X1 , X2 , . . . , Xm ) um ve.a. com func
ao geradora de momentos MX definida
ao independentes se, e s
o se,
em D. As v.a.s X1 , X2 , . . . , Xm s
t (t1 , . . . , tm ) D,

MX (t) =

m


MXi (ti ) .

i=1

Demonstracao: Se soubermos que as v.a.s X1 , X2 , . . . , Xm sao independentes, pela proposicao 5.5.6


m
m




MX (t) = E et1 X1 et2 X2 . . . etm Xm =
E eti Xi =
MXi (ti )
i=1

i=1

Provemos a recproca apenas para o caso em que X (X1 , X2 , . . . , Xm ) e um ve.a. absolutamente contnuo
aloga).
com densidade de probabilidade conjunta f(X1 ,X2 ,...,Xm ) (para o caso discreto, a prova e an
$
MX (t) =
et1 x1 +t2 x2 +...+tm xm f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) dx1 dx2 . . . dxm =
m
R





= E et1 X1 E et2 X2 . . . E etm Xm =
$
$
$
t1 x1
t2 x2
e
fX1 (x1 ) dx1
e
fX2 (x2 ) dx2 . . . etm xm fXm (xm ) dxm =
=
R
R
$R
t1 x1 +t2 x2 +...+tm xm
e
fX1 (x1 ) fX2 (x2 ) . . . fXm (xm ) dx1 dx2 . . . dxm
=
Rm

e pelo teorema 6.2.1 da unicidade da f.g.m.


(x1 , x2 , . . . , xm ) SX , f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) = fX1 (x1 ) fX2 (x2 ) . . . fXm (xm )
ou seja X1 , X2 , . . . , Xm sao v.a.s independentes
Exemplo 6.4.2 Se reatarmos os exemplos 6.1.4 e 6.3.2 verificamos que
(u, v) R2 : M(X,Y ) (u, v) = MX (u) MY (v)
e portanto X e Y n
ao s
ao v.a.s independentes.

6.5

A fun
c
ao geradora de momentos de uma combina
c
ao linear de v.a.s

Proposi
c
ao 6.5.1 Seja X (X1 , X2 , . . . , Xm ) um ve.a. com func
ao geradora de momentos MX definida
em D, b uma constante real e a (a1 , a2 , . . . , am ) um vector de Rm . Ent
ao a v.a. Y = aX T + b tem func
ao
geradora de momentos definida por
t R : at D,

MY (t) = ebt MX (at) .

Demonstracao:






t(a1 X1 +a2 X2 +...+am Xm +b)
bt a1 tX1 +a2 tX2 +...+am tXm
bt
atX T
MY (t) = E e
=E e e
=e E e
= ebt MX (at)

Probabilidades e Estatstica I

93



Exemplo 6.5.2 Consideremos X uma v.a. com lei normal de par
ametros , 2 e determinemos a sua
func
ao geradora de momentos. Pelo teorema 3.3.21, sabemos que se Z N (0, 1), ent
ao X = + Z.
2 /2
t
Tambem pelo exemplo 6.1.3, sabemos que MZ (t) = e , t R. Assim
MX (t) = et MZ (t) = et e

2 t2 /2

= et+

2 t2 /2

tR

Exemplo 6.5.3 Reatando o exemplo 6.1.4, a f.g.m. da v.a. T = X + Y e


MT (t) = M(X,Y ) (t, t) =

e2t 2et + 1
t2

Corol
ario 6.5.4 Nas mesmas condic
oes da anterior proposica
o, se X1 , X2 , . . . , Xm s
ao v.a.s indepenT
dentes, ent
ao Y = aX + b tem func
ao geradora de momentos definida por
t R : i {1, 2, . . . , m} , ai t Di ,

bt

MY (t) = e

m


MXi (ai t) .

i=1

Exemplo 6.5.5 Considere X1 , X2 , . . . , Xm v.a.s independentes tais que i {1, 2, . . . , m} , Xi B (ni , p).
Determinemos a f.g.m. da v.a. T = X1 + X2 + . . . + Xm e tentemos identificar a respectiva lei.
Pelo exemplo 6.1.2, sabemos que
n


i {1, 2, . . . , m} , t R, MXi (t) = 1 p 1 et i
Ent
ao
t R,

MX1 +X2 +...+Xm (t) =

m


MXi (t) =

i=1

m



n
n +n +...+nm


1 p 1 et i = 1 p 1 et 1 2
i=1

ou seja T = X1 + X2 + . . . + Xm tem lei binomial de par


ametros (n1 + n2 + . . . + nm , p).


Exemplo 6.5.6 Considere X1 , X2 , . . . , Xm v.a.s independentes tais que i {1, 2, . . . , m} ,Xi N i , i2 .
Determinemos a f.g.m. da v.a. T = X1 + X2 + . . . + Xm e tentemos identificar a respectiva lei.
Pelo exemplo 6.5.2, sabemos que


t2
i {1, 2, . . . , m} , t R, MXi (t) = exp i t + i2
2
Ent
ao
t R,

MX1 +X2 +...+Xm (t) =

m

i=1

MXi (t) =

m

i=1


exp i t +

t
i2

2

2




2 t
= exp (1 + 2 + . . . + m ) t + 12 + 22 + . . . + m
2


2 .
ametros 1 + 2 + . . . + m , 12 + 22 + . . . + m
ou seja T = X1 + X2 + . . . + Xm tem lei normal de par

Probabilidades e Estatstica I

6.6

94

A fun
c
ao geradora de momentos e os momentos de um ve.a.

Alem da possibilidade de permitir identicar e determinar a lei de v.a.s, a funcao geradora de momentos
tambem permite que caracterizemos a existencia de momentos de uma v.a. e que realizemos o seu calculo.
Para efeitos de uma explicacao mais intuitiva, consideremos X uma v.a. absolutamente contnua, com
densidade de probabilidade f . Se existir a funcao geradora de momentos de X numa vizinhanca de raio
s > 0 de 0, ent
ao
$
etx f (x) dx < +
t R: |t| s, MX (t) =
R

Derivando formalmente, admitindo a possibilidade de permutar as operacoes de derivacao e de integracao,


vem
$
k
(k)
xk etx f (x) dx
k N, MX (t) = k MX (t) =
t
R
e, para t = 0, vem
(k)

k N, MX (0) =

k
MX (t) |t=0 =
tk

 
xk f (x) dx = E X k

Mais rigorosamente (embora com demonstracao completa fora do ambito desta disciplina),
Teorema 6.6.1 Se a func
ao geradora de momentos est
a definida para t R: |t| s, s R+ , verifica-se
 
k
(k)
k N, MX (0) = k MX (t) |t=0 = E X k
t
A generalizacao deste resultado a ve.a.s X (X1 , X2 , . . . , Xm ) resulta em
o geradora de
Teorema 6.6.2 Seja X (X1 , X2 , . . . , Xm ) um ve.a. em (Rm , Bm ) tal que a sua funca
momentos existe numa vizinhanca Rm de 0 (0, 0, . . . , 0), isto e, no conjunto
'
 T
#
< +
D = t (t1 , . . . , tm ) Rm : i {1, . . . , m} si R+ e para |ti | si , E etX
m



km existe, e, sendo k =
Ent
ao, para k1 , k2 , . . . , km N0 , o E X1k1 X2k2 . . . Xm
ki , tem-se
i=1

k
tk11 tk22 . . . tkmm

MX (t1 , t2 , . . . , tm ) existe e



km
=
E X1k1 X2k2 . . . Xm


(0,0,...,0)
M
(t
,
t
,
.
.
.
,
t
)
1
2
m
X
. . . tkmm

k
tk11 tk22

Exemplo 6.6.3 Consideremos X uma v.a. com lei binomial de par


ametros (n, p) e determinemos o seu
valor medio e sua vari
ancia, recorrendo a
` func
ao geradora de momentos.
n


MX (t) = 1 p 1 et


n1

MX (t) |t=0 = npet 1 p 1 et


E (X) =
|t=0 = np
t


n1


n2

2
E X2 =
MX (t) |t=0 = npet 1 p 1 et
+ n (n 1) p2 e2t 1 p 1 et
|t=0 =
2
t
= np + n (n 1) p2

V (X) = E X 2 E 2 (X) = np + n (n 1) p2 n2 p2 = np (1 p)

Probabilidades e Estatstica I

95



Exemplo 6.6.4 Consideremos X uma v.a. com lei normal de par
ametros , 2 e determinemos o seu
valor medio e sua vari
ancia, recorrendo a
` func
ao geradora de momentos.
2 2

MX (t) = et+ t /2


MX (t) |t=0 = + 2 t MX (t) |t=0 =


E (X) =
t
 2

2
2
E X
MX (t) |t=0 = 2 MX (t) + + 2 t MX (t) = 2 + 2
=
2
t
V (X) = E X 2 E 2 (X) = 2 + 2 2 = 2


ametros s
ao respectivamente, o valor medio de X e a vari
ancia de
Repare que se X N , 2 , os par
X. Podemos portanto tambem escrever X N (E (X) , V (X)).
Exemplo 6.6.5 Determinemos o vector medio e a matriz de covari
ancias do par aleat
orio (X, Y ) descrito
no exemplo 6.1.4. Para determinarmos o vector medio e a vari
ancia de cada v.a. devemos usar as func
oes
geradoras de momentos das margens obtidas no exemplo 6.3.2. Para determinarmos a covari
ancia do par e
necess
ario usar a func
ao geradora de momentos do par aleat
orio.
Feito o c
alculo previo das derivadas necess
arias, isto e, tendo obtido,

MX (u)
u
2
MX (u)
u2

MY (v)
v
2
MY (v)
v 2

eu (u 2) + u + 2
u3
u
e ((u 2) (u 3) + u) 2 (u + 3)
2
u 4
 2
v
e v 2 (v 1) 2
2
v3

 3
v
e v 3v 2 + 6 (v 1) + 6
2
4
v u

& v
e (v 1) e (u 1) + 1 eu (u + v 1) + ev
+
2

v2
u2
(u + v)2
%
ev eu (u + v 2) + ev (u + v + 2)
v
(u + v)3

= 2
=
=
=

2
M
(u, v) =
uv (X,Y )
+
tem-se
E (X) =

E X2 =
V (X) =
E (Y ) =

E Y2 =
V (Y ) =
E (XY ) =
cov (X, Y ) =

1
MX (u) |u=0 =
u
3
1
2
MX (u) |u=0 =
2
u
6
 2
1
2
E X E (X) =
18

2
MY (v) |v=0 =
v
3
2
1
MY (v) |v=0 =
2
v
2
 2
1
E Y E 2 (Y ) =
18

2
1
M(X,Y ) (u, v) (u,v)=(0,0) =
uv
4
1
E (XY ) E (X) E (Y ) =
36

Probabilidades e Estatstica I

96
&

Conclus
ao, =

1
3

(1, 2) e =

1
36

%
2 1
.
1 2

Transformacoes de vectores aleatorios

97

Anexo A
Transforma
c
oes de vectores aleat
orios
Admitamos que (X1 , X2 , . . . , Xm ) e um ve.a. de dimensao m 1, absolutamente contnuo com densidade
de probabilidade conjunta f(X1 ,X2 ,...,Xm ) e suporte


S(X1 ,X2 ,...,Xm ) = (x1 , x2 , . . . , xm ) Rm : f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) > 0 .
Consideremos o ve.a. (Y1 , Y2 , . . . , Ym ) em que as v.a.s Y1 , Y2 , . . . , Ym resultam de transformacoes
h1 , h2 , . . . , hm sobre o ve.a. (X1 , X2 , . . . , Xm ). Melhor dizendo, cada uma das transformacoes h1 , h2 , . . . , hm ,
sao funcoes de Rm em R e

Y1 = h1 (X1 , X2 , . . . , Xm )

Y2 = h2 (X1 , X2 , . . . , Xm )
..

Ym = hm (X1 , X2 , . . . , Xm )
Se as funcoes h1 , h2 , . . . , hm forem contnuas e biunvocas, entao o anterior sistema de transformacoes
pode ser traduzido por

X1 = g1 (Y1 , Y2 , . . . , Ym )
Y1 = h1 (X1 , X2 , . . . , Xm )

X2 = g2 (Y1 , Y2 , . . . , Ym )
Y2 = h2 (X1 , X2 , . . . , Xm )

..
..

.
.

Ym = hm (X1 , X2 , . . . , Xm )
Xm = gm (Y1 , Y2 , . . . , Ym )
Dena-se a matriz jacobiana J, das transformadas
(X1 , X2 , . . . , Xm )
dg
dx
d g1
d g1
d x1
1
1
.
.
.
dy
dy
d ym
dy
dy
d g21 d g22
d x12 d x22
d g2
d y1 d y2 . . . d ym d y1 d y2

J =
..
..
..
..
..
= ..
.
.
.
. .
.
d xm
d xm
d gm
d gm
d gm
.
.
.
d y1
d y2
d y1
d y2
d ym

por g1 , g2 , . . . , gm de (Y1 , Y2 , . . . , Ym ) em
...
...
..
.
...

d x1
d ym
d x2
d ym

..
.

d xm
d ym

e represente-se por dJ o seu determinante.


Ent
ao a densidade de probabilidade conjunta f(Y1 ,Y2 ,...,Ym ) do ve.a. (Y1 , Y2 , . . . , Ym ) pode ser determinada
por
f(Y1 ,Y2 ,...,Ym ) (y1 , y2 , . . . , ym ) = f(X1 ,X2 ,...,Xm ) (x1 , x2 , . . . , xm ) |dJ | ,

(y1 , y2 , . . . , ym ) S(Y1 ,Y2 ,...,Ym )

denindo-se o suporte de (Y1 , Y2 , . . . , Ym ) por




S(Y1 ,Y2 ,...,Ym ) = (y1 , y2 , . . . , ym ) Rm : (x1 , x2 , . . . , xm ) = (g1 , g2 , . . . , gm ) (y1 , y2 , . . . , ym ) S(X1 ,X2 ,...,Xm )

Transformacoes de vectores aleatorios

98

Exemplo .0.6 Sejam Z1 N (0, 1) e Z2 N (0, 1) v.a.s independentes. Pretendemos deduzir a lei de
probabilidade das v.a.s Y1 = Z1 + Z2 e Y2 = Z1 Z2 e mostrar tambem que s
ao independentes.
Dada a independencia das v.a.s Z1 e Z2 a densidade de probabilidade conjunta do par aleat
orio (Z1 , Z2 )
e
2
2
z1
z2
1
1
f(Z1 ,Z2 ) (z1 , z2 ) = fZ1 (z1 ) fZ1 (z1 ) = e 2 e 2 =
2
2
1 1 (z12 +z22 )
2
e 2
, (z1 , z2 ) R
=
2

e o seu suporte e S(Z1 ,Z2 ) = R2 .


Relativamente ao sistema de transformadas



Y1 + Y2 = 2Z1
Z1 =
Y1 = Z1 + Z2

Y2 = Z1 Z2
Z2 = Z1 Y2
Z2 =
Calculemos a matriz jacobiana
7 &
6
J=

d z1
d y1
d z2
d y1

d z1
d y2
d z2
d y2

1
2
1
2

O seu determinante e dJ =

1
2

12
1
2

Y1 +Y2
2
Y1 Y2
2

1
2

1
2


12 = 12 .

Ent
ao a densidade de probabilidade conjunta do ve.a. (Y1 , Y2 ) e
f(Y1 ,Y2 ) (y1 , y2 ) = f(X1 ,X2 ) (x1 , x2 ) |dJ ) | =


1 12
e
2

1 1 12
e
2 2

y1 +y2
2

2 
2 
y y
+ 12 2

2 +2y 2
2y1
2
4


1
=
2

1 1 12
e
=
2 2

2
y1
y2
+ 22
2

(y1 , y2 ) R2

Vejamos agora se Y1 e Y2 s
ao v.a.s independentes. Para tal, teremos de mostrar que
f(Y1 ,Y2 ) (y1 , y2 ) = fY1 (y1 ) fY2 (y2 ) ,
Ora

2
y1
y2
+ 22
2

(y1 , y2 ) R2 .


1 1
1 1 1 y12 1 y22
e
e 2 2e 2 2 =
=
2 2
2 2

2

2
y
y
1
1
12 1
12 2
2
2

=
e
e
2 2
2 2






f(Y1 ,Y2 ) (y1 , y2 ) =

12

fY1 (y1 )

fY2 (y2 )

sendo fY1 (y1 ) a densidade de probabilidade de uma lei N (0, 2) e fY2 (y2 ) a densidade de probabilidade de
uma lei N (0, 2).
Resumindo, as v.a.s Z1 + Z2 e Z1 Z2 s
ao independentes, Z1 + Z2 N (0, 2) e Z1 Z2 N (0, 2).

Lista de Figuras
3.1
3.2
3.3
3.4
3.5
3.6
3.7

Densidade da lei uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Densidade da lei exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Densidade da lei gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Densidade da lei Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Funcao distribuicao da lei normal reduzida . . . . . . . . . . . . . . . . . . . . . .
A simetria da lei normal reduzida e consequencias para a sua funcao distribuicao
Reducao da lei normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5.1

Interpretacao geometrica da covari


ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

99

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

45
47
48
48
49
50
51

Vous aimerez peut-être aussi