Vous êtes sur la page 1sur 20

Probabilidade

Frederico Monfardini

Bibliografia
• MEYER, Paul L. Probabilidade: aplicações à estatística. In: Probabilidade: aplicações à estatís-
tica. Livro Técnico, 1970.
• ROSS, Sheldon. Probabilidade: um curso moderno com aplicaçoes. Bookman Editora, 2009.
• HAZZAN, Samuel. Fundamentos de matemática elementar 5: combinatória, probabilidade.
São Paulo: Atual, 1993.

Classe do Google
Será utilizado a plataforma do Google classroom, que servirá para a troca de materiais, conteúdos, dúvidas e
listas de exercícios.
Código da sala: pblb7v

Sistema de Avaliação
Para esta disciplina serão dadas listas de exercícios e trabalhos extra-classe.
A nota final será uma média ponderada das listas e trabalhos.
A nota mínima é 7,0 (sete). Notas menores que 7,0 (sete) ou contabilizando 4 dias (completos) de falta,
implicará em reprova.

Planejamento
As aulas ocorrerão todas as segundas-feira, das 19 às 23 horas.
Sendo aulas expositivas, fazendo uso da lousa e projetor.
Além disso, será introduzido para vocês a linguagem de programção R. Então aqueles que quiserem trazer o
computador para acompanhar a explicação em seu computador, fique a vontade.

Demais informações
Para quaisquer dúvidas, por favor, entrar em contato através do e-mail fred.monf@gmail.com

1
INTRODUÇÃO

Introdução

Conjuntos

Um conjunto é uma coleção de objetos. Usuamento, conjuntos são representados por letras maiúsculas A, B
ou letras gregas maiúsculas Ω, Γ. Existem três maneiras de descrever que objetos estão contidos no conjunto
A:
1. Fazer uma lista de A. Por exemplo, A = {1, 2, 3, 4}.
2. Descrever através de palavras. Por exemplo, A é formado por todos os números reais entre 0 e 1,
inclusive.
3. Ou descrever através de notação matemática. Por exemplo, A = {x|0 ≤ x ≤ 1}
Existem três definições importantes a respeito de teoria de conjuntos. Para isso, sejam dois conjuntos A e B,
assim define-se:
• União
– Seja C a união de A e B, da seguinte forma

C = {x|x ∈ A ou x ∈ B (ou ambos)}

– Escreve-se a união de A e B, assim:


C =A∪B
– A união pode ser representada através de diagramas de Venn conforme mostra a figura abaixo

• Interseção
– Seja D a interseção de A e B, da seguinte forma

D = {x|x ∈ A e x ∈ B}

– Escreve-se a interseção de A e B, assim:

D =A∩B

– A interseção pode ser representada através de diagramas de Venn conforme mostra a figura abaixo

2
Experimentos Aleatórios INTRODUÇÃO

• Complementar
– Seja E o complementar do conjunto A, da seguinte forma

E = {x|x ∈
/ A}

– Escreve-se o complementar de A, assim:

E = Ā = Ac

– O complementar pode ser representada através de diagramas de Venn conforme mostra a figura
abaixo

Experimentos Aleatórios

Alguns traços são pertinentes a caracterização de um experimento aleatório:


• Cada experimento poderá ser repetido indefinidamente sob condições essencialmente inalteradas.
• É possível descrever o conjunto de todos os possíveis resultados.
• Quando o experimento for executado repetidamente (suficientemente grande), uma configuração definada
ou regulariadade surgirá. É esta regulariadade que torna possível construir um modelo matemático
preciso.
Alguns exemplos de experimentos aleatórios:
E1 : Jogar um dado e observar o número na face de cima.
E2 : Jogar uma moeda quatro vezes e observar o número de caras obtidas.
E3 : Uma lâmpada é fabricada. Em seguida é observada a duração de vida dela, ou seja, se anota o tempo de
vida até que ela queimar.

Espaço Amostral

Definição: Para cada experimento ε, define-se o espaço amostral como o conjunto de todos os resultados
possíveis de ε. gerealmente representado por S ou Ω. Considerando os exemplos que foram dados acima, será
descrito o espaço amostral Si para cada experimento Ei .
S1 = {1, 2, 3, 4, 5, 6}
S2 = {0, 1, 2, 3, 4}
S3 = {t|t ≥ 0}

3
Eventos INTRODUÇÃO

Eventos

Um evento A (relativo a um particular espaço amostralS, associado a um experimento ε) é simplesmente um


conjunto de resultados possíveis, ou seja, um subconjunto do espaço amostral S.
Pensando nos exemplos de experimentos definidos anteriormente, então para cada experimento Ei será
definido um evento Ai :
A1 : Um número par ocorre, isto é A1 = {2, 4, 6}
A2 : Ocorre 2 caras, isto é A2 = {(KKCC), (KCKC), (KCCK), (CKKC), (CKCK), (CCKK)}, onde K
representa cara e C representa coroa.
A3 : O tempo de vida da lâmpada é menor que 3 horas, isto é A3 = {t|t < 3}
Defnição: Dois eventos, A e B, são denominados mutamente excludentes, se elese não puderem ocorrer
juntos, ou seja,
A ∩ B = ∅.

Frequência Relativa

Definição: Seja um experimento ε repetido n vezes e dois eventos A e B, associados a este experimento,
repetidos nA e nB vezes, respectivamente, dentro das n repetições do experimento ε. Assim, define-se jA = nnA
como a frequência relativa do evento A nas n repetições de ε. A frequência relativa jA apresenta as seguintes
propriedades:
1. 0 ≤ jA ≤ 1.
2. jA = 1 se, e somente se, A ocorrer em todas as n repetições.
3. jA = 0 se, e somente se, A nunca ocorrer nas n repetições.
4. Se A e B forem eventos mutamente excludentes, e se fA∪B for a frequência re;ativa associado ao evento
A ∪ B, então fA∪B = fA + fB
5. fA , com base em n repetições do experimento e considerado como uma função de n, “converge” em
certo sentido probabilístico para P (A), quando n → ∞.

Noções Fundamentais de Probabilidade

Definição: Seja ε um experimento. Seja S um espaço amostral associado a ε. A cada evento A será
associado um número real representado por P (A) e denominado probabilidade de A, que satisfaça às seguinte
propriedades:
1. 0 ≤ P (A) ≤ 1.
2. P (S) = 1
3. Se A e B forem eventos mutamente excludentes, P (A ∪ B) = P (A) + P (B).
Disso, decorre alguns teoremas importantes (que aqui não serão demonstrados).
Teorema 1 Se ∅ for o conjunto vazio, então P (∅) = 0.
Teorema 2 Se Ā for o evento complementar de A, então P (Ā) = 1 − P (A).
Teorema 3 Se A e B forem dois eventos quaisquer, então P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
Teorema 4 Se A ⊂ B, então P (A) ≤ P (B).

4
PRINCÍPIO FUNDAMENTAL DA CONTAGEM

Análise Combinatória

Introdução

A análise combinatória visa desenvolver métodos que permitam contar o número de um conjunto, sendo este
elementos, agrupamentos formados sob certas condições.
Será utlizada a notação #M pra indicar o número de elementos em um conjunto M .
Exemplos
1. A é o conjnunto de núemeros de dois algarismos distintos formados a partir dos dígitos 1, 2 e 3.
A = {12, 13, 21, 23, 31, 32} e #A = 6
2. B é o conjunto das sequências de letras fazendo anagramas da palavra ARI.
B = {ARI, AIR < IRA, IAR, RAI, RIA} e #B = 6.
3. C é o conjunto de números de três algorismos, todos distintos, formados a partir dos dígitos 1, 2, 3, 4,
5, 6, 7 e 8.
$C = {123,124,125, . . . , 875, 876} $ e #C = 256
Muitas vezes é trabalhoso ficar listando todos os elementos de um conjunto, além do risco de omissão ou
repetição desses elementos. Assim, nas próximas sessões serão vistas técnicas de contagem.

Princípio Fundamental da Contagem


O princípio fundametal da contagem é composto por duas partes.
Parte 1
Sejam os conjuntos A = {a1 , a2 , . . . , am } e B = {b1 , b2 , . . . , bn }, de forma que #A = m e #B = n. Assim,
destes conjuntos podem ser formados m × n pares ordenados (ai , bj ) onde ai ∈ A e bj ∈ B.
Da mesma forma, se tiver p conjuntos, de forma que

A1 = {a1,1 , a1,2 , . . . , a1,n1 } #A1 = n1


A1 = {a2,1 , a2,2 , . . . , a2,n2 } #A2 = n2
..
.
A1 = {ap,1 , ap,2 , . . . , ap,np } #Ap = np
então, o número de sequências de p elementos do tipo (a1,i , a2,i , . . . , ap,i ) onde a1,i ∈ A1 , a2,i ∈ A2 , . . .,
ap,i ∈ Ap é
n1 × n2 × · · · × np

Parte 2
Seja o conjunto A = {a1 , a2 , . . . , am }, de forma que #A = m. O número de pares ordenados (ai , aj ) tais que
ai ∈ A e aj ∈ A e ai 6= aj é
m × (m − 1).

Da mesma forma, se o desejo é formar uma sequência de p (p ≤ m) elementos distintos de A, então

m × (m − 1) × · · · × (m − (p − 1))
| {z }
p parcelas

5
Consequências PRINCÍPIO FUNDAMENTAL DA CONTAGEM

Consequências

Através do princípio fundamental da contagem, tem-se algumas consequências que serão listadas abaixo.

Fatorial

Definição: Seja m um número inteiro não negativo. Define-se fatorial de m (denotado por m) através da
relação:

m! = m × (m − 1) × (m − 2) × · · · × 3 × 2 × 1
1! = 1
0! = 1

Arranjo com repetição

Seja A um conjunto com m elementos, isto é, A = {a1 , a2 , . . . , am } e denota-se por ARm,r o número de
arranjos de m elementos tomados r a r. Cada arranjo com repetição é uma sequência de r elementos, onde
cada elemento pertence a A. Assim,

ARm,r = m × m × · · · × m = mr
| {z }
r parcelas

Arranjo

Seja A um conjunto com m elementos, isto é, A = {a1 , a2 , . . . , am } e denota-se por Am,r o número de arranjos
de m elementos tomados r a r. Cada arranjo é uma sequência de r elementos, onde cada elemento pertence a
A, e são todos distintos. Assim,

(m − r)! m!
Am,r = m × (m − 1) × · · · × (m − (r − 1)) = m × (m − 1) × · · · × (m − (r − 1)) =
| {z } (m − r)! (m − r)!
r parcelas

Permutação

Seja A um conjunto com m elementos, isto é, A = {a1 , a2 , . . . , am } e denota-se por Pm o número de


permutações dos m elementos de A. Assim,
m!
Pm = Am,m = = m!
(m − m)!

Combinação

Seja A um conjunto com m elementos, isto é, A = {a1 , a2 , . . . , am } e denota-se por Cm,r ou m



r o número de
combinações de m elementos tomados r a r. Para cada subconjunto de r elementos existe r! formas diferentes
de dispô-lo, assim, isso deve ser considerado, porque das r! formas diferentes deves-se contar apenas uma vez.
Assim,  
m Am,r m!
Cm,r = = =
r r! (m − r)! × r!

6
Consequências PRINCÍPIO FUNDAMENTAL DA CONTAGEM

Permutação com elementos repetidos

Considere a palarva ANA e seus anagramas. Será indicado por A∗ o segundo A. Assim,
∗ ∗ ∗ ∗ ∗
AN
| {zA}, |AA
{z N}, |N AA
{z }, |N A N A}, |A∗{z
{z A}, |A {z AN},
(1) (2) (3) (4) (5) (6)

E os anagramas (1) e (5), (2) e (6), (3) e (4) são iguais. Logo, não existem 3! = 6 permutações distintas, mas
apenas 3.
Assim, Seja A um conjunto com m elementos, isto é, A = {a1 , a2 , . . . , am } , porém m1 elementos são iguais a
n1
a1 e os restantes distintos entre si. Denota-se Pm o número de permutações nessas condições, logo

n1 m!
Pm =
n1 !

Essa expressão pode ser expandida para o caso de vários elementos repetidos. Seja A um conjunto de m
elementos, dos quais:
n1 são iguais a a1
n2 são iguais a a2
..
.
nr são iguais a ar
Assim, tem-se a seguinte expressão

n1 ,n2 ,...,nr m!
Pm =
n1 ! × n2 ! × · · · × nr !

7
PROBABILIDADE

Probabilidade
Relembrando o que já foi escrito
Definição: Seja ε um experimento. Seja S um espaço amostral associado a ε. A cada evento A será
associado um número real representado por P (A) e denominado probabilidade de A, que satisfaça às seguinte
propriedades:
1. 0 ≤ P (A) ≤ 1.
2. P (S) = 1
3. Se A e B forem eventos mutamente excludentes, P (A ∪ B) = P (A) + P (B).
Disso, decorre alguns teoremas importantes (que aqui não serão demonstrados).
Teorema 1 Se ∅ for o conjunto vazio, então P (∅) = 0.
Teorema 2 Se Ā for o evento complementar de A, então P (Ā) = 1 − P (A).
Teorema 3 Se A e B forem dois eventos quaisquer, então P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
Teorema 4 Se A ⊂ B, então P (A) ≤ P (B).

Eventos Equiprováveis

Seja S = {a1 , a2 , . . . , am } o espaço amostral. Diz-se que esse espaço amostral é equiprovável se p1 = p2 =
· · · = pm , isto é, se todos os eventos elementares de S tiverem a mesma probabilidade.
Assim, dado um evento A neste espaço S, onde este evento possua r elementos, a probabildade deste evento
será
#A r
P (A) = = .
#S m

Probabilidade Condicional

Seja S um espaço amostral e considere dois eventos A e B. Denotado por P (A|B) indica-se a probabilidade
do evento A, dado que o evento B ocorreu, isto é, tudo se passa como se B fosse o novo espaço amostral
“reduzido”, dentro do qual se deseja calculdar a probabilidade de A.
Assim, define-se probabilidade do evento A dado que o evento B ocorreu

P (A ∩ B)
P (A|B) =
P (B)

onde P(B) > 0.

Teorema da Multiplicação

Uma consequência importante de probabilidade condicional é

P (A ∩ B)
P (A|B) = → P (A ∩ B) = P (B) × P (A|B)
P (B)

P (A ∩ B)
P (B|A) = → P (A ∩ B) = P (A) × P (B|A)
P (A)

8
Teorema da Probabildiade Total PROBABILIDADE

Teorema da Probabildiade Total

Seja o espaço amostral S, e n eventos B1 , B2 , . . ., Bn . Diz-se que os eventos formam uma partição do espaço
amostral S, quando
1. P (Bk ) > 0
2. Bi ∩ Bj = ∅ para i 6= j
3.
n
[
Bi = B1 ∪ B2 ∪ · · · ∪ Bn = S
i=1

Seja A um evento nesse mesmo espaço amostral S. ASsim, é possível escrever a seguinte relação A =
(B1 ∩ A) ∪ (B2 ∩ A) ∪ · · · ∪ (Bn ∩ A).
Como os eventos (B1 ∩ A), (B2 ∩ A), . . ., (Bn ∩ A) são dois a dois mutamente excluentes, então

P (A) = P (B1 ∩ A) + P (B2 ∩ A) + · · · + P (Bn ∩ A).

Teorema de Bayes

Considere um espaço amostral S, com uma partição em n eventos B1 , B2 , . . ., Bn e um evento A que também
ocorre nesse espaço amostral. Deseja-se calcular a probabilidade de um evento Bi dado que o evento A
i ∩A)
tenha ocorrido, ou seja, pode ser escrito como P (Bi |A) = P (B
P (A) , portanto, utilizando a consequência da
probabiidade condicional e o teorema de probabilidade total, tem-se que

P (Bi ∩ A) P (A|Bi ) × P (Bi )


P (Bi |A) = = P
n
P (A)
P (A|Bj ) × P (Bj )
j=1

Esste resultado é conhecido como Teorema de Bayes. A expressão acima nos dá a probabilidade de um
particuclar Bi , dado que o evento A tenha ocorrido.

Independência

Dado dois eventos A e B de um espaço amostral S, diz-se que esses eventos são independentes se, e somente
se,
P (A ∩ B) = P (A) × P (B).

Assim, se A e B são dois eventos independentes, então

P (A ∩ B) P (A)P (B)
P (A|B) = = = P (A)
P (B) P (B)

e
P (A ∩ B) P (A)P (B)
P (B|A) = = = P (B)
P (A) P (A)

9
VARIÁVEL ALEATÓRIA

Variável Aleatória
Ao descrever um experimento e seu espaço amostral, muitas vezes se trabalha com medidas que não são
um número. Por exemplo, uma peça manufaturada e observar se esta está em boas condições ou é uma
peça defeituosa ou dentro de um período de 24 horas observar a curva de temperatura. Porém, em muitos
experimentos, o interesse se encontra na mensuração e fazer o registro como um número. Assim, para esses
exemplos citados acima, é possível para o caso das peças atribuir 0 para as peças defeituosas e 1 para as
peças boas. Da mesma forma, ao invés de observar a curva, pode-se anotar a temperatura máxima, a mínima
e a média dessas temperaturas.
Assim, em muitas situações experimentais, deseja-se atribuir um número real x a todo elemento de $s4 do
espaço amostral S. Isto é, x = X(s) é o valor de uma função X do espaço amostral no espaço dos números
reais.
Definição: Sejam ε um experimento e S um espaço amostral associado ao experimento. Uma função X, que
associe a cada elemento s ∈ S um número real, X(s) é denominada variável aleatória (va).
Sendo assim, a partir daqui, serão identificadas dois tipos de variáveis aleatórias, que são:
• Variável Aleatória Discreta: São variáveis aleatórias que provêm de contagem. Por exemplo:
– Identificar uma pessoa como da turma A ou B (0 ou 1).
– O número de peças defeituosas dentro de um lote.
– O número de carros que passam dentro de um intervalo de tempo na Rua Vergueiro.
– Comprar um certo produto até que se tire o produto premiado.
• Variável Aleatória Contínua: São variáveis aleatórias que provêm de processos de mensuração. Por
exemplo:
– A altura dos alunos da sala.
– O tempo de duração da lâmpada.
– A inflação do dia.
– A gasto médio da cesta de uma família.
As próximas definições se aplicam a ambos os tipos de VA, porém serão vistas de forma separadas por
facilidade de cálculo.
Além disso, uma VA é representada por letras maiúsculas.

VA Discreta

Conforme já foi dito, variáveis aleatórias discretas são experimentos oriundos a partir de contagem. Assim, o
gráfico de uma VA discreta é disposto de barras individuais em que no eixo X se indica o valor da VA e no
eixo Y se indica a probabilidade que aquele valor assume.

Função de Probablidade

Definição: Seja X uma VA discreta, então o número de valores possíveis de X é enumerável (finito ou
infinito), ou seja, é possível dispor os valores de X em uma lista como x1 , x2 , . . .. A cada possível resultado de
xi é associado um número p(xi ) = P (X = xi ) denominado probabilidade de xi . Os números p(xi ), i = 1, 2, ...
devem satisfazer às seguintes condições:
1. p(xi ) ≥ 0, para todo i,

10
VA Contínua VARIÁVEL ALEATÓRIA


P
2. P (X = xi ) = p(xi ) = 1
i=1

A função p acima, é denominada de função de probabilidade (fp) da variável aleatória X.

Função Distribuição Acumulada

Definição: Dada uma VA discreta X, define-se Função Distribuição Acumulada (fda) o seguinte
X
F (X) = P (X ≤ x) = P (X = xi ), com Ax = i : xi ≤ x
i∈Ax

VA Contínua

Variáveis aletórias contínuas são oriudas de processos de mensuração. Uma VA contínua é expressa através
de uma função matemática e tem seu gráfico representado por histograma ou uma linha contínua.

Função Densidade de Probablidade

Definição: Seja X uma VA contínua, então, o contradomínio (RX ) de X é um intervalo ou uma coleção
de intervalos. Assim, existe uma função fX : R → [0, ∞), denominada de função densidade de probabilidade
(fdp), que satisfaz as seguintes condições:
1. f (x) ≥ 0, para todo x ∈ RX ,
R∞
2. f (x)dx = 1
−∞

Além disso, define-se para qualquer c, d ∈ RX , com c < d que

Zd
P (c ≤ X ≤ d) = P (c < X < d) = f (x)dx
c

Vale a pena notar que, de forma como a probabildiade foi definida, a probabilidade de um ponto isolado é
Rc
sempre zero, ou seja, P (X = c) = f (x)dx = 0. Desta forma, pode-se concluir que, quando X é uma VA
c
contínua, a probablidade de ocorrer um valor específico é zero.

Função Distribuição Acumulada

Definição: Dada uma VA contínua X, define-se Função Distribuição Acumulada (fda) o seguinte
Zx
F (X) = P (X ≤ x) = f (x)dx
−∞

Assim, uma relação entre a fda e a fdp é


δ
FX (x) = fX (x)
δx

11
Esperança VARIÁVEL ALEATÓRIA

Esperança

Definição: Dada uma VA X, define-se Esperança o seguinte:


• Para VA discreta

X ∞
X
E[X] = xi P (X = xi ) = xi p(xi )
i=1 i=1

• Para VA contínua
Z∞
E[X] = xf (x)dx
−∞

Assim, para qualquer função da variável aleatória g(X), a esperança dessa função será dada por:
• Para VA discreta

X ∞
X
E[g(X)] = g(xi )P (X = xi ) = g(xi )p(xi )
i=1 i=1

• Para VA contínua
Z∞
E[g(X)] = g(x)f (x)dx
−∞

Variância

Definição: Dada uma VA X, define-se Variância o seguinte

V [X] = E[(X − E[X])2 ] = E[X 2 ] − (E[X])2

Como foi mencionado acima, para o cálculo da variância considera-se g(X) = X 2 .

Momentos

Definição: Dada uma VA X, define-se o r-ésimo momento de X o seguinte:


• Para VA discreta

X
r
E[X ] = xri p(xi )
i=1

• Para VA contínua
Z∞
r
E[X ] = xr f (x)dx
−∞

Função Geratriz de Momentos

Definição: Dada uma VA X, define-se a função geratriz de momentos (fgm) de X o seguinte

MX (t) = E[etX ]

Assim, para fgm se for calculado a primeira derivada avaliada no ponto t = 0 tem-se a esperança da VA X,
ou seja,
0
MX (0) = E[X].

12
Vetores Aleatórios VARIÁVEL ALEATÓRIA

Da mesma forma, a segunda derivada avaliada no ponto t = 0 tem-se a esperança de X 2 , ou seja,


00
MX (0) = E[X 2 ].

Portanto, se deseja-se encontrar o n-ésimo moneto da VA X, basta derivar sua fgm n vezes e avaliar no ponto
t = 0.
(A fgm entra como nota para conhecimento, pois quando se tratar de cálculo entre variáveis, a ideia de fgm
facilita o processo.)

Vetores Aleatórios

Até então foi visto somente para uma variável aleatória. Agora será abordado questões a respeito de
distribuições com mais de uma variável aleatória, que será chamado de vetor aleatório. Assim, considere par
ordenado (X, Y ) um vetor aleatório composto de X e Y variáveis aleatórias.
Definição: Seja X e Y VAs e Z = (X, Y ) um vetor aleatório formado de X e Y . Assim, a distribuição de
probabilidade de Z segue as seguintes condições:
• Para o caso discreto:
1. p(xi , yj ) ≥ 0, qualquer que seja i, j = 1, 2, . . ..
P P
2. p(xi , yj ) = 1
xi ∈RX yj ∈RY

• Para o caso discreto:


1. f (x, y) ≥ 0, qualquer que seja i, j = 1, 2, . . ..
R∞ R∞
2. f (x, y)dxdy = 1
−∞ −∞

Definição: Seja X e Y VAs e Z = (X, Y ) um vetor aleatório formado de X e Y . Define-se a função


distribuição acumulada conjunta da seguinte forma:

FX,Y (x, y) = P(X ≤ x ∩ Y ≤ y) = P(X ≤ x, Y ≤ y), ∀(x, y) ∈ R2

Também é possível calcular a distribuição marginal para X e Y , da seguinte forma:


• Para o caso discreto X
PX (x, y) = PX,Y (x, y)
y∈RY

• Para o caso contínuo


Z∞
fX (x, y) = fX,Y (x, y)dy
−∞

Aqui foi definido um vetor aleatório para o R2 , porém isso se aplica ao mundo do Rn .

Covariância
Definição: Seja X e Y duas VAs e o par ordenado (X, Y ) um vetor aleatório. Define-se convariância de X
e Y o seguinte:

Cov(X, Y ) = E[(X − (X))(Y − E(Y ))] = E(XY ) − E[X]E[Y ]

13
Vetores Aleatórios VARIÁVEL ALEATÓRIA

Definição: Seja X e Y duas VAs e o par ordenado (X, Y ) um vetor aleatório. Define-se correlação de X e
Y o seguinte:

Cov(X, Y )
ρ(X, Y ) = p p
V (X) V (Y )

VAs Independentes
Definição: Seja X = (X1 , X2 , . . . , Xn ) um vetor aleatório. Define-se vetor aleatório independente se
n
Y
P(X1 , X2 , . . . , Xn ) = P(X1 ) × P(X2 ×) × · · · × P(Xn ) = P(Xi )
i=1

Distribuição Condicional
Para vetores aleatórios também se define distribuição condicional. Para isso considere X e Y VAs e Z = (X, Y )
um vetor aleatório formado de X e Y . Define-se distribuição condicional da seguinte forma:
• Para o caso discreto

P(X = x, Y = y) p(x, y)
pX|Y (x|y) = P(X = x|Y = y) = =
P(Y = y) pY (y)
• Para o caso contínuo

f (x, y)dxdy
fX|Y (x|y)dx =
fY (y)

14
MODELOS DE PROBABILIDADE

Modelos de Probabilidade
A seguir serão vistos as principais distribuições de probabilidade tanto discretas como contínuas.

Modelos para VA Discretas

Uniforme Discreta

Seja X uma VA com distribuição uniforme discreta de parâmetro n. Denota-se por X ∼ U D(n). Sua fp é
dada por
1
P(X = xi ) = , ∀xi ∈ RX
n
Exemplos: lançamento de uma moeda, lançamento de um dado, retirada de uma carta de um baralho de 52
cartas.

Bernoulli

Seja X uma VA com distribuição de Bernoulli com parâmetro p. Denota-se por X ∼ Bernoulli(p). Sua fp é
dada por (
p, se X = 1
P(X = xi ) = , onde 0 ≤ p ≤ 1
1 − p, se X = 0

Esta distribuição é muito conhecida pois o valor da VA assume 0 ou 1, valores binários, ou seja, aqui se aplica
exemplos de sucesso ou fracasso, verdadeiro ou falso, possui a doença ou não possui a doença, etc.
Se X ∼ Bernoulli(p), então
E[X] = p
e
V ar[X] = p(1 − p)

Binomial

Seja X uma VA com distribuição Binomial de parâmentros n e p, onde n ∈ N e 0 ≤ p ≤ 1. Denotada por


X ∼ Bin(n, p). Sua fp é dada por
 
n xi
P(X = xi ) = p (1 − p)n−xi , onde xi = 0, 1, 2, . . . , n
xi

Esta distribuição ve mda realização de n ensaios independentes de Bernoulli, onde se deseja observar o número
de sucessos dentro de n tentativas.
Se X ∼ Bin(n, p), então
E[X] = np
e
V ar[X] = np(1 − p)

15
Modelos para VA Discretas MODELOS DE PROBABILIDADE

Poisson

Seja X uma VA com distribuição de Poisson com parâmetro λ, onde λ > 0. Denotada por X ∼ P oisson(λ).
Sua fp é dada por
λxi
P(X = xi ) = e−λ , onde xi = 0, 1, 2, . . . , n
xi !

Esta distribuição é conhecida por variáveis que são oriundas através de processos de contagem. Por exemplo,
número de erros em uma página de um livro, número de pessoas dentro de uma quadrado de 100 metros
quadrados, número de carros que passam em um determinado cruzamento.
Se X ∼ P oisson(λ), então
E[X] = λ
e
V ar[X] = λ

Hipergeométrica

Seja X uma VA com distribuição hipergeométrica de parâmetros M , N e n, onde M ≤ N . Denotado por


X ∼ HGeo(M, N, n). Sua fp é dada por
M N −M
 
xi n−xi
P (X = xi ) = N
 , onde max{0, n(N − M )} ≤ xi ≤ min{M, n}
n

Esta distribuição ela é muita característica para o seguinte exemplo:


• É sabido que uma empresa produtora de parafusos, produz 100 peças a cada lote. Cada lote passa
por um processo de qualidade em que é verificado 10 parafusos e se analise se estes são defeituosos ou
não. Os funcionários da empresa dizem que 15 parafusos vêm com defeito. Assim, se estabelecer uma
VA X que é observar o número de peças defeituosas, pode-se dizer que esta VA assume um modelo
hipergeométrico com os seguintes parâmetros N = 100 que é o número total de peças, M = 15 que é
o número de peças defeituosas fabricadas por lote e n = 10 que é o número de peças verificadas pelo
controle de qualidade, ou seja, X ∼ Hgeo(N = 100, M = 15, n = 10).

Geométrica

Seja X uma VA com distribuição geométrica de parâmetro p, onde 0 ≤ p ≤ 1. Denotada por X ∼ Geo(p).
Sua fp é dada por
P (X = xi ) = (1 − p)xi p, onde xi = 0, 1, 2, . . .

Esta distribuição é conhecida por mensurar o número de falhas até que se obtenha o primeiro sucesso.

Binomial Negativa

Seja X uma VA com distribuição Binomial Negativa com parâmetros p e r, onde 0 ≤ p ≤ 1 representa a
probabilidade de sucesso e r representa o número total de sucessos. Denotada por X ∼ BN (r, p). Sua fp é
dada por  
xi − 1 r
P(X = xi ) = p (1 − p)xi −r , onde xi = r, r + 1, r + 2, . . . .
r−1

Esta distribuição mensura o número de tentativas até que se obtenha r sucessos.

16
Modelos para VA Contínua MODELOS DE PROBABILIDADE

Modelos para VA Contínua

Uniforme

Seja X uma VA com distribuição Uniforme de parâmetros a e b, onde a < b e a, b ∈ R. Denotada por
X ∼ U nif (a, b). Sua fdp é dada por
(
1
f (x) = b−a , onde a ≤ x ≤ b
0, caso contrário

Sua fda é dada por 



 0, x<a
x−a
F (x) = b−a ,a≤x≤b

1, x>b

Se XU nif (a, b) então


a+b
E(X) =
2
e
(b − a)2
V ar(X) =
12

Normal

Se X é uma VA com distribuição Normal com os parâmetros µ e σ, onde µ ∈ R e σ > 0. Denotada por
X ∼ N (µ, σ 2 ). Sua fdp é dada por
 
1 1 2
f (x) = √ exp (x − µ)
2πσ 2 2σ 2

A distribuição normal é uma das mais conhecidas no meio das distribuições de probabilidade. Esta é uma
distribuição simétrica e que possui muitas propriedades e boa parte das estatísticas e modelos que foram
desenvolvidos é baseado nesta distribuição.
Se X ∼ N (µ, σ 2 ), então
E(X) = µ
e
V ar(X) = σ 2

Seja X uma VA com distribuição normal com média µ e variância σ 2 , se fizer Z = X−µ
σ , diz-se então que Z é
uma VA com distribuição normal padrão, pois sua média será 0 e sua variância será 1, ou seja, Z ∼ N (0, 1).

Qui-Quadrado

Seja X uma VA com distribuição qui-quadrado com ν graus de liberdade. Denotada por X ∼ χ2ν . Sua fdp é
dada por
1
f (x) = ν/2 x(ν/2)−1 exp(−x/2), onde ν > 0, x > 0
2 Γ(ν/2)


(Γ(ω) = xω−1 exp(−x)dx, ω > 0)
0

17
Modelos para VA Contínua MODELOS DE PROBABILIDADE

T-Student (centralizada)

Seja X uma VA com distribuição T de Student com ν graus de liberdade. Denotada por X ∼ tν . Sua fdp é
dada por    
Γ ν+1
2
 x 2  − ν+1
2
f (x) = √ 1+ , x ∈ (−∞, ∞)
νπΓ(ν/2) ν

Conhecida como distribuição normal de caudas longas, caudas mais pesadas.

F-Snedecor (centralizada)

Seja X uma VA com distribuição F de Snedecor com n graus de liberdade no numerador e m graus de
liberdade no denominador. Denotada por X ∼ Fm,n . Sua fdp é dada por
m m
Γ( m+n 2 −1
m 2
2 )( n ) x
f (x) = m+n , x ∈ [0, ∞)
Γ( m n m
2 )Γ( 2 )[( n )x + 1]
2

Exponencial

Seja X uma VA com distribuição exponencial com parâmetro λ, λ > 0. Denotada por X ∼ Exp(λ). Sua fdp
é dada por
f (x) = λe−λx , x ≥ 0

Sua fda é dada por


F (X) = 1 − e−λx , x ≥ 0

Se X ∼ Exp(λ), então
1
E(X) =
λ
e
1
V ar(X) =
λ2
Esta distribuição é conhecida por medir tempo de vida, muito utilizada para análises iniciais em análise de
sobrevivência. Esta distribuição é conhecida por possuir a propriedade de “falta de memória”.

Gama

Seja X uma VA com distribuição Gama com parâmetros α > 0 (conhecido como parâmetro de forma) e
β > 0 (parâmetro de taxa). Denotada por X ∼ Gama(α, β). Sua fdp é dada por
1
f (x) = β α xα−1 e−βx , x ≥ 0
Γ(α)

Beta

Seja X uma VA com distribuição Beta com parâmetros α > 0 e β > 0 . Denotada por X ∼ Beta(α, β). Sua
fdp é dada por
Γ(α + β) α−1
f (x) = x (1 − x)β−1 , x ∈ (0, 1)
Γ(α)Γ(β)

18
Outros modelos de probabilidade MODELOS DE PROBABILIDADE

Weibull

Seja X uma VA com distribuição Weibull com parâmetros α > 0 e β > 0 . Denotada por X ∼ W eibull(α, β).
Sua fdp é dada por    
α α−1 x α
f (x) = α x exp − ,x ≥ 0
β β

Outros modelos de probabilidade

Acima foram listadas as mais conhecidas, porém existe muitas outras distribuições de variadas formas e
variados domínios para X.
Assim como existem os modelos para duas ou mais variáveis, por exemplo o modelo multinomial, que é uma
generalização do modelo binomial.

19
TEOREMA CENTRAL DO LIMITE

Teorema Central do Limite


Este é um dos teoremas de maior uso dentro da estatística, pois garante uma convergência a distribuição
normal desde que a amostra tenha um tamanho “grande”.

Definição

TEOREMA: Seja X1 , X2 , . . . uma sequência de variáveis aleatórias independentes e identicamente distribuídas,


cada uma com média µ e variância σ 2 . então, a distribuição de
X1 + X2 + · · · + Xn − nµ

σ n

tende a distribuição normal padrão quando n → ∞. Isto é, para −∞ < a < ∞, quando n → ∞

 X + X + · · · + X − nµ Za
1 2 n
 1 2
P √ ≤a → √ e−x /2 dx
σ n 2π
−∞

Distribuição Amostral

Considere uma amostra aleatória independente e identicamente distribuída de X1 , X2 , . . . de uma distribuiçao


X qualquer com média µ e variância σ 2 . Seja X̄ a média amostral definida por
X1 + X2 + · · · + Xn
X̄ =
n

Assim, tem-se que


E(X̄) = µ
e
σ2
V ar(X̄) =
n
Logo, se essa amostra tiver um tamanho suficientemente grande, tem-se, através do Teorema Central do
Limite, que
 σ2 
X̄ ∼ N µ,
n

20

Vous aimerez peut-être aussi