Vous êtes sur la page 1sur 8

CONCEITOS BÁSICOS DE ESTATÍTICA: PROBABILIDADE, VARIÁVIES

ALEATÓRIAS e DISTRIBUIÇÕES ESPECIAIS.

Neste trabalho é descrito uma série de conceitos que são essências para a interpretação
e compreensão da Estatística.
O primeiro deles está relacionado com o estudo da probabilidade, é a chave para a
produção do espaço amostral e é denominado Experimento Aleatório. Esse se constitui por
fenômenos que quando são repetidos diversas vezes por meio de processos semelhantes
produzem resultados imprevisíveis. Por exemplo, quando se lança uma moeda ou um dado
para cima pode-se obter resultados distintos, como seis resultados diferentes {1, 2, 3, 4, 5, 6}
para um dado e dois resultados {cara, coroa} para uma moeda (MUNDO EDUCAÇÃO,
2018).
Os resultados obtidos durante um experimento aleatório é denominado de Espaço
Amostral, sendo esse composto por subconjuntos que são chamados de Eventos. Sendo
assim, o número possível de elementos dentro de um Experimento Aleatório constitui o seu
Espaço Amostral. Por tanto, quando se joga um dado, o espaço amostral será composto por
seis elementos {1, 2, 3, 4, 5, 6} e os eventos possíveis neste serão {(1), (2), (3), (4), (5), (6)}.
Já uma moeda lançada terá como espaço amostral dois resultados possíveis {cara, coroa} e
dois eventos {(cara), (coroa)} (MUNDO EDUCAÇÃO, 2018).
Quando se analisa experimentos aleatórios pode-se perceber, segundo FONSECA &
MARTINS (2011), que cada um destes podem ser repetidos indefinidamente quando
estiverem em condições idênticas. E, além disso, que não se pode conhecer um valor
particular do experimento (priori), sendo, contudo possível à descrição de todos os resultados
possíveis, ou seja, todas as possibilidades.
Ainda segundo FONSECA & MARTINS (2011), repetindo-se um experimento muitas
vezes consegue-se uma regularidade que trará estabilidade da Frequência Relativa, 𝑓 = 𝑟/𝑛,
onde 𝑛 é o número de repetições e 𝑟 número de sucessos de um particular resultado
estabelecido antes da realização. Isto é de extrema importância para se avaliar a probabilidade
de um determinado evento.
Os eventos podem ser formados utilizando-se operações de conjuntos da seguinte
maneira (FONSECA & MARTINS, 2011):
a) A  B: ocorre se A ocorre ou B ocorre ou ambos ocorrem;
b) A  B: ocorre se A e B ocorrem;
c) Ā: ocorre se A não ocorrer.
Quando se fala em frequências relativas diz-se que estas são Estimativas de
Probabilidades de ocorrer certo evento de interesse. Sendo assim, realizando suposições
adequadas e observando fenômenos de interesse diretamente pode-se produzir um modelo
teórico que reproduza razoavelmente a distribuição destas frequências (BUSSAD &
MORETTIN, 2002).
A probabilidade, dado um experimento aleatório 𝐸, um espaço amostral S e um evento
A - P(A), é uma função definida por 𝑆 que associa cada evento a um número real e que
satisfaz as seguintes verdades (FONSECA & MARTINS, 2011):
1- 0 ≤ P (A) ≤ 1;
2- P(S) = 1;
3- Se A e B forem eventos mutuamente exclusivos, (A  B=ϕ), então P(A  B) =
P(A) + P(B).
Ou seja, segundo LARSON & FARBER (2010), um experimento de probabilidade
será uma ação ou uma tentativa por meio do qual se obtém resultados específicos, podendo
esses ser contagens, medições ou respostas. Em uma única tentativa um resultado obtido é um
Resultado. E o conjunto de todos os resultados possíveis é o espaço amostral S.
Em um experimento probabilístico existem as probabilidades finitas do espaço
amostral, ou seja, Espaços Amostrais Finitos. Portanto, seja S um espaço amostral finito
S={a1, a2,...,an}, considera-se um evento formado por um resultado simples A={ai}. A cada
evento simples {ai} pode-se associar um número pi (probabilidade de {ai}), o que satisfaz as
seguintes condições (FONSECA & MARTINS, 2011):
1- pi ≥ 0 i = 1,2,..,n
2- p1+ p2+ p3+...+ pn = 1
Contudo, em um evento composto a probabilidade (A) de cada evento com mais de um
elemento é definida por meio da soma de todas as probabilidades dos pontos A (FONSECA &
MARTINS, 2011).
Quando cada ponto amostral é associado a uma mesma probabilidade, o espaço
amostral passa a ser chamado de Equiprovável ou Uniforme. Particularmente se S contiver n
1
pontos a probabilidade, então, para cada ponto haverá uma fração: 𝑛. Porém se um evento A
1 𝑟
contiver r pontos então: 𝑃(𝐴) = 𝑟 ∗ (𝑛) = 𝑛 . Essa metodologia de avaliar a função P(A) é

comumente demonstrada da seguinte forma (FONSECA & MARTINS, 2011):


𝑛º 𝑣𝑒𝑧𝑒𝑠 𝑒𝑚 𝑞𝑢𝑒 𝑜 𝑒𝑣𝑒𝑛𝑡𝑜 𝐴 𝑝𝑜𝑑𝑒 𝑜𝑐𝑜𝑟𝑟𝑒𝑟 𝑁.𝐶.𝐹 (𝑛º 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟á𝑣𝑒𝑖𝑠)
𝑃(𝐴) = 𝑛º 𝑑𝑒 𝑣𝑒𝑧𝑒𝑠 𝑒𝑚 𝑞𝑢𝑒 𝑜 𝐸𝑠𝑝𝑎ç𝑜 𝐴𝑚𝑜𝑠𝑡𝑟𝑎𝑙 𝑆 𝑜𝑐𝑜𝑟𝑟𝑒 ou 𝑃(𝐴) = 𝑁.𝑇.𝐶 (𝑛º𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠)

Quando um evento já ocorreu a probabilidade de outro evento ocorrer é chamada de


Probabilidade Condicional. A probabilidade de um evento B ocorrer, dado que outro evento
A já tenha ocorrido é definida pela probabilidade de B dado A, ou seja, P(A|B) (LARSON &
FARBER, 2010).
Então, para dois eventos quaisquer A e B, sendo P(B) > 0 a probabilidade condicional
de A dado B, P(A|B), será expressa pela seguinte relação, de acordo com BUSSAD &
𝑃(A  B)
MORETTIN (2002): 𝑃(𝐴|𝐵) = .
𝑃(𝐵)

Por exemplo:
1) (BUSSAD & MORETTIN, 2002) Uma urna contém duas bolas brancas (BB) e três
bolas vermelhas (V). suponha que são sorteadas duas bolas ao acaso, sem reposição. Isso
significa que escolhemos a primeira bola, verificamos a cor e não a devolvemos à urna;
misturamos as bolas restantes e retiramos à segunda. O diagrama abaixo representa as
possibilidades. Em cada etapa são indicadas as probabilidades de ocorrência, sendo que para
as segundas bolas as probabilidades serão condicionais. A probabilidade do resultado
conjunto é dada então por:
Diagrama
B
1/4
B
2/5 1/4
V
B
3/5 2/4
V
2/4
V

Se A for o evento “bola branca na segunda extração”, então 𝑃(𝐴) = 𝑃(𝐵𝐵) +


2 6 2
𝑃(𝑉𝐵) = 20 + 20 = 5 . Assim, as probabilidades para cada resultado serão:

RESULTADOS PROBABILIDADES
BB 2/5 ∗ 1/4 = 2/20
BV 2/5 ∗ 3/4 = 6/20
VB 3/5 ∗ 2/4 = 6/20
VV 3/5 ∗ 2/4 = 6/20
Total 1

Quando dois eventos ocorrem e eles não sofrem interferência um do outro, diz-se que
estes são Independentes. Portanto, dois eventos serão independentes se 𝑃(𝐴|𝐵) = 𝑃(𝐵) ou
se 𝑃(𝐴|𝐵) = 𝑃(𝐴). Caso contrário, estes serão dependentes um do outro (LARSON &
FARBER, 2010).
Para a distinção entre os eventos independentes e os eventos dependentes deve-se
primeiro calcular P(B), a probabilidade do evento B. E, então, calcular P(A|B), a
probabilidade de B dado A. Se os valores obtidos forem iguais, então os eventos são
independentes um do outro, mas se o resultado de P(B) for diferente de P(A|B) os eventos são
dependentes (LARSON & FARBER, 2010).
Em um experimento de probabilidade o resultado obtido é comumente uma contagem
ou uma medição. Assim, o resultado passa a se chamar Variável Aleatória.
Uma variável aleatória x representa um valor numérico que está associado a cada
resultado de um experimento de probabilidade. Sendo assim, o termo aleatória indica que X é
determinado pelo acaso. Além disso, esta pode ser dividida em dois tipos: Variável Aleatória
Discreta e Variável Aleatória Contínua. A primeira, discreta, ocorre se há um número finito
ou contável de possíveis resultados a serem listados. Já a segunda, contínua, existe se houver
um número incontável de possíveis resultados, representados por um intervalo em uma reta
numérica (LARSON & FARBER, 2010).
Em relação à Função de Densidade de Probabilidade, seja x uma variável aleatória
contínua. A função de densidade f(x) é a função que satisfaz as condições a seguir
(FONSECA & MARTINS, 2011):
1) F(x) ≥ 0 para todo x ϵ Rx
2) ∫𝑅𝑥 𝑓(𝒙) 𝑑𝒙 = 1
𝑏
E ainda, define-se para qualquer a < b em Rx: 𝑃(𝑎 < 𝒙 < 𝑏) = ∫𝑎 𝑓(𝒙) 𝑑𝒙, em que
Rx é o contradomínio de x. Nota-se que f(x), densidade de probabilidade, não é uma
probabilidade. Assim observa-se que, somente quando a função for integrada entre dois
limites, ela produzirá uma probabilidade, que será a área sob a curva da função entre x = a e x
= b, sendo a < b (FONSECA & MARTINS, 2011).
Existem casos que ao invés de se considerar um único resultado x (Variável Aleatória
Unidimensional), há o interesse por dois resultados simultâneos. Ou seja, se existe uma
associação de duas funções (como por exemplo: X=X(s) e Y=Y(s)) à um número real a cada
resultado s ϵ S tem-se uma Variável Aleatória Bidimensional. Isso pode ser ilustrado pela
figura a seguir (FONSECA & MARTINS, 2011):
Assim, como a variável aleatória unidimensional, (X,Y), a bidirecional pode ser,
também, dividida em discreta ou contínua (FONSECA & MARTINS, 2011).
Com situações em que se deseja observar resultados simultâneos de diversas variáveis
aleatórias, deve-se analisar a Distribuição Conjunta das Probabilidades, ou seja, o
comportamento simultâneo de probabilidades (MOODLE-UFSC, 2018).
Por exemplo, podemos medir o total precipitado, a umidade e a temperatura resultando
em um espaço amostral tri-dimensional que consiste nos resultados p, u, t. Sendo a função f(x,
y) a distribuição de probabilidade conjunta das variáveis aleatórias x e y se (CEARIDUS,
2018):
1. f(x, y) ≥ 0 p/ todos (x, y)
2. ∑ ∑ f(x, y) = 1
x y

3. P (X = x, Y = y) = f(x,y)
Para qualquer região A no plano xy P[(x, y) ∈ A] = ∑ ∑ f(x, y).
A

Dada uma variável aleatória bidimensional e sua distribuição conjunta


pode-se determinar a distribuição de X sem considerar Y, ou vice-versa. Assim, estas serão
as chamadas Distribuições Marginais (FONSECA & MARTINS, 2011).
Seja (X, Y) discreta; então:

Distribuição marginal de X: 𝑃(𝑋 = 𝑋𝑖) = 𝑃(𝑋 = 𝑋; , − oo < 𝑦 < +𝑜𝑜) ou


𝑃(𝑋 = 𝑥𝑖) = ∑𝑗 𝑃(𝑥𝑖; 𝑦𝑗)

Distribuição marginal de Y: 𝑃 (𝑦 = 𝑌𝑗) = 𝑝 (− 00 < 𝑋 < 𝑜𝑜, 𝑦 = 𝑌𝑗) ou


𝑃 ( Y = Y) = ∑j P(x; . Yj)

Se a distribuição de (X, Y) é dada por uma tabela, as probabilidades marginais·serão


dadas pela soma das linhas ou colunas (FONSECA & MARTINS, 2011).
No caso de (X, Y) contínua, teremos:

1) g ( X) = ∫ 𝑓 (𝑥, 𝑦) 𝑑𝑦 - função densidade marginal de X;

2) h (y) = ∫−∞ 𝑓 (𝑥, y) 𝑑𝑥 - função densidade marginal de y.
Referente às Variáveis Aleatórias Independentes tem-se que seja (X, Y) uma variável
aleatória discreta bidimensional X e Y são independentes se, e somente se, p (xi, yi) = p (xi) p
(yi) para quaisquer i e j. E que seja (X, Y) uma variável aleatória contínua bidimensional. X e Y
são independentes se, e somente se, f (x, y) = g (x) h (y) para todo (x, y) (FONSECA &
MARTINS, 2011).
Se em um processo aleatório for obtido exatamente dois resultados, evento ou não
evento, usa-se a Distribuição de Bernoulli. Nesta, as variáveis podem assumir dois valores
numéricos 0 e 1, no qual 1 é um evento e 0 é um não evento. Uma variável aleatória x segue
uma distribuição de Bernoulli se, P(X = 1) = p e P(X = 0) = 1 – p, em que p é a
probabilidade de ocorrência de um evento. Esta distribuição é discreta e se relaciona com
várias distribuições: binominal, geométrica e binominal negativa. Além disso, ela representa o
resultado de um ensaio, nas quais suas sequências sendo independentes geram outras
distribuições, onde a bionominal modela o número de sucessos em n ensaios, a geométrica
modela o número de falhas antes do primeiro sucesso e a binominal negativa as falhas antes
do x0 sucesso (SUPORTE AO MINITAB 18, 2018).
Já a Distribuição Binominal é uma distribuição discreta que modela o número de
eventos em um número fixo de ensaios. Cada ensaio tem dois resultados possíveis e o evento
é o resultado de interessante de um ensaio. Este é útil para descrever um processo onde os
resultados podem ser rotulados como evento ou não-evento e quando há um interesse na
ocorrência de um evento e não na sua magnitude. O número de eventos (x) em n ensaios
segue uma distribuição binomial, se forem atendidas as seguintes condições: (1) o número de
ensaios é fixo; (2) cada ensaio é independente dos outros ensaios; (3) cada ensaio tem um de
dois resultados: evento ou não-evento; (4) a probabilidade de um evento é a mesma para cada
ensaio; (5) uma das propriedades de uma distribuição binomial é que, quando n é grande a
distribuição binomial pode ser razoavelmente aproximada pela distribuição normal padrão
(SUPORTE AO MINITAB 18, 2018).
Outro tipo de distribuição discreta é a Hipogeométrica, que modela o número de
eventos em um tamanho amostral fixo quando se conhece o número total de itens da
população de onde se origina uma amostra. Cada item vai possuir dois resultados possíveis,
evento ou não evento. Como a amostra não pode ser substituída cada item é diferente. Além
disso, se um item é escolhido da população esse não pode ser escolhido novamente. Com isso,
as chances de um determinado item ser selecionado em cada ensaio aumentam, desde que
ainda não tenha sido selecionado. Portanto, esta distribuição é utilizada para amostras
extraídas de populações relativamente pequenas, sem nenhuma substituição (SUPORTE AO
MINITAB 18, 2018).
E por ultimo temos a Distribuição de Poisson. Essa é especificada por um parâmetro:
lambda (λ), sendo igual à medida de variância. É usada para descrever o número de defeitos
no sistema mecânico de um avião ou o número de chamadas para uma central de atendimento
por hora, por exemplo. Ademais é frequentemente usada no controle de qualidade, em estudos
de confiabilidade/sobrevivência e seguro. E para que esta seja útil deve-se atender as
seguintes condições: (1) dados devem ser contagens de eventos (inteiros não-negativos com
nenhum limite superior); (2) todos os eventos devem ser independentes; e (3) a taxa média
não deve mudar sobre o período de interesse (SUPORTE AO MINITAB 18, 2018).

REFERÊNCIA:

BUSSAD, W.O. Estatística Básica. São Paulo: Saraiva, 2002. 5 ed. 526p.

CEARIDUS. Distribuição de Probabilidade Conjunta. Disponível em: < http://www.


cearidus .ufc.br /Arquivos/Prob%20e%20Estat%EDstica/Apostila/Cap%EDtulo%
204_parte3_ %20Probabilidade%20Conjunta.pdf> Acesso às 21:39 em 01/03/2018.

FONSECA, J.S.; MARTINS,G.A. Curso de Estatística. São Paulo: Atlas, 2011. 6 ed. 320 p.

LARSON, R.; FARBER, B. Estatística aplicada. Tradução: VIANNA, F.P.V. São Paulo:
Person Prentice Hall, 2010. 4ed. 640 p.

MOODLE-UFSC. Distribuição conjunta e Distribuição de probabilidade conjunta


discreta. Disponível em: < https://www.inf.ufsc.br/~andre.zibetti/ probabilidade /dist_
conjunta_vad.html> Acesso às 21:43 em 01/03/2018.

SILVA, M.N.P. Experimento Aleatório. Disponível em: < http://mundoeducacao.


bol.uol.com.br/matema tica/experimento-aleatorio-1.htm> Acesso às 21:31 em 01/03/2018.

SUPORTE AO MINITAB 18. Distribuição Bernoulli. Disponível em: <https://support.


minitab.com/pt-br/minitab/18/help-and-how-to/probability-distributions-and-random-
data/supporting-topics/distributions/bernoulli-distribution/> Acesso às 21:16 em
01/03/2018.

SUPORTE AO MINITAB 18. Distribuição Binominal. Disponível em: <https://support.


minitab.com/pt-br/minitab/18/help-and-how-to/probability-distributions-and-random-
data/supporting-topics/distributions/binomial-distribution/> Acesso às 21:21 em 01/03/2018 .

SUPORTE AO MINITAB 18. Distribuição Hipogeometrica. Disponível em:


<https://support.minitab.com/pt-br/minitab/18/help-and-how-to/probability-distributions-and-
random-data/supporting-topics/distributions/hypergeometric-distribution/>Acesso às 21:24
em 01/03/2018.
SUPORTE AO MINITAB 18. Distribuição Poisson. Disponível em: <https://support.
minitab.com/pt-br/minitab/18/help-and-how-to/probability-distributions-and-random-
data/supporting-topics/distributions/poisson-distribution/> Acesso às 21:19 em
01/03/2018.