Vous êtes sur la page 1sur 57

INSTITUTO SUPERIOR AUTÓNOMO DE

ESTUDOS POLITÉCNICOS

Mondrian – Grande Composição A (1920)

APONTAMENTOS DE
PROBABILIDADES E ESTATÍSTICA
JORGE T. RIBEIRO

2010
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

APONTAMENTOS DE
PROBABILIDADES E ESTATÍSTICA
ÍNDICE
Pág.
O QUE É A ESTATÍSTICA? .................................................................................................. 4
EVOLUÇÃO HISTÓRICA DA ESTATÍSTICA......................................................................... 5
I. INTRODUÇÃO À ESTATÍSTICA ...................................................................................... 11
I.1. ESTATÍSTICA ................................................................................................................ 11
I.1.1. Definições e generalidades................................................................................ 11
I.1.2. Estatística descritiva e estatística indutiva ......................................................... 11
I.1.3. Variáveis discretas e contínuas.......................................................................... 12
II. ESTATÍSTICA DESCRITIVA............................................................................................ 13
II.1. DISTRIBUIÇÕES DE FREQUÊNCIA ................................................................................ 13
II.1.1. Gráficos de linha e de barras ............................................................................ 13
II.1.2. Intervalos e limites de classe ............................................................................ 14
II.1.3. Histogramas e polígonos de frequência ............................................................ 15
II.1.4. Curvas de frequência........................................................................................ 16
II.2. MEDIDAS DE TENDÊNCIA CENTRAL E DE LOCALIZAÇÃO .............................................. 17
II.2.1. Média aritmética................................................................................................ 17
II.2.2. Mediana ............................................................................................................ 17
II.2.3. Moda................................................................................................................. 18
II.2.4. Relação entre média, mediana e moda............................................................. 19
II.2.5. Quantis: quartis, decis e percentis .................................................................... 19
II.2.6. Média geométrica ............................................................................................. 21
II.2.7. Média harmónica .............................................................................................. 21
II.3. MEDIDAS DE DISPERSÃO ............................................................................................ 22
II.3.1. Amplitude total .................................................................................................. 22
II.3.2. Amplitudes modificadas .................................................................................... 22
II.3.3. Desvio médio .................................................................................................... 22
II.3.4. Variância........................................................................................................... 23
II.3.5. Desvio padrão................................................................................................... 23
II.3.6. Coeficiente de variação..................................................................................... 23
II.4. ASSIMETRIA E KURTOSE ............................................................................................. 24
II.4.1. Coeficientes de assimetria ................................................................................ 24
II.4.2. Coeficientes de kurtose .................................................................................... 24
III. PROBABILIDADES E INFERÊNCIA ESTATÍSTICA ...................................................... 26
III.1. TEORIA DA PROBABILIDADE ....................................................................................... 26
III.1.1. Definições e conceitos básicos ........................................................................ 26
III.1.2. Acontecimentos mutuamente exclusivos e não exclusivos .............................. 27
III.1.3. Regras de adição............................................................................................. 28
III.1.4. Probabilidade condicional ................................................................................ 28
III.1.5. Acontecimentos independentes e dependentes............................................... 29
III.1.6. Análise combinatória........................................................................................ 30
III.1.6.1. Arranjos simples ................................................................................ 30
III.1.6.2. Arranjos completos............................................................................ 31
III.1.6.3. Permutações simples ........................................................................ 31
III.1.6.4. Permutações completas .................................................................... 31
III.1.6.5. Permutações circulares ..................................................................... 31

2
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.1.6.6. Permutações com repetição .............................................................. 32


III.1.6.7. Combinações simples........................................................................ 32
III.1.6.8. Combinações completas ................................................................... 32
III.2. DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE ........................................................ 33
III.2.1. Distribuições de probabilidade ......................................................................... 33
III.2.2. Valor esperado e variância de variáveis aleatórias discretas ........................... 33
III.2.3. Distribuição binomial ........................................................................................ 33
III.2.4. Distribuição hipergeométrica............................................................................ 34
III.2.5. Distribuição de Poisson.................................................................................... 35
III.3. DISTRIBUIÇÕES CONTÍNUAS DE PROBABILIDADE ....................................................... 36
III.3.1. Variáveis aleatórias contínuas ......................................................................... 36
III.3.2. Distribuição normal (ou de Gauss) de probabilidade........................................ 37
III.3.3. Distribuição de probabilidade exponencial negativa ......................................... 39
III.4. TEORIA DA AMOSTRAGEM .......................................................................................... 40
III.4.1. Estimação pontual e amostragem.................................................................... 40
III.4.2. Distribuição de amostragem da média ............................................................. 40
III.5. INTERVALOS DE CONFIANÇA ...................................................................................... 42
III.5.1. Intervalos de confiança para a média, utilizando a distribuição normal ............ 42
III.5.2. Determinação do tamanho necessário da amostra para estimar a média........ 42
III.5.3. Intervalos de confiança para a média, utilizando as distribuições t-Student ..... 43
III.6. TESTES DE HIPÓTESES RELATIVOS AO VALOR MÉDIO DA POPULAÇÃO ...................... 44
III.6.1. Etapas de um teste de hipóteses ..................................................................... 44
III.6.2.Teste de um valor hipotético da média utilizando a distribuição normal ............ 45
III.6.3. Erros tipo I e II em testes de hipóteses ............................................................ 46
III.6.4. Determinação do tamanho da amostra para testar a média............................. 47
III.6.5. Teste de um valor hipotético da média utilizando as distribuições t-Student .... 47
III.7. TESTE DE χ2 .............................................................................................................. 48
III.7.1. Teste χ2 como um procedimento de teste de hipóteses.................................. 48
III.7.2. Teste de ajustamento ...................................................................................... 48
III.7.3. Teste de independência de duas variáveis
(teste de tabelas de contingência) .................................................................. 49
III.8. REGRESSÃO LINEAR E CORRELAÇÃO......................................................................... 50
III.8.1. Objectivos e hipóteses da regressão linear...................................................... 50
III.8.2. Diagrama de dispersão .................................................................................... 50
III.8.3. Método dos mínimos quadrados para ajustar uma recta de regressão............ 51
III.8.4. Erro padrão de estimação e intervalos de predição ......................................... 51
III.8.5. Objectivos e hipóteses da análise de correlação ............................................. 52
III.8.6. Coeficiente de determinação ........................................................................... 52
III.8.7. Coeficiente de correlação ................................................................................ 52
IV. NÚMEROS - ÍNDICES ................................................................................................... 55
IV.1. INTRODUÇÃO ............................................................................................................. 55
IV.2. NÚMEROS – ÍNDICES SIMPLES .................................................................................. 55
IV.3. NÚMEROS – ÍNDICES COMPOSTOS ............................................................................ 55
IV.4. MUDANÇA DE BASE DE UM NÚMERO – ÍNDICE ........................................................... 56
IV.5. ÍNDICES IMPORTANTES EM ECONOMIA E ADMINISTRAÇÃO.......................................... 56
IV.5.1. Índice de preços do consumidor ...................................................................... 56
IV.5.2. Índice Dow-Jones ............................................................................................ 56
V. BIBLIOGRAFIA RECOMENDADA.................................................................................. 57

3
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

O QUE É A ESTATÍSTICA?
É frequente ouvir-se falar na palavra Estatística. Os noticiários, os jornais, as campanhas eleitorais, os desportos,
etc. mencionam, vezes sem conta, a palavra Estatística. Mas, o que será a Estatística?

A palavra Estatística tem a sua origem no latim – status – designação esta que significa Estado, no sentido político
do termo. Segundo diversos autores, o termo Estatística foi usado pela primeira vez em 1589 pelo historiador
italiano Girolami Ghilini num estudo – “civile, politica, statistica e militare scienza”.

Porém, na sua concepção actual, a Estatística é um instrumento de leitura da informação, e sua transformação em
Conhecimento, ocupando-se ainda de estratégias e decisão num contexto de variabilidade e incerteza.
Pode-se assim dizer que

a Estatística é a ciência que se dedica à obtenção de dados e


respectivo tratamento inicial, com a finalidade de, através da
aplicação adequada do cálculo de probabilidades, inferir de uma
amostra para a população, e eventualmente mesmo prever a
evolução futura de um fenómeno (previsão).

A obtenção de dados é uma das tarefas mais delicadas e complexas da Estatística. Os dados são obtidos
recorrendo a técnicas de amostragem e ao planeamento de experiências.
A Amostragem é fundamental em estudos observacionais.

A Amostragem é a disciplina que se ocupa das questões associadas


à obtenção de amostras convenientes, nomeadamente no que
respeita à dimensão, que deve ser adequada para a obtenção de
estimativas populacionais com a precisão que interessa.

O Planeamento de Experiências é a disciplina complementar da Amostragem, no que respeita à obtenção dos


dados. Com efeito, quando se pretende estabelecer relações entre variáveis é mais importante ainda “produzir” os
dados que devem ser analisados, ou pelo menos controlar tudo quanto se possa controlar, aleatorizar o que não for
possível controlar.

O tratamento inicial compreende a ordenação, o cálculo de características amostrais, o agrupamento em classes,


as representações gráficas – em suma, aquilo que constitui um dos ramos da Estatística – a ESTATÍSTICA DESCRITIVA
(ou ESTATÍSTICA DEDUTIVA) e ANÁLISE EXPLORATÓRIA DE DADOS.

4
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

O outro ramo da Estatística – a INFERÊNCIA ESTATÍSTICA (ou ESTATÍSTICA INDUTIVA) – que tem por base a Teoria das
Probabilidades, permite induzir do que se verifica numa amostra para a população de que esta foi extraída, i.e.
tomar decisões sobre hipóteses, estimar parâmetros populacionais a partir das características amostrais
relevantes, comparar populações, relacionar uma variável resposta com variáveis controladas, etc., constituindo um
instrumento de previsão da evolução futura de um fenómeno em estudo.

Sintetizando, pode-se dizer que a Estatística se subdivide em dois grandes ramos complementares:

Estatística Descritiva ou Estatística Dedutiva – corresponde às


técnicas sistemáticas de organização, classificação, sumarização,
redução e interpretação de dados.

Estatística Indutiva ou Inferência Estatística – é o método


científico que permite obter conclusões (inferir) para um conjunto de
elementos – designado por população ou universo – com base na
análise de uma parte ou amostra deste conjunto.

EVOLUÇÃO HISTÓRICA DA ESTATÍSTICA


Como se referiu anteriormente, o termo “estatística” parece ter sido usado pela primeira vez em 1589 pelo
historiador italiano Girolami Ghilini.
Porém, os vestígios mais antigos que se conhecem relacionados com Estatística, nomeadamente contagens,
datam dos séculos V a II a.C., efectuados pelos Sumérios. Outras civilizações antigas como as que se
desenvolveram na Mesopotâmia, Egipto, Grécia, Roma, Israel, Índia, China, Japão, etc. procediam também a
contagens, enumerações e recenseamentos, uma vez que os Estados tinham necessidade de conhecer as
respectivas populações, quer a nível económico, quer a nível social. A título de exemplo é de referir que, de acordo
com os registos históricos mais antigos, o primeiro recenseamento foi realizado em 2238 a.C. pelo primeiro
imperador da China Yu ou Yao. Também os magistrados superiores de Roma (conhecidos por censores) procediam
ao recenseamento das “gens”, os quais serviam de base para a organização política, económica e militar de Roma.

Nessas antigas civilizações encontra-se também a ideia de arrolamento de recursos, indispensável à organização
da sociedade.

A Estatística começou pois por ser descritiva, como quase todas as disciplinas científicas. Era considerada, até ao
século XVIII, a ciência do Estado, dado que o apoio estatístico era fundamental para a sua organização
administrativa. Embora hoje em dia esse apoio ainda seja indispensável, a Estatística no sentido moderno, alargou
horizontes e é muito mais que a ciência do Estado, como veremos adiante.

5
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

A partir da segunda metade do século XVII, quando começou a surgir um tratamento mais elaborado de dados
demográficos e económicos, a Estatística começa a evoluir para a ciência que conhecemos actualmente. Surgiram
nessa altura duas importantes Escolas, uma no Reino Unido e outra na Alemanha. A Escola Alemã, cujo
representante mais notável foi Gottfried Achenwall (1719-1772), afastou-se das ideias que fundamentam a
Estatística moderna ao se debruçar apenas sobre o método utilizado nos estudos dedicados à descrição dos
estados políticos. A Escola Inglesa, por outro lado, preocupou-se com o estudo numérico dos fenómenos sociais e
políticos. A obra publicada em 1662 por John Graunt (1620-1674), é um estudo analítico sobre factos demográficos,
apresentando registos sobre nascimentos, casamentos, mortes, chegando mesmo a obter diversas conclusões
sobre a periodicidade dos caracteres registados, e constitui um marco no início da Estatística moderna. Outro
membro da Escola Inglesa, Sir William Petty (1623-1687) que trabalhou com John Graunt, apresentou pela primeira
vez estudos estatísticos baseados em tabelas e números relativos, e pode, também ele, ser considerado um
impulsionador da Estatística moderna.

John Graunt (1620-1674) Sir William Petty (1623-1687)

Deste modo, nos finais do século XVIII e ao longo do século XIX o sucesso de raciocínios apoiados no tratamento
de dados deu um novo impulso à Estatística, nomeadamente na Alemanha e no Reino Unido.

No entanto, a afirmação da Estatística como ciência deve muito a Adolphe Quetelet (1796-1874), um estatístico
belga que desenvolveu não só a Estatística Descritiva como a sua aplicação em ciências sociais, pugnou pela
normalização na aquisição e registo dos dados, e nomeadamente pela normalização das estatísticas oficiais, por
forma a possibilitar uma gestão eficaz da informação.
Foi este belga que organizou em Bruxelas, em 1853, uma reunião internacional de estatísticos, que está na origem
do International Statistical Institute, a mais antiga organização científica não governamental do Mundo.

6
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

INTERNATIONAL STATISTICAL INSTITUTE


A mais antiga organização científica não
governamental do mundo.

Sir Francis Galton (1822-1911), influenciado pelo trabalho de A. Quetelet, iniciou a utilização sistemática da
Estatística como instrumento de aquisição de Conhecimento, não sendo decerto injusto considerá-lo também um
grande impulsionador do desenvolvimento desta nova ciência.

Adolphe Quetelet (1796-1874) Sir Francis Galton (1822-1911)

Porém, é Karl Pearson (1894-1936) que projecta definitivamente a Estatística, introduzindo-lhe uma base científica,
apresentando comparações entre amostras reais e teóricas.

Karl Pearson (1894-1936)

Student (pseudónimo usado por William Gosset (1876-1937)) e Sir Ronald Fisher (1890-1962), contemporâneos de
Karl Pearson, revolucionaram a tal ponto a metodologia estatística no primeiro quartel do século XX, que a tornaram
um dos instrumentos indispensáveis na aquisição de conhecimento científico em todas as áreas. Student em 1908
usou, por um lado, uma abordagem matemática sofisticada e, por outro lado, antecipou as modernas técnicas de
simulação. A abordagem de R. Fisher em 1925 mudou o paradigma da Estatística, que passou a ser sobretudo
entendida como a ciência que nos guia na “produção” dos dados que importa analisar, mais do que a ciência de
analisar os dados recolhidos, por vezes pouco informativos ou mesmo totalmente inadequados.

7
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

Até finais do século XIX a Estatística parecia ancorada nos dados. É no início do século XX que pouco a pouco se
vai impondo a importância dos modelos.

No início do século XX o grande problema consistia no tratamento de pequenas amostras, a recolha da informação
relevante.

Em meados do século XX a Estatística era considerada a ciência da decisão sob incerteza.

Contudo, o paradigma da Estatística continua a mudar. Se depois da revolução iniciada por R. Fisher podemos
considerar que a Estatística, mais do que a ciência de analisar os dados, passou a ser a ciência que estrutura a
forma de adquirir os dados que importa analisar, em que os estudos experimentais têm precedência sobre os
estudos observacionais, a evolução não parou aí. A importância crescente da sua matematização levou a grandes
desenvolvimentos da Teoria das Probabilidades, que é o ramo da Matemática que delimita a incerteza.

William Gosset (1876-1937) Sir Ronald Fisher (1890-1962)

Com a aquisição de dados em larga escala, e a verdadeira mania de os coleccionar, os fins do século XX viram-se
defrontados com o problema contrário: como “escolher o minério entre tanta ganga”, i.e. como escolher em bases
de dados gigantescas os dados relevantes? A nova disciplina de Data Mining aborda este novo e importante
desafio da Estatística no futuro próximo.

Em Portugal, à semelhança de outros países europeus, a aplicação da Estatística surge com a necessidade do
Estado conhecer melhor as características da sua população, principalmente em termos militares. São conhecidos
dois importantes trabalhos estatísticos efectuados durante a Idade Média, designadamente:
• Rol de Besteiros do Conto (1260-1279), de D. Afonso III (1210-1279);
• Rol de Besteiros do Conto (1421-1422), de D. João I (1357-1433).

8
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

D. Afonso III (1210-1279)

O desenvolvimento da administração e o maior dinamismo do mercantilismo, exigiram, a partir do século XVI, o


recurso crescente a dados quantitativos, tendo-se efectuado diversos numeramentos, cadastros e recenseamentos.

No século XVIII, Solano Constâncio (1777-1846) recorreu em inúmeras ocasiões a estatísticas sobre Portugal. No
século XIX, Santos Cruz (1841) publica um estudo sobre prostituição, tornando vulgar o hábito de registar dados.

Em 1864 realizou-se o I Recenseamento Geral da população portuguesa, o qual foi o primeiro a reger-se pelas
orientações internacionais do encontro de estatísticos de Bruxelas em 1853, marcando o início dos
recenseamentos da época moderna.
Embora estas orientações já indicassem que os recenseamentos deveriam ser realizados de 10 em 10 anos o
censo seguinte apenas se realizou em 1878, ao qual se seguiria o Censo de 1890. A partir de então os
recenseamentos da população têm vindo a realizar-se, com algumas excepções, regularmente em intervalos de 10
anos. O último recenseamento da população em Portugal realizou-se em 2001.

Outro marco importante na história dos censos ocorreu em 1970, quando em simultâneo com o Recenseamento da
População se realizou o I Recenseamento da Habitação.

Em face da grande importância que a Estatística tem para os Estados, foram criados organismos centralizadores de
toda a actividade estatística oficial, tendo sido fundado em 1935 o Instituto Nacional de Estatística (INE), organismo
que superintende a Estatística em Portugal.

9
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

No que diz respeito ao ensino da Estatística nas universidades portuguesas, foi nas áreas de Economia que surgiu
primeiro, na década de 30 do século XX, ainda ligado ao paradigma da Estatística como ciência descritiva.

O desenvolvimento proporcionado pela matematização da Estatística e do seu ensino em Portugal deve-se a Diogo
Pacheco d’Amorim.

A primeira exposição moderna de um curso de Probabilidades e Estatística é realizada por Dias Agudo em 1961.

J. Tiago de Oliveira teve um papel fundamental no reconhecimento da Estatística como área independente. Bento
Murteira merece também ser destacado, sobretudo pelo facto dos seus livros catalizarem a formação de uma
escola de Estatística em Portugal.

Mais recentemente, o ensino da Estatística foi introduzido também nos programas do ensino secundário.

10
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

I. INTRODUÇÃO À ESTATÍSTICA
I.1. ESTATÍSTICA
I.1.1. Definições e generalidades

ESTATÍSTICA – Métodos científicos para Recolha, Compilação, Análise e Interpretação de


dados, com vista à obtenção de conclusões e tomada de decisões.

APLICAÇÕES:

Engenharia Física Urbanismo


Gestão Química Informática
Medicina História Agronomia
Linguística Psicologia Fonética
Planeamento Arquitectura Contabilidade
Etc.

POPULAÇÃO ou UNIVERSO – Conjunto de seres (humanos ou não) que são objecto


do estudo estatístico.

AMOSTRA – sub-conjunto de indivíduos que serve os propósitos do estudo estatístico,


com vista a obter conclusões sobre a população.

INDIVÍDUO – Cada um dos elementos da população ou da amostra.

I.1.2. Estatística descritiva e estatística indutiva

ESTATÍSTICA DESCRITIVA ou DEDUTIVA


ESTATÍSTICA
ESTATÍSTICA INDUTIVA ou INFERÊNCIA ESTATÍSTICA

ESTATÍSTICA DESCRITIVA – Sintetizar e representar de forma compreensível a


informação contida num conjunto de dados. Aplicável
a grandes volumes de dados. Materializa-se em

11
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

tabelas, gráficos e cálculo de medidas que


representem a informação.

INFERÊNCIA ESTATÍSTICA – Objectivo mais ambicioso que o anterior. Recorre a


métodos e técnicas sofisticadas. Com base na análise
de um conjunto limitado de dados (AMOSTRA),
pretende-se caracterizar o todo (POPULAÇÃO) a
partir do qual os dados foram obtidos.

I.1.3. Variáveis discretas e contínuas

CARACTERÍSTICAS VARIÁVEIS

VARIÁVEIS QUALITATIVAS: Não podem ser representadas numericamente

VARIÁVEIS QUANTITATIVAS: São representáveis numericamente

Var. QUANTITATIVAS DISCRETAS: os valores são observados somente em


pontos isolados ao longo de uma escala (Processos de Contagem);

Var. QUANTITATIVAS CONTÍNUAS: podem assumir um valor qualquer


numa gama de valores de uma escala (Processos de Medição)

ESCALAS DE REPRESENTAÇÃO DAS VARIÁVEIS:

Escala NOMINAL: os dados são identificados por um nome que designa uma
classe, sendo as classes:
− Mutuamente exclusivas;
− Exaustivas
− Não ordenáveis.

Escala ORDINAL: possibilidade de estabelecer uma ordenação das classes;

Escala de INTERVALO: os dados são diferenciados e ordenados por


números expressos numa escala com origem arbitrária;

Escala ABSOLUTA: Tem origem fixa.

Grau crescente de “conhecimento”


VARIÁVEIS ESCALAS
NOMINAL ORDINAL INTERVALO ABSOLUTA
QUALITATIVAS • •
QUANTITATIVAS • • • •

12
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

II. Estatística Descritiva


II.1. DISTRIBUIÇÕES DE FREQUÊNCIA
II.1.1. Gráficos de linha e de barras
DADOS QUALITATIVOS

Distribuição dos dados por um conjunto de diferentes Categorias ou Classes:


Tabelas de Frequência;
Diagramas de Barras;
Diagramas Circulares.

Exemplo: Numa amostra constituída por 120 edifícios, constatou-se que 100 estavam em bom
estado de conservação, 15 necessitavam de obras de recuperação e 5 eram para demolir.

Tabela de Frequências Absolutas e Diagramas de Barras


Relativas
Categorias fA fr (%) 120
Bom estado de conservação 100 83.3
Obras de recuperação 15 12.5 100
A demolir 5 4.2
Freq. Absolutas

80
120 100.0
60
Diagrama Circular
40

20

0
4%
13% Bom estado de A necessitar de A demolir
Bom estado de conservação conservação recuperação

A necessitar de recuperação 90
80
A demolir 70
Ferq. Relativas (%)

83%
60
50
40
30

360 ⋅ f 20
A= em que: 10
N
0
A – ângulo;
Bom estado de A necessitar de A demolir
f – frequência; conservação recuperação
N – número de dados

FREQUÊNCIA ABSOLUTA: Número de indivíduos, Nk, pertencentes a cada uma das K


K
classes, e por consequência N = Nk
k =1

13
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

FREQUÊNCIA RELATIVA: Proporção do número total de dados:

Nk Nk
fr = ou f r (%) = ×100
N N

DADOS QUANTITATIVOS

Agrupamento dos dados em Classes ou Categorias, juntamente com as frequências


correspondentes

Representações Tabular ou Gráfica;


Estatísticos;
Representação Gráfica de Estatísticos.

II.1.2. Intervalos e limites de classe


Exemplo: Peso (em gramas) do conteúdo de uma série de 180 pacotes de arroz que saíram de
uma linha de enchimento automático.

502.25 499.20 500.24 497.72


498.35 503.76 498.65 499.38
500.36 499.19 500.86 499.83

TABELA DE FREQUÊNCIAS

Pesos (g) fA f Aa fr (%) f ra (%)


497.00 – 499.00 39 39 21.7 21.7
499.00 – 501.00 88 127 48.9 70.6
501.00 – 503.00 31 158 17.2 87.8
503.00 – 505.00 16 174 8.9 96.7
505.00 – 507.00 6 180 3.3 100.0
Totais 180 100.0

Intervalo da classe

Limite superior da classe

Limite inferior da classe

AMPLITUDE DA CLASSE: c = lim . superior − lim. inferior

lim. superior + lim inferior


PONTO MÉDIO DA CLASSE: pm =
2

14
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

REGRAS PARA A ELABORAÇÃO DE DISTRIBUIÇÕES DE FREQUÊNCIAS:

Determinação do Máximo, do Mínimo e Amplitude Total;


Divide-se a Amplitude Total por um número razoável de classes (5 – 20);
Determina-se o número de observações que pertencem a cada classe, ou
seja as frequências de cada classe.

II.1.3. Histogramas e polígonos de frequência


HISTOGRAMAS DE FREQUÊNCIAS ABSOLUTAS E RELATIVAS
E POLÍGONO DE FREQUÊNCIAS ABSOLUTAS

100 60
90
50
80

Freq. Relativas (%)


70
Freq. Absolutas

40
60
50 30
40
20
30
20
10
10
0 0
495-497 497-499 499-501 501-503 503-505 505-507 507-509 495-497 497-499 499-501 501-503 503-505 505-507 507-509

Peso (g) Peso (g)

POLÍGONO DE FREQUÊNCIAS RELATIVAS ACUMULADAS

120
Freq. Relativas Acumuladas (%)

100

80

60

40

20

0
495 497 499 501 503 505 507 509

Peso (g)

15
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

II.1.4. Curvas de frequência

simétrica assimétrica positiva assimétrica negativa

forma J forma J invertido forma U

bimodal multimodal

16
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

II.2. MEDIDAS DE TENDÊNCIA CENTRAL E DE LOCALIZAÇÃO


II.2.1. Média aritmética

População ( µ ) ou Amostra ( x )

Dados não agrupados

Sendo a amostra constituída por N dados:


N
xi
x +x + + xN x
x= 1 2 = i =1
=
N N N

Dados agrupados

Sendo a amostra constituída por N dados agrupados em k classes, correspondendo a


cada classe a respectiva frequência absoluta (fA) ou frequência relativa (fr):

k
f Ai ⋅ pmi
f A1 ⋅ pm1 + f A2 ⋅ pm2 + + f Ak ⋅ pmk f A ⋅ pm f A ⋅ pm
x= = i =1
= =
f A1 + f A2 + + f Ak k
fA N
f Ai
i =1
ou

k
x = f r1 ⋅ pm1 + f r2 ⋅ pm2 + + f rk ⋅ pmk = f ri ⋅ pmi = f r ⋅ pm
i =1

II.2.2. Mediana
A Mediana de um conjunto de dados, organizados por ordem crescente ou decrescente de
grandeza, é o valor central ou a média aritmética dos dois valores centrais, consoante o
número de dados é ímpar ou par, respectivamente.

Deste modo, a Mediana divide os dados ordenados em duas partes iguais.

Quer para o caso de dados agrupados, quer para o caso de dados não agrupados, a posição
da mediana é dada por:

χ N 1
+
2 2

17
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

Quando os dados se referem a uma variável contínua e se apresentam agrupados, o valor da


mediana é aproximadamente igual a:

N
− f AaA
M = Linf + c⋅ 2
f AM

em que:

Linf - limite inferior da classe que contém a mediana;


c - ampitude da classe que contém a mediana;
N - número de observações da distribuição de frequência;
f AaA - frequência absoluta acumulada da classe anterior à classe que contém a
mediana;
f AM - frequência absoluta da classe que contém a mediana.

II.2.3. Moda
A moda é o valor que ocorre com maior frequência. A moda pode não existir, e se existir pode
não ser única.

Quando os dados se referem a uma variável contínua e se apresentam agrupados, o valor da


moda é aproximadamente igual a:

d1
Mod = Linf + c ⋅
d1 + d 2

em que:

Linf - limite inferior da classe que contém a moda;


c - amplitude da classe modal;
d1 - diferença entre as frequências absolutas da classe modal e da classe anterior;
d 2 - diferença entre as frequências absolutas da classe modal e da classe seguinte.

18
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

II.2.4. Relação entre média, mediana e moda


Dá indicações sobre a assimetria da distribuição

simétrica assimétrica positiva assimétrica negativa

Média ≡ M ≡ Mod Mod M Média Média M Mod

II.2.5. Quantis: quartis, decis e percentis


Quartis dividem os dados ordenados em quatro partes iguais, existindo portanto 3 quartis.

1º Quartil, Q1 Posição: χ N 1
+
4 2

2º Quartil, Q2 ≡ M Posição: χ 2⋅ N 1
+
4 2

3º Quartil, Q3 Posição: χ 3⋅ N 1
+
4 2

Decis dividem os dados ordenados em dez partes iguais, existindo portanto 9 decis.

D1 ; D2 ; D3 ; ... ; D9.

sendo o D5 coincidente com a Mediana.

Percentis dividem os dados ordenados em cem partes iguais, existindo portanto 99 percentis.

P1 ; P2 ; P3 ; ... ; P99.

sendo o P25 coincidente com o Q1, o P50 coincidente com o Q2 e por conseguinte com a
Mediana, e o P75 coincidente com o Q3; ou seja:

P25 ≡ Q1 P50 ≡ Q2 ≡ M P75 ≡ Q3

Quando os dados se referem a uma variável contínua e se apresentam agrupados, os valores


dos quantis podem ser aproximados por expressões idênticas à da mediana, com as devidas
adaptações.

19
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

Exemplo da expressão para o 3º quartil:

3⋅ N
− f AaA
Q3 = Linf + c ⋅ 4
f AQ3

em que:

Linf - limite inferior da classe que contém o 3º quartil;


c - amplitude da classe que contém o 3º quartil;
N - número de observações da distribuição de frequência;
f AaA - frequência absoluta acumulada da classe anterior à classe que contém o 3º
quartil;
f AQ - frequência absoluta da classe que contém o 3º quartil.
3

Exemplo da expressão para o 7º decil:

7⋅ N
− f AaA
D7 = Linf + c ⋅ 10
f AD7

em que:

Linf - limite inferior da classe que contém o 7º decil;


c - amplitude da classe que contém o 7º decil;
N - número de observações da distribuição de frequência;
f AaA - frequência absoluta acumulada da classe anterior à classe que contém o 7º decil;
f AD - frequência absoluta da classe que contém o 7º decil.
7

Exemplo da expressão para o 83º percentil:

83 ⋅ N
− f AaA
P83 = Linf + c ⋅ 100
f AP83

em que:

Linf - limite inferior da classe que contém o 83º percentil;


c - amplitude da classe que contém o 83º percentil;
N - número de observações da distribuição de frequência;
f AaA - frequência absoluta acumulada da classe anterior à classe que contém o 83º
percentil;
f AP - frequência absoluta da classe que contém o 83º percentil.
83

20
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

II.2.6. Média geométrica

⋅ x N = ( x1 ⋅ x2 ⋅ x3 ⋅ ⋅ xN )
1
MG = N x1 ⋅ x2 ⋅ x3 ⋅ N

II.2.7. Média harmónica


1 N
MH = =
1 N
1 1

N i =1 xi x

21
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

II.3. MEDIDAS DE DISPERSÃO


Descrevem o grupo de dados em termos da variabilidade existente no grupo

II.3.1. Amplitude total


R = Máx. − min .

II.3.2. Amplitudes modificadas


Elimina-se uma certa percentagem de dados em cada um dos extremos da distribuição de
dados ordenados. O processo de cálculo inicia-se pela localização e determinação dos valores
dos quantis adequados, seguindo-se o cálculo da diferença entre os respectivos quantis. As
amplitudes modificadas mais usadas são:

50 % dos valores centrais, ou amplitude interquartis

R50 = Q3 − Q1 = P75 − P25

80 % dos valores centrais

R80 = D9 − D1 = P90 − P10

90 % dos valores centrais

R90 = P95 − P5

II.3.3. Desvio médio


Média do valor absoluto da diferença entre cada valor do conjunto de dados e a média
aritmética da totalidade dos dados.

Na situação dos dados não estarem agrupados em classes, tem-se a expressão seguinte:

x−x
DM =
N

No caso dos dados se encontrarem agrupados em classes, a expressão do desvio médio


assume as formas seguintes:

(f ⋅ pm − x )
DM =
A
ou DM = (f r ⋅ pm − x )
N

22
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

II.3.4. Variância

População ( σ 2 ) ou Amostra ( s 2 )

Na situação dos dados não estarem agrupados em classes, tem-se a expressão seguinte:

(x − x )2 x2 − N ⋅ x 2
s2 = =
N −1 N −1

No caso dos dados se encontrarem agrupados em classes, a expressão da variância assume a


forma seguinte:

s =
2
[f A ⋅ ( pm − x )
2
]
N −1

II.3.5. Desvio padrão


Esta medida de dispersão pode interpretar-se como sendo o valor absoluto de um desvio
“típico” (padrão) dos dados em relação à média.

População ( σ ) ou Amostra ( s )

Na situação dos dados não estarem agrupados em classes, tem-se a expressão seguinte:

(x − x )2
s=
N −1

No caso dos dados se encontrarem agrupados em classes, a expressão do desvio padrão


assume a forma seguinte:

s=
[f A ⋅ ( pm − x )
2
]
N −1

II.3.6. Coeficiente de variação


Magnitude relativa do desvio padrão quando comparado com a média da distribuição.

s
v=
x

23
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

II.4. ASSIMETRIA E KURTOSE


II.4.1. Coeficientes de assimetria
Medem o afastamento da simetria

Assimetria = 0 Distribuição simétrica;


Assimetria > 0 Distribuição assimétrica positiva;
Assimetria < 0 Distribuição assimétrica negativa

Coeficiente de Assimetria de Pearson:

3 ⋅ (x − M )
A=
s

Coeficiente de Assimetria:

N
N⋅ (xi − x )3
A= i =1
(N − 1) ⋅ (N − 2) ⋅ s 3

II.4.2. Coeficientes de Kurtose


Medida da concentração dos dados, dando indicação sobre a intensidade das frequências na
vizinhança dos valores centrais.

24
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

Ambas as amostras são simétricas;


N1 = N2;
Ambas as amostras têm iguais medidas de localização central e de dispersão.

Na amostra da distribuição 1 (Kurtose mais elevada) existe uma maior concentração de dados
no centro e nas caudas, e menor concentração nos intervalos que separam aquelas zonas.

Coeficiente de Kurtose:

N
N ⋅ ( N + 1) ⋅ (xi − x )4
k= i =1
− 3⋅
(N − 1)2
(N − 1) ⋅ (N − 2) ⋅ (N − 3) ⋅ s 4 ( N − 2 ) ⋅ ( N − 3)
ou

Q3 − Q1
k=
2 ⋅ (P90 − P10 )

classificando-se a distribuição em leptocúrtica, mesocúrtica ou platicúrtica em função do valor


de k obtido:

k < 0.263 Distribuição leptocúrtica;


k = 0.263 Distribuição mesocúrtica;
k > 0.263 Distribuição platicúrtica

leptocúrtica mesocúrtica platicúrtica

25
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III. PROBABILIDADES E INFERÊNCIA ESTATÍSTICA


III.1. TEORIA DA PROBABILIDADE
III.1.1. Definições e conceitos básicos
Abordagens:
Clássica;
Frequência Relativa;
Subjectiva;
Etc.

Abordagem CLÁSSICA:

Se uma experiência aleatória tiver N resultados mutuamente exclusivos e igualmente


prováveis, e se um acontecimento E contiver h desses resultados (h ≤ N ) , então a
probabilidade do acontecimento E (denominada SUCESSO) é dada por:

h
p = P (E ) =
N

A probabilidade de não-ocorrência do acontecimento (denominada INSUCESSO) é dada por:

N −h h
q = P (~ E ) = = 1 − = 1 − P (E ) = 1 − p ,
N N

logo, p + q =1

A probabilidade de um acontecimento é sempre um número compreendido entre:

0 ≤ P (E ) ≤ 1

Se o acontecimento não pode ocorrer, a probabilidade é 0 (zero);


Se o acontecimento ocorrer sempre (acontecimento certo), a probabilidade é 1 (um).

Abordagem da FREQUÊNCIA RELATIVA:

Corresponde a uma definição estatística de probabilidade. Assim, a probabilidade estimada de


um acontecimento é considerada como a frequência relativa da sua ocorrência, quando o
número de observações é muito elevado.

No decurso de N realizações de uma experiência, um acontecimento qualquer E ocorre h vezes


(0 ≤ h ≤ N ) . A probabilidade define-se por:
h
P (E ) = lim
N →∞ N

26
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

Exemplo:
Probabilidade de um português com 18 anos viver pelo menos até aos 70 anos?

Abordagem SUBJECTIVA:

Apropriada quando existe apenas uma única oportunidade para o acontecimento ocorrer, e ele
ocorrerá ou não naquela única vez. A probabilidade é então o grau de credibilidade que cada
indivíduo atribui à ocorrência do acontecimento, baseado em todos os factos e dados
disponíveis.

Exemplo:
Probabilidade do actual Governo se manter inalterado nos próximos 6 meses?

♦♦♦

Fenómeno ou Processo Aleatório: Quando o acaso interfere na ocorrência de um ou mais dos


resultados nos quais tal fenómeno ou processo se podem
traduzir.

Experiência Aleatória: Uma situação em relação à qual estejam associados, de forma não
controlada, dois ou mais resultados possíveis.

Exemplos:
Lançamento de moeda; atraso de combóio

Espaço Amostral: Conjunto de todos os resultados possíveis de uma experiência aleatória.

Exemplos:
{E ; c} ; [0 ; + ∞[
Acontecimento: Conjunto de elementos de um espaço amostral, ou seja um sub-conjunto do
espaço amostral.

III.1.2. Acontecimentos mutuamente exclusivos e não exclusivos


Acontecimentos Mutuamente Exclusivos: Quando não podem ocorrer simultaneamente.

Exemplo:
Ás e Rei relativamente a uma carta retirada de um baralho.

Acontecimentos Não Exclusivos: Quando é possível que ambos ocorram simultaneamente.

Exemplo:
Ás e Espadas relativamente a uma carta retirada de um baralho.

27
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.1.3. Regras de adição

Acontecimentos Mutuamente Exclusivos Acontecimentos Não Exclusivos

A B A A∩B
B
Universo, U Universo, U

P( A ou B ) = P( A B ) = P( A) + P(B ) P( A ou B ) = P( A B ) = P( A) + P(B ) − P( A B )

III.1.4. Probabilidade condicional


Quando se pretende conhecer a probabilidade de um acontecimento A, admitindo-se que
ocorreu um outro acontecimento B.

P( A | B ) probabilidade de ocorrer A, dado que ocorreu B

P( A e B )
P( A | B ) = com P (B ) > 0
P (B )

A A∩ B B A∩ B B

Universo, U

P( A B )
P( A | B ) = ⇔ P ( A B ) = P ( A | B ) ⋅ P (B )
P (B )

28
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

Exemplo:
Três lâmpadas defeituosas foram inadvertidamente misturadas com 6 lâmpadas boas.
Escolhidas 2 lâmpadas ao acaso, calcular a probabilidade de serem ambas boas. Imagine-se
que as lâmpadas são retiradas uma após a outra e considerem-se os acontecimentos
seguintes:
A: a 1ª lâmpada é boa;
B: a 2ª lâmpada é boa.

A probabilidade condicional é também um instrumento que permite avaliar a independência ou


dependência de acontecimentos.

III.1.5. Acontecimentos independentes e dependentes


Acontecimentos Independentes: Quando a ocorrência de um acontecimento não afecta a
probabilidade de ocorrência do outro ou vice-versa.

P( A | B ) = P( A) com P(B ) > 0


P(B | A) = P(B ) com P( A) > 0

portanto
P( A ∩ B ) = P( A) ⋅ P(B ) com P( A) ≥ 0 e P(B ) ≥ 0

Exemplos:
1. Lançamento sucessivo de 2 dados.
Considerar os seguintes acontecimentos:
A: a pontuação total é ímpar;
B: o resultado obtido no primeiro dado é 6;
C: a pontuação total é 7.
Verifique se os acontecimentos são independentes.

2. Moeda não viciada é lançada duas vezes.


Probabilidade de saírem duas caras?

1º 2º

1/2 C CC ½ ½ = 0.25
1/2
C
1/2 O CO ½ ½ = 0.25
1/2 C OC ½ ½ = 0.25
1/2
O
1/2
O OO ½ ½ = 0.25
1.00

29
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

Acontecimentos Dependentes: Quando a ocorrência de um acontecimento afecta a


probabilidade de ocorrência do outro ou vice-versa.

Exemplos:
1. Acontecimentos mutuamente exclusivos são dependentes?

2. Um conjunto de 10 peças, em que 8 estão boas e 2 são defeituosas. Qual a probabilidade


de retirar 2 peças boas sem reposição?

1º 2º

7/9 B2 B1B2 8/10 x 7/9 = 56/90

8/10
B1
2/9 D2 B1D2 8/10 x 2/9 = 16/90

8/9 B2 D1B2 2/10 x 8/9 = 16/90


2/10
D1
1/9 2/10 x 1/9 = 2/90
D2 D1D2

1.00

P( A ∩ B ) = P( A) ⋅ P(B | A) ou P( A ∩ B ) = P(B ) ⋅ P( A | B )

III.1.6. Análise Combinatória


Determinação da probabilidade de acontecimentos mais complexos, em que a enumeração
dos casos é difícil, recorre-se à Análise Combinatória.

III.1.6.1. Arranjos Simples (interessa a ordem, sem repetição)

Arranjos de n elementos distintos, tomados r a r, são agrupamentos constituídos por r


daqueles elementos, diferindo uns dos outros quer pelos elementos que os compõem, quer
pela ordem na qual estão dispostos. Supõe-se ainda que não é permitida a repetição de
elementos nos agrupamentos..

n!
n
Ar = = n ⋅ (n − 1) ⋅ (n − 2 ) ⋅ ⋅ (n − k + 1)
(n − r )!
Exemplo:
Quantos números de quatro algarismos distintos existem?

30
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.1.6.2. Arranjos Completos (interessa a ordem, com repetição)

Arranjos de n elementos distintos, tomados r a r, são agrupamentos constituídos por r


daqueles elementos, diferindo uns dos outros quer pelos elementos que os compõem, quer
pela ordem na qual estão dispostos. Supõe-se ainda que é permitida a repetição de elementos
nos agrupamentos..

n
Ar′ = n r

Exemplo:
Quantos números de quatro algarismos existem?

III.1.6.3. Permutações Simples (interessa a ordem, sem repetição)

Agrupamentos formados por n elementos distintos, diferindo uns dos outros pela ordem em
que tais elementos estão dispostos. Supõe-se ainda que não é permitida a repetição de
elementos nos agrupamentos. Trata-se de um caso particular dos Arranjos Simples de n
elementos, tomados n a n.

Pn = n!= n ⋅ (n − 1) ⋅ (n − 2 ) ⋅ ⋅ 3 ⋅ 2 ⋅1

Exemplo:
De quantos modos distintos podem ser colocados, numa estante, cinco livros diferentes?

III.1.6.4. Permutações Completas (com repetição)

Agrupamentos formados por n elementos distintos, não sendo necessário utilizar todos os
elementos do conjunto universo, diferindo uns dos outros pela natureza e/ou pela ordem dos
elementos escolhidos.

π n = nn

Exemplo:
Quantos são os números de cinco algarismos que se podem escrever apenas com os
algarismos ímpares?

III.1.6.5. Permutações Circulares (interessa a ordem)

Agrupamentos formados por n elementos em círculo, diferindo uns dos outros pela natureza
e/ou pela ordem dos elementos escolhidos.

C n = (n − 1)!

Exemplo:
De quantas maneiras distintas se podem sentar 5 pessoas em torno de uma mesa?

31
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.1.6.6. Permutações com repetição (interessa a ordem)

Agrupamentos de n elementos, dos quais n1 são iguais, n2 são iguais, ... nr são iguais.

n!
Pn′ =
n1 ! ⋅ n2 ! ⋅ ⋅ nr !

Exemplo:
Quantas palavras diferentes se podem formar com as letras A, Y, D, D e D?

III.1.6.7. Combinações Simples (não interessa a ordem, sem repetição)

Combinações de n elementos distintos, tomados r a r, são agrupamentos constituídos por r


daqueles elementos, diferindo uns dos outros apenas pelos elementos que neles figuram,
independentemente da ordem pela qual estão dispostos. Supõe-se ainda que não é permitida
a repetição de elementos nos agrupamentos.

n n!
= nC r =
r (n − r )! ⋅ r !
Exemplo:
De um grupo de 30 pessoas, pretende-se formar uma comissão com 8 membros, sem tarefas
definidas. De quantas maneiras distintas é possível fazê-lo?

III.1.6.8. Combinações Completas (não interessa a ordem, com


repetição)

Combinações de n elementos distintos, tomados r a r, são agrupamentos constituídos por r


daqueles elementos, diferindo uns dos outros apenas quando a natureza dos elementos
escolhidos se altera. Supõe-se ainda que é permitida a repetição de elementos nos
agrupamentos.

n
K r = n + r −1C r
Exemplo:
Num gabinete de uma empresa trabalham 10 pessoas. O director da empresa tem 6 trabalhos
iguais para serem executados, podendo atribuir mais do que um trabalho a cada um dos
funcionários. De quantas maneiras pode o director escolher os funcionários que irão realizar os
trabalhos?

32
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.2. DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE


III.2.1. Distribuições de probabilidade
VARIÁVEL ALEATÓRIA (V.A.): os valores são determinados por processos acidentais, ao
acaso, não estando sob o controlo do observador.

DISTRIBUIÇÃO DE PROBABILIDADE: atribuição de valores de probabilidade a todos os


valores possíveis de uma variável aleatória X, quer
por listagem, quer por uma função matemática.
Os valores individuais de probabilidade representam-
se por f ( x ) , P ( X = x ) , P ( X ) .

III.2.2. Valor esperado e variância de variáveis aleatórias


discretas
Valor Esperado de V.A. Discretas: Média ponderada de todos os valores possíveis da V.A. com
os respectivos valores de probabilidade tomados como
pesos, E ( X ) .

E(X ) = [X ⋅ P( X )]
Variância de V.A. Discretas: Calcula-se em relação a E ( X )

VAR( X ) = [[x − E ( X )] ⋅ P( X )]
2

VAR( X ) = [X 2
⋅ P( X ) − [ [X ⋅ P( X )]] ] = E (X ) − [E ( X )]
2 2 2

III.2.3. Distribuição Binomial


PROCESSO DE AMOSTRAGEM DE BERNOULLI:

Em cada tentativa existem 2 resultados possíveis mutuamente exclusivos –


Sucesso e Insucesso;
As séries de tentativas, ou observações, são constituídas por acontecimentos
independentes;
A probabilidade de Sucesso, p, permanece constante de tentativa para tentativa
– Processo Estacionário.

APLICAÇÃO:

V.A. discretas;
Processo de Amostragem do tipo do de Bernoulli.

É NECESSÁRIO:

Número de sucessos, x;
Número de tentativas, ou observações, n;
Probabilidade de sucesso, p.

33
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

Cada par ( p ; n ) caracteriza uma única distribuição ou um único espaço amostral. Para
qualquer dimensão amostral n, a distribuição Binomial será sempre simétrica se p = 0.50 ; será
assimétrica positiva se p < 0.50 e assimétrica negativa se p > 0.50 , conforme se vê no
exemplo da figura seguinte:

Fonte: Stevenson, William J. - Estatística aplicada à administração. Editora Harbra, 1986

n!
P ( X = x )= nC x ⋅ p x ⋅ (1 − p )
(n − x )
= ⋅ p x ⋅ q (n − x )
x ! ⋅ (n − x )!

E(X ) = n ⋅ p VAR( X ) = n ⋅ p ⋅ (1 − p ) = n ⋅ p ⋅ q

TABELAS DE PROBABILIDADE DA DISTRIBUIÇÃO BINOMIAL (Robalo, 1995):

Amostras relativamente grandes;


Probabilidade do resultado ocorrer num intervalo de valores.

III.2.4. Distribuição Hipergeométrica


Se num processo de amostragem não se efectuar reposição dos itens amostrados de uma
população finita, o processo deixa de ser estacionário.

N − XT
Cn − x ⋅ X T C x
P( X = x ; N , X T , n ) = N
Cn

em que:
x – número dado de sucessos;
N – número total de itens da população;
XT – número total de “sucessos” na população;
n – número de itens da amostra

XT XT N − XT N − n
E(X ) = n ⋅ VAR ( X ) = n ⋅ ⋅ ⋅
N N N N −1

34
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

APROXIMAÇÃO DA DISTRIBUIÇÃO HIPERGEOMÉTRICA, UTILIZANDO A


DISTRIBUIÇÃO BINOMIAL:

Quando N é grande e n é pequeno.

Critério: n < 0.05 ⋅ N

III.2.5. Distribuição de Poisson


Usa-se para determinar a probabilidade de um dado número de sucessos, quando os
acontecimentos ocorrem num determinado período de tempo ou num intervalo de espaço.

A unidade de medida (tempo, espaço) é contínua, mas a variável aleatória (número de


ocorrências) é discreta.

CONDIÇÕES DE APLICAÇÃO:

Os acontecimentos são independentes;


O processo é estacionário;
Contrariamente ao Processo de Amostragem de Bernoulli, em que existiam
tentativas ou observações para efectuar a amostragem, no Processo de Poisson
os acontecimentos ocorrem em contínuo.

λx ⋅ e − λ
P( X = x ; λ ) =
x!

em que:

λ - número médio de sucessos para a dimensão espacial ou período de tempo


definidos.

E(X ) = λ VAR( X ) = λ

A distribuição de Poisson é caracterizada por um único parâmetro λ (a média de ocorrências


no intervalo de tempo/espaço), apresentando-se na figura seguinte um exemplo:

Fonte: Stevenson, William J. - Estatística aplicada à administração. Editora Harbra, 1986

35
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

É também possível a utilização de tabelas em alternativa à expressão analítica (Tabelas


Estatísticas, 1995).

APROXIMAÇÃO DA DISTRIBUIÇÃO BINOMIAL, UTILIZANDO A DISTRIBUIÇÃO DE


POISSON:

Quando n é grande e p ou 1 − p é pequeno.

Critério: n ≥ 30 e n ⋅ p < 5 ou n ⋅ (1 − p ) < 5 fazendo-se então λ = n ⋅ p

III.3. DISTRIBUIÇÕES CONTÍNUAS DE PROBABILIDADE


III.3.1. Variáveis aleatórias contínuas
VARIÁVEL ALEATÓRIA CONTÍNUA: Pode assumir qualquer valor fraccionário dento de um
intervalo definido. Como não é possível enumerar todos
os valores de uma V.A. contínua e os correspondentes
valores de probabilidade, deve-se construir uma
FUNÇÃO DENSIDADE DE PROBABILIDADE, ou
CURVA DE PROBABILIDADE, baseada na função
matemática correspondente.

A área entre 2 quaisquer pontos, abaixo da curva, dá-nos a probabilidade da V.A. contínua
assumir um valor entre esses 2 pontos.

Exemplo:

f(X)

Área total abaixo da curva = 1


Área que dá a probabilidade
do peso estar compreendido
entre 6000 e 8000 kg

2000 4000 6000 8000 10000 12000


Peso (X) em kg

ou seja,
8000
f ( X ) ⋅ dX
6000

36
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.3.2. Distribuição Normal (ou de Gauss)


Distribuição de probabilidade CONTÍNUA e SIMÉTRICA

f(X)

+∞
f ( X ) ⋅ dX
−∞

68 % dos elementos têm um valor compreendido entre µ − σ e µ + σ (ponto de inflexão da


curva;
95 % dos elementos têm um valor compreendido entre µ − 2 ⋅ σ e µ + 2 ⋅ σ ;
99.8 % dos elementos têm um valor compreendido entre µ − 3 ⋅ σ e µ + 3 ⋅ σ .

IMPORTÂNCIA DESTA DISTRIBUIÇÃO:

As medidas obtidas em diversos processos aleatórios seguem esta distribuição;


As probabilidades normais podem ser usadas frequentemente como
aproximações de outras distribuições de probabilidade, nomeadamente da
Binomial e Poisson;
As distribuições estatísticas da amostra, como a média, seguem a distribuição
Normal independentemente da distribuição da população.

FUNÇÃO DENSIDADE DE PROBABILIDADE:


2
1 X −µ
1 −
f (X ) = ⋅e 2 σ

2 ⋅π ⋅σ

em que:

µ - média da distribuição;
σ - desvio padrão da distribuição.

E(X ) = µ VAR ( X ) = σ 2

37
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

DISTRIBUIÇÃO NORMAL PADRONIZADA:

µ =0 σ =1

XNormalmente distribuído ZNormal padronizado

X −µ
Z=
σ

As áreas sob a curva de qualquer distribuição Normal podem ser obtidas utilizando-se uma
tabela Normal padronizada (Tabelas Estatísticas, 1995), após a conversão, referida acima, da
escala original para a escala em termos de desvios padrões.

APROXIMAÇÃO DA DISTRIBUIÇÃO BINOMIAL, UTILIZANDO A DISTRIBUIÇÃO NORMAL:

Quando o número de observações, n, for grande

Critério: n ≥ 30 e n ⋅ p ≥ 5 e n ⋅ (1 − p ) ≥ 5 fazendo-se então:

N µ = n⋅ p e σ = n⋅ p⋅q

Correcção de continuidade: quando se transforma o X da Binomial no X da Normal:

P ( X ≥ xi ) → subtrair 0.5 a xi ; P ( X ≤ xi ) → adicionar 0.5 a xi

P ( X < xi ) → subtrair 0.5 a xi ; P ( X > xi ) → adicionar 0.5 a xi

APROXIMAÇÃO DA DISTRIBUIÇÃO DE POISSON, UTLIZANDO A DISTRIBUIÇÃO NORMAL:

Quando a média, λ da distribuição de Poisson for grande

Critério: λ ≥ 10.0 fazendo-se então:

N µ =λ e σ = λ

Correcção de continuidade: quando se transforma o X da distribuição de Poisson no X da


Normal:

P ( X ≥ xi ) → subtrair 0.5 a xi ; P ( X ≤ xi ) → adicionar 0.5 a xi

P ( X < xi ) → subtrair 0.5 a xi ; P ( X > xi ) → adicionar 0.5 a xi

38
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.3.3. Distribuição de probabilidade Exponencial Negativa


Os acontecimentos ocorrem no contexto de um Processo de Poisson. Uma vez que este
processo é estacionário e que λ é o parâmetro da distribuição de Poisson (que descreve o
número médio de ocorrências por unidade de tempo ou de distância/espaço), a variável tempo
(ou distância/espaço) entre ocorrências sucessivas segue uma distribuição EXPONENCIAL
NEGATIVA.

Exemplo:

Variável X: distância entre defeitos sucessivos no isolamento de um cabo eléctrico.

A distância até encontrar o primeiro defeito, é o mesmo que considerar que no intervalo [0 ; X ]
não se encontra nenhum defeito.

Assim, a probabilidade do 1º defeito não ocorrer no intervalo [0 ; X ] será:

P( X > x ) = e − λ ⋅x

e a probabilidade do 1º defeito ocorrer no intervalo [0 ; X ] será:

P( X ≤ x ) = 1 − e − λ ⋅x

como se pode ver na figura seguinte:

Fonte: Stevenson, William J. - Estatística aplicada à administração. Editora Harbra, 1986

1 1
E(X ) = VAR( X ) =
λ λ2

39
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.4. TEORIA DA AMOSTRAGEM


A probabilidade e a amostragem estão intimamente relacionadas e constituem o fundamento
da Teoria da Amostragem.

III.4.1. Estimação pontual e amostragem


ESTIMAÇÃO: é o processo que consiste em utilizar dados amostrais para estimar parâmetros
populacionais desconhecidos.

Os parâmetros de uma população são frequentemente estimados com base em estatísticas da


amostra – estimativa pontual.

Estimador não tendencioso: é uma estatística amostral cujo valor esperado é igual ao
parâmetro que está a ser estimado. Portanto um valor
esperado é a média de longo prazo da estatística da amostra.

Parâmetro populacional Estimador pontual


Média, µ X
Desvio Padrão, σ s

Nestes casos o estimador apropriado de um parâmetro da população é simplesmente a


estatística amostral correspondente.

Se uma estatística amostral vai ser usada para estimar o valor específico de um parâmetro
(como estimador pontual), deve tal estatística basear-se numa amostra aleatória extraída da
população.

AMOSTRA ALEATÓRIA: é extraída por um procedimento tal que cada elemento da população
tenha uma probabilidade igual e conhecida de ser escolhido e que
não tenha nenhuma fonte de erro sistemático. Obtidas por várias
técnicas específicas de amostragem, como é o caso das Tabelas de
Números Aleatórios.

III.4.2. Distribuição de amostragem da média


VARIABILIDADE AMOSTRAL: quando se extraem repetidas amostras da mesma população,
há uma tendência da estatística amostral variar de uma
amostra para a outra, e também em relação ao verdadeiro
valor do parâmetro, devida apenas a factores casuais
relacionados com a amostragem.

Há menor variabilidade entre estatísticas de grandes amostras do que entre estatísticas de


pequenas amostras.

DISTRIBUIÇÃO DE AMOSTRAGEM: é uma distribuição de probabilidade que se aplica aos


possíveis valores de uma estatística amostral, e que
indica até que ponto uma estatística amostral tende a
variar devido a variações casuais na amostragem
aleatória.

40
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

DISTRIBUIÇÃO DE AMOSTRAGEM DA MÉDIA: é a distribuição de probabilidade para os


possíveis valores da média da amostra, X
baseados num tamanho de amostra
particular.

Para qualquer tamanho dado, n, de amostra tomada de uma população com média, µ, o valor
da média da amostra, X , irá variar de amostra para amostra. Esta variabilidade serve como
base da distribuição de amostragem, descrita por:

( ) ( )
Valor esperado E X , ou média E X = µ ;
σ
Desvio Padrão da distribuição das médias σ X (erro padrão da média) σ X =
n

σ N −n
Para amostras de uma população finita: σ X = ⋅ , não se aplicando
n N −1
esta correcção se n < 0.05 ⋅ N

Se o desvio padrão da população for desconhecido, então o erro padrão da média pode ser
estimado, usando-se o desvio padrão da amostra como estimador do desvio padrão da
população.

s
sX = ,
n
s N −n
e quando a população é finita, este estimador toma a forma s X = ⋅
n N −1

TEOREMA DO LIMITE CENTRAL: À medida que se aumenta o tamanho da amostra, a


distribuição de amostragem da média aproxima-se da
forma da distribuição Normal, qualquer que seja a forma
da distribuição da população. n ≥ 30

41
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.5. INTERVALOS DE CONFIANÇA


III.5.1. Intervalos de confiança para a média, utilizando a
distribuição normal
Embora a média da amostra seja útil como estimador não tendencioso da média da população,
não há forma de expressar o grau de certeza de um estimador pontual.

INTERVALO DE CONFIANÇA: para a média é um intervalo estimado, construído com respeito


à média da amostra, pelo qual pode ser especificada a
probabilidade do intervalo incluir o valor da média da
população.

GRAU DE CONFIANÇA: associado a um intervalo de confiança indica a percentagem de tais


intervalos incluirem o parâmetro que está a ser estimado.

CONDIÇÕES DE UTILIZAÇÃO:

n ≥ 30 ou
n < 30 ; população normalmente distribuída e σ conhecido.

Quando está garantido o uso da distribuição Normal, o intervalo de confiança para a média é
dado por:

X ± z ⋅ σ X ou X ± z ⋅ s X

z (números de unidades de desvios Proporção da área no


padrões a partir da média) intervalo µ ± z ⋅ σ
1.65 0.90
1.96 0.95
2.58 0.99

III.5.2. Determinação do tamanho necessário da amostra para


estimar a média
Se é conhecido o tamanho desejado do intervalo de confiança, bem como o grau de confiança.
Se σ é conhecido ou pode ser estimado, então:

2
z ⋅σ
n= baseado na distribuição Normal,
E

em que:

z: valor usado para o grau de confiança;


σ: desvio padrão da população (ou estimativa);
E: factor do erro permitido no intervalo (sempre a metade do total do intervalo de confiança).

42
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.5.3. Intervalos de confiança para a média, utilizando as


distribuições t-Student
Se a amostra é pequena, a população é normalmente distribuída, mas σ é desconhecido.

Neste caso, na padronização da variável tem-se:

X −µ
z= ,
sX

incluindo no denominador uma variável diferente para cada média de amostra, gerando valores
de z que se distribuem de acordo com as distribuições t-Student (Tabelas Estatísticas, 1995),
sendo cada uma delas particularizada pelos graus de liberdade envolvidos.

Para uma única amostra: g.l. = n – 1

À medida que aumenta o tamanho da amostra (e g.l.) a distribuição t-Student aproxima-se da


Normal [n ≥ 30 (ou g .l. ≥ 29 ) para uma única amostra ] .

Intervalo de confiança para a estimação da média populacional, quando σ é desconhecido,


n < 30 , e a população é Normalmente distribuída:

X ± t g .l . ⋅ s X

Portanto em resumo tem-se:

População Tamanho da amostra σ conhecido σ desconhecido


Normalmente n ≥ 30 X ± z ⋅σ X X ± z ⋅ sX
distribuída n < 30 X ± z ⋅σ X X ± t ⋅ sX
Não Normalmente
n ≥ 30 X ± z ⋅σ X X ± z ⋅ sX
distribuída

43
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.6. TESTES DE HIPÓTESES RELATIVOS AO VALOR MÉDIO DA


POPULAÇÃO
O objectivo dos testes de hipóteses é decidir se determinada afirmação sobre um parâmetro
populacional é verdadeira.

Suposição de um parâmetro da população (hipotético). Depois de colher uma amostra


( )
aleatória, compara-se a estatística da amostra X , com o parâmetro suposto (µ ) . Então
aceita-se ou rejeita-se o valor hipotético como sendo correcto.

O valor hipotético é rejeitado somente se o resultado da amostra for muito improvável de


ocorrer quando a hipótese for verdadeira.

HIPÓTESES A FORMULAR:
H 0 - hipótese nula, sugere que a afirmação é verdadeira;
H1 - hipótese alternativa, sugere que a afirmação é falsa.

III.6.1. Etapas de um teste de hipóteses


1. Formular a hipótese nula (H 0 ) e a hipótese alternativa (H1 ) .
A H 0 é o valor suposto do parâmetro, o qual é comparado com o resultado da
amostra. É rejeitado somente se o resultado da amostra for improvável sendo a
hipótese considerada verdadeira. A H 1 é aceite somente se a H 0 for rejeitada.
2. Especificar o nível de significância (α ) a utilizar.
É o padrão estatístico para rejeitar H 0 . Para um nível de significância de 5 %, H 0
é rejeitada somente se o resultado da amostra é tão diferente do valor suposto que
uma diferença igual ou maior ocorreria por acaso com uma probabilidade máxima
de 0.05. Existe pois uma probabilidade de 0.05 de rejeitar H 0 sendo esta
verdadeira – Erro Tipo I.
Os níveis de significância mais utilizados são: 1 % e 5 %.
3. Seleccionar a estatística do teste.
Será a estatística da amostra, ou uma versão modificada da estatística da amostra.
A maior parte dos testes envolve a distribuição Normal ou a t-student.
4. Estabelecer o valor crítico ou valores críticos da estatística do teste.
Podem existir um ou dois destes valores, segundo seja efectuado um teste
unilateral ou bilateral. O valor crítico identifica o valor da estatística de teste
necessário para rejeitar H 0 .
5. Determinar o valor real da estatística do teste.
Se o valor crítico foi estabelecido como um valor z, a média da amostra será, então,
convertida também num valor z.
6. Tomar a decisão.
O valor observado da estatística da amostra é comparado com o(s) valor(es)
crítico(s) da estatísitca de teste, e no caso de ser maior que o valor crítico, a H 0
será rejeitada. H 0 poderá pois ser aceite ou rejeitada. Se H 0 é rejeitada aceita-se
H1 .

44
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

Fonte: Stevenson, William J. - Estatística aplicada à administração. Editora Harbra, 1986

III.6.2.Teste de um valor hipotético da média utilizando a


distribuição Normal
Usa-se a distribuição Normal quando:

n ≥ 30 → Teorema do Limite Central;


n < 30 → com população normalmente distribuída e σ conhecido

Usa-se um teste bilateral quando interessa saber possíveis desvios em ambas as direcções do
α
valor hipotético da média, sendo a área em cada cauda de .
2

Valores críticos da média da amostra, sendo σ conhecido, num teste bilateral:

µ0 ± z ⋅σ X µ0 ± z ⋅ s X

em que µ 0 é o ponto de referência (em substituição da média da amostra).

Quando o valor da média da amostra for determinado, ele será transformado para um valor z:

X − µ0 X − µ0
z= z=
σX sX

Usa-se um teste unilateral quando interessa saber possíveis desvios em apenas uma direcção,
a partir do valor hipotético da média.

Valores críticos de z em testes de hipóteses:

Tipo de teste
Nível de Significância
Unilateral Bilateral
5% + 1.65 (ou – 1.65) ± 1.96
1% + 2.33 (ou – 2.33) ± 2.58

45
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.6.3. Erros dos tipos I e II em testes de hipóteses


ERRO TIPO I: ocorre quando há rejeição de H 0 , sendo esta verdadeira. A
probabilidade deste tipo de erro ocorrer é sempre igual ao nível de
significância (α ) utilizado como padrão para rejeitar a H 0 .

ERRO TIPO II: ocorre quando há aceitação de H 0 , sendo esta falsa. A probabilidade
deste tipo de erro (β ) ocorrer só pode ser determinada relativamente a
um valor específico, incluído no intervalo da H 1 . O procedimento para
obter essa probabilidade contempla os passos seguintes:

1. Estabelecer a região de aceitação para H 0 , utilizando a suposta


média da população e os dados específicos do problema (alínea
a) da figura seguinte).
2. Acrescentar uma distribuição amostral baseada na média real da
população (alínea b) da figura seguinte).
3. Usando o verdadeiro valor como ponto de referência, determinar
a área Q, entre ele e a regra de decisão (alínea c) da figura
seguinte).
4. Somar a, ou subtrair de, 50 % para obter a probabilidade do Erro
Tipo II, conforme o verdadeiro valor esteja respectivamente,
dentro ou fora da região de aceitação.

Fonte: Stevenson, William J. - Estatística aplicada à administração. Editora Harbra, 1986

46
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

E portanto em resumo, tem-se:

Estados Possíveis
Decisões Possíveis
H 0 Verdadeira H 0 Falsa
Aceita-se H 0 Aceita-se correctamente Erro Tipo II
Rejeita-se H 0 Erro Tipo I Rejeita-se correctamente

III.6.4. Determinação do tamanho da amostra para testar a média


É necessário especificar:

1. Valor hipotético da média;


2. Valor alternativo específico da média, tal que a sua diferença da H 0 seja
considerada importante;
3. Nível de significância a utilizar no teste;
4. Probabilidade do Erro Tipo II admissível;
5. Valor do desvio padrão da população.

Determina-se então a dimensão da amostra através de:

n=
( z0 − z1 ) ⋅ σ 2
2

(µ1 − µ 0 )2
em que:

z0 é o valor crítico de z usado em conjunção com o nível de significância especificado


(α ) ;
z1 é o valor de z respeitante à probabilidade estabelecida no Erro Tipo II (β ) ;
σ deve ser conhecido ou estimado com base em resultados históricos.

III.6.5. Teste de um valor hipotético da média utilizando as


distribuições t-Student
Quando n < 30 , a população é normalmente distribuída e σ é desconhecido, as distribuições t-
student são as mais apropriadas:

X − µ0
t=
sX

47
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.7. TESTE DE χ2 (QUI-QUADRADO)


III.7.1. Teste χ2 como um procedimento de teste de hipóteses
Os procedimentos relacionam-se com a comparação entre frequências de determinadas
classes obtidas em amostras e frequências esperadas, baseadas em hipóteses particulares.

DISTRIBUIÇÃO χ
2

Para uma população de valores normalmente distribuídos, pode-se mostrar que o quociente
(n − 1) ⋅ s 2 segue uma distribuição de probabilidade χ2 (Robalo, 1995), existindo distribuições
σ 2

diferentes de acordo com os graus de liberdade (n − 1) . Portanto, a estatística usada para


testar um valor hipotético da variância da população é:

χ2 =
(n − 1) ⋅ s 2
σ 02

Uma vez que a variância da amostra é o estimador não tendencioso da variância da


população, o valor esperado de longo prazo do quociente anterior é igual aos graus de
liberdade, ou seja (n − 1) .

As distribuições χ , embora contínuas, não são simétricas, devendo-se dar particular atenção
2

aos testes bilaterais.

À medida que os graus de liberdade aumentam, a distribuição do χ2 aproxima-se da


distribuição normal com µ = g.l. e σ = 2 ⋅ g .l. . Na prática considera-se essa aproximação
aceitável quando g .l. ≥ 30 .

III.7.2. Teste de ajustamento


A hipótese nula é uma condição estipulada referida ao padrão esperado de frequências num
conjunto de categorias. O padrão esperado pode ajustar-se a distribuições de probabilidade
tais como a Binomial, Poisson ou Normal.

Para a hipótese nula ser aceite, a diferença entre as frequências observadas ( fO ) e as


frequências esperadas ( fE ) deve ser atribuída à variabilidade de amostragem para o nível de
significância estabelecido. Portanto, a estatística de teste χ2 baseia-se na magnitude desta
diferença para cada categoria da distribuição de frequência. O valor do χ2 para testar a
diferença é:

χ =
2 ( f O − f E )2 com k − m − 1 graus de liberdade, sendo:
fE

48
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

k – número de categorias dos dados;


m – número de parâmetros estimados com base na amostra para estabelecer as frequências
esperadas.

MÍNIMO VALOR DE FREQUÊNCIAS ESPERADAS:

Devem agrupar-se as categorias (adicionando as respectivas frequências das categorias


adjacentes) quando as frequências esperadas de uma dada categoria são inferiores a 5. Nesta
situação o número de graus de liberdade é estabelecido com base no novo número de
categorias resultante da agregação efectuada.

CORRECÇÃO DE CONTINUIDADE:

Quando g .l. = 1 e n < 50 aplica-se a seguinte expressão de Yates para a estatística de χ2


(f − fE −0.5)
2

χ =
2 O
com k − m − 1 graus de liberdade e com diferenças entre as frequências
fE
maiores que 0.5.

III.7.3. Teste de independência de duas variáveis (teste de tabelas


de contingência)
Estão envolvidas duas variáveis, cujos valores observados se podem representar numa tabela
de dupla entrada (Tabela de Contingência).
Testa-se a hipótese de as duas variáveis serem estatisticamente independentes.

Dada a hipótese de independência de duas variáveis, a frequência esperada para cada


posição da Tabela de Contingência é dada por:

r k
fO i ⋅ fO j
i =1 j =1
f E ij =
n

sendo:

r – número de linhas;
k – número de colunas

A estatística de teste χ baseia-se também na magnitude das diferenças entre frequências


2

observadas e esperadas para cada posição da Tabela de Contingência:

χ2 =
( f O − f E )2 com (r − 1) ⋅ (k − 1) graus de liberdade.
fE

49
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.8. REGRESSÃO LINEAR E CORRELAÇÃO


Compreende a análise de dados amostrais para avaliar se e como duas (ou mais) variáveis
estão relacionadas uma com a outra numa população.

III.8.1. Objectivos e hipóteses da regressão linear


OBJECTIVO:
Prever o valor de uma variável (variável dependente, y), conhecendo o valor de uma variável
associada (variável independente, x), usando uma equação matemática que descreva o
relacionamento entre as duas variáveis.

HIPÓTESES:

A variável dependente é uma variável aleatória;


As variáveis independente e dependente estão associadas linearmente;
As variâncias das distribuições condicionais da variável dependente, para diferentes
valores da variável independente, são todas iguais (homoescedasticidade) e
normais.

III.8.2. Diagrama de dispersão


Gráfico em que são representados os pontos referentes aos pares de valores observados para
as variáveis dependente e independente.

.. .. .
.. ..
Y Y Y

..
......

. . ..
. ..... . .

. ... .... ....... .


..
. .
..

X X X
relação linear directa relação linear inversa não há relação

... ... .
... .. . .
.. . . .....
.
... .. ... ...... .. . .....
Y Y Y

. .
. .. ...
. .. ... .. ... ..
. . .
.. .. .. . .. . ... . ... .
X X X
relação curvilínea relação linear directa, relação linear directa,
directa baixo grau de relação alto grau de relação

50
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

Se o diagrama de dispersão revelar uma relação que é de modo geral linear, então constrói-se
uma linha que seja a recta que melhor se ajusta aos dados. A construção e localização dessa
recta é determinada pelo MÉTODO DOS MÍNIMOS QUADRADOS.

III.8.3. Método dos Mínimos Quadrados para ajustar uma recta de


regressão
Forma geral da equação de regressão linear:

Yˆ = b ⋅ X + a

Pelo critério dos Mínimos Quadrados, a equação de regressão que melhor se ajusta aos dados
é aquela para a qual é mínima a soma dos quadrados dos desvios entre os valores observados
(pontos do diagrama de dispersão) e estimados para a variável dependente (obtidos pela
equação de recta) a partir dos dados amostrais.

(X ⋅Y ) − n ⋅ X ⋅Y
b= a = Y −b⋅ X
(X ) − n ⋅ X
2 2

A equação da recta assim obtida tem a propriedade de passar sempre pelo ponto X ; Y . ( )

III.8.4. Erro padrão de estimação e intervalos de predição


A dispersão na população significa que, para qualquer valor de X, haverá muitos valores
possíveis de Y.

O ERRO PADRÃO DE ESTIMAÇÃO é um desvio padrão condicional, na medida em que indica


o desvio padrão da variável dependente, Y, dado um valor específico da variável independente,
X.

sY , X =
(Y − Y ) 2

ou sY , X =
(Y ) − a ⋅
2
Y −b⋅ (X ⋅Y )
n−2 n−2

O Erro Padrão de Estimação pode ser usado para estabelecer um intervalo de previsão para a
variável dependente, para um dado valor específico da variável independente. A utilização de
sY , X para este propósito baseia-se nas seguintes hipóteses sobre a população:

A dispersão da variável dependente é a mesma em todos os pontos ao longo da


linha de regressão;
A cada ponto, os valores da variável dependente estão normalmente
distribuídos em relação à recta de regressão.

Yˆ ± t ⋅ sY , X com n − 2 graus de liberdade

Se n ≥ 30 Yˆ ± z ⋅ sY , X

51
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

III.8.5. Objectivos e hipóteses da análise de correlação


OBJECTIVO:

Medir o grau de relação (co-relacionamento) entre as variáveis dependente, y, e


independente, x.

HIPÓTESES:

A relação entre as duas variáveis é linear;


As variáveis independente e dependente são aleatórias;
As variâncias das distribuições condicionais de cada variável, para diferentes valores
da outra variável, são todas iguais (homoescedasticidade);
Para cada variável, as distribuições condicionais, para diferentes valores da outra
variável, são todas distribuições normais.

III.8.6. Coeficiente de determinação


O quociente seguinte indica a proporção da variância (incerteza) na variável dependente que
permanece não explicada para um determinado valor atribuído à variável independente.

σ Y2, X Variância não explicada, remanescente em Y


=
σ Y2 Variância total de Y

COEFICIENTE DE DETERMINAÇÃO, ρ2:

σ Y2, X sY2 , X
População : ρ = 1− 2
2
Amostra : r = 1−
2

σY sY2

Estes quocientes indicam a proporção da variância na variável dependente que é


estatisticamente explicada pela recta de regressão, calculando-se na prática por:

a⋅ Y +b⋅ (X ⋅Y ) − n ⋅Y 2
r =
2

(Y ) − n ⋅ Y
2 2

Assim, como este coeficiente varia entre 0 e 1, obtém-se a percentagem de variação numa
variável que é “explicada” estatisticamente pela variação na outra variável. Inversamente,
1 − r 2 , é a percentagem que não se pode explicar pelo relacionamento entre as duas variáveis,
devendo ser considerada como devida a outros factores não incluídos no estudo.

III.8.7. Coeficiente de correlação


Este coeficiente pode ser testado estatisticamente, pois está incluído numa estatística de teste
que é distribuída segundo uma t-student, quando a correlação populacional ρ é igual a 0 (zero).
O sinal de ρ é o mesmo do declive da recta de regressão linear, indicando portanto se a
relação entre X e Y é directa (ρ positivo) ou inversa (ρ negativo).

52
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

COEFICIENTE DE CORRELAÇÃO, ρ:

População : ρ = ρ2 Amostra : r = r2

calculando-se na prática por:

n⋅ (X ⋅Y ) − X⋅ Y
r=
n⋅ (X ) − (
2
X ) ⋅ n⋅
2
(Y ) − (
2
Y)
2

estando o seu valor compreendido no intervalo [ − 1 ; + 1 ] . Os valores próximos de –1 e de +1


denotam relacionamentos (quase) perfeitos, sendo o respectivo tipo (directo ou inverso)
indicado pelo sinal (positivo ou negativo), enquanto valores próximos de 0 revelam ausência de
relacionamento entre as variáveis.

Y
.....
..
Y Y

...
..
....
...
. ... .... ....... .

.....
...
X X X
r=+1 r2 = 1 r=0 r2 = 0 r=–1 r2 = 1

. . ... . .
Y
.. .
... .. ... ...... .. .
Y
.........
.........

. ... . ... .
..

X X

r ≅ + 0,6 r2 ≅ 0,36 r ≅ + 0,90 r2 ≅ 0,81

INTERVALO DE CONFIANÇA PARA O COEFICIENTE DE CORRELAÇÃO DA POPULAÇÃO:

O valor do coeficiente de correlação amostral pode ser utilizado como estimativa do verdadeiro
coeficiente de correlação, ρ, da população. Contudo, é mais conveniente expressar o
coeficiente amostral conjuntamente com um intervalo de confiança para o verdadeiro valor.

53
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

Fonte: Stevenson, William J. - Estatística aplicada à administração. Editora Harbra, 1986

54
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

IV. NÚMEROS – ÍNDICES

IV.1. Introdução
Os Números-Índice são um importante instrumento para sintetizar modificações em variáveis
económicas durante um determinado período de tempo.

Um Número-Índice é um valor percentual, no qual uma medida de um dado período é expressa


por um quociente com a medida de um período base fixado.

Os Números-Índices podem referir-se a quantidades, preços ou valor.

O valor referente ao período base é considerado 100 %.

IV.2. Números – Índices simples


O Número-Índice representa uma comparação para um bem ou produto individual.

ÍNDICE DE PREÇOS ÍNDICE DE QUANTIDADE ÍNDICE DE VALOR


p q p n ⋅ qn
I p = n ⋅100 I q = n ⋅100 Iv = ⋅100
p0 q0 p 0 ⋅ q0

em que:

pn - preço de um artigo num dado período;


po - preço de um artigo no período base;
qn - quantidade de um artigo num dado período;
qo - quantidade de um artigo no período base;

IV.3. Números – Índices compostos


O Número-Índice foi construído para um conjunto de bens ou itens.

ÍNDICES DE LASPEYRE:

( pn ⋅ q0 ) ( p0 ⋅ qn ) ( pn ⋅ qn )
IPL = ⋅100 IQL = ⋅100 IVL = ⋅100
( p0 ⋅ q0 ) ( p0 ⋅ q0 ) ( p0 ⋅ q0 )

55
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

ÍNDICES DE PAASCHE:

( pn ⋅ qn ) ( pn ⋅ q n ) ( pn ⋅ qn )
IPP = ⋅100 IQP = ⋅100 IVP = ⋅100
( p0 ⋅ qn ) ( pn ⋅ q0 ) ( p0 ⋅ q0 )
ÍNDICES DE FISHER:

IPF = IPL × IPP IQF = IQL × IQP IVF = IVL × IVP

IV.4. Mudança de base de um Número – Índice


Frequentemente muda-se a base de uma série de um dado Número-Índice para um ano mais
recente, por forma a tornar as comparações mais significativas e actuais.

I n (antigo )
I n (alterado ) = ⋅100
índice antigo na nova base

IV.5. Índices importantes em Economia e Administração


IV.5.1. Índice de preços do consumidor
Muitas vezes referido como índice do custo de vida, mede as variações de preços de produtos
e serviços adquiridos pela população. Avalia as variações de preço de um “cabaz de compras”
típico, incluindo despesas com alimentação, vestuário, habitação, transportes e saúde e
educação, sendo os artigos seleccionados criteriosamente.

Uma das aplicações é o poder aquisitivo da unidade monetária, dado pelo inverso do IPC:

1
poder aquisitivo = ×100 .
IPC

Outra aplicação é a avaliação do rendimento real, que é o rendimento ajustado às variações de


preços, num dado ano, ou fazendo comparações entre anos:

salário líquido
ren dim ento real =
IPC

IV.5.2. Índice Dow-Jones


O índice Dow-Jones avalia as variações de preço no mercado de acções. Trata-se também de
uma selecção criteriosa de artigos (neste caso acções da bolsa de Nova Iorque).

56
Apontamentos de
PROBABILIDADES e ESTATÍSTICA

V. BIBLIOGRAFIA RECOMENDADA
Os livros principais estão indicados com •
− D’Hainaut, L. – Conceitos e métodos da estatística – uma variável a uma dimensão. Vol. I.
2ª Edição. Fundação Calouste Gulbenkian, Lisboa, 1997;
• Guimarães, Rui C.; Cabral, José S. – Estatística. McGraw Hill, Lisboa, 1998;
− Hoaglin, David C.; Mosteller, Frederick; Tuckey, John W. – Análise Exploratória de Dados.
Técnicas robustas. Um guia. Estatística 1. Edições Salamandra, 1992;
− Meyer, Paul L. – Probabilidade. Aplicações à estatística. Livros Técnicos e Científicos
Editora. 1991;
− Mood, Alexander M.; Graybill, Franklin A.; Boes, Duane C. – Introduction to the theory of
statistics. McGraw Hill International Editions;
• Murteira, Bento J.F. – Probabilidades e Estatística. Vol. 1. 2ª ed. McGraw Hill, Lisboa, 1992;
• Murteira, Bento J.F. – Probabilidades e Estatística. Vol. 2. 2ª ed. McGraw Hill, Lisboa, 1992;
• Murteira, Bento J.F. – Análise Exploratória de Dados. Estatística Descritiva. McGraw Hill,
Lisboa, 1993;
• Pestana, Dinis Duarte; Velosa, Sílvio Filipe – Introdução à Probabilidade e Estatística. Vol.1.
Fundação Calouste Gulbenkian. Lisboa, 2002.
• Robalo, A. – Tabelas Estatísticas. Edições Sílabo. Lisboa, 1995;
− Stevenson, William J. – Estatística aplicada à administração. Editora Harbra, 1986;
− Kazmier, Leonard J. – Estatística Aplicada à Economia e Administração. McGraw Hill,
1982.

57

Vous aimerez peut-être aussi