Académique Documents
Professionnel Documents
Culture Documents
Seja uma variável aleatória X, com 𝐸(𝑋) = 5 e 𝐸(𝑋 2 ) = 50. Qual o limite de probabilidade
para que |𝑋 − 𝐸(𝑋)| > 10? Multiplique por 100 e marque a parte inteira.
Seja X uma uma variável aleatória com média igual a zero e variância igual a 1. Pelo Teorema
de Tchebycheff, sabemos que:
(1) Sejam X1, X2,...,Xn variáveis aleatórias com Distribuição de Poisson com parâmetro 𝜆.
Definindo 𝑋̅ = ∑𝑛𝑖=1 𝑋𝑖 /𝑛 podemos dizer, com base na Lei dos Grandes Números, que 𝑋̅ se
aproxima de 𝜆 a medida que n → ∞;
com média 𝜇 e variância 𝜎 2 . Sendo 𝑋̅ = ∑𝑛𝑖=1 𝑋𝑖 /𝑛, 𝑋̅ se torna bem aproximada pela distribuição
normal quando n → ∞, mesmo que X1, X2,...,Xn não sejam normalmente distribuídas;
(4) Sendo X uma variável aleatória com média E(X) = 1 e variância 𝜎𝑥2 = 4, o limite de
probabilidade para |X – 1| ≥ 4 é igual a 0,50.
2
Sejam 𝑋𝑛 ~𝑁 (0; 2 + 𝑛) e 𝑋~𝑁(0; 2). Julgue as seguintes afirmativas:
Seja X uma variável aleatória com distribuição normal, com média e variância 2. Considere
duas amostras aleatórias independentes de X. Cada uma das amostras tem tamanho n1 e n2, e
possuem médias X 1 e X 2 . Podemos usar dois estimadores para a média populacional,
1 n X +n X
~ = ( X 1 + X 2 ) e ˆ = 1 1 2 2 .
2 n1 + n2
∑𝑁
𝑖=1 𝑋𝑖 ∑𝑁
𝑖=1 𝑋𝑖 ∑𝑁/2
𝑖=1 𝑋𝑖 ∑𝑁
𝑖=1 𝑋𝑖
𝑇1 = , 𝑇2 = , 𝑇3 = , 𝑇4 =
𝑁 𝑁−3 𝑁 𝑁2
(3) Suponha que 𝑋 tenha distribuição 𝑡 com 4 graus de liberdade. Então 𝑃(|𝑋| > 4) = 0,23.
(4) Suponha que 𝑋 seja uma variável aleatória com distribuição 𝑡 de Student com 𝑛 graus de
liberdade. À medida que 𝑛 aumenta, a distribuição de 𝑋 se aproxima de uma normal padrão.
Lista de Exercícios #6
Assunto: Propried ade dos Estimadores e Métodos de E stimação
(0) Seja X1,...,Xn variáveis aleatórias independentes e identicamente distribuídas tais que E[Xi]
= μ < ∞. Se Var[Xi] → 0, então Xi → μ.
𝑝
(1) Seja X1, X2,... uma sequência de variáveis aleatórias. Esta sequência de variáveis aleatórias
converge em probabilidade para uma constante μ se e somente se esta sequência de variável
aleatória converge em distribuição para μ.
(2) Seja X1, X2,..., Xn uma amostra aleatória com média 𝑋̅ e variância 0 < S2 < ∞. Podemos
afirmar que W = c𝑋̅, com c 𝜖 𝑅 converge para uma distribuição normal com média μ e
𝜎2
variância .
𝑁
(3) Seja X1,...,Xn variáveis aleatórias independentes e identicamente distribuídas com média μ e
1 ∑𝑁
𝑖=1 𝑋𝑖
variância 0 < σ2 < ∞. Seja 𝑆 2 = ∑𝑁 ̅ 2 ̅
𝑖=1(𝑋𝑖 − 𝑋 ) em que 𝑋 = . Neste caso S2, é um
𝑁 𝑁
estimador consistente para σ2.
(4) Se Y é uma variável aleatória tal que E[Y2] < ∞, então podemos afirmar que P(|Y| ≥ 𝑐) ≤
𝐸[𝑌]
para c>0.
𝑐2
padrão.
(0) Suponha que X1, X2,...,Xn sejam variáveis aleatórias independentes e identicamente
distribuídas e que Xi ~ N (, 2 ) . Então X = i=1 X i / n é um estimador eficiente de .
n
(1) Suponha que X1, X2,...,Xn sejam variáveis aleatórias independentes e identicamente
distribuídas e que Xi ~ N (, 2 ) . Então, se definirmos X = i=1 X i / n , P( X − ) 2 para
n 2
0 .
(2) Se um estimador de um parâmetro é não viesado e a variância de converge para 0
à medida que o tamanho da amostra tende a infinito, então é consistente.
(3) Suponha que X1, X2,...,Xn sejam variáveis aleatórias independentes e identicamente
distribuídas e que Xi ~ Poisson(λ), i . Seja X = i=1 X i / n . Pela lei dos grandes números,
n
(0) A Diferença entre as medianas de uma distribuição 𝐹(𝑎,𝑏) e de uma distribuição 2𝑎 diminui à
medida que 𝑏 → ∞;
(1) O Teorema Central do Limite justifica a afirmação: “Seja 𝑇 uma variável aleatória,tal que
𝑇~𝑡𝑘−1 , em que 𝑡 representa uma distribuição 𝑡 de Student, com 𝑘 − 1 graus de liberdade, em
que 𝑘 é fixo. Então 𝑇 converge em distribuição para uma Normal Padrão";
(𝑥 −𝑥̅ )2 (𝑥 )2
(2) Sejam 𝑆12 = ∑𝑛𝑖=1 𝑖 𝑛 e 𝑆22 = ∑𝑛𝑖=1 𝑛𝑖 . Ambos estimadores podem ser demonstrados
consistentes para 𝜎 2 , supondo uma amostra aleatória de 𝑋~𝑁(𝜇, 𝜎 2 );
(3) Uma moeda justa foi jogada 300 vezes e observou-se cara em 188 destas. A Lei dos Grandes
Números justifica a afirmação: 𝑃(cara na 301ª jogada | 188 caras em 300 jogadas) < 0,5.
(4) Se um estimador convergir em média quadrática para o parâmetro, ele será consistente
(convergirá em probabilidade para o parâmetro).
(0) Considere dois estimadores não tendenciosos 𝜃̂1 e 𝜃̂2 , de um parâmetro 𝜃. 𝜃̂1 é eficiente
relativamente 𝜃̂2 se 𝑉𝑎𝑟(𝜃̂1 ) < 𝑉𝑎𝑟(𝜃̂2 );
(3) Suponha que 𝑋1 , 𝑋2, … , 𝑋10 sejam variáveis aleatórias independentes e identicamente
𝑋𝑖
distribuídas e que 𝑋𝑖 ~22 , 𝑖 = 1, 2, … ,10. Defina 𝑋̅ = ∑10 ̅
𝑖=1 𝑛 . Então 𝑃(1 < 𝑋 < 3) = 0,55;
Seja Yi, i = 1, ..., n, uma variável aleatória tal que Yi = 1 com probabilidade p e Yi = 0 com
n
probabilidade 1-p. Defina X = Yi . Responda se cada uma das afirmativas abaixo é verdadeira
i =1
ou falsa:
Sejam X1, X2, ..., Xn, n variáveis aleatórias independentes, igualmente distribuídas, com
e − x
x = 0,1,2,...
distribuição Poisson dada por p x ( x ) = x!
0 caso contrário
Julgue as afirmativas:
X
1
(0) Pela Lei dos Grandes Números T = i aproxima-se da distribuição normal quando n
n i=1
tende para o infinito.
Lista de Exercícios #6
Assunto: Propried ade dos Estimadores e Métodos de E stimação
5 n
X
1 1
(1) Suponha que n>5. T = Xi + i é um estimador consistente de E(Xi).
5 i=1
n−5 i=6
2
n n
(2) T = 1 X i − 1 X i é um estimador tendencioso de 2.
n n i=1
i=1
X
1
(3) Pelo Teorema Central do Limite, T = i é um estimador consistente de V(Xi).
n i=1
X
1
(4) T = i é o estimador de máxima verossimilhança do parâmetro .
n i=1
Considere uma amostra aleatória de n variáveis x1, x2, ..., xn, normalmente distribuídas com
n n
(x − x)
2 1 1
média μ e variância σ . Sejam x = xi e s2 = i
2
. É correto afirmar que:
n i=1
n i=1
2
(0) x e s2 são estimadores de máxima verossimilhança de μ e σ , respectivamente.
(1) x e s2 são não viesados.
(2) x e s2 são consistentes.
(3) Apenas x é consistente.
(4) Apenas x é não viesado.
(0) O teorema de Tchebychev é útil para se calcular o limite inferior para a probabilidade de
uma variável aleatória com distribuição desconhecida quando se tem apenas a variância da
população.
(1) Um estimador não-tendencioso pode não ser consistente.
(2) Um estimador consistente pode não ser eficiente.
Lista de Exercícios #6
Assunto: Propried ade dos Estimadores e Métodos de E stimação
(3) Sejam Y1,...,Yn variáveis aleatórias independentes com média µ e variância finita. Pela Lei
n
Y .
1
dos Grandes Números, E(m) = µ, em que m = i
n i =1
(4) Sejam Y1,...,Yn variáveis aleatórias independentes com média μ e variância finita. Pelo
Teorema do Limite Central, a distribuição da média amostral m converge para uma
distribuição Normal.
(0) Uma variável aleatória X tem média zero e variância 36. Então, pela desigualdade de
Tchebychev, P(| X | 10) 0,36 .
(1) Pela Lei dos Grandes Números a distribuição da média amostral de n variáveis aleatórias
independentes, para n suficientemente grande, é aproximadamente Normal.
(3) A Lei dos Grandes Números está relacionada com o conceito de convergência em
probabilidade, enquanto que o Teorema Central do Limite está relacionado com
convergência em distribuição.
(4) Um estimador é dito não-tendencioso se a sua variância for igual à variância do parâmetro
estimado.
Sejam: X1, X2, ..., Xn variáveis aleatórias independentes e normalmente distribuídas com média
n n
e variância 2; X = n −1 X i ; e Z = Yi 2 , em que Yi = −1 ( X − ) . É correto afirmar que:
i =1 i =1
i =1
(3) nX é uma variável aleatória normalmente distribuída com média n e variância 2;
Y
(4) a variável aleatória Wi = i possui distribuição F com n1 e n2 graus de liberdade, em que
Z
n
n1 = 1 e n2 = 2n.
O número de clientes – Y – que passa diariamente pelo caixa de um supermercado foi observado
durante certo período. Constatou-se que o valor médio de Y é de 20 clientes, com desvio padrão
igual a 2. Encontre o limite mínimo para a probabilidade de que o número de clientes amanhã se
situe entre 16 e 24. (Pista: Utilize o teorema de Tchebycheff). Multiplique o resultado por 100.
Seja X uma variável aleatória com distribuição de probabilidade que dependa do parâmetro
desconhecido , tal que E(X) = . Seja também x1, x2, ..., xn uma amostra aleatória de X.
1 n
(2) Se ˆ = x i é um estimador não viciado de , então ̂ 2 também será um estimador não
n i =1
viciado de 2 .
(3) Se a variável aleatória X é uniformemente distribuída no intervalo [0,], com > 0, então
n +1
ˆ = máximo[x1, x2, ..., xn] não é um estimador consistente de .
n
(4) Se ̂1 e ̂ 2 são dois estimadores do parâmetro em que E ( ̂ 1 ) = θ1 e E ( ̂ 2 ) θ2 mas Var (
̂ 2 ) < Var ( ̂ 1 ), então o estimador ̂ 2 deve ser preferível a ̂ 1 .
Uma amostra de tamanho n foi selecionada de uma população de m elementos. Pode-se afirmar:
2 1
(2)Se a população for finita, a variância da distribuição amostral de X é (1 − ) porque as
n n
observações da amostra são independentes.
(3)Se X for uma variável aleatória qualquer a distribuição de X será normal com média e
variância
2
.
n −1
(4) Se lim E ( X ) = 0 , então X é um estimador assintoticamente não tendencioso.
n→
Seja uma variável aleatória X com média E(X) = 0 e variância x = 25. Qual o limite de
2
n
Seja X1, X2 , ..., Xn uma amostra aleatória da densidade Normal(0,) e seja T= 1/n X
i =1
i
2
.É
(3) E ( X X ) = .
1
2 3
2
2
Seja Y uma variável aleatória contínua com distribuição de probabilidade f(y;), em que =
(1,2 ,...,p). Considere uma amostra aleatória de Y, com tamanho n. Com relação à função de
verossimilhança L(), é correto afirmar que:
n
(0) l()= ln L() = log f ( y i ; ) , em que ln é o logaritmo natural.
i =1
(1) A função de verossimilhança é também uma função de densidade de probabilidade, que
possui, assim, todas as propriedades matemáticas associadas à uma função de densidade de
probabilidade.
(2) Uma condição necessária a que os estimadores de máxima verossimilhança devem satisfazer
é que a matriz { 2 l ( ) / i j } i,j = 1, 2, ..., p, avaliada no ponto de máximo, seja negativa
definida.
(3) Sendo Tn o estimador de máxima verossimilhança do parametro escalar 1, segue-se que Tn
apresenta a seguinte propriedade:
lim n→ Pr(|T − | )=0 , > 0.
n 1
(4) Sendo = g(1), em que g(.) é uma função um a um de 1, e Tn é o estimador de máxima
verossimilhança de 1, segue-se que o estimador de máxima verossimilhança de será Gn =
g(Tn )[d/d1] , em que a derivada é avaliada em 1= Tn.
(0) A Lei Fraca dos Grandes Números diz que: dada uma variável aleatória com distribuição
arbitrária e média e variância finitas, a média amostral obtida a partir de uma amostra
aleatória de tamanho n terá distribuição Normal.
(1) Se X1, X2, ..., Xn são variáveis aleatórias independentes, com distribuição Poisson(), >
0, então, para n "grande", é válida a seguinte aproximação:
___ __
n ( X - ) / ~ N(0,1), em que X é a média amostral.
(2) Se X1, X2, ..., Xn são variáveis aleatórias independentes, com distribuição Normal(,2), 2
___ __
> 0, então, para qualquer tamanho de n, n ( X - ) / ~ Normal(0,1), em que X é a média
amostral.
(0) De acordo com o critério de eficiência, medido pela comparação entre as variâncias dos
estimadores, a média amostral X é preferível a primeira observação X1 como estimador da
média populacional, supondo-se que 2 seja a variância da população.
1
(2) A função densidade de probabilidade da variável aleatória x é dada por f ( x) = para
0 x e 0 para outros valores. Assim sendo, considerando-se uma amostra aleatória de
tamanho n , x1 , x2 , x3 , xn , o estimador de Máxima Verossimilhança de será igual ao
Mínimo de x1 , x2 , x3 , xn .
n n
å(x - x)
i
2
å(x - x) i
2
(0) O erro quadrático médio é igual a variância do estimador se for um estimador não-
tendencioso de .
(1) Um estimador 1 é dito eficiente se 1 for não-tendencioso e Var( 1 ) Var ( 2 ), onde 2 é
outro qualquer estimador não-tendencioso de .
(2) Seja X uma variável aleatória normalmente distribuída com média e variância 2. Sejam
x1 e x2 duas observações de uma amostra aleatória de tamanho 2. Podemos afirmar que
3x + 2 x 2
~ = 1 é um estimador tendencioso de .
5
(1) Se x é uma variável aleatória com E(X) = e variância 2 , então a média amostral, X , será
um estimador consistente da média populacional .
n
(x
i =1
i − x)2
(2) A estatística, S 2 = , baseada em uma amostra aleatória x 1 , x 2 ,x 3 ,....,x n é um
n
estimador não tendencioso da variância populacional.
n
(x
i =1
i − x)2
(3) A estatística, S 2 = , baseada em uma amostra aleatória x 1 , x 2 ,x 3 ,....,x n é um
n
estimador inconsistente da variância populacional.
Lista de Exercícios #6
Assunto: Propried ade dos Estimadores e Métodos de E stimação
(0) Se uma variável aleatória X tem média , E(X)= , e variância igual a zero, Var(X) = 0,
então P{ X − } = 1 para todo 0 , ou seja, toda a probabilidade estará concentrada na
média E(X) = .
(1) Seja X uma variável aleatória com média e variância 2. Quando se considera o evento
complementar, uma das formas da desigualdade de Tchebycheff é igual a
1
P{ X − k } 1 − 2 , onde k é um número real.
k
(2) Se a população tem distribuição Normal, então a distribuição das médias amostrais também
será Normal, independente do tamanho da amostra.
(3) Se X tem distribuição desconhecida com média 500 e variância 2.500, para uma amostra
aleatória de tamanho 100 podemos afirmar que a média da amostra tem distribuição
aproximadamente normal com média 500 e variância 25.