Académique Documents
Professionnel Documents
Culture Documents
BERNARDO LOPES
H. BERNARDO LOPES
1
2 x ⇐ x ∈[ 0,2]
f X ( x) =
0 ⇐ x ∉[ 0,2] .
O valor médio de X - o seu primeiro momento ordinário, portanto - e o seu segundo momento
ordinário valem, respectivamente:
2
1 4
E[ X ] = ∫ x xdx =
0
2 3
2
1
E[ X 2
] =∫x 2
xdx = 2
0
2
2
4 2
V [ X ] = E[ X ] − ( E[ X ] ) 2
2
= 2− = ⋅
3 9
4 2
P X − < .
3 3
Ora, tendo-se:
4 2 4− 2 4+ 2
X− < ⇔ <X<
3 3 3 3
4+ 2
3
1
∫ 2
xdx ≈ 0,629.
4− 2
3
127
EQUAÇÕES FUNCIONAIS
4 − 2 4 + 2
,
3 3
4
E [ X ] = µ X' =
3
e de semi-amplitude igual ao desvio-padrão de X :
2
σX = ⋅
3
Neste caso foi possível obter o valor da probabilidade procurada, conseguido com a precisão
que se entendeu, dado ser conhecida a distribuição da variável aleatória X em causa.
Este importante instrumento da Teoria da Probabilidade é válido para uma qualquer variável
aleatória, com a única condição de ser finito o valor da respectiva variância, o que acarreta que os
dois primeiros momentos ordinários o sejam também.
Este resultado é válido, por igual, para o caso de distribuições discretas, mas acarreta, em
qualquer caso e como seria sempre de esperar, uma imprecisão na estimativa achada para a
probabilidade do acontecimento em causa.
Seja, então, g ( X ) uma função mensurável da variável aleatória X , e que não assuma valores
negativos, ou seja, g( X ) ≥ 0 . Então, se existir o valor médio de g( X ) , E [ g ( X ) ] , ter-se-á que:
E[ g( X ) ]
∀c ∈ R + , P[ g( X ) ≥ c] ≤ ⋅
c
Como corolário desta propriedade, considere-se agora o caso em que a função considerada é:
g( X ) = X .
E[ X ]
P[ X ≥ c] ≤ ⋅
c
Retomando o exemplo da distribuição inicial, facilmente se pode mostrar que:
128
H. BERNARDO LOPES
2
5 1 1
P X ≥ = ∫ xdx = [ x 2 ] 5 = 0,30(5).
2
3 5 2 4 3
3
4
5 4
P X ≥ ≤ 3 = = 0,8
3 5 5
3
o que mostra que o desconhecimento da distribuição de X determina a estimação de uma
probabilidade do acontecimento em causa muito acima do seu valor real. A probabilidade estimada
pelo recurso ao corolário da Desigualdade de Markov fornece um limite superior da probabilidade do
acontecimento:
5
X≥
3
mas muito acima do valor real, calculável a partir do conhecimento da distribuição exacta.
P[ X ≥ c] ≤
E X[ n
]
n
c
onde c ∈ R+.
E X [ 5
] ≈ 9,14
este último corolário da Desigualdade de Markov permite a nova estimativa:
5 5 9,14
P X ≥ = P X ≥ ≤ ≈ 0,711
3 3 5 5
3
5
X≥
3
já mais próximo do verdadeiro valor da sua probabilidade, se fosse conhecida a distribuição exacta
de X .
129
EQUAÇÕES FUNCIONAIS
Esta maior proximidade da probabilidade estimada através deste segundo corolário já requereu,
contudo, o conhecimento do quinto momento absoluto ordinário de X , ou seja, uma informação
maior que a requerida no caso do primeiro corolário.
g( X ) = ( X − µ X' )
2
c = t 2σ X2
[
P (X −µ ) 2
≥t σ ] ≤
[
E ( X − µ X' )
2
]= σ X2 1
2 2 = 2
' 2 2
X X
t 2 σ X2 t σX t
ou seja:
[
P X − µ X' < tσ X ≥ 1 − ] 1
t2
⋅
Mas esta desigualdade pode ainda assumir uma outra forma, se nela se fizer:
α α2 1 V[ X ]
tσ X = α ⇔ t= ⇒ t2 = ⇔ =
σX σ X2 t2 α2
V[ X ]
[
P X − µ X' ≥ α ≤ ] α2
⋅
4 2 4 − 11
, 2 , 2
4 + 11
P X − < 11
, ⋅ = P <X< .
3 3 3 3
Se se conhecer a distribuição de X , esta probabilidade vale:
4 +1,1 2
3
1
∫ 2
xdx ≈ 0,691.
4 −1,1 2
3
130
H. BERNARDO LOPES
t = 11
,
4 2 1
P X − < 11
, ≥ 1 − 2 ≈ 0,174
3 3 11
,
que é um limite mínimo para a probabilidade procurada, embora muito distante do verdadeiro valor.
O único caminho para melhorar o valor das suas contribuições é restringir o conjunto das
distribuições a que se aplica, havendo necessidade de se conhecer, ao menos, que o seu
comportamento tem maior proximidade com o de tipo gaussiano.
No caso da variável aleatória com valor médio nulo, µ X' = 0 , e variância σ X2 = σ 2 , Murteira
(1990) mostra que, se for conhecido o momento absoluto ordinário de quarta ordem:
[
α 4' = E X
4
]
se tem:
α 4' − σ 4
P[ X ≥ tσ ] ≤ '
α 4 + t 4 σ 4 − 2t 2 σ 4
com t > 1.
Admita-se agora que se possuem n variáveis aleatórias, semelhantes e independentes, cada
uma com valor médio µ1' e variância σ 2 , sendo n ∈ N 1 .
∑X
i =1
i
X =
n
cujo valor médio e variância são, respectivamente:
[ ]
E X = µ1'
σ2
[ ]
V X =
n
⋅
Recorrendo à Desigualdade de Markov, mas tomando agora a nova função g: R→R, definida
por:
g( X ) = ( X − µ1' )
2
131
EQUAÇÕES FUNCIONAIS
para a qual:
[
E (X −µ 1)
' 2
] =
σ2
n
virá:
[
P(X −µ 1)
' 2
≥t σ
2 2
] σ2
≤ 2 2
nt σ
⇔ [
P X − µ1' > tσ ≤ ] 1
nt 2
⋅
Seja uma população normal, de valor médio, µ1' = 6 , e variância, σ 2 = 0,36 , e suponha-se uma
amostra de dimensão 100, oriunda dessa população. Ter-se-á, então:
E X =6 [ ]
0,36
V X = [ ] 100
= 0,0036
σ X = 0,06.
X −6 <1
virá:
( )
P X − 6 < 1 = P X − 6 <
1
0,06
⋅ 0,06 ≥ 1 −
1
1
2 ≈ 0,999964.
100
0,06
X −6
X ~ N ( 6;0,0036) ⇔ Z = ~ N (0,1)
0,06
[
P X − 6 < 1 ≈ 1. ]
A maior proximidade entre a anterior estimativa, 0,999964, e o valor real da probabilidade,
quando se conhece a distribuição, deve-se ao facto de se ter usado uma amostra já grande, através
da distribuição da sua média aritmética.
132
H. BERNARDO LOPES
tσ X = α ⇒ t 2 σ X2 = α 2
σ X2
[
P X −µ ≥α ≤ '
1 ] nα 2
k p(1 − p)
P − p ≥ α ≤
n nα 2
Mas a Desigualdade de Chebychev pode ser ainda generalizada a situações mais amplas, como
se mostra com as duas propriedades que se seguem.
[ ]
E X i = µi'
[ ]
V X i = σ i2
e seja:
L = sup{ σ 12 ,..., σ n2 } .
n
∑µ i
'
L
P X − ≥ α ≤
i =1
⋅
n nα 2
133
EQUAÇÕES FUNCIONAIS
[ ]
E X i = pi
1
[ ]
V X i = pi ( 1 − pi ) ≤
4
pelo que virá a Desigualdade de Chebychev correspondente à presente situação:
n
∑
k i =1
pi
1
P − ≥ α ≤ ⋅
n n 4nα 2
g( X ) = ( X − τ )
2
ter-se-á:
]≤ [
E ( X −τ)
2
]
[
P ( X −τ) ≥ t σ
2 2 2
t σ
2 2
ou seja:
P[ X − τ ≥ tσ ] ≤
E [(( X − µ ) + ( µ − τ)) ]
1
'
1
'
2
t 2σ 2
ou ainda:
P[ X − τ ≥ tσ ] ≤
[
E ( X − µ1' )
2
] + 2( µ − τ ) E[ X − µ ] + E[ ( µ − τ ) ]
1
'
1
'
1
' 2
t 2σ 2
ou, finalmente:
1 ( µ1 − τ )
' 2
P[ X − τ ≥ tσ ] ≤ 2 +
t t σ
2 2
(2)
E[ X − µ ] = 0
e que:
134
H. BERNARDO LOPES
[ ] = ( µ −τ)
E ( µ1' − τ )
2
1
' 2
E[ ( X − µ ) ] = σ ' 2
1
2
1 ( µ1 − τ )
' 2
P[ X − τ < tσ ] ≥ 1 − 2 −
t t σ
2 2
( 3)
onde (3) fornece uma estimativa do limite inferior da probabilidade de X assumir valores no
intervalo:
] τ − tσ , τ + tσ [
centrado em τ e não em µ1' .
g( X ) = ( X − τ )
2
( µ1' − τ ) 2
[ 1
P X − τ < tσ ≥ 1 − 2 −
nt
] t 2σ 2
que é também de muito fácil obtenção.
n
X = X 1 + ⋅ ⋅⋅ + X n = ∑ X i
i =1
] = E[ ( X ] = ∑σ
n
E[ X + ⋅⋅⋅ + X n ) = ∑n .
2 2 2 2
1 i
i =1
135
EQUAÇÕES FUNCIONAIS
D1 = X 1 < t ∑n
D2 = X 1 + X 2 < t ∑n
.........................................
Dn = X 1 + ⋅ ⋅⋅ + X n < t ∑n
1 n 1
P( D1 ∩ D2 ∩...∩ Dn ) ≥ 1 − 2 ⇔ P Di ≥ 1 − 2 ⋅
t i =1 t
Trata-se de uma propriedade de essencial interesse para a obtenção de uma condição suficiente
para a conhecida lei forte dos grandes números.
Para certo valor desse parâmetro obtém-se uma variável aleatória, com a referida distribuição.
Em contrapartida, para certo valor da variável aleatória, obtém-se uma função do parâmetro antes
referido, definido no domínio considerado.
De um modo geral, os casos mais importantes são aqueles em que o parâmetro do processo
estocástico é a variável tempo. Se o conjunto-índice é o conjunto dos números naturais, N, ou o dos
inteiros, Z, ou uma sua parte própria, o processo estocástico diz-se de parâmetro discreto. Se o
conjunto-índice é o corpo real, ou uma sua parte própria, o processo estocástico designa-se de
parâmetro contínuo.
{ X (t ): t ∈ T}
onde t é o parâmetro do processo, com valores no domínio T , se pode considerar uma função de
valor médio do processo estocástico.
Em torno desta função de valor médio dispõem-se, para um e outro lado, as diversas
realizações do processo estocástico, cada uma definida para um certo valor de t ∈ T .
{ X (t ): t ∈[ a , b] }
for diferenciável em média quadrática, e fazendo:
{ [ ]}
1
2 2
g1 ( t ) = E X ( t )
{ [ ]}
1
2 2
g 2 (t ) = E X (t ) '
136
H. BERNARDO LOPES
se tem:
1
[ ]
b
E sup X 2 (t ) ≤ g12 ( a ) + g12 (b) + ∫ g1 ( t ) ⋅ g 2 ( t )dt .
t ∈[ a ,b ] 2 a
E desta propriedade se pode obter, como corolário, a Desigualdade de Markov para o caso dum
processo estocástico nas condições indicadas:
E sup X 2 (t )
∀c ∈ R + , t ∈[ a ,b ]
P sup X (t ) > c ≤ 2
t ∈[ a ,b ] c
2 b
⋅ σ X ' ( t ) dt
σ + σ 2
∫ σ
[
P X (t ) − m(t ) ≤ c ≥ 1 − ]
X (a)
2c 2
X (b )
+ a X (t )
c 2
[ ]
E max{ X , Y } ≤ 1 + 1 − ρ 2
e também que:
1+ 1− ρ2
[
P X − E [ X ] ≥ tσ X ∨ Y − E [ Y ] ≥ tσ Y ≤ ] t2
⋅
E é claro que se for Y constante, será ρ = 0 , obtendo-se, então, a expressão já antes achada
para a Desigualdade de Chebychev no caso de uma só variável aleatória:
1
[
P X − E [ X ] ≥ tσ X ≤ ] t2
⋅
Fica assim tratada a Desigualdade Chebychev, mas numa variedade muito mais vasta de
situações que as normalmente contempladas nos textos de uso corrente ao nível dos cursos de
licenciatura onde o tema está usualmente presente.
BIBLIOGRAFIA
137
EQUAÇÕES FUNCIONAIS
MURTEIRA, Bento José Ferreira (1990): Probabilidades e Estatística - Volume I, 2ª Edição Revista,
Editora McGraw-Hill de Portugal, Lda..
PESTANA, Dinis Duarte, VELOSA, Sílvio Filipe, (2006): Introdução à Probabilidade e à Estatística,
Volume I, 2ª Edição Revista e Actualizada, Fundação Calouste Gulbenkian, Serviço de Educação e
Bolsas.
138