Académique Documents
Professionnel Documents
Culture Documents
21.09.2009
Informação e Fontes
Introdução
Seja o evento E = ek que ocorre com probabilidade P(E = ek) = Pk.
⎛ 1 ⎞
I (e k ) = log ⎜⎜ ⎟⎟ = − log Pk
⎝ Pk ⎠
Propriedade Intuitivas:
• I(ek) = 0 para Pk = 1 (Se houver certeza absoluta do resultado do evento,
mesmo antes dele ocorrer, nenhuma informação será ganha com evento).
( k) ≥ 0 p
• I(e para 0 ≤ Pk ≤ 1 ((A ocorrência de um evento E = ek fornece alguma
g
informaçaò ou não fornece qualquer informação, mas já mais provoca uma
perda de informação).
• I(ek) > I(ei) 0 para Pk < Pi (Quanto menos provável for um evento,
evento mais
informação esta agregada).
• I(ekei) = I(ek) + I(ei) 0 se ek e ei (forem estatisticamente independentes).
Fonte
F t de
d s i , s j , s k .....
Informação
∑ p (s ) = 1
k =1
k
1
s k ⇒ log 2 bits (bits/símbo lo )
p (s k )
1
= ∑k
p k log
pk
bits
Observe que H(S) depende somente das
probabilidades
b bilid d d
dos símbolos
í b l existentes
i t t no
alfabeto da fonte.
Exemplo: Considere a fonte S = {s1, s2, s3} com probabilidades p(s1) = ½ , p(s2) =
p(s3) = ¼ , logo:
1 1 1 3
H (S ) = log 2 + log 4 + log 4 = bits/simb
2 4 4 2
Desafio:
Se I(sk) for medida em unidades D-ária, então:
1
H D (S ) = ∑ p (s k ) log D unidades D − ária/simb
S p (s k )
H (S )
=
log D 9
Teoria da Informação – Prof. Márcio Lima
Informação e Fontes
Propriedades da Entropia
Da uma fonte discreta sem memória, da forma
S = {s1 , s 2 ,..., s k ,..., s q } ⇒ p (s1 ) = p1 , p (s 2 ) = p 2 ,...., p (s q ) = p q
q
∑p
k =1
k =1
0 ≤ H (S ) ≤ logg 2 q
Para demonstrar, considere as duas desigualdades:
1. H (S ) = 0 ⇔ pk = 1
Demonstração:
⎛ 1 ⎞
• p k ≤ 1 ⇔ p k log 2 ⎜⎜ ⎟⎟ ≥ 0 ⇔ H (S ) ≥ 0
⎝ pk ⎠
⎛ 1 ⎞
p k log 2 ⎜⎜ ⎟⎟ = 0 ⇔ p k = 0 ou p k = 1
⎝ pk ⎠
H (S ) = 0 ⇔ p k = 0 ou pk = 1
Se pk = 1 p
para algum
g símbolo
e o resto é igual a zero
∑x
i =1
i =1 e ∑y
j =1
j =1 ⇔ 0 ≤ x i ≤ 1, 0 ≤ y j ≤ 1 ∀ i,j
Sabe-se:
1
log a b = log c b
log c a
Teoria da Informação – Prof. Márcio Lima 12
Informação e Fontes
Propriedades da Entropia
Analisando a relação entre as probabilidades das duas fontes, pode-se ter:
⎛ yi ⎞ 1 ⎛ y i ⎞ × xi ⎛ yi ⎞ xi ⎛ yi ⎞
l 2 ⎜⎜ ⎟⎟ =
log l ⎜⎜ ⎟⎟ ←
ln l 2 ⎜⎜ ⎟⎟ =
⎯→ x i log l ⎜⎜ ⎟⎟.
ln
⎝ x i ⎠ ln 2 ⎝ x i ⎠ ÷ x i ⎝ x i ⎠ ln 2 ⎝ x i ⎠
xi
U
Usando d a desigualdade
d i ld d ln l z ≤ z − 1, em que z = , ∀i :
yi
⎛ yi ⎞ ⎛ yi ⎞ xi ⎛ y i ⎞ xi ⎛ y i − xi ⎞ 1
x i log 2 ⎜⎜ ⎟⎟ =
xi
ln ⎜⎜ ⎟⎟ ≤ ⎜⎜ − 1 ⎟⎟ = ⎜⎜ ⎟⎟ = ( y i − xi )
⎝ x i ⎠ ln 2 ⎝ x i ⎠ ln 2 ⎝ x i ⎠ ln 2 ⎝ x i ⎠ ln 2
Somando em i:
q
⎛ yi ⎞ 1 q 1 ⎛ q q
⎞
∑ ⎜
x i log 2 ⎜ ⎟ ≤ ⎟ ∑ ( y i − xi ) = ⎜⎜ ∑ y i − ∑ x i ⎟⎟
i =1 ⎝ x i ⎠ ln 2 i =1 ln 2 ⎝ i =1 i =1 ⎠
q
⎛ yi ⎞
∑ x i log 2 ⎜⎜ ⎟⎟ ≤ 0
i =1 ⎝ xi ⎠ Teoria da Informação – Prof. Márcio Lima 13
Informação e Fontes
Propriedades da Entropia
Logo,
q
⎛ yi ⎞ q q
∑ x i logg 2 ⎜⎜ ⎟⎟ ≤ 0 ⇔ ∑ x log
123 ∑ 123
g y −
i x logg x ≤ 0
2 i i 2 i
i =1 ⎝ xi ⎠ i =1
⎛ 1 ⎞
i =1
⎛ 1 ⎞
− log ⎜⎜ ⎟⎟ − log ⎜⎜ ⎟⎟
⎝ i ⎠
y ⎝ i ⎠
x
q
⎛ 1 ⎞ q ⎛ 1 ⎞
⇔ − ∑ x i log 2 ⎜⎜ ⎟⎟ + ∑ x i log 2 ⎜⎜ ⎟⎟ ≤ 0
i =1 ⎝ y i ⎠ i =1 ⎝ xi ⎠
q
⎛ 1 ⎞ q
⎛ 1 ⎞
⇔ ∑ x i log 2 ⎜⎜ ⎟⎟ ≤ ∑ x i log 2 ⎜⎜ ⎟⎟
i =1 ⎝ x i ⎠ i =1 ⎝ yi ⎠
Igualdade se e somente se
xi = y i , ∀ i
q
⎛1⎞ q ⎛ 1 ⎞
∑ l 2 ⎜⎜ ⎟⎟ + ∑ x i log
x i log l 2 ⎜⎜ ⎟⎟ ≤ 0
i =1 ⎝ q ⎠ i =1 ⎝ xi ⎠
⎛1⎞ q ⎛ 1 ⎞
1 ⋅ log 2 ⎜⎜ ⎟⎟ + ∑ x i log 2 ⎜⎜ ⎟⎟ ≤ 0
⎝ q ⎠ i =1 ⎝ xi ⎠
q
⎛ 1 ⎞
∑ x i log 2 ⎜⎜ ⎟⎟ ≤ log 2 q ⇔ H (S ) ≤ log 2 q
i =1 ⎝ xi ⎠ 15
Teoria da Informação – Prof. Márcio Lima