Académique Documents
Professionnel Documents
Culture Documents
Captulo 2 de Abramson
Clase 3
2. LA INFORMACIN Y SUS FUENTES
2.1. Definicin de informacin
Definicin: sea E un suceso que puede presentarse con probabilidad (). Cuando
tiene lugar se dice que hemos recibido
() = (
)
()
( )
= ( )( )
( )
=
21
En donde nuevamente las unidades por smbolo de la entropa dependern de la base
escogida para el logaritmo.
Ejemplo: sea la fuente sin memoria = { , , } con ( ) = / y ( ) =
( ) = / , entonces
() =
1
1
1
3
(2) + (4) + (4) = /
2
4
4
2
Ilustracin 2: Grficos de = () y =
Como se observa en esta figura, la recta = se mantiene por encima de la curva
= () y por tanto puede escribirse
22
()
Multiplicando por 1 se tiene que
()
Si , , , , e , , , , son dos conjuntos de probabilidades, se demuestra
(ver Pg. 30) que
= ( )
Y, adems,
= ( ) = ( )
Ejemplo:
Si se tienen los siguientes conjuntos de probabilidad
1 1 1
() = { 3 , 6 , 6 , 12 , 12 }
1 1 1 1 2
() = { 6 , 6 , 6 , 6 , 6 }
log
=1
1
= 2.1887
log
=1
1
= 2.2516
1
log = 2.335
=1
log
=1
1
= 2.39
23
Para analizar de qu modo depende la entropa de la probabilidad de los diferentes
smbolos de la fuente sea una fuente S si y sus probabilidades Psi , i 1,2,, q
Se demuestra (ver Pg. 31) que
log( q) H S 0
O sea que la entropa de la fuente siempre es menor o igual que log( q) . La igualdad se
1
cumple si Pi
q
Luego el valor mximo de la entropa es log( q) y se alcanza cuando todos los smbolos
son equiprobables. (Ejemplo: representacin fija con log 2 () ).
Un ejemplo particularmente importante de fuente de informacin de memoria nula
corresponde a una fuente binaria de memoria nula. En tal fuente, el alfabeto se reduce a
{0 , 1}. La probabilidad de un 0 es y la de un 1,
= . La entropa de tal fuente
(/
)
() = () +
(2-12)
(/
)
() = () +
(2-13)
Que llamaremos funcin entropa. Hay que sealar la diferencia existente entre (2-12) y
(2-13). La funcin () determina la entropa de una fuente particular S, mientras que
() es una funcin de la variable definida en el lintervalo [ , ]. El significado del
smbolo () depende, en definitiva, de la variable. Otro punto importante es que
( ) =
Y as por definicin
( ) =
24
Debe observarse tambin que la cantidad mxima de informacin crece
lentamente al aumentar , de tal manera que para duplicar la informacin promedio
mxima se debe tener una fuente con q 2 smbolos.
de q n smbolos, 1 , 2 ,, q n
. El smbolo
H S n n * H S
25
Ejemplo: Consideremos la extensin de segundo orden de la fuente que tiene un alfabeto
S s1 , s 2 , s3 con probabilidades PS 1 / 2, 1 / 4, 1 / 4. Dicha fuente tendr los
=
nueve smbolos mostrados en la tabla 1:
( )
1
1
1
= log 4 + 4 log 8 + 4 log 16
4
8
16
= 3 /
2.3. Fuentes de informacin de Markov (fuente con memoria)
2.3.1. Definicin:
En este caso la presencia de un determinado smbolo si depende de un nmero finito
de smbolos precedentes. Tal fuente se define por su alfabeto y el conjunto de
probabilidades condicionales
Psi / s j1 , s j 2 ,, s jm para i 1, 2,, q; j p 1, 2,, q, p 1,2,, m
26
El diagrama de estados para esta fuente se muestra en la ilustracin 4:
Fuente ergdica: es aquella que observada durante un tiempo suficientemente largo, emite
con toda seguridad una secuencia tpica de smbolos.
Las fuentes no ergdicas son una rareza y por tanto si se escoge un estado inicial de una
fuente de Markov y se deja transcurrir un gran nmero de transiciones de estado, se sabe
que existir una probabilidad finita de que se presente cada uno de ellos. Adems en una
fuente ergdica los estados que realmente aparecen en una secuencia larga lo harn (con
probabilidad 1) con las mismas probabilidades.
Ejemplo: Consideremos una fuente de Markov de segundo orden con un alfabeto binario
= {0,1}. Supongamos que las probabilidades condicionales son:
(001) = (010) = (101) = (110) = 0.5
(000) = (111) = 1.0
(100) = (011) = 0.0
Su correspondiente diagrama de estados se muestra en la ilustracin 5:
27
Una propiedad adicional de las fuentes ergdicas es que la distribucin de probabilidades
de un conjunto de estados que se presentan despus de producirse un gran nmero de
transiciones (o, anlogamente, la distribucin de estados en una secuencia de salida tpica)
no depende de la distribucin inicial con que son elegidos los diferentes estados.
Existe una distribucin de probabilidades nica para un conjunto de estados de una fuente
de Markov ergdica y los estados en cualquier secuencia suficientemente larga se
presentarn (con probabilidad 1) de acuerdo con esa distribucin. Esta distribucin se
llama distribucin estacionaria y puede calcularse a partir de las probabilidades
condicionales de los smbolos ya que no depende de la distribucin inicial con que los
estados fueron escogidos.
Por ejemplo en la fuente de Markov del ejemplo 2.3 Pg. 37 se tiene que
P01 P10
P11 P1 / 11 * P11 P1 / 01 * P01
P11 P00
Adems
Cuando
se
definen
las
probabilidades
condicionales
de
los
smbolos
28
En la tabla 2 se observan las probabilidades de transicin, las probabilidades de los
estados y las probabilidades del suceso simultneo.
, , ( , ) ( , ) ( , , )
000
0,8
5/14
4/14
001
0,2
5/14
1/14
010
0,5
2/14
1/14
011
0,5
2/14
1/14
100
0,5
2/14
1/14
101
0,5
2/14
1/14
110
0,2
5/14
1/14
111
0,8
5/14
4/14
Tabla 2: Tabla con las probabilidades de la fuente del ejemplo
I si / s j1 , s j 2 ,, s jm log
1
Psi / s j1 , s j 2 ,, s jm
H S / s j1 , s j 2 ,, s jm Psi / s j1 , s j 2 ,, s jm * I si / s j1 , s j 2 ,, s jm
S
H S Ps j1 , s j 2 ,, s jm * H S / s j1 , s j 2 ,, s jm
Sm
H S Ps j1 , s j 2 ,, s jm * Psi / s j1 , s j 2 ,, s jm * log
Sm
H S
Ps
S m 1
j1
, s j 2 ,, s jm * Psi / s j1 , s j 2 ,, s jm * log
1
Psi / s j1 , s j 2 ,, s jm
1
Psi / s j1 , s j 2 ,, s jm
29
H S
Ps
S m 1
j1
, s j 2 ,, s jm , si * log
1
Psi / s j1 , s j 2 ,, s jm
000
001
010
011
100
101
110
111
0,8
0,2
0,5
0,5
0,5
0,5
0,2
0,8
5/14
5/14
2/14
2/14
2/14
2/14
5/14
5/14
4/14
1/14
1/14
1/14
1/14
1/14
1/14
4/14
Tabla 3: distribucin de probabilidades para la fuente de Markov de segundo orden del ejemplo.
() = ( , , ) (
)
(
)
,
1
1
1
1
1
= 2 414 ( ) + 2
( ) + 4
( )
0.8
14
0.2
14
0.5
= 0.81
30
)
() (
tienen las mismas probabilidades de
Lo cual significa que como las dos fuentes y
primer orden y difieren en el hecho de las probabilidades condicionales de impuestas a
sus secuencias de salida, entonces es esta restriccin la que hace decrecer la informacin
promedia que fluye de la fuente.
La igualdad se cumple cuando es estadsticamente independiente de o sea que sea
una fuente de memoria nula. Esto se comprueba en el ejemplo visto previamente en donde
la fuente de Markov tiene una entropa de . y su fuente afn tiene una entropa
de .
2.3.3. Extensiones de una fuente de Markov
Se define una fuente conformada por smbolos construidos a partir de smbolos de una
fuente de Markov de orden , as:
Sea una fuente de informacin de Markov de orden , de alfabeto { , , , } y
probabilidades condicionales ( , , , ). La extensin de orden de , ,
es una fuente de Markov de orden , con smbolos, { , , , }. Cada
corresponde a una secuencia de de los smbolos y las probabilidades condicionales
de son ( , , , ). Estas probabilidades, as como , se definen a
continuacin.
Si representa un smbolo de la extensin de orden , o sea una secuencia de
smbolos de la fuente original, entonces la secuencia , , , es equivalente a
alguna secuencia de , digamos , , , en donde
=
Luego es el menor nmero entero igual o superior a . Las probabilidades
condicionales de los smbolos de , por lo tanto, pueden escribirse en la forma
( , , , )
Por ejemplo, la tercera extensin de una fuente de Markov de quinto orden con smbolos
sera una fuente de Markov de segundo orden con smbolos. De aqu se puede concluir
que si se toman al menos extensiones de una fuente de Markov de orden puede
siempre obtenerse una fuente de Markov de primer orden.
Para obtener la probabilidad condicional de la extensin en funcin de las
probabilidades condicionales de los smbolos de la fuente original , sea
= { , , , }
Por lo tanto la probabilidad condicional
31
( , , , ) = ( , , , , , , )
= ( , , , ) ( , , , )
( () , (+) , () )
En el ltimo termino del producto se ha supuesto que > . Si este ltimo
trmino sera ( , () , () ).
Se demuestra en las pginas 45 y 46 que
( ) = ()
Se demuestra adems que la entropa de una fuente afn de la extensin de orden de una
fuente de Markov de primer orden, cumple con
) = ( , , , ) [
+
+ +
]
( )
( / )
( / )
) + ( )()
(. )
= (
= () + [() ()] (. )
_
H S n
lim H S
n
n
Lo cual significa que para valores grandes de , las limitaciones de Markov sobre los
smbolos de son cada vez menos importantes.
De este resultado puede concluirse que la fuente afn de la extensin de orden de no
coincide con la extensin de orden de la fuente afn de , o sea
) (
)
(
Ejemplo: Resumiremos algunos de los resultados obtenidos en los ejemplos anteriores en
el caso de la fuente de la ilustracin 4:
() = 0.81
() = 1.0
( 2 ) = 1.62
Puede calcularse
2 ) = ( , )1/ ( , )
(
2
= 1.86
Un clculo ms largo y complicado permite deducir los valores siguientes:
3 ) = 2.66
(
Hay que destacar como la secuencia
4 ) = 3.47
(
32
() = 1
2 )
(
= 0.93
2
3 )
(
= 0.89
3
4 )
(
= 0.87
4
33
AL_NGAE__ITF_NNR_ASAEV_OIE_BAINTHA_HYROO_POER_SETRYGAI
ETRWCO__EHDUARU_EU_C_FT_NSREM_DIY_EESE__F_O_SRIS_R_UNNA
SHOR
Ilustracin 7: primera aproximacin al ingls
En este caso se tiene una mejor aproximacin dado que las palabras son en su mayora de
longitud apropiada, y la proporcin entre consonantes y vocales es ms real.
Si se utiliza una fuente de Markov de primer orden con probabilidades condicionales bien
escogidas (Pratt 1942) se tiene que
( )
= .
() = (, )
34
REPRESENTING AND SPEEDILY IS AN GOOD APT OR COME CAN
DIFFERENT NATURAL HERE HE THE A IN CAME THE TO OF TO EXPERT
GRAY COME TO FURNISHES THE LINE MESSAGE HAD BE THESE
Ilustracin 10: cuarta aproximacin al ingls
Utilizando una fuente de Markov de primer orden que genere palabras inglesas Shannon
gener la secuencia de la ilustracin 11:
THE HEAD AND IN FRONTAL ATTACK ON AN ENGLISH WRITER THAT
THE CHARACTER OF THIS POINT IS THEREFORE ANOTHER METHOD
FOR THE LETTERS THAT THE TIME OF WHO EVER TOLD THE PROBLEM
FOR AN UNEXPECTED
Ilustracin 11: quinta aproximacin al ingls