Académique Documents
Professionnel Documents
Culture Documents
Curso 2009/10
Transmisi on de Datos
Contenidos Clase 3
Denici on de Entrop a.
Lema de Gibs.
Contenidos Clase 4
Entrop a condicionada
Informaci on m utua.
Capacidad de Canal.
Transmisi on de Datos
Incertidumbre
En general un canal es un sistema de entrada/salida. Por lo tanto para poder estudiar la capacidad del mismo, deberemos estudiar la relaci on entre la informacin de entrada y la informaci on de salida.
Esta relaci on se denomina Informaci on M utua y se dene como la cantidad de informaci on que una variable aleatoria contiene sobre la otra.
Sin embargo antes de continuar con este concepto debemos estudiar otros.
H (X , Y ) =
i =1 j =1
m n X X
p (xi , yj ) logb
1 p (xi , yj )
Transmisi on de Datos
Entrop a Condicionada
Formalmente la Entropa Condicionada de una fuente de informacin Y es la cantidad de informaci on que nos proporcionan los mensajes de dicha fuente una vez que se conoce el mensaje de otra fuente X que puede guardar alguna relaci on con la primera. Pn
i =1
H (Y |X ) = H (Y |x = xi ) = Pm
p (xi ) H (Y |x = xi )
Transmisi on de Datos
Informaci on M utua
Ya tenemos las herramientas necesarias para poder denir el concepto de Informaci on M utua. Consideremos dos variables aleatorias discretas X e Y, se dene la informaci on mutua I (X ; Y ) como:
I (X ; Y ) = H (X ) H (X |Y ) = H (Y ) H (Y |X )
Transmisi on de Datos
Capacidad de Canal
Comencemos ahora a estudiar el concepto de Capacidad de Canal. Para ello lo primero que debemos hacer es caracterizar el canal. En un canal discreto vamos a tener:
Un conjunto nito de entrada X = {x1 , x2 , xn } Un conjunto nito de salidad Y = {y1 , y2 , ym } Un conjunto de probabilidades condicionadas, que establecen la matriz Q .
Transmisi on de Datos
Capacidad de Canal
Capacidad de Canal: Sea X la variable aleatoria discreta que representa la introducci on de un s mbolo en el canal, y sea Y la variable aleatoria discreta que representa la salida de un s mbolo del canal. Se dene la Capacidad del canal como el m aximo valor posible que puede adoptar la informaci on m utua entre las variables aleatorias X e Y cuando se consideran todas las posibles distribuciones de la variable aleatoria X .
C = max I (X ; Y )
p (x )
Transmisi on de Datos
Resumen
Hemos estudiado la entrop a condicionada como relaci on entre la entrada y la salida de un sistema de comunicaciones.
La Informaci on M utua nos proporciona la informaci on que tenemos de lo que se ha enviado una vez que hemos recibido.
Nos queda un cierto camino hasta llegar a la formulaci on de la Capacidad de Canal ofrecida en la Introducci on.
Transmisi on de Datos