Académique Documents
Professionnel Documents
Culture Documents
B ≥ Vb (4.46)
En consecuencia, en un canal ideal sin ruido el ancho de banda del canal debe ser
numéricamente igual o mayor que la velocidad de modulación para que no haya pérdida de
información, con lo cual verificamos la expresión (4.31).
Las expresiones (4.43) a (4.45) deben ser aplicadas con cautela. No hay que olvidar que
ellas se aplican fundamentalmente a un canal ideal sin ruido lo cual está muy lejos de la realidad.
Por ejemplo, un canal telefónico tiene un ancho de banda efectivo de 3,2 kHz; de acuerdo con
(4.43) a (4.45), con una codificación adecuada se podría aumentar indefinidamente la capacidad del
canal, pero en la práctica se llega normalmente a 9600 bps. Con técnicas más sofisticadas de
codificación, modulación y acondicionamiento del canal, se ha llegado a 14400 bps con una
velocidad de modulación máxima de 2400 baudios; velocidades superiores solamente se obtienen
mediante control de error y compresión de datos. Sin embargo, el límite teórico para la capacidad de
este canal es superior, como lo vamos a ver más adelante.
Canal con Ruido
La capacidad de un canal disminuye como consecuencia de los errores incurridos en la
transmisión causados por señales perturbadoras o ruido, y como consecuencia se produce una
pérdida de información.
En su Teorema No 2 Shannon estableció que si el canal tiene un ancho de banda B, la
potencia promedio de la señal transmitida es S, y la potencia promedio del ruido en el canal es N,
entonces la capacidad del canal en presencia de ruido aditivo y gaussiano viene dada por
S
C = Blog 2 (1 + ) bps (4.47)
N
A este resultado se le llama la “Ecuación de Hartley-Shannon”, en reconocimiento al
trabajo pionero de Hartley y a la deducción teórica efectuada por Shannon [Teorema N° 2,
Shannon, 1949]. Nótese la importancia de los dos parámetros de más importancia en un sistema de
comunicación: el ancho de banda B del sistema y la relación señal-ruido S/N presente. La
optimización de estos dos parámetros es una de las metas en el diseño de sistemas de comunicación:
transmitir la información con el mínimo ancho de banda B y la máxima relación S/N.
La expresión (4.47) indica también que la información contenida en una señal se puede
recobrar aún si la relación S/N es muy pequeña. (¿Y cómo se logra?, pues aumentando el ancho de
banda B).
La ecuación de Hartley-Shannon proporciona el límite superior para la transmisión de
información confiable por un canal ruidoso, y relaciona los tres parámetros de importancia en un
canal: el ancho de banda del canal, la potencia promedio de la señal útil y la potencia promedio de
la señal perturbadora. Aunque la ecuación ha sido deducida para un canal gaussiano, ella es de gran
importancia en los sistemas de comunicación porque muchos canales prácticos se pueden modelar
como un canal gaussiano. Además, ha sido demostrado que el resultado obtenido para el canal
gaussiano proporciona una cota superior en el funcionamiento de un sistema que opera sobre un
canal no gaussiano. Esto quiere decir que si una codificación dada tiene una probabilidad de error
Pe operando sobre un canal gaussiano, cuando opera sobre un canal no gaussiano la probabilidad
de error será menor que Pe. Por otro lado, Shannon ha demostrado que el ruido gaussiano es el peor
ruido entre todos los ruidos posibles, y que la potencia del ruido gaussiano dentro de un ancho de
banda dado es también la más alta de todos los ruidos posibles.
Rendimiento Máximo de un Canal
Cuando el ancho de banda de un canal está limitado, sea por sus propias características
físicas o por regulaciones y normas técnicas, es necesario elegir un esquema de codificación de
canal que optimice el rendimiento η B del canal con la mínima probabilidad de error y el menor
costo posible. De las expresiones (4.42) y (4.47), el “Rendimiento Máximo de un canal” viene
dado entonces por
C S
η Bmax = = log 2 (1 + ) bps/Hz (4.48)
B N
La teoría de Shannon no especifica cuál es el mejor esquema de codificación que permite
alcanzar este rendimiento máximo, pero sí establece que para transmitir sin error los símbolos o
muestras codificadas deben poseer una cierta redundancia. Los sistemas prácticos cuyo rendimiento
se aproxima a este rendimiento máximo incorporan mucha redundancia mediante esquemas de
codificación que incluyen codificaciones multinivel m-arias y procedimientos para la detección y/o
corrección de errores y compresión de datos, etc.
La ecuación de Hartley-Shannon tiene dos implicaciones importantes para los ingenieros de
comunicaciones. Primero, porque expresa la forma óptima absoluta con que se puede obtener una
transmisión de información segura, dados los parámetros del canal. Segundo, porque, en caso de
una velocidad de información específica, expresa que se puede reducir la potencia de la señal (o la
relación S/N, para una potencia de ruido N específica) aumentando el ancho de banda B en una
magnitud dada, y viceversa. Este aspecto lo veremos más adelante.
♣ Ejemplo 4.11. Información contenida en una Imagen de Televisión.
Solución:
Número de elementos por imagen: Ne1 = 5x105 elementos/imagen
Información por elemento: Ie1 = log2(16x16) = 8 bits/elemento
Información por imagen: I img = N el ⋅ I el = 4 x10 6 bits/imagen