Vous êtes sur la page 1sur 4

PRINCIPIOS DE LA TRANSMISION DE INFORMACION

El Teorema Fundamental de Shannon o Primer Teorema de Shannon establece que si la


velocidad de información Vi de la fuente es igual o menor que la capacidad C del canal, entonces
existe una técnica de codificación con redundancia que permite la transmisión sobre el canal con
una frecuencia de errores arbitrariamente pequeña, no obstante la presencia de ruido. Es decir, si
0 < Vi ≤ C (4.37)
se puede transmitir sin error, pero si Vi > C entonces no es posible transmitir sin error.
La capacidad del canal es entonces la máxima velocidad a la cual el canal puede
transportar información confiable hasta el destinatario. La capacidad C se expresa en bits por
segundo (bps).
Algunas veces el comportamiento del canal se puede caracterizar mediante las relaciones o
definiciones siguientes:
• Redundancia del Canal, Rc
R c = C − Vi Rc ≥ 0 (4.38)

• Redundancia Relativa del Canal, ρc


Rc V
ρc = = 1− i (4.39)
C C
• Rendimiento del Canal, ηc
Vi Vi
ηc = ó ηc % = 100 (4.40)
C C
También, ηc = 1 − ρc donde ηc ≤ 1 (4.41)
• Rendimiento del Canal respecto al Ancho de Banda, ηB
Vi
ηB = ηB se expresa en bps/Hz (4.42)
B
A esta última relación también se la denomina “Rendimiento Espectral” de una señal
digital, y es la cantidad de bps que la señal soporta en un canal de ancho de banda B Hz.
Canal sin Ruido
Consideremos primero un canal ideal sin ruido sobre el cual se va a transmitir N símbolos
distintos que supondremos independientes y equiprobables. La cantidad de información máxima de
la fuente es log 2 N bits y si cada símbolo tiene una duración T, la capacidad mínima del canal será
1
C = log 2 N = Vs log 2 N bps (4.43)
T
La capacidad C del canal se puede expresar también en términos de los parámetros del
codificador y del mismo canal. En efecto, si los símbolos han sido codificados en secuencias de n
impulsos de m amplitudes, entonces de (4.21) y (4.28),
1 n
C= log 2 m n = log 2 m = KVb log 2 m bps (4.44)
T T

J. Briceño M., Dr. Ing. - Profesor Titular, ULA - Mérida, Venezuela


PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Sin embargo, de acuerdo con (4.32), Vb es también, numéricamente, el ancho de banda


mínimo necesario para transmitir los impulsos sin distorsión excesiva. Podemos entonces
reemplazar en (4.44) Vb por B, el ancho de banda real del canal, con lo cual obtenemos finalmente
que
C = KB log 2 m bps (4.45)
Como el ancho de banda B del canal generalmente es fijo, la capacidad C dada por (4.45) se
puede aumentar incrementando el número de niveles m de los impulsos o mediante una codificación
equivalente. Como el número de símbolos N es constante, un aumento en m implica una
disminución en el número de impulsos de información. Como consecuencia, la velocidad de
modulación disminuye y la exigencia sobre el canal disminuye también. Son las técnicas de
codificación apropiadas las que en definitiva permiten aumentar la capacidad del canal, como bien
lo expresa el Teorema Fundamental de Shannon.

B ≥ Vb (4.46)
En consecuencia, en un canal ideal sin ruido el ancho de banda del canal debe ser
numéricamente igual o mayor que la velocidad de modulación para que no haya pérdida de
información, con lo cual verificamos la expresión (4.31).
Las expresiones (4.43) a (4.45) deben ser aplicadas con cautela. No hay que olvidar que
ellas se aplican fundamentalmente a un canal ideal sin ruido lo cual está muy lejos de la realidad.
Por ejemplo, un canal telefónico tiene un ancho de banda efectivo de 3,2 kHz; de acuerdo con
(4.43) a (4.45), con una codificación adecuada se podría aumentar indefinidamente la capacidad del
canal, pero en la práctica se llega normalmente a 9600 bps. Con técnicas más sofisticadas de
codificación, modulación y acondicionamiento del canal, se ha llegado a 14400 bps con una
velocidad de modulación máxima de 2400 baudios; velocidades superiores solamente se obtienen
mediante control de error y compresión de datos. Sin embargo, el límite teórico para la capacidad de
este canal es superior, como lo vamos a ver más adelante.
Canal con Ruido
La capacidad de un canal disminuye como consecuencia de los errores incurridos en la
transmisión causados por señales perturbadoras o ruido, y como consecuencia se produce una
pérdida de información.
En su Teorema No 2 Shannon estableció que si el canal tiene un ancho de banda B, la
potencia promedio de la señal transmitida es S, y la potencia promedio del ruido en el canal es N,
entonces la capacidad del canal en presencia de ruido aditivo y gaussiano viene dada por
S
C = Blog 2 (1 + ) bps (4.47)
N
A este resultado se le llama la “Ecuación de Hartley-Shannon”, en reconocimiento al
trabajo pionero de Hartley y a la deducción teórica efectuada por Shannon [Teorema N° 2,
Shannon, 1949]. Nótese la importancia de los dos parámetros de más importancia en un sistema de
comunicación: el ancho de banda B del sistema y la relación señal-ruido S/N presente. La
optimización de estos dos parámetros es una de las metas en el diseño de sistemas de comunicación:
transmitir la información con el mínimo ancho de banda B y la máxima relación S/N.

J. Briceño M., Dr. Ing. - Profesor Titular, ULA - Mérida, Venezuela


PRINCIPIOS DE LA TRANSMISION DE INFORMACION

La expresión (4.47) indica también que la información contenida en una señal se puede
recobrar aún si la relación S/N es muy pequeña. (¿Y cómo se logra?, pues aumentando el ancho de
banda B).
La ecuación de Hartley-Shannon proporciona el límite superior para la transmisión de
información confiable por un canal ruidoso, y relaciona los tres parámetros de importancia en un
canal: el ancho de banda del canal, la potencia promedio de la señal útil y la potencia promedio de
la señal perturbadora. Aunque la ecuación ha sido deducida para un canal gaussiano, ella es de gran
importancia en los sistemas de comunicación porque muchos canales prácticos se pueden modelar
como un canal gaussiano. Además, ha sido demostrado que el resultado obtenido para el canal
gaussiano proporciona una cota superior en el funcionamiento de un sistema que opera sobre un
canal no gaussiano. Esto quiere decir que si una codificación dada tiene una probabilidad de error
Pe operando sobre un canal gaussiano, cuando opera sobre un canal no gaussiano la probabilidad
de error será menor que Pe. Por otro lado, Shannon ha demostrado que el ruido gaussiano es el peor
ruido entre todos los ruidos posibles, y que la potencia del ruido gaussiano dentro de un ancho de
banda dado es también la más alta de todos los ruidos posibles.
Rendimiento Máximo de un Canal
Cuando el ancho de banda de un canal está limitado, sea por sus propias características
físicas o por regulaciones y normas técnicas, es necesario elegir un esquema de codificación de
canal que optimice el rendimiento η B del canal con la mínima probabilidad de error y el menor
costo posible. De las expresiones (4.42) y (4.47), el “Rendimiento Máximo de un canal” viene
dado entonces por
C S
η Bmax = = log 2 (1 + ) bps/Hz (4.48)
B N
La teoría de Shannon no especifica cuál es el mejor esquema de codificación que permite
alcanzar este rendimiento máximo, pero sí establece que para transmitir sin error los símbolos o
muestras codificadas deben poseer una cierta redundancia. Los sistemas prácticos cuyo rendimiento
se aproxima a este rendimiento máximo incorporan mucha redundancia mediante esquemas de
codificación que incluyen codificaciones multinivel m-arias y procedimientos para la detección y/o
corrección de errores y compresión de datos, etc.
La ecuación de Hartley-Shannon tiene dos implicaciones importantes para los ingenieros de
comunicaciones. Primero, porque expresa la forma óptima absoluta con que se puede obtener una
transmisión de información segura, dados los parámetros del canal. Segundo, porque, en caso de
una velocidad de información específica, expresa que se puede reducir la potencia de la señal (o la
relación S/N, para una potencia de ruido N específica) aumentando el ancho de banda B en una
magnitud dada, y viceversa. Este aspecto lo veremos más adelante.
♣ Ejemplo 4.11. Información contenida en una Imagen de Televisión.

La cámara a color requiere 5x105


elementos de imagen con 16 niveles de CAMARA DE TV
CANAL
brillantez y 16 matices de color por A COLOR
cada nivel. La velocidad de transmisión
de las imágenes es de 30 por segundo.
Vamos a calcular los diferentes Fig. 4.8
parámetros del sistema.

J. Briceño M., Dr. Ing. - Profesor Titular, ULA - Mérida, Venezuela


PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Solución:
Número de elementos por imagen: Ne1 = 5x105 elementos/imagen
Información por elemento: Ie1 = log2(16x16) = 8 bits/elemento
Información por imagen: I img = N el ⋅ I el = 4 x10 6 bits/imagen

Velocidad de las imágenes: Vimg = 30 imágenes/seg


1 1
Tiempo de transmisión de un elemento: T = = = 6, 667x10−8 seg
Vimg N el 30x5x105
Iel 8
Velocidad de Información: Vi = = = 120x106 bps
T 6,667x10−8
Capacidad mínima del Canal: C = Vi = 120x106 bps
Si el ancho de banda del canal fuera de 6 MHz, la relación S/N mínima sería, de (4.47),
S S
120x106 = 6x106 log2 (1 + ) , de donde = 1,049x106 = 60,21 dB
N N
El lector puede demostrar, en la misma forma, que en el caso de TV en blanco y negro
(solamente 16 niveles de brillantez), los parámetros son:
Iel = 4 bits/elemento; T = 6,6667x10−8 seg.; V1 = C = 60x103 bps
S
= 1023 = 30,10 dB
N
Obsérvese que para la misma potencia de ruido y ancho de banda, la señal de TV a color
necesita una potencia 1000 veces (30,1 dB) mayor que en TV blanco y negro. ♣

J. Briceño M., Dr. Ing. - Profesor Titular, ULA - Mérida, Venezuela

Vous aimerez peut-être aussi