Vous êtes sur la page 1sur 34

CAPITULO IV

PRINCIPIOS DE LA TRANSMISION DE INFORMACION


4.1. INTRODUCCION
Se puede definir la comunicación como el proceso mediante el cual se transfiere
información desde un punto en el espacio y en el tiempo, denominado “fuente de información”,
hasta otro punto denominado “destino de la información”, con el mínimo de pérdidas o
perturbaciones.
Es evidente que una reproducción perfecta de un mensaje no es posible, pero desde un
punto de vista práctico es suficiente que la reproducción sea hecha con una aproximación o
fidelidad que depende del fin perseguido. Por ejemplo, en una conversación telefónica la
“fidelidad” necesaria es menor que la requerida en radiodifusión o televisión. Igualmente, en una
comunicación entre máquinas o dispositivos, la fidelidad requerida dependerá del objetivo de la
transmisión. Por consiguiente, la transmisión de las variaciones de temperatura, en un proceso de
automatización, se debe efectuar con la precisión requerida por los demás elementos del sistema. En
todo caso, en el proceso de transmisión la información experimentará siempre una cierta
degradación, cuyos límites dependerán del empleo que se haga de la información.
La mayor parte de los sistemas de comunicación actuales se caracteriza por la presencia de
personas en los extremos del sistema. Los sistemas de comunicación pueden considerarse entonces
como una prolongación de nuestros sentidos. El teléfono, por ejemplo, hace posible la conversación
entre dos personas alejadas entre sí como si ellas estuvieran frente a frente. Por otro lado, las
perturbaciones en la mayoría de los sistemas de comunicación se parecen a las perturbaciones a las
cuales nuestros sentidos están adaptados, y por ello los sistemas clásicos de comunicación dan
resultados satisfactorios aún con un equipo terminal reducido o de muy baja resolución. Se sabe que
cuando hay mucho ruido en un ambiente ruidoso, entonces se habla más fuerte, se pronuncian las
palabras lentamente y con más claridad empleándose un vocabulario más limitado y con las
palabras más usuales. En otras palabras, la fuente de información se adapta a las condiciones del
canal de comunicación disponible. Sin embargo, en la comunicación entre máquinas esta
“codificación” natural no existe, lo que implica un aumento en la complejidad de los equipos
terminales a fin de obtener el grado de precisión o resolución requeridos en el proceso de
transmisión.
4.2. MODELO DE UN SISTEMA DE TRANSMISIÓN DE INFORMACION
Un sistema completo de transmisión de información se puede representar entonces como se
muestra en la Fig. 4.1.

Sistema de Transmisión
Ruido

Fuente de Transductor Transmisor Canal Receptor Transductor Destino


Información de Entrada de Salida

Fig. 4.1. Diagrama de Bloques de un Sistema de Comunicación


262
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Fuente de Información
La información o inteligencia a transmitir se origina en la fuente de información. Esta
información se materializa como un conjunto, que sin perder generalidad supondremos finito y
discreto, de N símbolos o mensajes distintos e independientes cuyo significado es conocido en el
destino del sistema. La fuente de información así definida se denomina “fuente discreta sin
memoria”.
Hay muchas clases de fuentes de información, incluyendo personas y máquinas, de manera
que los símbolos o mensajes pueden tomar una gran variedad de formas: una secuencia de símbolos
discretos o letras, una magnitud que varía en el tiempo, etc.; pero cualquiera que sea el mensaje, el
propósito del sistema de comunicación es el de proporcionar una réplica más o menos exacta del
mismo en el destino.
Transductor de Entrada
Como regla, el mensaje que produce la fuente no es de naturaleza eléctrica y, por lo tanto,
es necesaria la presencia de un “transductor” o “codificador” que convierta el mensaje en una
“señal”. Esta última es una magnitud eléctrica variable en el tiempo (corrientes o voltajes)
compatible con el tipo particular de sistema de transmisión que se emplee.
Nótese entonces la diferencia entre información, mensaje y señal: información es la
inteligencia o significado que se va a transmitir; es una entidad intangible. Mensaje es la
materialización de la información en una cantidad mensurable: el mensaje es el soporte de la
información. Señal es la magnitud eléctrica que resulta de la transformación de una magnitud no
eléctrica portadora de información en una magnitud eléctrica variable en el tiempo. A este respecto,
el número de elementos del conjunto de las señales de salida del transductor debe ser igual al
número de elementos del conjunto de símbolos o mensajes de la fuente de información. La señal de
salida del transductor se conoce también con el nombre de “señal mensaje”.
El transductor de salida o “descodificador”, efectúa la operación inversa del transductor de
entrada; es decir, reconvierte las señales eléctricas recibidas en los símbolos o mensajes corres-
pondientes, los cuales son presentados al destinatario para su interpretación.
Transmisor
Aunque no deja de ser frecuente encontrar el transductor de entrada acoplado directamente
al canal, como sucede, por ejemplo, en un sistema telefónico local, generalmente es necesario
“modular” una señal sinusoidal con la señal del transductor de entrada, sobre todo para transmisión
a gran distancia. La “modulación” es la variación sistemática de alguna característica de una señal,
denominada “portadora”, en concordancia con la señal mensaje o “señal modulante”. Este aspecto
lo trataremos extensamente en capítulos posteriores.
Canal
El canal de transmisión es el enlace eléctrico entre el transmisor y el receptor. Puede ser un
par de conductores, un cable coaxial, una fibra óptica o sencillamente el espacio libre en el cual la
señal se propaga en forma de una onda electromagnética. Al propagarse a través del canal, la señal
transmitida se distorsiona debido a las no linealidades y/o las imperfecciones en la respuesta de
frecuencia del canal. Otras fuentes de degradación son el “ruido” y la “interferencia” que recoge la
señal a su paso por el canal. Más adelante volveremos sobre este tema.
263
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Receptor
El objeto del receptor es el de extraer la señal deseada a partir de la señal degradada
transmitida por el canal. Como las señales recibidas son en general débiles y plagadas de ruido, una
primera operación del receptor es la amplificación y filtrado de dichas señales para poderlas
procesar. Pero la operación fundamental del receptor es la “demodulación” o “detección”, que es el
proceso inverso de la modulación en el transmisor. Debido a la degradación de la señal recibida, el
receptor no puede reconstruir exactamente la señal original, aunque el tipo de degradación que
resulta depende del sistema de modulación que se utilice. Como lo veremos en capítulos
posteriores, hay ciertos sistemas de modulación que son menos sensibles que otros a los efectos del
ruido y de la distorsión.
Ruido
El término “ruido” se utiliza comúnmente para denominar aquellas señales que perturban la
transmisión y procesamiento de señales en los sistemas de comunicación y sobre las cuales no se
tiene un control completo.
El ruido que afecta a un sistema de comunicación se clasifica en categorías dependiendo de
su origen. Cuando el ruido proviene de los componentes del sistema tales como resistencias, tubos
al vacío y dispositivos de estado sólido, se conoce como “ruido interno”. La segunda categoría de
ruido resulta de fuentes externas al sistema de comunicación e incluye el ruido atmosférico,
extraterrestre y el producido por el hombre; es el “ruido externo”.
El ruido externo lo podemos clasificar, someramente, en los siguientes tipos:
1. Ruido Atmosférico. Producido por descargas eléctricas asociadas a las tormentas. Se
conoce comúnmente como “estática”. Por debajo de los 100 MHz, la intensidad de
campo es inversamente proporcional a la frecuencia. En el dominio del tiempo se
caracteriza por impulsos de gran amplitud y poca duración; es un ruido de tipo
impulsivo. Afecta más a la banda de frecuencias medias (radiodifusión) que a la banda
de FM o TV. En la transmisión de datos es de particular importancia.
2. Ruido Extraterrestre. Incluye el debido al sol y otros cuerpos calientes del firmamento.
Debido a su alta temperatura y proximidad a la tierra, el sol es una fuente intensa, pero
afortunadamente localizada, de energía radiante en una amplia gama de frecuencias. Las
estrellas son fuentes de energía radiante de banda ancha, que aunque más distantes y por
ende menos intensas, por ser más numerosas son colectivamente importantes como
fuentes de ruido. Radioestrellas, tales como quasares y pulsares, también contribuyen al
ruido cósmico que en conjunto se extiende desde unos cuantos MHz hasta unos cuantos
GHz.
3. Ruido producido por el hombre. Incluye las descargas por efecto corona en líneas de
alta tensión, el producido por motores eléctricos, sistemas de diatermia, ruido de
conmutación, etc. El ruido de conmutación y de sistemas de ignición es del tipo
impulsivo tal como el ruido atmosférico. El debido al alumbrado fluorescente es un ruido
muy frecuente en nuestro medio ambiente.
Ancho de Banda y Potencia de Transmisión
En los sistemas de transmisión existen dos parámetros de gran importancia: el ancho de
banda del canal y la potencia transmitida. Los sistemas de comunicación deben diseñarse entonces
para utilizar estos dos recursos en la forma más eficiente posible. En general, es difícil optimizar
ambos recursos simultáneamente, pues en la mayoría de los canales de comunicación un recurso
264
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

puede considerarse más importante o más escaso que otro. Se puede, por lo tanto, clasificar los
canales como “limitados en potencia” o “limitados en ancho de banda”. Por ejemplo, los canales
telefónicos son canales limitados en ancho de banda, mientras que un canal de microondas lo es en
potencia. La meta ideal en el diseño de un sistema de comunicación es la de transmitir información
a la máxima velocidad con el mínimo de potencia y ancho de banda. La utilización óptima y
eficiente de estos recursos es el principal objetivo en el diseño de los sistemas de comunicación
prácticos.
Los sistemas de modulación que estudiaremos más adelante utilizan esos recursos en forma
más o menos eficiente, dependiendo de la aplicación. En efecto, veremos que el ancho de banda y la
potencia de transmisión se pueden intercambiar, es decir, se puede aumentar el ancho de banda pero
a expensas de una reducción en la potencia, y viceversa. Este intercambio “Ancho de Banda-
Potencia” lo estudiaremos con más detalle posteriormente.
4.3. CONCEPTO Y MEDIDA DE LA INFORMACION
Hemos dicho que el propósito de un sistema de comunicación es el de transmitir
información. Sin embargo, no se ha especificado lo que realmente significa el término
“información” y mucho menos cómo se puede cuantificar. Todos tenemos un concepto más o
menos intuitivo de lo que es información, pero no conocemos los medios para medirla. Lo que sí
sabemos es que lo que ya conocemos no nos proporciona ningún nuevo conocimiento; sólo aquello
que ignoramos nos aporta alguna información al conocerlo. Esta es la esencia intuitiva de la
información.
En 1949, Claude Shannon propuso algunas definiciones básicas acerca de la información y
la velocidad de transmisión a la cual se puede transmitir sin error [Shannon, 1949]. Este trabajo,
más otros desarrollos afines, dio origen a la Teoría de la Información. Esta es una disciplina
altamente matemática y con aspectos que todavía no han sido instrumentados en la práctica. Sin
embargo, ciertos aspectos significativos de la teoría han sido aplicados exitosamente en sistemas
prácticos, y algunos de los conceptos fundamentales los veremos a continuación.
Consideremos un suceso A cualquiera. Cuanto menos se sepa de un suceso mayor será,
digamos, nuestra sorpresa al conocer la realización del mismo. La ignorancia en cuanto al suceso es
simplemente la incertidumbre que se tiene acerca de él. Al realizarse el suceso, la incertidumbre se
convierte en certeza y hemos obtenido un conocimiento o recibido una información. Por
consiguiente, podemos decir que
Cantidad de Incertidumbre = Cantidad de Información (4.1)
Por otro lado, la magnitud de la incertidumbre depende del grado de probabilidad de
ocurrencia del suceso A. Cuanto mayor sea la probabilidad de ocurrencia del suceso, menor será
nuestra incertidumbre. En consecuencia, podemos decir que la incertidumbre acerca del suceso A es
función de la probabilidad de que dicho suceso ocurra.
Sea entonces
U(A) = Incertidumbre acerca del suceso A
I(A) = Información adquirida al realizarse el suceso A
PA = Probabilidad de ocurrencia del suceso A
Podemos escribir entonces de (4.1) que
U(A) = I(A) = f(PA) (4.2)
265
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

En este sentido, la información es una medida de la incertidumbre. Por lo tanto, la infor-


mación asociada con el conocimiento de que un suceso dado ha ocurrido, es una función de la
probabilidad de ocurrencia de ese suceso. Se trata entonces de hallar la relación funcional f(PA).
La relación funcional f(PA) se puede elegir dentro de una clase bastante grande de
funciones, pero solamente algunas son de interés práctico en las aplicaciones. Una condición
esencial que la relación funcional f(PA) debe satisfacer, es la aditividad. En efecto, si se considera
que el suceso A está formado por la intersección de dos sucesos independientes B y C cuyas
probabilidades son PB y PC, respectivamente, entonces
Si A = BC, f (PA ) = f (PB ) + f (PC ) (4.3)
La información es una magnitud positiva, de donde
f (PA ) ≥ 0 donde 0 ≤ PA ≤ 1 (4.4)
La probabilidad de un suceso cierto es 1, pero la información o incertidumbre será 0; de
modo que podemos escribir
lim f ( PA ) = 0 (4.5)
PA →1

Por último, si la probabilidad de un suceso A es menor que la probabilidad de un suceso B,


debe verificarse que
f (PA ) > f (PB ) para PA < PB (4.6)
Hartley demostró [Hartley, 1928] que la única relación funcional que satisface las
condiciones (4.3) a (4.6) es una función logarítmica de la forma
1
f (PA ) = log b = − log b PA (4.7)
PA
La unidades o dimensiones de la cantidad de información dependen de la base del
logaritmo. La solución más sencilla es aquella cuando se selecciona uno de dos mensajes o
símbolos, en cuyo caso b = 2. La unidad de información se denomina entonces “bit” (contracción
inglesa de “binary digit”) y fue propuesta por J. W. Tukey en 1946. Por consiguiente,
1
I(A) = log 2 = − log 2 PA bits (4.8)
PA
I(A) es la cantidad de información, en bits, asociada con un suceso A cuya probabilidad de
ocurrencia es PA.
Si fuera necesaria otra base (por ejemplo, b = e si la función se va a diferenciar o integrar, o
b = 10 para cálculos numéricos), la información se puede mantener expresada en bits mediante la
fórmula
1
log 2 N = log b N (4.9)
log b 2

En particular, para b = 10, log2 N ≈ 3,322 log10 N (4.10)


266
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Nótese que la “información”, en el sentido de la teoría de la información, no tiene nada que


ver con el significado o sentido inherente en un mensaje. Es mas bien un grado de orden, o de no
aleatoriedad, que se puede medir y ser tratado matemáticamente en la misma forma como lo son la
masa, la energía o cualquiera otra cantidad física. La caracterización matemática de un sistema de
comunicación generalizado ha producido un cierto número de aspectos importantes, entre los cuales
se tiene:
1. La información promedio contenida en un mensaje dado.
2. La velocidad a la cual una fuente produce la información.
3. La capacidad de un canal para manejar o transportar esa información
4. La codificación de los mensajes para optimizar los tres aspectos anteriores.
Estos aspectos los trataremos brevemente en el presente capítulo.

4.4. CARACTERIZACION DE LA INFORMACION


4.4.1. Entropía
La cantidad de información definida en la ecuación (4.8) ha sido obtenida para un solo
mensaje y no es apropiada para describir una fuente que produce un conjunto de diferentes
mensajes. Un sistema de comunicación no está diseñado para la transmisión de un mensaje
particular sino para la transmisión de todos los mensajes posibles producidos por una fuente. En
este contexto, la cantidad de información definida en (4.8) es inadecuada excepto en las
circunstancias más simples. Por ejemplo, sean tres mensajes A, B y C posibles; si los dos primeros
fueran utilizados en promedio 10 veces por hora, y si el tercer mensaje se usara solamente una vez a
la semana, entonces la cantidad de información asociada con los mensajes sería más cercana a
log2 2 bits que a log2 3 bits. Es decir, el “número efectivo” de mensajes disponible es más cercano a
2 que a 3. Por consiguiente, cuando el flujo instantáneo de información producido por una fuente es
aleatorio, es mejor describir la fuente en términos de la “información promedio” producida.
Consideremos una fuente discreta que produce N símbolos o mensajes {x1, x2, x3, ..., xN}
distintos e independientes, con probabilidades de ocurrencia correspondientes {P1, P2, P3, ....,
PN}, donde Pi ≠ Pj , i ≠ j. Desde un punto de vista probabilístico, el conjunto discreto de N
símbolos o mensajes producidos por la fuente se puede considerar como un proceso aleatorio
discreto; es entonces un conjunto de N variables aleatorias, cada una de las cuales toma valores en
el conjunto {x1, x2, x3,..,xN} con probabilidades {P1 , P2 , ......., PN}.
De la definición de la probabilidad, debe cumplirse que
N
∑P n =1 (4.11)
n =1

De acuerdo con la ecuación (4.8), cuando se transmite un mensaje cualquiera x j , la


información asociada es Ij = log2(1/Pj) bits. Supongamos que se transmite una larga secuencia de L
mensajes o símbolos, donde L >> 1. En esta secuencia, el símbolo j-ésimo ocurrirá
aproximadamente LPj veces y la información asociada será LPjIj bits. La información total
contenida en la secuencia será, aproximadamente,
N
I t = LP1 I 1 + LP2 I 2 + LP3 I 3 +...... LPN I N = L ∑ Pj log 2 P1j bits (4.12)
j=1
267
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

La información promedio, en bits por símbolo (bits/símb), será entonces la información


total de la secuencia dividida por el número de símbolos de la misma. Esta información promedio
normalmente se representa con la letra H. En efecto, de (4.12),
N
∑Pj log 2 P1j
It
H= = bits/símbolo (4.13)
L j=1

Esta es la “Entropía de la Fuente”, como la denominó Shannon. La deducción de la


ecuación (4.13) que hemos presentado es, hasta cierto punto, empírica; la deducción rigurosa,
realizada por Shannon, se puede encontrar en la Bibliografía [Shannon, 1949].
La entropía de la fuente, o información promedio asociada con la fuente, significa que
aunque no se pueda decir con certeza qué mensaje se va a producir, se espera obtener en promedio
H bits de información por mensaje, o LH bits en una secuencia de L mensajes, si L es grande. Por
otro lado, podemos considerar a H como el número mínimo de preguntas que se pueden establecer
para determinar qué mensaje particular se ha producido o se va a producir.
Se puede demostrar [Ziemer y otros , 1976] que H es máxima cuando las probabilidades de
ocurrencia de los símbolos son iguales, es decir, cuando P1 = P2 = P3 = ...... = PN = 1/N.
En este caso, HMAX = log2 N (4.14)
En consecuencia, la entropía está acotada por
0 ≤ H ≤ log2 N (4.15)
donde N es el número de símbolos o mensajes producidos por la fuente.
Nótese que cuando los símbolos o mensajes son equiprobables, la información promedio
asociada con la fuente es máxima.
♣ Ejemplo 4.1. Entropía de una Fuente Binaria.
Sea una fuente binaria (N = 2). Las probabilidades de los símbolos son p y (1 − p) ,
respectivamente. Por consiguiente,

1 1
H = p log 2 ( ) + (1 − p) log 2 ( ) H(bits)
p 1− p 1
En la Fig. 4.2 se grafica H vs p
Nótese que si p = ½, entonces H = 1 bit, p
valor que corresponde al pico de la curva. 0 0,5 1

♣ 4.2. Entropía de una Fuente Binaria


♣ Ejemplo 1.2.

Una fuente produce cuatro símbolos A, B, C y D cuyas probabilidades son, respectivamente,


0,5; 0,25; 0,125 y 0,125. La entropía de la fuente será
H = 0,5 log 2 2 + 0,25 log 2 4 + 2x 0,15 log 2 8 = 1,75 bits/símbolo
Si los símbolos fueran equiprobables, esto es, si p = ¼, entonces
H = log 2 4 = 2 bits/símbolo
268
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Nótese que la entropía H es máxima cuando los símbolos son equiprobables.



♣ Ejemplo 4.3.
Consideremos la información producida por una máquina de escribir de 26 letras y el
espacio entre letras; en otras palabras, la fuente produce 27 símbolos.
Si todos los símbolos tuvieran la misma probabilidad, HMAX = log2 27 = 4,755 bits/letra.
Esta es la máxima información que la máquina de escribir puede generar. Pero en el idioma español
las letras tienen diferentes probabilidades de ocurrencia en un texto. Por ejemplo, la letra E es la que
ocurre con más frecuencia. Se ha determinado experimentalmente que la información promedio
asociada con una letra es de aproximadamente 4,2 bits. Asimismo, una palabra tiene, en promedio,
5 letras y un contenido de información de 9,3 bits. ♣
♣ Ejemplo 4.4.
Se manipula un dado de tal manera que la probabilidad de que salga un UNO o un SEIS es
el doble de la correspondiente a cada una de las otras cuatro caras. Vamos a determinar la entropía
asociada con el dado.
Solución
Sea p la probabilidad de sacar un UNO o un SEIS. Debe verificarse, de acuerdo con (4.11),
que
1 1 1 1
p+p+ p+ p+ p+ p = 1, de donde p = ¼
2 2 2 2
1 1
H=2 log 2 4 + 4 log 2 8 = 2 ,5 bits/cara
4 8
Si el dado fuera correcto, H = log2 6 = 2,59 bits/cara

4.4.2. Velocidad de Información
En los sistemas de comunicación es de especial importancia conocer la cantidad de
información que se produce o se transfiere por unidad de tiempo, es decir, la velocidad de la
información.
Sea una fuente que produce N símbolos distintos e independientes a una velocidad de Vs
símbolos por segundo. Si suponemos que los símbolos tienen todos la misma duración T, entonces
1
Vs = símbolos/segundo (4.16)
T
La velocidad de información será entonces
N

∑ P log
1 1
Vi = Vs H = j 2 bits/seg (bps) (4.17)
T Pj
j=1

1
y si los símbolos son equiprobables, Vi = Vs log 2 N = log 2 N bps (4.18)
T
269
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Algunos autores llaman a la velocidad de información “rata o tasa de información” (del


inglés “rate”); pero, en este contexto, la palabra “rata” en español significa “porcentaje” o “parte
proporcional”. Nosotros emplearemos los términos “velocidad de información” o “velocidad de
transmisión” indistintamente.
♣ Ejemplo 4.5.
Los símbolos de la fuente del Ejemplo 4.2 se producen a una velocidad de 1000 símbolos
por segundo. La velocidad de información de la fuente será
a) Si los símbolos tienen diferentes probabilidades
Vi = Vs H = 1000 x 1,75 = 1750 bps
b) Si los símbolos son equiprobables, Vi = Vs log2 4 = 2000 bps
Nótese nuevamente que la velocidad de información es máxima cuando los símbolos son
equiprobables. ♣
4.4.3. Codificación de Canal
Hemos dicho que, en general, los símbolos tal como salen de la fuente pueden no ser
apropiados para ser transmitidos por un canal dado. Es necesario, pues, efectuar una conversión o
adaptación de los símbolos en formas compatibles con el medio de transmisión; ésta es la
codificación de canal, denominada también “codificación de fuente”. Una clase muy importante de
conversor es aquella que convierte los símbolos producidos por la fuente en secuencias de impulsos
discretos, de gran interés en los sistemas de procesamiento y transmisión digital de señales. Hay
muchos métodos de codificación digital de canal; sin embargo, sin perder generalidad, vamos a
suponer un sistema mediante el cual cada símbolo o mensaje se transforma en una secuencia
particular de n impulsos con m amplitudes, secuencia que denominaremos “muestra codificada o
palabra codificada” y el conjunto de palabras codificadas forman una secuencia aleatoria binaria, en
el sentido visto en la Sección 3.9 del Capítulo III. Esta transformación se denomina comúnmente
“conversión” o “codificación” y el dispositivo que la efectúa, “convertidor” o “codificador”. Como
se considera que el codificador no tiene memoria, la duración de la muestra codificada debe ser,
como máximo, igual a la duración de cada símbolo a fin de no perder información. Las secuencias
aleatorias binarias en los sistemas de modulación de impulsos y los códigos de línea, que se verán
en el Capítulo V, son formas de codificación de canal.
En sistemas de procesamiento y transmisión de señales digitales, se utilizan secuencias
binarias (m = 2) que contienen 8 impulsos (n = 8). Esta secuencia binaria de 8 impulsos se
denomina comúnmente “byte” u “octeto” (En la práctica 1 Kbyte = 1024 bytes, para diferenciarlo
de 1 kbyte = 1000 bytes). Otros tipos de codificación binaria de canal son los Códigos Baudot y
ASCII, que veremos más adelante. En la práctica hay muchos códigos que emplean secuencias
multinivel o m-arias y esquemas para la detección y corrección de errores, como veremos en los
Capítulos V y VI. Para más detalles sobre estos códigos, el lector puede consultar la bibliografía
especializada.
Sea entonces, Fig. 4.3(a), una fuente discreta sin memoria que produce N símbolos distintos
e independientes, que podemos suponer equiprobables, a una velocidad Vs = 1/T símbolos/segundo.
Los símbolos se codifican, cada uno, en secuencias de n impulsos con m amplitudes, como se
muestra en la Fig. 4.3(b).
270
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

n Impulsos de Información
Fuente de
Información

m Niveles
o
Reloj Codificador
Amplitudes 1 2 3 4 5 n
t

Salida τ
(a) Codificada (b) T
M uestra Codificada

Fig. 4.3. Codificación en Secuencias de Impulsos


A la salida de la fuente de información la velocidad de transmisión es, de la expresión
(4.18),
1
Vif = log 2 N (4.19)
T
Asimismo, a la salida del codificador la información total contenida en la muestra
codificada es la suma de la información contenida en cada impulso (propiedad aditiva de la
información), es decir,
I = n log 2 m = log 2 m n bits (4.20)
La velocidad de información a la salida del codificador será
n log 2 m 1
Vic = = log 2 m n bps (4.21)
T T
Como se supone que el sistema no tiene memoria (elementos de almacenamiento), la
velocidad de información será la misma en todos los puntos a lo largo del sistema, es decir,
Vi = Vif = Vic
de modo que, de (4.19), (4.20) y (4.21),
N = mn m y n enteros (4.22)
Esta expresión, que denominaremos “relación de conversión o de codificación”, es de gran
utilización en los sistemas digitales de transmisión de información, pues relaciona los parámetros m
y n del codificador con el número N de símbolos producidos por la fuente.
Nótese que la relación (4.22) es independiente de T, lo que significa que la relación entre m,
n y N es válida para cualquier sistema con o sin memoria, y para cualquiera velocidad de
información.
♣ Ejemplo 4.6.
Una fuente de información produce 256 símbolos, que suponemos independientes y
equiprobables, a una velocidad de 100 símbolos por segundo. Si cada símbolo se codifica en
secuencias de n impulsos con m amplitudes, vamos a determinar la velocidad de información y los
valores posibles de m y n.
271
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Solución
La velocidad de información es Vi = 100 log 2 256 = 800 bps. Las combinaciones de m y n
que satisfacen la expresión (4.22), es decir, 256 = m n , son
m = 2 y n = 8 (caso binario); m=4 y n=4

4.4.4. Velocidad de Modulación
En general, los codificadores son dispositivos comandados por un reloj, de modo que los
impulsos tienen todos la misma duración τ. De la Fig. 4.4, T = nτ y la expresión (4.21) queda en
la forma siguiente
1
Vi = log 2 m = Vb log 2 m bps (4.23)
τ
1
donde Vb = (4.24)
τ
Vb es el número de impulsos por segundo; se conoce con el nombre de “velocidad de
modulación” o “velocidad de señalización”, y se expresa en baudios, en honor del ingeniero
francés Emile Baudot.
En un sistema binario, m = 2 y la expresión (4.23) queda en la forma
V i = Vb (4.25)
Esto significa que en un sistema binario la velocidad de información y la velocidad de
modulación son numéricamente iguales. Este resultado es válido si la codificación se ha efectuado
en la forma mostrada en la Fig. 4.4, es decir, sin redundancia agregada, como veremos después del
siguiente ejemplo.
♣ Ejemplo 4.7.
Se puede ahora calcular la velocidad de modulación de las muestras codificadas del
Ejemplo 4.6. En efecto,
1
Vs = 100 símb/seg = ; T = 10 ms
T
T 1
a) n = 8; τ1 = = 1,25 ms; Vb1 = = 800 baudios
8 τ1

T 1
b) n = 4; τ2 = = 2,5 ms; Vb2 = = 400 baudios
4 τ2

4.4.5. Redundancia Agregada
En el sistema mostrado en la Fig. 4.3 se supone que en el extremo receptor se sabe cuándo
comienza y cuándo termina cada secuencia de impulsos. Sin embargo, en algunos sistemas
denominados “asincrónicos” es necesario enviar impulsos adicionales para indicar el principio o el
fin (o ambos) de cada muestra codificada a fin de que se pueda efectuar con exactitud el proceso de
descodificación, esto es, la reconversión de las secuencias de impulsos codificados en símbolos de
significación para el usuario final de la información. También puede agregarse otros impulsos para
272
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

control y detección de errores, extracción de la temporización, etc., que tampoco llevan información
útil. Todos estos impulsos adicionales se denominan “impulsos redundantes” o “redundancia
agregada”.
Es evidente que los impulsos de redundancia más los impulsos de información deberán
estar contenidos dentro del mismo tiempo T si no se quiere perder información (se supone que el
sistema no tiene elementos de almacenamiento). Sea entonces una muestra codificada a la cual se le
han agregado dos impulsos de duración pτ‘ y qτ‘, que llamaremos impulsos de “arranque” y
“pare”, respectivamente; p y q son, con algunas excepciones (por ejemplo, el Código Baudot,
mostrado en la Fig. 4.13(a)), números enteros pues suponemos que el codificador está controlado
por un reloj. Esta situación se muestra en la Fig. 4.4; la polaridad, amplitud y duración de los
impulsos de arranque y pare son arbitrarias pero fijas.
De la Fig. 4.4, T = (n + p + q)τ‘, de donde
n log 2 m n
Vi = = Vb' log 2 m bps (4.26)
(n + p + q )τ ' n+p+q
Puesto que la velocidad de información no ha variado,
τ' < τ y Vb' > Vb (4.27)

n Impulsos de Información

m Niveles Pare
o
Amplitudes n
1 2 3 4 5 6
τ, qτ,
Arranque
pτ,
T
Fig. 4.4. Muestra Codificada Con Impulsos Redundantes

Considerando entonces los impulsos redundantes agregados, la velocidad de información


vendrá dada (eliminando el índice de Vb ' ) por
Vi = KVb log 2 m (4.28)
n
donde K= <1 es la “relación entre el número de impulsos de información y el
n+p+q
número total de impulsos de la muestra codificada”. El valor de K (como un porcentaje K%) es
una medida del rendimiento o eficiencia de la codificación (Ver Problema de Aplicación 4.33).
En el caso binario, m = 2, de donde Vi = KVb (4.29)
o también Vi < Vb
La velocidad de información ya no es igual a la velocidad de modulación debido a los
impulsos redundantes. Sin embargo, la velocidad de modulación ha aumentado, lo cual impone
restricciones más severas sobre el canal, como veremos más adelante.
273
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

En general, cuando los impulsos (de información o redundantes) tienen diferente duración,
la velocidad de modulación se define respecto al impulso de menor duración presente en la muestra
codificada.
♣ Ejemplo 4.8. Código ASCII o Alfabeto Internacional N° 5 de la UIT-T
En este tipo de codificación binaria cada carácter alfanumérico se codifica como se muestra
en la Fig. 4.5: un impulso de arranque siempre a CERO, siete impulsos de información, un impulso
de paridad (para gestión o control de error) y un impulso de pare de duración variable (hasta 2τ)
siempre a UNO. En el Apéndice B-5 se especifica este código en detalle; ver también la Fig.
4.13(b).

0 1 0 1 0 1 0 1 0 1 1
a b c d
T

a: Impulso de Arranque (siempre a "0"); b: Impulsos de Información


c: Impulso de Paridad (detector de error); d: Impulsos de Pare (siempre a "1")

Fig. 4.5. Letra U codificada en ASCII con bit de paridad.

En transmisión por teletipo, por ejemplo, los caracteres ASCII fluyen a una velocidad de 10
caracteres por segundo. Por ejemplo, en la Fig. 4.5 se muestra la letra U en ASCII. Entonces,
Vs = 10 caracteres/seg.; T = 1/10 = 100 ms = 11τ; n = 7; m = 2; K=7/11; K% = 64%
1
Velocidad de Modulación: Vb = = 110 baudios
τ
7
Velocidad de Información: Vi = 110 log 2 2 = 70 bps
11
Número de Caracteres de la Fuente: N = 2 7 = 128 caracteres

4.5. CARACTERIZACION DEL CANAL
4.5.1. Ancho de Banda del Canal
La velocidad de modulación, definida como el inverso de la duración del intervalo unitario
o del impulso de menor duración, es un parámetro de naturaleza eléctrica de gran importancia en la
caracterización de sistemas de transmisión de señales digitales. A este efecto, vamos a desarrollar
en forma intuitiva algunas ideas acerca del efecto que experimenta un impulso a su paso por un
canal y lo relacionaremos con la velocidad de modulación.
Desde el punto de vista eléctrico, el canal se puede considerar como un filtro que deja pasar
solamente aquellas componentes de señal que están comprendidas dentro de su banda de paso o
ancho de banda. Vamos a considerar un canal ideal, es decir, un canal que no introduce ninguna
atenuación o distorsión. Supongamos que el ancho de banda del canal se puede variar y que a su
274
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

entrada se aplican impulsos de duración decreciente. Para un ancho de banda B1 y un impulso de


entrada de duración τ1 , la Salida 1 tendrá, por ejemplo, la forma dada en la Fig. 4.6, que tomaremos
como referencia. Ahora se aplica un impulso de duración τ2 < τ1 ; la Salida 2 saldrá deformada
como se muestra en la figura. Para que la Salida 2 tenga la forma aproximada de la Entrada 2, hay
que aumentar el ancho de banda del canal a un valor B2 > B1 . Nuevamente se aplica un impulso de
duración τ3 < τ2 < τ1 , obteniéndose, por ejemplo, la Salida 3. Para que la Salida 3 vuelva a la
forma aproximada de la Entrada 3, hay que aumentar el ancho de banda del canal a un valor
B3 > B2 > B1.

Puede observarse que la “fidelidad” de la salida depende tanto de τ como de B. Esto


sugiere que entre la duración τ del impulso y el ancho de banda B del canal existe una relación de la
forma
k
B= (4.30)
τ
donde k depende de la fidelidad requerida a la salida; aquí suponemos que la relación entre τ y B es
una relación inversa. En los sistemas de transmisión digital o radar la fidelidad no tiene mucha
importancia y lo que se desea es detectar una “presencia” en la salida o una reproducción tosca de la
entrada. El valor mínimo teórico de k es 0,35, pero en la práctica se utiliza k = 1, es decir,
1
B≥ (4.31)
τ
Demostramos en el Ejemplo 1.19, Capítulo I, que si B = 1/τ , donde τ es la duración del
impulso de entrada, el canal dejará pasar el 90% de la energía contenida en el impulso de entrada, y
la salida será parecida a la entrada. Debido a esto, la expresión (4.31) es de gran utilización en la
caracterización de sistemas de transmisión de impulsos y la emplearemos con bastante frecuencia.
Es evidente que si se desea una gran fidelidad, el valor de k deberá ser mucho mayor que la unidad.
Cuando es necesario preservar la forma de la señal transmitida, el ancho de banda B del
canal se define en función del “tiempo de alzada tr (rise time)” de la señal de entrada en la forma
k
B= (4.31a)
tr
donde k es igual a 0,35 ó 0,5, dependiendo de la definición de tr . En este texto, cuando se
utilice el tiempo de alzada, usaremos k = 0,5 (definido en el Ejemplo 2.19), es decir,
275
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

1
B≈ (4.31b)
2t r
Puede observarse que las expresiones (4.24) y (4.31) tienen la misma forma, pudiéndose
escribir que
Vb = B n (4.32)
Esta expresión se puede interpretar en el sentido siguiente:
Una secuencia de impulsos cuya velocidad de modulación es Vb , puede transmitirse sin
perder información por un canal ideal con un ancho de banda mínimo Bn numéricamente igual a Vb.
Es evidente que si Vb < B, donde B es el ancho de banda real del canal, no habrá problemas
en la recuperación de la información. Sin embargo, si Vb > B, se perderá información y habría que
buscar otros medios para evitar esa pérdida, como veremos en la sección siguiente. En general,
debe verificarse que B ≥ Vb para no perder información.

♣ Ejemplo 4.9.
Sea una fuente que produce N símbolos independientes y equiprobables, los cuales se han
codificado en la forma mostrada en la Fig. 4.7: cinco impulsos cuaternarios con impulsos de
arranque y pare. La velocidad de modulación es de 10 kbaudios.
Hay 4 niveles de información: -3, -1, 1 y 3; entonces, n = 5; m = 4 y N = 4 5 = 1024
símbolos.
Información asociada a la fuente: I = log 2 1024 = 10 bits/símbolo
1 10
K = 5/10 = 0,5 ; K% = 50%; T = 10τ ; = Vb = 10 4 = ; T = 10 −3 seg.
τ T
1
Velocidad de la Fuente: Vs = = 1000 símbolos por segundo
T
1
Velocidad de Información: Vi = 10 4 log 2 4 = 10 4 bps
2
Ancho de Banda Mínimo del canal: Bn = Vb = 10 kHz

Arranque Información Pare


3
2
1
0
-1
-2 τ 3τ
-3

T

Fig. 4.7.

La información producida por esta fuente en un tiempo Tt es: It = Vi Tt ; si por ejemplo


Tt = 3600 seg , en una hora se producirán I t = 10 4 x3600 = 3,6x10 7 bits. Nótese que si se
276
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

disminuye a la mitad la duración de los impulsos de arranque y pare, la velocidad de modulación no


cambia pero la velocidad de información aumenta. El lector puede calcular este nuevo valor.

♣ Ejemplo 4.10. Estimación de la Pérdida de Información en un Canal
La señal codificada del Ejemplo 4.9 se transmite por un canal de 5 kHz. Como Vb > 5000,
es evidente que habrá pérdida de información. Vamos a cuantificar esta pérdida de información.
De acuerdo con (4.28) y (4.32), un canal de ancho de banda B puede soportar una velocidad
de información máxima dada por
Vi' = KB log 2 m bps (4.33)

La información transmitida por el canal en un tiempo Tt será I t = Vi' Tt bits. Pero en el


mismo tiempo Tt la fuente ha producido I f = Vi Tt bits, de modo que puede decirse que la
información perdida en el proceso, en bits, viene dada por
I p = I f − I t = (Vi − Vi' ) Tt

y de (4.28) y (4.33), I p = [ K( Vb − B) log 2 m] Tt bits para Vb > B (4.34)

Si se define Vp como la velocidad promedio a la cual se pierde información, en bits perdidos


por segundo, se tendrá de (4.34),
Ip
Vp = = K( Vb − B) log 2 m bits perdidos por segundo para Vb > B (4.35)
Tt
Si el sistema es binario y no tiene impulsos redundantes, m = 2 y K = 1,
Vp = Vb − B bits perdidos por segundo para Vb > B (4.36)

En nuestro ejemplo se perderá información a una velocidad de

Vp =
1
2
[ ]
10x10 3 − 5x10 3 log 2 4 = 5x10 3 bits perdidos por segundo


4.5.2. Capacidad del Canal
Definición
Para definir una medida de la eficacia con la cual un canal transmite información y para
determinar su límite superior, Shannon introdujo el concepto de “capacidad de un canal”, que
comúnmente se representa con la letra C.
El Teorema Fundamental de Shannon establece que si la velocidad de información Vi de la
fuente es igual o menor que la capacidad C del canal, entonces existe una técnica de codificación
que permite la transmisión sobre el canal con una frecuencia de errores arbitrariamente pequeña, no
obstante la presencia de ruido. Es decir, si
0 < Vi ≤ C (4.37)
se puede transmitir sin error, pero si Vi > C entonces no es posible transmitir sin error.
La capacidad del canal es entonces la máxima velocidad a la cual el canal puede transportar
información confiable hasta el destinatario. La capacidad C se expresa en bits por segundo (bps).
277
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Algunas veces el comportamiento del canal se puede caracterizar mediante las relaciones o
definiciones siguientes:
• Redundancia del Canal, Rc
R c = C − Vi Rc ≥ 0 (4.38)
• Redundancia Relativa, ρc
Rc V
ρc = = 1− i (4.39)
C C
• Rendimiento del Canal, ηc
Vi Vi
ηc = ó ηc % = 100 (4.40)
C C
También, ηc = 1 − ρc donde ηc ≤ 1 (4.41)
• Rendimiento del Canal respecto al Ancho de Banda, ηB
Vi
ηB = ηB se expresa en bps/Hz (4.42)
B
Canal sin Ruido
Consideremos primero un canal ideal sin ruido sobre el cual se va a transmitir N símbolos
distintos que supondremos independientes y equiprobables. La cantidad de información máxima de
la fuente es log 2 N bits y si cada símbolo tiene una duración T, la capacidad mínima del canal será
1
C = log 2 N = Vs log 2 N bps (4.43)
T
La capacidad C del canal se puede expresar también en términos de los parámetros del
codificador y del mismo canal. En efecto, si los símbolos han sido codificados en secuencias de n
impulsos de m amplitudes, entonces de (4.21) y (4.28),
1 n
C= log 2 m n = log 2 m = KVb log 2 m bps (4.44)
T T
Sin embargo, de acuerdo con (4.32), Vb es también, numéricamente, el ancho de banda
mínimo necesario para transmitir los impulsos sin distorsión excesiva. Podemos entonces
reemplazar en (4.44) Vb por B, el ancho de banda real del canal, con lo cual obtenemos finalmente
que
C = KB log 2 m bps (4.45)
Como el ancho de banda B del canal generalmente es fijo, la capacidad C dada por (4.45) se
puede aumentar incrementando el número de niveles m de los impulsos o mediante una codificación
equivalente. Como el número de símbolos N es constante, un aumento en m implica una
disminución en el número de impulsos de información. Como consecuencia, la velocidad de
modulación disminuye y la exigencia sobre el canal disminuye también. Son las técnicas de
codificación apropiadas las que en definitiva permiten aumentar la capacidad del canal, como bien
lo expresa el Teorema Fundamental de Shannon. Para más información sobre estos tipos de
codificación de canal, ver la bibliografía especializada.
278
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

De (4.28), (4.37) y (4.45),


B ≥ Vb (4.46)
En consecuencia, en un canal ideal sin ruido el ancho de banda del canal debe ser
numéricamente igual o mayor que la velocidad de modulación para que no haya pérdida de
información, con lo cual reafirmamos la expresión (4.31).
Las expresiones (4.43) a (4.45) deben ser aplicadas con cautela. No hay que olvidar que
ellas se aplican fundamentalmente a un canal ideal sin ruido lo cual está muy lejos de la realidad.
Por ejemplo, un canal telefónico tiene un ancho de banda efectivo de 3,2 kHz; de acuerdo con
(4.43) a (4.45), con una codificación adecuada se podría aumentar indefinidamente la capacidad del
canal, pero en la práctica se llega normalmente a 9600 bps. Con técnicas más sofisticadas de
codificación, modulación y acondicionamiento del canal, se ha llegado a 14400 bps con una
velocidad de modulación máxima de 2400 baudios; velocidades superiores solamente se obtienen
mediante control de error y compresión de datos. Sin embargo, el límite teórico para la capacidad de
este canal es superior, como lo vamos a ver más adelante.
Canal con Ruido
La capacidad de un canal disminuye como consecuencia de los errores incurridos en la
transmisión causados por señales perturbadoras o ruido, y como consecuencia se produce una
pérdida de información.
Si el canal tiene un ancho de banda B, la potencia promedio de la señal transmitida es S, y
la potencia promedio del ruido en el canal es N, entonces la capacidad del canal en presencia de
ruido aditivo y gaussiano viene dada por
S
C = Blog 2 (1 + ) bps (4.47)
N
A este resultado se le llama la “Ecuación de Hartley-Shannon”, en reconocimiento al
trabajo pionero de Hartley y a la deducción rigurosa hecha por Shannon [Teorema N° 2, Shannon,
1949].
La ecuación de Hartley-Shannon proporciona el límite superior para la transmisión de
información confiable por un canal ruidoso, y relaciona los tres parámetros de importancia en un
canal: el ancho de banda del canal, la potencia promedio de la señal útil y la potencia promedio de
la señal perturbadora. Aunque la ecuación ha sido deducida para un canal gaussiano, ella es de gran
importancia en los sistemas de comunicación porque muchos canales prácticos se pueden modelar
como un canal gaussiano. Además, ha sido demostrado que el resultado obtenido para el canal
gaussiano proporciona una cota superior en el funcionamiento de un sistema que opera sobre un
canal no gaussiano. Esto quiere decir que si una codificación dada tiene una probabilidad de error
Pe operando sobre un canal gaussiano, cuando opera sobre un canal no gaussiano la probabilidad
de error será menor que Pe. Por otro lado, Shannon ha demostrado que el ruido gaussiano es el peor
ruido entre todos los ruidos posibles, y que la potencia del ruido gaussiano dentro de un ancho de
banda dado es también la más alta de todos los ruidos posibles.
Cuando el ancho de banda de un canal está limitado, sea por sus propias características
físicas o por regulaciones y normas técnicas, es necesario elegir un esquema de codificación de
canal que optimice el rendimiento η B del canal con la mínima probabilidad de error y el menor
costo posible. De las expresiones (4.42) y (4.47), el rendimiento máximo de un canal viene dado
entonces por
279
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

C S
η Bmax = = log 2 (1 + ) bps/Hz (4.48)
B N
La teoría de Shannon no especifica cuál es el mejor esquema de codificación que permite
alcanzar este rendimiento máximo, pero sí establece que para transmitir sin error los símbolos o
muestras codificadas deben poseer una cierta redundancia. Los sistemas prácticos cuyo rendimiento
se aproxima a este rendimiento máximo incorporan entonces esquemas de codificación que
incluyen codificaciones multinivel m-arias y procedimientos para la detección y/o corrección de
errores y compresión de datos.
♣ Ejemplo 4.11. Información contenida en una Imagen de Televisión.

CAMARA DE TV
CANAL
A COLOR

Fig. 4.8

La cámara a color requiere 5x105 elementos de imagen con 16 niveles de brillantez y 16


matices de color por cada nivel. La velocidad de transmisión de las imágenes es de 30 por segundo.
Vamos a calcular los diferentes parámetros del sistema.
Solución:
Número de elementos por imagen: Ne1 = 5x105 elementos/imagen
Información por elemento: Ie1 = log2(16x16) = 8 bits/elemento
Información por imagen: I img = N el ⋅ I el = 4 x10 6 bits/imagen

Velocidad de las imágenes: Vimg = 30 imágenes/seg


1 1
Tiempo de transmisión de un elemento: T = = 5
= 6, 667x10−8 seg
Vimg N el 30x5x10
Iel 8
Velocidad de Información: Vi = = −8 = 120x10
6
bps
T 6,667x10
Capacidad mínima del Canal: C = Vi = 120x106 bps
Si el ancho de banda del canal fuera de 6 MHz, la relación S/N mínima sería, de (4.47),
S S
120x106 = 6x106 log2 (1 + ) , de donde = 1,049x106 = 60,21 dB
N N
El lector puede demostrar, en la misma forma, que en el caso de TV en blanco y negro
(solamente 16 niveles de brillantez), los parámetros son:
Iel = 4 bits/elemento; T = 6,6667x10−8 seg.; V1 = C = 60x103 bps
S
= 1023 = 30,10 dB
N
280
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Obsérvese que para la misma potencia de ruido y ancho de banda, la señal de TV a color
necesita una potencia 1000 veces (30,1 dB) mayor que en TV blanco y negro.

4.6. EL SISTEMA IDEAL DE TRANSMISION DE INFORMACIÓN
4.6.1. Introducción
La expresión (4.47) está considerada como el Teorema Central de la Teoría de la
Información. Es evidente, a partir de este teorema, que el ancho de banda y la potencia de la señal
se pueden intercambiar, es decir, que para una capacidad dada C se puede aumentar el ancho de
banda B reduciendo la potencia de señal S (disminución de la relación S/N), o viceversa. Los
procesos de codificación y modulación son los medios utilizados para efectuar este intercambio
“Ancho de Banda-Relación Señal/Ruido”. Nótese que la capacidad del canal representa la máxima
cantidad de información que se puede transferir en un segundo, y con los métodos de codificación y
modulación se trata de alcanzar este máximo teórico. Sin embargo, como veremos posteriormente,
los sistemas reales no pueden alcanzar el potencial inherente en el ancho de banda y potencia que
utilizan. Por ejemplo, en un canal telefónico la relación S/N para una buena recepción es de
aproximadamente 30 dB. Como su ancho de banda efectivo es de 3,2 kHz, la capacidad teórica del
canal es del orden de los 32 kbps. Nótese que se puede aumentar aún más la velocidad de
información utilizando diferentes métodos, pero no así la velocidad de modulación. La máxima
velocidad de modulación sobre un canal telefónico de 3,2 kHz no debe sobrepasar los 2400 baudios,
mientras que la velocidad de información llega ya a 56 kbps (con el Módem V.90).
4.6.2. El Receptor Ideal
La ecuación de Hartley-Shannon nos permite deducir la ley para el intercambio entre el
ancho de banda y la relación S/N en un sistema de transmisión ideal. Consideremos, por ejemplo,
una señal mensaje que ocupa un ancho de banda Bm y que la información en ella contenida se
produce a una velocidad de Vi bps. Supongamos que esta señal se ha codificado o modulado de tal
manera que el ancho de banda resultante o ancho de banda de transmisión es B T , con B T ≥ B m .
Esta señal se transmite y es recibida en un receptor ideal, como se muestra en la Fig. 4.9.

Señal Transmitida
BT Bm
Receptor
Canal
Origen Si/Ni Ideal So/No

Ruido

Fig. 4.9. Recepción Ideal.

La salida del receptor ideal será la señal mensaje de ancho de banda Bm y algún ruido
introducido en el canal. Sea entonces Si y Ni las potencias de señal y de ruido, respectivamente, a la
entrada del receptor ideal, y So y No las correspondientes potencias de salida.
Como la velocidad de información es la misma en todos los puntos del sistema, se verifica
entonces que, de (4.47),
281
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Si S
B T log 2 (1 + ) = B m log 2 (1 + o )
Ni No
BT
So ⎡ S i ⎤ Bm
de donde, = ⎢1 + ⎥ −1 (4.49)
No ⎣ Ni ⎦
En la práctica, So/No y Si/Ni >> 1, de modo que
BT
S o ⎡ S i ⎤ Bm
≈⎢ ⎥ (4.50a)
No ⎣ Ni ⎦

⎡ So ⎤ BT ⎡ S i ⎤
y en dB, ⎢ ⎥ ≈ ⎢ ⎥ (4.50b)
⎣ N o ⎦ dB B m ⎣ N i ⎦ dB
Nótese que se puede aumentar So/No si se aumenta Si/Ni y se mantiene BT constante; pero
esto implica aumentar la potencia transmitida (si las condiciones de ruido no cambian). También se
puede mantener Si/Ni constante y aumentar BT, lo cual es más razonable pues no es necesario
aumentar la potencia transmitida. Sin embargo, este intercambio o compromiso “Ancho de Banda-
Relación Señal/Ruido (S/N)” está limitado físicamente en los sistemas reales, como veremos en los
Capítulos V y VI.
En un sistema ideal la relación Señal/Ruido a la salida aumenta exponencialmente con la
relación BT/Bm. Esto quiere decir que para un pequeño aumento en el ancho de banda BT, se puede
reducir considerablemente la potencia de la señal transmitida. Por otra parte, para una pequeña
reducción en el ancho de banda BT, es necesario incrementar considerablemente la potencia de la
señal transmitida. Por lo tanto, en la práctica, el compromiso es en el sentido de reducir la potencia
de transmisión a costas de un aumento en el ancho de banda de transmisión y no así lo contrario.
Relación de Expansión del Ancho de Banda
La expresión (4.49) representa el límite teórico máximo y la utilizaremos como referencia
para comparar el comportamiento de los diferentes sistemas prácticos de codificación y modulación
que veremos en los Capítulos V y VI. En la Fig. 4.10(a) se grafica (4.50b) para diferentes valores de
la relación βm = BT/Bm, denominada “Relación o Factor de Expansión del Ancho de Banda”. Los
sistemas de banda ancha, que veremos en los Capítulos V y VI, se caracterizan por un alto valor de
la relación BT/Bm.
La capacidad del canal ideal es, de (4.47),
Si
C = B T log 2 (1 + ) bps (4.51)
Ni

Si β m = B T / B m es la relación o factor de expansión del ancho de banda, entonces se


puede escribir C = β m B m log 2 (1 + S i / N i ) , y el rendimiento máximo del canal ideal respecto al
ancho de banda de la señal mensaje será
C S
η Bmax = = β m log 2 (1 + i ) bps/Hz (4.52)
Bm Ni

En la Fig. 4.10(b) se grafica este rendimiento para diferentes valores de β m .


282
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Nótese que el rendimiento máximo del canal ideal, para las mismas condiciones de potencia
o relación Si/Ni , depende de la relación de expansión del ancho de banda β m , y las curvas de la
Fig. 4.10(b) representan los límites máximos que pueden alcanzar los sistemas reales. Las Fig.
4.10(a) y (b) muestran también que los sistemas de banda ancha, en los cuales β m >> 1 , son
mucho más eficientes que los sistemas de banda angosta, en los cuales β m ≤ 2 . Nótese también
que los valores de Si , Ni y BT, de acuerdo con el Teorema Fundamental de Shannon, establecen un
límite sobre la velocidad de transmisión pero no en la exactitud en la transferencia de la
información.
Estos conceptos los aplicaremos al estudiar algunos esquemas de modulación específicos en
los Capítulos V y VI.
Quizás el resultado más sorprendente demostrado por Shannon en su teorema fundamental
es que no hay un límite en la confiabilidad con que se puede transmitir señales binarias sobre un
canal ruidoso mientras la velocidad de transmisión sea menor que la capacidad C del canal. El
mecanismo para alcanzar este alto nivel arbitrario de confiabilidad es mediante una codificación
apropiada que agregue una cierta cantidad de redundancia. Sin embargo, Shannon no dijo qué tipo
de codificación era la mejor, él solamente demostró que había códigos que optimizaban la velocidad
de información y que no había posibilidad de comunicación libre de error por un canal ruidoso si
los mensajes se codificaban con cero redundancia.
Inicialmente, la capacidad C de Shannon fue considerada por los ingenieros de teleco-
municaciones como una curiosidad o ficción matemática. Pero, poco a poco, debido al esfuerzo de
ingenieros y matemáticos, se han elaborado códigos muy buenos y desarrollado la tecnología para
su instrumentación y aplicación. Un estudio detallado de estos códigos está fuera de los objetivos de
este texto.
En general, la teoría de la información proporciona una perspectiva diferente para evaluar el
funcionamiento de los sistemas de comunicación y para tener una percepción significativa de las
características de funcionamiento de los sistemas. El estudio de la teoría de la información
suministra una medida cuantitativa de la información contenida en las señales mensaje y permite
determinar la capacidad de un sistema para transferir esta información desde su origen hasta su
283
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

destino. Introduce, asimismo, el concepto de codificación, mediante el cual se puede utilizar los
canales con el máximo rendimiento. La teoría de los códigos es, en sí misma, un sujeto muy
importante en la teoría general de la información.
La teoría de la información es una disciplina muy vasta y compleja, y aquí sólo hemos
presentado un vistazo muy somero de ella para ilustrar algunos aspectos prácticos de la teoría que
utilizaremos en los siguientes capítulos.
4.7. RESUMEN
En este capítulo se ha discutido en forma muy breve algunos de los aspectos resaltantes de
la Teoría de la Información y de los principios de la codificación digital de señales. De la definición
básica de la cantidad de información, se han deducido algunos parámetros tales como la velocidad
de información, la velocidad de modulación y el ancho de banda mínimo para transmitir un
impulso, y se ha introducido la noción de codificación digital de la información, con algunos
ejemplos como el Código ASCII y el Código Baudot, de gran aplicación práctica.
Un aspecto de considerable importancia es el concepto de capacidad de un canal. Se discute
en forma cualitativa el Teorema Fundamental de Shannon y la Ecuación de Hartley-Shannon, y se
deduce algunas expresiones que introducen la noción de Sistema Ideal de Transmisión de
Información, concepto que se utilizará para comparar los diferentes sistemas de comunicación
prácticos que se estudiarán en los Capítulos V y VI.
El tratamiento de los temas ha sido necesariamente muy breve y sencillo, y su objetivo es el
de dar al lector una descripción básica de algunos aspectos de la teoría de la información que se
aplicarán en capítulos posteriores.
PROBLEMAS DE APLICACION
4.1. Sea un alfabeto en el cual la probabilidad de ocurrencia de las diferentes letras se da en la
tabla siguiente:

A 0,081 E 0,124 I 0,072 M 0.072 Q 0,002 V 0,009


B 0.016 F 0,023 J 0,001 N 0,072 R 0,060 W 0,020
C 0,032 G 0,016 K 0,005 O 0,079 S 0,066 X 0,002
D 0,037 H 0,051 L 0,040 P 0,023 T 0,096 Y 0,019
U 0,031 Z 0,001
(a) ¿Cuál letra proporciona la máxima cantidad de información?
(b) ¿ Cuál letra proporciona la mínima cantidad de información?
(c) Suponga que las letras se eligen independientemente para formar palabras (lo cual no se
ajusta a la realidad). Demuestre que la entropía de este alfabeto es de 4,316 bits/letra.
(d) Sea el juego siguiente: se trata de adivinar una palabra y se da como pista la primera letra
de la palabra. ¿En español, cuál letra es más útil en el juego, la letra E o la letra Z?
4.2. Una fuente de información produce 128 símbolos independientes, de los cuales 16 ocurren con
una probabilidad de 1/32, y los 112 restantes con una probabilidad 1/224. La fuente produce
100 símbolos por segundo.
Demuestre que la velocidad de información promedio de la fuente es de 640,4 bps.
4.3. Un alfabeto consta de las siguientes letras: A, B, C, D, E, F, H y O, cuya aparición suponemos
equiprobable. Esta letras se codifican en binario puro con un impulso de arranque y uno de
284
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

pare; todos los impulsos tienen la misma duración. El canal de transmisión tiene un ancho de
banda de 4 kHz.
(a) Demuestre que la palabra FACHADA se puede transmitir en 8,75 mseg y con una velo
cidad de información de 2400 bps.
(b) Asigne a cada letra una muestra codificada y muestre la forma de la palabra CAFE a la
salida del codificador. Suponga que el impulso de arranque está siempre a CERO y el
impulso de pare siempre a UNO.
(c) Si las probabilidades de las 8 letras son, respectivamente, 0,2, 0,15, 0,15, 0,1, 0,25, 0,05,
0,05 y 0,05, demuestre que la información promedio, por letra, es de 2,766 bits.
4.4. El alfabeto de una máquina de escribir consta de 32 caracteres alfanuméricos que suponemos
equiprobables, y se desea escribir una página de 280 caracteres. Una persona escribe a una
velocidad de 2 bps.
Demuestre que la persona puede escribir una página en 11 minutos y 40 segundos.
4.5. Una fuente produce ocho símbolos distintos e independientes cuyas probabilidades de aparición
son: un símbolo con una probabilidad de 0,512; tres símbolos con una probabilidad, cada
uno, de 0,128; tres símbolos con una probabilidad, cada uno, de 0,032, y un símbolo con una
probabilidad de 0,008. Los símbolos se producen a una velocidad de 1000 símbolos por
segundo, se codifican en binario para transmitirlos por un canal telefónico de 4 kHz.
Demuestre que los símbolos sí pueden transmitirse por el canal telefónico y que la velocidad
de información y de modulación son, respectivamente, de 2166 bps y 3000 baudios.
4.6. Se tiene 64 monedas de las cuales sabemos que una es falsa. Disponemos también de una
balanza de precisión con la cual podemos pesar las monedas.
(a) Si sabemos que la moneda falsa pesa menos que las buenas, determine el número mínimo
de pesadas necesarias para descubrir cuál es la moneda falsa.
(b) Repita la parte (a) pero en este caso no sabemos si la moneda falsa pesa más o menos que
las monedas buenas.
Nota: En las partes (a) y (b) hay que calcular no solamente el número de pesadas sino
mostrar también el procedimiento para efectuarlas.
4.7. Se escucha un partido de fútbol y el narrador habla a una velocidad de 300 palabras por
minuto. Con los datos del Ejemplo 1.3, demuestre que el locutor transmite a una velocidad de
46,5 bps.
4.8. Vamos a determinar la información contenida en una fotografía en blanco y negro. La imagen
está compuesta por puntos con 8 niveles de gris, todos igualmente probables; la resolución de
la imagen es de 5 puntos por mm.
Demuestre que la cantidad de información contenida en una fotografía de 10 cm x 10 cm
es I = 7,5x105 bits
4.9. El refrán dice que “una imagen vale mil palabras”. Utilizando las suposiciones de los dos
problemas anteriores, demuestre que el tamaño que deberá tener la imagen (cuadrada) para que
la información contenida en ella sea igual a la de 1000 palabras, es de
11,14 mm x 11,14 mm
285
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

4.10. Contenido de Información de Textos Escritos.


(a) ¿Cuál tiene más información: una página de un texto o la correspondiente página de
apuntes (de igual número de palabras) del mismo tópico? Razone su respuesta.
(b) Vamos a estimar la información promedio contenida en una página de un periódico. Una
página tiene una superficie útil de 50 cm x 60 cm, los tipos tienen dimensiones de 3 mm x
3 mm, el espaciado entre palabras es de 3 mm y la separación entre líneas es de 6 mm.
Con los datos del Ejemplo 4.3, demuestre que la información promedio contenida en una
página es de 16820 bits.
4.11. El intercambio de información entre una computadora y su unidad de disco se efectúa a una
velocidad de 36400 bps. La información o texto se considera formada por “páginas” de 30
líneas de 80 columnas con 7 bits por carácter.
(a) Demuestre que la computadora puede transferir 650 páginas de texto en 5 minutos.
(b) Las páginas almacenadas en la unidad de disco se van a transmitir ahora a razón de 30
páginas por segundo por un canal de 42 kHz de ancho de banda y en el cual la potencia
de ruido es de 1 mW. Demuestre que para que no haya pérdida de información, la
potencia promedio mínima de la señal debe ser de 4,095 W o 36,123 dBm.
4.12. Una fuente de información produce 16 símbolos distintos y equiprobables a una velocidad de
1000 símbolos por segundo. Los símbolos se codifican en binario más un impulso de
sincronización, todos de igual duración, los cuales se transmiten por un canal con un ancho
de banda de 1 kHz. Demuestre que:
(a) La velocidad de modulación en el canal es de 5000 baudios.
(b) Para que no haya pérdida de información, la relación S/N en el canal deberá ser, como
mínimo, de 11,7609 dB.
4.13. Una fuente produce símbolos los cuales se codifican en secuencias de 7 impulsos cuaternarios
más 1 impulso de sincronización, todos de igual duración. Los cuatro niveles de cada impulso
tienen probabilidades 0,4; 0,3; 0,2 y 0,1, respectivamente. La velocidad de modulación a la
salida del codificador es de 80 kbaudios y se transmite un total de 1000 secuencias.
(a) Si no hay ruido en el canal, demuestre que la cantidad de información que llegó a destino
es de 12925 bits.
(b) En el canal hay ruido. El ancho de banda del canal es de 10 kHz y la relación S/N
correspondiente es de 30 dB. Demuestre que para que no haya pérdida de información
hay que aumentar la relación S/N en, por lo menos, 8,909 dB.
4.14. Una computadora trabaja en dos modalidades: Modo Texto y Modo Gráficos. En Modo Texto
tiene un alfabeto de 256 caracteres alfanuméricos en una pantalla de 25 filas de 40 columnas
cada una (Cada punto de la pantalla se denomina “pixel”). En Modo Gráficos la pantalla tiene
una resolución de 200 filas y 300 columnas donde cada punto puede tener 16 colores
diferentes y 4 niveles de intensidad. Demuestre que la cantidad de memoria necesaria para
almacenar el contenido de la pantalla es:
(a) En Modo Texto: 1 kbyte; (b) En Modo Gráficos: 45 kbytes.
286
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

4.15. La imagen de un televisor a color está formada por 525 líneas que contienen, cada una, 1000
puntos luminosos. Cada punto luminoso tiene 8 niveles de brillantez y 16 matices de color.
La velocidad de las imágenes es de 30 por segundo.
(a) Demuestre que la velocidad de la información producida por la imagen de televisión es
de 110,3 Mbps.
(b) Transmisión Analógica. Si la relación S/N en el canal es de 60 dB y la potencia de ruido
es de 1 µW, demuestre que la potencia de señal es de 1 W y que se puede transmitir por
un canal de ancho de banda de 5,534 MHz.
(c) Transmisión Digital. Si cada punto luminoso se codifica en ASCII sin bit de paridad (Fig.
4.13(b)) para su transmisión por un canal digital, demuestre que el ancho de banda
mínimo necesario del canal es de 157,5 MHz.
(d) Si la potencia de ruido en el canal calculado en la parte (c) es de 1 µW, demuestre que la
potencia mínima de la señal para que no haya pérdida de información, debe ser de 0,625
µW.
4.16. En un sistema de transmisión de facsímil de alta resolución se necesita, por página, 2,25x106
elementos de imagen (esto equivale a 1500 líneas en cada dimensión), y para una buena
reproducción se requiere 16 niveles de brillantez. La información se codifica en binario para
ser transmitida por un canal de 4 kHz de ancho de banda.
(a) Demuestre que la información contenida en una imagen es de 9x106 bits.
(b) Demuestre que una imagen se puede transmitir en 37,5 minutos.
(c) Demuestre que si la información se codifica en impulsos cuaternarios, el tiempo de trans-
misión se reduce a la mitad.
(d) Si la información se codifica en ASCII sin bit de paridad, Fig. 4.13(b), demuestre que una
imagen se transmite en 93,75 minutos.
4.17. Una fuente de información produce 27 símbolos distintos y equiprobables, los cuales se
codifican en impulsos ternarios. El codificador produce bloques que contienen 9 impulsos de
información más un impulso de sincronización, todos de igual duración. En el sistema no hay
pérdida de información. La velocidad de modulación a la salida del codificador es de 10
kbaudios. Demuestre que:
(a) La fuente está produciendo los símbolos a una velocidad de 3000 símbolos por segundo.
(b) Se puede transmitir 5,135x107 bits en una hora.
4.18. Un terminal de datos produce 256 caracteres alfanuméricos que se codifican en n impulsos
m-arios incluyendo un impulso de arranque y uno de pare, todos de igual duración. La señal
codificada se transmite por un canal de ancho de banda de 10 kHz y con una relación S/N de
11,7609 dB. Demuestre que:
(a) Para que no haya pérdida de información, el terminal de datos debe generar los caracteres
a una velocidad igual o menor de 5000 caracteres por segundo.
(b) Si la velocidad de modulación máxima es 3/4 de la velocidad de información máxima,
entonces m = 4 y n = 4.
(c) Para los mismos datos, ¿Qué pasaría si la codificación fuese en binario?
287
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

4.19. Una fuente de información produce 1024 símbolos distintos y equiprobables a una velocidad
de 1250 símbolos por segundo. Los símbolos se codifican en impulsos cuaternarios más un
impulso de arranque y uno de pare. La duración de los impulsos de arranque y de pare es 1,5
veces la duración de un impulso de información. Demuestre que:
(a) Las velocidades de modulación y de información son de 10 kbaudios y 12,5 kbps,
respectivamente.
(b) Si el ancho de banda del canal de transmisión es de 5 kHz y se transmiten 105 muestras
codificadas, se pierden 5x105 bits de información.
4.20. Un codificador produce impulsos binarios cuya velocidad de modulación es de 8 kbaudios.
Estos impulsos se van a transmitir por un canal de 1 kHz de ancho de banda y en el cual la
relación S/N es de 11,7609 dB. En estas condiciones hay pérdida de información. Demuestre
que para que no haya pérdida de información hay que aumentar la relación S/N, como
mínimo, en 12,3045 dB.
4.21. Se tiene un convertidor automático, con una capacidad de 15x103 bps, que convierte
información de un sistema de codificación a otro sistema. La entrada al convertidor es una
secuencia de impulsos de amplitud variable cuya frecuencia es de 2,25x105 impulsos por
minuto. La salida del convertidor es otro tren de impulsos cuyo número de amplitudes es 1/4
del número de amplitudes de los impulsos de entrada al convertidor.
Demuestre que la velocidad de modulación a la salida del convertidor es de 7,5 kbaudios y
que los impulsos son cuaternarios.
4.22. Televisión de Barrido Lento (SSTV). En un sistema SSTV básico una celda fotoeléctrica
barre la imagen y mide en cada punto de imagen uno de 16 valores de gris desde el blanco
puro hasta el negro puro. La velocidad de barrido es de 2x103 puntos por segundo y el
sistema requiere, por imagen, 128 líneas con 128 puntos por línea.
(a) Demuestre que la información contenida en una imagen es de 8 Kbytes.
(b) Si la señal de salida de la celda fotoeléctrica se transmite directamente por un canal,
demuestre que el ancho de banda mínimo del canal es de 2 kHz.
(c) La señal de salida de la celda fotoeléctrica se codifica en binario y se almacena 100
imágenes en la memoria de una computadora. Demuestre que la capacidad mínima de la
memoria debe ser de 800 Kbytes y que el almacenamiento de la información se efectúa a
una velocidad de 8 kbps.
(d) Las imágenes almacenadas en la computadora se van a transmitir por un canal dado, pero
a cada muestra se le agrega un impulso de arranque y uno de pare, ambos de duración el
doble de la de los impulsos de información. Demuestre que si se quiere transmitir las 100
imágenes en 400 segundos, el ancho de banda del canal debe ser de 32,768 kHz.
(e) Demuestre que si los impulsos de información tienen una duración de 40 µseg y la trans-
misión se hace por un canal telefónico de 4 kHz de ancho de banda, la relación S/N
mínima en el canal para que no haya pérdida de información es de 8,878 dB.
4.23. Sea un sistema de telefotografía. Una celda fotoeléctrica barre la fotografía (de blanco y
negro) y en cada punto produce una señal cuya amplitud varía de 0 V a 127 mV
correspondientes a 128 niveles de gris (desde el blanco puro al negro puro) de la fotografía.
La celda se mueve a una velocidad de 4 cm por segundo, y su resolución es de 5 puntos por
milímetro. La fotografía mide 10 cm x 15 cm.
288
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

(a) Demuestre que la velocidad a la cual la celda produce información es de 1400 bps y que
tarda 1875 seg en transmitir una fotografía.
(b) Las señales producidas por la celda se codifican en binario y se guardan en la memoria de
una computadora, en la cual se almacena 10 fotografías. Demuestre que el sector de la
memoria donde se guardó la información debe tener una capacidad de 26.25 Mbits, y que
la velocidad de modulación a la salida del codificador es de 1400 baudios.
(c) La información contenida en la memoria se va a transmitir por un canal en ASCII sin bit
de paridad. La transmisión de las 10 fotografías que estaban en la memoria se efectúa en
2 segundos. Demuestre que la velocidad de información en el canal es de 13,13 Mbps y
que el ancho mínimo del canal debe ser de 18,75 MHz.
(d) La salida de la celda fotoeléctrica se transmite directamente por un canal cuyo
rendimiento es de 2 bps/Hz. Si la potencia de ruido en el canal es de 1 pW, demuestre que
la potencia de la señal para que no haya pérdida de información es de 3 pW.
4.24. Una señal tiene un ancho de banda de 4 kHz. Esta señal se pasa por un convertidor que la
convierte en secuencias de 8 impulsos binarios, teniendo cada secuencia una duración de 100
µseg.
(a) Demuestre que el ancho de banda mínimo del canal para transmitir las secuencias binarias
en ausencia de ruido, es Bn = 80 kHz
(b) El canal tiene un ancho de banda de 50 kHz. Demuestre que la relación S/N mínima, en
dB, para transmitir las secuencias sin error es de 3,08 dB.
4.25. Una señal s(t) es transmitida
por un canal perturbado por un Si/Ni
ruido n(t), siendo Si/Ni y So/No las Señal s(t) Canal Receptor So/No Destino
Origen Bc Br
relaciones señal-ruido a la entrada
y salida del receptor,
respectivamente, como se muestra Ruido n(t)
Fig. 4.11
en la Fig. 4.11. En el sistema no
hay pérdida de información. El
ancho de banda Bc del canal es de
16 kHz, la relación Si/Ni es de 14,9136 dB y el ancho de banda Br del receptor es de 8 kHz.
Demuestre que la relación señal/ruido a la salida del receptor es de 30,098 dB.
4.26. Un terminal de datos se utiliza para enviar información hacia una computadora central a
través de una línea telefónica de 3 kHz de ancho de banda; la relación S/N en el canal es de
10 dB. El terminal de datos produce caracteres alfanuméricos en ASCII sin bit de paridad y
en su memoria hay almacenados 8000 bits de información.
(a) Demuestre que la capacidad del canal es C = 10378 bps
(b) Demuestre que la máxima velocidad de información en el canal sin ruido es de 2100 bps
(c) Demuestre que el tiempo que tarda el terminal en vaciar la memoria es Tt = 30,48 seg.
(d) Si la información se transmite en código BAUDOT, Fig. 4.13(a), demuestre que el
tiempo que tarda en vaciarse la memoria es Tt = 34,773 minutos
289
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

4.27. Sea el sistema mostrado en la Fig. 4.12.

Terminal
Codificador Codificador de
Fuente Canal
1 ASCII Datos

Fig. 4.12.

La fuente produce N símbolos distintos y equiprobables a una velocidad de 1000 símbolos


por segundo. El terminal de datos solamente acepta secuencias codificadas en ASCII sin bit
de paridad. El codificador 1 agrega a cada muestra un impulso de arranque y uno de pare,
ambos de la misma duración que los de información. No hay pérdida de información en el
sistema.
(a) Determine N, los valores apropiados de m y n para el codificador 1, y el ancho de banda
mínimo del canal
(b) Demuestre que las velocidades de modulación y de información a la entrada del terminal
de datos son, respectivamente, Vb = 10 kbaudios y Vi = 7 kbps.
4.28. Una fuente de información digital produce dígitos a una velocidad de 128 kbps.
(a) En un codificador (denominado 4B/3T) se transforma grupos de 4 dígitos binarios en
grupos de 3 dígitos ternarios; no hay pérdida de información en el canal. La secuencia, así
codificada, se transmite por un canal.
Demuestre que la velocidad de modulación en el canal es de 96 kbaudios.
(b) Se puede utilizar también un codificador 4B/5B (utilizado en la transmisión por fibras
ópticas) que transforma grupos de 4 dígitos binarios en grupos de 5 dígitos, binarios
también, sin pérdida de información.
Demuestre que el ancho de banda mínimo del canal debe ser 5/4 veces más grande que el
ancho de banda mínimo antes del codificador
4.29. Códigos Binarios BAUDOT y ASCII (Alfabeto Internacional N° 5 de la UIT-T)
En la Fig. 4.13 se muestran los formatos de los Códigos BAUDOT y ASCII (sin bit de
paridad). Ver APENDICE B.5 y B.6.
En el Código ASCII los caracteres fluyen a una velocidad de 100 caracteres por segundo.
Para el Código BAUDOT tomar las duraciones dadas en la figura.
(Nota: en ambos códigos el bit o dígito binario 1 es el de menor peso).
290
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Arranque Pare Arranque Pare


Información Información
1 2 3 4 5 1 2 3 4 5 6 7

22 22 31 τ τ 2τ
ms ms ms
Un Carácter
Un Carácter
(a) Código BAUDOT (b) Código ASCII sin Bit de Paridad
Fig. 4.13. Formatos de los CODIGOS BAUDOT y ASCII.

(a) Determine las velocidades de modulación y de información para cada uno de estos
códigos.
(b) ¿Qué significa la siguiente información codificada en ASCII?
011001011101111001110110010111
(c) ¿Cómo se codificaría la misma información de (b) pero en BAUDOT?
4.30. Límite de Shannon.
Considere la ecuación de Hartley-Shannon. La potencia de ruido N se expresa en la forma
N = ηB , donde η tiene dimensiones de vatios por unidad de ancho de banda (W/Hz) y es la
“densidad espectral de potencia de ruido”. N es entonces la potencia de ruido contenida en
el ancho de banda B. Si el ancho de banda B aumenta sin límites (B→∞), demuestre que
⎡S⎤ ⎡S⎤
lim C = ⎢ ⎥ log 2 e = 1, 443 ⎢ ⎥ = ViMAX (4.53)
B→∞
⎣η⎦ ⎣η⎦
Este resultado se conoce con el nombre de “Límite de Shannon” y representa la máxima
velocidad de información en un sistema de comunicación con una potencia promedio
transmitida dada pero sin la limitación del ancho de banda, como es el caso de los sistemas
de comunicación espacial o por satélites.
4.31. Consideremos el receptor ideal de la Fig. 4.9 . Demuestre que si el ancho de banda del canal
tiende a infinito (BT → ∞) , entonces

⎡ So ⎤ Si So
⎢ ⎥ ≈ exp( ) = exp( γ ) cuando >> 1 (4.54)
⎣ No ⎦ ηB m No

Si
Nótese que γ = representa la relación entre la potencia de la señal (transmitida) en
ηo Bm
el canal respecto a la potencia de ruido dentro de la banda de la señal misma (Bm). Por
consiguiente, teóricamente, en condiciones ideales cuando el ancho de banda de transmisión
BT tiende a infinito, la relación So/No a la salida aumenta exponencialmente con γ.
291
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

1.32. Rendimiento del Canal en el Sistema Ideal de Transmisión.


En la expresión (4.42) se definió el “rendimiento del canal respecto al ancho de banda” en
Vi
la forma ηB = . Si se define la “Energía por Dígito Binario, Eb” en la forma Eb = Sτ,
B
donde τ es la duración de un dígito binario, demuestre que si el sistema es binario y Vi = C,
entonces
Eb
η B = log 2 (1 + η B ) ηB se expresa en bps/Hz (4.55)
ηo
Eb
Grafique también ηB vs Eb/ηo para 1≤ ≤ 100
ηo
Sugerencia: utilice escalas log-log.
4.33. Rendimiento y Redundancia de Codificación.
El rendimiento de un código o de un codificador se puede definir en la forma siguiente:
Vi n log 2 m
η co = = bps/baudio (4.56)
Vb n+r
donde n es el número de impulsos de información, y r el número de impulsos redundantes
(ver ecuación (4.28) y Fig. 4.4).
En los sistemas binarios (m = 2) se suele definir también la “redundancia de
codificación, Rco” en la forma
Vb − Vi r
R co = 1 − ηco = = (4.57)
Vb n+r

En este caso, Vb ≥ Vi , y tanto ηco como Rco se pueden expresar en forma porcentual
(ηco% y Rco%).
Nótese que la codificación binaria es la menos eficiente, pero es la más utilizada por su
facilidad de instrumentación.
(a) Determine el rendimiento de los Códigos Baudot (Fig. 4.13(a)), ASCII con bit de paridad
(Fig. 4.5), y del codificador del Ejemplo 4.9.
(b) Transmisión Sincrónica, Código ASCII. Los bloques de datos se estructuran en la
forma siguiente: se colocan tres caracteres SYN (de sincronización) al inicio de cada
bloque, a continuación 256 caracteres de información y se termina el bloque con un
carácter ETX. Ni los caracteres SYN y ETX, ni los caracteres de información contienen
los impulsos de arranque, paridad y pare, solamente los impulsos de información. Los
caracteres SYN y ETX están definidos en la Tabla B.5 en el Apéndice B.
Demuestre que en Transmisión Sincrónica ηco % = 98,5% y R co % = 1,5%
292
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

(c) Transmisión Asincrónica, Código ASCII. Se transmite bloques de 256 caracteres ASCII
incluyendo todos los impulsos redundantes (Fig. 4.5).
Demuestre que en Transmisión Asincrónica η co = 63,6% y R co = 36,4%
(d) Si la velocidad de modulación es la misma en los dos tipos de transmisión anteriores,
¿Cuál es la relación entre sus respectivas velocidades de información?
4.34. Cierta fuente de información transmite cada milisegundo un número octal (base 8). En el canal
la potencia promedio de la señal es de 0,5 W y la de ruido 2 mW. Si a la salida del receptor
el ancho de banda es de 100 Hz, demuestre que la relación So/No a la salida es de 90,31 dB y
que el ancho de banda del canal es de 375 Hz.
4.35. Se desea introducir información a una computadora mediante tarjetas perforadas tipo IBM.
Estas tarjetas tienen 80 columnas por F filas.
(a) Si la computadora reconoce 256 caracteres alfanuméricos y cada carácter se almacena en
una columna de la tarjeta, demuestre que en este caso cada columna tendrá 8 filas.
(b) Si el lector de tarjetas lee 10 tarjetas por segundo, demuestre que el lector está entregando
información a la computadora a una velocidad de 6400 bps.
(c) Si la capacidad de la memoria de la computadora es de 600 Kbytes, demuestre que puede
almacenar el contenido de 7680 tarjetas.
4.36. Un cierto sistema de comunicación posee un sintetizador de frecuencias que produce cuatro
frecuencias diferentes: f1, f2 = 2f1 , f3 = 3f1 y f4 = 4f1. Este sintetizador de frecuencia se
utiliza como transmisor de información digital en el cual por cada dos bits de entrada al
sintetizador se transmite una frecuencia según el esquema siguiente:
0 0 → f1 ; 0 1 → f2 ; 1 0 → f3 ; 1 1 → f4
La velocidad de modulación a la entrada del sintetizador es de 1000 baudios, y se sabe que
para la transmisión del grupo 0 0 se transmite un solo ciclo de la frecuencia f1 .
Demuestre que la velocidad de información en el sistema es de 1000 bps y que el valor de las
frecuencias es f1 = 500 Hz; f2 = 1 kHz ; f3 = 1,5 kHz y f4 = 2 kHz.
4.37. Sea el sistema de la Fig. 4.14.
Las fuentes producen, respectivamente: Fuente Secuencias
N1 = 128 símbolos 1 Compuestas
N2 = 256 símbolos Fuente
Codificador Canal
2
N3 = 32 símbolos
Todos estos símbolos son independientes y Fuente
equiprobables. El codificador opera en la 3
forma siguiente: primero toma un símbolo Fig. 4.14
de la Fuente 1 y lo codifica en ASCII sin bit
de paridad. Toma a continuación un
símbolo de la Fuente 2 y lo codifica en bi-
nario agregándole un impulso de arranque y uno de pare, todos de igual duración. Por último,
toma un símbolo de la Fuente 3 y lo codifica en binario agregándole un impulso de arranque
y uno de pare, este último dura 1,5 veces más que los demás, incluidos los de las Fuentes 1 y
293
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

2. El codificador vuelve a la Fuente 1 y se repite el proceso. A la salida del codificador las


secuencias codificadas individuales van saliendo una detrás de la otra formando un tren de
impulsos cuya velocidad de modulación es de 2750 baudios y el cual es transmitido por el
canal.
(a) Demuestre que la velocidad de información a la salida del codificador es de 2000 bps y
que su rendimiento de codificación es del 72,7%.
(b) Si el rendimiento del canal respecto al ancho de banda es de 3 bps/Hz, demuestre que la
relación S/N en el canal es de 8,451 dB.
(c) Si la relación S/N en el canal es de 15 dB, demuestre que el ancho de banda mínimo del
canal es de 397,8 Hz.
4.38. La salida de cierta computadora está formada por 7 conductores, cada uno de los cuales
transmite impulsos con dos valores posibles: 0V y 5V; la duración de cada impulso es de 25
ms. Mediante una “interfaz” se convierte las 7 salidas de la computadora en una secuencia
serie ASCII sin bit de paridad (Fig. 4.13(b)) para transmisión por un cable bifilar.
Demuestre que a la salida de la interfaz las velocidades de información y de modulación son,
respectivamente, de 280 bps y 400 baudios.
294
IV. PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Vous aimerez peut-être aussi