Vous êtes sur la page 1sur 14

PRINCIPIOS DE LA TRANSMISIÓN DE INFORMACIÓN

INTRODUCCIÓN
Se puede definir la comunicación como el proceso mediante el cual se transfiere
información desde un punto en el espacio y en el tiempo, denominado “fuente de información”,
hasta otro punto denominado “destino de la información”, con el mínimo de pérdidas o
perturbaciones.
Es evidente que una reproducción perfecta de un mensaje no es posible, pero desde un
punto de vista práctico es suficiente que la reproducción sea hecha con una aproximación o
fidelidad que depende del fin perseguido. Por ejemplo, en una conversación telefónica la
“fidelidad” necesaria es menor que la requerida en radiodifusión o televisión. Igualmente, en una
comunicación entre máquinas o dispositivos, la fidelidad requerida dependerá del objetivo de la
transmisión. Por ejemplo, la transmisión de las variaciones de temperatura, en un proceso de
automatización, se debe efectuar con la precisión requerida por los demás elementos del sistema. En
todo caso, en el proceso de transmisión la información experimentará siempre una cierta
degradación, cuyos límites dependerán del empleo que se haga de la información.
La mayor parte de los sistemas de comunicación actuales se caracteriza por la presencia de
personas en los extremos del sistema. Los sistemas de comunicación pueden considerarse entonces
como una prolongación de nuestros sentidos. El teléfono, por ejemplo, hace posible la conversación
entre dos personas alejadas entre sí como si ellas estuvieran frente a frente. Por otro lado, las
perturbaciones en la mayoría de los sistemas de comunicación se parecen a las perturbaciones a las
cuales nuestros sentidos están adaptados, y por ello los sistemas clásicos de comunicación dan
resultados satisfactorios aún con un equipo terminal reducido o de muy baja resolución. Se sabe que
cuando hay mucho ruido en un ambiente ruidoso, entonces se habla más fuerte, se pronuncian las
palabras lentamente y con más claridad empleándose un vocabulario más limitado y con las
palabras más usuales. En otras palabras, la fuente de información se adapta a las condiciones del
canal de comunicación disponible. Sin embargo, en la comunicación entre máquinas esta
“codificación natural” no existe, lo que implica un aumento en la complejidad de los equipos
terminales a fin de obtener el grado de precisión o resolución requeridos en el proceso de
transmisión.
MODELO DE UN SISTEMA DE TRANSMISIÓN DE INFORMACIÓN
Desde el punto de vista de la ingeniería de las comunicaciones, un sistema completo de
transmisión de información se puede representar entonces como se muestra en la Fig. 4.1 [Shannon,
1949].

Sistema de Transmisión
Ruido

Fuente de Transductor Transmisor Canal Receptor Transductor Destino


Información de Entrada de Salida

Fig. 4.1. Diagrama de Bloques de un Sistema de Comunicación

J. Briceño M., Dr. Ing. - Profesor Titular, ULA - Mérida, Venezuela


PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Fuente de Información
La información o inteligencia a transmitir se origina en la fuente de información. Esta
información se materializa como un conjunto, que sin perder generalidad supondremos finito y
discreto, de N símbolos o mensajes distintos e independientes que se transmiten y cuyo significado
es conocido en el destino del sistema. La fuente de información así definida se denomina “fuente
discreta sin memoria” (“sin memoria” quiere decir que la aparición de un símbolo no depende de
los anteriores; es parte de la independencia de los mensajes).
Hay muchas clases de fuentes de información, incluyendo personas y máquinas, de manera
que los símbolos o mensajes pueden tomar una gran variedad de formas: una secuencia de símbolos
discretos o letras, magnitudes que varían en el tiempo, etc.; pero cualquiera que sea el mensaje, el
propósito del sistema de comunicación es el de proporcionar una réplica más o menos exacta del
mismo en el destino.
Transductor de Entrada
Como regla, el mensaje que produce la fuente no es de naturaleza eléctrica y, por lo tanto,
es necesaria la presencia de un “transductor” o “codificador” que convierta el mensaje en una
“señal”. Esta última es una magnitud eléctrica variable en el tiempo (corrientes o voltajes)
compatible con el tipo particular de sistema de transmisión que se emplee.
Nótese entonces la diferencia entre información, mensaje y señal: información es la
inteligencia o significado que se va a transmitir: es una entidad intangible. Mensaje es la
materialización de la información en una cantidad mensurable: el mensaje es el soporte de la
información. Señal es la magnitud eléctrica que resulta de la transformación de una magnitud no
eléctrica portadora de información en una magnitud eléctrica variable en el tiempo. A este
respecto, el número de elementos del conjunto de las señales de salida del transductor debe ser igual
al número de elementos del conjunto de símbolos o mensajes de la fuente de información. La señal
de salida del transductor portadora de información se conoce también con el nombre de “señal
mensaje” o simplemente “mensaje”.
El transductor de salida o “descodificador” (o decodificador, del inglés “decoder”), efectúa
la operación inversa del transductor de entrada; es decir, reconvierte las señales eléctricas recibidas
en los símbolos o mensajes correspondientes, los cuales son presentados al destinatario para su
interpretación.
Transmisor
Aunque no deja de ser frecuente encontrar el transductor de entrada acoplado directamente
al canal, como sucede, por ejemplo, en un sistema telefónico local, generalmente es necesario
“modular” una señal sinusoidal con la señal del transductor de entrada, sobre todo para transmisión
a gran distancia. La “modulación” es la variación sistemática de alguna característica de una
señal, denominada “portadora”, en concordancia con la señal mensaje o “señal modulante”.

Canal
El canal de transmisión es el enlace eléctrico entre el transmisor y el receptor. Puede ser un
par de conductores, un cable coaxial, una fibra óptica o sencillamente el espacio libre en el cual la
señal se propaga en forma de una onda electromagnética. Al propagarse a través del canal, la señal
transmitida se distorsiona debido a las no linealidades y/o las imperfecciones en la respuesta de
frecuencia del canal. Otras fuentes de degradación son el “ruido” y la “interferencia” que recoge la
señal a su paso por el canal.
279
PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Receptor
El objeto del receptor es el de extraer la señal deseada a partir de la señal degradada
transmitida por el canal. Como las señales recibidas son en general débiles y contaminadas con
ruido, una primera operación del receptor es la amplificación y filtrado de dichas señales para
poderlas procesar. Pero la operación fundamental del receptor es la “demodulación” o “detección”,
que es el proceso inverso de la modulación en el transmisor. Debido a la degradación de la señal
recibida, el receptor no puede reconstruir exactamente la señal original, aunque el tipo de
degradación que resulta depende del sistema de modulación que se utilice. Como lo veremos en
capítulos posteriores, hay ciertos sistemas de modulación que son menos sensibles que otros a los
efectos del ruido y de la distorsión.
Ruido
El término “ruido” se utiliza comúnmente para denominar aquellas señales que perturban la
transmisión y procesamiento de señales en los sistemas de comunicación y sobre las cuales no se
tiene un control completo.
El ruido que afecta a un sistema de comunicación se clasifica en categorías dependiendo de
su origen. Cuando el ruido proviene de los componentes del sistema tales como resistencias, tubos
al vacío y dispositivos de estado sólido, se conoce como “ruido interno”. La segunda categoría de
ruido resulta de fuentes externas al sistema de comunicación e incluye el ruido atmosférico,
extraterrestre y el producido por el hombre; es el “ruido externo”.

Al ruido externo lo podemos clasificar, someramente, en los siguientes tipos:


1. Ruido Atmosférico. Producido por descargas eléctricas asociadas a las tormentas. Se
conoce comúnmente como “estática”. Por debajo de los 100 MHz, la intensidad de
campo es inversamente proporcional a la frecuencia. En el dominio del tiempo se
caracteriza por impulsos de gran amplitud y poca duración; es un ruido de tipo
impulsivo. Afecta más a la banda de frecuencias medias (radiodifusión) que a la banda
de FM o TV. En la transmisión de datos es de particular importancia.
2. Ruido Extraterrestre. Incluye el debido al sol y otros cuerpos calientes del firmamento.
Debido a su alta temperatura y proximidad a la tierra, el sol es una fuente intensa, pero
afortunadamente localizada, de energía radiante en una amplia gama de frecuencias. Las
estrellas son fuentes de energía radiante de banda ancha, que aunque más distantes y por
ende menos intensas, por ser más numerosas son colectivamente importantes como
fuentes de ruido. Radioestrellas, tales como quasares y pulsares, también contribuyen al
ruido cósmico que en conjunto se extiende desde unos cuantos MHz hasta unos cuantos
GHz.
3. Ruido producido por el hombre. Incluye las descargas por efecto corona en líneas de
alta tensión, el producido por motores eléctricos, sistemas de diatermia, ruido de
conmutación, etc. El ruido de conmutación y de sistemas de ignición es del tipo
impulsivo tal como el ruido atmosférico. El debido al alumbrado fluorescente es un ruido
muy frecuente en nuestro medio ambiente.
Ancho de Banda y Potencia de Transmisión
En los sistemas de transmisión de información existen dos parámetros de gran importancia:
el ancho de banda del canal y la potencia transmitida. Los sistemas de comunicación deben
diseñarse entonces para utilizar estos dos recursos en la forma más eficiente posible. En general, es
difícil optimizar ambos recursos simultáneamente, pues en la mayoría de los canales de
PRINCIPIOS DE LA TRANSMISION DE INFORMACION

comunicación un recurso puede considerarse más importante o más escaso que otro. Se puede, por
lo tanto, clasificar los canales como “limitados en potencia” o “limitados en ancho de banda”.
Por ejemplo, los canales telefónicos son canales limitados en ancho de banda, mientras que un canal
de microondas lo es en potencia. La meta ideal en el diseño de un sistema de comunicación es la de
transmitir información a la máxima velocidad con el mínimo de potencia y ancho de banda. La
utilización óptima y eficiente de estos recursos es el principal objetivo en el diseño de los sistemas
de comunicación prácticos.

CONCEPTO Y MEDIDA DE LA INFORMACIÓN


Cantidad de Información
Hemos dicho que el propósito de un sistema de comunicación es el de transmitir
información. Sin embargo, no se ha especificado lo que realmente significa el término
“información” y mucho menos cómo se puede cuantificar. Todos tenemos un concepto más o
menos intuitivo de lo que es información, pero no conocemos los medios para medirla. Lo que sí
sabemos es que lo que ya conocemos no nos proporciona ningún nuevo conocimiento; sólo aquello
que ignoramos nos aporta alguna información al conocerlo. Esta es la esencia intuitiva de la
información.

El concepto de información supone entonces la existencia de duda o incertidumbre. La


incertidumbre implica que existen diferentes alternativas que deberán ser elegidas, seleccionadas o
discriminadas. Las alternativas se refieren a cualquier conjunto de signos construidos para
comunicarse, sean estos letras, palabras, números, ondas, etc. En este contexto, las señales
contienen información en virtud de su potencial para hacer elecciones. Estas señales operan sobre
las alternativas que conforman la incertidumbre del receptor y proporcionan el poder para
seleccionar o discriminar entre algunas de estas alternativas.

Al medir cuánta información proporciona la fuente al receptor al enviar un mensaje, se


parte del supuesto que cada elección está asociada con una cierta probabilidad, siendo algunos
mensajes más probables que otros. Uno de los objetivos de esta teoría es determinar la cantidad de
información que proporciona un mensaje, la cual puede ser determinada a partir de su probabilidad
de ser enviada.

En 1949, Claude Shannon propuso algunas definiciones básicas acerca de la información y


la velocidad de transmisión a la cual se puede transmitir sin error [Shannon, 1949]. Este trabajo,
más otros desarrollos afines, dio origen a la Teoría de la Información. Esta es una disciplina
altamente matemática y con aspectos que todavía no han sido instrumentados en la práctica. Sin
embargo, ciertos aspectos significativos de la teoría han sido aplicados exitosamente en sistemas
prácticos, y algunos de los conceptos fundamentales los veremos a continuación.
Consideremos un suceso A cualquiera. Cuanto menos se sepa de un suceso mayor será,
digamos, nuestra sorpresa al conocer la realización del mismo. La ignorancia en cuanto al suceso es
simplemente la incertidumbre que se tiene acerca de él. Al realizarse el suceso, la incertidumbre se
convierte en certeza y hemos obtenido un conocimiento o recibido una información. Por
consiguiente, podemos decir que
PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Cantidad de Incertidumbre = Cantidad de Información (4.1)


Por otro lado, la magnitud de la incertidumbre depende del grado de probabilidad de
ocurrencia del suceso A. Cuanto mayor sea la probabilidad de ocurrencia del suceso, menor será
nuestra incertidumbre. En consecuencia, podemos decir que la incertidumbre acerca del suceso A es
función de la probabilidad de que dicho suceso ocurra.
Sea entonces
U(A) = Incertidumbre acerca del suceso A
I(A) = Información adquirida al realizarse el suceso A
PA = Probabilidad de ocurrencia del suceso A
Podemos escribir entonces de (4.1) que
U(A) = I(A) = f(PA) (4.2)
En este sentido, la información es una medida de la incertidumbre. Por lo tanto, la
información asociada con el conocimiento de que un suceso dado ha ocurrido, es una función de la
probabilidad de ocurrencia de ese suceso. Se trata entonces de hallar la relación funcional f(PA).
La relación funcional f(PA) se puede elegir dentro de una clase bastante grande de
funciones, pero solamente algunas son de interés práctico en las aplicaciones. Una condición
esencial que la relación funcional f(PA) debe satisfacer, es la aditividad. En efecto, si se considera
que el suceso A está formado por la intersección de dos sucesos independientes B y C cuyas
probabilidades son PB y PC, respectivamente, entonces
(a) Si A = BC, f (PA ) = f (PB ) + f (PC ) (4.3)
La información asociada con el suceso A es igual a la suma de las informaciones asociadas
con los sucesos independientes B y C.
(b) La información es una magnitud siempre positiva, de donde
f (PA ) ≥ 0 donde 0 ≤ PA ≤ 1 (4.4)
(c) La probabilidad de un suceso cierto es 1, pero la información o incertidumbre será 0; de
modo que podemos escribir
lim f ( PA ) = 0 (4.5)
PA →1

(c) Por último, si la probabilidad de un suceso A es menor que la probabilidad de un suceso


B, debe verificarse que
f (PA ) > f (PB ) para PA < PB (4.6)
Hartley demostró [Hartley, 1928] que la única relación funcional que satisface las
condiciones (4.3) a (4.6) es una función logarítmica de la forma
1
f (PA ) = log b = − log b PA (4.7)
PA
Las unidades o dimensiones de la cantidad de información dependen de la base del
logaritmo. La solución más sencilla es aquella cuando se selecciona uno de dos mensajes o
símbolos, en cuyo caso b = 2. La unidad de información se denomina entonces “bit” (contracción
PRINCIPIOS DE LA TRANSMISION DE INFORMACION

inglesa de “binary unit”) y fue propuesta por J. W. Tukey en 1946 (No hay que confundir este “bit”
con el “bit” de “binary digit” utilizado en informática, que es simplemente una cifra binaria).
Antes de continuar debemos aclarar que la reciente norma ISO-2382/XVI establece el
shannon en vez del “bit” como medida de la información para evitar el doble uso del término bit
como dígito binario y como unidad de medida de la información. Sin embargo, nosotros seguiremos
usando la palabra “bit” y no el “shannon” como unidad de medida de la información.
La cantidad de información asociada con el suceso A será entonces
1
I(A) = log 2 = − log 2 PA bits (4.8)
PA
I(A) es la cantidad de información, en bits, asociada con un suceso A cuya probabilidad de
ocurrencia es PA. Nótese que I(A) es una cantidad siempre positiva.
Podemos ver que el concepto de información está ligado con las ideas de incertidumbre y
sorpresa.
Si fuera necesaria otra base (por ejemplo, b = e si la función se va a diferenciar o integrar, o
b = 10 para cálculos numéricos), la información se puede mantener expresada en bits mediante la
fórmula
1
log 2 N = log b N (4.9)
log b 2

En particular, para b = 10, log2 N ≈ 3,322 log10 N (4.10)


Nótese que la “información”, en el sentido de la teoría de la información, no tiene nada que
ver con el significado o sentido inherente en un mensaje. Es mas bien un grado de orden, o de no
aleatoriedad, que se puede medir y ser tratado matemáticamente en la misma forma como lo son la
masa, la energía o cualquiera otra cantidad física. La caracterización matemática de un sistema de
comunicación generalizado ha producido un cierto número de aspectos importantes, entre los cuales
se tiene:
1. La información promedio contenida en un mensaje dado.
2. La velocidad a la cual una fuente produce la información.
3. La capacidad de un canal para manejar o transportar esa información
4. La codificación de los mensajes para optimizar los tres aspectos anteriores.

CARACTERIZACIÓN DE LA INFORMACIÓN
Entropía
La cantidad de información definida en la ecuación (4.8) ha sido obtenida para un solo
mensaje y no es apropiada para describir una fuente que produce un conjunto de diferentes
mensajes con probabilidades diferentes. Un sistema de comunicación no está diseñado para la
transmisión de un mensaje particular sino para la transmisión de todos los mensajes posibles
producidos por una fuente. En este contexto, la cantidad de información definida en (4.8) es
inadecuada excepto en las circunstancias más simples. Por ejemplo, sean tres mensajes A, B y C
posibles; si los dos primeros fueran utilizados en promedio 10 veces por hora, y si el tercer mensaje
PRINCIPIOS DE LA TRANSMISION DE INFORMACION

se usara solamente una vez a la semana, entonces la cantidad de información asociada con los
mensajes sería más cercana a log2 2 bits que a log2 3 bits. Es decir, el “número efectivo” de
mensajes disponible es más cercano a 2 que a 3. Por consiguiente, cuando el flujo instantáneo de
información producido por una fuente es aleatorio, es mejor describir la fuente en términos de la
“información promedio” producida. Consecuentemente, se necesita conocer una medida de la
información promedio producida por la fuente teniendo en cuenta todos los posibles mensajes que
la fuente puede generar.
Consideremos entonces una fuente discreta que produce N símbolos o mensajes {x1, x2, x3,
..., xN} distintos e independientes, con probabilidades de ocurrencia correspondientes {P1, P2, P3,
...., PN}, donde Pi ≠ Pj , i ≠ j. Desde un punto de vista probabilístico, el conjunto discreto de N
símbolos o mensajes producidos por la fuente se puede considerar como un proceso aleatorio
discreto; es entonces un conjunto de N variables aleatorias, cada una de las cuales toma valores en
el conjunto {x1, x2, x3,..,xN} con probabilidades {P1 , P2 , ......., PN}.
De la definición de la probabilidad, debe cumplirse que
N
∑P n =1 (4.11)
n =1

De acuerdo con la ecuación (4.8), cuando se transmite un mensaje cualquiera x j , la


información asociada es Ij = log2(1/Pj) bits. Supongamos que se transmite una larga secuencia de L
mensajes o símbolos, donde L >> 1. En esta secuencia, el símbolo j-ésimo ocurrirá
aproximadamente LPj veces y la información asociada será LPjIj bits. La información total
contenida en la secuencia será, aproximadamente,
N
I t = LP1 I 1 + LP2 I 2 + LP3 I 3 +...... LPN I N = L ∑ Pj log 2 P1j bits (4.12)
j=1
La información promedio, en bits por símbolo, será entonces la información total de la
secuencia dividida por el número de símbolos de la misma. Esta información promedio
normalmente se representa con la letra H. En efecto, de (4.12),
N
∑Pj log 2 P1j
It
H= = bits/símbolo (4.13)
L j=1

Esta es la “Entropía de la Fuente”, como la denominó Shannon. La Entropía define la


incertidumbre de la fuente de información y es la información promedio asociada con dicha fuente.
La deducción de la ecuación (4.13) que hemos presentado es, hasta cierto punto, empírica; la
deducción rigurosa, realizada por Shannon, se puede encontrar en la Bibliografía [Shannon, 1949].
Nótese que la expresión (4.13) es la de un promedio conjunto. Si la fuente no es
estacionaria, las probabilidades de los símbolos pueden cambiar con el tiempo y la entropía tendría
poco significado. Se supondrá entonces que las fuentes de información son ergódicas, de tal manera
que los promedios de tiempo y conjunto sean idénticos.
La entropía de la fuente, o información promedio asociada con la fuente, significa entonces
que aunque no se pueda decir con certeza qué mensaje se va a producir, se espera obtener en
promedio H bits de información por mensaje, o LH bits en una secuencia de L mensajes. Por otro
lado, podemos considerar a H como el número mínimo de preguntas que se pueden establecer para
determinar qué mensaje particular se ha producido o se va a producir.
PRINCIPIOS DE LA TRANSMISION DE INFORMACION

La entropía H posee algunas propiedades que presentaremos aquí sin demostrarlas:


(a) Se puede demostrar [Ziemer y otros , 1976] que H es máxima cuando las probabilidades
de ocurrencia de los símbolos son iguales, es decir, cuando P1=P2=P3 = ...... = PN = 1/N.
En este caso, HMAX = log2 N (4.14)
En consecuencia, la entropía está acotada por 0 ≤ H ≤ log2 N (4.15)
donde N es el número de símbolos o mensajes producidos por la fuente.
Nótese entonces que cuando los símbolos o mensajes son equiprobables, la información
promedio asociada con la fuente es máxima.
(b) La información es mínima si uno de sus elementos es cierto; el sistema es
perfectamente conocido y no es posible obtener más información.
(c) La entropía es una función positiva, continua y simétrica.
(d) La información adquirida en dos etapas se suma.
♣ Ejemplo 4.1. Entropía de una Fuente Binaria.
Sea una fuente binaria (N = 2). Las
probabilidades de los símbolos son p y H(bits)
(1 − p ) , respectivamente. Por consiguiente, 1
1 1
H = p log 2 ( ) + (1 − p) log 2 ( )
p 1− p p
En la Fig. 4.2 se grafica H vs p 0 0,5 1
Nótese que si p = ½, entonces H = 1 bit, 4.2. Entropía de una Fuente Binaria
valor que corresponde al pico de la curva.

La entropía de una fuente binaria se conoce
con el nombre de Ley de Bernoulli.

♣ Ejemplo 1.2.
Una fuente produce cuatro símbolos A, B, C y D cuyas probabilidades son,
respectivamente, 0,5; 0,25; 0,125 y 0,125. La entropía de la fuente será
H = 0,5 log 2 2 + 0,25 log 2 4 + 2x 0,15 log 2 8 = 1,75 bits/símbolo
Si los símbolos fueran equiprobables, esto es, si p = ¼, entonces
H = log 2 4 = 2 bits/símbolo
Vemos que la entropía H es máxima cuando los símbolos son equiprobables.

PRINCIPIOS DE LA TRANSMISION DE INFORMACION

♣ Ejemplo 4.3.
Consideremos la información producida por una máquina de escribir de 26 letras y el
espacio entre letras; en otras palabras, la fuente produce 27 símbolos.
Si todos los símbolos tuvieran la misma probabilidad, HMAX = log2 27 = 4,755 bits/letra.
Esta es la máxima información que la máquina de escribir puede generar. Pero en el idioma español
las letras tienen diferentes probabilidades de ocurrencia en un texto. Por ejemplo, la letra E es la que
ocurre con más frecuencia. Se ha determinado experimentalmente que la información promedio
asociada con una letra es de aproximadamente 4,2 bits. Asimismo, una palabra tiene, en promedio,
5 letras y un contenido de información de 9,3 bits. ♣
♣ Ejemplo 4.4.
Se manipula un dado de tal manera que la probabilidad de que salga un UNO o un SEIS es
el doble de la correspondiente a cada una de las otras cuatro caras. Vamos a determinar la entropía
asociada con el dado.
Solución
Sea p la probabilidad de sacar un UNO o un SEIS. Debe verificarse, de acuerdo con (4.11),
que
1 1 1 1
p+p+ p+ p+ p+ p = 1, de donde p = ¼
2 2 2 2
1 1
H=2 log 2 4 + 4 log 2 8 = 2 ,5 bits/cara
4 8
Si el dado fuera correcto, H = log2 6 = 2,59 bits/cara

Velocidad de Información
Para efectos prácticos, la descripción de una fuente no reside en su entropía sola sino
también en la velocidad a la cual está produciendo los símbolos o velocidad de información, en bits
por segundo (bps).
En los sistemas de comunicación es de especial importancia conocer la cantidad de
información que produce la fuente o se transfiere por unidad de tiempo, es decir, la velocidad de la
información.
Sea una fuente que produce N símbolos distintos e independientes a una velocidad de Vs
símbolos por segundo. Si suponemos que los símbolos tienen todos la misma duración T, entonces
1
Vs = símbolos/segundo (4.16)
T
La velocidad de información será
N

∑ P log
1 1
Vi = Vs H = j 2 bits/seg (bps) (4.17)
T Pj
j =1

y si los símbolos son equiprobables,


1
Vi = Vs log 2 N = log 2 N bps (4.18)
T
PRINCIPIOS DE LA TRANSMISION DE INFORMACION

Algunos autores llaman a la velocidad de información “rata o tasa de información” (del


inglés “rate”); pero, en este contexto, la palabra “rata” en español significa “porcentaje” o “parte
proporcional”. Nosotros emplearemos los términos “velocidad de información” o “velocidad de
transmisión” indistintamente. El término entropía no lo usaremos más.
♣ Ejemplo 4.5.
Los símbolos de la fuente del Ejemplo 4.2 se producen a una velocidad de 1000 símbolos
por segundo. La velocidad de información de la fuente será
a) Si los símbolos tienen diferentes probabilidades
Vi = Vs H = 1000 x 1,75 = 1750 bps
b) Si los símbolos son equiprobables, Vi = Vs log2 4 = 2000 bps
Nótese nuevamente que la velocidad de información es máxima cuando los símbolos son
equiprobables. ♣
Codificación de Fuente. Codificación de Canal
Hemos dicho que, en general, los símbolos tal como salen de la fuente pueden no ser
apropiados para ser transmitidos por un canal dado. Es necesario, pues, efectuar una conversión o
adaptación de los símbolos en formas compatibles con el medio de transmisión; ésta es la
“codificación de fuente”. Una clase muy importante de conversión de fuente es aquella que
convierte los símbolos producidos por la fuente en secuencias de impulsos discretos sin agregarles
redundancia, de gran interés en los sistemas de procesamiento y transmisión digital de señales
(redundancia es la cantidad de símbolos agregados por un codificador a fin de acentuar la unicidad
de cada mensaje digital y facilitar su interpretación en el destino). Hay varios métodos de
codificación digital de fuente; sin embargo, sin perder generalidad, vamos a suponer un sistema
básico mediante el cual cada símbolo o mensaje se transforma en una secuencia particular de n
impulsos con m amplitudes cada uno, secuencia que denominaremos “muestra codificada o
palabra codificada” y el conjunto de palabras codificadas forman secuencias aleatorias binarias y
m-arias, en el sentido visto en la Sección 3.9 del Capítulo III. Esta transformación se denomina
comúnmente “conversión” o “codificación” y el dispositivo que la efectúa, “convertidor” o
“codificador”. Como se considera que el codificador no tiene memoria, la duración de la muestra
codificada debe ser, como máximo, igual a la duración de cada símbolo a fin de no perder
información. Los códigos ASCII y Baudot son formas de codificación de fuente con redundancia
agregada para facilitar la transmisión, como veremos más adelante.
La codificación de canal es la forma de codificar una señal digital con el fin de adaptarla a
un canal y que a la vez facilite la corrección de errores. Los códigos de línea, que veremos en el
Capítulo V son formas de codificación de canal.
En sistemas de procesamiento y transmisión de señales digitales, se utilizan secuencias
binarias (m = 2) que contienen 8 impulsos (n = 8). Esta secuencia binaria de 8 impulsos se
denomina comúnmente “byte” u “octeto” (Nótese que 1 Kbyte = 1024 bytes, para diferenciarlo de
1 kbyte = 1000 bytes). En la práctica hay muchos códigos con redundancia que emplean secuencias
multinivel o m-arias y esquemas para la detección y corrección de errores, como veremos en los
Capítulos V y VI. Para más detalles sobre codificación y códigos, el lector puede consultar la
bibliografía especializada.
Sea entonces, Fig. 4.3(a), una fuente de información discreta sin memoria que produce N
símbolos distintos e independientes, que podemos suponer equiprobables, a una velocidad Vs = 1/T
símbolos/segundo, donde T es la duración de cada símbolo. Los símbolos se codifican, cada uno, en
PRINCIPIOS DE LA TRANSMISION DE INFORMACION

secuencias de n impulsos con m amplitudes, denominadas “muestras codificadas”, como se ilustra


en la Fig. 4.3(b). Esta es una forma de codificación de fuente multinivel sin redundancia.

n Impulsos de Información
Fuente de
Información

m Niveles
Reloj Codificador o
Amplitudes 1 2 3 4 5 n
t

Salida τ
(a) Codificada (b) T(un sím bolo)

M uestra Codificada

Fig. 4.3. Codificación en Secuencias de Impulsos Multinivel sin Redundancia.


A la salida de la fuente de información la velocidad de transmisión es, de la expresión
(4.18),
1
Vif = log 2 N (4.19)
T
Asimismo, a la salida del codificador la información total contenida en la muestra
codificada es la suma de la información contenida en cada impulso (propiedad aditiva de la
información), es decir,
I = n log 2 m = log 2 m n bits (4.20)
La velocidad de información a la salida del codificador será
n log 2 m 1
Vic = = log 2 m n bps (4.21)
T T
Como se supone que el sistema no tiene memoria (elementos de almacenamiento), la
velocidad de información será la misma en todos los puntos a lo largo del sistema, es decir,
Vi = Vif = Vic
de modo que, de (4.19), (4.20) y (4.21),
N = mn m y n enteros (4.22)
Esta expresión, que denominaremos “relación de conversión o de codificación”, es de
gran utilización en los sistemas digitales de transmisión de información, pues relaciona los
parámetros m y n del codificador con el número N de símbolos producidos por la fuente.
Nótese que la relación (4.22) es independiente de T, lo que significa que la relación entre m,
n y N es válida para cualquier sistema con o sin memoria, y para cualquiera velocidad de
información.
♣ Ejemplo 4.6.
Una fuente de información produce 256 símbolos, que suponemos independientes y
equiprobables, a una velocidad de 100 símbolos por segundo. Si cada símbolo se codifica en
PRINCIPIOS DE LA TRANSMISION DE INFORMACION

secuencias de n impulsos con m amplitudes sin redundancia, vamos a determinar la velocidad de


información y los valores posibles de m y n.
Solución
La velocidad de información es Vi = 100 log 2 256 = 800 bps. Las combinaciones de m y n
que satisfacen la expresión (4.22), es decir, 256 = m n , son
m = 2 y n = 8 (caso binario); m=4 y n=4 ♣

Velocidad de Modulación
En general, los codificadores son dispositivos comandados por un reloj, de modo que los
impulsos tienen todos la misma duración τ. De la Fig. 4.3, T = nτ y la expresión (4.21) queda en
la forma siguiente
1
Vi = log 2 m = Vb log 2 m bps (4.23)
τ
1
donde Vb = (4.24)
τ
Vb es el número de impulsos por segundo; se conoce con el nombre de “velocidad de
modulación” o “velocidad de señalización”, y se expresa en baudios, en honor del ingeniero
francés Emile Baudot.
En un sistema binario, m = 2 y la expresión (4.23) queda en la forma
V i = Vb (4.25)
Esto significa que en un sistema binario la velocidad de información y la velocidad de
modulación son numéricamente iguales. Este resultado es válido si la codificación se ha efectuado
en la forma mostrada en la Fig. 4.4, es decir, sin redundancia agregada, como veremos después del
siguiente ejemplo.
♣ Ejemplo 4.7.
Se puede ahora calcular la velocidad de modulación de las muestras codificadas del
1
Ejemplo 4.6. En efecto, Vs = 100 símb/seg = ; T = 10 ms
T
T 1
a) n = 8; τ1 = = 1,25 ms; Vb1 = = 800 baudios
8 τ1

T 1
b) n = 4; τ2 =
= 2,5 ms; Vb2 = = 400 baudios ♣
4 τ2
Redundancia Agregada
En el sistema mostrado en la Fig. 4.3 se supone que en el extremo receptor se sabe cuándo
comienza y cuándo termina cada secuencia de impulsos. Por ejemplo, en algunos sistemas
denominados “asincrónicos” es necesario enviar impulsos adicionales para indicar el principio o el
fin (o ambos) de cada muestra codificada a fin de que se pueda efectuar con exactitud el proceso de
descodificación, esto es, la reconversión de las secuencias de impulsos codificados en símbolos de
significación para el usuario final de la información. También puede agregarse otros impulsos para
control y detección de errores, extracción de la temporización, etc., que tampoco llevan información
PRINCIPIOS DE LA TRANSMISION DE INFORMACION

útil. Todos estos impulsos adicionales se denominan “impulsos redundantes” o simplemente


“redundancia”.
Es evidente que los impulsos de redundancia más los impulsos de información deberán
estar contenidos dentro del mismo tiempo T si no se quiere perder información (se supone que el
sistema no tiene elementos de almacenamiento). Para simplificar el enfoque, consideremos una
muestra codificada a la cual se le han agregado dos impulsos de duración pτ‘ y qτ‘, que
llamaremos impulsos de “arranque” y “pare”, respectivamente; p y q son, con algunas
excepciones (por ejemplo, el Código Baudot, mostrado en la Fig. 4.13(a)), números enteros pues
suponemos que el codificador está controlado por un reloj. Esta situación se muestra en la Fig. 4.4:
la codificación es multinivel y la polaridad, amplitud y duración de los impulsos de arranque y pare
son arbitrarias pero fijas. Nótese que todos estos impulsos deben estar contenidos en el tiempo T de
duración de los símbolos.

n Impulsos de Información
m Niveles Pare
o
Amplitudes n
1 2 3 4 5 6
τ, qτ,
Arranque
pτ,
T (un sìmbolo)
Fig. 4.4. Muestra Codificada Multinivel Con Impulsos Redundantes

De la Fig. 4.4, T = (n + p + q)τ´


de donde
n log 2 m n
Vi = = Vb' log 2 m bps (4.26)
(n + p + q )τ ' n+p+q

Puesto que la velocidad de información no ha variado, τ' < τ y Vb' > Vb (4.27)

Considerando entonces los impulsos redundantes agregados, la velocidad de información


vendrá dada (eliminando el índice de Vb ' ) por
Vi = KVb log 2 m (4.28)
n
donde K= <1 es la “relación entre el número de impulsos de información y el
n+p+q
número total de impulsos de la muestra codificada”. El valor de K (como un porcentaje K%) es
una medida del rendimiento o eficiencia de la codificación (Ver Problema de Aplicación 4.33).
En el caso binario, m = 2, de donde Vi = KVb (4.29)
Se verifica entonces que Vi < Vb
La velocidad de modulación ya no es igual a la velocidad de información debido a los
impulsos redundantes. Sin embargo, la velocidad de modulación ha aumentado y la duración de los
impulsos ha disminuido, lo cual impone restricciones más severas sobre el canal, como veremos
más adelante.
PRINCIPIOS DE LA TRANSMISION DE INFORMACION

En general, cuando los impulsos (de información o redundantes) tienen diferente duración,
la velocidad de modulación se define respecto al impulso de menor duración presente en la muestra
codificada. Veremos más adelante que los impulsos de menor duración son los que exigen mayor
ancho de banda para su transmisión.
Vemos entonces que un cambio de estado puede implicar la transmisión de más de un bit de
información. Por lo tanto, el concepto de baudio está ligado directamente a las características del
medio de transmisión y se corresponde con el número de impulsos por unidad de tiempo compatible
con un ancho de banda determinado.
♣ Ejemplo 4.8. Código ASCII o Alfabeto Internacional N° 5 de la UIT-T
En este tipo de codificación binaria cada carácter alfanumérico se codifica como se muestra
en la Fig. 4.5: un impulso de arranque siempre a CERO, siete impulsos de información, un impulso
de paridad (para gestión o control de error) y un impulso de pare de duración variable (hasta 2τ)
siempre a UNO. En el Apéndice B-5 se especifica este código en detalle; ver también la Fig.
4.13(b).

0 1 0 1 0 1 0 1 0 1 1
a b c d
T

a: Impulso de Arranque (siempre a "0"); b: Impulsos de Información


c: Impulso de Paridad (detector de error); d: Impulsos de Pare (siempre a "1")

Fig. 4.5. Letra U codificada en ASCII con bit de paridad.

En transmisión por teletipo, por ejemplo, los caracteres ASCII fluyen a una velocidad de 10
caracteres por segundo. Por ejemplo, en la Fig. 4.5 se muestra la letra U en ASCII. Entonces,
Vs = 10 caracteres/seg.; T = 1/10 = 100 ms = 11τ; n = 7; m = 2; K=7/11; K% = 64%
1
Velocidad de Modulación: Vb = = 110 baudios
τ
7
Velocidad de Información: Vi = 110 log 2 2 = 70 bps
11
Número de Caracteres de la Fuente: N = 2 7 = 128 caracteres ♣

Vous aimerez peut-être aussi