Académique Documents
Professionnel Documents
Culture Documents
INTRODUCCIÓN
Se puede definir la comunicación como el proceso mediante el cual se transfiere
información desde un punto en el espacio y en el tiempo, denominado “fuente de información”,
hasta otro punto denominado “destino de la información”, con el mínimo de pérdidas o
perturbaciones.
Es evidente que una reproducción perfecta de un mensaje no es posible, pero desde un
punto de vista práctico es suficiente que la reproducción sea hecha con una aproximación o
fidelidad que depende del fin perseguido. Por ejemplo, en una conversación telefónica la
“fidelidad” necesaria es menor que la requerida en radiodifusión o televisión. Igualmente, en una
comunicación entre máquinas o dispositivos, la fidelidad requerida dependerá del objetivo de la
transmisión. Por ejemplo, la transmisión de las variaciones de temperatura, en un proceso de
automatización, se debe efectuar con la precisión requerida por los demás elementos del sistema. En
todo caso, en el proceso de transmisión la información experimentará siempre una cierta
degradación, cuyos límites dependerán del empleo que se haga de la información.
La mayor parte de los sistemas de comunicación actuales se caracteriza por la presencia de
personas en los extremos del sistema. Los sistemas de comunicación pueden considerarse entonces
como una prolongación de nuestros sentidos. El teléfono, por ejemplo, hace posible la conversación
entre dos personas alejadas entre sí como si ellas estuvieran frente a frente. Por otro lado, las
perturbaciones en la mayoría de los sistemas de comunicación se parecen a las perturbaciones a las
cuales nuestros sentidos están adaptados, y por ello los sistemas clásicos de comunicación dan
resultados satisfactorios aún con un equipo terminal reducido o de muy baja resolución. Se sabe que
cuando hay mucho ruido en un ambiente ruidoso, entonces se habla más fuerte, se pronuncian las
palabras lentamente y con más claridad empleándose un vocabulario más limitado y con las
palabras más usuales. En otras palabras, la fuente de información se adapta a las condiciones del
canal de comunicación disponible. Sin embargo, en la comunicación entre máquinas esta
“codificación natural” no existe, lo que implica un aumento en la complejidad de los equipos
terminales a fin de obtener el grado de precisión o resolución requeridos en el proceso de
transmisión.
MODELO DE UN SISTEMA DE TRANSMISIÓN DE INFORMACIÓN
Desde el punto de vista de la ingeniería de las comunicaciones, un sistema completo de
transmisión de información se puede representar entonces como se muestra en la Fig. 4.1 [Shannon,
1949].
Sistema de Transmisión
Ruido
Fuente de Información
La información o inteligencia a transmitir se origina en la fuente de información. Esta
información se materializa como un conjunto, que sin perder generalidad supondremos finito y
discreto, de N símbolos o mensajes distintos e independientes que se transmiten y cuyo significado
es conocido en el destino del sistema. La fuente de información así definida se denomina “fuente
discreta sin memoria” (“sin memoria” quiere decir que la aparición de un símbolo no depende de
los anteriores; es parte de la independencia de los mensajes).
Hay muchas clases de fuentes de información, incluyendo personas y máquinas, de manera
que los símbolos o mensajes pueden tomar una gran variedad de formas: una secuencia de símbolos
discretos o letras, magnitudes que varían en el tiempo, etc.; pero cualquiera que sea el mensaje, el
propósito del sistema de comunicación es el de proporcionar una réplica más o menos exacta del
mismo en el destino.
Transductor de Entrada
Como regla, el mensaje que produce la fuente no es de naturaleza eléctrica y, por lo tanto,
es necesaria la presencia de un “transductor” o “codificador” que convierta el mensaje en una
“señal”. Esta última es una magnitud eléctrica variable en el tiempo (corrientes o voltajes)
compatible con el tipo particular de sistema de transmisión que se emplee.
Nótese entonces la diferencia entre información, mensaje y señal: información es la
inteligencia o significado que se va a transmitir: es una entidad intangible. Mensaje es la
materialización de la información en una cantidad mensurable: el mensaje es el soporte de la
información. Señal es la magnitud eléctrica que resulta de la transformación de una magnitud no
eléctrica portadora de información en una magnitud eléctrica variable en el tiempo. A este
respecto, el número de elementos del conjunto de las señales de salida del transductor debe ser igual
al número de elementos del conjunto de símbolos o mensajes de la fuente de información. La señal
de salida del transductor portadora de información se conoce también con el nombre de “señal
mensaje” o simplemente “mensaje”.
El transductor de salida o “descodificador” (o decodificador, del inglés “decoder”), efectúa
la operación inversa del transductor de entrada; es decir, reconvierte las señales eléctricas recibidas
en los símbolos o mensajes correspondientes, los cuales son presentados al destinatario para su
interpretación.
Transmisor
Aunque no deja de ser frecuente encontrar el transductor de entrada acoplado directamente
al canal, como sucede, por ejemplo, en un sistema telefónico local, generalmente es necesario
“modular” una señal sinusoidal con la señal del transductor de entrada, sobre todo para transmisión
a gran distancia. La “modulación” es la variación sistemática de alguna característica de una
señal, denominada “portadora”, en concordancia con la señal mensaje o “señal modulante”.
Canal
El canal de transmisión es el enlace eléctrico entre el transmisor y el receptor. Puede ser un
par de conductores, un cable coaxial, una fibra óptica o sencillamente el espacio libre en el cual la
señal se propaga en forma de una onda electromagnética. Al propagarse a través del canal, la señal
transmitida se distorsiona debido a las no linealidades y/o las imperfecciones en la respuesta de
frecuencia del canal. Otras fuentes de degradación son el “ruido” y la “interferencia” que recoge la
señal a su paso por el canal.
279
PRINCIPIOS DE LA TRANSMISION DE INFORMACION
Receptor
El objeto del receptor es el de extraer la señal deseada a partir de la señal degradada
transmitida por el canal. Como las señales recibidas son en general débiles y contaminadas con
ruido, una primera operación del receptor es la amplificación y filtrado de dichas señales para
poderlas procesar. Pero la operación fundamental del receptor es la “demodulación” o “detección”,
que es el proceso inverso de la modulación en el transmisor. Debido a la degradación de la señal
recibida, el receptor no puede reconstruir exactamente la señal original, aunque el tipo de
degradación que resulta depende del sistema de modulación que se utilice. Como lo veremos en
capítulos posteriores, hay ciertos sistemas de modulación que son menos sensibles que otros a los
efectos del ruido y de la distorsión.
Ruido
El término “ruido” se utiliza comúnmente para denominar aquellas señales que perturban la
transmisión y procesamiento de señales en los sistemas de comunicación y sobre las cuales no se
tiene un control completo.
El ruido que afecta a un sistema de comunicación se clasifica en categorías dependiendo de
su origen. Cuando el ruido proviene de los componentes del sistema tales como resistencias, tubos
al vacío y dispositivos de estado sólido, se conoce como “ruido interno”. La segunda categoría de
ruido resulta de fuentes externas al sistema de comunicación e incluye el ruido atmosférico,
extraterrestre y el producido por el hombre; es el “ruido externo”.
comunicación un recurso puede considerarse más importante o más escaso que otro. Se puede, por
lo tanto, clasificar los canales como “limitados en potencia” o “limitados en ancho de banda”.
Por ejemplo, los canales telefónicos son canales limitados en ancho de banda, mientras que un canal
de microondas lo es en potencia. La meta ideal en el diseño de un sistema de comunicación es la de
transmitir información a la máxima velocidad con el mínimo de potencia y ancho de banda. La
utilización óptima y eficiente de estos recursos es el principal objetivo en el diseño de los sistemas
de comunicación prácticos.
inglesa de “binary unit”) y fue propuesta por J. W. Tukey en 1946 (No hay que confundir este “bit”
con el “bit” de “binary digit” utilizado en informática, que es simplemente una cifra binaria).
Antes de continuar debemos aclarar que la reciente norma ISO-2382/XVI establece el
shannon en vez del “bit” como medida de la información para evitar el doble uso del término bit
como dígito binario y como unidad de medida de la información. Sin embargo, nosotros seguiremos
usando la palabra “bit” y no el “shannon” como unidad de medida de la información.
La cantidad de información asociada con el suceso A será entonces
1
I(A) = log 2 = − log 2 PA bits (4.8)
PA
I(A) es la cantidad de información, en bits, asociada con un suceso A cuya probabilidad de
ocurrencia es PA. Nótese que I(A) es una cantidad siempre positiva.
Podemos ver que el concepto de información está ligado con las ideas de incertidumbre y
sorpresa.
Si fuera necesaria otra base (por ejemplo, b = e si la función se va a diferenciar o integrar, o
b = 10 para cálculos numéricos), la información se puede mantener expresada en bits mediante la
fórmula
1
log 2 N = log b N (4.9)
log b 2
CARACTERIZACIÓN DE LA INFORMACIÓN
Entropía
La cantidad de información definida en la ecuación (4.8) ha sido obtenida para un solo
mensaje y no es apropiada para describir una fuente que produce un conjunto de diferentes
mensajes con probabilidades diferentes. Un sistema de comunicación no está diseñado para la
transmisión de un mensaje particular sino para la transmisión de todos los mensajes posibles
producidos por una fuente. En este contexto, la cantidad de información definida en (4.8) es
inadecuada excepto en las circunstancias más simples. Por ejemplo, sean tres mensajes A, B y C
posibles; si los dos primeros fueran utilizados en promedio 10 veces por hora, y si el tercer mensaje
PRINCIPIOS DE LA TRANSMISION DE INFORMACION
se usara solamente una vez a la semana, entonces la cantidad de información asociada con los
mensajes sería más cercana a log2 2 bits que a log2 3 bits. Es decir, el “número efectivo” de
mensajes disponible es más cercano a 2 que a 3. Por consiguiente, cuando el flujo instantáneo de
información producido por una fuente es aleatorio, es mejor describir la fuente en términos de la
“información promedio” producida. Consecuentemente, se necesita conocer una medida de la
información promedio producida por la fuente teniendo en cuenta todos los posibles mensajes que
la fuente puede generar.
Consideremos entonces una fuente discreta que produce N símbolos o mensajes {x1, x2, x3,
..., xN} distintos e independientes, con probabilidades de ocurrencia correspondientes {P1, P2, P3,
...., PN}, donde Pi ≠ Pj , i ≠ j. Desde un punto de vista probabilístico, el conjunto discreto de N
símbolos o mensajes producidos por la fuente se puede considerar como un proceso aleatorio
discreto; es entonces un conjunto de N variables aleatorias, cada una de las cuales toma valores en
el conjunto {x1, x2, x3,..,xN} con probabilidades {P1 , P2 , ......., PN}.
De la definición de la probabilidad, debe cumplirse que
N
∑P n =1 (4.11)
n =1
♣ Ejemplo 1.2.
Una fuente produce cuatro símbolos A, B, C y D cuyas probabilidades son,
respectivamente, 0,5; 0,25; 0,125 y 0,125. La entropía de la fuente será
H = 0,5 log 2 2 + 0,25 log 2 4 + 2x 0,15 log 2 8 = 1,75 bits/símbolo
Si los símbolos fueran equiprobables, esto es, si p = ¼, entonces
H = log 2 4 = 2 bits/símbolo
Vemos que la entropía H es máxima cuando los símbolos son equiprobables.
♣
PRINCIPIOS DE LA TRANSMISION DE INFORMACION
♣ Ejemplo 4.3.
Consideremos la información producida por una máquina de escribir de 26 letras y el
espacio entre letras; en otras palabras, la fuente produce 27 símbolos.
Si todos los símbolos tuvieran la misma probabilidad, HMAX = log2 27 = 4,755 bits/letra.
Esta es la máxima información que la máquina de escribir puede generar. Pero en el idioma español
las letras tienen diferentes probabilidades de ocurrencia en un texto. Por ejemplo, la letra E es la que
ocurre con más frecuencia. Se ha determinado experimentalmente que la información promedio
asociada con una letra es de aproximadamente 4,2 bits. Asimismo, una palabra tiene, en promedio,
5 letras y un contenido de información de 9,3 bits. ♣
♣ Ejemplo 4.4.
Se manipula un dado de tal manera que la probabilidad de que salga un UNO o un SEIS es
el doble de la correspondiente a cada una de las otras cuatro caras. Vamos a determinar la entropía
asociada con el dado.
Solución
Sea p la probabilidad de sacar un UNO o un SEIS. Debe verificarse, de acuerdo con (4.11),
que
1 1 1 1
p+p+ p+ p+ p+ p = 1, de donde p = ¼
2 2 2 2
1 1
H=2 log 2 4 + 4 log 2 8 = 2 ,5 bits/cara
4 8
Si el dado fuera correcto, H = log2 6 = 2,59 bits/cara
♣
Velocidad de Información
Para efectos prácticos, la descripción de una fuente no reside en su entropía sola sino
también en la velocidad a la cual está produciendo los símbolos o velocidad de información, en bits
por segundo (bps).
En los sistemas de comunicación es de especial importancia conocer la cantidad de
información que produce la fuente o se transfiere por unidad de tiempo, es decir, la velocidad de la
información.
Sea una fuente que produce N símbolos distintos e independientes a una velocidad de Vs
símbolos por segundo. Si suponemos que los símbolos tienen todos la misma duración T, entonces
1
Vs = símbolos/segundo (4.16)
T
La velocidad de información será
N
∑ P log
1 1
Vi = Vs H = j 2 bits/seg (bps) (4.17)
T Pj
j =1
n Impulsos de Información
Fuente de
Información
m Niveles
Reloj Codificador o
Amplitudes 1 2 3 4 5 n
t
Salida τ
(a) Codificada (b) T(un sím bolo)
M uestra Codificada
Velocidad de Modulación
En general, los codificadores son dispositivos comandados por un reloj, de modo que los
impulsos tienen todos la misma duración τ. De la Fig. 4.3, T = nτ y la expresión (4.21) queda en
la forma siguiente
1
Vi = log 2 m = Vb log 2 m bps (4.23)
τ
1
donde Vb = (4.24)
τ
Vb es el número de impulsos por segundo; se conoce con el nombre de “velocidad de
modulación” o “velocidad de señalización”, y se expresa en baudios, en honor del ingeniero
francés Emile Baudot.
En un sistema binario, m = 2 y la expresión (4.23) queda en la forma
V i = Vb (4.25)
Esto significa que en un sistema binario la velocidad de información y la velocidad de
modulación son numéricamente iguales. Este resultado es válido si la codificación se ha efectuado
en la forma mostrada en la Fig. 4.4, es decir, sin redundancia agregada, como veremos después del
siguiente ejemplo.
♣ Ejemplo 4.7.
Se puede ahora calcular la velocidad de modulación de las muestras codificadas del
1
Ejemplo 4.6. En efecto, Vs = 100 símb/seg = ; T = 10 ms
T
T 1
a) n = 8; τ1 = = 1,25 ms; Vb1 = = 800 baudios
8 τ1
T 1
b) n = 4; τ2 =
= 2,5 ms; Vb2 = = 400 baudios ♣
4 τ2
Redundancia Agregada
En el sistema mostrado en la Fig. 4.3 se supone que en el extremo receptor se sabe cuándo
comienza y cuándo termina cada secuencia de impulsos. Por ejemplo, en algunos sistemas
denominados “asincrónicos” es necesario enviar impulsos adicionales para indicar el principio o el
fin (o ambos) de cada muestra codificada a fin de que se pueda efectuar con exactitud el proceso de
descodificación, esto es, la reconversión de las secuencias de impulsos codificados en símbolos de
significación para el usuario final de la información. También puede agregarse otros impulsos para
control y detección de errores, extracción de la temporización, etc., que tampoco llevan información
PRINCIPIOS DE LA TRANSMISION DE INFORMACION
n Impulsos de Información
m Niveles Pare
o
Amplitudes n
1 2 3 4 5 6
τ, qτ,
Arranque
pτ,
T (un sìmbolo)
Fig. 4.4. Muestra Codificada Multinivel Con Impulsos Redundantes
Puesto que la velocidad de información no ha variado, τ' < τ y Vb' > Vb (4.27)
En general, cuando los impulsos (de información o redundantes) tienen diferente duración,
la velocidad de modulación se define respecto al impulso de menor duración presente en la muestra
codificada. Veremos más adelante que los impulsos de menor duración son los que exigen mayor
ancho de banda para su transmisión.
Vemos entonces que un cambio de estado puede implicar la transmisión de más de un bit de
información. Por lo tanto, el concepto de baudio está ligado directamente a las características del
medio de transmisión y se corresponde con el número de impulsos por unidad de tiempo compatible
con un ancho de banda determinado.
♣ Ejemplo 4.8. Código ASCII o Alfabeto Internacional N° 5 de la UIT-T
En este tipo de codificación binaria cada carácter alfanumérico se codifica como se muestra
en la Fig. 4.5: un impulso de arranque siempre a CERO, siete impulsos de información, un impulso
de paridad (para gestión o control de error) y un impulso de pare de duración variable (hasta 2τ)
siempre a UNO. En el Apéndice B-5 se especifica este código en detalle; ver también la Fig.
4.13(b).
0 1 0 1 0 1 0 1 0 1 1
a b c d
T
En transmisión por teletipo, por ejemplo, los caracteres ASCII fluyen a una velocidad de 10
caracteres por segundo. Por ejemplo, en la Fig. 4.5 se muestra la letra U en ASCII. Entonces,
Vs = 10 caracteres/seg.; T = 1/10 = 100 ms = 11τ; n = 7; m = 2; K=7/11; K% = 64%
1
Velocidad de Modulación: Vb = = 110 baudios
τ
7
Velocidad de Información: Vi = 110 log 2 2 = 70 bps
11
Número de Caracteres de la Fuente: N = 2 7 = 128 caracteres ♣