Vous êtes sur la page 1sur 46

Capítulo I

Señales y Espectro
Este libro presenta las ideas y técnicas fundamentales para los sistemas
de comunicación digital. Se hace hincapié en los objetivos de diseño del sistema
y en la necesidad de llegar a un equilibrio entre los parámetros básicos del
sistema, como la relación señal/ruido (SNR), la probabilidad de error y el gasto
en ancho de banda. Nos ocuparemos de la transmisión de información (voz,
vídeo o datos) a través de una ruta (canal) que puede consistir en cables, guías
de onda o espacio.
Los sistemas de comunicación digital son cada vez más atractivos debido
a la creciente demanda de comunicación de datos y porque la transmisión digital
ofrece opciones de procesamiento de datos y flexibilidades que no están
disponibles con la transmisión analógica. En este libro, un sistema digital se trata
a menudo en el contexto de un enlace de comunicaciones por satélite. A veces
el tratamiento se realiza en el contexto de un sistema de radio móvil, en cuyo
caso la transmisión de la señal suele sufrir un fenómeno denominado
desvanecimiento. En general, la tarea de caracterizar y mitigar los efectos de
degradación de un canal de desvanecimiento es más difícil que la de realizar
tareas similares para un canal no desvanecido.
La característica principal de un sistema de comunicación digital (DCS) es
que durante un intervalo de tiempo finito, envía una forma de onda desde un
conjunto finito de posibles formas de onda, en contraste con un sistema de
comunicación analógica, que envía una forma de onda desde una variedad
infinita de formas de onda con una resolución teóricamente infinita. En un DCS,
el objetivo en el receptor no es reproducir una forma de onda transmitida con
precisión; en cambio, el objetivo es determinar a partir de una señal perturbada
por el ruido qué forma de onda del conjunto finito de formas de onda fue enviada
por el transmisor. Una medida importante del rendimiento del sistema en un DCS
es la probabilidad de error (PE).
1.1 PROCESAMIENTO DE LA SEÑAL DE COMUNICACIÓN DIGITAL
1.1.1 ¿Por qué digital?
¿Por qué los sistemas de comunicación, tanto militares como comerciales,
"se están volviendo digitales"? Hay muchas razones. La principal ventaja es la
facilidad con la que se regeneran las señales digitales, en comparación con las
señales analógicas. La figura 1.1 ilustra un pulso digital binario ideal que se
propaga a lo largo de una línea de transmisión. La forma de la forma de onda se
ve afectada por dos mecanismos básicos: (1) dado que todas las líneas y
circuitos de transmisión tienen alguna función de transferencia de frecuencia no
ideal, existe un efecto distorsionador sobre el pulso ideal; y (2) el ruido eléctrico
no deseado u otra interferencia distorsiona aún más la forma de onda del pulso.
Ambos mecanismos causan que la forma del pulso se degrade en función de la
longitud de la línea, como se muestra en la Figura 1.1. Durante el tiempo que el
pulso transmitido puede ser identificado de forma fiable (antes de que se degrade
a un estado ambiguo), el pulso es amplificado por un amplificador digital que
recupera su forma ideal original. De este modo, el pulso "renace" o se regenera.
Los circuitos que realizan esta función a intervalos regulares a lo largo de un
sistema de transmisión se denominan repetidores regenerativos.
Los circuitos digitales están menos sujetos a distorsión e interferencia que
los circuitos analógicos. Debido a que los circuitos digitales binarios operan en
uno de los dos estados - totalmente encendidos o completamente apagados -
para ser significativos, una perturbación debe ser lo suficientemente grande
como para cambiar el punto de operación del circuito de un estado a otro. Esta
operación de dos estados facilita la regeneración de la señal y, por lo tanto, evita
que el ruido y otras perturbaciones se acumulen en la transmisión. Las señales
analógicas, sin embargo, no son señales de dos estados; pueden tener una
variedad infinita de formas. Con circuitos analógicos, incluso una pequeña
perturbación puede hacer que la forma de onda reproducida se distorsione de
forma inaceptable. Una vez que la señal nalog es distorsionada, la distorsión no
puede ser eliminada por amplificación. Debido a que el ruido acumulado está
irrevocablemente ligado a las señales analógicas, no pueden ser perfectamente
regeneradas. Con las técnicas digitales, las tasas de error extremadamente
bajas producen

Figura 1.1 Degradación y regeneración de pulsos.


la alta fidelidad de la señal es posible a través de la detección y corrección
de errores, pero no se dispone de procedimientos similares con los analógicos.
Hay otras ventajas importantes de las comunicaciones digitales. Los
circuitos digitales son más confiables y pueden ser producidos a un costo menor
que los circuitos analógicos. Además, el hardware digital se presta a una
implementación más flexible que el hardware analógico[por ejemplo,
microprocesadores, conmutación digital y circuitos integrados (LSI) a gran
escala]. La combinación de señales digitales mediante multiplexación por
división en el tiempo (TDM) es más sencilla que la combinación de señales
analógicas mediante multiplexación por división en frecuencia (FDM). Diferentes
tipos de señales digitales (datos, telégrafo, teléfono, televisión) pueden ser
tratados como señales idénticas en la transmisión y el cambio - un bit es un bit.
Además, para facilitar la conmutación, los mensajes digitales se pueden manejar
en grupos autónomos llamados paquetes. Las técnicas digitales se prestan
naturalmente a funciones de procesamiento de señales que protegen contra
interferencias e interferencias, o que proporcionan encriptación y privacidad.
(Estas técnicas se discuten en los capítulos 12 y 14, respectivamente.) Además,
gran parte de la comunicación de datos se realiza de ordenador a ordenador, o
de instrumento digital o de terminal a ordenador. Naturalmente, estas
terminaciones digitales están mejor atendidas por los enlaces de comunicación
digital.
¿Cuáles son los costos asociados con los atributos beneficiosos de los
sistemas de comunicación digital? Los sistemas digitales tienden a ser muy
intensivos en el procesamiento de señales en comparación con los analógicos.
Además, los sistemas digitales deben asignar una parte importante de sus
recursos a la tarea de sincronización en diversos niveles. Por otro lado, en los
sistemas analógicos, la sincronización suele ser más fácil. Una desventaja de un
sistema de comunicación digital es la degradación no elegante. Cuando la
relación señal/ruido desciende por debajo de un determinado umbral, la calidad
de servicio puede cambiar repentinamente de muy buena a muy mala. Por el
contrario, la mayoría de los sistemas de comunicación analógica se degradan
con mayor facilidad.
1.1.2 Diagrama de bloques y transformaciones típicas
El diagrama de bloques funcionales que se muestra en la Figura 1.2 ilustra
el flujo de la señal y los pasos de procesamiento de la señal a través de un
sistema de comunicación digital (DCS) típico. Esta figura puede servir como una
especie de hoja de ruta, guiando al lector a través de los capítulos de este libro.
Los bloques superiores -formato, codificación de fuente, cifrado, codificación de
canal, multiplexación, modulación de pulso, modulación de paso de banda,
dispersión de frecuencia y acceso múltiple- denotan transformaciones de señal
desde la fuente hasta el transmisor (XMT). Los bloques inferiores denotan
transformaciones de señal del receptor (RCV) al fregadero, invirtiendo
esencialmente los pasos de procesamiento de señal realizados por los bloques
superiores. Los bloques modular y demodular/detectar juntos se denominan
módem. El término "módem" a menudo abarca varios de los pasos de
procesamiento de señal que se muestran en la Figura 1.2; cuando éste es el
caso, el módem puede considerarse como el "cerebro" del sistema. El transmisor
y el receptor pueden considerarse como los "músculos" del sistema. Para
aplicaciones inalámbricas, el transmisor consiste en una etapa de conversión
ascendente de frecuencia a una frecuencia de radio (RF), un amplificador de alta
potencia y una antena. La parte receptora consiste en un ntenna y un
amplificador de bajo ruido (LNA). La conversión a baja frecuencia se realiza en
el extremo delantero del receptor y/o del demodulador.

Figura 1.2 Diagrama de bloques de un sistema de comunicación digital típico.


La figura 1.2 ilustra una especie de reciprocidad entre los bloques de la
parte superior del transmisor y los de la parte inferior del receptor. Los pasos de
procesamiento de la señal que tienen lugar en el transmisor se invierten, en su
mayor parte, en el receptor. En la Figura 1.2, la fuente de información de entrada
se convierte en dígitos binarios (bits); los bits se agrupan para formar mensajes
digitales o símbolos de mensajes. Cada uno de estos símbolos (mi, donde i 1 ,M)
puede ser considerado como un miembro de un conjunto de alfabetos finitos que
contiene miembros M. Así, para M 2, el símbolo del mensaje mi es binario (lo
que significa que constituye un solo bit). Aunque los símbolos binarios caen
dentro de la definición general de M-ary, sin embargo el nombre M-ary se aplica
generalmente a aquellos casos en los que M 2; por lo tanto, cada uno de estos
símbolos está compuesto de una secuencia de dos o más bits. (Compare este
alfabeto finito en un DCS con un sistema analógico, donde la forma de onda del
mensaje es típicamente un miembro de un conjunto infinito de posibles formas
de onda.) Para los sistemas que utilizan codificación de canal (codificación de
corrección de errores), una secuencia de símbolos de mensaje se transforma en
una secuencia de símbolos de canal (símbolos de código), donde cada símbolo
de canal se denomina ui. Dado que un símbolo de mensaje o un símbolo de
canal puede consistir en un solo bit o en un grupo de bits, una secuencia de tales
símbolos también se describe como un flujo de bits, como se muestra en la figura
1.2.
Considere los bloques de procesamiento de señales clave que se
muestran en la Figura 1.2; sólo el formateo, la modulación, la
demodulación/detección y la sincronización son esenciales para un DCS. El
formateo transforma la información de la fuente en bits, asegurando así la
compatibilidad entre la información y el procesamiento de la señal dentro del
DCS. Desde este punto de la figura hasta el bloque de modulación de impulsos,
la información permanece en forma de flujo de bits. La modulación es el proceso
mediante el cual los símbolos de mensaje o los símbolos de canal (cuando se
utiliza la codificación de canal) se convierten en formas de onda que son
compatibles con los requisitos impuestos por el canal de transmisión. La
modulación de pulsos es un paso esencial porque cada símbolo a transmitir debe
ser transformado primero de una representación binaria (niveles de voltaje que
representan unos y ceros binarios) a una forma de onda de banda base. El
término banda base se refiere a una señal cuyo espectro se extiende desde (o
cerca de) dc hasta algún valor finito, generalmente menos de unos pocos
megahercios. El bloque de modulación de pulsos suele incluir filtrado para
minimizar el ancho de banda de transmisión. Cuando la modulación de pulsos
se aplica a símbolos binarios, la forma de onda binaria resultante se denomina
forma de onda de modulación de impulsos-código (PCM). Existen varios tipos de
formas de onda PCM (descritas en el Capítulo 2); en las aplicaciones telefónicas,
estas formas de onda se denominan a menudo códigos de línea. Cuando la
modulación de pulsos se aplica a símbolos no binarios, la forma de onda
resultante se denomina forma de onda de modulación de pulsos M-ary. Existen
varios tipos de estas formas de onda, y también se describen en el Capítulo 2,
donde se enfatiza la llamada modulación de amplitud de pulso (PAM). Después
de la modulación de pulsos, cada símbolo de mensaje o símbolo de canal toma
la forma de una forma de onda de banda base gi(t), donde i 1, ..... M. En cualquier
implementación electrónica, la corriente de bits, antes de la modulación de
impulsos, se representa con niveles de tensión. Uno podría preguntarse por qué
hay un bloque separado para la modulación de pulsos cuando en realidad los
diferentes niveles de voltaje para los binarios unos y ceros pueden ser vistos
como impulsos o como pulsos rectangulares ideales, cada pulso ocupando un
bit de tiempo. Existen dos diferencias importantes entre estos niveles de tensión
y las formas de onda de banda base utilizadas para la modulación. Primero, el
bloque de modulación de pulsos permite una variedad de tipos de formas de
onda de pulsos binarios y M-ary. La Sección 2.8.2 describe los diferentes
atributos útiles de estos tipos de formas de onda. Segundo, el filtrado dentro del
bloque de odulación de pulso-m produce pulsos que ocupan más de un bit de
tiempo. El filtrado produce pulsos que se extienden en el tiempo, por lo que los
pulsos se "embadurnan" en los tiempos de bits vecinos. Este filtrado se conoce
a veces como formación de impulsos; se utiliza para contener la anchura de
banda de transmisión dentro de alguna región espectral deseada.
Para una aplicación que implique transmisión RF, el siguiente paso
importante es la modulación de paso de banda; se requiere siempre que el medio
de transmisión no soporte la propagación de formas de onda similares a pulsos.
Para estos casos, el medio requiere una forma de onda de paso de banda si(t),
donde i 1 , ..... , M . El término bandpass se utiliza para indicar que la forma de
onda de la banda base gi(t) es la frecuencia traducida por una onda portadora a
una frecuencia que es mucho mayor que el contenido espectral de gi(t). A medida
que si(t) se propaga por el canal, se ve afectado por las características del canal,
que pueden describirse en términos de la respuesta de impulso del canal hc(t)
(véase la Sección 1.6.1). Además, en varios puntos a lo largo de la ruta de la
señal, el ruido aleatorio aditivo distorsiona la señal recibida r(t), por lo que su
recepción debe ser calificada como una versión corrupta de la señal si(t) que fue
lanzada en el transmisor. La señal recibida r(t) puede expresarse como

donde * representa una operación de convolución (ver Apéndice A), y n(t)


representa un proceso de ruido (ver Sección 1.5.5).
En la dirección inversa, el frontal del receptor y/o el demodulador
proporciona conversión descendente de frecuencia para cada forma de onda de
paso de banda r(t). El demodulador restaura r(t) a un pulso de banda base z(t)
con una forma óptima como preparación para la detección. Típicamente, puede
haber varios filtros asociados con el receptor y el filtro demodulador para eliminar
los términos de alta frecuencia no deseados (en la conversión descendente de
frecuencia de las formas de onda de paso de banda), y el filtrado para la
formación de pulsos. La ecualización puede describirse como una opción de
filtrado que se utiliza en o después del demodulador para revertir cualquier efecto
degradante en la señal que haya sido causado por el canal. La ecualización es
esencial cuando la respuesta de impulso del canal, hc(t), es tan pobre que la
señal recibida está muy distorsionada. Se implementa un ecualizador para
compensar (es decir, eliminar o disminuir) cualquier distorsión de la señal
causada por un hc(t) no ideal. Finalmente, el paso de muestreo transforma el
pulso formado z(t) en una muestra z(T), y el paso de detección transforma z(T)
en una estimación del símbolo de canal ûi o una estimación del símbolo de
mensaje mˆ i (si no hay codificación de canal). Algunos autores utilizan los
términos "demodulación" y "detección" indistintamente. Sin embargo, en este
libro, la demodulación se define como la recuperación de una forma de onda
(pulso de banda base), y la detección se define como la toma de decisiones con
respecto al significado digital de esa forma de onda.
Los otros pasos de procesamiento de señal dentro del módem son las
opciones de diseño para las necesidades específicas del sistema. El código
fuente produce conversión de analógico a digital (A/D) (para fuentes analógicas)
y elimina la información redundante (innecesaria). Tenga en cuenta que un DCS
típico utilizaría la opción de codificación de la fuente (tanto para digitalizar como
para comprimir la información de la fuente), o utilizaría la transformación de
formato más simple (para digitalizar solamente). Un sistema no utilizaría tanto el
código fuente como el formato, porque el primero ya incluye el paso esencial de
digitalizar la información. El cifrado, que se utiliza para proporcionar privacidad a
las comunicaciones, impide que los usuarios no autorizados comprendan los
mensajes e inyecten mensajes falsos en el sistema. La codificación de canal,
para una velocidad de datos dada, puede reducir la probabilidad de error, PE, o
reducir la relación señal/ruido requerida para lograr un PE deseado a expensas
del ancho de banda de transmisión o la complejidad del decodificador. Los
procedimientos de multiplexación y de acceso múltiple combinan señales que
pueden tener características diferentes o que pueden provenir de fuentes
diferentes, de modo que puedan compartir una parte de los recursos de
comunicaciones (por ejemplo, espectro, tiempo). La propagación en frecuencia
puede producir una señal relativamente invulnerable a la interferencia (tanto
natural como intencional) y puede utilizarse para mejorar la privacidad de los
comunicadores. También es una técnica valiosa que se utiliza para el acceso
múltiple.
Los bloques de procesamiento de señal mostrados en la Figura 1.2
representan una disposición típica; sin embargo, estos bloques a veces se
implementan en un orden diferente. Por ejemplo, la multiplexación puede tener
lugar antes de la codificación del canal, o antes de la modulación, o -con un
proceso de modulación de dos pasos (subportadora y portadora)- puede
realizarse entre los dos pasos de modulación. Del mismo modo, la dispersión en
frecuencia puede tener lugar en varios puntos a lo largo de la parte superior de
la figura 1.2; su ubicación exacta depende de la técnica particular utilizada. La
sincronización y su elemento clave, una señal de reloj, está implicada en el
control de todo el procesamiento de señales dentro del DCS. Para simplificar, el
bloque de sincronización de la Figura 1.2 se dibuja sin líneas de conexión,
cuando en realidad desempeña un papel en la regulación del funcionamiento de
casi todos los bloques mostrados en la figura.
La figura 1.3 muestra las funciones básicas de procesamiento de señal,
que pueden ser vistas como transformaciones, clasificadas en los siguientes
nueve grupos:
1. Formateo y codificación de la fuente
2. Señalización de banda base
3. Señalización de paso de banda
4. Ecualización
5. Codificación de canal
6. Multiplexación y acceso múltiple
7. 1. Formateo y codificación de la fuente
2. Señalización de banda base
3. Señalización de paso de banda
4. Ecualización
5. Codificación de canal
6. Multiplexación y acceso múltiple
7. Propagación
8. Encriptación
9. Sincronización
8. Encriptación
9. Sincronización
Aunque esta organización tiene cierta superposición inherente,
proporciona una estructura útil para el libro. Comenzando con el Capítulo 2, las
nueve transformaciones básicas se consideran individualmente. En el Capítulo
2, se discuten las técnicas básicas de formateo para transformar la información
de la fuente en símbolos de mensaje, así como la selección de formas de onda
de pulsos en la banda de base y el filtrado de pulsos para hacer que los símbolos
de mensaje sean compatibles con la transmisión en banda de base. Los pasos
invertidos de demodulación, ecualización, muestreo y detección se describen en
el Capítulo 3. El formateo y la codificación de la fuente son procesos similares,
en el sentido de que ambos implican la digitalización de datos. Sin embargo, el
término "codificación de la fuente" ha tomado la connotación de compresión de
datos además de digitalización; se trata más adelante (en el Capítulo 13), como
un caso especial de formateo.
En la Figura 1.3, el bloque de señalización de banda base contiene una
lista de opciones binarias bajo el título de formas de onda PCM o códigos de
línea. En este bloque, también se enumera una categoría de formas de onda no
binaria llamada modulación de pulsos M-ary. Otra transformación en la Figura
1.3, denominada Señalización de Paso de Banda, está dividida en dos bloques
básicos, coherentes y no coherentes. La demodulación se realiza normalmente
con la ayuda de formas de onda de referencia. Cuando las referencias utilizadas
son una medida de todos los atributos de la señal (especialmente de fase), el
proceso se denomina coherente; cuando no se utiliza información de fase, el
proceso se denomina incoherente. Ambas técnicas se detallan en el Capítulo 4.
El capítulo 5 está dedicado al análisis de enlaces. De las muchas
especificaciones, análisis y tabulaciones que soportan un sistema de
comunicación en desarrollo, el análisis de enlaces se destaca por su capacidad
para proporcionar una visión general del sistema. En el Capítulo 5 reunimos
todos los fundamentos de enlace que son esenciales para el análisis de la
mayoría de los sistemas de comunicación.
La codificación de canal se ocupa de las técnicas utilizadas para mejorar
las señales digitales de modo que sean menos vulnerables a impedimentos de
canal tales como el ruido, el desvanecimiento y la interferencia. En la Figura 1.3
la codificación de canal se divide en dos bloques, codificación de forma de onda
y secuencias estructuradas. La codificación de formas de onda implica el uso de
nuevas formas de onda, lo que mejora el rendimiento de detección en
comparación con las formas de onda originales. Las secuencias estructuradas
implican el uso de bits redundantes para determinar si

no se ha producido ningún error debido al ruido en el canal. Una de estas


técnicas, conocida como solicitud de repetición automática (ARQ), simplemente
reconoce la ocurrencia de un error y solicita que el remitente retransmita el
mensaje; otras técnicas, conocidas como corrección de errores hacia adelante
(FEC), son capaces de corregir automáticamente los errores (dentro de las
limitaciones especificadas). Bajo el título de secuencias estructuradas,
discutiremos tres técnicas prevalentes: codificación en bloque, convolucional y
turbo. En el Capítulo 6, consideramos principalmente la codificación por bloques
lineales. En el Capítulo 7 consideramos la codificación convolucional, la
decodificación de Viterbi (y otros algoritmos de decodificación), y los
procedimientos de decodificación dura versus blanda. El Capítulo 8 trata la
codificación concatenada, que ha llevado a la clase de códigos conocida como
códigos turbo, y también examina los detalles de los códigos Reed-Solomon.
En el Capítulo 9 resumimos los objetivos de diseño para un sistema de
comunicación y presentamos varias compensaciones de modulación y
codificación que deben ser consideradas en el diseño de un sistema. Se discuten
las limitaciones teóricas, como el criterio de Nyquist y el límite de Shannon.
Además, se examinan esquemas de modulación eficientes en cuanto al ancho
de banda, como la modulación codificada en celosía.
El capítulo 10 trata de la sincronización. En las comunicaciones digitales, la
sincronización implica la estimación tanto del tiempo como de la frecuencia. El
tema se divide en cinco subcategorías, como se muestra en la Figura 1.3. Los
sistemas coherentes necesitan sincronizar su referencia de frecuencia con la
portadora (y posiblemente con la subportadora) tanto en frecuencia como en
fase. Para sistemas no coherentes, no es necesaria la sincronización de fases.
El proceso fundamental de sincronización horaria es la sincronización de
símbolos (o sincronización de bits para símbolos binarios). El demodulador y el
detector necesitan saber cuándo iniciar y finalizar el proceso de detección de
símbolos y de bits; un error de temporización degradará el rendimiento de la
detección. El siguiente nivel de sincronización de tiempos, sincronización de
tramas, permite la reconstrucción del mensaje. Finalmente, la sincronización de
la red permite la coordinación con otros usuarios para que los recursos puedan
ser utilizados de forma eficiente. En el Capítulo 10, nos ocupamos de la
alineación de la sincronización de los procesos periódicos separados
espacialmente.
El capítulo 11 trata sobre la multiplexación y el acceso múltiple. Los dos términos
significan cosas muy similares. Ambas implican la idea de compartir recursos. La
principal diferencia entre ambos es que la multiplexación tiene lugar localmente
(por ejemplo, en una placa de circuito impreso, dentro de un ensamblaje, o
incluso dentro de una instalación), y el acceso múltiple tiene lugar de forma
remota (por ejemplo, múltiples usuarios necesitan compartir el uso de un
transpondedor de satélite). La multiplexación implica un algoritmo que se conoce
a priori; por lo general, está conectado al sistema. El acceso múltiple, por otro
lado, es generalmente adaptable, y puede requerir cierta sobrecarga para
permitir que el algoritmo funcione. En el Capítulo 11, discutimos las formas
clásicas de compartir un recurso de comunicaciones: división de frecuencia,
división de tiempo y división de código. También se consideran algunas de las
técnicas de acceso múltiple que han surgido como resultado de las
comunicaciones por satélite.
El Capítulo 12 introduce una transformación originalmente desarrollada para las
comunicaciones militares llamada propagación. El capítulo trata de las técnicas
de espectro ensanchado que son importantes para lograr la protección contra las
interferencias y la privacidad. Las señales se pueden difundir en frecuencia, en
tiempo o en frecuencia y tiempo. Este capítulo trata principalmente de la
dispersión en frecuencia. El capítulo también ilustra cómo se utilizan las técnicas
de dispersión de frecuencia para compartir el recurso de ancho de banda limitado
en la telefonía celular comercial.
El Capítulo 13 trata la codificación de la fuente, que implica la descripción
eficiente de la información de la fuente. Se trata del proceso de describir de forma
compacta una señal dentro de un criterio de fidelidad especificado. El código
fuente se puede aplicar a señales digitales o nalógicas; al reducir la redundancia
de datos, los códigos fuente pueden reducir la velocidad de transmisión de datos
del sistema. Por lo tanto, la principal ventaja de la codificación de fuente es la de
disminuir la cantidad de recursos requeridos del sistema (por ejemplo, el ancho
de banda).
El capítulo 14 trata del cifrado y descifrado, cuyos objetivos básicos son la
privacidad de la comunicación y la autenticación. Mantener la privacidad significa
evitar que personas no autorizadas extraigan información (escuchas) del canal.
Establecer la autenticación significa evitar que personas no autorizadas inyecten
señales espurias (spoofing) en el canal. En este capítulo destacamos el estándar
de encriptación de datos (DES) y las ideas básicas sobre una clase de sistemas
de encriptación llamados criptosistemas de clave pública. También examinamos
el novedoso esquema de Pretty Good Privacy (PGP), que es un importante
método de encriptación de archivos para el envío de datos por correo electrónico.
1.1.3 Nomenclatura básica de comunicación digital
Las siguientes son algunas de las nomenclaturas básicas de señales digitales
que aparecen con frecuencia en la literatura de comunicación digital:
Fuente de información. Es el dispositivo que produce la información que debe
ser comunicada por medio del DCS. Las fuentes de información pueden ser
analógicas o discretas. La salida de una fuente analógica puede tener cualquier
valor en un rango continuo de amplitudes, mientras que la salida de una fuente
de información discreta toma su valor de un conjunto finito. Las fuentes de
información analógicas pueden transformarse en fuentes digitales mediante el
uso de muestreo y cuantificación. Muestreo y Fuente de información. Es el
dispositivo que produce la información que debe ser comunicada por medio del
DCS. Las fuentes de información pueden ser analógicas o discretas. La salida
de una fuente analógica puede tener cualquier valor en un rango continuo de
amplitudes, mientras que la salida de una fuente de información discreta toma
su valor de un conjunto finito. Las fuentes de información analógicas pueden
transformarse en fuentes digitales mediante el uso de muestreo y cuantificación.
En los capítulos 2 y 13 se describen las técnicas de muestreo y cuantificación,
denominadas formato y codificación de la fuente (véase la figura 1.3).
Mensaje de texto. Esta es una secuencia de caracteres. Para la transmisión
digital, el mensaje será una secuencia de dígitos o símbolos de un conjunto de
símbolos finitos o alfabeto.
Carácter. Un carácter es un miembro de un alfabeto o conjunto de símbolos. (Ver
Figura 1.4b.) Los caracteres pueden ser mapeados en una secuencia de dígitos
binarios. Hay varios códigos estandarizados utilizados para la codificación de
caracteres, incluyendo el American Standard Code for Information Interchange
(ASCII), Extended Binary Coded Decimal Interchange Code (EBCDIC), Hollerith,
B audot, Murray y Morse.
Dígito binario (bit). Es la unidad de información fundamental para todos los
sistemas digitales. El término bit también se utiliza como unidad de contenido de
información, como se describe en el Capítulo 9.
Flujo de bits. Se trata de una secuencia de dígitos binarios (unos y ceros). Un
flujo de bits se denomina a menudo señal de banda base, lo que implica que su
contenido espectral se extiende desde (o cerca de) dc hasta algún valor finito,
generalmente menos de unos pocos megahercios. En la Figura 1.4c, el mensaje
"HOW" se representa con el código de caracteres ASCII de 7 bits, donde el flujo
de bits se muestra usando una imagen conveniente de pulsos de 2 niveles. La
secuencia de pulsos se dibuja usando formas muy estilizadas (ideal-
rectangulares) con espacios entre pulsos sucesivos.

Figura 1.4 Ejemplos de nomenclatura. a) Mensajes de texto. (b) Personajes. (c)


Flujo de bits (ASCII de 7 bits). d) Símbolos mi, i 1,M, M 2k. (e) Forma de onda
digital paso de banda si (t), i 1, ..... , M.
En un sistema real, los pulsos nunca aparecerían tal como se representan aquí,
porque tales espacios no servirían para nada. Para una velocidad binaria dada,
los espacios aumentarían el ancho de banda necesario para la transmisión; o,
para un ancho de banda dado, aumentarían el tiempo de retardo necesario para
recibir el mensaje.
Símbolo (mensaje digital). Un símbolo es un grupo de bits k considerados como
una unidad. Esta unidad se denomina símbolo de mensaje mi (i 1 El tamaño del
alfabeto, M, es M 2k, donde k es el número de bits del símbolo. Para la
transmisión en banda base, cada símbolo mi estará representado por uno de un
conjunto de formas de onda de pulso de banda base g1(t), g2(t), ..... gM(t).
Cuando se transmite una secuencia de tales pulsos, la unidad Baudio se utiliza
a veces para expresar la frecuencia del pulso (frecuencia de símbolo). Para una
transmisión típica de paso de banda, cada pulso gi(t) estará representado por
una de un conjunto de formas de onda de paso de banda s1(t), s2(t), ..... sM(t).
Así, para los sistemas inalámbricos, el símbolo mi se envía transmitiendo la
forma de onda digital si(t) durante T segundos, la duración del símbolo-tiempo.
El siguiente símbolo se envía durante el siguiente intervalo de tiempo, T. El
hecho de que el conjunto de símbolos transmitido por el DCS sea finito es una
diferencia primaria entre un DCS y un sistema analógico. El receptor DCS sólo
necesita decidir cuál de las formas de onda M fue transmitida; sin embargo, un
receptor analógico debe ser capaz de estimar con precisión un rango continuo
de formas de onda.
Forma de onda digital. Se trata de una forma de onda de tensión o corriente (un
pulso para la transmisión de banda base o un sinusoide para la transmisión de
paso de banda) que representa un símbolo digital. Las características de la forma
de onda (amplitud, anchura y posición para pulsos o amplitud, frecuencia y fase
para las sinusoides) permiten su identificación como uno de los símbolos del
alfabeto de símbolos finitos. La figura 1.4e muestra un ejemplo de una forma de
onda digital de paso de banda. Aunque la forma de onda es sinusoidal y por lo
tanto tiene una apariencia analógica, se la denomina forma de onda digital
porque está codificada con información digital. En la figura, durante cada
intervalo de tiempo, T, una frecuencia preasignada indica el valor de un dígito.
Velocidad de datos. Esta cantidad en bits por segundo (bits/s) viene dada por R
k/T (1/T) log2 M bits/s, donde los bits k identifican un símbolo de un alfabeto de
símbolo M 2k, y T es la duración del símbolo k-bit.
1.1.4 Criterios de rendimiento digital frente a analógico
Una de las principales diferencias entre los sistemas de comunicación
analógicos y digitales tiene que ver con la forma en que evaluamos su
rendimiento. Los sistemas analógicos extraen sus formas de onda de un
continuo, que por lo tanto forma un conjunto infinito, es decir, un receptor debe
tratar con un número infinito de formas de onda posibles. La cifra de mérito para
el rendimiento de los sistemas de comunicación analógicos es un criterio de
fidelidad, como la relación señal/ruido, el porcentaje de distorsión o el error medio
cuadrado esperado entre las formas de onda transmitidas y recibidas.
Por el contrario, un sistema de comunicación digital transmite señales que
representan dígitos. Estos dígitos forman un conjunto o alfabeto finito, y el
conjunto es conocido a priori por el receptor. Una cifra de mérito para los
sistemas de comunicación digital es la probabilidad de detectar incorrectamente
un dígito, o la probabilidad de error (PE).
1.2 CLASIFICACIÓN DE LAS SEÑALES
1.2.1 Señales determinísticas y aleatorias
Una señal puede clasificarse como determinista, lo que significa que no hay
incertidumbre con respecto a su valor en ningún momento, o como aleatoria, lo
que significa que hay cierto grado de incertidumbre antes de que la señal se
produzca realmente. Las señales o formas de onda deterministas se modelan
mediante expresiones matemáticas explícitas, como x(t) 5 coste 10t. Para una
forma de onda aleatoria no es posible escribir una expresión tan explícita. Sin
embargo, cuando se examina a lo largo de un largo período, una forma de onda
aleatoria, también conocida como proceso aleatorio, puede presentar ciertas
regularidades que pueden describirse en términos de probabilidades y
promedios estadísticos. Tal modelo, en la forma de una descripción
probabilística del proceso aleatorio, es particularmente útil para caracterizar las
señales y el ruido en los sistemas de comunicación.
1.2.2 Señales periódicas y no periódicas
Una señal x(t) se denomina periódica en el tiempo si existe una constante T0 0
tal que

donde t denota tiempo. El valor más pequeño de T0 que satisface esta condición
se denomina período de x(t). El período T0 define la duración de un ciclo
completo de x(t). Una señal para la que no hay ningún valor de T0 que satisfaga
la ecuación (1.2) se denomina señal no periódica.
1.2.3 Señales analógicas y discretas
Una señal analógica x(t) es una función continua del tiempo; es decir, x(t) se
define de forma única para todas las t. Una señal analógica eléctrica surge
cuando una forma de onda física (por ejemplo, el habla) se convierte en una
señal eléctrica mediante un transductor. En comparación, una señal discreta
x(kT) es aquella que existe sólo en tiempos discretos; se caracteriza por una
secuencia de números definidos para cada tiempo, kT, donde k es un entero y T
es un intervalo de tiempo fijo.
1.2.4 Señales de energía y potencia
Una señal eléctrica puede representarse como una tensión v(t) o una corriente
i(t) con potencia instantánea p(t) a través de una resistencia definida por

En los sistemas de comunicación, la potencia suele normalizarse asumiendo que


es de 1 , aunque puede ser otro valor en el circuito real. Si se necesita el valor
real de la potencia, se obtiene mediante la "desnormalización" del valor
normalizado. Para el caso normalizado, las Ecuaciones (1.3a) y (1.3b) tienen la
misma forma. Por lo tanto, independientemente de si la señal es una forma de
onda de tensión o de corriente, la convención de normalización nos permite
expresar la potencia instantánea como

donde x(t) es una señal de tensión o de corriente. La energía disipada durante el


intervalo de tiempo (T/2, T/2) por una señal real con potencia instantánea
expresada por la Ecuación (1.4) puede entonces ser escrita como
y la potencia media disipada por la señal durante el intervalo es

El rendimiento de un sistema de comunicación depende de la energía de la señal


recibida; las señales de mayor energía se detectan de forma más fiable (con
menos errores) que las señales de menor energía: la energía recibida hace el
trabajo. Por otro lado, la potencia es la velocidad a la que se suministra la
energía. Es importante por diferentes razones. La potencia determina los voltajes
que deben aplicarse a un transmisor y las intensidades de los campos
electromagnéticos con los que uno debe lidiar en los sistemas de radio (es decir,
los campos en las guías de onda que conectan el transmisor a la antena, y los
campos alrededor de los elementos radiantes de la antena).
Al analizar las señales de comunicación, a menudo es deseable tratar con la
energía de la forma de onda. Clasificamos x(t) como una señal de energía si, y
sólo si, tiene energía no nula pero finita (0 Ex) para todos los tiempos, donde

Las clasificaciones de energía y potencia son mutuamente excluyentes. Una


señal de energía tiene energía finita pero cero potencia media, mientras que una
señal de potencia tiene potencia media finita pero energía infinita. Una forma de
onda en un sistema puede estar limitada en sus valores de potencia o energía.
Como regla general, las señales periódicas y aleatorias se clasifican como
señales de potencia, mientras que las señales determinísticas y no periódicas se
clasifican como señales de energía[1, 2].

La energía de la señal y la potencia son parámetros importantes a la hora de


especificar un sistema de comunicación. La clasificación de una señal como
señal de energía o como señal de potencia es un modelo conveniente para
facilitar el tratamiento matemático de varias señales y ruido. En la sección 3.1.5,
estas ideas se desarrollan con más detalle en el contexto de un sistema de
comunicación digital.
1.2.5 La función de impulso de la unidad
Una función útil en la teoría de la comunicación es el impulso de la unidad o la
función delta de Dirac (t). La función de impulso es una abstracción: un pulso de
amplitud infinitamente grande, con un ancho de pulso cero y un peso unitario
(área bajo el pulso), concentrado en el punto donde su argumento es cero. El
impulso unitario se caracteriza por las siguientes relaciones:

La función de impulso de la unidad (t) no es una función en el sentido habitual.


Cuando las operaciones implican (t), la convención debe interpretar (t) como un
pulso unitario de área de amplitud finita y duración distinta de cero, después de
lo cual el límite se considera que la duración del pulso se aproxima a cero. (t t0)
puede representarse gráficamente como una espiga situada a t0 con una altura
igual a su integral o área. Así, A(t0) con una constante A representa una función
de impulso cuya área o peso es igual a A, que es cero en todas partes excepto
en t0.
La ecuación (1.12) se conoce como la propiedad de tamizado o muestreo de la
función de impulso de la unidad i mpulse; el multiplicador de impulsos de la
unidad selecciona una muestra de la función x(t) evaluada a t0.
1.3 DENSIDAD ESPECTRAL
La densidad espectral de una señal caracteriza la distribución de la energía o
potencia de la señal en el dominio de la frecuencia. Este concepto es
particularmente importante cuando se considera el filtrado en los sistemas de
comunicación. Tenemos que ser capaces de evaluar la señal y el ruido en la
salida del filtro. En la evaluación se utiliza la densidad espectral de energía (ESD)
o la densidad espectral de potencia (PSD).
1.3.1 Densidad espectral de energía
La energía total de una señal de energía de valor real x(t), definida durante el
intervalo, (,), se describe mediante la Ecuación (1.7). Utilizando el teorema de
Parseval[1], podemos relacionar la energía de tal señal expresada en el dominio
del tiempo con la energía expresada en el dominio de la frecuencia, como por
ejemplo

donde X(f) es la transformada de Fourier de la señal no periódica x(t). (Para una


revisión de las técnicas de Fourier, véase el Apéndice A.) x(f) denota el espectro
de magnitud cuadrada, definido como
La cuantificación x(f) es la densidad espectral de energía en forma de onda
(ESD) de la señal x(t). Por lo tanto, a partir de la Ecuación (1.13), podemos
expresar la energía total de x(t) integrando la densidad espectral con respecto a
la frecuencia:

Esta ecuación establece que la energía de una señal es igual al área bajo la
curva x(f) versus la curva de frecuencia. La densidad espectral de energía
describe la energía de la señal por unidad de ancho de banda medida en
julios/hertz. Hay contribuciones de energía iguales de ambos componentes de
frecuencia positiva y negativa, ya que para una señal real, x(t), X(f) es una
función uniforme de la frecuencia. Por lo tanto, la densidad espectral de energía
es simétrica en frecuencia respecto al origen, y por lo tanto la energía total de la
señal x(t) puede expresarse como

1.3.2 Densidad espectral de potencia


La potencia media Px de una señal de potencia de valor real x(t) se define en la
ecuación (1.8). Si x(t) es una señal periódica con el período T0, se clasifica como
señal de potencia. La expresión de la potencia media de una señal periódica
adopta la forma de Ecuación (1.6), donde el promedio de tiempo se toma durante
el período de señal T0, como sigue:

El teorema de Parseval para una señal periódica de valor real[1] toma la forma

de
donde los términos cn son los complejos coeficientes de las series de Fourier de
la señal periódica. (Ver Apéndice A.)
Para aplicar la Ecuación (1.17b), sólo necesitamos conocer la magnitud de los
coeficientes, cn. La función de densidad espectral de potencia (PSD) Gx(f) de la
señal periódica x(t) es una función de frecuencia real, uniforme y no negativa que
da la distribución de la potencia de x(t) en el dominio de la frecuencia, definida
como
La ecuación (1.18) define la densidad espectral de potencia de una señal
periódica x(t) como una sucesión de las funciones delta ponderadas. Por lo tanto,
la densidad espectral de una señal periódica es una función discreta de la
frecuencia. Usando la PSD definida en la Ecuación (1.18), ahora podemos
escribir la potencia media normalizada de una señal de valor real como

La ecuación (1.18) describe la densidad espectral de las señales (de potencia)


periódicas únicamente. Si x(t) es una señal no periódica no puede ser expresada
por una serie de Fourier, y si es una señal de potencia no periódica (con energía
infinita) puede no tener una transformada de Fourier. Sin embargo, todavía
podemos expresar la densidad espectral de potencia de tales señales en el
sentido limitante. Si formamos una versión truncada xT(t) de la señal de potencia
no periódica x(t) observándola sólo en el intervalo (T/2, T/2), entonces xT(t) tiene
energía finita y tiene una adecuada transformada de Fourier XT(f). Puede
mostrarse[2] que la densidad espectral de potencia de la x(t) no periódica puede
entonces definirse en el límite como

Ejemplo 1.1 Potencia media normalizada


a) Halla la potencia normalizada media en la forma de onda, x(t) A cos 2 f0t,
utilizando el promedio de tiempo.
b) b) Repetir la parte a) sumando los coeficientes espectrales.
Solución
a) Usando la Ecuación (1.17a), tenemos

b) Usando Ecuaciones (1.18) y (1.19) nos da


1.4 UNA UTOCORRELACIÓN
1.4.1 Autocorrelación de una señal de energía
La correlación es un proceso de correspondencia; la autocorrelación se refiere a
la correspondencia de una señal con una versión retardada de sí misma. La
función de autocorrelación de una señal de energía de valor real x(t) se define
como

La función de autocorrelación Rx() proporciona una medida de la proximidad de


la señal a una copia de sí misma a medida que la copia se desplaza en el tiempo.
La variable juega el papel de un parámetro de escaneo o de búsqueda. Rx() no
es una función del tiempo; es sólo una función de la diferencia de tiempo entre
la forma de onda y su copia desplazada.
La función autocorrelación de una señal de energía de valor real tiene las
siguientes propiedades:

Si se satisfacen los ítems del 1 al 3, Rx() satisface las propiedades de una función
de autocorrelación. La propiedad 4 puede derivarse de la propiedad 3 y, por lo
tanto, no es necesario incluirla como prueba básica.
1.4.2 Autocorrelación de una señal (de potencia) periódica
La función de autocorrelación de una señal de potencia x(t) de valor real se
define como
Cuando la señal de potencia x(t) es periódica con el período T0, el promedio de
tiempo en la Ecuación (1.22) puede ser tomado en un solo período T0, y la
función de autocorrelación puede ser expresada como

La función de auto-correlación de una señal periódica de valor real tiene


propiedades similares a las de una señal de energía:

1.5 SEÑALES ALEATORIAS


El objetivo principal de un sistema de comunicación es la transferencia de
información a través de un canal. Todas las señales de mensajes útiles aparecen
al azar; es decir, el receptor no sabe, a priori, cuál de las posibles formas de onda
de los mensajes será transmitida. Además, el ruido que acompaña a las señales
de los mensajes se debe a señales eléctricas aleatorias. Por lo tanto,
necesitamos ser capaces de formar descripciones eficientes de señales
aleatorias.
1.5.1 Variables aleatorias
Una variable aleatoria X(A) representa la relación funcional entre un evento
aleatorio A y un número real. Por conveniencia notacional, designaremos la
variable aleatoria por X, y dejaremos que la dependencia funcional de A sea
implícita. La variable aleatoria puede ser discreta o continua. La función de
distribución FX(x) de la variable aleatoria X viene dada por

donde P(X x) es la probabilidad de que el valor tomado por la variable aleatoria


X sea menor o igual que un número real x. La función de distribución FX(x) tiene
las siguientes propiedades
Otra función útil relacionada con la variable aleatoria X es la función de densidad
de probabilidad (pdf), denominada

Como en el caso de la función de distribución, el pdf es una función de un número


real x. El nombre "función de densidad" surge del hecho de que la probabilidad
del evento x1 X x2 es igual a

A partir de la ecuación (1.25b), la probabilidad de que una variable aleatoria X


tenga un valor en un rango muy estrecho entre x y x x puede aproximarse de la
siguiente manera

Así, en el límite en el que x se acerca a cero, podemos escribir

La función de densidad de probabilidad tiene las siguientes propiedades:

Por lo tanto, una función de densidad de probabilidad es siempre una función


no negativa con un área total de uno. A lo largo del libro usamos la designación
pX(x) para la función de densidad de probabilidad de una variable aleatoria
continua. Para facilitar la anotación, a menudo omitiremos el subíndice X y
escribiremos simplemente p(x). Usaremos la designación p(X xi) para la
probabilidad de una variable aleatoria X, donde X sólo puede tomar valores
discretos.
1.5.1.1 Promedios de conjuntos
El valor medio mX, o valor esperado de una variable aleatoria X, se define por

donde E{•} se llama el operador de valor esperado. El enésimo momento de una


distribución de probabilidad de una variable aleatoria X se define por
A efectos del análisis del sistema de comunicación, los momentos más
importantes de X son los dos primeros. Así, n 1 en la Ecuación (1.27) da mX
como se discutió anteriormente, mientras que n 2 da el valor de media cuadrada
de X, como sigue:

También podemos definir momentos centrales, que son los momentos de la


diferencia entre X y mX. El segundo momento central, llamado varianza de X, se
define como

La varianza de X también se denomina X2 , y su raíz cuadrada, X, se denomina


desviación estándar de X. La varianza es una medida de la "aleatoriedad" de la
variable aleatoria X. Al especificar la varianza de una variable aleatoria, estamos
restringiendo el ancho de su función de densidad de probabilidad. La desviación
y el valor medio cuadrado se relacionan mediante

Por lo tanto, la varianza es igual a la diferencia entre el valor medio cuadrado y


el cuadrado de la media.
1.5.2 Procesos aleatorios
Un proceso aleatorio X(A, t) puede ser visto como una función de dos variables:
un evento A y un tiempo. La figura 1.5 ilustra un proceso aleatorio. En la figura
hay N funciones de ejemplo de tiempo, {Xj(t)}. Cada una de las funciones de
ejemplo puede considerarse como la salida de un generador de ruido diferente.
Para un evento específico Aj, tenemos una sola función de tiempo X(Aj, t) Xj(t)
(es decir, una función de ejemplo). La totalidad de todas las muestras se
denomina conjunto. Para un tiempo específico tk, X(A, tk) es una variable
aleatoria X(tk) cuyo valor depende del evento. Finalmente, para un evento
específico, A Aj y un tiempo específico tk, X(Aj, tk) es simplemente un número.
Para conveniencia de la notacional designaremos el proceso aleatorio por X(t),
y dejaremos que la dependencia funcional de A sea implícita.
La varianza de X también se denomina X2 , y su raíz cuadrada, X, se denomina
desviación estándar de X. La varianza es una medida de la "aleatoriedad" de la
variable aleatoria X. Al especificar la varianza de una variable aleatoria, estamos
restringiendo el ancho de su función de densidad de probabilidad. La desviación
y el valor medio cuadrado se relacionan mediante
1.5.2.1 Promedios estadísticos de un proceso aleatorio
Debido a que el valor de un proceso aleatorio en cualquier momento futuro es
desconocido (ya que la opción identidad del evento A es desconocida), un
proceso aleatorio cuyas funciones de distribución son las siguientes son
continuos pueden describirse estadísticamente con una función de densidad de
probabilidad (pdf). En general, la forma del pdf de un proceso aleatorio será
diferente para diferentes veces. En la mayoría de las situaciones no es práctico
determinar empíricamente la probabilidad distribución de un proceso aleatorio.
Sin embargo, una descripción parcial que consiste en la La media y la función de
autocorrelación son a menudo adecuadas para las necesidades de los sistemas
de comunicación. Definimos la media del proceso aleatorio X(t) como

donde X(tk) es la variable aleatoria obtenida observando el proceso aleatorio en


el tiempo tk y el pdf de X(tk), la densidad sobre el conjunto de eventos en el
tiempo tk, se denomina pXk(x).
Definimos la función de autocorrelación del proceso aleatorio X(t) como una
función de dos variables, t1 y t2, dada por

donde X(t1) y X(t2) son variables aleatorias obtenidas observando X(t) en los
tiempos t1 y t2, respectivamente. La función de autocorrelación es una medida
del grado en que se relacionan dos muestras de tiempo del mismo proceso
aleatorio.
1.5.2.2.2 Estacionalidad
Se dice que un proceso aleatorio X(t) es estacionario en sentido estricto si
ninguna de sus estadísticas se ve afectada por un cambio en el origen temporal.
Se dice que un proceso aleatorio es estacionario con sentido amplio (WSS: Wide
Sense Stationary) si dos de sus estadísticas, su media y su función de
autocorrelación, no varían con un cambio en el origen temporal. Por lo tanto, un
proceso es WSS si

Estacionario con sentido estricto implica estacionario con sentido amplio, pero
no al revés. La mayoría de los resultados útiles en la teoría de la comunicación
se basan en señales de información aleatorias y ruido estacionario con sentido
amplio. Desde un punto de vista práctico, no es necesario que un proceso
aleatorio sea estacionario durante todo el tiempo, sino sólo durante algún
intervalo de observación.
Para los procesos estacionarios, la función de autocorrelación en la Ecuación
(1.33) no depende del tiempo sino de la diferencia entre t1 y t2. Es decir, todos
los pares de valores de X(t) en puntos en el tiempo separados por t1 t2 tienen el
mismo valor de correlación. Por lo tanto, para los sistemas estacionarios,
podemos denotar RX(t1, t2) simplemente como RX().
1.5.2.3 Autocorrelación de un proceso aleatorio estacionario de gran alcance
Así como la varianza proporciona una medida de aleatoriedad para las variables
aleatorias, la función de autocorrelación proporciona una medida similar para los
procesos aleatorios. Para un proceso estacionario de sentido amplio, la función
de autocorrelación es sólo una función de la diferencia de tiempo t1 t2, es decir,

Para un proceso WSS de media cero, RX() indica hasta qué punto los valores
aleatorios del proceso separados por segundos en el tiempo están
estadísticamente correlacionados. En otras palabras, RX() nos da una idea de la
respuesta de frecuencia que se asocia con un proceso aleatorio. Si RX() cambia
lentamente a medida que aumenta de cero a algún valor, indica que, en
promedio, los valores de la muestra de X(t) tomados en t1 y t1 son casi los
mismos. Así, esperaríamos que una representación del dominio de frecuencia
de X(t) contenga una preponderancia de frecuencias bajas. Por otro lado, si RX()
disminuye rápidamente a medida que aumenta, esperaríamos que X(t) cambie
rápidamente con el tiempo y por lo tanto contenga en su mayoría frecuencias
altas.
Las propiedades de la función de auto-correlación de un proceso estacionario de
sentido amplio de valor real son las siguientes:
1.5.3 Promedio de tiempo y ergodicidad
Para calcular mX y RX() mediante promedios de conjunto, tendríamos que
promediar todas las funciones de la muestra del proceso y necesitaríamos tener
un conocimiento completo de las funciones conjuntas de densidad de
probabilidad de primer y segundo orden. Por lo general, no se dispone de esos
conocimientos.
Cuando un proceso aleatorio pertenece a una clase especial, conocida como
proceso ergódico, sus promedios de tiempo son iguales a los promedios de su
conjunto, y las propiedades estadísticas del proceso pueden determinarse
mediante promedios de tiempo sobre una sola función de muestra del proceso.
Para que un proceso aleatorio sea ergódico, debe ser estacionario en sentido
estricto. Sin embargo, en el caso de los sistemas de comunicación, en los que
estamos satisfechos de cumplir las condiciones de una estacionalidad con
sentido amplio, sólo nos interesan las funciones de media y autocorrelación.
Podemos decir que un proceso aleatorio es ergódico en la media si

y es ergódico en la función de autocorrelación si

La comprobación de la ergodicidad de un proceso aleatorio suele ser muy difícil.


En la práctica se juzga intuitivamente si es razonable intercambiar los promedios
de tiempo y de conjunto. Una suposición razonable en el análisis de la mayoría
de las señales de comunicación (en ausencia de efectos transitorios) es que las
formas de onda aleatorias son ergódicas en la media y en la función de
autocorrelación. Dado que los promedios de tiempo son iguales a los promedios
de conjunto para los procesos ergódicos, los parámetros fundamentales de la
ingeniería eléctrica, como el valor de CC, el valor eficaz y la potencia media,
pueden relacionarse con los momentos de un proceso aleatorio ergódico. A
continuación se presenta un resumen de estas relaciones:
1. La cantidad mX E{X(t)} es igual al nivel de CC de la señal.
2. La cantidad m2X es igual a la potencia normalizada en el componente CC.
3. El segundo momento de X(t), E{X2(t)}, es igual a la potencia media total
normalizada.
4. La cantidad es igual al valor cuadrático medio (rms) de la señal de tensión o
corriente.
5. La varianza X2 es igual a la potencia media normalizada en la componente
temporal o alterna de la señal.
6. Si el proceso tiene una media cero (es decir, mX mX2 0), entonces X2 E{X2}
y la v arianza es la misma que el valor medio cuadrado, o la varianza
representa la potencia total en la carga normalizada.
7. La desviación estándar X es el valor eficaz de la componente CA de la señal.
8. Si mX 0, entonces X es el valor eficaz de la señal.
1.5.4 Densidad espectral de potencia y autocorrelación de un proceso aleatorio
Un proceso aleatorio X(t) puede clasificarse generalmente como una
señal de potencia con una densidad espectral de potencia (PSD) GX(f) de la
forma mostrada en la ecuación (1.20). GX(f) es particularmente útil en los
sistemas de comunicación, porque describe la distribución de la potencia de una
señal en el dominio de la frecuencia. La PSD nos permite evaluar la potencia de
la señal que pasará a través de una red con características de frecuencia
conocidas. A continuación se resumen las principales características de las
funciones de PSD:

En la Figura 1.6, presentamos una visualización de las funciones de auto-


correlación y densidad espectral de potencia. ¿Qué significa el término
correlación? Cuando preguntamos sobre la correlación entre dos fenómenos,
nos preguntamos qué tan cerca se corresponden en comportamiento o
apariencia, qué tan bien se corresponden entre sí. En matemáticas, una función
de autocorrelación de una señal (en el dominio del tiempo) describe la
correspondencia de la señal consigo misma de la siguiente manera. Se hace una
copia exacta de la señal y se localiza en el tiempo a menos infinito. Luego
movemos la copia un incremento en la dirección del tiempo positivo y hacemos
la pregunta, "¿Qué tan bien coinciden estos dos (el original contra la copia)?
Movemos la copia un paso más en la dirección positiva y preguntamos: "¿Qué
tan bien encajan ahora?" Y así sucesivamente. La correlación entre los dos se
traza en función del tiempo, denotado como un parámetro de exploración.
La Figura 1.6a-d destaca algunos de estos pasos. La Figura 1.6a ilustra una sola
forma de onda de muestra de un proceso aleatorio de agua potable y
saneamiento, X(t). La forma de onda es una secuencia aleatoria binaria con
pulsos positivos y negativos (bipolares) de amplitud unitaria. Los pulsos positivo
y negativo ocurren con la misma probabilidad. La duración de cada dígito binario
es T segundos, y el valor promedio o de CC de la secuencia aleatoria es cero.
La figura 1.6b muestra la misma secuencia desplazada 1 segundo en el tiempo;
por lo tanto, esta secuencia se denomina X(t 1). Supongamos que X(t) es
ergódico en la auto-correlación.
para que podamos usar el promedio de tiempo en lugar del promedio de conjunto
para encontrar RX(). El valor de RX(1) se obtiene tomando el producto de las
dos secuencias X(t) y X(t 1) y encontrando el valor promedio usando la Ecuación
(1.36). La ecuación (1.36) es precisa para los procesos ergódicos sólo en el
límite. Sin embargo, la integración sobre un número entero de períodos puede
proporcionarnos una estimación de RX(). Observe que RX(1) puede obtenerse
mediante un desplazamiento positivo o negativo de X(t). La figura 1.6c ilustra
este cálculo, utilizando la secuencia de muestra única (figura 1.6a) y su réplica
desplazada (figura 1.6b). Las áreas con trama cruzada bajo la curva de producto
X(t)X(t 1) contribuyen a los valores positivos del producto, y las áreas grises
contribuyen a los valores negativos. La integración de X(t) X(t) X(t 1) en varios
tiempos de pulso produce un valor neto de área que es un punto, el punto RX(1)
de la curva RX(). Las secuencias se pueden desplazar en 2, 3, ..... Cada
desplazamiento produce un punto en la función de autocorrelación general RX()
que se muestra en la Figura 1.6d. Cada secuencia aleatoria de pulsos bipolares
tiene un gráfico de autocorrelación de la forma general mostrada en la Figura
1.6d. El gráfico alcanza su punto máximo en RX(0)[la mejor coincidencia ocurre
cuando es igual a cero, ya que R() R(0) para todos ], y disminuye a medida que
aumenta. La figura 1.6d muestra los puntos correspondientes a RX(0) y RX(1).
La expresión analítica de la función de autocorrelación RX() que se muestra en
la figura 1.6d es[1].

Observe que la función de autocorrelación nos da información de frecuencia; nos


dice algo sobre el ancho de banda de la señal. La autocorrelación es una función
del dominio del tiempo; no hay términos relacionados con la frecuencia en la
relación mostrada en la Ecuación (1.37). ¿Cómo nos da información sobre el
ancho de banda de la señal? Tenga en cuenta que la señal es una señal de
movimiento muy lento (ancho de banda bajo). A medida que avanzamos por el
eje de la copia, en cada paso se hace la pregunta: "¿Qué tan buena es la
coincidencia entre el original y la copia? En otras palabras, la función de
autocorrelación de forma triangular en la Figura 1.6d y la Ecuación (1.37)
disminuirán gradualmente con . Pero si tenemos una señal de movimiento muy
rápido (alto ancho de banda), tal vez un cambio muy pequeño resulte en una
relación de cero corespondencia. En este caso, la función de autocorrelación
tendrá una apariencia muy pronunciada. Por lo tanto, la forma relativa de la
función de autocorrelación nos dice algo sobre el ancho de banda de la señal
subyacente. ¿Acelera suavemente? Si es así, se trata de una señal de bajo
ancho de banda. ¿Es la función excesiva? Si es así, se trata de una señal de
gran ancho de banda.
La función de autocorrelación nos permite expresar directamente la densidad
espectral de potencia de una señal aleatoria. Dado que la densidad espectral de
potencia y la función de autocorrelación son transformaciones de Fourier entre
sí, la densidad espectral de potencia, GX(f), de la secuencia de impulsos
bipolares aleatorios se puede encontrar utilizando la Tabla A.1 como la
transformación de RX() en la Ecuación (1.37).
Observe que
The general shape of GX(f) is illustrated in Figure 1.6e.
Note that the area under the PSD curve represents the average signal strength.
A convenient measure of bandwidth is the width of the main spectral lobe. (See
Section 1.7.2.) Figure 1.6e illustrates that the bandwidth of a signal is related in
a versatile manner to the duration of the symbol or the width of the pulse, Figures
1.6f-j repeat the steps shown in Figures 1.6a-e, except that the duration of the
pulse is shorter. Note that the shape of the shorter pulse duration RX() is
narrower, shown in Figure 1.6i, than the shape of the longer pulse duration RX(),
shown in Figure 1.6d. In Figure 1.6i, RX(1) 0; in other words, a displacement of
1 in the case of the shortest pulse duration example is sufficient to produce a zero
coincidence, or a complete decorrelation between the displaced sequences.
Since the duration of pulse T is shorter (pulse frequency is higher) in figure 1.6f
than in figure 1.6a, the bandwidth occupation in figure 1.6j is greater than the
bandwidth occupation shown in figure 1.6e for the lowest pulse frequency.
1.5.5 Noise in communication systems
The term noise refers to unwanted electrical signals that are always present in
electrical systems. The presence of superimposed noise in a signal tends to
obscure or mask the signal; it limits the ability of the receiver to make correct
decisions about symbols and therefore limits the speed of information
transmission. Noise comes from a variety of sources, both artificial and natural.
Artificial noise includes sources such as spark plug ignition noise, switching
transients and other radiant electromagnetic signals. Natural noise includes
elements such as the atmosphere, the sun and other galactic sources.
Good engineering design can eliminate much of the noise or its undesirable effect
by filtering, shielding, choosing modulation and selecting an optimal receiver
location. For example, sensitive radio astronomy measurements are usually
made in remote desert locations, away from man-made noise sources. However,
there is a natural source of noise, called thermal noise or Johnson noise, that
cannot be eliminated. Thermal noise[4, 5] is caused by the thermal movement of
electrons in all dissipative components -resistances, cables, etc.-. The same
electrons that are responsible for electrical conduction are also responsible for
thermal noise.
We can describe thermal noise as a random Gaussian process of zero average.
A Gaussian process n(t) is a random function whose n value at any arbitrary
moment t is statistically characterized by the Gaussian probability density
function.

donde δ2 es la varianza de n. La función de densidad gaussiana normalizada o


estandarizada de un proceso de media cero se obtiene asumiendo que 1. Este
pdf normalizado se muestra esbozado en la Figura 1.7.
A menudo representaremos una señal aleatoria como la suma de una variable
aleatoria de ruido gaussiano y una señal de CC. Eso es,
donde z es la señal aleatoria, a es la componente dc, y n es la variable aleatoria
de ruido gaussiano. El pdf p(z) se expresa entonces como

donde, como antes, 2 es la varianza de n. La distribución gaussiana se utiliza a


menudo como modelo de ruido del sistema debido a un teorema, llamado
teorema del límite central[3], que establece que bajo condiciones muy generales
la distribución de probabilidad de la suma de las variables aleatorias
estadísticamente independientes se aproxima a la distribución gaussiana como
j →, sin importar cuáles puedan ser las funciones de distribución individuales.
Por lo tanto, aunque los mecanismos de ruido individuales puedan tener otras
distribuciones que las de Gaussiano, el agregado de muchos de estos
mecanismos tenderá hacia la distribución gaussiana.

1.5.5.1 Ruido blanco


La característica espectral primaria del ruido térmico es que su densidad
espectral de potencia es la misma para todas las frecuencias de interés en la
mayoría de los sistemas de comunicación; en otras palabras, una fuente de ruido
térmico emana una cantidad igual de potencia de ruido por unidad de ancho de
banda en todas las frecuencias, desde dc hasta aproximadamente 1012 Hz. Por
lo tanto, un modelo simple para ruido térmico asume que su densidad espectral
de potencia Gn(f) es plana para todas las frecuencias, como se muestra en la
Figura 1.8a, y se denomina así
donde se incluye el factor 2 para indicar que Gn(f) es una densidad espectral de
potencia de dos lados. Cuando la potencia de ruido tiene una densidad espectral
tan uniforme nos referimos a ella como ruido blanco. El adjetivo "blanco" se utiliza
en el mismo sentido que con la luz blanca, que contiene cantidades iguales de
todas las frecuencias dentro de la banda visible de radiación electromagnética.
La función de auto-correlación del ruido blanco viene dada por la transformada
inversa de Fourier de la densidad espectral de potencia del ruido (véase la Tabla
A.1), que se indica a continuación:

Por lo tanto, la autocorrelación del ruido blanco es una función delta ponderada
por el factor N0/2 y que se produce a 0, como se muestra en la figura 1.8b. Tenga
en cuenta que Rn() es cero para 0; es decir, dos muestras diferentes de ruido
blanco, sin importar cuán cerca en el tiempo que se tomen, no están
correlacionadas.
La potencia media Pn de ruido blanco es infinita porque su ancho de banda es
infinito. Esto puede ser visto combinando Ecuaciones (1.19) y (1.42) para
producir

Aunque el ruido blanco es una abstracción útil, ningún proceso de ruido puede
ser realmente blanco; sin embargo, se puede suponer que el ruido encontrado
en muchos sistemas reales es aproximadamente blanco. Sólo podemos
observar ese ruido después de que haya pasado a través de un sistema real que
tendrá un ancho de banda finito. Así pues, siempre que la anchura de banda del
ruido sea sensiblemente mayor que la del sistema, se puede considerar que el
ruido tiene una anchura de banda infinita.
La función delta en la ecuación (1.43) significa que la señal de ruido n(t) está
totalmente decorada a partir de su versión con desplazamiento temporal, para
cualquier 0. La ecuación (1.43) indica que dos muestras cualesquiera de un
proceso de ruido blanco no están correlacionadas. Dado que el ruido térmico es
un proceso gaussiano y las muestras no están correlacionadas, las muestras de
ruido también son independientes[3]. Por lo tanto, el efecto en el proceso de
detección de un canal con ruido blanco gaussiano aditivo (AWGN) es que el ruido
afecta a cada símbolo transmitido de forma independiente. Este tipo de canal se
denomina canal sin memoria. El término "aditivo" significa que el ruido
simplemente se superpone o se añade a la señal, que no hay mecanismos
multiplicadores en funcionamiento.
Dado que el ruido térmico está presente en todos los sistemas de comunicación
y es la fuente de ruido más importante para la mayoría de los sistemas, las
características del ruido térmico -aditivo, blanco y gaussiano- se utilizan con
mayor frecuencia para modelar el ruido en los sistemas de comunicación. Dado
que el ruido gaussiano de media cero se caracteriza completamente por su
varianza, este modelo es particularmente fácil de usar en la detección de señales
y en el diseño de receptores óptimos. En este libro asumiremos, a menos que se
indique lo contrario, que el sistema está corrompido por el ruido blanco gaussiano
de media cero, aunque a veces esto sea una simplificación excesiva.
1,6 TRANSMISIÓN DE SEÑALES A TRAVÉS DE SISTEMAS LINEALES
Habiendo desarrollado un conjunto de modelos para señales y ruido, ahora
consideramos la caracterización de los sistemas y sus efectos sobre dichas
señales y ruido. Dado que un sistema puede caracterizarse igualmente bien en
el dominio del tiempo o en el dominio de la frecuencia, se desarrollarán técnicas
en ambos dominios para analizar la respuesta de un sistema lineal a una señal
de entrada arbitraria. La señal, aplicada a la entrada del sistema, como se
muestra en la Figura 1.9, puede describirse como una señal de dominio temporal,
x(t), o por su transformada de Fourier, X(f). El uso de análisis de dominio de
tiempo produce la salida de dominio de tiempo y(t), y en el proceso, h(t), se
definirá la respuesta característica o de impulso de la red. Cuando la entrada se
considera en el dominio de frecuencia, definiremos una función de transferencia
de frecuencia H(f) para el sistema, que determinará la salida Y(f) del dominio de
solicitud de frecuencia. Se supone que el sistema es lineal y que el tiempo es
invariable. También se supone que no hay energía almacenada en el sistema en
el momento en que se aplica la entrada.

Figura 1.9 Sistema Lineal y sus parámetros claves.


1.6.1 Respuesta al Impulso
El sistema o red invariante de tiempo lineal ilustrado en la Figura 1.9 se
caracteriza en el dominio del tiempo por una respuesta de impulso h(t), que es
la respuesta cuando la
Considere el nombre de respuesta de impulso. Es un nombre muy
apropiado para este evento. Caracterizar un sistema lineal en términos de su
respuesta de impulso tiene una interpretación física directa. En la entrada del
sistema, aplicamos un impulso unitario (una señal no realizable, de amplitud
infinita, ancho cero y área unitaria), como se ilustra en la Figura 1.10a. Aplicar
tal impulso al sistema puede ser considerado como darle un "golpe" al sistema.
¿Cómo responde el sistema a tal fuerza (impulso) en la entrada? La respuesta
de salida h(t) es la respuesta de impulso del sistema. (En la figura 1.10b se
muestra una posible forma.)
La respuesta de la red a una señal de entrada x(t) arbitraria se encuentra
por la convolución de x(t) con h(t), expresada como

donde * indica la operación de convolución. (Ver Sección A.5.) El sistema


se asume causal, lo que significa que no puede haber salida antes del tiempo,
t=0, cuando se aplica la entrada. Por lo tanto, el límite inferior de integración
puede cambiarse a cero, y podemos expresar la salida y(t) en cualquiera de las
formas siguientes

O la fórmula:

Cada una de las expresiones en las ecuaciones (1.46) y (1.47) se llama


la integral de la convolución. La convolución es una herramienta matemática
básica que desempeña un papel importante en la comprensión de todos los
sistemas de comunicación. Por lo tanto, se insta al lector a revisar

Figura 1.10 (a) La señal de entrada x(t) es una función de impulso de la unidad.
(b) La señal de salida y(t) es la respuesta de impulso del sistema h(t)
la sección A.5, donde se puede ver que las Ecuaciones (1.46) y (1.47) son el
resultado de un proceso directo.
1.6.2 Función de transferencia de frecuencia
La señal de salida Y(f) del dominio de frecuencia se obtiene tomando la
transformada de Fourier de ambos lados de la ecuación (1.46). Puesto que la
convolución en el dominio del tiempo se transforma en multiplicación en el
dominio de la frecuencia (y viceversa), la Ecuación (1.46) produce

siempre, por supuesto, que X(f) 0 para todos los f. Aquí H(f) {h(t)}, la
transformada de Fourier de la función de respuesta de impulso, se llama la
función de transferencia de frecuencia o la respuesta de frecuencia de la red. En
general, H(f) es complejo y se puede escribir como

donde H(f) es la respuesta de magnitud. La respuesta de fase se define


como

donde los términos "Re" e "Im" denotan "la parte real de" y "la parte
imaginaria de", respectivamente.
La función de transferencia de frecuencia de una red lineal invariable en
el tiempo puede medirse fácilmente en el laboratorio con un generador sinusoidal
a la entrada de la red y un osciloscopio a la salida. Cuando la forma de onda de
entrada x(t) se expresa como

la salida de la red será

La frecuencia de entrada f0 pasa por los valores de interés; en cada paso


se miden la amplitud y la fase en la salida.
1.6.2.1 Procesos aleatorios y sistemas lineales
Si un proceso aleatorio forma la entrada a un sistema lineal invariable en
el tiempo, la salida también será un proceso aleatorio. Es decir, cada función de
muestreo del proceso de entrada proporciona una función de muestreo del
proceso de salida. La densidad espectral de potencia de entrada GX(f) y la
densidad espectral de potencia de salida GY(f) están relacionadas como sigue:
La ecuación (1.53) proporciona una forma sencilla de encontrar la
densidad espectral de potencia de un sistema lineal invariable en el tiempo
cuando la entrada es un proceso aleatorio.
En los capítulos 3 y 4 se considera la detección de señales en ruido
gaussiano. Utilizaremos una propiedad fundamental de un proceso gaussiano
aplicado a un sistema lineal, como sigue. Puede demostrarse que si se aplica un
proceso gaussiano X(t) a un filtro lineal invariable en el tiempo, el proceso
aleatorio Y(t) desarrollado a la salida del filtro es también gaussiano[6].
1.6.3 Transmisión sin distorsión
¿Qué se requiere de una red para que se comporte como una línea de
transmisión ideal? La señal de salida de una línea de transmisión ideal puede
tener algún tiempo de retardo en comparación con la entrada, y puede tener una
amplitud diferente a la de la entrada (sólo un cambio de escala), pero de lo
contrario no debe tener distorsión - debe tener la misma forma que la entrada.
Por lo tanto, para una transmisión ideal sin distorsión, podemos describir la señal
de salida como

donde K y t0 son constantes. Tomando la transformada de Fourier de


ambos lados (ver Sección A.3.1), escribimos

Sustituyendo la expresión (1.55) por Y(f) en la Ecuación (1.49), vemos que


la función de transferencia del sistema requerida para la transmisión sin
distorsión es

Por lo tanto, para lograr una transmisión ideal sin distorsión, la respuesta
general del sistema debe tener una respuesta de magnitud constante y su
desplazamiento de fase debe ser lineal con frecuencia. No basta con que el
sistema amplifique o atenúe todos los componentes de frecuencia por igual.
Todos los componentes de frecuencia de la señal también deben llegar con
idéntico retardo de tiempo para poder sumar correctamente. Ya que el retardo t0
está relacionado con el desplazamiento de fase y la frecuencia del radián 2 f por

está claro que el desplazamiento de fase debe ser proporcional a la


frecuencia para que el retardo de tiempo de todos los componentes sea idéntico.
Una característica que se utiliza a menudo para medir la distorsión por retardo
de una señal se denomina retardo de envolvente o retardo de grupo, que se
calcula con la siguiente formula:
Por lo tanto, para una transmisión sin distorsión, una forma equivalente de
caracterizar la fase como una función lineal de la frecuencia es caracterizar el
retardo de envolvente (f) como una constante. En la práctica, una señal se
distorsiona al pasar a través de algunas partes del sistema. Las redes de
corrección de fase o de amplitud (ecualización) pueden introducirse en cualquier
otra parte del sistema para corregir esta distorsión. Es la característica global de
entrada y salida del sistema la que determina su rendimiento.
1.6.3.1 Filtro ideal
Uno no puede construir la red ideal descrita en la Ecuación (1.56). El
problema es que la ecuación (1.56) implica una capacidad de ancho de banda
infinito, donde el ancho de banda de un sistema se define como el intervalo de
frecuencias positivas sobre el cual la magnitud H(f) permanece dentro de un valor
especificado. En la Sección 1.7 se enumeran varias medidas de ancho de banda.
Como aproximación a la red ideal de ancho de banda infinito, elijamos una red
truncada que pase, sin distorsión, todos los componentes de frecuencia entre fl
y fu, donde fl es la frecuencia de corte inferior y fu es la frecuencia de corte
superior, como se muestra en la Figura 1.11. Cada una de estas redes se
denomina filtro ideal. Fuera del rango fl<f<fu, que se denomina banda de paso,
se supone que el filtro ideal tiene una respuesta de magnitud cero. El ancho
efectivo de la banda de paso es especificado por el ancho de banda del filtro
Wf=(fu-fl) hertz.
Cuando fl ≠0 y fu≠0 , el filtro se denomina filtro de paso de banda (BPF),
como se muestra en la figura 1.11a. Cuando f 0 y fu tienen un valor finito, el filtro
se llama filtro de paso bajo (LPF), como se muestra en la Figura 1.11b. Cuando
fl tiene un valor distinto de cero y fu → ∞, el filtro se denomina filtro de paso alto
(HPF), como se muestra en la Figura 1.11c.
Siguiendo la ecuación (1.56) y dejando K=1, para la función ideal de
transferencia de filtro de paso bajo con ancho de banda Wf=fu hertz, mostrado
en la Figura 1.11b, podemos escribir la función de transferencia como

En donde:

La respuesta de impulso del filtro paso-bajo ideal, ilustrada en la Figura


1.12, es
0

donde sinc(x) es como se define en la Ecuación (1.39). La respuesta de


impulso que se muestra en la Figura 1.12 es no causal, lo que significa que tiene
una salida distinta de cero antes del valor de

Figura 1.11 Función de transferencia de filtro ideal. (a) Filtro pasabanda ideal.
(b) Filtro pasabanda ideal. c) Filtro de paso alto ideal.
Figure 1.11 Ideal filter transfer function. (a) Ideal bandpass filter.(b) Ideal low-
pass filter. (c) Ideal high-pass filter.
una aplicación de una entrada en el tiempo t0. Por lo tanto, debe quedar claro
que el filtro ideal descrito en la Ecuación (1.58) no es realizable.
Ejemplo 1.2 Efecto de un filtro ideal en el ruido blanco
El ruido blanco con densidad espectral de potencia Gn(f)=N0/2, mostrado
en la Figura 1.8a, forma la entrada al filtro de paso bajo ideal mostrado en la
Figura 1.11b. Encuentra la densidad espectral de potencia GY(f) y la función de
autocorrelación RY() de la señal de salida.
Solución

La autocorrelación es la transformada inversa de Fourier de la densidad


espectral de potencia y viene dada por (ver Tabla A.1)

Comparando este resultado con la ecuación (1.62), vemos que RY() tiene
la misma forma que la respuesta de impulso del filtro de paso bajo ideal mostrado
en la figura 1.12. En este ejemplo, el filtro pasa bajo ideal transforma la función
de autocorrelación del ruido blanco (definida por la función delta) en una función
sinc. Después de filtrar, ya no tenemos ruido blanco. La señal de ruido de salida
tendrá una correlación nula con las copias desplazadas de sí misma, sólo en
desplazamientos de n/2fu, donde n es un número entero distinto de cero.
1.6.3.2 Filtros realizables
El ejemplo más simple de un filtro de paso bajo realizable está compuesto
de resistencia () y capacitancia (C), como se muestra en la Figura 1.13a; se le
llama filtro C, y su función de transferencia puede expresarse como[7].

donde: θ(f)=tan-1 (2πRfC). La característica de magnitud H(f) y la característica


de fase θ(f) se representan gráficamente en las figuras 1.13b y c,
respectivamente. La anchura de banda del filtro de paso bajo se define como su
punto de media potencia; este punto es la frecuencia a la que la potencia de la
señal de salida ha caído a la mitad de su valor de pico, o la frecuencia a la que
la magnitud de la tensión de salida ha caído a su valor de pico.
El punto de media potencia se expresa generalmente en unidades de decibelios
(dB) como el punto de 3 dB, o el punto que está a 3 dB por debajo del pico, donde
el decibelio se define como la relación de dos cantidades de potencia, P1 y P2,
existentes en dos puntos. Por definición,

Figura 1.13 Filtro C y su función de transferencia. (a) Filtro C. (b) Magnitud


característica del filtro C. (c) Característica de fase del filtro C.
donde V1 y V2 son tensiones y R1 y R2 son resistencias. Para los sistemas de
comunicación, la potencia normalizada se utiliza generalmente para el análisis;
en este caso, R1 y R2 son iguales a 1Ω , de modo que

La respuesta de amplitud puede expresarse en decibelios de la siguiente manera

donde V1 y V2 son los voltajes de entrada y salida, respectivamente, y donde las


resistencias de entrada y salida se han supuesto iguales.
A partir de la ecuación (1.63) es fácil verificar que el punto de media potencia del
filtro RC de paso bajo corresponde a 1/ (R C) radianes por segundo o f=1/(2πR
C) hertz. Por lo tanto, el ancho de banda Wf en hertz es de 1/(2πRC). El factor
de forma del filtro es una medida de lo bien que un filtro realizable se aproxima
al filtro ideal. Se define típicamente como la relación de las anchuras de banda
del filtro en los puntos de respuesta de amplitud de 60-dB y 6-dB. Un filtro de
paso de banda de corte agudo se puede hacer con un factor de forma tan bajo
como 2. En comparación, el factor de forma del filtro de paso bajo simple RC es
casi 600.
Hay varias aproximaciones útiles a la característica ideal del filtro pasa bajo. Uno
de ellos, el filtro Butterworth, se aproxima al filtro de paso bajo ideal con la función

donde fu es la frecuencia de corte superior de 3-db y n se conoce como el orden


del filtro. Cuanto mayor sea el orden, mayor será la complejidad y el coste de
implementación del filtro. La función de magnitud, H(f), se esboza (de un solo
lado) para varios valores de n en la Figura 1.14. Tenga en cuenta que a medida
que n aumenta, las características de magnitud se aproximan a las del filtro ideal.
Los filtros Butterworth son populares porque son la mejor aproximación al ideal,
en el sentido de máxima planitud en la banda de paso del filtro.
Ejemplo 1.3 Efecto de un filtro C en el ruido blanco
El ruido blanco con densidad espectral Gn(f) N0/2, mostrado en la Figura 1.8a,
forma la entrada al filtro C mostrado en la Figura 1.13a. Encuentra la densidad
espectral de potencia GY(f) y la función de autocorrelación RY() de la señal de
salida.
Solución
Figura 1.14 Respuesta de magnitud del filtro Butterworth.

Usando la Tabla A.1, encontramos que la transformada de Fourier de GY(f) es

Como se podía predecir, ya no tenemos ruido blanco después del filtrado. El filtro
C transforma la función de autocorrelación de entrada del ruido blanco (definido
por la función delta) en una función exponencial. Para un filtro de banda estrecha
(un producto C grande), el ruido de salida mostrará una correlación más alta
entre las muestras de ruido de un cambio de tiempo fijo que el ruido de salida de
un filtro de banda ancha.
1.6.4 Señales, circuitos y espectros
Las señales se han descrito en términos de sus espectros. Del mismo modo, las
redes o circuitos se han descrito en términos de sus características espectrales
o de sus funciones de transferencia de frecuencia. ¿Cómo se ve afectada la
anchura de banda de una señal como resultado del paso de la señal a través de
un circuito de filtro? La figura 1.15 ilustra dos casos de interés. En la Figura 1.15a
(caso 1), la señal de entrada tiene un espectro de banda estrecha, y la función
de transferencia de filtro es una función de banda ancha. De la Ecuación (1.48),
vemos que el espectro de la señal de salida es simplemente el producto de estos
dos espectros. En la Figura 1.15a podemos verificar que la multiplicación de las
dos funciones espectrales dará como resultado un espectro con un ancho de
banda aproximadamente igual al menor de los dos anchos de banda (cuando
una de las dos funciones espectrales va a cero, la multiplicación da cero). Por lo
tanto, en el caso 1, el espectro de la señal de salida está limitado únicamente
por el espectro de la señal de entrada. De manera similar, vemos que para el
caso 2, en la Figura 1.15b, donde la señal de entrada es una señal de banda
ancha pero el filtro tiene una función de transferencia de banda estrecha, el
ancho de banda de la señal de salida está limitado por el ancho de banda del
filtro; la señal de salida será una interpretación filtrada (distorsionada) de la señal
de entrada.

Figura 1.15 Las características espectrales de la señal de entrada y del circuito contribuyen a
las características espectrales de la señal de salida. a) Caso 1: El ancho de banda de salida
está limitado por el ancho de banda de la señal de entrada. b) Caso 2: La anchura de banda de
salida está limitada por la anchura de banda del filtro.
El efecto de un filtro en una forma de onda también se puede ver en el dominio
del tiempo. La salida y(t) resultante de convolar un pulso de entrada ideal x(t)
(con amplitud Vm y ancho de pulso T) con la respuesta de impulso de un filtro C
de paso bajo puede escribirse como[8].

Donde

Definimos la anchura de banda de impulsos como

y el ancho de banda del filtro RC, como


Figura 1.16 (a) Impulso ideal. b) Espectro de magnitud del pulso ideal.
El pulso de entrada ideal x(t) y su espectro de magnitud X(f) se muestran
en la figura.
1.16. El filtro RC y su característica de magnitud H(f) se muestran en las
Figuras 1.13a y b, respectivamente. A continuación de las ecuaciones (1.66) a
(1.69), se ilustran tres casos en la Figura 1.17. El ejemplo 1 ilustra el caso en el
que Wp<<Wf. Note que la respuesta de salida y(t) es una aproximación
razonablemente buena del pulso de entrada x(t), mostrado en líneas
discontinuas. Esto representa un ejemplo de buena fidelidad. En el ejemplo 2,
donde Wp≈Wf, todavía podemos reconocer que se ha transmitido un pulso desde
la salida y(t). Finalmente, el ejemplo 3 ilustra el caso en el que el Wp>>Wf. Aquí
la presencia del pulso es apenas perceptible desde y(t). ¿Puede pensar en una
aplicación en la que se requiera el gran ancho de banda de filtro o la buena
fidelidad del ejemplo 1? Una aplicación de alcance preciso, tal vez, donde el
tiempo de pulso de llegada se traduce en distancia, necesita un pulso con un
tiempo de subida pronunciado. ¿Qué ejemplo caracteriza la aplicación de
comunicaciones digitales binarias? Es el ejemplo 2. Como hemos señalado
anteriormente con respecto a la Figura 1.1, una de las principales características
de las comunicaciones digitales binarias es que cada pulso recibido sólo necesita
ser percibido con precisión como si estuviera en uno de sus dos estados; no es
necesario mantener una señal de alta fidelidad. Se ha incluido el ejemplo 3 para
completarlo; no se utilizaría como criterio de diseño para un sistema práctico.

Figura 1.17 Tres ejemplos de filtrado de un pulso ideal. a) Ejemplo 1: Salida de buena fidelidad.
b) Ejemplo 2: Salida de buen reconocimiento. c) Ejemplo 3: Salida de mal reconocimiento.
1.7 ANCHO DE BANDA DE LOS DATOS DIGITALES
1.7.1 Banda Base versus Paso de Banda
Una manera fácil de traducir el espectro de una señal de paso bajo o de
banda base x(t) a una frecuencia más alta es multiplicar o heterodinear la señal
de banda base con una onda portadora cos 2πfct, como se muestra en la Figura
1.18. La forma de onda resultante, xc(t), se denomina señal modulada de doble
banda lateral (DSB) y se expresa como

A partir del teorema de desplazamiento de frecuencia (véase la Sección


A.3.2), el espectro de la señal DSB xc(t) viene dado por

Vous aimerez peut-être aussi