Vous êtes sur la page 1sur 60

Capítulo 2

Señales y Espectros

En los sistemas de comunicación se trasmiten señales que portan información. Las mismas son modificadas por las
características del canal, y deben ser procesadas por el receptor para recuperar la señal transmitida; de allí que el estudio
de las señales es fundamental en un sistema de comunicación. En este capítulo, se desarrollan los conceptos más
importantes sobre las señales y sus representaciones en los dominios del tiempo y de la frecuencia, los cuales son
necesarios para una mejor comprensión de los sistemas de comunicación.

El estudio sobre señales se inicia con las definiciones de señal y sistema, y los conceptos de energía y potencia como
medidas adecuadas para una señal. También, se tratan algunas características de las señales que permiten su
clasificación de acuerdo a varios criterios; se definen ciertas formas de onda de pulso de gran importancia en el estudio
de los sistemas de comunicación; se estudia la representación de una señal dada por medio de un conjunto ortonormal
de señales, tanto en el dominio del tiempo como de la frecuencia; y se desarrollan los conceptos de densidad espectral y
correlación. Además, se presentan los conceptos de modulación y señales pasa-banda, y también se incluye un breve
estudio sobre señales discretas.

2.1 Señales y Sistemas


Una señal es una función que representa una cantidad o variable física, y típicamente contiene información acerca del
comportamiento o naturaleza del fenómeno. Matemáticamente, una señal es una función de una variable independiente,
que generalmente, es el tiempo, como por ejemplo, una señal de voltaje, o los precios de una tienda. Sin embargo, éste
no es el único caso, ya que se pueden tener funciones del espacio, como una densidad superficial de carga, o funciones
del espacio-tiempo como la expresión de una onda electromagnética. Pero, como en el estudio de los sistemas de
comunicación tratamos casi exclusivamente con señales que son funciones del tiempo, a continuación, utilizamos sólo
señales de este tipo en nuestra discusión, sin que por ello los temas desarrollados no sean aplicables a otras variables
independientes.

Si queremos modificar o manipular las señales, utilizamos los sistemas. Un sistema es una entidad que procesa un
conjunto de señales (entrada) para producir otro conjunto de señales (salida), las cuales difieren, pero están relacionadas
de alguna forma con las primeras. En general, los sistemas están constituidos por componentes físicos (hardware) y
algoritmos (software).

2.2 Medida de una Señal - Energía y Potencia


El tamaño de cualquier entidad es un número que indica la dimensión o intensidad de la entidad. En general, si
consideramos la amplitud de una señal, ésta varía con el tiempo; por lo que es importante preguntarse ¿cómo se puede
medir el tamaño de una señal solamente con un número, si la señal varía durante un cierto intervalo de existencia?
Debe notarse que tal número debe considerar una medida no sólo de la amplitud variable de la señal, sino también del
intervalo de duración.

Una medida adecuada de una señal x(t) podría ser el área bajo la curva de x(t), porque nótese que toma en consideración
no sólo la amplitud, sino también la duración. Sin embargo, esta medida tiene algunos inconvenientes como la
cancelación de áreas positivas y negativas. Para corregir esto, se puede considerar x2(t), lo que resulta en la energía de
la señal Ex, definida como
20
+∞
Ex = ∫ x (t )dt para una señal real, y
2

−∞
+∞
(2.1)
Ex = ∫ x (t ) dt para una señal compleja
2

−∞

A pesar de que pueden definirse otras medidas para una señal, la energía Ex resulta más significativa en el sentido de
que es un indicativo de la cantidad de energía que puede extraerse de la señal. Para que tenga significado, la energía de
una señal debe ser finita. Una condición necesaria para esto es que la amplitud tiende a 0 a medida que ⏐t⏐ tiende a ∞.
De lo contrario la integral en la expresión (2.1) no convergerá. Si la amplitud de la señal x(t) no tiende 0 a medida que
⏐t⏐ tiende ∞, la energía de la señal es infinita. Para este caso, una medida más significativa del tamaño de la señal sería
el promedio en el tiempo de la energía (si existe), el cual es la potencia promedio Px definida por

1 +T / 2 2
Px = lim
T →∞ T
∫ x (t )dt para una señal real, y
−T / 2
(2.2)
1 +T / 2 2
Px = lim
T →∞ T
∫ x (t ) dt para una señal compleja.
−T / 2

donde la raíz cuadrada de la potencia de la señal Px es el valor rms de x(t).

La media de una entidad promediada sobre un intervalo largo de tiempo que se aproxime a infinito, existe si la entidad
es periódica o tiene una regularidad estadística. Si tal condición no se satisface, el promedio no existe. Considere, por
ejemplo, el caso de una función rampa, x(t) = t. En este caso, no existe Ex ni Px.

Es importante indicar que las definiciones (2.1) y (2.2) no son una medida real de la energía ni de la potencia de la
señal, ya que la energía y la potencia dependen no sólo de la señal, sino también de la carga. Sin embargo, las
ecuaciones (2.1) y (2.2) pueden interpretarse como la energía o potencia promedio disipada en una carga normalizada de
un resistor de 1Ω. También debe notar que las dimensiones de las ecuaciones (2.1) y (2.2) no son correctas, ya que el
término energía (o potencia promedio) no se utiliza en el sentido convencional, sino como un indicativo del tamaño de
la señal. Así, las dimensiones de Ex y Px en (2.1) y (2.2), respectivamente, dependen de la naturaleza de la señal. Por
ejemplo, si x(t) es una señal de voltaje, entonces Ex tiene dimensiones [(voltios)2 segundos] y Px se mide en [(voltios)2].

2.3 Clasificación de las Señales


Las señales se pueden clasificar de múltiples formas, pero en nuestro estudio de los sistemas de comunicación nos
interesan las siguientes clases:

• Señales de tiempo continuo y de tiempo discreto.


• Señales analógicas y digitales.
• Señales periódicas y no-periódicas.
• Señales de energía y de potencia.
• Señales determinísticas y probabilísticas (aleatorias).

2.3.1 Señales de Tiempo Continuo y de Tiempo Discreto


Una señal de tiempo continuo es aquella que está especificada para cada valor de tiempo t, mientras que una señal de
tiempo discreto está especificada solamente para ciertos valores de tiempo. La Figura 2.1 muestra la misma función
sinusoidal como una señal de tiempo continuo (izquierda) y de tiempo discreto (derecha). La Sección 2.16 presenta una
introducción a los aspectos más importantes sobre señales discretas.
2. Señales y Espectros 21

Figura 2.1: Señales de tiempo continuo y tiempo discreto.

2.3.2 Señales Analógicas y Digitales


Una señal analógica es una señal cuya amplitud puede tomar cualquier valor en un rango continuo, es decir, que la
amplitud puede tomar un número infinito de valores dentro de un intervalo. Por el contrario, una señal digital, es
aquella cuya amplitud solamente puede tomar un número finito de valores. La Figura 2.2 muestra las formas de onda de
una señal sinusoidal analógica y digital. Observe que la señal analógica toma cualquier valor en el intervalo [–2,2],
mientras que la amplitud de la señal digital correspondiente sólo toma valores del conjunto {–2, –1.5, –1, –0.5, 0, 1, 1.5,
2}.

Figura 2.2: Señales analógica y digital.

No se deben confundir los conceptos de tiempo continuo y analógico, ya que ambos no son iguales. Esto también
ocurre con los conceptos de tiempo discreto y digital. Los términos de tiempo continuo y de tiempo discreto clasifican
la naturaleza de la señal a lo largo del tiempo, mientras que los términos analógico y digital clasifican la naturaleza de la
amplitud de la señal.

2.3.3 Señales Periódicas y No-periódicas


Una señal periódica x(t) es aquella que para alguna constante positiva To, satisface la condición

x (t ) = x (t + To ) ∀ t . (2.3)

El menor valor de To que satisface la condición de periodicidad es el periodo de x(t). Una señal es no-periódica si no es
una señal periódica.

Una señal periódica, por definición, debe iniciar en – ∞ y continuar por siempre. Otra propiedad importante de una
señal periódica x(t) es que la misma puede ser generada por una extensión periódica de cualquier segmento de x(t) de
duración To (el periodo).
22
2.3.4 Señales de Energía y de Potencia
Una señal de energía es aquella que tiene energía finita, i.e., para una señal x(t), si


E x = ∫ x(t ) dt < ∞
2
(2.4)
−∞

entonces, x(t) es una señal de energía.

De forma similar, se tiene que una señal de potencia es aquella que tiene potencia finita y diferente de cero. Si x(t) es
una señal de potencia, entonces

1 T /2
∫ x(t ) dt < ∞ .
2
0 < Px = lim (2.5)
T →∞ T
−T / 2

Una señal de energía tiene potencia cero, y una señal de potencia tiene energía infinita, por lo tanto, una señal no puede
ser de potencia y de energía al mismo tiempo! Sin embargo, una señal puede no ser de energía ni de potencia, e.g., la
señal rampa.

2.3.5 Señales Determinísticas y Probabilísticas (aleatorias)


Una señal determinística es aquella cuya descripción física es conocida completamente, ya sea en una forma matemática
o en forma gráfica, e.g., x(t) = 3 + 2t2. Por otro lado, una señal probabilística o aleatoria es conocida solamente en
términos de su descripción probabilística, tal como el valor cuadrático medio, valor medio, etc., e.g., el ruido aditivo
blanco Gaussiano (ver Capítulo 6). La Figura 2.3 muestra dos señales: una determinística, dada por x(t) = 2 sin(20πt), y
otra aleatoria, con una función de densidad de probabilidad Gaussiana con media cero y varianza 1.

Figura 2.3: Señales determinística y aleatoria.

Ejemplo 2.1 (Clasificación de señales): Clasifique la señal x(t) que se muestra en la Figura 2.4.

Figura 2.4: Señal x(t).


2. Señales y Espectros 23
Solución:
La señal x(t) tiene una duración finita, por lo que es una señal de energía.


5
Ex = ∫ x (t )dt = 2 A
2 2
.
−∞

Además, la señal x(t) es una señal de tiempo continuo, digital, no-periódica y determinística.

2.4 Operaciones con Señales y Función Impulso


En esta sección se tratan tres operaciones básicas, pero de gran importancia, para manipular señales: desplazamiento en
el tiempo, cambio de escala en el tiempo e inversión en el tiempo. Además, se presenta la función impulso, que es
fundamental en el estudio de los sistemas de comunicación.

2.4.1 Desplazamiento en el Tiempo


En la Figura 2.5a se muestra una señal x(t) y una versión de la misma señal adelantada 3 segundos. En general, para
desplazar en el tiempo una señal x(t) por T segundos, se reemplaza la variable independiente t por (t – T). De esta
forma se obtiene una señal y(t) = x(t – T) que es idéntica a x(t) pero corrida en el tiempo. Si T es un valor positivo, el
desplazamiento corresponde a un retraso, mientras que si T es un valor negativo, el desplazamiento corresponde a un
adelanto.

2.4.2 Cambio de Escala del Tiempo


El cambio de escala del tiempo produce la compresión o expansión de una señal. La Figura 2.5b muestra una señal x(t)
y dos versiones de la misma que corresponden a cambios de escala del tiempo. En general, para cambiar la escala del
tiempo de una señal x(t), se reemplaza la variable independiente t por at, donde a es un factor que dependiendo de su
valor producirá una versión comprimida o expandida de x(t). De esta forma se obtiene una señal y(t) = x(at), donde,
para a > 1 resulta una compresión, y para 0 < a < 1 resulta una expansión.

2.4.3 Inversión en el Tiempo


Para el cambio de escala en el tiempo, existe un caso especial cuando a = –1, que resulta en una inversión en el tiempo
de la señal. Observe la Figura 2.5c.

a) desplazamiento en el tiempo b) cambio de escala del tiempo c) inversión en el tiempo

Figura 2.5: Operaciones sobre una señal x(t).

2.4.4 Función Impulso Unitario

La función impulso unitario δ (t) es una de las funciones más importantes en el estudio de las señales y los sistemas.
Esta función fue definida por P. Dirac como:
24

δ (t ) = 0 t≠0

(2.6)
∫ δ (t )dt = 1 .
−∞

La Figura 2.6 muestra una imagen del impulso. Este puede considerarse como un pulso rectangular con un ancho
infinitamente pequeño, una altura infinitamente grande, y un área que es igual a la unidad.

Figura 2.6: Impulso unitario.

Esta definición de la función impulso unitario, ecuación (2.6), conduce a una función que no es única. Más aún, δ(t) no
es una función verdadera en el sentido ordinario, ya que una función verdadera está especificada por sus valores para
todo tiempo t. Esta función impulso es cero en todos lados, excepto en t = 0, y aún en este punto, no está definida.

En un sentido más riguroso, la función impulso se define, no como una función ordinaria, sino como una función
generalizada, donde δ (t) está definida por la siguiente relación:

∞ ∞

∫ x(t )δ (t − T )dt = x(T ) ∫ δ (t − T )dt = x(T ) ,


−∞ −∞
(2.7)

donde x(t) es una función continua en el instante donde existe el impulso, t = T. Esta ecuación significa que el área
debajo del producto de una función con un impulso es igual al valor de la función en el instante donde el impulso
unitario está localizado. Esta propiedad, tan importante y útil, se conoce como propiedad de muestreo del impulso
unitario.

Note que de la ecuación (2.7), la definición del impulso unitario no dice nada sobre qué es o cómo es, sino que se define
en términos del efecto que tiene sobre una función de prueba x(t). La propiedad de muestreo es una consecuencia de la
definición clásica de Dirac.
Otra función importante en el estudio de las señales y los sistemas, es la función escalón unitario u(t), definida por la
expresión (2.8) y cuya forma de onda se muestra en la Figura 2.7.

⎧1 t≥0
u (t ) = ⎨ (2.8)
⎩0 t<0

Figura 2.7: Función escalón unitario.

La función escalón unitario es muy útil cuando se quiere que una señal inicie en t = 0. Para esto sólo se multiplica la
señal con u(t). Una señal que no inicia antes de t = 0 se denomina causal, i.e., que una señal x(t) es causal si

x(t) = 0, para todo t < 0.


2. Señales y Espectros 25

La función u(t) se relaciona con δ (t) por medio de:

du (t )
= δ (t ) . (2.9)
dt

Ejemplo 2.2 (operaciones con señales): Considere una señal x(t) dada por la función 2cos(40πt), que existe sólo en el
intervalo de tiempo [0.0,0.1]. Grafique esta señal junto con las señales correspondientes a i) un retraso de 0.05 s, ii)
una expansión en un factor de 2, y iii) la inversión en el tiempo.

Solución:
La señal x(t) se puede expresar como x(t) = 2cos(20πt) [u(t) – u(t – 0.1)] utilizando la función escalón.
A continuación se incluye un script en MATLAB que permite obtener las gráficas deseadas.

% Operaciones con señales

f=20; % frecuencia de la señal


T=1/f; % periodo
t=-5*T:T/100:5*T; % intervalo de tiempo para graficar

s = 2*cos(2*pi*f*t).*((t>=0)&(t<=0.1)); % señal original


sd = 2*cos(2*pi*f*(t-0.05)).*((t>=0.05)&(t<=0.15)); % señal retrasada 0.05 seg
se = 2*cos(2*pi*f*(0.5*t)).*((t>=0)&(t<=0.1*2)); % señal expandida por 2
si = fliplr(s); % señal invertida

% Gráficas
subplot(4,1,1); plot(t,s);grid; legend(‘x(t)’);
subplot(4,1,2); plot(t,sd);grid; legend(‘x(t-0.05)’);
subplot(4,1,3); plot(t,se);grid; legend(‘x(0.5t)’);
subplot(4,1,4); plot(t,si);grid; legend(‘x(-t)’);

Figura 2.8: Operaciones con señales del Ejemplo 2.2.



26
2.5 Señales Pulso Importantes
En esta sección se presentan tres señales (funciones) pulso que son de gran importancia en el estudio de los sistemas de
comunicación.

2.5.1 Función Pulso Rectangular Unitario


Un pulso rectangular unitario rect(x) se define como un pulso de amplitud unitaria, ancho unitario y centrado en el
origen como se indica a continuación y se muestra en la Figura 2.9.

⎧0 x> 1
2

rect ( x ) = ⎨ 12 x= 1
2
(2.10)
⎪1 x< 1
⎩ 2

El pulso rectangular rect(x/τ) que se muestra, también, en la Figura 2.9 es el pulso rectangular expandido por un factor
τ. Observe que este factor indica el ancho del pulso.

Figura 2.9: Pulsos rectangulares: rect(x) y rect(x/τ).

2.5.2 Función Triángulo Unitario ∆(x)

Una función triángulo unitario ∆(x) se define como un pulso triangular de amplitud unitaria y ancho unitario, centrado
en el origen como se indica a continuación y se muestra en la Figura 2.10.

⎧ 0 x> 1
∆( x ) = ⎨ 2 (2.11)
⎩1 − 2 x x< 1
2

Como en el caso del pulso rectangular, el pulso triangular se puede expandir por un factor τ, obteniéndose ∆(x/τ), que se
muestra, también, en la Figura 2.10.

Figura 2.10: Pulsos triangulares: ∆(x) y ∆(x/τ).


2. Señales y Espectros 27
2.5.3 Función de Interpolación sinc(x)
La función sinc(x) es muy importante en el procesamiento de señales, y se conoce también como función de filtrado o
de interpolación. Está definida como

sin (πx )
sinc (x ) = , (2.12)
πx

y se muestra en la Figura 2.11. En la literatura, esta función también se denota como Sa(x), y algunos autores la definen
como

sin (x )
sinc (x ) = . (2.13)
x

En el resto del texto, usaremos la definición dada por la ecuación (2.12). Algunas características de esta función son las
siguientes:

• sinc(x) es una función par de x.


• sinc(x) = 0 cuando sin(x) = 0 excepto en x = 0, donde es indeterminado. Esto significa que la función es igual a
cero, sinc(x) = 0, para x = ±1, ±2, ±3, ... como se observa en la Figura 2.11.
• sinc(0) se define utilizando la regla de L´Hopital, i.e., sinc(0) = 1.
• sinc(x) exhibe oscilaciones sinusoidales de periodo 2π, con amplitud continuamente decreciente como 1/(πx).

Figura 2.11: Pulso sinc(x).

2.6 Señales - un Enfoque Vectorial


Una realidad muy importante es que las señales son vectores, y por lo tanto, ellas se pueden representar como una suma
de sus componentes en diversas formas.

2.6.1 Estudio de Vectores


Consideremos primero los vectores y sus componentes. Como ya sabemos, un vector se especifica por su magnitud y
dirección. Ahora, considere dos vectores s y x, como se muestran en la Figura 2.12, y sea cx la componente de s a lo
largo de x. Geométricamente, esta componente es la proyección de s sobre x. La importancia de esto, es que el vector s
puede expresarse en términos del vector x como
28

s = cx + e . (2.14)

Sin embargo, existen infinidad de posibilidades para expresar s en función de x, si consideramos cualquier valor de c, y
del otro vector e. Este vector e, se denomina vector de error y está dado por

e = s − cx , (2.15)

al considerar la aproximación s ≈ cx .

Figura 2.12: Aproximación de un vector s en términos de otro vector x.

Por conveniencia, se define el producto punto (escalar) entre dos vectores s y x como

s ⋅ x = s x cosθ (2.16)

donde θ es el ángulo entre los dos vectores. Utilizando esta definición, se puede determinar la componente de s a lo
largo de x, que es |s|cosθ = c|x|. Multiplicando ambos lados de la expresión anterior por |x|, resulta

1
c= 2
s⋅x . (2.17)
x

De la ecuación (2.16) se puede observar que cuando s y x son perpendiculares, u ortogonales, entonces c = 0, i.e., la
proyección de s sobre x es cero!

2.6.2 Señales
Los mismos conceptos anteriores se pueden aplicar a las señales. Considere ahora el problema de aproximar una señal
real s(t) en términos de otra señal real x(t) sobre un intervalo [t1,t2]:

s(t ) ≈ cx(t ) t1 ≤ t ≤ t 2 . (2.18)

En esta aproximación, el error está dado por:

⎧s(t ) − cx(t ) t1 ≤ t ≤ t 2
e(t ) = ⎨ (2.19)
⎩ 0 de lo contrario.

Así, si queremos la mejor aproximación, es necesario minimizar el error. Ya que la energía de una señal es una medida
del tamaño de la señal, entonces minimizar el tamaño del error, implicaría minimizar su energía Ee sobre el intervalo
[t1,t2]:

t2 t2

E e = ∫ e 2 (t )dt = ∫ [s (t ) − cx(t )] dt .
2
(2.20)
t1 t1
2. Señales y Espectros 29
Note que Ee depende de c y no de t, y que el mínimo de Ee se logra para un valor dado de c. Una condición necesaria
para minimizar Ee es

dEe
=0 (2.21)
dc

de lo que resulta

t2
1
c=
Ex ∫ s(t )x(t )dt .
t1
(2.22)

Las expresiones (2.22) y (2.17) muestran claramente la estrecha relación entre las señales y los vectores, y más aún, que
el área bajo el producto de dos señales corresponde al producto escalar de dos vectores.

Tomando la terminología de los vectores, podemos decir que cx(t) es la proyección de s(t) sobre x(t), y que si la
componente de una señal s(t) de la forma de x(t) es cero, i.e., c = 0, entonces las señales son ortogonales sobre el
intervalo [t1,t2]. Así, se define que las señales reales s(t) y x(t) son ortogonales si

t2

∫ s(t )x(t )dt = 0 .


t1
(2.23)

Estos resultados se pueden generalizar a funciones complejas de t. De esta forma resultan expresiones muy similares.
Considere el mismo problema: aproximar una función s(t) por medio de otra función x(t) sobre un intervalo [t1,t2].

Sean s(t) y x(t) señales complejas tal que en el intervalo [t1,t2]:

s(t ) ≈ cx(t ) t1 ≤ t ≤ t 2 ,

entonces, el error de aproximación complejo está dado por

e(t ) = s(t ) − cx(t ) t1 ≤ t ≤ t 2 ,

y para la mejor aproximación se escoge c tal que

t2
1
∫ s(t )x (t )dt (2.24)

c=
Ex t1

donde

t2

E x = ∫ x(t ) dt .
2

t1

De este resultado, ecuación (2.24), se redefine la ortogonalidad. Dos funciones s(t) y x((t) sobre un intervalo [t1,t2] son
ortogonales si

t2 t2

∫ s(t )x (t )dt = 0 ∫ s (t )x(t )dt = 0


∗ ∗
ó (2.25)
t1 t1

Ejemplo 2.3 (señales ortogonales) Muestre que dos señales exponenciales exp(jmω0t) y exp(jkω0t) para cualesquiera
m y k enteros, m≠ k, son ortogonales en cualquier intervalo sobre un periodo T0, donde T0 = 2π/ω0.
30
Solución:
Para cualquier intervalo t0, usando la ecuación (2.25) que define la ortogonalidad, se tiene

t 0 +T0 t 0 +T0 t 0 +T0


1
∫ exp( jmω 0 t ) exp( jkω 0 t ) dt = ∫ exp[ j (m − k )ω 0 t ]dt = j (m − k )ω exp[ j (m − k )ω 0 t ]

t0 t 0 0 t 0

1
= exp[ j (m − k )ω 0 t 0 ]{exp[ j (m − k )2π ] − 1}
j (m − k )ω 0
=0

ya que exp[j(m – k)2π] = 1 para todos m y k enteros, m≠ k.


2.6.3 Energía de la Suma de Señales Ortogonales


Del análisis vectorial, si los vectores x y y son ortogonales y z = x + y, entonces

2 2 2
z =x +y

Así, en forma similar para dos señales complejas (reales) ortogonales x(t) y y(t) en un intervalo [t1,t2], si z(t) = x(t) +
y(t), entonces

Ez = Ex + E y (2.26)

Ejemplo 2.4 (ortogonalidad y energía) Considere las siguientes señales x(t) = sinωot y y(t) = cosωot, verifique que son
señales ortogonales en el intervalo [τ,τ + To], donde ωo = 2π/To. Además, considere una señal z(t) = x(t) + y(t),
verifique la ecuación (2.26), y determine la energía de z(t).

Solución:
Las señales x(t) y y(t) son señales reales y periódicas, ambas con periodo To. Aplicando la ecuación (2.23) se puede
verificar la ortogonalidad,

τ +To τ +To

∫ x(t )y(t )dt = ∫ (sin ω t )(cos ω t )dt


τ τ
o o

τ +To
1
=
2 ∫ (sin 2ω t )dt
τ
o

=0

La energía de la señal z(t) está dada por

τ +To τ +To
Ez = ∫ (z (t ))2 dt = ∫ (x(t ) + y (t ))2 dt
τ τ
τ +To τ +To τ +To
= ∫ (x(t ))2 dt + 2 ∫ x(t )y (t )dt + ∫ ( y (t ))2 dt
τ τ τ

= Ex + Ey
= To

En la segunda línea de la expresión anterior se observa que el primero y el tercer término del lado derecho
corresponden a las energías de las señales x(t) y y(t), respectivamente; y que el segundo término es cero ya que las
señales x(t) y y(t) son ortogonales.

2. Señales y Espectros 31
2.7 La Correlación: Comparación de Señales
En los sistemas de comunicación es de gran interés comparar señales y obtener información de este proceso, por lo que
en esta sección se discute un índice que indica la similitud entre dos señales. Para este estudio es conveniente iniciar
con la comparación de vectores y luego extender los resultados a las señales, como se hizo en la sección anterior.

2.7.1 Coeficiente de Correlación


Dos vectores s y x son similares si s tiene una componente grande a lo largo de x, por lo que se puede considerar a c,
ecuación (2.13), como una medida cuantitativa de la similitud entre s y x. Sin embargo, esta medida presenta algunas
deficiencias ya que depende de las longitudes. Así, una mejor medida de la similitud es el ángulo θ entre los vectores.
Mientras menor el ángulo, mayor la similitud, y viceversa. De forma tal que la similitud pudiese medirse por el cosθ ,
dando como resultado el coeficiente de correlación cn:

s⋅x
cn = cosθ = − 1 ≤ cn ≤ 1 . (2.27)
sx

Utilizando el mismo argumento para definir un índice de similitud (coeficiente de correlación) para señales, deberíamos
considerar las señales sobre el intervalo de tiempo completo, de –∞ a +∞. Además, el coeficiente debe ser
independiente de los tamaños (energías) de las señales, por lo que debe normalizarse. Así, resulta el coeficiente de
correlación para señales (complejas) cn:


1
∫ s(t )x (t )dt

cn = − 1 ≤ cn ≤ 1 . (2.28)
Es E x −∞

De la ecuación (2.28), se tiene que si s(t) = k x(t), entonces

• cn = + 1 para k > 0;
• cn = – 1 para k < 0;
• cn = 0 si s(t) y x(t) son ortogonales.

2.7.2 Correlación y Funciones de Correlación


De lo anterior, vemos como la correlación de dos señales mide el grado de similitud entre ellas. Comparar señales, y
determinar su similitud, es un proceso extremadamente importante y se utiliza ampliamente en aplicaciones de radar,
sonar, comunicaciones digitales y muchas otras, ya que permite la detección de una señal conocida en formas de onda
desconocidas en presencia de ruido.

Utilizar directamente el coeficiente de correlación, ecuación (2.28), en una aplicación real puede resultar en errores, ya
que si en un sistema se transmite un pulso, x(t), con ancho T, y éste se recibe en un tiempo distinto t – τ, para τ ≥ T, el
coeficiente de correlación de estos pulsos idénticos, pero que ocurren en tiempos diferentes, es cero! Esto se debe
justamente a que los pulsos no ocurren al mismo tiempo.

Para evitar esta dificultad, se debe comparar el pulso transmitido x(t) con el pulso recibido x(t – τ) considerando un
corrimiento de τ seg. De esta forma, si para algún τ existe una fuerte correlación, no sólo se detecta la presencia del
pulso, sino que también ¡se detecta el retraso de tiempo relativo de x(t – τ) con respecto a x(t)!

Así, se utiliza la integral modificada Rx(τ), denominada función de autocorrelación dada por


R x (τ ) ≡ ∫ x(t )x (t − τ )dt

−∞ <τ < ∞ (2.29)
−∞

donde x(t – τ) es el pulso x(t) atrasado τ segundos.


32
También podemos considerar la correlación de dos funciones distintas, x(t) y y(t), la cual se denomina función de
correlación cruzada Rxy(τ),

R xy (τ ) ≡ ∫ x(t )y (t − τ )dt

−∞ <τ < ∞ . (2.30)
−∞

Las funciones de correlación son funciones pares, esto es,

Rx (τ ) = Rx (− τ ) (2.31a)
R xy (τ ) = R ∗
yx (− τ ) (2.31b)

Ejemplo 2.5 (función de correlación) Determine la función de autocorrelación Rx(τ) para la señal real

x(t ) = exp(− at )u (t ) a > 0.

Solución:
De la definición de función de autocorrelación dada en la ecuación (2.29), se tiene


R x (τ ) = ∫ x(t )x(t − τ )dt
−∞

= exp (− at )u (t ) exp (− a (t − τ ))u (t − τ )dt

−∞

= exp (aτ ) exp (− 2at )u (t )u (t − τ )dt

−∞

Para τ > 0, u(t)u(t – τ) es 1 para t > τ, y 0 para t < τ, por lo que


1
R x (τ ) = exp (aτ ) exp (− 2 at )dt =
∫ exp (− aτ ) .
τ
2a

Como la función Rx(τ) es una función par, ecuación (2.32a), se tiene que

exp (− a τ )
1
R x (τ ) =
2a

La siguiente figura muestra la señal x(t) = exp(–2t) u(t) y su función de autocorrelación.

Figura 2.13: Señal x(t) y su función de autocorrelación Rx(τ).



2. Señales y Espectros 33
El siguiente ejemplo muestra la aplicación de la función de correlación para detectar una señal en presencia de ruido.

Ejemplo 2.6 (detección de una señal) En este ejemplo se considera la transmisión de un pulso rectangular x(t) a
través de un canal con ruido aditivo blanco Gaussiano (AWGN). La propagación de la señal a través del canal
presenta un retraso de 2 segundos. En el receptor, para determinar la presencia del pulso transmitido, se realiza la
correlación de la señal recibida r(t) con la señal transmitida (conocida) x(t). En la Figura 2.14 se muestran: la señal
transmitida x(t), la señal recibida r(t) = x(t – 2) + n(t), donde n(t) es una señal AWGN, y la función de correlación
Rrx(τ), la cual indica claramente que la señal recibida es efectivamente x(t) y que tiene un retraso de 2 s. Note el alto
valor de la función Rrx(τ) en τ = 2.

Figura 2.14: Aplicación de la función de correlación en la detección de una señal.


2.8 Representación de Señales


En este apartado se trata la representación de una señal por medio de un conjunto de señales ortogonales. Para esto,
resultan nuevamente útiles los conceptos asociados a los vectores.

2.8.1 Vectores Base


Un vector puede representarse como la suma de vectores ortogonales que forman un sistema de coordenadas de un
espacio vectorial. Así, por ejemplo, un sistema Cartesiano de tres dimensiones está descrito por tres vectores
mutuamente ortogonales x1, x2, x3. Si se representa un vector tridimensional s en términos de solamente dos vectores
ortogonales x1 y x2, se tiene un error:

para s ≈ c1 x1 + c2 x 2 , entonces existe e = s − (c1 x1 + c2 x 2 ) . (2.32)

Del análisis geométrico y lo estudiado en la Sección 2.6.1, se sabe que la longitud de e es mínima cuando e es
perpendicular al plano x1-x2, y c1x1 y c2x2 son las proyecciones o componentes de s sobre x1 y x2, respectivamente.
34
Ahora, considere una mejor aproximación de s en términos de los tres vectores mutuamente ortogonales x1, x2, x3:

s ≈ c1x1 + c2 x 2 + c3x3 .

De la Figura 2.15 se puede observar que existe una selección única de c1, c2, c3 tal que la expresión anterior ya no es más
una aproximación sino una igualdad:
s = c1x1 + c2 x 2 + c3x3 , (2.33)

en cuyo caso, c1x1, c2x2 y c3x3 son las proyecciones de s sobre x1, x2, x3, respectivamente. El error en este caso es cero,
porque el vector s es tridimensional y los vectores x1, x2, x3 representan un conjunto completo de vectores ortogonales
en un espacio tridimensional. El ser completo significa que es imposible hallar en este espacio otro vector x4 , que sea
ortogonal a los tres vectores x1, x2, x3. Siendo así, cualquier vector en este espacio puede representarse (con cero error)
en términos de estos tres vectores. Estos vectores se conocen como vectores base.

Figura 2.15: Representación de un vector en un espacio tridimensional.

La selección de los vectores base no es única. Es más, un conjunto de vectores base corresponde a una selección
particular de un sistema de coordenadas. Así, un vector tridimensional puede representarse en múltiples formas,
dependiendo del sistema de coordenadas escogido. Un ejemplo de esto, es la representación de un mismo vector en los
sistemas de coordenadas cartesianas, esféricas y cilíndricas.

Resumiendo
Si un conjunto de vectores {xi} n-dimensional es mutuamente ortogonal, esto es, si

⎧⎪ 0 j≠k
x j ⋅ xk = ⎨ 2 (2.34)
⎪⎩ x j j=k

y si este conjunto base es completo, un vector s en este espacio se puede expresar como

s = c1x1 + c2 x 2 + ... + cn x n (2.35)

donde las constantes ci están dadas por

1
ci = 2
s ⋅ xi i = 1,2,..., n. (2.36)
xi

2.8.2 Espacio de Señales Ortogonales


Las conclusiones anteriores se pueden extender a las señales. Primero, definamos la ortogonalidad de un conjunto de
señales {xn(t)} N-dimensional sobre un intervalo [t1,t2] como:

t2
⎧0 m≠n
∫ xm (t )xn (t ) = ⎨ E

(2.37)
t1 ⎩ n m=n .
2. Señales y Espectros 35
Si las energías son unitarias, i.e., En = 1 para toda n, entonces el conjunto se denomina conjunto ortonormal. Un
conjunto ortogonal se puede normalizar dividiendo xn (t) por √(En) para toda n.

Ahora, aproximemos una señal s(t) sobre el intervalo [t1,t2] por medio de un conjunto de N señales mutuamente
ortogonales:

s (t ) ≅ c1 x1 (t ) + c 2 x 2 (t ) + L + c N x N (t )
N (2.38)
s (t ) ≅ ∑ c n x n (t ) t1 ≤ t ≤ t 2 .
n =1

Se puede verificar que la energía Ee de la señal de error e(t), en la ecuación (2.38), es mínima si se escoge

∫t s(t )x n (t )dt
t
2 ∗
1
∫t s(t )x n (t )dt
t ∗
n = 1, 2, ..., N . (2.39)
2
cn = 1
=
(t )dt
t2
∫t x n2 En 1

Más aún, si el conjunto ortogonal es completo, ¡la energía del error tiende a cero!, y la representación en la expresión
(2.38) se convierte en una igualdad,

s (t ) = c1 x1 (t ) + c 2 x 2 (t ) + L + c n x n (t ) + L
∞ (2.40)
s (t ) = ∑ c n x n (t ) t1 ≤ t ≤ t 2
n =1

con los coeficientes cn dados por la ecuación (2.39). Ya que la energía del error se aproxima a cero, entonces la energía
de s(t) es igual a la suma de las energías de sus componentes ortogonales.

La serie del lado derecho de la ecuación (2.40) se denomina serie generalizada de Fourier de s(t) con respecto al
conjunto {xn(t)}. Cuando este conjunto es tal que la energía del error Ee tiende a cero a medida que N tiende a ∞ para
cada miembro de alguna clase particular, se dice que el conjunto {xn(t)} es completo en [t1,t2] para esa clase de s(t), y el
conjunto {xn(t)} se denomina conjunto de funciones base o señales base.

Recuerde que la energía de la suma de señales ortogonales es igual a la suma de sus energías. Por lo tanto, la energía
del lado derecho de la ecuación (2.40) es la suma de las energías de las componentes ortogonales individuales. La
energía de un componente cn xn(t) es cn2 En . Por lo tanto, la energía calculada para la ecuación (2.40) resulta,

Es = c12 E1 + c22 E2 + L
(2.41)
Es = ∑ cn2 En
n

Este resultado, de gran importancia, se conoce como Teorema de Parseval.

2.8.3 Procedimiento de Ortogonalización de Gram-Schmidt


El procedimiento de ortogonalización de Gram-Schmidt permite construir un conjunto ortonormal completo de
funciones base. Suponga que se tiene un conjunto de M señales de energía denotadas por s1(t), s2(t), ..., sM(t).
Comenzando con s1(t) de este conjunto arbitrario, la primera función base se define por

s1 (t )
φ1 (t ) = (2.42)
E1

donde E1 es la energía de la señal s1(t). Así, se tiene, claramente,

s1 (t ) = E1 φ1 (t ) (2.43)
= s11φ1 (t )
36
donde el coeficiente s11 = √(E1) y φ1(t) tiene energía unitaria, como se requiere. A continuación, utilizando la señal s2(t),
se define el coeficiente s21 como

T
s 21 = ∫ s 2 (t )φ1 (t )dt . (2.44)
0

Sea g2(t) la siguiente función intermedia

g 2 (t ) = s2 (t ) − s21φ1 (t ) , (2.45)

la cual es ortogonal a φ1(t) sobre el intervalo 0 ≤ t ≤ T por virtud de la ecuación (2.44) y el hecho de que la función base
φ1(t) tiene energía unitaria. Ahora, se define la segunda función base como

g 2 (t ) s 2 (t ) − s 21φ1 (t ) (2.46)
φ 2 (t ) = → φ 2 (t ) =
2
T
E2 − s 21
∫ g 2 (t )dt
2

donde E2 es la energía de la señal s2(t). Así, se tiene que


T T

∫ φ (t )dt = 1 ∫ φ (t )φ (t )dt = 0 .
2
2 y 1 2
0 0

Continuando de esta forma, se puede definir en general una función gi(t),

i −1
g i (t ) = si (t ) − ∑ sij φ j (t ) (2.47)
j =1

donde los coeficientes sij están definidos por

T
sij = ∫ si (t )φ j1 (t )dt , i = 1,2,..., N (2.48)
0

lo que forma un conjunto ortonormal. La dimensión N es menor que o igual al número de señales dadas, M,
dependiendo de dos posibilidades:

• Las señales s1(t), s2(t), ..., sM(t) forman un conjunto linealmente independiente, en cuyo caso N = M.
• Las señales s1(t), s2(t), ..., sM(t) no son linealmente independientes, en cuyo caso N < M, y la función intermedia
gi(t) es cero para i > N.

Ejemplo 2.7 (procedimiento de ortogonalización) Considere el conjunto de señales con duración T de la Figura 2.16.
Use el método de ortogonalización de Gram-Schmidt para encontrar un conjunto de señales base y construya el
correspondiente diagrama de espacio de señales.

Figura 2.16: Conjunto de señales con duración T.


2. Señales y Espectros 37
Solución:
Del conjunto de M = 4 señales de energía, se define la primera función base φ1(t) por la ecuación (2.42),

s1 (t ) 1 3
φ1 (t ) =
T
= = , 0≤t≤
E1 T /3 T 3
∫ dt
0

Ahora se determina el coeficiente s21 que es la proyección de s2(t) en φ1(t),


T T /3
3
s 21 = ∫ s 2 (t )φ1 (t )dt =
T
0

0
T
dt =
3

con lo que se tiene la señal intermedia g2(t),

2T
g 2 (t ) = s2 (t ) − s21φ1 (t ) = 1,
T
≤t≤
3 3

y se obtiene la segunda función base como

g 2 (t ) 3 2T .
φ 2 (t ) =
T
= , ≤t≤
T T 3 3
∫ g (t )dt
2
2
0

De igual forma se determinan ahora los coeficientes s31 y s32 de la proyección de s3(t) en φ1(t) y φ2(t),
T T
s 31 = ∫ s 3 (t )φ1 (t )dt = 0, s 32 = ∫ s 3 (t )φ 2 (t )dt =
T
0 0
3

con lo que se tiene la señal intermedia g3(t),

2T
g3 (t ) = s3 (t ) − s31φ1 (t ) − s32φ2 (t ) = 1, ≤t ≤T
3

y se obtiene la tercera función base como

g 3 (t ) 3 2T
φ 3 (t ) = = , ≤t ≤T
T T 3
∫ g (t )dt
2
3
0

Ahora se calculan los coeficientes s41, s42 y s43 de la proyección de s4(t) en φ1(t), φ2(t) y φ3(t),
T T T
s 41 = ∫ s 4 (t )φ1 (t )dt = s 42 = ∫ s 4 (t )φ 2 (t )dt = s 43 = ∫ s 4 (t )φ 3 (t )dt =
T T T
, ,
0
3 0
3 0
3

y se tiene que

g 4 (t ) = s4 (t ) − s41φ1 (t ) − s42φ2 (t ) − s43φ3 (t ) = 0

con lo cual hemos terminado el proceso de ortogonalización. En la Figura 2.17 se muestra el correspondiente
diagrama de espacio de señales.
38

Figura 2.17: Espacio de señales base.

Las tres funciones base forman un conjunto ortonormal. Observe que cualquiera de las señales si(t) se puede expresar
como una combinación lineal de las tres funciones base. En este ejemplo, M = 4 y N= 3 lo cual indica que el conjunto
de señales si(t) no forman un conjunto linealmente independiente. Claramente, s4(t) = s1(t) + s3(t).

Ejemplo 2.8 (representación vectorial de una señal) Se tiene un código cuaternario, llamado 2B1Q, para representar
señales digitales, cuyas señales son versiones de diferente amplitud de un mismo pulso. Sea este pulso básico φ1(t) para
0 ≤ t ≤ T, y las cuatro posibles señales del código: s1(t) = –3φ1(t), s2(t) = –φ1(t), s3(t) = +φ1(t), y s4(t) = +3φ1(t). Note
que este conjunto de señales no son linealmente independientes, y por lo tanto, se tiene N = 1, M = 4. Este ejemplo es
bastante simple y se puede resolver por inspección. Así, se tiene que φ1(t), el pulso básico, normalizado para tener una
energía unitaria, es la única función base del conjunto ortonormal del código; y la representación vectorial del código
consiste de cuatro vectores señales s1, s2, s3, s4, los cuales se localizan en el eje-φ1 como se muestra en la Figura 2.18.
Esta figura se denomina diagrama de señal-espacio. En este ejemplo en particular, el diagrama de señal-espacio del
código 2B1Q es el de una señal de pulso cuaternaria modulada en amplitud, y el mismo corresponde a un diagrama
unidimensional (N = 1), con cuatro puntos (M = 4) distribuidos sobre un único eje.

Figura 2.18: Diagrama señal-espacio del código 2B1Q.


2.9 Series Generalizadas de Fourier


La representación de una señal por la serie generalizada de Fourier muestra que las señales son vectores en todos los
sentidos. Así como se tienen sistemas coordenados formados por vectores mutuamente ortogonales, así también se
tienen sistemas coordenados de señales (señales base) formados por una variedad de conjuntos de señales mutuamente
ortogonales. Existe una gran cantidad de conjuntos de señales ortogonales que se pueden utilizar como señales base
para las series generalizadas de Fourier. Entre los conjuntos de señales más conocidas están las funciones
trigonométricas (sinusoidales), funciones exponenciales, funciones de Walsh, funciones de Bessel, polinomios de
Legendre y polinomios de Chebyshev, entre otras. En el estudio de los sistemas de comunicación resultan de gran
interés las funciones trigonométricas y las exponenciales.

2.9.1 Serie Trigonométrica de Fourier


Sea el siguiente conjunto de señales:

{1, cos ω0t , cos 2ω0t ,K, cos nω0t ,K, sin ω0t , sin 2ω0t ,K, sin nω0t ,K} (2.49)
2. Señales y Espectros 39
donde n es un entero y ω0 = 2πf0, es la frecuencia medida en radianes/segundo y f0 es la frecuencia medida en hertz1.
Una señal sinusoidal de frecuencia nω0 se denomina el n-ésimo armónico de la sinusoide de frecuencia ω0 [rad/s ] ó f0
[Hz]. La señal sinusoidal de frecuencia ω0 sirve como base de este conjunto, y se denomina fundamental, siendo el
resto de los términos, armónicos de esta señal. Este conjunto es ortogonal sobre cualquier intervalo de duración T0 = 1/f0
= 2π/ω0 [s] que corresponde al periodo de la fundamental.

Este es el conjunto trigonométrico, que es un conjunto completo. Por lo tanto, cualquier señal s(t) se puede expresar por
una serie trigonométrica de Fourier sobre cualquier intervalo de duración T0 segundos como

x(t ) = a 0 + a1 cos ω 0 t + a 2 cos 2ω 0 t + K + b1 sin ω 0 t + b2 sin 2ω 0 t + K t 1 ≤ t ≤ t 1 + T0 (2.50a)

o

x(t ) = a 0 + ∑ (a n cos nω 0 t + bn sin nω 0 t ) t 1 ≤ t ≤ t 1 + T0 , (2.50b)
n =1

donde los coeficientes a0, an y bn se calculan a partir de la ecuación (2.32), resultando:

1 t1 +T0
a0 = ∫ x(t )dt (2.51a)
T0 t1

2 t1 +T0
an = ∫ x (t ) cos nω 0 tdt n = 1,2,3, K (2.51b)
T0 t1

2 t1 +T0
bn = ∫ x(t )sin nω 0 tdt n = 1,2,3, K (2.51c)
T0 t1

La serie trigonométrica, ecuación (2.50), contiene términos senos y cosenos de la misma frecuencia, por lo que estos
términos se pueden combinar utilizando la identidad trigonométrica

an cos nω0t + bn sin nω0t = Cn cos(nω0t + θ n )


(2.52)
donde
⎛ − bn ⎞ . (2.53)
Cn = an2 + bn2 y θ n = tan −1 ⎜⎜ ⎟⎟
⎝ an ⎠

Por conveniencia, si denotamos el término a0 por C0, podemos escribir la serie trigonométrica de Fourier en su forma
compacta:


x(t ) = C 0 + ∑ C n cos(nω 0 t + θ n ) t 1 ≤ t ≤ t 1 + T0 (2.54)
n =1

donde Cn y θn están dados por la ecuación (2.53).

Es importante notar que una señal arbitraria x(t) puede expresarse como una serie trigonométrica de Fourier sobre
cualquier intervalo de T0 segundos. Así, la serie de Fourier es igual a x(t) sobre ese intervalo solamente. Fuera de este
intervalo, la serie no es necesariamente igual a x(t).

Periodicidad
La serie trigonométrica de Fourier es una función periódica de periodo T0 (periodo de la fundamental). Siendo así, si la
función s(t) fuese periódica también con periodo T0, entonces una serie de Fourier que represente a x(t) sobre un
intervalo T0, representaría también a x(t) para todo t (no sólo en el intervalo T0).

1
Por conveniencia (simplificación de escritura) en la mayoría de las expresiones se usa ω, pero los análisis, gráficas y algunas
expresiones finales se dan en función de f. Recuerde que ambas son frecuencias y están relacionadas por ω = 2πf.
40
Espectro de Fourier
La serie trigonométrica compacta de Fourier en la ecuación (2.54) indica que una señal periódica x(t) puede
representarse como la suma de funciones sinusoidales de frecuencias 0 (dc), ω0, 2ω0, ... , nω0, ... , cuyas amplitudes son
C0, C1, C2, ..., Cn, ... y cuyas fases son 0, θ1, θ2, ..., θn, .... A partir de esto, se puede graficar fácilmente la amplitud Cn
vs. f (o ω) (espectro de amplitud) y θn, vs. f (o ω) (espectro de fase). Estas dos gráficas conforman el espectro de
frecuencia de x(t).

El espectro de frecuencia provee una descripción alternativa en el dominio de la frecuencia de la señal x(t). Por lo tanto,
una señal tiene una identidad dual: la identidad en el dominio del tiempo s(t) y una identidad en el dominio de la
frecuencia (espectro de Fourier). Las dos identidades se complementan y juntas proveen una mejor comprensión de la
señal.

Existen dos condiciones básicas para la existencia de la serie de Fourier, las cuales se conocen como condición débil de
Dirichlet y las condiciones fuertes de Dirichlet.

La primera condición establece que para que la serie exista, los coeficientes a0, an y bn deben ser finitos. Esta condición
se garantiza si x(t) es absolutamente integrable sobre un periodo, esto es,

∫T x(t ) dt < ∞ .
0
(2.55)

Si una función x(t) satisface la condición débil de Dirichlet, se garantiza la existencia de una serie de Fourier, pero
puede que la serie no converja en todos los puntos.

Las condiciones fuertes de Dirichlet requieren que la función x(t) tenga solamente un número finito de máximos y
mínimos en un periodo, y pueda tener solamente un número finito de discontinuidades finitas en un periodo.

2.9.2 Serie Exponencial de Fourier

Considere un conjunto de exponenciales exp(jnωot) para n = 0, ±1, ±2, .... Este conjunto es ortogonal sobre cualquier
intervalo de duración T0 = 1/f0 = 2π/ω0 [segundos], esto es,

⎧0 m≠n
exp( jmω 0 t ) exp( jnω 0 t ) dt = ∫T exp[ j (m − n )ω 0 t ]dt = ⎨

∫T m=n .
(2.56)
0 0
⎩T0

Más aún, este conjunto es un conjunto completo. De las ecuaciones (2.40) y (2.39) se tiene que una señal x(t) puede
expresarse sobre un intervalo de duración T0 segundos como una serie exponencial de Fourier


x(t ) = ∑D n exp( jnω 0 t ) (2.57)
n = −∞

donde

1
Dn =
T0 ∫ x(t )exp(− jnω t )dt .
T0
0 (2.58)

Los coeficientes Dn son complejos y, más aún, los coeficientes Dn y D-n son conjugados.

Esta serie es básicamente otra forma de la serie trigonométrica de Fourier, pero con la ventaja de que su forma es más
compacta y que la expresión matemática para derivar los coeficientes de la serie también es compacta. La serie
exponencial de Fourier es periódica con periodo T0.

Espectro Exponencial de Fourier


Los espectros exponenciales de Fourier se obtienen al graficar los coeficientes Dn como funciones de ω (o f). Pero,
como los Dn son complejos en general, se requieren dos gráficas: las partes real e imaginaria de Dn, o la magnitud y la
2. Señales y Espectros 41
fase de Dn. Estas últimas están más relacionadas con los componentes de la serie trigonométrica. Para esto, se requiere
expresar los coeficientes Dn en forma polar D n exp( j∠D n ) . Como Dn y D-n son conjugados, entonces sabemos que

Dn = D − n y ∠Dn = −∠D− n .

Es importante que se entienda que los espectros exponenciales son una representación gráfica de los coeficientes Dn
como funciones de f (o ω), y que por lo tanto la existencia del espectro en f = –nf0 (una frecuencia negativa que
físicamente no existe), es sólo una indicación del hecho de que una componente exponencial exp(–j2πnf0) existe en la
serie.

Teorema de Parseval
Una señal periódica x(t) es una señal de potencia, y cada término de su serie de Fourier es también una señal de
potencia. La potencia Px de x(t) es igual a la potencia de su serie de Fourier, y como la serie consiste de términos
mutuamente ortogonales sobre un periodo, entonces la potencia Px es igual a la suma de las potencias de las
componentes de Fourier. Esto resulta del teorema de Parseval. Así, se tiene para la serie trigonométrica de Fourier,
ecuación (2.54), que la potencia Px de x(t) está dada por

1 ∞ 2
Px = C 02 + ∑ Cn
2 n =1
(2.59)

y para la serie exponencial de Fourier, ecuación (2.57), Px está dada por

∞ ∞
∑ Dn = D02 + 2∑ Dn
2 2
Px = (2.60)
n = −∞ n =1

Ejemplo 2.9 (series de Fourier y espectros) Para la siguiente señal periódica de voltaje, encuentre la serie
trigonométrica, la serie trigonométrica compacta y la serie exponencial de Fourier. Grafique sus espectros y verifique
el teorema de Parseval.

Figura 2.19: Señal de voltaje x(t).

Solución
La señal es periódica por lo que se puede tomar cualquier intervalo con T0 = 4 s (periodo) para realizar el análisis,
e.g., el intervalo [0,4]. La señal es, además, simétrica, por lo que algunos términos de la serie son cero y el valor
promedio de la señal es cero, por consiguiente el término dc en las series es cero.

De T0 se sabe que ω0 = 2π/T0 =π/2 (f0 = 0.25 Hz).


42
Serie trigonométrica:

a0 = 0
an = 0
2⎛ 2 1
⎜ ∫0 sin nω 0 t dt − ∫2 sin nω 0 t dt ⎞⎟ = {1 − 2 cos(nπ ) + cos(2nπ )} = 4
4
bn = para n = 1,3,5,7,...
4⎝ ⎠ nπ nπ
∞ ∞
4
∴ x(t ) = ∑ bn sin nω 0 t = ∑ sin nω 0 t para n impar
n =1 n =1 nπ

Forma compacta:

⎛ − bn ⎞ π
C n = a n2 + bn2 = bn y θ n = tan −1 ⎜⎜ ⎟=−

⎝ an ⎠ 2
∞ ∞
⎛ π⎞ 4
∴ x(t ) = ∑ C n cos⎜⎝ nω 0 t − 2 ⎟⎠ = ∑ nπ sin nω 0 t n impar
n =1 n =1

Serie exponencial:

1 ⎛⎜ ⎞
2 4
1
Dn = ∫ exp(− jnω 0 t )dt − exp(− jnω 0 t )dt ⎟ =
∫ (1 + exp(− j 4nω 0 ) − 2 exp(− j 2nω 0 )); ω0 = π / 2
4⎝0⎜ ⎟ j 4 nω 0
2 ⎠

Dn =
1
(1 + cos(2nπ ) − 2 cos(nπ )) = − j 2 = 2 exp⎛⎜ − j π ⎞⎟ n impar
j 2 nπ nπ nπ ⎝ 2⎠
∞ ∞
2
x(t ) = ∑D exp( jnω 0 t ) = − j ∑ exp( jnω 0 t ) para n impar
n = −∞ π
n
n = −∞ n

4
⇒ x(t ) = ∑ sin (nω 0 t ) para n impar.
n =1 nπ

Note que Dn se puede calcular a partir de Cn como

1 2 ⎛ π⎞
Dn = C n exp( jθ n ) = exp⎜ − j ⎟ n = 1, 3, 5, 7, ...
2 nπ ⎝ 2⎠
1 2 ⎛ π⎞
D− n = C n exp(− jθ n ) = exp⎜ j ⎟ n = −1, − 3, − 5, − 7, ...
2 nπ ⎝ 2⎠

Teorema de Parseval

2
1 ∞ 2 1 ∞⎛ 4 ⎞ 8 ∞ 1
Px = C02 + ∑ Cn = ∑ ⎜ ⎟ = 2 ∑ n impar
2 n =1 2 n =1 ⎝ nπ ⎠ π n =1 n2
o
2
∞ 2 ∞ 2 8 ∞ 1
Px = D02 + 2 ∑ D n = 2∑ = ∑ n impar
n =1 n =1 nπ π 2
n =1 n2
2. Señales y Espectros 43
Espectros de amplitud

Figura 2.20: Espectros de amplitud de x(t) de la: a) serie compacta, b) serie exponencial.

Es importante notar que los espectros a partir de la serie trigonométrica son unilaterales (f ≥ 0), mientras que a partir
de la serie exponencial son bilaterales (⏐f⏐≥ 0).

2.10 Transformada de Fourier


En la práctica, toda señal que pueda generarse o capturarse para análisis es de duración finita y por tanto tiene energía
finita. Es decir, que toda señal observada en la vida real es una señal de energía. De lo contrario, su potencia, que es su
energía promedio (sobre un intervalo infinitamente grande) no se aproximaría a un límite (distinto de cero). Y es que
resulta imposible generar o registrar una verdadera señal de potencia en la práctica, porque tal señal tiene una duración
infinita y una energía infinita. Por tanto, no se pueden tener señales realmente periódicas, ya que por definición su
duración es infinita. Siendo así, es muy importante poder representar una señal no-periódica. Del estudio anterior para
señales periódicas, se puede aplicar un proceso de límite de forma que una señal no-periódica pueda expresarse como
una suma continua (integral) de exponenciales permanentes.

Para una señal cualquiera no-periódica x(t), como la que se muestra en la siguiente figura, sería posible construir una
nueva señal periódica xTo(t) a partir de la repetición de x(t) cada T0 segundos.

Figura 2.21: Construcción de una señal periódica a partir de una señal no-periódica de duración finita.
44
Si el periodo T0 se hace lo suficientemente grande para evitar la sobreposición de las formas de onda repetidas, la señal
periódica xTo(t) puede representarse por una serie exponencial de Fourier como en la Sección 2.8.2. Si hacemos que T0
→ ∞, las formas de onda en la señal periódica se repetirán después de un intervalo infinito, y por lo tanto

lím xT0 (t ) = x(t ) . (2.61)


T0 →∞

De esta forma, la serie de Fourier que representa la señal xTo(t) también representará la señal x(t) en el límite T0 → ∞.
Ya se sabe que la serie exponencial de Fourier para xTo(t) esta dada por


xT0 (t ) = ∑ Dn exp( jnω 0 t ) (2.62)
n = −∞
donde

T0 / 2
1 2π
Dn =
T0 ∫ xT (t ) exp(− jnω 0 t )dt
0
y ω 0 = 2πf 0 =
T0
. (2.63)
−T0 / 2

Note que xTo(t) sobre el intervalo (–½T0, ½T0) es lo mismo que la integral de x(t) sobre ( –∞, ∞), por lo que la ecuación
(2.63) puede expresarse como


1
Dn =
T0 ∫ x(t ) exp(− jn 2πf 0 t )dt (2.64)
−∞

La naturaleza del espectro cambia, y resulta un espectro continuo, donde en el límite a medida que T0 → ∞ , f0 → 0 y
Dn → 0. Esto significa que el espectro resultante es tan denso que las componentes están espaciadas a un intervalo cero
(infinitesimal), al tiempo que la amplitud de cada componente es cero (infinitesimal). Esto resulta un poco extraño como
se indica en [Lat98], es como tener nada de todo, y sin embargo tener algo! Para aclarar esto, se puede definir una
función X(f) como una función continua de f, tal que


X(f )= ∫ x(t ) exp(− j 2πft )dt , (2.65)
−∞

de lo que resulta
1
Dn = X (nf 0 ) . (2.66)
T0

De la ecuación (2.62),


X (nf 0 )
xT0 (t ) = ∑ exp( jn 2πf 0 t ) (2.67)
n = −∞ T0

y considerando que cuando T0 → ∞ , f0 → 0, y sustituyendo f0 por ∆f = 1/T0, se tiene que


xT0 (t ) = ∑ X (n∆f )∆f exp( jn2π∆ft ) (2.68)
n = −∞

y si tomamos el límite para obtener x(t), entonces,


x(t ) = lim xT0 (t ) = lim ∑ X (n∆f ) exp( jn2π∆ft )∆f (2.69)
T0 →∞ ∆f →0
n = −∞

resultando

x(t ) = ∫ X ( f )exp( j 2πft )df , (2.70)
−∞
2. Señales y Espectros 45
o en términos de ω,

1
x(t ) = ∫ X (ω ) exp( jωt )dω. (2.71)
2π −∞

En la ecuación (2.70) o en la (2.71), la integral de la derecha se denomina integral de Fourier. De esta forma es posible
representar una señal no-periódica x(t) por una integral de Fourier (en lugar de una serie de Fourier). Esta integral es
básicamente una serie (en el límite) con frecuencia fundamental ∆f → 0. La cantidad del exponencial exp(jn2π∆f t) es
X(n2π∆f)∆f, por lo que X(f) dada por la ecuación (2.65) actúa como una función espectral.

X(f) se llama transformada directa de Fourier de x(t), y x(t) es la transformada inversa de Fourier de X(f). La relación
entre ellas se expresa como

x(t ) = F −1 [X ( f )] ↔ X ( f ) = F[x(t )]
∞ ∞
(2.72)
x(t ) = ∫ X ( f )exp( j 2πft )df ↔ X(f )= ∫ x(t )exp(− j 2πft )dt
−∞ −∞

Se puede graficar el espectro X(f) como una función de f. Ya que X(f) es complejo, se tienen los espectros de amplitud y
de fase directamente de X(f),

X ( f ) = X ( f ) exp( jθ ( f )) . (2.73)

La transformada de Fourier X(f) es la especificación en el dominio de la frecuencia de x(t), y la existencia de la


transformada de Fourier se asegura para cualquier señal x(t) que satisfaga las condiciones de Dirichlet mencionadas en
la Sección 2.9.1. Adicionalmente, se puede indicar que si una señal x(t) es una función real de t, de la ecuación (2.65) se
puede ver que para –f, se tiene que

X (− f ) = ∫ x(t )exp( j 2πft )dt , (2.74)


−∞

y considerando esta expresión y la ecuación (2.65), resulta entonces que X(f) y X(–f) son complejos conjugados, esto es,

X (− f ) = X ∗ ( f ) , (2.75)

de lo cual resulta que el espectro de amplitud tiene simetría par y el de fase tiene simetría impar.

Para concluir, es importante notar que el espectro de Fourier de una señal periódica tiene amplitudes y fases finitas y
existe en frecuencias discretas (f0 y sus múltiplos); mientras que el espectro de Fourier de una señal no-periódica es
continuo y existe en todas las frecuencias.

Ejemplo 2.10 (transformada de Fourier y espectros) Para las siguientes señales x(t) y xp(t), donde x(t) = rect(2t) y
xp(t) corresponde a la repetición periódica de x(t), con periodo T0 = 1 s, determine y grafique los espectros de amplitud
de ambas señales.

Figura 2.22: Señales x(t) y xp(t).


46
Solución:
La señal x(t) tiene un ancho de 0.5 s (T0/2). Para hallar el espectro del pulso rectangular x(t), que es una función no-
periódica, se calcula la transformada de Fourier, mientras que para el tren de pulsos rectangulares xp(t), que es una
función periódica, se calculan los coeficientes de la serie exponencial de Fourier.

Transformada de Fourier:

+T / 4
1 ⎛ ⎛ T⎞ ⎛ T ⎞⎞ 1 ⎛π ⎞
X(f )= ∫ exp(− j 2πft )dt = − j 2πf ⎜⎜⎝ exp⎜⎝ − j 2πf ⎟ − exp⎜ + j 2πf ⎟ ⎟⎟ = sin ⎜ f ⎟
−T / 4
4⎠ ⎝ 4 ⎠ ⎠ πf ⎝2 ⎠
1 ⎛ f ⎞
= sinc ⎜ ⎟
2 ⎝2⎠

Coeficientes de la serie exponencial de Fourier:

+T / 4
1 1 ⎛ ⎛ T⎞ ⎛ T ⎞⎞ 1 ⎛ π⎞
Dn =
T ∫ exp(− jn2πft )dt = − jn2πf ⎜⎜⎝ exp⎜⎝ − jn2πf
−T / 4
⎟ − exp⎜ + jn 2πf ⎟ ⎟⎟ =
4⎠ ⎝ 4 ⎠⎠ nπ
sin ⎜ n ⎟
⎝ 2⎠
1 ⎛n⎞
= sinc ⎜ ⎟
2 ⎝2⎠

Espectros de magnitud

Figura 2.23: Espectros de magnitud de las señales x(t) y xp(t).

Observe el espectro continuo del pulso, y el espectro discreto del tren de pulsos.

Al igual que para la serie de Fourier, para que exista la transformada de Fourier de una señal x(t) es suficiente, pero no
necesario, que x(t) satisfaga las condiciones de Dirichlet. Cuando una función de tiempo x(t) corresponde a una
descripción específica precisa de una señal realizable físicamente (e.g., señal de voz, señal de video), podemos ignorar
la pregunta de la existencia de la transformada de Fourier, porque el hecho de que la función sea físicamente realizable
es una condición suficiente para la existencia de la transformada de Fourier. Por lo tanto, todas las señales de energía
tienen transformada de Fourier.

2.10.1 Propiedades de la Transformada de Fourier


Ahora consideremos algunas de las propiedades más importantes de la transformada de Fourier y sus implicaciones, así
como sus aplicaciones. Es importante en este punto resaltar un aspecto omnipresente de la transformada de Fourier: la
dualidad tiempo-frecuencia. En la ilustración de la Figura 2.24 se resalta el hecho de que las transformadas, directa e
inversa, de Fourier son significativamente similares.
2. Señales y Espectros 47

Figura 2.24: Relación entre las transformadas directa e inversa de Fourier.

Observe que sólo hay una diferencia menor en estas operaciones: el signo de los índices exponenciales. Esta
observación conduce al principio de dualidad, obtenido al intercambiar los roles de x(t) y X(f) en el resultado original
(con la modificación del signo).

A continuación se indican algunas propiedades importantes, sin incluir las pruebas, y se aplica el principio de dualidad
como ejemplo al caso de la propiedad de corrimiento en el tiempo.

Propiedad de Linealidad (superposición)


La transformada de Fourier es lineal, esto es, si x1 (t ) ↔ X 1 ( f ) y x2 (t ) ↔ X 2 ( f ) entonces,

a1 x1 (t ) + a 2 x 2 (t ) ↔ a1 X 1 ( f ) + a 2 X 2 ( f ) (2.76)

Propiedad de Escalamiento
Si x(t) ↔ X(f) entonces, para cualquier constante real a,

1 ⎛f⎞
x(at ) ↔ X⎜ ⎟ . (2.77)
a ⎝a⎠

Esta propiedad establece que la compresión de una señal en el tiempo resulta en su expansión espectral, y viceversa.
Esto implica que si x(t) es ancha, su espectro será angosto, y viceversa. Esto sugiere que el ancho de banda de una señal
es inversamente proporcional a la duración o ancho (en segundos) de la señal (ver Sección 2.10 Ancho de banda de
rect(x/τ)).

Propiedad de Conjugación
Si x(t) ↔ X(f) entonces, para una función x(t) compleja,

x ∗ (t ) ↔ X ∗ (− f ) (2.78)

x ∗ (− t ) ↔ X ∗( f ) , (2.79)

donde * denota el complejo conjugado.

Área bajo x(t)


Si x(t) ↔ X(f), entonces
+∞

∫ x(t )dt = X (0) = X ( f )


−∞
f =0
(2.80)

Área bajo X(f)


Si x(t) ↔ X(f), entonces
+∞

x(t ) t =0 = x(0) = ∫ X ( f )df (2.81)


−∞
48
Propiedad de Simetría o Dualidad
Si x(t) ↔ X(f), entonces

X (t ) ↔ x(− f ) (2.82)

Propiedad de Corrimiento en el Tiempo


Si x(t) ↔ X(f), entonces

x(t − t 0 ) ↔ X ( f ) exp(− j 2πft 0 ) (2.83)

donde t0 es una constante real de tiempo.

Si aplicamos a esta ecuación el principio de dualidad, se puede obtener directamente la propiedad de corrimiento en la
frecuencia:

x(t ) exp( j 2πf 0 t ) ↔ X ( f − f0 ) (2.84)

donde f0 es una constante real de frecuencia.

Un retraso en el tiempo en una señal, produce un cambio de fase lineal en su espectro. Por lo tanto, un retraso de
tiempo t0 en una señal sinusoidal de frecuencia f se manifiesta como un retraso de fase de 2πf t0, lo cual es una función
lineal de f.

Diferenciación en el Tiempo
Si x(t) ↔ X(f), entonces,
x(t ) j 2πf X ( f )
d
↔ (2.85)
dt

y en general,
dn
x(t ) ↔ ( j 2πf )n X ( f ) (2.86)
dt n

Integración en el Tiempo
Si x(t) ↔ X(f), entonces,

t
1 1
∫ x(τ )dτ ↔
j 2πf
X ( f ) + X (0)δ ( f )
2
(2.87)
−∞

Propiedad de la Convolución en el Tiempo


La convolución de dos señales x1(t) y x2(t), denotada por x1(t) ∗ x2(t), está definida por

x1 (t ) ∗ x2 (t ) ≡ ∫ x1 (τ )x2 (t − τ )dτ . (2.88)


−∞

La propiedad de la convolución en el tiempo establece que


si x1(t) ↔ X1(f), y x2(t) ↔ X2(f), entonces

x1 (t ) ∗ x 2 (t ) ↔ X 1 ( f )X 2 ( f ) . (2.89)

Aplicando el principio de dualidad, se tiene la Propiedad de la Convolución en la Frecuencia:

x1 (t )x 2 (t ) ↔ X1( f )∗ X 2 ( f ) (2.90)

Una propiedad relacionada a éstas es la propiedad del ancho de la Convolución. Esta propiedad establece que el ancho
de s∗ x es la suma de los anchos de s y x. En consecuencia, si aplicamos esta propiedad a la ecuación (2.90) resulta que
2. Señales y Espectros 49
si el ancho de banda de una señal x(t) es B Hz, entonces el ancho de x2(t) es 2B Hz, y el ancho de banda de xn(t) es nB
Hz, y en general, si las señales x1(t) y x2(t) tienen anchos de banda B1 y B2 Hz, respectivamente, entonces el ancho de
banda de x1(t) x2(t) es (B1 + B2) Hz.

Propiedad de la Correlación
Si x1(t) ↔ X1(f), y x2(t) ↔ X2(f), entonces

+∞

∫ x (t )x (t − τ )dt X 1 ( f )X 2∗ ( f ) .

1 2 ↔ (2.91)
−∞

donde X*2(f) es el complejo conjugado de X2(f), y τ es la variable de tiempo involucrada en la definición de la


transformada inversa de Fourier del producto X1(f) X*2(f). La integral del lado izquierdo de la ecuación (2.91) es la
función de correlación cruzada (ver expresión (2.30)).

Teorema de Energía de Rayleigh


Si x(t) ↔ X(f), entonces

+∞ +∞
x(t ) dt = ∫ X(f )
2 2
∫ df = E x , (2.92)
−∞ −∞

donde Ex es la energía total de la señal x(t).

Ejemplo 2.11 (propiedades de la transformada de Fourier) Determine la energía del pulso x(t) dado por

x(t ) = A sinc(t / τ ) .

Solución:
La energía del pulso está dada por


Ex = ∫A
2
sinc 2 (t / τ )dt
−∞

Pero, la integral de esta ecuación es algo difícil de evaluar. Sin embargo, del Ejemplo 2.10 se observa que el pulso
rectangular y el pulso sinc forman un par de transformadas de Fourier, por lo que usando el resultado de ese ejemplo y
aplicando las propiedades de simetría y escalamiento, y observando que la función rectangular es una función par del
tiempo, se tiene lo siguiente:

Para
x(t ) = rect (t / T ) ↔ X ( f ) = T sinc(Tf )

entonces
A sinc(t / τ ) ↔ Aτ rect (τ f )

Ahora, aplicando el teorema de Rayleigh, se tiene que la energía del pulso sinc es

+1 / (2τ )

∫ ( Aτ ) rect 2 (τ f ) df = A 2τ
2
Ex =
−1 / (2τ )

La Tabla 2.1 contiene algunas transformadas de Fourier para las señales que comúnmente se utilizan en el estudio de los
sistemas de comunicación.
50

Tabla 2.1: Algunas transformadas de Fourier útiles.

x(t ) X(f )

1 δ(f )
δ (t ) 1
δ (t − t 0 ) exp(− j 2πft 0 )
exp( j 2πf 0 t ) δ ( f − f0 )
1
exp(− at ) u (t ) a>0
a + j 2πf
2a
exp(− a t ) a>0
a + (2πf )
2 2

⎡ ⎛ t ⎞2 ⎤
exp ⎢− π ⎜ ⎟ ⎥ (
T exp − π ( fT )
2
)
⎢⎣ ⎝ T ⎠ ⎥⎦

1
t exp(− at ) u (t ) a>0
(a + j 2πf )
2

1 1
u (t ) δ(f )+
2 j 2πf
1
cos(2πf 0 t ) [δ ( f − f 0 ) + δ ( f + f 0 )]
2
1
sin (2πf 0 t ) [δ ( f − f 0 ) − δ ( f + f 0 )]
2j

⎛t ⎞
rect ⎜ ⎟ T sinc( fT )
⎝T ⎠
1 ⎛ f ⎞
sinc (2Wt ) rect ⎜ ⎟
2W ⎝ 2W ⎠
⎛t⎞
cos(2πf 0 t ) rect ⎜ ⎟ [sinc( f − f 0 )T + sinc( f + f 0 )T ]
T
⎝T ⎠ 2
⎛t ⎞
∆⎜ ⎟ T sinc 2 ( fT )
⎝T ⎠

1 ∞ ⎛ ⎞
∑ δ (t − mT0 )
n
∑ δ ⎜⎜ f − ⎟

m = −∞ T0 n = −∞ ⎝ T0 ⎠
1
sgn (t )
jπf
1
− j sgn ( f )
πt
2. Señales y Espectros 51
Relación entre la Convolución y la Correlación
Si comparamos las definiciones de la convolución y la correlación, y también, las propiedades de la transformada de
Fourier de la convolución en el tiempo y de la correlación, se observa que existe una relación estrecha entre ambas
operaciones. Considere la convolución en el tiempo de dos señales reales x(t) y y(t); de la ecuación (2.88), se tiene que


x(t ) ∗ y(t ) = ∫ x(τ ) y(t − τ )dτ .
−∞

Si se intercambian las variables t y τ en la expresión anterior, se obtiene


x(τ ) ∗ y(τ ) = ∫ x(t )y(τ − t )dt .
−∞

Si ahora, se invierte la segunda señal, resulta


x(τ ) ∗ y(− τ ) = ∫ x(t )y(t − τ )dt .
−∞

Comparando esta última expresión con la ecuación (2.30), se tiene que

R xy (τ ) = x (τ ) ∗ y (− τ ) . (2.93)

Esta relación de gran interés cuando se dispone de alguna forma para calcular la convolución de dos secuencias, y que
ahora sabemos, también se puede usarse para calcular la correlación entre las secuencias, calculando la convolución de
la primera señal con, simplemente, la versión invertida de la segunda señal.

2.10.2 Transformadas de Fourier de Señales Periódicas


Del estudio anterior, sabemos que las señales periódicas se pueden representar por las series de Fourier como una suma
de exponenciales complejas, y también, que las exponenciales complejas se pueden representar a su vez por medio de
transformadas de Fourier (ver Tabla 2.1). Por lo tanto, parece razonable representar una señal periódica en términos de
una transformada de Fourier, condicionado a que dicha transformada pueda incluir funciones delta.

Sea xTo(t) una señal periódica con period To. Esta señal se puede representar en términos de una serie exponencial
compleja de Fourier dada por la ecuación (2.57) y que se vuelve a repetir por conveniencia:


xT0 (t ) = ∑ Dn exp( j 2π nf 0 t ) (2.94)
n = −∞

donde

Dn =
1
T0 ∫T
0
(
xT0 (t ) exp − j 2π nf 0t dt . ) (2.95)

y f0 = 1/T0 es la frecuencia fundamental.

Sea x(t) una función pulso, igual a xTo(t) sobre un periodo y cero en todos los otros lados, i.e.,


⎪ x (t ),
T T
− 0 ≤t≤ 0
x(t ) = ⎨ T0 2 2 (2.96)
⎪⎩ 0, cualquier otro lado

Además, la señal periódica xTo(t) se puede expresar en términos de x(t) como una sumatoria infinita
52

xT0 (t ) = ∑ x(t − mT0 ) . (2.97)
m = −∞

Basados en esta representación, x(t) se puede ver como una función generadora. Además, esta señal tiene energía finita
y por lo tanto tiene una transformada de Fourier, por lo que los coeficientes complejos Dn de la serie de Fourier se
pueden expresar como


(
Dn = f 0 ∫ x(t )exp − j 2π nf 0 t dt ) . (2.98)
−∞

= f 0 X (nf 0 )

donde X(nf0) es la transformada de Fourier de x(t), evaluada en la frecuencia f = nf0. Así, la señal periódica se puede
expresar como

∞ ∞
xT0 (t ) = ∑ x(t − mT0 ) = f 0 ∑ X (nf 0 )exp( j 2πnf 0t ) . (2.99)
m = −∞ n = −∞

Usando la expresión de la transformada de Fourier de la función exponencial compleja (ver Tabla 2.1), se encuentra la
transformada de Fourier para la señal periódica xTo(t),

∞ ∞
xT0 (t ) = ∑ x(t − mT0 ) ↔ f0 ∑ X (nf 0 )δ ( f − nf 0 ) . (2.100)
m = −∞ n = −∞

La ecuación (2.100) indica que la transformada de Fourier de una señal periódica consiste de funciones delta que
ocurren en múltiplos enteros de la frecuencia fundamental f0 = 1/T0, incluyendo el origen, y que cada función delta está
ponderada por un factor igual al valor correspondiente de X(nf0) – ver Ejemplo 2.10.

2.11 Relación Inversa entre Tiempo y Frecuencia


La definición de la transformada de Fourier y su inversa, así como las propiedades de la transformada de Fourier
discutidas en la sección anterior muestran claramente que existe una íntima relación entre las descripciones en el
dominio del tiempo y en el dominio de la frecuencia de una señal, y que la misma es una relación inversa. En particular
se tiene que:

i) Si la descripción en el dominio del tiempo de una señal se cambia, entonces la descripción de la señal en el
dominio de la frecuencia se cambia de una manera inversa, y viceversa. Esta relación inversa previene
especificaciones arbitrarias de una señal en ambos dominios. Es decir, que sólo se puede especificar una
función arbitraria del tiempo o un espectro arbitrario, pero no ambos a la vez, ya que uno y otro están
íntimamente relacionados, y al especificar uno de ellos, el otro queda determinado automáticamente.

ii) Si una señal es estrictamente limitada en frecuencia, la descripción en el dominio del tiempo de la señal será
infinita, aún cuando su amplitud pueda tomar valores progresivamente cada vez más pequeños. Una señal se
dice que es estrictamente limitada en frecuencia o estrictamente de banda limitada si su transformada de
Fourier es exactamente cero fuera de una banda finita de frecuencias. Un ejemplo claro de este tipo de señal es
el pulso sinc (en el tiempo) cuya transformada de Fourier es la función rect. Note que el pulso sinc es sólo
asintóticamente limitado en el tiempo. De forma inversa, si una señal es estrictamente limitada en el tiempo, es
decir, que es exactamente cero fuera de un intervalo finito de tiempo, entonces su espectro se extenderá al
infinito, aún cuando el espectro de amplitud tome valores progresivamente pequeños. Este caso queda
ejemplificado por una señal rect (en el tiempo) cuya transformada de Fourier es la función sinc. De esto se
concluye que una señal no puede ser estrictamente limitada tanto en tiempo como en frecuencia,
simultáneamente.
2. Señales y Espectros 53
2.11.1 Ancho de Banda
El ancho de banda de una señal provee una medida de la extensión del contenido espectral significativo de la señal para
frecuencias positivas. Así, se puede definir el ancho de banda de una señal como la diferencia entre la frecuencia más
alta (significativa) y la frecuencia más baja (significativa) en el espectro (positivo) de la señal. Cuando una señal es de
banda estrictamente limitada, el ancho de banda queda bien definido, pero cuando la señal no tiene una banda
estrictamente limitada, como ocurre generalmente, es necesario considerar algún tipo de definición de ancho de banda.
En la Sección 2.16 se discuten varias definiciones prácticas de ancho de banda.

Ejemplo 2.12 (ancho de banda de rect(t/τ)) Ya vimos que la trasformada de Fourier de una señal x(t) = rect(t/τ)
corresponde a X(f) = τ sinc(f τ). Note que x(t) es una señal estrictamente limitada en el tiempo, pero su espectro se
extiende de forma infinita. El espectro X(f) tiene su máximo en f = 0 y decae a frecuencias mayores; por lo tanto,
rect(x/τ) es una señal pasa-bajas con casi toda su energía en las componentes de baja frecuencia. Estrictamente, el
espectro de rect(x/τ) se extiende de 0 a ∞, por lo que el ancho de banda es, en este caso, ∞. Sin embargo, la mayor
parte de la energía está concentrada dentro del primer lóbulo (de f = 0 a f = 1/τ), y se podría considerar f = 1/τ la
frecuencia mayor significativa en el espectro, resultando un ancho de banda aproximado de 1/τ [Hz]. Observe la
relación recíproca entre el ancho del pulso rectangular y su ancho de banda aproximado.

2.11.2 Producto Tiempo-Ancho de Banda


Para cualquier familia de señales pulso que difieran por un factor de escala en el tiempo, el producto de la duración de la
señal y su ancho de banda es siempre una constante, i.e.,

(duración) × (ancho de banda) = constante.

Este producto se llama producto tiempo-ancho de banda o producto ancho de banda-duración; y es otra manifestación
de la relación inversa entre las descripciones en el dominio del tiempo y el dominio de la frecuencia de una señal. En
particular, se puede observar de la relación del producto, que si la duración de una señal se aumenta o se reduce por un
factor a (expansión o compresión, respectivamente); entonces, la escala de frecuencia del espectro de la señal, y por
consiguiente, su ancho de banda, se reducirá o aumentará, respectivamente, por el mismo factor a; de forma que el
producto tiempo-ancho de banda permanece constante. Esto se ilustra en el problema 17 de la Sección 2.18.

2.12 Densidad Espectral


La densidad espectral de una señal caracteriza la distribución de la energía o la potencia de una señal en el dominio de
la frecuencia. Este concepto es particularmente importante cuando se considera el proceso de filtrado en los sistemas de
comunicación. Para el análisis de los sistemas de comunicación debe ser posible evaluar la señal y el ruido en la salida
de un filtro, para lo cual se utiliza la densidad espectral de energía (ESD – energy spectral density) o la densidad
espectral de potencia (PSD – power spectral density).

La densidad espectral, ESD o PSD, es una función real positiva de una variable de frecuencia asociada con un proceso
estocástico estacionario, o una función determinística del tiempo, que tiene dimensiones de energía por Hz, o de
potencia por Hz. Se denomina simplemente espectro de la señal o densidad espectral, y básicamente captura el
contenido de un proceso estocástico y ayuda a identificar periodicidades.

La PSD se expresa comúnmente en watts por hertz [W/Hz] o en dBm/Hz. Para señales de voltaje, es común usar
unidades de V2/Hz para la PSD, y V2s/Hz para la ESD o dBµV/Hz.

2.12.1 Densidad Espectral de Energía


La ESD describe como la energía (o varianza) de una señal o de una serie en el tiempo se distribuye con la frecuencia.
La energía total de una señal de energía x(t) de valor real, definida sobre el intervalo (–∞, ∞), se describe por la
ecuación (2.1), y usando el teorema de energía de Rayleigh, se puede relacionar la energía de dicha señal expresada en
el dominio del tiempo a la energía expresada en el dominio de la frecuencia
54
∞ ∞

∫ x (t )dt = ∫ X ( f )
2
Ex = 2
df . (2.101)
−∞ −∞

donde X(f) es la transformada continua de Fourier de la señal no periódica x(t). Sea Sx(f) el cuadrado del espectro de
magnitud, definido como,
Sx ( f ) = X ( f ) .
2
(2.102)

La cantidad Sx(f) es la densidad espectral de energía de la señal x(t). Por lo tanto, de la ecuación (2.101), la energía
total de x(t) se puede expresar como,

E s = ∫ S x ( f )df . (2.103)
−∞

La ESD es simétrica en la frecuencia alrededor del origen, por lo que


E x = 2 ∫ S x ( f )df . (2.104)
0

2.12.2 Densidad Espectral de Potencia


Las definiciones anteriores de ESD requieren que existan las transformadas de Fourier de las señales, esto es, que las
señales sean cuadrado-integrables. Por eso, una alternativa más útil es la densidad espectral de potencia, la cual describe
como la potencia de una señal o de una serie en el tiempo se distribuye con la frecuencia. El término potencia se refiere
a potencia física real, o la mayoría de las veces, puede definirse como el cuadrado del valor de la señal, como el valor de
potencia real si la señal fuese un voltaje aplicado a una carga de 1-ohmio.

La potencia promedio Px de una señal de potencia de valor real s(t) se define por la ecuación (2.2). Si x(t) es una señal
periódica con periodo T0, ésta se clasifica como una señal de potencia. Aplicando el teorema de Parseval a una señal
periódica de valor real, la potencia promedio de la señal x(t) está dada por
T0

1 2

∫ x (t )dt = ∑ c n
2
Px = 2
. (2.105)
T0 −T0 2 n = −∞

donde los términos |cn| son los coeficientes complejos de la serie de Fourier de la señal periódica. La función de
densidad espectral de potencia (PSD – power spectral density) medida en [W/Hz] de una señal periódica x(t) es una
función real, par y no-negativa de la frecuencia que indica la distribución de la potencia de x(t) en el dominio de la
frecuencia, y esta definida como


Sx ( f )= ∑c δ ( f − nf 0 ) .
2
n
(2.106)
n = −∞

IMPORTANTE: Se ha utilizado el mismo símbolo Sx(f) para la PSD y la ESD ya que ambas son densidades y sus
definiciones son similares, diferenciándose en base a la naturaleza de la señal, si esta es de potencia o de energía, lo
que debe estar claro en el contexto o situación particular en que se usen.

La ecuación (2.106) define la PSD de una señal periódica como una sucesión de funciones delta ponderadas. Por lo
tanto, la PSD de una señal periódica es una función discreta de la frecuencia. Utilizando la definición en la ecuación
(2.80), la potencia normalizada promedio de una señal de valor real se puede escribir como

∞ ∞
Px = ∫ S x ( f )df =2 ∫ S x ( f )df . (2.107)
−∞ 0

La ecuación (2.106) describe la PSD de señales periódicas (de potencia) solamente. Si x(t) es una señal no-periódica, la
misma no se expresa como una serie de Fourier, y si es una señal no-periódica de potencia (tiene energía infinita) puede
que no tenga una transformada de Fourier. Sin embargo, la PSD de dichas señales se puede expresar en un sentido de
límite. Si se forma una versión truncada xT(t) de una señal de potencia no-periódica x(t) observando solamente la señal
2. Señales y Espectros 55
en el intervalo (–T/2, T/2), entonces xT(t) tiene energía finita y tiene una transformada apropiada de Fourier XT(f). Así,
se puede definir entonces la PSD de una señal no-peródica x(t) en el límite como

1
S x ( f ) = lim XT ( f ) .
2
(2.108)
T →∞ T

Por otro lado, como una señal con potencia promedio distinta de cero no es cuadrado-integrable, la transformada de
Fourier no existe; pero el teorema de Wiener-Khintchine provee una alternativa: la PSD es la transformada de Fourier
de la función de autocorrelación de la señal si la señal se puede tratar como un proceso aleatorio estacionario en
sentido amplio.

2.13 Autocorrelación de Señales de Energía y de Potencia


Como se indicó en la Sección 2.6, la autocorrelación es un proceso de búsqueda de coincidencia, y se refiere a la
coincidencia de una señal con una versión retrasada de sí misma. Para señales de energía x(t) de valor real, la
autocorrelación está dada por la ecuación (2.29), que se vuelve a repetir a continuación por conveniencia.


R x (τ ) ≡ ∫ x(t )x(t + τ )dt −∞ <τ < ∞ . (2.109)
−∞

La función de autocorrelación Rx(τ) provee una medida de que tanto la señal coincide con una copia de sí misma que
está desplazada τ unidades de tiempo. Note que Rx(τ) no es una función del tiempo, es solamente una función de la
diferencia de tiempo τ entre la forma de onda y su copia retrasada.

La función de autocorrelación Rx(τ) de una señal de energía de valor real tiene las siguientes propiedades:

i. Rx(τ) = Rx(-τ) es simétrica en τ alrededor de cero


ii. Rx(τ) ≤ Rx(0) ∀ τ el máximo valor ocurre en el origen
iii. Rx(τ) ↔ Sx(f) la autocorrelación y la ESD forman un par de transformadas de Fourier.
R x (0 ) = ∫ x 2 (t )dt

iv. el valor en el origen es igual a la energía de la señal
−∞

Si las propiedades i, ii y iii se satisfacen, Rx(τ) satisface las propiedades de una función de autocorrelación. La
propiedad iv se puede derivar de la propiedad iii y no es necesario incluirla en una prueba básica para verificar si una
función puede o no, ser una función de autocorrelación.

La función de autocorrelación de una señal de potencia x(t) de valor real está definida como
T0

1 2

R x (τ ) = lim ∫ x(t )x(t + τ )dt − ∞ <τ < ∞ . (2.110)


T →∞ T
0
0 − T0
2

Cuando la señal de potencia x(t) es periódica con periodo T0, el promedio en el tiempo en la ecuación (2.110) se puede
tomar sobre un único periodo T0, y la función de autocorrelación se puede expresar como

T0
1 2

R x (τ ) = ∫ x(t )x(t + τ )dt − ∞ <τ < ∞ . (2.111)


T0 − T0
2

La función de autocorrelación Rx(τ) de una señal periódica de valor real tiene las siguientes propiedades, similares a las
de una señal de energía:

i. Rx(τ) = Rx(-τ) es simétrica en τ alrededor de cero


ii. Rx(τ) ≤ Rx(0) ∀ τ el máximo valor ocurre en el origen
iii. Rx(τ) ↔ Sx(f) la autocorrelación y la PSD forman un par de transformadas de Fourier.
56
T0
1 2

iv. R x (0) = ∫ x (t )dt


2
el valor en el origen es igual a la potencia promedio de la señal
T0 −T0 2

Ejemplo 2.13 (propiedades de la función de autocorrelación) Dada la siguiente función x(τ), determine si cumple las
propiedades de una función de autocorrelación. Si x(τ) resulta ser una función de autocorrelación, entonces, determine
la señal x(t), si la misma es de energía o de potencia, y calcule su energía o potencia promedio.

x(τ) = 1 – |τ| para –1 ≤ τ ≤ +1, 0 de lo contrario.

Solución:
La siguiente figura muestra la señal x(τ).

0.8

0.6

0.4

0.2

0
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

Figura 2.25: Función x(τ) del Ejemplo 2.13.

De la figura se puede verificar que la función x(τ) es simétrica en τ alrededor de cero, x(τ) = x(-τ), y que el máximo
valor ocurre en el origen, x(τ) ≤ x(0) ∀ τ. La transformada de Fourier de x(τ) está dada por

x(τ ) = ∆(τ / 2) ↔ 2 sinc 2 (2 f ) , la cual es una función no-negativa.

De lo anterior, queda verificado que la función x(τ) satisface las propiedades de una función de autocorrelación. Así,
tenemos que x(τ) = Rx(τ).

A partir de la transformada de Rx(τ), que ahora sabemos que corresponde a la densidad espectral de una señal x(t), se
puede determinar la señal por medio de la transformada inversa de Fourier,

X ( f ) = 2sinc 2 (2 f )
2

1 ⎛t ⎞.
⇒ X ( f ) = 2sinc(2 f ) ↔ x(t ) = rect⎜ ⎟
2 ⎝2⎠

La señal x(t) es una señal de energía, cuya energía promedio, se puede determinar a partir de la función de
autocorrelación,

Rx(0) = 1.

2. Señales y Espectros 57
2.14 Señal Modulada
Considere la propiedad de corrimiento en la frecuencia,

x(t ) exp( j 2πf 0 t ) ↔ X ( f − f0 ) .

Esta propiedad indica que la multiplicación de una señal por un factor exp(j2πf0t) produce el corrimiento del espectro de
la señal por f = f0. Si cambia f0 por –f0 en la ecuación anterior se obtiene,

x(t ) exp(− j 2πf 0 t ) ↔ X ( f + f0 ).

En la práctica, no se puede generar la función exp(j2πf0t) (no es una función real), por lo que el corrimiento de
frecuencia se logra multiplicando la señal x(t) por una señal sinusoidal. Considere el producto de una señal x(t) y una
señal cosω0t. Aplicando la identidad de Euler se puede verificar que,

1
x (t ) cos (2πf 0 t ) = [x(t ) exp ( j 2πf 0 t ) + x(t ) exp (− j 2πf 0 t )] (2.112)
2

y aplicando la propiedad de corrimiento en la frecuencia se obtiene,

1
x (t ) cos (2πf 0 t ) ↔ [X ( f − f 0 ) + X ( f + f 0 )] . (2.113)
2

Esto muestra claramente que la multiplicación de una señal x(t) por una señal sinusoidal de frecuencia f0 desplaza el
espectro X(f) por ±f0.

La multiplicación de un cosω0t por x(t) resulta en la modulación de la amplitud de la señal sinusoidal. Este tipo de
modulación se denomina modulación de amplitud y se estudiará en detalle en el Capítulo 4. La señal sinusoidal cosω0t
se llama portadora, la señal x(t) es la señal moduladora, y la señal x(t) cosω0t es la señal modulada. Si se utiliza una
portadora cos(ω0 t + θ0) en lugar de cosω0t, se puede cambiar la fase de cada componente espectral de una señal
modulada por la cantidad constante θ0.

La modulación resulta muy importante porque permite mover el espectro de una señal. Esto puede ser necesario:

• si varias señales, que ocupan la misma banda de frecuencia, se quieren transmitir simultáneamente sobre el
mismo medio de transmisión.
• para la radiación efectiva de señales de audio (baja frecuencia – gran longitud de onda) por medio de un enlace
de radio. Recuerde que el tamaño de la antena debe estar en el orden de la longitud de onda de la señal
radiada, por lo que es conveniente cambiar el espectro de la señal original a una alta frecuencia (pequeña
longitud de onda).

Ejemplo 2.14 (modulación de amplitud) Considere la modulación de amplitud de una portadora c(t) con amplitud 1 y
frecuencia 10 Hz, por un pulso rectangular m(t) de amplitud 1 y duración 0.5 segundos. Determine las expresiones en
el dominio del tiempo y de la frecuencia de la señal modulada, y grafique todas las señales y sus espectros.

Solución:
A continuación se indican las señales involucradas en el proceso de modulación y sus transformadas de Fourier,

1
Señal portadora c(t ) = cos(20πt ) ↔ [δ ( f − 10) + δ ( f + 10)] ,
C( f ) =
2
1 ⎛ f ⎞
Señal moduladora m(t ) = rect (2t ) ↔ M ( f ) = sinc⎜ ⎟ ,
2 ⎝2⎠
1
Señal modulada s (t ) = m(t )c(t ) = rect (2t ) cos(20πt ) ↔ S ( f ) = {sinc[ 21 ( f − 10 )] + sinc[ 12 ( f + 10 )]},
4
58
Señales y sus espectros de amplitud

Figura 2.25: Modulación de amplitud, señales y espectros.

Observe que el espectro de la señal original m(t), señal pasa-bajas (espectro a bajas frecuencias), se trasladó a la
frecuencia de la portadora, resultando una señal pasa-banda con un ancho de banda que es el doble del ancho de
banda de la señal moduladora.

2.15 Señales Pasa-banda


Las fuentes de información generalmente producen señales (voz, audio, datos, etc.) pasa-bajas (llamadas banda-base),
por lo que se pueden tener dos señales pasa-bajas que ocupen la misma banda. En este sentido, sean las señales pasa-
bajas xc(t) y xs(t), ambas con ancho de banda B Hz. Ahora, considere que estas señales se multiplican por cos(ω0 t) y
sin(ω0 t), respectivamente. Note que las señales resultantes xc(t) cos(ω0 t) y xs(t) sin(ω0 t) serán ambas, señales pasa-
banda, ocuparán la misma banda, y tendrán también igual ancho de banda, 2B Hz (ver Ejemplo 2.14). Si aplicamos el
principio de linealidad se obtiene una señal pasa-banda general x(t),

x(t ) = x c (t ) cos ω 0 t − x s (t ) sin ω 0 t . (2.114)


El espectro de esta señal resultante está centrado en ±f0 y tiene un ancho de banda de 2B Hz. Es muy importante que
note que a pesar de que los espectros de magnitud de ambas componentes xc(t) cos(ω0 t) y xs(t) sin(ω0 t) son simétricos
alrededor de ±f0, el espectro de magnitud de su suma, x(t), no es necesariamente simétrico alrededor de ±f0. Esto se
debe a que las amplitudes de las dos señales no se suman directamente debido a sus fases, i.e.,

a1e jθ + a2 e jθ ≠ (a1 + a2 )e j (θ +θ ) .
1 2 1 2

La señal pasa-banda x(t), también se puede expresar (aplicando una identidad trigonométrica) como

x (t ) = E (t ) cos [ω0t + ϕ (t )] , (2.115)

donde
⎡ x s (t ) ⎤
E (t ) = x c2 (t ) + x s2 (t ), y ϕ (t ) = tan −1 ⎢ ⎥. (2.116)
⎣ x c (t ) ⎦
2. Señales y Espectros 59

Observe que tanto E(t) como ϕ(t) son señales pasa-bajas, ya que xc(t) y xs(t) son señales pasa-bajas, y que la señal pasa-
banda x(t) aparece como una señal sinusoidal cuya amplitud varía lentamente en el tiempo y cuya frecuencia oscila
lentamente con el tiempo alrededor de f0.

La siguiente figura ilustra las definiciones de anchos de banda de una señal o un sistema: (a) pasa-bajas o banda-base
con ancho de banda de B Hz, y (b) pasa-banda con ancho de banda 2B Hz.

Figura 2.27: Señal o sistema (a) pasa-bajas, y (b) pasa-banda.

Señal Pasa-Bajas Equivalente de una Señal Pasa-Banda


Con respecto a una señal pasa-banda cualquiera x(t) podemos definir la señal analítica z(t), cuya representación en el
dominio del tiempo y de la frecuencia está dada por

z (t ) = x(t ) + jx h (t ) ↔ Z ( f ) = 2 X ( f )u ( f ) (2.117)

donde xh(t) denota la transformada de Hilbert de x(t) definida, en el dominio del tiempo y de la frecuencia, como

1
x h (t ) = x(t ) ∗ ↔ X h ( f ) = − jX ( f ) sgn ( f ) . (2.118)
πt

La señal pasa-bajas equivalente de la señal x(t), denotada xLP(t), se expresa en términos de z(t) como

xLP (t ) = z (t )exp(− j 2πf 0t ) . (2.119)

De esta relación se tiene

⎧ x(t ) = Re{x LP (t ) exp(2πf 0 t )}


⎨ (2.120)
⎩ x h (t ) = Im{x LP (t ) exp(2πf 0 t )}
60
En el dominio de la frecuencia, tenemos

X LP ( f ) = Z ( f + f 0 ) = 2 X ( f + f 0 )u ( f + f 0 )
(2.121)
= X ( f − f 0 ) + X ∗ (− f − f 0 )

La señal pasa-bajas equivalente de una señal pasa-banda real es, en general, una señal compleja. Su parte real, denotada
por xc(t), es llamada componente en-fase de x(t), y su parte imaginaria denotada por xs(t), es llamada componente en-
cuadratura de x(t) – ver ecuación (2.114). Así, la señal pasa-bajas equivalente se puede expresar, en función de las
componentes en-fase y en-cuadratura, como

x LP (t ) = x c (t ) + jx s (t ) , (2.122)

y las señales pasa-banda y su transformada de Hilbert, como

⎧ x(t ) = x c (t ) cos(2πf 0 t ) − x s (t ) sin (2πf 0 t )


⎨ (2.123)
⎩ x h (t ) = x s (t ) cos(2πf 0 t ) + x c (t ) sin (2πf 0 t )

La señal pasa-bajas equivalente, en forma polar, se expresa como

x LP (t ) = E (t ) exp( jϕ (t )) , (2.124)

donde E(t) y ϕ(t) son la envolvente y la fase, respectivamente, de la señal x(t) – ecuación (2.115). La envolvente y la
fase se pueden expresar como en la ecuación (2.116), o en forma equivalente, como

E (t ) = x 2 (t ) + x h2 (t )
⎡ x h (t ) ⎤ . (2.125)
ϕ (t ) = tan −1 ⎢ ⎥ − 2πf 0 t
⎣⎢ x (t ) ⎦⎥

La envolvente es independiente del valor de f0, mientras que la fase sí depende de f0.

Ejemplo 2.15 (señal pasa-bajas equivalente de una señal pasa-banda) Sea x(t) una señal pasa-banda dada por

x(t ) = rect (10t ) cos(400πt ) .

a. Grafique la señal y su espectro.


b. Determine la señal pasa-bajas equivalente y grafique su espectro de magnitud.
c. Grafique las componentes en-fase y en-cuadratura de la señal.
d. Grafique la envolvente de la señal.

Solución:
Las gráficas se obtendrán usando MATLAB.

a. Espectro de la señal: aplicando la transformada de Fourier (Tabla 2.1) se tiene

1
x(t ) = rect (10t ) cos(400πt ) ↔ S( f ) = {sinc[12 ( f − 200)] + sinc[12 ( f + 200)]}
20

b. Para determinar la señal pasa-bajas equivalente se necesita la transformada de Hilbert de la señal x(t), la
cual está dada por (ver Tabla A1.5),

x h (t ) = rect (10t )sin (2πf c t ) .

Ahora se puede calcular la envolvente y la fase de la señal pasa-bajas equivalente, ecuación (2.125),
2. Señales y Espectros 61

E (t ) = rect 2 (10t ) cos 2 (400πt ) + rect 2 (10t )sin 2 (400πt ) = rect (10t )
⎡ rect (10t )sin (400πt ) ⎤
ϕ (t ) = tan −1 ⎢ ⎥ − 400πt = 0
⎣ rect (10t ) cos(400πt ) ⎦

de lo que se tiene que la señal pasa-bajas equivalente es

x LP (t ) = rect (10t ) .

c. Las componentes en fase y en cuadratura de la señal pasa-bajas equivalente están dadas por,

⎧ x c (t ) = rec(10t )

⎩ x s (t ) = 0

En MATLAB se dispone de la función hilbert.m, la cual genera la señal analítica z(t), cuya parte real es x(t) y cuya
parte imaginaria es la transformada de Hilbert de x(t). A continuación, se muestra un script en MATLAB para graficar
las señales deseadas, las cuales se muestran en la Figura 2.28.

NOTA: los espectros se obtiene usando la Transformada rápida de Fourier con la función fft, la cual se explica en la
Sección 2.17.3 y en el Anexo D.

% Señal banda-base equivalente de una señal pasa-banda


clear;clc;
tf = 0.15; dt=0.0001;
fc=200;
Fs=1/dt;
t=-tf:dt:tf;

x=((-0.05 < t) & (t < 0.05)).*cos(2*pi*fc*t); %señal pasa-banda

z=hilbert(x); % señal analítica


xLP=z.*exp(-j*2*pi*fc.*t); %señal pasa-bajas equivalente
xc=real(xLP); %componente en-fase
xs=imag(xLP); %componentes en-cuadratura
env=abs(xLP); %envolvente
fase=unwrap(angle(xLP)); %fase

%espectros
N = round(tf/dt);
NFFT=2^(ceil(log2(N))); % Número de puntos para la FFT
f=(Fs/2)*linspace(-1,1,NFFT); % Vector de frecuencias en Hz
X=fft(x,NFFT)/NFFT; % Señal pasa-banda
XLP=fft(xLP,NFFT)/NFFT; % Señal banda-base equivalente

%gráficas
figure(1)
subplot(1,2,1);plot(t,x);grid;axis([-tf tf min(x) max(x)]);xlabel('t [seg]');
subplot(1,2,2);plot(f,fftshift(abs(X)));grid;axis([-350 350 0 max(abs(X))]);
xlabel('f [Hz]');
figure(2)
subplot(1,2,1);plot(t,xLP);grid;axis([-tf tf min(xLP) max(xLP)]);xlabel('t [seg]');
subplot(1,2,2);plot(f,fftshift(abs(XLP)));grid;axis([-350 350 0 max(abs(XLP))]);xlabel('f [Hz]');
figure(3)
subplot(1,2,1);plot(t,xc);grid;axis([-tf tf min(xc) max(xc)]);xlabel('t [seg]');
subplot(1,2,2);plot(t,xs);grid;axis([-tf tf min(xs) max(xs)]);xlabel('t [seg]');
figure(4)
subplot(1,2,1);plot(t,env);grid;axis([-tf tf min(env) max(env)]);xlabel('t [seg]');
subplot(1,2,2);plot(t,fase);grid;axis([-tf tf min(fase) max(fase)]);xlabel('t [seg]');
62
Señal pasa banda x(t) Espectro de amplitud X(f)
1

0.2
0.5

0.15

0
0.1

-0.5
0.05

-1 0
-0.1 -0.05 0 0.05 0.1 0.15 -300 -200 -100 0 100 200 300
t [seg] f [Hz]
Señal pasa bajas equivalente xLP(t) Espectro de Amplitud |XLP(f)|

0.8 0.4

0.6 0.3

0.4 0.2

0.2 0.1

0 0
-0.1 -0.05 0 0.05 0.1 0.15 -300 -200 -100 0 100 200 300
t [seg] f [Hz]

Componente en-fase Componente en-cuadratura


1
0.8
0.6
0.8
0.4
0.6 0.2
0
0.4 -0.2
-0.4
0.2
-0.6
-0.8
0
-0.1 -0.05 0 0.05 0.1 0.15 -0.1 -0.05 0 0.05 0.1 0.15
Envolvente Fase

1.2 3500

1 3000

2500
0.8
2000
0.6
1500
0.4
1000
0.2 500

-0.1 -0.05 0 0.05 0.1 0.15 -0.1 -0.05 0 0.05 0.1 0.15
t [seg] t [seg]

Figura 2.29: Señal pasa-banda x(t), señal pasa-bajas equivalente xLP(t),


componentes en-fase xc(t) y en-cuadratura xs(t), envolvente E(t) y fase ϕ(t). ■
2. Señales y Espectros 63
2.16 Ancho de Banda de Señales
El ancho de banda de una señal es un concepto de gran importancia en los sistemas de comunicación. El término se
refiere al ancho espectral de una señal medido en hertz, es decir, a la diferencia numérica entre las frecuencias superior
f2 e inferior f1 de una banda de radiación electromagnética en el que está contenido el espectro de la señal, i.e., f2 – f1,
donde f2 > f1 ≥ 0. Existen varias definiciones en ingeniería de comunicaciones para ancho de banda, y cuando se trabaja
con varias señales y ruido, es importante utilizar la misma definición para todas las señales de forma que se puedan
comparar efectivamente sus anchos espectrales. La definición general dada anteriormente corresponde a señales reales,
es decir, se mide para frecuencias positivas. A continuación se indican algunas de las definiciones más utilizadas de
ancho de banda.

Ancho de banda absoluto: corresponde al tamaño del intervalo de frecuencias f1 < f < f2 que contiene todo el espectro
de la señal, es decir, f2 – f1, donde el espectro es cero fuera del intervalo f1 < f < f2.

Ancho de banda esencial: es el ancho del intervalo de frecuencias f1 < f < f2 que contiene el 95% de la energía de la
señal.

Ancho de banda de media potencia o 3 dB: es el ancho del intervalo de frecuencias f1 < f < f2, donde el espectro de
magnitud |H(f)| es mayor o igual a 1/√2 del valor máximo de |H(f)| que ocurre a una frecuencia dentro de la banda
considerada.

Ancho de banda de ruido equivalente: es el ancho de un espectro rectangular con ancho y amplitud tales que la
potencia en esa banda rectangular es igual a la potencia asociada con el espectro real de la señal (a frecuencias
positivas). Para esto, se considera la densidad espectral de potencia que es proporcional al cuadrado de la magnitud del
espectro. Sea f0 la frecuencia a la que el espectro de magnitud |H(f)| de la señal es máximo, entonces la potencia de una
banda rectangular con ancho Beq sería proporcional a

Peq = Beq H ( f 0 )
2
(2.126)

mientras que la potencia real de la señal considerando las frecuencias positivas es proporcional a


Preal = ∫ H ( f ) df
2
(2.127)
0

por lo que igualando ambas ecuaciones resulta que el ancho de banda de ruido equivalente Beq está dado por


1
∫ H(f )
2
Beq = df (3.128)
H ( f0 ) 0
2

Ancho de banda nulo a nulo, también llamado ancho de banda de cruce por cero: cuando el espectro de una señal es
simétrico con un lóbulo principal (e.g., función sinc) determinado claramente por nulos (i.e., frecuencias a las cuales el
espectro es cero), se utiliza el ancho del lóbulo principal como el ancho de banda de la señal. Esto es así, porque el
lóbulo principal contiene una porción significativa de la energía de la señal. Para señales banda-base, el ancho de banda
se define como la mitad del ancho total del lóbulo principal (ya que sólo la mitad del lóbulo yace en las frecuencias
positivas). En sistemas pasa-banda, donde lóbulo principal está centrado alrededor de f0, y los nulos ocurren en f1 y f2,
para f1 < f0 < f2, el ancho de banda corresponde al tamaño del intervalo definido por f2 – f1.

Ancho de banda del espectro acotado: corresponde al tamaño f2 – f1, de un intervalo de frecuencias f1 < f < f2, donde
fuera de esa banda de frecuencias, la densidad espectral de potencia, que es proporcional a |H(f)|2, se reduce por lo
menos una cantidad, digamos 50dB (60dB, 70dB, ...), por debajo de su valor máximo.

Ancho de banda de potencia: corresponde al tamaño f2 – f1, del intervalo de frecuencias f1 < f < f2, en el cual reside el
99% (95%, 90%, …) de la potencia total de la señal.

El término ancho de banda tiene otro significado asociado en computación o transmisión de datos, en el cual el término
se refiere a la razón de transferencia de datos, o razón de bit, y está medido en bits por segundo (b/s). La relación del
término existe porque para aumentar la velocidad de transmisión de un sistema que utiliza señales de pulso (para
64
representar bits), se debe reducir la duración T de los mismos y por consiguiente, se aumenta o expande su
correspondiente espectro (ver Sección 2.11). Por lo tanto, la velocidad, que es función del inverso de la duración T de
los pulsos, está asociada al ancho de banda espectral.

Ejemplo 2.16 (anchos de banda) Sea la señal x(t),

⎛ t ⎞
( )
x(t ) = rect ⎜ − 4 ⎟ exp j 2π 10 6 t .
⎝ 10 ⎠

a. Determine el espectro X(f).


b. Grafique la señal x(t) y su espectro de magnitud.
c. Determine el ancho de banda de la señal usando las siguientes definiciones: ancho de banda absoluto, ancho
de banda de 3 dB, ancho de banda de ruido equivalente, ancho de banda de nulo a nulo, ancho de banda de
99% de potencia (sugerencia: utilice métodos numéricos), ancho de banda más allá del cual la atenuación es
35 dB.

Solución:
a. Espectro de la señal

⎛t ⎞
rect ⎜ ⎟ exp( j2πf c t ) ↔ Tsinc[T ( f − f c )]
⎝T ⎠
⎛ t ⎞
(
rect ⎜ − 4 ⎟ exp j2πf10 6 t ) ↔ 10 -4 ⎨
[ ( )]
⎧ sin π × 10 − 4 f − 10 6 ⎫
⎝ 10 ⎠ (
⎩ π × 10 f − 10
−4
)
6 ⎬

b. Gráficas de la señal x(t) y su espectro de magnitud normalizado.

Figura 2.30: Señal x(t) y su espectro de magnitud normalizado.

c. Anchos de banda de la señal x(t):

i) Ancho de banda absoluto: para cualquier valor finito de prueba f, el espectro X(f) tiene un valor más allá
de este, por lo que el ancho de banda absoluto es infinito. Note que la señal x(t) es una señal
absolutamente limitada en el tiempo, por lo que resulta ser infinita en la frecuencia.
ii) Ancho de banda de 3 dB o de media potencia: para señales pasa-banda el mismo corresponde a 2f3dB
donde f3dB es la frecuencia a la cual la magnitud del espectro es igual a 1/√2 del valor máximo, o la
densidad espectral de potencia normalizada de la señal es igual a 1/2
2. Señales y Espectros 65
1
X ( f 3dB ) =
2
(
sin π × 10 f 3dB
−4
=
1 ) → f 3dB = 4.46 kHz
π × 10 −4 f 3dB 2

Entonces, el ancho de banda de 3dB es 8.92 kHz.

iii) Ancho de banda de ruido equivalente: de la definición, ecuación (3.31), se tiene,


(
⎡ sin π × 10 − 4 f ⎤
Beq = 2 ∫ ⎢
) 2

⎥ df
0⎣ π × 10 −4 f ⎦
2 ∞
(
⎛ sin π × 10 − 4 f ⎞ ) 2

= ∫ ⎜⎜ ⎟⎟ df
(π × 10 ) −4 2
0⎝ f ⎠

=
2
⎜⎜
(
⎛ π π × 10 − 4 ) ⎞⎟
(π × 10 ) −4 2
⎝ 2 ⎟

= 10 kHz

iv) Ancho de banda de nulo a nulo: corresponde a 2f0 donde f0 es la frecuencia donde el espectro se hace
cero,
(
sin π × 10 −4 f 0 )
= 0 → π × 10 − 4 f 0 = π
π × 10 − 4 f 0
f 0 = 10 kHz

Así, el ancho de banda de nulo a nulo es 20 kHz. De la Figura 2.30 se puede determinar este ancho de
banda directamente.

v) ancho de banda de 99% de potencia: corresponde a 2f0 donde f0 es la frecuencia donde la densidad de
potencia normalizada es 0.995,

f0
(
⎡ sin π × 10 −4 f ⎤ ) 2

∫ ⎢ π × 10 −4 f ⎥ df
0⎣ ⎦ = 0.995

(
⎡ sin π × 10 f ⎤
−4
2
)
∫ ⎢ π × 10 −4 f ⎥ df
0⎣ ⎦

Rutina en MATLAB para encontrar f0.

S = @(f) (sinc(1e-4*f)).^2;
Q = quadl(S,0,300e3);

for i=100e3:1e3:300e3
Q99=quadl(F,0,i);
if Q99 >= 0.995*Q
break
end
end

disp('Ancho de banda de 99% [Hz]')


disp(2*i);

>>
Ancho de banda de 99% [Hz]
246000
>>
El ancho de banda de 99% se aproxima a 246 kHz.
66
vi) ancho de banda de 35dB: ya que sin2x es unitario para x = (π/2)(2k + 1), para k = 0, 1, …, el lóbulo más
allá del cual el criterio de atenuación se satisface es el mínimo k para el cual

1
≤ 10 −3.5
[(π / 2)(2k + 1)]2
(π / 2)(2k + 1) ≥ 10 3.5
k ≥ 17.4

Entonces se tiene que k = 18, es decir que el lóbulo lateral 18 satisface el criterio de atenuación de 35dB,
y el punto de 35dB estará en la lado decreciente del lóbulo 17. Así, el ancho de banda de 35 dB es 2f0,
donde f0 es la frecuencia mínima para la cual se cumple

π × 10 -4 f 0 >
π
(35) ( )
⎡ sin π × 10 -4 f 0 ⎤
2
− 3 .5
y ⎢ ⎥ = 10
2 ⎣ π × 10 -4
f 0 ⎦

Resolviendo la primera expresión se tiene f0 = 175×103. Partiendo de este valor en la segunda expresión,
se encuentra, en forma iterativa, que f0 ≈ 175615 Hz. Así, el ancho de banda de 35dB es 351.23 kHz.

2.17 Señales Discretas


En las últimas décadas el campo del procesamiento de señales digitales (DSP – digital signal processing) ha crecido en
importancia tanto teórica como tecnológica, y una de las principales razones de su éxito en la industria se debe al
desarrollo y uso de software y hardware de alto rendimiento y bajo costo. Las nuevas tecnologías y aplicaciones toman
ventaja de los algoritmos DSP, y casi todos los sistemas actuales utilizan procesamiento de señales digitales. Esto
también se observa en la academia y la investigación, donde el uso de software interactivo, como MATLAB, posibilita
hacer énfasis en el aprendizaje de conceptos nuevos y más complejos, en lugar de concentrarse en la programación de
algoritmos. Aún cuando en la práctica, la mayoría de las señales son analógicas y continuas, las mismas se procesan
usando hardware digital como microprocesadores, por su velocidad, capacidad de procesamiento y flexibilidad. Estos
sistemas requieren del uso de señales digitales y discretas que representan a las señales continuas externas. Por esto, es
de gran interés una discusión de los aspectos básicos sobre señales discretas.

2.17.1 Señales Discretas – Tipos, Representación y Operaciones


Las señales se pueden clasificar en continuas y discretas en función de si la variable independiente tiempo es continua o
discreta. Para las señales discretas, la variable tiempo toma solamente un conjunto discreto de valores. Para distinguir
entre las señales continuas y las discretas usaremos el símbolo t para denotar la variable independiente, como se ha
hecho hasta ahora, y n para indicar la variable independiente discreta. Además, para las señales continuas se encierra la
variable independiente entre paréntesis (⋅), mientras que para señales discretas la encerraremos entre corchetes [⋅]. Con
frecuencia también habrá ocasiones en que será útil representar la señal gráficamente, como aparece en la Figura 2.31, y
es importante notar, que la señal discreta x[n] está definida sólo para valores enteros de la variable independiente, y por
lo tanto, nos referimos a x[n] como una secuencia discreta.

Una clase muy importante de señales discretas surge del muestreo de señales continuas. En este caso, la señal discreta
x[n] representa muestras sucesivas de un fenómeno subyacente para el cual la variable independiente es continua. Sin
importar el origen de los datos, la señal x[n] está definida solamente para valores enteros de n.

Representación
Las señales discretas x[n] se denotan de la siguiente forma:

{
x[n] = {x[n]} = L , x[− 1], x[0], x[1], L } (2.129)

donde el subrayado indica la muestra en n = 0.


2. Señales y Espectros 67
En MATLAB sólo se pueden representar secuencias finitas. Esto se puede hacer por medio de un vector fila de valores
apropiados. Sin embargo, dicho vector no tiene información sobre la posición n de la muestra. Por lo tanto, una
representación de x[n] requiere dos vectores, uno para los valores de las muestras x[n] y otro para las posiciones n de las
muestras. El vector de n se denomina soporte de x[n].

Figura 2.31: Representación gráfica de a) una señal continua y b) una señal discreta.

A continuación se tratan varios de los conceptos discutidos a lo largo de este capítulo pero ahora, con relación a señales
discretas.

Señales de Energía y de Potencia


De manera similar a las expresiones de energía y potencia promedio normalizadas dadas por las ecuaciones (2.1) y (2.2)
para señales continuas, se tiene que la energía total y la potencia total promedio de una señal discreta x[n] en el intervalo
de tiempo infinito están dadas, respectivamente, por

+N
∑ x[n]
2
E x = lim (2.130)
N →∞
n =− N

+N
1
∑ x[n]
2
Px = lim (2.131)
N →∞ 2 N + 1
n=− N

Para el caso de señales discretas definidas en un intervalo de tiempo finito, n1 ≤ n ≤ n2 , la energía total y la potencia
total promedio de la señal discreta x[n] se definen, respectivamente como

n2

∑ x[n]
2
Ex = (2.132)
n = n1

y
1 n2

∑ x[n]
2
Px = (2.133)
N n = n1

donde N es el número de puntos en el intervalo, N = n2 – n1 + 1.


68

Ejemplo 2.17 (señales discretas) Sea la señal continua x(t) = 2 sin(20π t) en el intervalo[-0.3,0.3]. Esta señal se
muestrea a intervalos regulares de 0.02 segundos. Escriba la secuencia x[n] en el intervalo [0.0, 0.1] y su
correspondiente soporte. Grafique la señal continua, la señal muestreada y la señal discreta. Además, determine la
energía total y la potencia promedio de la señal discreta.

Solución:
A continuación se muestra un script en MATLAB para solucionar el problema propuesto, pero se sugiere al lector que
desarrolle la solución en forma analítica para comparar los resultados.

f = 10; % frecuencia en Hz
T = 1/f; % periodo en segundos
dt=T/100; % intervalo entre muestras para simular tiempo continuo
t=-3*T:dt:3*T; % vector de tiempo en el intervalo [-0.3,0.3];
Ts = 0.02; % periodo de muestreo

x =2*sin(2*f*pi*t); % señal continua (simulada / alta frecuencia de muestreo)


xn=x(1:Ts/dt:end); % señal muestreada cada Ts segundos
tn=t(1:Ts/dt:end); % vector tiempo discreto
n =t(1)/Ts:t(end)/Ts; % vector n

%%%%% Graficas %%%%%


subplot(3,1,1)
plot(t,x);grid;legend('x(t)'); % señal continua
subplot(3,1,2)
stem(tn,xn);grid;legend('x(nTs)'); % señal muestreada
subplot(3,1,3)
stem(n,xn);grid;legend('x[n]'); % señal discreta

%%%%% señal discreta y soporte en el intervalo [0.0,0.1]


i1 = find(tn==0); % índice correspondiente a tn = 0.0
i2 = find((0.1-dt)< tn & tn <(0.1+dt)); % índice correspondiente a tn = 0.1
xni = xn(i1:i2); % secuencia discreta
ni = n(i1:i2); % soporte correspondiente

disp(' ')
disp('Secuencia discreta x[n] y vector soporte n correspondientes al intervalo [0.0,0.1]');
disp(' '); disp([xni;ni])

%%%%% Energia y Potencia promedio %%%%%


Ex = sum(abs(xn).^2);
N = n(end)-n(1)+1;
Px = Ex/N;

fprintf('\nEnergía total %.2f\n',Ex);


fprintf('\nPotencia promedio %.2f\n',Px);

>> Secuencia discreta x[n] y vector soporte n correspondientes al intervalo [0.0,0.1]

0 1.9021 1.1756 -1.1756 -1.9021 0.0000


0 1.0000 2.0000 3.0000 4.0000 5.0000

Energía total 60.00


Potencia promedio 1.94

La energía normalizada de la señal continua original está dada por el producto de la energía total de la señal discreta
y el periodo de muestreo, esto es,

E x = (Ts )(E x[n ] ) = (0.02 )(60.00 ) = 1.2

donde se usa la notación Ex para la energía normalizada de la señal continua y Ex[n] para la energía de la señal
discreta. Calculando la energía de la señal continua directamente de la función x(t) se tiene

(4)(6) (0.1) = 1.2


∫ (sin )
0.3 3T

∫ (2 sin 20πt ) 20πt dt =


2
Ex = dt = 4 2

− 0.3 −3T 2
2. Señales y Espectros 69

Figura 2.32: Señal continua, muestreada y discreta del Ejemplo 2.17.



Operaciones
Las transformaciones de una señal por medio de la operaciones de desplazamiento en el tiempo, cambio de escala del
tiempo, e inversión en el tiempo son muy importantes. Para una señal discreta x[n], éstas corresponden a:

Desplazamiento en el tiempo: A partir de x[n] se tiene que la señal x[n – n0] corresponde a la señal original desplazada
n0 posiciones. Si n0 es positivo, el desplazamiento corresponde a un retraso de la señal; y si es negativo, a un adelanto de
la señal.

Cambio de escala en el tiempo: Al igual que para señales continuas, se puede utilizar un factor a para cambiar la escala
en tiempo de la secuencia original x[n]. Cuando a > 1, se tiene x[an], una versión comprimida de la señal original, y
cuando 0 < a < 1, se tiene una versión expandida de la señal original. Es importante, en ambos casos, notar que habrá
valores de n que desaparecen o no se consideran en la señal final, debido a que n tiene que ser un entero. Así, por
ejemplo, si se usa un factor a = 0.5, entonces sólo aquellos valores an que resulten enteros se considerarán en la
secuencia final.

Inversión en el tiempo: Sea x[n] una secuencia discreta, entonces x[–n] corresponde a la secuencia original invertida,
que se obtiene a partir de x[n] mediante un reflejo respecto a n = 0.

Señales Periódicas
Una señal discreta x[n] es periódica con periodo N, donde N es un entero positivo, si no cambia con un corrimiento de
tiempo de N, esto es,
x[n] = x[n + N ] (2.134)

para todos los valores de n. El periodo fundamental N0 es el valor positivo más pequeño de N para el cual la ecuación
(2.134) se satisface.

Señales par e impar


Una señal x[n] es par si
x[− n] = x[n] (2.135)
y se considera impar si
x[− n] = − x[n] (2.136)

Una señal impar debe ser necesariamente 0 en n = 0.


70
Señales discretas exponencial compleja y sinusoidal
La señal discreta o secuencia exponencial compleja está definida por

x[n] = Cα n (2.137)

donde C y α son, en general, números complejos. Esto puede expresarse de forma alterna como

x[n] = C exp(βn ) (2.138)

donde α = exp(β). Si C y α son reales, se tendrán señales exponenciales reales.

Considere la ecuación (2.138), si forzamos a que β sea puramente imaginaria (de manera que ⏐α⏐ = 1), para C = 1, se
tiene

(
x[n] = exp jω0 n . ) (2.139)

Aplicando la relación de Euler, se tiene

( ) ( )
x[n] = exp jω0 n = cos ω0 n + j sin ω0 n , ( ) (2.140)
y

( )
A cos ω0 n + φ =
A
2
[exp( jφ )exp( jω0 n ) + exp(− jφ )exp(− jω0 n )] . (2.141)

Las señales de las ecuaciones (2.139) y (2.141) son ejemplos de señales discretas con energía total infinita pero potencia
promedio finita.

La secuencia exponencial compleja general está dada por

x[n] = Cα n = C α cos(ω 0 n + θ ) + j C α sin (ω 0 n + θ ) .


n n
(2.142)

Periodicidad de exponenciales discretas


Considere la exponencial compleja discreta con frecuencia ω0 + 2π,

[( )] ( )
exp j ω 0 + 2π n = exp( j 2πn ) exp jω 0 n = exp jω 0 n .( ) (2.143)

De esta ecuación vemos que la exponencial con frecuencia ω0 + 2π es la misma que aquella con frecuencia ω0. De esta
manera, se tiene una situación muy diferente al caso continuo, en el que las señales exp(jω0t) son todas distintas para
distintos valores de ω0. En el caso discreto, estas señales no son todas diferentes, ya que la señal con frecuencia ω0 es
idéntica a las señales con frecuencias ω0 ± 2π, ω0 ± 4π, … Por lo tanto, al considerar las exponenciales complejas,
necesitamos tomar en cuenta solamente un intervalo de frecuencia de longitud 2π dentro del cual se escoge ω0. En la
práctica, se usa el intervalo 0 ≤ ω0 < 2π, o el intervalo –π ≤ ω0 < π.

Debido a la periodicidad que implica la ecuación (2.143), la señal exp(jω0n) no tiene un incremento continuo en la
velocidad de oscilación conforme ω0 se incremente en magnitud. A medida que ω0 se incrementa a partir de 0, se
obtienen señales que oscilan cada vez más rápido hasta alcanzar ω0 = π. Si se sigue incrementando ω0 , la velocidad de
oscilación disminuye hasta alcanzar ω0 = 2π, y así sucesivamente.
Ahora, considere la señal periódica exp(jω0n) con periodo N > 0,

[ ] ( ) ( )
exp jω0 (n + N ) = exp jω0 n exp jω0 N = exp jω0 n . ( ) (2.144)

de lo que se tiene que

exp(jω0N) = 1. (2.145)
2. Señales y Espectros 71
Para que se cumpla la ecuación (2.145), ω0N debe ser múltiplo de 2π. Esto es, debe haber un entero m tal que

ω0N = 2πm, (2.146)

o, en forma equivalente,
ω0 m
= .
2π N

De acuerdo a la ecuación (2.146), la señal exp(jω0n) es periódica si ω0/2π es un número racional y es no periódica en
otras circunstancias. Estas mismas observaciones también son válidas para señales sinusoidales discretas.

Función impulso unitario


La señal impulso unitario o muestra unitaria está definida como

⎧1, n = 0
δ [n] = ⎨ (2.147)
⎩0 n ≠ 0

Función escalón unitario


La señal escalón unitario discreto está definida como

⎧1, n ≥ 0
u[n] = ⎨ (2.148)
⎩0 n < 0

La relación entre el impulso unitario y el escalón unitario discreto es la primera diferencia del escalón discreto, esto es,

δ [n] = u[n] − u[n − 1] (2.149)

o la sumatoria de la muestra unitaria


u[n] = ∑ δ [n − k ] (2.150)
k =0

2.17.2 Funciones Discretas de Correlación y Operación de Convolución


Sea x[n] una señal real discreta. La función de autocorrelación está dada por

+∞
Rx [n] = ∑ x[k ]x[k − n] . (2.151)
k = −∞

Ahora, considere otra señal y[n] también real discreta. La función de correlación cruzada está dada por

+∞
Rxy [n] = ∑ x[k ]y[k − n] (2.152)
k = −∞

La convolución de dos señales discretas está dada por

+∞
x[n] ∗ y[n] = ∑ x[k ]y[n − k ] (2.153)
k = −∞
Y al igual que en el caso continuo, se tiene

Rxy [n] = x[n] ∗ y[− n] (2.154)


72
2.17.3 Transformada Discreta de Fourier
Con todo lo estudiado en el Capítulo 2 sobre espectros de señales, queda claro la importancia de la transformada de
Fourier como herramienta teórica para representar señales determinísticas. Más aún, la existencia de una clase de
algoritmos llamados algoritmos de la transformada rápida de Fourier que permiten el cálculo numérico eficiente de la
transformada de Fourier, resalta la importancia de la misma.

El algoritmo de la transformada rápida de Fourier se deriva de la transformada discreta de Fourier, que como su
nombre implica, considera una representación discreta tanto del tiempo como de la frecuencia. Esta transformada
discreta provee una aproximación a la transformada de Fourier.

Para representar apropiadamente el contenido de información de una señal, se debe poner especial atención a las
operaciones de muestreo involucradas en la transformación discreta de Fourier. Como se verá en Capítulo 3, en la
Sección 3.4, para una señal de banda limitada (ver Sección 2.11), la razón de muestreo debe ser mayor que dos veces la
máxima frecuencia de la señal para poder recuperar la señal original a partir de sus muestras. Si las muestras de la señal
están espaciadas uniformemente por Ts segundos, entonces el espectro de la señal será periódico y se repetirá cada fs =
1/Ts Hz.

Ahora, sea N el número de muestras de frecuencia contenidas en un intervalo fs. Entonces, la resolución de frecuencia
∆f para el cálculo numérico de la transformada de Fourier se define por

fs 1 1 (2.155)
∆f = = =
N NTs T

donde T = N Ts es la duración total de la señal.

Ahora, considere una señal analógica x(t) que se muestrea uniformemente con un intervalo Ts en los instantes t = 0, Ts,
..., (N – 1) Ts. La señal muestreada resultante x[n] de tiempo discreto corresponde a

x[n] = x(nTs )

y la misma se puede representar por medio de una secuencia finita de datos

x[n] = {x[0], x[1], K , x[N − 1]} .

Entonces, se define la transformada discreta de Fourier (DFT – Discrete Fourier Transform) de la secuencia x[n]
como

N −1
⎛ 2π ⎞
X [k ] = ∑ x[n]exp⎜ − j kn ⎟, k = 0,1, K , N − 1 . (2.156)
n =0 ⎝ N ⎠

La secuencia

X [k ] = {X [0], X [1],K, X [N − 1]}

se denomina secuencia de la transformada, donde el índice k es el índice de frecuencia.

De forma similar, se define la transformada discreta inversa de Fourier (IDFT – Inverse Discrete Fourier Transform)
de X[k] como

N −1
⎛ 2π ⎞
x[n] = ∑ X [k ]exp⎜⎝ j kn ⎟, n = 0,1, K , N − 1 . (2.157)
k =0 N ⎠

La DFT y la IDFT forman un par de transformadas, es decir, dada una secuencia de datos xn, se puede utilizar la DFT
para calcular la secuencia Xk, y dada la secuencia de la transformada X[k] se puede utilizar la IDFT para recuperar la
secuencia de datos x[n] original.
2. Señales y Espectros 73
En la discusión sobre la DFT y sus algoritmos para implementarla, se utilizan los términos “muestra” y “punto”
indistintamente para referirse a los valores de la secuencia. Así, una secuencia de longitud N se denomina secuencia de
N puntos y su transformada, una DFT de N puntos.

Como se mencionó, el cálculo numérico de la DFT se realiza en forma eficiente por medio de una clase de algoritmos
llamados algoritmos de la Transformada Rápida de Fourier (FFT – Fast Fourier Transform algorithms). Estos
algoritmos son computacionalmente eficientes porque utilizan un número significativamente menor de operaciones
aritméticas comparados con el cálculo directo, dado por la ecuación (2.142) de la DFT. Para esto, un algoritmo FFT
divide los cálculos originales de la DFT en cálculos sucesivos más pequeños de DFTs.

Estos algoritmos de FFT son altamente eficientes si la longitud de la secuencia de entrada, N, es una potencia de 2. En
muchos casos, si la longitud N no es una potencia de 2, se utilizan ciertas técnicas, como la adición de ceros (zero-
padding), para hacer que N sea una potencia de 2. Para una descripción más detallada de los algoritmos FFT puede
consultar [PM96] [IJ93] entre otros.

En MATLAB, la Transformada de Fourier para señales muestreadas se realiza por medio del algoritmo FFT en el caso
en que el número de muestras sea una potencia de 2, de lo contrario se utiliza DFT. Ambos se obtienen utilizando el
mismo comando, fft. Para un número pequeño de muestras N, el método utilizado es irrelevante, pero para N grande la
diferencia en tiempo de computación puede ser significativa. La transformada inversa se realiza con el comando ifft que
utiliza el mismo algoritmo que fft. Una descripción más detallada del uso de estas funciones en MATLAB aparece en el
Anexo 4.

Ejemplo 2.18 (DFT): Considere la señal continua x(t) del Ejemplo 2.17, x(t) = 2 sin(20π t) para -0.3 ≤ t ≤ 0.3. Esta
señal se muestrea a intervalos regulares de 4 mili-segundos para obtener la señal discreta x[n]. A continuación se
implementa en MATLAB un programa para calcular el espectro de la señal x(t) utilizando la DFT directamente y
también usando el algoritmo FFT por medio de la función fft de MATLAB. Además, se grafican los espectros de
amplitud resultantes de la DFT y la FFT.

Solución:
% Parámetros para la simulación
f = 10; % frecuencia en Hz de la señal
T = 1/f; % periodo en segundos
dt=T/1000; % intervalo entre muestras para simular tiempo continuo

t=-3*T:dt:3*T; % vector de tiempo en el intervalo [-0.3,0.3];


Ts = 0.004; % periodo de muestreo

% Secuencia discreta
x =2*sin(2*f*pi*t); % señal continua (simulada / alta frecuencia de muestreo)
xn=x(1:Ts/dt:end); % señal muestreada cada Ts segundos
tn=t(1:Ts/dt:end); % vector tiempo discreto
n =t(1)/Ts:t(end)/Ts; % vector n

%%%%%%%% parámetros para análisis en la frecuencia %%%%%%%%


dt1=tn(2)-tn(1); % intervalo entre muestras
Fs = 1/dt1;
N = round((t(end)-t(1))/dt1); % número de puntos para DFT

%%%%%%%% DFT %%%%%%%%


k=-N:N;
fd=((Fs/2)/(N/2))*k; % vector de frecuencias en Hz
Xd = (1/N)*(xn*(exp(-j*2*pi/N)).^(n'*k)); % Forma compacta de la sumatoria DFT ecuación (2.142)
% Se incluyó un factor 1/N para corrección de amplitud
%%%%%%%% FFT %%%%%%%%
NFFT=2^(ceil(log2(N))); % Número de puntos para la FFT (potencia de 2)
X=fft(xn,NFFT)/N; % Señal x en el dominio de la frecuencia
% factor 1/N para corrección de amplitud
ff=(Fs/2)*linspace(-1,1,NFFT); % Vector de frecuencias en Hz
% Nota: La frecuencia máxima que aparece es Fs/2
%%%%%%%% Gráficas %%%%%%%%
v=[-50 50 0 max(abs(Xd))];
subplot(2,1,1); plot(fd,abs(Xd));grid;axis(v);legend('X(f) - DFT')
subplot(2,1,2); plot(ff-0.5,fftshift(abs(X)));grid;axis(v);legend('X(f) - FFT');
xlabel('f [Hz]');
74

Figura 2.33: Espectro de amplitud de la señal x(t).



2. Señales y Espectros 75
2.18 Problemas Propuestos
1. Grafique las siguiente señales, y clasifíquelas (todos los tipos), y determine su potencia o energía normalizada.
a. x(t) = A cos(2πt), –5 < t < 5.
b. x(t) = u(t)
c. x(t) = A cos(2πt), –∞ < t < ∞.
d. x(t) = A exp(–at), para a > 0; t = nT, donde T = 0.01.

2. Clasifique las siguientes señales en señales de energía o de potencia, y determine su correspondiente valor.
a. x(t) = exp(–t) cos(t) u(t)
b. x(t) = A cos(2πf1t) + Bcos(2πf2t)
c. x(t) = A exp(j(2πf0t + φ))

3. Determine si las siguientes señales son periódicas o no. Si son periódicas, encuentre su periodo.
a. x(t) = cos(1/3 t) + sin(1/5t)
b. x(t) = cos(1/3 t) + 4sin(π2t)

4. Sea la señal x(t) = 4t2/(1 + 0.5t + 0.7t3), para |t| < 3 s. Utilice MATLAB para graficar las formas de onda
correspondientes a:
a. x(t)
b. x(–t)
c. x(t +2)
d. x(2t)
e. (x(0.5(t +1)) + x(t – 2)) u(t – 1)

5. Para el conjunto de tres señales s1(t), s2(t) y s3(t) con duración t = 4, que se muestra en la siguiente figura:
a. Encuentre, usando el procedimiento de ortogonalización de Gram-Schmidt, un conjunto de funciones base
ortonormales para representar las tres señales dadas.
b. Exprese cada una de las señales dada en términos del conjunto de funciones base encontrados en la parte a.

6. Grafique la magnitud y la fase de los coeficientes de la serie compleja de Fourier, cn, de la función

⎛ π⎞ ⎛ π⎞
cos⎜ 2πf 0 t + ⎟ + sin ⎜ 6πf 0 t + ⎟
⎝ 6 ⎠ ⎝ 4⎠

7. Para la señal periódica continua x(t) = 2 + cos(2πt/3) + 4sin(5πt/3), determine la frecuencia fundamental ω0 y los
coeficientes de la serie de Fourier ak tales que:

x(t ) = ∑ ak exp( jkω0t )
k = −∞

8. Para la función x(t) = cos(2πf0t + π/6) + sin(6πf0t + π/4)


a. Grafique la magnitud y la fase de los coeficientes de la serie compleja de Fourier, cn.
b. Grafique el conjunto de coeficientes an y bn de la serie trigonométrica de Fourier.
c. Cuál es la relación entre la serie de Fourier compleja exponencial y la serie trigonométrica de
Fourier.
76
9. Para las siguientes señales determine y grafique sus espectros (de magnitud y fase).
⎛ π⎞
a. cos⎜ 2πf 0 t + ⎟
⎝ 3⎠
b. sinc (10t)
⎛ π⎞ ⎛ t ⎞
c. cos⎜ 2πf 0 t + ⎟rect ⎜⎜ ⎟⎟
⎝ 3⎠ ⎝ T0 ⎠
+∞
⎛ t − 2nT ⎞
d. ∑ rect ⎜ ⎟
n = −∞ ⎝ T ⎠

10. Derive la transformada de Fourier de la señal x(t) = exp(–a|t|)

11. Utilice MATLAB para graficar la señal continua del problema 10, también obtenga y grafique una versión discreta
de la misma, y determine su espectro utilizando la DFT.

12. Determine la transformada de Fourier de la señal

exp(− a(t − τ )) cos(2πf 0 t )u (t )

13. Utilice MATLAB para graficar la señal continua del problema 12, también obtenga y grafique una versión discreta
de la misma, y determine su espectro utilizando la DFT.

14. Determine las representaciones en serie de Fourier de las señales mostradas en la siguiente figura:

15. Obtenga la transformada de Fourier de las siguientes expresiones


a. f(2 – t)
b. f[(t/2) – 1)]
c. f(t) cos(π(t – 1))
d. d/dt (f(2t))

16. Asumiendo que x(t) tiene transformada de Fourier, halle la transformada de Fourier de y(t) considerando que el
símbolo ∗ representa la convolución

y (t ) = x(t ) ∗ ∑ δ (t − nT )
n = −∞
2. Señales y Espectros 77
17. Considere la señal x(t) = rect(1000t).
a. Grafique su representación en el dominio del tiempo y en el dominio de la frecuencia.
b. Si la duración del pulso se recorta a la mitad, grafique nuevamente los espectros correspondientes. ¿Qué
pasa con el ancho de banda del primer nulo cuando la duración del pulso se recorta a la mitad?
c. Si la duración del pulso se duplica, grafique nuevamente los espectros correspondientes. ¿Qué pasa con el
ancho de banda del primer nulo cuando la duración del pulso se duplica?
d. Determine el producto tiempo-ancho de banda para los tres casos anteriores. ¿Qué puede concluir?

18. Una señal está definida por x(t) = 2cos(4πt) + 5cos(15πt). Encuentre la transformada de tiempo continuo de Fourier
y el corrimiento de fase resultante de cada onda sinusoidal cuando x(t – 1/40) y x(t + 1/20).

19. Sea x(t) = exp(–at) u(t).


a. Determine la función de autocorrelación Rx(τ).
b. Determine la densidad espectral de la señal por medio de la transformada de Fourier de la propia señal y
por medio de la transformada de Fourier de la función de autocorrelación.

20. Encuentre la función de autocorrelación promedio de la señal sinusoidal x(t) y su potencia normalizada promedio.

⎛ 2π ⎞
x(t ) = A sin ⎜ t +ϕ⎟
⎝ T ⎠

21. Una cierta señal f(t) tiene una densidad espectral de potencia dada por

⎡ 1 ⎤
S f (ω ) = ⎢ + δ (ω − 2) + δ (ω + 2 )⎥
⎣1 + ω
2

Considere una resistencia de carga de 1Ω. Halle el contenido total de la potencia media en f(t).

22. Determine la densidad espectral de potencia de la señal f1 exp(jω0t), utilizando la función de autorrelación.

23. Usando las definiciones de la función impulso resuelva


a. x1(t) = sinc(t – 2) δ(t)

b. x2 (t ) = ∆(t ) ∗ ∑ δ (t − 2n )
n = −∞

c. ∫ rect (t )δ (2t − 1)dt
−∞

24. Usando la transformada de Fourier, evalúe las siguientes integrales



a. ∫ exp(− αt )sinc(t ) dt
0

b. ∫ exp(− αt )cos(βt ) dt
0
25. Una señal de pulso compleja periódica viene expresada por

⎧exp( jωc t ), 0 ≤ t < t1


f (t ) = ⎨
⎩ 0, t1 ≤ t < T

donde T > 2t1 es el periodo. Halle la función de autocorrelación y la densidad espectral de potencia.

26. Determine la función de autocorrelación a partir de la transformada inversa de Fourier de la densidad espectral de
cada señal.
a. x1(t) = exp(–at) u(t)
b. x2(t) = rect(t / t1)
c. x3(t) = sinc(Wt)
78
27. Una señal periódica discreta x[n] es de valor real y tiene un periodo fundamental N = 5. Los coeficientes de la serie
de Fourier diferentes de cero para x[n] son a0 =1, a2 = a*-2 = exp(jπ/4), a4 = a*-4 = 2exp( jπ/3). Exprese x[n] en la
forma

x[n] = A0 + ∑ Ak sen(ω k n + φk )
k =1

28. Suponga que se nos proporciona la siguiente información acerca de la señal x(t).
a. x(t) es real y par.
b. x(t) es periódica con periodo T = 2 y tiene coeficientes de Fourier ak.
c. ak = 0 para |k| > 1
12
d. ∫ x(t ) dt = 1
2

20

Especifique dos señales diferentes que satisfagan estas condiciones.

29. Una señal periódica discreta x[n] es de valor real y tiene periodo fundamental N = 5. Los coeficientes de la serie de
Fourier diferentes de cero para x[n] son

⎛ π⎞ ⎛ π⎞
a 0 = 2, a 2 = a −* 2 = 2 exp⎜ − j ⎟, a 4 = a −* 4 = exp⎜ j ⎟.
⎝ 6⎠ ⎝ 3⎠

Exprese x[n] en forma



x[n] = A0 + ∑ Ak sen(ω k n + φ k ).
k =1

30. Determine los coeficientes de la serie de Fourier para la señal periódica discreta x[n], grafique la magnitud y fase
del conjunto de coeficientes ak.

x[n] = sin(2πn/3) cos(2πn/2)

31. Encuentre las señales en el domino del tiempo para las siguientes transformada de Fourier.

a. X ( jω ) =
( jω )2 − 25 −
π
δ (ω ) b. X ( jω ) =
1
( jω )([ jω )2 + 15 jω + 50] 2 9 − ω + j 3 2ω
2

32. Utilice MATLAB para graficar los espectros de las señales del problema 31 y utilice la ifft para determinar la señal
en el dominio del tiempo.

Vous aimerez peut-être aussi