Vous êtes sur la page 1sur 192

COMUNICACIONES

DIGITALES

Apunte completo de Cátedra

Jorge Castiñeira Moreira


1 Transmisión en banda base y digitalización de señales

1.1 Introducción

En el presente capitulo se estudia el tratamiento de la señal digital, sea


proveniente de un formato digital genuino, o proveniente de la transformación en
muestras digitalizadas de una señal analógica. Cualquiera sea el origen de la
señal, la transmisión se hará en formato digital. Esto significa que la señal esta
representada por una secuencia de valores discretos provenientes de un alfabeto
de M símbolos, emitidos en una secuencia particular que define la información del
mensaje. Cuando la información enviada presenta un contenido espectral que se
encuentra entre la componente de continua (cc) y un valor determinado de
frecuencia superior Fm , se dice que la transmisión se produce en banda base. Con
esta denominación se suele designar a la información transmitida sin ningún tipo
de modulación. Como es sabido, el proceso de modulación se aplica con el objeto
de utilizar el espectro de frecuencias de manera eficiente adaptando la señal que
se va a transmitir al canal, y al mismo tiempo, con el objeto de aplicar la
multiplexación de señales en frecuencia, por asignación de canales de banda limi-
tada, entre otras aplicaciones.

Se estudiara en este capitulo el comportamiento de la señal en banda base, como


proceso inicial del estudio de las señales pasabanda, que son una extensión de las
señales en banda base. Frecuentemente, la señal contiene información que es
transmitida enviando símbolos o señales sobre el canal. Primeramente, se
analizaran las señales cuyos símbolos están asociados a un contenido espectral,
como fue descripto anteriormente, limitando la región de componente continua
hasta un valor de frecuencia dado.
Un sistema banda base se representa en el diagrama en bloques de la figura 1.1
En el mismo se observa el ingreso de señal digital en forma directa, tal como la
proveniente de una computadora o sistema digital puro, y el ingreso de señal
convertida de su naturaleza analógica, al formato de una secuencia de símbolos
digitales.
Señal digital

Modulador:
codificador Transmisor
Señal analógica de formas
de onda
Conversor
Analógico
Digital ruido e
interferencia
Señal digital recuperada
Demodulador:
decodificador
Señal de forma Receptor
analogica de onda
recuperada Conversor
Digital
Analógico

Figura 1.1.

Cualquiera sea el origen de la señal digital, esta es finalmente convertida a una


secuencia de formas de onda cuyas propiedades espectrales se adaptan en mayor
o menor medida a las características del canal de transmisión. La señal

1
transmitida en banda base es afectada por factores en el canal. Los dos más
importantes efectos del canal sobre la señal son el ruido, caracterizado
normalmente como ruido blanco Gaussiano, y la deformación de los pulsos o
formas de onda en el canal por efecto del filtrado de frecuencias, que genera
normalmente una dispersión del pulso en el tiempo, como consecuencia de una
limitación del contenido espectral, que es denominado interferencia intersimbolica
o ISI (del Ingles: Inter Symbol Interference). La estructura del decodificador o
receptor de la señal realiza normalmente las funciones inversas relacionadas con
aquellas implementadas previamente en el codificador.

El objeto del presente capitulo es analizar diferentes problemas asociados con la


transmisión en banda base, a saber:

 El efecto del ruido en el canal, y la determinación de las propiedades del


sistema en función del ruido, la energía y espectro de la señal.

 El efecto del filtrado del canal en las características de la señal, el efecto de la


interferencia intersimbolica y los métodos para evitarla.

 La generación de señales en banda base de características digitales,


provenientes de una fuente analógica. Este proceso se realiza por muestreo y
cuantificación de un juego de valores de señal de entrada, que son
representados digitalmente, lo que se conoce como modulación por pulsos
codificados o PCM (Pulse Coded Modulation).

El análisis será realizado en función de ciertos parámetros que miden el


comportamiento de un sistema digital. La naturaleza discreta del alfabeto del
sistema digital permite la evaluación del mismo en función del numero de los
símbolos enviados que arriban al terminal receptor de manera incorrecta. Este
proceso de medición tiene en cuenta cuantos símbolos del total enviado son
erróneos. La estimación de tal numero se realiza por procesos estadísticos, de
forma tal que, en el envío de un gran numero de señales o símbolos, el cociente
entre los errores recibidos sobre el total es una estimación valedera de la
probabilidad de error que se tiene en el terminal receptor. Dado que la relación
entre la energía del ruido y de la señal será la medida del efecto del ruido del
canal, la probabilidad de error reemplazará al concepto de relación señal-ruido,
para el caso digital.
Por otro lado, el formato del símbolo básico que viaja en el canal define el
contenido espectral del mismo. Cuanto mas rápido se desee transmitir, mas corto
será la duración del símbolo, generando en ese caso un ensanchamiento del
espectro del sistema. La velocidad de transmisión será, en este caso, equivalente
a la medida del ancho de banda.

1.2 Señalización digital

1.2.1 Señales digitales PAM (Pulse Amplitud Modulation)

Una representación simple de una señal digital tiene la forma de un tren de pulsos
modulados. Esta señal puede ser expresada como:

x(t)= a

k p(t - kD) (1.1)

2
Donde la modulación de amplitud esta representada por el coeficiente ak que es el
k-ésimo símbolo en la secuencia, de manera tal que los símbolos ak corresponden
a alguno de los M valores del alfabeto discreto de señales.

El índice k adopta valores enteros desde menos a mas infinito. En la expresión


anterior, el pulso básico que viaja en el canal y que representa la forma de onda
de cada símbolo enviado es p( t ) , que será considerado inicialmente como un pulso
tal que:

1 t=0
p(t) =  (1.2)
0 t =  D,  2 D,...

El pulso tiene valor de amplitud unitaria cuando es muestreado en el


correspondiente instante k , y valor cero para los restantes instantes de muestreo.
Sin embargo, no es necesariamente un pulso limitado en tiempo. El muestreo de
la señal se produce sincrónicamente en instantes t  kD , siendo k = 0,±1,±2,...de
forma tal que para un cierto valor de k  K ;

x(KD)= a

k p(KD - kD)  aK (1.3)

pues (KD-kD) es cero, excepto para k = K.


Las condiciones de la ecuación (1.2) son cumplidas por varios pulsos. El pulso
rectangular por ejemplo, esta de acuerdo con tales condiciones si su duración τ es
menor que D .
El símbolo D se usará para representar el periodo de repetición entre pulsos. De
esta manera la inversa será igual a la velocidad de señalización, r :

r  1 / D (baud) (1.4)

que se mide en símbolos por segundo o baud. En el caso particular que el alfabeto
usado este constituido por dos elementos tendremos M = 2, llamaremos a ese
caso señalización binaria, y la velocidad de señalización correspondiente rb ,
velocidad de señalización binaria:

r b  1 / Tb (bit por segundo)


(1.5)

Siendo en este caso Tb el periodo de repetición de la señalización binaria


correspondiente. La velocidad de señalización binaria se mide en bits por segundo.

1.2.2 Señalización digital. Representación vectorial

Como es sabido, cualquier señal o forma de onda puede en un sentido ser


descompuesta o representada por una serie ortogonal finita de términos N. De
esta forma podemos escribir:

N
w(t) = w k  k (t) (1.6)
k=0

donde para una señal digital, los coeficientes w k son ceros o unos, y las funciones
φ k ( t ) son las N funciones ortogonales y al mismo tiempo, se lo denomina
dimensión del espacio vectorial usado para la representación.

3
En la representación dada, las funciones o vectores φ k son un juego ortogonal de
señales. Una forma abreviada de representar un vector sobre este conjunto de
funciones ortogonales es :

w = (w1 ,w 2 ,w 3 , ...,w N ) (1.7)

Ejemplo:

La palabra (1 1 0) transmitida como señal s( t ) tal como se ve en la figura 1.a,


puede ser descompuesta en un conjunto de funciones ortogonales φ1 ( t ) , φ 2 ( t ) y
φ 3 ( t ) mostradas en la figura 1.b. De esta manera,

s( t )  1.φ1 ( t )  1.φ 2 ( t )  0.φ 3 ( t )

s( t )
1
(a)
0

1 3T t
1 ( t )
0

2 (t ) 1 t
(b)
0
1 t
3 (t )
0

3T t

(c)

(110)

Figura 1.2. Representación vectorial de palabras digitales u sus señales asociadas

Las coordenadas de esta descomposición en funciones ortogonales de la señal son


representadas como las componentes del vector en un espacio vectorial
determinado, generado precisamente por la funciones de la base ortogonal.

4
Se ha considerado, para simplificar, que la amplitud de las funciones ortogonales
es igual a 1, y el periodo T = 1.

1.3 Limitaciones en la transmisión

Un sistema de transmisión en banda base obedece al diagrama en bloque que se


ve en la figura:

Interferencia y ruido

x(t) y(t)
Transmisor Canal; Filtro Conform
. ganancia L BT = B pasabajos de pulsos
At: L

Sincronismo (valor de D)

Figura 1.3.

La señal entrante al receptor se ve afectada por ruido e interferencia. Luego de ser


filtrada, la señal resultante y ( t ) tiene la forma:

~(t-t -kD)+ n(t)


y(t) = a
k
k p d (1.8)

Donde t d representa el retardo en el canal, ~


p( t ) es la forma del pulso afectada
por el filtrado y la interferencia y n( t ) es el ruido. La función del bloque receptor
es la de recuperar la señal por muestreo en los instantes t k .

y(t)
A

y(tk)

tk t
Figura 1.4.

La señal es muestreada en un instante optimo de muestreo:

t k = KD+td (1.9)

suponiendo que la señal fue distorsionada conservando una forma tal que puede
ser reconstruida en función de pulsos distorsionados con la condición ~
p( 0 )  1 ,
entonces:

y(t K ) =aK +  a ~p(KD-kD)+ n(t


k K
k K ) (1.10)

En la ecuación (1.10) el primer termino es el valor recuperado, el segundo termino


representa la deformación de los pulsos adyacentes que interfieren en el valor
detectado, es decir, la porción de interferencia intersimbólica o ISI, mientras que

5
el ultimo término es el ruido. La contribución de los términos de ruido e
interferencia pueden, eventualmente, dar como resultado errores en la señal
recibida. El valor muestreado en t k en la figura es distinto del supuesto valor a k
de amplitud del pulso original. Los términos descriptos son los dos problemas
principales en la transmisión en banda base, el ruido y la interferencia
intersimbólica, ISI. En el esquema de recepción de la figura 1.3, el ruido tiende a
ser eliminado por el filtrado pasabajos aplicado a la entrada del receptor. Sin
embargo, un filtrado excesivo provoca una expansión de la señal en el tiempo,
como consecuencia del proceso de limitación en frecuencia, que puede hacer que
un pulso se extienda e interfiera en el adyacente, provocando una indefinición del
valor del pulso que se desea detectar, y como consecuencia producirse errores.
El ruido muestreado n( t k ) es una variable aleatoria que tiene la misma naturaleza
que el ruido n( t ) , es decir será en general una variable aleatoria Gaussiana.
~
El termino a
k K
k p (KD-kD) corresponde a al interferencia intersimbólica ISI.

Como se dijo anteriormente, para un ancho de banda determinado, la forma de


pulso sin c( x ) contiene la máxima velocidad de señalización, debido a que se
trata del pulso cuyo contenido espectral se limita al mínimo posible. Esto será
demostrado en una sección posterior. Si hacemos

x  rt (1.11)

entonces recordando que D es la duración del bit:

sinc(rt) = sinc(t/D) (1.12)

cuyo espectro es limitado en banda e igual a:

P(f) = (1 /r) (f/r) (1.13)

La máxima velocidad de señalización esta dada por el hecho que para el pulso
sinc (rt ) el ancho de banda es igual a B  r / 2 , por lo que un filtro pasabajos ideal
de ancho de banda BT  r / 2 no alterara la forma de onda. Luego es posible
señalizar a r  2 B . Como se demostrara luego, el ancho de banda B y la velocidad
de señalización r están relacionadas por la inecuación:

r  2B (1.14)

Así, se tiene en la ecuación (1.14) que el signo igual se verifica si el pulso de


transmisión es un pulso sinc( rt ) .

1.4 Señalización Multinivel

Cuando se tiene una secuencia de datos binarios la información es normalmente


transmitida en forma serie, de manera que queda delimitado el ancho de banda,
como se expreso anteriormente, en la ecuación (1.14). Si se emplea señalización
binaria con pulso sinc( rt ) se obtiene el máximo valor de señalización.

La información binaria puede sin embargo ser agrupada en conjuntos de mas de


un bit. El mensaje 1 0 0 1 0 0 1 1 puede ser enviado como una secuencia de ocho
símbolos que representan alternativamente un uno o un cero. Sin embargo, el
mismo mensaje podría ser enviado agrupando los bits de a dos, de forma tal que

6
se usa un alfabeto de M = 4 símbolos por ejemplo. Si se asigna a cada elemento
de los M del set, un número de acuerdo al código Gray se obtiene lo siguiente:

grupo de a k
bits
10 3A/2
11 A/2
01 -A/2
00 -3A/2

La información será enviada como una secuencia de cuatro símbolos como se ve


en la figura 1.5 f.
Queda claro a partir de la misma que cada símbolo M-ario tiene un periodo que es
el doble del correspondiente al binario en este caso. En general para una
señalización M-aria con M niveles, si se cumple que M  2 n , entonces:

n = log 2 (M) (1.15)

Tb n  D (1.16)

o bien:

Tb log 2 (M) = D (1.17)

rb
r= (1.18)
log 2 (M)

En general la velocidad de señalización de una señal M-aria es siempre


log 2 M veces menor que la velocidad binaria correspondiente. Obviamente, el
espaciamiento entre símbolos de un conjunto de M valores es siempre menor que
el de un conjunto binario de símbolos, si el margen dinámico de niveles
permanece constante. Para conservar el mismo espaciamiento ente niveles, la
potencia debe ser aumentada.

1.5 Formatos de señal en banda base

La transmisión de símbolos en formato binario puede realizarse con formas de


onda diferentes, que presentan características espectrales variadas. Los formatos
de onda mas conocidos se suelen agrupar en dos categorías principales, que son
los esquemas con retorno a cero (RZ) y los esquemas sin retorno a cero (NRZ).
Por retorno a cero (RZ) se entiende aquella forma de onda que tiene un valor
determinado, pero que adopta el valor cero antes de la finalización del tiempo del
símbolo D (Figura 1.5 a y b). Los formatos NRZ tienen un valor constante en el
periodo D . (Figura 1.5 c y d).
Existen además otras características en los formatos, que se describen a
continuación:
Señalización unipolar: Un símbolo lógico 1 es usualmente representado con un
nivel de tensión alto, A Volts, mientras que el 0 lógico se representa con un nivel
cero 0 Volts. (Figura 1.5 a y c).
Señalización Polar: Los símbolos lógicos 1 y 0 se representan respectivamente
por dos niveles de tensión iguales en amplitud pero de signo contrario,  A / 2 y
 A / 2 . (Figura 1.5 b y d).

7
Señalización bipolar: Los ceros lógicos son representados por un nivel de 0
volts. Los unos lógicos se representan alternativamente por valores positivos y
negativos de tensión. Este esquema también se denomina señalización de marca
alternada o (AMI) (Alternate mark inversion). (Figura 1.5 e).
Señalización Manchester: Un uno lógico es una transición de un valor positivo a
uno negativo. Un cero lógico es una transición de un valor negativo a uno positivo.
(La convención podría ser también la opuesta) (Figura 1.5 g).
1 0 0 1 0 0 1 1

Unipolar RZ (a)
0

A/2
Polar RZ (b)

-A/2
A
Unipolar NRZ (c)

0
A/2
Polar NRZ (d)

-A/2
A/2
AMI (e)

-A/2

3A/2

A/2
Señalizacion
Multinivel
o
-A/2
M-aria (f)

-3A/2

A/2
Formato
Manchester (g)

-A/2
Figura 1.5.

8
Las propiedades de cada formato pueden ser útiles en uno u otro caso, de acuerdo
a las necesidades impuestas por el canal de transmisión. El formato unipolar NRZ
tiene la ventaja de ser generado con circuitos electrónicos simples, de tecnología
TTL por ejemplo, pero exige un canal donde las señales están acopladas en
continua. El formato polar correspondiente podría no tener componente continua
asociada, siempre que estadísticamente el numero de unos y ceros sea el mismo.
El formato Manchester evita el valor de componente continua, pero tiene un ancho
de banda doble del correspondiente al NRZ.
Algunas características deseables de los formatos son las siguientes:

 Capacidad de auto-sincronización: Algunos formatos tienen la propiedad de


tener información útil para proveer sincronización al sistema.

 Espectro adaptable a las características del canal de transmisión: Los formatos


pueden ser caracterizados por su espectro, que tendrá para ciertos casos
propiedades espectrales convenientes para cierto tipo de canal.

 Ancho de banda de transmisión: Deberá ser el menor posible.

 Capacidad de corrección de errores: El formato puede proveer algún tipo de


información para la corrección de errores.

1.6 Densidad Espectral de Potencia de una señal digital modulada en


amplitud

La señal digital modulada en amplitud puede ser expresada por la ecuación (1.1),
que repetimos aquí:

x(t)= a

k p(t - kD)

Como se dijo previamente, { ak } es la secuencia de valores de amplitud


correspondientes al alfabeto utilizado, y p( t ) es la forma de pulso básica,
expresada analíticamente en la ecuación (1.2). Se considera que un conjunto de
señales x( t ) conforman un proceso aleatorio que por simplicidad será también
llamado x( t ) . El proceso x( t ) es aleatorio debido a que la secuencia de
información { a k } es aleatoria. Se calculará la densidad espectral de potencia
de x( t ) , calculando previamente la autoccorrelación, y luego aplicando la
transformada de Fourier.

El valor medio de x( t ) es:

 
E[x(t)] =  E[ak ]p(t-kD) = ma
k=-
 p(t  kD)
k  
(1.19)

En el caso en que el formato sea de pulso rectangular y NRZ, la sumatoria del


termino final de (1.19) es igual a uno. En el caso general, el valor medio es una
función periódica.

La función autocorrelación de x(t ) es entonces:

9
 
R x (t+τ,t) = E[x(t)x(t+τ)] =   E[a a
k=- m  
k m ]p(t  kD)p(t  τ  mD ) (1.20)

En general se asumirá que la secuencia {a k } tiene una función autocorrelación:

R a(n) = E[ak .a k+n ] (1.21)

 
R x (t+τ,t) =  R
k=- m  
a ( m  k )p( t  kD )p( t  τ  mD ) =
 
 R
n=- 
a ( n )  p( t  kD ) p( t  τ  kD  nD )
k  

(1.22)

El segundo término de la suma es periódico, con periodo D . La función


autocorrelación R x es periódica en la variable t . El término:

 p( t  kD )p( t  τ  kD  nD )
k  
(1.23)

Es periódico en D . Esto significa que el proceso puede ser analizado promediando


la función autocorrelación en un solo periodo D . La transformada de Fourier para
la evaluación de la densidad espectral puede entonces ser calculada sobre la
autocorrelación promediada.

~ (τ) = (1 /D) D/2 R (t+τ ,t)dt


R (1.24)
x  x - D/2

 
1 D/ 2
= R
n= - 
a (n) 
k   D
D / 2 p( t  kD )p( t  τ  kD  nD )dt (1.25)

 
1 kDD / 2
=  Ra ( n ) 
n= -  k   D
kDD / 2 p( t )p( t  τ  nD )dt (1.26)

1  
= 
D n=- 
R a ( n ) p( t )p( t    nD )dt

(1.27)

La ecuación (1.27) representa la función autocorrelación de p( t ) . Se define:


R p() =  p(t)p(t+)dt (1.28)
-

De acuerdo a esta expresión, la autocorrelación promedio de x( t ) se expresa


como:

10
~ 1 
R x ( ) =  Ra ( n )R p (  nD ) (1.29)
D n  

Luego, se calcula la transformada de Fourier de (1.29):

 ~
G x (f) =  R x ( )e - j2 f d (1.30)
-

1  
G x (f) =  R a (n) R p (-nD).e - j 2 f  .d (1.31)
D n=-  - 

1 2
G x (f) = Ga (f) P(f) (1.32)
D

Siendo Ga ( f ) el espectro de la secuencia {a k }


- j 2 fnD
Ga (f) =  R (n)e
n= - 
a (1.33)

| P( f ) |2 es el espectro del pulso y a su vez es la transformada de Fourier de


R p ( τ ) . Ga ( f ) y | P( f ) |2 determinan el espectro de la señal. Modificando { a k } y
p( t ) es posible modificar el espectro de x( t ) .

En general:

(1 / ( 2D ) j 2 f n D
R a (n) =  Ga (f)e df (1.34)
-( 1 / ( 2 D )

Si los símbolos son no correlacionados:

σ a2  m a2 n = 0
R a (n) =  2 (1.35)
m a n 0

donde:

σ a2 = E[an2 ] - ma2 (1.36)

Reemplazando:


Ga(f) = σ a2+ ma2  e -j 2 π f n D (1.37)
n=-

11
O usando la ecuación de Poisson:

ma2 
 n
Ga(f) = σ a2+  δ  f-  (1.38)
D n=- D

2
2 2 ma2 
 n
G x (f) = a P(f)   P(n/D)   f-  (1.39)
D D2 n=-  D

Cuando se precisa evaluar la correlación entre los símbolos de { a k } , la expresión


a utilizar es;

I
R a (k) =  (an an+k )i Pi
i=1
(1.40)

Donde Pi es la probabilidad de ocurrencia del producto an .a n k i .

Por otra parte, e integrando la expresión (1.39) se obtiene la potencia promedio


como:


2
x 2 =  a2 rE p +(ma r) 2  P(nr)
n=- (1.41)
 2
Ep =  P(f) df


1.7 Eficiencia espectral

La eficiencia espectral de un sistema es el numero de bits por segundo que se


transmiten por cada Herz de ancho de banda;

rb bits/segundo
ηB= (1.42)
BT Hz

Cuando existen limitaciones de ancho de banda y se desea aumentar la velocidad


de señalización binaria se recurre normalmente a la señalización M-aria. En este
caso el resultado típico es que B es igual a n  log 2 M .
Para los formatos vistos:

Código ancho de banda para 1er nulo Eficiencia B


Unipolar NRZ rb 1
Polar RZ 2rb 1/2
Unipolar RZ 2rb 1/2
Polar NRZ rb 1
Manchester 2rb 1/2
M-aria NRZ rb/n n

n  log 2 M

Ejemplo: Formato Unipolar con retorno a cero (RZ).

12
p(t) =  2 r b t 

Aplicamos el criterio de calculo basado en la expresión que evalúa la correlación


entre símbolos:

1 1 A2
R a ( 0 ) = A.A.  0.0 . = = σ a2  (m a ) 2
2 2 2

Para k  0 e I = 4, los productos posibles son:

A.A, A.0, 0.A, y 0.0:

1 1 1 1 A2
R a (k) = A.A.  0 .0 . +A.0 +0.A = = (ma ) 2
4 4 4 4 4

A2
Luego σ a2 =
4

Otra forma de evaluar los parámetros es la siguiente:

1 1 A
ak =
k
 a P(a k
2
k
2
) = A.
 0. =
2
= ma

2 2 2 1 2 1 A2
ak =  ak P(ak ) = A .  0 . =
k 2 2 2
Si p(t) =  2 r t  b

entonces:
1  f 
P(f) = sinc  

2 rb  2 rb 

Con lo que la densidad espectral de potencia es igual a:

A2  f  A2 n
G x (f) = sin c 2  +
 16  sin c 2  2 (f-nr b )
16 r b  2 rb  n  

13
2 Ruido y Errores

Como se dijo previamente, el ruido constituye uno de los principales problemas a


resolver en el diseño de un sistema de comunicaciones. Se analizará el caso para
señales binarias y M-arias, o multinivel. En esta primera sección se analiza el efecto
del ruido como si la interferencia intersimbolica no existiera. Luego se considerará la
ISI anulando el efecto del ruido.

2.1 Probabilidad de error binaria

En el esquema de la figura 2.1 se representa el receptor binario en banda base:

x(t) y(tk)
Filtro LPF Muestra xc(t)
H(f) y retención + Umbral
- V

Sincronización: D V

Figura 2.1.

La señal mas el ruido ingresan al receptor. La primera etapa consta de un filtro


pasabajos que elimina parte del ruido entrante sin producir interferencia
intersimbólica. Estudiaremos el efecto del ruido suponiendo que la ISI provocada es
nula. El valor detectado por el receptor luego de la operación de muestreo y retención
es:

y(t k ) = ak + n(t k ) (2.1)

Expresión en la que se observa, respecto de la ecuación (1.11), que el término


correspondiente a la ISI no es tenido en cuenta.

En general, se procede a calcular el valor recibido aplicando lo que se denomina “hard


decision”, es decir, se compara el valor recibido y ( t k ) con un cierto valor umbral V ,
de forma tal que si el valor y ( t k )  V , entonces el valor recibido es un uno 1, y si
y ( t k )  V , entonces el valor recibido es un cero 0. De esta manera el receptor
convierte la señal recibida y ( t k ) , que corresponde a una señal ruidosa muestreada,
en una señal x c ( t ) , que es una señal similar a la expresada en ecuación (1.1), sin
ruido, pero con eventuales errores.

Los valores muestreados y ( t k ) corresponden a una variable aleatoria continua Y ,


mientras que los valores n( t k ) pertenecen a las muestras de una variable aleatoria
n( t ) . La función densidad de probabilidad de la variable aleatoria Y esta relacionada
con el ruido, y con la probabilidad condicional de los símbolos enviados. Para
expresar dicha función de probabilidad diremos que:

H 0 : Es la hipótesis de que ha sido enviado un cero ‘0’: ak = 0; Y=n

14
H1 : Es la hipótesis de que ha sido enviado un uno ‘1’: ak = A; Y = A + n.

La función densidad de probabilidad condicional para la variable aleatoria Y , dada la


ocurrencia del evento H 0 está dada por:

pY (y/H0 ) = pN (y) (2.2)

Donde pN ( y ) es la densidad de probabilidad de ruido caracterizada normalmente por


el ruido Gaussiano.
Para la hipótesis H1 :

pY (y/H1 ) = pN (y-A) (2.3)

Dado que cuando se envía un uno 1, la señal n  y  A . La función densidad de


probabilidad de la señal ruidosa es la función de probabilidad de la señal discreta
enviada, 0 o A , mas la función densidad de probabilidad del ruido pN ( n ) . El receptor
de la figura 2.1 realiza la función graficada en la figura 2.2:

y(t) 1 0 1 0 0
A

tk Tb

y(tk) A

xc(t) A

0
Tb/2 tk Tb+Tb/2
Figura 2.2.

Las funciones densidad de probabilidad corresponden a versiones en el origen o


trasladadas de la función distribución Gaussiana correspondiente al tipo de ruido
normalmente analizado.

15
pY(Y/H0) pY(Y/H1)

0 V A

Pe1 Pe0
Figura 2.3.

En la figura 2.3 puede verse que las regiones sombreadas corresponden a los valores
considerados dentro del error para cada hipótesis. Así, se supone que sucedió la
hipótesis H 0 , cuando Y  V , y que sucedió la hipótesis H1 cuando Y  V . Las
probabilidades de error están asociadas con las áreas bajo las funciones densidad de
probabilidad están representadas en la figura 2.3:


Pe 0 = P(Y>V / H 0 ) =  p (y/H y 0 )dy (2.4)
V

V
Pe1 = P(Y<V / H1 ) =  p y (y/H1 )dy (2.5)


La ubicación del umbral de decisión V es ciertamente importante. Un valor de V muy


cercano a 0 reduce el error para el valor 1, pero lo aumenta fuertemente para el valor
0, y viceversa. Para determinar la mejor posición del valor del umbral se debe
primero determinar el valor de la probabilidad de error total para el sistema. Se la
denomina probabilidad de error promedio, por que viene precisamente dada por la
expresión:

Pe = P0 Pe0 +P1Pe1 (2.6)

donde:

P0 = P(H0 ) ; P1 = P(H1 )

P0 y P1 son las probabilidades de ocurrencia de ceros y unos respectivamente. La


probabilidad de error total se calcula como promedio estadístico de los posibles
errores, pesando la probabilidad de error de cada símbolo, por la probabilidad de
aparición del mismo.
Para calcular la posición optima del valor del umbral V , se debe derivar la expresión
de la probabilidad de error respecto del umbral, e igualar a cero:

dPe /dV = 0 (2.7)

Si se realiza esta derivación, se llega la siguiente expresión:

P0 .pY (Vopt /H 0 ) = P1 .pY (Vopt /H1 ) (2.8)

16
Si se supone que los unos 1’s y los ceros 0’s son igualmente probables:

1
P0 = P1 = (2.9)
2

Luego:

1
Pe = (Pe 0 +Pe1 ) (2.10)
2

resultando para el valor optimo del umbral:

pY (Vopt /H 0 ) = pY (Vopt /H1 ) (2.11)

Esto significa que si los símbolos son igualmente probables entonces, el umbral debe
estar ubicado en el punto medio que separa los símbolos, para el caso de la figura
2.3, Vopt = A/2.

4

V Vopt

1 2 3
Figura 2.4.

Si V=Vopt Si VVopt

Pe1 = 1+2 Pe1 = 1


+ +
Pe0 = 3 Pe0 = 2+3+4

----------- -----------

Pe = (1/2)( 1+2+3) Pe = (1/2)(1+2+3+4)

Como se analiza en la figura 2.4, la probabilidad de error es mínima para V = Vopt =


A/2.

17
La función densidad de probabilidad del ruido corresponde al caso del ruido
Gaussiano, que se caracteriza por poseer valor medio cero, y dispersión σ 2 . La
función densidad de probabilidad (fdp) esta expresada en la ecuación:

y2
1 -
2 2
pN (y) = e (2.12)
2 2

Para el caso general en que la fdp se encuentra desplazada a un valor medio m ,


distinto de cero:

(y-m)2
1 -
2 2
pN (y) = e (2.13)
2 2

pN(y)

Q(k)

m m+k
Figura 2.5.

La probabilidad de que un cierto valor de tensión correspondiente a la variable


aleatoria Y supere el valor m+k esta dada por la siguiente expresión:

(y-m) 2
1  
2 2
P(Y>m+k) =  e dx (2.14)
2 m  kσ
2

para realizar cálculos de este tipo en forma normalizada se define la función:

2
1  
2
Q(k) =  e d (2.15)
k
2

Siendo:

y-m
λ= (2.16)
σ

Si ahora en función de la anterior definición se trabaja sobre la variable aleatoria Y ,


que representa al valor de tensión resultante de la amplitud afectada por ruido, y se
pretende calcular las probabilidades de error anteriormente expresadas en ecuaciones
2.4 y 2.5 se tiene:

18
y2
 1  
2 2
Pe 0 =  p N (y)dy =  e dy = Q(V/ ) (2.17)
V V
2 2
e igualmente:

(y-A) 2
V 1 V 
2 2
Pe1 =  p N (y-A)dy =  e dy = Q((A- V)/) (2.18)
- 2 
2. .

Cuando V = Vopt las curvas se cortan en el punto medio Vopt = A/2.

las probabilidades de error son iguales y resultan ser:

Pe 0 = Pe1 = Q(A/ 2σ)


1 (2.19)
Pe = (Pe0 +Pe1 ) = Q(A/ 2 σ)
2

Esta es la mínima probabilidad de error binaria en presencia de ruido blanco


Gaussiano cuando los dígitos son igualmente probables. Como puede verse, el
término A / 2 σ o su correspondiente valor elevado al cuadrado, define la magnitud de
los errores en el sistema, o sea la probabilidad de error para un receptor dado.
Este resultado es el mismo para la señalización polar cuando la distancia entre los
símbolos permanece constante e igual a A ( a k   A / 2 ).
Para vincular la probabilidad de error y la relación señal ruido, se plantea
primeramente el calculo de la potencia asociada a la secuencia de valores del alfabeto
de M elementos expresada en la ecuación (1.1).
Si se determina que T es un periodo lo suficientemente grande para una secuencia
de valores transmitida en espacios de tiempo D , tal que T  ND , y N  1 , se tendrá
para señalización con pulsos rectangulares:

1 |t|  τ / 2
p(t) =  (2.20)
0 |t|   / 2

Siendo τ  D .

1 T/ 2 1 T/ 2 1 T/ 2 k=N/ 2
SR =  (  a k p(t-kD))2 dt =   ak2 p 2 (t-kD)dt =  a 2
k p 2 (t-kD)dt
T T/ 2
k T T/ 2
k T T/ 2
k=-N/ 2
1 D/ 2 2 2 N 0 D/ 2 2 2 N1 D/ 2 2 2
SR =   a k p (t)dt =  a0 p (t)dt+ a1 p (t)dt
k ND
 D/ 2 N.D  D/ 2 N.D D/ 2

1 τ/ 2 2 2 1 τ/ 2
SR = P0  a0 p (t)dt+ P1  a12 p 2 (t)dt (2.21)
D τ/ 2 D τ/ 2

Si el formato empleado es NRZ, entonces D  τ  Tb :

SR = A2/2 Unipolar NRZ

19
SR = A2/4 Polar NRZ

 2SR Unipolar
A= (2.22)
 4SR polar

Si σ 2 es la potencia de ruido N R a la salida del filtro, puede decirse entonces que:

2
 A  A2 (1 / 2 )(S/N)R Unipolar
  = = (2.23)
 2σ  4NR (S/N)R Polar

En el formato unipolar se necesita el doble de potencia que en el polar para tener la


misma probabilidad de error. La velocidad de señalización límite para señal binaria rb
esta dada por la expresión (1.14) resultando entonces:

N R = η B  η rb / 2 (2.24)

2.2 Filtro adaptado

El filtro pasabajos que se encuentra a la entrada del receptor tiene por objeto limitar
el ruido entrante al sistema. Como se ha explicado, el filtrado excesivo podría
provocar ISI, por lo que existirá un compromiso entre el filtrado de ruido y la
interferencia que este provoca. Si los pulsos son limitados en el tiempo, y el ruido
presente es blanco y Gaussiano, el filtro de características optimas en términos de
ruido e ISI es el filtro adaptado.

2.2.1 Filtro Adaptado a la detección de pulsos

El filtro adaptado maximiza la relación señal-ruido, siendo esta en realidad, la relación


que existe entre el valor muestreado en el instante optimo y la potencia de ruido que
ingresa a través del filtro.
En el caso analizado, el pulso entrante tiene forma conocida p( t ) .

x R (t) = AR p(t-t 0 ) (2.25)

este pulso es una señal de energía que tiene una transformada de Fourier:

X R (f) = AR P(f)e -jωt0 (2.26)

con energía:


E R = AR2  | P(f) |2 df (2.27)


El filtro óptimo debe reducir el ruido y maximizar el valor de la amplitud a ser


detectada en el instante óptimo t  t 0  t d .

20
Gn(f)

xR(t) yD(t)
H(f)

AR+nD

t0+td
Figura 2.6.

La amplitud del pulso a la salida del filtro puede ser obtenida a partir de la función
transferencia del mismo y el espectro del pulso recibido de la siguiente forma:

A = F -1 [H(f)X R (f)] (2.28)


t=t 0  t d

 
A=  H(f)AR P(f).e -jt0 e j( t0 +td ) df = AR  H(f)P(f)e jt d df (2.29)
- -

El valor de potencia de ruido que ingresa al sistema viene dado por:


σ2   | H(f) | 2 Gn (f)df (2.30)


El filtro deberá entonces maximizar el cociente entre el valor muestreado y la


potencia de ruido que ingresa por él:

 2
2 jt d
2 A R  H(f)P(f)e df
 A -
   
(2.31)
  | H(f) |2Gn (f)df
 

Empleando la desigualdad de Schwarz y haciendo:

 2

 V(f)W*(f)df 
 2

  W(f) df (2.32)
2 
 V(f) df


21
V(f)  H(f) Gn (f) (2.33)

AR P(f)e jt d
W*(f)  (2.34)
Gn(f)

La igualdad se cumple si hay proporción entre V(f) y W(f):

KW(f)
V(f)  (2.35)
AR
entonces, se obtiene el máximo valor
2 2
 A  P(f)
   AR2  df (2.36)
   max   G (f)
n

y por lo tanto, el filtro queda como:

KP*(f)e -jt d
H opt (f) = (2.37)
Gn (f)

de la expresión se observa que el filtro enfatiza las frecuencias para las que la señal
tiene un valor alto, y de-enfatiza las frecuencias para las que el ruido es alto.

Si el ruido es blanco la distribución de componentes espectrales es plana:

2
 A 2 A2  2 2ER
   . R  P(f) df = (2.38)
   max   

Donde ER es la energía del pulso recibido.

En este caso la respuesta impulsiva del filtro resulta ser:

2K 2K 
hopt (t)= F -1 [ P*(f).e -jtd ] = . P*(f)e  j(td t) df (2.39)
  

*
2K   j ( t d  t)  = 2 K p(t  t)* = 2 K p(t  t)
hopt (t)= P(f).e df
  
d d (2.40)
  

2.2.2 Filtro Adaptado para un pulso de forma definida

Si la señal de entrada es un pulso rectangular de duración τ , limitada en el tiempo, y


centrado en t  kD :

22
x(t) = ak p(t-kD) (2.41)

p(t) , x(t) ak

kD-/2 kD kD+/2
Figura 2.7.

El filtro adaptado intentara, en este caso, maximizar el cociente ak / σ  en el


2

instante de muestreo t k  kD  t d para minimizar la probabilidad de error. Empleando


los resultados anteriores, la respuesta impulsiva del filtro que recibe en forma óptima
este tipo de pulsos, esta dada por la siguiente expresión:

ak = F -1 [H(f)X R (f)] (2.42)


t=t 0 +t d

2K 
a k = ak  P*(f)P(f)e jtd e -jtd df (2.43)
 

2K  2
ak = ak p (t)dt (2.44)
η  

η
K=   2 (2.45)
2
 p (t)dt


1
h(t) = p(t d -t) (2.46)
 eq

donde:

τ eq =  p 2 (t)dt (2.47)


La constante 1 / τ eq se elige de tal manera que la amplitud sea igual a ak Esta


normalización corresponde a un pulso de forma determinada y limitado en el tiempo:

23
ak

eq
Figura 2.8.

El ancho de pulso equivalente τ eq corresponde al ancho de un pulso cuadrado que


teniendo la misma energía que el pulso original, tiene a su vez un valor máximo y
constante igual a ak .
La energía del pulso de forma arbitraria se calcula entonces como:

 
E b =  ak2 p 2 (t)dt = ak2  p 2 (t)dt = ak2 eq (2.48)
 

El mínimo valor de t d es τ / 2 .
Las formas de onda típicas en la recepción de un pulso cuadrado se ven en la figura
2.9.
x(t)

t0 t0+eq/2 t0+eq
h(t)
1/eq

eq

ak

tk-eq tk tk+eq
Figura 2.9.

La potencia de ruido a la salida del filtro adaptado se calcula de la siguiente manera:

2
 2   2   p(t) 
N R = 2 =  H(f) df =  h(t) dt =  2
dt (2.49)
 2  2   eq 2

24
η
N R =σ 2 = (2.50)
2τ eq

Este es el valor mínimo de potencia de ruido que puede ingresar por el filtro. El valor
mínimo siempre se verifica para el filtro adaptado. En general se puede decir que la
potencia de ruido entrante a un filtro dado será:

η
N R =σ 2  (2.51)
2τ eq

Se calcula el valor del parámetro ( A / 2σ ) 2 para un receptor con filtro adaptado. Se


calcula para el caso de un sistema de transmisión binaria a velocidad rb que tiene una
potencia recibida S R , en presencia de ruido blanco de densidad espectral de potencia
η.

Para la medición de sistemas binarios se definen los siguientes parámetros:

SR
Eb = Energía promedio por bit (2.52)
rb

SR E
b = = b Relación de la energía por bit a la potencia de ruido (2.53)
ηr b 

La energía promedio por bit para los valores discretos de la secuencia expresada en
ecuación (1.1) puede ser calculada como:

 
E b = E [a k2  p 2 (t-kD)dt ] = E [a k2  p 2 (t)dt ] = ak2 .τ eq (2.54)
 

2
El valor de a k depende siempre de la estadística y forma de la información de
entrada:

 2 A2
E[ak ] =

 ak2 P(ak ) = (1/ 2 )A 2  (1 / 2 )0 2 =
k 2
Unipolar
ak2 = 
E[a 2 ] = A2
 k  ak2 P(ak ) = (1/ 2 )(A/ 2 )2  (1 / 2 )(  A/ 2 )2 =
k 4
Polar

(2.55)

Si se considera aplicado en el receptor un filtro adaptado, la potencia de ruido viene


dada por la expresión (2.50)
Utilizando este resultado:

25
 2 ak2 2 E b 2 eq E b
2
 2
= = =  b Unipolar
 A   4 4 eq η 
  =
 2   4 ak2 E b 2 eq 2 E b
 4 2 = = = 2 b Polar
  eq η 
(2.56)

Pero como se ha evaluado en la sección anterior, la probabilidad de error depende del


termino ( A / 2σ ) 2 , con lo que para los formatos Unipolar y Polar en señalización
binaria se tiene:

Q( γ b ) Unipolar
Pe =  (2.57)
Q( 2γ b ) Polar

Este es el mínimo valor de probabilidad de error que puede obtenerse y se registra


cuando se emplea el filtro adaptado. Cualquier otro tipo de filtro producirá mayor
cantidad de errores que el numero expresado en ecuación (2.56), obedeciendo en
general a la expresión (2.51).
El filtro adaptado genera la mejor relación señal ruido posible desde el punto de vista
del receptor, para un dado pulso de entrada. La respuesta impulsiva de ese filtro se
obtiene revirtiendo el eje del tiempo y desplazando Tb segundos a la forma de onda
del pulso entrante, cuando el ruido es del tipo blanco, aditivo y Gaussiano.
Si por ejemplo el pulso de entrada fuera de tipo triangular, tal como el que se ve en
la figura 2.10:
p(t)

(a)

Tb

h(t) = p(Tb-t)
(b)

Tb
Figura 2.10.

La forma del pulso es revertida y desplazada para conseguir la transferencia del filtro
adaptado h( t ) , como se ve en la figura 2.10(b). Cuando un pulso de la forma p( t )
presentado en la figura 2.10 es recibido por un filtro de transferencia h( t ) se produce
a la salida una forma de onda que es la integración del producto de p( t ) por h( t ) ,
revertido en el tiempo. La situación para τ  0 y τ  0 se ve en la figura 2.11:

26
h(-t) p(t)

Tb
h(t1-t) p(t)

Tb
Figura 2.11.

Cuando el proceso de convolución llega al instante Tb , las formas de onda coinciden


en el tiempo, y el producto es máximo. Este es el instante óptimo de muestreo a la
salida del filtro, t k  Tb / 2 . (Se está considerando que t 0 y t d son cero).

2.2.3 Filtro de Correlación

Para el caso en que el ruido es blanco, el filtro adaptado puede configurarse


empleando la correlación de la entrada con una forma de onda replica de la señal de
entrada.

p(t) y(tk)
Integrador
tk
t k  eq
p(t)s(t)dt

s(t)

Figura 2.12.

La expresión del proceso de correlación es la siguiente:

tk
y(t k ) =  p(t)s(t)dt (2.58)
t k ττ eq

Para verificar que esta expresión es equivalente a la de la operación del filtro


adaptado puede verse que :

tk
y(t k ) = p(t k )*h(t k ) =  p(λ )h(t k  λ )dλ (2.59)


pero:
1
 p(t k -t) 0  t  τ eq
h(t) = τ eq (2.60)
0 otro valor de t

luego:

tk tk
y(t k ) =  p()s(t k -(t k - ) )d = t p( )s()d (2.61)
t k  eq k  eq

27
Una implementación práctica del filtro adaptado para pulsos cuadrados lo constituye
el filtro de integración y descarga.

2.3 Probabilidad de Error M-aria

La señalización binaria provee la mayor aislación contra el ruido debido a que todo el
rango dinámico de tensiones es utilizado solo por dos niveles. El empleo de la
señalización M-aria o multinivel, tiene por objeto aumentar la velocidad de
señalización manteniendo el ancho de banda constante, pero dicho objetivo es
logrado a expensas de la performance de error, o bien para conservar la misma
probabilidad de error, a expensas de mayor potencia.
Se calculará la probabilidad de error en presencia de ruido blanco y Gaussiano, de
valor medio cero y potencia de ruido σ 2 .

Se empleará señalización polar, para simplificar algunos cálculos:

a k =  A/ 2 ;  3 A/ 2 ;....;  (M-1 )A/ 2 (2.62)

Si todos los símbolos del alfabeto de M valores son equiprobables:

1
Pe = (Pe0+Pe1+...+PeM-1 ) (2.63)
M

El esquema de funciones densidad de probabilidad para una señal M-aria de por


ejemplo 4 niveles se presenta en la figura 2.13:

pY(y/H0) pY(y/H1) pY(y/H2) pY(y/H3)

-3A/2 -A -A/2 0 A/2 A 3A/2 y

Figura 2.13.

Los umbrales de decisión se determinan suponiendo que todos los valores son
igualmente probables de forma que se encuentran ubicados en el punto medio de los
valores medios de cada función densidad de probabilidad. Los umbrales se encuentran
en  A , 0 y + A .
Los símbolos no tienen la misma probabilidad de error. Para los símbolos de los
extremos izquierdo y derecho:

 A 
Pe 0 = Pe 3 = Q   (2.64)
 2σ 

Mientras que para los símbolos de la zona media:

28
 A 
Pe1 = Pe 2 = 2Q   (2.65)
 2σ 

La probabilidad de error resultante es entonces:

1  A   A  3  A 
Pe = 2Q   2 x 2Q  = Q   (2.66)
4   2 σ   2 σ  2  2 σ 

Extendiendo este resultado a una señal de M valores posibles, siendo M  2 n , con


umbrales de decisión ubicados en y = 0, A, 2A, ...,[(M-2)/2]A:

1   A   A   1   A 
Pe = 2Q 2 σ   2(M  2 )Q 2 σ  = 21- M Q 2 σ  (2.68)
M         

La expresión coincide con la de la probabilidad binaria si M  2 . Para relacionar esta


expresión con la anteriormente dada para la relación señal ruido, se calcula la energía
promedio por símbolo M-ario:

EM = E 



ak2 p 2 (t)dt = a k2 


p 2 (t)dt = a k2 τ eq (2.69)

El valor medio de ak2 se evalúa según la expresión:

2
1 M/ 2
2 A M 2 1 2
a k2 =  ak2 P(ak ) = 2  ( 2 i-1 )   = A (2.70)
k M i 1 2  12

Relacionando estas expresiones con la ecuación (2.69)

12E M
A2 = (2.71)
τ eq (M 2  1 )
Por analogía con la expresión:

S R =E b r b (2.72)

Se tendrá:

S R =E M r (2.73)

Luego:
2
 A  3E M 3 SR
   2 2
= 2
(2.74)
 2σ  (M -1 )τ eq σ (M -1 )τ eq r N R

2
 A  6 SR
   2
(2.75)
 2σ  (M - 1) ηr

29
Cuando se considera el caso del filtro adaptado:

η
NR =
2τ eq

Se obtiene el valor máximo de la expresión (2.75). Las expresiones derivadas para la


probabilidad de error de una señalización M-aria pueden ser relacionadas con la
probabilidad de error binaria correspondiente. Este calculo de la probabilidad de error
depende de la forma en que se establece la correspondencia entre los símbolos M-
arios y la información binaria. Cuando se emplea la asignación del código Gray, es de
esperar que si la relación señal-ruido es aceptable, cada símbolo se confunda con uno
de los dos mas próximos, de forma que el error de una palabra a la otra se traduzca
en el error de un solo bit. Distinto seria el caso por ejemplo de la asignación con
código natural, donde el error de un símbolo al vecino pude significar uno o mas
errores binarios. Para la codificación con código Gray, en presencia de una relación
señal ruido aceptable se puede decir que:

Pe
Pbe  (2.76)
log 2 M

Donde Pe es la probabilidad de error M-aria, Pbe es la probabilidad de error binaria


correspondiente, y M el número de niveles. Combinando esta expresión con la
previamente obtenida para la probabilidad de error M-aria:

2(M - 1)  A 
Pbe  Q  (2.77)
M log 2 M  2σ 

Ejemplo: Comparación entre señalización binaria y M-aria.

Suponga que se tiene un canal con velocidad de señalización fija e igual a 3000 baud,
y una relación señal ruido fija en 400 veces, es decir aproximadamente 20 dB.
Considérese filtro adaptado y uso de pulsos rectangulares NRZ, con lo que r eq  1 .

Por usarse filtro adaptado:

2
 A  3 S 6log M
  = 2    2 2 γb
 2σ  M 1  N R M 1

La siguiente tabla muestra los valores calculados para r  3000 baud y


S / N R  400 ;

M rb Kbps A / 2 Pbe  B ,bits/Hz


-89
2 3 20.0 3.10 1
4 6 8.9 1.10-19 2
8 9 4.4 4.10-6 3
16 12 2.2 7.10-3 4
32 15 1.1 6.10-2 5

30
Si se plantea mantener constante la probabilidad de error y la velocidad de
señalización binaria, puede analizarse cuanto debe aumentarse la potencia de
transmisión para conservar estos parámetros fijos. Esta comparación se hace en la
6
siguiente tabla, en que r b  9000 bits/sec, y Pbe  4.10 .

M r (kbaud) b
2 9.00 10
4 6.00 24
8 3.00 67
16 2.25 200
32 1.80 620

Donde puede verse que para aumentar el numero de niveles con la probabilidad error
binaria y velocidad binaria constante, se precisa aumentar la potencia 60 veces si M
varia de M  2 a M  32 .

31
3 Interferencia Intersimbólica (ISI)

Como se ha dicho en el capitulo 1 el segundo problema a resolver en un sistema


de transmisión en banda base es el efecto de la interferencia que un símbolo de la
secuencia puede generar sobre el otro. Para una señal de la forma:


x(t) = a
k = 
k p(t - kD) (3.1)

y de acuerdo a la figura 1.3, la señal recibida después del proceso de filtrado viene
dada por la expresión (1.11) que se repite aquí por claridad:

y(t K ) = aK +  a k ~
p (KD - kD) + n(t K )
k K

Donde se observa que la muestra aK esta afectada por un término de ruido y otro
de interferencia.
El efecto de la interferencia puede ser analizado en un osciloscopio. Cuando se
observa una secuencia de valores de información digital modulados en una señal
PAM se produce lo que se denomina el patrón de ojo.

Distorsión de cruce por cero

ISI Margen de ruido

Tiempo de muestreo óptimo


Figura 3.1.

Algunos parámetros de importancia pueden verse en el diagrama. Este dibujo es


resultado de la traza memorizada de una secuencia de pulsos. El efecto de la ISI
es producir la cerrazón del ojo.
El sistema se ve empeorado en cuanto al margen de ruido, así como también en la
determinación del sincronismo, como resultado del efecto de la interferencia.
Se analiza el diseño del sistema para la eliminación de este efecto.

3.1 Diseño de Señales limitadas en banda para cero ISI. El criterio de


Nyquist

La expresión (1.11), repetida en esta sección por claridad, esta constituida por
muestras de la señal recibida, que se encuentra afectada en general por el filtro de

32
transmisión, el de recepción, y la respuesta en frecuencia del canal. La remoción
del efecto de ISI se consigue si se hace:

~
p (KD - kD) = 0
Para K  k (3.2)
~
p (0)  0.

donde ~
p (t) es el pulso deformado o recibido. Para utilizar pulsos normalizados se
impone la condición:

~
p (0) = 1 (3.3)

Esto significa que el sistema de transmisión-recepción, incluyendo los efectos


distorsivos del canal debe generar una forma de pulso recibido tal que:

~ 1 k=0
p (kD) =  (3.4)
0 k 0

~
Se determinaran las condiciones necesarias y suficientes para P ( f ) de forma que
~
p (t) cumpla con las condiciones (3.4). Este criterio se denomina criterio de
conformación de pulsos de Nyquist para la condición de cero ISI. Se enuncia a
continuación:

Teorema: La condición necesaria y suficiente para que ~


p (t) cumpla:

~ 1 k=0
p (kD) = 
0 k 0

~( f ) satisfaga:
es que la transformada de Fourier P


 m
 P~ f  D  = D
m  
(3.5)

~(t) se calcula por transformada de Fourier:


El espectro del pulso p

 ~
~
p (t) =  P(f)e j 2  f t df (3.6)


que en los instantes de muestreo t k  kD se convierte en:

 ~
~
p (kD) =  P(f)e j 2  f k D df (3.7)


Se expresa la ecuación (3.7) como:


~ ( 2 m 1 ) / 2 D
~(f)e j 2π f k D df
p (kD) = 
m=  
( 2 m 1 ) / 2 D
P (3.8)

33

~ 1 / 2D
~(f + m )e j 2π f k D df
p (kD) = 
m=  
1 / 2 D
P
D
(3.9)

1 / 2D   ~ m 
~ P  f  .e j 2 f k D df
p (kD) = 
1 / 2 D 
 D 
(3.10)
 m=   

~
p (kD) = 
1 / 2D
Z ( f )e j 2  f k D df (3.11)
1 / 2 D

donde


 m
Z( f )   P~ f  D 
m= 

La función Z( f ) es periódica en D , y puede ser expandida como serie de Fourier:


Z(f) = z k e j 2π f kD
(3.12)
k=  

1/ 2D
zk = D Z(f)e  j 2 π f k D df (3.13)
 1 / 2D

Comparando esta expresión con (3.11) se obtiene:

z k = D~
p (-kD) (3.14)

Con lo que las condiciones (3.4) se obtienen si:

D k =0
zk =  (3.15)
0 k 0

Esto significa que:

Z(f) = D (3.16)

O sea:


 m
 P~ f  D  = D
m  

Que es finalmente lo enunciado por el teorema.

Si el contenido espectral de la señal a transmitir esta limitado a un valor W , se


pueden plantear tres casos:

1 1
1. Caso D < (equivalentemente > 2W ).
2W D


 m ~
La sumatoria  P~ f  D 
m  
se transforma en una secuencia de espectros P ( f ) no

solapados entre si, separados 1 / D , como se ve en la figura 3.2. Es imposible

34

 m
asegurar la condición  P~ f  D  = D ,
m  
de forma que no es posible diseñar un

sistema sin ISI en estas circunstancias. La velocidad o cadencia de pulsos


caracterizada por el intervalo de tiempo D es demasiado rápida para el ancho de
banda disponible.

Z(f)

-1/D-W -1/D -1/D+W -W 0 W 1/D-W 1/D 1/D+W


Figura 3.2.

1 1
2. Caso D = (equivalentemente = 2W ). En este caso se verifica que el
2W D
sistema opera a al velocidad de Nyquist.

Z(f)

-1/D 0 W=1/2D 1/D

Figura 3.3.

Las formas espectrales están en el limite del solapamiento. Esto indica la mayor
velocidad posible de señalización para evitar ISI. En realidad se encuentran
dibujados espectros de forma triangular, pero la condición (3.4) puede cumplirse
para un solo caso, que es el espectro de forma rectangular dado por:

~(f) = D
P
| f |<W
(3.17)

0 otro valor de f

expresado también como:

~(f) =   f 
P (3.18)
 2W 
 

que en el dominio del tiempo equivale al pulso sinc :

~
p (t) = sinc t/D  (3.19)

Donde la máxima velocidad de señalización viene dada por D  1 / 2W  . Es posible


la transmisión sin ISI a una velocidad r  1 / D  2W . Esta expresión coincide con
la previamente dada r  2 B , cuando el ancho de banda del canal de transmisión
coincide exactamente con el ancho de banda de la señal resultante W . Sin

35
embargo, el pulso sin c( rt ) no es apropiado para la transmisión. Primeramente por
que se extiende desde - a +, y en segundo lugar por que no converge
apropiadamente, ya que las colas de p( t ) decaen solo con 1 / t .

1 1
3. Caso D > (equivalentemente < 2W ).
2W D

Z(f)

1/D-W W 1/D

Figura 3.4.

Cuando D  1 / 2W  , aparecen numerosos casos de cumplimiento de la condición


(3.4). En este caso si se trabaja con pulsos limitados en banda tales que:

W B (3.20)

Se suele expresar el ancho de banda a utilizar, B , como:

r
B= β
2
(3.21)
r
0β
2

Esta configuración del espectro permite señalización a velocidades entre:

B  r  2B
(3.22)
r = 2(B - β )

Puede demostrarse que si la forma del pulso es:

p(t) = p β (t)sinc(rt) (3.23)

36
Figura 3.5. ( = 1).
siendo:

F[p β (t)] = Pβ (f) = 0 si | f |> β (3.24)

El gráfico presenta el espectro Pβ ( f ) para β  1 . La forma de onda posee cruce


por cero en los instantes de muestreo correspondientes a los otros valores de la
secuencia de pulsos. Este tipo de pulso hará que p( t ) este de acuerdo con las
condiciones (3.4).

En general se cumplirá que:

1 f 
P (f) = Pβ (f) *      (3.25)
 r r 

Y como resultado de la convolución entre espectros, el ancho de banda será la


r
suma de los anchos de banda correspondientes: B =  β . Este tipo de pulso esta
2
de acuerdo con la expresión (3.5).
Existen muchas funciones como la descripta que cumplen las condiciones
establecidas. En general se adopta p β ( t ) como función par, de forma que Pβ ( f )
tiene simetría par, y P ( f ) simetría vestigial alrededor de  r / 2 . Debe tenerse en
cuenta que las conclusiones obtenidas acerca del pulso conformado de Nyquist se
aplican en realidad a la forma de onda resultante del filtrado producido por el filtro
del sistema transmisor, mas el filtrado originado por el canal, en el caso que la
respuesta del canal no fuera plana en el ancho de banda de interés, y el filtrado
aplicado a la entrada del receptor. El pulso resultante debe ser un pulso de las
características propuestas, pulso que se denomina de Nyquist.
Cuando se considera que el filtro es plano, y que el transmisor y el receptor
aplican un filtro rectangular de ancho e banda mayor o igual que el de la señal,
entonces todas las propiedades corresponden al pulso transmitido.
La forma de onda sugerida en la ecuación (3.23) tiene como característica el
asegurar la condición (3.4), es decir tiene cruces por cero en los instante de
muestreo correspondientes a los demás pulsos. ( t k  kD , k  0 ). Por otro lado
es al mismo tiempo un pulso limitado en banda, como se planteo inicialmente.
Existen varias formas de onda que cumplen estas condiciones. Una forma de onda

37
típica para p  ( t ) es el llamado coseno rollof, cuya transformada de Fourier tiene
la forma:

π  πf   f 
Pβ (f) = cos      (3.26)
4β  2 β  2 β 

efectuando la convolución:

1 r
r | f |< β
2

1 π  r  r r
P(f) =  cos 2  |f | - + β  β  | f |< + β (3.27)
r 4β  2  2 2
 r
0 | f |>  β
 2

que tiene como forma de onda en el tiempo:

cos 2 π β t 
p(t) = sinc (rt) (3.28)
1  (4 β t ) 2

forma de onda que decae como 1 / | t |2 cuando t es lo suficiente mente grande.


El caso β  r / 2 se conoce como el coseno de 100% de rollof, y tiene como
característica presentar ceros adicionales en los intervalos  1.5 D,2.5 D,... etc. En
este caso el espectro del pulso conformado adopta la forma del coseno levantado,
caracterizado por:

1  πf  1   πf 
P(f) = cos 2   = 1 + cos   |f | r (3.29)
r  2r  2r   r 

Figura 3.6.

Mientras que en el tiempo la forma de onda es como se expresa en la ecuación


3.30, y se ve en figura 3.7.

38
sinc( 2 r t)
p(t) = (3.30)
1  (2 r t)2

Figura 3.7.

Una señal polar que emplee este tipo de pulsos presentar cruces por cero en los
puntos medios de los intervalos. Este pulso provee una señal de sincronismo pero
lo hace a expensas de la reducción de la velocidad de señalización a r = B.
El pulso conformado de Nyquist cumple las ecuaciones (3.4) y (3.5), y es un tipo
de pulso que puede implementarse en la práctica. Cuando se emplean dispositivos
programados digitalmente, como los DSP (Digital Signal Processors) la forma de
onda se almacena en valores muestreados para luego ser generados a la salida por
conversión digital-analógica. En este caso los valores a almacenar incluyen las
colas del pulso, que se anulan rápidamente, haciendo que el archivo
correspondiente de muestras sea bastante limitado. De acuerdo a valor adoptado
de rollof, la velocidad de señalización podrá ser establecida según la ecuación
(3.22), entre B y 2 B .

3.2 Filtros terminales óptimos

Se considera el diseño de un sistema completo en banda base. Se pretende


obtener como resultado un sistema diseñado para minimizar la probabilidad de
error transmitiendo pulsos que no provoquen ISI, y que sean transmitidos a la
mayor velocidad posible.
El filtro adaptado ya analizado se diseña de forma de maximizar la relación señal
ruido en la detección. Se verifica en ese caso que no se produce ISI, pero no se
maximiza la velocidad de transmisión, obviamente por que el diseño se realiza
desde el receptor. La forma de onda entrante al sistema esta impuesta por otras
condiciones.
En el caso del diseño de los filtros terminales óptimos se tendrá en cuenta lo
siguiente:

1. Se emplea señalización con formato polar de símbolos a k no correlacionados e


igualmente probables.

2. El canal de transmisión es lineal pero no necesariamente sin distorsión.

39
3. El pulso recibido es un pulso de Nyquist.

4. Se considera que el ruido es aditivo, de valor medio cero, y potencia σ 2 .

El sistema a diseñar se ve en la figura 3.8:

x(t) Gn(f) y(t)

HT(f) HC(f) + HR(f)

Figura 3.8.

HT ( f ) es la transferencia del filtro del transmisor.


H C ( f ) es la transferencia del canal.
H R ( f ) es la transferencia del filtro del receptor.

La señal de entrada tiene la forma de una señal modulada en amplitud de tipo


polar:

x(t) =  a k p x (t - kD)
k

cuya densidad espectral de potencia es:

G x (f) = r a2 | Px (f) | 2 (3.31)

donde :

Px (f) = F[p x (t)] (3.32)

el valor de σ a2 para el formato polar elegido esta dado por:

M2 -1 2
σ a2 = a k2 = A (3.33)
12

La potencia de la señal transmitida se puede expresar en función de la


transferencia del filtro de transmisión y la densidad espectral de potencia de la
señal transmitida:


ST =  G x (f) | HT (f) | 2 df (3.34)


M 2 -1 2 
ST = A r  | Px (f) |2 | H T (f) | 2 df (3.35)
12 

El efecto de filtrado conjunto de los filtros de transmisión y recepción, unido al


efecto del canal sobre el pulso transmitido, deben generar finalmente una forma
de onda y ( t ) que sea un pulso de Nyquist. La forma de onda del pulso debe ser la
de un pulso de Nyquist p( t  t d ) , con un cierto retardo td .Luego:

40
Px (f)H T (f)H C (f)H R (f) = P(f)e -j ω td (3.36)

Donde P ( f ) es el espectro de un pulso de Nyquist. El pulso transmitido no


necesariamente debe ser un pulso de Nyquist. El pulso recibido es el que debe
cumplir esa condición.
La potencia de ruido que ingresa al sistema es la integral:


N R = σ 2 =  Gn (f) | H R (f) |2 df (3.37)


Nuevamente el concepto a aplicar será el de maximizar la relación señal ruido pero


teniendo en cuenta que el pulso a la salida debe ser un pulso de Nyquist.

Como:

| P(f) |
| HT (f) | = (3.38)
| H C (f)H R (f)Px (f) |

Se obtiene:

12.ST 1
A2 = (3.39)
(M 2 - 1)r 
| H T (f)Px (f) | 2 df



Y la relación señal ruido será entonces:

2
 A  3ST 1
  = (3.40)
 2  (M 2 - 1)r   | P(f) | 2
 | H R (f) | 2 Gn (f) df  df
 
| H C (f)H R (f) | 2

Maximizar A / 2σ 2 significa minimizar el producto de las integrales del


denominador de (3.40).
Aplicando entonces:

  
|  V ( f )W * ( f )df |2   | V ( f ) | 2 df  | W ( f ) | 2 df (3.41)
  

Se concluye nuevamente en que la condición buscada se cumple si existe


proporcionalidad entre los términos de la ecuación (3.41):

| P(f) | 2
g2 2
= | H R (f) | 2 Gn (f) (3.42)
| H C (f)H R (f) |

g | P(f) |
| H R (f) | 2 = (3.43)
| H C (f) | Gn (f)

| P(f) | Gn (f)
| H T (f) | 2 = (3.44)
g | Px (f) | 2 | H C (f) |

41
Que son las expresiones de las transferencias de los filtros terminales óptimos. El
filtro de transmisión enfatiza las frecuencias para las cuales el ruido es mas alto,
mientras que el filtro de recepción realiza la función contraria.
La relación señal ruido maximizada resulta ser entonces:

2
 A  3ST 1
  = 2 2
(3.45)
 2  max (M - 1)r   | P(f) | G (f) 
n
  df 
 | H C (f) | 

Si se considera que el ruido es blanco, G( f )  η / 2 , y que el canal no produce


distorsión,
| H c ( f ) |2  1 / L :

2
 A  6ST 1
  = (3.46)
2
 2  max L.(M - 1)r 

| P(f) | df 
2

Como ST / L  S R y los pulsos son conformados de Nyquist:

 
 | P(f) | df =  P(f) df = p(0) = 1 (3.47)
 
2
 A  6 S R 6(log 2 M) S R 6(log 2 M) E b 6(log 2 M)
  = 2
= = = γb (3.48)
 2 σ  max (M - 1) ηr (M 2 - 1) ηr b (M 2 - 1) η (M 2 - 1)

Si por ejemplo M  2 , la ecuación (3.48) resulta ser igual a 2γ b , como se dedujo


para el caso del filtro adaptado. El filtro adaptado es un caso particular del diseño
de filtros terminales óptimos, cuando la forma de onda del pulso recibido esta
impuesta, y no puede modificarse las condiciones sobre el transmisor. En el diseño
de filtros terminales óptimos se cuenta con mayor grado de libertad para diseñar
el sistema, y se puede entonces realizar el mismo buscando no solo maximizar la
relación señal ruido sino también controlar la ISI para máxima velocidad de
señalización.

3.3 Ecualización

Las limitaciones practicas en la implementación de los filtros óptimos y partes del


sistema generan la aparición de ISI. En particular el diseño se dificulta cuando la
transferencia del canal no es completamente conocida, y se debe asumir un
modelo aproximado para el mismo.
Debido a esto se suele emplear ecualización del canal por medio del uso de un
filtro de entrada, de características digitales, como el que se ve en la figura 3.9:

42
~
p (t )

D D D D D

c N c  N 1 c N 2 c N 3 c N 4 cN

+
peq (t )

Figura 3.9.

El filtro ecualizador es denominado filtro transversal, y es en general un filtro


digital de 2 N  1 etapas de retardo total 2 ND . Los coeficientes c i son las
variables de diseño.
El pulso recibido ~
p (t) tiene un pico en t  0 e interferencia intersimbólica a ambos
lados del centro. El ecualizador genera un pulso ecualizado p eq ( t ) :

N
~
p eq (t) = c
n= -N
n p (t - nD - ND) (3.49)

peq (t) = c - N ~
p (t) + c - N+1 ~
p (t - D) + c - N +2 ~
p (t - 2D) + ... + c N ~
p (t - 2ND) (3.50)

La muestra en el instante t k  kD  ND es igual a:

N N
~(kD - nD) = ~
p eq (t k ) = p eq (kD + ND) = c
n = -N
n p c
n = -N
n pk - n (3.51)

El pulso de salida tiene la forma de una convolución discreta. Para eliminar la


interferencia intersimbólica se desea que:

1 k=0
p eq (t k ) =  (3.52)
0 k =  1,2, ... ,  N

Esta condición de cruce por cero para los N valores en los instantes de muestreo
se transforma en un sistema de ecuaciones:

43
c -N ~p0 + c - N+1 ~
p -1 + c -N +2 ~
p- 2 + ...+ c N ~
p - 2N = 0 k=-N
~ ~ ~ ~
c - N p1 + c -N +1 p0 + c - N+ 2 p-1 + ... + c N p - 2N+1 = 0 k = - N +1
.
(3.53)
c -N ~ ~ +c
pN + c - N+1 p N -1
~ ~
- N + 2 p N - 2 + ... + c N p - N = 1 k=0
.
c -N ~
p2N + c - N+1 ~
p 2N -1 + c - N+ 2 ~
p 2N -2 + ... + c N ~
p0 = 0 k = N

Que puede representarse como una matriz:

~ p0 ... ~
p- 2N  c - N  0 
 . ... .   .   . 

~pN -1 ... ~   c  0 
p -N -1 -1
~ ~    
 pN ... p- N . c 0   1  (3.54)
~p ... ~
p -N +1   c1  0 
 N +1    
 . ... .   .  .
~ p0   c N  0 
~
 p2N ...

Esta ecualización será fija, una vez determinado el valor de los coeficientes c i .
También es posible implementar una ecualización dinámica en el tiempo, de
acuerdo a las condiciones variantes del canal. En este caso se necesita realizar una
estimación del mismo.

3.4 Diseño de señales limitadas en banda con ISI controlada. Señales de


respuesta parcial

Se ha analizado previamente que para la transmisión practica de señales sin ISI


debe reducir la velocidad de transmisión del sistema por debajo del valor teórico
limite r  2 B  2W cuando el ancho de banda de transmisión coincide con el de la
señal. Sin embargo, el limite r  2 B puede alcanzarse si se transmite la señal con
un cierto grado de ISI controlada.
Se analizo en las secciones anteriores que para la transmisión de señales sin ISI
era suficiente asegurar que ~ p( kD )  0 si k  0 . El segundo criterio de diseño
consiste en permitir que exista un valor adicional no nulo para ~
p(kD) .
La cantidad de ISI adicionada es controlada. El criterio puede expresarse entonces
como:

~ 1, k = 0,1
p (kD) =  (3.55)
0 otro valor de k

Lo cual significa que, de acuerdo a las expresiones (3.14) y (3.15), zk adopta los
valores:

D k=0 , -1
zk=  (3.56)
0 otro valor de k

La función Z( f ) se convierte entonces en:

Z(f) = D + D.e  j 2 π f D (3.57)

44
De la misma forma que se analizo previamente, esta condición no es posible para
D  1 / 2W . Sin embargo, si D  1 / 2 B  1 / 2W , se obtiene:

πf
1  j
B

~  1 + e , |f | B
P(f) =  2B   (3.58)

0 otra frecuencia

 1  j π2 Bf π f 
~  e cos , |f|  B
P(f) =  B  2B  (3.59)
0 otra frecuencia

Luego puede determinarse la forma de onda del pulso en el tiempo:

~
p(t) = sinc(2Bt) + sinc(2Bt - 1) (3.60)

Figura 3.10.

Este pulso se denomina pulso de señal duobinaria. La forma del espectro asociada
a este pulso es adecuada para su diseño, debido a que no contiene variaciones
bruscas respecto de la frecuencia.
Luego, es posible señalizar en este caso a r  2 B  2W . Otro tipo de pulso que
también es realizable se obtiene si se hace:

1 k =1
~ 
p (kD) = - 1 k = -1 (3.61)
0 otro valor de k

para este caso la forma del pulso en el tiempo es:

45
~ t + D t - D
p (t) = sinc    sinc   (3.62)
 D   D 
Y su espectro es:

πf πf
1  j j  j π f 
~  e B
e B   sin  , |f |B
P(f) =  2B   B  B  (3.63)

0 otra frecuencia

Esta forma de pulso se denomina pulso de señal duobinaria modificado.

El pulso doubinario puede ser generado por un esquema como el de la figura 3.11:

(t)
+ LPF, B

1/2B
D

Figura 3.11.

Si el pulso de entrada es una δ el sistema de la figura genera un pulso de tipo


duobinario.

~(f) = 1 H (f)   f 
P (3.64)
2B
1  2B 
 

H1 (f) = 1 + e  j 2 π f D (3.65)

~(f) = 1 1 + e  j 2 π f D   f 
P (3.66)
2B  2B 
 
πf
~(f) = 1 e  j B  πf   f 
P cos     (3.67)
B  2B   2B 

donde se hizo D  1 / 2 B .

La forma de onda en el tiempo puede ser escrita entonces como:

~
p (t) = sinc(2Bt) + sinc 2B(t - D) (3.68)

Que representa dos funciones sinc( x ) desplazadas y sumadas. Este es el


mecanismo por el cual se transmite una forma de onda de la que se dice se tiene
ISI controlada. La forma de onda que se transmite tiene los valores deseados en
los dos instantes de muestreo en que el teorema requiere que la señal sea no nula
( k  0 y k  1 ). La forma de onda transmitida es la suma de las dos funciones
sin c , y debe ser muestreada en esos instantes.
Este planteo puede generalizarse a una configuración de n etapas. La respuesta
del sistema entero a una entrada del tipo δ ( t ) debe generar la forma del pulso

46
que las condiciones modificadas expresadas en la ecuación (56) sugieren. El
esquema general del sistema de transmisión con señalización de respuesta parcial
y codificación correlativa se muestra en la figura 3.12:

mk mk' x(t ) y (t ) mk
Precodifcador Regenerador
 H ( f )T H C ( f ) H R ( f )

Figura 3.12.

La señal x( t ) esta compuesta por una secuencia de valores discretos que son peso
de una serie de funciones δ .

x(t) =  a k δ (t - kD) (3.69)


k

El bloque o transferencia total H C ( f )H R ( f )HT ( f ) se construye con un filtro digital


de N etapas y retardo ND que resulta ser una generalización de la transferencia
del pulso duobinario presentada anteriormente. Dicho filtro digital representa
idealmente la multiplicación de las transferencias de filtros reales que deben ser
diseñados de acuerdo a la forma de la transferencia total del filtro digital, es decir,
representa el efecto combinado de las transferencias HT ( f )H C ( f )H R ( f ) .

x(t )
D D D D D

c0 c1 c2 c3 c4 cN

+
y (t )
LPF,
B = r/2
Figura 3.13.

La salida del sistema tiene la forma de la función y ( t ) :

y(t) = a
k
k h(t - kD) (3.70)

Donde h( t ) es la antitransformada de la función transferencia total del filtro:

h(t) = F -1 [HT (f)H C (f)H R (f)] (3.71)

47
La combinación de las transferencias de todos los filtros del sistema debe estar de
acuerdo con la condición impuesta al pulso que se detecta en la forma de onda
y( t ) .
De esta forma, una secuencia de δ' s que pasan a través de un filtro pasabajos
ideal de ancho de banda r / 2 crean la respuesta final. La respuesta a cada función
δ de entrada viene dada por:

h(t) = c 0 sinc(rt) + c1 sinc r(t - D) + c 2 sinc r(t - 2D) + ... + c N sinc r(t - ND) (3.72)
N
h(t) =  c n sinc rt - n  (3.73)
n =0

como y ( t ) se compone de la sumatoria de respuestas a diferentes δ' s aplicadas a


la entrada:

N 
y(t) =  a k h(t - kD) =  a k   c n sinc rt - n - k  (3.74)
k k  n= 0 

y(t) =  a k, sinc(rt - k) (3.75)


k

siendo ak'

N
a k, = c 0 a k + c1 a k -1 + ... + c N a k - N =  c n a k - n (3.76)
n= 0

La señal puede expresarse entonces como la sumatoria de funciones sinc( x )


afectadas por un coeficiente ak' . Este coeficiente resulta ser la convolución discreta
entre los coeficientes del filtro que genera la codificación correlativa y los valores
ak relacionados con la información original. En general se podrá decir que si el
alfabeto original de la señal de valores ak tiene M niveles, el conjunto de valores
ak' tendrá M'  M niveles.
El caso de señalización duobinario tiene como parámetros M  2 ,N  1 y
c 0  c1  1 .
En este caso el filtro correlativo de forma general se reduce a la forma presentada
en figura (3.13), a su vez definida por las expresiones (3.67) y (3.68).

En este caso B  r b / 2 .

En este tipo de señalización suele utilizarse lo que se denomina precodificación. La


ley de precodificación altera los valores de mk' de forma tal que:

 A/2 si m k, = 1
a k = (m k, - 1/2)A =  (3.77)
- A/2 si m k, = 0

El valor recuperado de y (t ) muestreado en el instante correspondiente t k ,


y (t k ) será:

y(t k ) = ak, = ak + ak -1 = (m k, - 1/2)A + (m k, -1 - 1/2)A = m k, + m k, -1  1A (3.78)

48
A m k, = m k, -1 = 1

y(t k ) = 0 m k,  m k, -1 (3.79)
 , ,
- A m =m
k k -1 =0

La detección de los diferentes valores  A , 0 o  A permite conocer la relación


entre los valores de mk' y mk' 1 . Podría entonces decodificarse el sistema si se
conoce el valor anterior detectado. Sin embargo esto genera propagación de
errores. Para evitar la propagación de errores se emplea usualmente la
codificación diferencial.

3.5 Codificación diferencial

Cuando se trata de evitar la propagación de errores originada por sistemas que


necesitan conocer el valor anterior al detectado se emplea la codificación
diferencial. Este sistema se muestra en al figura 3.14:
mk
mk’
mk-1’

retardo D

Figura 3.14.

La señal mk' se genera de acuerdo a la expresión:

m k, = mk  m k, -1 (3.80)

Se puede confeccionar una tabla con los valores de mk' , mk' 1 y mk .

mk mk' 1 mk' m '


k 1  mk'  1 A 
0 0 0 -A
0 1 1 A
1 0 1 0
1 1 0 0

El valor 0 Volt corresponde a m k  0 , mientras que los valores  A corresponden a


m k  1 . De esta manera puede detectarse el valor del bit correspondiente sin
necesidad de conocer el valor anterior de la secuencia, que puede tener un error.

Luego:

49
 A si m k  0
y(t k ) = a k, =  (3.81)
0 si m k  1

La decisión se determina comparando el valor recibido con A / 2 :

m k = 0 si | y | > A/2
(3.82)
m k = 1 si | y | < A/2

50
4 Modulación por pulsos codificados. PCM (Pulse-Coded Modulation)

Como se ha dicho hasta ahora la forma de onda de la señal de uso en transmisión


digital obedece a la expresión (1.1). La transmisión de señales analógicas en forma
digital se realiza a través de la conversión de tales señales en una secuencia de
valores discretos que se adapta a la forma expresada en ecuación (1.1). Dicho
proceso de conversión es analizado en este capítulo.
Son varias las ventajas originadas por la transmisión digital de señales. En particular
la misma puede ser codificada y comprimida, con lo cual se permite entonces la
corrección de errores y la reducción de ancho de banda respectivamente. Se
implementa mas fácilmente técnicas para proporcionar a una señal transmisión con
privacidad. El uso de repetidores regenerativos permite la transmisión en largas
distancias. Algunas limitaciones de este proceso de digitalización son la expansión del
ancho de banda y el ruido de cuantificación propio del sistema.

4.1 PCM

El componente principal del transmisor del sistema PCM lo constituye el conversor


analógico a digital (ADC) mientras que el receptor esta constituido básicamente por
un conversor digital a analógico (DAC).

4.1.1 Generación y reconstrucción de la señal PCM

En la figura 4.1 vemos el diagrama en bloques del transmisor PCM.

x( kTs ) xq ( kTs )  dígitos


x(t )
Filtro Muestra y q Cod. Conv.
pasabajos retención M-ario Par/Serie

f s  2W
Temp.

Figura 4.1.

La señal de entrada es filtrada para poder ser muestreada a una velocidad f s  2W


sin provocar aliasing.
La salida del bloque de muestra y retención es una forma de onda en escalera con
valores x( kTs ) . Un cuantificador adopta el valor mas próximo dentro de un juego de
q niveles. La salida de este bloque sigue siendo una forma de onda en escalera de
valores discretos conocidos. En este proceso de cuantificación se produce una
distorsión de la señal que se caracteriza por el así llamado ruido de cuantificación. El
codificador M-ario toma la señal descripta y la convierte en una palabra digital de υ
dígitos que se conforma en salida serie para ser finalmente transmitida por el canal.
Se considera que la señal x( t ) que ingresa al sistema esta normalizada de forma que
| x( t ) | 1 Volt.
El cuantificador tiene una función transferencia que es graficada en figura 4.2. Los 2
Volts de rango dinámico de tensión son cuantificados en q niveles de 2 / q Volts cada
uno.

51
xq(kTs)
5/q

2/q 3/q

1/q

2/q 4/q x(kTs)

Figura 4.2.

x(t), x(kTs)

Figura 4.3.

La figura 4.3 muestra la forma de onda de una señal x( t ) y la forma de onda


resultante del muestreo y retención sobre la misma. Esta escalera de valores es
tomada por el cuantificador, que representa cada muestra por un valor cuantificado
establecido por la transferencia de la figura 4.2.
Los niveles cuantificados se asignan a valores  1 / q ,3 / q ,...,( q  1 ) / q .
Normalmente q es un entero par. Como un ejemplo, cuando el nivel de x( kTs ) esta
entre 2 / q y 4 / q le corresponde el nivel cuantificado 3 / q . La figura 4.4 muestra
como se obtiene x q ( kTs ) en función de x( kTs ) .

52
x(kTs), xq(kTs)

5/q

3/q
1/q

Figura 4.4.

El codificador convierte cada muestra cuantificada en una palabra digital. La


conversión debe hacerse antes de la próxima muestra.

Ts t

t
Figura 4.5.

En la figura 4.5 se muestra el caso en que una muestra de la señal cuantificada


xq ( kTs ) se convierte en una palabra digital serie de tres bits, con lo que se deduce
que habría 8 distintos niveles que corresponderían a este conjunto de palabras
digitales. Se requiere en general que para la transmisión de  dígitos existan:

M  q (4.1)

53
En general se adopta:

M  q ,  = log M q (4.2)

Cuando se elige señalización binaria:

2  q ,  = log 2 q (4.3)

Cada muestra es una palabra de υ dígitos. Estos dígitos deben ser transmitidos en
serie a una velocidad r  f s siendo f s  2W . El ancho de banda necesario para
transmitir una señal PCM se convierte entonces en:

r 1
BT   f S  W (4.4)
2 2

BT es igual a W solo en el caso en se transmiten pulsos sinc( t ) , y cuando f s  2W .


Cuanto menor sea el numero de niveles menos exacta es la replica digital respecto de
la señal original, pero menor será también el ancho de banda. Cuanto mayor sea q ,
mejor será la replica de la señal, y mayor el ancho de banda usado.
El receptor de PCM se muestra en la figura 4.6.

señal
PCM
Serie/ Dec. Muestra/ Filtro PB
Reg.
Paralelo M-ario retención W

Temp.

Figura 4.6.

La calidad del proceso de cuantificación determina lo parecido que la señal


reconstruida es respecto de la original. La señal recibida es de tipo digital, con ruido y
posibles errores. El regenerador determina el valor recibido. Luego el receptor realiza
una conversión serie a paralelo. Con los bits ordenados en paralelo el decodificador
determina que nivel de tensión es el que corresponde a esa palabra digital. La señal
decodificada es una forma de onda en escalera que filtrada reproduce la señal
original.

4.1.2 Ruido de Cuantificación

Para el análisis del ruido de cuantificación se simplifica el modelo de la señal


reconstruida planteándolo como una secuencia de funciones  mas que como una
forma de onda en escalera.
La forma de onda recibida es entonces:

54
y δ (t) = x
k
q (kTs )δ ( t  kT s ) =  x(kT
k
s )+ε k δ(t  kTs ) (4.5)

 k representa el ruido o error de cuantificación:

ε k = x q (kTs ) - x(kTs ) (4.6)

A la salida del filtro pasabajos de ancho de banda B  fs / 2 la señal tiene la forma:

y D (t) =  x(kT
k
s )sinc(f s t  k) +  ε (kT
k
k s )sinc(f s t  k) =
(4.7)
x(t)+  ε (kT
k
k s )sinc(f s t  k)

El ruido de cuantificación ε k es en realidad, una variable aleatoria que depende de


x(t ) , de acuerdo a lo expresado en ecuación (4.6). Sin embargo si el numero de
niveles de cuantificación es alto, entonces el error de cuantificación se independiza de
la señal. Se supondrá entonces que el error de cuantificación es independiente de la
señal desde el punto de vista estadístico.
Se denomina ε k2 al valor cuadratico medio del ruido de cuantificación. Se supondrá
que el ruido de cuantificación tiene distribución uniforme y valor medio cero. El rango
de variación de esta variable es:

1 1
  εk  (4.8)
q q

La suposición de la distribución de ruido de cuantificación es exacta cuando la señal


tiene distribución uniforme, ya que el ruido de cuantificación es función lineal de la
misma.

p k ( k )
q/2

-1/q 1/q k
Figura 4.7.

La función densidad de probabilidad el ruido de cuantificación se muestra en la figura


4.7.
Para la misma puede calcularse el valor cuadrático medio como:

1 1/ q 1
σ q2 = ε k2 =  ε 2 dε = (4.9)
( 2 /q) 1 / q 3q 2

55
La potencia de ruido de cuantificación decrece cuando el numero de niveles q
aumenta.
La potencia de recepción en destino viene dada por:

SD = x 2 = S x  1 (4.10)

Luego la relación señal ruido en destino puede expresarse como:

S S Sx
  = x2 = 2
= 3q 2 Sx (4.11)
N
 D σ q ( 1 / 3 q )

Si el numero de niveles se expresa como una potencia de 2:

q = 2 (4.12)
luego:
S 2
  = 10 log10 ( 3( 2 )S x ) =  4.8 +6.0  [dB] (4.13)
 N D

El limite superior de esta expresión se presenta cuando la potencia de la señal


normalizada alcanza el valor máximo S x  1 . En este caso y por ejemplo para una
señal PCM de υ  8 dígitos, la relación señal ruido teórica seria de 52.8 dB.
Sin embargo las señales reales tienen un factor de cresta bastante alto. Esto significa
que la señal esta durante la mayor parte del tiempo en valores bajos de tensión, y
alcanza el pico máximo solo pocas veces. Como consecuencia S = σ x2 << 1 , lo cual
produce en la relación señal ruido una reducción importante. Así por ejemplo, y si se
desea tener una relación señal ruido de 60 dB como se había calculado para 8 dígitos,
se necesitaran en realidad 14 dígitos en un caso practico.

4.2 Cuantificación no uniforme y Compansión

Una señal de voz tiene una función densidad de probabilidad típica como la que se ve
en la figura 4.8.

px(x)

-1 +1 x

Figura 4.8.

56
La cuantificación uniforme produce un empeoramiento de la relación señal ruido
porque los valores bajos de tensión tienen mas probabilidad de ocurrencia que los
altos. Se puede realizar una uniformización de la probabilidad de estos niveles si por
ejemplo se cuantifica con un mayor numero de estos sobre el eje x de la figura 4.8,
de forma que puedan agruparse los valores de tensión haciendo que aquellos que son
bajos correspondan a mas palabras digitales, que se discriminan finalmente para
pequeños intervalos de x , mientras que los valores altos de tensión se agrupan
utilizando menos palabras digitales para intervalos mas anchos del eje x . A esto se lo
denomina cuantificación no uniforme.

4.2.1 Cuantificación no uniforme

La cuantificación no uniforme puede realizarse como se describió anteriormente de


forma digital, es decir cuantificando con mayor cantidad de niveles, y agrupando por
programa dichos niveles de forma que lo valores bajos de tensión se dividen en
pequeños intervalos del eje x , figura 4.8, y los mas altos con incrementos de x mas
anchos. Así la probabilidad de las palabras digitales a transmitir tiende a uniformarse.
Otra forma que ha tenido amplio uso es el proceso de la compresión y expansión
analógica de una señal, proceso que abreviadamente se denomina compansión.
Se supone que la señal a transmitir tiene una función densidad de probabilidad como
la que se muestra en la figura 4.9, con valor medio cero, x = 0 y dispersión
σ x2 = Sx = x 2 .

px(x)

-1 +1 x
ai xi bi
Figura 4.9.

Por simetría:

1
S x = 2. x 2 p x (x) dx (4.14)
0

Normalmente esta integral resulta ser S x  1 debido a las características de la señal


de voz.
Se considera una muestra x( kTs ) en la banda de valores ai  x i  bi . el error de
cuantificación se evalúa como:

ei = x i  x (4.15)

que tendrá un valor cuadratico medio:

57
bi
e i2 = 
ai
(x i  x) 2 p x (x) dx (4.16)

Otra vez por simetría, y considerando que los tramos diferenciales dx son lo
suficientemente pequeños, la potencia de ruido de cuantificación es:

q/ 2
σ q2 = 2  ei2 (4.17)
i=1

Cuando el intervalo dx tiende definitivamente a cero ( q  1 ):

x i  hi / 2 hi3
e i2 =  (x i  x) 2 p x (x i ) dx = p x (x i ) (4.18)
x i  hi / 2 12

con lo que :

q/ 2
1
σ q2   p (x )h
x i i
3
(4.19)
6 i=1

El proceso de compansion consiste en alterar analógicamente la señal de forma que


se aplique cuantificación uniforme sobre la señal alterada. De esta manera el
resultado final sobre la señal original es una cuantificación no uniforme. Para una
señal típica, el compresor Z ( x ) esta presentado en la figura 4.10, siendo 0  x  1 .

2/q
Z’(xi)

ai xi 1
bi
Figura 4.10.

La curva tiene simetría impar, de manera tal que en el intervalo  1  x  0 se cumple


Z( x )  Z (| x |) . La cuantificación uniforme de la señal de salida de Z( x ) (eje y) es la

58
cuantificación no uniforme de la señal x . Del lado receptor se necesita hacer una
descompresión de la señal para evitar la distorsión. Al conjunto lo denominamos
compansor.
La relación señal ruido del sistema sigue siendo dada por la expresión (4.11), donde
 q2 corresponde a la ecuación (4.19).
Se intenta obtener el valor de  q2 en función de la curva del compresor.
Para esto se define:

d Z(x)
Z ' (x) = (4.20)
dx

El valor Z ' (x i ) , que es la pendiente de la función en x i , puede aproximadamente


calcularse si se supone que q  1 y hi  1 .

2 /q
Z ' (x i )  (4.21)
hi

2
 2 /q  4
hi2   "  = 2 ' (4.22)
 Z (x i )  q Z (x i )
2
 
Entonces la ecuación (4.19) se convierte en:

q/ 2
4 p x (x i ) 2 1 p x (x)
σ q2   hi   Z (x) dx (4.23)
6.q 2 i =1 Z (x )
'
i
2
3q 2 0 ' 2

La relación señal ruido es:

S S 3q 2 Sx
  = x2  (4.24)
 N D σq Kz

Donde:
1 p x (x)
Kz = 2 dx
0
Z (x)
' 2

Habrá mejora en la relación señal ruido si K z  1 . La relación señal ruido pude


expresarse en función de la transferencia del compresor como:

S  S 3q 2  x 2 p x (x) dx
  = x2  -1
(4.25)
 N D σq 1 p x (x)
 Z (x)
-1 ' 2

Si se cumpliera que:

59
K2
x2 = (4.26)
Z (x)
' 2

La relación señal ruido no dependería de la función densidad de probabilidad de la


señal, con lo que seria constante respecto de los diferentes tipos de señales de voz.
Luego la expresión (4.25) se convertiría en:

S  S 2 2
  = x2  3 q K (4.27)
 N D σq

Resolviendo la expresión (4.26):

K K
x= ; Z' (x) = (4.28)
 '
Z (x)  x

Luego;

Z(x) = K ln (x) + C
Z(x) = K ln (x) + 1 (4.29)
pues Z( 1 ) = 1

Esta función no es realizable, ya que para x  0 , Z( x )   .

Z(x)
1

1 x

Figura 4.11.

Debido a esta limitación se propone una función aproximada que es la denominada


ley μ .

La expresión de la ley μ es la siguiente:

ln 1+ | x | 
Z(x) = (sng(x)) ; |x |  1 (4.30)
ln 1+ 

Derivando:

60
 1
Z ' (x) = (4.31)
ln 1+  ln 1+ | x | 
Puede verse que Z' ( x )  1 si | x | 1 y Z' ( x )  1 si | x | 1 . La pendiente es muy
alta para valores pequeños de x , y tiende a reducirse si x se aproxima a su valor
limite 1.
Realizando la integración:

ln 2 1 + μ 
Kz = 1 + 2 μ | x | + μ 2 S x  (4.32)
μ2

La transferencia de la ley μ se ve en la figura para μ  10 y μ  255 .

 =255

 = 10

Figura 4.12.

La función densidad de probabilidad de la voz se puede aproximar con el modelo de


una distribución de Laplace:

α α | x |
p x (x) = e (4.33)
2

2 1 Sx
Donde S x =  x2 = y | x |= = (4.34)
2  2

Para el valor adoptado en la practica de μ  255 :

61

K z = 4.73.10 - 4 1 + 361 S x + 65025 S x  (4.35)

la relación señal ruido con compansion tiende a independizarse del valor de la


potencia de entrada S x .
Otra ley de compansión aplicada en la practica es la llamada ley A . Esta constituida
por un tramo de tipo exponencial, unido a un tramo lineal en el entorno de x  0 .
La ley A se expresa en la siguiente ecuación:

 Ax
1+ ln (A) 0  x  1 /A

Z(x) =  (4.36)
1+ ln (Ax) 1 /A  x  1
 1  ln (A)

La principal diferencia es que la ley A tiene un tramo lineal en el entorno del origen,
mientras la ley  es continua y de ley logarítmica.
La ley A se emplea en Argentina, y Europa, con A  87 .6
La ley μ se usa en EEUU y Japón, con μ  255 .
Las leyes de compansion son similares pero no compatibles. Un conversor es siempre
necesario entre ambas normas.

4.3 PCM con ruido

La señal generada por un transmisor de PCM es ingresada al canal, donde el ruido


puede afectar los valores de la secuencia, y producir errores. Se analiza entonces el
efecto del ruido sobre la señal transmitida, ruido que se conoce como de
decodificación.

4.3.1 Ruido de Decodificación

La señal transmitida estará entonces afectada por el efecto de la cuantificación y por


el ruido del canal. Se considera el caso de una señal PCM modulada en forma binaria
con cuantificación uniforme y probabilidad de error binaria pequeña. La palabra de
código esta constituida por υ dígitos y el numero de bits erróneos en ella es una
función binomial:

 υ  υ 2
Pew = P1 dig + P2 dig +...+ P υdig = Pe1 (1 - Pe )υ  1 +   Pe (1 - Pe )υ  2 +...  υPe
 1  2
(4.37)

Se considera que la probabilidad de error es aproximada a la que se tiene cuando hay


un solo error en la palabra, dado que la probabilidad de dos o mas errores es
pequeña. El efecto del error tiene mayor o menor influencia dependiendo del lugar
donde se produce el mismo.
Si se considera el uso de código natural y siendo la palabra binaria:

b  1 b  2 ... b1 b0 (4.38)

62
El m-esimo bit representa una amplitud de la señal digitalizada de valor 2 m 2 / q 
Volts. De acuerdo a esto se dice que un error en el m-esimo bit provoca un error en la
forma de onda de amplitud:

2
e m =   2 m (4.39)
q

El valor cuadrático medio de este error esta dado por la expresión:

2
2 1  1
2 m  4  1
4 4  1 4
e =
m

  2  =
q 2
4m = 2
 (4.40)
m=0 q  m=0 q 3 3

La potencia de ruido de decodificación esta dada por el producto entre el numero de


bits errados y este promedio de potencia por bit:

4
 d2 = Pe em2  Pe (4.41)
3

La potencia total de ruido será la suma de la potencia de ruido de decodificación mas


la de cuantificación:

1+4 q 2 Pe
N D = σ q2 + σ d2 = (4.42)
3q 2

Las potencias de ruido se suman por provenir de fuentes descorrelacionadas. De esta


manera la relación señal ruido es igual a:

S 3q 2 Sx
  = 2
(4.43)
 N  D 1+4q Pe

si la probabilidad de error es pequeña la relación señal ruido esta determinada por el


ruido de cuantificación.

S 2
   3q S x Pe << 1 /q 2 (4.44)
N
 D

Si la probabilidad de error es alta:

S 3S x
   Pe >> 1 / 4q 2 (4.45)
 N D 4 Pe

La probabilidad de error Pe esta determinada por la relación señal ruido S / N R a la


entrada del receptor. Cuando el ruido de decodificación es muy alto la relación señal
ruido se deteriora fuertemente, creando l efecto de umbral.

63
4.3.2 Efecto de umbral

El efecto de umbral en PCM se define como el punto en el que la relación señal ruido
en destino se reduce en 1 dB. Sin embargo una definición mas practica es la que dice
que el error de decodificación tiene efecto despreciable si la probabilidad de error es
Pe  10 5 . La expresión de la relación señal ruido en el caso de usar una señal M-aria
con formato polar es:

 1   3 S   -5
Pe = 2 1-  Q  2     10 (4.46)
 M   M  1  N  R 

La función Q(k) es Q(k)  10-5 si k  4.3 . Resolviendo:

S 
   6(M 2 -1 ) (4.47)
 N  R umbral

Si la relación señal ruido esta por debajo de este valor el ruido mutila fuertemente la
señal. Si se relaciona con los parámetros de transmisión analógicos:

SR  B  S 
γ =  T   (4.48)
ηW  W  N  R

El ancho de banda de transmisión es:

r
BT   νW
2

Definiendo γ umbral como;

 B  S  B
 umbral =  T    6 T M -1 
2
6(M 2 -1 ) (4.49)
 W  N  R umbral W

Que es el mínimo valor de γ que puede emplearse en PCM para estar por sobre el
umbral.

4. 4 Modulación Delta y DPCM

Las señales analógicas que son muestreadas presentan en el valor de sus muestras
algún tipo de predictibilidad. La modulación delta aprovecha la posibilidad de
determinar el valor futuro de una determinada señal. Esta predictibilidad tiene en
cierto sentido relación con la posibilidad de que una señal pueda ser comprimida.
Desde este punto de vista, y dado que la señal es comprimible, entonces se puede
aprovechar el hecho de que parte de la señal es conocida del lado receptor,
permitiendo transmitir solo las diferencias que una determinada señal tiene respecto

64
al patrón conocido. En la codificación predictiva, se envían solo los errores de
predicción.
Entre los esquemas mas conocidos aparecen los de modulación delta, (DM, delta
modulation) y DPCM (Differential pulse-code modulation). El primero presenta
simplicidad en el hardware utilizado, mientras que DPCM es algo más complejo en su
estructura.

4.4.1 Modulación Delta

Para una señal analógica x(t) que es primeramente filtrada y muestreada a una
velocidad f s  1 / Ts , se tiene un conjunto de muestras x( kTs ) obtenidas en los
instantes de muestreo t  kTs , de forma que llamaremos por simplicidad
x( kTs )  x( k ) .
Para una velocidad de muestreo mayor que la mínima indispensable, es de esperar
que para señales que ofrecen alto grado de redundancia, como la señal de audio o de
video, la muestra x( k ) sea muy parecida a la muestra anterior obtenida x( k  1 ) .
Esto permite decir, ya hablando de muestras que han sufrido el proceso de
cuantificación, que una razonable estimación o predicción del valor siguiente a
obtener seria:

~
xq ( k )  x q ( k  1)

Esto significa que un simple retardo de valor Ts en el tiempo nos permite calcular el
valor de la predicción ~
x q ( k ) . Existe evidentemente una diferencia entre el valor
predicho y el verdadero valor que puede expresarse como un error:

xq ( k )  ~
xq ( k )   q ( k )

La cantidad  q ( k ) es denominada error de predicción.


Dado que este error es la diferencia entre el valor actual y el anterior, seria posible
transmitir esta cantidad para que sumada a la muestra anterior, permita al receptor
obtener el verdadero valor actual. Este procedimiento seria implementado con un
acumulador como el que se ve en la figura 4.13:

q(k ) xq ( k )

Retardo Ts
~
xq ( k )  x q ( k  1 )

Figura 4.13 Demodulador delta

65
El simple esquema de la figura corresponde a un acumulador, que será utilizado en la
demodulacion delta. Dado que:

xq ( k )   q ( k )  x q ( k  1) (4.50)

y que

xq ( k  1)   q ( k  1)  xq ( k  2 ) (4.51)

entonces

x q ( k )   q ( k )   q ( k  1 )   q ( k  2 )  .... (4.52)

La operación finalmente termina siendo la de un integrador discreto.


El transmisor debe entonces transmitir los errores de predicción, que se originan
como salidas en el rango   , por medio de la aplicación de un comparador y
cuantificador binario, que genera este tipo de salidas.

` x( k )  q ( k )  

_

xq ( k )
Retardo Ts

~
xq ( k )  x q ( k  1 )

Figura 4.14 Transmisor para modulación delta

El transmisor de modulación delta calcula la diferencia entre el valor muestreado


verdadero y la muestra anterior, y cuantifica esta diferencia, dándole forma al error
de predicción.
La señal transmitida es entonces:

 q ( k )  sgn  ( k ) (4.53)

Donde

 ( k )  x( k )  x q ( k  1 )  x( k )  ~
xq ( k ) (4.54)

Desde el punto de vista de la complejidad de hardware, es posible ver que en la


modulación y demodulación delta no hay necesidad de contar con conversores
analógico digitales y digital analógicos, como en PCM.

66
Si se lo compara con PCM, la modulación delta se pude interpretar como una
transmisión digital de un bit por muestra, que tiene una velocidad de señalización
r b  f s . Por esta razón la modulación delta se la suele denominar PCM de un bit. Los
requerimientos de ancho de banda se determinan entonces:

rb fs
BT  
2 2

A pesar de esta aparente simplicidad, el correcto funcionamiento de la modulación


delta requiere de altos valores de frecuencia de muestreo.

x( t )

~
xq (t )

Ts

 q (t )



Figura 4.15 Señales en la modulación delta

En la figura 4.15 se observan las señales x( t ) , ~


x q ( t ) y  q ( t ) . En el inicio,
~
x q ( 0 )  x( 0 ) y el error de predicción es  q ( 0 )    . Este valor es realimentado en el
acumulador para formar la predicción actualizada ~ x (T )  x ( 0 )   ( 0 ) . Este
q s q q

procedimiento continúa hasta que al suceder que ~


x q ( kTs )  x( kTs ) , el error de
predicción resulta ser  q ( kTs )    . La señal diferencia entre x( t ) y ~
x q ( t ) se
denomina ruido granular, y es similar al ruido de cuantificación en PCM:
En la parte final de la señal se observa que la escalera formada como señal
estimadora no consigue alcanzar la señal entrante, dada la rapidez de cambio de la
misma. A esto se lo denomina sobrecarga de pendiente. La sobrecarga de pendiente
se evita poniendo condiciones sobre la pendiente de la señal entrante. Dado que la
señal de predicción ~x q ( t ) se incrementa en   cada Ts segundos, la máxima
pendiente que puede seguir el sistema esta dada por el valor del máximo salto que
pude generar la señal predicha, que es igual a f s  , por lo que el sistema debe ser
diseñado para que:

67
f s  | x´( t ) |max donde x´( t )  dx / dt (4.55)

Para una señal modulante de la forma x( t )  Am cos( 2f m t ) , el valor máximo de la


derivada en el tiempo es | x´( t ) |max  2f m Am . Considerando Am  1 , y un valor máximo
de frecuencia modulante f m max  W , se tiene:

| x´( t ) |max  2W (4.56)

Esto requiere que:

| x´( t ) |max 2W


fs   (4.57)
 

Lo cual significa que f s  2W debido a que   2 , para lograr un seguimiento


adecuado de la señal x( t ) , para la cual consideramos que  1  x( t )  1 .

La modulación delta se ve afectada principalmente por el ruido granular. Un análisis


adecuado requeriría de simulaciones. Analizamos la conducta de esta modulación
teniendo en cuenta el diagrama en bloques de la siguiente figura:

Señal DM con
ruido ~
x q ( t )  x( t )   ( t )
 q ( t  Ts )

Regenerador Acumulador Filtro pasabajos

Figura 4.16 receptor de modulación delta

Teniendo en cuenta que la entrada al acumulador es  q ( t  Ts )   q ( k  1) , la salida


del acumulador es igual a x q ( k  1 )  ~
x q ( k )  x( k )   ( k ) que en el dominio del tiempo
es igual a ~
x q ( t )  x( t )   ( t ) . La señal  ( t ) representa a la forma de onda en el tiempo
de ruido granular. Si se supone que esta señal posee una función densidad de
probabilidad uniforme de amplitudes, y sabiendo que se encuentra en el rango
|  ( t ) |  , el valor cuadrático medio de estas amplitudes es igual a:

2   2/ 3

Se encuentra experimentalmente que el espectro de potencia de la señal  ( t ) es


prácticamente plano en el rango de frecuencias | f | f s por lo que:

2
G ( f )  , | f | f s (4.58)
2fs

68
y luego de filtrar este ruido a través de un filtro pasabajos resulta ingresar una
cantidad de potencia de ruido granular:

W W 2 W 2
Ng   G ( f )df    (4.59)
W fs fs 3

En principio, siendo esta la potencia de ruido existente, la relación señal ruido queda
expresada como:

S Sx 3f
    2 s Sx (4.60)
 N  D Ng  W

Una expresión muy similar a la de PCM siendo f s  2W y   1 / q . Sin embargo es


importante tener en cuenta también el efecto de la sobrecarga de pendiente.
Como es sabido, si G x ( f ) es la densidad espectral de potencia de la señal x( t ) ,
entonces 2f  G x ( f ) es la densidad espectral de potencia de la derivada temporal de
2

x( t ) , x´( t ) . El valor cuadrático medio de las pendientes de la señal x( t ) puede


entonces determinarse haciendo:

| x´( t ) | 2  ( 2f ) 2 G x ( f )df  2W rms 


2
 (4.61)


En la expresión anterior,   S x es la varianza de potencia de la señal y W rms la


varianza de pendiente o ancho de banda de la señal. Este parámetro se define como:

 1/2
1 
W rms   f 2 G x ( f )df 
 (4.62)
    

Resulta conveniente calcular el cociente entre la pendiente máxima de la modulación


delta, y el valor de varianza de pendiente de la señal, y se lo hace definiendo el
parámetro o factor de carga de pendiente:

fs 
s (4.63)
2W rms

Un valor alto de este factor indica que el efecto de la sobrecarga de pendiente es


despreciable. Este factor se puede incorporar en la expresión de la relación señal a
ruido:

2
S 3 f s3 6  W  b3
   2 2 2
 2   2 (4.64)
 N  D 4 s W rms W   W rms  s

69
Siendo

fs
b (4.65)
2W

En general, la modulación delta requiere un ancho de banda mayor que PCM para
lograr la misma relación señal ruido. El valor óptimo del factor de sobrecarga de
pendiente se obtiene por simulación del sistema. Si s  ln( 2 b ) el efecto de sobrecarga
es notorio y se produce una degradación de la relación señal ruido S / N D . El rango
de operación adecuado del factor es ln( 2 b )  s  8 , y su valor óptimo es:

s opt  ln( 2 b ) (4.66)

La relación señal a ruido máxima se logra reemplazando en

2
S 3 f s3 6  W  b3
   2 2 2
 2   2 (4.67)
 N  D 4 s W rms W   W rms  s

El valor optimo del factor de sobrecarga.

Para lograr mejores características de funcionamiento, se suele utilizar la denominada


modulación delta adaptiva, donde el intervalo se seguimiento  va cambiando su
amplitud de acuerdo a la señal, para lograr una reducción del ruido granular.

4.4.2 PCM diferencial

La codificación PCM diferencial combina la transmisión de errores de predicción con


cuantificación multinivel. El codificador PCM diferencial de la figura posee q niveles
de cuantificación cuyos valores son   ,3  ,...,( q  1 ) .
El valor de error no cuantificado x( k )  ~
x q ( k ) se utiliza para generar el error de
predicción cuantificado  q ( k ) , que es codificado como una palabra binaria de  bits,
siendo   log 2 q .

q (k )
x( k )

Cuantificador de Cuantificador de
q niveles q niveles
_

xq ( k )
~
xq ( k )  x q ( k  1 ) Predictor

Figura 4.17 Transmisor de PCM diferencial

70
La señal codificada requiere entonces de un canal que pueda transmitir a una
velocidad:

r b  f s , con BT  f s / 2 (4.68)

La condición de seguimiento de la pendiente ahora adopta la forma:

f s ( q  1 ) | x´ n( t ) |max (4.69)

Debido a que el salto de la señal ~


x q ( k ) puede alcanzar el valor  f s ( q  1 ) . Si se
cumple que q  1 y W rms  W , la frecuencia de muestreo puede estar cerca del
valor limite de Nyquist f s  2W .
Para poder utilizar ventajosamente la cuantificación del error de predicción, el
receptor utiliza un filtro transversal como el que se ve en la figura 4.18:

Ts Ts Ts …. Ts

c1 c2 cn

~
xq ( k )

Figura 4.18 Filtro transversal para el circuito predictor

La salida cuantificada se obtiene como la sumatoria:

n
~
xq ( k )  c x
i 1
i q (k  i ) (4.70)

De esta manera, el predictor tiene en cuenta un número n de muestras previas. Los


coeficientes del filtro transversal se eligen de manera de minimizar el error
x( k )  x q ( k )
El receptor de PCM diferencial se observa en la siguiente figura. El predictor en ambas
estructuras del codificador y decodificador es el filtro transversal previamente
presentado.

71
q(k ) xq ( k )

Decodificador

Predictor
~
xq ( k )  x q ( k  1 )

Figura 4.19 receptor de PCM diferencial

Si se supone que el sistema se diseña para que q  1 y para que no haya efecto de
sobrecarga de pendiente, entonces PCM diferencial opera prácticamente como PCM ,
pero ofrece una ganancia conocida como ganancia de predicción G p que contribuye a
mejorar la relación señal a ruido de acuerdo a la expresión:

S 2
   Gp 3q S x (4.71)
 N D

La ganancia del predictor óptimo esta dada por:

1
n
 
G p  1 

i 1
ci i 

(4.72)

Donde  i  R x ( iT s ) / S x es la correlación normalizada de la señal, que junto con los


coeficientes de la estructura del predictor se ajustan a la expresión:

 0 1   n 1   c1    1 
  0   n  2  c 2    2 
 1  (4.73)
         
    
  n 1  n 2   0  c n    n 

La ganancia de predicción puede estar en el rango de 5  10 dB .

72
5 Codificación y control de error

En una transmisión digital los errores dependen de la relación señal ruido presente en
el canal. En ciertos casos el valor de probabilidad de error que se tiene en un
determinado sistema no es suficientemente apto para la transmisión, a pesar de
haber empleado las técnicas optimas de diseño descriptas en capítulos anteriores.
Cuando se alcanza el limite optimo del sistema y la probabilidad de error es aun no
apropiada para la transmisión, se emplea codificación para el control de errores.
La codificación consiste básicamente en el agregado de redundancia, es decir, a una
determinada palabra digital se adicionan bits de corrección de error. Estos dígitos
adicionados no contienen información, sino que configuran redundancia, pero son
útiles para la detección o corrección de errores en la palabra original.
Los errores podrán ser detectados o corregidos. En general, para un dado código, la
capacidad de detección de errores es mas amplia que la capacidad de corregirlos, ya
que para esto ultimo se necesita conocer la magnitud del error.

5.1 Detección y corrección de errores

La codificación orientada a la detección del error es siempre mas simple que la


diseñada para corregirlos. La aplicación de códigos especializados en detección o
corrección depende de las características del sistema en donde se lo piensa aplicar.
Cuando el sistema tiene la posibilidad de la comunicación full-duplex, es decir en los
dos sentidos de la transmisión (como el caso de la línea telefónica o las redes de
computadoras) los códigos pueden ser diseñados solo para detectar los errores, ya
que la corrección de los mismos se realiza por requerimiento de repetición. Este
esquema de transmisión se denomina ARQ (Automatic Repeat reQuest). En todo
sistema ARQ existe la posibilidad de requerir retransmisión. Cuando el sistema es de
un solo sentido (Como en el caso del “paging” o envío de mensajes por
radiofrecuencia) no existe posibilidad de solicitud de retransmisión, por lo que la
codificación empleada necesita corregir errores en el lado receptor. Esta forma de
transmisión se denomina FEC ( Forward Error Correction).

5.2 Códigos simples

5.2.1 El código de repetición

Una forma simple de realizar una codificación es sencillamente repetir el símbolo


transmitido una determinada cantidad de veces n . En la transmisión de símbolos
binarios el bit ‘1’ se representa por una secuencia de n ‘1’s , mientras el símbolo ‘0’
se representa por una secuencia de n ‘0’s.
En general se dirá que si los errores ocurren aleatoriamente con probabilidad Pe   ,
la función binomial expresa la probabilidad de tener i errores en una palabra de n
bits:

n n
P(i, n) =   i (1 -  ) n - i    i si  << 1
i  i 
(5.1)
n n!
  =
 i  i! (n - i)!

En general el valor de la probabilidad siempre será lo suficientemente pequeño como


para validar la aproximación hecha en la ecuación (5.1).

73
Por otro lado, y debido a la misma causa, siendo   1 será también cierto que se
tiene mayor probabilidad de tener un error que mas de uno esto es,
P ( i  1, n )  P( i , n ) .
Para el caso de un código de repetición n  3 por ejemplo, las palabras
pertenecientes al código son 1 1 1 y 0 0 0 . La primera representa al uno, mientras
que la segunda representa al cero. Existirá detección de error cuando se reciba
cualquier otra palabra de las posibles ocho palabras digitales que se tienen que no
sean las del código. Así se sabrá de uno o dos errores si se recibe por ejemplo la
palabra 1 1 0. Codificar significa básicamente ampliar la dimensión del sistema en
que se trabaja para elegir en un espacio de vectores mayor ciertas palabras como
validas, mientras otras no pertenecen al código. En este caso se usan ocho vectores
de los cuales solo dos pertenecen al código. Los otros seis patrones recibidos
corresponden a patrones de error. Se dice entonces que el sistema es capaz de
detectar uno o dos errores. Considerando que la probabilidad de un error es mayor
que la de tener dos errores, los patrones:

110,101y011

se consideraran secuencias de tres unos con un error. De acuerdo a este criterio, al


recibir estas palabras el sistema corregirá el error asignándolo al hecho que un ‘1’ fue
el vector transmitido. De la misma forma, los patrones:

0 0 1, 0 1 0 y 1 0 0

se consideraran secuencias de tres ceros que sufrieron un error. La corrección


establecerá que el vector transmitido fue el de tres ‘0’s por lo que el bit transmitido
es el ‘0’. El sistema no podrá corregir dos errores.
Desde el punto de vista de la detección, el código no podrá darse cuenta de la
presencia de tres errores, que hacen por ejemplo que una secuencia de tres ceros se
convierta en otra de tres unos. Al recibir esta secuencia el sistema creerá que la
palabra pertenece al código y lo recibirá erróneamente como un uno. La probabilidad
de error es entonces:

Pwe = P(3,3) =  3

Desde el punto de vista de la corrección la probabilidad de error esta fijada por la


aparición de dos o mas errores.

Pwe = P(2,3) + P(3,3) = 3 2 (1   )   3 = 3 2  2 3

En todos los casos Pe   , es la probabilidad de error sin codificación, es decir la


probabilidad de error que el sistema de comunicación tiene originariamente, antes de
codificar. La probabilidad de error es siempre mejorada, pero la velocidad del código
se sacrifica en este caso llevándola a una tercera parte de su valor original.

5.2.2 Código de control de paridad

El código de repetición posee un nivel de redundancia muy alto que reduce la


velocidad de transmisión. Otro tipo de código eficiente que suele emplearse en la
practica es el llamado código de control de paridad. En este código las palabras que lo

74
integran son aquellas en las que el número de ‘1’s es por ejemplo un numero par. Así
para n  3 , las palabras integrantes de este código serán:

1 1 0, 1 0 1 0 1 1 y 0 0 0.

Este código solo es capaz de detectar errores. Se sabe que cualquier palabra recibida
que tenga un numero impar de ‘1’s no pertenece al código, con lo que se sabe existe
en ella un error. En este caso se emplean cuatro de las ocho posibles palabras como
integrantes del código. La corrección del error no es posible por que no hay
información suficiente para determinar el lugar o posición donde se produjo el error.
La recepción de la palabra 1 1 1 por ejemplo corresponde a un patrón de error, pero
no puede saberse si se trato de la palabra 1 1 0 con error en el tercer bit, o de 1 0 1
con error en el segundo bit, o de 0 1 1 con error en el primer bit. Todos estos son
errores de un solo bit, y por lo tanto igualmente probables. No hay una única solución
para deducir la posición del error. Considerando entonces que errores dobles
sobrepasan la capacidad de detección, y que los errores dobles son mucho mas
probables que los cuádruples, la probabilidad de error esta dada por la expresión:

n  n(n - 1) 2
Pwe  P(2, n) =    2 (1 -  ) n - 2  
2  2

La transmisión de palabras no codificadas con ( n  1 ) bits de mensaje tendrá una


probabilidad de error igual a

Puwe = 1 - P(0, n - 1)  (n - 1)

donde el subíndice u indica “no codificado” (uncoded). A fines de comparar con el


código de control de paridad , y siendo por ejemplo n  10 ,  10 3 , Puwe  10 2
mientras que Pwe  5.10 5 . La mejora en la performance de control de error es alta
con solo una reducción de la velocidad de 9/10.

5.3 Vectores de Código y Distancia de Hamming

Una palabra de código cualquiera de n bits se puede representar como un vector


cuyas coordenadas son bits sobre un espacio n -dimensional.
La palabra de código 1 0 1 puede escribirse como un vector x  (1 0 1 ) que se
representa en un espacio vectorial como se ve en la figura.

75
011
101
111
000
000

110

Figura 5.1.

Las representaciones vectoriales de la figura 5.1.a y 5.1.b corresponden a los códigos


de repetición y de paridad par respectivamente. Puede verse que la distancia entre
los elementos del código de repetición es la máxima posible para este caso ( n  3 ) .
En este sentido hablamos de la llamada distancia Euclidiana, o geométrica. El código
de paridad par tiene sus elementos equidistantes, y con el siguiente valor de distancia
máxima alcanzable para ( n  3 ) . Si la separación entre coordenadas sobre cada eje
es uno 1, la distancia entre los elementos del código de repetición es 3 , mientras
que para el código de paridad par ese valor es 2 .
La distancia geométrica tiene a su vez relación con la así llamada distancia de
Hamming.
Se llama distancia de Hamming entre dos vectores X e Y al numero de elementos o
coordenadas diferentes que los vectores X e Y poseen. Siendo por ejemplo

X  (1 0 1 ) , Y  (1 1 0 )

entonces la distancia de Hamming es:

d ( X ,Y )  2 .

La distancia de Hamming mínima de un código, d min , es entonces la distancia mínima


que se registra entre cualesquiera dos vectores, calculada para todos los vectores del
código.
En general puede decirse que si el ruido genera una alteración de bits tal que el
numero de bits equivocados es igual o mayor que la distancia mínima del código,
d min , entonces la palabra errónea es equivocada o confundida con otra palabra del
mismo código, de modo que el error no puede ser detectado. Cuando el numero de
bits alterados por el ruido es igual al mínimo numero de bits diferentes que entre
palabras existe dentro del código, la palabra se transforma en otra que pertenece al
código, de forma que el error no es detectable.

Se concluye entonces que:

para detectar hasta l errores se precisa tener un código con una distancia mínima tal
que:

76
d min  l + 1 (5.2.a)

para corregir hasta t errores se precisa tener un código con una distancia mínima tal
que:

d min  2 t + 1 (5.2.b)

para corregir hasta t errores y detectar l  t errores se precisa tener un código con
una distancia mínima tal que:

d min  t+ l + 1 (5.2.c)

Un código con distancia mínima d min  7 puede corregir errores triples, o corregir
errores dobles y detectar errores cuádruples.
En general las palabras de código tienen una parte asociada a la información, y otra a
la corrección de errores. Para una palabra de n bits, k de los n bits son de
información, mientras q  n  k bits son destinados al control de error. Se habla
entonces de un código de bloque ( n , k ) .
Para este caso la distancia mínima esta limitada por :

d min  n - k + 1 (5.3)

En el caso típico de código de repetición por ejemplo n  3 , k  1 y q  n  k  2 . La


distancia minina esta acotada por d min  3 . Este tipo de código por ejemplo puede
detectar entonces l  2 errores, y puede corregir t  1 error.
La eficiencia del código se mide como la relación entre los bits de información y los
bits de la palabra entera que se transmite:

k
Rc = (5.4)
n

Los códigos de repetición tienen gran capacidad de corrección de errores, por tener
distancia mínima n , pero baja eficiencia de velocidad.
Los códigos de control de error por paridad par tienen una distancia mínima igual a 2.
Pueden por lo tanto detectar un error, pero no puede corregir ningún error en la
palabra.

5.4 Sistemas de corrección de error FEC

Como se ha dicho los sistemas que emplean la filosofía de corrección FEC tienen la
limitación de no poder contar con retransmisiones, por lo que toda la potencia del
código usado se emplea para la corrección de error. La fuente de información genera
una señal binaria de símbolos equiprobables que tiene una velocidad de transmisión
rb , de forma que el codificador toma tal información agrupada en k bits, para
agregarle q bits de corrección, constituyendo un código de bloque ( n , k ) cuya
relación de eficiencia es R c  k / n , siendo R c  1 .

77
r = rb
Codific transmisor canal
r = k/n r = r b/Rc

Receptor Reg. decodif.


+

Gn(f) = /2 Pe = 

Figura 5.2.

La velocidad sobre el canal debe ser mayor que la velocidad de señalización rb .

n r
r =  . rb = b (5.5)
k  Rc

El código utilizado tiene una distancia mínima d min  2 t  1  n  k  1 . Se analiza la


respuesta del sistema frente a ruido blanco y Gaussiano con un canal con una
probabilidad de error   1 . La información de fuente tiene una energía de bit
promedio E b , de forma que la energía promedio por bit de código es R c E b . La
relación de energía a densidad de ruido es entonces:

Rc E b
c = = R c b (5.6)

Se calcula la probabilidad de error de los bits de mensaje, que se denomina Pbe , para
distinguirla de la probabilidad de error por palabra Pwe . El código corrige hasta t
errores por palabra. La probabilidad de error de la palabra decodificada esta limitada
superiormente por:

n
Pwe   P(i,n) (5.7)
i = t+1

Suponiendo que la probabilidad de error del canal es pequeña puede hacerse la


aproximación:

 n 
Pwe  P(t+1,n)    t+1 (5.8)
 t+1 

78
Que básicamente significa que una palabra no corregida tiene t  1 errores. En cada
palabra no corregida existen
k 
 t  1 errores de bits de mensaje. Si se transmiten Nk bits de información de
n
fuente, siendo N  1 , el numero de bits de mensaje equivocados será:

k 
 t  1NPwe (5.9)
n

por lo que la probabilidad de error es igual a:

k 
 t  1NPwe
n 1
Pbe =   = t+1Pwe (5.10)
kN n

 n-1  t+1
Pbe    (5.11)
 t 

Cuando el sistema opera en presencia de ruido blanco y Gaussiano, y se diseño de


forma que se ha empleado filtro adaptado y señalización polar, la probabilidad de
error Pe esta dada por:

Pe = Q( 2 b ) (5.12)

Luego:

α= Q( 2 c ) = Q( 2R c  b )  (4R c  b ) 1 / 2 e  Rc  b (5.13)

La aproximación es valida si se cumple que;

Rc  b  5 , (5.14)

lo cual significa que la relación señal ruido es lo suficientemente buena como para
utilizar la función aproximación para la cola Gaussiana.

La probabilidad de error de un sistema FEC es entonces:

 n-1 
Pbe   
. Q 2 R c  b t 1
(5.15)
 t 

 n-1   
Pbe    4R c  b  t 1 / 2 e  t+1 .Rc . b (5.16)
 t 

Un sistema no codificado tendrá una probabilidad de error:

79

Pbe  Q 2 b  4 b 1 / 2 e  b
(5.17)

Comparando estas expresiones se deduce que existirá una mejora siempre que
R c ( t  1 )  1 . En general los códigos de baja capacidad de corrección utilizaran
velocidades mayores que aquellos equivalentes con mayor capacidad de corrección de
error. Los parámetros de un sistema FEC son:

d min  1
t=
2
(5.18)

k
Rc =
n

Cuando el sistema trabaja con una tasa de ruido grande puede suceder que la
respuesta del mismo frente al ruido sea peor que la del sistema sin codificar.

5.5 Sistemas ARQ

La técnica de transmisión ARQ se basa en la codificación para la detección de errores,


y la posterior retransmisión de los bits que se detectan equivocados. En este caso
como se ha dicho, es necesario un segundo vinculo de transmisión para la ejecución
de las retransmisiones. En general el sistema ARQ genera mejor respuesta que su
contrapartida FEC, debido a que la misma potencia de código se destina
completamente a detectar errores, mas que a corregirlos. Por otra parte es necesario
el vinculo de retorno. Además existen operaciones adicionales de reconocimiento y
repetición de la señal, que producen una reducción en la velocidad del sistema. El
diagrama en bloques del sistema se ve en la figura 5.3:

Codificador Buffer de Transmisión Decodific. Buffer de


entrada directa salida

Trans. de
retorno.
ACK/NAK

Figura 5.3.

Cada palabra codificada es almacenada y luego transmitida de manera que el


decodificador observa los errores. Se retransmite una señal de reconocimiento
positivo ACK (Positive acknowledgement) si no hubo errores detectados, o bien un
NAK (Negative Acknowledgement) si se detectaron errores. Una señal NAK obliga al
codificador a retransmitir del buffer la palabra que llego con error.
Respecto del sistema FEC, el sistema ARQ representa una velocidad de señalización
reducida por el proceso de repetición, y por otro lado, se esta considerando siempre
que la probabilidad de error en el canal de retransmisión es despreciable. De esta
manera toda palabra detectada es corregida y por lo tanto los errores se producen

80
cuando la palabra no ha podido ser detectada. Para este caso la distancia mínima del
código se destina a la detección de errores, por lo que d min  l  1 . La probabilidad de
error se establece de acuerdo a la imposibilidad de detectar errores:

n
 n 
Pwe =  P(i,n)  P(l+1,n)     l+1 (5.19)
i=l+1  l+1 

Luego la probabilidad de error binaria es:

 l +1  n-1  l+1


Pbe =  Pwe    (5.20)
 n   l 

Las expresiones son similares a las dadas para la transmisión FEC, solo que
reemplazando t por l .
El proceso de retransmisión puede ser también caracterizado desde el punto de vista
de la probabilidad. El decodificador acepta palabras sin error, o bien con mas errores
de los que son posibles detectar, por lo que la probabilidad de retransmisión p esta
dada por:

p = 1 - P( 0 ,n)+Pwe  (5.21)

Como normalmente Pwe  P ( 0 , n ) :

p  1 -P( 0 ,n) = 1 - (1 -  ) n  n (5.22)

5.5 Esquemas de sistemas ARQ

5.5.1 Stop-and-Wait

El esquema stop-and-wait requiere que el sistema se detenga en cada palabra, para


esperar el reconocimiento de la misma. La memoria en el lado transmisor necesita
almacenar solo una palabra, pero el tiempo de espera puede ser muy extenso, y
queda limitado por el retardo t d de transmisión siendo D  2 t d .

transmisor
D
1 2 2 3

ACK NAK ACK

receptor
1 2* 2 3

Figura 5.4.

81
5.5.2 Esquema Go-back N

El esquema go-back N tiene una transmisión continua de palabras. Cuando el receptor


envía una señal NAK el transmisor retrocede N palabras en el buffer y comienza a
retransmitir nuevamente desde la palabra supuesta errónea. El receptor descarta las
N  1 palabras aunque sean correctas para preservar la secuencia. El gráfico de la
figura explica este proceso:

1 2 3 4 5 2 3 4 5 6

1 2* 3 4 5 2 3 4* 5 6

descartados
Figura 5.5.

En la figura 5.5 se observa un sistema go-back N con N  4 . Los bits recibidos luego
del aviso de error son descartados.

5.5.3 Esquema de repetición selectiva

El esquema de repetición selectiva intenta optimizar el proceso de repetición. Para


ello el requerimiento de memoria en el transmisor es el mayor entre los sistemas
analizados.

1 2 3 4 5 2 6 7 8 9

1 2* 3 4 5 2 6 7* 8 9

Figura 5.6.

El numero total de retransmisiones es una variable aleatoria m gobernada por la


probabilidad de los eventos:

P ( m  1 )  1  p, P( m  2 )  p(1  p ), etc...

El numero promedio de palabras transmitidas por palabra aceptada es:

82
1
m = 1(1 - p) + 2 p( 1 - p) + 3 p 2 (1 - p)+...= (1 - p )(1+2 p+3 p 2  ...) = (5.23)
1-p

En promedio el sistema debe transmitir n.m bits para mandar k bits de mensaje. la
eficiencia del sistema es entonces:

k k
R c' = = (1  p) (5.24)
nm n

La velocidad binaria de transmisión directa y r se relacionan como:

rb
r= (5.25)
R c'

La probabilidad de error  se calcula con la expresión conocida usando R c' en vez de


R c . Las expresiones anteriores se aplican a sistemas ARQ de repetición selectiva.
También son útiles para la transmisión stop-and-wait, pero en este caso se deben
tener en cuenta los tiempos muertos entre las transmisiones, que reducen la
velocidad en un factor
Tw
donde D  2 t d . El valor t d es el retardo del canal , y Tw es la duración de la
Tw +D
palabra,

n k
Tw =  (5.26)
r rb

Luego la velocidad del código es:

k (1  p)  k  (1  p)
R c' =    (5.27)
n 1  D/Tw   n   2 t d rb 
1+ 
 k 

Haciendo uso del hecho que:

D 2 t d rb
 (5.28)
Tw k

La expresión (5.27) determina la tasa del sistema stop-and-wait, mientras que la


(5.24) define la tasa del sistema de repetición selectiva.
Un sistema go-back N no presenta tiempos desperdiciados, pero debe realizar una
retransmisión cuando hay errores. Para este caso el valor medio de las transmisiones
es:

Np
m = 1+ (5.29)
1-p

83
m = 1(1-p)+(1+N)p(1-p)+ (1+2 N)p 2 (1-p)+... = (1-p)[ 1+p+p 2+p 3 +...
 1 Np  Np
+Np(1+2 p+3 p 2+...)] = (1-p). + 2 
= 1+
1-p (1-p)  1-p

y la velocidad de transmisión queda afectada entonces por un factor:

k (1  p) k  (1  p)
R c' =    (5.30)

n 1  p+Np  n 2 t r  
1-p+ d b  p 
  k  

Haciendo uso de la expresión:

2t d
N  (5.31)
Tw

A diferencia de la repetición selectiva, los sistemas stop-and-wait y go-back N tienen


una eficiencia dependiente del retardo del canal.
El valor de eficiencia R c' en estos casos se considera aceptable si 2 t d r b  k .
Aun así, si 2 t d r b  k , el sistema go-back N tiene mejor funcionamiento que el stop-
and-wait, si el valor de p es pequeño.

84
5.6 Códigos de Bloques

Los códigos de bloques lineales representan una clase de códigos de control


de paridad descriptos como códigos de bloques ( n , k ) . En esta nomenclatura n es
el numero total de bits de la palabra codificada, mientras k es el numero de bits de
la palabra sin codificar. Un código de bloques ( n , k ) consiste de palabras de n bits,
con k  n bits de información, y q  n  k bits de control.
Codificar significa básicamente tomar las 2 k palabras binarias de k bits que se
n
pretende codificar, y asignarlas a algunos de los 2 vectores de n bits. Esto se
realiza como una función unívoca entre los 2 k vectores y los 2 n vectores. Siendo
regularmente k  n existen mas vectores de n bits que los que se tienen de k
bits, con lo que la elección de los vectores de n bits debe hacerse empleando la
menor redundancia, y maximizando la distancia o separación entre las palabras. El
conjunto de 2 k palabras constituye un subespacio vectorial del conjunto de
vectores de n palabras. se recuerda que un subespacio vectorial tiene como
propiedades el hecho que el vector nulo pertenece al subespacio, y que cada vector
se obtiene como suma de otros dos vectores del código. Los códigos de bloques
lineales se pueden representar como un subespacio vectorial.

Definición 1: Un código se denomina lineal si posee el vector nulo, (la


palabra todos ceros) y si cualquier palabra del código se puede obtener como suma
de otras dos palabras del mismo código. El conjunto de palabras del código es así
un espacio vectorial. Los elementos de las coordenadas son elementos del campo
binario. Cada palabra del código es considerada un vector del espacio vectorial
citado. El campo binario al que pertenecen estos vectores tiene definidas dos
operaciones que son la suma y la multiplicación. Este campo tiene la forma general
de un campo de Galois que se describe como un campo GF ( 2 m ) , donde m  1 . La
operaciones en esta campo son la multiplicación y la suma en modulo-2. Estas
operaciones se describen a continuación:

Suma en Modulo-2 Multiplicación en Modulo-2

0  0 = 0 0 . 0 = 0
0  1 = 1 0 . 1 = 0
1  0 = 1 1 . 0 = 0
1  1 = 0 1 . 1 = 1

La suma entre dos vectores U y V , se define como:

U + V = (u1  v 1 u 2  v 2 ... u n  v n ) (5.32)

En un código lineal, cada vector es resultado de la suma de otros dos que


pertenecen al código.

Definición 2: La distancia de Hamming entre dos vectores de código U y V


es el numero de componentes diferentes que existe entre tales vectores. Se la
describe como d ( U ,V ) . Siendo por ejemplo:

U  (1 1 0 0 ) y V  (1 0 1 0 )

d ( U, V )  2

85
Definición 3: La función peso de Hamming, o peso de un vector, es el
numero de elementos ‘1’ que una palabra de código posee. Para un vector V , la
notación para la función peso es w ( V ) .

Definición 4: La distancia mínima de un código es el valor mínimo de


distancia entre todas las palabras del código:

d min = min d(U, V)


(5.33)
U V

Definición 5: El peso mínimo de un código es el mínimo valor de peso entre


todos los vectores, exceptuado el vector nulo.

w min = min w(V) (5.34)


Para todo V excepto V  0

Para un código de bloques lineal se puede verificar que:

d min = w min (5.35)

En efecto, la distancia entre vectores se puede calcular teniendo en cuenta que el


peso de un vector es la distancia entre ese vector y el vector nulo, w ( V )  d ( V,0 ) .
Si U y V pertenecen al código, entonces W  U  V pertenece también al código.
Pero por otro lado w ( W )  d ( U, V ) , ya que la suma OR-Exclusiva determina el
numero de elementos diferentes entre dos vectores. Se concluye que la distancia
mínima del código es entonces el peso mínimo del código. Mas simplemente se dice
que la distancia mínima del código es el numero mínimo de ‘1 ‘s que una palabra
tiene, evaluado sobre todas las palabras.
Finalmente entonces:

d min  [ w ( U )], U  0 0 0 (5.36)

La distancia mínima del código de bloques lineal es el mas pequeño valor no nulo
del peso, evaluado para todos los vectores del código.

5.6.1 Matriz generadora

Dado que el conjunto de palabras de un código lineal de bloques es en


definitiva un subespacio dentro del espacio vectorial binario de dimensión n , existe
siempre un mínimo juego de vectores linealmente independientes denominado base
del subespacio. El numero de vectores de este conjunto es la dimensión del
subespacio. se puede utilizar cualquier juego de k vectores linealmente
independientes V1 ,V 2 ,...,V k como base de este subespacio. Cada vector del código
puede entonces expresarse como una combinación lineal de este conjunto base:

U = m1V1 + m2 V2 + ... + mk Vk (5.37)

donde m i  0 ,1

En función de esta propiedad de generación de los vectores del código, se define la


matriz de generación del código como:

86
V1  v 11 v 12 ... v 1n 
   
V 2  v 21 v 22 ... v 2 n 
G = .  = . . ... .  (5.38)
   
.  . . ... . 
V  v 
 k   k 1 v k 2 ... v kn 

Un dado vector de mensaje m , que es normalmente un vector fila, es representado


entonces como un vector fila 1 xk .

m = (m1 m 2 .... m k ) (5.39)

Un vector U del código de bloques ( n , k ) se genera entonces por multiplicación


matricial del vector de mensaje y la matriz de generación G :

U  m.G (5.40)

Lo cual significa que el elemento u ij se obtiene como la suma de :


k
u ij =  mr . v rj , i = 1,2 ,...,k ; j = 1,2 ,...,n (5.41)
r
Donde m es una matriz 1 xk , G es una matriz kxn , y la resultante es una matriz
1 xn .

Ejemplo: Sea la matriz de generación G :

V1  1 1 0 1 0 0 
 
G = V 2  = 0 1 1 0 1 0 
V 3  1 0 1 0 0 1

Los vectores V1 ,V 2 y V 3 son tres vectores linealmente independientes que generan


todos los vectores de código.
La suma de dos cualesquiera vectores de generación no es otro vector de la misma
base.
Por ejemplo, un vector de entrada m  (1 0 1 ) genera un vector de salida U que
puede calcularse como:

U = 1.V1 + 0 .V2 + 1.V3 = (1 1 0 1 0 0 ) + (1 0 1 0 0 1 ) = ( 0 1 1 1 0 1 )

En general cualquier vector de código se calcula como combinación lineal de las


filas de la matriz generación.

5.6.2 Códigos de Bloques sistemáticos

Un código lineal de bloques se dice sistemático cuando el mensaje de k bits que


genera la palabra de código forma parte de la palabra de n bits que es generada
como palabra codificada. En una palabra de código sistemático la palabra original
de información de k bits esta separada y se identifica de los q bits agregados de
control de error. Un código sistemático de bloques tendrá entonces una matriz de
generación de la forma:

87
 p11 p12 ... p1,n-k 1 0 ... 0 
p p 22 ... p 2 ,n-k 0 1 ... 0 
G = P | I k  = 
21
(5.42)
 . . 
 
 p k 1 pk 2 ... p k,n-k 0 0 ... 1 

La matriz P es la parte de la matriz de generación asociada con los bits de


control, mientras que la matriz identidad I k representa a los bits de la palabra de
información, que aparecen directamente cuando se emplea un formato sistemático.
Los elementos pij son elementos del campo binario, 0 o 1. Un vector de
información de k bits de la forma:

m = (m1 m 2 .... m k ) (5.43)

genera una palabra de código de acuerdo a la expresión (40) de la forma:

U = (u1 u 2 .... u n ) (5.44)

que puede ser expresado de forma sistemática como:

U = (p1 p 2 .... p n-k m1 m2 ... mk ) (5.45)

Donde pueden diferenciarse claramente la palabra original a ser codificada, de la


palabra constituida por los bits de paridad.

5.6.3 Matriz de control de paridad

Para cada matriz de generación G de dimensión kxn existe una matriz H , de


dimensión ( n  k )xn cuyas filas son ortogonales a las filas de G , de manera tal que
se cumple que GH T  0 , donde H T es la matriz traspuesta de H . H T es una
matriz nx( n  k ) cuyas filas son las columnas de H .
La matriz H T tiene la forma:

I q 
HT =   (5.46)
P 

Donde q  n  k

1 0 ... 0 
0 1 ... 0 

 . . . . 
T  
H =0 0 0 1  (5.47)
 p11 p12 ... p1,q 
 
 . . ... . 
p pk 2 ... p kq 
 k1

Mientras H es igual a:

88

H= I q | P T  (5.48)

la matriz H T presenta la siguiente propiedad:

UH T = 0 (5.49)

Esta propiedad permite realizar la detección de palabras que pertenecen al código.


Cualquier vector perteneciente al código es tal que esta de acuerdo con la ecuación
(5.49). Esto es cualquier vector de código U que haya sido generado por la matriz
de generación G es tal que se encuentra de acuerdo con la ecuación (5.49).

5.6.4 Detección por síndrome

Si se tiene entonces un vector recibido r de forma tal que ha sido por alguna razón
afectado por ruido, y corresponde a un vector enviado U siendo:

r  r1 r 2 ... r n  (5.50)

U  U1 U 2 ... U n  (5.51)

Puede decirse que;

r U e (5.52)

Donde :

e  e1 e2 ... en  (5.53)

Es el patrón de error generado por el ruido y la interferencia en el canal.


Existen teóricamente 2 n  1 patrones de error posibles que afecten los vectores
originales. Se define el vector síndrome S como:

S = rH T (5.54)

Si existieron errores, el vector síndrome será distinto de cero. Este vector es un


vector de q  n  k bits.
Si el vector de entrad esta libre de errores el síndrome es igual a cero. De haber
ocurrido errores el síndrome será distinto de cero. Esto permite la ejecución de la
detección de errores.
Usando las expresiones anteriores se puede deducir que:

S = rH T = (U + e)H T  UH T + eH T = eH T (5.55)

Se puede ver de la expresión (5.55) que existe una relación entre los patrones de
error y los síndromes. En la medida que exista una relación unívoca entre los
patrones de error y los vectores síndrome, la detección de errores podrá convertirse
también en corrección de los mismos. De hecho, si existen 2 q vectores síndrome
diferentes, que puedan corresponderse con el mismo numero de patrones de error
en forma unívoca, se podrá realizar la corrección del error. Una propiedad
importante de los códigos de bloque lineales es que la correspondencia entre
vectores de síndrome y patrones de error es uno a uno.

89
Se requieren dos importantes características de la matriz de control de paridad:

1. Ninguna columna de la matriz H tiene que ser todo ceros. De otra forma un
error se haría indetectable.

2. Todas las columnas de H deben ser únicas. Si dos columnas de H son iguales,
los vectores de síndrome correspondiente serán iguales, y los errores
correspondientes a esa posición serán indistinguibles.

5.6.5 Corrección de errores

Como se analizo previamente, se observa que existe una relación entre el vector de
síndrome y los patrones de error que pueden corregirse. Podría por lo tanto
realizarse una relación unívoca entre ellos, de forma que para un síndrome
detectado, se pueda conocer cual fue el patrón de error que lo provoca, y
corregirlo.
Se puede organizar el conjunto de palabras del código en un arreglo, que se
denomina el arreglo standard. En este arreglo, la primera fila contiene todos los
vectores del código, comenzando con el vector nulo, o de todos ceros, y la primera
columna contiene todos los patrones de error corregibles. Cada fila, denominada
coset, consiste de un patrón de error en la primera columna llamada coset principal
seguidos por los vectores de código afectados por ese patrón de error. El arreglo es
de la forma:

U1 U2 .... Ui ... U 2 k
e2 U 2 + e2 .... U i + e 2 ... U 2 k + e 2
e3 U 2 + e3 .... U i + e 3 ... U 2 k + e 3
. . .... . . (5.56)
ej U2 + e j .... U i + e j ... U 2 k + e j
. . .... . .
e 2 n - k U 2 + e 2 n- k .... U i + e 2 n - k ... U 2 k + e 2 n - k

El arreglo contiene todas las 2 n posibilidades en el espacio vectorial


correspondiente. Cada coset consiste de 2 k palabras. Por lo tanto existen
2 n / 2 k  2 n k cosets. Si entonces para un dado vector se tiene un cierto error, si
el patrón de error es un coset principal entonces el vector será decodificado
correctamente, de lo contrario se producirá una decodificación errónea.

5.6.6 Síndrome de un coset

Si e j es el coset principal o patrón de error del coset j-ésimo, entonces U i  e j es


un vector de este coset. El síndrome de este vector puede ser escrito como:

S = (U i + e j ). H T = e j . H T (5.57)

De la ecuación anterior se deduce que todos los miembros del mismo coset tienen
el mismo síndrome. Los síndromes de diferentes coset son entre si diferentes. El
síndrome entonces actúa como una estimación del error.
La decodificación para la corrección de errores consiste entonces en:
1. calcular el síndrome empleando la expresión (5.55).

90
2. determinar el coset principal o patrón de error e j que tiene como síndrome al
calculado previamente.
3. Luego el vector recibido se corrige haciendo:

U = r + ej (5.58)

5.6.7 Códigos de Hamming

Un código de Hamming es un código lineal de bloques ( n , k ) que posee q  3 bits


de control. Además se cumple en ellos que:

n  2 q  1, k  n  q (5.59)

La relación de velocidad del código es:

k q
Rc = =1 - q (5.60)
n 2 1

Esto significa que R c tiende a uno, si q tiende a infinito. Sin embargo la distancia
mínima esta establecida en d min  3 .

En general la forma de estos códigos es:


(n,k) = 2 q  1, 2 q  1  q  (5.61)

Un código de Hamming es capaz de corregir un error, o de detectar uno o dos


errores. Para construir un código de Hamming se debe elegir la matriz P de
paridad de forma tal que tenga q bits con por lo menos dos bits ubicados en
cualquier orden.

Ejemplo: Considere un código de Hamming con


q  3, n  2 3  1  7 ,k  n  q  7  3  4 .

Una matriz de generación es la siguiente:

1 1 1 1 0 0 0
1 0 1 0 1 0 0 
G=
0 1 1 0 0 1 0
 
1 1 0 0 0 0 1

Las primeras tres columnas configuran la matriz P . La matriz identidad permite


darle al código estructura sistemática.

Los bits de control de paridad vienen dados por:

p1 = m1  m 2  m4
p 2 = m1  m 3  m 4
p 3 = m1  m 2  m 3

Se puede confeccionar la tabla del código con los correspondientes pesos de cada
vector:

91
m U w
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 1 1 1 0 0 0 0 1 3
0 0 1 0 0 1 1 0 0 1 0 3
0 0 1 1 1 0 1 0 0 1 1 4
0 1 0 0 1 0 1 0 1 0 0 3
0 1 0 1 0 1 1 0 1 0 1 4
0 1 1 0 1 1 0 0 1 1 0 4
0 1 1 1 0 0 0 0 1 1 1 3
1 0 0 0 1 1 1 1 0 0 0 4
1 0 0 1 0 0 1 1 0 0 1 3
1 0 1 0 1 0 0 1 0 1 0 3
1 0 1 1 0 1 0 1 0 1 1 4
1 1 0 0 0 1 0 1 1 0 0 3
1 1 0 1 1 0 0 1 1 0 1 4
1 1 1 0 0 0 1 1 1 1 0 4
1 1 1 1 1 1 1 1 1 1 1 7

De la tabla puede verse que el código tiene una distancia mínima d min  3 .
La matriz control de paridad para este código tendría la forma:

1 0 0 1 1 0 1 

H= I q | P T
 = 0 1 0 1 0 1 1 
0 0 1 1 1 1 0 
Luego H T será:

1 0 0
 
0 1 0
0 0 1
T  
H = 1 1 1
1 0 1
 
0 1 1
1 1 0 

El calculo del vector síndrome se realiza empleando la ecuación (5.55). Por ejemplo
para un vector recibido r  (1 1 0 1 1 01 ) el síndrome calculado es S  ( 0 1 0 ) . El
vector recibido no pertenece al código.

92
5.7 Códigos Cíclicos

Los códigos cíclicos son una importante clase de códigos de bloques lineales. Fueron
inicialmente diseñados para ser códigos fácilmente implementados usando registros
de desplazamiento que emplean realimentación. La decodificación por síndrome
también se realiza empleando registros de desplazamiento. La matemática utilizada
para generar estos códigos es una extensión de la suma y multiplicación modulo-2.

Un código de bloques lineal se dice código cíclico si para una palabra de código

U = ( u0 u1 ... un-1 ) (5.62)

se tiene siempre que existe otra palabra de código de la forma:

U (1) = ( un-1 u0 u1 ... un- 2 ) (5.63)

La notación empleada significa que U (1) es la versión de U que se obtiene


desplazando en un registro en forma cíclica esta palabra. El ultimo bit pasa a ser el
primero, el primero el segundo y así sucesivamente. En general el desplazamiento de
bits puede ser mayor implicando que cualquier rotación de la palabra original genera
otra palabra del mismo código.

Las palabras del código pueden se representadas como un polinomio:

U(x) = u0+u1 X+u2 X 2+...+un-1 X n-1 (5.64)

En esta representación polinomial, el exponente del termino independiente X


representa sencillamente la posición que el bit tiene dentro de la palabra. Los
coeficientes son términos binarios de manera que la presencia o ausencia del término
X j significa que bit en la posición j es un uno o un cero respectivamente.
La utilidad de esta representación será evidente mas adelante para la definición de las
propiedades de estos códigos.

5.7.1 Estructura algebraica de los códigos cíclicos

Si se expresa a las palabras del código en forma polinomial puede decirse que una
palabra de código es básicamente un polinomio de orden ( n  1 ) . Puede demostrarse
que si U ( X ) es una palabra de código expresada como polinomio, entonces U ( i ) ( X )
que es el resto de la división del polinomio X i U ( X ) por el polinomio X n  1 es
también una palabra de código. Esto significa que:

X i U(X) U (i)(X)
= q(X) + (5.65)
X n+1 X n+1

Si se multiplica por X n  1 :

X i U(X) = q(X)(X n+1 ) + U (i) (X) (5.66)

93
En esta operación se dice que una nueva palabra de código se genera por división del
polinomio X i U ( X ) sobre X n  1 , tomando el resto de la división. Este tipo de
operación es también llamada función modulo. esto es, la palabra del código generada
de esta forma es

U (i)(X) = X i U(X) mod ulo (X n+1 ) (5.67)

Como se sabe, x mod ulo y es el resto de la división de x sobre y .

Si por ejemplo:

U(X) = u0+u1 X+u 2 X 2+...+un-1 X n-1 (5.68)

entonces un desplazamiento de esta palabra es:

XU ( X )  u 0 X  u1 X 2  ...  u n 1 X n (5.69)

Sumando y restando apropiadamente u n 1 en operaciones modulo-2 obtenemos:

X.U(X) =un-1+ u0 X+u1 X 2 +u 2 X 3+...+un- 2 X n-1  u n-1 X n  u n-1


(5.70)
 U ( 1 )(X)+u n-1(X n+1 )

En general se puede decir que

U (i)(X) = X i U(x) mod ulo (X n+1 ) (5.71)

Ejemplo: Si la palabra (1 1 0 1 ) pertenece a un código cíclico, exprésela en forma


polinomial, y determine por división polinómica otra palabra del mismo código.

U(X) = 1+X+X 3 (5.72)

la palabra es expresada como un polinomio donde los bits menos significativos se


toman sobre el lado izquierdo de la expresión vectorial correspondientes a los
términos en X de menor grado. Si por ejemplo el desplazamiento fuera e orden
triple, i  3 , el polinomio resultante seria:

X i U(X) = X 3 +X 4+X 6 (5.73)

Si se divide X 3 U ( X ) por X 4  1 ,

94
X 6 +X 4 +X 3 | X 4 +1
X 2 +1
X6 X2

X 4 +X 3 +X 2
X4 +1
-------------------
X 3 +X 2 +1

El polinomio 1  X 2  X 3 representa a la palabra (1 0 1 1 ) , que resulta ser la palabra


original (1 1 0 1 ) sobre la que se realizaron tres desplazamientos sobre la derecha.

5.7.2 Propiedades de los códigos cíclicos binarios

Los códigos cíclicos pueden ser generados haciendo uso de un polinomio generador. El
polinomio generador g( X ) para un código ( n , k ) cíclico lineal de bloques tiene la
forma:

g(X) = g0+g1 X+g 2 X 2+...+g r X r (5.74)

donde el primer y el ultimo coeficiente deben ser igual a uno, es decir g 0  g r  1 .


Cualquier palabra del código se genera por multiplicación del vector de entrada por el
polinomio generador:

U(X) = m(X).g(X) (5.75)

donde:

m(X) = m0+m1 X+m2 X 2 +...+mn-r-1 X n-r-1 (5.76)

Existen 2 n  r palabras de código, y a su vez 2 k vectores de mensaje. Si se desea


tener una relación biunívoca entre las palabras codificadas y las de mensaje debe
suceder que:

nr k , o r  n k

por lo tanto g( X ) debe ser un polinomio de orden ( n  k ) . Cada palabra del código,
expresada en forma polinomial se expresa entonces como:


U(X) = m0 +m1 X+m2 X 2+...+mk-1 X k-1 g(X)  (5.77)

De la expresión anterior se deduce que U es una palabra de código si la división del


polinomio U ( X ) por g( X ) tiene resto cero. También es demostrable que un
polinomio generador g( X ) de un código cíclico ( n , k ) es factor del polinomio X n  1 .
Entonces deberá cumplirse que

95
X n+1 = g(X)h(X) (5.78)

Se puede verificar como ejemplo que:

X 7 +1 = (1+X+X 3 )(1+X+X 2+X 4 )

Así entonces si el polinomio generador es por ejemplo g( X )  1  X  X 3 el código


generado será un código cíclico lineal de bloques (7 ,4 ) . El polinomio alternativo sería
g( X )  1  X  X 2  X 4 , que crearía un código lineal de bloques de tipo cíclico (7 ,3 ) .
Cualquier polinomio g( X ) de grado ( n  k ) que sea factor de X n  1 genera de forma
única un código ( n , k ) cíclico.

5.7.3 Forma sistemática de codificación

La forma sistemática de un código de bloques tiene por característica el mostrar de


forma transparente en una parte identificada de la palabra codificada cual ha sido la
palabra de mensaje que la originó. Un vector de mensaje se puede expresar en forma
polinómica como:

m(X) = m0 +m1 X+m2 X 2+...+mk-1 X k-1 (5.79)

Las palabras de un código cíclico de tipo sistemático tienen la propiedad de poseer los
bits de la palabra de mensaje en el lado derecho, mientras que los bits de control de
paridad se ubican en el lado izquierdo. Para desplazar los bits de mensaje sobre la
derecha es suficiente con multiplicar el vector de mensaje m( X ) por X n k :

X n-k m(X) = m0 X n-k +m1 X n-k+1+...+mk-1 X n-1 (5.80)

Si este polinomio es dividido por g( X ) la expresión final seria:

X n-k m(X) = q(X)g(X)+r(X) (5.81)

donde r ( X ) es igual a:

r(X) = r0+r1 X+r2 X 2+...+rn-k-1 X n-k-1 (5.82)

El polinomio r ( X ) puede entonces expresarse de acuerdo a la ecuación (5.81) como


la operación modulo sobre g( X ) :

r(X) = X n-k m(X) mod ulo g(X) (5.83)

Sumando r ( X ) a ambos lados de la expresión se obtiene:

X n-k m(X)+r(X) = q(X)g(X) = U(X) (5.84)

96
De la ecuación se deduce que el polinomio del lado derecho es un polinomio que
representa a una palabra de código, debido a que puede expresarse como el producto
de cierto polinomio q( X ) multiplicado por g( X ) . El resto de la división entre este
polinomio y g( X ) es por lo tanto cero.
Así el polinomio que representa un vector de código adopta la forma sistemática:

r(X)+X n-k m(X)= r0 +r1 X+r2 X 2 +...+rn-k-1 X n-k-1+m0 X n-k +m1 X n-k+1+...+mk-1 X n-1 (5.85)

La palabra de código asociada

U = (r0 r1 ... rn-k-1 , m0 m1 ... mk-1 ) (5.86)

Que aparece presentada en forma sistemática.

Ejemplo: Determinar el vector de código correspondiente a la palabra de mensaje


m  (1 0 1 1 ) si el polinomio generador es g( X )  1  X  X 3 , en un código cíclico
(7 ,4 ) .
El polinomio se obtiene por división de X nk m( X ) por g( X ) .

m( X )  1  X 2  X 3

X 3 m( X )  X 3  X 5  X 6 .

Dividiendo se tiene:

X 3  X 5  X 6  (1  X  X 2  X 3 )(1  X  X 3 )  q( X ).g( X )  1

U(X) = r(X)+X 3 m(X) = 1+X 3+X 5 +X 6

U  (1 0 0 1 0 1 1 )

5.7.4 Implementación circuital de divisores de polinomios

La codificación en códigos cíclicos de bloques de tipo lineal requiere de la división


polinómica. Esta operación puede realizarse circuitalmente con registros de
desplazamiento realimentados.
Dados los polinomios V ( X ) y g( X ) :

V(X) = v 0+v 1 X+v 2 X 2+...+v m X m (5.87)

g(X) = g0+g1 X+g 2 X 2+...+g r X r (5.88)

Siendo en general m  r .
La división de estos polinomios establece el valor del cociente y del resto de la
misma:

97
V(X) r(X)
= q(X) + (5.89)
g(X) g(X)

Un circuito como el de la figura realiza la operación de división.

cociente

-g0 - -g1 -g2 -gr-1 gr-1

V(X)

+ + + +

Figura 5.7.

Las etapas iniciales de los registros son llevadas a cero. Los primeros r
desplazamientos generan el ingreso de los bits mas significativos de V ( X ) . Luego del
ingreso del r-esimo bit la salida del cociente es g r1 .v m .Este es el termino de mas alto
orden del cociente. Para cada coeficiente del cociente q i el polinomio q i g ( X ) tiene
que ser restado del dividendo.
Las conexiones de realimentación realizan esta sustracción. La diferencia entre los r
bits de la izquierda que permanecen en los registros y los términos de realimentación
q i g ( X ) se realiza en cada desplazamiento y aparece como los contenidos del registro.
Después de m  1 desplazamientos en el registro, el cociente se presento en serie
sobre el terminal de salida, y el resto de la división reside en los registros de
desplazamiento.

Ejemplo:
Efectuar la división del polinomio V ( X )  X 3  X 5  X 6 por el polinomio generador
g( X )  1  X  X 3 . La operación a realizar por el circuito es de la forma:

X 3+X 5 +X 6 r(X)
3
= q(X)+
1+X+X 1+X+X 3

El circuito de división se presenta en la figura 5.8:

98
X0 X1 X3

-g0 -g1 gr-1

V(X)
salida
+ +

0 0 0 1 0 1 1
Figura 5.8.

La evolución de los registros es la siguiente:

E Desp R salida
l
0 0 0 1 0 1 1 1 0 0 0 -
0 0 0 1 0 1 1 1 0 0 0
0 0 0 1 0 2 1 1 0 0
0 0 0 1 3 0 1 1 0
0 0 0 4 0 1 1 1
0 0 5 1 1 1 1
0 6 1 0 1 1
- 7 1 0 0 1

Después del cuarto desplazamiento los coeficientes de la salida cociente q i son 1 1 1


1, que corresponde al polinomio cociente q( X )  1  X  X 2  X 3 . Los coeficientes del
resto son 1 0 0, y el polinomio resto es r ( X )  1 .

5.7.5 Codificación sistemática con un registro de desplazamiento de (n-k)


etapas

La codificación de una palabra de código cíclico en forma sistemática consiste de la


realización de la división del polinomio X n k m( X ) por g( X ) . El resto de esta división
genera los bits de paridad. La palabra de mensaje tiene que ser entonces desplazada
hacia arriba para permitir la ubicación del los bits de paridad. El desplazamiento hacia
arriba de la palabra de mensajes ( n  k ) posiciones es una operación trivial previa
que no necesita ser tenida en cuenta en la división en si. En realidad solo los bits de
paridad se calculan. Posteriormente se los ubica en la posición adecuada dentro de la
palabra de acuerdo a la forma sistemática de codificación. El polinomio de los bits de
paridad es obtenido como el resto de la división después de n desplazamientos sobre
los ( n  k ) registros de desplazamiento. Los primeros ( n  k ) desplazamientos son
simplemente desplazamientos para llenar los registros. No habrá realimentación hasta
que el registro mas a la derecha no se haya llenado. El termino realimentado a la
izquierda es la suma del termino de la etapa a la derecha con la entrada. Esta suma
se genera solo si g 0  g n  k  1 para cualquier polinomio generador g( X ) . El
polinomio generador es igual a:

99
g(X) = 1+g1 X+g 2 X 2+...+g n-k-1 X n-k-1+X n-k (5.90)

S1

g1 g2 g3 gn-k-1

r n-k-1

+ r1 + r2 + + +

V(X)

m(X)
Figura 5.9 S2

El procedimiento de codificación es el siguiente:

Cuando el switch S1 esta cerrado los primeros k desplazamientos tienen lugar. Esto
permite la transmisión de los bits de mensaje en las ( n  k ) etapas del registro de
desplazamiento.
El switch S 2 esta en la posición inferior permite la transmisión de los bits de mensaje
sobre la salida durante los primeros k desplazamientos.
Luego de transmitir los primeros k bits el switch S1 se abre y el switch S 2 se
conecta al borne superior.
Los restantes ( n  k ) desplazamientos limpian los registros desarrollando la palabra
de bits de paridad sobre la salida.
El numero total de desplazamientos es n , y los contenidos del registro de salida es la
palabra de código , que en forma polinómica es r ( X )  X n k m( X ) .

Ejemplo:

Con el circuito de la figura 5.9 obtenga la palabra de código correspondiente al vector


de mensaje m  (1 0 1 1 ) en un código (7 ,4 ) cíclico lineal de bloques. Emplee el
polinomio generador g( X )  1  X  X 3 .

m  (1 0 1 1 )

m( X )  1  X 2  X 3 .

r ( X )  ( X 3  X 5  X 6 ) mod ulo(1  X  X 3 )

Para los primeros 3 registros de cambio de codificación las operaciones son las
siguientes:

100
g(X) = 1+X+X3
S1

+ r1 r2 +

V(X)

m(X) = 1+X+X3

Figura 5.10.

E despl. R Sal.
1 0 1 1 0 0 0 0 -
1 0 1 1 1 1 0 1
1 0 2 1 0 1 1
1 3 1 0 0 0
- 4 1 0 0 1

Después del cuarto desplazamiento el switch S1 se abre, el switch S 2 se coloca en la


posición superior, y los bits de paridad se desplazan sobre la salida. El vector de
salida es U  (1 0 0 1 0 1 1 ) , que en forma polinomial es igual a
U( X )  1  X 3  X 5  X 6 .

5.7.6 Detección de error con un registro de desplazamiento de (n-k) etapas

Para un dado vector de código expresado polinomialmente U ( X ) el ruido presente en


el canal de transmisión lo transforma en una versión con errores Z( X ) . Por ser
palabra de código U corresponde a un polinomio U ( X ) que es múltiplo del polinomio
generador, es decir:

U(X) = g(X).m(X) (5.91)

el vector con errores esta representado por un polinomio Z( X ) de forma tal que:

Z(X) = U(X)+e(X) (5.92)

101
Donde e( X ) es el polinomio que representa el patrón de error existente. La detección
de error se realiza también por síndrome. El decodificador realiza la división del vector
recibido por g( X ) y observa si el resto de la división es cero. Por lo tanto el
síndrome S (X ) es el resto de la división de Z( X ) por g( X ) :

Z(X) = q(X)g(X) + S(X) (5.93)

Donde S( X ) es un polinomio de grado ( n  k  1 ) o menor. Combinando las


expresiones anteriores se tiene:

e(X) = m(X)+q(X)g(X)+S(X) (5.94)

El síndrome calculado dividiendo Z( X ) por g( X ) es el mismo que el calculado


dividiendo e( X ) por g( X ) . El síndrome contiene entonces toda la información
necesaria para la corrección del error. La detección de errores implica entonces hacer
una división polinómica. El circuito de la figura realiza tal división.

S1

S(X)

+ + + S2

1 0 0 1 0 1 1
Figura 5.11.

El circuito de decodificación es similar al de codificación. El primer proceso sucede con


el switch S1 cerrado, y el S 2 abierto. El vector recibido es desplazado sobre los
registros, que inicialmente están en valor cero. Luego de que el vector de entrada
ingreso a los registros, el contenido de los registros es el síndrome. Luego el switch
S1 se abre, y el S 2 se cierra, permitiendo desplazar el vector sobre la salida. La
siguiente tabla describe el desarrollo de la decodificación:

102
E Despl. R
1 0 0 1 0 1 1 0 0 0 0
1 0 0 1 0 1 1 1 0 0
1 0 0 1 0 2 1 1 0
1 0 0 1 3 0 1 1
1 0 0 4 0 1 1
1 0 5 1 1 1
1 6 1 0 1
- 7 0 0 0

Si el síndrome decodificado es el vector todos ceros, la palabra decodificada se acepta


como valida. Para corregir errores se puede confeccionar una tabla de síndromes y
patrones y corregir de la misma forma que se hace en todo código de bloques lineal.

103
5.8 Códigos Convolucionales

Existen dos tipos de codificación para el control de error en un canal, los códigos
de bloques y los códigos convolucionales. Se ha analizado hasta ahora las
características de los códigos de bloques. En este capitulo se realiza el análisis de
los códigos convolucionales. En un código convolucional los n bits de la salida del
codificador dependen no solo de los k bits de entrada, sino también de K bloques
de información de entrada previos. Un código convolucional ( n , k , K ) se
implementa con k entradas que ingresan a un circuito secuencial de n salidas con
un nivel de memoria K . Típicamente n y k son números enteros siendo
normalmente k  n . El nivel de memoria K debe hacerse grande para aumentar
la capacidad de detección de error del código.

5.8.1 Codificación en códigos convolucionales

La figura 5.12 representa un codificador para generar un código


convolucional.

c(1)
entrada m

c(2)

Figura 5.12.

Este será un código convolucional binario ( 2 ,1,3 ) . El vector de entrada es una


secuencia que tiene la forma:

m = m0 , m1 , m 2 , ..... (5.95)

El vector secuencia de salida u se configura con las secuencias de salida c :

c (1) = c 0( 1 ) , c1( 1 ) , c 2( 1 ) , .......


(5.96)
c (2) = c 0( 2 ) , c1( 2 ) , c 2( 2 ) , .......

Un esquema general de un codificador convolucional emplea kK registros que


operan en modulo-2. El parámetro K se denomina longitud de restricción.
Consiste básicamente de una medida de la forma en que los bits previos afectan a
los que se están generando en la salida. En la figura se ve que las secuencias de
entrada de k bits son desplazadas hacia la derecha en las primeras k etapas de
los registros. La salida es muestreada para generar la secuencia de salida del

104
código. Existen n bits de salida por cada k bits de entrada, por lo que se puede
definir la velocidad del código como k / n siendo k  n . La mayoría de los códigos
convolucionales emplean k  1 de forma que los bits de entrada son ingresados de
forma serie. Para este tipo de codificador convolucional la velocidad de código es
1 / n . El registro del sistema que tiene kK tapas, tendrá en este caso entonces
solo K etapas. La longitud K entonces se define en cantidad de bits para este
caso.

5.8.2 Representación de un codificador convolucional

La figura 5.12 muestra la llamada representación de conexiones que se emplea en


estos códigos. Existen diferentes forma de representación de la información y de la
forma en que una secuencia de m bits de entrada genera una secuencia c de
salida.
Las representaciones mas conocidas son el gráfico de conexiones, los polinomios o
vectores de conexión, el diagrama de estados, el diagrama de árbol, y el trellis.

5.8.2.1 Representación de conexiones

Como se ve en la figura 5.12, que representa un codificador convolucional


( 2 ,1,3 ) cada bit de los m de la secuencia de entrada se desplaza a los registros en
cada cambio de clock, y la salida es muestreada dos veces generando los valores
de la secuencia de salida. Los valores de la salida dependen de la forma en que las
conexiones están realizadas. La secuencia de salida será diferente si las
conexiones de los registros se cambian. Una descripción de un código
convolucional emplea un conjunto de vectores conexión donde la existencia de la
misma se representa con un uno, mientras que la ausencia de conexión se
representa con un cero. Por ejemplo para el codificador de la figura los vectores de
conexión g1 y g 2 que describen las ramas superior e inferior son
respectivamente:

g1 = 1 0 1
g2 = 1 1 1

La secuencia de salida para un dado vector de entrada se analiza en la siguiente


tabla.

El vector de entrada es m  (100011 ) . Se analizan los valores de los contenidos


del registro, el estado actual, el estado siguiente o próximo y las secuencias de
salida c (1) y c (2) :

entrada registro estado en estado en c (1) c (2)


mi s ti t i 1
- 0 0 0 0 0 0 0 - -
1 1 0 0 0 0 1 0 1 1
0 0 1 0 1 0 0 1 0 1
0 0 0 1 0 1 0 0 1 1
0 0 0 0 0 0 0 0 0 0
1 1 0 0 0 0 1 0 1 1
1 1 1 0 1 0 1 1 1 0
0 0 1 1 1 1 0 1 1 0
0 0 0 1 0 1 0 0 1 1
0 0 0 0 0 0 0 0 0 0

105
La secuencia de salida es entonces c  (1101110011101011 )

La siguiente tabla permite la evaluacion adecuada del diagrama de estados del


sistema.

entrada registro estado en estado en c (1) c (2)


mi s ti t i 1
- 0 0 0 0 0 0 0 - -
0 0 0 0 0 0 0 0 0 0
1 1 0 0 0 0 1 0 1 1
0 0 0 1 0 1 0 0 1 1
1 1 0 1 0 1 1 0 0 0
0 0 1 0 1 0 0 1 0 1
1 1 1 0 1 0 1 1 1 0
0 0 1 1 1 1 0 1 1 0
1 1 1 1 1 1 1 1 0 1

5.8.2.2 Representación polinomial

Otra forma de representar un codificador convolucional es usando polinomios


generadores. Cada polinomio es de grado K  1 o menor y describe las conexiones
de forma similar a la representación de conexiones. Los coeficientes de estos
polinomios son iguales a uno cuando la conexión existe, y a cero cuando no existe.
Para el codificador de la figura por ejemplo los polinomios generadores de la parte
superior e inferior son respectivamente, g1 y g 2 :

g1 (X) = 1+X 2
g 2 (X) = 1+X  X 2

Donde el termino de mas bajo orden en el polinomio corresponde a la etapa del


registro. Dado un vector de entrada m  (100011 ) , el vector de salida se calcula
de la siguiente forma:

m(X).g1 (X) = (1+X 4  X 5 )(1+X 2 ) = 1+X 2 +X 4 +X 5  X 6  X 7


m(X).g 2 (X) = (1+X 4  X 5 )(1+X  X 2 ) = 1+X+X 2 +X 4 +X 7
u(X) = (1,1 ) + ( 0 ,1 )X+(1,1 )X 2 +( 0 ,0 )X 3 +(1,1 )X 4 +(1,0 )X 5 +(1,0 )X 6  (1,1 )X 7

La secuencia de salida es entonces c  (1101110011101011 ) .

5.8.2.3 Representación por diagrama de estados

El estado de un código convolucional 1 / n se define como el contenido de


los K  1 registros de estado que se encuentran a la derecha. De esta manera los
K  1 registros de estado de la izquierda constituyen el próximo estado. El
diagrama de estados es una forma de representación de la evolución de las
secuencias de estado para estos códigos. El codificador analizado en este ejemplo
tiene un diagrama de estados como el que se ve en la figura.

106
00

11
11
S0 = 0 0 Bit de
entrada ‘0’

00 Bit de
entrada ‘1’
S1 = 1 0 S2 = 0 1
01

S3 = 1 1 10
10

01

Figura 5.13.

El sistema se analiza considerando que existen cuatro estados representados por


S0  00 ,S1  10 ,S2  01 y S3  11 . Existen solo dos transiciones que emergen de
cada estado y que tienen que ver con las dos posibilidades de entrada binaria
existentes, ‘1’ o ‘0’. La convención empleada es tal que un ‘1’ lógico de entrada se
representa con líneas de puntos, mientras que un ‘0’ logico de entrada se
representa con líneas llenas.
Una característica importante de estos códigos se hace evidente de la observación
del diagrama de estado. No es posible pasar de un estado a otro arbitrario. Esto
resulta del mecanismo de memoria que el sistema tiene.

5.8.2.4 El diagrama en árbol

El diagrama de estados permite conocer la transición entre estados, pero no


aporta información acerca de la historia del sistema es decir, de los estados y
transiciones iniciales.
El diagrama de árbol tiene en cuenta la dimensión del tiempo, poniendo en
evidencia la forma en que la secuencia realmente sucede. El diagrama de árbol
para parte de la secuencia de entrada m  (100011 ) que entra al código
convolucional de la figura es el siguiente:

107
00 S0

S0
00

11 S1

00 S0

01 S2

11 S1

10 S3
0

S0
11
1 S2
01

00 S1

11 S1

S2
10

10 S3

01 S3

Figura 5.14.

Cada bit de entrada mueve la secuencia hacia arriba o hacia abajo dependiendo de
su valor. Un bit de entrada ‘0’ se representa como un movimiento hacia arriba. Un
bit de entrada ‘1’ se representa como un movimiento de la secuencia hacia abajo.
En este ejemplo el sistema se inicia en el estado S0  00 . La secuencia evoluciona
hacia abajo yendo al estado s1  10 con una salida 11 , luego se genera la salida
01 yendo al estado S2  01 , y así sucesivamente. Esta representación pone en
evidencia la forma en que la secuencia se inicia, así como la dependencia del
estado inicial. Sin embargo la realización de este esquema se torna impractica
para largas secuencias. Existe por otra parte algún tipo de repetición en la
formación de las secuencias que hacen de este gráfico una representación
redundante.
Una representación mejorada de estos códigos es la llamada representación por
trellis.

5.8.3 Trellis para un código convolucional

Una propiedad importante de los códigos convolucionales es observada en la


representación de árbol hecha previamente. El sistema tiene, a partir de
determinado momento, una repetición en su estructura. La estructura del árbol se
repite después de K ramas, donde K es la constante de longitud asociada a estos
códigos. La siguiente figura es la representación en trellis del código convolucional
estudiado en este ejemplo:

108
t1 t2 t3 t4 t5 t6
00 00 00 00 00
S0 = 00
11 11 11 11 11

11 11 11
S1 = 10 00 00
00
01
01 01 01
S2 = 01
10 10 10
10 10 10 10

S3 = 11
01 01 01

Figura 5.15.

Se utiliza la misma convención para los bits de entrada que se empleo en el


diagrama de árbol. Las líneas sólidas representan un bit de entrada ‘0’ mientras
que líneas punteadas se usan para representar un bit de entrada ‘1’. Existen 2 K 1
posibles estados para ser representados. Como se observa, la estructura se torna
periódica después del instante t d . Existen también dos ramas que emergen de
cada estado pertenecientes a las dos posibilidades de bits de entrada, y dos ramas
que arriban a cada estado.

5.8.4 Decodificacion por máxima similitud (MLD: Maximum Likelihood


Detection)

Para una cierta secuencia de salida de un código convolucional C (m) existe una
secuencia recibida, denominada Z , que resulta de la aparición de errores por
efecto del ruido sobre la secuencia original C . El decodificador óptimo es tal que
compara las probabilidades condicionales P ( S r / C (m) ) de que la secuencia recibida
Sr corresponda a una secuencia conocida U (m) y toma la decisión de elegir la
secuencia que tiene la mayor probabilidad de coincidir con S r :

P (Sr /C (m' ) ) = max


(m)
P(S r /C (m) ) (5.96)
U

Este es le criterio de máxima similitud. Esta obviamente de acuerdo con el hecho


intuitivo de asignar la secuencia conocida en el decodificador que mas se parece a
la recibida.
La aplicación de este criterio a los códigos convolucionales enfrenta el hecho que
un gran número de secuencias posibles debe ser considerada. Para una secuencia
de L bits se tienen 2 L posibilidades. El decodificador de máxima similitud elige
una secuencia C (m' ) del conjunto posible, que tenga la mayor probabilidad de
parecerse al vector recibido.
Si el canal no tiene memoria, el ruido es aditivo blanco y gaussiano, cada símbolo
esta afectado de una forma independiente de los otros. Para un código
convolucional de tasa 1 / n la función probabilidad que mide la similitud respecto
del vector recibido es:

109
  n
(m)
P (S r /C (m) ) = P(S r i /C i ) =  . P(s r ji /c (m)
ji ) (5.97)
i=1 i=1 j=1

Donde S r i es la i-esima rama de la secuencia recibida Sr , C i(m) es la i-esima


rama de la secuencia de una palabra de código C (m) , s r ji es el j-esimo símbolo de
(m )
código de S r i , y c ji es el j-esimo símbolo de código de C i(m) donde cada rama
esta constituida por n símbolos de código. El proceso de decodificacion consiste en
la elección de una secuencia que maximize la función similitud. Este problema se
analiza a continuación.

5.8.5 Algoritmo de decodificacion convolucional de Viterbi

El algoritmo de decodificacion de Viterbi realiza la detección por máxima similitud.


Para eso utiliza las propiedades del trellis de un código convolucional. El algoritmo
intenta reducir la complejidad del calculo evitando tener en cuenta la totalidad de
las secuencias posibles. El procedimiento consiste en calcular la distancia entre la
señal recibida en el instante ti y los caminos o ramas entrantes del trellis en ese
instante en el estado analizado. En la medida que este criterio se va aplicando se
evalúa la secuencia que tiene la menor distancia respecto de la recibida, de forma
que la secuencia de máxima similitud finalmente aparece. El camino o secuencia
de máxima similitud, que es al mismo tiempo aquel que presenta la menor
distancia respecto del recibido, se denomina camino o secuencia sobreviviente.
Decir entonces que la secuencia es la de máxima similitud, es también decir que
se trata de aquella secuencia que tiene la menor distancia respecto de la recibida.
Se analiza un ejemplo para una mejor comprensión del mecanismo de
decodificación. Se emplea el criterio de distancia denominado de Hamming. Es
decir, la distancia entre dos palabras será el numero de elementos diferentes que
entre ellas exista.
Ejemplo: Dada la secuencia de entrada S r  11 01 01 00 11... correspondiente al
código convolucional de la figura, se aplica el algoritmo de Viterbi para
decodificarla. El primer paso de este proceso es determinar la distancia de
Hamming entre el vector recibido y la salida correspondiente a cada estado del
sistema.
Secuencia de entrada : 1 0 0 0 1

Secuencia transmitida C: 1 1 0 1 1 1 0 0 1 1
1
Secuencia recibida S r: 1 1 0 1 0 1 0 0 1 1
0 1
11 01 01 00 11
t1 t2 t3 t4 t5 t6 t7
2 1 1 0 2
S0 = 00
0 1 1 2 0

S1 = 10 1 2 0
1 0 2
0
0 1 1

S2 = 01

2 2 2 1 1 1 1

S3 = 11
0 1 1

Figura 5.16.

110
Uno de las dos ramas que arriban a cada estado puede ser eliminada por tener
mayor distancia que la otra. Las decisiones comienzan a tomarse cuando dos
secuencias diferentes arriban al mismo estado por dos o mas caminos distintos.
Por ejemplo, esto se realiza en el instante t 4 .

t1 t2 t3 t4 t1 t2 t3 t4
2 1 1 2
S0 = S0 = 00 l=1
00
0 1 1 0 1
1 1
S1 = 10 S1 = 10 l=1
1 1
0 0 0 0
S2 = 01 S2 = 01 l=3

2 2 2 2 2

S3 = 11 S3 = 11 l=2
0 0

Figura 5.17.

En el instante t 4 se toman decisiones sobre los caminos que arriban a cada


estado, y se eliminan aquellos que tienen mayor distancia que el sobreviviente. El
procedimiento se repite sucesivamente en cada estado, teniendo en cuenta las
decisiones previas, lo que simplifica el proceso de selección. La secuencia
detectada se ve en la figura 5.18.
t1 t2 t3 t4 t5 t6
S0 = 00
0 0 0

1
S1 = 10 l=1
0

S2 = 01

S3 = 11

Figura 5.18.

La decisión tomada en el instante t7 permite conocer la secuencia de entrada que


origino la secuencia recibida. La secuencia elegida es aquella que tiene la menor
distancia acumulada. Observando entonces la secuencia decodificada, y por
inspección del tipo de línea que tiene cada rama asociada, se puede determina si
la entrada fue un ‘1’ o un ‘0’.
La secuencia decodificada es entonces 1 0 0 0 1.... El sistema produjo la
corrección de un error en la secuencia de entrada S r .

111
Propiedades de distancia de los códigos convolucionales

Una de las características de todo sistema de codificación es el parámetro


distancia mínima, que resulta ser la menor entre todos los valores de distancia
entre los elementos del código. Para el caso de los códigos lineales esa distancia
puede tenerse en cuenta calculando la distancia mínima entre cada vector y el
vector “todos ceros”, o vector nulo. Para el caso de los códigos convolucionales la
distancia entre vectores no es tan claramente definida, debido a que la
transmisión no es por bloques, sino mas bien por secuencias con cierto contenido
de memoria. Sin embargo se puede suponer que el sistema esta fuera de
posibilidad de corregir errores cuando estando en el estado “todos ceros”, la
secuencia originalmente emitida es de ceros consecutivos, y por efecto del ruido la
secuencia se aparta de ser una cadena de ceros, y no tiene posibilidad de retornar
al estado “todos ceros”. Este evento será el de error. Esto es similar al caso de los
códigos de bloque, donde la distancia mínima es aquella cantidad de bits que debe
haber en error para que una palabra valida se convierta en otra valida del código y
sea indetectable. Luego, la secuencia que tenga la mínima distancia, y que
partiendo del estado cero, retorna a él después de una serie de transiciones, será
la secuencia que define la distancia mínima del código.
El procedimiento para definir la distancia mínima de un código convolucional
consiste en calcular la distancia para todos los caminos que salen y retornan al y
del estado cero. Aquel con distancia mínima define la distancia del código (Esto es
valido para los asi llamados códigos convolucionales sobre constelaciones
geométricamente uniformes). Esta distancia se la denomina mínima distancia
libre, d free . La capacidad de corrección del sistema, o sea el numero t de errores
que puede corregir, estará dada entonces por la expresión:

d  1 
t = parte entera de  free  (5.98)
 2 

Esto es solo cierto en algunas condiciones, como son que la longitud de


decodificacion sea suficiente, y que el valor de K sea no muy elevado.

112
5.9 Criterio de Máxima similitud

Como se ha analizado la distancia de Hamming de un código lineal es sencillamente el


numero de elementos diferentes que tienen dos vectores. La distancia mínima de un
código es el valor mínimo que adopta la función distancia evaluada para todas las
palabras del código. Se ha visto también que el peso de un vector es el numero de
unos que ese vector tiene. Para códigos lineales se dedujo que la distancia mínima es
el peso mínimo de los vectores del código, exceptuado el vector nulo. La distancia de
Hamming ha sido utilizada para evaluar la capacidad de detección y corrección de un
código.

5.9.1 Corrección y detección de errores

La tarea de un decodificador es determinar, para un dado vector recibido r , cual ha


sido el vector transmitido de código. La estrategia óptima de decodificación es el así
llamado criterio o algoritmo de máxima similitud que se expresa como:

El vector recibido U i es si sucede que


P(r/U i ) = max P(r/U j )
(5.99)
sobre todo U j

En el criterio de máxima similitud se supone que los bits que generaron la información
no codificada son igualmente probables. Si se asume que de un conjunto de señales
{ s i ( t ) } , con i  1,2 ,..., M se transmite alguna señal s i ( t ) , y se recibe una forma de
onda r (t )  s i (t )  n (t ) , decimos que en el instante de muestreo T se tiene que

z(T )  ai (T )  n(T ) . (5.60)

Para dos señales transmitidas por ejemplo, el criterio puede plantearse como:

P(s1 /z)>P(s2 /z)  H1


(5.61)
P(s 2 /z)>P(s1 /z)  H 2

Que significa que se adopta la hipótesis H1 que corresponde a suponer que el símbolo
enviado fue s1 , si la probabilidad de su ocurrencia es la mayor, de lo contrario se
decide por el símbolo s 2 .
Las probabilidades condicionales pueden ser expresadas de la siguiente forma:

p(z/s1 )P(s1 )>p(z/s2 )P(s 2 )  H1


(5.62)
p(z/s1 )P(s1 )<p(z/s2 )P(s 2 )  H 2

también expresada de la forma:

113
p(z/s1 ) P(s 2 )
>  H1
p(z/s2 ) P(s1 )
(5.63)
p(z/s1 ) P(s 2 )
<  H2
p(z/s2 ) P(s1 )

Conocida como la relación de similitud. Este criterio equivale a hacer la comparación y


decisión respecto de un umbral sobre la señal recibida. De acuerdo al criterio de
máxima similitud, se asume que los símbolos enviados son igualmente probables, por
lo que la expresión anterior se transforma en:

p(z/s1 )
> 1  H1
p(z/s2 )
(5.64)
p(z/s1 )
< 1  H2
p(z/s2 )

Suponiendo que se utilizaron dos símbolos s1 y s 2 , de forma que las variables


recibidas después del muestreo son las variables aleatorias z(T )  a1  n 0 ,
z(T )  a2  n0 . Si se adopta ruido de tipo blanco y Gaussiano, la función densidad de
probabilidad será:

2
1  n0 
1  
2  


p(n0 ) = e (5.65)
 2

La relación de similitud se puede expresar en términos de esta densidad de


probabilidad, que caracteriza la recepción de cada símbolo transmitido:

2
1  z  a1 
1  
2   

e
 2π P(s 2 )
2
  H1 (5.66)
1 
1  z  a2 
  P(s1 )
2   
e
 2π

Que desarrollada en los términos cuadráticos y ordenada de otra forma se escribe


como:

 2 2 
 z(a1 a2 )  a1 a2 
 2
 2 . 2 
 P(s 2 )
e >  H1 (5.67)
P(s1 )

Tomando logaritmo sobre ambos lados de la desigualdad:

114
 z(a1 - a 2 ) a12  a 22   P(s 2 ) 
 2
 2 > ln    H 1 (5.68)
  2   P(s1 ) 

Suponiendo que los símbolos son equiprobables:

a1+a2
z>  H1
2 (5.69)
a +a
z < 1 2  H2
2

El criterio se reduce a la decisión de elegir uno u otro valor realizando una


comparación con el umbral, que para símbolos equiprobables es el promedio de los
valores centrales o esperados de las campanas de Gauss para cada función
probabilidad.
En general podremos decir que el criterio de máxima similitud se reduce a la decisión
de considerar cual de los vectores de código esta mas cerca, o sea posee la menor
distancia, respecto del recibido. esto es:
El vector recibido es U i si:

d(r, U i ) = min d(r, U i )


(5.70)
sobre todo U j

El decodificador calcula la distancia entre el vector recibido y todos los posibles


vectores del código, y elige como vector detectado aquel para el cual la distancia
calculada fue la mínima.
La figura muestra un eje calibrado en unidades de distancia de Hamming.

umbral

U r1 r2 r3 V

El vector r1 representaría al vector U con un error. El decodificador, al recibir r1 ,


determina que el vector correspondiente transmitido fue U . Sin embargo, si r1 fuera
el resultado, ya menos probable, de que el vector V tuvo cuatro errores, el
decodificador estará cometiendo en la corrección, un error de decodificación. El vector
recibido r2 también es considerado como vector U . El vector r 3 es descodificado
como vector V . Seria en este caso el vector V con dos errores. En cualquiera de los
casos se produce correctamente la detección del error. Si el vector U por ejemplo
presentara cinco errores, entonces se convertiría en el vector V , siendo en este caso
un patrón de error no detectable. El caso presentado es el de un código de distancia
mínima d min  5 .

115
Detección y corrección simultánea

Cuando la capacidad de corrección de un código se emplea parcialmente, el sistema


puede a su vez detectar adicionalmente ciertos patrones de error. La expresión usada
en estos casos es la siguiente:

d min  l+t+1

Un código puede usare simultáneamente para corregir t errores, y detectar un numero


l de errores tales que l  t . Cuando aparecen t errores, el código es capaz de
detectarlos y corregirlos. Cuando mas de t , pero menos de d min errores ocurren, el
código es capaz de detectar su presencia, y en algunos casos corregir algunos de ellos.
Como un ejemplo, supongamos tener un código de distancia mínima d min  7 . Las
posibilidades de aprovechamiento de la capacidad de control de error de este código se
presentan en la siguiente tabla:

detectar corregir
l t
3 3
4 2
5 1
6 0

116
6 Transmisión digital pasabanda

La transmisión de señales a través de un vinculo de radio frecuencia o bien otro tipo


de transmisión de mayor complejidad, requiere generalmente del uso de la
modulación como técnica de expansión de la transmisión, que consiste básicamente
en la aplicación de la información sobre alguna de las propiedades de una señal de
alta frecuencia, denominada generalmente portadora. La información en este caso
modifica las propiedades de amplitud, fase o frecuencia de una señal senoidal, que es
generalmente de una frecuencia mas alta que la información en si.
La información aplicada sobre la portadora se clasifica generalmente en binaria o M-
aria. El formato de banda base altera la portadora en forma digital, enviándola en un
conjunto discreto de señales posibles. Si las señales enviadas son dos formas
diferentes de onda, la modulación es binaria. Si el conjunto de posibles formas de
onda es de M  2 señales (Generalmente M  2 n ), la señalización se denomina M-
aria.
Desde el punto de vista de la recepción de las señales se hará la diferencia entre la
recepción coherente (Con información de portadora) y la recepción no coherente
(donde la demodulación se realiza sin necesidad de conocer la información de fase y
frecuencia de la señal de portadora ).

6.1 Modulación digital de onda continua

Una señal de portadora puede ser modulada digitalmente alterando su fase, su


frecuencia o amplitud. Una forma de onda de banda base puede tener cualquiera de
los formatos estudiados. considerando el formato de señalización NRZ, la señal
modulada es básicamente la superposición de diferentes formas de onda que se
corresponden unívocamente con la información, sea esta presentada en forma binaria
o en forma M-aria.
En este sentido la información parece ser presentada como un “switching” o selección
discreta entre diferentes opciones, que son en definitiva formas de onda que se
transmiten sobre el canal. Esta selección entre diferente formas de onda suele
denominarse en ingles “ Shift keying”. Las formas de modulación digital mas
simples son las denominadas ASK (Amplitud Shift Keying), PSK (Phase Shift Keying)
y FSK (Frequency Shift Keying). Dichas formas de onda se ven en la figura 6.1.

Señal ASK en el tiempo


A 1

0.8

0.6

0.4

0.2

- 0.2

- 0.4

- 0.6

- 0.8

-1
0 200 400 600 800 t 117
A Señal PSK en el tiempo
1

0.8

0.6

0.4

0.2

-0.2

-0.4

-0.6

-0.8

-1
0 50 100 150 t

A Señal FSK en el tiempo


1

0.8

0.6

0.4

0.2

-0.2

-0.4

-0.6

-0.8

-1
0 200 400 600 800 t

Figura 6.1.

Análisis Espectral de señales digitales pasabanda

Una señal pasabanda modulada puede expresarse en la forma de componente en fase


y cuadratura:

118

x c (t) = Ac x i (t) cos ( c t +  )  x q (t) sin ( c t + )  (6.1)

La información es aplicada sobre las componentes en fase y cuadratura, x i ( t ) y


xq ( t ) .
En general las componentes en fase y cuadratura son variables aleatorias
independientes, lo cual significa que la correlación cruzada de estas variables es igual
a cero:

   
R xi xq = E x i (t)x q (t) = E x i (t) E x q (t) = 0 (6.2)

Como consecuencia de esta propiedad:

x i + x q 2 = x i2 + x q2 (6.3)

La señal modulada en un proceso de esta naturaleza puede ser modelada como el


producto de la señal por una senoide de tipo aleatoria:

z(t) = x(t). cos ( c t+ ) (6.4)

la autocorrelcion de una función modulada por una función cosenoidal aleatoria es:

R z (t1 ,t 2 ) =E x(t 1 ) cos ( 1+) x(t 2 ) cos ( t 2 +) =


(6.5)
1 1
= cos c (t 1 - t 2 ) E x(t1 )x(t 2 ) = cos ( c)R x ()
2 2

La densidad espectral de potencia se evalúa según la expresión:

1
G z (f) = G x (f - fc ) + G x (f + fc ) (6.6)
4

Si la señal fuera cualquiera de las componentes x i ( t ) o x q ( t ) :

Ac2
Gc (f) =
4
 
Gi (f - fc ) + Gi (f + fc ) + Gq (f - fc ) + Gq (f + fc ) (6.7)

Las densidades espectrales Gi ( f ) y Gq ( f ) son las componentes espectrales de xi ( t )


y x q ( t ) . Se puede definir el espectro pasabajos equivalente como:

Glp (f) = Gi (f) + Gq (f) (6.8)

De acuerdo a esta definición la expresión (6.7) se transforma en:

119
Ac2
Gc (f) =
4

Glp(f - f c ) + Glp (f + f c ) 
El espectro pasabanda queda expresado en función del equivalente pasabajos.
La señal modulante es la secuencia de símbolos discretos modulados en amplitud:

x(t) = a
k
k p(t - kD) (6.9)

Representativa de una señal que envía símbolos ak a una velocidad r  1 / D .


La señal banda base tiene una densidad espectral de potencia dada por:


G x (f) =  a2 r|P(f)| 2 +(ma r)2  |P(nr)| 2
(f - nr) (6.10)
n  

Para el análisis de los esquemas de modulación se considera que la forma de pulso


p (t ) es rectangular y comienza en el instante de muestreo kD . Luego:

1 0<t<D
pD (t) =  (6.11)
0 otro t

pD(t)

D t

Figura 6.2.

 t-D/ 2 
pD (t) =    (6.12)
 D 

1 f 
| PD (f)|2 = 2
sinc 2   (6.13)
r r 

6.2 Métodos de modulación de amplitud

6.2.1 ASK

La forma de modulación digital de amplitud, ASK, consiste en el encendido y apagado


de una portadora, modulación que también se denomina OOK (On-Off Keying).
Cuando la forma de onda de banda base es una señal M-aria se generan M  1
amplitudes y el nivel cero. En este caso no existe modulación de fase por lo que toda

120
la componente de modulación esta representada en la componente en fase, siendo la
componente en cuadratura igual a cero.

x i (t) = a
k
k p(t - kD) (6.14)

ak  0 ,1,2 ,...,M-1

M 1
1 M-1
ma = ak =
M
i = 2
(6.15)
i 0

1 M 1 2 2M 2  3 M+1
ak2 =  i = (6.16)
M i 0 6

2 M 2 1
σ a2 = ak2 - ma = (6.17)
12

M 2 1 f  (M  1 )
2
Glp (f) = Gi (f) = sinc 2   δ ( f) (6.18)
12 r r  4

El espectro banda base se traslada en frecuencia de acuerdo a la expresión (6.8):

Ac2
Gc (f) =
4

Glp(f  fc )  Glp(f  f c )  (6.19)

Por ejemplo una secuencia de datos binarios modula una señal en la forma ASK
(OOK). La forma de onda en el tiempo, y la densidad espectral de potencia se ven en
las siguientes figuras.

121
A Señal ASK en el tiempo
1

0.8

0.6

0.4

0.2

-0.2

-0.4

-0.6

-0.8

-1
0 200 400 600 800 t

Figura 6.3.
Señal ASK, Densidad espectral de potencia
A, dB 50

-50

-100

-150

-200

-250

-300
0 50 100 150 200
Frecuencia

Figura 6.4.

Programa en MATLAB para una señal OOK

forma de onda:

t=0.000:0.001:0.999;

122
d=[1 0 0 1 1 1 0 1 0 1];
a=d(floor((t*10)+1));
y=a.*sin(2*pi*100*t);
plot(y,'w');
title('ASK signal, time domain');
xlabel('Time / ms');
ylabel('Amplitude');

densidad espectral:

t=0.000:0.001:0.999;
d=[1 0 0 1 1 1 0 1 0 1];
a=d(floor((t*10)+1));
y=a.*sin(2*pi*100*t);
sum(y.*y)/length(y)
four_xform=fft(y);
pwr_spc_den=four_xform.*conj(four_xform)/length(y);
pwr_spc_den=10*log10(pwr_spc_den);
plot(pwr_spc_den(20:200),'w');
title('Señal ASK, densidad espectral de potencia');
xlabel('Frecuencia’);
ylabel('A, dB');

123
6.2.2 QAM

Como se ha visto en el caso de la modulación ASK, la información es aplicada sobre la


componente en fase, haciendo que el vector modulado sea básicamente un vector que
solo cambia su amplitud entre valores discretos de la misma. Sin embargo la
información podría ser también aplicada al mismo tiempo sobre la componente en
cuadratura, o mas bien multiplexada y distribuida sobre una y otra componente,
permitiendo que la forma de onda modulante sobre cada componente tenga una
extensión en tiempo doble respecto del sistema que no utiliza la componente en
cuadratura.
Este tipo de modulación crea la aparición de cuatro símbolos, y se lo denomina
generalmente QAM (Quadrature Amplitud Modulation). El diagrama en bloques del
sistema QAM esta representado en la figura (6.5).

X
xi(t)
r=r b /2
xc(t)
Serie a cos c t +
paralelo
90º
r=r b
r=rb /2
xq(t)
ak = 1
X

Figura 6.5.

El conversor serie-paralelo distribuye los bits de entrada en dos grupos, reduciendo la


velocidad de señalización por cada rama del modulador.

x(t)

xi(t)

xq(t)

Figura 6.6.

x i (t) = a
ak
2k pD (t-kD) (6.20)

124
x q (t) = a
ak
2 k+1 pD (t-kD) (6.21)

En estas expresiones ak  1 y D  2Tb .


Para cualquier intervalo kD  t  ( k  1 )D los valores posibles de las componentes i y
q son  1 . Esto puede ser graficado en un plano de componentes i y q , llamado
constelación de la señal.

q
1
(0 1) (1 1)

-1 1 i

(0 0) -1 (1 0)
Figura 6.7.

Las componentes i y q son independientes pero tienen la misma forma de pulso y


los mismos promedios estadísticos.

1 1
ma = (1 )  (  1 ) = 0 (6.22)
2 2

1 1
σ a2 = (1 ) 2  (  1 ) 2 = 1 (6.23)
2 2

4  2f 
| PD (f) |2 = 2
sinc 2   (6.24)
rb  rb 

Glp (f) = Gi (f)+Gq (f) = 2Gi (f) (6.25)

4  2f 
Glp (f) = 2 r | PD (f) |2 = sin c 2   (6.26)
rb  rb 

La eficiencia en la señalización, o eficiencia espectral es:

rb 2 bps
 (6.27)
BT Hz

125
La velocidad de señalización se ve aumentada como consecuencia de la distribución
de la información en las componentes en fase y cuadratura.

6.2.3 PSK (Phase Shift Keying)

La forma de onda binaria PSK esta representada en la figura (6.1.b), y es


básicamente una transmisión binaria donde se emite una señal con la misma
frecuencia de portadora y con un cambio de fase de  π . Este es el máximo cambio
de fase posible, de forma que la distancia entre los símbolos transmitidos es la mayor
para el caso de modulación de fase. La modulación binaria PSK suele denominarse
también BPSK (binary PSK) o PRK (Phase Reversal Keying).
Si la información en banda base es una forma de onda M-aria la modulación se realiza
relacionando unívocamente cada nivel de amplitud con una fase de la portadora
determinada. En el intervalo kD  t  ( k  1 )D la portadora experimenta un cambio de
fase φ k . La señal modulada en PSK puede expresarse como:

x c (t) = Ac  cos 
k
c t + k + . p D (t-kD) (6.28)

   
x c (t) = Ac  cos  c t +  cos ( k ) p D (t-kD)  Ac  sin  c t +   sin ( k ) p D (t-kD)
k  k 
   
x c (t) = Ac  cos ( k )p D (t-kD) cos  c t +    Ac  sin ( k )p D (t-kD) sin  c t +  
k  k 
(6.29)

La forma de onda de modulación PSK esta entonces presentada como una forma de
onda en sus componentes en fase y cuadratura.

x i (t) = 
k
cos ( k ) pD (t-kD) = k
I k p D (t-kD)
(6.30)
I k = cos ( k )

x q (t) = 
k
sin ( k ) p D (t-kD) = k
Q k p D (t-kD)
(6.31)
Qk = sin ( k )

Los valores ak de la forma de onda M-aria modulante se corresponden con las


diferentes fases φ k .

 ( 2a k +N)
k = (6.32)
M

ak  0 ,1,2 ,...,M  1 , con N con valores 0 o 1.

126
q 1 (0 1)

(1 1) (0 0)

-1 1 i

(1 0) -1

Figura 6.8.

Por ejemplo para el caso M  4 y N  0 se tiene la constelación de la figura 6.8. A


esta modulación se la denomina QPSK.

ak = 0 ,1,2 ,3

π 3π
φ k = 0, , π, (6.33)
2 2

I k = 1, 0 , -1, 0
(6.34)
Qk = 0 , 1, 0 , -1 q 1
(0 1)
(0 0)

-1 1 i

(1 1)
(1 0)

-1
Figura 6.9.
a k = 0 ,1,2 ,3

127
π 3π 5π 7π
φk = , , , (6.35)
4 4 4 4

2 - 2 - 2 2
Ik = , , ,
2 2 2 2 (6.36)
2 2 - 2  2
Qk = , , ,
2 2 2 2

Como puede verse la constelación correspondiente a la modulación QPSK es


exactamente igual a la correspondiente a QAM si el valor de N  1 . Una propiedad
interesante de este esquema de modulación es que la portadora es de fase constante.

6.2.4 Análisis Espectral de PSK

Para determinar la densidad espectral de potencia en la modulación PSK se pude


hacer uso de las expresiones obtenidas para la componente en fase y cuadratura de la
forma de onda modulada. Tales componentes tienen similitud con la forma de onda
general de una señal PAM, solo que el valor de ak es ahora I k o Qk , para las
componentes en fase y cuadratura respectivamente. La expresión de la densidad
espectral de potencia requiere conocer los valores medios de la estadística de la
señal.

1  2a + N   1   2.ak    N 


Ik =  cos (
k
k )P(I k ) =   M  cos
k M
 = 
 M 
 cos
k M
 cos
  M


1   2.ak    N 
 
M 
 sin  sin =0
k  M   M 
(6.37)

Igualmente para la componente Q k se verifica que:

Qk = 0 (6.38)

Igualmente se calculan los promedios cuadráticos:

1  2 a + N   1 (1+ cos ( 2 k )) 1


I k2 =  cos 2
( k )P(I k ) =    cos 2  =  
k k M   M  M k 2 2
(6.39)

Para la componente Q k :

1
Q k2 = (6.40)
2

De esta manera la densidad espectral equivalente pasabajos resulta ser:

Glp (f) = Gi (f)+Gq (f) (6.41)

128
Gi (f) = Gq (f) =  a2 r| PD (f) |2 (6.42)

Dado que el formato banda base es polar NRZ.

1
Gi (f) = Gq (f) = r | PD (f) |2 (6.43)
2

1 f 
Glp (f) = sin c 2   (6.44)
r r 

La densidad espectral es similar a la de ASK, pero no contiene función δ en la


frecuencia de portadora. PSK tiene mejor eficiencia de potencia, y similar eficiencia
espectral.
La eficiencia espectral para ASK y PSK esta dada básicamente por la expresión de la
velocidad r en función de la velocidad binaria rb . Si se emplea modulación M-aria, la
velocidad de señalización viene dada por:

rb
r= (6.45)
log 2 M

La eficiencia espectral, o numero de bits por segundo que se transmite por unidad de
ancho de banda se evalúa sabiendo que aproximadamente el ancho de banda de
transmisión es

BT  r (6.46)

para las modulaciones ASK y PSK. La eficiencia espectral es entonces:

rb bits/seg
 log 2 M (6.47)
BT Hz

6.2.5 FSK

La modulación de frecuencia se realiza básicamente de dos formas. Esta modulación


de tipo binario consiste en la transmisión de dos frecuencias distintas que se
corresponden con cada uno de los bits a transmitir. Un primer procedimiento de
generación de FSK es la selección de una determinada frecuencia de un conjunto de
osciladores a través de una llave o switch, en un planteo de modulación M-aria.

129
xc (t)

f1 f2 FM
Figura 6.10.

El segundo procedimiento se basa en la aplicación de una señal de formato digital


sobre un modulador de frecuencia, es decir, un oscilador controlado por tensión.

x(t) xc (t)
Osc. Contr. V

Figura 6.11.

Este segundo caso se denomina CPFSK (Continuous Phase Frequency Shift Keying),
dado que la forma de onda resultante no tiene discontinuidades de fase. El primer
esquema, referido simplemente como FSK, puede presentar discontinuidades de fase
cuando se produce el cambio de un símbolo al otro, si el periodo de la señal
modulante no es un numero entero de semiciclos de la portadora.
Si la señal modulante es una señal M-aria se generara una señal M-aria FSK. Se tiene
un conjunto de osciladores de igual amplitud Ac y fase θ . Las frecuencias están
relacionadas de la forma:

f k = fc + fd a k
(6.48)
ak =  1,  3 , ... ,  (M-1 )

La señal modulada es de la forma:

x c (t) = Ac  cos ωc t + θ + 2πfd ak t pD(t-kD) (6.49)


k

Se ha hecho ω d  2πf d La variable fd es el desvío de frecuencia hacia cada lado


respecto de la frecuencia central.

2fd

fc -fd fc + fd
fc

Figura 6.12.

130
El caso de modulación FSK de tipo binario es el denominado FSK de Sundee. Los
parámetros de esta modulación son:

M  2 , f d  rb / 2 (6.50)

D  Tb  1 / r b .

pD(t)
1

Tb
Figura 6.13.

Para asegurar la continuidad de fase debe suceder que

2 ω d D = 2 πN (6.51)

En este caso el valor de N es establecido en N  1 . Luego, de la condición anterior:

rb
fd = (6.52)
2

Para obtener el espectro de esta señal será necesario conocer las formas de onda de
las componentes x i ( t ) y x q ( t ) . De la expresión de la señal modulada FSK:

 
x c (t) = Ac  cos  c t+  cos  d a k t  pD (t-kD) 
k 
 
 Ac  sin  c t+  sin  d ak t  pD (t-kD)
k 

(6.53)
 
x c (t) = Ac  cos d a k t  pD (t-kD) cos  c t+  
k 
 
 Ac  sin d ak t  pD (t-kD) sin c t+ 
k 

De la expresión anterior se obtienen las expresiones para x i ( t ) y x q ( t ) .


Como ak  1 .

cos d ak t = cos d t  (6.54)

131
sin d ak t = ak sin  d t  (6.55)

x i (t) =  cos  d t  pD (t-kD) = cosd t  = cos  rb t 


k

(6.56)
x q (t) =  a k sinr b t  u(t-kTb ) - u(t-kTb -Tb ) =
k

=  Qk p(t-kTb )
k

(6.57)

Qk = (-1 ) k ak (6.58)

p(t) = sinr b t u(t) - u(t-Tb ) (6.59)

Expresiones obtenidas usando la equivalencia;

sin ( r b t) = sinr b (t- kTb )+k  = cos (k) sinr b (t-kTb ) (6.60)

La portadora en fase no contiene información. De hecho solo producirá dos δ' s en el


espectro final en  r b / 2 .
La componente en cuadratura se transforma en una señal PAM donde la forma del
pulso ya no es cuadrada.

Los promedios estadísticos son:

Qk = (-1 ) k ak = 0 (6.61)

Qk2 = (-1 ) 2 k a k2 = 1 (6.62)

La expresión de la densidad espectral de potencia es función de la estadística de la


información y de la forma espectral de pulso, que ha dejado de ser un pulso
cuadrado, para convertirse en un pulso que es un semiciclo de una senoide. El
espectro asociado se calcula obteniendo la transformada de Fourier de la expresión
(6.59).

Así:
2
2 1   f - rb / 2   f + rb / 2  
| P(f) | =  sin c    sin c


 r

 (6.63)
4 r b2   rb   b 

2
  f  
 cos  
4 
| P(f) |2 = 2 2   rb   (6.64)
 rb   2f  2 
   1 
 r 
 b  

132
El espectro final esta constituido entonces por dos funciones δ y el espectro
calculado de p( t ) .

1   rb   r 
Glp (f) = δ  f -  +δ  f + b   rb| P(f)|2 (6.65)
4   2  2 

133
6.2.6 CPFSK

La modulación digital de frecuencia puede también realizarse aplicando una forma


de onda modulada digitalmente en amplitud (PAM) a un dispositivo cuya salida es
una frecuencia que depende de la amplitud aplicada a la entrada, denominado
oscilador controlado por tensión. En este sentido el diagrama del sistema es
idéntico a un modulador de FM típico de señal analógica.
La señal de entrada es:

x(t) = a
k
k p(t-kD) (6.66)

donde:
a k  1,2 ,...,( M  1 ) . (6.67)

La señal de entrada se inicia en t  0 . La señal modulada será entonces:


x c (t) = Ac cos  c t++2fd  x()d
t

0
 (6.68)

t 0.

Luego:

t  t

 0
x()d =  a
k=0
0
k p D (-kD)d (6.69)

donde en el intervalo kD  λ  ( k  1 )D se cumple que pD ( λ  kD )  1 .

En base a esta consideración:

t
 x()d = a t
0 0 0 <t<D
t
 x()d = a D +a (t-D)
0 0 1 D < t < 2D
(6.70)
.
t  k-1 
0 x(  )d     a j D  a k (t-kD) kD< t < (k+1 )D
 j=0 

Luego:

x c (t) = Ac  cos c t+   k +ak  d (t-kD) p D (t-kD) (6.71)


k

 k-1 
 k    a j  d D con φ k  0 para k  0 (6.72)
 j=0 

El caso de mayor uso en la práctica de la modulación CPFSK es la denominada


MSK. (Minimum Shift Keying).

134
6.2 7 MSK

MSK es el tipo de modulación digital de frecuencia que tiene el mínimo índice de


modulación para modulación de símbolos ortogonales.
En este caso la desviación es la mitad de la aplicada en FSK de Sundee, de forma
que:

f d = rb / 4 (6.73)

En la expresión de la fase φ k , y siendo a k  1 :

 k-1  π
φk    a j  (6.74)
 
 j=0  2

La fase es una secuencia continua de valores que alternan en  π / 2 .


Los símbolos de la modulación son:

s 0 (t) = Ac p(t) cos 2(fc -fd )t  (6.75)

s1(t) = Ac p(t) cos 2(fc +fd )t 

La correlación entre los símbolos define lo que se denomina el coeficiente de


ortogonalidad:

Tb Tb Ac2  sen2( 2 fd )Tb   Tb Ac2  sen 2( 2 fc )Tb  


E10 =  s 0 (t)s1(t)dt =    
0 2  2fd 2Tb  2  2 2 f c 
Tb Ac2  4f 
 sin c  d 
2  rb 
(6.76)
1

0.8

0.6

A 0.4

0.2

-0.2

-0.4
0 0.5 1 1.5 2 2.5 3
Frecuencia relativa, 4 f d / rb

Figura 6.14.

135
Se ha supuesto que el segundo término de la ecuación (6.76) es cero, como
consecuencia de dos posibles condiciones:

Si fc  Nrb la expresión es exacta, dado que el segundo termino se anula.

Si fc >> rb la expresión es aproximada, y se basa en el hecho que el valor del


segundo termino tiende a cero (valor de sinc( x ) cuando x   ).
La expresión (6.71) puede descomponerse de l forma:

 
x c (t) = Ac   cos  k +ak  d (t-kD)cos  c t+ p D (t-kD) 
 k 
(6.77)
 
Ac  sin  k +ak  d (t-kD)sin  c t +  pD (t-kD)
k 

 
x c (t) = Ac   cos k +a k  d (t-kD)pD (t-kD) cos  c t +  
 k 
(6.78)
 
Ac  sin k +a k  d (t-kD) p D (t-kD) sin  c t + 
k 

Las componentes en fase y cuadratura son entonces teniendo en cuenta que


D  Tb :

x i (t) =  cos +a  (t-kT )p


k
k k d b Tb (t-kTb ) (6.79)

x q (t) =  sin +a  (t-kT )p


k
k k d b Tb (t-kTb ) (6.80)

πrb
Si c k = 2fd (t  kTb ) = (t  kT b ) (6.81)
2

pTb (t) = u(t)  u(t-Tb ) (6.82)

x i (t) =  cos +a c p
k
k k k Tb (t-kTb ) (6.83)

xq (t) =  sin +a c p
k k k Tb (t-kTb ) (6.84)
k

La fase del sistema puede cambiar en  π / 2 . Esta variable puede ser graficada en
la forma de un árbol, dado que existe cierto efecto de convolución en el proceso de
modulación.

136
3/2 k

/2

-/2 k

-

-3/2

Figura 6.15.

Si se asigna el valor de entrada de forma que:

ak  1 el bit es un uno,

a k  1 el bit es un cero.

Para una secuencia determinada de entrada la salida puede verse como una
secuencia de fases que cambian en  π / 2 . Por ejemplo si la secuencia de
entrada fuera 1 0 0 1 1 0 1 0 1 , la salida seria una secuencia de fases como la
que se ve en la figura:

k

/2

1 2 3 4 5 6 7 k
-/2

Figura 6.16.

Las componentes en fase y cuadratura también representan la información de


fase.

137
xi(t) 1

0.8

0.6
A
0.4

0.2

-0.2
0 200 400 600 800 t

Figura 6.17.

xq(t) 1

0.8

0.6

0.4
A 0.2

-0.2 2Tb
-0.4

-0.6

-0.8

-1
0 200 400 600 800 t

figura 6.18.

Para determinar la característica de la densidad espectral de potencia se realizan


las siguientes consideraciones:

cos  k  a k c k  = cos c k  cos  k   a k in c k  sin k  (6.85)

sin k  a k c k  = cos c k  sin k   a k sinc k  cos  k  (6.86)

La modulación MSK realiza una distribución de la información de entrada en las


componentes en fase y cuadratura, duplicando la extensión en tiempo de la forma

138
de onda modulante, en un proceso similar al que sucede en QAM. Sin embargo,
este proceso sucede por efecto mismo de la modulación. Teniendo en cuenta un
intervalo entre ceros adyacentes de la componente i :

k-1Tb  t  k+1Tb (6.87)

x i (t) = cos k 1 +ak-1 c k-1 pTb t - (k-1 )Tb + cos  k +a k c k  pTb t- kTb  (6.88)

Para valores de k par, φ k  0 ,π ,2π ,...

sin( φ k )  0 (6.89)

cos  k  a k c k  = cosc k  cos  k  (6.90)

además:

cos   k-1  = 0
 (6.91)
 k-1 =  k - a k-1
2

c k-1  c k + / 2 (6.92)

cos  k 1+a k-1 c k-1  =- sin  k-1  sin a k-1 c k-1  =


(6.93)
-a k-1 sin  k 1  sin  c k-1   a k-1 a k-1 cos k cos  c k  = cos  k  cos  c k 

Entonces en el intervalo analizado:

x i (t) = cos k  cos c k  pT t - (k-1 )Tb + pT t- kTb  =


b b

πr b (6.94)
x i (t) = cos k  cos t - kTb u t - (k-1 )Tb   u  t- (k+1 )T b 
2

Luego puede expresarse la función x i ( t ) en la forma deseada:

x i (t) =  I pt -kT 


k par
k b (6.95)

Siendo:

I k = cos  k  (6.96)

y
 .r 
p(t) = cos b t  u t+Tb  - u t - Tb  (6.97)
 2 
Igualmente para la componente q :

x q (t) = sin  k  cos c k  pT t - (k-1 )Tb + pT t- kTb  =


b b

πr (6.98)
x q (t) = sin  k  cos b t - kTb u t - (k-1 )Tb   u  t- (k+1 )Tb 
2

139
x qi (t) =  Q pt -kT 
k impar
k b (6.99)

Qk = sin k  (6.100)

I k = Qk = 0
I k2 = Qk2 = 1 (6.101)

La estadística de las señales PAM equivalentes y la forma espectral asociada al


pulso p( t ) son suficientes para la determinación del espectro de este tipo de
modulación:

 πr   t 
p(t) = cos  b t   
 (6.102)
 2   2Tb 

2
2 1   f - rb / 4   f + rb / 4  
| P(f) | = 2 sinc    sinc   (6.103)
r b   rb / 2   r b / 2 

 
 
16  cos 2  f/r 
b 
Glp (f) =  a2 r b|P(f)| 2 = 2  2  (6.104)
 rb   4f 
  1 
 r  
 b  

Resumiendo, los espectros para las modulaciones digitales ASK, PSK FSK y MSK se
representan en las siguientes figuras. La primera es el espectro correspondiente a
PSK, que es igual al de la modulación ASK, pero sin la delta en la frecuencia
central. Los espectros mostrados corresponden a Glp ( f ) . El espectro de FSK tiene
una caída mas pronunciada en los laterales, y menos lóbulos a ambos lados del
centro del espectro. MSK muestra el menor ancho de banda para el mismo caso,
teniendo una eficiencia espectral igual a r b / BT  2 .

140
Densidad espectral para PSK (Señalización binaria, r b  1 ):

0.9

0.8

0.7

A 0.6
BT = rb
0.5

0.4

0.3

0.2

0.1

0
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
frecuencia
Figura 6.19.

Densidad espectral para FSK (Señalización binaria r b  1 ):

3.5

3
BT = rb

2.5
A
2

1.5

1 cruce por cero:


fb + 3rb/2
0.5

0
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
frecuencia
Figura 6.20.

141
Densidad espectral para MSK (Señalización binaria r b  1 ).

16

14

12

10
A BT = rb /2

6
rb / BT = 2
cruce por cero: bps
4 fc + 3.rb /4

0
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
frecuencia
Figura 6.21.

142
6.3 Sistemas binarios coherentes

Los sistemas digitales pasabanda coherentes utilizan información de la frecuencia y


fase de la portadora en la detección de la señal. Los sistemas denominados no-
coherentes son aquellos que no necesitan esta información para detectar la señal.
Como se verá el funcionamiento de los sistemas coherentes es superior al de los no-
coherentes.
Se considera detección binaria optima en presencia de ruido blanco Gaussiano aditivo
(AWGN).

6.3.1 Detección binaria optima

Como se analizó en secciones previas, todo tipo de modulación digital puede


expresarse en la forma de portadora en fase y cuadratura. La expresión general de
una señal recibida seria:

    
x c (t) = Ac  I k pi (t-kTb ) cos ( c t+ )   Q k pq (t-kTb )  sin ( c t+) (6.105)
 k   k  

En un sistema coherente la portadora puede sincronizarse con la velocidad de


señalización haciendo θ  0 y

Nc
f c = N c rb = (6.106)
Tb

Entonces:

 
x c (t) = Ac  I k p i (t-kT b ) cos ( c t -kT b )  Q k p q (t-kT b ) sin ( c t -kT b )   (6.107)
k 

Donde se ha hecho la reducción de la expresión a la de una señal que se compone de


la suma de senos y cosenos modulados por una forma de pulso p( t ) en el intervalo
considerado.
En cada intervalo de modulación pueden entrar varios ciclos de la portadora.
Para el intervalo

kTb  t  ( k  1 )Tb (6.108)

x c (t) = sm (t-kTb ) (6.109)

Donde :


s m (t) = Ac I k p i (t) cos  c t  - Qk pq (t) sin c t   (6.110)

Se interpreta que s m ( t ) podrá ser uno cualquiera de los dos símbolos modulados que
representan la información binaria, s 0 ( t ) y s1 ( t ) ( m  0 y m  1 ).

Se considera que el sistema esta en presencia de ruido blanco aditivo y Gaussiano. El


resultado de una detección en banda base es que el filtro optimo, es decir aquel que

143
provee la recepción optima, es el filtro adaptado. Se realiza un análisis similar
considerando que las forma de onda a detectar son dos.

/2
y(t)
xc(t) = sm(t-kTb) y(tk)
f.pasabanda S/H
+
h(t) m
+
-
Sincr.
V
Figura 6.22.

En el receptor se considera el uso de un filtro pasabanda en lugar de un filtro


pasabajos, si se compara el esquema con el de banda base.
La señal y ( t ) es señal mas ruido en una forma de onda que es muestreada en el
instante t  ( k  1 )Tb al final del intervalo analizado. El resultado del muestreo es una
variable aleatoria constituida por valores de tensión detectados que son comparados
con el nivel de umbral V , para toma la decisión de cual fue el símbolo transmitido.
La hipótesis H1 será la adoptada cuando el mensaje enviado es m  1 . La hipótesis
H 0 es la decidida cuando el mensaje enviado fue m  0 .

Las muestras y ( t k ) constituyen una variable aleatoria:

Y = y(tk ) = zm + n (6.111)

z m = zm (t k ) = s m (t-kTb )*h(t) (6.112)


t = t k = (k+1 )Tb

(k+1 )Tb Tb

zm =  s( - kTb )h(t k -)d =  s()h(T b -)d (6.113)


kTb 0

Expresión que se obtiene haciendo uso de la conversión de variables:

λ' = λ - kTb (6.114)

Las muestras de ruido n( t k ) constituyen una variable aleatoria Gaussiana de valor


medio cero y valor cuadrático medio σ 2 . Esta variable es la que establece la forma de
la función densidad de probabilidad para la variable Y .

144
pY(Y/H0) pY(Y/H1)

z0 Vopt z1

Pe1 Pe0

Figura 6.23.

La forma Gaussiana para la función distribución de probabilidad del ruido se adopta


por igual para los dos símbolos ya que es una propiedad del canal. Si los símbolos son
igualmente probables:

1
Vopt = z1+z0  (6.115)
2

Se podrá inferir entonces que siendo las probabilidad Pe0 y Pe1 iguales, la
probabilidad de error será función de la distancia entre los símbolos:

| z - z |
Pe = Q 1 0  (6.116)
 2σ 

La función del filtro pasabanda incluido en el esquema de la recepción tendrá que


maximizar la cantidad:

|z1 - z0 | 2
(6.117)
4σ 2

Para maximizar esta cantidad primero se calcula el numerador:


|z1 - z 0 | 2 = |  s () - s ()h(T -)d |
2
1 0 b (6.118)


El calculo de la integral esta extendido a  a pesar que los pulsos son limitados en
Tb . Por otro lado se evalúa la cantidad de ruido que ingresa a través del filtro
pasabanda:

     
2 = |H(f)| 2
df = |h(t)| 2
dt = |h(Tb -)| 2 d (6.119)
2  2  2 

145
Haciendo uso de la desigualdad de Schwartz

 2  
2 2
 v(t)w*(t)dt   w(t) dt  v(t) dt (6.120)
  

La proporcionalidad entre v ( t ) y w ( t ) permite usar la expresión con el símbolo “ = “.

Si

w ( t )  s1 ( t )  s 0 ( t ) (6.121)

y v ( t )  h(Tb  t ) (6.122)


 s ( ) - s ()h(T -)d |
2
|z1 -z0 | 2 | 1 0 b

1
 2 s (t)-s (t) dt
 2
2
= 
 1 0 (6.123)
4 2 
2  |h(Tb - )| d


Se concluye que si:

h(Tb - t) = Ks1(t)-s0 (t) (6.124)

es valido el símbolo igual en la expresión anterior, por lo que se deduce que el filtro
optimo debe cumplir:

hopt (t) = K s1 (Tb - t)-s0 (Tb - t) (6.125)

donde K es una constante arbitraria. El filtro optimo es un filtro adaptado a la


diferencia de las formas de onda de los símbolos empleados.
Un esquema que realiza la detección optima seria el siguiente:

zm1(t)
h 1(t)=
= Ks1(Tb-t)
sm(t-kTb)
+
+ S/H

_
zm = zm1(tk)-zm0(tk)
h 0(t)=
= Ks0(Tb-t)
zm0(t)

Figura 6.24.

El filtro adaptado puede ser configurado realizando una correlación:

Tb (k+1 )Tb

z m1 (t k ) =  s m ( )h1(Tb  )d = s m (t-kTb )Ks1 (t-kTb )dt (6.126)


0 kTb

146
Tb (k+1 )Tb

z m 0 (t k ) =  s m ( )h0 (Tb  )d = s m (t - kTb )Ks 0 (t - kTb )dt (6.127)


0 kTb

El diagrama en bloques del detector por correlación seria entonces:

zm1(t)
( k 1) Tb
x
sm(t-kTb)

kTb
+
K s1(t-kTb) S/H
+
_
( k 1) Tb zm = zm1(tk)-zm0(tk)
x 
kTb zm0(t)

K s0(t-kTb)
Figura 6.25.

El detector por correlación necesita conocer una replica memorizada de las formas de
onda s 0 ( t ) y s1 ( t ) para efectuar la multiplicación e integración sugeridas en el
proceso de recepción. Las formas de onda almacenadas son muestras libres de ruido
que el receptor conoce.
Si se implementa el filtro adaptado de la figura (6.24) o el receptor por correlación de
la figura (6.25) se detecta en condiciones optimas. Para este caso y según la
expresión (6.123) el factor relacionado con la función probabilidad alcanza su valor
máximo:


|z1 - z0 | 2 1
 2 η s1(t) - s0 (t)
2
2
= dt (6.128)
4σ 

Luego:
Tb

 s (t)-s (t) dt
2
1 0 = E1+E 0 -2 E10 (6.129)
0

Tb

 s (t) dt
2
E1 = 1 (6.130)
0

Tb

 s (t) dt
2
E0 = 0 (6.131)
0

Tb

E10 =  s (t)s (t)dt


0
0 1 (6.132)

147
E1 y E 0 son las energías de los bits, mientras E10 es el llamado factor de correlación
u ortogonalidad. La energía promedio de los bits es evaluada como promedio de las
expresiones previas:

1
Eb = E1+E 0  (6.133)
2

por otra parte:

2 
 z1 -z0 
  =
1
 2 s (t)-s (t)
1 0
2
dt =
1
E1+E 0 -2 E10  = E b -E10 (6.134)
 2   2 

La probabilidad de error se calcula como:

 E b -E10 
Pe = Q  (6.135)
  
 

aplicando las expresiones anteriores se puede determinar el valor de los símbolos


detectados:

Tb Tb

z1 =  s1( )h(Tb - )d =


0
 s ( )K s ( )-s ( )d
0
1 1 0 = K E1 -E10  (6.136)

Tb Tb

z0 =  s 0 ( )h(Tb -)d =  s 0 ( )K s1 ( )-s0 ( )d = K E10 -E 0  (6.137)


0 0

1
Vopt = z1+z0  = 1 K E1 -E 0  (6.138)
2 2

6.3 2 Detección coherente de OOK, PRK y FSK

6.3.2.1 OOK

La señal correspondiente a la modulación OOK presenta básicamente un solo


símbolo, s1 ( t ) , ya que el otro es cero:

s1 (t) = Ac pTb (t) cos  c t 


(6.139)
s 0 (t) = 0

como se considera normalmente que fc  N c rb entonces

s1 (t-kTb ) = Ac cos  c t  (6.140)

148
El detector de este tipo de modulación se convierte en el esquema de la figura, donde
la replica de la señal s1 ( t ) es un oscilador sincronizado con la portadora.

y(t)
xc(t) = sm(t-kTb) y(tk)
( k 1) Tb
x S/H

kTb +
m

K.Ac.cosct V
Sincr.
Figura 6.26.

Las señales de sincronismo de bit y de bloques pueden ser obtenidas como división de
la frecuencia de portadora debido a que existe una relación de numero entero entre
rb y fc . Conociendo la frecuencia de portadora, el periodo de la modulación se
obtiene por división de frecuencia.

Para este caso:

E 0 = E10 = 0 (6.141)

Tb
Ac2 Tb
E1 = A  cos 2 ( c t) dt =
0 2
(6.142)
A 2T
Eb = c b
4
el umbral de detección se establece en el valor:

K
V= E1 -E 0  = KE b (6.143)
2

mientras que la probabilidad de error es:

 E b -E10   Eb 
Pe = Q
 
 = Q
  
= Q

 b  (6.144)
   

6.3.2.2 PRK

En este caso los símbolos de la modulación son:

s1 (t) = Ac pTb (t) cos  c t 


(6.145)
s 0 (t) =  Ac pTb (t) cos c t 

Esta señalización se denomina antipodal, y presenta la mayor distancia entre los


símbolos.

149
Tb
2 2 Ac2Tb
E1 = A c  cos (c t) dt =
0 2
Tb
Ac2Tb
E 0 = -Ac 
2 2
 cos ( c t) dt =
0 2
(6.146)
Tb
2 2 A 2T
E10 = -A  cos ( c t) dt =  c b
c
0 2
Ac2 Tb
Eb = = E1 = E0
2

La probabilidad de error será:

 E b -E10   Eb 
Pe = Q
 
 = Q
 
2
 

 = Q 2 b  (6.147)
   

El umbral es igual a cero:

K
V= E1 -E 0  = 0 (6.148)
2

150
6.3.2.3 FSK

Las formas de onda de señalización son dos pulsos de radiofrecuencia de


frecuencias diferentes separados por una desviación en frecuencia  fd .

s1(t) = Ac pTb (t) cos 2(f c +fd )t  (6.149)

s 0 (t) = Ac pTb (t) cos 2(fc -fd )t  (6.150)

fc  fd  rb

La energía de los bits se calcula con la expresión:

Tb Tb

E1 =  s12 (t)dt = Ac2  cos 2 ( 2(fc  fd )t)dt =


0 0
(6.151)
2 2
A Tb A Tb
c c Ac2Tb
  sin c 4(fc +fd )r b 
2 2 2
La función sinc puede ser anulada cuando se cumple

f c  N c rb (6.152)

Cuando esta condición no es posible el valor de la función sinc es prácticamente


cero, por que fc  rb , y la sinc tiene a anularse si su argumento tiende a infinito.

A c2 T b
E1  (6.153)
2

A c2 T b
E0  (6.154)
2

A c2 T b
Eb  (6.155)
2

El factor de ortogonalidad es:

Tb
Ac2Tb f
E10 =  s 0 (t)s1(t)dt = sin c d (6.156)
0 2 rb / 4

Esta expresión es valida si la condición (6.152) es cierta.


Para FSK de Sundee, fd  r b / 2 :

E10  0 ;

 E b - E10 
Pe = Q
 η
=Q

 γb  (6.157)
 

El valor máximo posible de relación señal ruido se produce cuando el argumento de


la función sinc en la expresión (6.156) es igual a 1.4:

151
fd
= 1.4 ; fd = 0 .35 r b (6.158)
rb / 4

E b -E10 E
= 1.22 b (6.159)
 

La probabilidad mínima de error posible para este esquema de modulación es


entonces igual a:

 E b - E10 
Pe = Q
 η
=Q

 1.22γ b (6.160)
 

6.4 Atiempamiento y señalización

La detección binaria optima presenta inconvenientes en la sincronización. Para un


símbolo de la forma:

s(t) = Ac pTb (t) cos  c t


(6.161)
f cT b = N c

El filtro de detección optimo tiene una transferencia en el tiempo:

h(t) = Ks(T b -t) = Ac KpTb (Tb -t) cos  c Tb  t  =


= Ac KpTb (T b -t) cos  cTb   c t  = (6.162)
= Ac KpTb (T b -t). cos  c t 

La señal de salido del filtro adaptado utilizado normalmente es la convolución de la


señal de entrada con la transferencia en tiempo del filtro:


 t  Tb 
z(t) = s(t)*h(t) =  s()h(t-)d λ

 K.E b  
 Tb 
 cos(  c t ) (6.163)

donde la función Λ[ t ] es la función triángulo del argumento t .


El error en el sincronismo puede generar una detección errónea debido a que la
función de la ecuación (163) es un coseno que varia a la frecuencia de portadora.
Si en lugar de muestrearse en un instante t k  Tb , el muestreo se produce en un
instante desincronizado t k  (1  ε )Tb se tiene:

z(t k )  KE cos  c (Tb 1   ) = KE cos 2N c   (6.164)

θ ε = 2πN c ε (6.165)

2
El valor de la muestra se reduce en un factor cos θ ε , de forma que | z1  z0 | se
2
reduce con cos θ ε :

 E b - E10 
Pe = Q cos 2 θ ε  (6.166)
 η 
 

152
Ejemplo:

Para un sistema PRK con r  2 Kbps,γ b  8 , fc  100 KHz , en condiciones de perfecto


sincronismo:

Pe = Q  γb = Q  16  = 3.10 -5

Si el error en el intervalo fuera del 0.3 %:

100.10 3 0 .3
θθ ε = 360º. . = 54º
2 .10 3 100

El error de sincronismo hace que la probabilidad sea:

Pe = Q γ b 
cos 2 θ ε = 9.5 10 - 3 = 10 - 2

6.5 Sistemas binarios no-coherentes

El receptor binario puede ser simplificado si se evita tener que conocer la portadora
en frecuencia y fase. La detección de este tipo se denomina no-coherente.

6.5.1 Envolvente de una sinusoide con ruido pasabanda

Dado que la detección se realizara sin tener en cuenta la fase, sino mas bien la
envolvente de una señal, será conveniente utilizar los modelos de señales de
envolvente y fase, mas que el modelo de componentes en fase y cuadratura.

La señal que se estudia es de la forma:

Ac cos c t     n(t) (6.167)

La señal de ruido n( t ) corresponde al caso de ruido pasabanda con valor medio


cero y dispersión σ 2 .
El ruido pasabanda tiene un modelo de señal que se puede expresar en la forma de
componente en fase y cuadratura.

n(t) = n i (t) cos c t     n q (t) sin  c t    (6.168)

Sumando esta expresión a la ecuación (167) se obtiene:

Ac cos c t+ + n i (t) cos c t     n q (t) sin  c t    (6.169)

Que será llevada a la forma de envolvente y fase:

Ac cos c t+ + n i (t) cos  c t     n q (t) sin  c t    


(6.170)
 A( t ) cos[  c t     ( t )]

A(t) =  Ac+n i (t)2 + n q2 (t) (6.171)

153
 n q (t) 
(t) = arctg  
 (6.172)
 Ac +n i (t) 

A(t)

n(t) nq(t)

Ac ni(t)

Figura 6.27.

n i ( t ) y n q ( t ) son variables aleatorias independientes que tienen igual distribución


que n( t ) . Si el ruido fuera de valor cero, la señal A( t ) es igual a Ac . Si la señal es
nula, la distribución será la de la envolvente del ruido.

2
An  An 2 . 2
PAn (An ) = e An  0 (6.173)
2

Cuando Ac  n

2 2
2 n i n i + nq
A(t) = Ac2 +2 Ac n i  n i2 + nq2 = Ac . 1+  (6.174)
Ac Ac2

La expresión anterior se puede simplificar si la amplitud de la señal detectada Ac


es grande.

A(t) = Ac - ni (t) (6.175)

1 2
/ 2 2
p A(t)(A(t)) = e (A(t) - ni (t)) (6.176)
2 σ

La función densidad de probabilidad para una relación señal-ruido alta resulta ser
una función Gaussiana. Los extremos de la situación varían la función densidad de
probabilidad desde una función de Raylegh (señal igual a cero), a una pseudo-
Gaussiana (señal-ruido alta).
El caso intermedio requiere una conversión de variables rectangular a polar.
La conversión de variables puede hacerse de acuerdo a la siguiente igualdad:

p A, (A,φ) d(A,φ) = p ni ,nq (n i ,n q )d(n i ,n q ) (6.177)

Esta conversión se plantea también en términos del Jacobiano:

154
p A, (A,φ) = p ni ,nq (n i ,n q ) |J(n i ,n q ) /(A,φ)| (6.178)

n i = A cos  - Ac nq

n q = A sin 
Ac ni
n i n q

| J(n i ,n q ) /(A,φ) | = A A (6.180)


n i n q
φ φ

cos  sin 
| J(n i ,n q ) /(A, ) | = = A cos 2   A sin 2  = A (6.181)
-A sin  A cos 
Dado que n i y n q son variables independientes se cumple que:

p ni ,nq (n i ,n q ) = p ni (n i )p nq (n q ) (6.182)

n i2 n q2
1 
2 2
1 
2 2
p ni ,nq (n i ,n q ) = e e (6.183)
2 σ 2 σ

ni2 nq2 
1 
2 2
p ni ,nq (n i ,n q ) = e (6.184)
2 2

Aplicando la conversión de variables:

 A cos  - Ac 2  A2 sin2  
A 
2 2
p A, (A,) = 2
e (6.185)
2

A2 + Ac2 - 2 .Ac .A cos  


A 
2 2
p A, (A,) = 2
e (6.186)
2

Las probabilidades de A y φ son conjuntas y no es posible separarlas en el


producto de las funciones de densidad independientes.
Si la relación señal-ruido fuera alta, las funciones podría ser independientes (Sería
el caso en que puede hacerse A  Ac ). Para señal cero la función se transforma en
la función de Rayleigh.
En el caso general, para conocer la probabilidad de error que caracteriza la
amplitud o la fase es necesario realizar la integración de la ecuación (186) respecto
de la otra variable que se analiza. Así:

 A2 + Ac2    Ac .A cos  


A 
2 2 2
PA(A) =  p A,(A,)d = e e d (6.187)
 2 2 

Se emplean las funciones de Bessel:

155
π
1 v cos φ
I v (v) = e dφ (6.188)
2π π

Que se puede aproximar en valores extremos de :

e v 2 / 4 v  1

I v (v)   e v (6.189)
 v  1
 2πv

Reemplazando:

 A2+ Ac2 
A  2 2
 AA 
PA(A) =  p A, (A,)d = 2 e I 0  2c  (6.190)
    

La función descripta en la ecuación (6.190) es la denominada función de Rice.


Cuando la relación señal-ruido es grande, Ac  σ :

A2  Ac2  A.Ac


A 
2 2 2
PA(A) = 2
e e (6.191)
2Ac 

Que se convierte en:

 A - Ac 2
1 A  2 2
PA(A)  e (6.192)
2 2 Ac

Que es en definitiva una distribución de tipo Gaussiano.

0.5

Ac/ en incremento
0.4

0.3
P(A)

0.2

0.1

0
0 2 4 6 8 10 12
A

Figura 6.28.

156
6.5.2 OOK no-coherente

La detección no-coherente se caracteriza por la ausencia de información de


sincronismo. La forma de onda recibida es la siguiente:

x c (t) = ak Ac pTb t-kTb  cos  c t +  (6.193)

En el intervalo kTb  t  ( K  1 )Tb

Donde a k  0 ,1 .
Tb
2 2 Ac2Tb
E1   Ac cos ( ωc t  θ )dt  2
(6.194)
0

La aproximación es valida si se supone que 2πfc Tb  1 .

Luego:

E1+E 0 Ac2Tb
Eb =  (6.195)
2 4

El detector no-coherente de OOK es el siguiente:

/2
y(t) ak
f. pasabanda detector S/H y
h(t) envolvente detector
ak.Ac cos (ct+)

Sincr. V
Figura 6.29.

El filtro de recepción sigue siendo un filtro adaptado, que queda seguido de un


bloque de detección por envolvente y un conformador del valor detectado. El filtro
pasabanda tiene como respuesta la siguiente forma:

h(t) = KAc pTb (t) cos  c t  (6.196)

La fase de portadora se desconoce. La normalización de la transferencia se realiza


de manera que la amplitud detectada sea Ac .

y(Tb ) = KE1 = Ac
Ac (6.197)
si K = ; y(Tb ) = Ac
E1

Se calcula el valor de la relación señal a ruido:

T
  2  b 2 2 K 2 Ac2 Tb Ac2
 =  h (t) dt =  K Ac cos 2  c tdt =
2
 (6.198)
2  2 0 4 4 Eb

157
Luego:

Ac2 4E b
2
= = 4γ b (6.199)
σ η

La variable aleatoria y ( t k ) resulta del muestreo de la señal detectada y ( t ) en los


instantes t k .

y(t k ) = Ac + n(t k ) (6.200)

Los símbolos transmitidos son cero o portadora. Cuando a k  0 la variable aleatoria


resultante es solo ruido. La función distribución para este caso es pY ( Y / H 0 ) , y es
de tipo Rayleigh. Cuando la señal enviada es un uno, a k  1 y la función densidad
de probabilidad asociada pY (Y / H1 ) tiene la forma de una función de Rice.
P(A)
3

2.5
pY(y/H0)

2 pY(y/H1)

1.5

0.5

0
0 0.5 1 1.5 2
A
A c
VoptAc/2

Figura 6.30.

Si la relación señal-ruido es buena, γ b  1 , la función de Rice se transforma en


una función similar a la Gaussiana. Se define aproximadamente el punto óptimo de
detección de acuerdo a la siguiente expresión:

Ac 2 Ac
Vopt  1  si γ b >> 1 (6.201)
2 γb 2

El umbral se adopta en Ac / 2 aceptando la aproximación.


Las probabilidades de error correspondientes a los dos símbolos se calculan
integrando las funciones densidad e probabilidad correspondientes:

  y2 Ac 2 γb
y  2σ 2

8σ2

2
Pe0 =  pY (y/H 0 )dy =  2
e dy = e =e (6.202)
Ac / 2 Ac / 2 σ

158
Ac / 2 Ac / 2 (y-Ac )2
1 
2 2
Pe1 = p Y (y/H1 )dy =  e dy =
0 0 2π σ
(6.203)
Ac / 2 (y-Ac )2
1 
2 2
  e dy
 2 σ

Haciendo el cambio de variable:

A- Ac
λ=
σ

Ac / 2 Ac / 2 σ 2

1 
Pe1 =  p (y/H )dy = 
Y 1 e 2 d (6.204)
0  Ac /σ 2

Ac / 2  2
A  1 
Q c  =  e 2
d (6.205)
 2   2

Ac /σ ( λ)2
A  1  A 
Q c  =  e 2 dλ << Q c 
 σ   2π  2σ 

Luego puede decirse que:

γb
 A  1 
Pe1  Q =Q  γb   e 2 (6.206)
 2σ  2πγ b

La probabilidad de error total será la suma de las probabilidades de cada símbolo:

γb γb
P  Pe1 1    1 
P = e0
2
= e
2 
2 Q  γb  
2
e 2 (6.207)


Si γ b  1 .

La probabilidad de error es gobernada por los errores del símbolo cero.

6.5.3 FSK no-coherente

La señal FSK binaria se puede interpretar como dos señales OOK entrelazadas de
portadoras diferentes con frecuencias fc  f d y fc  fd y de igual amplitud.
El receptor FSK no-coherente se puede configurar de la siguiente manera.

159
y1
F. Detector
pasabanda Env.
f1
xc(t)
+
Reg.
_

F. Detector
pasabanda Env. Sincr. V=0
f0 y0

Figura 6.31.

Las transferencias de los filtros pasabanda son las correspondientes a filtros


adaptados a cada forma de onda transmitida.

h1(t) = KAc pTb (t) cos 1 t  (6.208)

h0 (t) = KAc pTb (t) cos  0 t  (6.209)

La constante de proporción de los filtros, K , se adopta de forma que la señal


recibida este normalizada a ser de amplitud Ac .Luego, K  Ac / E b .
A su vez:

Ac2Tb
E b = E1 = E 0  (6.210)
2
T
  2  b 2 2 K 2 Ac2 T b K 2E b Ac2
2 = h (t)dt = K A cos 2
 t dt =  
2  2 0
c 1
4 2 2 Eb

Ac2 2 Eb
2
= = 2 b (6.211)
 

Se consideran señales FSK de tipo ortogonal. En este caso la detección se produce


de forma que si la señal recibida en una de las ramas del receptor de la figura tiene
un determinado valor, en la otra rama la detección produce una señal nula. Si se
transmitió un '1', la frecuencia emitida fue f1 , por lo que en el receptor, la rama
superior posee un determinado valor detectado, mientras la rama inferior detecta
un valor nulo. La situación inversa sucede cuando se transmitió un cero. Las
funciones distribución se alternan según el caso. Cuando a k  1 la variable aleatoria
y 1 ( t k ) presenta una función de Rice en el entorno de Ac (Si K  Ac / E b mientras
que la variable y 0 ( t k ) posee una función densidad de probabilidad de tipo Rayleigh.
La situación opuesta sucede si a k  0 .

160
2.5

pyo(yo/H1)
2

py1(y1/H1)
1.5
P(A)

1
ak = 1

0.5
Ac
0
0 0.5 1 1.5 2
A

2.5
py1(y1/H0)
2

py0(y0/H0)
1.5
P(A)

1 ak = 0

0.5

0
0 0.5 1 1.5 2
A

Figura 6.32 a y b.

El detector de FSK recupera la señal diferencia de los símbolos detectados


y 1  y 0  y1 ( t k )  y 0 ( t k ) . El umbral es establecido en V  0 . Por lo tanto:

Pe1 = P ( y1 - y 0 < 0 /H1 ) (6.212)

Pe0 = P ( y1 - y 0 > 0 /H 0 ) (6.213)

La probabilidad de error total es:

Pe1 +Pe0
Pe = (6.214)
2

Las probabilidades de error Pe1 y Pe0 son iguales, Pe0  Pe1 , dado que las
distribuciones son iguales para cada caso. Se calcula la probabilidad de error
teniendo en cuenta que:

Pe = Pe1 = Pe0 = P y 1 - y 0 < 0 / H1  (6.215)

161

 

P y 0 > y1 / H1  =  p y1 (y 1 /H1 )  0p y (y 0 /H).dy 0  dy 1 (6.216)
0  y1 

2.5
pyo(yo/H1)
2

py1(y1/H1)
1.5
P(A)

1 ak = 1

0.5
Ac
0
0 0.5 1 1.5 2
y1 A

Figura 6.33.

Donde la función densidad de probabilidad p y 0 ( y 0 / H1 ) es una función densidad de


Rayleigh, mientras p y 1 ( y 1 / H1 ) es una función densidad de tipo Rice.

 y12+ Ac2   y 02  
y  2 . 2
 y 1 Ac   y 0  2 2
Pe =  12 e I0  2   2 e dy 0  dy 1 (6.217)
0      y1  
 

 y12+ Ac2  y12


y  2 2
y A   2
Pe =  12 e I 0  1 2 c  e 2  dy 1 (6.218)
0    

 2 y12+ Ac2 
y  2 2
y A 
Pe =  12 e I0  1 2 c  dy 1 (6.219)
0    

Realizando el siguiente cambio de variables:

dλ Ac2
λ= 2 y 1 dy1 = α2 = (6.220)
2 2

  2 + 2  2 
 
2 2   
Pe =  2
e I 0  2  dλ =
0 2  
(6.221)
2    2+ 2 
1 
2 2
 
2 2   
 e  2
e I 0  2  d
2 0  

La segunda expresión contiene un termino que es la integral de la función de Rice


en todo su rango de validez. Esta integral es igual a uno. Luego:

162
Ac2 γb
1  4σ 2
1  2
Pe = e = e (6.222)
2 2

El resultado es igual al obtenido en OOK.

6.5.4 DPSK

La detección de PSK en forma no-coherente seria en principio no posible, debido a


que la información en este tipo de modulación reside en la fase, pero la detección
por envolvente no tiene en cuenta esa variable. La técnica de detección por
comparación de fase resuelve el problema de la detección coherente, y tiene mejor
respuesta que OOK y FSK no-coherente.
El detector de fase diferencial opera generando una correlación entre la señal y una
versión de esa misma señal retardada en un periodo Tb . Se requiere que fc sea
múltiplo de r b .

F. F.
x Reg.
pasabanda pasabajos

Tb Sincr. V=0
K=2
Figura 6.34.

En el intervalo kTb  t  ( k  1 )Tb , la señal se puede representar de la forma:

x c (t) = Ac pTb (t-kTb ) cos  c t    a k   (6.223)

a k  0 ,1 .

En ausencia de ruido el valor de la señal en el intervalo k-ésimo es igual a:

x c (t). 2 x c (t-Tb ) = 2 Ac2 cos ωc t  θ  a k π  cos ωc (t  Tb )  θ  a k 1π 


= Ac2 cos ak  a k 1  +Ac2 cos 2 c t  2  a k  a k 1 π  (6.224)

La componente de alta frecuencia es eliminada por el filtro pasabajos del sistema.


De esta manera:

+ Ac2 si ak = ak -1
z( t k ) =  2 (6.225)
- Ac si ak  ak -1

La simetría polar de la señalización permite ubicar el umbral en V  0 . La


detección compara diferencialmente los datos. Dado que para conocer el valor
actual el sistema requiere el conocimiento del previo valor, es preferente la
aplicación de la precodificación diferencial a la señal previo a su transmisión.

163
mk
ak

Tb

Figura 6.35.

a k = ak-1.m k  a k-1 .m k (6.226)

a k 1 mk ak
0 0 1
0 1 0
1 0 0
1 1 1

Si mk = 1 a k = ak-1 z(t k ) = Ac2


Si mk = 0 a k  a k-1 z(t k ) = -Ac2 (6.227)

La secuencia se supone iniciada en a k  1 . Para una secuencia de entrada como:

sec. 1 0 1 1 0

ak 1 1 0 0 0 1

ak    0 0 0 

+ _ + + _

1 0 1 1 0

El filtro de entrada se encarga de eliminar el ruido. El cociente entre la portadora


detectada y el ruido esta dado por:

Ac2 2E b
2
= = 2γ b (6.228)
σ η

Tb
Ac2Tb
 Ac cos  c t++ak  dt 
2
E1 = (6.229)
0 2

164
E1+E 0 Ac2Tb
Eb =  (6.230)
2 2


η ηAc2Tb K 2 Ac2 η
σ2 = h 2
(t)dt = = (6.231)
2  4 2E b

Ac2
= 2γ b (6.232)
σ2

Suponiendo que se transmitió de forma que a k  ak 1  0 y aplicando


consideraciones de simetría se resuelve el sistema suponiendo que el error se
produce si y ( t k )  0 .

Se denomina

n "i (t) = n i (t-T b ) (6.233)

n "q (t) = n q (t-T b ) (6.234)

A las componentes retrasadas en Tb . La señal sumada al ruido es igual a:

x c (t)+n(t) = Ac +n i (t) cos ωc t+θ  - n q (t) sin ωc t+θ  (6.235)

esta señal ingresa al sistema y es multiplicada por una forma de onda similar
retardada en un periodo Tb .

y(tk)
xc(t)+n(t)
x F. pasabajos

 
2. Ac+ni" (t) cos  c t+  - 2.n"q (t) sin  c t+ 
Figura 6.36.

Donde se ha hecho uso de la igualdad:

cos ωc t  θ  = cos ω c t  θ-  ω cTb  (6.236)

El resultado del producto de señales que se produce en la detección según la figura


(6.36) es filtrado finalmente y resulta ser:

 
y(t k ) = Ac +ni  Ac +n "i +nq n "q (6.237)

" "
Donde n i , n q , n i y n q son variables aleatorias Gaussianas de valor medio cero y
varianza σ 2 .

Por conveniencia se define:

165
1
αi =
2

n i +n "i  (6.238)

1
αq =
2

n q +n "q  (6.239)

1
βi =
2

n i -n "i  (6.240)

1
βq =
2

n q -n "q  (6.241)

Luego:

1 '' n i n "i 1 '' 1


α = Ac +α i  +
2 2
α q2 = Ac2 + Ac 
n i +n"i  +
4
 
ni
2
+
2
+
4
 
ni
2

4
nq  
2

n q n "q 1 ''

2
+
4
 
nq
2

(6.242)

Una expresión similar se obtiene si se considera el termino β 2 . Restando tales


expresiones:

 
α 2  β 2 = Ac2 +Ac n i + n ''i +n i .n ''i +nq .n"q = y(t k ) (6.243)

Los términos del tipo α i , βi , α q , βq , son variables aleatorias Gaussianas de valor


medio cero y dispersión σ 2 / 2 .

1 2 σ2
α i2 =
4
n i + n "i   2
=
2
(6.244)

La función α es una variable aleatoria que tiene una función densidad de


probabilidad de Rice. La función β tiene una función densidad de probabilidad de
Rayleigh.

2
α 2 = A+α i  + α q2 Rice (σ 2 / 2 ) (6.245)

2
β 2 = β i + βq2 Rayleigh (6.246)

α 2 / 2σ2  Ac α 
Pα (α ) = e α+Ac  αI
0
  (6.247)
σ α2  σ2 
 α 

σ2
σ α2 =
2

α 2
  β 2 / 2 βα
Pβ (β) = e (6.248)
σ β2

166
Los valores de α y β son no negativos:

Pe = P( y< 0 | ak = ak-1 ) = P(α 2  β 2 ) = P(β>α) (6.249)

Esta es la misma forma que tiene la expresión de la probabilidad de error para FSK
no-coherente, con la modificación σ 2  σ 2 / 2 .
La probabilidad de error es entonces:

Ac2
1  2σ2
1 γ b
Pe = e = e (6.250)
2 2

La demodulación DPSK tiene una ventaja de 3dB sobre los sistemas binarios no-
coherentes, y solo 1 dB menos que PRK coherente para valores altos de Pe .

167
6.6 Sistemas M-arios y con portadora en cuadratura

Se analizan sistemas de modulación M-arios que se reciben por detección en forma


coherente o por comparación de fase. Los sistemas de modulación M-aria QAM, PSK y
los denominados APK (Amplitud Phase Keying) son los mas apropiados para la
modulación sobre canales telefónicos, o en general de banda limitada, para expandir
la velocidad de señalización.

6.6.1 Sistemas de portadora en cuadratura

Las señales QAM y QPSK pueden ser analizadas básicamente como dos señales PRK
dispuestas en cuadratura, aplicando la modulación sobre las portadoras en fase y
cuadratura respectivamente. En general las señales moduladas en forma M-aria
pueden ser detectadas descomponiendo el sistema en dos ramas en cuadratura que
contienen la información.
En el caso de la información de QAM o QPSK se tiene señal detectada de la forma
I k Qk en que se agrupan dos bit para la interpretación de la información. La velocidad
de señalización es en este caso:
rb
r= (6.251)
2

L sincronización de portadora en cuadratura coherente requiere sincronización en la


demodulación. En el k-ésimo intervalo kD  t  ( k  1 )D :

x c (t) = si (t-kD) - sq (t-kD) (6.252)

Donde:

s i (t) = Ac I k p D (t) cos  c t  Ik =  1 (6.253)

s q (t) = Ac Qk pD (t) sin c t  Qk =  1 (6.254)

Si se considera que fc  N c rb  2 N c r

(k+1 )D (k+1 )D (k+1 )D (k+1 )D


Ac2
E= 2
 x c (t)dt =  s i2 (t)dt-2. s i (t)sq (t)dt+
 s q2 (t)dt =
2
 
D I k2 + Qk2 = Ac2 D
kD kD kD kD
(6.255)
Ac2 D
Eb = Ei = Eq = (6.256)
2

E = 2Eb (6.257)

E es la energía por símbolo 4-ario.

168
( k 1) D
Ik
x 
kD
Reg.

xct)+n(t)
Conv
KAc cos ct de
datos

( k 1) D
Reg. Qk
x 
kD

- KAc sin ct Figura 6.37.

La figura (6.37) representa un detector de señal QAM o, equivalentemente QPSK, que


recibe dos señales en cuadratura independientes, correspondientes a dos símbolos
separados en  π . La señal recibida sobre cada rama del esquema de la figura es una
señal PRK. El valor de la probabilidad de error para una señal PRK es conocido, e igual
a:

 2E b 
Pbe = Q 

(6.258)
 η 

La velocidad de señalización en las modulaciones equivalentes analizadas QAM y


QPSK es la mitad de la correspondiente a la señalización PRK. El ancho de banda de
transmisión es BT  r b / 2 .
la probabilidad de tener un símbolo correcto en el esquema de la figura (6.37) es
igual a producto de las probabilidades de acierto de símbolo sobre cada rama del
esquema:

2
Pc = 1-Pbe  1- Pbe  = 1- Pbe  (6.259)

la probabilidad de error es entonces:

 E 
Pe = 1- 1- Pbe 2 = 2 Pbe - Pbe
2
 2 Q  
 (6.260)
 η 

donde E es la energía por símbolo.


El sincronismo en este tipo de sistemas se obtiene por medio de un proceso alineal
donde la información de fase es eliminada por multiplicación en frecuencia.
En el caso de la detección de modulación de cuatro símbolos que contienen
información de fase el detector de portadora se puede implementar de acuerdo al
esquema de la figura 6.38:

169
Dispositivo Filtro
PLL %4
de ley ()4 4fc
cos (ct+N/2)
cos 4.ct

Figura 6.38.

El circuito alineal genera la aparición de la cuarta armónica de la portadora de la señal


modulada, que ya no contiene información aplicada. Esta señal es simplemente
portadora pura. El PLL (Phase Locked Loop) genera una portadora sincronizada con la
señal de frecuencia 4 fc . Luego, y por división de frecuencia se obtiene la señal de
sincronismo deseada. Sin embargo la fase de la señal de sincronismo tiene una
indeterminación igual a nπ / 2 .

6.6.2 Sistemas PSK M-arios

En el siguiente análisis se supone que la señal de portadora tiene sincronización con


la modulación de forma que fc  N c rb . En un intervalo de señalización la forma de
onda es igual a:

x c (t) = si (t-kD) - sq (t-kD) (6.261)

s i (t) = Ac cos  k pD (t) cos  c t  (6.262)

s q (t) = Ac sin k pD (t) sin c t  (6.263)

2πak
Donde φk = (6.264)
M

siendo ak  0 ,1,...,M  1 .

La energía por símbolo de señalización es:

(k+1 )D
2 Ac2 D
E=  x c (t)dt = (6.265)
kD
2

El receptor de una señal PSK M-aria se muestra en la figura 6.39.

170
( k 1) D
yi
x 
kD
Reg.

xct)+n(t) k
Reg.
KAc cos ct de
fase

( k 1) D
Reg. yq
x 
kD

- KAc sin ct


Figura 6.39.

La constante de detección, que es la ganancia de los amplificadores de cada rama en


la figura 6.39, se ajusta al valor K  Ac / E . Este ajuste se hace para normalizar los
valores y hacer el análisis del problema mas simple. En el caso real, el valor de K se
ajusta de acuerdo al rango dinámico de tensiones que se tiene en el circuito receptor.
Si el ruido no esta presente:

(k 1 )D KAc2 D cos  k
z i (t) =  Ac cos  k cos ( c t)KAc cos ( c t)dt = =
kD 2
 KE cos  k = Ac cos  k (6.266)
si K = Ac /E

Igualmente :

KAc2 D sin  k
z q (t) = = KE sin  k = Ac sin  k (6.267)
2
si K = Ac /E

De esta forma:

 z q (t) 
φ k = arctg  
 (6.268)
 z i (t) 

En presencia de ruido:

y i = Ac cos  k +n i
(6.269)
y q = Ac sin  k +nq

171
Donde ni y nq son variables aleatorias independientes de tipo Gaussiano, con

ni = nq = 0
(6.270)
ni2 = n q2 =σ 2

La potencia de ruido se evalúa sobre la respuesta al impulso de las transferencias de


los filtros usados:

η  2 ηAc2
σ 2= h (t)dt =  ηr (6.271)
2   2 E b log 2 M

El calculo de ruido en la modulación PSK tiene que tener en cuenta la función


densidad de probabilidad que caracteriza a la fase. Los umbrales de decisión se toman
en la bisectriz definida por los ángulos entre símbolos.

Umbral
/M

Figura 6.40.

El primer umbral angular se ubica en π / M . Los restantes umbrales se posicionan


entre símbolos cada 2π / M . El receptor determina los valores de la componente en
fase y cuadratura, y de acuerdo al valor de arctg( y q / y i ) establece cual fue el valor
recibido. La probabilidad de error de cualquiera de los símbolos es igual a la
probabilidad de error total, ya que los símbolos son equiprobables. Se considera
entonces el caso φ k  0 . Para este símbolo la fase tiene un valor:

 nq 
φ= arctg 
 (6.272)
 Ac + ni 

Aquí φ es la fase de una sinusoide sumada a ruido pasabanda.


Se desea conocer entonces la función densidad de probabilidad P ( φ ) para evaluar la
probabilidad de error de acuerdo a la expresión:

π
 π  π
Pe = P  |φ| >  = 1 - P  |φ | <  =1 -  M
π P (φ)dφ (6.273)
 M  M 
M

172
La función densidad de probabilidad de error para la fase se calcula integrando la
expresión:

A
e  A - 2 AAc cos +Ac / 2 
2 2 2
PA, (A,) = 2
(6.274)
2

respecto de la variable A .


A  A 2 - 2 AAc cos φ+Ac2  / 2 σ 2
 
Pφ (φ) =  e dA
0 2σ 2
 Ac  2

1   2  2  e  Ac sin  / 2  
  2 2 2
  A cos  
P () = e + Ac cos  1- Q   (6.275)
2 2 2    

Donde π  φ  π . Si la relación señal-ruido es buena, la expresión anterior se


simplifica y es igual a:

  Ac2 sin2 φ / 2 σ 2 
 
e
Pφ ( φ) = Ac cos φ |  |  / 2 (6.276)
2πσ 2

Esta función densidad de probabilidad evoluciona según los valores de relación señal-
ruido desde una función uniforme, pasando por la forma Gaussiana, hasta una forma
de muy baja dispersión.
Se realiza por ejemplo el calculo de la probabilidad para un sistema PSK M-ario donde
M  4 . Se supone que la relación señal-ruido es buena ( Ac  σ ).
Siendo

Ac2 D
E= ; σ 2 = ηr (6.277)
2

Ac2 2E
2
= (6.278)
σ η

La probabilidad de error es igual a 1  Pc , siendo Pc la probabilidad de tener un


símbolo correcto.
Entonces:

π
 2E 
M sin 2 φ 
1 2 E   2 η 
Pe = 1  Pc = 1  π e cos φdφ (6.279)
2π η

M
Reemplazando:

173
2E
λ= sinφ (6.280)
η

2E π 
L= sin   (6.281)
η M 
L
2   λ2 / 2 
 
Pe = 1  Pc = 1   e dλ =
2π 0
(6.282)
 1 - 2Q(L) 
1  2   2Q(L)
 2 

Luego:
 2E   
Pe  2Q  sin 2    (6.283)
   M  

expresión valida para M  4 .

6.6.3 Sistemas APK M-arios

Los sistemas de modulación combinada de Amplitud y fase APK (Amplitud Phase


Keying) presentan el mejor funcionamiento para sistemas M-arios cuando la detección
es coherente.
Se considera una señal M-aria de tipo polar. Para el k-esimo intervalo:

x c (t) = Ac I k pD t-kD cos  c t 


(6.284)
I k =  1,  3 , ...,  (M-1 )

Si la señal transmitida es detectada por un receptor de correlación solo debe


recuperar la componente en fase, de forma que la toma de decisión se efectúa sobre
una muestra con ruido:

y i = Ac I k + ni
siendo (6.285)
2
σ =ηr

Este proceso de modulación y demodulación se realiza sobre una constelación


unidimensional.

-3Ac -Ac Ac 3Ac

-2Ac 0 2Ac
Figura 6.41.

174
La probabilidad de error por símbolo es:

 1   Ac 
Pe = 2 1 - Q   (6.286)
 M  r 
 

La modulación APK se realiza aplicando una señal M-aria sobre cada una de las ramas
en fase y cuadratura , de forma que la constelación obtenida se expande a dos
dimensiones. El esquema de modulación se representa en la figura:

Ik
xc(t)
Ma cos ct
+
90º

Qk

Figura 6.42.

La señal de salida para el intervalo k vale:

x c (t) = si (t- kD) - s q (t-kD) (6.287)

s i (t-kD) = Ac I k pD t-kD cosωc t  (6.288)

s q (t-kD) = Ac I k pD t-kD sin c t  (6.289)

Donde:

I k =  1,  3 , ...,  (-1 )
Qk =  1,  3 , ...,  (-1 ) (6.290)

Como

μ2 1
I k2  Q k2  (6.291)
3

1 2 2 1
E= Ac I k  Qk2  D = Ac2  2  1D (6.292)
2 3

175
3Ac

Ac
i
-3Ac -Ac Ac 3Ac

-Ac

Figura 6.43.

La constelación de símbolos presenta ahora 16 señales diferentes con una distancia


entre símbolos mayor que si se los dispusiera en un arreglo unidimensional.

yi

Reg
Ik

xc(t)
cos ct Ma
90º
yq
Qk
Reg

Figura 6.44.

Un receptor de un sistema de modulación en las componentes en fase y cuadratura


de señal APK se observa en la figura (6.44).
Las componentes detectadas son:

y i = Ac I k + ni
(6.293)
y q = Ac Qk + nq

La probabilidad de error en cada rama del sistema es igual a la obtenida para una
señal polar M-aria modulada en ASK. En este caso M es reemplazada por μ . (Que es
igual a M ). Esta probabilidad es denominada P . Luego (1  P ) es la probabilidad de
que el símbolo detectado en cada rama, I k o Q k , sea un símbolo correcto.

176
Pe = 1 - (1 -P)2  2P (6.294)

Luego :

 1   3E 
Pe = 41- Q   (6.295)
M  (M-1 )η 
  

Donde :

1 2 2
E=
3
 
Ac μ  1 D (6.296)

A modo de comparación, si M  16 , E / η  100 la probabilidad de error para APK seria


Pe  1.2.10 5 . En el caso de la modulación PSK Pe  6.10 3 .

177
7 Espectro Esparcido

La técnica del espectro esparcido surgió inicialmente como una aplicación militar en
equipos de comunicaciones, que intentaban tener un cierto rechazo a interferencias
provocadas por la acción de equipamiento del enemigo. La necesidad de alterar de
alguna forma la transmisión en una única frecuencia, que es definida y conocida, llevo
al diseño de sistemas mas elaborados, donde se produce una transmisión cuyo
contenido espectral se encuentra esparcido y es varias veces mayor que el ancho de
banda de la información en banda base original.
Sin embargo la presencia de interferencias comenzó a ser un problema habitual
también en las comunicaciones civiles, y la técnica del espectro esparcido comenzó a
utilizarse también en esta clase de equipamiento.
Las características más salientes de un sistema de espectro esparcido son:
La señal transmitida presenta un ancho de banda mucho mayor que el ancho de banda
de la información a ser transmitida (Información no modulada, o en banda base).
El esparcido de la señal en el espectro se produce por aplicación de una señal código,
que es independiente de los datos. Esta señal código suele ser de tipo digital y
obedece a una secuencia pseudo aleatoria.
La detección se produce por correlación sincrónica con una replica de la señal código
presente en el receptor.

Como ejemplos de esquemas de transmisión que se asemejan a los sistemas de


espectro esparcido se tiene a la modulación de FM y los esquemas de codificación por
pulsos o PCM, en los cuales se registra una mejora en la relación señal ruido por efecto
de una expansión del ancho de banda en comparación con la señal en banda base a
ser transmitida. Sin embargo no se los considera sistemas de espectro esparcido
debido a que no funcionan con una señal código de expansión en frecuencia. Se vera
que la señal código es fundamental en la definición de una forma de multiplexado de
señales denominada Code Division Multiple Access (CDMA). La expansión de espectro
se mide utilizando el cociente entre el ancho de banda de transmisión WT y el ancho
de banda asociado a la señal a transmitir W y se denomina precisamente coeficiente
de expansión:

WT
Le 
W

La expansión en frecuencia suele realizarse por medio de la señal código, y esta señal
tiene normalmente características pseudo aleatorias.
El propósito del uso del espectro esparcido fue inicialmente militar, mas precisamente
orientado al llamado rechazo “anti-jamming”, pero también tiene una aplicación
relacionada que es la transmisión de señales en bajos niveles de potencia, de forma
casi imperceptible y cercana a los niveles de potencia de ruido, ya que como se verá,
la relación señal-ruido del sistema se incrementa si el factor Le aumenta.
Existen dos formas básicas de transmisión por espectro esparcido, que son la
denominada Direct Sequence (DS) y la llamada Frequency Hopping (FH). En ambos
casos se utiliza una secuencia pseudo aleatoria que genera la expansión espectral
operando sobre la modulación utilizada.

178
Un sistema básico de espectro esparcido es el que se ve en la figura.

Codificador Modulador Canal Demodula- Decodificador


del canal dor del canal

Generador Generador
Pseudo Pseudo
aleatorio aleatorio

Figura 7.1 Espectro esparcido, diagrama general

El sistema requiere un nivel de sincronización, alto, dado que la demodulación necesita


tener conocimiento de la secuencia pseudo aleatoria para poder operar correctamente.
En general el sincronismo se establece utilizando una secuencia fija que permite
establecer el sincronismo. Una vez sincronizado con la secuencia inicial el sistema
mantiene al generador pseudo aleatorio de recepción en sincronismo.
Uno de los objetivos de este tipo de transmisión es como se ha dicho, eliminar
interferencias. Las interferencias pueden ser de banda angosta o banda ancha. Un
ejemplo típico de interferencia de banda angosta es una señal de frecuencia de
portadora fija, mientras que una interferencia de banda ancha seria otra señal de
espectro esparcido presente en la entrada del receptor y diferente de la que es
deseable recibir, es decir otro usuario de espectro esparcido. Una clasificación adicional
es la de ser continua en tiempo o por pulsos. En el caso de una señal interferente de
banda ancha, la interferencia se puede pensar como una señal de ruido de banda
ancha.
Las modulaciones asociadas más típicas a estos sistemas son PSK y FSK. PSK se
prefiere cuando se puede mantener recepción coherente en un intervalo de tiempo
largo considerado con un frame de bits que son transmitidos, mientras que FSK se
emplea cuando esta condición no puede asegurarse.
Si la señal o secuencia pseudo aleatoria modula la fase de una señal de portadora fija
a una velocidad mucho mayor que la correspondiente a la velocidad en bits del
sistema, y preferentemente múltiplo de tal velocidad, se tiene el esquema de espectro
esparcido llamado Direct Sequence (DS). Cuando una portadora altera su frecuencia
obedeciendo a una secuencia previamente establecida que corresponden a una
secuencia pseudo aleatoria se tiene el esquema de espectro esparcido llamado
Frequency Hopping (FH). Existen sin embargo combinaciones de estas técnicas y otras
de menor uso.

7.1 Espectro Esparcido por modulación de secuencia directa (DS)

El sistema de espectro esparcido por secuencia directa DS utiliza un modulador de


información binaria que transmite a una velocidad r b  1 Tb bits por segundo en un
canal de transmisión donde el ancho de banda disponible es BT Hz, siendo BT  r b .
Un modulador transforma la señal en banda base en una señal modulada tal que
WT  BT Hz alterando la fase de una portadora en forma pseudo aleatoria a una

179
velocidad WT veces por segundo obedeciendo a la forma de dicha secuencia pseudo
aleatoria.
La señal digital a transmitir es de la forma:


x( t )  a
k  
k p( t  kT b ) (7.1)

Siendo a k  1 , y p( t ) una forma de pulso rectangular de duración Tb . Esta señal es


multiplicada por otra secuencia pseudo aleatoria que se expresa como:


c( t )  c
n  
n pc ( t  kTc ) (7.2)

donde los coeficientes c n pertenecen a la secuencia pseudo aleatoria y p c ( t ) es un


pulso rectangular de duración T c .

Tb
x( t )
1

1
t
x( t ) Tc

1

t
1

c( t ).x( t )

1

t
1

Figura 7.2. Espectro esparcido por secuencia directa


Las señales base se multiplican y dan como resultado la señal c( t )x( t ) que es utilizada
entonces para modular una portadora Ac cos( 2fc t ) generando la señal modulada:

180
x c ( t )  Ac x( t )c( t ) cos( 2f c t ) (7.3)

La señal resultante del producto adopta solo valores x( t )c( t )  1 para cualquier
instante t de forma que la señal se puede expresar como:

x c ( t )  Ac os( 2fc t   ( t )) (7.4)

que es la expresión de una señal PSK binaria donde la fase puede adoptar los valores
 ( t )  0 ; x( t )c( t )  1 o bien  ( t )   ; x( t )c( t )  1 . El pulso rectangular p( t ) de
duración Tc que caracteriza la señal pseudo-aleatoria se denomina chip, y la inversa
de la duración del mismo, Wc  1 Tc , es la velocidad de chip, que en forma
aproximada puede ser considerada como el ancho de banda de la señal transmitida,
WT . En general la relación entre la duración del bit Tb y la duración del chip, Tc es un
numero entero, dado que es conveniente sincronizar a ambas con el mismo reloj de
sistema y obtener a una por división de frecuencia de la otra. El cociente de estos
números es el coeficiente de expansión espectral Lc , y es el número de chips de la
secuencia pseudo aleatoria PN por bit de información.

Tb
Lc  (7.5)
Tc

La demodulación de la señal esparcida se realiza multiplicando la señal de entrada por


una replica de la señal código, c( t ) resultando la señal:

Ac x ( t )c 2 ( t ) cos( 2f c t )  Ac x ( t ) cos( 2f c t ) (7.6)

2
puesto que c ( t )  1 para todo instante t . Desde el punto de vista espectral la señal
a transmitir puede ser considerada como una señal de ancho de banda 1 T b mientras
que la señal de chip puede ser considerada como de ancho de banda 1 T c . Dado que
estas dos señales se multiplican, sus correspondientes espectros se convolucionan para
dar como resultado el espectro de la señal total, con lo cual se puede decir que el
ancho de banda de la transmisión esparcida es 1 T b  1 T c  1 T c . Esto se analizará
con mayor detalle en la siguiente sección.

La señal de portadora es esparcida por la secuencia pseudo-aleatoria del código y


luego reconstruida en el receptor. Este proceso es logrado correlacionando la señal de
espectro esparcido recibida con una señal de referencia local. Cuando la correlación es
máxima el sistema converge a su ancho de banda original, mientras que si la señal de
entrada no se adapta a la referencia su potencia se dispersa en un ancho de banda
mayor. De esta forma el sistema realza la señal deseada, y rechaza cualquier otra
entrada que no sea correlacionada con la interna del receptor. Una función que mide
esta característica es la ganancia del proceso, conocida también como coeficiente de
expansión Le .

181
7.2 Análisis Espectral de DS

Esencialmente puede interpretarse el mecanismo de modulación DS como una


multiplicación entre la señal a transmitir, x( t ) y la señal de esparcimiento c( t ) ,
cuyos pulsos rectangulares son habitualmente llamados chips.

Previo al proceso de modulación, la multiplicación entre la señal de información a


transmitir y la señal esparcidora es igual a:

~
x ( t )  x( t )c( t ) (7.7)

Esta señal es luego modulada utilizando generalmente un modulador BPSK, y contiene


a la información ya enmascarada por efecto de la secuencia pseudo aleatoria. Esta
señal sigue siendo una secuencia de datos en formato polar  1 . La señal pseudo
aleatoria c( t ) es esencialmente una secuencia de datos también en formato polar

c( t )  c
n  
n pc ( t  kTc ) (7.8)

que posee la forma de la expresión de un tren de pulsos rectangulares, siendo


c n  1 y  c2  c 2 , por lo tanto su función autocorrelación y por ende su densidad
espectral de potencia son también conocidas. La densidad espectral de potencia de la
señal pseudo aleatoria es entonces:

Gc ( f )  T c sin c 2 f W c  (7.9)

Donde

W c  1 Tc (7.10)

182
x( t ) ~
x( t ) xc ( t )

Ac cos(  c t )

Generador de
secuencia
pseudo
aleatoria PN

G x~ ( f )
Gx ( f )

Gc ( f )

fc  W c fc fc  Wc f

 Wx Wx f
 Wc Wc f

Figura 7.3 Espectros en la transmisión por espectro esparcido de secuencia directa

La señal y la secuencia pseudo aleatoria son esencialmente señales independientes y


no correlacionadas, de manera que la potencia asociada a la señal enmascarada ~x( t )
es igual a:

~
x 2  E [ x 2 ( t )c 2 ( t )]  x 2  S x (7.11)

Dado que estas dos señales se multiplican entre si, sus correspondientes densidades
espectrales de potencia deben ser convolucionadas para conocer la densidad espectral
de potencia de la señal enmascarada.

Wx

G~x ( f )  G x ( f ) * Gc ( f )  G x (  )G( f   )d (7.12)


W x

La integración se realiza de modo aproximado considerando que los espectros se


limitan a su contenido en el primer cruce por cero, y debido a que la señal pseudo
aleatoria es de un ancho de banda mucho mayor que la señal de mensaje, entonces
Gc ( f   )  G( f ) en intervalo de |  | W x , de esta manera:

Wx
G~x ( f )  Gc ( f )  G x (  )d  S x Gc ( f ) (7.13)
W x

En esa aproximación también se esta despreciando el efecto de convolución entre


espectros, que resultaría en un espectro final de ancho de banda W x  Wc  Wc , que

183
de todas maneras resulta ser prácticamente igual al ancho de banda del espectro de la
señal pseudo aleatoria.
Dado que W x  1 Tb y Wc  1 Tc , entonces el parámetro de expansión espectral es
igual a:

Tb W c
Lc   (7.14)
Tc W x

En las aplicaciones prácticas este numero esta en el rango de 10 a 10000 . Cuanto


mas grande es este numero mejor es el rechazo a interferencias.

7.3 Rechazo a las interferencias en DS

Una de las características importantes de la modulación de espectro esparcido es su


habilidad para reducir el efecto de las interferencias.
El esquema de recepción se observa en la figura:

z( t ) y( t )  ~
x ( t )  zi ( t ) y~( t )  x( t )  ~
zi ( t )
xc ( t )
Filtro Demod. Filtro
pasabanda pasabanda
S R  1 / 2S x

x( t )  z D ( t )

Generador de
secuencia
pseudo aleatoria
PN

G zi ( f )
Gxc ( f )
Gx (f )

Gx ( f )

GZ~ ( f )
i
fc  Wc fc fc  Wc f

 W x Wx f
Figura 7.4 Rechazo a interferencias en DS

En el grafico de la figura la señal z( t ) representa tanto al ruido como a una posible


interferencia, y posee una componente en fase z i ( t ) . Se utiliza detección sincrónica y
un filtro pasabanda, que genera una señal inicialmente detectada y ( t )  ~
x ( t )  zi ( t ) ,
que luego es multiplicada por la onda pseudo aleatoria resultando la señal:

y~( t )  [ ~
x ( t )  z i ( t )] c ( t )  x( t )c 2 ( t )  z i ( t )c( t )  x( t )  ~
zi ( t ) (7.15)

184
Esto significa que la multiplicación por la señal u onda pseudo aleatoria por un lado
compacta la información inicialmente esparcida x( t ) , y esparce espectralmente la
señal interferente en fase z i ( t ) , convirtiéndola en ~ zi ( t ) .
El filtrado final pasabajos elimina una gran porción de la energía esparcida
espectralmente de la interferencia o ruido, llevando la señal a adoptar la forma
y D ( t )  x( t )  z D ( t ) . En el caso de que la señal entrante como interferente z i ( t ) sea
la componente en fase del ruido ni ( t ) , y dado que esta componente en fase es el que
ingresa a través de un filtro de entrada que debe permitir el paso de la señal, con un
ancho de banda BT , luego:

G zi ( f )  G ni ( f )  N 0  ( f / BT ) (7.16)

Adoptando el criterio de peor caso, y asumiendo que el ancho de banda de transmisión


BT es grande respecto a Wc , el efecto de esparcimiento de la señal de ruido es tal
que se puede considerar que la densidad espectral de potencia del ruido esparcido es
tal que:

Gn~i ( f )  Gni ( f )  N 0  ( f / BT ) (7.17)

Esta aproximación se valida cuando se tiene en cuenta al filtro final del sistema, un
filtro pasabajos de ancho de banda W x , igual al de la señal de interés x( t ) .
Finalmente la potencia de ruido detectado es:

S D  2 N 0W x (7.18)

Con lo que la relación señal ruido en detección es:

( S / N )D  2S R /( 2 N 0W x )  S R / N 0W x  (7.19)

En el caso de que la señal interferente z( t ) sea una señal senoidal interferente de la


forma:

z( t )  2 J cos[(  c   z )t   ] (7.20)

2
con potencia promedio z  J aplicada a la frecuencia fc  f z . La componente en fase
resulta ser en este caso:

z i ( t )  2 J cos[  z t   ] (7.21)

y su densidad espectral de potencia:

J
Gzi ( f )   ( f  f z )   ( f  fz ) (7.22)
2

185
Esta señal interferente es esparcida espectralmente al ser multiplicada por c( t ) y el
espectro esparcido de la señal interferente se obtiene por convolución entre las
densidades espectrales de la señal interferente y se la señal pseudo aleatoria. Esta
convolución sucede entre funciones  y el espectro ancho de la señal pseudo
aleatoria, lo cual hace que el espectro de la señal pseudo aleatoria se ubique entorno
de la frecuencia f z . Esto genera una densidad espectral de potencia que aparece como
plana si se compara su expansión espectral con el ancho de banda de la señal de
interés W x . El esparcimiento de la señal interferente es tal que toda su potencia J se
desparrama en el ancho de banda de chip, Wc , de manera que si aproximamos esta
expansión espectral como descripta por un espectro de valor uniforme, dicho valor
seria J / Wc .
Esto significa que el espectro esparcido de la señal interferente es plano y de valor
J / Wc , y es finalmente filtrado por el filtro final pasabajos de ancho W x :

Wx
J
z D2   G~zi df  2W x (7.23)
W x Wc

La potencia concentrada de la interferencia senoidal fue primeramente esparcida


espectralmente y luego filtrada, originando una reducción de su efecto en una cantidad
igual a W x Wc  1 .

La relación señal a interferencia es entonces:

S  W S
   c R (7.24)
 J D W x J

Al cociente Wc / W x se lo conoce como ganancia del proceso, y mide no solo la


relación de anchos de banda en el esparcimiento sino también la inmunidad a la
interferencia.

La probabilidad de error binaria utilizando BPSK en ausencia de una interferencia, pero


en presencia de ruido es igual a la que se tiene en transmisión BPSK simple,

 2E b 
Pbe  Q  (7.25)
 N0 

Si la interferencia se interpreta como una fuente de ruido, la probabilidad de error


según el análisis hecho seria igual a:

 2E b 
Pbe  Q  (7.26)
 NJ 

186
Siendo N J  J / Wc
si ahora se tiene interferencia y no hay ruido en la transmisión. En presencia de ambos
efectos, la probabilidad de error viene dada por:

 2Eb 
Pbe  Q  (7.27)
 N J  N0 

Teniendo en cuenta que S R  E b r b :

 2E   2Wc / rb 
Pbe  Q b   Q  (7.28)
 NJ   J / SR 

y haciendo rb  W x  1 T b

 2W c / W x   2 Lc 
Pbe  Q   Q  (7.29)
 J / SR   J / SR 

Si se especifica un valor de la probabilidad de error Pbe , entonces:

 2E b   2 Lc 
Pbe  Q   Q  (7.30)
 NJ   J / SR 

Luego

Eb Lc
 (7.31)
N J J / SR

que expresada en dB resulta ser igual a:

10 log( J / SR )  10 log( Lc )  10 log( E b / N J ) (7.32)

El término 10 log( J / S R ) es denominado margen de jamming y mide la capacidad del


sistema ante las interferencias.

7.4 Espectro Esparcido por salto en frecuencia, FH

Otra técnica también muy útil para combatir el efecto de una interferencia es la
aplicación del espectro esparcido por salto en frecuencia, donde la portadora de la
señal transmitida es cambiada según una ley pseudo aleatoria sobre un ancho de
banda considerable. Esta técnica se apoya en la existencia de sintetizadores de
frecuencia controlables digitalmente, tales como los NCO (Numerical Controlled
Oscillators), o los sintetizadores por enganche de fase, PLL.

187
xa ( t ) xb ( t ) xc ( t )
Modulador Filtro
x( t ) pasabanda

c( t )

Sintetizador
de
Frecuencias

cos(  a t )  2 k frecuencia s

Generador de
secuencia
pseudo aleatoria
PN

xa ( t ) x( t )
xc ( t )
Filtro De-
pasabanda Modulador

c( t )

Sintetizador
de 2 k frecuencias
frecuencias


Generador de
secuencia
pseudo aleatoria
PN

Figura 7.5 Espectro esparcido por salto en frecuencia

Las figuras muestran el funcionamiento del transmisor y receptor de una transmisión


por salto en frecuencia de espectro esparcido. En general la portadora es modulada en
MFSK, y luego mezclada con la salida de un sintetizador de frecuencias que puede
k
adoptar alguno de los 2 posibles valores. El sintetizador de frecuencias esta
gobernado por el generador pseudo aleatorio que tiene una salida de palabras binarias
de k bits.
El receptor realiza las funciones inversas, debiendo primero multiplicar la señal
entrante por la frecuencia sintetizada dentro de la secuencia pseudo aleatoria, y luego
realiza la demodulación de la información impresa en la portadora saltante. Si se
compara la duración en el tiempo de los datos, con la velocidad de cambio de la
portadora, se pueden tener dos tipos de esquemas de salto en frecuencia, uno
denominado de salto rápido (fast hop), y el otro de salto lento (slow hop). En el salto
rápido se producen varios cambios de la portadora saltante durante la duración del

188
dato o bit. En el caso del salto lento, varios datos son transmitidos durante la
aplicación de una de las portadoras saltantes.

Ejemplo:

En el siguiente caso se tiene un sistema de espectro esparcido por salto en frecuencia


donde se produce la transmisión FSK de dos bits por cada salto de la portadora. Se
supone que el sistema de generación de la secuencia pseudo aleatoria opera con tres
bits, k  3 , de manera que es posible realizar saltos de portadora sobre un conjunto
3
de 2  8 frecuencias. Se utiliza modulación binaria FSK sobre cada portadora, que a
su vez es cambiada pseudo aleatoriamente por el sintetizador de frecuencias. El desvío
en frecuencia f d se mantiene en su valor mínimo para FSK, es decir, f d  r b / 2 . Si el
dato transmitido es un uno, la frecuencia de portadora en el salto correspondiente i,
es igual a f ci  f d , mientras que es igual a f ci  f d si el dato a transmitir es un cero.
Siendo la frecuencia máxima transmitida f c7  f d , y la mínima transmitida f c 0  fd , el
ancho de banda de transmisión ocupado es igual a Wc  8 rb .
Si se asume que W x  r b , entonces la ganancia del proceso es igual a
k
Lc  W c W x  2 . El siguiente grafico define el plano de frecuencias de salida para un
determinado caso. El mensaje a transmitir es m  (10 01 11 00 ) . La secuencia
pseudo aleatoria que rige la transmisión es PN  (100 101 010 111 )

111 f c7
110 fc6
fc5 f c 5  fd
101
fc5  fd
100
fc 4

011 fc 3

010 fc 2

001 f c1

000 fc 0

1 rb 1 fh
m 10 01 11 00

PN 100 101 010 111


Figura 7.6 Ejemplo de planificación de frecuencias en espectro esparcido por salto en
frecuencia

189
7.5 Rechazo a las interferencias en FH

En general y debido a fuertes restricciones en la obtención de sincronismo propio del


sistema de espectro esparcido, la técnica de salto en frecuencia suele utilizarse con
modulación FSK detectada no coherentemente.
Existen diferentes modos de interferencia en el caso de FH. La interferencia ocasionada
por otro usuario del mismo sistema puede verse como una interferencia de banda
ancha, aunque esta misma podría plantearse como una interferencia de modo parcial.
También podría tratarse del una interferencia de portadora fija, o múltiple portadora
fija. Los diferentes casos pueden verse en la figura:

NJ / 

N J  J / Wc .Wc

f
f Wc
Wc

f
Wc
Figura 7.7 Rechazo a interferencias en FH

La transmisión de espectro esparcido por salto en frecuencia lento es la más


perjudicada por el efecto de interferencias debido a que son varios los símbolos o bits
transmitidos por cada frecuencia de salto. Esto puede reducirse si de todas formas la
velocidad de cambio en el salto entre frecuencias es relativamente alta respecto de la
acción de la interferencia.

Como se vio en el capitulo de demodulación no coherente, la probabilidad de error


para FSK no coherente esta dada por la expresión:

1  Eb /( 2 N0 )
Pbe  e (7.33)
2

Para una interferencia que afecta la transmisión en banda ancha, similar a la de la


figura, la interferencia actúa como una señal de banda ancha de densidad espectral de
potencia N J  J / Wc , por lo cual opera de la misma forma que el ruido blanco, y en
este caso la probabilidad de error es entonces:

190
1  E b / 2 ( N0  N J )
Pbe  e (7.34)
2

Para el caso de una interferencia parcial que tiene una amplitud espectral de acción
sobre le espectro de interés de valor  , siendo su densidad espectral de potencia de
interferencia N J /  , y actúa sobre la banda frecuencial Wc . El parámetro 
identifica también la probabilidad de que se produzca la interferencia, siendo 1   la
probabilidad de que la interferencia no se produzca, entonces:

1   E b /( 2 N0 )   Eb / 2 ( N0 N J /  )
Pbe  e  e (7.35)
2 2

Para una interferencia de tono simple, en el caso de un esquema de espectro esparcido


con elevado número de saltos, el efecto de interferencia puede ser despreciable.

Un caso de interés en la practica es el análisis de interferencia en sistemas multi


usuario que emplean FH como método de transmisión, en lo que se denomina
esquemas CDMA (Coded Division Multiple Access), donde el multiplexado multi usuario
se produce por medio de código individual, estando en general las señales asignadas
sobre la misma banda frecuencial y temporal. En estos casos importa saber como, en
un sistema con M
usuarios, cada uno de ellos esta afectado por los otros M  1 usuarios que operan en
su misma banda frecuencial.
Se considera que la probabilidad de producir un error sobre la transmisión del otro
usuario es la máxima posible cuando hay colisión, es decir es igual a 1 / 2 . Cuando no
hay colisión, un usuario tiene una probabilidad de error que solo esta determinada por
1  Eb /( 2 N0 )
el efecto de ruido, es decir es igual a Pbe  e . Habiendo Y  2 k frecuencias
2
posibles en las cuales se puede configurar el salto de frecuencias, entonces la
probabilidad de colisión (interferencia) es igual a 1 / Y . Por lo tanto la probabilidad de
no tener colisión de frecuencias es igual a 1  1 / Y . De esta manera la probabilidad de
que los M  1 usuarios no colisionen es igual a 1  1 / Y  , lo cual implica que la
M 1

M 1
probabilidad de que M  1 usuarios colisionen es entonces 1  1  1 / Y 
M 1
 . En
Y
consecuencia:

M 1
1   M 1   1  Eb /( 2 N0 )  M 1 
Pbe  1     e 1   (7.36)
2   Y   2  Y 

191