Vous êtes sur la page 1sur 120

UNAD

UNIDAD 1

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA

Escuela de Ciencias Básicas Tecnología e Ingeniería

Procesamiento de Señales Análogas

Indira Cassaleth Garrido

TABLA DE CONTENIDO

Función Par e impar

CAPITULO 1. Introducción y términos básicos

Introducción.

Sistemas Lineales Invariantes en el tiempo

Definición de señales y sistemas

Clasificación de señales analógicas

 

Funciones fundamentales en el procesamiento analógico de señales Funciones complejas y sinusoides Funciones singulares Función impulso Función Delta Función escalón Unitario Función Rampa

Funciones periódicas y no periódica

Transformaciones de escalamiento y desplazamiento en l tiempo

CAPITULO 2. Propiedades de los sistemas

Sistemas lineales

Principio de superposición

Linealidad

Sistemas invariantes en el tiempo

Sistemas lineales invariantes en el tiempo

Homogeneidad

Sistemas series

Sistemas paralelos

CAPITULO 3. Sistemas Lineales

Caracterización

2

Respuesta al impulso Función de transferencia
Respuesta al impulso Función de transferencia

Respuesta al impulso

Función de transferencia

UNIDAD 2

 

CAPITULO 4. Muestreo

Muestreo, cuantificación y Análisis de Fourier para señales en tiempo continuo

Introducción.

Muestreo de señales

Aliasing

 

Frecuencia de Nyquist

Recuperación de una señal muestreada

CAPITULO 5. Cuantificación

Uniforme

No uniforme

Cuantificadores óptimos

CAPITULO 6. Análisis de Fourier para señales en tiempo continuo

Serie de Fourier en tiempo continuo

Convolución y sus propiedades

Ejercicio conceptual

3

UNIDAD 1

CAPITULO 1. Introducción y términos básicos

Introducción.

Cada vez tiene mayor importancia el tratamiento de la señal a nivel de ingenierías, dado a que el mundo está sumergido en señales. Los seres vivos producen y procesan señales desde el proceso de producción e interpretación del habla y, en general, de muchos sonidos, hasta la captura y proceso de las señales luminosas con nuestro sentido de la vista y nuestro sistema nervioso.

Por otra parte, en la era moderna, el hombre se ha dedicado, con intensidad exponencial, a construir nuevas señales, procesándolas, almacenándolas o transmitiéndolas, buscando, por ejemplo, mecanismos para la detección de fenómenos a distancia.

Este curso tiene como objetivo que los estudiantes manejen los conceptos básicos y herramientas matemáticas fundamentales para el análisis y síntesis de sistemas lineales, con enfoque especial de sistemas de comunicación. El curso está basado en dos unidades fundamentales en donde se tratan los temas fundamentales para el tratamiento de señales, los cuales serán fundamentales para el análisis de señales en tiempo discreto; las definiciones, clasificaciones y formas de representación de las señales en función de sus variables. Los estudiantes de este curso realizan ejercicios relacionados fuera de clase, así como trabajos prácticos; algunos de sus trabajos serán realizados por la herramienta computacional MATLAB.

Definición de señales y sistemas

Una señal se define como una cantidad física que varia con el tiempo, el espacio o cualquier otra variable o variables independientes; las cuales se

4

pretenden utilizar para transmitir información. Por ejemplo, la voz humana, un

electrocardiograma, un electroencefalograma, etc

Por ejemplo, las funciones

( )

a x t

.

3

t

b x t

.

( )

25

t

c x

.

(

z

,

p

)

3

z

4

zp

5

p

En el inciso a. La señal varia con la variable independiente t (Tiempo) y en b, varia cuadráticamente con t y en la c se observa una señal que depende de dos variables independientes z y p. (Unidimensional y multidimensional)

Por ejemplo: A continuación se observa algunos ejemplos de procesamiento de señales aplicados a la las comunicaciones, procesamiento digital de imágenes, procesamiento de señales de voz, etc, a través del software MatLab.

5 0 -5 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0 0.067404 0.13481 0.20221
5
0
-5
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0
0.067404
0.13481
0.20221
0.26961
0.33702
0.40442
0.47183
0
0.01
0.02
0.03
0.04
0.05
0.06
2
0
-2
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
Ti
S
d
Demodulated
Original

Figura 1. Modulación de una señal Toolboxes de MatLab

5

5 Figura 2. Procesamiento de imagen Toolboxes de MatLab 13129 Samples 1 0.8 0.6 0.4 0.2

Figura 2. Procesamiento de imagen Toolboxes de MatLab

13129 Samples 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1 0 0.5
13129 Samples
1
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
0
0.5
1
1.5
2
Time in seconds
13129 Samples 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1 0 0.5 1

Figura 3. Procesamiento de señales de voz Toolboxes de MatLab

6

1400 1200 1000 800 600 400 200 0 04/08 04/13 04/18 04/23 04/28 05/03 05/08
1400
1200
1000
800
600
400
200
0
04/08
04/13
04/18
04/23
04/28
05/03
05/08
05/13
05/18
Volume (shares, 10000s)

Figura 4. Estadísticas del volumen de un taque de aromáticos Toolboxes de MatLab

Las señales se procesan u operan por medio de sistemas. Cuando una o más señales de excitación se aplican a una o más entradas del sistema, este produce una o más señales de respuesta en sus salidas. A continuación se describe el diagrama de bloques de un sistema simple, en donde se relaciona la excitación a la entrada del sistema y la respuesta como la salida del mismo.

Excitación

sistema y la respuesta como la salida del mismo. Excitación Entrada SISTEMA Salida Respuesta Figura 5.

Entrada

SISTEMA

Salida

Respuesta

del mismo. Excitación Entrada SISTEMA Salida Respuesta Figura 5. Esquema de un sistema simple anteriormente es

Figura 5. Esquema de un sistema simple

anteriormente es el sistema de

comunicaciones, el transmisor es un dispositivo que produce una señal y el

Un ejemplo del sistema descrito

7

receptor es un dispositivo que adquiere una señal, el canal es la trayectoria que

la señal y/o el ruido toman desde el transmisor y/o fuente de ruido hasta el

receptor.

Señal de

Información

fuente de ruido hasta el receptor. Señal de Información Transmiso Canal Receptor Señal de información con
Transmiso Canal Receptor
Transmiso
Canal
Receptor

Señal de

información

con ruido

Figura 6. Esquema de un sistema transmisor_receptor

Clasificación de señales analógicas

La primera clasificación que se realizara son las señales en tiempo continuo y

en tiempo discreto. Una señal x(t) es una señal continua si está definida para

todo el tiempo t. Una señal discreta es una secuencia de números, denotada

comúnmente como x[n], donde n es un número entero. Una señal discreta se

puede obtener al muestrear una señal continua.

Clasificación de las señales de acuerdo a su variable independiente y depende

de las características del tiempo que puede ser valor continuo o discreto. Es

continuo si la variable independiente de una señal es continua y es la variable

del tiempo por tanto es una variable de tiempo continua, definida para valores

continuos de la variable independiente.

Es importante recalcar que una señal de tiempo continuo no necesariamente

esta discreta por una función matemática continua ( es decir que representa

una forma de onda continua)

A continuación se describen algunos ejemplos de señales continuas

8

y(t)

y(t)

Señaloidal en tiempo continuo 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1
Señaloidal en tiempo continuo
1
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
0
2
4
6
8
10
12

t, tiempo

Figura 7. Señal senoidal en tiempo continuo

Señaloidal en tiempo discreto

1

0.8

0.6

0.4

0.2

0

-0.2

-0.4

-0.6

-0.8

-1

0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1 0 20 40 60 80 100 120 140

0

20

40

60

80

100

120

140

t, tiempo

Figura 8. Señal senoidal en tiempo discreto

Estos dos tipos de señales son muy importantes dentro del procesamiento de la información; en estos momentos nos centraremos en las funciones de señales de tiempo continuo.

9

FUNCIONES FUNAMENTALES EN EL PROCESAMIENTO ANALÓGICO DE LA SEÑAL

Estas funciones tienen la características de ser el pilar fundamental para el

procesamiento de señales., ya que sus conceptos están inmersos dentro de los

teoremas fundamentales del procesamiento de señales.

FUNCIONES COMPLEJAS Y SENOIDES

Las funciones matemáticas se usan para describir señales, por ejemplo

señales senoidales en tiempo continuo están descritas por:

( )

G t

A

cos(

2

t

T

0

)

El periodo fundamental To y la frecuencia cíclica fundamental fo son reciprocos

simples uno del otro

Funciones de Singularidad

Las funciones de singularidad son un grupo de funciones que están

relacionadas con la función impulso. Aparte de la función impulso están la

función escalón y la función rampa

Función Impulso

La función impulso es más un concepto matemático que una función, que se

define de la siguiente manera:

t

( )

Infinito ,

0,

t 0

t

0

10

0

0

t dt

( )

1

La función es cero para cualquier valor de t, excepto cero. Cuando la t es cero el valor de la función es infinito Por definición el área de esta función es igual a uno

Por definición el área de esta función es igual a uno Figura 8. Representación gráfica de

Figura 8. Representación gráfica de la función impulso

Función Delta

La función impulso posee algunas propiedades que pueden resultar útiles.

(t ) 0, t

También es importante para posteriores desarrollos la propiedad de desplazamiento o corrimiento.

11

 

(

t



)

 

(

t

)

f

f

t dt

( )

t dt

( )

f



(

t

Función Escalón Unitario

)

f

(

)

dt

f

 

(

)

(

t

)

dt

f

(

)

La función escalón unitario se define como la integral de la función impulso desde el infinito negativo hasta el tiempo. la integral de la función impulso es 0 si el tiempo t es menor que 0, y 1 si el tiempo t es mayor que se define exactamente el escalón unitario.

u t    1, 0,

( )

Para

Para

t

t

0

0

El tipo de escalón unitario corresponde a una salida. El valor de la función en t = 0, es indefinido. Otros textos lo pueden definir como 1 ó 0. El escalón unitario está asociado a la gráfica que se describe a continuación.

asociado a la gráfica que se describe a continuación. Figura 9. Representación gráfica de la función

Figura 9. Representación gráfica de la función Escalón Unitario

12

Función Rampa

La función rampa es la integral de la función escalón. Si se considera que se está sumando toda el área bajo la función escalón a hasta un tiempo t.

Si t < 0 (cero), el valor de la integral será 0 (cero). Si es mayor que 0 (cero), entonces el valor será igual a la integral de 1 desde el tiempo 0 hasta el tiempo t, la cual también tiene el valor t, es decir:

( )

ramp t

  

0,

t ,

Para t

0

Para t

0

   0, t , Para t  0 Para t  0 Figura 10.

Figura 10. Representación gráfica de la función rampa

Relación Impulso / Escalón

Tal como se puede fácilmente demostrar, la función escalón y la función impulso están relacionados de la siguiente manera:

( )

u t

y

( )

t

t

 

(

)

d



d

dt

( )

u t

13

Relación Escalón / Rampa

Análogamente igualmente se demuestra que

( )

ramp t

t

u



(

 

)

d

y

( )

u t

d

dt

( )

ramp t

FUNCIONES EXPONENCIALES

Dada la importancia de las funciones exponenciales en el tratamiento de señales. Dividiremos su estudio en exponenciales continuas y exponenciales discretas. Y realizaremos ejercicios para observar los diferentes casos que encontramos dentro del estudio de las mismas.

Señales Exponenciales Continuas

La señales exponenciales continuas están definidas de la siguiente forma

x

( )

t

Ae (

a

jb t

)

donde A es la amplitud de la señal exponencial , a componente real y b componente imaginario. Existen diferentes señales según los valores de a y b, diferenciándose básicamente tres casos:

14

x(t)

a. Señales Exponenciales Reales

Para ellas se tiene en cuenta que A Real, a ≠ 0, b = 0. Si a es positiva, entonces conforme t se incrementa x(t) es una exponencial creciente. Si a es negativa, entonces x(t) es una exponencial decreciente. Observemos el comportamiento de la exponencial para los siguientes ejemplos:

Ejemplo: A = 3, a = 0.5, b = 0.

x(t)=A*exp(a*t)

40 35 30 25 Señal Continua: A=3, a=0.5, b=0 20 15 10 5 0 -5
40
35
30
25
Señal Continua: A=3, a=0.5, b=0
20
15
10
5
0
-5
-4
-3
-2
-1
0
1
2
3
4
5

Tiempo (seg)

Figura 11. Señal exponencial creciente

Ejemplo: A = 3, a =- 0.5, b = 0.

15

x(t)

x(t)

x(t)=A*exp(-a*t)

40 35 30 25 Señal Continua: A=3, a= -0.5, b=0 20 15 10 5 0
40
35
30
25
Señal Continua: A=3, a= -0.5, b=0
20
15
10
5
0
-5
-4
-3
-2
-1
0
1
2
3
4
5

Tiempo (seg)

Figura 12. Señal exponencial decreciente

Ejemplo: A = - 3, a = 0.5, b = 0.

x(t)= -A*exp(a*t)

0 -5 -10 -15 -20 -25 Señal Continua: A= -3, a=0.5, b=0 -30 -35 -40
0
-5
-10
-15
-20
-25
Señal Continua: A= -3,
a=0.5, b=0
-30
-35
-40
-5
-4
-3
-2
-1
0
1
2
3
4
5

Tiempo (seg)

Figura 11. Señal exponencial creciente, con valores A negativos y a positivo

16

x(t)

Ejemplo: A =- 3, a = - 0.5, b = 0.

x(t)=-A*exp(-a*t)

0 -5 -10 -15 -20 -25 Señal Continua: A= -3, a=-0.5, b=0 -30 -35 -40
0
-5
-10
-15
-20
-25
Señal Continua: A= -3,
a=-0.5, b=0
-30
-35
-40
-5
-4
-3
-2
-1
0
1
2
3
4
5

Tiempo (seg)

Figura 12. Señal exponencial creciente, con valores A y a negativos

b. Señales Exponenciales Complejas:

Para este tipo de señales se tiene la ecuación

como Real y a = 0,

b ≠ 0

x

( )

t

Ae (

a

jb

)

t

, en donde A

Esta señal, es muy usada para describir muchos procesos físicos, es periódica

con período

T

2

b

. Usando la relación de Euler se puede escribir en términos

de señales senoidales

x(t) = ACos( b t ) + j ASen( b t )

17

Ejemplo: A = - 3, a = 0, b = 0.3

Parte real

3 2 1 0 Señal Continua: A=3, a=0, b=0.3 -1 -2 -3 0 20 40
3
2
1
0
Señal Continua: A=3,
a=0, b=0.3
-1
-2
-3
0 20
40
60
80
100
120
Real x(t)

Tiempo (seg)

Parte imaginaria

3 2 1 0 Señal Continua: A=3, a=0, b=0.3 -1 -2 -3 0 20 40
3
2
1
0
Señal Continua: A=3,
a=0, b=0.3
-1
-2
-3
0 20
40
60
80
100
120
Imaginaria x(t)

Tiempo (seg)

Figura 13. Señal exponencial componente par e impar. Para b=0, a: negartivo

18

c. Señales Exponenciales Generales

Para este caso se tiene que A es Real, a ≠ 0, b ≠ 0. El caso más general de una exponencial compleja. Si a >0, x(t) corresponde a senoidales multiplicadas por una exponencial creciente. Si a <0, x(t) corresponde a senoidales multiplicadas por una exponencial decreciente. Para ello, se utiliza relación de Euler de la siguiente forma:

x(t)

at

A*e [Cos( b t )

Ejemplo: A = 3, a = 1, b = 4

jSen( b t )]

Parte real x 10 20 1.5 1 0.5 0 Señal Continua: A=3, a=1, b=4 -0.5
Parte real
x 10 20
1.5
1
0.5
0
Señal Continua: A=3,
a=1, b=4
-0.5
-1
0
100
200
300
400
500
600
Real x(t)

Tiempo (seg)

19

x 10 19

Parte imaginaria

8 6 4 Señal Continua: A=3, a=1, b=4 2 0 -2 -4 -6 -8 -10
8
6
4
Señal Continua: A=3,
a=1, b=4
2
0
-2
-4
-6
-8
-10
0
100
200
300
400
500
600
Imaginaria x(t)

Tiempo (seg)

Figura 14. Señal senoidales multiplicadas por una exponencial creciente

Ejemplo: Graficar la señal con las siguientes condiciones A = 3, a =- 1, b = 4

20

10 -17 x Parte real 2 1.5 1 Señal Continua: A=3, a= -1, b=4 0.5
10 -17
x
Parte real
2
1.5
1
Señal
Continua: A=3,
a= -1, b=4
0.5
0
-0.5
-1
0
100
200
300
400
500
600
Real x(t)

Tiempo (seg)

10 -17 Parte imaginaria x 2 1.5 1 Señal Continua: A=3, a= -1, b=4 0.5
10 -17
Parte imaginaria
x
2
1.5
1
Señal
Continua: A=3,
a= -1, b=4
0.5
0
-0.5
-1
0 100
200
300
400
500
600
Imaginaria x(t)

Tiempo (seg)

Figura 15. Señal senoidales multiplicadas por una exponencial decreciente

21

Señales Exponenciales Discretas

Las señales exponenciales discretas se representan matemáticamente como:



x n

Ae (

a

jb

)

n

Igualmente, según los valores de a y b, pueden diferenciarse básicamente tres casos:

Señales Exponenciales Reales: Haciendo la asociación con el ejemplo en exponenciales continuas y conservando las mismos valores, observaremos los diferentes casos de las exponenciales

A Real, a ≠ 0,

b = 0

Una expresión más general de x[n] sería

x[n] = c n , donde

c = (e a )

Si a > 0 (c > 1), entonces x[n] es una exponencial creciente. Si a < 0 (c < 1), entonces x[n] es una exponencial decreciente.

22

x(n)

x(n)

x(n)=A*exp(a*n)

40 35 30 25 Señal Continua: A=3, a=0.5, b=0 20 15 10 5 0 -5
40
35
30
25
Señal Continua: A=3, a=0.5, b=0
20
15
10
5
0
-5
-4
-3
-2
-1
0
1
2
3
4
5

Figura a.

Muestra (n)

x(n)=A*exp(-a*n)

40 35 30 25 Señal Continua: A=3, a= -0.5, b=0 20 15 10 5 0
40
35
30
25
Señal Continua: A=3, a= -0.5, b=0
20
15
10
5
0
-5
-4
-3
-2
-1
0
1
2
3
4
5

Figura b.

Muestra (n)

23

x(n)

x(n)

x(n)= -A*exp(a*n)

0 -5 -10 -15 -20 -25 Señal Continua: A= -3, a=0.5, b=0 -30 -35 -40
0
-5
-10
-15
-20
-25
Señal Continua: A= -3,
a=0.5, b=0
-30
-35
-40
-5
-4
-3
-2
-1
0
1
2
3
4
5

Figura c.

Muestra (n)

x(n)=-A*exp(-a*n)

0 -5 -10 -15 -20 -25 Señal Continua: A= -3, a=-0.5, b=0 -30 -35 -40
0
-5
-10
-15
-20
-25
Señal Continua: A= -3,
a=-0.5, b=0
-30
-35
-40
-5
-4
-3
-2
-1
0
1
2
3
4
5

Muestra (n)

Figura d. Figura 15. Señal exponenciales: a. Exponencial creciente, b: exponencial decreciente, c: exponencial valores A(negativo) , a(positivo), d: exponencial valores A(negativo) , a(negativo),

24

Señales Exponenciales Complejas

Se partirá de A Real, a = 0, b ≠ 0. Esta señal, es periódica con período N si N b = 2m, siendo N y m enteros, en caso contrario la señal es aperiódica. Usando la relación de Euler se puede escribir en términos de señales senoidales:

x[n] = ACos( b n ) + j ASen( b n )

Señales Exponenciales Generales

la forma general de una exponencial está dada por A Real, a ≠ 0, b ≠ 0 Utilizando la relación de Euler se puede escribir:

x[n] = Ac n [ Cos( b n ) + j Sen( b n )]

Si a > 0 (c > 1), entonces x[n] es una senoidal creciente. Si a < 0 (c < 1), entonces x[n] es una senoidal decreciente.

Ejemplo: Señal discreta teniendo valores de A = 3, a = 0, b = 0.3

Parte real

3 2 1 0 Señal Continua: A=3, a=0, b=0.3 -1 -2 -3 1 2 3
3
2
1
0
Señal Continua: A=3, a=0,
b=0.3
-1
-2
-3
1
2
3
4
5
6
7
8
9
10
11
Real x(n)

Muestra (n)

25

Imaginaria x(n)

Parte imaginaria

3

3
3            
3            
     
3            
3            
   
3            
 
3            

2

                     

1

                     

0

       

Señal Continua: A=3, a=0,

   

b=0.3

     

-1

                     

-2

   
-2            
-2            
-2            
-2            
     
-2            
 
-2            
-2            
  -2             -3              
  -2             -3              
  -2             -3              
  -2             -3              

-3

                       

1

2

3

4

5

6

7

8

9

10

11

Muestra (n)

Figura 16. Señal exponenciales discreta de la forma x[n] = Ac n [ Cos( b n ) + j Sen( b n )]: Para valores de A = 3, a = 0, b = 0.3

Ejemplo:

A = 3, a = -1, b = 4.

Graficar la señal exponencial discreta para los siguientes valores de

Observe que a diferencia del ejemplo anterior a presenta un valor diferente de cero. A continuación se describe los resultados de esta graficación, la cual se debe comprobar.

26

Real x(n)

Imaginaria x(n)

x

10 -17

Parte real

1.4

26 Real x(n) Imaginaria x(n) x 10 - 1 7 Parte real 1.4 1.2 1 0.8
26 Real x(n) Imaginaria x(n) x 10 - 1 7 Parte real 1.4 1.2 1 0.8
26 Real x(n) Imaginaria x(n) x 10 - 1 7 Parte real 1.4 1.2 1 0.8
26 Real x(n) Imaginaria x(n) x 10 - 1 7 Parte real 1.4 1.2 1 0.8
26 Real x(n) Imaginaria x(n) x 10 - 1 7 Parte real 1.4 1.2 1 0.8
26 Real x(n) Imaginaria x(n) x 10 - 1 7 Parte real 1.4 1.2 1 0.8
26 Real x(n) Imaginaria x(n) x 10 - 1 7 Parte real 1.4 1.2 1 0.8
26 Real x(n) Imaginaria x(n) x 10 - 1 7 Parte real 1.4 1.2 1 0.8
26 Real x(n) Imaginaria x(n) x 10 - 1 7 Parte real 1.4 1.2 1 0.8

1.2

1

0.8

0.6

0.4

0.2

0

x(n) x 10 - 1 7 Parte real 1.4 1.2 1 0.8 0.6 0.4 0.2 0

1 1.5

2

2.5

3

3.5

4

4.5

5

5.5

6

Muestra (n)

10 -31
x

Parte imaginaria

0.5

5 5.5 6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1
5 5.5 6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1
5 5.5 6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1
5 5.5 6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1
5 5.5 6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1
5 5.5 6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1
5 5.5 6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1
5 5.5 6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1
5 5.5 6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1
5 5.5 6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1
5 5.5 6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1
5 5.5 6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1

0

-0.5

-1

-1.5

-2

6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1 -1.5 -2

-2.5

-3

6 Muestra (n) 10 - 3 1 x Parte imaginaria 0.5 0 -0.5 -1 -1.5 -2

1 1.5

2

2.5

3

3.5

4

4.5

5

5.5

6

Muestra (n)

27

Parte real x 10 19 12 10 8 6 4 2 0 1 1.5 2
Parte real
x
10 19
12
10
8
6
4
2
0
1
1.5
2
2.5
3
3.5
4
4.5
5
5.5
6
Muestra (n)
Parte imaginaria
x
10 6
Real x(n)
0.5 0 -0.5 -1 -1.5 -2 -2.5 -3 -3.5 1 1.5 2 2.5 3 3.5
0.5
0
-0.5
-1
-1.5
-2
-2.5
-3
-3.5
1 1.5
2
2.5
3
3.5
4
4.5
5
5.5
6
Imaginaria x(n)

Muestra (n)

28

SEÑALES PERIÓDICAS Y NO PERIÓDICAS

Una señal continua es periódica con periodo T si existe un valor positivo T tal que

x(t + T) = x(t), para todo t

Cualquier señal que no sea periódica se llama no periódica o aperiódica. El valor más pequeño de T que satisface esta ecuación se llama periodo fundamental.

El recíproco del periodo fundamental es la frecuencia fundamental, se mide en Hertz (ciclos por segundo) y describe qué tan seguido la señal periódica se repite.

F

1

T

La frecuencia angular, medida en radianes por segundo, se define como

2

N

Una señal discreta x[n] es periódica si satisface la condición:

x[n] = x[n + N] para todos los enteros n

donde N es un número entero. El valor más pequeño de N que satisface esta ecuación se llama periodo fundamental.

29

Señales Pares e Impares

Una señal es par si se cumple que x(-t) = x(t) para todo t. Es impar si x(-t) = - x(t) para todo t. Cualquier señal puede ser expresada como una suma de dos señales, una de las cuales es par y la otra impar:

( )

x t

( )

t

x

o

( )

t

x

e

1

2

1

2

donde

x

x

e

o

(

(

t

t

)

)

(

x t

)

x

(

t

)

(

x t

)

x

(

t

)

Generalmente cuando se tienen varias señales multiplicándose se puede seguir cuatro sencillas reglas, tal como se realiza al multiplicar números con signo distinto:

a. Par * par = par

b. Par * impar = impar

c. Impar * par = impar

d. Impar * impar = par

TRANSFORMACIONES DE ESCALAMIENTO Y DESPLAZAMIENTO EN EL TIEMPO

Escalamiento en amplitud

El escalamiento en el tiempo es la transformación funcional mas sencilla, Esta transformación presenta la siguiente notación:

30

y(t) = A*x(t)

para cualquier valor de t, la transformación multiplica el valor producido de x(t) por A. La figura17 indica algunos ejemplos de escalamiento en amplitud, en la figura a se encuentra la señal original x(t), en la b) se encuentra la señal original multiplicada por una constante con valor de 3, en c) se encuentra la señal original escalada por un valor 3 y en la d) se muestra la señal original escalada por el valor de - 1/3. Por tanto el escalamiento en amplitud es una

transformación de la variable dependiente y.

Funcion original, x(t)

2.5 2 1.5 1 0.5 0 -0.5 -1 -1.5 -5 -4 -3 -2 -1 0
2.5
2
1.5
1
0.5
0
-0.5
-1
-1.5
-5
-4
-3
-2
-1
0
1
2
3
4
5
amplitud (cm)

tiempo, t

a) Señal Original, x(t)

31

Funcion original, y(t)=3*x(t)

8 7 6 5 4 3 2 1 0 -1 -2 -3 -4 -5 -6
8
7
6
5
4
3
2
1
0
-1
-2
-3
-4
-5
-6
-5
-4
-3
-2
-1
0
1
2
3
4
5
amplitud (cm)

tiempo, t

b) señal y(t) = 3*x(t)

Funcion original, y(t)=--3*x(t)

6 4 2 0 -2 -4 -6 -8 -5 -4 -3 -2 -1 0 1
6
4
2
0
-2
-4
-6
-8
-5
-4
-3
-2
-1
0
1
2
3
4
5
amplitud (cm)

tiempo, t

c) señal y(t) = -- 3*x(t)

32

Funcion original, y(t)=--(1/3)*x(t)

0.5 0 -0.5 -1 -5 -4 -3 -2 -1 0 1 2 3 4 5
0.5
0
-0.5
-1
-5
-4
-3
-2
-1
0
1
2
3
4
5
amplitud (cm)

tiempo, t

d) señal y(t) = -(1/3)*x(t) Figura 17. Grafica de escalamiento en amplitud

Desplazamiento en el tiempo

El desplazamiento en el tiempo atiende a la una de las transformaciones:

a. tt to

b.

+ to

tt

en donde to es una constante arbitraria. En el caso del inciso a, tiene el efecto de desplazar la señal original to unidades a la derecha, en el caso del inciso b, tiene el efecto de desplazar la señal original to unidades a la izquierda.

En el siguiente figura se ilustra una función y(t) desplazada en el tiempo.

33

Funcion original, y(t)

20 10 0 -10 Amplitud
20
10
0
-10
Amplitud
-8 -6 -4 -2 0 2 4 6 8 Funcion desplazada, y(t+1) 20 Tiempo, t
-8
-6
-4
-2
0
2
4
6
8
Funcion desplazada, y(t+1)
20
Tiempo, t
10
0
-10
-8
-6
-4
-2
0
2
4
6
8
Funcion desplazada, y(t-1)
Amplitud
Tiempo, t 20 10 0 -10 -8 -6 -4 -2 0 2 4 6 8
Tiempo, t
20
10
0
-10
-8
-6
-4
-2
0
2
4
6
8
Amplitud

Tiempo, t

Figura 18. Grafica de desplazamiento en el tiempo

Escalamiento en el tiempo

El escalamiento en el tiempo atiende a la transformación funcional tt/a. Esta transformación expande la función original horizontalmente (en t) por un factor a. Si tenemos la transformación funcional ta.t, contrae la función original horizontalmente (en t) en un factor a. Si a<0, la función también se invertirá en

34

el tiempo. La figura muestra una señal original x(t), y se pide obtener x(t/2) y

x(2t).

Funcion original, y(t) 14 12 10 8 6 4 2 0 -2 -4 -6 -15
Funcion original, y(t)
14
12
10
8
6
4
2
0
-2
-4
-6
-15
-10
-5
0
5
10
15
Amplitud

Tiempo, t

Funcion escalada (t/2), y(t/2)

14 12 10 8 6 4 2 0 -2 -4 -6 -15 -10 -5 0
14
12
10
8
6
4
2
0
-2
-4
-6
-15
-10
-5
0
5
10
15
Amplitud

Tiempo, t

35

Funcion escalada (2*t), y(2*t) 14 12 10 8 6 4 2 0 -2 -4 -6
Funcion escalada (2*t), y(2*t)
14
12
10
8
6
4
2
0
-2
-4
-6
-15
-10
-5
0
5
10
15
Tiempo, t
Amplitud

Figura 18. Grafica de escalamiento en el tiempo

CAPITULO 2. PROPIEDADES DE LOS SISTEMAS

Sistemas Lineales (SL)

Un sistema es lineal se obtiene cuando la entrada de un sistema dado es escaldado por un valor, la salida del sistema es escalado por la misma cantidad. La entrada del sistema lineal, X, produce una salida, Y. Si se escala en amplitud la señal X por un valor α y es pasada a través del mismo sistema, la salida también será escalada por el mismo valor α. Como se ilustra a continuación.

36

Entrada

Salida

X

X S.L Y
S.L
S.L
X S.L Y

Y

α X

α X S.L α Y
S.L
S.L
α X S.L α Y

α Y

Figura 19. Grafica de escalamiento en sistemas lineales

Un sistema lineal es aquel que satisface el principio de superposición. El principio de superposición exige que si dos entradas son sumadas juntas y pasadas a través del sistema lineal, la salida será equivalente a la suma de las dos entradas evaluadas individualmente.

Entrada

Salida

X1

Y1

Y1X1

Y1

X2

Y2

Y2X2

Y2

Por medio del principio de superposición se muestra:

X1+Y1

Por medio del principio de superposición se muestra: X1+Y1 S.L X2+Y2 Figura 20. Principio de superposición

S.LPor medio del principio de superposición se muestra: X1+Y1 X2+Y2 Figura 20. Principio de superposición Si

medio del principio de superposición se muestra: X1+Y1 S.L X2+Y2 Figura 20. Principio de superposición Si

X2+Y2

Figura 20. Principio de superposición

Si esta afirmación se cumple se dice que el sistema es lineal.

La propiedad de escalamiento en amplitud también es válida para el principio de superposición. Por lo tanto, si las entradas x y y son escaladas por factores

37

α y β, respectivamente, entonces la suma de estas entradas escaladas dará la suma de las salidas escaladas individualmente.

Entrada

Salida

α X1

α X1 S.L Y1 α
S.L
S.L

Y1S.L α

α

β X2

β X2 S.L β Y2
S.L
S.L

β Y2 Y2

α X1+X2

α X1+  X2 S.L α Y1+  Y2
S.L
S.L

α

Y1+ Y2 Y2

Figura 21. Grafica de escalamiento en amplitud en el principio de superposición

Sistemas Lineales Invariantes en el Tiempo (SIT)

Un sistema invariante en el tiempo (SIT) tiene la propiedad de que cierta entrada siempre dará la misma salida, sin consideración alguna a cuando la entrada fue aplicada al sistema.

Entrada

Salida

X(t)

Y(t)

Y(t)X(t)

Y(t)

X(t-to)

Y(t-to)

Y(t-to)X(t-to)

Y(t-to)

Figura 22. Grafica de sistemas invariantes en el tiempo

En esta figura, x(t) y x(tt 0 ) son pasadas a través del sistema TI. Ya que el sistema TI es invariante en el tiempo, las entradas x(t) y x(tt 0 ) producen la misma salida. La única diferencia es que la salida debida a x(tt 0 ) es cambiada por el tiempo t 0 .

38

Si un sistema es invariante en el tiempo o de tiempo variado puede ser visto en la ecuación diferencial (o ecuación en diferencia) descrita. Los sistemas invariantes en el tiempo son modelados con ecuaciones de coeficientes constantes. Una ecuación diferencial (o en diferencia) de coeficientes constantes significa que los parámetros del sistema no van cambiando a través del tiempo y que la entrada nos dará el mismo resultado ahora, así como después.

Sistemas Lineales Invariantes en el Tiempo (LTI)

A los sistemas que son lineales y al mismo tiempo invariantes en el tiempo nos referiremos a ellos como sistemas LTI . Como se muestra a continuación la señal de salida es una versión escalada y desplazada en el tiempo de la señal de entrada.

Entrada

Salida

X(t)

X(t) LTI Y(t)
LTI
LTI

Y(t)X(t) LTI

X(t-to)

 X(t-to) LTI  Y(t-to)
LTI
LTI

Y(t-to) Y(t-to)

Figura 23. Sistemas LTI

Los sistemas LTI son subconjuntos de los sistemas lineales, estos obedecen al principio de superposición. En la siguiente figura se puede observar el efecto de aplicar el tiempo invariante a la definición de sistema lineal del sistema anterior.

Entrada

Salida

 

X

1 (t)

  X 1 (t) LTI Y 1 (t)
LTI
LTI
  X 1 (t) LTI Y 1 (t)

Y

1 (t)

X

2 (t)

X 2 (t) LTI Y 2 (t)
LTI
LTI
X 2 (t) LTI Y 2 (t)

Y

2 (t)

39

Aplicando el principio de superposición se tiene:

Entrada

X 1 (t-t 1 )+ X 2 (t-t 2 )

LTI
LTI

Salida

Y 1 (t-t 1 )+  Y 2 (t-t 2 ) Y 1 (t-t 1 )+ Y 2 (t-t 2 )

Los Sistemas LTI pueden trabajar en Serie o Paralelo. Si dos o mas sistemas están en serie uno con otro, el orden puede ser intercambiado sin que se vea afectada la salida del sistema. Los sistemas en series también son llamados como sistemas en cascada.

H 1
H 1
H 2
H 2

Figura 24. Sistema LTI en Cascada

Si dos o mas sistemas LTI están en paralelo con otro, un sistema equivalente es aquel que esta definido como la suma de estos sistemas individuales.

esta definido como la suma de estos sistemas individuales. H 1 H 2 H 1 +

H 1

H 2

esta definido como la suma de estos sistemas individuales. H 1 H 2 H 1 +
esta definido como la suma de estos sistemas individuales. H 1 H 2 H 1 +

H 1 + H 2

esta definido como la suma de estos sistemas individuales. H 1 H 2 H 1 +

Figura 25. Sistema LTI en paralelo

40

CAPITULO 3. SISTEMAS LINEALES

Función Delta de Dirac

La Función Delta de Dirac, conocida también como el impulso unitario o función delta es una función infinítamente angosta, infinítamente alta, cuya integral tiene un valor unitario. Tal vez la manera mas simple de visualizar esto es usar

un pulso rectangular que va de a-(/2) a a+(/2) con una altura de (1/) .

Como se observa a continuación.

(1/) -/2 /2 Figura 26. Función delta de Dirac
(1/)
-/2
/2
Figura 26. Función delta de Dirac

Al momento de tomar su límite, lim0, se puede observar que su ancho tiende a ser cero y su altura tiende a infinito conforme su área total permanece constante con un valor de uno. La función del impulso usualmente se escribe como:

δ(t) dt=1

por tanto la función se puede representar como:

41

1
1

En primera instancia se observara el comportamiento de la función Delta multiplicada por otra función

f(t) δ(t) =f(0) δ(t)

Esta función es cero en todas partes excepto en el origen, así que básicamente estamos eliminando el valor de la función de multiplicación al evaluarla en cero. A primera vista esto no parece tener mayor importancia, porque ya sabemos que el impulso evaluado en cero es infinito, y todo lo multiplicado por infinito da un resultado infinito. Pero, ¿qué pasa si integramos el resultado de la multiplicación?

Propiedad de Desplazamiento

f(t) δ(t) dt=∫ f(0) δ(t) dt= f(0) ∫ δ(t) dt= f(0)

Lo que se obtiene es una función evaluada en cero. Si hubiéramos usado δ(t−T) en vez de δ(t), podríamos haber desplazado f(T). A esto es lo que llamaremos la propiedad de desplazamiento de la función de Dirac, el cual se usa frecuentemente para definir el impulso unitario.

42

Esta propiedad es muy útil al momento de desarrollar la idea de convolución la

cual es una de los fundamentos principales para el procesamiento de señales.

Al usar convolución y esta propiedad podemos representar una aproximación a

cualquier resultado de un sistema si se conoce la respuesta al impulso del

sistema y su señal de entrada

Propiedades de Impulso Unitario

El impulso unitario se puede definir en forma funcional como

δ[t] =

1,

0 en otro caso

si t = 0

Las propiedades del impulso unitario son:

1  ( t)   (t)   (t)   (-t) d 
1

(
t) 
 (t)
(t)
 
(-t)
d
 (t) 
u (t)
dt

donde u(t) es el escalón unitario.

Impulso de tiempo-discreto (muestreo unitario)

La extensión de la función impulso unitario al tiempo-discreto se convierte en

una trivialidad. Todo lo que realmente necesitamos es darnos cuenta que la

integración en tiempo-continuo equivale a una sumatoria en tiempo-discreto.

Por lo tanto buscaremos una señal que al sumarla sea cero y al mismo tiempo

sea cero en todas partes excepto en el origen.

Impulso de Tiempo-Discreto

43

Se define de la siguiente forma

δ[n] =

1, si n = 0 0 en otro caso 1
1,
si n = 0
0 en otro caso
1

Figura 27. Impulso de Tiempo-Discreto

Al analizar una gráfica de tiempo-discreto de cualquier señal discreta, uno

puede notar que todas las señales discretas están compuestas de un conjunto

de muestras unitarias que están escalados y desplazados en el tiempo. Si

dejamos que el valor de una secuencia en cada entero k sea descrita por s[k] y

la muestra unitaria retrasado que ocurre en k sea escrito como δ[n−k], se

puede escribir cualquier señal como la suma de impulsos unitarios retrasados

que son escalados por un valor de la señal, o por coeficientes de escalamiento.

s[n] = ∞ k=−∞… s[k] δ[n−k]

Esta ecuación es una propiedad que solo se aplica a señales de tiempo-

discreto y resulta ser una propiedad muy útil para estas señales.

.

La Respuesta de Impulso

La respuesta de impulso es exactamente lo que su nombre implica- la

respuesta de un sistema LTI, como por ejemplo un filtro, cuando la señal de

44

entrada del sistema es un impulso unitario (o muestra unitaria). Un sistema puede ser completamente descrito por su respuesta al impulso por las razones explicadas previamente, ya que todas las señales pueden ser representadas por una superposición de señales. Una respuesta al impulso da una descripción equivalente a la dada por una función de transferencia, ya que existen Transformadas de Laplace para cada una.

.

Función de transferencia

En un sistema lineal e invariante en el tiempo (LTI), se definie la función de transferencia como la transformada de Laplace de la salida dividida en la transformada de Laplace de la entrada, bajo condiciones iniciales nulas.

Entrada X(t) L.T.I
Entrada
X(t)
L.T.I
Salida Y(t)
Salida
Y(t)

La función de transferencia se expresa como

H(s)=Y(s) / X(s)

Si la función de entrada es una función impulsional; es decir,

X(t)= (t)

X(s)= 1

y

H(s)=Y(s)

Las raíces del numerador de H(s) se conoce como ceros y las raíces del denominador se conoce como polos de la FT. La representación grafica de una función de transferencia en el plano complejo s se le conoce como diagramas de polos y ceros.

45

UNIDAD 2

CAPITULO 4. Muestreo

Introducción.

Muchos equipos y dispositivos modernos requieren procesar la señales analógicas que reciben y convertirlas en señales digitales para poder funcionar. Harry Nyquist propuso un teorema que ha tenido efectos profundos en la teoría de información así como el diseño práctico de técnicas de comunicaciones de datos que implican la digitalización de señales análogas. Nyquist fue un de los pioneros más importantes de la teoría de comunicación. En 1924, Nyquist publicó el artículo " Certain Factors Affecting Telegraph Speed." Él observó que la velocidad de una transmisión en el cable era proporcional a la anchura de las frecuencias usadas, hoy conocida como la ancho de banda del circuito. En 1928 Nyquist publicó uno segundo artículo importante “Certain Topics in Telegraph Transmisión Theory”. En ello, Nyquist postuló un teorema que propuso que muestras tomadas dos veces el valor de la frecuencia mayor de la señal puede representar la señal perfectamente. El teorema está basado sobre la asunción que la transmisión es en uno canal sin ruido. Este es un concepto muy importante, y utilizado en el campo de ingeniería de telecomunicaciones.

Muestreo de señales

Para convertir una señal analógica en digital, se debe realizar una serie de pasos. Es necesario primero realizar un muestreo o sampling de la señal, es decir, tomar diferentes muestras de tensiones o voltajes en diferentes puntos de la onda senoidal. La frecuencia a la que se realiza el muestreo se denomina razón, tasa o también frecuencia de muestreo y se mide en kilohertz (kHz). Durante el proceso de muestreo se asignan valores numéricos equivalentes a

46

la tensión o voltaje existente en diferentes puntos de la sinusoide, con la finalidad de realizar a continuación el proceso de cuantización.

de realizar a continuación el proceso de cuantización. Figura 28. representación física de un sistema de

Figura 28. representación física de un sistema de muestreo

En la siguiente figura se ofrece las formas de las tres señales principales:

S(t):

Señal a muestrear

: Señal muestreadora

S d (t): Señal muestreada

S(t): S eñal a muestrear  : S eñal muestreadora S d (t): Señal muestreada Figura

Figura 29. Muestreo de señales

47

Teorema del muestreo (Teorema de Nyquist-Shannon)

El muestreo periódico de una señal analógica se realiza cuando tomamos mediciones de la misma a intervalos iguales. Por ejemplo cuando se graba una señal de audio a la PC mediante una placa de sonido, el conversor A/D de la PC estará digitalizando la señal a una cierta frecuencia tal como 11, 22, ó 44 kHz, denominada frecuencia de muestreo. Si la frecuencia de muestreo es muy baja, es decir mediciones demasiado espaciadas, se perderán “detalles” de la señal original. Mediante una simple demostración gráfica se puede ver. En las figuras A-B-C-D hemos representado cuatros señales distintas (en línea azul) muestreadas periódicamente a igual frecuencia (los círculos rojos denotan las “muestras”). En A y B las señales aparecen correctamente representadas por las muestras, en C la velocidad de muestreo parece insuficiente, y en D las muestras representan una señal como la de B, es decir la señal de D es un “alias” de la señal de B. Este efecto se denomina en inglés “aliasing”.

A. B. C. D.
A.
B.
C.
D.

Figura 30. Teorema de Nyquist-Shannon

48

El Teorema del Muestreo, o Teorema de Nyquist-Shannon, establece que la frecuencia mínima de muestreo necesaria para evitar el “aliasing” debe ser.

f s > 2.BW

con f s : frecuencia de muestreo, BW: ancho de banda de la señal a muestrear

BW = f max - f min

Para señales con f min = 0, se puede expresar como f s > 2 .f max

Para demostrar el teorema se recurre a los conceptos básicos de series de Fourier y trigonometría.

Conceptos básicos de Series de Fourier

Una función s(t) periódica en el tiempo, con período T, puede ser representada por una sumatoria de funciones senoidales del tipo

( )

S t

C

0

C

1

cos(2

C

cos(2

C

n

n f

f

t

t

1

1

)

)

N

k 1

k

cos(2

k f t

Para k = 0, 1, 2,

,n

C

2

)

cos(2

2

f

t

2

)

C

3

cos(2

3

f

t

3

)

Es decir una serie de componentes cosenoidales de amplitud C k , fase k y

frecuencia f k = k.f múltiplo de la frecuencia fundamental f=1/T (la de la función representada). Es la conocida serie de Fourier.

La representación de estas amplitudes C k sobre un diagrama Amplitud vs frecuencia es lo que denominamos diagrama espectral o espectro de frecuencia de la señal. La componente c 0 es la componente de frecuencia 0

49

(componente de continua). Se puede hablar así de una función S(f), con

dominio 0, f, 2f, 3f

nf e imagen c 0 , c 1 , c 2 , c 3

c

n .

La señal analógica, que se quiere muestrear, en caso de ser periódica tendrá un espectro que será una suma de componentes senoidales de frecuencias espaciadas a intervalos f=1/T o una integral de componentes senoidales de frecuencias infinitamente próximas entre sí. Por ejemplo, el espectro de amplitud de una señal s(t) cuadrada sigue una ley S(f)=1/f (pero con las

componentes pares c 2 , c 4 , c 6

nulas). Este espectro es teóricamente infinito

(ancho de banda infinito). Las señales reales ocupan un ancho de banda finito.

Por ejemplo una señal de audio ocupa un rango de frecuencias entre unos 20Hz y 15 kHz.

Si una señal no es periódica, en vez de una sumatoria de componentes espaciadas a intervalos 1/T, se tiene una integral (no periódica es período T infinito, espaciamiento 1/T nulo). La forma de calcular la S(f) de una función no periódica en el tiempo es mediante la Transformada de Fourier.

Aún así, si una señal es no periódica, sus componentes ocuparán una cierta banda de frecuencias. Lo que realmente interesa es el espectro de la función impulso repetitivo, ya que la señal obtenida como muestreo periódico de una señal analógica equivale al producto de dicha señal analógica por la función impulso repetitivo.

La función impulso (no repetitivo) d(t1) es aquella que vale 1 en t = t 1 y 0 en t

t 1.

es decir

impulsos espaciados T segundos en el tiempo, o lo que es lo mismo con frecuencia de repetición f = 1/T.

La función impulso repetitivo es dr(t)=d(0)+d(T)+d(2.T)+ d(3.T)

Esta señal tiene un espectro

Dr(f) = k.[d(0) + d(f) + d(2.f) + d(3.f)+

], con k cte.

50

Es decir (sin considerar la fase) dr(t)=k.(1+

cos(2.3.f.t)+

[Ecuación 2]

cos(2..f.t)+ cos(2.2.f.t)+

En las gráficas siguientes se representan en el dominio del tiempo (izquierda) funciones impulso repetitivo de 10 y 20 Hz y sus espectros correspondientes (derecha).

de 10 y 20 Hz y sus espectros correspondientes (derecha). Figura 31. Señales en el dominio

Figura 31. Señales en el dominio del tiempo y sus correspondientes espectros

Ya se tienen los elementos para la demostración:

Por trigonometría se tienen que:

cos(a).cos(b) = ½ [cos (a+b) + cos(a-b)] [Ecuación. 3]

Por ejemplo, al multiplicar una señal cosenoidal de amplitud 1 y 5 kHz por una señal cosenoidal de amplitud 1 y 50kHz resultan dos componentes cosenoidales de amplitud 0,5 y 45kHz y 0,5 y 55kHz.

51

51 Figura 32. Señales señoidales a diferentes frecuencias con sus espectros. Al muestrear la señal analógica

Figura 32. Señales señoidales a diferentes frecuencias con sus espectros.

Al muestrear la señal analógica s(t) obtenemos una señal s*(t) que equivale al producto de la señal original por la función impulso repetitivo dr(t) .

s*(t)=s(t).dr(t) [Ecuación 4].

Reemplazando en la Ecuación 4 s(t) por Ecuación 1 y dr(t) por Ecuación 2 (sin considerar la fase ni el factor k en la Ecuación 2) se obtiene

s*(t)=s(t).dr(t)=[c 0 +c 1 .cos(2..f a .t)+ c 2 .cos(2..2.f a .t)+ +

c n .cos(2..n.f a .t)].[k.(1+ cos(2..f s .t)+ cos(2..2.f s .t)+ cos(2..3.f s .t)+

]

con f a frecuencia de la señal analógica y f s frecuencia de muestreo.

aplicando distributiva y la identidad trigonométrica de la Ecuación. 3 se obtiene una serie de componentes cosenoidales cuyas frecuencias serán

f s f a , f s 2.f a , f s 3.f a 3.f s 3.f a

2.f

s f a , 2.f s 2.f a , 2.f s 3.f a ,

3.f s f a , 3.f s 2.f a ,

52

Agrupadas de la siguiente manera

(f s f a , f s 2.f a , f s 3.f a

)

3.f s 3.f a

)(2.f

s f a , 2.f s 2.f a , 2.f s 3.f a ,

)(

3.f s f a , 3.f s 2.f a ,

Cada grupo reproduce el espectro de la señal s(t) y su “reflejo” sobre las componentes f s , 2f s , 3f s .

El mismo análisis es válido para una señal no periódica.

En las gráficas siguientes se ilustra la señal a muestrear y su espectro, la señal muestreada a una frecuencia f s > fmax, y finalmente la señal muestreada a f s < fmax, resultando el efecto de “aliasing”.

53

53 file:///C:/WINDOWS/Archivos temporales de Internet/Content.IE5/W5MRGDI3/TMuestreo[1].doc

file:///C:/WINDOWS/Archivos temporales de

Internet/Content.IE5/W5MRGDI3/TMuestreo[1].doc

http://www.elprisma.com/apuntes/curso.asp?id=11349

Una de las aplicaciones donde se puede apreciar más el concepto de aliasing es en el procesamiento de imágenes. El aliasing ocurre cuando se intenta representar una imagen pero que debido a la resolución resulta que éste sea incapaz de representar la curva como tal, y por tanto dichas curvas se

54

muestran en pantalla dentadas al estar compuestas por cuadros menudos (los pixeles). Como se puede observar en las siguientes imágenes

Sin Aliasing

se puede observar en las siguientes imágenes Sin Aliasing Con aliasing Figura 33. Imágenes con y

Con aliasing

en las siguientes imágenes Sin Aliasing Con aliasing Figura 33. Imágenes con y sin aliasing. CAPITULO

Figura 33. Imágenes con y sin aliasing.

CAPITULO 5. Cuantificación

Introducción

Una vez realizado el muestreo de la señal, se continua con la cuantización (quantization) de la señal analógica. Para esta parte del proceso los valores continuos de la sinusoide se convierten en series de valores numéricos decimales discretos correspondientes a los diferentes niveles o variaciones de voltajes que contiene la señal analógica origina.

Por tanto, la cuantización representa el componente de muestreo de las variaciones de valores de tensiones o voltajes tomados en diferentes puntos de la onda sinusoidal, que permite medirlos y asignarles sus correspondientes valores en el sistema numérico decimal, antes de convertir esos valores en sistema numérico binario. Como muestra la siguiente figura 34.

55

55 Figura 34. Grafica de cuantización de señales Sin embargo, en esta parte se realizará énfasis
55 Figura 34. Grafica de cuantización de señales Sin embargo, en esta parte se realizará énfasis
55 Figura 34. Grafica de cuantización de señales Sin embargo, en esta parte se realizará énfasis
55 Figura 34. Grafica de cuantización de señales Sin embargo, en esta parte se realizará énfasis

Figura 34. Grafica de cuantización de señales

Sin embargo, en esta parte se realizará énfasis en el proceso de cuantificación de la señal.

Cuantificación

La cuantificación es la conversión de una señal discreta en el tiempo evaluada de forma continua a una señal discreta en el tiempo discretamente evaluada. El valor de cada muestra de la señal se representa como un valor elegido de entre un conjunto finito de posibles valores.

Se conoce como error de cuantificación (o ruido), a la diferencia entre la señal de entrada (sin cuantificar) y la señal de salida (ya cuantificada), interesa que el ruido sea lo más bajo posible. Para conseguir esto, se pueden usar distintas técnicas de cuantificación

56

Cuantificación uniforme

En los cuantificadores uniformes (o lineales) la distancia entre los niveles de reconstrucción es siempre la misma, como se observa en la siguiente figura:

No hacen ninguna suposición acerca de la naturaleza de la señal a cuantificar, de ahí que no proporcionen los mejores resultados. Sin embargo, tienen como ventaja que son los más fáciles y menos costosos de implementar. En la siguiente figura se ve un ejemplo de cuantificación uniforme:

figura se ve un ejemplo de cuantificación uniforme: Figura 35. Grafica de cuantización uniforme Cuantificación

Figura 35. Grafica de cuantización uniforme

Cuantificación logarítmica

Las señales de voz pueden tener un rango dinámico superior a los 60 dB, por lo que para conseguir una alta calidad de voz se deben usar un elevado número de niveles de reconstrucción. Sin embargo, interesa que la resolución del cuantificador sea mayor en las partes de la señal de menor amplitud que en las de mayor amplitud. Por tanto, en la cuantificación lineal se desperdician niveles de reconstrucción y, consecuentemente, ancho de banda. Esto se puede mejorar incrementando la distancia entre los niveles de reconstrucción conforme aumenta la amplitud de la señal.

57

Un método sencillo para conseguir esto es haciendo pasar la señal por un compresor logarítmico antes de la cuantificación. Esta señal comprimida puede ser cuantificada uniformemente. A la salida del sistema, la señal pasa por un expansor, que realiza la función inversa al compresor. A esta técnica se le llama compresión. Su principal ventaja es que es muy fácil de implementar y funciona razonáblemente bien con señales distintas a la de la voz. Para llevar a cabo la compresión existen dos funciones muy utilizadas: Ley-A (utilizada principalmente en Europa) y ley-µ(utilizada en EEUU).

Ley-A :

c

(

x

)

Ley-µ :

c x

(

)


A x sgn( x ) 1  log A e
A
x
sgn(
x
)
1  log
A
e

x

max

si

1 log

e

( A

x

/

x

max

)

1 log

e

A

e

x

/

x

max

)

log (1

log (1

e

)

x

max

x 1 0   x A max sgn( x ) si
x
1
0 
x
A
max
sgn(
x
)
si

sgn(

x

)

1 x  A x max
1
x
A
x
max

1

En la mayoría de los sistemas telefónicos, A se fija a 87.56 y µ a 255. La siguiente figura muestra la gráfica de la ley-µ para distintos valores de µ:

58

58 Figura 36. Grafica de cuantización logarítmica Cuantificación no uniforme El problema de la cuantificación uniforme

Figura 36. Grafica de cuantización logarítmica

Cuantificación no uniforme

El problema de la cuantificación uniforme es que conforme aumenta la amplitud de la señal, también aumenta el error. Este problema lo resuelve el cuantificador logarítmico de forma parcial. Sin embargo, si se conoce la función de la distribución de probabilidad, podemos ajustar los niveles de recontrucción a la distribución de forma que se minimice el error cuadrático medio. Esto significa que la mayoría de los niveles de reconstrucción se den en la vecindad de las entradas más frecuentes y, consecuentemente, se minimice el error (ruido).

La siguiente figura representa la cuantificación no uniforme

(ruido). La siguiente figura representa la cuantificación no uniforme Figura 37. Grafica de cuantización no uniforme

Figura 37. Grafica de cuantización no uniforme

59

En la práctica, se puede usar una estimación de la distribución para diseñar los cuantificadores. Esta estimación se puede obtener a partir de los datos a cuantificar de forma iterativa.

Cuantificación vectorial

En los métodos anteriores, cada muestra se cuantificaba independientemente a las muestras vecinas. Sin embargo, la teoría demuestra que ésta no es la mejor forma de cuantificar los datos de entrada. Resulta más eficiente cuantificar los datos en bloques de N muestras. El proceso es sencillamente una extensión de los anteriores métodos escalares descritos anteriormente. En este tipo de cuantificación, el bloque de N muestras se trata como un vector N-dimensional. En la siguiente figura se observa un ejemplo de cuantificación vectorial (VQ) en dos dimensiones:

de cuantificación vectorial (VQ) en dos dimensiones: Figura 38. Grafica de cuantización vectorial El plano XY

Figura 38. Grafica de cuantización vectorial

El plano XY está dividido en seis regiones distintas. El vector de entrada (con dos componentes) se reemplaza se reemplaza por el centroide i (representa

60

todos los vectores de una determinada región i) pertenece.

de

la

región

a

la

que

La cuantificación vectorial ofrece mejores resultados que la cuantificación escalar, sin embargo, es más sensible a los errores de transmisión y lleva consigo una mayor complejidad computacional.

Ruido de cuantificación

mayor complejidad computacional. Ruido de cuantificación Figura 39. Procesos de la conversión A/D. Se define como

Figura 39. Procesos de la conversión A/D.

Se define como error de cuantificación o ruido de cuantificación a la señal en tiempo discreto y amplitud continua introducida por el proceso de cuantificación y que resulta de igualar los niveles de las muestras de amplitud continua a los niveles de cuantificación más próximos. Una vez cuantificadas las muestras podrán ser codificadas ya que siempre se podrá establecer una correspondencia biunívoca entre cada nivel de cuantificación y en número entero. Para el caso del cuantificador ideal se trata del único error que introduce el proceso.

61

61 Figura 40. Proceso de cuantificación http://es.wikipedia.org/wiki/Imagen:FuncionTransferenciaCuantificador.svg

Figura 40. Proceso de cuantificación http://es.wikipedia.org/wiki/Imagen:FuncionTransferenciaCuantificador.svg

Función de transferencia del proceso de cuantificación. Un intervalo de valores de entrada (escalón de cuantificación) se corresponde con un único valor de salida. Así, por cada valor de entrada se obtiene un valor de salida y un error que, si se resta al de salida, devolvería el valor de entrada. El error es máximo cuando el valor de entrada es equidistante a sus dos niveles de cuantificación más próximos (se dice entonces que se encuentra sobre el nivel de decisión). El error es cero cuando el valor de entrada equivale a un nivel de cuantificación y, por tanto, al nivel de salida. Se puede observar que la amplitud máxima del error es de medio escalón de cuantificación (Δ = Escalón de cuantificación) mientras la señal de entrada se encuentra dentro del rango de cuantificación.

El proceso de convertir una señal en tiempo discreto de amplitud continua (esto es, en el proceso de muestreo la señal se ha dividido en el tiempo en un número finito de muestras pero el valor de estas aún no ha sido limitado en precisión) en una señal discreta en tiempo y amplitud (sus dos dimensiones), expresando cada muestra por medio de una precisión finita y conocida (en contraposición a una precisión infinita -en matemática- o indeterminada -en física-) consecuencia del ajuste a un número finito y determinado de niveles, se denomina cuantificación. La diferencia que resulta de restar la señal de entrada a la de salida es el error de cuantificación, esto es, la medida en la que ha sido necesario cambiar el valor de una muestra para igualarlo a su nivel de

62

cuantificación más próximo. Esta diferencia, entendida como una secuencia de muestras de tiempo discreto pero de amplitud continua (al igual que la señal de entrada), puede ser interpretado en la práctica como una señal indeseada añadida a la señal original (motivo por el que se denomina ruido, aunque no siempre cumpla con todos los criterios necesarios para ser considerado así y no distorsión), de modo que se cumple:

considerado así y no distorsión), de modo que se cumple: Figura 41. Modelo matemático del ruido

Figura 41. Modelo matemático del ruido de cuantificación.

De esta representación se puede extraer

e

q

(

n

)

donde

x

q

(n)

x(n)

x(n) representa a la secuencia de muestras de amplitud continua a la entrada

del cuantificador

63

x (n)

q

Es la secuencia de muestras de amplitud discreta (cuantificadas) a la

salida del cuantificador

e (n)

q

representa a la secuencia de muestras de amplitud continua del error de

cuantificación.

El receptor/lector de

x

q

(n) (o de su versión codificada posterior) no tiene la

información necesaria para identificar el componente de error

e (n) que

q

incluye y poder recuperar x(n) . Es decir, la reconstrucción de las muestras

originales de amplitud continua (sin cuantificar) no es posible sólo a partir de las muestras cuantificadas: falta la información necesaria para distinguir el error de la señal una vez estos se suman en la cuantificación.

En la Figura 42 es posible verificar que el error de cuantificación e (n) está

q

siempre en el rango -Δ/2 a Δ/2 mientras la señal analógica de entrada se encuentre dentro del rango del cuantificador:

2

e

q

(

n

)

2

donde

del cuantificador:   2  e q ( n )   2 donde es

es el tamaño del escalón de cuantificación que viene dado por:



R

L

donde

cuantificación.

que viene dado por:  R L donde cuantificación. es el rango del cuantificador y el

es

el

rango

del

cuantificador

y

que viene dado por:  R L donde cuantificación. es el rango del cuantificador y el

el

número

de

niveles

de

64

64 Figura 42: Grafica de cuantificación de un senoide La línea roja en la figura 42

Figura 42: Grafica de cuantificación de un senoide

La línea roja en la figura 42 corresponde con las muestras (2000 en este ejemplo para el ciclo completo por lo que produce la ilusión de ser continua) sin cuantificar (muestras de entrada al cuantificador) de una señal original sinusoidal sin dither, la verde representa esas mismas muestras de entrada cuantificadas (salida del cuantificador ideal) y la azul muestra el error de cuantificación que resulta del proceso de cuantificación.

La relación señal a ruido de cuantificación (SQNR) es para este caso de sólo 24,74 dB con objeto de resaltar el error de cuantificación y su forma. Dicho de otro modo, la amplitud de la sinusoidal original de entrada (línea roja) es de 7,5 niveles de cuantificación (la máxima amplitud de una sinusoidal que puede cuantificar un cuantificador por redondeo de 4 bits ya que el nivel de cuantificación de valor 0 no puede estar centrado al haber un número par de niveles totales).

65

Con objeto de poner de manifiesto el ruido de cuantificación, a la señal de entrada sinusoidal de este ejemplo no se le ha añadido Dither (un ruido analógico que se añade intencionadamente a la señal de entrada antes de la conversión A/D). En la práctica, y como consecuencia de la lógica y habitual práctica de añadir dither (véase Ruido o distorsión: la necesidad de añadir dither), la figura notablemente escalonada de una señal cuantificada como la ilustrada aquí adquiere el aspecto de la Figura 42 color verde.

En el caso de que el error está limitado en magnitud [es decir,

e

q (

n

 )  2
)
2

], el

error resultante se denomina ruido granular. Cuando la entrada cae fuera del

rango de cuantificación (recorte),

sobrecarga.

e (n) es ilimitado y resulta en

q

ruido de

Teóricamente, la cuantificación de las señales analógicas resulta siempre en una pérdida de información (incluso en su caso ideal). Éste es el resultado de la ambigüedad introducida por la cuantificación. De hecho, la cuantificación es un proceso no reversible, dado que a todas las muestras a un intervalo inferior a Δ/2 de un determinado nivel se les asignan el mismo valor. Sin embargo, discretizar una señal en su otra dimensión (el tiempo) mediante el proceso de muestreo, no es irreversible tal y como demuestra el teorema de muestreo y si se cumplen los criterios que impone el propio teorema debido a la naturaleza periódica y, por tanto, determinista de las señales que se someten a este proceso y a la limitación del ancho de banda (límite superior a la frecuencia de los componentes que componen la señal periódica).

Es decir, una onda periódica muestreada cumpliendo los criterios de Nyquist sólo puede comportarse de un único modo entre dos muestras contiguas y este comportamiento es totalmente deducible a partir de la serie completa de muestras de amplitud continua de la señal. La discretización de la dimensión amplitud (la cuantificación), es, por tanto, el único proceso que introduce un error teórico (en procesos ideales) sobre la señal original en todo el procedimiento completo de digitalización de una señal.

66

Espectro y distribución de probabilidad de la amplitud del error de cuantificación

El ruido de cuantificación es aproximadamente de distribución uniforme en amplitud y de densidad espectral más o menos constante sobre toda la banda de Nyquist (hasta la frecuencia crítica) en el supuesto de que el error de cuantificación no está correlacionado con la señal ni presente periodicidad. En este caso es posible referirse al error de cuantificación como un ruido blanco uniforme.

Bajo ciertas condiciones donde la tasa de muestreo y la señal están relacionados armónicamente, esto es, que alguno de sus componentes armónicos sea de una frecuencia submúltiplo par de la de muestreo, el error de cuantificación queda correlacionado y la energía se concentra en los armónicos de la señal (si bien la potencia del error es, en general, la misma que para el caso no correlacionado). En este caso, cuando la señal no deseada es función de la señal de entrada, el error no es un ruido y debe ser descrito como distorsión.

Cálculo de la relación señal-ruido de cuantificación (SQNR)

Si se cumplen las siguientes suposiciones sobre las propiedades estadísticas

de e (n)

q

:

1. El error e (n) se distribuye uniformemente sobre el rango

q

2

e

q

(

n

)

2

2. La secuencia de error e (n) es una secuencia estacionaria de ruido blanco.

q

En otras palabras, el

error

e (n)

q

y

el

error

e (m) para

q

estacionaria de ruido blanco. q En otras palabras, el error e ( n ) q y

están

incorrelados.

67

3. La secuencia de error e (n)

q

está incorrelada con la secuencia x(n) .

4. La secuencia

x(n)

tiene media cero y es estacionaria.

el efecto del ruido aditivo e (n)

q

en la señal deseada se puede cuantificar

evaluando la relación (potencia) señal a ruido de cuantificación (SQNR), que se puede expresar en escala logarítmica (en decibelios o dB) como

SQNR 10log

10

P

x

P

n

P

x es

donde

cuantificación.

la

potencia de la

señal

y

P

n es la potencia

del

ruido de

En adelante y para el resto de los cálculos sobre la potencia promedio del error de cuantificación, se aceptará que el error cumple con las propiedades estadísticas descritas. No obstante, en general, estas suposiciones no se mantienen, por lo que los cálculos que siguen no se entenderán de aplicación universal. Sin embargo, se mantienen cuando el tamaño del escalón de cuantificación es pequeño en relación con la señal y la secuencia

x(n) atraviesa varios niveles de cuantificación entre dos muestras sucesivas.

Potencia del error de cuantificación

68

68 Figura 43: Función de densidad de probabilidad Función de densidad de probabilidad de los valores

Figura 43: Función de densidad de probabilidad

Función de densidad de probabilidad de los valores del error de cuantificación. Se trata de una distribución uniforme continua en el rango (-Δ/2, Δ/2). Como se observa en la figura 43. Su varianza es de Δ²/12 y su desviación estándar (σ e ) está marcada en rojo.

Si el error de cuantificación se mantiene uniforme en el rango (-Δ/2, Δ/2) (Figura 6), el valor medio del error es, por tanto, cero y la potencia del ruido en toda la banda de Nyquist con relación al escalón de cuantificación es la

varizanza

P

n

2

2

e

e de esta distribución uniforme:   2 2 1    3 2
e de esta distribución uniforme:
2
2
1   
3
2
2
2
e
p e de
(
)
1 
e
de 
 
12
12
 
2
2

Este resultado coincide con la potencia promedio de una onda triangular o en

con la potencia promedio de una onda triangular o en dientes de sierra de amplitud máxima

dientes de sierra de amplitud máxima (amplitud de pico o cresta) : una

señal en dientes de sierra e(t) de esta amplitud de pico en el intervalo

correspondiente a un semiciclo (0, π) se puede describir:

69

( )

e t

2

t,

para 0 t

Por tanto, la potencia de la señal en dientes de sierra es:

P

n

1

0

e

2

t dt

( )

1

2

1

t

4

2

 

0

2 dt

1  

 

2

2

4

 

0

t

2 dt

2

12

que coincide con el análisis por la varianza del primer cálculo.

Es importante notar que estos cálculos se refieren a la potencia total del ruido de cuantificación distribuido en todo el intervalo de frecuencias desde corriente continua hasta la frecuencia de Nyquist (la mitad de la tasa de muestreo), es decir, no contempla la reducción de la potencia consecuencia del uso de un filtro por sobremuestreo en la conversión A/D.

Potencia de una señal armónica (sinusoidal)

Para una señal armónica (sinusoidal) x(t) de amplitud de pico

2

b

A  

2

b

1

2 ,

es

decir,

convertidor de un

bits, la potenciaA   2 b  1  2 , es decir, convertidor de un de

de

P

x

máxima

amplitud

, se obtiene:

para

P

x

1

2

2

0

x

(2

b 1

2

)

t dt

( )

2