Vous êtes sur la page 1sur 20

UNIVERSIDAD AUTÓNOMA DE CAMPECHE

FACULTAD DE INGENIERÍA

LIC. EN INGENIERÍA MECATRÓNICA

NOMBRES DE LOS ALUMNOS:


ARON I UC PERALTA
JESÚS ARMANDO CHI MAY
MAXIMILIANO DEL JESUS SAN MIGUEL PANTY
ABELARDO CHI TORRES

MATERIA:
PROCESAMIENTO DE SEÑALES

ING. AVILA ORTEGA ISABEL

SEMESTRE FEBRERO 2018 – JULIO 2018

“INVESTIGACIÓN COMPLETA DEL EQUIPO”


SEÑALES ANALÓGICAS Y DIGITALES

09/FEBRERO/2018
Transformaciones de la Variable Independiente (operaciones sobre señales).
 Reflexión
En muchas ocasiones es importante considerar analítica y gráficamente señales
relacionadas por una modificación de la variable independiente, mediante
operaciones tales como desplazamiento o corrimiento e inversión. Por ejemplo,
como se ilustra en la siguiente figura, la señal x[-n] se obtiene a partir de la señal
x[n] por una reflexión o inversión en n = 0 (es decir, una inversión de la señal).

Ilustración 1.Inversión en tiempo discreto

De igual forma, como se muestra en la ilustración 2, x(-t) se obtiene a partir de la


señal x(t) por reflexión en t = 0. Entonces, si x(t) representa una señal de audio en
un grabador de cinta, la señal x(-t) es la misma grabación reproducida en reversa.
Esta operación se conoce como reflexión y es equivalente a “doblar” la señal
(rotación de 180º) en torno a la línea t=0 o simplemente a intercambiar el “pasado”
y el “futuro” de la señal de tiempo.

Ilustración 2.Inversión en tiempo continuo.

 Desplazamiento
Otra operación es la de desplazamiento. La señal x (t-t0) representa una versión desplazada
de x(t), Ilustración 3. El desplazamiento en el tiempo es t0, donde t0 es un número real.
Si t0 > 0, entonces la señal es retrasada en t0 unidades de tiempo. Físicamente, t0 no puede
tomar valores negativos, pero desde un punto de vista analítico, x(t-t0),t0< 0, representa una
réplica adelantada de la señal x(t).
Las señales que están relacionadas en esta forma (t0 > 0) surgen en aplicaciones tales
como el radar, sonar, sistemas de comunicación y procesamiento de señales sísmicas. Un
sistema cuya señal de salida es idéntica a la de su entrada, pero retrasada por una
constante se denomina una unidad de retardo. Por otra parte, si la señal de salida es
idéntica a la de entrada, pero avanzada por una constante, el sistema se denomina un
predictor. Sin embargo, un sistema que prediga (adivine) es físicamente imposible de
construir.
Ilustración 3.Desplazamiento de una señal de tiempo continuo.

 Escalamiento
La operación de compresión o expansión en el tiempo se conoce como
escalamiento en el tiempo.
Considere, por ejemplo, las señales x(t), x(3t) y x(t/2), mostradas en la Ilustración 4.
Como se puede ver, x(3t) puede describirse como x(t) comprimida por un factor de
3. En forma similar, x(t/2) puede describirse como expandida por un factor de 2. Se
dice que ambas funciones, x(3t) y x(t/2), son versiones de x(t) escaladas en el
tiempo.
En general, si la variable independiente es escalada por un parámetro α, entonces
x(αt) es una versión comprimida de x(t) si |α| > 1y es una versión expandida de x(t)
si |α| < 1. Si consideramos a x(t) como si fuese la señal de salida de un grabador de
video, por ejemplo, entonces x(3t) se obtiene cuando la grabación se reproduce a
tres veces la velocidad con la cual fue grabada, y x(t/2) se obtiene cuando la
grabación se reproduce a la mitad de esa velocidad. También se puede decir, por
ejemplo, que lo que le pase a x(t) en el instante t, también le sucederá a x(t/2) en el
instante t/2.

Ilustración 4.Ejemplos de escalamiento en el tiempo.


La transformación de la variable independiente de una señal nos permite modelar
muchos de los fenómenos físicos que sufre una señal en la naturaleza.
Sea la señal x(t) representada en la siguiente figura:

Ilustración 5.Señal x(t)

Se definen las siguientes transformaciones:


Demostración con Teoremas (Teoremas de la transformada de Fourier)
 Teorema de la Traslación o Desplazamiento en el Tiempo

La señal x(t-t0) es una versión de x(t) retardada en t0 segundos (representa la salida


de un filtro de ganancia unitaria cuya entrada es x(t) y cuyo retardo es t 0). Este
teorema establece entonces que el espectro de la señal retardada en un tiempo t 0
igual al producto del espectro de la señal original por exp(-2πt0f). Este retardo no
afecta al espectro de amplitudes original, pero sí lo hace experimentar un desfase
de (-2π t0f) radianes. En general, un desplazamiento en el dominio del tiempo
corresponde a un desfase en el dominio de la frecuencia, y viceversa.
 Teorema del cambio de escala
Este teorema, algunas veces denominado “Propiedad Escalar de la
Transformada de Fourier”, cuantifica la relación “duración-ancho de banda” entre
una función del tiempo y su correspondiente transformada. Si |a| >1, entonces x(at)
es la señal x(t) con una escala de tiempo t.

 Teorema de la Dualidad o Simetría

 Teorema de la Traslación o Desplazamiento en Frecuencia


Señales Armónicas Sinusoidales Y No Sinusoidales
Concepto de Frecuencia en señales continuas y discretas en el tiempo
El concepto de frecuencia ya será familiar a los estudiantes de ingeniería y ciencias.
Este concepto es básico, por ejemplo, en el diseño de un receptor de radio, de un
sistema de alta fidelidad o de un filtro espectral para fotografías en color. De la Física
sabemos que la frecuencia está estrechamente relacionada con un tipo especifico
de movimiento oscilatorio armónico, que se describe mediante funciones
sinusoidales. El concepto de frecuencia está directamente relacionado con el
concepto de tiempo. En consecuencia, la naturaleza del tiempo (continuo o discreto)
afectará a la naturaleza de la frecuencia.
Señales Sinusoidales continuas en el tiempo
Una oscilación armónica simple se describe matemáticamente mediante la siguiente
señal sinusoidal continua en el tiempo:
𝑥𝑎 (𝑡) = 𝐴 cos(Ω𝑡 + 𝜃), −∞<𝑡 <∞ (1.3.1)

que se muestra en la figura 1.3.1. El subíndice a utilizado con x(t) indica que se trata
de una señal analógica. Esta señal queda completamente caracterizada mediante
los 3 parámetros siguientes:
1. A, que es la amplitud de la sinusoide,
2. Ω, que es la frecuencia en rad/s, y
3. 𝜃, que es la fase en radianes.
En lugar de Ω, a menudo utilizaremos la frecuencia F medida en ciclos por segundo
o Hercios (Hz), donde:
Ω = 2𝜋𝐹 (1.3.2)
En función de F, podemos escribir la expresión (1.3.1) como sigue:
𝑥𝑎 (𝑡) = 𝐴 cos(2𝜋𝐹t + 𝜃) , −∞<𝑡 <∞ (1.3.3)
Se utilizan ambas formas para representar señales sinusoides.
La señal sinusoidal analógica descrita por (1.3.3) queda caracterizada por las
siguientes propiedades:
A1. Para todo valor fijo de la frecuencia F, 𝑥𝑎 (t) es periódica. En efecto, se puede
demostrar fácilmente, utilizando trigonometría elemental, que

𝑥𝑎 (𝑡 + 𝑇𝑝 ) = 𝑥𝑎

Donde 𝑇𝑝 =1/F es el periodo fundamental de la señal sinusoidal.

A2. Señales sinusoidales continuas en el tiempo con diferentes frecuencias son


diferentes.
A3. Un incremento de la frecuencia F da lugar a un incremento en la velocidad de
oscilación de la señal, en el sentido de que se incluyen mas periodos en un intervalo
de tiempo dado.
Observe que para F=0, el valor de 𝑇𝑝 =∞ es coherente con la relación fundamental
F=1/𝑇𝑝 . Debido a la continuidad de la variable tiempo t, podemos aumentar la
frecuencia F, sin límite, con el consiguiente aumento de la oscilación.
La relación que hemos descrito para las señales sinusoidales es aplicable a la clase
de señales exponenciales complejas
𝑥𝑎 (𝑡) = 𝐴𝑒 𝑗(Ω𝑡+ 𝜃) (1.3.4)
Esto puede verse fácilmente expresando estas señales en función de señales
sinusoidales

𝑒 ±𝑗𝜙 = cos 𝜙 + sin 𝜙


(1.3.5)
Por definición, la frecuencia es una magnitud física inherente positiva. Esto resulta
obvio si interpretamos la frecuencia como el numero de ciclos por unidad de tiempo
de una señal periódica. Sin embargo, en muchos casos, y únicamente por
conveniencia matemática, tendremos que emplear frecuencias negativas.
Recordemos que la señal sinusoidal (1.3.1) se puede expresar de la forma siguiente:
𝐴 𝐴
𝑥𝑎 (𝑡) = 𝐴 cos(Ω𝑡 + 𝜃) = 2 𝑒 𝑗(Ω𝑡+ 𝜃) + 2 𝑒 −𝑗(Ω𝑡+ 𝜃) , −∞<𝑡 <∞ (1.3.6)

Que se deduce de (1.3.5). observe que se puede obtener una señal sinusoidal
sumando dos señales exponenciales complejas conjugadas de la misma amplitud,
las cuales en ocasiones se denominan fasores como se muestra

En la figura 1.3.2. A medida que transcurre el tiempo, los fasores giran en


direcciones opuestas en frecuencias angulares de ±Ω radianes por segundo. Dado
que una frecuencia positiva se corresponde con un movimiento angular uniforme en
sentido antihorario, una frecuencia negativa corresponderá con un movimiento en
sentido horario.
Por comodidad para la realización de los cálculos matemáticos, utilizaremos tanto
frecuencias negativas, como positivas.
Combinaciones de senoides
El periodo común o el periodo T de una combinación de senoides es la duración
mas pequeña sobre la cual cada senoide completa un numero enteros de ciclos.
Esta dado por el mínimo común múltiplo de los periodos individuales. La frecuencia
fundamental F es el reciproco de T e igual al máximo común divisor de las
frecuencias individuales. Podemos encontrar un periodo común o frecuencia
fundamental solo para una combinación proporcional en la que la razón entre
cualesquiera de dos periodos es una fracción racional.
Señales Casi periódicas
Es una combinación no proporcional tal como 𝑥(𝑡) = 2 cos(𝜋𝑡) + sin(3𝑡) donde la
razón de los periodos o frecuencias no son racionales, simplemente no podemos
encontrar un periodo común, y no hay repetición. Tales combinaciones se
denominan casi periódicas o cuasiperiódicas.

Señales sinusoidales discretas en el tiempo


Una señal sinusoidal discreta en el tiempo puede expresarse como sigue:
𝑥(𝑛) = 𝐴 cos(ω𝑛 + 𝜃) , −∞<𝑛<∞ (1.3.7)
Donde n es una variable entera, que se denomina numero de muestra,
 A, es la amplitud de la sinusoide,
 ω, es la frecuencia en radianes por muestra y
 𝜃 es la fase en radianes.
Si en lugar de ω utilizamos la variable frecuencia f definida por:
ω = 2𝜋𝑓 (1.3.8)
La relación (1.3.7) se convierte
𝑥(𝑛) = 𝐴 cos(2𝜋𝑓n + 𝜃) , −∞<𝑛 <∞ (1.3.9)

La frecuencia f tiene dimensiones de ciclos por muestra. Consideremos la sinusoide


discreta en el dominio del tiempo dada por (1.3.7), independientemente de la
sinusoide continua en el tiempo dada por (1.3.1). La figura (1.3.3) muestra una
𝜋 𝜋
sinusoide de frecuencia ω = 6 radianes por muestra y una fase de 𝜃 = 3 .

En comparación de las señales sinusoidales continuas en el tiempo, las señales


sinusoidales discretas en el tiempo se caracterizan por las propiedades siguientes:
B1. Una sinusoide discreta en el tiempo es periódica solo si su frecuencia es un
numero racional.
Por definición, una señal discreta en el tiempo x(n) es periódica de periodo N(N>0)
SI y solo si
𝑥(𝑛 + 𝑁) = 𝑥(𝑛) para todo n (1.3.10)
El valor mas pequeño de N para el que se cumple (1.3.10) se denomina periodo
fundamental, la demostración de la propiedad de periodicidad es simple. Para que
una sinusoide con frecuencia f0 sea periódica debemos tener:
cos(2𝜋𝑓0 (𝑁 + 𝑛) + 𝜃) = cos(2𝜋𝑓0 (𝑛) + 𝜃)
Esta relación es cierta si y solo si existe un entero k tal que;
2𝜋𝑓0 𝑁 = 2𝑘𝜋
O, lo que es lo mismo
𝑘
𝑓0 = 𝑁 (1.3.11)

De acuerdo con (1.3.11), una señal sinusoidal en tiempo discreto es periódica solo
si en frecuencia 𝑓0 se puede expresar como el cociente de dos enteros (esto es, si
𝑓0 es racional).
Para determinar el periodo fundamental N de una sinusoide periódica, expresamos
su frecuencia 𝑓0 como en (1.3.11) y en cancelar factores comunes hasta que k y N
sean números primos relativos. Entonces el periodo fundamental de la sinusoide es
N. Obsérvense que una pequeña variación en la frecuencia puede originar un gran
cambio en el periodo. Por ejemplo, 𝑓1 =31/60, implica que N1 es igual a 60, mientras
que 𝑓2 =30/60 da como resultado N2=2.
B2. Las señales sinusoidales discretas en el tiempo cuyas frecuencias están
separadas un múltiplo entero de 2𝜋 son iguales.
Para demostrar esta afirmación, consideremos la señal sinusoidal cos(𝜔0 + 𝜃).
Fácilmente se deduce que
cos(𝜔0 + 2𝜋)𝑛 + 𝜃) = cos(𝜔0 𝑛 + 2𝜋𝑛 + 𝜃) = cos(𝜔0 + 𝜃) (1.3.12)
Por lo tanto, todas las secuencias sinusoidales
𝑥𝑘 (𝑛) = 𝐴 cos(𝜔𝑘 𝑛 + 𝜃), 𝑘 = 0,1,2 … (1.3.13)
Donde
𝜔𝑘 = 𝜔0 + 2𝑘𝜋 − 𝜋 < 𝜔0 < 𝜋
Son indistinguibles.
1
Cualquier secuencia resultante de una sinusoide |𝜔| > 𝜋, 𝑜 |𝑓| > 2, es idéntica a
una secuencia obtenida a partir de una señal sinusoidal de la frecuencia |𝜔| < 𝜋.
Debido a esta similitud, decimos que la sinusoide que tiene la frecuencia |𝜔| > 𝜋 es
un alias de la sinusoide cuya frecuencia |𝜔| < 𝜋.
B3. La tasa de oscilación más alta de una señal sinusoidal discreta en el tiempo se
alcanza cuan 𝜔 = 𝜋.
Para ilustrar esta propiedad, vamos a investigar las características de la siguiente
secuencia de señales de sinusoides.
𝑥(𝑛) = cos(𝜔0 𝑛),
Cuando la frecuencia varía entre 0 y π. Para simplificar el argumento, tomamos
1 1 1 1
valores de 𝜔0 = 0, 𝜋/8, π/4, π/2, π. Correspondientes a 𝑓 = 0, 16 , 8 , 4 , 2 lo que da
como resultado las secuencias periódicas que tienen periodos de N=∞,16,8,4,2,
como se ilustra en la Figura.1.3.4. observe que el periodo de la sinusoide decrece
cuando la frecuencia aumenta.
Por lo tanto, 𝜔2 es un alias de 𝜔1 . Si hubiéramos empleado una función seno en
lugar de una función coseno, el resultado sería básicamente el mismo, excepto por
una diferencia de fase de 180° entre las sinusoides x1 y x2. En cualquier caso,
cuando aumentamos la frecuencia relativa 𝜔0 de una señal sinusoidal discreta en
el tiempo de π a 2π, su tasa de oscilación disminuye. Para 𝜔0 =2π, el resultado es
una señal constante, como en el caso de 𝜔0 = 0. Obviamente para 𝜔0 = 𝜋
obtenemos la máxima tasa de oscilación.
Como en el caso de las señales continuas en el tiempo, pueden introducirse
frecuencias negativas también para las señales discretas en el tiempo. Para este
propósito, utilizamos la siguiente identidad.
𝐴 𝐴
𝑥(𝑛) = 𝐴 cos(ω𝑛 + 𝜃) = 2 𝑒 𝑗(𝜔𝑛+ 𝜃) + 2 𝑒 −𝑗(𝜔𝑛+ 𝜃) , (1.3.15)
Puesto que las señales sinusoidales discretas en el tiempo con frecuencias
separadas entre sí con un múltiplo entero de 2π son idénticas se deduce que las
frecuencias de cualquier intervalo 𝜔1 ≤ 𝜔 ≤ 𝜔1 + 2𝜋 constituyen todas las
sinusoides discretas en el tiempo o exponenciales complejas, por lo tanto el rango
de frecuencias para sinusoides discretas en el tiempo es finito con una duración de
2π. Normalmente seleccionamos el rango 0≤ ω ≤ 2π o −𝜋≤ ω ≤ π el cual se
denomina periodo fundamental.
Importancia De Las Señales Armónicas
La importancia de las señales armónicas y senoides se basan en los siguientes
aspectos:
1. Cualquier señal puede representarse mediante una combinación de
armónicas – Las periódicas por armónicas a frecuencias discretas (Series de
Fourier) y las aperiódicas por armónicas a todas las frecuencias
(Transformadas de Fourier)
2. La respuesta de un sistema lineal para una entrada armónica también es una
señal armónica a la frecuencia de entrada. Esto forma la base para el análisis
de sistemas en el dominio de frecuencias.
SIMETRÍA DE SEÑALES.
Si una señal es idéntica a su versión refleja, x(t)=x (-t), recibe el nombre de simetría par.
Vemos simetría de espejo alrededor del eje vertical pasando por el origen en t=0. Si una
señal y su versión refleja difieren sólo en el signo con, x(t)=-x (-t) se denomina simétrico
impar. En cualquier caso, la señal de extiende sobre límites simétricos en entorno al
origen.

Las combinaciones de señales simétricas son siempre simétricas para ciertas


condiciones:

La simetría par y la simetría impar son mutuamente excluyentes. En consecuencia, si una


señal x(t) se forma al sumar una señal simétrica par xe(t) y una señal simétrica impar x0(t)
esta no tiene simetría. Por otro lado cualquier señal x(t) puede expresarse como la suma
de una parte simétrica par xe(t) y una parte simétrica impar x0(t).
Simetría par:
Gráficamente la simetría par de una señal se verifica mediante la existencia de una
simetría con respecto al eje vertical ( "t = 0" ; "n = 0" ), esto equivale a reflejar la señal y
obtener como resultado una señal idéntica a la original.

Simetría impar:
Gráficamente la simetría impar de una señal se verifica mediante la existencia de una
simetría con respecto al origen ( "t = 0, x(t)=0" ; "n = 0,x[n]=0" ), esto equivale a reflejar e
invertir la señal y obtener como resultado una señal idéntica a la original.
Simetría de media onda:
Tipo de simetría existente en algunas señales periódicas que permite muchas veces la
simplificación de diversos cálculos. Gráficamente se verifica al invertir y desplazar medio
período (adelante o atrás) la señal y obtener como resultado una señal idéntica a la
original.

La simetría de Media Onda puede combinarse también con las simetrías Par e Impar,
dando como resultado Simetrías de Cuarto de Onda Par e Impar respectivamente.
Simetría Impar + Simetría de Media Onda

Simetría Par + Simetría de Media Onda


“SEÑALES”
Nuestro mundo está lleno de señales, tanto naturales como las que producen el hombre.
• El aire cuando hablamos
• Los ascensos y descensos diarios de la temperatura
• Señales eléctricas periódicas que genera el corazón
Las señales representan información. A menudo, las señales no llevan directamente la información
necesaria y es posible que no estén libres de perturbaciones.

“SEÑALES ELEMENTALES”
Existen varias señales elementales que sobresalen en el estudio:
• Escalón unitario
• Impulso
• Rampa

ESCALON UNITARIO
En tiempo continuo

Exhibe una discontinuidad en t=0, puesto que el valor u(t) cambia de manera instantánea de 0 a 1
cuando t=0.
En tiempo discreto
IMPULSO
En tiempo discreto

En tiempo continuo
• (t) es cero en todos los lados salvo el origen

• El área total bajo el impulso unitario es 1.

• (t) se conoce como delta Dirac.

• (t) es la derivada de u(t) respecto al tiempo t.

• ut) es la integral del impulso (t) con respecto al tiempo


t.

RAMPA UNITARIA

La función impulso (t) es la derivada de la función escalón u(t) con respecto al tiempo.
Por el mismo motivo, la integral de la función escalón u(t) es una función de rampa de pendiente
unitaria

De modo equivalente:
RAMPA
• La función rampa nos permite evaluar cómo un sistema en tiempo continuo respondería a
una señal que aumenta linealmente con el tiempo.

• En términos mecánicos se puede representar como el desplazamiento angular de un eje,


entonces la ración de velocidad constante del eje brinda una representación de la función
rampa.

Rampa Discreta

Rampa continua

Señales Continuas:
Uno de los dos tipos básicos de señales, para las cuales la variable independiente
es continua, es decir son señales que están definidas para un intervalo continuo de
valores de su variable independiente.

Señales Discretas
El otro tipo básico de señales, para el cual la variable independiente (tiempo) es
discreta, es decir que están definidas para un conjunto de valores discretos de su
variable independiente.
Una señal Continua es aquella que depende de una variable está definida para todos los
puntos de un intervalo determinado del conjunto de los números reales por tal motivo podemos
decir que estas señales pertenecen a los reales, también son continuas en el tiempo. De
señales continuas tenemos:
 corriente en AC
 temperatura
 presión
 movimientos mecánicos entre otros.

Una señal Discreta es aquella que depende de una variable (n), es una señal discontinua la
cual está definida para todos los puntos de un intervalo del conjunto de los números enteros,
por lo tanto, pertenece a los números enteros. Son importantes para la tecnología ya que, en el
mundo de ahora, un mundo "digital" y en el que usamos computadores, microchips entre otros,
solo manejan señales discretas.

Uno de los ejemplos de estas señales es:


 el precio del Dólar
 el rebotar de una pelota al caer libremente
 el pulso cardíaco.

Vous aimerez peut-être aussi