Académique Documents
Professionnel Documents
Culture Documents
1
Chapitre I. Modélisation et caractéristiques des signaux
1.Signal
2.Signal déterministe et aléatoire
3.Analyse fréquentielle des signaux à bande étroite
Chapitre V. Applications
2
Quelques définitions
1. Un signal est la manifestation physique d’une information qui est transportée d’une
source vers une destination. En pratique, c’est souvent une grandeur physique qui
varie au cours du temps. Ceci est en réalité un peu restrictif mais correspond bien à la
plupart des cas pratiques. Par exemple, puisqu’en mesures physiques, on est
intéressé par la mesure et par les capteurs, la tension délivrée par tout capteur est
typiquement un signal qui peut faire l’objet des propos qui vont suivre. Cette
interprétation très « physique » du signal peut s’étendre un peu et l’on appelle aussi
souvent « signal », la description mathématique de l’évolution de la grandeur physique
en question.
N.B : Les signaux, considérés dans ce cours, sont des grandeurs électriques variant
en fonction du temps x(t) obtenues à l’aide de capteurs.
3
Chapitre I. Modélisation et caractéristiques des signaux
1.1. Signal
Un signal est la représentation physique de l’information, qu’il convoie de sa source à
sa destination. C’est une expression d’un phénomène qui peut être mesurable par un
appareil de mesure. Bien que la plupart des signaux soient des grandeurs électriques
(généralement courant, tension, champ, …) la théorie du signal reste valable quelle
que soit la nature physique du signal.
L’objectif fondamental de la théorie du signal est la description mathématique des
signaux. Elle fournit les moyens de mettre en évidence, sous forme mathématique
commode les principales caractéristiques d’un signal : la distribution spectrale de son
énergie ou la distribution statistique de son amplitude par exemple. Elle offre
également les moyens d’analyser la nature des altérations ou modifications subies par
les signaux lors de leur passage au travers de blocs fonctionnels (dispositifs
généralement électriques ou électroniques).
Le modèle mathématique d’un signal est une fonction d’une, deux ou trois variables :
x(t) ; x(i,j) ; x(i,j,t). Le premier cas est le plus courant : la variable t est usuellement le
temps mais elle peut aussi représenter une autre grandeur (une distance par exemple).
La fonction représente l’évolution d’une grandeur électrique ou traduite sous cette
forme par un capteur approprié :
Microphone →signal acoustique,
Caméra → signal vidéo…
1.1.1. Classification des signaux
Pour faciliter l’étude des signaux, différents modes de classification peuvent être
envisagés
➢ Représentation temporelle des signaux,
➢ Représentation spectrale,
➢ Caractéristique morphologique (signal continu ou discret),
➢ Classification énergétique.
a) Représentation temporelle des signaux
La première classification, basée sur l’évolution du signal en fonction du temps, fait
apparaître deux types fondamentaux :
❖ les signaux certains (ou déterministes) dont l’évolution en fonction du temps
peut être parfaitement décrite par un modèle mathématique. Ces signaux
proviennent de phénomènes pour lesquels on connaît les lois physiques
correspondantes et les conditions initiales, permettant ainsi de prévoir le
résultat. On peut citer le signal sinusoïdal, rampe, échelon, impulsion de
Dirac…On distingue deux sous classes :
• les signaux périodiques s(t) = s(t + T).
• les signaux non périodiques
4
❖ les signaux aléatoires (ou probabilistes) dont le comportement temporel est
imprévisible et pour la description desquels il faut se contenter d’observations
statistiques. Néanmoins, tout signal aléatoire peut être caractérisé
mathématiquement, mais aucune fonction mathématique ne permet de prédire
l’évolution du signal à l’instant donné. Un signal aléatoire peut être stationnaire
ou non stationnaire. En règle générale tout signal réel est aléatoire, car tout
signal est entaché de bruit.
La classification des signaux dans le temps est donnée de façon synthétique selon le
schéma suivant :
Signaux
Déterministes Aléatoires
b) Représentation spectrale
Un signal peut être classé suivant la distribution de son amplitude, sa puissance ou
son énergie en fonction de la fréquence (spectre du signal). Le domaine des
fréquences occupé par son spectre est aussi appelé la largeur de bande spectrale
du signal ΔF : ΔF= Fmax - Fmin.
Cette caractéristique, exprimée en hertz (Hz), est absolue. Aussi il est nécessaire de
la comparer au domaine de fréquences dans lequel se situe le signal. En considérant
5
la fréquence moyenne Fmoy = (Fmax + Fmin)/2, on peut distinguer deux types de
signaux :
• les signaux à bande étroite avec ΔF/Fmoy petit (soit Fmax ≈ Fmin) ;
• les signaux à large bande avec ΔF/Fmoy grand (soit Fmax ≥ Fmin).
Il est possible de les classer par le domaine de variation de la fréquence moyenne
Fmoy :
• Fmoy < 250 KHz signaux basses fréquences (BF)
• 250 KHz < Fmoy < 30 MHz signaux hautes fréquences (HF)
• 30 MHz < Fmoy < 300 MHz signaux très hautes fréquences (VHF)
• 300 MHz < Fmoy < 3 GHz signaux ultra hautes fréquences (UHF)
• Fmoy > 3 GHz signaux super hautes fréquences (SHF)
c) Caractéristique morphologique
Le temps est un paramètre important de classification. Comme nous venons de le voir,
le traitement numérique des signaux conduit à faire la distinction entre les signaux dits
à temps continus (signaux continus) et les signaux dits à temps discrets (signaux
discrets ou échantillonnés). Un autre paramètre des signaux traités est à prendre
en compte, c’est l’amplitude qui peut aussi être continue ou discrète (quantifiée).
Ainsi quatre formes de signaux, qui se retrouvent dans un système numérique de
contrôle d’un processus physique, peuvent être distinguées :
✓ signal à amplitude continue et temps continu (signal analogique) : s(t)
✓ signal à amplitude discrète et temps continu (signal quantifié) : sq(t).Ce signal
correspond à celui qui est fourni à la sortie d’un circuit convertisseur numérique-
analogique pour la commande d’un actionneur
✓ signal à amplitude continue et temps discret (signal échantillonné) : s(nTe).
Ce signal, obtenu à l’aide d’un circuit échantillonneur-bloqueur, est transmis à
un circuit convertisseur analogique-numérique pour obtenir un signal numérique
utilisable par un ordinateur
✓ signal à amplitude discrète et temps discret (signal numérique) : sq(nTe). Ce
dernier cas correspond en réalité à une suite de nombres codés en binaire.
6
On appelle numérisation d’un signal l’opération qui consiste à faire passer un signal
de la représentation dans le domaine des temps et des amplitudes continus au
domaine des temps et des amplitudes discrets.
d) Classification énergétique
Les signaux peuvent être à énergie finie ou à puissance moyenne finie. Un signal x(t)
à énergie finie Ex vérifie la condition :
+∞
𝐸𝑥 = ∫ |x(𝑡)|2𝑑𝑡 < +∞
−∞
Les signaux à support borné, c'est à dire de durée limitée, sont à énergie finie. Si x(t)
est périodique, on définit la puissance moyenne sur une durée T par :
𝑇
1 +2
𝑃𝑥 = ∫ |𝑥(𝑡)|2 𝑑𝑡
𝑇 −𝑇
2
Remarques :
✓ Un signal à énergie finie a une puissance moyenne nulle (Px = 0).
✓ Un signal à puissance moyenne finie (non nulle) possède une énergie Ex
infinie
1.1.2. Modélisation des signaux
Un signal expérimental est une grandeur physique et doit donc être physiquement
réalisable. Les mesures macroscopiques analogiques, réalisées à partir d’appareils de
mesures comme un oscilloscope, fournissent des courbes « tension en fonction du
temps » du type de celle représentée sur la figure ci-dessous.
Ces signaux physiques sont représentés par des fonctions s(t) à valeurs réelles d’une
variable réelle t. Par conséquent, le signal possède les caractéristiques suivantes :
7
• énergie bornée ;
• amplitude bornée ;
• continu temporellement ;
• causal (s(t) = 0 pour t < 0) ;
• spectre du signal borné (tend vers 0 lorsque f tend vers ∞).
Mais sur le plan théorique, pour la commodité du calcul et l’étude de certains
phénomènes, les signaux sont représentés par des fonctions :
• à énergie théorique infinie ;
• avec des discontinuités (signal carré) ;
• définies sur R (signaux non causaux) ;
• à spectre du signal infini ;
• à valeurs complexes : s(t)=Aejωt=A(cosωt+jsinωt)
1.1.3. Signaux particuliers
✓ Echelon de Heavyside ((𝒕))
1 𝑠𝑖 𝑡 > 0
u(t)={
0 𝑠𝑖 𝑡 < 0
1 𝑠𝑖 𝑡 > 0
sgn(t)={
−1 𝑠𝑖 𝑡 < 0
𝜏 𝜏
1 𝑠𝑖 𝑡𝜖 ]− , + [
𝜋𝜏 (𝑡) = { 2 2
0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠
8
✓ Fonction rampe (r(t))
r(t) = t. u(t)
𝑡 𝑠𝑖 𝑡 ≥ 0
r(t) = {
0 𝑠𝑖 𝑡 < 0
𝑡
1 + 𝜏 𝑠𝑖 − 𝜏 ≤ 𝑡 ≤ 0
Tri𝜏(𝑡) = { 1 − 𝑡 𝑠𝑖 0 ≤ 𝑡 ≤ 𝜏
𝜏
0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠
1 𝑠𝑖 𝑡 = 0
𝛿(𝑡) = {
0 𝑠𝑖 𝑡 ≠ 0
9
✓ Fonction sinus (sin(t))
10
b) Signaux à puissance moyenne finie
Les signaux à puissance moyenne finie non nulle satisfont la condition suivante :
𝑇
1 +
0 < 𝑃𝑥 = lim ∫ |𝑥(𝑡)|2 𝑑𝑡 < ∞ où Px est la puissance totale.
𝑇
2
𝑇→∞ 𝑇 −
2
Lorsque les signaux sont réels, les fonctions d'inter et d'autocorrélation sont aussi
réelles. Si x(t) et y(t) sont mesurés en volts, 𝑅𝑥(𝜏) et 𝑅𝑥(𝜏) sont en V².
1.2.2. Signal aléatoire
On appellera signal aléatoire un signal x(t, ω) qui ne dépend pas seulement du temps
mais aussi d'une variable aléatoire: pour un instant t donné, le signal est donné par
une loi de probabilité. Inversement, pour une valeur de ω fixée, le signal suit une
certaine trajectoire. On peut le considérer sous deux points de vue :
✓ Moments statistiques
11
• la fonction d’autocorrélation statistique Rxx (t1, t2, ω)
12
Chapitre II. Les systèmes de traitement
Les signaux rencontrés en physique subissent des transformations dans leur passage
à travers un certain nombre de dispositifs. Ces transformations peuvent être utiles
(détection, filtrage), mais aussi nuisibles (distorsions). Dans tous les cas, on peut
représenter ces éléments comme des boîtes noires possédant une entrée et une
sortie.
• si deux entrées x1(t) et x2(t) engendrent deux sorties y1(t) et y2(t), alors x1(t)+x2(t)
engendrera y1(t)+y2(t) (linéarité)
Notez que la multiplication d’un signal par une fonction du temps est une opération
linéaire, mais n’est pas une fonction invariante dans le temps.
Si les hypothèses de linéarité et d’invariance temporelle sont vérifiées, on peut
caractériser le système par sa réponse impulsionnelle soit h(t). C’est le signal qu’on
obtient en sortie si on applique en entrée une impulsion de Dirac ẟ(t) qui a la définition
suivante :
+𝐴
∫ 𝛿(𝑡)𝑓(𝑡)𝑑𝑡 = 𝑓(0)
−𝐴
13
Elle donne la valeur f(0) de la fonction f(t) à l’origine. On ne peut la formaliser
correctement que dans le cadre de la théorie des distributions. De manière quelque
peu incorrecte, on peut se la représenter sous la forme d'une fonction nulle en dehors
d'un intervalle étroit (de largeur ε) entourant l'origine et d'une amplitude très grande
(1/ε) de telle sorte que son intégrale soit égale à 1. On fait alors tendre la largeur de
l'intervalle vers 0.
Si un système est un SLIT caractérisé par sa réponse impulsionnelle h(t), on peut en
déduire l'effet d'une entrée x(t) quelconque sous la forme d'une convolution.
+∞
𝑦(𝑡) = ∫ 𝑥(𝜏) ℎ(𝑡 − 𝜏)𝑑𝜏
−∞
[ u * v ] (t) = ∑+∞
𝑘=−∞ 𝑢(𝑡 − 𝑘)𝑣(𝑘)
Propriétés
✓ Le produit de convolution est commutatif :
[ u * v ] (t) = ∑+∞
𝑘=−∞ 𝑢(𝑡 − 𝑘)𝑣(𝑘)
= ∑+∞
𝑘=−∞ 𝑢(𝑘)𝑣(𝑡 − 𝑘)
= [ v * u ] (t)
✓ Le Dirac est l’élément neutre de la convolution : [ẟ * u ] (t) = [u * ẟ ] (t) = u(t)
Différentes étapes de transformations
𝑇
Etape 1 : ẟ(n) → y(n) = h(n)
𝑇
Etape 2 : ẟ(n-k) → y(n) = h(n-k)
𝑇
Etape 3 : x(k) ẟ(n-k) → y(n) = x(k) h(n-k)
𝑇
Etape 4 : ∑+∞ ∞
𝑘=−∞ 𝑥(𝑘)ẟ(𝑛 − 𝑘) → 𝑦(𝑛) = ∑𝑘=−∞ 𝑥(𝑘)ℎ(𝑛 − 𝑘)
14
h(n) = { 1, 1, 1 } h(k) = { 1, 1, 1 }
15
On sait que y(n) = x(n)*h(n) = ∑+∞
𝑘=−∞ 𝑥(𝑘)ℎ(𝑛 − 𝑘)
16
Si le signal entrant est une impulsion de Dirac ẟ(t), sa réponse impulsionnelle, parfois
dite percusionnelle, est h(t).
ẟ(t) h(t)
h(t)
+∞
Donc 𝑦(𝑡) = ∫−∞ 𝑥(𝜏)ℎ(𝑡 − 𝜏)𝑑𝜏
17
Car ℎ(𝑡 − 𝜏) = 0 quand 𝑡 − 𝜏 ˂ 0 soit quand 𝜏 > 𝑡
Un système est causal si sa sortie est nulle en l'absence d'un signal d'entrée. Pour un
système linéaire permanent, la réponse impulsionnelle h(t) doit être nulle avant qu'un
signal ne lui soit soumis.
b) Stabilité
Un système est stable si et seulement si à toute entrée x(t) bornée (M) correspond
une sortie y(t) bornée (M′).
Le critère de stabilité s’énonce ainsi : La condition nécessaire et suffisante pour
qu’un filtre linéaire soit stable est que :
+∞
∫ |h(t)|dt < ∞
−∞
18
Chapitre III. Passage d’un signal continu en un signal discret
3.1. Echantillonnage
3.1.1. Echantillonnage impulsionnel
Il est possible de transformer un signal continu en un signal discret. Ce processus est
appelé échantillonnage ou discrétisation ; le signal est dit discrétisé ou échantillonné.
Généralement, les échantillons sont « prélevés » à intervalles réguliers. La durée entre
deux instants d’échantillonnage, notée Te, est alors appelée période
d’échantillonnage. Il faut garder présent à l’esprit qu’échantillonner, c’est prélever des
valeurs sur une courbe.
𝛿𝑇 (𝑡) = ∑ 𝛿𝑑 (𝑡 − 𝑘𝑇𝑒 )
𝑘=−∞
Il est donc possible d’exprimer le signal échantillonné de la figure 3.1 (ici noté ss(t)) :
+∞
19
On peut associer cette transformation à celle d’une fonction continue en un train
d’impulsions de largeur nulle. Puisque l’échantillonnage est ici supposé de période
fixe, ces impulsions sont régulièrement espacées dans le temps. L’opération est
symbolisée par l’« interrupteur » de la figure 3.3.
avec ẟ(t) l’impulsion de Dirac et ẟ(t-kTe) l’impulsion de Dirac différée d’un temps kTe
20
Compte tenu de la structure du peigne de Dirac, il vient :
+∞
∗ (𝑡)
𝑠 = 𝑠(𝑡) ∑ 𝛿(𝑡 − 𝑘𝑇𝑒 )
𝑘=−∞
3.2. Quantification
La quantification consiste à associer à une valeur réelle x quelconque, une autre valeur
xq appartenant à un ensemble fini de valeurs et ce suivant une certaine loi : arrondi
supérieur, arrondi le plus proche, etc… L’écart entre chaque valeur xq est appelé « pas
de quantification ». Le fait d’arrondir la valeur de départ entraîne forcément une erreur
de quantification que l’on appelle bruit de quantification.
La loi de quantification uniforme utilise un pas de quantification (Δ) constant entre
chaque valeur xq.
21
Le bruit de quantification nq est dans ce cas un signal aléatoire. Ces caractéristiques
sont donc définies par ses propriétés statistiques. On peut alors démontrer que la
puissance du bruit de quantification est égale à :
∆2
𝑃𝑛𝑞 = (si sa densité de probabilité est uniforme)
12
𝑆 𝑉𝑠 𝑒𝑓𝑓
Ainsi (𝑁) = 10𝑙𝑜𝑔12 + 20𝑙𝑜𝑔 (2𝑛 𝑉𝑃𝐸
)
𝑑𝐵
𝑉𝑠 𝑒𝑓𝑓
= 10𝑙𝑜𝑔12 + 20𝑙𝑜𝑔2𝑛 + 20𝑙𝑜𝑔
𝑉𝑃𝐸
𝑆 𝑉𝑠 𝑒𝑓𝑓
(𝑁) ≈ 10,8 + 6,02𝑛 + 20𝑙𝑜𝑔 ( )
𝑑𝐵 𝑉𝑃𝐸
Ainsi, dans le cas d’un convertisseur analogique-numérique, chaque fois que l’on
rajoutera un bit dans le résultat de conversion, on améliorera le rapport signal sur bruit
dû à la quantification d’environ 6dB.
Remarque : En traitement du signal, on considère la puissance d’un signal aux bornes
d’une résistance de 1Ω. La puissance est donc égale au carré de la valeur efficace.
Exemple : Si l’on veut numériser une sinusoïde et que l’on fixe VPE = 2.Vmax
𝑉𝑚𝑎𝑥 𝑆 𝑉
Dans ce cas 𝑉𝑠 𝑒𝑓𝑓 = et (𝑁) 𝑚𝑎𝑥
≈ 10,8 + 6,02𝑛 + 20𝑙𝑜𝑔 (2√2𝑉 )
√2 𝑑𝐵 𝑚𝑎𝑥
𝑆 𝑚𝑎𝑥 𝑉
(𝑁) ≈ 10,8 + 6,02𝑛 + 20𝑙𝑜𝑔 (2√2𝑉 )
𝑑𝐵 𝑚𝑎𝑥
𝑆
(𝑁) ≈ 6,02𝑛 + 1,77
𝑑𝐵
22
3.3. Repliement du spectre et théorème de Shannon
Intuitivement, on comprend que si l’on prend beaucoup d’échantillons d’un signal, on
obtient une information intéressante, c’est-à-dire que les échantillons donnent une
bonne idée de l’allure du signal. En d’autres termes, on prélève assez de points sur la
courbe pour avoir une bonne idée de sa forme. De ceci, on comprend facilement qu’il
faut échantillonner plus vite que les fréquences les plus élevées dans le signal.
Selon la figure 3.5, on voit que le spectre de s∗(f) (donc l’information présente sur le
signal échantillonné) permet de reconstruire sans difficulté le spectre du signal continu
original. La forme de ce dernier se retrouve, et même plusieurs fois, sur le spectre du
signal échantillonné. En bref, pas de problème dans le cas où fe ≥ 2fmax.
Figure 3.5. Spectres du signal continu et de son image discrète par échantillonnage
pour fe ≥ 2fmax
Si maintenant, on prélève les échantillons un peu moins vite de sorte que fe < 2f max,
alors, la représentation de cette opération est donnée par la figure 3.6
Figure 3.6. Spectres du signal continu et de son image discrète par échantillonnage
pour fe < 2fmax
Sur cette figure, on constate que les morceaux du spectre de s∗(t) se chevauchent, ce
qui brouille l’information sur le spectre de s(t). Ce chevauchement introduit un bruit qui
s’ajoute au spectre que l’on souhaiterait voir apparaître. Ce phénomène est appelé
repliement de spectre et a été mis en évidence par Claude Shannon. C’est juste
l’interprétation fréquentielle d’un échantillonnage trop lent. Par conséquent, il faut
échantillonner de telle sorte que fe ≥ 2fmax.
23
Théorème de Shannon : La fréquence d’échantillonnage d’un signal x(t) doit être
supérieure ou égale à deux fois la fréquence maximale de x(t).
𝑓𝑒 ≥ 2𝑓𝑚𝑎𝑥
24
figure 3.7). Si les valeurs de la suite du signal discret sortent d’un composant
numérique ou d’un ordinateur, alors elles ne correspondent qu’à des codes binaires.
Un processus de conversion électronique permet de transformer des valeurs en code
binaire en de vraies tensions. Le blocage n’intervient qu’ensuite et maintient la tension
pendant un temps Te. L’ensemble convertisseur + bloqueur constitue un convertisseur
numérique-analogique (CNA). Le CNA a pour rôle de reconvertir le signal numérique
une fois traité en un signal analogique.
Les CAN et CNA sont des dispositifs électroniques très courants, souvent peu chers,
quoique cela dépende de leur définition (nombre de bits utilisés pour coder les valeurs
: de ce dernier dépend la hauteur minimale des marches de l’escalier), des gammes
de tension et de la possibilité plus ou moins grande de réduire Te.
Exercices
I.On désire numériser le signal vocal suivant, dont l’amplitude est comprise entre -8
volts et +8 volts. Ce signal est préalablement filtré par un filtre passe bas idéal de
fréquence de coupure fc = 10 kHz. La quantification est effectuée sur 8 bits.
25
3. Combien de niveaux d'intensité sonore peut-on obtenir avec le codage
proposé?
4. Combien d'informations une ligne téléphonique doit-elle transporter par
seconde pour transmettre la parole d'un usager? Le résultat sera donné en
kibibit par seconde (Kibit.s-1). Donnée: 1 Kibit = 210 bits.
I.1. Le signal ayant été filtré à 10 kHz, on peut l'échantillonner au minimum à deux fois
cette fréquence pour respecter le théorème de Shannon. On peut donc prélever 20
000 échantillons par seconde, soit un échantillon toutes les 50 μs.
2. Le volume est de: 8x20000x5 = 800 000 bits soit 100 000 octets soit 97,6 ko
3. La quantification étant sur 8 bits, il y a 256 combinaisons, le pas de quantification
est de 16volts/28 = 0,0625 Volts
4. Le bruit de quantification est au maximum égal à la moitié du pas de
quantification soit 0,03125 dB.
3. Le nombre de valeurs différentes que l’on peut obtenir avec un codage 8 bits est de:
N = 28 = 256 niveaux différents.
4. 8000 échantillons sont prélevés par seconde. Chaque échantillon est ensuite codé
sur 8 bits. Un échantillon est codé sur 8 bits. Il faut transmettre 8 000 échantillons par
seconde. Le nombre de bits transmis par seconde est: n b = 8000 x 8 = 64 000 bits.
𝑛
Débit: 64 000 bits/s (Débit = ∆𝑡𝑏 ) Or D = 1 Kibit = 210 bits. Donc D = 62,5 Kibit.s-1.
26
Chapitre IV. Signaux et systèmes à temps discret
4.1. Transformée en Z
L’objet est de définir la transformée en z, et de voir sous quelles conditions elle
converge.
La transformée en z d’une séquence x(n) est définie comme la série X(z) calculée
comme suit :
+∞
𝑋(𝑧) = ∑ 𝑥(𝑛)𝑧 −𝑛
𝑛=−∞
3. x(n) = an u(n) :
∞ ∞
𝑛 −𝑛
1 𝑧
𝑋(𝑧) = ∑ 𝑎 𝑧 = ∑ (𝑎𝑧 −1 )𝑛 = −1
=
1 − 𝑎𝑧 𝑧−𝑎
𝑛=−∞ 𝑛=−∞
27
Exemples
1.Soit x(n) = { 1, 2, 4, 5, 0, 7 }
x(0) = 1, x(1) = 2, x(2) = 4, x(3) = 5, x(4) = 0 et x(5) = 7
5
𝑋(𝑧) = ∑ 𝑥(𝑛)𝑧 −𝑛
𝑛=0
X(z) = x(0)z0+x(1)z-1+x(2)z-2+x(3)z-3+x(4)z-4+x(5)z-5
= 1z0+2z-1+4z-2+5z-3+0z-4+7z-5
2 4 5 7
𝑋(𝑧) = 1 + + 2 + 3 + 5
𝑧 𝑧 𝑧 𝑧
2.Soit x(n) = { 1, 2, 4, 5, 0, 7 }
x(-5) = 1, x(-4) = 2, x(-3) = 4, x(-2) = 5, x(-1) = 0 et x(0) = 7
0
𝑋(𝑧) = ∑ 𝑥(𝑛)𝑧 −𝑛
𝑛=−5
X(z) = x(-5)z+5+x(-4)z+4+x(-3)z+3+x(-2)z+2+x(-1)z+1+x(0)z0
= 1z+5+2z+4+4z+3+5z+2+0z+1+7z0
𝑋(𝑧) = 𝑧 5 + 2𝑧 4 + 4𝑧 3 + 5𝑧 2 + 7
Inverse de la transformée en Z
Considérons la transformée donnée par :
1
𝑋(𝑧) =
1− 3𝑧 −1 + 2𝑧 −2
En multipliant par z2 les deux membres de la fraction (le numérateur et le
dénominateur), on aura :
𝑧2
𝑋(𝑧) =
𝑧 2 − 3𝑧 + 2
On cherche la forme
𝑋(𝑧) 𝑧
= 2
𝑧 𝑧 − 3𝑧 + 2
Δ = b2 - 4ac = 9 – 8 = 1 ⇒ √1 = ±1
Les racines sont z1 = (3 + 1) ̸ 2 = 2 et z2 = (3 – 1) ̸ 2 = 1
On aura :
𝑋(𝑧) 𝑧
=
𝑧 (𝑧 − 2)(𝑧 − 1)
On recherche donc une décomposition en fractions simples
28
𝐴1 𝐴2
+
(𝑧 − 2) (𝑧 − 1)
Calcul de A1 et A2
𝑋(𝑧) 𝑧
𝐴1 = (𝑥 − 2). = (𝑧 − 2). |𝑧=2
𝑧 (𝑧 − 2)(𝑧 − 1)
2 2
= = =2
2−1 1
𝑋(𝑧) 𝑧
𝐴2 = (𝑥 − 1). = (𝑧 − 1). |𝑧=1
𝑧 (𝑧 − 2)(𝑧 − 1)
1 1
= = = −1
1−2 −1
Alors
𝑋(𝑧) 2 1 2𝑧 𝑧
= − ⇒ 𝑋(𝑧) = −
𝑧 (𝑧 − 2) (𝑧 − 1) 𝑧−2 𝑧−1
La solution est donc x(n) = 2x2n u(n) − u(n)
Exercice : Déterminer l’inverse de la transformée de Z de :
𝑧2
𝑋(𝑧) =
0,5 − 1,5𝑧 + 𝑧 2
4.2. Filtres numériques
Les filtres numériques sont les homologues des filtres analogiques. Leur principale
fonction est d’isoler, de renforcer ou d’atténuer certaines composantes fréquentielles
d’un signal numérique.
Un filtre numérique est un système qui produit un signal discret à partir d’un signal reçu
en entrée. On appelle parfois excitation ou entrée du filtre la suite x et réponse ou
sortie du filtre la suite y.
La fonction de transfert en z d'un filtre numérique est la transformée en z de sa réponse
impulsionnelle discrète : H(z) = Z[hk ].
Elle s'écrit :
𝑁(𝑧)
⇒ 𝐻(𝑧) =
𝐷(𝑧)
En pratique on a N=M, N est appelée l'ordre du filtre.
Si N(z) n'est pas divisible par D(z) (cas général), on a un nombre infini de termes
dans la division polynomiale.
∞ ∞
−𝑖
𝐻(𝑧) = ∑ 𝑐𝑖 𝑧 = ∑ ℎ(𝑛)𝑧 −𝑛
𝑖=0 𝑛=0
Les coefficients cn sont les valeurs de la RI (h(n) = cn). Ceci montre qu'un filtre
récursif est, dans le cas général, à Réponse Impulsionnelle Infinie (RII).
Si N(z) est divisible par D(z) (cas particulier), on a un nombre fini de termes dans la
division polynomiale. Dans ce cas, le filtre est RIF.
Si N(z)=1 : filtre tout-pôle
Si D(z)=1 : filtre RIF
Principales propriétés :
• Les RII peuvent être instables : structure à base de pôles et de zéros
• Bande de transition faible
• Synthèse par réutilisation des méthodes analogiques
• Instabilité numérique due au rebouclage : forme cascade plus stable
4.2.2. Filtres transverses (non récursifs)
𝑀
𝑦(𝑛) = ∑ 𝑏𝑖 𝑥(𝑛 − 𝑖)
𝑖=0
30
Les coefficients bn du filtre sont les valeurs de la RI (h(n) = bn ). Ceci montre qu'un
filtre non récursif est à Réponse Impulsionnelle Finie (RIF).
M est appelée la longueur du filtre.
Principales propriétés
• Les RIF sont toujours stables (pas de pôles)
• Les RIF peuvent avoir une caractéristique de phase linéaire :
▪ Retard constant en fréquence (temps de propagation de groupe)
▪ Pas de distorsion harmonique
▪ Symétrie de la RI
• A sélectivité équivalente, ils sont toujours plus coûteux (en temps de calcul)
que leur équivalent RII.
Exercices
Soit le système du filtre suivant :
1 − 𝑧 −1
1. 𝐻(𝑧) =
3
1 + 4 𝑧 −1
3𝑧 −1
2. 𝐻(𝑧) =
2𝑧 −2 + 5𝑧 −1 + 2
On demande de trouver la réponse impulsionnelle h(n) du système.
31
+∞ 𝜔
𝜔 𝜔 𝑒𝑗 2
𝑋(𝜔) = ∑ 𝑒 −𝑗𝜔𝑛 = 𝑒 −𝑗 2 2𝑗𝑠𝑖𝑛 = 𝜔
2 2𝑗𝑠𝑖𝑛
𝑛=−∞ 2
3. x(n) = an u(n) :
+∞
1 𝑒 𝑗𝜔
𝑋(𝜔) = ∑ 𝑎𝑛 𝑒 −𝑗𝜔𝑛 = =
1 − 𝑎𝑒 −𝑗𝜔 𝑒 𝑗𝜔 − 𝑎
𝑛=−∞
4. x(n) = u(n-k) :
𝑋(𝜔) = 𝑒 −𝑗𝜔𝑘 . 𝑋(𝜔)
Exemples :
1 1 1 1
1. 𝑥(𝑛) = { , , , }
4 4 4 4
+∞ 3
−𝑗𝜔𝑛
1 −𝑗𝜔𝑛
𝑋(𝜔) = ∑ 𝑥(𝑛)𝑒 =∑ .𝑒
4
𝑛=−∞ 0
1 1 1 1
= . 𝑒 −𝑗𝜔.0 + . 𝑒 −𝑗𝜔.1 + . 𝑒 −𝑗𝜔.2 + . 𝑒 −𝑗𝜔.3
4 4 4 4
1 1 −𝑗𝜔 1 −2𝑗𝜔 1 −3𝑗𝜔
= + .𝑒 + .𝑒 + .𝑒
4 4 4 4
1
= (1 + 𝑒 −𝑗𝜔 + 𝑒 −2𝑗𝜔 + 𝑒 −3𝑗𝜔 )
4
1 1
2. 𝑦(𝑛) − 𝑦(𝑛 − 1) = 𝑥(𝑛)
2 2
1 1
⇔ 𝑌(𝜔) − 𝑒 −𝑗𝜔 𝑌(𝜔) = 𝑋(𝜔)
2 2
1 1
⇔ (𝑌(𝜔)) (1 − 𝑒 −𝑗𝜔 ) = 𝑋(𝜔)
2 2
1
𝑌(𝜔) 2 1 1
⇔ 𝐻(𝜔) = = = .
𝑋(𝜔) 1 − 𝑒 −𝑗𝜔 2 1 − 1 𝑒 −𝑗𝜔
2
1 1 𝑛
⇒ ℎ(𝑛) = . ( ) 𝑢(𝑛)
2 2
Exercice : En utilisant la transformée de Fourier, trouver la réponse impulsionnelle
h(n) de l’équation suivante :
1 1
𝑦(𝑛) − 𝑦(𝑛 − 1) = 𝑥(𝑛) − 𝑥(𝑛 − 1)
2 4
32
Chapitre V. Applications des signaux
Ils s'appliquent à toutes les étapes d'une chaîne d'acquisition, d'analyse, de transfert
et de restitution des données, les techniques du traitement du signal trouvent des
applications dans pratiquement tous les domaines de la technologie :
• dans les télécommunications : que ce soit dans le domaine de la téléphonie
ou dans le transfert de données numériques terrestre ou via satellite, la
compression des données est primordiale pour exploiter au mieux la bande
passante disponible, et minimiser les pertes de capacité de transport.
• en audio: on cherche à améliorer les techniques d'enregistrement et de
compression pour obtenir la plus grande qualité sonore possible. Les
techniques de correction d'écho permettent de réduire les effets de
réflexions acoustiques dans la pièce. Le traitement du son s'est largement
amélioré grâce aux ordinateurs. Toutefois, certains musiciens parlent
davantage d'un son de nature différente de celle d'une simple amélioration
qualitative (de même que le CD ne « sonne » pas comme le disque vinyle, et
que certains groupes, par exemple Genesis, ont particulièrement profité du
« nouveau son » offert par le nouveau support). La synthèse sonore permet en
outre de créer des sons artificiels ou de recréer les sons d'instruments naturels.
Elle a été à l'origine de nombreux bouleversements en musique.
• l'analyse des échos permet d'obtenir des informations sur le milieu sur lequel
les ondes se sont réfléchies. Cette technique est exploitée dans le domaine de
l'imagerie radar ou sonar. En géophysique, en analysant les réflexions d'ondes
acoustiques, on peut déterminer l'épaisseur et la nature des strates du sous-
sol. Cette technique est utilisée dans le domaine de la prospection minière et
dans la prédiction des tremblements de terre.
• en imagerie : on trouve des applications dans le domaine médical
(reconstruction tomographique, imagerie par résonance magnétique - IRM),
dans le spatial (traitement de photos satellite ou d'images radar). Ce domaine
inclut aussi les techniques de reconnaissance de formes et de compression.
• le traitement de séquences vidéo concerne la compression, la restauration,
la réalisation d'effets spéciaux, et l'extraction de descripteurs (reconnaissance
de formes et textures, suivi de mouvements, caractérisation, etc.) afin de
produire des annotations automatiques dans une perspective de bases de
données (recherche par le contenu).
33