Académique Documents
Professionnel Documents
Culture Documents
0. Préambule
Le signal, support de l’information, est à la base de la communication entre les hommes et avec leur environnement. La
théorie du signal a pour objectif la modélisation mathématique des signaux et leurs traitements malgré leur très grande
diversité. Elle s’appuie essentiellement sur l’analyse fonctionnelle, l’algèbre linéaire et le calcul des probabilités.
L’automatique s’intéresse aux systèmes et à leur contrôle, leur commande. La modélisation mathématique intervient
aussi constamment pour caractériser les systèmes, prévoir leur réponse à différentes commandes et évaluer leur
performances en termes de rapidité, stabilité et précision. On peut classer les systèmes par leur niveau de complexité,
traduit par le nombre des variables nécessaires pour décrire leur état. On peut opérer à une autre classification des
systèmes selon le type du signal utilisé pour leur commande.
Exemples :
- TS (Filtrage) : Si on mesure la température au cours des dernières décennies, il n'est pas évident pour autant
d'en déduire un réchauffement de la planète dû à l'homme au vu des valeurs croissantes de la température.
En effet, la terre est soumise depuis des millénaires à des fluctuations climatiques naturelles qu'il est nécessaire de
gommer (→ filtrage) pour mettre en évidence les fluctuations artificielles dûes à l'homme.
En Traitement du Signal, c’est le signal qui nous intéresse en premier lieu, qui constitue notre objectif (caractérisation,
filtrage ...)
0.
Signaux & systèmes 0. Préambule
Plan du cours
1. Représentations Temporelles des Signaux & des Systèmes à Temps Continu & à Temps Discret.
2. Tutorial Mathcad.
3. Représentations Fréquentielles des Signaux & des Systèmes à Temps Continu.
4. Représentations Fréquentielles des Signaux & des Systèmes à Temps Discret.
4. Annexe. Voir Annexe
5. Echantillonnage - Interpolation - Quantification.
6. Transformée de Fourier Discrète (TFD) et Rapide (TFR).
7. Filtrage linéaire. Analyse & Synthèse des filtres numériques.
8. Annexe. Voir Annexe
Annexe
4. Annexe. Représentation d'Etat des Systèmes.
8. Annexe. Signaux Aléatoires.
Bibliographie
[1] F. de Coulon « Théorie et traitement des signaux » Dunod
[2] P. Duvaut « Traitement du signal » Hermès
[3] M. Kunt « Traitement numérique des signaux » Dunod
[4] J. Max « Méthodes et techniques de traitement du signal » Masson
[5] A.V. Oppenheim « Applications of digital signal processing » Prentice-Hall
[6] A.V. Oppenheim / R.W. Schafer « Digital signal processing » Prentice-Hall
[7] A.V. Oppenheim / A.S. Willsky « Digital signal processing » Prentice-Hall
[8] A.V. Oppenheim / A.S. Willsky / Y.T. Young « Signals and systems » Prentice-Hall
[9] A. Papoulis « Signal analysis » McGraw-Hill
[10] M. Rivoire / J.L. Ferrier « Automatique » Eyrolles
[11] Y. Thomas « Signaux & systèmes linéaires » Masson
__________
0. 1
Signaux & systèmes 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
I. SIGNAUX
∆ε (t )
1/ ε
t
δ (t ) = lim ∆ ε (t ) avec comme fonction ∆ ε ( t ) possible : - ε /2 0 ε /2
ε →0
∞
δ (t ) n'est pas une fonction car ∫ δ (t ) dt = 1 , alors que l'intégrale d'une fonction presque nulle partout est nulle.
−∞
On va se limiter au cas où :
x : scalaire (≡ réel)
v : scalaire, et ce sera généralement le temps t
f : appelée fonction ( parfois abusivement notamment pour δ(t) )
w : fixé → signal déterministe (≡ non aléatoire)
Exemples de signaux monodimensionnels (≡ 1D) : Température, compte bancaire, ligne d’image, ...
Exemples de signaux complexes (≡ 2D) : Image , champ de forces (amplitude et direction) ...
1. 1
Signaux & systèmes 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
ECHANTILLONNAGE
TC TD
Q x (t) x (n)
U
A
N Amplitude
T t n
Continue
I 0 -1 0 1 2 3 4 5 6
F signal analogique (1) signal échantillonné (2)
I x (t) x (n)
q q
C
A
Amplitude
T
I t n
Discrète
O 0 -1 0 1 2 3 4 5 6
N signal quantifié (3) signal numérique (4)
Il peut aussi s'obtenir à partir d'un signal à TC par échantillonnage le plus souvent périodique, de période T
Ex.: température mesurée à intervalles de temps réguliers et non en permanence.
On note alors généralement ces signaux par x(nT) plutôt que x(n) pour faire apparaître explicitement la
période d'échantillonnage T. Pour alléger les écritures, on notera souvent x(nT) par xn.
En ce qui concerne les signaux à TD, on pourra noter de préférence (mais on ne le fera pas
systématiquement, le contexte étant souvent assez explicite) une séquence d’échantillons par {x(n)} plutôt
que x(n) qui désigne un échantillon particulier (d’indice n) du signal x, en même temps que la séquence
elle-même (idem pour les signaux à TC).
t
Crédit Débit
1. 2
Signaux & systèmes 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
4. Signaux usuels
SIGNAL TC TD
Echelon ou indice unité Γ(t) = 1 si t > 0 Γ(n) = 1 si n ≥ 0
(fonction de Heavyside) = 0 si t < 0 = 0 sinon
(non défini pour t = 0)
noté Γ ou u ou Φ ou encore Y Γ(t) Γ(n)
ou même 1
1 1
Ce signal permet de simuler un
t n
brusque changement de régime
0 -2 -1 0 1 2 3 4
de fonctionnement
(mise en route, ...)
Fenêtre ou porte ou ΠT(t) = 1 si -T/2 < t < T/2 ΠT(nTe) = 1 si -T/2 ≤ nTe ≤ T/2
impulsion = 0 sinon = 0 sinon
Π (t) Π (nTe )
T T
noté ΠT de largeur T
1 1
t
T T nTe
-T -T
0 0
2 2 2 2
Impulsion de Dirac ou δ (t ) = ∞ si t = 0 δ (n) = 1 si n = 0
percussion
δ (t ) = 0 sinon δ (n) = 0 sinon
noté δ
1 δ ( n) etδ (n − k ) sont respectivement notés
δ(t) = lim Π T (t ) d'où la propriété:
(à TD, on l'appelle souvent T →0 T aussi : δ (n,0) et δ ( n, k )
symbole de Kronecker) mais ces dernières notations sont déconseillées
ε
∫ ε δ (t ) dt = 1
k
∀ε≠0:
Ce signal simule une brève
− ∀ k entier : ∑ δ ( n) = 1
n=− k
perturbation (parasite, ...) δ(t)
δ(n )
(et aussi une « claque » pour
un système) 1 1
t n
0
-2 -1 0 1 2 3 4
(1 représente l'aire (le poids) de δ(t) et non pas
l'ordonnée)
δ(t-t 0 ) δ(n-k)
1
1
t n
0 t (ex : k = 2) -1 0 1 k=2 3 4
(ex : t0 > 0) 0
n0 + k
t0 + ε
∀ε≠0: ∫ t0 −ε
δ (t − t 0 ) dt = 1 ∀ k entier : ∑ δ (n − n ) = 1
n = n0 − k
0
dΓ (t ) δ (n) = Γ (n) − Γ (n − 1)
δ (t ) =
dt
t ∞
1. 3
Signaux & systèmes 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
∫
−∞
f (t )δ (t )dt = ∫ f (0)δ (t )dt = f (0) ∫ δ (t )dt = f (0)
−∞ −∞
∞ ∞ ∞
L’impulsion de Dirac à TC δ (t ) peut être vue comme la limite de nombreuses fonctions ∆ ε ( t ) lorsque
ε → 0 , pourvu qu’elle vérifie les 2 propriétés :
ζ
∫ ζ δ (t ) dt = 1
−
∀ζ ≠ 0
et :
δ (t ) = ∞ si t = 0
δ (t ) = 0 sinon
δ (t ) = lim ∆ ε (t ) avec par exemple, les fonctions possibles ∆ ε ( t ) suivantes :
ε →0
∆ε (t ) ∆ε (t )
1/ ε 1/ ε
t t
1. - ε /2 0 ε /2 2. 0 ε (modèle à éviter car non pair)
t
∆ε (t ) ∆ε (t ) 1 −
1/ ε e ε
Γ(t )
ε
t t
3. -ε 0 ε 4. 0 (modèle à éviter car non pair)
2
∆ε (t ) 1
1⎛ t ⎞
− ⎜ ⎟
2⎝ ε ⎠ ∆ε (t ) 1 ε
e
2π ε π ε2 + t2
t t
5. 0 6. 0
- S'il est aléatoire, cela se traduit en particulier par le fait que ses propriétés statistiques (moyenne, variance ...) ne
changent pas au cours du temps (≡ sont indépendantes de l'origine des temps, ≡ n’évoluent pas au cours du temps).
Ex. : les résultats du lancé d'un dé à 6 faces est un signal stationnaire (si le dé n’est pas modifié au cours des épreuves !).
Le résultat est toujours compris entre 1 et 6 et la moyenne reste inchangée :
1 2 3 4 5 6 21
∑ xi pi = 6 + 6 + 6 + 6 + 6 + 6 =
moyenne = xi , pi : résultat(xi) et probabilité(pi) d'une épreuve.
6
i
1. 4
Signaux & systèmes 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
- Signal analytique : Signal décrit par une équation permettant de le calculer, et ce de façon non récurrente.
∆ ∞ ∆ ∞
E=∫ E = ∑ x ( n)
2 2
- Energie d'un signal (cas complexe): (TC) x (t ) dt (TD) (E ≥0)
−∞
n = −∞
∆ ∞ ∆ ∞
[unité: le Joule] (cas scalaire): (TC) E = ∫ x 2 (t ) dt
−∞
(TD) E= ∑x
n = −∞
2
( n)
Pour un signal à énergie infinie (signal périodique par exemple) on préfère utiliser la puissance (moyenne) pour le caractériser :
k
∆ 1 +T ∆
1
∫ ∑
2 2
- Puissance (moyenne) d'un signal : (TC) P = lim x(t ) dt (TD) P = lim x ( n)
T → ∞ 2T −T k → ∞ 2k + 1
n=−k
∆ 1 +T ∆ 1 k
[unité: le Watt] (cas scalaire): (TC) P = lim
T → ∞ 2T ∫
−T
x 2 (t ) dt (TD) P = lim
k → ∞ 2k + 1
∑
n=− k
x 2 ( n)
∆
[unité: le déciBel (dB)] PdB = 10 log( P ) =10 log( P) ( P ≥ 0)
Ex x(n) = Γ(n) → l’énergie diverge ( E = ∞ ) mais la puissance moyenne du signal reste finie: 1 k
1 k 1 1
∑ ∑1 = lim
2
P = lim x(n) = lim (k + 1) =
k →∞ 2k + 1 n = − k k → ∞ 2k + 1 n = 0 k → ∞ 2k + 1 2
- Rapport Signal/Bruit (SNR) : b(t ) bruit, sont 2 signaux (TC) causaux, scalaires, de durée T
. s (t ) signal utile et
. sn signal utile et bn bruit, sont 2 signaux (TD) causaux, scalaires, de N échantillons
. SNR moyen :
puissance moyenne du signal
: (TC) ∆ Px ∫
T
x 2 (t ) dt (TD) P∆ ∑x 2
n
⎛ N −1 2 ⎞
⎛ T x 2 (t ) dt ⎞ ⎜ ∑ xn ⎟
[unité: le déciBel (dB)] (TC) ∆⎜∫ ⎟ ⎛ Px ⎞ (TD) ∆
⎜ n =0 ⎟ = 10 log⎛⎜ Px ⎞
SNRdB = 10 log ⎜ 0T ⎟ = 10 log ⎜
⎜P ⎟ ⎟ = P − P SNR = 10 log ⎟⎟ = Px dB − Pb dB
⎜ ∫ b (t ) dt ⎟
x dB b dB dB ⎜ N −1 2 ⎟ ⎜P
2
⎝ b⎠ ⎝ b ⎠
⎝ 0 ⎠ ⎜ ∑ bn ⎟
⎝ n=0 ⎠
Dans le cas de bruit aléatoire non ergodique, il faut prendre sa moyenne statistique (espérance) plutôt que sa moyenne temporelle (1 seule réalisation du bruit ne suffit
pas).
oeuvre une récurrence à partir de 2 signaux (ici xn et yn ) pour autoriser le calcul du signal résultat (ici wn )).
- Déconvolution: s(t ) à TC (resp. s(n) à TD) comme produit de convolution :
A partir de l’expression du signal
s(t ) = x (t ) * y (t ) (resp. s(n) = x (n) * y (n) ), on peut extraire le signal x (t ) par exemple (resp. x (n) ) par
déconvolution, notée par l’opérateur ⊗ : (TC) x ( t ) = s( t ) ⊗ y ( t ) (TD) x ( n) = s(n) ⊗ y (n)
Propriété : On fera apparaître, en Représentation Fréquentielle, la déconvolution comme une division de polynômes.
1. 5
Signaux & systèmes 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
- Produit scalaire : Soit les 2 signaux à TC x ( t ) , y ( t ) ∈ L2 (Ι) (≡ ensemble des fonctions de carré sommable sur Ι = [ t 1 , t 2 ] ), le
produit scalaire associé est : (TC) < x , y > = ∫ x (t ) y * (t )dt où y * (t ) est le conjugué du complexe y ( t )
Ι
∫
2
On a : x =< x , x > Dans le cas réel : < x , y > = x (t ) y (t )dt
Ι
- Fonction de corrélation
- Fonction d’intercorrélation : Elle permet la comparaison de 2 signaux :
soit les 2 signaux à TC x ( t ) , y ( t ) (resp. à TD x ( n) , y ( n) ).
La fonction de corrélation à TC ϕ xy (t ) (resp. à TC ϕ xy (n) ) traduit la ressemblance de 2 signaux :
∞ ∞
(TC) ϕ xy (t ) = ∫ x(τ ) y (t + τ )dτ (TD) ϕ xy (n) = ∑ x(k ) y (n + k )
k = −∞
−∞
∞ ∞
Cas de signaux complexes (* ≡ conjugué) : (TC) ϕ xy (t ) = ∫ x(τ ) y (t + τ )dτ (TD) ϕ
*
xy ( n) = ∑ x(k ) y (n + k )
k = −∞
*
−∞
Il faut bien sûr que l’un au moins des 2 signaux x ou y soit à énergie finie pour que ce calcul soit possible.
Puisque ϕ xy (t ) (resp. ϕ xy (n) ) est une mesure de la similitude entre x(t ) et y (t ) (resp. entre x(k ) et
y (k ) ), elle atteint son maximum pour une valeur de t (resp. de k ) lorsque la similitude est la plus grande.
En pratique, ces formules ne sont utilisables (≡ programmables) que si les 2 signaux x et y sont à durée
limitée. Par exemple, dans le cas discret, si N et M sont les durées respectives de x(k ) et y (k ) , alors
la durée de ϕ xy (n) est N + M − 1 .
Si l’un des signaux x ou y n’est pas à durée limitée, il faut alors le fenêtrer pour limiter sa durée (d’observation, de calcul).
Pour des signaux à énergie infinie, les formules de définition précédentes ne convergent pas.
Dans le cas discret par exemple, pour des signaux périodiques de période N , la fonction d’intercorrélation est définie par :
m + N −1
1
ϕ xy (n) =
N
∑ x( k ) y ( n + k )
k =m
avec m entier quelconque.
- Fonction d’autocorrélation
Elle traduit la vitesse de variation du signal x (t ) (resp. x (n) ) :
∞ ∞
(TC) ϕ xx (t ) = ∫ x(τ ) x(t + τ )dτ (TD) ϕ xx (n) = ∑ x(k ) x(n + k )
k = −∞
−∞
∞ ∞
Cas de signaux complexes (* ≡ conjugué) : (TC) ϕ xx (t ) = ∫ x(τ ) x (t + τ )dτ
* (TD) ϕ xx (n) = ∑ x(k ) x (n + k )
k = −∞
*
−∞
II. SYSTEMES
1. Systèmes
Un système est une « entité » possédant éventuellement une (ou plusieurs) entrées et éventuellement une (ou
plusieurs) sorties.
x Φ y = Φ( x)
Notation : un système Φ excité par un signal d'entrée x répond par un signal de sortie : y = Φ( x ) .
2. Types de systèmes
Les quelques exemples suivants permettent d’illustrer la notion de système :
Température extérieure
Radiateur Pièce chauffée Température intérieure Système physique mono-entrée, mono-sortie, perturbé, à TC
Conjoncture mondiale
Bruit de calcul
Décisions de la Atterrissages
tour de contrôle Aéroport Système d'organisation séquentiel (TD)
Décollages
Doses de
médicament Etre humain Nombre de cigarettes Système béhavioriste (TD)
anti-tabac par jour
Perturbations
Les signaux de perturbations sont des entrées particulières du système dans le sens où on ne peut agir sur
elles, contrairement aux entrées de commande.
L’étude d’un système consiste à rechercher un modèle mathématique du système, c’est-à-dire ses relations
d’entrée-sortie. Ces relations peuvent être :
- algébriques : systèmes statiques
- des équations différentielles (TC) ou des équations aux différences (TD) : systèmes dynamiques
- algorithmiques (cas de la Transformée de Fourier Discrète) : approche procédurale
- descriptives (de type « si...,alors... »: approches règles d’évolution de système expert et connexionniste (réseaux
de neurones), logique floue ...
1. 7
Signaux & systèmes 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
et Φ( x1 + x 2 ) = Φ( x1 ) + Φ( x 2 ) ( x1 , x 2 : signaux d'entrée)
(La réponse du système à la somme des entrées est égale à la somme des réponses à ces entrées)
0 t 0 t Système linéaire : 0 t 0 t
x1 (t) y1 (t)
1 Φ A
0 t 0 t
x2 (t) y2 (t) x1 (t)+x2 (t) y(t)=y1 (t)+y2 (t)
1 A
Φ 2 Φ 2A
1 A
0 t 0 t
0 t 0 t Système linéaire :
y(t)
λ y (t)
1
y (t) + y (t)
1 2
y (t)
2
y (t)
1 x(t)
x (t) x (t)
1 2
λ x (t)
1
x (t) + x (t)
Pour un système linéaire, à tout instant on a donc la caractéristique de linéarité : 1 2
- Système stationnaire (ou encore à Temps Invariant (TI) ou enfin non dynamique) :
Système dont la réponse est invariante par décalage du temps (i.e. de l’origine des temps) : système qui n’est pas
en évolution (une même entrée appliquée à 2 instants différents provoque une même réponse décalée d’autant).
Un système stationnaire n’évolue pas dans le temps. L’origine des temps n’a pas d’importance.
∆
TC : si Φ[ x (t )] = y (t ) → Φ[ x (t − t 0 )] = y (t − t 0 )
x(t) y(t)
Φ
0 t 0 t
x(t - t0 ) y(t - t0 )
Φ
0 t0 t 0 t0 t
Système stationnaire
∆
TD : si Φ[ x (n)] = y (n) → Φ[ x (n − k )] = y (n − k )
Pour un système stationnaire, les mêmes causes (entrées) produisent les mêmes effets (sorties).
Un système non stationnaire est un système en évolution.
1. 8
Signaux & systèmes 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
C'est la réponse, notée h(t) (TC), ou h(n) (TD) à l'entrée δ(t) (TC) ou δ(n) (TD).
On a, si les Conditions Initiales (CI) sont nulles :
On notera même le système par sa RI (les flêches sont implicites) : (CI nulles)
Si un système linéaire n’est pas à Temps Invariant, la RI dépend de l’origine des temps (τ à TC) (resp. k à TD):
→ RI d’un SL non stationnaire : - à TC : h(t,τ) - à TD : h(n,k)
SLTI à TC : il est régi par une équation différentielle linéaire à coefficients constants :
k m
→ ∑ay
i =0
i
(i )
(t ) = ∑ bi x ( i ) (t )
i =0
[k > m pour les systèmes physiques (≡ passe-bas) ]
Cette équation différentielle linéaire à coefficients constants et décrivant un SLTI n’est autre que l’équation de
convolution.
SLTI à TD : il est régi par une équation aux différences linéaire à coefficients constants :
k m
→ ∑
i =0
ai y (n − i ) = ∑ bi x ( n − i )
i =0
1. 9
Signaux & systèmes 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
1 ∑ δ (n − k ) )
k = −∞
∞ ∞
∫ x(τ ) h( t − τ ) dτ = y( t ) ∑ x ( k ) h( n − k ) = y ( n)
k =−∞
−∞
x(t) h(t) = x ( t ) * h( t ) x(n) h(n) = x ( n) * h( n)
- Système récursif
La sortie à un instant donné dépend de la sortie à d'autres instants
→ la seule connaissance de l'entrée ne suffit pas à connaître la sortie (notion de mémoire)
→ état initial de la sortie à connaître.
- Système causal
Système qui, à un instant donné, ne nécessite ni la connaissance du futur de l’entrée ni celle du futur de la sortie
pour fournir sa réponse à cet instant. Il est caractérisé, s’il est linéaire stationnaire, par une RI causale (RI nulle à t < 0) si
bien sûr les CI sont nulles.
De même, un système linéaire stationnaire non causal possède une RI non causale.
→ Dans la relation d'entrée-sortie du système, la sortie à un instant donné ne dépend que du passé et du présent (et
non pas du futur) de l’entrée et de la sortie. (Le futur étant défini à partir d’une échelle de temps t dans le sens → ).
Pour un système causal, le temps s’écoule du passé vers l’avenir lors d’un balayage de traitement (t →).
Exemple de filtrage causal:
Traitement d’une ligne d’image : x(k-1) x(k) x(k+1)
x(k) est le niveau de gris (0 ≤ x(k) entier ≤ 255) du pixel d’index k dans la ligne d’une image Noir & Blanc.
Pour appliquer un filtre causal, il faut balayer une ligne d’image de la gauche vers la droite ( t → ) :
(le sens de balayage n’a réellement d’importance que dans le cas d’un filtrage récursif)
Filtrage causal non récursif : Exemple: y(k) = x(k) - x(k-1) (dérivateur discret)
Dans le cas d’un filtrage non récursif, on n’est pas obligé de balayer une ligne de la gauche vers
la droite, on pourrait tout aussi bien balayer de la droite vers la gauche.
Filtrage causal récursif : Exemple: y(k) = x(k) - y(k-1) (dérivateur discret récursif)
Dans le cas d’un filtrage récursif, il est impératif de balayer une ligne de la gauche vers la droite, et
non de droite à gauche, car le filtre fait référence à un pixel déjà traité, (qui doit donc ∈ au passé).
h(k)
Autre façon de le voir: Ex.: y(k) = x(k-1) RI h(k) = δ(k-1) 0 1 k Pour fournir la réponse t s’écoule → .
Pour un système non causal (plus exactement anticausal (≡ système de RI nulle à t > 0), le temps s’écoule
à l’envers, du futur vers le passé lors d’un balayage de traitement (t ←). (Si on fait dérouler le temps du passé
vers le futur (t →) (déconseillé), un système non causal répond avant d’être excité ! Ex. : y(k) = x(k+1) )
Pour appliquer un filtre anticausal, il faut balayer une ligne d’image de la droite vers la gauche ( t ← ) :
Filtrage anticausal non récursif : Exemple: y(k) = x(k) - x(k+1) (dérivateur discret)
Dans le cas d’un filtrage non récursif, on n’est pas obligé de balayer une ligne de la droite vers la
gauche, on pourrait tout aussi bien balayer de la gauche vers la droite.
Filtrage anticausal récursif : Exemple: y(k) = x(k) - y(k+1) (dérivateur discret récursif)
Dans le cas d’un filtrage récursif, il est impératif de balayer une ligne de la droite vers la gauche, et
non de gauche à droite, car le filtre fait référence à un pixel déjà traité, (qui ∈ au passé si on prend
une échelle de temps « ← » mais qu’on peut dangereusement faire apparaître comme futur avec un
sens de déroulement du temps « → » ).
h(k)
Autre façon de le voir: Ex.: y(k) = x(k+1) RI h(k) = δ(k+1) -1 0 k Pour fournir la réponse t s’écoule ← .
Exemple de filtrage anticausal : - Renversement (+ translation) du temps (≡ ex. défilement à l’envers d’un son) :
Entrée : x(k) de longueur N k∈ [0,N] Sortie : y(k) = x(N-k) (système non stationnaire)
RI h(k)= δ(N- k)
y(k)
x(k) 1
k k k
0 N 0 N 0 N
RI causale bien que le système soit non causal car le système est non stationnaire
Pour calculer y(k), il faut connaître le futur de x (≡ instant d’indice supérieur à k).
- Système réalisable : Système causal (un système non causal a tout de même une existence physique).
- Système instantané
Système dont la sortie à un instant donné ne dépend que de l'entrée à cet instant. Dans tout autre cas, il
est dit à mémoire.
- Système stable
- Système qui à une entrée bornée (en amplitude) répond par une sortie bornée (stabilité au sens large
encore appelée stabilité non asymptotique au sens de Lyapunov).
- Système qui, perturbé (la perturbation étant modélisée par une impulsion de Dirac), revient à son état initial
après disparition de la perturbation (stabilité au sens strict encore appelée stabilité asymptotique au sens de
Lyapunov). Cette définition se traduit par le fait qu’initialement au repos, un système stable a sa RI qui tend
vers 0 lorsque le temps t s’écoule (≡ t → + ∞ pour un système causal, t → − ∞ pour un système non causal).
1. 11
Signaux & systèmes 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
On s'intéressera essentiellement aux Systèmes Linéaires à Temps Invariant (SLTI) (≡ Stationnaires (SLS)).
4. Représentation d’Etat
Une autre Représentation temporelle, mieux adaptée à l’étude des systèmes multivariables, sera présentée
dans un prochain chapitre.
SYSTEMES DEMOGRAPHIQUES
Elevage d’animaux à TD Entrée : croisement / mortalité u(k) - Sortie : nombres de couples y(k)
On observe un élevage d'animaux qui obéit aux lois suivantes : chaque mois un couple, s'il est fertile,
engendre (après une gestation d’1 mois) 1 couple nouveau-né, et cela indéfiniment. Un couple
nouveau-né devient fertile au bout d'1 mois et le reste constamment.
La mortalité et le croisement sont supposés ne concerner que les nouveaux-nés.
Un nombre de couples u(k) < 0 traduit la mortalité (ou la vente !) des couples nouveaux-nés. u(k) > 0
indique un croisement (immigration, introduction d’une population extérieure de couples nouveaux-nés).
L'élevage débute au mois numéro 0.
On cherche à déterminer le nombre de couples y(k) le k-ième mois, présents dans l'élevage.
Exemple : avec u ( k ) = δ ( k ) :
k-2 k-1 k
} { } {
f(k-2)
f(k-1)
nn(k-2) f(k)
nn(k-1)
nn(k)
⎧ y (k ) = y (k − 1) + nn(k ) ⎧ y (k ) = y (k − 1) + y (k − 2) + u (k )
On a : ⎪nn(k ) = f ( k − 1) + u (k ) → ⎨ (variante de suite de Fibonacci)
⎨
⎪ f (k ) = y (k − 1) ⎩avec y (k < 0) = 0
⎩
1. 12
Signaux & systèmes 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
SYSTEMES ECONOMIQUES
Caisse d’épargne à TD Entrée : investissement u(k) - Sortie : capital fructifié y(k)
On considère une caisse d’épargne dans laquelle le client dépose chaque mois une somme d’argent u( k )
(s’il s’agit d’un retrait, u( k ) est négatif) placée au taux d’intérêt mensuel I; le calcul des intérêts est le
suivant : le i ième mois, l’intérêt est calculé sur l’argent (capital et intérêt) en dépôt à la fin du (i-1) ième mois.
Chaque mois, le client dispose donc d’une somme d’argent y ( k ) qui représente la totalité de ses dépôts
antérieurs augmentée des intérêts acquis.
Equation de fonctionnement de la caisse d’épargne :
⎧ y ( k ) = (1 + I ) y ( k − 1) + u( k )
y( k ) = y( k − 1) + I y( k − 1) + u( k ) → ⎨
⎩Condition Initiale (CI) y ( −1) u( k ) causal
SYSTEMES PHYSIQUES
Systèmes électriques
Circuit RC intégrateur à TC Entrée : tension u(t) - Sortie : tension y(t)
i(t)
u(t) R y(t)
C
⎧u (t ) − y (t ) = Ri (t ) dy (t )
Lois de Kirschoff : ⎪ → RC + y (t ) = u (t ) (CI y0 )
⎨ dy (t ) dt
⎪⎩i (t ) = C dt
Systèmes mécaniques
Intégrateur mécanique à TC Entrée : force f(t) - Sortie : position x(t) par rapport à x0
k
k : coeff. de frottement élastique
a M f(t)
a : coeff. de frottement visqueux
Systèmes thermiques
Four électrique à TC Entrée: puissance électrique fournie p(t) - Sortie: température dans le four θ(t)
p(t) = u(t) i(t) : puissance électrique fournie
pd (t) : puissance dissipée en pertes
i pu (t) : puissance utile
θ(t) θa θ : température ambiante, extérieure : Cte
u R a
m : masse du four
C : chaleur massique du four
Cc : capacité calorifique du four Cc = mC
K : Cte de rayonnement du four
Pendant dt , le four reçoit l’énergie : dw = pdt = dw1 + dw 2 ( p est ≈ Cte pendant dt )
avec : dw1 : énergie absorbée pour l’accroissement de θ ( t ) : dw1 = pu dt = mCdθ = C c dθ
dw2 : pertes en dissipation d’énergie : dw2 = pd dt = K (θ − θ a ) dt
Bilan énergétique: conservation de l’énergie: dw = pdt = dw1 + dw 2 = C c dθ + K (θ − θ a ) dt
dθ (t )
d’où : p (t ) = C c + K [θ (t ) − θ a ]
dt
__________
1. 13
Signaux & systèmes TD 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
B. Signal analogique y :
⎧0 pour t < −1
⎪4 pour − 1 ≤ t < 0
⎪
y : t → y (t ) = ⎨
⎪− 4t + 4 pour 0 ≤ t < 1
⎪⎩0 pour t ≥ 1
u(t)
2
t
0 t0 t1
TD 1. 1
Signaux & systèmes TD 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
4. Filtres numériques
Soient les 2 filtres numériques suivants :
- Le Sélecteur :
x(n) S x(n) x (n) si n pair
s x S ( n) =
0 si n impair
x(n) C x(n)
c x C ( n) = x ( 2n)
- Chacun de ces filtres est-il stable, linéaire, causal, invariant par translation ?
5. Produit de convolution
Soient deux signaux x(t) et y(t) nuls pour t < 0 (causalité). On étudie le produit de convolution x(t) * y(t).
- Montrer que les bornes de l'intégrale de définition se simplifient.
(on traitera les 2 cas : - à Temps Discret et - à Temps Continu).
TD 1. 2
Signaux & systèmes TD 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
k 0 1 2 3 4 5 6 7 8 ...
x(k) 0 1 2 3 3 3 2 1 0 0
- Donner l’algorithme de déconvolution permettant de calculer la RI h(k) d’un SLTI à partir d’une
entrée u(k) et de la sortie correspondante y(k) dans le cas d'un système discret causal avec u(0) ≠ 0.
8. Filtre numérique
x(nT) E y(nT)
Soit le filtre numérique (générateur d'échos) suivant :
défini par son équation aux différences : y(nT) = x(nT) + αy[(n - 1)T]
TD 1. 3
Signaux & systèmes TD 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
t t t t t t
Réponse
t t
t t t
t
3. Système récursif
On considère le signal échantillonné s(k) défini par la relation :
Soit x ( t ) = α u( t − t 1 ) (on néglige le bruitage; seul l’atténuation est représentée (par le coeff. α ))
5. Transformation fréquentielle
On définit la Transformée (≡ fonction de fonction) G( z ) d’une fonction discrète f (n) par la relation :
∞
G( z) = ∑ f ( n) z
n = −∞
−n
TD 1. 4
Signaux & systèmes TD 1. Représentations Temporelles des Signaux & des Systèmes à TC & à TD
6. Miroir
On considère deux fonctions discrètes u (n) et f ( n) = u ( n − N ) où N est une Constante.
7. Produit de convolution
- Calculer l'autoconvolution s(t) de ΠT(t) : s(t) = ΠT(t) * ΠT(t)
Rappel : ΠT(t) = 1 si -T/2 < t < T/2
= 0 sinon
ΠT (t)
1
t
-T/2 0 T/2
et :
x (t ) * δ (t − t 0 ) = x (t − t 0 ) (TC)
x (n) * δ ( n − k ) = x ( n − k ) (TD)
__________
TD 1. 5
Signaux & systèmes TP 1. RT des Signaux & Systèmes à TC &
à TD
x := 0 if k < −1 y ( t) := 0 if t < −1
k
1 4 if −1 ≤ t < 0
if k ≥ −1
2
k −4 ⋅ t + 4 if 0 ≤ t < 1
0 if t ≥ 1
xk xk− 2 xk+ 2
k k k
x− k x2− k − xk
k k k
y( t) y( t− 2) y( t+ 2)
t t t
y( − t) y( 2− t) − y( t)
t t t
__________
TP 1. 1
Signaux & systèmes 2. Tutorial Mathcad
2. Tutorial Mathcad
1. Tour rapide
1.1. Mathcad 2001i
2. 1
Signaux & systèmes 2. Tutorial Mathcad
2. 2
Signaux & systèmes 2. Tutorial Mathcad
L’origine des tableau (Array Origin) fixe l’index de base des tableaux et vecteurs. Elle a 0 pour valeur défaut.
Pour manipuler des indices négatifs de vecteurs, l’origine doit être fixée à une valeur négative minimale au-dessous de
laquelle les vecteurs ne sont jamais indexés.
Plutôt que de fixer cette origine par cette boîte de dialogue, on peut aussi le faire par la commande Mathcad :
ORIGIN := -1000
qui autorise alors la manipulation des indices de vecteurs de ORIGIN= -1000 à une valeur maximale dépendant de la
mémoire RAM disponible (un swap disque devient vite rédhibitoire).
Cette option (débrayable) permet de calculer en temps réel les calculs spécifiés dans la feuille courante.
Les calculs s’effectuent de haut en bas et de gauche à droite dans la feuille de calcul courante.
Pour arrêter un calcul en cours, il suffit d’appuyer sur la touche Echap. La reprise du calcul peut se faire par Calculate
dans le menu Maths après avoir placé le curseur à l’emplacement du calcul à poursuivre.
2. 3
Signaux & systèmes 2. Tutorial Mathcad
2. Les bases
2.1. Affectation. Variables globales
Une affectation est globale à la feuille de calcul. Une variable globale par exemple, est connue dans tout le reste du
document après avoir été définie (donc dans la partie du document inférieure (≡ postérieure) à l’affectation de la
variable).
Toutefois, on peut affecter une variable par exemple, de façon globale dans toute la feuille de calcul (connue même
avant, au-dessus (≡ antérieure) de l’affectation).
⎛ 1 −1 ⎞
w≡ ⎜
L’opérateur correspondant est le suivant : Matrice globale : ⎝0 1 ⎠
Cet opérateur autorise l’affichage de la valeur d’une variable, d’une matrice, d’une fonction ... issue d’un calcul ou
d’une affectation.
w=⎜
⎛ 1 −1 ⎞
a=5 f ( 0) = 0 ⎝0 1 ⎠
2.3. Variables suites
2. 4
Signaux & systèmes 2. Tutorial Mathcad
La syntaxe est la suivante : t := start, start + step .. end step est optionnel (par défaut step = 1)
⎛0⎞
⎜1
⎜ ⎟
2
x= ⎜ ⎟
⎜3⎟
⎜4⎟
⎜
xk := k ⎝5⎠
Vecteurs
Fonctions y ( k) := k y = function
L’usage des vecteurs est en général préférable à celui des fonctions notamment dans le cas de fonctions récursives, très
coûteuses en espace mémoire.
2.5. Graphique
6 6
5 5
4 4
xk y( k)
2 2
0 0 0 0
0 2 4 6 0 2 4 6
0 k 5 0 k 5
6 1
5 1
4
xk f ( t) 0
0 0 −1 1
0 2 4 6 5 0 5
0 k 5 −5 t 5
2. 5
Signaux & systèmes 2. Tutorial Mathcad
. π π = 3.142
. e e = 2.718
307
. ∞ ∞ = 1 × 10
. FRAME
. Fonction échelon
2
2
u( t )
0
−1
t := −5 , −5 + 0.1.. 5 u ( t) := Φ ( t)
5 0 5
Echelon à TC −5 t 5
2
2
vk
0
−1
ORIGIN:= −100 k := −5 .. 5 v k := Φ ( k) 5 0 5
Echelon à TD −5 k 5
. Distribution delta
307
1 .10
307
1×10
. 306
u( t) 5 10
u ( t) := ∞ if t 0
0 0
t := −5 , −5 + 0.5.. 5
5 0 5
Delta à TC 0 otherwise −5 t 5
2
2
vk
0
v k := 1 if k 0
−1
k := −5 .. 5 v k := δ( k , 0) 0 otherwise
5 0 5
Delta à TD ou encore −5 k 5
1
G( s ) := g ( t) laplace , t →
g ( t) := Φ ( t) s
2. 6
Signaux & systèmes 2. Tutorial Mathcad
2.9. Programmation
c( t) := 0 if t < −2 c( t)
0
0 if t > 2
−1
Rappels
Image digitalisée = tableau 2D IM de n lignes et p colonnes : IM [0: p-1, 0: n-1]
IM[x, y] = niveau de gris du pixel de coordonnées x et y : 0 ≤ x ≤ p-1 0 ≤ y ≤ n-1
0 ≤ IM[x, y] ≤ 255 (0 : Noir 255 : Blanc)
0 x NX-1
0
X
y
IM[x,y]
NY-1
Image NX : nombre de colonnes (p)
ORIGIN:= 0
I := READBMP( "bato2.bmp" ) Nombre de colonnes : Nx := cols ( I) Nx = 128
Traitement 2D :
Traitement 1D (colonne) :
0 1 2 3 4 0 1 2 3 4
0 185 186 166 165 183 0 70 69 89 90 72
1 184 189 166 166 183 1 71 66 89 89 72
I= K=
2 184 182 157 170 180 2 71 73 98 85 75
3 186 186 152 173 187 3 69 69 103 82 68
4 193 190 149 177 178 4 62 65 106 78 77
2. 7
Signaux & systèmes 2. Tutorial Mathcad
k := 0 .. 20 x := δ( k , 0) α := 0.7 y := x if k 0
k k k
x + αy otherwise
k k− 1
ou encore :
y := α ← 0.7
for k ∈ 0 .. 10
x ← δ( k , 0)
k
y ←x if k 0
k k
y ← x + α⋅y otherwise
k k k− 1
y
1
1
yk 0.5
−4
7.979 ×10 0
0 10 20
0 k 20
2.11. Animation
Une variable prédéfinie (FRAME) autorise l’animation d’un graphique par exemple, en l’utilisant dans une variable
suite :
100
100
gn 50
0
2 0
n := 0 .. FRAME g n := n 0
0
5
n
10
10
3. Aide et Collaboratory
. Aide
2. 8
Signaux & systèmes 2. Tutorial Mathcad
__________
2. 9
Signaux & systèmes TP 2. Tutorial Mathcad
TP 2. Tutorial Mathcad
Un signal à TC sera programmé comme une fonction x(t), t réel
Un signal à TD sera programmé comme une fonction x(n), n entier, ou mieux comme un vecteur x (pour des problèmes de récursivité)
n
C
0 if n >
2
??? c :=
n
2
10
1
Γn dn cn
0
0 1
0 5 10 0 5 10
n n 0 n 10
TP 2. 1
Signaux & systèmes TP 2. Tutorial Mathcad
??? c :=
n
xn dn 0 cn
0
−1
10 0 10 10 0 10
n n − 10 n 10
Conclusion : ???
TP 2. 2
Signaux & systèmes TP 2. Tutorial Mathcad
3. Fonctions de corrélation de signaux physiques sur l'intervalle 0 <= n <= N-1 ORIGIN := 0
On considère 2 signaux de parole enregistrés dans les fichiers a1 et a2 issus de 2 enregistrements différents de la
même voyelle "a", échantillonnés à 8 kHz mono 8 bits et de durée 0.1s -> leur taille est de 800 échantillons.
Il en est de même pour 2 autres enregistrements de la même voyelle "o", soit o1 et o2.
Bien qu'ils soient à TD, les signaux du sont tracés en continu pour une meilleure lisibilité.
50 50
a1n 0 a2n 0
50 50
0 200 400 600 800 0 200 400 600 800
n n
20 20
o1n 0 o2n 0
20 20
0 200 400 600 800 0 200 400 600 800
n n
TP 2. 3
Signaux & systèmes TP 2. Tutorial Mathcad
3 3
5.863× 10 1.52× 10
φa1a2n φa1o1n
3 3
− 5.519× 10 − 1.159× 10
0 n 799 0 n 799
4 4
2.552× 10 1.463× 10
φa1a1n φo1o1n
4 3
− 1.385× 10 − 8.179× 10
0 n 799 0 n 799
Conclusion : ???
TP 2. 4
Signaux & systèmes TP 2. Tutorial Mathcad
4. Différence de 2 signaux
TP 2. 5
Signaux & systèmes TP 2. Tutorial Mathcad
MiroirH( U) := J := MiroirH( I)
I J
TP 2. 6
Signaux & systèmes TP 2. Tutorial Mathcad
x( t) d( t) 0
0
5 0 5 5 0 5
t t
1.5
c( t)
− 0.5
−5 t 5
TP 2. 7
Signaux & systèmes TP 2. Tutorial Mathcad
n := −C , −C + 1 .. C w := 0 if n < −2 ??? a :=
n n
if n ≥ −2
1 if n ≤ 2
0 otherwise
2
6
wn an
0
−2
20 10 0 10 20
n − 15 n 15
Conclusion : ???
⋅Φ (n − 2
n− 2
B := 20 n := A , A + 1 .. B a := 0.8 rect( n) := 0 if n < 0 x := rect( n) y := a
n n
if n ≥ 0
1 if n ≤ 5
0 otherwise
??? φxyn :=
2 2
5
xn yn φxyn
0 0
−1
20 0 20 20 0 20
n n − 10 n 20
Conclusion : ???
TP 2. 8
Signaux & systèmes TP 2. Tutorial Mathcad
4. Fonctions d'autocorrélation φxxn de x et φyyn de y sur l'intervalle A <= n <= B A := −10 ORIGIN :=
n n
⋅Φ (n − 2
n− 2
B := 20 n := A , A + 1 .. B a := 0.8 rect( n) := 0 if n < 0 x := rect( n) y := a
n n
if n ≥ 0
1 if n ≤ 5
0 otherwise
2 2
xn yn
0 0
10 0 10 20 10 0 10 20
n n
8 2.777
φxxn φyyn
−1 −1
− 10 n 20 − 10 n 20
Conclusion : ???
5. Corrélation d'images
Lecture des fichiers ORIGIN := 0
U := READ_IMAGE( "Aquitain4.bmp" ) V := READ_IMAGE( "Grenoble4.bmp" ) Nx := cols( U) Ny := rows( U)
U V
Calculer l'autocorrélation de l'image Aquitain4, ainsi que l'intercorrélation entre Aquitain4 et Grenoble4
(la dynamique de ces images est de 256 niveaux de gris : la luminance l d'un pixel vérifie : 0 <= l <= 255)
TP 2. 9
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
Cette relation traduit le fait qu’un signal périodique x(t) à TC peut être décomposé en une somme
(discrète) infinie de composantes sinusoïdales (≡ harmoniques, ≡ ondes) de fréquence multiple entière de
la fréquence de x(t).
Φ3 /ω
Φ0 Φ2 /ω
Φ1
A0 ∞ 2π
x (t ) = + ∑ ( Ak cos kωt + Bk sin kωt ) (1) avec : ω= et :
2 k =1 T
⎧ Ak
⎨ ou Ck : Coefficients de la décomposition en série de Fourier de x(t) sous forme trigonométrique.
⎩ Bk
(Si x(t) est réel, les coefficients Ak , Bk , Ck et Φ k sont réels).
A l’aide des relations d’Euler, on peut également écrire cette décomposition sous forme exponentielle, en
faisant ainsi apparaître des fréquences négatives, sans réalité physique :
(les coefficients X k sont complexes même si x(t) est réel)
∞
⎧ Ak = X k + X − k ⎧Ck = 2 X k
- Formule d’inversion : x (t ) = ∑ X k ⋅ e ikωt ( 2) avec ⎨ et ⎨
k =−∞ ⎩ Bk = i ( X k − X − k ) ⎩Φ k = Arg X k
1
X k ≡ X ( kν ) , où ν = est la fréquence, est la Représentation Fréquentielle de x(t) (k entier, ν réel).
T
3. 1
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
Si on multiplie les 2 membres de (2) par e − ik0ωt , que l'on intègre de t0 à t0+T et que l'on divise par T, on a :
− ik 0ωt ∞
1 t 0 +T 1 t 0 +T
T ∫t0
x(t )e dt =
T ∫t0
∑X
k = −∞
k .e i ( k − k 0 )ωt dt = X k 0 d'après (3)
− ikωt
1 t0 + T
T ∫t0
d'où : Xk = x ( t ) e dt ( 4)
- Propriétés :
Ck = Ak2 + Bk2 = 2 X k
( Ck n'existe (et n'est représenté) que pour k ≥ 0 bien que X k existe pour k ≥ 0 et k < 0).
Exemple :
Ck = 2 X k
C1
C2
C0
k
0 1 2 3 4 5 6
kν
0 ν 2ν 3ν 4ν 5ν 6ν
Ak − Bk
Φ k = Arg ( X k ) cos Φ k = sin Φ k =
A +B
2
k
2
k Ak2 + Bk2
Exemple : Φ
k
0 5 6
k
1 2 3 4
−π
3. 2
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
(3) Le spectre d'un signal x(t) à TC, périodique de période T, est discret (≡ à fréquences discrètes) :
⎛k⎞
X k ≡ X k ( kν ) ≡ X ⎜ ⎟
⎝T⎠
(4) Identité de Parseval :
t0 + T ∞
1 A02
∫ x 2 (t )dt = + ∑ ( Ak2 + Bk2 )
T t0
2 k =1
T ∫t0 T ∫t0
P= x ( t ). x ( t ). dt = x ( t ) . dt (5) (Puissance moyenne)
∞
∑X
2
Dans (5) on utilise (2) et à cause de (3), on obtient : P= k . C’est le théorème de Parseval:
k =−∞
∞
1 t0 + T 2
∫ ∑
2
x ( t ) . dt = Xk La puissance temporelle est égale à la puissance spectrale.
T 0 t
k =−∞
∞ ∞
1 t 0 +T
Plus généralement :
T ∫t0
x (t ). y (t ).dt = ∑ k
k = −∞
X .Y − k = ∑ X k .Yk
k = −∞
(6) Parité :
PAIR IMPAIR
x(t) Réel Imaginaire pur Réel Imaginaire pur
X
k
(7) Linéarité.
(8) X k est généralement complexe même si x ( t ) est réel.
- Phénomène de Gibbs :
Contrairement aux fonctions périodiques continues que l’on peut approcher par un petit nombre de
termes de leur décomposition en série de Fourier, pour des fonctions périodiques discontinues, il est
nécessaire de prendre en compte un grand nombre de termes si l’on veut réduire le phénomène de
Gibbs, qui consiste en l’apparition d’oscillations autour des points de discontinuités (la suppression
totale du phénomène de Gibbs implique la prise en compte d’une infinité de termes dans la
décomposition en série de Fourier !)
Exemple : Signal Carré périodique (2π)
u(t)
1
0 t
−π π
4 ∞
sin(2 k + 1)t
u( t ) = ∑
π k =0 2k + 1
K : Nombre (en fait nombre - 1) de composantes de la décomposition en série de Fourier :
4 K
sin(2 k + 1)t
u( t ) = ∑
π k =0 2k + 1
K=0 K=1 K = 10
K = 20 K = 50
3. 4
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
En considérant qu’un signal non périodique est périodique de période infinie, on peut prolonger la relation
de décomposition en série de Fourier d’une fonction périodique pour donner la transformation de Fourier.
Un signal non périodique x(t) à TC est donc décomposé en une somme infinie (continue et non pas
discrète comme pour les signaux périodiques) de composantes sinusoïdales (≡ harmoniques).
Le spectre d’amplitude de x(t) indique l’amplitude de chacune de ces harmoniques, le spectre de phase, leur
décalage par rapport à l’origine.
∞
X (ν ) = ∫ x (t ) ⋅ e − i 2πνt dt ν est la fréquence (ν : réel)
−∞
( X (ν ) est généralement complexe même si x(t) est réel).
∞
x (t ) = ∫
−∞
X (ν ) ⋅ e + i 2πνt dν noté : x(t) = TF-1( X (ν ) )
- Propriétés :
ν ν
0
−π
(3) Le spectre d'un signal non périodique à TC est continu (≡ à fréquences continues) X (ν ) .
∞ ∞
(4) Théorème de Parseval : ∫
−∞
x ( t ) y (t )dt = ∫ X (ν )Y (ν )dν
−∞
∆ ∞ ∞
∫ x (t ) dt = ∫
2 2
(5) Energie du signal : E = X (ν ) dν en utilisant le théorème de Parseval.
−∞ −∞
(6) Parité :
PAIR IMPAIR
x(t) Réel Imaginaire pur Réel Imaginaire pur
X (ν )
(7) Linéarité.
(8) X (ν ) est généralement complexe même si x ( t ) est réel.
(9) Correspondance bi-univoque entre x ( t ) et X (ν ) .
3. 5
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
∫ ∫ ∫ ∫ ∫ ∫
i 2π ντ i 2π ντ −i 2π νu i 2π ντ
= ⎢ x (τ )e y (t + τ )dτ ⎥ e dt = x (τ )e y (u )e dτ du = x (τ )e dτ y (u )e −i 2πνu du = X (−ν )Y (ν )
−∞ ⎣ −∞ ⎦ − ∞ − ∞ − ∞ − ∞
Plus généralement : TF [ϕ xy ]
(t ) = X * (ν )Y (ν ) où X * (ν ) est le complexe conjugué de X (ν ) .
- Dictionnaire :
Opération Représentation Temporelle Représentation Fréquentielle
1. Combinaison linéaire u(t) = a x(t) + b y(t) U (ν ) = a X (ν ) + b Y (ν )
(a, b, Ctes complexes)
2. Renversement du temps y(t) = x(-t) Y (ν ) = X ( −ν )
3. Retard (τ réel ≥ 0 ou < 0) y(t) = x(t - τ) Y (ν ) = X (ν ) ⋅ e− i 2πντ
4. Offset (c complexe) y(t) = x(t) + c Y (ν ) = X (ν ) + cδ (ν )
5. Dérivation y(t) = x& (t ) Y (ν ) = i 2πν ⋅ X (ν )
dériver ≡ multiplier par i2πν
→ passe-haut en fréquence
6. Dérivation d'ordre p y(t) = x ( p ) (t ) Y (ν ) = (i 2πν ) p ⋅ X (ν )
7. Intégration t0 + t X (ν )
intégrer ≡ diviser par i2πν y(t) = ∫t0
x (u)du Y (ν ) =
i 2πν
+ kδ (ν )
→ passe-bas en fréquence k : Cte d’intégration à déterminer
8. Conjugaison complexe y(t) = x ( t ) Y (ν ) = X (ν )
9. Changement d'échelle de temps y(t) = x(t / λ) Y (ν ) = λ X (λν )
( λ ≠ 0)
10. Multiplication par t y(t) = t . x(t) 1 dX (ν )
Y (ν ) = −
i 2πν dν
tp t p x (t ) ⎛ 1 ⎞ d X (ν )
p
11. Multiplication par y(t) =
Y (ν ) = −⎜ ⎟
⎝ i 2πν ⎠ dν p
12. Convolution u(t) = x(t) * y(t) U (ν ) = X (ν ) ⋅ Y (ν )
13. Corrélation u(t) = x(-t) * y(t) U (ν ) = X (−ν ) ⋅Y (ν )
14. Produit u(t) = x(t) . y(t) U (ν ) = X (ν ) * Y (ν )
15. Décalage, translation en fréquence y(t) = ei 2πν 0 t ⋅x(t ) Y (ν ) = X (ν − ν 0 )
(modulation exponentielle)
3. 6
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
Nous pouvons prendre la TF de x(t) déjà décomposé en série de Fourier. On obtient alors :
+∞
⎛ ∞ ⎞
TF [ x (t )] = X (ν ) = ∫−∞⎜⎝ k∑
=−∞
X k e ik 2πν 0t ⎟ e − i 2πνt dt
⎠
Du fait que, sous réserve de convergence du fait des bornes infinies de l’intégrale, l’intégrale d’une somme
est la somme des intégrales (linéarité de l’opérateur ∫ ), on a :
∞ +∞ ∞ ∞
X (ν ) = ∑ Xk
k =−∞
∫ e − i 2π (ν − kν 0 ) t dt = ∑ X k . TF[1]variable (ν − kν 0 ) =
k =−∞
∑X
k =−∞
k δ (ν − kν 0 )
−∞
On voit que la Représentation Fréquentielle X (ν ) d’un signal périodique, obtenue par TF, n’est rien
d’autre (et n’apporte rien de plus) que la Représentation Fréquentielle X k du signal périodique :
les coefficients de la Représentation Fréquentielle X k sont multipliés par un peigne de Dirac
∞
|_|_| ν 0 ( ν ) = ∑ δ (ν − kν 0 ) , synchrone avec les X k :
k =−∞
Xk
k
-3 -2 -1 0 1 2 3
Série de Fourier -3ν -2ν −ν 0 ν 2ν 3ν
kν |_|_| ν 0 ( ν )
1
X(ν )
x(t) périodique, de période T = 1 / ν 0 ν
-3ν0 -2ν0 −ν0 0 ν0 2ν0 3ν0
TF ν
-3ν0 -2ν0 −ν0 0 ν0 2ν0 3ν0
3. 7
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
k
-3 -2 -1 0 1 2 3 k ν0 = ν
-3ν0 -2ν0 −ν0 0 ν0 2ν0 3ν0
- TF :
∞ ∞
⎛ e i 2πν 0t + e − i 2πν 0t ⎞ − i 2πνt
∫ x (t ) e dt = ∫ ⎜
− i 2 πνt
X (ν ) = ⎟e dt
−∞ −∞
⎝ 2 ⎠
∞ ∞
1 − i 2 π ( ν −ν 0 ) t 1 1 1
X (ν ) = ∫
2 −∞
e dt + ∫ e − i 2π (ν +ν 0 ) t dt = TF[1] variable (ν −ν 0 ) + TF[1] variable (ν +ν 0 )
2 −∞ 2 2
1 1
X (ν ) = δ (ν − ν 0 ) + δ (ν + ν 0 )
2 2
X(ν )
1/2
ν
-3ν0 -2ν0 −ν0 0 ν0 2ν0 3ν0
En TL monolatérale, les CI (Conditions Initiales) interviennent, alors qu’en bilatéral, elles n’ont évidemment
aucune signification particulière).
Par simplification de la notation, TL+ est communément tout de même noté TL et X + ( p) noté X ( p) .
La TL X ( p) d’un signal x(t) s’exprime généralement comme une fraction rationnelle en p (rapport de 2
polynômes en p finis).
3. 8
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
- Remarques :
(1) Du fait que p possède une partie réelle, la convergence de la TL est facilitée par rapport à celle de la
TF, la partie réelle de p n’étant pas limitée à l'axe des ordonnées mais à une bande verticale dans le
plan p correspondant au domaine de définition de la TL, et propre à chaque signal x(t) à transformer.
(en contre-partie, l’inversion de la TL est plus difficile que celle de la TF car ell fait intervenir l’intégration de fonctions de
variable complexe.)
→ X ( p) n'est pas seulement définie par son expression en fonction de la variable p mais aussi par
son domaine de définition (ou encore de convergence) : σ1 < σ < σ2 :
Im p
σ 0 σ2
1 Re p
[
1 −σt − i 2πνt ∞ 1
]
∞
Ex. : TL (Γ(t)) =
0 ∫ e − pt dt = −
p
e ⋅e 0
=
p
pour : 0 < σ < +∞
1
(2) x1 ( t ) = Γ ( t )e − at (causal) a pour TL : X 1 ( p) =Domaine : − a ≤ σ < + ∞
p+a
1
alors que : x 2 ( t ) = − Γ ( − t )e − at (anticausal) a pour TL : X 2 ( p) = Domaine : − ∞ < σ ≤ − a
p+a
- Formule d'inversion :
Soit un signal x(t) de TL X ( p) avec Domaine de Définition : σ 1 ≤ σ ≤ σ 2 . On a :
1
x( t ) = ∫ X ( p) ⋅ e
pt
dp avec C : Contour d'intégration dans la Bande [ σ 1 , σ 2 ].
i 2π C
(C : inclus dans Bande de ConVerGence de la TL)
L'intégration des fonctions de variable complexe est rarement utilisée en pratique. On utilisera plutôt un
dictionnaire et les tables des principales transformées après avoir éventuellement effectué une
décomposition en éléments simples de la fonction F ( p) dont on veut trouver l’original f ( t ) .
3. 9
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
- Propriétés :
(1) TF et TL : Si l'axe imaginaire (axe Re(p) = 0) est inclus dans la Bande de Convergence de
Laplace, on a la relation de passage entre TF et TL :
X (ν ) = X ( p = i 2πν ) ↔ p = i 2πν
(2) Linéarité.
(3) X ( p) est généralement complexe même si x ( t ) est réel.
(4) Correspondance bi-univoque entre x ( t ) et X ( p) (domaine de convergence précisé).
−∞⎣− ∞ ⎦ − ∞− ∞ −∞ −∞
- Dictionnaire :
Opération Représentation Temporelle Représentation Fréquentielle
1. Combinaison linéaire u(t) = a x(t) + b y(t) U ( p) = a X ( p) + b Y ( p)
(a, b, Ctes complexes)
2. Retard y(t) = x(t - τ) Y ( p) = e −τp ⋅ X ( p)
(τ réel ≥ 0 ou < 0)
3. Dérivation y(t) = x& (t ) TL+ [ y ( t ) ] = Y + ( p) = pX ( p) − x ( 0+ ) derivation au sens des fonctions
dériver ≡ multiplier par p TL+ [ y ( t ) ] = Y + ( p) = pX ( p) − x (0 − ) derivation au sens des distributions
TL[ y (t )] = Y ( p) = pX ( p)
4. Dérivation d'ordre n y(t) = x
(n)
(t) TL+ [ y (t )] = p n X ( p) − p n −1 x (0+ ) − p n − 2 x&(0+ ) −...− x ( n −1) (0+ ) deriv. fonctions
TL[ y (t )] = Y ( p) = p n ⋅ X ( p)
5. Intégration t0 + t
X ( p)
intégrer ≡ diviser par p y(t) = ∫t0
x (u)du Y ( p) =
p
6. Intégration d'ordre n y (n) ( t ) = x( t ) X ( p)
Y ( p) =
pn
7. Convolution u(t) = x(t) * y(t) U ( p) = X ( p) ⋅ Y ( p )
8. Corrélation u(t) = x(-t) * y(t) U ( p ) = X (− p ) ⋅ Y ( p)
9. Produit u(t) = x(t) . y(t) U ( p) = X ( p)∗ Y ( p)
10. Multiplication par t y(t) = t . x(t) dX ( p)
Y ( p) = −
dp
11. Multiplication par t
n n
y(t) = t . x(t) dX ( p)
(n entier positif)
Y ( p) = ( −1) n
dp n
12. Décalage, translation y(t) = e
− at
⋅ x( t ) Y ( p) = X ( p + a )
en fréquence (modulation
exponentielle)
13. Renversement du temps y(t) = x(-t) Y ( p) = X ( − p)
3. 10
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
- Note :
La TL bilatérale est peu utilisée comme Représentation Fréquentielle des signaux ou des systèmes à TC non causaux
(on lui préfère la TF moins abstraite). Par contre la TL est essentielle pour la Représentation Fréquentielle des systèmes
causaux. En Automatique, notamment, où les systèmes sont généralement causaux, la TL monolatérale est
exclusivement utilisée. Le produit de convolution ayant pour transformée un produit simple :
f (t ) = x (t ) * y (t ) ⎯⎯
TL
→ F ( p) = X ( p)Y ( p)
la convolution se traduit en p comme un produit de polynômes, et la déconvolution comme une division de polynômes.
3. 11
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
Y ( p)
[
avec: H ( p ) = TL h(t ) ] H ( p ) s’appelle la Fonction de Transfert (FT) du SLTI: H ( p) = (si CIs nulles)
X ( p)
De même que la RI h(t) (hors CI), la FT H(p) caractérise complètement (hors CI) le SLTI.
H(p) est la Représentation Fréquentielle Généralisée d’un système à TC
La FT (comme la RI) n’a de sens que si le système est linéaire (la TL est linéaire).
Si le système est stationnaire: la FT H(p) ne dépend pas du temps, la RI h(t) ne dépend que du temps t.
S’il n’est pas stationnaire: la FT H(p,t) dépend du temps, la RI h(t,τ) dépend du temps t et de l’origine des temps τ.
- Dualité Temps-Fréquence :
Temps Fréquence
- RI : h(t) ⇔ - FT : H(p)
- SLTI ⇔ - Filtre linéaire
- STI ⇔ - Filtre
- Relation Entrée-Sortie : Convolution ⇔ - Relation Entrée-Sortie : Produit
- Relation Entrée-Sortie d’un SLTI : ⇔ - H(p) : fraction rationnelle (≡ fractionnelle) en p
Equation différentielle linéaire à coeff constants : ≡ Quotient de 2 polynômes en p :
( avec Conditions Initiales (CI) supposées nulles ) m
Y ( p)
∑a p i
i
n m TL H ( p) = = i =0
∑b y (i )
(t ) = ∑ ai x (i ) (t ) → X ( p) n
si CI nulles
∑b p
i i
i =0 i =0 i
i =0
- Application :
La TL monolatérale se prête très bien à la détermination de la réponse d’un système à TC à un signal à
TC par utilisation de la FT du système (bonne convergence de la TL).
3. 12
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
∑ bi y (i ) (t ) = ∑ ai x (i ) (t )
i =0 i =0
∑ b p Y ( p) + ∑ ∑ b p
i =0
i
i
i =0 j =0
i
i − 1− j
y (0) = ∑ ai p X ( p) + ∑ ∑ ai pi − 1− j x ( j ) (0)
( j)
i=0
i
i =0 j =0
d’où :
m m i −1 n i −1
=0 :
- Si les CI sont nulles : K ( p) y ( t ) = h( t ) * x ( t )
- Si les CI sont non nulles : K ( p) ≠ 0 : y (t ) = h(t ) * x (t ) + TL−1 [ K ( p)]
Lorsque les CI ne sont pas nulles, la permutation de deux blocs en cascade n’est pas commutative :
K (p) K (p)
1 2
X(p) Y(p)=H(p)X(p) + K1 (p) V(p)=G(p)Y(p) + K2 (p)
H(p) + G(p) +
V ( p) = G ( p)[ H ( p) X ( p) + K1 ( p)] + K2 ( p) = H ( p)G ( p) X ( p) + G ( p) K1 ( p) + K2 ( p)
K (p) K (p)
3 4
X(p) U(p)=G(p)X(p) + K3 (p) W(p)=H(p)U(p) + K4 (p)
G(p) + H(p) +
W ( p) = H ( p)[G ( p) X ( p) + K3 ( p)] + K4 ( p) = H ( p)G ( p) X ( p) + H ( p) K3 ( p) + K4 ( p)
3. 13
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
t t
0 0
- Fréquence :
Traduite en fréquence, cette CNS devient :
Un système causal est stable si et seulement si tous les pôles de la FT H(p) de ce système ont une
partie réelle négative (le cas partie réelle = 0 est un cas limite).
Cette CNS peut aussi être appliquée aux signaux plutôt qu’aux systèmes : un signal x(t) de TL X(p) ne
tend pas vers l’infini lorsque t tend vers l’infini si et seulement si les pôles de X(p) sont à partie réelle ≤0
(Ex. : l’échelon unité dont la TL est 1/p).
(Pour un système anticausal (≡ système de RI nulle pour t > 0), la CNS de stabilité serait que les pôles
de H(p) soient à partie réelle positive).
3. 14
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
Un système est stable si, après perturbation, il revient à son état précédent.
Prenons δ (t ) comme perturbation et calculons la RI hi (t ) (appelée mode) d’un sous-système
Ai pris initialement au repos : ⎡ A ⎤
hi (t ) = TL−1 ⎢ i ⎥ = Ai e ai t Γ(t ) :
p − ai ⎣ p − ai ⎦
Système causal stable Système causal instable Système non causal stable Système non causal instable
hi ( t ) hi ( t ) hi ( t ) hi ( t )
Ai Ai Ai Ai
si Re(ai ) < 0 si Re(a i ) > 0 si Re(ai ) > 0 si Re(a i ) < 0
0 t 0 t 0 t 0 t
Un système causal est donc stable si tous les pôles de sa FT ont une partie réelle négative, car alors
tous ses modes sont stables.
Par contre un système non causal traite un signal en faisant défiler le temps de droite à gauche (de
l’avenir vers le passé) contrairement à un système causal où le temps s’écoule de gauche à droite (du
passé vers le futur).
Par exemple, le filtre non causal à TD d’équation aux différences : y n = x n + y n +1 doit être
programmé avec un balayage de droite à gauche, alors que le filtre causal : y n = x n + y n −1 doit
l’être avec un balayage de gauche à droite.
En prenant également comme conditions initiales le repos, on a cette fois comme RI d’un sous-
Ai
système :
p − ai
hi ( t ) hi ( t )
0 t 0 t
Un système non causal est donc stable si tous les pôles de sa FT ont une partie réelle positive.
Comme le système est supposé linéaire, il répond à une sinusoïde x(t ) = A sin (2π ν t ) d’amplitude A par une autre
sinusoïde y (t ) = B sin (2π ν (t − τ ) ) , d’amplitude B , et retardée (si le système est causal comme c’est généralement le
cas, avancée si le système est anticausal) de τ (ou encore déphasée de ϕ = −2π ν τ par rapport à x(t ) .
Si l’on fait varier la fréquence ν de la sinusoïde d’excitationx(t ) en maintenant constante son amplitude A ,
l’amplitude B = B (ν ) de la sinusoïde de sortie va varier, ainsi que le déphasage ϕ = ϕ (ν ) entre entrée et sortie.
3. 15
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
Exemple
Si l’on communique manuellement un mouvement rectiligne sinusoïdal x(t ) à un pendule simple en déplaçant
l’extrémité E du fil, et que l’on s’intéresse à la position y (t ) du pendule lui-même, on a affaire à un système
mécanique pour lequel :
. si on déplace l’extrémité E lentement (à une fréquence ν faible), le pendule « suit » : son amplitude est importante et
il est en phase avec la sinusoïde d’excitation.
. si on déplace l’extrémité E plus rapidement (à une fréquence ν plus grande), le pendule suit moins bien : son
amplitude décroît et il est en retard (déphasage de − π / 2 ) avec la sinusoïde d’excitation.
. enfin, pour des fréquences encore plus élevées, le pendule « ne répond plus » : son amplitude est nulle et son retard de
phase a atteint − π , il est en opposition de phase).
%
x(t )
% %
x(t ) x(t )
E
%
y (t )
y(t )
y (t ) fréquence faible fréquence élevée
Ce système est du type « passe-bas », ce qui signifie qu’il répond aux basses fréquences, mais qu’à partir d’une certaine
fréquence il ne répond plus.
Soit H (ν ) la Réponse en Fréquence de ce système. On a donc la représentation :
1.1 0.1 0
1
H( ν )
0.5
arg( H( ν ) ) 1
0.016 1.555 2
0
0.1 1 10 100 0.1 1 10 100
0.1 ν 100 0.1 ν 100
(échelle logarithmique) (échelle logarithmique)
Plus généralement, la théorie de la relativité dit que le temps de réponse d’un système physique ne peut être inférieur au
temps de propagation de la lumière et donc que tous les systèmes physiques ne peuvent répondre à des sollicitations de
fréquence infiniment élevées : on dit qu’un système physique est « passe-bas » : il « coupe » les hautes fréquences.
H (ν ) = H ( p = i 2πν )
3. 16
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
Soit Φ un filtre linéaire excité par un signal sinusoïdal de fréquence ν . Φ étant linéaire et stationnaire,
sa sortie est une sinusoïde atténuée (ou amplifiée) et retardée (de τ ) (≡ déphasée de ϕ = 2π ντ ) par
rapport au signal d’entrée. En excitant Φ successivement par 2 signaux sinusoïdaux de fréquence ν1 et
ν 2 , on a :
3. 17
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
φ( α ) 0
2πν ⎞ ∆
Allure du tracé de Arctg ⎛⎜ ⎟ = φ (α ) :
⎝ −α ⎠
2
20 10 0 10 20
α
On peut remarquer que si on veut accroître la rapidité d’un filtre (diminuer son temps de réponse), il
faut lui procurer une avance de phase. Un retard de phase ralentit un filtre.
1 1
y1( t ) y2( t )
Γ( t ) Γ( t)
0 0
0.5 0.5
0 5 10 0 5 10
1 t 10 1 t 10
3. 18
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
Si f (t ) ⎯⎯
TL
→ F ( p) alors f (t − τ ) ⎯⎯
TL
→ F ( p) e − p τ
− pτ
Un facteur e dans une fonction H ( p) indique un retard d’un temps τ du signal h( t ) = TL
−1
[ H ( p)] .
Le régime permanent de la réponse indicielle : lim r (t ) , est égal à la valeur de la FT H(p) en p = 0 : H(0) :
t →∞
lim r (t ) = H (0)
t →∞
Une autre façon d’établir ce résultat est d’exprimer directement H ( 0) à partir de la définition de la TL ou de
∞ ∞ ∞
la TF : H (0) = H ( p) p = 0 = ∫ h(t )e − pt dt = H (ν ) ν = 0 = ∫ h(t )e − i 2π νt dt = ∫ h(t )dt où
−∞ p=0 −∞ ν =0 −∞
3. 19
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
Exemples :
1
- Soit le système de FT H ( p) =
p+a
Ce système ne comprend qu’1 seul mode h1 (t ) , car H ( p) ne possède qu’1 seul pôle. ( H ( p) du 1er ordre)
−1
Mode : h1 ( t ) = TL [ H ( p)] = e − at Γ (t )
1
- Soit le système de FT H ( p) = . Pour faire apparaître les 2 sous-systèmes élémentaires, on
p + 3p + 2 2
1 1 1
décompose H(p) en éléments simples : → H ( p) = = − = H1 ( p) + H 2 ( p)
( p + 1)( p + 2) p + 1 p + 2
et : h(t ) = h1 (t ) + h2 (t )
t t t
0 0 0
a<0 a>0 a=0
Lorsque les pôles sont complexes conjuguées, ils se combinent pour ne former qu’1 seul mode (et non 2).
h(t) h(t) h(t)
t t t
0 0 0
a<0 a>0 a=0
3. 20
Signaux & systèmes 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
i(t)
u(t) R y(t)
C
⎧u (t ) − y (t ) = Ri (t ) dy (t )
Lois de Kirschoff : ⎪ → RC + y (t ) = u (t ) (1)
⎨ dy (t )
⎪⎩i (t ) = C dt dt
Système du 1er ordre et de nature passe-bas (élimination des composantes de u(t) de fréquence > ν = 1 )
2πRC
0
Systèmes mécaniques
Intégrateur mécanique à TC Entrée : force f(t) - Sortie : position x(t) par rapport à x0
k
k : coeff. de frottement élastique
a M f(t)
a : coeff. de frottement visqueux
__________
3. 21
Signaux & systèmes TD 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
t
-T/2 T/2
0
II. SYSTEMES
1. Fonctions propres des filtres linéaires
Montrer que les exponentielles imaginaires (signaux sinusoïdaux) sont les fonctions propres des filtres
linéaires:
x (t ) = e i 2πνt H(ν) y (t ) = H (ν ) ⋅ x(t )
2. Filtre intégrateur
t
1
T t −∫T
Soit le filtre linéaire défini par la relation d'entrée-sortie: y (t ) = x(θ )dθ (T > 0 )
- Déterminer sa FT H(ν )
- Tracer H (ν ) et Arg H (ν )
- Déterminer et tracer la RI du filtre.
3. Modulation - démodulation
On considère le signal f(t) et sa Transformée de Fourier donnés dans le schéma ci-après :
f(t) F(ν ) Spectre de f(t)
t ν
0 −ν m 0 νm
Soit g(t) = cos 2πνct et νc > 2νm déterminer h(t) = g(t).f(t) et H(ν) = TF[h(t)].
Comment peut-on retrouver f(t) à partir de h(t) ?
TD 3. 1
Signaux & systèmes TD 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
3. Transformation de Wigner-Ville
Les signaux tels que les signaux modulés en fréquence ou encore le signal parole constituent des
exemples de signaux non stationnaires. Dans ce cas, la décomposition spectrale ne peut être que
difficilement obtenue par TF. On peut alors utiliser la Transformation de Wigner-Ville d'un signal x(t)
défini par :
∆ ∞
⎛ τ⎞ ⎛ τ⎞
TWV [x(t )]= ∫ x⎜ t + ⎟.x∗ ⎜ t − ⎟.e − i 2πντ dτ = X (ν , t ) x* : conjugué de x
−∞
⎝ 2⎠ ⎝ 2⎠
Le résultat, fonction de ν et t permet une analyse dans l'espace Temps-Fréquence.
iπ α t 2
- Soit le signal harmonique modulé en fréquence : x ( t ) = e ; calculer la TWV [x(t)]
- Soit le signal harmonique stationnaire classique : y ( t ) = ei 2π f1t ; calculer la TWV [y(t)]
et montrer qu'elle se réduit à la TF de y(t).
4. Transformée de Hilbert
On appelle Transformation de Hilbert ( TH ) d'un signal x(t), la réponse xˆ (t ) à x(t) du filtre de FT :
sgn (ν)
1
−i à ν > 0 H (ν ) = −i.sgn(ν ) avec : ν
H (ν ) = → -1
+i à ν < 0 sgn(ν ) : fonction signe
x(t ) ⎯⎯→
TH
xˆ (t ) = x(t ) * h(t ) avec : h(t ) = TF −1 [− i ⋅ sgn(ν )]
TD 3. 2
Signaux & systèmes TD 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
x(t) y(t)
2π
1
t t
0 a T 2T 3T 0 2π
∞
sin 2 kt
En déduire l'expresssion de S= ∑
k =1 2k
en fonction de x(t) et y(t).
II. SYSTEMES
2. Suppression d’échos
Considérons un système dont la Réponse Impulsionnelle h(t) est composée d'un train d'impulsions, i.e. :
∞
h( t ) = ∑ h δ (t − nT )
n =−∞
n
TD 3. 3
Signaux & systèmes TD 3. Représentations Fréquentielles des Signaux & des Systèmes à TC
3. Considérons maintenant le cas où nous voulons supprimer d'un signal acoustique les échos. Supposons, par
exemple, que dans un auditorium il y a écho, i.e. une impulsion acoustique initiale est suivie par des versions
atténuées du même son à des intervalles régulièrement espacés dans le temps. Nous pouvons modéliser ce
phénomène comme étant la sortie d'un SLI avec RI :
∞
h(t ) = ∑ hnδ (t − nT )
n=0
où T est le temps en secondes pour qu'un écho apparaisse et hk est le gain du k-ième écho.
Notons par x(t) le signal acoustique d'origine et y(t) = x(t) * y(t) est le signal qui arrive à l'entrée du microphone
et qui se traduit en signal électrique qui sera aussi noté par y(t).
Pour supprimer les échos, le signal électrique y(t) passe à travers un SLI de RI g(t) déterminé de façon que la
∞
sortie soit égale à x(t). Supposons que g ( t ) = ∑
n=0
g nδ (t − nT ) .
Etablir la relation des coefficients gn avec hn.
__________
TD 3. 4
Signaux & systèmes TP 3. RF des Signaux & Systèmes à TC
T
T := 1 N := 2 t := 0 , 0 + .. N ⋅ T Γ ( t) := Φ ( t)
10
T N
x0( t) := 1 if t ≤
2 x1( t) := x0( t) ⋅ Γ ( t) x( t) :=
∑ x1( t − k⋅ T )
T k=0
0 if t >
2
1
a := 2 H ( p ) := H ( p ) invlaplace , p → exp( −2 ⋅ t) h ( t) := exp( −a ⋅ t) ⋅ Γ ( t)
p+a
y( t) :=
1.5
x( t ) y( t )
0
− 0.5
0 1 2
t 0 t 2
3. Représentation Fréquentielle d'un signal périodique à TC Décomposition en série de Fourier.
Signal périodique initial t := −4 ⋅ π , −4 ⋅ π + 0.1 .. 4 ⋅ π Phénomène de Gibbs
v( t) := if t ≥ 0
1 if mod ( t , 2 ⋅ π ) ≤ π
−1 otherwise
v( t ) 0
if t < 0
−1 if mod ( t , 2 ⋅ π ) > −π
1 otherwise 10 5 0 5 10
t
N+1 composantes du signal décomposé en séries de Fourier
Faire varier N de 0 à 100
N
4 sin[ ( 2 ⋅ k + 1 ) ⋅ t]
N := 0 u ( t) :=
π
⋅
∑ 2⋅ k + 1
2
k=0
u( t ) 0
2
10 5 0 5 10
t
TP 3. 1
Signaux & systèmes TP 3. RF des Signaux & Systèmes à TC
A := 1 t := − A , − A + 0.5 .. A f := − A , − A + 0.5 .. A ∆ ( f ) := ∞ if f = 0 u ( t) := Φ ( t)
0 otherwise
2
u( t )
0
2 0 2
t
Calcul direct Fonction intégrée
1 ∆( f )
h ( f ) := + if f ≠ 0
g ( f ) := i⋅ 2⋅ π ⋅ f 2
∞ otherwise
G( f ) := g ( f ) H ( f ) := h ( f )
307
1 .10
1
G( f ) H ( f )5 .10306
0
0
1 0 1
−1 f 1
f
5. Système à phase minimale
Faire varier le zéro de Y(p) pour faire apparaitre le cas de phase minimale et non minimale
a := 0 t := −1 , −1 + 0.1 .. 10 Γ ( t) := Φ ( t)
( p − a) H ( p) ( p − a)
H ( p ) := Réponse indicielle Y ( p ) := donc Y ( p ) :=
2 p 2
( 1 + p) p⋅ (1 + p)
y( t) := ( −a + a ⋅ exp( −t) + t⋅ exp( −t) ⋅ a + t⋅ exp( −t) ) ⋅ Γ ( t)
y( t )
0.5
Γ( t)
0
0 2 4 6 8 10
t
TP 3. 2
Signaux & systèmes TP 3. RF des Signaux & Systèmes à TC
0
0
M ( f ) 20
φ( f ) 1
40 3
0.1 1 10 100 1 .10 2 3
0.1 1 10 100 1 .10
f
f
50
0
0
M( f )
φ( f ) 2
50
100 3
0.1 1 10 100 1 .10 4 3
0.1 1 10 100 1 .10
f
f
TP 3. 3
Signaux & systèmes TP 3. RF des Signaux & Systèmes à TC
K
H ( p ) := h ( t) :=
1 + τ⋅ p
307
1.001× 10
h( t )
306
9.99× 10
−1 t 1
__________
TP 3. 4
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
⎛k⎞
Temps : x(t ) signal périodique (T) à TC → Fréquence : X k spectre à FD (Fréquences Discrètes) X ( kν ) ≡ X ⎜ ⎟
⎝T⎠
Temps : x(t ) signal quelconque à TC → Fréquence : X (ν ) spectre à FC (Fréquences Continues)
On devine (propriété de dualité) que pour un signal à TD, les propriétés vont s'intervertir et le spectre sera
périodique et à FC:
Temps : x(nT ) signal périodique (T’) à TD → Fréquence : X (ν ) spectre à FC et périodique (période 1/T)
Temps : x(nT ) signal quelconque à TD → Fréquence : X (ν ) spectre à FC et périodique (1/T)
« Temps » : x(n) signal à TD → Fréquence : X (ν ) spectre à FC et périodique (1)
Et on a la transformation inverse :
1 T /2 1/ 2
x(nT ) = ∫ X (ν ) ⋅ ei 2πνnT dν x ( n) = ∫ X (ν ) ⋅ ei 2πνn dν
T − T / 2 −1 / 2
Le spectre X (ν ) d'un signal à TD x(nT ) est continu (≡ à Fréquences Continues) et périodique de période 1/T.
∫ x(t )e
− pt
Rappel : TL d’un signal à TC : TL[ x(t )] = dt
−∞
4. 1
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
( n : entier relatif; T : réel; z : complexe; X(z) : généralement complexe même si x(nT) (ou x(n)) est réel ).
X ( z ) est la Représentation Fréquentielle du signal x (nT ) (ou x (n) ).
La TZ X ( z ) d’un signal à TD x(n) est donc un polynôme infini en z dont les coefficients sont les échantillons
x(n) et que l’on peut généralement réduire à une fraction rationnelle en z (rapport de 2 polynômes finis).
∞
+
La TZ monolatérale, notée TZ , s'écrit, pour une séquence x ( nT ) : X + ( z ) = ∑ x ( nT ) z − n .
n=0
Elle s'utilise comme c’était le cas pour la TL monolatérale, avec les signaux causaux.
Comme la TL monolatérale, la TZ monolatérale s’utilise chaque fois qu’il y a des Conditions Initiales
(CI) (non nulles !), les CI signifiant que l’on cherche un signal à partir d’une origine des temps précise.
Une transformée bilatérale, comme la TF ou la TL bilatérale ou la TZ bilatérale, ne peut être utilisée
en présence de CI, car celles-ci seraient alors englobées dans les transformées (et les tables de
transformation généralement établies pour des signaux causaux seraient inutilisables).
+
Par simplification de la notation, TZ+ est communément tout de même noté TZ et X ( z ) noté X ( z ) .
Comme pour la TL, la seule expression de X ( z ) en fonction de la variable z ne suffit pas à définir la
Transformée en z de la séquence temporelle x ( nT ) (ou x ( n) ).
Il faut aussi préciser le domaine de définition (ou domaine de convergence) de X ( z ) .
- Passage de la TL à la TZ :
−1 Echantillonnage
X ( p) ⎯TL
⎯→ x (t ) x (nT ) ⎯⎯
TZ
→ X ( z)
Z
On a donc : X ( p) ⎯
⎯Z → X ( z ) alors que : x ( nT ) ⎯⎯→ X ( z )
TZ
4. 2
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
Les fréquences ν, ν+F, ..., ν+kF où F = 1/T se retrouvent superposées au même point, du fait de la
périodicité de l’exponentielle imaginaire : c'est le repliement des fréquences :
Im p Im z
F
F/2
0 Re p Re z
0 1
-F/2
-F
- La partie causale : série entière en 1/z. Elle converge dans un anneau z > R1 : série de Laurent (*).
- La partie anticausale : série entière en z. Elle converge dans un disque z < R2 : série de Taylor.
- L'ensemble, qui n’est ni causal ni anticausal, converge dans l’anneau R1 < z < R2 (si R1 < R2 ).
∞
1 − q k +1 converge vers 1 si q < 1 et diverge sinon.
(* ) Rappel : ∑ q k = lim
k =0
k →∞ 1 − q 1− q
Γ (n )
1
n
-3 -2 -1 0 1 2 échelon causal
∞
TZ[ Γ (n)] = ∑ z − n = 1 + z −1 + z −2 +...+ z − n +... = série géométrique de raison q = z −1
n= 0
1 − q n +1 1 z
TZ[ Γ (n)] = lim = si z −1 < 1 soit : TZ[ Γ (n)] = si z > 1 et :
n →∞ 1 − q 1 − z −1 z −1
Γ (n) − 1
-3 -2 -1
n
0 1 2
-1 échelon anticausal
−1 ∞
1 z
TZ[Γ(n) − 1] = − ∑ z − n = − ∑ z k = − z (1 + z + z 2 +...) = − z ⋅ = si z <1
n =−∞ k =1 1− z z −1
4. 3
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
Dictionnaire :
4. 4
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
n=0 n=0 p =− k
⎛ −1 ⎞ −1
Y + ( z) = TZ + [ y (n) = x (n − k )] = z − k ⎜ ∑ x ( p) z − p + X + ( z)⎟ = z − k X + ( z) + z − k ∑ x ( p) z − p
⎝ p =− k ⎠ p =− k
k −1
Y + ( z ) = TZ + [ y (n) = x (n − k )] = z − k X + ( z ) + ∑ x (m − k ) z − m
m= 0
+ + −1 +
Exemple : k=1: Y ( z) = TZ [ y (n) = x (n − 1)] = z X ( z ) + x ( −1)
k=2: Y + ( z) = TZ + [ y (n) = x (n − 2)] = z −2 X + ( z ) + x ( −2) + x ( −1) z −1
Illustration : Soit la séquence xn :
x
n
1
n
-3 -2 -1 0 1 2 X ( z ) = z 2 + z + 1 + z −1 X + ( z) = 1 + z −1
y = x
n n-1
1
n
-2 -1 0 1 2 3 Y ( z ) = z + 1 + z −1 + z −2 = z + Y + ( z ) Y + ( z ) = z −1 X + ( z) + x ( −1) = z −1 + z −2 + 1
Th. général du retard: Y ( z) = z −1 X ( z) Y + ( z ) ≠ Y ( z ) car la séq. y n est non causale
y = x
n n-2
1
n
-1 0 1 2 3 4 Y ( z ) = 1 + z −1 + z −2 + z − 3 = Y + ( z ) Y + ( z ) = z −2 X + ( z ) + x ( −2) + x ( −1) z −1 = 1 + z −1 + z −2 + z −3
Th. général du retard: Y ( z) = z −2 X ( z) Y + ( z ) = Y ( z ) car la séquence y n est causale
Démonstration de la ligne 4 du dictionnaire :
∞ ∞ ∞
Y + ( z ) = TZ + [ y (n) = x (n + k )] = ∑ x (n + k ) z − n = z k ∑ x (n + k ) z − ( n + k ) =z k ∑ x ( p) z − p
n=0 n=0 p= k
⎛ k −1 ⎞ k −1
Y + ( z ) = TZ + [ y (n) = x (n + k )] = z k ⎜ X + ( z ) − ∑ x ( p) z − p ⎟ = z k X + ( z ) − z k ∑ x ( p) z − p
⎝ p=0 ⎠ p=0
k −1
Y + ( z) = TZ + [ y (n) = x (n + k )] = z k X + ( z) − ∑ x (m) z k − m
m= 0
4. 5
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
- Notes :
- Pour les signaux à TD, la TZ est la Représentation Fréquentielle la plus adaptée et la plus utilisée.
- La TZ modifiée X(z,m), variante paramétrée (m) de la TZ, est peu utilisée. Elle présente par rapport à la TZ l'avantage de connaître la
séquence x(n) non seulement aux instants discrets n, mais également entre les instants d’échantillonnage (donc à tout instant) du fait
de l’interpolation à l’aide du paramètre m. Avec des fréquences d'échantillonnage élevées, la TZ modifiée perd de son intérêt.
- De la même façon que la TF des signaux à TC peut s'utiliser pour les signaux à TD en transformant les signaux à TD en signaux à
TC, on peut utiliser la TZ pour les signaux à TC en les échantillonnant.
4. 6
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
∫z dz = i 2π δ
n
Rappel : Théorème de Cauchy : n , −1
+
C
∫z dz = i 2π n = −1, = 0 sinon
n
c’est-à-dire : si
C+
avec n entier relatif et C+ cercle de rayon quelconque et de centre 0 parcouru dans le
sens trigonométrique.
∞
Considérons l'équation de définition de la TZ : X ( z) = ∑
m=−∞
x (m) z − m
Multiplions les 2 membres par zn-1 et intégrons sur C+ inclus dans l'anneau (R1,R2) de
convergence de X ( z ) . D'après le théorème de Cauchy, tous les termes auront une
contribution nulle sauf pour m = n et on a :
1
∫ X ( z) z
n −1
x ( n) = dz
i 2π C+
Comme pour la TL cette formule d'inversion est rarement employée (intégrale de variable complexe).
Le théorème des résidus donne immédiatement une autre expression de x(n) :
C+
0 Re z
R1 R2
On obtient les résidus par la même formule que pour la décomposition en éléments simples :
- pour un pôle simple pj : Res pj = lim ( z − p j ) z n −1 X ( z )
z→ p j
d k −1
- pour un pôle multiple p0 d’ordre (≡ de multiplicité) k : Res p0 = lim
1
z → p0 ( k − 1)! dz k − 1 [
( z − p 0 ) k z n −1 X ( z ) ]
4. 7
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
(4) Inversion par division de polynômes suivant les puissances croissantes de z-1
dans le cas d'une convergence du type z > R1 (≡ séquence causale)
(Si la séquence est anticausale, on divise suivant les puissances croissantes de z)
Cette méthode est utilisable très généralement, une fonction X ( z ) s’exprimant le plus souvent
comme un rapport de deux polynômes en z.
Contrairement aux autres méthodes d’inversion, la séquence x(n) est ici récupérée échantillon par
échantillon, et pour avoir une expression analytique de x(n) (≡ expression non récursive du terme
général de x(n)), donc en fonction de n uniquement), il faut trouver une récurrence, ce qui n’est pas
toujours évident.
Cette technique est facilement programmable sur calculateur: ( x(n) est ici noté plus simplement xn )
m
∑a z i
−i
∞
Algorithme récursif : Soit à inverser : X ( z) = i =0
k
= ∑ xn z − n ( xn causale)
∑b z
i =0
i
−i n =0
k m k m
1 ⎡m k
⎤
∑b z X ( z ) = ∑ ai z −i ⎯TZ
⎯→ ∑ bi xn−i = ∑ ai δ n−i ∑ ∑
−1
→ i
−i
⎯ → xn = ⎢ a i δ n − i − bi xn−i ⎥
i =0 i =0 i =0 i =0 b0 ⎣ i =0 i =1 ⎦
⎡ 1 k
⎤ 1 ⎡ n
⎤
xn = ⎢an − ∑ bi xn − i ⎥ ⎯⎯ ⎯⎯→ xn = ⎢ n ∑ bi xn − i ⎥ Terme général récursif
a −
x ( n ) causale
soit :
⎣ b0 i =1 ⎦ b0 ⎣ i =1 ⎦
z
Exemple : X (z) =
z −1
Si une séquence causale est recherchée, on divise les polynômes de X ( z ) ordonnés suivant les
−1
z :
puissances croissantes de
∞
1
X (z) =
1− z −1
= 1 + z −1
+ z −2
+ ... = ∑
n= 0
z − n = TZ[ Γ (n)] (converge pour z >1 )
Si une séquence anticausale est recherchée, on divise les polynômes de X ( z ) ordonnés suivant les
puissances croissantes de z :
∞ −1
z
X ( z) = − = − ( z + z 2 + z 3 +...) = ∑ z − n = − ∑ z − n = TZ[ Γ (n) − 1] (converge pour z < 1)
1− z n=0 n = −∞
X ( z)
∑a i z −i
Lorsque X ( z) est impliqué dans un rapport : = i =0
k
U ( z)
∑b
i =0
i z −i
On aboutit à une équation aux différences récursive facilement programmable, en inversant, par
l'utilisation du dictionnaire de la TZ (formule de retard), l'expression précédente développée en
produit croisé :
k m k m
X ( z) ⋅ ∑ bi z − i = U ( z ) ⋅ ∑ ai z − i ⎯TZ
⎯→ ∑ bi x (n − i ) = ∑ ai u(n − i )
−1
⎯
i =0 i =0 i=0 i =0
4. 8
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
Propriétés de la TZ :
(1) TL et TZ : On obtient la TL (discrète) d’une séquence x ( n) (resp. x (nT ) ) par passage TZ - TL :
X ( p) = X ( z = e p ) (resp. X ( p) = X ( z = e pT ) ) ↔ z = ep (resp. z = e pT )
x (n = +∞) = lim ( z − 1) X ( z )
z →1
Dém. : Soit {x(n)} une séquence et {y(n)} la séquence définie par : y(n) = x(n+1) - x(n)
avec {x(n)} telle que {y(n)} soit sommable en valeur absolue.
∞
On a, d'après la définition de la TZ : ∑ y(n) = lim Y ( z)
n =−∞
z →1
4. 9
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
⎡ ∞ ⎤ ∞
⎡ ∞ ⎤ ∞
⎡ ∞ ⎤
[ ]
TZ ϕ xy ( n) = TZ ⎢ ∑ x ( k ) y ( k + n) ⎥ = ∑ ⎢ ∑ x ( k ) y ( k + n) ⎥ z − n = ∑ ⎢ ∑ x ( k ) y( k + n) ⎥ z − ( n + k ) z k
⎣ k = −∞ ⎦ n = −∞ ⎣ k = −∞ ⎦ n = −∞ ⎣ k = −∞ ⎦
∞
⎡ ∞
⎤ ∞ ∞ ∞ ∞
= ∑ ⎢ ∑ x ( k ) z k y ( k + n) z − ( n+ k ) ⎥ = ∑ ∑ x ( k ) z k y (u) z − u = ∑ x ( k ) z k ∑ y( u) z − u = X ( z −1 )Y ( z )
n =−∞⎣ k =−∞ ⎦ k =−∞ k =−∞ k =−∞ k =−∞
ANNEXE
4. 10
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
1 Te − aT z −1
10 te − at kTe − akT
( s + a)2 (1 − e − aT z −1 ) 2
s 1 − (1 + aT ) e − aT z −1
11 (1 − at ) e − at
(1 − akT ) e − akT
( s + a)2 (1 − e − aT z −1 ) 2
2 T 2 e − aT (1 + e − aT z −1 ) z −1
12 2
t e − at
( kT ) e 2 − akT
(s + a) 3 (1 − e − aT z −1 ) 3
a2 ( aT − 1 + e − aT ) + (1 − e − aT − aTe − aT ) z −1 z −1
13 at − 1 + e − at
akT − 1 + e − akT
s2 ( s + a ) (1 − z −1 ) 2 (1 − e − aT z −1 )
4. 11
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
X(s) ←⎯
TL
⎯ x(t) x(kT) ou x(k) ⎯⎯
TZ
→ X(z) ←
⎯Z⎯ X(s)
20 ... ... a k −1 k = 1,2,3... z −1
1 − az −1
... ... ka k −1 z −1
21
(1 − az −1 ) 2
... ... z −1 (1 + az −1 )
22 2
k a k −1
(1 − az −1 ) 3
... ... k 3 a k −1 z −1 (1 + 4 az −1 + a 2 z −2 )
23
(1 − az −1 ) 4
... ... k 4 a k −1 z −1 (1 + 11az −1 + 11a 2 z −2 + a 3 z −3 )
24
(1 − az −1 ) 5
1 ⎡ ⎛ T⎞ T⎤
25 t⎞ −t kT ze − T /τ ⎢ z⎜ −1 + e T /τ − ⎟ − 1 + e − T /τ + ⎥
s(1 + τ s) 2 ⎛ kT −
⎣ ⎝ τ ⎠ τ⎦
1 − ⎜1 + ⎟ e T 1 − (1 + )e τ
⎝ τ⎠ τ ( z − 1)( z − e − T /τ 2
)
1 ′
26 ω0 ′ ... ω0 ze − mω 0 T sin(ω 0 T )
2m s2 e − mω 0 t
sin ω 0 t
1+ s+ 2 D D z 2 − 2 ze − mω 0 T cos(ω ′ T ) + e −2 mω 0 T
ω0 ω0 avec :
0
D = 1 − m2
ω ′ = ω 1 − m2
0 0
avec :
D = 1 − m2
E = e − mω 0t
ω 0′ = ω 0 1 − m2
ψ = Arc cos m
Cas 0 < m < 1
4. 12
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
TZ TZ
Y ( z)
avec : H ( z ) = TZ [ h( n)] (ou: H ( z ) = TZ [h(nT )] ) : Fonction de Transfert (FT) du SLTI : H ( z ) =
X ( z)
Comme la RI h(n) (hors CI), la FT H(z) caractérise complètement (hors CI) le SLTI à TD.
La FT (comme la RI) n’a de sens que si le système est linéaire (la TZ est linéaire).
Si le système est stationnaire: la FT H(z) ne dépend pas du temps, la RI h(n) ne dépend que du temps n.
S’il n’est pas stationnaire: la FT H(z,n) dépend du temps, la RI h(n,k) dépend du temps n et de l’origine des temps k
(double dépendance
temporelle)
- Dualité Temps-Fréquence :
Temps Fréquence
- RI : h(n) ⇔ - FT : H(z)
- SLTI ⇔ - Filtre linéaire
- STI ⇔ - Filtre
- Relation Entrée-Sortie : Convolution ⇔ - Relation Entrée-Sortie : Produit
- Relation Entrée-Sortie d’un SLTI ⇔ - H(z) est une fraction rationnelle (fractionnelle) en z
Equation aux différences linéaire à coeff constants ≡ Quotient de 2 polynômes en z : (CI) nulles
(à coeff constants ≡ stationnaire)
( avec Conditions Initiales (CI) supposées nulles ) m
TZ
Y ( z)
∑a z i
−i
p m → H ( z) = = i =0
:
∑ bi y(n − i ) = ∑ ai x(n − i ) X ( z) p
i =0 i =0 ∑b z
i =0
i
−i
- Application :
La TZ monolatérale se prête très bien à la détermination de la réponse d’un système à TD à un signal à
TD par utilisation de la FT du système.
4. 13
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
k k k k
0 0 0 0
∞
Démonstration de la CNS : EBSB ⇔ ∑ h( n) < ∞
n =−∞
(1)
∞
Condition suffisante : EBSB ⇐ ∑ h ( n) < ∞
n =−∞
Si (1) est vraie alors x(n) bornée implique y(n) bornée; en effet : x ( n) < N implique y ( n) < M :
+∞ ∞
y ( n) = ∑ h( k ) x ( n − k ) ≤
k =−∞
∑ h( k ) . N < ∞
k =−∞
∞
Condition nécessaire : EBSB ⇒ ∑ h ( n) < ∞ (On rappelle que l’implication a⇒b est équivalente à b⇒a)
n =−∞
Il suffit de montrer que si (1) est fausse, il existe une séquence bornée x ( n) qui provoque y (n) = ∞ :
+∞
+1 si h( − n) > 0
(1) fausse : ∑ h( k ) = ∞
k =−∞
Soit alors x(n) telle que : x ( n) = −1 si h( − n) < 0
0 si h( − n) = 0
Un telle séquence x(n) est évidemment bornée. Montrons alors que y(0) est infini :
+∞ +∞ +∞
y (n) = ∑ x( k )h(n − k ) soit pour n = 0 : y(0) =
k =−∞
∑ x( k )h( − k ) donc : y(0) =
k =−∞
∑ h( k ) = ∞
k =−∞
- Fréquence :
Traduite en fréquence, cette CNS devient :
Pour qu’un système de FT H(z) soit stable, une CNS est que tous les pôles de H(z) aient un module
inférieur à 1, pour un système causal (le cas = 1 est un cas limite) (cf. dém. pour les systèmes à TC).
(Pour un système anticausal (≡ système de RI nulle pour n > 0), la CNS de stabilité serait que les pôles
de H(z) soient à module supérieur à 1).
Comme à TC, la CNS de stabilité peut tout aussi bien s ’appliquer aux signaux : pour qu’un signal x(kT) ne
tende pas vers l’infini lorsque k → ∞ , il faut et il suffit que les pôles de sa FT X(z) aient un module ≤ 1.
1
Exemple : TZ de l’échelon : TZ[ Γ ( kT )] =
1 − z −1
Remarque : Pour un système causal à TC, on a vu que la CNS de stabilité est que tous les pôles soient à
partie réelle négative, ce qui entraîne bien, pour un système causal à TD, que les pôles aient un module
inférieur à 1, du fait de la relation de passage TC → TD : z = e
pT
(séquence échantillonnée) :
p = a + jb → z= e aT
.e jbT
et Re( p) < 0 → a < 0 → z = e aT < 1
module phase
(le demi-plan gauche de Laplace correspond au disque de rayon inférieur à 1).
4. 14
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
Interprétation
Elle est à observer sur un intervalle temporel de longueur 1 / T (1) (resp. de longueur 1 (2)) en n’oubliant pas
les fréquences < 0 propres à la Représentation Fréquentielle.
H (e i 2πνT ) est donc à observer sur l’intervalle ⎡− 1 , 1 ⎤ (1) et à interpréter ( ν ≥ 0 ) sur ⎡0, 1 ⎤
⎢⎣ 2T 2T ⎥⎦ ⎢⎣ 2T ⎥⎦
ν
1 0 1
−
2T 2T
La fréquence numérique ν = 0 correspond à la fréquence analogique ν = 0 .
1
La fréquence numérique ν= dans la RF d’un signal à TD doit être interprétée comme la fréquence analogique
2T
ν = ∞ de la RF d’un signal à TC pour déterminer le gabarit du filtre linéaire : en effet, la RF analogique non
périodique peut être vue comme périodique de période infinie. Dans cet exemple, le filtre numérique de FT H(z) est donc de type
passe-bas.
4. 15
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
Si f ( kT ) ⎯⎯
TZ
→ F ( z) alors f [( k − m)T ] ⎯⎯
TZ
→ z − m ⋅ F ( z)
Un facteur z − m dans une fonction H ( z) indique un retard de m échantillons de la séquence TZ −1 [ H ( z )]
donc un retard d’un temps τ = mT pour une séquence échantillonnée h( kT ) = TZ [ H ( z )] .
−1
Une autre façon d’établir ce résultat est d’exprimer directement H (1) à partir de la définition de la TZ :
∞ ∞
H ( z) = ∑ h ( n) z
n =−∞
−n
→ H (1) = ∑ h (n)
n =−∞
où h(n) est la RI du système.
La réponce indicielle r (n) s’obtient par la relation de convolution :
∞ ∞ n
r (n) = h(n)∗ Γ (n) = ∑ h ( n − k ) Γ ( k ) = ∑ h( n − k ) =
k =−∞ k =0
∑ h( k )
k =−∞
∞
Le régime permanent de la réponse indicielle rrp (n) = lim r (n) est donc égal à
n→∞
∑ h( k ) = H (1) .
k =−∞
4. 16
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
- Mode h( k ) de pôle z0 réel > 0 : (mode non oscillant ou encore non alterné)
h(k) h(k) h(k)
k k k
0 0 0
z0 > 1 z0 < 1 z0 = 1
k k k
0 0 0
z0 > 1 z0 < 1 z0 = 1
⎧ y ( k ) = (1 + I ) y ( k − 1) + u( k ) (1)
y( k ) = y( k − 1) + I y( k − 1) + u( k ) → ⎨
⎩CI y ( −1) u( k < 0) = 0 (u( k ) causal)
- 2nd cas : Capital initial non nul : y ( −1) = y −1 (CI non nulles)
TZ(1) : Y ( z) = (1 + I )( z −1Y ( z) + y −1 ) + U ( z) → Y ( z) = H ( z)U ( z) + H ( z)(1 + I ) y −1
Réponse fréquentielle
1 1
H (ν ) = =
1 − (1 + I )e − i 2 πν
[1 − (1 + I ) cos( 2πν )] + i[(1 + I ) sin( 2πν )]
4. 17
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
1 ⎛ (1 + I ) sin(2πν ) ⎞
H (ν ) = Arg[ H (ν )] = − Arctg ⎜ ⎟
[1 − (1 + I ) cos(2πν )]2 + [(1 + I ) sin(2πν )]2 ⎝ 1 − (1 + I ) cos(2πν ) ⎠
H(ν )
4
0
0 1/2 5 ν
(tracé pour I = 25% !)
Système du 1er ordre et de nature passe-bas (élimination des composantes de u(k) de fréquence élevée).
Le système étant passe-bas, les fluctuations rapides de l’investissement (HF, Hautes Fréquences) ne seront pas
prises en compte (filtrage passe-bas).
SYSTEMES DEMOGRAPHIQUES
Elevage d’animaux à TD Entrée : croisement / mortalité u(k) - Sortie : nombres de couples y(k)
On observe un élevage d'animaux qui obéit aux lois suivantes : chaque mois un couple, s'il est fertile,
engendre (après une gestation d’1 mois) 1 couple nouveau-né, et cela indéfiniment. Un couple
nouveau-né devient fertile au bout d'1 mois et le reste constamment.
La mortalité et le croisement sont supposés ne concerner que les nouveaux-nés.
Un nombre de couples u(k) < 0 traduit la mortalité (ou la vente !) des couples nouveaux-nés. u(k) > 0
indique un croisement (immigration, introduction d’une population extérieure de couples nouveaux-nés).
L'élevage débute au mois numéro 0.
On cherche à déterminer le nombre de couples y(k) le k-ième mois, présents dans l'élevage.
Exemple : avec u (k ) = δ (k ) :
k=0 k=1 k=2 k=3 k=4 ...
fertilité vieillissement
...
engendrement
} { } {
f(k-2)
f(k-1)
nn(k-2) f(k)
nn(k-1)
nn(k)
⎧ y (k ) = y (k − 1) + nn(k )
⎧ y (k ) = y (k − 1) + y (k − 2) + u (k )
On a : ⎪nn(k ) = f ( k − 1) + u (k ) → ⎨ (1)
⎨
⎪ f (k ) = y (k − 1) ⎩avec y (k < 0) = 0
⎩
4. 18
Signaux & systèmes 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
Les Conditions Initiales (CI) y (−2) et y (−1) étant nulles, la TZ(1) donne :
Y ( z) 1
Y ( z ) = z −1Y ( z ) + z −2Y ( z ) + U ( z ) → H ( z) = =
U ( z ) 1 − z − z −2
−1
__________
4. 19
Signaux & systèmes TD 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
1. Transformée en z de δ(n)
∞ ∞
- Montrer que : TZ [δ (n)] = 1 et calculer la TZ de : 1 ( = |_|_|1(n) = ∑δ n ,k = ∑ δ (n − k ) ).
k = −∞ k = −∞
∞ ∞
- Calculer la TZ du peigne de Dirac causal de largeur M : |_|_|M (n) = ∑δ
k =0
n , kM = ∑ δ (n − kM )
k =0
(M entier)
n
-3 -2 -1 0 1 2 3 4 5
II. SYSTEMES
1. Versions causale et non causale d’un même filtre [voir TP]
1 Y ( z)
On considère le filtre numérique de FT : H ( z) = = où α est un paramètre réel du filtre.
1−α z −1
X ( z)
1. Donner l’équation aux différences du filtre.
2. En déduire sa version causale.
3. Donner la version non causale du même filtre.
4. On prend α = 0.7 . Vérifier la stabilité du filtre causal et l’instabilité du filtre non causal :
- en appliquant le critère général de stabilité
- en traçant la RI de chacun des 2 filtres.
5. α = 0.7 : Vérifier la stabilité/instabilité du filtre respectivement causal/non causal sur signal parole (TP).
TD 4. 1
Signaux & systèmes TD 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
TD 4. 2
Signaux & systèmes TD 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
I. SIGNAUX
1. Transformée en z inverse
A
Déterminer la TZ-1 de X ( z) =
z − z0
5. Théorème de la somme en z
Montrer la propriété de la TZ sur la somme :
n
z
si x (n) ⎯⎯
TZ
→ X ( z ) alors ∑ x( k ) ⎯⎯→ X ( z). z − 1
k =−∞
TZ
9. Transformée en z de séquences
Donner la TZ des signaux causaux suivants :
u( k ) tel que : u(0) = 1 u(1) = 4 u(2) = 16 u(3) = 64 u(k ≠ 0, 1, 2, 3) = 0
v ( k ) tel que : v(0) = 0 v(1) = 0 v(2) = 1 v(3) = 4 v(4) = 16 v(5) = 64 v(6) = 256 ...
w( k ) tel que : w(0) = 16 w(1) = 64 w(2) = 256 ...
TD 4. 3
Signaux & systèmes TD 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
II. SYSTEMES
1. Système Dynamique Discret (SDD)
On considère une caisse d’épargne dans laquelle le client dépose chaque mois une somme d’argent u( k )
(s’il s’agit d’un retrait, u( k ) est négatif; si u( k ) = Constante, on a un système dynamique) placée au taux
d’intérêt mensuel I; le calcul des intérêts est le suivant : le i ième mois, l’intérêt est calculé sur l’argent (capital
et intérêt) en dépôt à la fin du (i-1) ième mois.
Chaque mois, le client dispose donc d’une somme d’argent y ( k ) qui représente la totalité de ses dépôts
antérieurs augmentée des intérêts acquis.
1. Déterminer l’équation de fonctionnement de la caisse d’épargne, c’est-à-dire y ( k ) en
fonction de y ( k − 1) , u( k ) et I.
- Quelle est la condition initiale y( −1) , sachant que le 1er dépôt intervient à partir du mois 0 ?
2. Le client dépose 100 F chaque mois dès le mois 0.
- Donner y ( k ) en fonction de k et I.
- Calculer y(11) : capital au bout d’un an ( on prendra I = 0.005 (≈ 5% annuel) ).
- Exprimer Y ( z ) en fonction de U ( z ) . Retrouver y ( k ) par TZ Inverse.
3. Le client dépose 100 F chaque mois à partir du mois 0 mais pendant 3 mois seulement.
- Calculer y ( k ) . En déduire y(11) .
2. Générateur d’échos
Soit le filtre (générateur d’échos) :
x(nT) + y(nT)
retard T
α
- Forme récursive de ce filtre ?
- Forme non récursive ?
- RI du filtre ?
- Réponse à l'échelon unité ?
- Réponse à x ( nT ) = A cos(ω nT ) Γ ( nT ) avec A = 60 ω = 2π f f = 0.05 Hz T = 1 s et α = 0.3 ?
- Fonction de Transfert du filtre ?
- Condition de stabilité : - par la RI et - par la FT ?
TD 4. 4
Signaux & systèmes TD 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
P( z)
1. Donner la Fonction de Transfert H ( z ) = de ce système numérique.
U ( z)
2. Ce système est-il stable, donnant alors une population p( k ) bornée à partir d’une population d’entrée
u( k ) bornée ?
3. On commande le système en injectant la population u( k ) uniquement au démarrage de l’élevage :
u( k ) = δ ( k ) . Donner l’expression de la population p( k ) et tracer l’allure de son évolution en
précisant sur le tracé ses valeurs initiale p( 0) et finale p( ∞) .
4. On commande le système en injectant la population u( k ) régulièrement : u( k ) = Γ ( k ) .
Donner l’expression de la population p( k ) et tracer l’allure de son évolution en précisant sur le
tracé ses valeurs initiale p(0) et finale p( ∞) .
5. Stratégie de chasse
On considère une population p( k ) de cerfs évaluée en milliers d’unités périodiquement à la période T
( T = 1 an) comme sortie d’un système. La stratégie de chasse consiste (c’est un minimum !) à ne pas faire
que cette population tombe en extinction en limitant la population u( k ) de cerfs tués chaque année.
u( k ) est donc ici considéré comme l’entrée du système modélisé par un Système Dynamique Discret non
linéaire : p( k + 1) = 18
. p( k ) − 0.8 p 2 ( k ) − u( k )
u( k ) = b Γ ( k ) .
- La stratégie choisie consiste à effectuer une chasse fixe :
Déterminer numériquement l’évolution de la population de cerfs p( k ) avec b = 0.072 puis b = 0.24 .
u ( k ) = b p( k ) .
- La stratégie choisie consiste maintenant à effectuer une chasse proportionnelle :
Déterminer numériquement l’évolution de la population de cerfs p( k ) avec b = 0.4 , b < 0.8 puis b > 0.8
TD 4. 5
Signaux & systèmes TD 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
- Vérifier que la condition de stabilité du filtre causal est que tous les pôles de sa FT aient un module < 1.
- Vérifier que la condition de stabilité du filtre non causal est que tous les pôles de sa FT aient un module > 1.
- Comparer avec les filtres non causal/causal obtenus par renversement du temps des filtres causal/non causal.
TD 4. 6
Signaux & systèmes TD 4. Représentations Fréquentielles des Signaux & des Systèmes à TD
I. SIGNAUX
1. Programme de division de polynômes
Programmer l'algorithme de division de polynômes en z, suivant les puissances croissantes de z-1. Vérifier
l'algorithme sur différents signaux.
⎡ z ⎤ 1
Exemple : TZ −1 ⎢ = Γ(n) Faire la division à la main pour vérification.
⎣ z − 1⎥⎦ 1 − z −1
II. SYSTEMES
__________
TD 4. 7
Signaux & systèmes TP 4. RF Signaux Systèmes TD
II. SYSTEMES
1. Versions causale et non causale d'un même filtre [voir TD]
Y( z) 1
Soit le filtre défini par la FT H( z) := : H( z) := avec α = 0.7
X( z) −1
1 − αz
ORIGIN := −11 n := −11 .. 10 d := δ ( n , 0 ) x := d Γ n := Φ ( n ) α := 0.7
n n n
RI du filtre causal :
??? h :=
n
1.5
hn
−1
− 11 n 10
n
Vérification : h := α ⋅ Γ n
n
hn
0
20 10 0 10
n
RI du filtre non causal :
n := 10 , 10 − 1 .. −5
??? h :=
n
2
hn
−7
−5 n 10
n
Vérification : h := −α ⋅ Γ − n−1
n
0
hn
5 0 5 10
n
TP 4. 1
Signaux & systèmes TP 4. RF Signaux Systèmes TD
α = 0.7 : Stabilité / instabilité du filtre respectivement causal/non causal sur signal parole :
20
xn 0
20
0 200 400 600 800
n
20
108
yc n 0 ync n 2 .10
xn xn
20 0
108
40 2 .10
0 200 400 600 800 0 200 400 600 800
n n
TP 4. 2
Signaux & systèmes TP 4. RF Signaux Systèmes TD
ORIGIN := −5 n := −5 .. 10 d := δ ( n , 0 ) x := d Γ n := Φ ( n )
n n n
h := if n < 0 ???
n
if n = 0
1
if n > 0
hn
− 0.5
−5 n 10
h := ???
n
hn
− 0.5
−5 n 10
TP 4. 3
Signaux & systèmes TP 4. RF Signaux Systèmes TD
ORIGIN := −5 n := −5 .. 10 d := δ ( n , 0 ) x := d Γ n := Φ ( n )
n n n
RI du filtre :
??? h :=
n
hn
−5 n 10
??? y :=
n
yn
y =
3
−1
−5 n 10
__________
TP 4. 4
Signaux & systèmes 5. Echantillonnage - Interpolation - Quantification
x(t ) x(nT )
t
nT
0 0 T
ûT (nT )
x(t ) x x(nT ) x(t ) Echantillonnage x(nT ) = x(t ) ⋅ ûT (nT ) 1
... ...
ûT (nT ) nT
0 T
Pour n’avoir que des signaux de même nature (TC) et non de nature hybride (TC et TD) qui rend moins simple
*
l’analyse spectrale, on peut aussi, ce qui revient au même, prendre l’équivalent continu x (t ) du signal
échantillonné x ( nT ) pour déterminer son spectre. Le signal échantillonné est alors vu comme un signat à TC :
( ûT (t ) représente un peigne de Dirac continu)
ûT (t )
1
... ...
∞ ∞
t
x (t ) = x(t ) ⋅ ûT (t )
*
x * (t ) = x (t ) ∑ δ (t − nT ) = ∑ x(nT )δ (t − nT ) 0 T
n =−∞ n =−∞
Le signal échantillonné à TC x * (t ) est bien l’équivalent continu du signal échantillonné à TD x (nT ) car ils
ont la même TL : [ ]
TL x * (t ) = TL* [x(nT )] . En effet :
5. 1
Signaux & systèmes 5. Echantillonnage - Interpolation - Quantification
∑ x(nT )e
*
− nTp
x (nT ) ⎯⎯
TL
→
n =−∞
∞ ∞ ∇ ∞ ∞ ∞ ∞
⎯→ ∫
x* (t ) ⎯TL ∑ x(nT )δ (t − nT )e− pt dt = ∑ ∫ x(nT )δ (t − nT )e dt =
− pt
∑ x(nT ) ∫ δ (t − nT )e − pt dt
− ∞ n = −∞ n = −∞ − ∞ n = −∞ −∞
∇ : dans le domaine de convergence de la transformée
∞ ∞ ∞
TL[ x * (t )] = ∑
n =−∞
x (nT )e − pnT ∫ δ (t − nT )dt = ∑ x(nT )e
n =−∞
− pnT
−∞
x(t ) x *
x (t ) x(t ) Echantillonnage x (t ) = x(t ) ⋅ ûT (t )
*
ûT (t )
x(t) x*(t)
t t
0 0 T
*
On se propose de déterminer le spectre de x (t ) :
[ ]
TF x * (t ) = TF [x(t ) ⋅ ûT (t )] = TF [x(t )]* TF [ûT (t )] = X (ν ) * TF [ûT (t )]
[
Calculons tout d’abord TF ûT (t ) en posant : g (t ) = ûT (t )]
g (t ) = ûT (t ) est périodique de période T → Décomposition en série de Fourier :
∞ 2π 2π − ε +T 2π
ik t 1 − ik 1 − ik 1
∑G e
t t
g (t ) = k
T
et Gk = ∫ g (t )e T dt = ∫ε δ (t )e T
dt = (0 < ε << 1)
k =−∞ TT T −
T
∞ 2π
1 ik T t
d'où : g(t ) = ∑
k =−∞ T
e et :
∞ 2π ⎛ k⎞
∞ 1 ik T t − i 2πνt 1 ∞ ∞ − i 2π ⎜⎝ ν − T ⎟⎠ t 1 ∞ ⎛ k⎞
TF [ g (t )] = ∫ ∑ e e dt = ∑ ∫ e dt = ∑ δ ⎜ ν − ⎟ car TFν 0 [1] = δ (ν − ν 0 )
−∞
k =−∞ T T k =−∞ −∞ T k =−∞ ⎝ T⎠
On a donc : TF [ûT (t )] = F ûF (ν ) avec : F = 1/T
[ ]
∞ ∞
et : TF x * (t ) = X (ν ) * F ûF (ν ) = X (ν ) * F ∑ δ (ν − kF ) = F ∑ X (ν ) *δ (ν − kF )
k = −∞ k = −∞
(la convolution est distributive par rapport à l'addition)
[ ]
∞
Comme X (ν ) * δ (ν − kF ) = X (ν − kF ) , on a : TF x * (t ) = F ∑ X (ν − kF )
k = −∞
1
L'échantillonnage de x(t) a donc pour conséquence de périodiser en fréquence le spectre de x(t) à la période F = .
T
5. 2
Signaux & systèmes 5. Echantillonnage - Interpolation - Quantification
Supposons que x(t) ait le spectre X (ν ) suivant (le spectre d’un signal réel est pair) :
X( ν)
1
ν
-Fm 0 Fm
2 cas de figure :
1 1
(1) F = ≥ 2 Fm : La fréquence d'échantillonnage F = est « assez » élevée :
T T
X * (ν )
F
-F F 2F
...
F/2
ν
-Fm 0 Fm F-Fm F+Fm
* *
On peut reconstituer ensuite x(t) à partir de x (t ) par filtrage passe-bas de x (t ) : on coupe les fréquences ν > Fm
(2) F < 2 Fm : Il y a sous-échantillonnage : le signal x(t) est trop rapide par rapport à la
fréquence d'échantillonnage F.
Vu en fréquence, il y a repliement de spectre (aliasing) :
X * (ν )
F
F
ν
-Fm 0 Fm
F-Fm
*
Il y a impossibilité par simple fitrage passe-bas à reconstituer x(t) à partir de ses échantillons x (t ) : il y a perte
d'information.
Un filtre de Kalman, utilisant une connaissance à priori du signal à reconstruire (par son modèle) permettrait de retrouver les informations
manquantes.
Théorème de Shannon : Soit x(t) un signal à TC possédant une fréquence maximale Fm dans son spectre
(d’amplitude). Pour que l'échantillonnage à la fréquence F n'implique aucune perte
d'information, il faut et il suffit que : F ≥ 2 Fm .
Qualitativement, ce résultat n’est pas surprenant.
Exemple 1 : Un automobiliste doit regarder la route (échantillonner les images de la route) suffisamment
souvent pour ne pas perdre d’informations (suffisamment vite par rapport à la vitesse
d’évolution de ces images, donc de la configuration du trafic).
Exemple 2 : Compact Disc Audio : F =44.1 kHz avec Fm ~ 20 kHz
5. 3
Signaux & systèmes 5. Echantillonnage - Interpolation - Quantification
Le signal échantillonné peut être vu comme un signal à Temps Discret ( δ n ,k est le symbole de Kronecker)
x (t ) x (nT ) x(nT ) = ∑ x(t )δ n ,k = x(t )∑ δ n ,k = x(t ) ⋅ ûT (nT ) (n variable)
k k
Le signal échantillonné peut aussi être vu comme un signal à Temps Continu ( δ ( t ) est la distribution de Dirac)
x (t ) x * (t ) x * (t ) = ∑ x (t )δ (t − nT ) =∑ x (nT )δ (t − nT ) = x (t )∑ δ (t − nT ) = x (t ) ⋅ ûT (t )
n n n
∞
( TC ) ( TC ) avec : ûT (t ) peigne de Dirac à TC : ûT (t ) = ∑ δ (t − nT )
n = −∞
*
Transformée de Laplace ( TL ). Transformée de Laplace échantillonnée ( TL ). Transformée en z ( TZ )
[ ]
TL x * (t ) = ∫ x * (t ) e − pt dt = ∫ ∑ x (nT )δ (t − nT ) e − pt dt = ∑ ∫ x (nT )δ (t − nT ) e − pt dt = ∑ x (nT ) e − pnT ∫ δ (t − nT )dt = ∑ x (nT ) e − pnT
n n n n
TL [ x (nT )] = ∑ x (nT ) e
* − pnT
soit en posant z = e
pT
[
: TL x (nT ) =
*
] ∑ x(nT ) z −n
TZ[ x (nT )] = ∑ x (nT ) z − n
n n n
Echantillonnage du produit d’un signal par une Constante λ = Produit par λ du signal échantillonné (Linéarité)
[λ x ( t ) ] *
= ∑ [λ x ( nT )] δ ( t − nT ) = λ ∑ x ( nT )δ ( t − nT ) = λ x ( t ) *
n n
Echantillonnage (synchrone) d’un signal échantillonné = Echantillonnage d’un signal non échantillonné
Convolution de signaux échantillonnés=Echantillonnage de la convolution entre un signal échantillonné et un signal non éch.
Convolution d’un signal échantillonné avec un signal non échantillonné
x ( t ) * y ( t ) = ∫ x * (τ ) y ( t − τ ) dτ = ∫ ∑ x (nT )δ (τ − nT ) y (t − τ )dτ = ∫ ∑ x (nT )δ (τ − nT ) y (t − nT )dτ
*
n n
x ( t ) * y ( t ) = ∑ x ( nT ) y ( t − nT ) ∫ δ (τ − nT )dτ = ∑ x ( nT ) y ( t − nT )
*
(1)
n n
5. 4
Signaux & systèmes 5. Echantillonnage - Interpolation - Quantification
n k n k
x ( t ) * y ( t ) = ∑ ∑ x ( nT ) y ( kT − nT )δ ( t − kT ) = ∑ ∑ x ( nT ) y ( t − nT )δ ( t − kT )
* *
n k n k
*
⎡ ⎤ ⎡ ⎤
x (t ) * y (t ) = ∑ ⎢∑ x (nT ) y (t − nT ) ⎥ δ (t − kT ) = ⎢∑ x (nT ) y (t − nT ) ⎥ = x * (t ) * y (t ) [ ]
* * *
d’après (1)
k ⎣ n ⎦ ⎣n ⎦
x * (t ) * y * (t ) = ∑ ∑ x (nT ) y (t − nT )δ (t − kT ) → [ x ( t ) * y ( t ) ]* ≠ x * ( t ) * y * ( t )
k n
Z [ X ( z) ] = X ( z)
2
[ x (t )] = x (t ) [ X ( p) ] = X ( p)
* * * * * *
Z [ X ( z) ⋅ Y ( p) ] = X ( z) ⋅ Y ( z)
3
[ x ( t ) * y ( t ) ] = x ( t ) * y ( t ) [ X ( p) ⋅ Y ( p) ] = X
* *
* * * * *
( p) ⋅ Y * ( p)
4 Par commutativité de la convolution Par commutativité de la convolution Par commutativité de la convolution
Z [ X ( p ) ⋅ Y ( z) ] = X ( z) ⋅ Y ( z)
[ x (t ) * y (t )] [ X ( p) ⋅ Y ]
* *
*
= x * (t ) * y * (t )
*
( p) = X * ( p) ⋅ Y * ( p)
Z [ X ( p) ⋅ Y ( p) ] ≠ X ( z) ⋅ Y ( z)
5
[ x(t ) * y(t )]* ≠ x * (t ) * y * (t ) [ X ( p) ⋅ Y ( p) ]* ≠ X * ( p) ⋅ Y * ( p)
Z [ X ( p) ⋅ Y ( p) ] noté XY ( z)
[ X ( p) ⋅ Y ( p)]* noté XY ( p)
*
Sauf par approximation comme la TB par ex. Sauf par approximation comme la TB par ex. Sauf par approximation comme la TB par ex.
TB : Transformation Bilinéaire (cf. chapitre 9)
1.6. Application
e( t ) e * (t ) s( t )
s * (t )
H ( p)
Soit le système :
Dès lors qu’il y a un échantillonneur dans un système, on ne peut avoir de relation permettant de calculer s( t ) ,
(donc de connaître le signal à TC s( t ) à tout instant) car l’expression de S ( p) = TL s( t ) n’est pas exploitable [ ]
pour donner l’original s( t ) (pas de possibilité d’utiliser les tables de TL ) du fait qu’elle fait intervenir
E * ( p) = E ( z) = TZ[e(nT )] :
En Fréquence S ( p) = H ( p) ⋅ E * ( p) avec : [ ]
E * ( p) = TL e * (t ) = TL* [e(nT )]
5. 5
Signaux & systèmes 5. Echantillonnage - Interpolation - Quantification
[ ]
*
En Fréquence S * ( p) = H ( p) ⋅ E * ( p ) = H * ( p) ⋅ E * ( p) → S ( z) = H ( z) E ( z)
et : [ ]
S * ( p) = TL s * (t ) = TL* [ s(nT )] = TZ[ s(nT )] = S ( z)
[ ]
*
En Temps s * ( t ) = h( t ) * e * ( t ) = h * (t ) * e * (t ) → s(nT ) = h(nT ) * e(nT )
L’utilisation de la TZ fait que, bien qu’à TC, le signal s( t ) ne sera ainsi déterminé qu’aux seuls instants
d’échantillonnage, par la connaissance du signal s( nT ) = TZ
−1
[ S ( z)] correspondant à la version à TD du
signal à TC s ( t ) =
*
∑ s(nT )δ (t − nT ) .
n
(La TZ modifiée permettant de connaître un signal entre les intants d’échantillonnage pourrait être utilisée mais les progrès technologiques font
que l’accroissement de la période d’échantillonnage est généralement faisable permettant ainsi d’utiliser exclusivement la TZ ).
2. Interpolation (≡ Reconstitution) : du TD au TC
On va voir que l’interpolation d’un signal à TD consiste en un filtrage passe-bas.
2.1. Interpolateur idéal et Bloqueur d’ordre 0
1
On a vu que le signal x(t) après échantillonnage à la fréquence F = et noté alors x*(t) présente un spectre
T
périodique, de période F :
x(t)
X( ν)
TF 1
t ν
0 -Fm 0 Fm
Echantillonnage
x*(t)
TF X * (ν ) ( Cas F 2 Fm )
F
-F F ...
t ν
0 T -Fm 0 Fm
Dans le cas où F ≥ 2Fm, on peut reconstituer x(t) à partir de ses échantillons x*(t), il suffit pour cela de filtrer le
signal x*(t) avec le filtre passe-bas idéal de Fonction de Transfert Π 2 Fm (ν ) (au facteur d’atténuation 1/F près):
1
Π 2 Fm (ν )
FT du filtre interpolateur idéal
ν
-Fm 0 Fm
5. 6
Signaux & systèmes 5. Echantillonnage - Interpolation - Quantification
X * (ν ) x X (ν ) ou encore : X * (ν ) Π 2 Fm (ν ) X (ν )
Π 2 Fm (ν )
2 Fm sin c(2πFm t )
Le filtre Π 2 Fm (ν ) constitue l'interpolateur idéal. (Il reconstitue x(t) à partir de ses échantillons → interpolateur).
Remarques :
- Un filtre passe-bas de raideur infinie comme Π 2 Fm (ν ) n'existe pas, il peut être approché par un filtre
passe-bas d'ordre élevé.
- L'interpolateur idéal est impossible à utiliser en Temps Réel car pour filtrer par Π 2 Fm (ν ) , il faut
connaître Fm donc le spectre de x(t), qui se calcule pour t allant de − ∞ à + ∞ (une solution consiste à
calculer le spectre à court terme de x(t), i.e. sur une durée réduite, par morceaux).
- D'autre part, le filtrage de x*(t) avec 2 F sin c( 2πF t ) est non causal, car la convolution fait appel
m m
aux valeurs passées et futures de x*(t) et de 2 Fm sin c( 2πFm t ) (RI non causale du filtre interpolateur idéal).
→ Dans la pratique, Fm est estimée à priori (ou déterminée à court terme) et l'interpolateur est réalisé avec
un Bloqueur d’ordre 0, filtre passe-bas interpolateur le plus simple et causal :
Bloqueur d’ordre 0 :
L'interpolation entre une série de points est donnée autour du point x(t = nT) par un développement en série de
Taylor autour de t = nT :
5. 7
Signaux & systèmes 5. Echantillonnage - Interpolation - Quantification
* *
La réponse du Bloqueur d’ordre 0 à x ( t ) est notée x B ( t ) :
(mémorisation de la valeur de l’échantillon pendant la période d’échantillonnage T)
Pour obtenir x(t) à partir des échantillons bloqués à la sortie du Bloqueur d'ordre 0, il suffit alors
d'appliquer un second filtre passe-bas dit de lissage pour éliminer les Hautes Fréquences du signal
bloqué constituées par les fronts raides (≡ rapides) du signal.
x*B (t)
x* (t) Bloqueur d'ordre 0 B0 Filtre passe-bas de lissage x(t)
x * (t ) x B* (t ) x(t)
t t
0 T 0 T t 0
nT t t
0 0 0 T
La RI b0 (t ) est causale.
- Fonction de Transfert :
T
1 − e − pT
La FT (de Laplace) est : B0 ( p) = TL[b0 (t )] = ∫ 1. e − pt
dt =
0
p
- Spectre :
T
5. 8
Signaux & systèmes 5. Echantillonnage - Interpolation - Quantification
B0 (ν ) = Te − iπ νT sin c(νT )
- Restitution :
x *B (t)
{x(nT)} CNA intégrant un Bloqueur B0 Filtre passe-bas de lissage x(t)
3. Quantification - Codage
On va voir que la quantification se traduit par l’addition d’un bruit.
3.1. Numérisation
Signal Analogique Signal Numérique
x(t) Numérisation x (nT)
q
⎧Echantillonnage : x ( t ) → x ( nT )
⎪ ( TC ) ( TD )
Numérisation ≡ ⎪
⎨et
⎪Quantification : x (nT ) → x (nT )
⎪⎩ q
La Quantification transforme les valeurs continues de x(nT) en valeurs discrètes. Appelons q un échelon de
quantification, c’est-à-dire la plus petite valeur fournie par le quantifieur.
5. 9
Signaux & systèmes 5. Echantillonnage - Interpolation - Quantification
3.2. Quantification
L'opération de Quantification consiste à remplacer chaque valeur x(nT) des échantillons du signal x(t), par un
multiple entier xq ( nT ) de l'échelon de quantification q (quantification linéaire) :
q q
-q/2 q x x
-q q/2
q
-q
x(t) + x (t)
q
−ε (t)
Le propre du numérique est d'ajouter un bruit lors de la numérisation d’un signal analogique. Les traitements
ultérieurs n'introduisant plus de bruit. En analogique, le bruit s'ajoute à chaque traitement.
La numérisation qui consiste en échantillonnage et quantification peut donc en 1ère approximation se réduire à
l’étape d’échantillonnage, tout au moins du point de vue formel.
En effet, l’échantillonnage implique une modification spectrale du signal (périodisation), alors que la
quantification se réduit à l’addition d’un bruit qu’on sera souvent amené à négliger dans des considérations
formelles. Ainsi, un CAN sera souvent ramené à un simple échantillonneur (bruit de quantification négligé).
5. 10
Signaux & systèmes 5. Echantillonnage - Interpolation - Quantification
t t
ε ε
q
q/2
0 t 0 t
-q/2
q q
− ≤ε ≤ 0≤ε ≤q
2 2
3.5. Codage
Après échantillonnage et quantification, le signal xq ( nT ) est représenté par une séquence de valeurs
numériques.
5. 11
Signaux & systèmes 5. Echantillonnage - Interpolation - Quantification
- La variation du pas de quantification en fonction de l'amplitude est choisie le plus souvent exponentielle.
- Coder le signal x q avec un pas de quantification q exponentiel revient à comprimer le signal x q sur
les faibles amplitudes et le quantifier avec un pas constant :
x comprimé
q
Courbe logarithmique
0 x
q
Pas de quantification variable
On a alors : Codage non linéaire de x q = Compression (log.) de x q suivie d’un codage linéaire de x q .
Exemple : Téléphone : la courbe log. de compression est approchée par un polygone à 13 segments :
x comprimé
q
7 plages < 0
x
q
0
7 plages > 0
__________
5. 12
Signaux & systèmes TD 5. Echantillonnage - Interpolation - Quantification
4. Interpolation
a) Montrer, en déterminant Y(ν ) , que le Bloqueur d'ordre 0 (B0) n'est pas un interpolateur idéal car :
5. Bruit de quantification
On utilise une dynamique (≡ résolution) de 8 bits pour coder les échantillons d’un signal numérique.
- Dans quelle proportion le rapport Signal/Bruit est-il accru si l’on ajoute 1 bit de dynamique supplémentaire ?
TD 5. 1
Signaux & systèmes TD 5. Echantillonnage - Interpolation - Quantification
2. Filtre récursif
Programmer le filtre défini par l'équation aux différences: y (n) = 4 x(n) − 4 x(n − 1) − 0.1y (n − 1)
déjà rencontré, et comparer avec la théorie.
4. Quantification
Soit le signal: x1 (nT ) = sin(2πfnT )e
nT / 10
avec f = 0.1 Hz et T = 1 s.
Visualiser les effets de la quantification linéaire avec une dynamique sur 8 niveaux en programmant :
a) Sa quantification par arrondi x1a , et le bruit de quantification ε 1a = x − x1a
b) Sa quantification par troncature x1t , le bruit de quantification ε 1t correspondant : ε 1t = x − x1t
Mêmes questions a) b) pour le signal : x2 ( nT ) = sin( 2πfnT ) avec f = 0.1 Hz et T = 1 s.
__________
TD 5. 2
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
1. TFD
La TFD est utilisée pour calculer la TF par calculateur numérique d'un signal x(t) :
∞
TF[ x (t )] = X ( f ) = ∫ x (t ). e − i 2πft dt : Formule non implémentable sur calculateur numérique.
−∞
f est la fréquence
1) x(t) → x*(t)
Le calculateur n'a pas accès au signal x(t) d'origine, mais au signal x*(t) représentant la séquence
temporelle {xn } des échantillons{x(nT)} obtenus par échantillonnage périodique à période T du signal
x(t).
2) ∫ → ∑
sur M echantillons
−∞
L'intégrale ou somme continue n'est pas programmable (et l’intervalle infini non plus); il faut la
remplacer par une somme discrète et sur un nombre fini M d'échantillons.
3) X(f) → Xk
Le calculateur ne peut fournir une expression à fréquence continue X(f) du résultat, mais seulement un
nombre limité de valeurs Xk : la fréquence f ne peut prendre que des valeurs discrètes :
il y a échantillonnage en fréquence.
[ ]
∆
Le calcul de X(f) = TF[x(t)] ne peut être obtenu, mais seulement celui de X ( f ) = TF x (t )
* *
avec :
∞
x*(t) = x(t).|_|_|T(t) et |_|_|T(t) = ∑ δ (t − nT )
n =−∞
∞
*
On a, en posant F = 1/T: X ( f ) = TF[ x(t).|_|_|T(t) ] = X(f) * TF[ |_|_|T(t) ] = F X(f) * |_|_|F(f) = F ∑ X ( f − nF )
n =−∞
On en tire X(f) recherchée en faisant n = 0 ( f ∈ [ -F/2 , F/2] ) :
X ( f ) = T .X * ( f )
⎡ F F⎤ (1)
pour f ∈ ⎢− , ⎥
⎣ 2 2⎦
∞ ⎛ ∞ ⎞ ∞ ∞ ∞
X ( f ) = T . X * ( f ) = T ∫ ⎜ ∑ x(nT )δ (t − nT ) ⎟.e −i 2πft dt = ∑ T .x(nT ) ∫ δ (t − nT )e −i 2πft dt = T ∑ x(nT ).e −i 2πfnT = T . X * ( f )
−∞ −∞
⎝ n = −∞ ⎠ n = −∞ n = −∞
⎡ F F⎤
pour f ∈ ⎢− , ⎥
⎣ 2 2⎦
6. 1
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
Représentation spectrale :
x(t) |_|_| (t) X(f) F |_|_| (f)
T F
x 1 Xm * F
TF
t t f f
0 T 0 Fm 0 F = 1/T
0
*
x (t) = x(t) |_|_| (t) *
T X (f) = X(f) * F |_|_| (f)
F
F Xm
TF
t f
0 T 0 Fm F/2 F = 1/T
X ( f ) = T X *( f )
Si F ≥ 2 Fm, on a bien : ⎡ F F⎤
dans le domaine f ∈ ⎢− , ⎥
⎣ 2 2⎦
1.2. Influence de la limitation du nombre d'échantillons (problème 2)
La mémoire du calculateur numérique est limitée → utilisation d'un nombre limité M d'échantillons.
Le calcul de l'expression précédente :
∞
X( f ) = T X *( f ) = T ∑ x(nT ) e
n =−∞
− i 2 πfnT
⎡ F F⎤
f ∈ ⎢− , ⎥
⎣ 2 2⎦
devient :
( M −1) / 2
X M ( f ) = T. ∑ x(nT )e
n = − ( M −1) / 2
−i 2πfnT
( M impair )
⎡ F F⎤
f ∈ ⎢− , ⎥
⎣ 2 2⎦
Le calculateur n'a donc accès qu'aux échantillons d'une séquence x *M de durée T0 = MT du signal x*(t)
et on a : x *M (t ) = x * (t ) Π T0 (t ) où Π T0 (t ) est la fonction Porte (ou Fenêtre) de largeur T0 :
T0 T
Π T0 (t ) = 1 si − <t< 0
2 2
= 0 sinon
x *(t) x *(t) *
x (t) Π T0 (t )
M
Troncature temporelle
ou = x 1
Fenêtrage
t t t t
0 T 0 T 0 T -T 0 /2 0 T 0 /2
T0 = MT T = MT
0
Cette troncature temporelle (≡ fenêtrage) du signal x*(t) se traduit en fréquence par une convolution avec
[ ]
TF Π T0 ( t ) = T0 sin c ( T0 f ) .
Si T0 est suffisamment grand (fenêtre de troncature assez large), on peut faire l'approximation :
Π T0 (t ) = 1 ∀ t et donc : [ ]
TF Π T0 (t ) ≈ TF [1] = δ ( f )
6. 2
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
Représentation spectrale :
T
0
T sinc (T f )
0 0
≈ δ (f) si T0 >> 1
x *(t) Π T0 (t ) *
X (f)
x 1 F Xm *
TF
t t f
0 T -T0 /2 0 T0 /2 0 Fm F/2 F = 1/T
−π/ T π/ T
0 0
* *
x (t) = x (t) Π T (t) X
* *
(f) ≈ X (f) si T
*
>> 1 car X (f) * δ (f) = X (f)
*
M 0 M 0
F Xm
TF
t f
0 T 0 Fm F/2 F = 1/T
T0 = MT
L'effet du fenêtrage (≡ troncature temporelle), d'autant plus important que T0 est faible, est de déformer
(élargir) X*(f), à cause de l'action des lobes secondaires de T0 sinc (T0 f) :
T sinc (T f )
0 0
Lobe principal
Lobes secondaires
Cet effet de troncature temporelle lié à la limitation du nombre M d'échantillons pour le calcul de la TF peut
être corrigé en superposant à cette fenêtre rectangulaire Π T0 ( t ) , une autre fenêtre, f(t), dite de pondération.
Cette dernière ayant une durée égale à T0, on peut dire plutôt qu'elle remplace la fenêtre naturelle Π T0 ( t ) de
troncature initiale.
Cette fenêtre doit être telle que sa TF présente :
- un lobe principal le plus étroit possible.
- peu ou pas de lobes secondaires.
pour tendre vers δ ( f ) (convoluer avec δ ( f ) ≡ ne rien faire).
En négligeant la déformation causée par la troncature dûe au fenêtrage lié à la limitation du nombre
d'échantillons M, on a donc finalement :
( M −1) / 2
X ( f ) = T X * ( f ) =T X M* ( f ) = T ∑ x(nT ).e
n = − ( M −1) / 2
−i 2πfnT
avec T0 >> 1
(2)
⎡ F F⎤
dans ⎢− , ⎥
⎣ 2 2⎦
6. 3
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
f f
0 Fm F/2 F = 1/T 0 F0 Fm F/2 F=1/T
−1 1 * ⎡ 1 1 ⎤
F X( f ) ⎯TF
⎯⎯→ x M (t ) sur ⎢− , ⎥
Donc, si 1 F0 ⎣ 2 F0 2 F0 ⎦
≥ T0 :
F0 ⎡ F F⎤
f ∈ ⎢− , ⎥
⎣ 2 2⎦
* 1
x (t) |_ |_ |
1/ F
(t) *
X (f) |_ |_ |
F
(f)
1 M F0 0 M 0
* 1/F0 F Xm x 1
TF
t t f f
-T0 /2 0 T T0 /2 -1/F0 0 1/F0 0 Fm F/2 F = 1/T -F0 0 F0
1 *
x (t)* | _ | _ | (t) *
1/ F X (f) | _ |_ | (f)
F0 M 0 M F
0
F Xm
TF
t f
-1/F0 -T0 /2 0 T T0 /2 1/F0 0 F0 Fm F/2 F=1/T
6. 4
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
On a donc :
1 *
⋅ x M (t )
−1
X *M ( kF0 ) = X *M ( f ) = F X ( f ) ⎯TF
⎯⎯→
F0
⎡ F F⎤ 1
1
f ∈ ⎢− , ⎥ avec f = kF0 si ≥ T0
⎣ 2 2⎦ F0 sur une duree
F0
Le fait d'avoir échantillonné en fréquence a divisé par F0 en temps. Il suffit donc dans l'expression (2) de
multiplier par F0 et de faire f = kF0 :
( M −1)/ 2
1 1
X ( kF0 ) = TF0 ∑ ( M −1)
x (nT ). e − i 2π knF0T0 avec −
2 F0
≤ nT ≤
2 F0
n =−
2
⎡ F F⎤ 1
dans ⎢− , ⎥ si ≥ T0
⎣ 2 2⎦ F0
1
En choisissant = T0 ( = MT ) (cas limite imposé par la condition de Shannon), on a la simplification :
F0
1 1
− ≤ nT ≤
2 F0 2 F0
F F
( M −1) / 2 i 2πkn − ≤ kF0 ≤
1 − 2 2
X (kF0 ) =
M
∑
n = − ( M −1) / 2
x(nT )e M
avec
1
F=
T
1
= T0 = MT
F0
F F 1
Comme − ≤ kF0 ≤ et F = et F0 = MT on a :
2 2 T
x (nT ) qui comporte M termes et X ( kF0 ) qui comporte M termes aussi.
On a donc :
Duree T0 = MT = 1 / F0
M : nombre d' echantillons de x (nT ) et de X ( kF0 )
( M −1) / 2 i 2πkn
1 − 1 1
TFD{x( nT )} = X (k ) = X (kF0 ) = ∑ x( nT )e M
avec − ≤ nT ≤
M n = − ( M −1) / 2 2 F0 2 F0
F F
− ≤ kF0 ≤
2 2
1
F=
T
La séquence {x(nT)} de M valeurs a donc pour TFD la séquence X(k) de M valeurs aussi, représentant la TF de
x(t), donnée par la relation :
( M −1)/ 2
1
X (k ) =
M
∑
n =− ( M −1)/ 2
x (nT ) e − i 2πkn / M
6. 5
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
Interprétation
périodicité du spectre
(période F)
l'index représente une fréquence l'index ne représente rien
f = kF0 (un n° d'échantillon)
k
0 F0 F = 1/T = M.[ 1/T0 ] 0 1 M-1
=1/ T0
T0 : Durée d'observation de la séquence temporelle Exemple : T0 = 1 s F0 = 1/ T0 = 1 Hz
T : Période d'échantillonnage T = 0.1 s F = 10 Hz
M : Nombre d'échantillons pendant T0 M = 10 échantillons
1 F
Note : =
T0 M
- Si l’on veut espérer « voir » des composantes spectrales X(f) d’un signal x(t) jusqu’à une fréquence F, il faut
échantillonner x(t) au moins à la fréquence d’échantillonnage F, soit au plus à la cadence T =1/F.
- L’incrément fréquentiel du spectre X(f) de x(t) est 1/T0 où T0 est la durée d’observation, de fenêtrage, de x(t).
Variante
On rencontre d’autres définitions de la TFD, notamment celle proposant un passage direct - inverse symétrique :
M −1 M −1
1 1
TFD : X ( k ) =
M
∑ x(n)e −i 2πkn / M
n=0
TFDI : x( n) =
M
∑ X (k )e
k =0
i 2πkn / M
6. 6
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
M −1
1
La relation de définition (cas causal par exemple) :
xn
⎯⎯→
⎯ TFD
Xk =
M
∑x e
n=0
n
− i 2πkn / M
possède la
M termes
M termes
propriété suivante (symétrie) dans le cas particulier de signaux réels : ( X k représente le complexe conjugué de Xk )
xn réel ⎯TFD
⎯→
⎯ X M −k = X k pour k = 1 → M / 2 d’où :
xn réel ⎯TFD
⎯→
⎯ X k = X M −k pour k = 1 → M / 2 et aussi :
xn réel ⎯TFD
⎯→
⎯ Arg X k = − Arg X M − k pour k = 1 → M / 2
Cette propriété de symétrie du spectre d’un signal échantillonné traduit directement la périodisation du spectre
pour un signal échantillonné.
Démonstration
M −1 M −1
1 1
X M −k =
M
∑ xn e−i 2π ( M − k ) n / M =
n=0 M
∑x e
n=0
n
i 2πkn / M
→ X M −k = X k si xn réel
→ X k = X M −k si xn réel
XM = XM , ...)
+1 −1
2 2
Xk
k
0 1
M M M M −1
−1 +1
2 2 2
M M
La partie de X k pour k = → M − 1 s’obtient à partir de celle de X k ( k = 0 → − 1 ) par la relation :
2 2
M
X k = X M −k (renversement de la fréquence, miroir par rapport à k = )
2
M M
→ Seule la connaissance de X k de k = 0 → (soit les + 1 premiers points de X k ) est nécessaire à calculer (les
2 2
points restants se déduisent par la relation X k = X M −k ).
6. 7
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
⎧ X k = X M −k
- Compression sans perte : Les propriétés précédentes : ⎨ pourraient laisser croire qu’une
⎩ Arg X k = − Arg X M −k
compression sans perte d’un facteur 2 est possible en caractérisant une séquence réelle xn par sa TFD X k (la
décompression consiste alors un simple calcul de TFDI), mais pour représenter les M points de la séquence initiale xn , il faut
stocker M / 2 points du module et M / 2 points de l’argument, soit M points au total, ce qui n’apporte aucune
compression.
- Compression avec perte : Par contre, on peut effectuer une compression x̂n (avec perte) du signal xn selon le
schéma suivant :
Signal décompressé
Signal brut Fenêtre de N/M fenêtres Sur chaque Sur chaque Sur chaque Fenêtre de avec perte
(N points) M points sn fenêtre Sk fenêtre fenêtre ŝn M points (N points)
Ŝ k
xn Fenêtrage FFT Sélection IFFT Défenêtrage x̂n
Découpage TFD rapide Compression TFDI rapide Mise bout à bout
du signal des N/M fenêtres
- Fenêtrage : Fenêtrage rectangulaire, glissant et sans recouvrement, sur M points (valeur typique : M = 256)
Variante : un autre fenêtrage (Hamming, Blackman ...) peut aussi être réalisé à la place du fenêtrage triangulaire.
M
- Sélection : Sur les + 1 premiers points de S k , on ne garde que les D plus grandes valeurs de S k
2
(Dominantes harmoniques), le reste des points de S k est mis à 0 (valeur typique : D = 64)
Variante : A la place de retenir les D dominantes de Sk , on peut aussi retenir les D premiers points de Sk si le signal est
à basses fréquences (il est en tout cas impossible d’avoir des fréquences infiniment élevées dans le signal, car celui-ci ne peut être
infiniment rapide (théorie de la relativité)).
6. 8
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
La fenêtre de troncature à utiliser, lorsqu’on prélève une partie d'un signal pour extraire les caractéristiques
fréquentielles (≡ spectrales) du signal entier, doit être telle que sa TFD doit se rapprocher le plus possible de δ, avec un
lobe principal le plus étroit possible et des lobes secondaires le plus plat possible, la fenêtre se comportant alors de
façon la plus transparente, la moins déformante possible. Malheureusement, on ne peut avoir ces 2 performances
maximales pour une fenêtre donnée, et on doit faire un compromis entre ces 2 performances, conduisant ainsi non pas à
une fenêtre unique de troncature d’un signal mais à différentes fenêtres.
f(t) F( ν)
TF
t ν
0 T
0
. Fenêtre rectangulaire (basique) : f (t ) = Π ⎛⎜ t − T0 ⎞⎟ 2π / T0
T0
⎝ 2⎠
f(t) F( ν)
TF
t ν
T 0 T0
t− 0 2/ T
. Fenêtre de Bartlett (triangulaire) : 2 0
f (t ) = 1 −
T0
2
f(t) F( ν)
TF
t ν
0 T0
⎡ ⎛ T ⎞⎤
. Fenêtre de Hann : 1⎢ ⎜ (t − 0 ) ⎟⎥ 2/ T
0
f (t ) = ⎢1 + cos ⎜ 2π 2 ⎟⎥
2⎢ ⎜ T0 ⎟⎥
⎜ ⎟
⎣⎢ ⎝ ⎠⎦⎥
f(t) F( ν)
TF
t ν
⎡ T0 ⎤ 0 T0
. Fenêtre de Hamming : ⎢ (t − 2 ) ⎥ 2/ T 0
f (t ) = 0.54 + 0.46 cos ⎢2π ⎥
⎢ T0 ⎥
⎣⎢ ⎦⎥
(améliore celle de Hann)
. Fenêtre de Blackman :
. Fenêtre de Kaiser :
. Fenêtre de de Hanning ...
6. 9
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
1.5. Applications
1.5.1. Spectrogramme
La TFD donne l’occupation en fréquence d’un signal. Elle n’est pas adaptée aux signaux non stationnaires et, par
exemple, la visualisation de la TFD s’un signal ne permet pas directement de savoir à quel instant de ce signal se
produit, correspond, un pic de fréquence donnée de son spectre (même si on sait qu’un signal rapide occupe des fréquences
d’autant plus élevées que le signal est rapide).
La visualisation dynamique (≡ en fonction du temps) des fréquences occupées par le signal (analyse temps-fréquence)
peut néanmoins être réalisée en découpant le signal à caractériser en plusieurs fenêtres et en calculant la TFD sur
chacune de ces fenêtres. C’est le spectrogramme.
Spectrogramme
Une application importante est la TFCT (TF à court terme) utilisée en Traitement de la Parole :
on applique la TFD au signal x(n) en faisant glisser la fenêtre f(n) de prise d'échantillons :
x(m)
f(n)
n=0 n=M-1
M −1
1
On obtient alors, pour chaque indice n de fenêtre f(n), une TFD : X (k ) =
M
∑
m= 0
x (m) e −i 2πkm/ M
et au total , non plus un spectre (2D), mais un spectrogramme (3D) (Représentation Temps-Fréquence) :
X(k) (TFD)
k (Fréquence)
n (Temps)
f(n) pouvant être une fenêtre de pondération (Blackman, Bartlett ...) plutôt qu'une simple fenêtre rectangulaire
de troncature.
6. 10
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
Représentation 3D du spectrogramme
F F (Fréquence)
0
A t t (Temps)
6. 11
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
Fréquence
Temps
6. 12
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
BF
t 0 ν
HF : le signal occupe des Hautes Fréquences (HF) (signal rapide) car : TF[δ(t)] = 1
BF : le signal occupe des Basses Fréquences (BF) (signal lent) car : TF[C] =C δ(ν)
∞
Signal initial : f (t ) ⎯⎯→ F (ν ) =
TF
∫ f (t )e
− i 2πν t
dt
−∞
df (t ) TF
Signal dérivé : g (t ) = ⎯⎯→ G (ν ) = i 2πν F (ν )
dt
t0 + t
F (ν )
Signal intégré : s (t ) = ∫ f (u )du ⎯⎯→
TF
S (ν ) = + Cδ (ν ) (C: Cte d’intégration)
t0
i 2πν
ν ν
Le filtre dérivateur Le filtre intégrateur
amplife les Hautes Fréquences amplife les Basses Fréquences
Signal Spectre
Signal lent, (assez prédictible s’il est aléatoire) Spectre occupant les Basses Fréquences (BF)
f(t) F( ν ) : Spectre en Fréquence de f(t)
TF
t 0 ν
TF
t 0 ν
6. 13
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
Signal rapide, (peu prédictible s’il est aléatoire) Spectre occupant les Hautes Fréquences (HF)
f(t) F( ν ) : Spectre en Fréquence de f(t)
TF
t 0 ν
TF
t 0 ν
TF
t 0 ν0 ν
TF
t 0 ν
1.5.4. TFCT
∫ f (t ) e
−i 2π ν t
F (ν ) = dt (1)
−∞
donne un spectre f (t ) incalculable en Temps Réel, car l’opérateur (1) n’est pas causal :
sur le signal parole par ex., à un instant donné t 0 , on ne connaît que la partie passée du signal, i.e. pour t ≤ t 0 .
∫ f (τ ) h(t − τ )e
−i 2π ν τ
F (ν , t ) = dτ
−∞
obtenue en « fenêtrant » le signal (i.e. en multipliant le signal f (t ) par un signal causal h(t ) de durée limitée).
6. 14
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
Des algorithmes rapides (FFT) permettent de calculer la transformée F (ν , t ) dans le cas discret. Si T est la
période d’échantillonnage de f (t ) , le spectre à court terme peut s’écrire :
n
F (ν , nT ) = ∑ f (kT ) h(nT − kT ) e
k = −∞
−i 2π ν kT
Le spectre à court terme peut aussi être obtenu en décomposant F (ν , nT ) en parties réelle et imaginaire :
F (ν , nT ) = Re(ν , nT ) + i Im(ν , nT ) avec :
n
Re(ν , nT ) = ∑ f (kT ) h(nT − kT ) cos( 2π ν kT ) = [ f (nT ) cos(2π ν nT )]* h(nT )
k = −∞
n
Im(ν , nT ) = − ∑ f (kT ) h(nT − kT ) sin( 2π ν kT ) = −[ f (nT ) sin(2π ν nT )]* h(nT )
k = −∞
A partir de ces relations, on peut déterminer le spectre à court terme pour différentes fréquences 2π ν n à
l’aide d’un banc de filtres constitué d’autant de canaux qu’il y a de fréquences d’observation du spectre :
Filtre passe-bande Filtre passe-bas
f (nT )
ν F (ν , nT )
Redresseur
L’analyse cepstrale procède de la façon suivante pour transformer le produit de convolution en addition :
- Pour transformer le produit de convolution de la relation précédente en produit simple, elle opère une TFD
N −1 N −1
de f (nT ) , soit : F (ω k ) = ∑ f (nT ) e −i ω knT / N = ∑ f (nT ) e −i ω n kT / N
n =0 n =0
2π
avec : N le nombre de points de la TFD , ω = , ω n = nω , ω k = kω .
N
ω
(On note indifféremment la TFD de f (nT ) par : F (k ) , F (kT ) , F (ω k ) , F (ω k T ) , F (e k ) ...)
F (ω k ) = H (ω k ) E (ω k )
- Elle revient au domaine temporel pour donner le cepstre caractérisant la signal f (nT ) défini par :
TF −1
[log F (ω ) ]
k
L’analyse cepstrale est une analyse temporelle (le cepstre bien qu’anagramme du mot « spectre », n’est pas une sorte de spectre).
Elle donne les coefficients cepstraux.
6. 15
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
L’analyse LPC est une analyse temporelle, mais de nombreux paramètres peuvent être établis dans le domaine
fréquentiel.
Dans une application de traitement de la parole par exemple, la méthode LPC calcule des coefficients sur un
échantillon de parole par prédiction à partir d’une pondération linéaire d’un nombre fini d’échantillons le
précédant. Cette méthode utilise le modèle suivant de production de la parole : ( T : période d’échantillonnage)
Le conduit vocal, qui filtre le signal d’excitation e(nT ) , peut être assimilé à un filtre récursif. Avec une bonne
approximation, le signal s (nT ) qu’il émet à un instant peut être calculé à partir des valeurs qu’il a prises aux
m instants précédents. A l’instant nT , le signal s (nT ) peut donc s’exprimer comme issu d’une combinaison
linéaire de son passé aux m instants précédents, et d’un terme d’erreur e( nT ) à cet instant (représenté par le
signal d’excitation du modèle de production de parole) :
6. 16
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
m
s (nT ) = ∑ ai′s[(n − i )T ] + Ge(nT ) G : gain de réglage
i =1
Ge(nT ) : erreur de prédiction
m
G
S ( z) = E( z) G : gain de réglage
A( z )
G / A( z ) : FT du conduit vocal
E (z ) : TZ de l’excitation
S ( z ) : TZ de la sortie du conduit vocal (signal de parole)
m m
Modèle : A( z ) = ∑a z
i =0
i
−i
d’où : GE ( z ) = S ( z ) A( z ) = S ( z ) ∑a z
i =0
i
−i
soit dans le domaine temporel:
m
⎛ m ⎞
Ge(nT ) = ∑ ai s[(n − i )T ] soit, en prenant a0 = 1 : Ge(nT ) = s (nT ) − ⎜ − ∑ ai s[(n − i )T ]⎟
i =0 ⎝ i =1 ⎠
Le terme Ge(nT ) est l’erreur de prédiction, erreur entre l’échantillon de parole réel et l’échantillon prédit.
m
La prédiction linéaire de s (nT ) est donnée par : s (nT ) = −∑ ai s[(n − i )T ]
i =1
Pour déterminer les coefficients ai , on peut minimiser l’énergie W de l’erreur sur l’intervalle de temps
r
W = ∑ [Ge(nT )]
2
[ pT , rT ] :
n= p
r ⎡ m 2
⎡m r
⎤ m ⎤
On a : W = ∑ ⎢∑ ai s[(n − i )T ]⎥ = ∑ ⎢∑ ai s[(n − i )T ] ∑ a j s[(n − j )T ]⎥
n = p ⎣ i =0 ⎦ n = p ⎣ i =0 j =0 ⎦
r m m m m r
soit : W = ∑∑∑ ai a j s[(n − i )T ]s[(n − j )T ] = ∑∑ ai a j ∑ s[(n − i )T ]s[(n − j )T ]
n = p i =0 j =0 i =0 j =0 n= p
m m r
et : W = ∑∑ ai a j Cij avec : Cij = ∑ s[(n − i )T ]s[(n − j )T ]
i =0 j =0 n= p
Pour minimiser l’énergie W de l’erreur, on peut utiliser la méthode des moindres carrés :
En écrivant que la dérivée partielle de W par rapport à ak est nulle, on a l’équation suivante :
m m
∑a C
i =0
i ik + ∑ a j C kj = 0
j =0
m
Comme on a fixé a0 = 1 , on obtient m relations du type : ∑a C
i =1
i ik = −C0
6. 17
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
L’intervalle de sommation [ pT , rT ] peut être défini de 2 façons selon que l’on utilise l’une ou l’autre des 2
méthodes suivantes :
Les coefficients de prédiction ak représentent une estimation du spectre de parole une fois l’influence de
l’excitation éliminée.
- Elle est adaptée à l’étude de phénomènes évoluant rapidement au contraire des méthodes fréquentielles
qui doivent être effectuées sur une durée suffisamment longue si l’on veut que le spectre soit connu avec
une précision convenable.
- La prédiction permet d’éliminer une part importante de la redondance du signal. La redondance est
caractérisée par l’arrivée d’échantillons ne fournissant pas d’informations nouvelles; prédire la valeur du
signal en fonction de ses valeurs passées permet de débarrasser le signal de ses pseudo-informations.
Cette redondance n’est qu’éphémère (locale) et les coefficients de prédiction linéaire doivent être
réajustés régulièrement.
Exemple de filtrage LPC, FFT et Cepstre sur la voyelle « ei » du mot « soleil » dans la phrase parlée :
« La bise et le soleil se disputaient ».
6. 18
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
2. TFR
M −1
1
Le calcul direct de chaque terme de la TFD : X (k ) =
M
∑ x ( n) e
n=0
− i 2 πkn / M
(1)
nécessite, en prenant le cas général où x(n) est complexe, le nombre suivant d'opérations par terme :
⎧4M : x reelles
. M multiplications (x) complexes ≡ ⎨
⎩2M : + reelles
. M-1 additions (+) complexes ≡ 2( M − 1) : + reelles
⎧ 4 M 2 : x reelles
Soit au total, pour M termes : ⎨ (idem pour la TFDI)
⎩2 M (2 M − 1) : + reelles
Exemple :
⎧4 194 304 : x
Pour M = 1024 points (≡ 1 kO de mémoire sur 8 bits) → ⎨
⎩4 192 256 : +
Avec un Processeur spécialisé en Traitement du Signal (Digital Signal Processor (DSP) ), on peut faire une
addition - multiplication (+ et x groupées) en 300 ns.
Pour diminuer ce temps calcul, il faut programmer (1) en réduisant le nombre d'opérations par terme.
→ Algorithme TFR :
le plus employé est l'algorithme de Cooley (1963) : facile à mettre en oeuvre lorsque le nombre
d'échantillons M est une puissance de 2 : M = 2m → m = log2 M
(Condition peu contraignante, quitte à majorer M).
Principe (partitionnement) :
6. 19
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
Exemple : M = 8
M M M
−1 i 2 πkp −1 i 4 πkp X 1 ( k ) d' ordre
2 2 − 2 2 − 2
TFD{ x1 (n)} = X 1 ( k ) = ∑ x ( p) e
1
M /2
= ∑ x ( 2 p) e M
= ( 2)
M p=0 M p=0 ⎛ M ⎞
⎜ X 1 (k ) à termes⎟
⎝ 2 ⎠
M M
−1 i 2 πkp −1 i 4 πkp
2 2 − 2 2 − M
TFD{ x 2 (n)} = X 2 ( k ) = ∑ x 2 (l ) e M /2
= ∑ x(2 p + 1) e M
= X 2 ( k ) d' ordre (3)
M p=0 M p=0 2
M M
−1 i 2 πkp −1 i 4 πkp i 2 πk
1 2 − 1 2 − −
X (k ) =
M
∑ x ( 2 p) e
p=0
M
+
M
∑ x(2 p + 1) e
p=0
M
⋅e M
( 4)
On a donc :
i 2πk
1 1 −
M
X (k ) = X 1 (k ) + X 2 (k ) ⋅ e M
X 1 (k ) ne sont definies que pour valeurs.
2 2 car 2
M X 2 (k )
0≤k ≤ −1
2
M ⎛ M⎞
Pour obtenir les valeurs restantes, on calcule X ⎜ k + ⎟ :
2 ⎝ 2⎠
M M
−1 i 4 πkp −1 i 4 πkp i 2 πk
⎛ M⎞ 1 2 − 1 2 − −
(4) → X⎜k + ⎟ =
⎝ 2⎠ M
∑ x ( 2 p) e
p=0
M
e − i 2 πp
+
M
∑ x(2 p + 1) e
p=0
M
e M
e − i 2 πp e − i π
i 2 πk
⎛ M⎞ 1 1 −
X ⎜ k + ⎟ = X 1 (k ) − X 2 (k ) ⋅ e M
⎝ 2⎠ 2 2 e −iπ = −1
d'où : du fait que :
M et e −i 2πp = 1 ∀p ∈ Z
0≤ k ≤ −1
2
− i 2π / M
En posant WM = e , on a les relations de définition de la TFR :
6. 20
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
1 1 1/2
X (k ) = X 1 ( k ) + WMk X 2 ( k ) X (k) X(k)
2 2 1 +
1/2
⎛ M⎞ 1 1
X ⎜ k + ⎟ = X 1 ( k ) − WMk X 2 ( k ) 1 Wk
⎝ 2⎠ 2 2 2 M
+ X(k+M )
M X (k) 2
0≤k ≤ −1 k
2 2 -1 WM
2
WM = e − i 2 π / M
ou encore (coeff 1/2 non représentés) et ≡ + :
X (k) X(k)
1
k
WM
X(k+M )
X (k) k 2
2 -WM
Représentation graphique du graphe élémentaire :
Papillon ou encore Croisillon
M M
→ La TFD d'ordre M ≡ 2 TFD d'ordre ≡ 2 m TFD d'ordre =1 (M =2
m
)
2 2m
M
−1 i 2πkp
2m 2m − 0
d' ordre 1= M /2 m
Ces TFD d'ordre 1 sont les M valeurs de la séquence {x(n)} mais dans un ordre résultant des m
dédoublements successifs :
Exemple : M = 8
6. 21
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
x(0) X(0)
0
W
M
x(4) X(1)
- W0M
W0M
x(2) X(2)
0
-W
0 M
W W
2
M M
x(6) X(3)
2
-W
0 -W
M M
W 0M
x(1) X(4)
- W 0M
0
W
M W 1M
x(5) X(5)
-W
0 -W1M
M W0M W2M
x(3) X(6)
- W 0M -W2M
0
W W 2M W 3M
M
x(7) X(7)
-W
0
Etape 1 - W2M Etape 2
- W3M
Etape 3
M
/* _______________________________________________________________________________ */
void TFR() /* Module X[k] du Spectre (TFR) de x[n] */
/* x[n] (signal reel) -> X[k] */
/* M : nombre de points de la sequence x[n] (donc par consequent de X(k]) */
/* M doit etre une puissance de 2 : M= 2^m */
/* Tableaux : as (sequence x[n]), Ar (Partie reele de X[k]) , Ai (Partie imaginaire de X[k]), Tr et Ti (Tampons) */
{
int k, m, n, M1, M2, i, j, l, L, L2, ip;
float Wr, Wi, Tr, Ti, Ur, Ui, UUr, *as, *Ar, *Ai;
as = (float *) malloc (M*sizeof(float));
Ar = (float *) malloc ((M+1)*sizeof(float));
Ai = (float *) malloc ((M+1)*sizeof(float));
M2= M/2;
M1= M-1;
j= 1;
/* Sauvegarde de x[n] et copie de x[n] dans Ar[k] */
for (n=0; n<M; n++)
{
as[n]= x[n];
Ar[n+1]= x[n]; /* les tableaux Ar[] et Ai[] sont utilises a partir de l’indice 1 */
Ai[n+1]= 0;
}
6. 22
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
/* Algo */
for (i=1; i<=M-1; i++)
{
if (i<j)
{
Tr= Ar[j]; Ti= Ai[j];
Ar[j]= Ar[i]; Ai[j]= Ai[i];
Ar[i]= Tr; Ai[i]= Ti;
}
k= M2;
while (k<j)
{
j= j-k;
k= k/2;
}
j= j+k;
}
6. 23
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
Temps calcul
⎧ 1⎡ 2πk 2πk ⎤
⎪ Re[ X (k )] = 2 ⎢ Re[ X 1 (k )] + Re[ X 2 (k )]cos M + Im[ X 2 (k )]sin M ⎥
M ⎪ ⎣ ⎦
points ⎨
2 ⎪Im[ X (k )] = 1 ⎡Im[ X (k )] + Im[ X (k )]cos 2πk − Re[ X (k )]sin 2πk ⎤
⎪⎩ 2 ⎢⎣ M ⎥⎦
1 2 2
M
⎧ ⎡ M ⎤ 1⎡ 2πk 2πk ⎤
⎪ Re ⎢ X (k + )⎥ = ⎢ Re[ X 1 (k )] − Re[ X 2 (k )] cos + Im[ X 2 (k )]sin
M ⎪ ⎣ 2 ⎦ 2⎣ M M ⎥⎦
points ⎨
2 ⎪Im⎡ X (k + M ⎤ 1⎡ 2πk 2πk ⎤
)⎥ = ⎢Im[ X 1 (k )] − Im[ X 2 (k )] cos + Re[ X 2 (k )]sin
⎪⎩ ⎢⎣ 2 ⎦ 2⎣ M M ⎥⎦
Par étape, on a :
⎧ M M M
⎪4 2 = 2M : x reelles : les 2 points d' indice k +
2
utilisent les memes multiplications
⎪
⎪ M M
( + ) et ( − ) → 2 : + pour points car les points d' indice k + utilisent les memes +
⎪ 2 2
⎨
⎪2 M + 2M = 3M : + reelles et 2 : + pour
M
points et 2 : − pour
M
points,
⎪ 2 2 2
⎪ → soit 2M : + pour M points
⎪
⎩
⎛M ⎞
2(m − 1) M = 2 M log 2 ⎜ ⎟ : x reelles
Au total : (m étapes) : ⎝ 2 ⎠
3mM = 3M log 2 M : + reelles
0
(on ne compte pas la 1ère étape car WN = 1 )
Exemple :
Pour M = 1024 points : (Comparaison avec la TFD calculée pour M = 1024 en Temps Réel : Fm < 500 Hz)
18 432 x
On a : → Avec le même DSP que précédemment (300 ns pour 1 addition-multiplication)
30 720 +
. s
12
il faut un temps calcul de 5.5 ms environ soit
200
→ Pour M = 1024 points, la TFR est 200 fois plus rapide que la TFD.
La TFR peut traiter en Temps Réel des signaux de Fréquence Maximale Fm = 100 kHz !
6. 24
Signaux & systèmes 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
TFR Inverse :
{x(n)} doit être disposée selon l'ordre fourni par les m dédoublements. La méthode de rangement associée
est la méthode dite du « bit inversé » : les indices de la séquence {x(n)} initiale, sont codés en binaire pur.
Les indices de la séquence ordonnée s'obtiennent en lisant le nombre binaire à l'envers.
Exemple :
__________
6. 25
Signaux & systèmes TD 6. Transformation de Fourier Discrète (DFT) et Rapide (FFT)
1. Programme de TFD
A l'aide du programme SIGTP6, programmer l'algorithme de calcul de la TFD d'une séquence causale xn
comportant M échantillons.
Vérifier en calculant la TFD des signaux suivants, sur une fenêtre M = 50 points par exemple (durée T0 = MT )
où T est la période d’échantillonnage :
xn =δn
xn = Γn
xn = Π L (nT ) ( L est la largeur de la porte)
xn = sin(ω nT ) ( ω = 2π f , f est la fréquence de la sinusoïde)
xn = sin c(ω nT ) ( ω = 2π f , f est la pseudo-fréquence du sinus cardinal)
Faire varier M pour visualiser l'effet de la fenêtre de troncature sur le spectre. Faire varier aussi les paramètres
des signaux (fréquence ...). Comparer à la théorie les caractéristiques spectrales obtenues.
2. Interprétation de la TFD
Soit xn un signal causal à TD, d'une certaine durée D.
La séquence xn désigne par exemple un signal de parole (fichier BLA10) enregistré pendant la durée D = 1 s,
1
à la fréquence d'échantillonnnage F = = 10 kHz (xn comporte donc 10 000 échantillons) et avec une
T
dynamique de codage (≡ résolution , définition) de 1 octet par échantillon (xn occupe donc 10 kO en mémoire).
Calculer la TFD de xn (programme SIGTP6) sur une fenêtre de durée T0 = 100 ms, soit M = 1 000 termes,
fenêtre glissante sur le signal xn .
Interpréter et donner les valeurs numériques des fréquences maximales occupées par le signal xn , au regard du
spectre Xk de xn pour une fenêtre donnée.
__________
TD 6. 1
Signaux & systèmes TP 6. Transformation de Fourier
1. Programme de TFD
M nombre d'échantillons, de points du signal d'entrée (ainsi que du signal TFD)
n indice temporel des échantillons du signal x
n
k indice fréquentiel des échantillons de la TFD X
k
TFD ( x ) :=
à utiliser ainsi : X := TFD ( x )
TFDI( X) :=
1
0.02
xn Xk
0 0.02
0 10 20 30 40 50
n −1 k 49
Faire varier M. Conclusions ???
TP 6. 1
Signaux & systèmes TP 6. Transformation de Fourier
1.002
1
xn 1 Xk
0.998 0
0 10 20 30 40 50
n −1 k 49
Faire varier M. Conclusions ???
1
0.12
xn Xk
0 0
0 10 20 30 40 50
n −1 k 49
Faire varier M. Conclusions ???. Propriété de la TFD ???
1
0.082
xn 0 Xk
1 0.01
0 10 20 30 40 50
n −1 k 49
Conclusions ???. Propriété de la TFD ???
TP 6. 2
Signaux & systèmes TP 6. Transformation de Fourier
2
0.5
xn 0 Xk
2 0
0 10 20 30 40 50
n −1 k 49
Conclusions ???. Propriété de la TFD ???
2
0.5
xn 0 Xk
2 0
0 10 20 30 40 50
n −1 k 49
Interprétation ??? :
5
0.5
xn 0 Xk
5 0
0 10 20 30 40 50
n −1 k 49
Conclusion ???
TP 6. 3
Signaux & systèmes TP 6. Transformation de Fourier
Filtrage de x de la fréquence f2 par filtrage passe-bas (filtre Butterworth d'ordre 3) coupant les fréquences > CutOff
n
1.071 0.469
yn Yk
− 1.105 −3
6.797⋅ 10
−1 n 49
−1 k 49
Conclusion ???
3. Interprétation de la TFD
20
0
xn
20
40
0 100 200 300 400 500 600 700 800
n
X := TFD ( x )
0.5
Xk
0 k 49
TP 6. 4
Signaux & systèmes TP 6. Transformation de Fourier
M
MX := X kmax := for k ∈ 0 .. −1 kmax =
k k 2
kmax ← k if MX = max( MX)
k
return kmax
Interprétation :
Quelle est la gamme des fréquences observables, du fait de la cadence d'échantillonnage choisie ???
4. TFD et TFR
La représentation temporelle (chronogramme) de x montre que, au-delà des 512 premiers points, on observe une
n
répétition du passé du signal, impliquant de ce fait une redondance spectrale :
la TFD sur les 512 premiers points doit donner un spectre similaire à celui obtenu sur la totalité des 800 points.
50
xn 0
50
0 50 100 150 200 250 300 350 400 450 500 550
n
TP 6. 5
Signaux & systèmes TP 6. Transformation de Fourier
X := TFD ( x )
1.74
Xk
−3
1.061⋅ 10
0 k 511
M
MX := X kmax := for k ∈ 0 .. −1 kmax =
k k 2
module de X
k kmax ← k if MX = max( MX)
k
return kmax
Interprétation :
4.2. TFR (FFT) : le nombre de points est nécessairement égal à une puissance de 2
m
. Fichier : m := 9 M := 2
50
xn 0
50
0 50 100 150 200 250 300 350 400 450 500 550
n
X := FFT ( x )
Xk 1
0
0 50 100 150 200 250 300
k
TP 6. 6
Signaux & systèmes TP 6. Transformation de Fourier
5. TF de fenêtres de troncature
Quelle qualité doit posséder une fenêtre de troncature ??? Comparer les différentes fenêtres ci-dessous.
m
. Fenêtre rectangulaire m := 64 n := 0 .. m − 1 Π n := 0 if n < f := Π n F := FFT ( f )
3 n
m
1 if n >
3
2⋅ m
0 if n >
3
0.4 0.4
1
fn
dB
Fn 0.2 Fn 0.2 Fn
0
0 50 100 0 0
0 20 40 1 10 100 1 10 100
n
n n n
dB dB
fn Fn Fn
dB
Fn
0 0 0 −7
3.415× 10
0 n 63 0 n 32 1 n 32
dB 1 n 31
dB
TP 6. 7
Signaux & systèmes TP 6. Transformation de Fourier
fn Fn Fn
dB
Fn
0.08 0 0
0
0 n 63 0 n 32 1 n 32
dB 1 n 32
dB
. Fenêtre de Hanning m := 64 f := hanning( m) F := FFT ( f )
fn Fn Fn
dB
Fn
0 0 0 −7
9.571× 10
0 n 63 0 n 32 1 n 32
dB 1 n 31
dB
fn Fn Fn
dB Fn
0 0 0 −5
2.44× 10
0 n 63 0 n 32 1 n 32
dB 1 n 31
dB
fn Fn Fn
dB
Fn
0.439 0 0 −5
1.07× 10
0 n 63 0 n 32 1 n 32
dB 1 n 31
dB
TP 6. 8
Signaux & systèmes TP 6. Transformation de Fourier
Fn Fn
dB
fn Fn
−8 0 0 − 11
2.296× 10 1.813× 10
0 n 32 1 n 32
0 n 63 dB 1 n 31
dB
__________
TP 6. 9
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Filtrage analogique
x(t) y(t)
x(t) H(p) y(t) FT : H ( p) = Y ( p) Matérialisation (électrique par ex.) : y ( t ) = f [ x ( t )] : équa. diff.
X ( p)
y (t ) = h(t ) * x(t ) h(t ) : RI
Avantage : - rapidité du traitement analogique
Inconvénient : - solution figée
Filtrage numérique
x(k) H(z) y(k) FT : H ( z) = Y ( z) Matérialisation (algorithme (équa. aux diff.) + CNA) : y ( k ) = f [ x ( k )]
X ( z)
y ( k ) = h( k ) * x ( k )
h(k ) : RI
Avantage : - souplesse de modification de l’algorithme
Inconvénients : - temps de décodage des instuctions
- fréquence d’échantillonnage (requise par la condition de Shannon) limitée par la technologie.
2. Filtrage analogique
Un exemple simple de filtrage consiste à isoler un signal x1 (t) à partir d'une mesure y(t) contenant 2 signaux x1 (t)
et x2 (t). Si dans le domaine fréquentiel, x1 (t) et x2 (t) ont des spectres disjoints tels que :
ν
0 F F2
1 F3
Spectre de x1 (t)
} Spectre de x 2 (t)
Alors on a :
Filtre passe-bas : 0 − F1 x1 (t )
y( t ) = x1 (t ) + x2 (t )
Filtre passe-bande : F2 − F3 x2 (t )
7. 1
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Ces filtres idéaux ne peuvent être évidemment qu'approchés : les pentes verticales réelles ne sont pas infinies mais
d'autant plus raides que l'ordre du filtre est élevé.
(Un ordre élevé provoque un algorithme coûteux en temps calcul lors de l’exécution du filtre numérique traduisant le filtre analogique considéré).
Il est suffisant de disposer des Réponses Fréquentielles F(ν) des filtres passe-bas car à partir de ces prototypes
normalisés (fréquence de coupure ν c = 1), on aboutit par simple changement de variable, à la catégorie passe-haut,
passe-bande ou coupe-bande :
ν
0
Gabarit désiré
H (i 2πν ) dB BP à 3 dB = [ν b , ν h ]
H (iω ) dB max
H (iω ) dB max
− 3 dB
ν
νb νh
Exemple : BP d’un canal de commmunication : une ligne téléphonique est un filtre qui doit passer les
fréquences vocales (occupant la bande [300 Hz - 4 kHz] ).
7. 2
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Filtres normalisés
Filtre du 1er ordre passe-bas fondamental
k
- FT passe-bas : H ( p) =
1 + τp
- Réponse Fréquentielle : (l’entrée du filtre est une sinusoïde de pulsation ω variable)
H0 dB
= k dB
= 20 log k H0 = k
3 dB
0 dB ω (log ω )
0 ω (log ω )
ωc (-1) ≡ pente de -20 dB/décade
ωc
(-1) ≡ pente de -6 dB/octave
Phase = Arg[ H (iω )]
(si k > 0) ωc
0° ω (log ω )
-45 °
-90 °
%
Exemple : pendule simple : Pour un mouvement rectiligne sinusoïdal de la main (entrée) à basse fréquence, le
pendule (sortie) suit l’entrée (gain ≈ 1, déphasage nul). A haute fréquence, le pendule voit son amplitude diminuer (le
gain chute jusqu’à s’annuler) et se trouve en opposition de phase avec l’entrée.
- Réponse Impulsionnelle (RI) : (l’entrée du filtre est une impulsion de Dirac x(t ) = δ (t ) )
k
h(t ) = TL−1[ H ( p)] = e − t /τ Γ ( t )
τ
h(t)
H 0 /τ = k /τ
⎡ 1⎤
y (t ) = TL−1 [ H ( p) ⋅ TL[Γ (t )]] = TL−1 ⎢ H ( p) ⎥ = k (1 − e − t /τ ) Γ (t )
⎣ p⎦
y(t)
y (∞) = H0 ⋅ 1 = k ⋅ 1 = k
0.95 ⋅ y ( ∞)
0.63 ⋅ y ( ∞)
t t r : temps de réponse à 95 %
0 τ t r ≈ 3τ
7. 3
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
-90 °
-180 °
- Réponse Impulsionnelle (RI) : (l’entrée du filtre est une impulsion de Dirac x(t ) = δ (t ) )
y (t ) = TL −1
[ H ( p) ⋅ TL[δ (t )]] = TL [ H ( p)] −1
3 cas :
2
y(t) pôles de H(p) Im(p)
kω 0 t
y (t ) = (e p1t
)
− e p2 t Γ (t ) 0 0 Re(p)
2 m −1 2
7. 4
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
⎡ 1⎤
y (t ) = TL−1 [ H ( p) ⋅ TL[Γ (t )]] = TL−1 ⎢ H ( p) ⎥ 3 cas :
⎣ p⎦
⎡ 1 ⎛ e p1t e p2 t ⎞⎤
y (t ) = k ⎢1 + ⎜ − ⎟ ⎥ Γ (t )
⎢⎣ 2 m 2 − 1 ⎝ m + m 2 − 1 m − m 2 − 1 ⎠ ⎥⎦
y(t)
y (∞) = H 0 ⋅ 1 = k ⋅ 1 = k
0.95 ⋅ y (∞)
t t r : temps de réponse à 95 %
0 tr
2m
Si m >> 1 tr ≈ 3τ avec τ=
ω0
[
y (t ) = k 1 − e −ω 0t (1 + ω 0 t ) Γ (t ) ]
y(t)
y (∞) = H 0 ⋅ 1 = k ⋅ 1 = k
0.95 ⋅ y (∞)
t t r : temps de réponse à 95 %
0 tr
p1 = − mω 0 ± iω 0 1 − m 2 = −σ ± iω ′0 en posant σ = mω 0 et ω ′0 = ω 0 1 − m 2
2
⎡ e − mω 0t ⎤
y (t ) = k ⎢1 − sin(ω ′0 t + ψ )⎥ Γ (t ) avec : ψ = arccos m = arcsin 1 − m 2
⎣ 1 − m2 ⎦
y(t)
1 .05 ⋅ y ( ∞ ) ω ′0 : pseudo - pulsation
y(∞) = H0 ⋅1 = k ⋅1 = k
0 .95 ⋅ y ( ∞ ) 2π
T0′ = : pseudo - période
ω ′0
t t r : temps de réponse à 95 %
0 T0′ tr
1
Si m << 1 tr ≈ 3τ avec τ=
mω 0
7. 5
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
1 1
H ( p) = n −1
avec : H (iω ) 2 =
a n p + a n −1 p
n
+...+ a1 p + a 0 ⎛ω ⎞
2n
1 + ⎜⎜ ⎟⎟
⎝ ωc ⎠
Les paramètres ai des filtres de Butterworth se déduisent des relations de définition précédentes :
Exemple : n = 2:
1 1
H ( p) = H (iω ) =
a 2 p + a1 p + a0
2
− a 2ω + a1iω + a 0
2
⎧ ⎧
⎪a = 1 ⎪ a = −1
⎪ 0 ⎪ 0
2 1 1 ⎪ 2 ⎪ 2
H (iω ) = = → ⎨a1 = ± ou ⎨a1 = ±
a + a ω − 2a 0 a 2ω 2 + a12ω 2
2
0
2
2
4
⎛ω ⎞
4
⎪ ωc ⎪ ωc
1 + ⎜⎜ ⎟⎟ ⎪ ⎪
⎝ ωc ⎠ 1 1
⎪a 2 = 2 ⎪a 2 = − 2
⎩ ωc ⎩ ωc
Dans tous les tableaux qui suivent, les paramètres ai sont donnés pour ω c = 1 rd/s et pris positifs :
Ordre a0 a1 a2 a3 a 4 ...
n=1 1 1 - - -
n=2 1 2 1 - -
n=3 1 2 2 1 -
n = 4 ... 1 2.6131 3.4142 2.6131 1
| H(iω ) |
dB
0 dB ωc
ω
n=2
(-2)
n=3
(-3)
n=4
(-4)
Les filtres de Butterworth sont tels qu'ils possèdent une Réponse Fréquentielle H(iω) en module plate au
maximum (≡ sensiblement constante) dans la Bande Passante.
→ Les signaux de différente fréquence (dans la Bande Passante) sont tous amplifiés de la même façon (gain
constant).
7. 6
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Ces filtres présentent une ondulation d'amplitude constante ### dans la Bande Passante.
1 2 1
H ( p) = avec : H (iω ) =
a n p + a n −1 p
n n −1
+...+ a1 p + a 0 ε
1+ Tn2 (ω )
1− ε
Tn + 2 ( x ) = 2 x Tn +1 ( x ) − Tn ( x ) et : T0 ( x ) = 1 , T1 ( x ) = x
Ordre a0 a1 a2 a3 a 4 ...
n=2 1 0.9957 0.907 - -
n=3 1 2.5206 2.0116 2.0353 -
n = 4 ... 1 2.6942 5.2749 3.4568 3.628
| H(iω ) |dB
0 dB ωc
ω
n=2
(-2)
n=6
(-6)
Filtres de Legendre (filtres polynomiaux) (pente la plus forte possible (pour un ordre n donné) à la fréq. de coupure)
1
H ( p) = n −1
avec : ... (Polynômes de Legendre)
a n p + a n −1 p
n
+...+ a1 p + a 0
Ordre a0 a1 a2 a3 a 4 ...
n=2 1 2 1 - -
n=3 1 2.3537 2.27 1.7319 -
n = 4 ... 1 3.0411 4.6253 3.828 2.4493
| H(iω ) |
dB
ωc
0 dB ω
n=2
(-2)
n=6
(-6)
7. 7
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Ils ont pour objet de réaliser l'approximation d'un retard pur e-τp ayant pour propriété un temps de
propagation à travers le filtre constant (égal à τ).
Ordre a0 a1 a2 a3 a 4 ...
n=2 3 3 1 - -
n=3 15 15 6 1 -
n = 4 ... 105 105 45 10 1
| H(iω ) |dB
ωc
0 dB ω
n=6 n=2
(-6) (-2)
Le polynôme numérateur améliore les performances du filtre. Les Réponses Fréquentielles ont des
ondulations à la fois dans la Bande Passante et dans la bande coupée.
bn p n + bn −1 p n −1 +...+b1 p + b0 2 1
H ( p) = avec : H (iω ) =
a n p n + a n −1 p n −1 +...+ a1 p + a 0 1 + λ E 2 (ω )
2
m
ω i2 − ω 2
où E (ω ) = ∏ pour l’ordre du filtre n = 2m
i =1 1 − ω i ω
2 2
m
ω 2 −ω 2
E (ω ) = ω ∏ i 2 2 pour l’ordre du filtre n = 2m + 1
i =1 1 − ω i ω
Ordre b0 / a 0 b1 / a1 b2 / a 2 b3 / a3 b4 / a 4
n=3 1/1 0/2.0235 0.1038/1.6404 0/1.3228 -
n = 4 ... 1/1 0/2.2818 0.3993/3.6938 0/2.4801 0.0226/2.1035
| H(iω ) |dB
0 dB ωc
ω
n=3
(-3)
n=6
(-6)
7. 8
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
La Réponse Fréquentielle est plate dans la Bande Passante et l’ondulation est présente dans la bande coupée.
ε
n −1 Tn2 (1 / ω )
b p + bn −1 p +...+b1 p + b0
n
2 1 − ε
H ( p) = n n avec : H (iω ) =
a n p + a n −1 p n −1 +...+ a1 p + a 0 ε 2
1+ Tn (1 / ω )
1− ε
Tn + 2 ( x ) = 2 x Tn +1 ( x ) − Tn ( x ) et : T0 ( x ) = 1 , T1 ( x ) = x
Ordre b0 / a 0 b1 / a1 b2 / a 2 b3 / a3 b4 / a 4
n=3 1/1 0/8.4672 0.75/3.6597 0/79.05 -
n = 4 ... 1/1 0/6.2917 1/20.7925 0/40.54 0.125/39.5285
3. Filtrage numérique
De par la souplesse apportée par la programmation, le filtrage numérique tend à se développer de plus en plus et
son inconvénient par rapport au filtrage analogique (un temps de traitement plus important) tend à se réduire de
plus en plus de par les progrès de la technologie (processeurs plus rapides, cadences d’échantillonnage plus
élevées).
Il y a 2 approches pour effectuer la synthèse d'un filtre numérique, c ’est-à-dire la détermination du filtre
numérique cherché :
A
Filtre Analogique H A ( p ) yn
Il n'y a évidemment pas de solution exacte à ce problème car le résultat dépend du signal d'entrée x(t)
(faire l'invariance de la réponse, c’est-à-dire faire y nN = ynA , conduit à des résultats, pour le calcul des coefficients du filtre H N ( z) ,
différents selon le signal d'entrée choisi).
7. 9
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
2nde approche :
Le calcul (synthèse) de ces filtres utilise ici une structure non récursive, et les coefficients du filtre numérique non
récursif peuvent être déterminés de 2 façons :
1) En faisant référence à la FT continue du filtre analogique modèle
→ - Synthèse par technique impulsionnelle.
- Synthèse par échantillonnage en fréquence.
- Synthèse par fenêtrage (troncature) de la RII du filtre (méthode de la fenêtre)
2) En se donnant un gabarit sur le module de la Réponse Fréquentielle du filtre numérique, et en déterminant les
coefficients du filtre de telle sorte à optimiser un critère de performance
→ Utilisation de méthodes d'optimalisation (programmation non linéaire (≡ algorithmes de résolution de
systèmes d’équations non linéaires) )
- Algorithme de Remez (algorithme le plus utilisé).
k =0 k =1
C’est le modèle ARMA (AutoRégressif à moyenne mobile (≡ glissante)) (Autoregressive with Moving Average)
Il représente la forme générale d’un système récursif.
Dans le domaine fréquentiel, on a : (avec CI nulles)
p
p q
Y ( z)
∑a k z −k
Y ( z ) = X ( z) ∑ a k z − k − Y ( z ) ∑ bk z − k d'où : H ( z) = = k =0
q
X ( z)
k =0 k =1
1 + ∑ bk z − k
k =1
Modèle AR
Dans le cas où tous les coefficients ak sont nuls, sauf a0 , on a un système quasiment purement récursif :
q
a0 a0
y n = a 0 x n − ∑ bk yn − k et : H ( z) = q
= q
k =1
1 + ∑ bk z − k ∏ (1 − p z k
−k
)
k =1 k =1
(après décomposition en éléments simples : pk sont les pôles de H(z) )
C'est le Modèle AR (AutoRégressif) appelé encore modèle tout pôle.
q
Le modèle : y n = − ∑bk =1
k y n − k est le modèle de processus AR purement récursif, donc basé uniquement sur
ses Conditions Initiales (CI).
Modèle MA
Dans le cas où tous les coefficients bk sont nuls, on a un système réduit à : (système non récursif)
p p
yn = ∑ a k xn− k et : H ( z) = ∑ a k z − k
k =0 k =0
C'est le Modèle MA (Moving Average) appelé encore modèle tout zéro.
7. 10
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
p
Filtres RIF y n = ∑ ak xn−k
k =0
p q
Filtres RII y n = ∑ a k x n − k − ∑ bk y n − k
k =0 k =1
p
Filtres adaptatifs RIF y n = ∑ a k (n) x n − k avec: a k (n) = a k (n − 1) + δ en x n − k où en = rn − y n
k =0
N −1− k
Corrélateurs (auto ou inter) ck = ∑x
n =0
n y n−k (intercorrélation)
Fenêtrage y n = x n ⋅ wn
le signal fenêtré y n est obtenu comme produit du signal x n à fenêtrer par la fenêtre de troncature, d’observation
wn de N échantillons
M −1
1
Transformées (Fourier, Hilbert ...) Exemple: TFD[x(n)] : X (k ) = ∑ x(n)e −i 2πkn / M
M n =0
(Transformées de Fourier Discrète)
7. 11
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Génération de signal Exemple: signal aléatoire à distribution uniforme: x(n) = A x(n − 1) mod P
le signal x(n) aléatoire à distribution uniforme est initialisé à : 0 < x(0) < P
le signal généré x(n) est pseudo-aléatoire car périodique de période P . Pour ne pas, lorsque n augmente,
retomber vite sur la même série de coefficients de la séquence, il vaut mieux choisir P grand.
P doit être un nombre premier pour que le résultat du modulo ne soit pas nul.
A est un facteur d’échelle.
k
Calcul matriciel Exemple: Produit scalaire: p = ∑x
n =0
n y n de signaux x n et y n de dim. k + 1
2. Analyse des filtres numériques RIF (filtres non récursifs ou encore filtres transversaux)
2.1. Structure de réalisation
N −1
Equation aux différences yn = ∑ a k xn − k (Version causale d’un filtre RIF)
k =0
z -1 a
2
+
-1
z a N-1
2.2. Stabilité
N −1
La FT d’un filtre RIF : H ( z ) = ∑a
k =0
k z −k ne présente pas de pôles.
7. 12
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Dn = 0 si n<0
C'est la réponse, notée Dn , à l’entrée xn = Γn : n
Dn = ∑ a k si 0 ≤ n ≤ N −1
k =0
N −1
Dn = ∑a
k =0
k si n ≥ N −1
−1 ⎡ 1 ⎤
On aurait pu aussi déterminer Dn par la relation : Dn = TZ ⎢⎣ H ( z ) ⋅ 1 − z −1 ⎥⎦
Les échantillons de la réponse indicielle Dn sont le cumul des coefficients du filtre.
La valeur finale de Dn est égale à la somme des coefficients du filtre.
N −1
H (ν ) = ∑ ak e − i 2πkν
k =0
N −1
H (ν ) = ∑a
k =0
k e −i 2πkνT
Ainsi, si le signal x(t ) = sin( 2πν t ) se présente (après avoir été échantillonné) à l'entrée du filtre
numérique, il est déphasé de− λ ν et la réponse (interpolée) du filtre est ainsi retardée d'un temps
τ = λ /(2π ) = C indépendante de la fréquence ν :
te
Du fait que les exponentielles imaginaires e i 2πν t sont les fonctions propres des filtres linéaires, elles donnent pour réponse :
y (t ) = H (ν )e i 2πν t . En écrivant : H (ν ) = Ae − i 2πν τ = Ae iϕ où A = H (ν ) et Arg[ H (ν )] = ϕ = −2πν τ
(retard de phase signifiant une temps de réponse (retard) du filtre H (ν ) ), on a : y (t ) = Ae −i 2πν τ e i 2πν t = Ae i 2πν ( t −τ ) .
Un filtre à phase linéaire a la propriété de retarder tous les signaux, quelle que soit leur fréquence, d'un
temps constant : le temps de propagation à travers le filtre est constant, quelque soit le signal d'entrée
(puisqu’un signal quelconque peut se décomposer sur la base des signaux sinusoïdaux (comme combinaison linéaire)).
7. 13
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
⎛ ⎞ N −1
⎜ ∑ hk sin 2πkνT ⎟
On a ainsi : Arg H (ν ) = − Arctg ⎜ Nk =−01 ⎟
⎜ ⎟
⎜ ∑ hk cos 2πkνT ⎟
⎝ k =0 ⎠
- Peut-on avoir Arg H (ν ) ≡ 0 ∀ν (retard du filtre nul) ?
N −1
Arg H (ν ) = 0 → ∑ h sin 2πkνT = 0
k =0
k → impossible ∀ν (ou alors hk ≡ 0 !)
Ou bien il faudrait, dans la relation précédente, que la RI hk soit une fonction paire et que la Somme
commence pour k < 0 (filtre non causal), ce qui était prévisible (un retard nul entraîne nécessairement
une non causalité du fait de son caractère non réalisable).
Remarques
1. Si on a hk non pas sur l’intervalle [0 .. N-1] mais sur [-(N-1)/2 .. (N-1)/2] et hk impaire
→ Arg H (ν ) = mπ / 2 car Arg H (ν ) = − Arctg (±∞) (I ≡ Impaire, P ≡ paire)
( N −1) / 2
( N −1) / 2 ( N −1) / 2 ( N −1) / 2
et
N −1 ( N −1) / 2 ( N −1) / 2
d’où ∑ hk sin 2πkνT
∑ h sin 2πkνT = ∑
k
k = − ( N −1) / 2
I ⋅I =
k = − ( N −1) / 2
∑
k =− ( N −1) / 2
P ∑ h cos 2πkνT = ∑
k =0
k
k =− ( N −1) / 2
I ⋅P = ∑
k =− ( N −1) / 2
I =0 k = − ( N −1) / 2
( N −1) / 2
= ±∞
∑
k = − ( N −1) / 2
hk cos 2πkνT
2. Si on a hk non pas sur l’intervalle [0 .. N-1] mais sur [-(N-1)/2 .. (N-1)/2] et hk paire
→ Arg H (ν ) = 0 car Arg H (ν ) = − Arctg (0) (I ≡ Impaire, P ≡ paire)
( N −1) / 2
( N −1) / 2 ( N −1) / 2 ( N −1) / 2
et
N −1 ( N −1) / 2 ( N −1) / 2
d’où ∑ hk sin 2πkνT
∑ h sin 2πkνT = ∑
k
k = − ( N −1) / 2 k = − ( N −1) / 2
P⋅I = ∑
k = − ( N −1) / 2
I =0 ∑ h cos 2πkνT = ∑
k =0
k
k = − ( N −1) / 2
P⋅P = ∑ P
k = − ( N −1) / 2
k = − ( N −1) / 2
( N −1) / 2
=0
∑
k = − ( N −1) / 2
hk cos 2πkνT
3.
hR ≡ h paire retardée de (N-1)T/2
k k
h paire ≡ h "paire" % à (N-1)T/2
k
k
k k
-(N-1)/2 0 (N-1)/2 0 (N-1)/2 N-1
7. 14
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Implémentation d’un filtre RIF à phase linéaire (optimisation du temps de calcul du filtre)
Du fait de la symétrie de la RI, la structure de réalisation du filtre RIF à phase linéaire peut être optimisée
pour réduire le temps de calcul du filtre : (a0 = aN-1 ; a1 = aN-2 ; ... )
a
x 0 y
n + + n
-1 -1
z z a
+ 1
+
z
-1 z -1
a
(N-3)/2
+ +
-1 -1 a
z z (N-1)/2
Remarque
On a aussi une caractéristique de phase linéaire si la RI du filtre RIF est « impaire » par rapport à
k = (N-1)/2 et causale.
(addition)) : k = a1 → e( k1 ) = e( a1 ) − e( a 2 )
1
1 + a2
Structure générale
H ( z ) = 1 + a1 z −1 +...+ a N −1 z − N +1
+ + + y
n
k1 k2
x k1 k N-1
n k2
z -1 z -1 z -1
+ +
U ( z ) = k1 X ( z ) + z −1 X ( z )
−1
W ( z ) = k1 z X ( z ) + X ( z ) →
[
Y ( z ) = 1 + ( k 1 + k 1 k 2 ) z −1 + k 2 z −2 X ( z ) ]
y n = x n + (k1 + k1 k 2 ) x n −1 + k 2 x n − 2
Y ( z ) = W ( z ) + k 2 z −1U ( z )
Le même filtre, de structure simple (non treillis), a la même équation aux différences : y n = x n + a1 x n −1 + a 2 x n− 2 et pour schéma-
bloc:
xn + yn
z -1 a1
+
z -1 a2
7. 15
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
-1 -1
z z
a -b q
p
3.2. Stabilité
p
∑a k z −k
La FT H ( z ) = k =0
q
d’un filtre RII présente q pôles.
1 + ∑ bk z −k
k =1
Un filtre RII peut donc être instable. Il l’est (sens strict) si au moins un des pôles de sa FT H(z) a un module ≥ 1
(dans sa version causale).
- Pour avoir directement une forme non récursive de la RI hn du filtre, il est plus simple d’inverser sa FT H(z) :
⎡ p
⎤
⎢ ∑ a k z −k ⎥ ∞
{hn } = TZ −1 ⎢ H ( z ) = k =0q ⎥ = ∑ hn z − n
⎢ ⎥ n=0
⎢ 1 + ∑ bk z − k ⎥
⎣ k =1 ⎦
Puisqu’on a (arbitrairement) choisi de considérer la version causale des filtres RII, la TZ-1 par exemple par
division de polynômes suivant les puissances croissantes de z-1 (ou de z pour des filtres non causaux) permet
de bien voir, comme avec (1), que le nombre de termes de la séquence hn est infini (la division est sans fin).
7. 16
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Le nombre de termes de la séquence hn croît avec n : le support de la RI des filtres récursifs est infini (filtres RII) :
h
n h1
h2 hi
h0 ... ...
n
0 1 2 i
Support infini
- Dans le cas où les séquences dans l’équation aux différences du filtre sont naturellement discrètes :
p
∑a k z −k
En faisant z = e p avec p = i 2πν dans l’expression de la FT H ( z ) = k =0
q
du filtre :
1 + ∑ bk z −k
k =0
p
∑a k e −i 2πkν
H (ν ) = k =0
q
H (ν ) ≡ H (e i 2πν ) est périodique de période ν = 1.
1 + ∑ bk e −i 2πkν
k =0
- Dans le cas où les séquences dans l’équat. aux différences du filtre sont échantillonnées (à la cadence T) :
∑a k e −i 2πkνT
H (ν ) = k =0
q
H (ν ) ≡ H (e i 2πνT ) est périodique de période ν = 1/T .
1 + ∑ bk e − i 2πkνT
k =0
Comme on l’a vu au § 2.6. avec les filtres RIF, il n’est pas possible d’obtenir un filtre RII causal à phase
linéaire du fait qu’il faudrait que la RI soit symétrique par rapport à un axe vertical passant par l’instant à la
demi-séquence, ce qui n'est pas possible si celle-ci n’est pas de durée finie.
On peut néanmoins réaliser des filtres RII à phase linéaire sous forme non causale (cf. § 2.6. : RI symétrique). Notamment, des filtres RII non
causaux à déphasage nul peuvent être définis, comme on l’a vu au § 2.6., en choisissant la RI paire.
7. 17
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Ces filtres RII ont une structure de réalisation permettant de réduire le bruit de quantification des paramètres
d'un filtre RII (compensation dûe à la structure croisée) et donc les erreurs de troncature :
Structure générale
1
H ( z) =
1 + b1 z + ... + bN −1 z − N +1
−1
+ + +
x
n - - - k1
k2
y
n
k N-1 k2 k1
+ +
z -1 z -1 z -1 z -1
1 1 b1
H ( z) = −1 −2
= avec : k1 = k 2 = b2
1 + b1 z + b2 z 1 + (k1 + k1k 2 ) z −1 + k 2 z −2 1 + b2
ou encore: b1 = k1 + k1 k 2 b2 = k 2
+ +
x w
n - n -
k1
k2 y
n
-1
k1
z u
n
z -1
+
W ( z ) = X ( z ) − k 2 z −1U ( z )
U ( z ) = k1Y ( z ) + z Y ( z ) −1
→
[
Y ( z ) 1 + ( k 1 + k 1 k 2 ) z −1 + k 2 z − 2 = X ( z ) ]
y n = x n − ( k1 + k1 k 2 ) y n −1 − k 2 y n − 2
Y ( z ) = W ( z ) − k1 z −1Y ( z )
Le même filtre, de structure simple (non treillis), a la même équation aux différences : y n = x n − b1 y n −1 − b2 y n − 2 et pour schéma-
bloc :
x + yn
n -1
z
-b 1
+
-1
z
-b2
7. 18
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
x
n
H (z) yN
N n
Le passage du continu au discret fait apparaître le paramètre T (période d’échantillonnage) déterminé par
application du théorème de Shannon.
H N ( z ) = H A ( p = Ln z ) (ou H ( z ) = H ( p = 1 Ln z ) )
N A
qui n’est pas une fraction rationnelle en z, et H N ( z )
T
ainsi synthétisé est parconséquent difficilement exploitable (pas d'équation aux différences déterminant le filtre
numérique).
Ainsi, on n’a pas un SLTI à TD. De plus, la TZ Inverse n’est pas aisée.
On peut alors avoir recours à la linéarisation de la relation p = Ln z en effectuant son développement limité
(méthodes d’équivalence de la dérivation et de l’intégration).
permettent de réaliser directement le passage Continu → Discret , noté dans le domaine fréquentiel :
7. 19
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
A
y (t) A
x(t ) = δ (t ) H (p) y
A n
x
n
H (z) yN
N n
[ ]
y nN = y nA ↔ Y N (z ) = Y A (z ) ↔ H N ( z ) X ( z ) = Z H A ( p) X ( p) ↔ H N ( z ) ⋅1 = Z H A ( p ) ⋅1 ↔ H N ( z ) = Z H A ( p) [ ] [ ]
Principal inconvénient de cette méthode : Elle présente une grande distorsion (déformation) de la Réponse
Fréquentielle (RF). (La RF est la réponse du filtre à une entrée sinusoïdale de fréquence variable).
Pour avoir une synthèse plus réaliste, le schéma de synthèse (≡ de passage Continu → Discret) :
A
y (t) A
x(t) H (p) y
A n
x
n
H (z) yN
N n
1 − e − pT
peut être amélioré par le schéma suivant, où intervient le bloqueur d'ordre 0 B0 (p) : B0 ( p) = :
p
x y
A
(t)
n A
x(t) B0 (p) HA (p) y
n
H (z) yN
N n
C'est la synthèse par Invariance Impulsionnelle bloquée, encore appelée synthèse par invariance indicielle car
toutes les deux donnent le même résultat.
1.3. Synthèse par invariance indicielle (≡ synthèse par Invariance Impulsionnelle bloquée)
Synthèse par invariance impulsionnelle bloquée
H (z) yN
N n
on aboutit à faire la correspondance plus réaliste :
⎡ 1 − e − pT
Z [ B0 ( p) ⋅ H A ( p)] = H N ( z ) → Z ⎢
( ⎤
⋅ H A ( p) ⎥ = H N ( z )
) et, du fait que z = e pT :
⎢⎣ p ⎥⎦
⎡ H ( p) ⎤
−1
H N ( z ) = (1 − z ) ⋅ Z ⎢ A Z⎢
(
⎡ 1 − e − pT )
⎤ ⎡ H ( p) ⎤
⋅ H A ( p) ⎥ = (1 − z −1 ) ⋅ Z ⎢ A (∆ )
⎥ car : ⎥
⎣ p ⎦ ⎢⎣ p ⎥⎦ ⎣ p ⎦
(∆ : cf. explication en fin de paragraphe)
7. 20
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
b0 (t)
1
t
ou encore en Temps, en notant b0 (t ) la RI du bloqueur : 0 T
T
h N (nT ) = (b0 * h A ) (t = nT ) → h N (nT ) = ∫ h A (nT − τ ) dτ
0
⎡H ⎤ H ( p)
Z ⎢ A ⎥ peut être obtenu par les tables, après une éventuelle décomposition en éléments simples de A :
⎣ p ⎦ p
⎡H ⎤ k Ai
Z⎢ A ⎥ = ∑ − pi T
⎣ p ⎦ i =1 1 − e z −1
∆ : Explication de la relation Z ⎢ (
⎡ 1 − e − pT )⋅H ⎤ ⎡ H ( p) ⎤ :
( p) ⎥ = (1 − z −1 ) ⋅ Z ⎢ A
p
A ⎥
⎢⎣ ⎥⎦ ⎣ p ⎦
On a : Z⎢
(
⎡ 1 − e − pT ) ⎤
⋅ H A ( p) ⎥ =
⎡ H ( p) ⎤
Z⎢ A
⎡ H ( p) ⎤
− Z ⎢e − pT ⋅ A du fait que la TZ est linéaire.
p ⎥ p ⎥⎦
⎢⎣ ⎥⎦ ⎣ p ⎦ ⎣
−1 ⎡ H ( p) ⎤
Calculons Z ⎡e − pT ⋅ H A ( p) ⎤ : Soit f (t ) = TL ⎢ A ⎥ on a : F ( p) =
H A ( p)
= TL[ f (t )] et F ( z ) = TZ [ f ( kT )] = Z [F ( p )]
⎢ p ⎦ ⎥ ⎣ p ⎦ p
⎣
or : H A ( p ) ⎯TL
⎯
−1
⎯→ f (t ) et : e − pT ⋅ H A ( p ) ⎯TL
⎯
−1
⎯→ f (t − T ) f (kT − T ) = f [(k − 1)T ] ⎯⎯→
TZ
z −1F ( z) = z −1 Z [F ( p)]
p p
Z
⎡ H ( p) ⎤ ⎡ H A ( p) ⎤ z −1 Z e − pT
d’où : Z ⎢e − pT ⋅ A −1
⎥ = z Z⎢ p ⎥
(un retard de T s’écrit en et en Laplace)
⎣ p ⎦ ⎣ ⎦
On va voir maintenant que la synthèse par Invariance Impulsionnelle bloquée n’est autre qu’une invariance indicielle,
ce qui était prévisible car, entre 2 instants d’échantillonnage successifs, une impulsion bloquée est un échelon.
7. 21
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
x
n
H (z) yN
N n
⎡ H ( p) ⎤
Y A ( z ) = Z [ H A ( p) ⋅ X ( p) ] = Z ⎢ A
Y A ( p ) = H A ( p ) ⋅ X ( p ) → Y A ( z ) = Z [H A ( p ) ⋅ X ( p )] ⎣ p ⎦
⎥
→
Y N ( z) = H N ( z) ⋅ X ( z) 1
Y N ( z) = H N ( z) ⋅ X ( z) = H N ( z) ⋅
1 − z −1
(Remarque : Z [ H A ( p )] ⋅ Z [ X ( p )] (= H A ( z ) ⋅ X ( z ) ) ≠ Z [ H A ( p ) ⋅ X ( p )] en général).
d’où :
⎡ H A ( p) ⎤ T
y nN ≡ ynA ↔ Y N ( z) ≡ Y A ( z) → H N ( z) = (1 − z −1 ) ⋅ Z ⎢
⎣ p ⎦
⎥ et en Temps : h N ( nT ) = ∫h 0
A ( nT − τ ) dτ
H (z) yN
N n
Y ( p) = B0 ( p) ⋅ H A
A
( p) ⋅ X ( p) =
(1 − e ) ⋅ H− pT
( p)
ce qui donne : p2
A
1
Y N ( z) = H N ( z) ⋅ X ( z) = ⋅ H N ( z)
1 − z −1
d'où : ynN ≡ ynA ↔ Y N ( z) ≡ Y A ( z) → [
H N ( z ) = (1 − z −1 ) ⋅ Z Y A ( p) ]
→ ⎡ H ( p) ⎤
H N ( z) = (1 − z −1 ) 2 ⋅ Z ⎢ A 2 ⎥
⎣ p ⎦
7. 22
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Cette approximation est d'autant meilleure que la période d'échantillonnage T est faible.
⎡ df (t ) ⎤ ⎡ f − f n −1 ⎤ (1 − z −1 )
Du fait que (si CI nulles) : TL ⎢ = p. F ( p) et : TZ ⎢ n ⎥ = F ( z ) ⋅
⎣ dt ⎥⎦ ⎣ T ⎦ T
1 − z −1
on aboutit à la correspondance : p ↔
T
1 − z −1 1
Le passage Continu-Discret s'obtient en faisant : p= ou encore : z=
T 1 − pT
Principal inconvénient de cette synthèse : la Réponse Impulsionnelle subit une distorsion considérable.
Remarques :
c La relation exacte z = e pT donne : z −1 = e − pT ≈ 1 − pT (développement en série
x2
limité au 1er ordre) Rappel : ex = 1+ x + +...
2!
→ l'équivalence de la dérivation coïncide avec une approximation de la formule exacte
z = e pT limitée au 1er ordre.
m
Y ( p)
∑a i pi
d On sait que la FT d’un système continu H ( p) = = i =0
n
représente l'équation
X ( p)
∑b
i =0
i p i
∑a i pi
TL (1) → ⎛⎜ ∑ ai p i ⎞⎟ X ( p) = ⎛⎜ ∑ bi p i ⎞⎟ Y ( p) →
m n
H ( p) = i =0
⎝ i =0 ⎠ ⎝ i =0 ⎠ n
∑b
i =0
i pi
7. 23
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
1 − z −1
Le remplacement de p par dans l’expression de la FT H(p) conduit en discret à une
T
m n
équation aux différences de la forme : ∑
i =0
ai x n −i = ∑ bi y n −i (SLTI) , représentation
i =0
satisfaisante (car elle traduit un SLTI) comme pour les autres méthodes de synthèse vues avant (sauf
par la relation de définition).
On a donc la correspondance :
I(p) I(z)
R(p) -1
0
1 R(z)
0
1/2
Plan p Plan z
La stabilité est donc conservée dans le sens p → z (R(p) < 0 → z < 1 ) mais pas dans le sens
contraire.
La correspondance de stabilité Continu-Discret n'est donc pas bi-univoque, sans quoi on aurait :
1
plan gauche en p ↔ disque unité de centre 0 en z.
2
7. 24
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
f La transformation entraîne une relation non linéaire entre les fréquences du domaine analogique (p)
et celles du domaine numérique (z) (frequency warping - distorsion des fréquences) : relation dont
il faudra tenir compte pour le calcul du filtre numérique (correction des fréquences) :
les fréquences caractéristiques du filtre analogique (ex.: fréquence de coupure) vont, par application
−1
de la formule de synthèse : p = 1 − z subir un léger décalage (d’autant moins léger que la période
T
d’échantillonnage T est élevée) .
1
→ ei 2 π f N T = → égalité des phases : 2π f N T = Arctg (2π f A T )
1 − i 2π f A T
1 1
→ fA = tg (2π f N T ) (relation non linéaire) ↔ f N = Arctg ( 2π f AT )
2π 2πT
1
ou encore : ωA = tg (ω N T )
T
Les étapes c) et d) sont propres à la Transformation d'Euler. Les autres étapes sont communes à tous les
types de synthèse.
1 − z −1
d) utiliser la transformation d'Euler dans H A ( p) précédemment modifié : p → pour
T
obtenir le filtre numérique. On obtient une fonction en z notée F ( z ) . Poser H N ( z ) = k F ( z ) .
e) ajuster le gain k du filtre numérique comme suit :
7. 25
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
• filtre numérique H N ( z) :
La Réponse Fréquentielle est obtenue pour z = e i 2π νT . Elle est périodique
1 1
de période et doit être observée entre ν = 0 et ν = .
T 2T
1
(la fréquence infinie analogique devient ici ν = )
2T
→ d'après la relation de définition z = e
pT
on a :
Remarque :
Cet ajustement du gain devrait en toute rigueur être réalisé pour toute synthèse et donc également
pour les méthodes d'Invariance Impulsionnelle et d'invariance indicielle vues avant.
7. 26
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
1 − z −1
C'est quasiment la transformation en w = , transformation aussi très utilisée.
1 + z −1
La synthèse par TB est très utilisée pour la synthèse des filtres RII.
On l'appelle encore méthode des trapèzes du fait qu'elle réalise l'équivalence de l'intégration.
t
Soit g ( t ) = ∫ 0
f (u) du , intégrale de f (t )
f(t)
f
n
f
n-1
t
(n-1)T nT
T
1+ p
2 = ⎛ 1 + p T ⎞ ⋅ ⎛ 1 + pT + p T + p T ⎞ au 3ème ordre
2 2 3 3
Remarques : c La TB s'écrit : z= ⎜ ⎟ ⎜ ⎟
T ⎝ 2⎠ ⎝ 4 8 ⎠
1− p
2
p 2 T 2 p 3T 3
→ z = 1 + pT + + au 3ème ordre
2 4
p 2 T 2 p 3T 3
La TB s'identifie avec la relation exacte : z = e pT = 1 + pT + + + ⋅⋅⋅
2 6
jusqu'au 2ème ordre → l'approximation réalisée est meilleure qu'avec la méthode d'Euler.
d La transformation conduit comme les autres types de synthèse (sauf par la relation de définition) à
une équation aux différences (SLTI) en discret.
7. 27
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
T⎤ T z =1
1+ p ⎥ 1 + iω
z= 2 = 2 →
T⎥
⎥
T ⎛ ωT ⎞
1− p 1 − iω Arg z = 2 Arctg ⎜ ⎟
2 ⎦⎥ p =iω 2 ⎝ 2 ⎠
L'axe imaginaire p = iω → cercle unité de centre 0.
αT
T
1− + iω
Pour p = −α + iω avec α >0 : z= 2 2 donc z < 1.
αT T
1+ − iω
2 2
→ le demi-plan gauche (R(p) < 0) se transforme en l'intérieur du cercle unité (≡ de
rayon 1) de centre 0 en z.
I(p) I(z)
R(p) R(z)
0 1
1 1
→ fA = ⋅ tg (π f N T ) (relation non linéaire) ↔ f N = ⋅ Arctg (π f AT )
πT πT
2 ⎛ ω NT ⎞ 1
ou encore : ωA = ⋅ tg ⎜ ⎟ f A dans H A ( p) devient ⋅ tg (π f AT ) dans H A ( p)
T ⎝ 2 ⎠ π T
1 2 ⎛ ω NT ⎞
fA → fA = ⋅ tg (π f N T ) ou encore : ωA → ωA = ⋅ tg ⎜ ⎟
πT T ⎝ 2 ⎠
2 1 − z −1
et l'étape d) utilisant la formule de TB : p→ ⋅
T 1 + z −1
7. 28
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
f
n-1
t
(n-1)T nT
t
g (t ) = ∫
0
f (u) du
G ( z) Tz −1
- en z : g n − g n −1 = f n − 1 ⋅ T → =
F ( z ) 1 − z −1
G ( p) 1
- en p : = (intégration)
F ( p) p
1 − z −1
→ Relation de passage : p= ou encore : z = 1 + Tp
Tz −1
1.7. Méthode d'association des pôles et des zéros (Matched Transform - Transformation Adaptée)
Données : la FT continue H A ( p)
1. Soient p1 , p2 L pq les q pôles finis de H A ( p) . On applique ces pôles au domaine z selon la
formule z = e bi = e pi T pour i = 1 à q.
pT
et on obtient ainsi les q pôles bi de la FT H N ( z) :
ρiT
2. On fait de même avec les m zéros ρ1 , ρ 2 Lρ m de H A ( p) et on obtient les m zéros ri = e
pour i = 1 à m.
a
Exemple : Filtre passe-bas : H A ( p) =
p+a
- Il y a 1 pôle p = −a qui est appliqué à z = e − aT
a
On a donc : H N ( z) = k ⋅ avec k : gain (statique ici) à régler du filtre
z − e − aT
- Ajustement du gain :
H N ( z ) z =1 =k⋅
a
= H ( p ) = 1 → k =
1 − e − aT
→ H N ( z) =
(1 − e )− aT
1 − e − aT ⋅ z −1
A
1 − e − aT p =0
a
7. 29
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
y (n ) =
1
2
(
x( n ) + y( n − 1) ) → y (n − 1) =
1
2
(
x( n − 1) + y( n − 2) )
1
(
y (n − 2) = x( n − 2) + y( n − 3)
2
)
...
1⎛ 1 1 ⎞ ∞ 1
→ y (n ) = ⎜ x(n ) + x(n − 1) + x(n − 2 ) + ...⎟ = ∑ k +1 x(n − k )
2⎝ 2 4 ⎠ k =0 2
∞
1
RI : h( n) = ∑ k +1 δ (n − k ) de support infini : RII
k =0 2
h(n)
1/2
n
0 1 2 3 4 5
RII
N
1
Troncature : → h( n) = ∑ δ (n − k ) : Somme sur N termes : support N+1 → RIF
k =0 2 k +1
( ∞ remplacé par N (majorant) )
→ Masque de taille infinie remplacé par un masque de taille N : erreur de troncature.
Exemple : Troncature sur N = 4 : Soit g (n) le filtre RIF formé par troncature de h(n)
g(n)
1/2
n
0 1 2 3 4 5
RIF
( )
∞
1 1⎛ 1 ⎞ Y ( z)
h( n) = ∑ k +1
δ (n − k ) ⎯⎯→
TZ
H ( z) = ⎜ −1 ⎟
= → X ( z ) = 2 − z −1 Y ( z )
k =0 2 2 ⎝ 1 − 0.5 z ⎠ X ( z )
conduisant à une relation d’Entrée/Sortie récursive du fitre h(n) causal d’entrée x( n ) et de sortie y (n ) :
1
y ( n) = (x(n) + y (n − 1) )
2
7. 30
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
ANNEXE
Tables des correspondances en z et Laplace
par synthèse par Invariance Indicielle
7. 31
Signaux & systèmes 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
TABLE DES CORRESPONDANCES EN Z ET LAPLACE PAR SYNTHESE PAR INVARIANCE INDICIELLE (FONCTIONS CAUSALES)
⎡ X ( s) ⎤
X A ( s) X N ( z ) = (1 − z −1 ) Z ⎢ A ⎥
⎣ s ⎦
1 1 T 1
⋅
τs τ z −1
1 1⎛T⎞
2
z +1
2 ⎜ ⎟ ⋅
(τ s)2 2 ⎝ τ ⎠ ( z − 1) 2
1 −
T
3 k 1− e τ
1+ τ s k T
−
z−e τ
4 1 ⎡ T
− ⎛T ⎞ ⎛ −
T
⎞⎤
⎢ e τ ⎜ ⎟ − ⎜⎜1 − e τ ⎟⎥
⎟
τ ′ s(1 + τ s) ⎢ ⎝τ ⎠ ⎝ ⎠⎥
⎢ z− ⎥
T ⎛⎜ ⎞ τ ⎛ ⎞ ⎛ ⎞ ⎢ ⎛ T ⎞ ⎛⎜ − ⎞
T T T T
− − −
z−e τ ⎟ − ( z − 1)⎜1 − e τ ⎟ T − τ ⎜1 − e τ ⎟ ⎜ ⎟ − ⎜1 − e τ ⎟⎟ ⎥
τ′⎝⎜ ⎟ τ′ ⎜ ⎟ ⎜ ⎟ ⎢ ⎝τ ⎠ ⎝ ⎥⎦
⎠ ⎝ ⎠= ⎝ ⎠⋅⎣ ⎠
⎛ − ⎞
T
τ′ ⎛ − ⎞
T
(z − 1)⎜⎜ z − e τ ⎟⎟ ( z − 1)⎜⎜ z − e τ ⎟⎟
⎝ ⎠ ⎝ ⎠
5 1
τ τ ′ ⎛⎜ 1 z − 1 1 z − 1 ⎞⎟
(1 + τ s)(1 + τ ′ s) 1+ − +
τ − τ ′ ⎜⎝ τ ′ −
T
τ − ⎟
T
τ′ ⎠
τ
z−e z−e
b1 z + b0
6 1 1ère forme :
z + a1 z + a 0
2
2
⎛ s ⎞
s
1 + 2m +⎜ ⎟ avec :
ω0 ⎝ω0 ⎠
a0 = e −2 mω 0T a1 = −2 a0 cos⎛⎜ ω 0′ T ⎞⎟
⎝ ⎠
avec :
⎡ ω ⎤
′ ′
ω 0′ = ω 0 1 − m2 b0 = a0 + a0 ⎢m 0 sin⎛⎜ ω 0 T ⎞⎟ − cos⎛⎜ ω 0 T ⎞⎟ ⎥
⎢⎣ ω 0 ′ ⎝ ⎠ ⎝ ⎠⎥
⎦
⎡ ω ⎤
′ ′
b1 = 1 − a0 ⎢m 0 sin⎛⎜ ω 0 T ⎞⎟ + cos⎛⎜ ω 0 T ⎞⎟ ⎥
⎢⎣ ω 0 ′ ⎝ ⎠ ⎝ ⎠⎥
⎦
b1 z + b0
2nde forme :
( z − z1 )( z − z1∗ )
Cas 0 < m < 1
avec :
− mω 0 T jω 0 ′ T ∗ ′
z1 = e e z1 = e − mω 0T e − jω 0 T
__________
7. 32
Signaux et systèmes TD 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Algorithme b : sn = 0.5en + 0.5en −1 correspondant (notation plus compacte) au filtre échantillonné à la cadence T :
e(nT) s(nT)
s (nT ) = 0.5e(nT ) + 0.5e[(n − 1)T ]
Exprimer, représenter :
0. Le schéma-bloc (schéma fonctionnel) du filtre
1. La Réponse Impulsionnelle {hn } = {h(nT )}
{d n } = {d (nT )}
2. (facultatif) La réponse indicielle
3. La Fonction de Transfert H (z )
4. La Réponse en Fréquence H ( f ) , son module H ( f ) et son argument Φ ( f ) (f est la fréquence)
5. Les courbes H ( f ) et Φ ( f ) dans son domaine d'utilisation
6. La fonction réalisée (nature du filtre)
7. Facultatif : Mêmes questions pour les algorithmes :
Algorithme a : sn = en
Algorithme c : s n = − 0 . 5en + 0 . 5en −1
Algorithme d : s n = − 0 . 5 en + 0 . 5 en − 2
Algorithme e: sn = 0.5en + 0.5en − 2 : quelle fréquence d’échantillonnage choisir pour couper les fréquences de l’ordre de 1 kHz ?
1. Donner l’équation aux différences du filtre en désignant par yn la sortie et par x n l’entrée.
2. En déduire les 2 formes possibles du filtre (formes causale et non causale) en donnant pour chacune d’elles,
l’algorithme de programmation, le schéma-bloc (schéma fonctionnel) et le mode de balayage des échantillons.
3. Ce filtre est-il stable : - sous sa forme causale ? - sous sa forme non causale ?
TD 7. 1
Signaux et systèmes TD 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
H 0 : gain statique : H 0 = 1
H0
H A ( p) = 1
1 + τp Frequence de coupure : fc = = 1 Hz
2πτ
⎛ 1 ⎞
en l'échantillonnant à T = 0.1 s ⎜ → F = = 10 Hz⎟
⎝ T ⎠
1) Déterminer le filtre numérique par synthèse (en donnant la Fonction de Transfert et l’algorithme de
programmation) :
A) En Temps :
- en traçant les Réponses Impulsionnelle et indicielle échantillonnées du filtre analogique
- en traçant les Réponses Impulsionnelle et indicielle obtenues pour chaque type de synthèse du filtre
numérique.
B) En Fréquence :
- en traçant la Réponse Fréquentielle échantillonnée du filtre analogique.
- en traçant la Réponse Fréquentielle de chaque filtre numérique synthétisé.
TD 7. 2
Signaux et systèmes TD 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Indications
Les réponses analogiques temporelles et fréquentielles sont obtenues par échantillonnage des réponses analogiques.
Les réponses numériques temporelles pourront être obtenues par division de polynômes.
Les réponses numériques fréquentielles sont obtenues par la relation : H N ( z = e i 2πνT ) (ν est la fréquence).
L'échantillonnage se fera en posant : t = nT ou ν = nF selon que la fonction à échantillonner est temporelle
ou fréquentielle (F est la fréquence d’échantillonnage, T est la période d’échantillonnage). Déterminer F.
Rappels
H0
- 1er ordre Fondamental : H A ( p) =
1 + τp
H0
- RI : (Analogique) hA (t ) = TL-1 [HA(p)] = e − t /τ Γ ( t )
τ
h (t)
A
H
0
τ
H
0.05 0
τ t
0 τ 3τ
⎡ H ( p) ⎤
- Réponse indicielle : (Analogique) y A (t ) = TL−1 [ H A ( p) ⋅ TL[Γ (t )]] = TL−1 ⎢ A ⎥
⎣ p ⎦
→ y A (t ) = H 0 (1 − e − t /τ ) Γ (t )
y (t)
A
H .1
0
0.95 H .1
0
t
0 τ 3τ
H0
Réponse Fréquentielle : (Analogique) H A ( f ) = H A ( p = i 2πf ) =
1 + i 2πfτ
H A ( f ) dB HA( f )
H0
H0 dB
f 1 f
0 dB fc = 0
fc 2π τ fc
-20 dB/décade
TD 7. 3
Signaux et systèmes TD 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
2. Structures de réalisation
Soient les 3 structures de réalisation du même filtre. Quel est l’avantage de la 3ème ?
(1) x (2) xn -1
n
(3) z
1 z -1 1 z -1 1 1 1 1 x -1
4 2 4 4 2 4 n
+ z 1
-1 -1 1 2
z z
+ + yn + + yn 4 + y
n
3. Filtre réalisable
Montrer que la condition pour qu'un filtre numérique soit réalisable (≡ utilisable en Temps Réel) est que le degré
du dénominateur de sa FT H(z) soit supérieur ou égal au degré du numérateur de sa FT, soit n ≥ m :
m
∑a k zk
H ( z) = k =0
n
∑b z
k =0
k
k
TD 7. 4
Signaux et systèmes TD 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
5. Filtres récursifs
On propose l'étude de l'algorithme suivant :
Exprimer la Fonction de Transfert H(z) du filtre récursif. En déduire l'expression du pôle de cette fonction.
Quelle doit être la condition sur B pour que le filtre soit stable ?
On suppose cette condition réalisée dans tout ce qui suit. Exprimer alors :
1. La séquence Réponse Impulsionnelle {h(n)} par l'analyse directe et la Réponse Impulsionnelle h(t) à l'aide
de la Transformation en z. En déduire la constante de temps τ du filtre. Quel est le coefficient qui permet
son réglage ? Représenter h(t).
2. Mêmes questions pour la réponse indicielle {d(n)}
3. La Fonction de Transfert H(jω) et son module H
4. On suppose B > 0. Exprimer alors Hmax et Hmin
5. On désire réaliser un filtre passe-bas. On pose alors Hmax = 1
En déduire une relation entre A et B
6. Pour que l'algorithme soit aisément programmable, on choisit A = 2-i
En déduire l'expression de B puis celle de Hmin en fonction de i.
7. Donner l'expression des coefficients A et B et représenter l'allure des courbes H(f) (module et phase) pour
i = 1, 2, 3, 4 sur un même graphe. Que se passe-t-il lorsque i augmente ?
6. Echo acoustique
Implémenter, sur un signal sonore, le filtre générateur d’échos d’équation aux différences : y n = x n + α y n −1
en le transposant de telle sorte à obtenir un écho stable et perceptible (le retard doit être d’au moins environ 100 ms
pour être audible) sachant que le signal sonore x n a été échantillonné au taux d’échantillonnage de 10 kHz.
7. Filtres
Visualiser la Réponse Fréquentielle des filtres passe-bas, passe-haut, coupe-bande et passe-bande de Butterworth,
Tchebychev ... d’ordre variable, à l’aide du programme filters.
TD 7. 5
Signaux et systèmes TD 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Colonnes
Lignes
I.
1. Déterminer la Fonction de Transfert H ( z ) du filtre de dégradation.
TD 7. 6
Signaux et systèmes TD 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
II.
Mêmes questions (1. à 5.) avec la version anticausale du même filtre de dégradation : g n = f n − f n +1 + f n + 2
{
Les signaux u(n) } { y(n)} ont une durée finie N. {h(n)}
et est la Réponse Impulsionnelle d'un filtre causal.
n
−α 0 N−α et {h(n)} = {δ (n)} (Cas particuliers dans cette question seulement).
{ }
1.1.2. Si un signal w( n) a pour Transformée en z ( TZ ) W ( z ) , calculer la TZ de {w( −n)} en fonction de
{
celle de w( n) . }
Y (z)
{
1.1.3. Soit H ( z ) la TZ de h( n) , déterminer } en fonction de la TZ de {h( n)} .
U (z)
1.1.4. En déduire un schéma-bloc simplifié du montage de base.
Y ( z)
1.2.1. Calculer la Fonction de Transfert T1 ( z ) = .
U ( z)
1.2.2 Montrer que la Réponse Fréquentielle associée peut avoir un déphasage [
ψ = Arg T1 (e i 2πν ) ] nul.
1.2.3. Pour quelles valeurs du déphasage de H e ( i 2 πν
) , ψ est-il nul ?
TD 7. 7
Signaux et systèmes TD 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Y (z)
1.3.1. Calculer T2 ( z ) = .
U (z)
1.3.2. Montrer que la Réponse Fréquentielle associée T2 e ( i 2 πν
) a aussi un déphasage nul.
1.3.3. Quel est son gain en module : T2 (e i 2πν ) en fonction de celui du filtre de base H (e i 2πν ) .
2. Filtre en peigne
Le modèle d'un système discret d'entrée {xn } et de sortie {yn } est donné par l'équation de récurrence :
yn = xn - xn-N où N est une constante entière ∈ N*.
1. Donner la Fonction de Transfert H(z) du filtre.
2. Déterminer et tracer sa Réponse Impulsionnelle.
3. Calculer et tracer pour N = 8, le module de sa Réponse Fréquentielle.
4. Quel est le type de ce filtre (pour N = 8) ?
3. Filtrage d’écho
Lors de l'enregistrement en studio d'un signal x(t), un écho s'ajoute généralement à celui-ci et le récepteur
(enregistreur) reçoit en fait :
y(t) = x(t) + α x(t-τ) où 0<α<1 et τ>0
On peut réduire l'effet d'écho en traitant le signal y(t).
A.1. Déteminer la Fonction de Transfert H(ν) du filtre qui produit v(t) = x(t).
A.2. Tracer l’allure des spectres d’amplitude et de phase de H(ν).
H0
A.3. Comment faire pour assimiler H(ν) à un 1er ordre du type : (pour les fréquences faibles) ?
ν
1- i
ν0
B. Le traitement est numérique
|G(ν)|
y(nT) v(nT)
y(t) Filtre H(z) Bloqueur d'ordre 0 v(t)
T = 1/F ν
0 F/2
Filtre de lissage
On suppose que le signal x(t) est à bande de fréquences limitée à Fm (X(ν) = 0 pour ν > Fm )
B.1. On pose τ = NT. Comment choisir N ?
B.2. Donner la FT H(z) du filtre (ansi que son équation aux différences ou algorithme) qui engendre
v(nT) = x(nT).
TD 7. 8
Signaux et systèmes TD 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
4. Filtrage demi-bande
Un filtre numérique demi-bande de type RIF à phase linéaire, d’entrée x(nT) et de sortie y(nT) (notés plus simplement
xn et yn ) où T représente la période d’échantillonnage (F = 1/T est la fréquence d’ échantillonnage) est défini par
une Réponse Fréquentielle H(f) réelle (f est la fréquence), antisymétrique par rapport au point (F/4 , 0.5) :
⎧ ⎛ F⎞
⎪ H ⎜⎝ 4 ⎟⎠ = 0.5
⎪
⎨
⎪ H ⎛⎜ F + f ⎞⎟ = 1 − H ⎛⎜ F − f ⎞⎟
⎪⎩ ⎝ 4 ⎠ ⎝4 ⎠
1⎛ 1 1 ⎞
On considère ici le filtre dont l’équation récurrente est donnée par : yn = ⎜ x n + x n −1 + x n +1 ⎟
2⎝ 2 2 ⎠
Y( f )
1. Déduire de la Fonction de Transfert H ( z ) du filtre, sa Réponse Fréquentielle H ( f ) =
X( f )
exprimée en fonction de la fréquence d’échantillonnage F.
∗
4. L’équation récurrente d’un demi-bande RIF causal s’écrit de façon générale : (M ∈N )
1⎡ 2M
⎤
yn = ⎢
2⎣
x n −2 M + ∑ a i x n − 2 i +1 ⎥
i =1 ⎦
Y ( z)
Ecrire sa Fonction de Transfert H 0 ( z ) = sous la forme :
X ( z)
H0 ( z) =
1
2
[
G0 ( z 2 ) + z −1 G1 ( z 2 ) ] 2 2
où G0 ( z ) et G1 ( z ) sont à préciser.
TD 7. 9
Signaux et systèmes TD 7. Filtrage linéaire - Analyse & Synthèse des filtres numériques
Rappels
H0
- 2nd ordre Fondamental : H A ( p) = 2
(Cas : 0 < m < 1)
p 2m
+ p +1
ω 20 ω0
H 0ω 0
- RI : (Analogique) hA (t ) = ⋅ e − mω 0t ⋅ sin(ω ′0 t ) ⋅ Γ (t ) avec : ω ′0 = ω 0 1 − m 2
1− m 2
⎡ 1 ⎤
- Réponse indicielle : (Analogique) y A (t ) = H 0 ⎢1 − e − mω 0t ⋅ sin(ω ′0 t + ψ ) ⎥ Γ (t )
⎣ 1 − m2 ⎦
avec : ψ = Arcos m et ω ′0 = ω 0 1 − m 2
y A (t)
ω ′0 : pseudo - pulsation
H0 ⋅1
T'0 = 2π : pseudo - période
ω ′0
t
0 T'0
H0 ω0
Réponse Fréquentielle : (Analogique) HA( f ) = avec : f0 =
f 2
f 2π
1− 2
+ i 2m
f0 f0
H A ( f ) dB HA( f )
H0 H0
dB
0 dB f 0 f
f f
0 0
-40 dB/décade
__________
TD 7. 10
Signaux & systèmes TP 7. Filtrage
Sinus1 : Fréquence : f := 0.02Hz Période d'échantillonnage : T := 1 s (elle doit vérifier la condition de Shannon)
2 0.5
xn 0 Xk
2 0
0 10 20 30 40 50 0 5 10 15 20 25
n k
Sinus2 : Fréquence : f := 0.1 Hz Période d'échantillonnage : T := 1 s (elle doit vérifier la condition de Shannon)
2 0.6
0.4
xn 0 Xk
0.2
2 0
0 10 20 30 40 50 0 5 10 15 20 25
n k
Sinus 1 & 2 : Fréquences : f1 := 0.02 Hz Période d'échantillonnage : T := 1 s (elle doit vérifier la condition de Shannon)
f2 := 0.1 Hz
sin1 := sin( 2 ⋅ π ⋅ f1⋅ n ⋅ T) sin2 := sin( 2 ⋅ π ⋅ f2⋅ n ⋅ T) x := sin1 + sin2 X := TFD ( x , k , M )
n n n n n k
5 0.6
0.4
xn 0 Xk
0.2
5 0
0 10 20 30 40 50 0 5 10 15 20 25
n k
Les 2 composantes sinusoïdales sont visibles par l'intermédiaire des 2 raies spectrales en k = 1 et k = 5.
TP 7. 1
Signaux & systèmes TP 7. Filtrage
Filtrage de x de la fréquence f2 par filtrage passe-bas (filtre Butterworth d'ordre 3) coupant les fréquences > f
n 0
RI du filtre :
h ( t) := H( p ) invlaplace , p →
Discrétisation du filtre : hr := h ( n ⋅ T) ⋅ Γ n
n
n
Réponse du filtre : y :=
n ∑ x ⋅ hr
k n− k
Spectre : Y := TFD ( y , k , M )
k
k=0
1.078 0.469
yn Yk
− 1.111 −3
6.804⋅ 10
−1 n 49
−1 k 24
(
lowpassfilter := iirlow butter( 3 ) , f )
0
y := response ( x , lowpassfilter , M ) Y := TFD ( y , k , M )
k
1.071 0.469
yn Yk
− 1.105 −3
6.81× 10
−1 n 49
−1 k 24
TP 7. 2
Signaux & systèmes TP 7. Filtrage
1 k 24
II. Analyse des filtres numériques Modifier les coeffs du filtre RIF causal d'ordre 2 et vérifier que sa phase est
linéaire pour une RI symétrique % à l'instant à la demi-séquence : a = a
0 2
n := 0 .. 10
a := d := δ ( n , 0 )
0 n
Coefficients du filtre RIF causal : ??? a := Π n := 1 if 3 ≤ n < 6
1
a := 0 otherwise
h := a ⋅d if n = 0 2
RI : n 0 n
a ⋅d + a ⋅d if n = 1 2
0 n 1 n− 1
a ⋅d + a ⋅d + a ⋅d otherwise hn
0 n 1 n− 1 2 n− 2
−1 −2
H( z) := a + a ⋅ z + a ⋅z 0
FT : 0 1 2
−1 n 10
Réponse en Fréquence : f := −0.5 , −0.5 + 0.1 .. 0.5
( i⋅ 2⋅ π⋅ f ) ( i⋅ 2⋅ π⋅ f )
−1 −2
H( f ) := a + a ⋅ e +a ⋅ e R( f ) := Re( H( f ) ) I( f ) := Im( H( f ) )
0 1 2
Note : φ( f ) = arg ( H( f ) ) est buggé !
φ( f ) := atan⎛⎜ ⎞
I( f )
Phase :
⎝ R( f ) ⎠ 1.257
φ(f )
− 1.257
2 − 0.951
0 5 10
n
0 n 10
Réponse à une porte : x := Π n y := a ⋅x if n = 0
n n 0 n
a ⋅x + a ⋅x if n = 1
0 n 1 n− 1
a ⋅x + a ⋅x + a ⋅x otherwise
1 0 n 1 n− 1 2 n− 2
2
xn yn
0 0
0 5 10
n 0 n 10
TP 7. 3
Signaux & systèmes TP 7. Filtrage
III. Synthèse des filtres numériques Note : Pour une meilleure lisibilité, les signaux à TD seront tracés à TC
RI Analogique RI Numérique
6.283 6.283
Conclusion : ???
hA ( t) hN( n)
− 11 − 11
7.641⋅ 10 7.641⋅ 10
0 t 4 0 n⋅ T 4
HA( p )
Analogique YA( p ) := yA( t) := YA( p ) invlaplace , p →
p
1
Numérique YN( z) := HN( z) ⋅ yN( n ) := YN( z) invztrans , z →
−1
1−z
0 6.283
0.998
0 2 4
t 0 t 4 0 n⋅ T 4
TP 7. 4
Signaux & systèmes TP 7. Filtrage
H0
Analogique f := 0 , 0.1 .. Fmax Ha( f ) :=
1 + τ ⋅ ( i⋅ 2⋅ π ⋅ f )
1 H0 1
Numérique f := 0 , 0.1 .. Hn( f ) := ⋅
2⋅ T τ −T
τ − i⋅ 2⋅ π ⋅ f ⋅ T
1−e ⋅e
f := 0 , 0.1 .. Fmax 1
f := 0 , 0.1 ..
RF Analogique 2⋅ T RF Numérique
1 20
0 0
0.1 1 10 0.1 1 10
f f
log log
ω
Analogique YA( p ) := HA( p ) ⋅ yA( t) := YA( p ) invlaplace , p →
2 2
p +ω
⋅ sin( ω ⋅ T)
−1
z
Numérique YN( z) := HN( z) ⋅ yN( n ) := YN( z) invztrans , z →
⋅ cos( ω ⋅ T) + z
−1 −2
1 − 2⋅ z
− 0.953 − 12.824
2
0 2 4
t 0 t 4 0.1 n⋅ T 4
TP 7. 5
Signaux & systèmes TP 7. Filtrage
Dirac( n ) := δ ( n , 0 )
RI Analogique RI Numérique
6.283 0.467
− 11
7.641⋅ 10 0
0 t 4 0 n⋅ T 4
HA( p )
Analogique YA( p ) := yA( t) := YA( p ) invlaplace , p →
p
1
Numérique YN( z) := HN( z) ⋅ yN( n ) := YN( z) invztrans , z →
−1
1−z
0 0
0.998
0 2 4
t 0 t 4 0 n⋅ T 4
TP 7. 6
Signaux & systèmes TP 7. Filtrage
H0
Analogique f := 0 , 0.1 .. Fmax Ha( f ) :=
1 + τ ⋅ ( i⋅ 2⋅ π ⋅ f )
⎛ − T⎞
1 ⎜ τ − i⋅ 2⋅ π ⋅ f ⋅ T
Numérique f := 0 , 0.1 ..
Hn( f ) := H0⋅
⎝1 − e ⎠ ⋅e
2⋅ T
−T
τ − i⋅ 2⋅ π ⋅ f ⋅ T
1−e ⋅e
f := 0 , 0.1 .. Fmax 1
f := 0 , 0.1 ..
RF Analogique 2⋅ T RF Numérique
1 1
0 0
0.1 1 10 0.1 1 10
f f
log log
ω
Analogique YA( p ) := HA( p ) ⋅ yA( t) := YA( p ) invlaplace , p →
2 2
p +ω
⋅ sin( ω ⋅ T)
−1
z
Numérique YN( z) := HN( z) ⋅ yN( n ) := YN( z) invztrans , z →
⋅ cos( ω ⋅ T) + z
−1 −2
1 − 2⋅ z
− 0.953 − 0.952
2
0 2 4
t 0 t 4 0.2 n⋅ T 4
TP 7. 7
Signaux & systèmes TP 7. Filtrage
RI Analogique RI Numérique
6.283 0.421
0 t 4 0 n⋅ T 4
HA( p )
Analogique YA( p ) := yA( t) := YA( p ) invlaplace , p →
p
1
Numérique YN( z) := HN( z) ⋅ yN( n ) := YN( z) invztrans , z →
−1
1−z
0 0.421
0.998
0 2 4
t 0 t 4 0 n⋅ T 4
TP 7. 8
Signaux & systèmes TP 7. Filtrage
H0
Analogique f := 0 , 0.1 .. Fmax Ha( f ) :=
1 + τ ⋅ ( i⋅ 2⋅ π ⋅ f )
H0⋅ tan⎛⎜
T⎞
Numérique f := 0 , 0.1 ..
1
Hn( f ) :=
⎝τ ⎠
1 + tan⎛⎜
2⋅ T T⎞ − i⋅ 2⋅ π ⋅ f ⋅ T
−e
⎝τ ⎠
f := 0 , 0.1 .. Fmax 1
f := 0 , 0.1 ..
RF Analogique 2⋅ T RF Numérique
1 1
0 0
0.1 1 10 0.1 1 10
f f
log log
ω
Analogique YA( p ) := HA( p ) ⋅ yA( t) := YA( p ) invlaplace , p →
2 2
p +ω
⋅ sin( ω ⋅ T)
−1
z
Numérique YN( z) := HN( z) ⋅ yN( n ) := YN( z) invztrans , z →
⋅ cos( ω ⋅ T) + z
−1 −2
1 − 2⋅ z
− 0.953 − 0.94
2
0 2 4
t 0 t 4 0.1 n⋅ T 4
TP 7. 9
Signaux & systèmes TP 7. Filtrage
RI Analogique RI Numérique
6.283 0.37
0 t 4 0 n⋅ T 4
HA( p )
Analogique YA( p ) := yA( t) := YA( p ) invlaplace , p →
p
1
Numérique YN( z) := HN( z) ⋅ yN( n ) := YN( z) invztrans , z →
−1
1−z
0 0.245
0.998
0 2 4
t 0 t 4 0 n⋅ T 4
TP 7. 10
Signaux & systèmes TP 7. Filtrage
H0
Analogique f := 0 , 0.1 .. Fmax Ha( f ) :=
1 + τ ⋅ ( i⋅ 2⋅ π ⋅ f )
H0⋅ tan⎛⎜ (
⎞ ⋅ 1 + e− i⋅ 2⋅ π⋅ f ⋅ T
T
)
Numérique f := 0 , 0.1 ..
1
Hn( f ) :=
⎝ 2⋅ τ ⎠
1 + tan⎛⎜ ⎞ + ⎛ tan⎛ T ⎞ − 1⎞ ⋅ e− i⋅ 2⋅ π⋅ f ⋅ T
2⋅ T T
⎜ ⎜
⎝ 2⋅ τ ⎠ ⎝ ⎝ 2⋅ τ ⎠ ⎠
f := 0 , 0.1 .. Fmax 1
f := 0 , 0.1 ..
RF Analogique 2⋅ T RF Numérique
1 1
0 0
0.1 1 10 0.1 1 10
f f
log log
ω
Analogique YA( p ) := HA( p ) ⋅ yA( t) := YA( p ) invlaplace , p →
2 2
p +ω
⋅ sin( ω ⋅ T)
−1
z
Numérique YN( z) := HN( z) ⋅ yN( n ) := YN( z) invztrans , z →
⋅ cos( ω ⋅ T) + z
−1 −2
1 − 2⋅ z
− 0.953 − 0.955
2
0 2 4
t 0 t 4 0.1 n⋅ T 4
TP 7. 11
Signaux & systèmes TP 7. Filtrage
I D
R D
TP 7. 12
Signaux & systèmes TP 7. Filtrage
I D
R D
__________
TP 7. 13
Signaux & systèmes
ANNEXE
Annexe
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
La Représentation d’Etat (ou Représentation Interne ou encore Représentation Temporelle) d’un système décrit la
dynamique du système, alors que la Représentation Externe (ou Représentation Fréquentielle (utilisant la FT)) met
en oeuvre des relations d’entrée-sortie.
La Représentation Interne d’un système peut s’obtenir de 2 façons :
- à partir des relations physiques du système, délivrant alors des variables d’Etat ayant une signification
physique mais un modèle de forme quelconque.
- à partir de la FT du système (+ Conditions Initiales (CI) pour une description complète), délivrant un modèle
de forme particulière (canonique, observable ...) mais avec des variables d’Etat sans signification physique.
Soit le système à TC d’entrée u( t ) et de sortie y (t ) régi par une équation différentielle linéaire et stationnaire (≡
à coefficients constants) : (On considère le cas m < n ≡ Système passe-bas)
n m
∑β
i =0
i y (i ) (t ) = ∑ α i u (i ) (t )
i =0
que l’on peut ramener, en divisant les 2 membres par βn à l’équation :
n −1 m
y ( n ) (t ) + ∑ bi y ( i ) (t ) = ∑ ai u ( i ) (t ) soit : y ( n ) (t ) + bn −1 y ( n −1) ( t ) +K+b0 y (t ) = a m u ( m) ( t ) + a m−1u ( m−1) ( t ) +K+ a 0 u(t )
i =0 i =0
Si on prend la TL de cette équation, on obtient la FT du système (si les Conditions Initiales (CI) sont nulles) :
m
Y ( p)
∑a p
i =0
i
i
H ( p) = = n −1
U ( p)
p n + ∑ bi p i
i =0
Y ( p) V ( p ) Y ( p) 1
∑a p i
i
On peut écrire : H ( p) = = ⋅ = n −1
⋅ i =0
U ( p) U ( p ) V ( p) 1
p n + ∑ bi p i
i =0
−1
où v (t ) = TL [V ( p)] est un signal intermédiaire.
n −1
V ( p) 1
Le système de FT : = n −1
traduit l’équation différentielle : v ( n ) (t ) + ∑ bi v ( i ) (t ) = u(t )
U ( p)
p n + ∑ bi p i i =0
i =0
(CI nulles)
x1 (t ) = v(t ) x& 1 (t ) = x 2 (t )
x2 (t ) = x&1 (t ) = v&(t ) x& 2 (t ) = x 3 (t )
En posant x3 (t ) = x&2 (t ) = v&&(t ) on a L
L x& n −1 ( t ) = x n (t )
xn (t ) = x&n −1 (t ) = v ( n −1) (t ) x& n (t ) = v ( n ) (t ) = −b0 x1 ( t ) − b1 x 2 ( t ) − L − bn −1 x n (t ) + u(t )
Les variables xi ( t ) sont les variables d’Etat du système.
4 Annexe. 1
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
⎡ 0 1 0 L 0 ⎤ ⎡0 ⎤
⎢ 0 ⎢0 ⎥ ⎡ x1 ( t ) ⎤
0 1 L 0 ⎥ ⎢ x (t ) ⎥
⎢ ⎥ ⎢ ⎥
A=⎢L L L ⎥ b = ⎢L⎥ c = [1 0 L 0] x(t ) = ⎢ ⎥
2
L L
⎢ ⎥ ⎢ ⎥ ⎢L ⎥
⎢ 0 0 0 L 1 ⎥ ⎢0 ⎥ ⎢ ⎥
⎢⎣−b0 −b1 −b2 L −bn −1 ⎥⎦ ⎢⎣1 ⎥⎦ ⎣ x n (t ) ⎦
∑ a pi
Y ( p) i = 0 i m
= traduisant l’équation différentielle : ∑ ai v ( t ) = y (t )
(i )
Pour la sortie du système, on a :
V ( p) 1 i =0
( m − 1)
(CI nulles) écrite explicitement : amv (t ) + am −1v (t ) +L+ a1v&(t ) + a0v(t ) = y (t )
( m)
x1 (t ) = v(t )
x2 (t ) = x&1 (t ) = v&(t )
Comme v ( t ) = c x( t ) = x1 ( t ) , on a en particulier : x3 (t ) = x&2 (t ) = v&&(t ) relations permettant
L
xm+1 (t ) = x&m (t ) = v ( m) (t )
x& 1 (t ) = x 2 (t )
x& 2 (t ) = x 3 (t )
On a toujours : L
x& n −1 ( t ) = x n (t )
x& n (t ) = v ( n ) (t ) = −b0 x1 ( t ) − b1 x 2 ( t ) − L − bn −1 x n (t ) + u(t )
⎡ 0 1 0 L 0 ⎤ ⎡0 ⎤
⎢ 0 ⎡ x1 ( t ) ⎤
0 1 L 0 ⎥ ⎢0 ⎥
⎢ x (t ) ⎥
⎢ ⎥ ⎢ ⎥
A=⎢L L L ⎥ b = ⎢L⎥ c = [a 0 0 L 0] x(t ) = ⎢ ⎥
2
L L a1 L a m
⎢ ⎥ ⎢ ⎥ ⎢L ⎥
⎢ 0 0 0 L 1 ⎥ ⎢0 ⎥ ⎢ ⎥
⎢⎣−b0 −b1 −b2 L −bn −1 ⎥⎦ ⎢⎣1 ⎥⎦ ⎣ x n (t ) ⎦
4 Annexe. 2
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
∑a p i
n −1 m
(t ) + ∑ bi y (i ) (t ) = ∑ ai u ( i ) (t )
i
Y ( p) i =0 traduisant l’équation différentielle : y
(n)
H ( p) = = n −1
U ( p)
p n + ∑ bi p i
i =0 i =0
i =0
4 Annexe. 3
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
Le découplage des variables d’Etat est obtenu en rendant la matrice A diagonale. Ceci peut par exemple se faire
directement à partir de la FT du système décomposée en éléments simples : (les pôles de la FT sont notés pi )
m m
Y ( p)
∑a p i
i
∏ ( p − p ′) i n
ci
n
ci
H ( p) = = i =0
= i =1
=∑ → Y ( p) = ∑ U ( p)
U ( p) n −1 n
p − pi p − pi
p n + ∑ bi p i ∏(p − p ) i =1 i =1
i
i =0 i =1
n
et en choisissant les variables d’Etat xi (t ) telles que : Y ( p) = ∑ ci X i ( p) , on a les FTs élémentaires
i =1
(CI nulles) :
X 1 ( p) 1
= → x&1 ( t ) = p1 x1 (t ) + u(t )
U ( p) p − p1
X 2 ( p) 1 n n
U ( p)
=
p − p2
→ x& 2 (t ) = p2 x 2 (t ) + u(t ) et : Y ( p) = ∑ ci X i ( p) → y(t ) = ∑ c x (t )
i =1
i i
i =1
L
X n ( p) 1
= → x& n (t ) = pn x n (t ) + u(t )
U ( p) p − pn
⎡ p1 0 L 0 ⎤ ⎡1 ⎤ ⎡ x1 ( t ) ⎤
⎢0 p L 0⎥ ⎢1 ⎥ ⎢ x (t ) ⎥
A=⎢ ⎥ b=⎢ ⎥ c = [ c1 c 2 L cn ] x(t ) = ⎢ ⎥
2 2
⎢L L L L ⎥ ⎢L⎥ ⎢L ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 0 L pn ⎦ ⎣1 ⎦ ⎣ x n (t ) ⎦
4 Annexe. 4
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
Supposons un pôle multiple p1 d’ordre k dans la FT du système : (les pôles de la FT sont notés pi )
m m
Y ( p)
∑a p i
i
∏ ( p − p ′) i k
ci n
ci
H ( p) = = i =0
n −1
= i =1
=∑ k − i +1
+ ∑
( p − p1 ) i = k +1 p − pi
n
U ( p)
p n + ∑ bi p i ( p − p1 ) k ∏(p − p ) i
i =1
i =0 i = k +1
k
ci n
ci
→ Y ( p) = ∑ k − i +1
U ( p ) + ∑ U ( p)
i =1 ( p − p1 ) i = k +1 p − pi
1 X 1 ( p) 1
X 1 ( p) = U ( p) → = ⎯⎯ ⎯⎯→ x&1 (t ) = p1 x1 (t ) + x 2 (t )
CI nulles
( p − p1 ) k
X 2 ( p) p − p1
1 X 2 ( p) 1
X 2 ( p) = U ( p) → = ⎯⎯ ⎯⎯→ x& 2 (t ) = p1 x 2 (t ) + x 3 (t )
CI nulles
( p − p1 ) k −1
X 3 ( p ) p − p1
L
1 X k ( p) 1
X k ( p) = U ( p) → = ⎯⎯ ⎯⎯→ x& k (t ) = p1 x k (t ) + u (t )
CI nulles
p − p1 U ( p) p − p1
1 X ( p) 1
X k +1 ( p ) = U ( p) → k +1 = ⎯⎯ ⎯⎯→ x& k +1 (t ) = p k +1 x k +1 (t ) + u (t )
CI nulles
p − p k +1 U ( p) p − p k +1
L
1 X n ( p) 1
X n ( p) = U ( p) → = ⎯⎯ ⎯⎯→ x& n (t ) = p n x n (t ) + u (t )
CI nulles
p − pn U ( p) p − pn
on arrive à :
⎡0 ⎤
⎡ p1 0 L L L L 0⎤ ⎢0 ⎥
⎢0 p 0 L L L 0⎥ ⎢ ⎥
⎢ 1 ⎥ ⎢L⎥ ⎡ x1 ( t ) ⎤
⎢L 0 L 0 0 L L⎥ ⎢ ⎥ ⎢ x (t ) ⎥
⎢ ⎥ b = ⎢0 ⎥ c = [ c1 c2 L cn ] x(t ) = ⎢ ⎥
2
A=⎢0 0 L p1 0 L 0⎥
⎢1 ⎥ ⎢L ⎥
⎢0 0 L 0 p k +1 L 0⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢L⎥ ⎣ x n (t ) ⎦
⎢L L L L L L L⎥
⎢1 ⎥
⎢0 0 L 0 0 L pn ⎥⎦ ⎣ ⎦
⎣
( k − 1) coeffs. 0
4 Annexe. 5
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
x( t ) = e A ( t − t0 )
x(t 0 ) + ∫ e A ( t −τ ) B u(τ )dτ
t0
En effet, la TL de l’équation d’Etat donne (CI non nulles) : pX( p) − x(t0 ) = AX( p) + BU ( p)
d’où : X( p) = [ pI − A ] x(t0 ) + [ pI − A ] BU ( p)
−1 −1
et comme {
TL−1 [ pI − A ]
−1
}=e At
on a,
[ ]
x(t ) = e A ( t − t 0 ) x(t0 ) + e At ∗ Bu(t ) = e A ( t − t 0 ) x(t0 ) + ∫ e A ( t −τ ) B u(τ ) dτ
t0
t
4 Annexe. 6
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
La matrice Φ( t ,0) = e
At
{
= TL−1 [ pI − A ]
−1
} s’obtient en effectuant terme à terme la TL −1
de la matrice
[ pI − A ]−1 .
Le calcul de la matrice pI − A [ ]−1 peut se faire itérativement à l’aide de l’algorithme de Leverrier.
1.7. Réponses Impulsionnelle et indicielle. Fonction de Transfert
La RI, la réponse indicielle et la FT du système peuvent être établies à partir de la Représentation d’Etat du
système.
Soit x(t ) = 0 ∀t ≤ t 0 = 0 .
[ ]
T
Considérons le vecteur entrée u( t ) = u1 ( t ) L u p (t ) avec u k (t ) = 0 ∀k = 1,L , p et k ≠ j et
u j (t ) = δ (t ) (Impulsion de Dirac).
On a donc u( t ) = 0 L [ 0 δ (t ) 0 L 0]
T
noté u j (t ) = [0 L 0 δ (t ) 0 L 0]
T
h j ( t ) = C∫ e A ( t −τ )
b j δ (τ ) dτ + d j δ ( t ) = C e At
∫e
− Aτ
b j δ (τ ) dτ + d j δ ( t ) = C e At b j + d j δ (t )
0 0
où b j (resp. d j ) désigne la j-ième colonne de la matrice B (resp. D ).
[ ]
T
On considére maintenant le vecteur entrée u( t ) = u1 ( t ) L u p (t ) avec uk (t ) = 0 ∀k = 1,L , p
et k ≠ j et u j ( t ) = Γ (t ) (Echelon unité).
On a donc u( t ) = 0 L [ 0 Γ (t ) 0 L 0]
T
noté u j ( t ) = 0 L [ 0 Γ (t ) 0 L 0]
T
Cette entrée fournit le vecteur réponse indicielle r( t ) noté également r j ( t ) et ainsi déterminé pour t ≥ 0 :
t t t
r j (t ) = C∫ e A ( t −τ ) b j Γ (τ )dτ + d j = C∫ e Aξ b j Γ (t − ξ )dξ + d j = C∫ e Aξ b j dξ + d j
0 0 0
Γ( t - ξ)
ξ
car Γ( t − ξ ) = 1 entre 0 et t : 0 t
∫e
Aξ
Comme dξ = A −1 (e At − I) = (e At − I) A −1 (à condition que A soit bien sûr régulière), on a donc :
0
[ ]
r j (t ) = CA −1 e At − I b j + d j = C e At − I A −1b j + d j [ ]
Si l’on fait varier l’index j ( j = 1,L , p ), on obtient la matrice de réponses indicielles :
[ pI − A]−1 = adj[ pI − A]
m
det[ pI − A ] = ∏ ( p − λ i )
det[ pI − A ] i =1
adj[M ] est la matrice adjointe de M , obtenue à partir de la matrice C des cofacteurs : adj[M ] = C Τ
det[M ] représente le déterminant de la matrice M . m est le nombre de pôles de H( p)
Les modes du système (RI des sous-systèmes élémentaires du 1er ordre) s’obtiennent à partir des pôles de la FT.
La Représentation d’Etat d’un système n’étant pas unique, on peut définir un nouvel Etat du système, noté x$ (t ) ,
et obtenu à partir de l’ancien Etat x(t ) par la transformation x$ ( t ) = P ⋅ x( t ) où P est une matrice régulière
n×n −1
( P ∈R ). On a donc : x( t ) = P ⋅ x$ (t ) et les Représentations d’Etat équivalentes :
Les 2 systèmes ainsi représentés sont équivalents, c’est-à-dire qu’ils ont même RI et FT, et la matrice de transition
d’Etat est donnée par : $ (t ,0) = P Φ(t ,0) P −1
Φ
1.9. Stabilité
Un système causal stable est tel que sa RI h(t ) vérifie : lim h(t ) = 0 soit :
t →∞
En fréquence, cette condition s’écrit : tous les pôles de la FT H ( p ) ont une partie réelle négative.
La FT a pour expression : H ( p ) = C pI − A [ ]−1 B + D . Soit λi les m valeurs propres de la matrice A :
les pôles de la FT étant les valeurs propres de A , cette condition devient : Re(λ i ) < 0 ∀i ∈ [1, m] .
4 Annexe. 8
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
Systèmes électriques
Circuit RC intégrateur à TC Entrée : tension u(t) - Sortie : tension y(t)
i(t)
u(t) R y(t)
C
⎧ ′ 1
Lois de Kirschoff : ⎪ y (t ) = i (t )
⎨ C
⎪⎩ y (t ) = − Ri (t ) + u (t )
⎡ y (t )⎤
En choisissant le vecteur d’Etat : x(t ) = ⎢ ⎥ on a la Représentation d’Etat du système :
⎣i (t ) ⎦
⎧⎡ y ′(t )⎤ ⎡0 1 / C ⎤ ⎡ y (t )⎤ ⎡0⎤
⎪⎢ ′ ⎥ = ⎢ ⎥⎢ ⎥ + ⎢ ⎥ u (t ) ⎧ ⎡0 1 / C ⎤ ⎡0 ⎤
⎪⎣ i (t ) ⎦ ⎣0 0 ⎦ ⎣ i (t ) ⎦ ⎣0⎦ ⎪x& (t ) = ⎢ ⎥ x(t ) + ⎢ ⎥ u (t )
⎨ soit : ⎨ ⎣0 0 ⎦ ⎣0 ⎦
⎪ y (t ) = [0 − R ]⎡ y (t )⎤ + 1.u (t ) ⎪ y (t ) = [0 − R ]x(t ) + 1. u (t )
⎪ ⎢ i (t ) ⎥ ⎩
⎩ ⎣ ⎦
c’est-à-dire :
⎧x& (t ) = A x(t ) + B u (t ) ⎡0 1 / C ⎤ ⎡0 ⎤
⎨ avec : A=⎢ ⎥ B=⎢ ⎥ C = [0 − R ] D =1
⎩ y (t ) = C x(t ) + D u (t ) ⎣0 0 ⎦ ⎣0 ⎦
4 Annexe. 9
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
La forme générale d’un système à TD d’entrée u( k ) et de sortie y ( k ) régi par une équation aux différences
linéaire et stationnaire (≡ à coefficients constants) est donnée par : (Cas causal)
N
N N
Y ( z)
∑a z i
−i
i =1
Y ( z)
∑ ai z −i ∑ a i z N −i ∑ (a i − bi a 0 ) z − i
On peut écrire : H ( z) = = i =0
N
= i =0
N
= a0 + i =1
N
d’où :
U ( z)
1 + ∑ bi z −i
z + ∑ bi z
N N −i
1 + ∑ bi z −i
i =1 i =1 i =1
N
∑ (a i − bi a0 ) z − i N
Y ( z ) = a0U ( z ) + i =1
N U ( z ) = a0U ( z ) + ∑ (ai − bi a0 ) z − i Q( z ) (1)
1 + ∑ bi z −i i =1
i =1
N
U ( z)
si on pose : Q( z ) = N
c’est-à-dire : Q( z ) = − ∑b z i
−i
Q( z ) + U ( z ) (2)
1 + ∑ bi z −i i =1
i =1
X 1 ( z ) = z − N Q( z )
zX 1 ( z ) = X 2 ( z ) x1 ( k + 1) = x2 ( k )
X 2 ( z ) = z − N +1Q( z )
→
zX 2 ( z ) = X 3 ( z ) →
x2 ( k + 1) = x3 ( k )
L
L L
X N −1 ( z ) = z −2 Q( z ) zX N −1 ( z ) = X N ( z ) x N −1 ( k + 1) = x N ( k )
X N ( z ) = z −1Q( z )
N
(1) s’écrit : Y ( z ) = a0U ( z ) + ∑ (ai − bi a0 ) X N +1− i ( z ) (5) qui dans le domaine temporel donne :
ii = 1
N
y ( k ) = a0u( k ) + ∑ (ai − bi a0 ) x N +1− i ( k ) (6)
i =1
Equation d’Etat : x( k + 1) = A x( k ) + b u( k )
Equation d’observation : y ( k ) = cx( k ) + d u( k )
4 Annexe. 10
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
où la matrice A et les vecteurs b , c et d ne dépendent pas du temps (système stationnaire ≡ équation aux
différences à coeffs. constants) :
⎡ 0 1 0 L 0 ⎤ ⎡0 ⎤
⎢ 0 ⎢0 ⎥ ⎡ x1 ( k ) ⎤
0 1 L 0 ⎥ ⎢x (k ) ⎥
⎢ ⎥ ⎢ ⎥ c = [a − b a a N −1 − bN −1a 0 L a1 − b1a 0 ] d = [a 0 ]
x( k ) = ⎢ ⎥
2
A=⎢L L L L L ⎥ b = ⎢L⎥ N N 0
⎢ ⎥ ⎢ ⎥ ⎢L ⎥
⎢ 0 0 0 L 1 ⎥ ⎢0 ⎥ ⎢ ⎥
⎣ x N ( k )⎦
⎢⎣−bN −bN −1 −bN − 2 L −b1 ⎥⎦ ⎢⎣1 ⎥⎦
X N ( z ) = z −1 [a1U ( z ) − b1Y ( z ) + X N −1 ( z )]
X N −1 ( z ) = z −1 [a 2U ( z ) − b2 Y ( z ) + X N − 2 ( z )]
L (8)
X 2 ( z ) = z −1 [a N −1U ( z ) − b N −1Y ( z ) + X 1 ( z )]
X 1 ( z ) = z −1 [ a N U ( z ) − b N Y ( z ) ]
zX N ( z ) = X N −1 ( z ) − b1 X N ( z ) + ( a1 − b1 a 0 )U ( z )
zX N −1 ( z ) = X N − 2 ( z ) − b2 X N ( z ) + ( a 2 − b2 a 0 )U ( z )
L
zX 2 ( z ) = X 1 ( z ) − b N −1 X N ( z ) + (a N −1 − b N −1 a 0 )U ( z )
zX 1 ( z ) = −b N X N ( z ) + (a N − b N a 0 )U ( z )
−1
qui donne par TZ (si CI nulles) :
x N ( k + 1) = x N −1 ( k ) − b1 x N ( k ) + (a1 − b1 a 0 ) u( k )
x N −1 ( k + 1) = x N − 2 ( k ) − b2 x N ( k ) + ( a 2 − b2 a 0 ) u( k )
L
x 2 ( k + 1) = x1 ( k ) − b N −1 x N ( k ) + ( a N −1 − b N −1 a 0 ) u( k )
x1 ( k + 1) = −b N x N ( k ) + ( a N − b N a 0 ) u( k )
Equation d’Etat : x( k + 1) = A x( k ) + b u( k )
Equation d’observation : y ( k ) = c x( k ) + d u( k )
4 Annexe. 11
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
⎡ 0 0 L 0 −bN ⎤ ⎡a N − bN a0 ⎤
⎢ 1 0 L 0 −b ⎥ ⎢a − b a ⎥ ⎡ x1 ( k ) ⎤
⎢ N −1 ⎥ ⎢ N −1 N − 1 0 ⎥ ⎢x (k ) ⎥
A = ⎢L L L L L ⎥ b = ⎢L ⎥ c = [0 0 L 1] d = [a 0 ] x( k ) = ⎢
2 ⎥
⎢ ⎥ ⎢ ⎥ ⎢L ⎥
⎢0 0 L 0 −b2 ⎥ ⎢a2 − b2 a0 ⎥ ⎢ ⎥
⎢⎣ 0 0 L 1 ⎣ x N ( k )⎦
−b1 ⎥⎦ ⎢⎣a1 − b1a0 ⎥⎦
Le découplage des variables d’Etat est obtenu en rendant la matrice A diagonale. Ceci peut par exemple se faire
directement à partir de la FT du système décomposée en éléments simples : (les pôles de la FT sont notés pi )
N N N
Y ( z)
∑a z i
−i
∑ (a i − bi a 0 ) z − i ∑ (a i − bi a 0 ) z N − i N
ci
H ( z) = = i =0
= a0 + i =1
= a0 + i =1
= a0 + ∑ avec
U ( z) N N N
z − pi
1 + ∑ bi z − i 1 + ∑ bi z − i ∏ (z − p )
i =1
i
i =1
i =1 i =1
Y ( z)
ci = ( z − pi ) ci
N
→ Y ( z ) = a 0U ( z ) + ∑ U ( z) (10)
U ( z) z = pi i =1 z − pi
X 1 ( z) 1
= → zX 1 ( z ) = p1 X 1 ( z ) + U ( z ) ⎯CI
⎯nulles
⎯
⎯→ x1 (k + 1) = p1 x1 (k ) + u (k )
U ( z ) z − p1
X 2 ( z) 1
= → zX 2 ( z ) = p 2 X 2 ( z ) + U ( z ) ⎯CI
⎯nulles
⎯
⎯→ x 2 (k + 1) = p 2 x 2 (k ) + u (k )
U ( z) z − p2
L
X N ( z) 1
= → zX N ( z ) = p N X N ( z ) + U ( z ) ⎯CI
⎯nulles
⎯
⎯→ x N (k + 1) = p N x N (k ) + u (k )
U ( z) z − pN
N
l’observation en (10) s’écrit : Y ( z ) = a 0 U ( z ) + ∑ ci X i ( z )
i =1
Sous forme matricielle, on a :
Equation d’Etat : x( k + 1) = A x( k ) + b u( k )
Equation d’observation : y ( k ) = c x( k ) + d u( k )
où la matrice A et les vecteurs b , c et d sont donnés par :
⎡ p1 0 L 0 ⎤ ⎡1 ⎤ ⎡ x1 ( k ) ⎤
⎢0 p L 0 ⎥ ⎢1 ⎥ ⎢x (k ) ⎥
A=⎢
2 ⎥ b=⎢ ⎥ c = [c1 c2 L cN ] d = [a 0 ] x( k ) = ⎢
2 ⎥
⎢L L L L ⎥ ⎢L⎥ ⎢L ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 0 L pN ⎦ ⎣1 ⎦ ⎣ x N ( k )⎦
4 Annexe. 12
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
Supposons un pôle multiple p1 d’ordre m dans la FT du système : (les pôles de la FT sont notés pi )
N N N
Y ( z)
∑a z i
−i
∑ (a i − bi a 0 ) z − i ∑ (a i − bi a 0 ) z N − i m
ci N
ci
H ( z) = = i =0
= a0 + i =1
= a0 + i =1
= a0 + ∑ + ∑
U ( z) N N N
( z − p1 ) m + i −1
z − pi
1 + ∑ bi z − i 1 + ∑ bi z − i ( z − p1 ) m ∏ (z − p )
i = m +1
i
i =1 i = m +1
i =1 i =1
m
ci N
ci
→ Y ( z ) = a 0U ( z ) + ∑ m + i −1
U ( z ) + ∑ U ( z) (11)
i =1 ( z − p1 ) i = m +1 z − pi
1 X 1 ( z) 1
X 1 ( z) = U ( z) → = ⎯⎯ ⎯⎯→ x1 ( k + 1) = p1 x1 (k ) + x 2 ( k )
CI nulles
(z − p1 ) m
X 2 ( z ) z − p1
1 X 2 ( z) 1
X 2 ( z) = U ( z) → = ⎯⎯ ⎯⎯→ x 2 ( k + 1) = p1 x 2 (k ) + x 3 ( k )
CI nulles
(z − p1 ) m −1
X 3 ( z ) z − p1
L
1 X m ( z) 1
X m ( z) = U ( z) → = ⎯⎯ ⎯⎯→ x m (k + 1) = p1 x m (k ) + u (k )
CI nulles
z − p1 U ( z) z − p1
1 X ( z) 1
X m +1 ( z ) = U ( z ) → m +1 = ⎯⎯ ⎯⎯→ x m +1 (k + 1) = p m +1 x m +1 (k ) + u ( k )
CI nulles
z − p m +1 U ( z) z − p m +1
L
1 X N ( z) 1
X N ( z) = U ( z) → = ⎯⎯ ⎯⎯→ x N (k + 1) = p N x N ( k ) + u (k )
CI nulles
z − pN U ( z) z − pN
N
l’observation en (11) s’écrit : Y ( z ) = a 0 U ( z ) + ∑ ci X i ( z )
i =1
Sous forme matricielle, on a :
Equation d’Etat : x( k + 1) = A x( k ) + b u( k )
Equation d’observation : y ( k ) = c x( k ) + d u( k )
où la matrice A et les vecteurs b , c et d sont donnés par :
⎡0 ⎤
⎡ p1 0 L L L L 0 ⎤ ⎢0 ⎥
⎢0 p 0 L L L 0 ⎥ ⎢ ⎥
⎢ 1 ⎥ ⎢L⎥ ⎡ x1 ( k ) ⎤
⎢L 0 L 0 0 L L⎥ ⎢ ⎥ ⎢x (k ) ⎥
⎢ ⎥ b = ⎢0 ⎥ c = [c1 c2 L cN ] d = [a 0 ] x( k ) = ⎢
2 ⎥
A=⎢0 0 L p1 0 L 0 ⎥ ⎢L ⎥
⎢1 ⎥
⎢0 0 L 0 p m +1 L 0 ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎣ x N ( k )⎦
⎢L⎥
⎢L L L L L L L⎥
⎢1 ⎥
⎢0 0 L 0 0 L p N ⎥⎦ ⎣ ⎦
⎣
( m − 1) coeffs. 0
4 Annexe. 13
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
On a la propriété : Φ( k , k ) = A = I 0
4 Annexe. 14
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
d’où : { }
x( k ) = TZ −1 [ zI − A ] z x(0) + TZ −1 [ zI − A ] BU ( z )
−1
{ −1
}
En identifiant cette relation avec la solution de l’équation d’Etat, on obtient l’expression de la matrice de
transition d’Etat :
Φ( k ,0) = A k = TZ −1 [ zI − A ] z { −1
}
{ }
k −1
∑A Bu(i ) = TZ −1 [ zI − A ] BU ( z )
k − i −1 −1
et :
i =0
La matrice Φ( k ,0) = A
k
= TZ −1 {[zI − A] z} s’obtient en effectuant terme à terme la TZ
−1 −1
de la
matrice {[zI − A] z} .
−1
La RI, la réponse indicielle et la FT du système peuvent être établies à partir de la Représentation d’Etat du
système.
Soit x( k ) = 0 ∀k ≤ k 0 = 0 .
Posons :
⎡1 ⎤ ⎡0 ⎤ ⎡0 ⎤
⎢1 ⎥ ⎢0 ⎥ ⎢0 ⎥
u(0) = ⎢ ⎥ = δ (0) u( k ) = ⎢ ⎥ pour k ≥ 1 x(0) = ⎢ ⎥
⎢L⎥ ⎢L⎥ ⎢L⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1 ⎦ ⎣0 ⎦ ⎣0 ⎦
4 Annexe. 15
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
[
r ( k ) = C( I − A ) B + D Γ (0)
−1
]
Pour atteindre le régime permanent, il faut donc que la matrice ( I − A ) soit régulière.
2.7.3. Fonction de Transfert
Pour calculer la FT du système, il suffit d’appliquer la TZ à l’expression de la sortie, après avoir pris la TZ
de l’équation d’Etat (CI nulles) :
X( z) = ( zI − A ) BU( z)
−1
Etat :
adj[M ] est la matrice adjointe de M , obtenue à partir de la matrice C des cofacteurs : adj[M ] = C Τ
det[M ] représente le déterminant de la matrice M . m est le nombre de pôles de H( z )
Les modes du système (RI des sous-systèmes élémentaires du 1er ordre) s’obtiennent à partir des pôles de la FT.
4 Annexe. 16
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
⎧x( k + 1) = A x( k ) + B u( k ) ⎪⎧x$ ( k + 1) = A $ x$ ( k ) + B$ u( k )
⎨ et ⎨
⎩y( k ) = Cx( k ) + Du( k ) $ $ ( k ) + Du
⎪⎩y( k ) = Cx $ (k )
⎧x( k + 1) = A x( k ) + B u( k ) ⎧P −1 ⋅ x$ ( k + 1) = A P −1 ⋅ x$ ( k ) + B u( k )
L’ancienne Représentation d’Etat ⎨ devient ⎪
⎨
⎩y( k ) = Cx( k ) + Du( k ) ⎪⎩y( k ) = CP −1 ⋅ x$ ( k ) + D u( k )
soit A $ = PAP −1
B$ = PB $ = CP
C D$ =D−1
Les 2 systèmes ainsi représentés sont équivalents, c’est-à-dire qu’ils ont même RI et FT, et la matrice de transition
d’Etat est donnée par : $ ( k ,0) = P Φ( k ,0) P −1 .
Φ
2.9. Stabilité
Un système causal stable est tel que sa RI h(k ) vérifie : lim h( k ) = 0 soit :
k →∞
En fréquence, cette condition s’écrit : tous les pôles de la FT H (z ) ont un module inférieur à 1.
H ( z ) = C[zI − A ] B + D . Soit λ i les m valeurs propres de la matrice A :
−1
La FT a pour expression :
les pôles de la FT étant les valeurs propres de A , cette condition devient : λ i < 1 ∀i ∈ [1, m] .
Elevage d’animaux à TD Entrée : croisement / mortalité u(k) - Sortie : nombres de couples y(k)
On observe un élevage d'animaux qui obéit aux lois suivantes : chaque mois un couple, s'il est fertile,
engendre (après une gestation d’1 mois) 1 couple nouveau-né, et cela indéfiniment. Un couple nouveau-
né devient fertile au bout d'1 mois et le reste constamment.
La mortalité et le croisement sont supposés ne concerner que les nouveaux-nés.
Un nombre de couples u(k) < 0 traduit la mortalité (ou la vente !) des couples nouveaux-nés. u(k) > 0
indique un croisement (immigration, introduction d’une population extérieure de couples nouveaux-nés).
L'élevage débute au mois numéro 0.
On cherche à déterminer le nombre de couples y(k) le k-ième mois, présents dans l'élevage.
Exemple : avec u ( k ) = δ ( k ) :
engendrement
4 Annexe. 17
Signaux & systèmes 4 Annexe. Représentation d'Etat des systèmes
k-2 k-1 k
} { } {
f(k-2)
f(k-1)
nn(k-2) f(k)
nn(k-1)
nn(k)
⎧ y (k ) = y (k − 1) + nn(k )
⎧ y (k ) = y (k − 1) + y (k − 2) + u (k )
On a : ⎪nn(k ) = f ( k − 1) + u (k ) → ⎨
⎨
⎪ f (k ) = y (k − 1) ⎩avec y (k < 0) = 0
⎩
⎡ x1 (k ) ⎤
En choisissant l’état x( k ) = ⎢ ⎥ constitué des composantes :
⎣ x2 (k )⎦
x1 (k ) = f (k ) (couples fertiles) et x2 (k ) = nn(k ) (couples nouveaux-nés)
- des couples fertiles en (k+1), formés d’une part de tous les couples du mois précédent : les anciens
ayant vieilli sans perdre leur fécondité et les nouveaux-nés l’ayant acquise, et d’autre part du
croisement / mortalité survenu le mois précédent donc rendu fertile :
x1 (k + 1) = x1 (k ) + x2 (k ) + u (k )
- des couples nouveaux-nés en (k+1) constitués des enfants des fertiles du mois précédent :
x2 (k + 1) = x1 (k )
- et des couples nouveaux-nés de croisement / mortalité survenus au mois (k+1)
soit : y ( k ) = x1 ( k ) + x2 ( k ) + u (k )
⎧ x1 (k + 1) = x1 (k ) + x2 (k ) + u (k )
⎪ x (k + 1) = x (k ) ⎧ ⎡1 1⎤ ⎡1⎤
⎪ 2 1 ⎪x(k + 1) = ⎢ ⎥ x(k ) + ⎢ ⎥ u ( k )
⎨ soit matriciellement : ⎨ ⎣1 0⎦ ⎣0 ⎦
⎪ ⎪ y (k ) = [1 1]x(k ) + 1. u (k )
⎪⎩ y (k ) = x1 (k ) + x2 (k ) + u (k ) ⎩
c’est-à-dire :
__________
4 Annexe. 18
Signaux & systèmes TD 4 Annexe. Représentation d'Etat des systèmes
{ } avec A = ⎡⎢⎣0
0 1⎤
= TL−1 [ pI − A ]
−1
Effectuer le calcul de la matrice de transition Φ( t ,0) = e
At
par les
−2⎥⎦
différentes méthodes suivantes :
⎧M n −1 = I a n −1 = − tr ( AM n −1 )
⎪
1
⎪M = AM + Ia a n − 2 = − tr ( AM n − 2 )
⎪ n −2 n −1 n −1
2
⎪ 1
⎪M n − 3 = AM n − 2 + Ia n − 2 a n − 3 = − tr ( AM n − 3 )
⎪ 3
⎨
⎪L
⎪ 1
⎪M 1 = AM 2 + Ia 2 a1 = − tr ( AM 1 )
⎪ n −1
⎪ 1
⎪⎩M 0 = AM 1 + Ia1 a 0 = − tr ( AM 0 )
n
⎧M i = AM i +1 + Iai +1 i < n − 1, M n −1 = I
⎪
soit : ⎨ 1
⎪⎩ai = − n − i tr ( AM i ) i ≤ n −1
- Rappel : la trace tr ( X) d’une matrice X est la somme des éléments de sa diagonale principale.
∞
1
3. Par développement en série : e At = ∑ ( At ) i
i =0 i !
5. Par diagonalisation de A :
$ = P AP . Calculer à partir des valeurs propres
- Soit A
−1
λi et des vecteurs
propresVi associés à la matrice A , la matrice diagonalisante P .
$ puis e A$ t . Calculer enfin e At = Pe A$ t P −1 .
- En déduire A
TD 4 Annexe. 1
Signaux & systèmes TD 4 Annexe. Représentation d'Etat des systèmes
Représentation Externe
2. Donner la FT du système.
Représentation Interne
TD 4 Annexe. 2
Signaux & systèmes TD 4 Annexe. Représentation d'Etat des systèmes
__________
TD 4 Annexe. 3
Signaux & systèmes 8 Annexe. Signaux aléatoires
0. INTRODUCTION
On peut dire qu’un signal aléatoire est une fonction du temps, qui est, contrairement aux signaux déterministes,
sujette au hasard. Un signal aléatoire n’est donc pas prévisible.
De plus, on ne dispose pas de l’équation décrivant cette fonction (pas d’expression analytique du signal)
contrairement aux signaux déterministes dont on a souvent l’expression analytique directement ou par
identification.
Un signal aléatoire ne sera donc pas décrit analytiquement, mais statistiquement à l’aide de paramètres tels que
moyenne, variance ...
t
0
2h 4h 6h 8h 10 h
Roulis d’un navire, dans un état de mer donné, pour un cap et une vitesse donnés
θ (degrés)
+ 5°
t
0
- 5° 2s 4s 6s 8s 10 s
t
0
2 ms 4 ms 6m s 8 ms 10 ms
- 1 mV
Température sous abri relevée chaque jour à midi en un lieu donné pendant le mois de juillet
θ (degrés C)
30 °C
20 °C t
1 5 10 15 20 25 30
L’exemple du lancer d’un dé permet de dire qu’on peut voir un signal aléatoire comme un signal déterministe
dépendant de tellement de paramètres qu’une expression analytique (issue des lois de la mécanique ici) ne serait pas
envisageable ou, même si elle pouvait être obtenue, serait moins exploitable qu’une expression statistique à
l’aide de caractéristiques de moyenne, variance ...
8 Annexe. 1
Signaux & systèmes 8 Annexe. Signaux aléatoires
1.1. Définitions
Univers
On définit par S l’ensemble de tous les événements possibles d’une expérience donnée.
Exemple
Lancer d’un dé à 6 faces S = {1,2,3,4,5,6}
Dans cet exemple, chaque événement est quantifié (on a déjà une Variable Aléatoire), mais chaque face
du dé aurait pu être caractérisée par une couleur plutôt que par un entier.
Evénement
On définit par A (⊂ S ) l’ensemble des événements (issus de cette expérience) ayant des caractéristiques
données.
Exemple
Lancer d’un dé à 6 faces A = {2,4,6} on s’intéresse à la sortie des numéros pairs.
Probabilité
Supposant que A se produise m fois lors de n expériences identiques et indépendantes entre elles, on
définit la probabilité de réalisation de A par :
m
p( A) = lim
n→∞ n
Cette approche expérimentale de la notion de probabilité présente un grand intérêt pratique (même si en pratique
n ∞ , mais la convergence de m / n en fonction de n est rapide) et est compatible avec la définition
on ne peut faire
axiomatique présentée ci-après.
Probabilité conditionnelle
p( B / A) : probabilité de réalisation de B , si A est réalisé.
. 0 ≤ p( A) ≤ 1
. p( S ) = 1
. Si A ⊂ S , B ⊂ S , A ∩ B = ∅ p( A ∪ B) = p( A) + p( B)
p( A ∩ B )
. p( B / A) = que l' on note aussi p( A ∩ B ) / p( A)
p( A)
Exemples
Lancer d’un dé à 6 faces
1
A = {2,4,6}, B = {1,3,5} → A ∩ B = ∅, A ∪ B = S, p ( A) = p ( B) =
2
1 1
A = {2,4,6}, B = {6} → p ( B / A) = , p( A ∩ B) =
3 6
8 Annexe. 2
Signaux & systèmes 8 Annexe. Signaux aléatoires
. p(∅) = 0
. p( A) = 1 − p( A)
. p( A ∪ B ) = p( A) + p( B ) − p( A ∩ B )
. Si A ⊂ B , p( A) ≤ p( B )
. p( B / A) = p( B) ⇒ A et B indépendants
Théorème de Bayes
m
Soit S = UB i (partition de S : Bi ∩ B j = ∅, ∀ i ≠ j et p( Bi ) > 0 ∀ i )
i =1
m
. p( A) = ∑ p( A / B ) p ( B )
i =1
i i
p( A / B j ) p( B j )
. p( B j / A) = m
1≤ j ≤ m
∑ p( A / B ) p( B )
i =1
i i
2.1. Définitions
Considérons un phénomène aléatoire tel que le lancer d’une fléchette sur une cible par un joueur bien
défini.
Le résultat d’un essai peut être traduit par un couple de nombres réels (coordonnées x , y du point
d’impact). C’est la quantification des événements.
Pour simplifier, considérons d’abord un seul axe de coordonnées, soit x l’écart par rapport à l’axe médian
(≡ vertical passant par le centre) de la cible.
Concrètement, le terme « identique » signifie que la probabilité d’atteindre une région quelconque donnée de
la cible reste identique d’un essai à l’autre (le tireur ne s’améliore pas au cours des essais, mêmes conditions
de lancer ...), et l’indépendance suppose que le résultat d’un essai n’influe pas sur les suivants (le tireur ne
tient pas compte des résultats précédents pour effectuer d’éventuelles corrections !).
{
Notons x1 , x 2 ,L , x n } le résultat des n essais (≡ épreuves, réalisations, tirages, expériences ...).
x1 , x 2 ,L , x n sont des Variables Aléatoires et l’on dit que ce sont des réalisations indépendantes d’une
Variable Aléatoire réelle que l’on notera X .
Les Variables Aléatoires sont susceptibles de constituer des modèles convenables pour divers phénomènes
réels. X n’étant pas, dans notre exemple, à valeurs discrètes , la variables aléatoire est dite continue.
On veillera à ne pas confondre X qui représente le phénomène aléatoire proprement dit (écart aléatoire du
point d’impact, dans cet exemple) avec la réalisation effectivement observée x lors d’un essai donné.
Une Variable Aléatoire X est complètement caractérisée si l’on est capable de donner la probabilité
d’occurrence d’un événement quelconque défini à partir de X .
Ainsi, on note : p( X ∈[ a , b]) la probabilité pour que la Variable Aléatoire X (ici écart du point
d’impact) soit comprise entre les valeurs a et b .
8 Annexe. 3
Signaux & systèmes 8 Annexe. Signaux aléatoires
Fonction de répartition
On admettra que la fonction F ( x ) , appelée fonction de répartition de X , définit entièrement la variable
aléatoire X :
F ( x ) = p( X ≤ x )
{
On admettra que si x1 , x 2 ,L , xi ,L , x n } sont les résultats de n essais indépendants, et si n( x) est le
nombre de réalisations telles que xi ≤ x , on a :
n( x )
F ( x ) = lim
n→∞ n
n( x )
Le rapport représente la fréquence relative de événement considéré ( X ≤ x ).
n
n( x )
Tant que n reste fini, les rapports obtenus lors de plusieurs séries d’expériences distinctes n’ont
n
aucune raison d’être strictement égaux, mais ils convergent tous vers la même valeur lorsque n tend vers
l’infini.
Densité de probabilité
On appelle densité de probabilité la dérivée f ( x ) de la fonction de répartition F ( x ) .
x
dF ( x )
f ( x) =
dx
« Inversement » F ( x) =
−∞
∫ f (u) du
f ( x ) est une fonction positive dont l’amplitude en chaque point est proportionnelle à la concentration
(densité) des réalisations qu’on y observe sur un nombre - à la limite - infini d’expériences (c’est
l’histogramme des statisticiens).
V A Continues
Si X peut prendre un nombre infini de valeurs (exemple de l’angle par rapport à l’horizontale d’une
aiguille lancée au sol), X est alors une Variable Aléatoire continue: (l’amplitude de X n’est pas quantifiée)
VA Continue
F(x)
1
x
0
f(x)
x
0
Réalisations de x
0
Centre de la cible dans l'exemple du tireur
8 Annexe. 4
Signaux & systèmes 8 Annexe. Signaux aléatoires
On établit aisément :
x2
. p( x1 ≤ X ≤ x 2 ) = F ( x 2 ) − F ( x1 ) = ∫ f (u) du
x1
. p( x ≤ X ≤ x + dx ) = F ( x + dx ) − F ( x ) = f ( x ) dx
V A Discrètes
Si X ne peut prendre qu’un nombre fini de valeurs xi (exemple du dé), X est alors une Variable
Aléatoire discrète (l’amplitude de X est quantifiée) et, notant p( xi ) = p( X = xi ) , on a :
F(x)
1/6 x
0 1 2 3 4 5 6
f(x)
1/6
x
0 1 2 3 4 5 6
REPRESENTATION PARAMETRIQUE
(
Considérons par exemple n réalisations x1 , x 2 ,L , x n ) et effectuons la moyenne x , ainsi définie :
1 n
x= ∑ xi
n i =1
Ici encore, si n reste fini, les moyennes relevées sur différentes séries de n expériences pourront être
divergentes, mais si l’on imagine des séries d’une infinité d’expériences, toutes ces moyennes convergent vers
une valeur unique.
Soit E ( X ) cette valeur, appelée espérance mathématique, ou valeur moyenne de X , ou moment d’ordre 1 :
1 n
E ( X ) = lim
n→∞
∑ xi
n i =1
8 Annexe. 5
Signaux & systèmes 8 Annexe. Signaux aléatoires
Dans l’exemple du tireur de fléchettes, les grandeurs xi sont relevées par rapport à l’axe médian de la cible.
Si le joueur effectue un tir centré, on a : E ( X ) = 0 .
On dit alors que la Variable Aléatoire X est en moyenne nulle, ou qu’elle est une Variable Aléatoire centrée,
ce qui ne signifie évidemment pas que X est toujours nulle.
E( X ) = ∫
−∞
x f ( x ) dx si la VA X est continue
1 n n
1 n
E ( X ) = lim
n→∞
∑ i n→∞ ∑
n i =1
x = lim
i =1
x i ⋅ = ∑ xi p( xi )
n i =1
Variance
Pour apprécier la dispersion des réalisations autour de la valeur moyenne, on introduit un paramètre statistique
appelé variance.
La variance, ou moment d’ordre 2, est l’espérance mathématique du carré des écarts par rapport à la valeur
moyenne :
[
v = E ( X − m)
2
] = lim
n→∞
1 n
∑
n i =1
( xi − m) 2
On a la propriété :
v = x2 − x
2
car [
E ( X − m)
2
] = E[ X 2
] [ ]
− 2mX + m 2 = E X 2 − 2mE [ X ] + m 2
du fait que l’opérateur E(⋅) est linéaire et que m n’est pas aléatoire :
[ ]
E [m] = m et E m = m 2 2
E [ ( X − m) ] = E [ X ] − 2m [ ]
2 2
d’où :
2 2
+ m2 = E X 2 − m2 = x 2 − x
On utilise souvent la grandeur σ = v appelée écart-type ou encore écart moyen de X , qui présente
l’intérêt d’avoir la même dimension que x .
En d’autres termes, on est en droit d’attendre une grande concentration de réalisations xi dans l’intervalle
[m − σ , m + σ ] .
La variance s’écrit aussi :
∞
E ( X − m) = ∫ ( x − m) 2 f ( x ) dx si la VA X est continue
2
−∞
8 Annexe. 6
Signaux & systèmes 8 Annexe. Signaux aléatoires
Moment d’ordre n
On généralise les paramètres moments d’ordre 1 et d’ordre 2 que sont la moyenne et la variance au moment
d’ordre n :
∞
−∞
σ σ
x
m=0
Moyenne et variance peuvent être identiques à celles d’un tir « normalement » distribué :
σ σ
x
m=0
Moyenne et variance ne suffisent donc pas à décrire entièrement une Variable Aléatoire X quelconque.
Néanmoins, si on se limite à des Variables Aléatoires « normales », au sens intuitif du terme, c’est-à-dire
concentrées autour de la valeur moyenne avec une probabilité de réalisation d’autant plus faible que l’on
s’écarte de cette valeur moyenne (cf. figure ci-dessus), on conçoit que :
moyenne et variance (ou écart-type) constituent une description suffisante.
8 Annexe. 7
Signaux & systèmes 8 Annexe. Signaux aléatoires
Loi de probabilité
On vient de voir qu’un cas particulièrement important est celui des VA normales (≡ gaussiennes) dont la
densité de probabilité f ( x ) est donnée par :
2
1 ⎛ x −m⎞
1 − ⎜ ⎟
f ( x) = e 2⎝ σ ⎠
dont le graphe est la célèbre courbe en « cloche » :
σ 2π
f(x)
1
σ 2π
x
0 m
σ
Les VA gaussiennes constituent un modèle mathématique convenable pour beaucoup de phénomènes aléatoires
réels; en particulier, chaque fois qu’un phénomène peut être considéré comme la résultante d’un grand nombre
de causes aléatoires indépendantes, on peut présumer que ce phénomène est gaussien (théorème central limite).
On peut retenir le tableau de probabilités suivant :
. p( X − m > σ ) = 22 %
. p( X − m > 2σ ) = 5 %
. p( X − m > 3σ ) = 0.3 %
. p( X − m > 4σ ) = 0.0063 %
Ces résultats font apparaître que la probabilité pour qu’une réalisation d’une VA gaussienne s’écarte de sa
valeur moyenne de plus de 2 ou 3 écarts-types est pratiquement nulle. On dit encore que l’intervalle de
confiance à 95 % est égal à m ± 2σ .
σ 2
p( X − m > λ ) ≤ , ∀λ > 0
λ 2
Parmi les principales lois de probabilité, on peut citer aussi les lois de probabilité uniforme, de Rayleigh, de
Laplace, ou encore celle de Cauchy :
x2
−
f ( x) = K f ( x) = x ⋅ e 2
f ( x ) = e− x 1
f ( x) =
1+ x 2
x x x x
Ces lois de probabilités permettent d’établir un lien entre un phénomène réel et sa modélisation par une VA,
lien difficile à établir sauf si l’on imagine la possibilité d’une infinité d’essais.
8 Annexe. 8
Signaux & systèmes 8 Annexe. Signaux aléatoires
Les résultats d’une série de n expériences seront alors constitués par un ensemble de couples :
{( x , y ), ( x
1 1 2 , y 2 ),L , ( x n , y n )}
Pour représenter complètement ce systèmes de VA, il faudrait introduire la fonction de répartition mutuelle :
F ( x , y ) = p( X ≤ x et Y ≤ y )
ou la densité de probabilité :
∂ 2 F ( x, y)
f ( x, y) =
∂ x∂ y
REPRESENTATION PARAMETRIQUE
Ici encore, on peut avantageusement se limiter à un nombre restreint de paramètres statistiques :
Moyenne
∞
1 n
mx = E ( X ) = lim ∑ xi (VA X discrète) mx = E ( X ) = ∫ x f ( x ) dx (VA X continue)
n→∞ n
i =1 −∞
∞
1 n
m y = E (Y ) = lim
n→∞
∑ yi
n i =1
(VA Y discrète) m y = E (Y ) = ∫ y f ( y ) dy (VA Y continue)
−∞
Variance
∞
1 n
v x = E ( X − mx ) 2 = lim ∑ ( xi − mx ) 2 ( X discrète) v x = E ( X − mx ) 2 = ∫ ( x − mx ) 2 f ( x ) dx ( X continue)
n→∞ n i =1 −∞
∞
1 n
v y = E (Y − my ) 2 = lim ∑ yi − my ( )
2
n→∞ n
i =1
( Y discrète) v y = E (Y − m y ) 2 = ∫
−∞
( y − m y ) 2 f ( y) dy ( Y continue)
c xy = E [( X − m )(Y − m )] = ∫∫ ( x − m )( y − m ) f ( x , y ) dxdy
x y x y ( X , Y continues)
On a : c xx = v x
8 Annexe. 9
Signaux & systèmes 8 Annexe. Signaux aléatoires
Coefficient de corrélation
On définit un paramètre sans dimension voisin du coefficient de covariance appelé coefficient de
corrélation de 2 VA X et Y et donné par :
c xy
ρ xy =
σxσy
y y y y
x x x x
ρ =0 ρ = 0.7 ρ = -0.9 ρ =1
{ }
les réalisations z1 ,L , zi ,L de la VA Z sont égales à : zi = axi + byi + d )
les moyenne et variance mz et v z de Z se calculent à partir des moments du 1er et du 2nd ordre de X et
Y , quelle que soit la fonction de répartition F ( x , y ) .
8 Annexe. 10
Signaux & systèmes 8 Annexe. Signaux aléatoires
1 n 1⎛ n n
⎞
mz = E ( Z ) = lim
n→∞
∑
n i =1
z i = lim ⎜
n→∞ n ⎝
a ∑
i =1
x i + b ∑
i =1
yi + nd ⎟
⎠
→ mz = amx + bm y + d
La variance v z de la VA Z s’écrit :
[ ] [{
vz = E ( Z − mz ) 2 = E a ( X − mx ) + b(Y − my ) } ] = E [a ( X − m )
2 2
x
2
+ b 2 (Y − my ) 2 + 2ab( X − mx )(Y − my ) ]
→ v z = a 2 v x + b 2 v y + 2ab c xy
⎢L⎥
⎢ ⎥
⎣Xn ⎦
⎡ X1 ⎤ ⎡ E( X1)⎤ ⎡ mx1 ⎤
⎢X ⎥ ⎢ E ( X )⎥ ⎢m ⎥
m x = E ( X) = E ⎢ ⎥ =
2 ⎢ 2 ⎥
= ⎢ x2 ⎥
⎢L⎥ ⎢ L ⎥ ⎢L⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣Xn ⎦ ⎣ E ( X n )⎦ ⎢⎣mxn ⎥⎦
La variance et la covariance des différentes composantes de X peuvent être réunies en une matrice dite
matrice des variances-covariances :
⎡ v x1 c x1x2 L c x1xn ⎤ ⎡ X 10 2 X 10 X 20 L X 10 X n0 ⎤ ⎡ X1 ⎤ 0
⎢c ⎢ 0 0 ⎥
v x2 L c x2 xn ⎥ 02 0 0 ⎢ 0⎥
X
C xx =⎢ 21
⎢L
x x
L L L⎥
⎥ → C = ⎢X 2 X1
xx
⎢ L
X2
L
L X2 Xn ⎥
L L ⎥
= E ( ⎢ 2 ⎥ X 10
⎢L⎥ [ X 20 L X n0 ) ]
⎢ ⎥ ⎢ 0 0 02
⎥ ⎢ 0⎥
⎢⎣c xn x1 c xn x2 L v xn ⎥⎦ ⎢⎣ X n X 1
0 0
X n X 2 L X n ⎥⎦ ⎣Xn ⎦
Τ
soit : C xx = E ( X 0 X 0 )
8 Annexe. 11
Signaux & systèmes 8 Annexe. Signaux aléatoires
m y = E ( Y ) = E ( A Τ X + b ) = A Τ E ( X) + b → m y = AΤm x + b
Il en résulte que :
Τ Τ Τ
Y 0 = A Τ ( X − m x ) = A Τ X 0 → C yy = E (Y 0 Y 0 ) = E ( A Τ X 0 X 0 A) = A Τ E ( X 0 X 0 )A
→ C yy = A Τ C xx A
Cette relation illustre une propriété générale des matrices des variances-covariances :
La variance de Y s’écrit :
⎡ a1 ⎤
⎢a ⎥
v y = C yy = [a1 , a 2 ,L, a n ]C xx ⎢ 2 ⎥ = a Τ C xx a
⎢L ⎥
⎢ ⎥
⎣a n ⎦
( )
Comme v x est non négatif quels que soient les coefficients a1 , a 2 ,L , a n , il en résulte qu’une matrice de
variance-covariance est toujours définie non négative (elle est également par définition même).
⎡ v x1 c x1 x2 ⎤
⎢c v x2 ⎥⎦
⎣ x2 x1
Cette matrice étant non négative, son déterminant est positif ou nul : vx1 vx 2 − cx1 x 2 cx 2 x1 = vx1 vx 2 − cx1 x 2 ≥ 0
2
cx21 x 2
→ ρ 2x x = ≤ 1. On retrouve le fait qu’un coefficient de corrélation est toujours ≤ 1 en valeur absolue.
1 2
v x1 v x 2
8 Annexe. 12
Signaux & systèmes 8 Annexe. Signaux aléatoires
3. SIGNAUX ALEATOIRES
3.1. Caractéristiques statistiques
Dans les exemples de signaux aléatoires donnés en introduction (§ 0.), on a représenté des fonctions x ( t ) dont
chacune n’est en fait qu’une réalisation particulière, notéexi (t ) d’un processus aléatoire X (t ) .
(On utilise la notation xi ( t ) même si précédemment elle a indiqué une valeur discrète de x ( t ) et ici une
réalisation particulière).
En supposant qu’il soit possible de répéter chaque expérience une infinité de fois dans les mêmes conditions, on
obtiendrait une infinité de réalisations xi ( t ) qui permettraient de déduire toutes les caractéristiques
statistiques du processus aléatoire X ( t ) .
Ainsi, le relevé des températures sous abri chaque jour à midi en un lieu donné pour un grand nombre de
mois de juillet permet d’obtenir la moyenne journalière et sa dispersion (variance) ainsi que les covariances
qui fournissent des informations sur l’évolution probable des températures d’une journée à l’autre.
Température sous abri relevée chaque jour à midi en un lieu donné pendant plusieurs mois de juillet
θ (degrés C)
30 °C
Relevés de différentes années
20 °C t
(k-ième jour de juillet)
1 5 10 15 20 25 30
Processus aléatoire
Processus aléatoire à Temps Discret
En effet, si on note t k le k -ième jour de juillet, et X (t k ) la Variable Aléatoire que constitue la température
du k -ième jour de juillet, on est ainsi en présence d’un processus aléatoire à Temps Discret, c’est-à-dire un
système de n = 31 Variables Aléatoires { X (t1 ), X (t 2 ),L , X (t n )} pour lequel on peut définir :
. les moyennes de X ( t k ) : m(t k ) = E [ X (t k )] k = 1,L , n
. les covariance de X ( t k ) : [
c( t k , t m ) = E X 0 ( t k ) X 0 ( t m ) ] k = 1,L , n m = 1,L , n
. les variances de X ( t k ) : [ 2
]
c( t k , t k ) = E X 0 ( t k ) = v ( t k ) = σ 2 ( t k ) k = 1,L , n
Processus aléatoire à Temps Continu
Pour les signaux aléatoires à Temps Continu, t k prend une infinité de valeurs et on a alors :
. la moyenne de X ( t ) : m(t ) = E [ X (t )]
. la covariance de X ( t ) : [
c(t , τ ) = E X 0 (t ) X 0 (τ ) ]
. la variance de X (t ) : [ 2
]
c( t , t ) = E X 0 ( t ) = v ( t ) = σ 2 ( t ) (≡ covariance pour τ = t )
La fonction aléatoire X ( t ) est donc définie par la connaissance de la fonction valeur moyenne m(t ) et
par celle de la fonction de covariance c( t , τ ) pour toutes les valeurs de t et τ .
La fonction de covariance c(t , τ ) renseigne sur la vitesse de variation du signal.
x(t)
m(t ) + σ (t )
t
0 m(t )
m(t ) − σ ( t )
8 Annexe. 13
Signaux & systèmes 8 Annexe. Signaux aléatoires
Les fonctions m(t ) ± σ (t ) (valeur moyennne ± écart-type) sont intéressantes car c’est entre ces 2
fonctions que l’on est en droit d’attendre la plus grande concentration de réalisations xi ( t ) .
La 3ème caractéristique statistique de covariance c( t , τ ) est plus difficile à visualiser en tant que fonction
de 2 variables, sauf si, comme c’est souvent le cas, on est en présence de phénomènes stationnaires auquel
cas la covariance est seulement fonction d’une variable c( t , τ ) = c( t ) .
3.2. Stationnarité
Un processus aléatoire est stationnaire si ses caractéristiques statistiques sont indépendantes de l’origine
des temps.
La conséquence de cette définition est que :
. les covariances de [ ]
X (t k ) : c(t k , t m ) = E X 0 (t k ) X 0 (t m ) deviennent :
c(t k , t m ) = c(t k − t , t m − t ) ∀t . En particulier, pour t = t k , d’où :
c(t k , t m ) = c(0, t m − t k ) = c(0, τ ) en posant τ = t m − t k
On note alors la fonction de covariance c( 0, τ ) devenue d’une seule variable par ϕ (τ ) = c(0, τ )
ϕ (τ ) est appelée fonction de corrélation :
Fonction de corrélation
1 n 0
[
ϕ (τ ) = E X 0 (t p ) X 0 (t p + τ ) = lim ] n→∞
∑ xi (t p ) xi0 (t p + τ ) ∀t p
n i =1
(n réalisations)
[
ϕ (τ ) = E X 0 (t ) X 0 (t + τ ) = lim ] T→∞
1
2T −∫T
x 0 (t ) x 0 (t + τ )dt
8 Annexe. 14
Signaux & systèmes 8 Annexe. Signaux aléatoires
Compte tenu de ces remarques, une allure typique pour une fonction de corrélation est la suivante :
ϕ (τ )
τ
0
Il apparaît ainsi que, pour un même intervalle de temps τ , la fonction de corrélation ϕ (τ ) décroît
d’autant plus rapidement que le signal X ( t ) est rapide, du fait d’une corrélation moins importante entre
les réalisations aux 2 instants t et t + τ (un signal rapide « voit » un τ grand) :
t τ
0
x1 ( t )
x i (t )
t t +τ
ϕ (τ )
Signal X(t) rapide
t τ
0
x1 ( t )
x i (t )
t t +τ
3.3. Ergodicité
Jusqu’ici, nous avons défini par ce qu’on appelle des moyennes statistiques (≡ moyennes d’ensemble, moyennes
dans l’espace). La détermination expérimentale des caractéristiques statistiques doit être faite par des
moyennes sur un nombre à la limite infini de réalisations indépendantes.
Cependant, si on considère une seule réalisation, il peut se faire qu’on puisse admettre que les différentes
portions de ce signal sont indépendantes, et qu’on puisse ainsi obtenir les valeurs moyennes statistiques par des
moyennes dans le temps effectuées sur un seul échantillon de réalisation dont la durée serait à la limite
infiniment grande. L’ergodicité représente la propriété d’égalité entre moyennes statistique et temporelle.
L’ergodicité est une propriété intéressante car les caractéristiques d’un processus aléatoire s’obtiennent à partir
d’une seule expérience, de durée suffisamment grande, au lieu d’exiger la connaissance d’un très grand nombre
d’échantillons.
Exemple : Bruit de fond d’un amplificateur dans une enceinte à 25 °C avec entrée court-circuitée
En négligeant le vieillissement des composants de l’amplificateur, on peut faire l’hypothèse de stationnarité.
Soit l’expérience qui consiste mettre l’amplificateur sous tension chaque matin à 8 h :
8 Annexe. 15
Signaux & systèmes 8 Annexe. Signaux aléatoires
µV
t
8h
µV
t
8h
µV
t
8h
Bruit de fond de l'amplificateur
Négligeons le temps d’échauffement de l’amplificateur et supposons que le bruit de fond soit suffisamment
rapide pour qu’une durée d’observation de quelques heures puisse être considérée comme infinie.
On peut alors penser qu’il n’y a pas de raison pour que les moyennes temporelles effectuées un jour donné
soient différentes des moyennes statistiques (≡ moyennes d’ensemble) effectuées sur les tensions relevées à des
heures déterminées un grand nombre de jours différents. Ceci constitue l’hypothèse d’ergodicité.
En revanche, si au lieu de considérer le bruit de fond pour un amplificateur donné à des jours différents, on
envisage le bruit de fond pour un ensemble d’amplificateurs, on a alors une série d’essais qui ne satisfont pas
l’ergodicité, car des amplificateurs même identiques ont leurs composants qui présentent une certaine
dispersion de leurs caractéristiques.
En faisant alors une moyenne temporelle sur le bruit de fond observé pour un amplificateur donné, on ne
retrouvera pas la moyenne statistique de l’ensemble des amplificateurs, même avec une très grande durée
d’observation.
Moyenne d’un processus aléatoire X ( t ) stationnaire ergodique
Si un processus X (t ) est stationnaire et ergodique, on obtient sa valeur moyenne m = E [ X (t )] ,
indifféremment à partir de n réalisations, ou à partir d’une réalisation particulière (de par l’ergodicité)
x (t ) (processus à Temps Continu) ( x (t k ) (processus à Temps Discret)) par les 2 expressions suivantes :
(la stationnarité fait que m( t ) = C = m et l’ergodicité autorise indifféremment les 2 expressions de m :)
te
1 n
m = lim ∑ x k (t m ) ∀m (moyenne statistique sur n réalisations à un instant t m donné)
n→∞ n
k =1
(la stationnarité fait que c(t ,θ ) = ϕ (τ ) et l’ergodicité autorise indifféremment les 2 expressions de ϕ (τ ) :)
Processus X (t ) (discret ou continu, donc de réalisations xi quantifiées ou non) à TD
1 n 0
ϕ (τ ) = lim
n→∞ n
∑
k =1
xi (t k ) xi0 (t k + τ ) ∀i (somme temporelle sur n instants sur 1 seule réalisation i)
1 n
ϕ (τ ) = lim ∑ x k0 ( t m ) x k0 ( t m + τ ) ∀m (somme statistique sur n réalisations à un instant t m )
n→∞ n
k =1
1 n
ϕ (τ ) = lim ∑ x k0 (t ) x k0 (t + τ ) ∀t (somme statistique sur n réalisations à un instant t)
n→∞ n
k =1
8 Annexe. 16
Signaux & systèmes 8 Annexe. Signaux aléatoires
Stationnarité et ergodicité
La stationnarité et l’ergodicité sont deux propriétés qui ne s’impliquent pas l’une l’autre.
Par exemple, une constante aléatoire est un signal stationnaire non ergodique :
x(t)
x1 ( t )
x i (t )
x2 (t )
t
0
La stationnarité de ce processus va de soi, mais ce signal n’est pas ergodique car la connaissance d’une
réalisation particulière x ( t ) même depuis t = −∞ jusqu’à t = +∞ ne permet en aucune façon d’en déduire
la valeur moyenne :
1 n
m = lim
n→∞
∑ xi ( t )
n i =1
Inversement, on va voir (§ 3.4.) qu’un processus de Wiener est ergodique mais non stationnaire.
Néanmoins, on souhaitera généralement avoir simultanément les 2 propriétés de stationnarité et d’ergodicité.
Sous ces 2 hypothèses, un processus aléatoire est suffisamment défini par sa valeur moyenne m et sa fonction
d’autocorrélation ϕ (τ ) .
Sauf indication contraire, on supposera toujours par la suite que les processus considérés sont stationnaires et
ergodiques.
Si l’on considère le mouvement selon un seul axe, en prenant pour origine le point de départ de la particule,
diverses réalisations du mouvement prennent les allures suivantes :
wi (t )
w1 (t )
w2 (t )
t
0
w3 (t )
Les relations suivantes constituent la définition mathématique du signal de Wiener W (t ) dont le paramètre
Q constitue le paramètre statistique :
- La particule n’ayant pas plus de raison de se diriger dans le sens positif que négatif, on a :
1 n
lim ∑ wi (t ) = 0 soit : m(t ) = E (W (t ) ) = 0 (1)
n→∞ n i =1
8 Annexe. 17
Signaux & systèmes 8 Annexe. Signaux aléatoires
- Les impulsions reçues pendant un intervalle de temps (t , t + θ ) sont complètement indépendantes des
impulsions reçues pendant un autre intervalle. Ceci se traduit par l’indépendance des accroissements :
[ ]
E (W (t 2 ) − W (t1 )) (W (t 4 ) − W (t 3 ) ) = 0 si t1 ≤ t 2 ≤ t 3 ≤ t 4 (2)
[
E (W (t + θ ) − W (t ))
2
] = Q(θ ) (3)
Q(θ )
Q=
θ
: ( )
E W 2 (t ) = tQ (4)
Au regard de sa variance fonction de t , on observe que le processus de Wiener W (t ) est non stationnaire.
Bien que non stationnaire, le processus de Wiener W ( t ) est ergodique car on peut obtenir son paramètre
caractéristique Q en faisant une moyenne dans le temps :
T
1 1
Q = lim ∫ ( w(t + θ ) − w(t )) 2 dt où w(t ) représente une réalisation particulière de W (t ) .
T→∞ T0 θ
8 Annexe. 18
Signaux & systèmes 8 Annexe. Signaux aléatoires
Réalisation de ∆n
0 n
Bruit Blanc
Le Bruit Blanc est en quelque sorte la source élémentaire de hasard pour les processus à Temps Continu.
Le terme Bruit Blanc a été choisi par analogie avec celui de lumière blanche pour exprimer que toutes
les fréquences y sont représentées avec la même puissance, comme pour les sept couleurs fondamentales
(rouge, orange, jaune, vert, bleu, indigo, violet) composant la lumière blanche.
On définit le Bruit Blanc unitaire B(t ) comme un signal stationnaire centré (≡ de moyenne E ( B(t ))
nulle) dont la fonction d’autocorrélation ϕ bb (τ ) est une impulsion de Dirac :
E ( B(t )) = 0
ϕ bb (τ ) = E[ B(t ) B(t + τ )] = δ (τ )
De même qu’on a pu définir, pour les signaux déterministes, l’impulsion de Dirac comme la dérivée de
l’échelon unité, on peut exprimer le Bruit Blanc comme la dérivée du processus de Wiener W ( t ) .
W (t + dt ) − W (t )
En effet, soit le signal : D( t ) = .
dt
Comme E (W (t ) ) = 0 , on a E ( D(t )) = 0 .
Le calcul de la fonction de corrélation ϕ (τ ) = E[ D(t ) D(t + τ )] est immédiat d’après (2) et (5) :
Q⎛ τ ⎞
ϕ (τ ) = ⎜ 1 − ⎟ pour τ < dt et : ϕ (τ ) = 0 pour τ > dt
dt ⎝ dt ⎠
ϕ (τ )
Q
dt
τ
- dt 0 dt
8 Annexe. 19
Signaux & systèmes 8 Annexe. Signaux aléatoires
4. SPECTRES
On a déjà établi la notion de spectre (≡ décomposition en fréquence) d’un signal lors du chapitre sur les
Représentations Fréquentielles des signaux.
Notamment, à l’aide des relations de Parseval entre les Représentation Temporelle et Fréquentielle de Fourier :
∞
- pour un signal déterministe non périodique x (t ) de carré sommable ( ∫ x(t ) 2 dt < ∞ ), on a exprimé l’énergie:
−∞
∞ ∞ 1 ∞
E=∫ x (t ) dt à l’aide du Th. de Parseval: E = ∫
2 2
X (ν ) dν (= ∫ X (ω ) dω ) ( ω = 2πν )
2
−∞ −∞ 2π −∞
4.2. Densité Spectrale de Puissance d’un signal aléatoire stationnaire ergodique - Th. de Wiener-Khintchine
La démonstration procède sur une restriction d’un signal aléatoire dont la Densité Spectrale est connue par :
∞ ∞ 1 ∞
E = ∫ x 2 (t )dt = ∫ ∫
2 2
X (ν ) dν = X (ω ) dω (6) ( x ( t ) réel).
−∞ −∞ 2π −∞
Soit une réalisation x (t ) d’un signal aléatoire stationnaire ergodique, et sa restriction x T (t ) sur l’intervalle
[ −T ,+ T ] dont la Transformée de Fourier (de variable ω = 2πν et non de variable ν ) est notée X T (ω ) :
x(t)
t
0
x T (t )
t
-T 0 +T
8 Annexe. 20
Signaux & systèmes 8 Annexe. Signaux aléatoires
D’après (6), on a :
1 T 1 ∞ 1
∫ ∫
2
x T2 (t )dt = X T (ω ) dω et, à la limite,
2T −T 2π −∞ 2T
1 T 1 ∞ 1 ∆ 1 ∞
∫ ∫ ∫
2
lim x T2 (t )dt = lim X T (ω ) dω = S (ω )dω (7)
T→∞ 2T −T 2π −∞ T → ∞ 2T 2π −∞
Calculons S(ω ) :
T − i ωt
On a : X T (ω ) = ∫−T
x T (t ) e dt ( X T (ω ) est la TF (de variable ω = 2πν ) de x T (t ) )
T T
∫∫x
2
X T (ω ) = X T (ω ) ⋅ X T (ω ) = T (t 1 ) e − i ωt1 x T (t 2 ) e + i ωt2 dt 1 dt 2 et d’après (7)
−T −T
T T
1
S (ω ) = lim
T→∞ 2T ∫∫x
−T−T
T (t 1 ) x T (t 2 ) e − i ω ( t1 − t2 ) dt 1 dt 2 soit, en posant t = t 1 et τ = t 1 − t 2 :
T +t T T
1
S (ω ) = lim ∫ ∫x T (t ) x T (t − τ ) dt e − i ωτ
dτ = lim ∫ ϕ (τ ) e
− i ωτ
dτ et finalement :
T→∞
− T +t
2T −T
T→∞
−T
∆
S (ω ) = TF [ϕ (τ )] = Φ(ω ) et d’après (7) :
1 T 1 ∞
lim
T→∞ 2T ∫ −T
x T2 (t )dt =
2π ∫ −∞
Φ(ω )dω = V
où :
Φ(ω ) est la DSP de x (t ) .
Φ(ω ) est la TF de la fonction d’autocorrélation ϕ (τ ) (= ϕ xx (τ )) du signal x (t ) .
2aσ 2
ϕ (τ ) = σ 2 e − a τ Φ(ω ) =
a2 + ω 2
2σ 2
σ2
a
τ ω
0 0
Bruit de Markov du 1er ordre
8 Annexe. 21
Signaux & systèmes 8 Annexe. Signaux aléatoires
Bruit Blanc
Le Bruit Blanc, dont la fonction de corrélation est ϕ (τ ) = δ (τ ) a donc pour DSP :
Φ(ω ) = TF[ϕ (τ )] = 1
ceci signifie que toutes les fréquences y sont représentées avec la même puissance, ce qui permet de
retrouver le fait qu’un Bruit Blanc n’est pas physiquement réalisable puisque sa puissance (ou sa variance)
est infinie.
ϕ (τ ) = δ (τ ) Φ(ω ) = 1
1
1
τ ω
0 0
Bruit Blanc
5. CONCLUSION
Les signaux aléatoires rencontrés le plus souvent, même s’ils ne sont pas rigoureusement gaussiens, peuvent être
caractérisés (représentation paramétrique) à l’aide de 3 paramètres statistiques :
- la valeur moyenne m( t ) du signal aléatoire X (t ) dont une réalisation est notée x ( t ) .
- la fonction de covariance c(t , τ ) du signal, qui renseigne sur la vitesse de variation du signal.
- la variance ou carré de l’écart-type du signal : v ( t ) = σ ( t ) qui constitue une valeur particulière de la
2
fonction de corrélation c( t , t ) et qui détermine le domaine où l’on est en droit d’attendre la plus grande
concentration de réalisations du signal aléatoire.
Dans le cas où ces caractéristiques sont indépendantes de l’origine du temps, on a affaire à un signal stationnaire
pour lequel moyenne et variance sont des constantes, et la covariance, fonction d’une seule variable est appelée
fonction de corrélation ϕ (τ ) :
m(t ) = m v (t ) = v c(t , t + τ ) = ϕ (τ )
Si de plus, le signal est ergodique, il y a autant d’informations dans une réalisation particulière suffisamment longue
du signal, que dans un grand nombre de réalisations de moindre durée. On a alors :
Cas continu
T
1
m = lim
T → ∞ 2T ∫
−T
x (t ) dt
T
1
ϕ (τ ) = lim
T→∞ 2T ∫ ( x(t ) − m)( x (t + τ ) − m) dt
−T
ϕ (0) = v
Cas discret
1 n
m = lim
n → ∞ 2n
∑ xk
k =− n
1 n
ϕ k = lim
n → ∞ 2n
( )(
∑ x p − m x p+ k − m ) ϕ0 = v
p =− n
Parmi les signaux aléatoires fondamentaux, on rencontre le bruit blanc (séquence indépendante dans le cas discret)
signal idéal dont la fonction de corrélation ϕ (τ ) est l’impulsion de Dirac δ (t ) et qui peut être défini comme la
dérivée d’un bruit de Wiener, signal réel dont un représentant est le mouvement Brownien.
Comme les signaux déterministes, les signaux aléatoires possèdent une Représentation Fréquentielle : pour un signal
à énergie finie, on définit sa Densité Spectrale d’Energie (DSE) et s’il s’agit d’un signal à énergie infinie, sa Densité
Spectrale de Puissance (DSP) qui est la Transformée de Fourier de la fonction d’autocorrélation du signal.
Comme pour les signaux déterministes, la largeur de bande (≡ domaine d’occupation en fréquence) d’un signal
aléatoire est d’autant plus importante que les variations du signal sont rapides.
8 Annexe. 22
Signaux & systèmes 8 Annexe. Signaux aléatoires
0
signal lent, assez prédictible
0
signal rapide, peu prédictible
0
signal avec une bande de fréquences
dominante
signal sinusoïdal
0
impulsion de Dirac δ(τ ) DSE
δ(t)
1
1 τ
t 0
0
8 Annexe. 23
Signaux & systèmes 8 Annexe. Signaux aléatoires
1
τ
0
1
ω
0
0
0
signal de Gauss-Markov du 1er
ordre (système du 1er ordre excité
par un bruit blanc)
__________
8 Annexe. 24
Signaux & systèmes TD 8 Annexe. Signaux aléatoires
1. Signal amplifié
X(t) A Y(t)
2. Estimation - Prédiction
TD 8 Annexe. 1
Signaux & systèmes TD 8 Annexe. Signaux aléatoires
Une autre méthode de génération de signaux aléatoires consiste à utiliser la fonction OU exclusif.
Un échantillon de la séquence aléatoire est codé sur m bits. Le mot de l’échantillon x(n+1) de la séquence est
obtenu à partir du mot de l’échantillon x(n) en effectuant un OU exclusif entre les 2 bits de plus faible poids
de x(n), et en décalant circulairement vers la droite les bits du mot : le LSB est perdu, et il rentre le résultat du
OU exclusif pour nouveau MSB.
Un mot a conventionnellement son MSB à l’extrême gauche et son LSB à l’extrême droite. Le MSB est le bit de plus fort poids, le LSB celui
de poids le plus faible.
Programmer les séquences aléatoires à distribution uniforme, de Rayleigh et gaussienne par les relations :
__________
TD 8 Annexe. 2
Signaux & systèmes
EXAMENS
Examens
EISTI - ING2 - Examen de Signaux & Systèmes Décembre 1993
Lors de l'enregistrement en studio d'un signal x(t), un écho s'ajoute généralement à celui-ci et le récepteur
(enregistreur) reçoit en fait:
y(t) = x(t) + αx(t- τ) où 0 < α < 1 et τ > 0
1- z -1
Soit le filtre numérique de Fonction de Transfert: H(z) =
0.2 - 0.1z -1
1. Donner l'équation aux différences reliant la sortie yn du filtre à son entrée xn.
2. Ce filtre est-il stable ?
3. Quelle est sa Réponse Impulsionnelle hn ?
4. Donner la valeur de hn pour n = 0.
5. Déterminer et tracer la réponse indicielle du filtre.
6. En utilisant la Transformation Bilinéaire (sans correction des fréquences ni ajustement du gain),
déterminer le filtre analogique H(ν) correspondant, sachant que le filtre numérique a été échantillonné à la
période T = 1s.
7. En déduire la nature du filtrage réalisé.
__________
1
EISTI - ING2 - Examen de Signaux & Systèmes Décembre 1994
{
Les signaux u(n) } { y (n)} ont une durée finie N. {h(n)}
et est la Réponse Impulsionnelle d'un filtre causal.
n
−α 0 N−α et {h(n)} = {δ (n)} (Cas particuliers dans cette question seulement).
{ }
1.1.2. Si un signal w( n) a pour Transformée en z ( TZ ) W ( z ) , calculer la TZ de {w( −n)} en fonction de
{
celle de w( n) . }
Y (z)
{
1.1.3. Soit H ( z ) la TZ de h( n) , déterminer } en fonction de la TZ de {h( n)} .
U (z)
1.2. Première Procédure
{x1 (n)}
{ u(n) } {h(n) } + {y(n) }
{u(N-n) } { x2 (n)} {x2 (N-n)}
R,T {h(n) } R,T
Y ( z)
1.2.1. Calculer la Fonction de Transfert T1 ( z ) = .
U ( z)
1.2.2 Montrer que la Réponse Fréquentielle associée peut avoir un déphasage [
ψ = Arg T1 (e i 2πν ) ] nul.
1.2.3. Pour quelles valeurs du déphasage de ( )
H e i 2πν , ψ est-il nul ?
1.3. Seconde procédure
{x(n) } { x(N-n) } {v(n) }
{u(n) } {h(n) } R,T {h(n) } R,T { v(N-n) } = { y(n) }
Y (z)
1.3.1. Calculer T2 ( z ) = .
U (z)
1.3.2. Montrer que la Réponse Fréquentielle associée T2 e () a aussi un déphasage nul.
i 2 πν
1.4. Expliquer la phrase de l'énoncé : « Faire passer le signal à traiter {u(n)} (de durée finie N) dans un filtre de
Réponse Impulsionnelle h( n) { } dans le sens normal, puis en sens inverse ». .../...
1
EISTI - ING2 - Examen de Signaux & Systèmes Décembre 1994
2.1. Donner l'équation aux différences, sous forme d'algorithme directement programmable, du filtre d'entrée
{ } { }
notée u( n) et de sortie w( n) qui permet de restaurer l'image en effectuant le filtrage inverse.
W (z)
2.2. Quelle est sa Fonction de Transfert H ( z ) = ?
U ( z)
Y (z)
2.3. Comment s'exprime H ( z ) en fonction de la Fonction de Transfert G( z ) = du filtre de dégradation ?
X (z)
2.4. {
Déterminer et tracer sa Réponse Impulsionnelle h( n) . }
2.5. { }
Calculer et tracer sa réponse indicielle i ( n) .
2.7. Quelle précaution doit-on prendre lors de la programmation de l'algorithme de ce filtre numérique ?
2
EISTI - ING2 - Examen de Signaux & systèmes Décembre 1995
2. Filtre décimateur
On considère le filtre décimateur d’ordre M correspondant au schéma suivant (on conserve un échantillon sur M
échantillons) :
On pose : xn ≡ x(nT) yn ≡ y(nT)
et : F = 1/T
xn yn
M
Décimateur
F
Soit Fm la fréquence maximale de X(f) : X(f) = 0 pour Fm ≤ f ≤ .
2
Déterminer la condition sur la fréquence d’échantillonnage F pour qu’il n’y ait pas de recouvrement spectral en
sortie du décimateur.
1
EISTI - ING2 - Examen de Signaux & systèmes Décembre 1995
4. Filtrage numérique
On considère le filtre suivant d’entrée xn et de sortie yn fonction du paramètre réel non nul α :
1
y n = − x n +1 + y n +1
α
−1
1. Déterminer la Fonction de Transfert H ( z ) du filtre, exprimée suivant la variable z .
2. Quelle est la condition sur α pour que le filtre soit stable ?
3. Donner la Réponse Impulsionnelle hn du filtre et la tracer pour 0 < α < 1.
Ce choix pour α correspond-il à un filtre stable ?
4. On applique ce filtre sur chaque ligne d’une image en noir et blanc numérisée : x n représente l'intensité
lumineuse (niveau de gris) d'un point (pixel) de l'image orientée suivant la convention :
Colonnes
Lignes
Comment doit-être effectué le balayage d’une ligne d’image lors de l’application du filtre ?
5. Plutôt que d’appliquer ce filtre, on choisit maintenant de le programmer sous une forme causale :
(
yn = α yn −1 + xn )
Comment doit-être effectué le balayage d’une ligne d’image pour obtenir un filtrage identique au précédent ?
2
EISTI - ING2 - Examen de Signaux & systèmes Décembre 1996
1. Filtrage numérique
Y ( z)
On considère le filtre linéaire d’entrée x k et de sortie y k de Fonction de Transfert H ( z ) = donnée par :
X ( z)
1 − z −1
H ( z) =
0.5 − z −1
Conditions Initiales nulles
1. Donner l’équation aux différences caractérisant le filtre, la sortie étant initialement au repos.
Forme causale du filtre
2. Déduire de l’équation aux différences, l’algorithme, sous forme directement programmable, du filtre
sous sa forme causale (correspondant ainsi à un balayage de la gauche vers la droite des signaux).
3. Le filtre ainsi obtenu est-il stable ?
2. Filtre interpolateur
On considère le filtre interpolateur d’ordre M obtenu en insérant M − 1 zéros entre 2 échantillons successifs du
signal x k :
xk yk
M
Interpolateur
1
EISTI - ING2 - Examen de Signaux & systèmes Décembre 1997
1. Compression - Expansion
On considère les deux filtres suivants :
- Filtre interpolateur (≡ expanseur, ≡ sur-échantillonneur) d’ordre N :
Insertion de N − 1 zéros entre 2 échantillons successifs :
⎛k⎞
u(k) N x(k) u⎜ ⎟ si k = 0 mod N
x( k ) = ⎝ N ⎠
0 sinon
U (z) représente la Transformée en z (TZ) de u( k ) TZ : X (z) = U (z N )
- Filtre décimateur (≡ compresseur, ≡ sous-échantillonneur) d’ordre M :
Conservation d’un échantillon sur M échantillons :
u(k) M s(k)
s ( k ) = u( kM )
M −1 1 k
1 − i 2π
TZ : S (z) =
M
∑ U (z M ⋅ e
k=0
M
)
f
-1/2 0 1/2
1
EISTI - ING2 - Examen de Signaux & systèmes Décembre 1997
1.4.1. En supposant le canal de transmission parfait, donner le système d’équations permettant de déterminer
F0 ( z ) et F1 ( z ) pour qu’il y ait une parfaite reconstruction, c’est-à-dire v ( k ) = u( k ) .
1.4.2. Déterminer F0 ( z) et F1 ( z ) dans le cas où H 0 ( z) et H1 ( z) sont des filtres passe-tout :
⎧ H 0 ( z ) = z −1
⎨
⎩ H1 ( z ) = 1
Quelle remarque peut-on faire sur le filtrage opéré ?
2. Système alterné
Soit le signal u0 ( k ) obtenu à partir du signal u( k ) en inversant le signe d’un terme sur deux de la séquence (celui
de rang impair) : u0 ( k ) = ( −1) u( k ) . Soit le système inverseur à base de l’opérateur précédemment défini
k
et
impliquant le filtre de base de Fonction de Transfert (FT) H ( z ) :
( −1) k ( −1) k
u0 ( k ) y( k )
u( k ) x H ( z) x y0 ( k )
Filtre de base
Y0 ( z )
2.1. Donner la Fonction de Transfert G ( z ) = du système inverseur en fonction de celle du filtre de base.
U (z)
2.2. En déduire sa Réponse Impulsionnelle (RI) g ( k ) en fonction de celle du filtre de base.
2.3. Donner sa Réponse Fréquentielle (RF) G ( f ) en fonction de celle du filtre de base.
2.4. Représenter graphiquement la Réponse en Fréquence G ( f ) dans le cas où le filtre de base a pour RF :
H( f )
f
-1/2 0 1/2
2.5. Dans ce même cas de figure, déduire la nature du filtre inverseur (passe-bas, passe-haut, passe-bande ou
coupe-bande).
2
EISTI - ING2 - Examen de Signaux & systèmes Décembre 1998
1.1. Donner la Fonction de Transfert H (z ) du filtre annulateur d’écho (il réalise la suppression de l’écho).
1.2. Exprimer H (z ) en fonction de la Fonction de Transfert G (z ) du filtre générateur d’écho
1.3. En déduire l’algorithme de calcul de ce filtre d’entrée/sortie respectives nommées symboliquement u n et v n .
1.4. Donner l’expression de sa Réponse Impulsionnelle hn . La tracer pour α = 0 .5 et k = 3 .
2. Signal stéréophonique
Certaines émissions de radiodiffusion en FM (Modulation de Fréquence) sont transmises en stéréophonie. Cela signifie
que le signal reçu autorise la reconstruction des signaux des deux voies gauche g (t ) et droite d (t ) . Pour cela, on
émet le signal composite c (t ) : c(t ) = [g (t ) + d (t )] + [g (t ) − d (t )]cos(2πf 0 t )
On suppose que les signaux g (t ) et d (t ) sont réels et à bande limitée [− 15 kHz , + 15 kHz ] . En radiodiffusion, on
prend f 0 = 38 kHz .
2.1. Donner l’expression C ( f ) du spectre du signal c(t ) en fonction des spectres de g (t ) et d (t ) .
2.2. Esquisser ce spectre C ( f ) (d’amplitude), en précisant les fréquences et amplitudes caractéristiques, dans le
cas où les spectres G ( f ) et D ( f ) des signaux g (t ) et d (t ) ont l’allure suivante :
G( f ) D( f )
2
1
f (kHz) f (kHz)
0 15 0 15
2.3. Comment permettre la restitution du signal sur un poste monophonique ? (En d’autres termes, il faut, à partir
de c (t ) , fabriquer un signal cumulant les canaux gauche et droit)
2.4. On échantillonne le signal reçu c (t ) à la fréquence d’échantillonnage Fe = 76 kHz . Indiquer comment
reconstruire séparément les signaux g (t ) et d (t ) pour une restitution sur poste stéréophonique ?
3. Lissage
Soit le filtre numérique f k (sa Réponse Impulsionnelle est f k ), d’entrée/sortie respectives x k et u k , d’équation aux
différences : u k = x k +1 + x k −1
3.1. On fabrique un nouveau filtre numérique hk d’entrée/sortie respectives x k et y k , en plaçant en cascade
avec f k , le filtre numérique g k d’entrée/sortie respectives u k et y k , et de Fonction de Transfert :
uk
Y ( z) xk fk gk yk
G( z) = = z −1 (les deux filtres sont synchrones et d’état initial au repos)
U ( z)
3.1.1. Donner la Réponse Fréquentielle H ( f ) du filtre résultant.
3.1.2. En déduire la nature (passe-bas, passe-haut ...) de ce filtre.
3.2. On fabrique un nouveau filtre analogique h(t ) d’entrée/sortie respectives x k et y (t ) , en plaçant en
cascade avec f k , le filtre analogique g (t ) d’entrée/sortie respectives u k et y (t ) , et de Fonction de Transfert :
uk
e − i 2π f xk fk g (t ) y (t )
G ( f ) = i 2π f (les deux filtres ont un état initial au repos)
e + e − i 2π f
3.2.1. Donner la Réponse Fréquentielle H ( f ) du filtre résultant.
3.2.2. Quelle est l’opération temporelle réalisée par ce filtre ?
1
EISTI - ING2 - Examen de Signaux & systèmes Décembre 1999
1
EISTI - ING2 - Examen de Signaux & systèmes Décembre 1999
2. Egalisation analogique
On considère une chaîne d’égalisation analogique :
Filtre de dégradation Filtre de restauration
y(t )
x(t ) d (t ) r (t ) x(t )
1. Tracer le module de la Réponse en fréquence H ( f ) du filtre numérique obtenu par synthèse par
Transformation d’Euler (sans correction des fréquences ni ajustement du gain).
2. En déduire la nature du filtre numérique ainsi synthétisé (passe-bas, passe-haut, passe-bande, coupe-bande).
3. Tracer le module de la Réponse en fréquence H ( f ) du filtre numérique obtenu par synthèse par
Transformation Bilinéaire (sans correction des fréquences ni ajustement du gain).
4. En déduire la nature du filtre numérique ainsi synthétisé (passe-bas, passe-haut, passe-bande, coupe-bande).
5. Tracer le module de la Réponse en fréquence H ( f ) du filtre analogique.
6. En déduire la nature du filtre analogique (passe-bas, passe-haut, passe-bande, coupe-bande).
2
EISTI - ING2 - Examen de Signaux & systèmes Décembre 2000
1. Filtre numérique
On considère un filtre numérique d’entrée xn et de sortie yn . Au signal d’entrée particulier xn = Γn , sa réponse est :
yn = (−0.1) Γn ( Γn représente le signal échelon unité).
n
1. Déterminer la Réponse Impulsionnelle (RI) hn du filtre. Préciser en particulier h1 (numériquement). Tracer l’allure de hn .
2. Si (dans cette question seulement) les signaux (donc le filtre) sont échantillonnés à la cadence T ,écrire l’expression de h(nT ) .
3. Quel signal d’entrée xn provoque la réponse yn = δ n − δ n −1 du filtre ?
4. Donner la RI gn du filtre tel que l’ensemble des filtres hn et gn en cascade a Γn pour RI :
δn hn gn Γn
5. Quelle caractéristique importante peut-on voir dans le filtre gn ?
2. Filtre de lissage
1
Soit le filtre numérique H décrit par la relation d’entrée/sortie : yn = ( xn−1 + xn + xn+1 )
3
où : xn et yn désignent respectivement l’entrée et la sortie du filtre.
1. Le filtre numérique H peut-il fonctionner en temps réel ? Pourquoi ?
2. Calculer la Réponse en Fréquence H ( f ) du filtre H pour un pas d’échantillonnage T .
3. Tracer le module de la Réponse Fréquentielle H( f ) .
4. En déduire la nature du filtre H (passe-bas, passe-haut, passe-bande ou coupe-bande).
On applique maintenant le filtre numérique H à un signal analogique selon le schéma suivant, en vue d’un filtrage
analogique : ( B0 est le bloqueur d’ordre 0)
xn yn
x (t ) H B0 u(t )
T
1
La période d’échantillonnage T est choisie telle que = 10 f 1 .
3T
5. Le signal d’entrée a pour expression : . cos(20π f 1t ) .
x (t ) = 01
Le taux d’échantillonnage est-il suffisant (la condition de Shannon est-elle remplie) ? Pourquoi ?
6. Donner la réponse yn du filtre H au signal d’entrée x ( t ) . Application numérique.
7. Le signal d’entrée a maintenant pour expression : x (t ) = cos(2π f 1t ) .
Le taux d’échantillonnage est-il suffisant ? Pourquoi ?
8. Donner la réponse yn du filtre H au signal d’entrée x ( t ) . Application numérique.
9. Le signal d’entrée a enfin pour expression : x (t ) = cos(2π f 1t ) + 01
. cos(20π f 1t ) .
Donner la réponse yn du filtre H au signal d’entrée x (t ) . Application numérique.
3. Identification de processus par corrélation
Soit le schéma suivant, autorisant l’identification du système h( t ) à l’aide d’un signal bruit blanc.
(Un bruit blanc e( t ) est tel que son autocorrélation Cee (t ) = Kδ (t ) avec K = Constante (variance du bruit blanc)).
(Tous les signaux considérés sont réels).
e( t ) s( t )
Générateur de bruit blanc Processus h(t) à identifier Corrélateur Ces (t )
1
EISTI - ING2 - Examen de Signaux & systèmes Décembre 2001
1.2
1
MH( f )
0.2
1 0.5 0 0.5 1
−1 f 1
3. Pôles et zéro - Transformation d’un filtre numérique récursif en un filtre non récursif
−1 1
1. Etablir la relation existant entre le polynôme 1 − az et la fractionnelle ∞ . ( a complexe non nul)
∑a z
k −k
k =0
1
EISTI - ING2 - Examen de Signaux & systèmes Novembre 2002
1.2
1
f ( x)
0.5
0.333 0
1 0.5 0 0.5 1
− 1 x 1
ek
1. Exprimer la sortie y k en fonction des signaux d’entrée x k et e k .
2. En déduire une autre structure (un autre schéma-bloc) pour cet étage.
3. Codeur convolutif récursif
En turbocodage, on construit un codeur convolutif récursif sous la forme d’un filtre caractérisé par le schéma-bloc
(schéma fonctionnel) suivant, et d’entrée/sortie notées respectivement x k et y k :
xk + z −1 z −1 z −1 z −1
+ yk
1
EISTI - ING2 - Examen de Signaux & systèmes Novembre 2003
1. Filtrage numérique
On considère le filtre numérique d’entrée/sortie respectives x k et yk et défini par sa Fonction de Transfert :
0.1 + z −1 xk yk
H ( z) =
1 + 0.5z −1
1. Exprimer la sortie yk du filtre causal.
2. Déterminer la Réponse Impulsionnelle hk du filtre causal, tracer son allure et donner les 4 valeurs numériques h0 à h3 .
3. Donner la Réponse Impulsionnelle, notée gk , du filtre non causal, tracer son allure et donner les 4 valeurs numériques g0 à g −3 .
4. Dans le cas où le filtre est échantillonné à la cadence T ( gk par exemple représente g (kT ) ), donner l’expression de g (kT ) .
5. On note I (z ) le filtre inverse de H (z ) permettant de reconstruire x k à partir de yk , comment doit-on programmer ce filtre de
reconstruction (sous forme causale ou non causale ?) et pourquoi ?
1
EISTI - ING2 - Examen de Signaux & systèmes Novembre 2004
1. Compression - Expansion
On considère les deux filtres numériques suivants :
Filtre interpolateur (expanseur, sur-échantillonneur) d’ordre N (N entier supérieur ou égal à 2) :
Il y a insertion de N − 1 zéros entre 2 échantillons successifs :
⎛k⎞ ⎛k⎞ k
u(k) N x(k) u ⎜ ⎟ si k = 0 mod N u⎜ ⎟ si entier
x(k ) = ⎝ N ⎠ ≡ ⎝N⎠ N
0 sinon 0 sinon
Filtre décimateur (compresseur, sous-échantillonneur) d’ordre M (M entier supérieur ou égal à 2) :
Il y a conservation d’un échantillon sur M échantillons :
u(k) M s(k)
s ( k ) = u( kM )
Filtre interpolateur - Ce filtre est-il ?
1. Stationnaire ?
2. Causal ?
3. Linéaire ?
4. Stable ?
Filtre décimateur - Ce filtre est-il ?
5. Stationnaire ?
6. Causal ?
7. Linéaire ?
8. Stable ?
1
EISTI - ING2 - Examen de Signaux & systèmes Novembre 2005
1
2
xn H yn
1
-5 -4 -3 -2 -1 0 1 2 3 4 5 n -5 -4 -3 -2 -1 0 1 2 3 4 5 n
un vn
un H vn
-5 -4 -3 -2 -1 0 1 2 3 4 5 n -5 -4 -3 -2 -1 0 1 2 3 4 5 n
-2 -2
-4