Vous êtes sur la page 1sur 14

Chapitre 01

Modélisation des signaux et des


systèmes échantillonnés

1. INTRODUCTION

Dans la réalité industrielle, la complexité des systèmes, ainsi que celle des traitements à réaliser, nécessite
souvent le recours à des outils numériques de traitement : ordinateurs, calculateurs, systèmes numériques
en tout genre.
De tels outils ne peuvent en aucun cas s’accommoder de signaux continus ; ceux-ci doivent être
transformés en suites de nombres pour pouvoir être traités (Figure 1.1). De même, ces systèmes
délivrent, à leur sortie, des suites de valeurs numériques, autrement dit, des signaux numériques
Remarque : On parle aussi de systèmes et de signaux à temps discret par opposition à la notion de temps
continu.

.Figure 1.1 Traitement numérique d’un signal

Pour transformer un signal continu en une suite de nombres compatible avec un système de traitement
numérique, on a recours à deux opérations successives : l’échantillonnage qui consiste à prélever des
valeurs discrètes du signal, puis, la conversion analogique numérique qui transforme ces échantillons en
nombres binaire (Figure 1.2).
L’échantillonnage réalise donc une discrétisation dans le temps, tandis que la conversion analogique
numérique réalise une discrétisation en amplitude. En effet, si on considère qu’un convertisseur analogique
numérique dispose de n bits en sortie pour coder la valeur numérique du signal, celui-ci ne pourra prendre
que 2n valeurs.
Par convention, on notera e∗ (t) le signal échantillonné avant sa conversion analogique numérique.

1
Figure 1.02 Échantillonnage et conversion analogique numérique d’un signal

2. PRINCIPES FONDAMENTAUX DE L’ÉCHANTILLONNAGE DES


SIGNAUX

2.1 Définition

L’échantillonnage d’un signal temporel s(t) consiste à transformer celui-ci en une suite discrète s(nTe) de
valeurs prises à des instants nTe. Te est appelée période d’échantillonnage. Les instants nTe sont appelés
les instants d’échantillonnages. Pratiquement, échantillonner un signal revient à le multiplier par une
fonction d’échantillonnage p(t), nulle partout, sauf au voisinage des instants nTe. Cette fonction, qui porte
souvent le nom de peigne, est représentée sur la Figure 1.03. Le résultat d’une opération
d’échantillonnage, visible sur la Figure 1.4, est :
s∗(t) = p(t) s(t)

Figure 1.03 Fonction d’échantillonnage.

.Figure 1.4 Échantillonnage d’un signal quelconque

L’échantillonnage produit donc, à partir d’un signal s(t), la suite :


s(0), s(Te), s(2Te), . . . , s(nTe)
que l’on note, en général : s∗(t) = {s0, s1, s2, . . . , sn}
ou encore : s(k) = {s0, s1, s2, . . . , sn}

2
Remarque : En toute logique, cette suite ne correspond pas encore à des valeurs numériques. Ce signal
échantillonné est un signal analogique à temps discret.
2.2 Spectre d’un signal échantillonné
Supposons qu’un signal s(t) à échantillonner soit à énergie finie et possède, par conséquent, une
transformée de Fourier :
+∞
𝑆(𝑓 ) = ∫0 𝑠(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 avec 𝜔 = 2𝜋𝑓
Calculons alors la transformée de Fourier S∗( f ) du signal échantillonné s∗(t). Le signal p(t) étant
périodique, il possède une décomposition en série de Fourier que nous pouvons écrire, sans la calculer :
+∞

𝑝(𝑡) = ∑ 𝐴𝑛 𝑒 𝑗𝑛Ω𝑒 𝑡 avec Ω𝑒 = 2𝜋⁄𝑇𝑒


𝑛=−∞

On a alors :
+∞

𝑠∗(𝑡 ) = 𝑠(𝑡 )𝑝(𝑡 ) = 𝑠(𝑡) ∑ 𝐴𝑛𝑒𝑗𝑛Ω𝑒𝑡


𝑛=−∞
d'où :

+∞ +∞

𝑆 ∗ (𝑓 ) = ∫ [𝑠(𝑡) ∑ 𝐴𝑛 𝑒 𝑗𝑛Ω𝑒 𝑡 ] 𝑒 −𝑗ω𝑡 d𝑡


−∞ 𝑛=−∞

+∞ +∞
∗(
𝑆 𝑓 ) = ∑ [𝐴𝑛 ∫ 𝑠(𝑡)𝑒 𝑗𝑛Ω𝑒 𝑡 𝑒 −𝑗ω𝑡 d𝑡]
𝑛=−∞ −∞

+∞ +∞
∗(
𝑆 𝑓 ) = ∑ [𝐴𝑛 ∫ 𝑠(𝑡)𝑒 −𝑗(ω−𝑛Ω𝑒 )𝑡 d𝑡]
𝑛=−∞ −∞
Soit :
+∞
∗(
𝑆 𝑓 ) = ∑ [𝐴𝑛 𝑆(𝑓 − 𝑛𝑓𝑒 )] 𝑎𝑣𝑒𝑐 𝑓𝑒 = Ω𝑒 ⁄2𝜋 = 1⁄𝑇𝑒
𝑛=−∞

La transformée de Fourier du signal échantillonné apparaît donc comme une superposition des
transformées de Fourier de s(t) aux points f - n fe, fe étant la fréquence d’échantillonnage choisie. Pour
n=0, on retrouve le spectre |S( f )| du signal initial. Pour n non nul, on retrouve ce même spectre, mais
décalé, par rapport à |S( f )| de nfe avec n ∈ Z. On dit aussi que S( f ) est périodique de fréquence fe. La
Figure 1.05 présente les spectres comparés de s(t) et de s∗(t).

3
.Figure 1.5 Spectre d’un signal échantillonné

2.3 Reconstitution du signal échantillonne (Théorème de Shannon)


Si le signal varie trop rapidement par rapport à période d’échantillonnage Te. On ne peut pas reconstruire
le signal d’origine.

On peut remarquer sur le spectre ci-dessous (Figure 1.6) que la fréquence d’échantillonnage doit être telle
que fe – B > B, soit fe > 2B, sinon il y a recouvrement des spectres, ceci constituant le théorème de Shannon.

Figure 1.06 Spectre d’un signal échantillonné


Pour préserver, lors de son échantillonnage, l’information contenue dans un signal, la fréquence
d’échantillonnage fe doit être supérieure au double de la largeur spectrale du signal.
3. EXEMPLES DE SIGNAUX ÉCHANTILLONNÉS SIMPLES

3.1 Impulsion unité


On définit l’impulsion unité échantillonnée par le signal :
𝛿 ∗ (𝑡) = {1, 0, 0, . . . , 0 }
∗(
𝛿 𝑛𝑇𝑒 ) = 1 pour 𝑛 = 0
Autrement dit : {
𝛿 ∗ (𝑛𝑇𝑒 ) = 0 pour 𝑛 ≠ 0
Remarque : Nous considérerons comme nuls pour t négatif, tous les signaux que nous étudierons.

4
La Figure 1.7 propose une représentation schématique de cette impulsion unité

.Figure 1.7 Impulsion unité


3.2 Échelon unité
On définit l’échelon unité échantillonné par le signal :
𝑢∗ (𝑡) = {1, 1, 1, . . . , 1 }
𝑢 (𝑘 ) = 1 ∀ 𝑘 ≥ 0
Autrement dit : {
𝑢 (𝑘 ) = 0 ∀ 𝑘 < 0
La Figure 1.8 propose une représentation schématique de cet échelon unité

Figure 1.08 Échelon unité.


Cet échelon unité n’est rien d’autre que la somme d’impulsions unités décalées dans le temps :
𝑢∗ (𝑡) = 𝛿 ∗ (𝑡) + 𝛿 ∗ (𝑡 − 𝑇𝑒 ) + 𝛿 ∗ (𝑡 − 2𝑇𝑒 ) + ⋯
Soit :
𝑛

𝑢∗ (𝑡) = ∑ 𝛿 ∗ (𝑡 − 𝑘𝑇𝑒 )
𝑘=0

On pose parfois : 𝛿 ∗ (𝑡 − 𝑘𝑇𝑒 ) = 𝛿𝑘


ce qui nous conduit à la notation :
𝑛

𝑢∗ (𝑡) = ∑ 𝛿𝑘
𝑘=0

4. TRANSFORMÉE EN Z DES SIGNAUX ÉCHANTILLONNÉS


Définition 4.1
Soit s(t) un signal continu quelconque que l’on échantillonne à une fréquence fe (soit une période Te), en
respectant, bien évidemment, le théorème de Shannon.
On a :

5
𝑠 ∗ (𝑡) = {𝑠0, 𝑠1 , 𝑠2, … , 𝑠𝑛 }
Avec 𝑠𝑖 = 𝑠(𝑖𝑇𝑒 )
Ou encore 𝑠(𝑘) = {𝑠0 , 𝑠1, 𝑠2, … , 𝑠𝑛 }
Cette suite n’est rien d’autre que la somme d’impulsions unités décalées dans le temps et multipliées,
chacune, par le coefficient sk :
𝑠 ∗ (𝑡) = 𝑠0 𝛿 ∗ (𝑡) + 𝑠1 𝛿 ∗ (𝑡 − 𝑇𝑒 ) + 𝑠2𝛿 ∗ (𝑡 − 2𝑇𝑒 ) + ⋯
Soit :
𝑛

𝑠 ∗ (𝑡) = ∑ 𝑠𝑘 𝛿 ∗ (𝑡 − 𝑘𝑇𝑒 )
𝑘=0
D’où 𝑛
∗(
𝑠 𝑡) = ∑ 𝑠𝑘 𝛿𝑘
𝑘=0
Nous pouvons toujours calculer la transformée de Laplace de s∗(t) :
𝑛

𝑆 𝑝) = ∑ 𝑠𝑘 ∆∗𝑘 (𝑝)
∗(

𝑘=0

Dans cette expression, ∆∗𝑘 (𝑝) représente la transformée de Laplace d’une impulsion unité à l’instant kTe,
représentée sur la Figure 1.9

.Figure 1.9 Impulsion unité à l’instant k


+∞
Par définition : ∆∗𝑘 (𝑝) = ∫0 𝛿𝑘∗ (𝑡)𝑒 −𝑝𝑡 d𝑡
En appliquant le théorème du retard et en nommant ∆∗0 (𝑝) la transformée de Laplace de l’impulsion unité

en 0, on a : ∆∗𝑘 (𝑝) = ∆∗0 (𝑝)𝑒 −𝑝𝑘𝑇𝑒


+∞
avec: ∆∗0 (𝑝) = ∫0 𝛿0∗ (𝑡)𝑒 −𝑝𝑡 d𝑡
Nous ne pouvons calculer cette intégrale directement. Aussi admettrons-nous le résultat :
∆∗0 (𝑝) = 1
Il vient alors :
∆∗𝑘 (𝑝) = 𝑒 −𝑝𝑘𝑇𝑒
d’où : 𝑛

𝑆 𝑝) = ∑ 𝑠𝑘 𝑒 −𝑝𝑘𝑇𝑒
∗(

𝑘=0

En posant ɀ= 𝑒 𝑝𝑇𝑒 , on définit la transformée en ɀ du signal s(t) par :


𝑛

𝑆 𝑝) = ∑ 𝑠𝑘 ɀ −𝑘
∗(

𝑘=0
La transformation en z peut être notée : s(t) → Z(s)

6
4.2 Intérêt de la transformée en ɀ
Nous allons retrouver avec la transformée en ɀ, le même intérêt que celui que nous avions trouvé à la
transformée de Laplace pour les signaux à temps continu. Lorsque nous saurons modéliser le
fonctionnement d’un système numérique par une fonction de transfert en ɀ, nous disposerons d’un outil
complet permettant de décrire, donc d’étudier leur fonctionnement.
Tout comme l’on écrivait : S( p) = G( p)E( p),
on écrira alors : S(ɀ) = G(ɀ)E(ɀ)
4.3 Propriétés de la transformée en z
a) Linéarité
Soit s1(t) et s2(t) deux signaux quelconques possédant chacun une transformée en ɀ, S1(ɀ) et S2(ɀ). La
transformée en ɀ d’une combinaison linéaire λs1(t)+μs2(t) de ces deux fonctions est égale à λS1(ɀ)+μS2(ɀ).
b) Théorème du retard
Soit s(t) un signal quelconque possédant une transformée en ɀ, S(ɀ) et soit x(t) = s(t − aTe) correspondant
au même signal retardé d’un temps aTe. La transformée en ɀ de s(t − aTe) est égale à :
X(ɀ) = ɀ −aS(z)
c) Théorème de la valeur initiale
Soit s(t) un signal quelconque possédant une transformée en ɀ, S(ɀ). Soit (sk) la suite échantillonnée
correspondant au signal s(t). lim 𝑠𝑘 = 𝑠(0) = lim 𝑆(ɀ)
k→0 ɀ→∞

d) Théorème de la valeur finale


Le théorème de la valeur finale permet de connaître la valeur vers laquelle tend la suite (sk) lorsque k→+∞,
autrement dit lorsque t → +∞.
lim 𝑠𝑘 = lim[(1 − ɀ−1 )𝑆(ɀ)]
k→∞ ɀ→1

e) Multiplication par le temps


Soit s(t) un signal quelconque possédant une transformée en ɀ, S(ɀ). Soit x(t) le signal défini par x(t)=t·s(t).
Alors :
d𝑆(ɀ)
𝑋(ɀ) = −ɀ𝑇𝑒 dɀ
f) Changement d’échelle
Soit s(t) un signal quelconque possédant une transformée en ɀ, S(ɀ). Soit (sk) la suite échantillonnée
correspondant au signal s(t). Soit (xk) la suite d’échantillons définie par :
xk = aksk avec a ≠ 0
Le signal x(t) correspondant à la suite (xk) possède une transformée en ɀ telle que :
ɀ
𝑋(ɀ) = 𝑆 ( )
𝑎

7
4.4 Transformée en z de signaux usuels
a) Impulsion unité
L’impulsion unité étant définie par :
𝛿𝑘 = 1 pour 𝑘 = 0
𝛿𝑘 = 0 pour 𝑘 ≠ 0
On a :
+∞

∆(ɀ) = ∑ 𝛿𝑘 ɀ−𝑘 = ɀ0 = 1
𝑘=0

b) Échelon unité

L’échelon unité étant défini par :


uk = 1 pour k≥ 0
On a : +∞ +∞
−𝑘
1 𝑘
𝑈(ɀ) = ∑ ɀ = ∑( )
ɀ
𝑘=0 𝑘=0
C'est une série géométrique infinie. Rappel :
1
1 + 𝐴 + 𝐴2 + 𝐴3 + ⋯ = 𝑠𝑖 |𝐴| < 1
1−𝐴
Donc, la transformée en ɀ est :
1 1 ɀ
𝑈(ɀ) = = =
1 1−ɀ −1 ɀ−1
1−ɀ

c) Rampe unité
La rampe unité en temps continu est définie par :
v(t) = t pour t ≥ 0
En remarquant que v(t) = t · u(t) et en utilisant la propriété étudiée précédemment, on obtient :
d𝑈(ɀ ) d ɀ
𝑉(ɀ ) = −ɀ𝑇𝑒 = −ɀ𝑇𝑒 dɀ (ɀ−1)

(ɀ−1 )−ɀ
Soit : 𝑉(ɀ ) = −ɀ𝑇𝑒 (ɀ−1 ) 2
ɀ𝑇
d'où : 𝑉(ɀ ) = (ɀ−1𝑒) 2

d) Exponentielle décroissante
Soit s(t) le signal défini par s(t) = e−at pour t ≥ 0. La transformée en ɀ de ce signal a pour expression :

𝑛 𝑛 𝑛 𝑘
−𝑎𝑘𝑇𝑒 −𝑘 (𝑎𝑇𝑒 )−𝑘 −𝑘
1
𝑆(ɀ) = ∑ 𝑒 ɀ =∑ 𝑒 ɀ = ∑( )
𝑒 𝑎𝑇𝑒 ɀ
𝑘=0 𝑘=0 𝑘=0
𝑛
1 𝑒 𝑎𝑇𝑒 ɀ ɀ
𝑆(ɀ) = ∑ = 𝑎𝑇 =
𝟏 𝑒 𝑒 ɀ − 1 ɀ − 𝑒 −𝑎𝑇𝑒
𝑘=0 1 − 𝑎𝑇𝑒 ɀ
𝑒

8
5. FONCTION DE TRANSFERT EN Z
5.1Relations entre échantillons de sortie et échantillons d’entrée : équation récurrente
La modélisation initiale d’un système à temps discret conduit souvent à l’écriture d’une équation
récurrente entre différents termes des séquences d’entrée et de sortie. La forme générale d’une équation
récurrente linéaire peut être donnée par
an s  k  n   an 1s  k  n 1  ... a1s  k  1  a0 s  k   bme  k  m   bm 1e  k  m 1  ... b1e  k  1  b0e  k 
Par hypothèse an  0 et n est appelé l’ordre du système. Le système est dit causal si les
sorties dépendent uniquement des évènements passés. Pour cela il doit obligatoirement vérifier .
Cette formulation de l’équation récurrente est bien adaptée au calcul numérique. C’est la forme sous
laquelle seront présentés les algorithmes de commande des procédés

De la même manière que l’on associe à un système à temps continu, une fonction de transfert, par

application de la transformation de Laplace à son équation différentielle, on peut associer à un système


à temps discret, une fonction de transfert en z, par application de la transformation en z à son équation
récurrente. Sous l’hypothèse que les conditions « initiales» sont nulles (s ( 0 = ) s( 1 = ... = ) s ( n −1 = )
e( 0 = ) e( 1 = ... = ) e( m −1 = ) 0 ) il vient la relation suivante
 a  a z  ... a
0 1 n 1 z n  an z n  S  z    b0  b1 z  ... bm1 z m1  bm z m  E  z 
N  z
Soit encore : S  z  E z
D z
N  z b  b z ... b 1 z m1  bm z m
Avec :  G z 0 1
D z a0  a1 z ... a 1 z 1  an z n
Qui est définie comme la fonction de transfert en z du système. Dans le cas général ou les conditions
initiales sont non nulles la représentation en z du système s’écrit plus exactement
N (z) I (z)
S  z  E  z 
D z  D z 
Où le polynôme I(z) ne dépend que des conditions initiales. Il influe sur la sortie du système sans modifier
le comportement dû au signal d’entrée U(z)
La factorisation du numérateur et du dénominateur conduit à la forme pôles, zéros, gain suivant

bm  z  z1  z  z1  ....  z  zm 
G  z 
a  z  p1  z  p1  ....  z  pn 

Avec : bm
pi 1,..., n : pôles z j 1,...,m : zéros k : gain
an

Par définition les pôles du système sont les racines du polynôme dénominateur et les zéros du système
sont les racines du polynôme numérateur. Les uns et les autres sont par défaut des nombres soit réels
soit complexes

9
5.2Définition de la fonction de transfert en ɀ
Considérons un système régi par une équation. Soit E(ɀ) la transformée en ɀ du signal d’entrée et S(ɀ)
. celle du signal de sortie
Rappelons que :
𝑛 𝑛

𝑆(ɀ) = ∑ 𝑠𝑘 ɀ −𝑘 𝐸 (ɀ) = ∑ 𝑒𝑘 ɀ −𝑘
𝑘=0
et 𝑘=0

Il est possible d’appliquer la transformation en ɀ à l’expression :


𝑝 𝑞

𝑠𝑘 = ∑ 𝑎𝑖 𝑒𝑘−𝑖 + ∑ 𝑏𝑗 𝑠𝑘−𝑗
𝑖=−𝑚 𝑗=1
−k
Cela revient à multiplier sk par ɀ et à sommer pour k variant de 0 à n :
𝑛 𝑛 𝑝 𝑞

𝑆(ɀ) = ∑ 𝑠𝑘 ɀ −𝑘 = ∑ ( ∑ 𝑎𝑖 𝑒𝑘−𝑖 + ∑ 𝑏𝑗 𝑠𝑘−𝑗 ) ɀ −𝑘


𝑘=0 𝑘=0 𝑖=−𝑚 𝑗=1
𝑛 𝑝 𝑞

𝑆(ɀ) = ∑ ( ∑ 𝑎𝑖 𝑒𝑘−𝑖 ɀ −𝑘 + ∑ 𝑏𝑗 𝑠𝑘−𝑗 ɀ −𝑘 )


𝑘=0 𝑖=−𝑚 𝑗=1

Les sommes étant indépendantes, elles peuvent être permutées :


𝑝 𝑛 𝑞 𝑛
−𝑘 )
𝑆(ɀ) = ∑ 𝑎𝑖 (∑ 𝑒𝑘−𝑖 ɀ + ∑ 𝑏𝑗 (∑ 𝑠𝑘−𝑗 ɀ −𝑘 )
𝑖=−𝑚 𝑘=0 𝑗=1 𝑘=0
𝑛

Regardons d’un peu plus près le terme ∑ 𝑒𝑘−𝑖 ɀ −𝑘


𝑘=0
Il s’agit de la transformée en z du signal d’entrée retardé de i échantillons.
Par conséquent : 𝑛 𝑛

∑ 𝑒𝑘−𝑖 ɀ −𝑘 = ɀ −𝑖 ∑ 𝑒𝑘 ɀ −𝑘 = ɀ −𝑖 𝐸(ɀ)
𝑘=0 𝑘=0
De même : 𝑛 𝑛

∑ 𝑠𝑘−𝑗 ɀ −𝑘 −𝑗 ∑ 𝑠𝑘 ɀ −𝑘 = ɀ −𝑗 𝑆(ɀ)
= ɀ
𝑘=0 𝑘=0
On en déduit donc : 𝑝 𝑞
−𝑖
𝑆(ɀ) = ∑ 𝑎𝑖 ɀ 𝐸(ɀ) + ∑ 𝑏𝑗 ɀ −𝑗 𝑆(ɀ)
𝑖=−𝑚 𝑗=1

soit : 𝑞 𝑝

𝑆(ɀ) [1 − ∑ 𝑏𝑗 ɀ −𝑗 ] = 𝐸(ɀ) ∑ 𝑎𝑖 ɀ −𝑖
𝑗=1 𝑖=−𝑚

en posant : ∑𝑝𝑖=−𝑚 𝑎𝑖 ɀ −𝑖
𝑆 (ɀ)
𝐺 (ɀ) = =
𝐸(ɀ) 1 − ∑𝑞𝑗=1 𝑏𝑗 ɀ −𝑗
on définit la fonction de transfert en ɀ, G(ɀ ) du système.

10
Remarque : Pour obtenir rapidement la fonction de transfert en ɀ à partir d’une équation, il suffit de
remplacer chaque ek−i et chaque sk−j respectivement par ɀ−𝒊 𝐸(ɀ) et ɀ−𝒋 𝑆(ɀ).
L’équation 𝑠𝑘 = ∑𝑝𝑖=−𝑚 𝑎𝑖 𝑒𝑘−𝑖 + ∑𝑞𝑗=1 𝑏𝑗 𝑠𝑘−𝑗 donne donc immédiatement :
𝑝 𝑞

𝑆(ɀ) = ∑ 𝑎𝑖 ɀ −𝑖 𝐸(ɀ) + ∑ 𝑏𝑗 ɀ −𝑗 𝑆(ɀ)


𝑖=−𝑚 𝑗=1
5.3Exemples de fonctions de transfert en z
a) Système en temps réel d’ordre p
On considère un système régi par l’équation :
𝑝

𝑠𝑘 = ∑ 𝑎𝑖 𝑒𝑘−𝑖
𝑖=0
Appliquons la transformation en z à chacun des membres :
𝑝

𝑆(ɀ) = ∑ 𝑎𝑖 ɀ −𝑖 𝐸(ɀ)
𝑖=0
On en déduit immédiatement :
𝑝
𝑆(ɀ)
𝐺 (ɀ) = = ∑ 𝑎𝑖 ɀ −𝑖 = 𝑎0 + 𝑎1 ɀ −1 + 𝑎2 ɀ −2 + ⋯ + 𝑎𝑝 ɀ −𝑝
𝐸(ɀ)
𝑖=0

6. TRANSFORMÉE EN Z INVERSE
La définition formelle de la transformée en ɀ inverse est :
1
𝑥 (𝑘 ) = ɀ−1 {𝑋(ɀ)} = ∮ 𝑋(ɀ)ɀ𝑘−1 𝑑 ɀ
2𝜋𝑗
Mais les outils en pratique utilisés pour déterminer la TZ-1 sont les suivants :
a) Utilisation de la table
ɀ
Exemple : s(ɀ) = ɀ−0,5
ɀ
La TZ est de la forme (ɀ) = ɀ−a avec a= 0,5 ce qui donne pour 𝑠(𝑘 ) = 0,5𝑘

D’où les valeurs d’échantillonné :


K 0 1 2 3
s(k) 1 0,5 0,25 0,125
Le signal échantillonné a la forme suivante :

11
b) Division polynomiale

ɀ
Exemple s(ɀ) = ɀ−0,5

On peut la division comme pour les scalaires


On retrouve bien les échantillons précédemment calculés
c) Division polynomiale

ɀ2
Exemple s(ɀ) = (ɀ−1)(ɀ−0,2)
s(ɀ) ɀ 1.25 −0,25
On divise par ɀ le signal et on décompose : = (ɀ−1)(ɀ−0,2) = (ɀ−1) + (ɀ−0,2)
ɀ
ɀ ɀ
Donc s(ɀ) = 1,25 (ɀ−1) − 0,25 (ɀ−0,2) d’où s(𝑘 ) = 1,25 − 0,25(0,2)𝑘

7. RELATIONS ENTRE LES MODÈLES À TEMPS CONTINU ET À TEMPS


DISCRET

12
Problématique 7.1
Considérons (Figure 1.11) un système à temps continu modélisé par sa fonction de transfert G( p). Nous
possédons une bonne connaissance de ce type de modèles et il est tout à fait légitime de s’interroger sur
l’existence d’un système échantillonné possédant les mêmes caractéristiques, c’est-à-dire le même
comportement temporel et le même comportement fréquentiel.

Figure 02.11 Recherche d’une équivalence temps continu – temps discret.


Le système échantillonné G(z) sera réputé équivalent au système G( p) si, soumis à un signal d’entrée E(z)
correspondant à l’échantillonnage du signal continu e(t) représenté par E( p), il délivre à sa sortie un signal
S(z) correspondant à l’échantillonnage du signal s(t) qui aurait été délivré par le système G( p)
7.2 Équivalence à la dérivation
Une fonction de transfert en temps continu est issue d’une équation différentielle linéaire à coefficients
constants. Cette équation est formée de dérivées successives des signaux d’entrée et de sortie. Un des
moyens les plus simples d’effectuer le lien entre une représentation en temps continu et en temps discret
est de considérer que la variation dx/dt en temps continu correspond à la variation du signal entre deux
instants d’échantillonnage :
𝑑𝑥 𝑥𝑘 − 𝑥𝑘−1

𝑑𝑡 𝑇𝑒
Cette équivalence est d’autant plus vraie que la fréquence d’échantillonnage est grande.
Or la transformée en z de l’expression de droite est :
𝑥𝑘 − 𝑥𝑘−1 1
𝑍( ) = 𝑋(ɀ)(1 − ɀ−1 )
𝑇𝑒 𝑇𝑒
De même, le terme dx/dt a pour transformée de Laplace : pX( p).
Par conséquent, l’équivalence naturelle entre une fonction de transfert continue en p et sa fonction de
transfert échantillonnée en ɀ est :
(1 − ɀ−1 )
𝑝↔
𝑇𝑒
7.2 Équivalence à l’intégration
L’équivalence à l’intégration, appelée également transformation bilinéaire propose une correspondance
plus précise que l’équivalence à la dérivation.
Transformation bilinéaire : Elle permet le passage d’une transformée de Laplace en une transformée en ɀ.
Elle utilise la méthode du trapèze pour calculer une intégrale.
Soit y(t), l’intégrale de la fonction x(t) :
𝑡
𝑦(𝑡) = ∫0 𝑥(𝜏) 𝑑𝜏

13
Si l’on effectue cette intégration entre les instants (n-1).Te et
n.Te:
yn – yn-1 = aire du trapèze défini ci-contre,
soit yn – yn-1 = (xn + xn-1).Te/2.
En passant à la transformée en ɀ :
Y(ɀ).(1 – ɀ -1) = X(ɀ).(1 + ɀ -1). Te/2
On passe donc de la transformée en ɀ d’un signal à la transformée en ɀ de son intégrale, en multipliant la
1+ɀ−1 𝑇𝑒
transformée en ɀ du signal par : 1−ɀ−1 2
Or un intégration en Laplace correspond à une division par p, on aura donc la correspondance :
2 (1−ɀ−1)
𝑝↔𝑇 qui constitue la transformation bilinéaire.
𝑒 (1+ɀ−1)

7.3 Équivalence modale : Les expressions fournies en annexe correspondent à des fonctions de transfert
que l’on a systématiquement adaptées pour que leurs gains statiques concordent.

7.4Équivalence d’une association de plusieurs systèmes


On ne peut déterminer l’équivalent G(z) d’un système de fonction de transfert en temps continu G(p) que
si ses signaux d’entrée et de sortie sont échantillonnés

Figure 1.12 : Principe de l’équivalence Laplace – Z.

Par conséquent, il est impossible, lorsque deux systèmes sont associés en cascade de calculer l’équivalent
de la fonction de transfert globale G0(p)= G1(p)G2(p) par la multiplication pure et simple de G1(z)G2(z). En
effet, en cherchant l’équivalent G0(z) de G0(p), on suppose implicitement que seuls les signaux d’entrée et
de sortie de G0 sont échantillonnés. Et lorsque l’on écrit G1(z)G2(z), on suppose que le signal sortant de G1
et entrant dans G2 est lui aussi échantillonné, sinon, on ne pourrait trouver ces deux équivalents

Figure 1.14 : Principe de l’équivalence Laplace – Z pour une association en cascade

En conclusion, on ne peut pas déterminer l’équivalent en z d’une association de plusieurs


systèmes en multipliant les deux fonctions de transfert en temps continu, puis en cherchant
l’équivalent de la fonction globale ; il faut impérativement calculer d’abord les fonctions de
transfert en z de chaque système, puis multiplier ces fonctions de transfert en z pour obtenir la
fonction de transfert échantillonnée de l’ensemble.

14