Vous êtes sur la page 1sur 33

UNIVERSITE ESPOIR D’AFRIQUE

DEPARTEMENT DE GENIE ET GESTION DES


TELECOMMUNICATIONS (GGT)
ANNEE ACADEMIQUE 2022-2023
2ème SEMESTRE
1ère ANNEE

SIGNAL, OUTILS ET APPLICATIONS


(VH : 45h,3crédits)

Enseignant : Msc Ing. HAFASHIMANA Jean de Dieu

1
Chapitre I. Modélisation et caractéristiques des signaux
1.Signal
2.Signal déterministe et aléatoire
3.Analyse fréquentielle des signaux à bande étroite

Chapitre II. Les systèmes de traitement


1.Filtrage linéaire et invariant dans le temps
2.Produit de convolution
3.Réponse impulsionnelle et fonction de transfert d’un filtre
4.Causalité et stabilité

Chapitre III. Passage d’un signal continu en un signal discret


1. Echantillonnage
2. Quantification
2. Repliement de spectre et théorème de Shannon
3. Conversion analogique – numérique et numérique – analogique

Chapitre IV. Signaux et systèmes à temps discret


1.Transformée en Z
2.Filtres numériques
3.Transformée de Fourier à temps discret

Chapitre V. Applications

2
Quelques définitions
1. Un signal est la manifestation physique d’une information qui est transportée d’une
source vers une destination. En pratique, c’est souvent une grandeur physique qui
varie au cours du temps. Ceci est en réalité un peu restrictif mais correspond bien à la
plupart des cas pratiques. Par exemple, puisqu’en mesures physiques, on est
intéressé par la mesure et par les capteurs, la tension délivrée par tout capteur est
typiquement un signal qui peut faire l’objet des propos qui vont suivre. Cette
interprétation très « physique » du signal peut s’étendre un peu et l’on appelle aussi
souvent « signal », la description mathématique de l’évolution de la grandeur physique
en question.
N.B : Les signaux, considérés dans ce cours, sont des grandeurs électriques variant
en fonction du temps x(t) obtenues à l’aide de capteurs.

2. L’information est un concept de la discipline des sciences de l'information et de la


communication . Au sens étymologique, l’information est ce qui donne une forme à
l'esprit. Elle vient du verbe latin « informare », qui signifie « donner forme à » ou « se
former une idée de ».
L'information désigne à la fois le message à communiquer et les symboles utilisés
pour l'écrire. Elle utilise un code de signes porteurs de sens tels
qu'un alphabet de lettres, une base de chiffres,...
3. Le bruit est un ensemble de sons produits par des vibrations plus ou moins
irrégulières ou encore est un son jugé indésirable. Un son qui ne se comprenne pas
comme de la parole ou de la musique même si sa perception n’est pas désagréable.

3
Chapitre I. Modélisation et caractéristiques des signaux
1.1. Signal
Un signal est la représentation physique de l’information, qu’il convoie de sa source à
sa destination. C’est une expression d’un phénomène qui peut être mesurable par un
appareil de mesure. Bien que la plupart des signaux soient des grandeurs électriques
(généralement courant, tension, champ, …) la théorie du signal reste valable quelle
que soit la nature physique du signal.
L’objectif fondamental de la théorie du signal est la description mathématique des
signaux. Elle fournit les moyens de mettre en évidence, sous forme mathématique
commode les principales caractéristiques d’un signal : la distribution spectrale de son
énergie ou la distribution statistique de son amplitude par exemple. Elle offre
également les moyens d’analyser la nature des altérations ou modifications subies par
les signaux lors de leur passage au travers de blocs fonctionnels (dispositifs
généralement électriques ou électroniques).
Le modèle mathématique d’un signal est une fonction d’une, deux ou trois variables :
x(t) ; x(i,j) ; x(i,j,t). Le premier cas est le plus courant : la variable t est usuellement le
temps mais elle peut aussi représenter une autre grandeur (une distance par exemple).
La fonction représente l’évolution d’une grandeur électrique ou traduite sous cette
forme par un capteur approprié :
Microphone →signal acoustique,
Caméra → signal vidéo…
1.1.1. Classification des signaux
Pour faciliter l’étude des signaux, différents modes de classification peuvent être
envisagés
➢ Représentation temporelle des signaux,
➢ Représentation spectrale,
➢ Caractéristique morphologique (signal continu ou discret),
➢ Classification énergétique.
a) Représentation temporelle des signaux
La première classification, basée sur l’évolution du signal en fonction du temps, fait
apparaître deux types fondamentaux :
❖ les signaux certains (ou déterministes) dont l’évolution en fonction du temps
peut être parfaitement décrite par un modèle mathématique. Ces signaux
proviennent de phénomènes pour lesquels on connaît les lois physiques
correspondantes et les conditions initiales, permettant ainsi de prévoir le
résultat. On peut citer le signal sinusoïdal, rampe, échelon, impulsion de
Dirac…On distingue deux sous classes :
• les signaux périodiques s(t) = s(t + T).
• les signaux non périodiques
4
❖ les signaux aléatoires (ou probabilistes) dont le comportement temporel est
imprévisible et pour la description desquels il faut se contenter d’observations
statistiques. Néanmoins, tout signal aléatoire peut être caractérisé
mathématiquement, mais aucune fonction mathématique ne permet de prédire
l’évolution du signal à l’instant donné. Un signal aléatoire peut être stationnaire
ou non stationnaire. En règle générale tout signal réel est aléatoire, car tout
signal est entaché de bruit.
La classification des signaux dans le temps est donnée de façon synthétique selon le
schéma suivant :

Signaux

Déterministes Aléatoires

Périodiques Non périodiques Stationnaires Non stationnaires

Sinusoïdaux Quasi-périodiques Ergodiques


Composites Transitoires Non ergodiques
Pseudo-aléatoires

b) Représentation spectrale
Un signal peut être classé suivant la distribution de son amplitude, sa puissance ou
son énergie en fonction de la fréquence (spectre du signal). Le domaine des
fréquences occupé par son spectre est aussi appelé la largeur de bande spectrale
du signal ΔF : ΔF= Fmax - Fmin.

Cette caractéristique, exprimée en hertz (Hz), est absolue. Aussi il est nécessaire de
la comparer au domaine de fréquences dans lequel se situe le signal. En considérant

5
la fréquence moyenne Fmoy = (Fmax + Fmin)/2, on peut distinguer deux types de
signaux :

• les signaux à bande étroite avec ΔF/Fmoy petit (soit Fmax ≈ Fmin) ;
• les signaux à large bande avec ΔF/Fmoy grand (soit Fmax ≥ Fmin).
Il est possible de les classer par le domaine de variation de la fréquence moyenne
Fmoy :
• Fmoy < 250 KHz signaux basses fréquences (BF)
• 250 KHz < Fmoy < 30 MHz signaux hautes fréquences (HF)
• 30 MHz < Fmoy < 300 MHz signaux très hautes fréquences (VHF)
• 300 MHz < Fmoy < 3 GHz signaux ultra hautes fréquences (UHF)
• Fmoy > 3 GHz signaux super hautes fréquences (SHF)
c) Caractéristique morphologique
Le temps est un paramètre important de classification. Comme nous venons de le voir,
le traitement numérique des signaux conduit à faire la distinction entre les signaux dits
à temps continus (signaux continus) et les signaux dits à temps discrets (signaux
discrets ou échantillonnés). Un autre paramètre des signaux traités est à prendre
en compte, c’est l’amplitude qui peut aussi être continue ou discrète (quantifiée).
Ainsi quatre formes de signaux, qui se retrouvent dans un système numérique de
contrôle d’un processus physique, peuvent être distinguées :
✓ signal à amplitude continue et temps continu (signal analogique) : s(t)
✓ signal à amplitude discrète et temps continu (signal quantifié) : sq(t).Ce signal
correspond à celui qui est fourni à la sortie d’un circuit convertisseur numérique-
analogique pour la commande d’un actionneur
✓ signal à amplitude continue et temps discret (signal échantillonné) : s(nTe).
Ce signal, obtenu à l’aide d’un circuit échantillonneur-bloqueur, est transmis à
un circuit convertisseur analogique-numérique pour obtenir un signal numérique
utilisable par un ordinateur
✓ signal à amplitude discrète et temps discret (signal numérique) : sq(nTe). Ce
dernier cas correspond en réalité à une suite de nombres codés en binaire.

6
On appelle numérisation d’un signal l’opération qui consiste à faire passer un signal
de la représentation dans le domaine des temps et des amplitudes continus au
domaine des temps et des amplitudes discrets.
d) Classification énergétique
Les signaux peuvent être à énergie finie ou à puissance moyenne finie. Un signal x(t)
à énergie finie Ex vérifie la condition :
+∞
𝐸𝑥 = ∫ |x(𝑡)|2𝑑𝑡 < +∞
−∞
Les signaux à support borné, c'est à dire de durée limitée, sont à énergie finie. Si x(t)
est périodique, on définit la puissance moyenne sur une durée T par :
𝑇
1 +2
𝑃𝑥 = ∫ |𝑥(𝑡)|2 𝑑𝑡
𝑇 −𝑇
2

Les signaux périodiques sont à puissance moyenne finie.


Comme pour la moyenne, l’idée est de considérer qu’un signal apériodique (signal
périodique de période infinie), ce qui conduit à la définition suivante :
𝑇
1 +
𝑃𝑥 = lim (𝑇 ∫ 𝑇2|𝑥(𝑡)|2 𝑑𝑡)
𝑇→∞ −
2

Remarques :
✓ Un signal à énergie finie a une puissance moyenne nulle (Px = 0).
✓ Un signal à puissance moyenne finie (non nulle) possède une énergie Ex
infinie
1.1.2. Modélisation des signaux
Un signal expérimental est une grandeur physique et doit donc être physiquement
réalisable. Les mesures macroscopiques analogiques, réalisées à partir d’appareils de
mesures comme un oscilloscope, fournissent des courbes « tension en fonction du
temps » du type de celle représentée sur la figure ci-dessous.

Ces signaux physiques sont représentés par des fonctions s(t) à valeurs réelles d’une
variable réelle t. Par conséquent, le signal possède les caractéristiques suivantes :
7
• énergie bornée ;
• amplitude bornée ;
• continu temporellement ;
• causal (s(t) = 0 pour t < 0) ;
• spectre du signal borné (tend vers 0 lorsque f tend vers ∞).
Mais sur le plan théorique, pour la commodité du calcul et l’étude de certains
phénomènes, les signaux sont représentés par des fonctions :
• à énergie théorique infinie ;
• avec des discontinuités (signal carré) ;
• définies sur R (signaux non causaux) ;
• à spectre du signal infini ;
• à valeurs complexes : s(t)=Aejωt=A(cosωt+jsinωt)
1.1.3. Signaux particuliers
✓ Echelon de Heavyside ((𝒕))

1 𝑠𝑖 𝑡 > 0
u(t)={
0 𝑠𝑖 𝑡 < 0

✓ Fonction Signe (sgn(𝒕))

1 𝑠𝑖 𝑡 > 0
sgn(t)={
−1 𝑠𝑖 𝑡 < 0

✓ Porte (𝝅𝛕 (𝒕) = 𝒓𝒆𝒄𝒕(𝒕))

𝜏 𝜏
1 𝑠𝑖 𝑡𝜖 ]− , + [
𝜋𝜏 (𝑡) = { 2 2
0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠

8
✓ Fonction rampe (r(t))

r(t) = t. u(t)

𝑡 𝑠𝑖 𝑡 ≥ 0
r(t) = {
0 𝑠𝑖 𝑡 < 0

✓ Fonction triangulaire (tri(𝒕))

𝑡
1 + 𝜏 𝑠𝑖 − 𝜏 ≤ 𝑡 ≤ 0
Tri𝜏(𝑡) = { 1 − 𝑡 𝑠𝑖 0 ≤ 𝑡 ≤ 𝜏
𝜏
0 𝑎𝑖𝑙𝑙𝑒𝑢𝑟𝑠

✓ Impulsion de Dirac ((𝒕))

1 𝑠𝑖 𝑡 = 0
𝛿(𝑡) = {
0 𝑠𝑖 𝑡 ≠ 0

9
✓ Fonction sinus (sin(t))

1.2. Signal déterministe et aléatoire


Un signal déterministe en électronique est un signal dont on peut connaitre à coup
sûr la valeur à chaque instant. Il s'oppose en ce sens à un signal aléatoire dont on
connait seulement la probabilité de réalisation pour chaque valeur.
1.2.1. Signal déterministe
a) Signaux à énergie finie
Les signaux à énergie finie satisfont la condition suivante :
+∞
𝐸𝑥 = ∫−∞ |𝑥(𝑡)|2 𝑑𝑡 < +∞ où Ex est l'énergie totale du signal x(t)
Tout signal de cette classe possède une transformation de Fourier
𝑋(𝑓) = 𝑇𝐹[𝑥(𝑡)] = |𝑋(𝑓)|. exp[𝑗𝜑𝑥(𝑓) ] où |𝑋(𝑓)| est le spectre d'amplitude et 𝜑𝑥 (𝑓) est
le spectre de phase du signal. Si celui-ci est mesuré en volts, (𝑓) est en V/Hz et 𝜑𝑥 (𝑓)
en radian.
✓ Fonction d'intercorrélation
+∞
Le produit scalaire : 𝑅𝑥𝑦 (𝜏) = ⟨𝑥 ∗ , 𝑦𝜏 ⟩ = ∫−∞ 𝑥 ∗ (𝑡). 𝑦(𝑡 + 𝜏)𝑑𝑡 où 𝑦𝜏 dénote la
fonction décalée 𝑦 (𝑡 + 𝜏), est appelé fonction d'intercorrélation des signaux à énergie
finie réels ou complexes x(t) et y(t). Ainsi, ces deux signaux sont orthogonaux (ou non
corrélés) pour chaque valeur de t où la fonction d'intercorrélation s'annule. On vérifie

aisément : 𝑅𝑥(𝜏) = 𝑅𝑥𝑦 (−𝜏).
✓ Fonction d'autocorrélation
La fonction d'autocorrélation du signal à énergie finie x(t) :
+∞
𝑅(𝜏) = ⟨𝑥 ∗ , 𝑥𝜏 ⟩= ∫−∞ 𝑥 ∗ (𝑡). 𝑥(𝑡 + 𝜏)𝑑𝑡 de même : 𝑅𝑥 (𝜏) = 𝑅𝑥∗ (−𝜏).
A partir de cette propriété, nous pouvons conclure que la partie réelle de la fonction
d'autocorrélation est une fonction paire et que la partie imaginaire est une fonction
impaire. La valeur à l'origine (t = 0) de la fonction d'autocorrélation est égale à l'énergie
+∞
du signal : 𝑅𝑥 (0) = ⟨𝑥 ∗ , 𝑥𝜏 ⟩ = ∫−∞ |𝑥(𝑡)|2 𝑑𝑡 = 𝐸𝑥

10
b) Signaux à puissance moyenne finie
Les signaux à puissance moyenne finie non nulle satisfont la condition suivante :
𝑇
1 +
0 < 𝑃𝑥 = lim ∫ |𝑥(𝑡)|2 𝑑𝑡 < ∞ où Px est la puissance totale.
𝑇
2
𝑇→∞ 𝑇 −
2

Ces signaux possèdent une énergie infinie et sont de ce fait physiquement


irréalisables. Ils constituent toutefois une abstraction commode permettant de
modéliser des catégories importantes de signaux ayant un comportement quasi-
permanent ; c'est le cas des signaux périodiques ou quasi-périodiques usuels.
✓ Corrélation des signaux à puissance moyenne finie
La définition de l'intercorrélation des signaux à énergie finie n'est pas applicable dans
le cas des signaux à puissance moyenne finie non nulle, pour lesquels l'intégrale n'est
pas définie. On lui substitue alors la valeur moyenne limite :
𝑇
1 +
𝑅𝑥𝑦 (𝜏) = ⟨𝑥 ∗ , 𝑦𝜏 ⟩ = lim ∫ 𝑇
2
𝑥 ∗ (𝑡). 𝑦(𝑡 + 𝜏)𝑑𝑡 qui définit la fonction
𝑇
𝑇→∞ −
2
d'intercorrélation des signaux à puissance moyenne finie.
Par analogie, la fonction d'autocorrélation de signaux à puissance moyenne finie
𝑇
1 +
est définie par la limite : 𝑅𝑥𝑦 (𝜏) = ⟨𝑥 ∗ , 𝑦𝜏 ⟩ = lim ∫𝑇
2
𝑥 ∗ (𝑡). 𝑥(𝑡 + 𝜏)𝑑𝑡
𝑇→∞ 𝑇 −
2

Lorsque les signaux sont réels, les fonctions d'inter et d'autocorrélation sont aussi
réelles. Si x(t) et y(t) sont mesurés en volts, 𝑅𝑥(𝜏) et 𝑅𝑥(𝜏) sont en V².
1.2.2. Signal aléatoire
On appellera signal aléatoire un signal x(t, ω) qui ne dépend pas seulement du temps
mais aussi d'une variable aléatoire: pour un instant t donné, le signal est donné par
une loi de probabilité. Inversement, pour une valeur de ω fixée, le signal suit une
certaine trajectoire. On peut le considérer sous deux points de vue :

• Le point de vue temporel : on étudie les fonctions déterministes x(t0, ω) pour


différentes valeurs fixées de ω0. C’est une fonction ordinaire du temps avec une
signification physique : le résultat d’une mesure du phénomène aléatoire étudié.

• Le point de vue statistique : on étudie les propriétés de x (t0, ω) pour différentes


valeurs fixées de t0. Elle n’a pas de signification physique : il n’est en effet pas
concevable, à tout instant fixé, d’avoir accès à la mesure de x(t0, ω). Ceci
supposerait une infinité d’expériences identiques, indépendantes et
simultanées.

✓ Moments statistiques

Pour un instant t0 fixé, le processus aléatoire x(t, ω) devient une variable


aléatoire x(t0, ω) dont on sait calculer :
• la moyenne statistique E[x(t, ω0)] ;

11
• la fonction d’autocorrélation statistique Rxx (t1, t2, ω)

Rxx(t1, t2,ω)=E[x(t1,ω) x(t2, ω)] avec x(t, ω)∈ℂ


✓ Stationnarité au sens large
Dorénavant, on notera le processus aléatoire x(t, ω) en abrégé x(t).
Un signal aléatoire est dit stationnaire au sens large si sa moyenne statistique est
indépendante du temps et si sa fonction d’autocorrélation n’est fonction que de l’écart
temporel :
E[x(t)]=cte; Rxx(t1, t2)=Rxx(t1−t2)
✓ Ergodisme
Un processus aléatoire est dit ergodique lorsque les moyennes temporelles de tous
les échantillons existent et sont indépendantes de l’échantillon.
La seule classe de processus aléatoires que nous retiendrons pour la pratique en
théorie du signal est celle des processus à la fois stationnaires et ergodiques. Un
théorème fondamental concerne ces signaux :
Théorème de Birkhoff : Si un processus est à la fois stationnaire et ergodique, alors
les moments temporels et les moments statistiques sont égaux.
Ce théorème est fondamental : il montre que les propriétés statistiques des processus
stationnaires et ergodiques peuvent être obtenus par l’observation d’une seule
réalisation.
1.3. Analyse fréquentielle des signaux à bande étroite
Les signaux à bande étroite appartiennent à une certaine classe de signaux définis à
partir de leur représentation fréquentielle. On dit qu’un signal est à bande étroite si sa
transformée de Fourier est nulle en dehors d’une bande de fréquences déterminée
mais de largeur faible par rapport à la fréquence centrale.
En télécommunications, le signal à bande étroite est couramment utilisé. Pour la
transmission, on a souvent à considérer des signaux de très basses fréquences sur
lesquels on effectue une modulation à la fréquence f 0 ; les signaux sont alors
concentrés sur une très petite bande de fréquence autour de f 0.
Pour transmettre à distance une information concrétisée par un signal x(t) dont le
spectre se situe dans le domaine des basses fréquences, par exemple un signal de
parole dans la bande de 0 à 4 kHz, il est souvent nécessaire de translater cette
information dans le domaine fréquentiel
On génère ainsi un nouveau signal s(t), porteur de la même information, mais situé
beaucoup plus haut dans l’échelle des fréquences. On utilise pour cela le principe de
la modulation d’une onde porteuse de fréquence f0 (modulation d’amplitude, de phase
ou de fréquence) par le signal x(t) qui génère un signal s(t) dont le spectre,
relativement étroit, se situe autour de la fréquence f0. Ce type de signal est
appelé signal à bande étroite.

12
Chapitre II. Les systèmes de traitement
Les signaux rencontrés en physique subissent des transformations dans leur passage
à travers un certain nombre de dispositifs. Ces transformations peuvent être utiles
(détection, filtrage), mais aussi nuisibles (distorsions). Dans tous les cas, on peut
représenter ces éléments comme des boîtes noires possédant une entrée et une
sortie.

En télécommunications, une ligne de transmission peut être considérée comme un


filtre. Un filtre est un système linéaire invariant dans le temps (SLIT) qui transforme un
signal d'entrée x en un signal y appelé réponse à un signal x. Il est donc utile d’étudier
le comportement des filtres pour savoir comment se transforme un signal que l’on
injecterait en entrée.

2.1. Filtrage linéaire et invariant dans le temps


Dans de nombreuses applications fondées sur la propagation des ondes, en
acoustique ou en électromagnétisme, on simplifie considérablement les problèmes
étudiés en faisant des hypothèses sur la manière dont un système déforme un signal.
Deux des hypothèses les plus importantes sont la linéarité et l'invariance dans le
temps. Elles semblent, du moins à notre échelle, bien représenter le comportement de
nombreux systèmes physiques.
Lorsqu’un système est linéaire et invariant dans le temps (SLIT), on a les propriétés
suivantes :
• si l’entrée x(t) produit une sortie y(t) (voir figure), quand on applique une entrée
kx(t), la sortie sera ky(t).

• si deux entrées x1(t) et x2(t) engendrent deux sorties y1(t) et y2(t), alors x1(t)+x2(t)
engendrera y1(t)+y2(t) (linéarité)

• s’il y a invariance dans le temps, une translation de l’entrée x(t)→x(t-T) se


traduira par une même translation dans le temps de la sortie y(t)→y(t-T)

Entrée x(t) Système agissant Sortie y(t)


sur l’entrée

Notez que la multiplication d’un signal par une fonction du temps est une opération
linéaire, mais n’est pas une fonction invariante dans le temps.
Si les hypothèses de linéarité et d’invariance temporelle sont vérifiées, on peut
caractériser le système par sa réponse impulsionnelle soit h(t). C’est le signal qu’on
obtient en sortie si on applique en entrée une impulsion de Dirac ẟ(t) qui a la définition
suivante :
+𝐴
∫ 𝛿(𝑡)𝑓(𝑡)𝑑𝑡 = 𝑓(0)
−𝐴

13
Elle donne la valeur f(0) de la fonction f(t) à l’origine. On ne peut la formaliser
correctement que dans le cadre de la théorie des distributions. De manière quelque
peu incorrecte, on peut se la représenter sous la forme d'une fonction nulle en dehors
d'un intervalle étroit (de largeur ε) entourant l'origine et d'une amplitude très grande
(1/ε) de telle sorte que son intégrale soit égale à 1. On fait alors tendre la largeur de
l'intervalle vers 0.
Si un système est un SLIT caractérisé par sa réponse impulsionnelle h(t), on peut en
déduire l'effet d'une entrée x(t) quelconque sous la forme d'une convolution.
+∞
𝑦(𝑡) = ∫ 𝑥(𝜏) ℎ(𝑡 − 𝜏)𝑑𝜏
−∞

2.2. Produit de convolution


La convolution est l’opération de traitement de signal la plus fondamentale. Elle décrit
l’effet de l’entrée du système sur la sortie en fonction de la réponse impulsionnelle du
système h(t).
Soient u(t) et v(t) deux signaux numériques, leur produit de convolution s’écrit :

[ u * v ] (t) = ∑+∞
𝑘=−∞ 𝑢(𝑡 − 𝑘)𝑣(𝑘)

Propriétés
✓ Le produit de convolution est commutatif :

[ u * v ] (t) = ∑+∞
𝑘=−∞ 𝑢(𝑡 − 𝑘)𝑣(𝑘)

= ∑+∞
𝑘=−∞ 𝑢(𝑘)𝑣(𝑡 − 𝑘)

= [ v * u ] (t)
✓ Le Dirac est l’élément neutre de la convolution : [ẟ * u ] (t) = [u * ẟ ] (t) = u(t)
Différentes étapes de transformations
𝑇
Etape 1 : ẟ(n) → y(n) = h(n)
𝑇
Etape 2 : ẟ(n-k) → y(n) = h(n-k)
𝑇
Etape 3 : x(k) ẟ(n-k) → y(n) = x(k) h(n-k)
𝑇
Etape 4 : ∑+∞ ∞
𝑘=−∞ 𝑥(𝑘)ẟ(𝑛 − 𝑘) → 𝑦(𝑛) = ∑𝑘=−∞ 𝑥(𝑘)ℎ(𝑛 − 𝑘)

Donc y(n) = x(n) * h(n) = ∑+∞


𝑘=−∞ 𝑥(𝑘)ℎ(𝑛 − 𝑘)

Problème 1 : Obtenir le produit de convolution des séquences suivantes :


x(n) = {1 , 2 , 1 , 2 } et h(n) = { 1 , 1 , 1 }
Solution
x(n) = { 1,2,1,2 } x(k) = { 1, 2, 1, 2 }

14
h(n) = { 1, 1, 1 } h(k) = { 1, 1, 1 }

On sait que y(n) = ∑+∞


𝑘=−∞ 𝑥(𝑘)ℎ(𝑛 − 𝑘), par calcul k=0 et k=5

D’où y(n) = ∑5𝑘=0 𝑥(𝑘)ℎ(𝑛 − 𝑘)

Calcul de y(0) : y(0) = ∑5𝑘=0 𝑥(𝑘)ℎ(−𝑘) si k=0 → h(0)=1 si k=3→h(-3)=0


si k=1 → h(-1)=0 si k=4→h(-4)=0
si k=2 → h(-2)=0 si k=5 →h(-5)=0
1, 2, 1, 2
Alors y(0) = =1
1, 0, 0, 0

Calcul de y(1) : y (1) = ∑5𝑘=0 𝑥(𝑘)ℎ(1 − 𝑘) si k=0 →h(1)=1 si k=2 →h(-1)=0


Si k=1 →h(0)=1 si k= 3 →h(-2)=0
1, 2, 1, 2
Alors y(1) = =3
1, 1, 0, 0
Calcul de y(2) : y(2) = ∑5𝑘=0 𝑥(𝑘)ℎ(2 − 𝑘) si k=0 →h(2)=1 si k=2→h(0)=1
si k=1 →h(1)=1 si k=3→h(-1)=0
1, 2, 1, 2
Alors y(2) = =4
1, 1, 1, 0
Calcul de y(3) : y(3) = ∑5𝑘=0 𝑥(𝑘)ℎ(3 − 𝑘) si k=0 →h(3)=0 si k=2 →h(1)=1
si k=1 →h(2)=1 si k=3 →h(0)=1
1, 2, 1, 2
Alors y(3) = =5
0, 1, 1, 1

Calcul de y(4) : y(4) = ∑5𝑘=0 𝑥(𝑘)ℎ(4 − 𝑘) si k=0 →h(4)=0 si k=2 →h(2)=1


si k=1 →h(3)=0 si k=3 →h(1)=1
1, 2, 1, 2
Alors y(4) = =3
0, 0, 1, 1

Calcul de y(5) : y(5) = ∑5𝑘=0 𝑥(𝑘)ℎ(5 − 𝑘) si k=0 →h(5)=0 si k=2 →h(3)=0


si k=1 →h(4)=0 si k=3 →h(2)=1
1, 2, 1, 2
Alors y(5) = =2
0, 0, 0, 1
D’où y(n) = { y(0), y(1), y(2), y(3), y(4), y(5) } = { 1, 3, 4, 5, 3, 2 }

Problème 2 : Soit x(n)*ẟ(n-n0) = x(n-n0) avec les séquences suivantes :


x(n) = { 1, 1, 1 } et h(n) = { 0, 1 }

15
On sait que y(n) = x(n)*h(n) = ∑+∞
𝑘=−∞ 𝑥(𝑘)ℎ(𝑛 − 𝑘)

h(n) = ẟ(n-n0), on donne n0 = 1


x(n) = { 1, 1, 1 } x(k) = { 1, 1, 1 }
h(n) = { 0, 1 } h(k) = { 0, 1 }
Par y(n) = ∑+∞
𝑘=−∞ 𝑥(𝑘)ℎ(𝑛 − 𝑘), les calculs montrent que k varie de -1 à 2

D’où y(n) = ∑2𝑘=−1 𝑥(𝑘)ℎ(𝑛 − 𝑘)


Calcul de y(-1) : y(-1) = ∑2𝑘=−1 𝑥(𝑘)ℎ(−1 − 𝑘) si k=-1 → h(0)=0 si k=1 →h(-2)=0
si k=0 →h(-1)=0 si k=2 →h(-3)=0
1, 1, 1
Alors y(-1) = =0
0, 0, 0

Calcul de y(0) : y(0) = ∑2𝑘=−1 𝑥(𝑘)ℎ(−𝑘) si k=-1 →h(1)=1 si k=1 →h(-1)=0


si k=0 →h(0)=0 si k=2 →h(-2)=0
1, 1, 1
Alors y(0) = =1
1, 0, 0
Calcul de y(1) : y(1) = ∑2𝑘=−1 𝑥(𝑘)ℎ(1 − 𝑘) si k=-1 →h(2)=0 si k=1 →h(0)=0
si k=0 →h(1)=1 si k=2 →h(-1)=0
1, 1, 1
Alors y(1) = =1
0, 1, 0
Calcul de y(2) : y(2) = ∑2𝑘=−1 𝑥(𝑘)ℎ(2 − 𝑘) si k=-1 →h(3)=0 si k=1 →h(1)=1
si k=0 →h(2)=0 si k=2 →h(0)=0
1, 1, 1
Alors y(2) = =1
0, 0, 1
D’où y(n) = { y(-1), y(0), y(1), y(2) } = { 0, 1, 1, 1 }

2.3. Réponse impulsionnelle et fonction de transfert d’un filtre


En traitement du signal, la réponse impulsionnelle d'un processus est le signal de
sortie qui est obtenu lorsque l'entrée reçoit une impulsion, c'est-à-dire une variation
soudaine et brève du signal. En effet, lorsqu'une impulsion est fournie à l'entrée d'un
système linéaire, la sortie n'est en général plus une impulsion, mais un signal ayant
une certaine durée (parfois infinie comme dans le cas d’un filtre à réponse
impulsionnelle infinie). La réponse impulsionnelle permet la représentation d'un
système en fonction de son entrée et de sa sortie uniquement, par opposition à une
représentation d'état.
x(t) y(t)
h(t)

16
Si le signal entrant est une impulsion de Dirac ẟ(t), sa réponse impulsionnelle, parfois
dite percusionnelle, est h(t).

ẟ(t) h(t)
h(t)

En assimilant le signal continu x(t) à un train d’impulsions infiniment serrées modulées


par l’amplitude de ce signal, on écrit que :
+∞
𝑥(𝑡) = ∫−∞ 𝑥(𝑡)𝛿(𝑡 − 𝜏)𝑑𝑡

+∞
Donc 𝑦(𝑡) = ∫−∞ 𝑥(𝜏)ℎ(𝑡 − 𝜏)𝑑𝜏

Le résultat est mathématiquement remarquable : c’est l’expression du produit de


convolution entre le signal d’entrée x(t) et la réponse impulsionnelle h(t). On peut donc
dire, ce qui s’entend parfois que le filtre est un convolueur :
y(t) = x(t)*h(t)
Compte tenu de la relation produit - convolution connue sous le nom de théorème de
Plancherel, on pourra écrire que :
𝑌(𝑓) = 𝑋(𝑓) × 𝐻(𝑓)
Ainsi, dans l’espace des fréquences, le spectre de y(t) est le produit des spectres
de x(t) et h(t). Une caractéristique remarquable du filtre a été mise en évidence, la
fonction de transfert :
𝐻(𝑓) = 𝑇𝐹{ℎ(𝑡)} 𝐻(𝑓) ∈ ℂ

On posera 𝐻(𝑓) = |𝐻(𝑓)|𝑒 𝑗𝜙𝑓 où |𝐻(𝑓)| gain de 𝐻(𝑓)


Φ(f) Arg [𝐻(𝑓)] phase de 𝐻(𝑓)

2.4. Causalité et stabilité


a) Causalité
La notion de causalité semblera triviale, mais elle doit être prise en considération pour
des raisons dont la logique sera perçue plus tard : il ne doit pas y avoir de réponse en
absence d’action. La condition de causalité s’énonce : La réponse ne doit pas
précéder l’excitation.
Un filtre est physiquement réalisable s’il est causal et si sa réponse impulsionnelle est
réelle.
h(t) = 0, t ˂ 0
Pour le signal de sortie :
+∞ 𝑡
y(t) = x(t)*h(t) = ∫−∞ 𝑥(𝜏)ℎ(𝑡 − 𝜏)𝑑𝜏 = ∫−∞ 𝑥(𝜏)ℎ(𝑡 − 𝜏)𝑑𝜏

17
Car ℎ(𝑡 − 𝜏) = 0 quand 𝑡 − 𝜏 ˂ 0 soit quand 𝜏 > 𝑡
Un système est causal si sa sortie est nulle en l'absence d'un signal d'entrée. Pour un
système linéaire permanent, la réponse impulsionnelle h(t) doit être nulle avant qu'un
signal ne lui soit soumis.
b) Stabilité
Un système est stable si et seulement si à toute entrée x(t) bornée (M) correspond
une sortie y(t) bornée (M′).
Le critère de stabilité s’énonce ainsi : La condition nécessaire et suffisante pour
qu’un filtre linéaire soit stable est que :
+∞
∫ |h(t)|dt < ∞
−∞

18
Chapitre III. Passage d’un signal continu en un signal discret
3.1. Echantillonnage
3.1.1. Echantillonnage impulsionnel
Il est possible de transformer un signal continu en un signal discret. Ce processus est
appelé échantillonnage ou discrétisation ; le signal est dit discrétisé ou échantillonné.
Généralement, les échantillons sont « prélevés » à intervalles réguliers. La durée entre
deux instants d’échantillonnage, notée Te, est alors appelée période
d’échantillonnage. Il faut garder présent à l’esprit qu’échantillonner, c’est prélever des
valeurs sur une courbe.

Figure 3.1. Processus d’échantillonnage


Soit maintenant le train d’impulsions unitaires distantes dans le temps de Te, se
produisant à partir de l’instant 0 sur un horizon infini de temps, et dessiné sur la figure
3.2

Figure 3.2. Train d’impulsions unitaires discrètes


Du point de vue mathématique, ce train d’impulsions, note ẟT (t), s’exprime
+∞

𝛿𝑇 (𝑡) = ∑ 𝛿𝑑 (𝑡 − 𝑘𝑇𝑒 )
𝑘=−∞

Il est donc possible d’exprimer le signal échantillonné de la figure 3.1 (ici noté ss(t)) :
+∞

𝑠𝑠 (𝑡) = 𝑠(𝑡)𝛿𝑇 (𝑡) = ∑ 𝑠(𝑘𝑡)𝛿𝑑 (𝑡 − 𝑘𝑇𝑒 )


𝑘=−∞

19
On peut associer cette transformation à celle d’une fonction continue en un train
d’impulsions de largeur nulle. Puisque l’échantillonnage est ici supposé de période
fixe, ces impulsions sont régulièrement espacées dans le temps. L’opération est
symbolisée par l’« interrupteur » de la figure 3.3.

Figure 3.3. Symbole de l’échantionneur impulsionnel à période T e


Un tel échantillonnage n’est pas tout à fait réaliste puisqu’en pratique, une impulsion
de durée nulle ne peut exister. Il n’en est pas moins vrai que l’opérateur mathématique
associé a été défini et correspond bien à ce qui est souhaité dans un échantillonnage.
3.1.2. Echantillonnage idéal
Pour des raisons de cohérence mathématique, il est coutume d’introduire un opérateur
mathématique appelé échantillonneur idéal qui consiste à voir ces impulsions comme
des impulsions, non seulement instantanées (de largeur nulle) mais aussi d’amplitude
infinie. Toutefois, pour que ces impulsions puissent véhiculer un tant soit peu une
réalité physique, à savoir l’information présente au niveau du signal, il est souhaitable
que l’intégration au cours du temps de chaque impulsion soit liée à la valeur s(kTe) du
signal s(t) à l’instant d’échantillonnage kTe par la relation :
+∞
+∞
∫ 𝑠(𝜃)𝛿(𝜃)𝑑𝜃 = 𝑠(0) ⇒ ∫ 𝑠(𝜃)𝛿(𝜃 − 𝑘𝑇𝑒 )𝑑𝜃 = 𝑠(𝑘𝑇𝑒 )
−∞
−∞

avec ẟ(t) l’impulsion de Dirac et ẟ(t-kTe) l’impulsion de Dirac différée d’un temps kTe

Soit un train d’impulsions de Dirac se produisant à chaque instant d’échantillonnage


kTe, à partir de l’instant 0 et sur un horizon infini de temps. Un tel train d’impulsions
est appelé peigne de Dirac. Il est ici noté Pẟ(t) et est représenté sur la figure 3.4. Sur
cette figure, on peut noter que les impulsions font apparaître une flèche plutôt qu’un
point. Il s’agit d’une notation graphique usuelle pour illustrer le fait que c’est la force
des impulsions qui est unitaire et non leur amplitude.

Figure 3.4. Peigne de Dirac


L’échantillonnage idéal peut alors être défini comme la transformation du signal
continu s(t) en un signal échantillonné noté s∗(t) s’exprimant s∗(t) = s(t)Pẟ(t).

20
Compte tenu de la structure du peigne de Dirac, il vient :
+∞
∗ (𝑡)
𝑠 = 𝑠(𝑡) ∑ 𝛿(𝑡 − 𝑘𝑇𝑒 )
𝑘=−∞

3.1.3. Echantillonnage réel


En pratique, on n'a pas une impulsion infiniment brève et l'échantillonneur est
assimilable à un filtre de réponse impulsionnelle h(t).

L’expression d’un échantillonnage réel : 𝑥𝑒 (𝑛𝑇𝑒 ) = 𝑥(𝑡) ∗ ℎ(𝑡) avec 𝑡 = 𝑛𝑇𝑒


Finalement, l’expression du signal échantillonné réel est donnée par la relation
suivante :
+∞

𝑥𝑒 (𝑡) = [𝑥(𝑡) ∗ ℎ(𝑡)] ∑ 𝛿(𝑡 − 𝑛𝑇𝑒 )


𝑛=−∞

3.2. Quantification
La quantification consiste à associer à une valeur réelle x quelconque, une autre valeur
xq appartenant à un ensemble fini de valeurs et ce suivant une certaine loi : arrondi
supérieur, arrondi le plus proche, etc… L’écart entre chaque valeur xq est appelé « pas
de quantification ». Le fait d’arrondir la valeur de départ entraîne forcément une erreur
de quantification que l’on appelle bruit de quantification.
La loi de quantification uniforme utilise un pas de quantification (Δ) constant entre
chaque valeur xq.

21
Le bruit de quantification nq est dans ce cas un signal aléatoire. Ces caractéristiques
sont donc définies par ses propriétés statistiques. On peut alors démontrer que la
puissance du bruit de quantification est égale à :
∆2
𝑃𝑛𝑞 = (si sa densité de probabilité est uniforme)
12

Le rapport signal sur bruit dû à la quantification est donc égale à :


𝑆 𝑃𝑠
( ) = 10𝑙𝑜𝑔
𝑁 𝑑𝐵 𝑃𝑛𝑞

La puissance du signal à quantifier est égale à sa valeur efficace au carré (voir


remarque) :
𝑆 𝑉𝑠 𝑒𝑓𝑓 2
( ) = 10𝑙𝑜𝑔 [12 ( ) ]
𝑁 𝑑𝐵 ∆

Si l’on décompose la plage de variation VPE du signal à quantifier en 2n intervalles de


largeur Δ (avec n le nombre de bits utilisés pour coder le signal quantifié).
𝑉𝑃𝐸
Alors 𝑉𝑃𝐸 = 2𝑛 × ∆ et ∆=
2𝑛

𝑆 𝑉𝑠 𝑒𝑓𝑓
Ainsi (𝑁) = 10𝑙𝑜𝑔12 + 20𝑙𝑜𝑔 (2𝑛 𝑉𝑃𝐸
)
𝑑𝐵

𝑉𝑠 𝑒𝑓𝑓
= 10𝑙𝑜𝑔12 + 20𝑙𝑜𝑔2𝑛 + 20𝑙𝑜𝑔
𝑉𝑃𝐸
𝑆 𝑉𝑠 𝑒𝑓𝑓
(𝑁) ≈ 10,8 + 6,02𝑛 + 20𝑙𝑜𝑔 ( )
𝑑𝐵 𝑉𝑃𝐸

Ainsi, dans le cas d’un convertisseur analogique-numérique, chaque fois que l’on
rajoutera un bit dans le résultat de conversion, on améliorera le rapport signal sur bruit
dû à la quantification d’environ 6dB.
Remarque : En traitement du signal, on considère la puissance d’un signal aux bornes
d’une résistance de 1Ω. La puissance est donc égale au carré de la valeur efficace.
Exemple : Si l’on veut numériser une sinusoïde et que l’on fixe VPE = 2.Vmax
𝑉𝑚𝑎𝑥 𝑆 𝑉
Dans ce cas 𝑉𝑠 𝑒𝑓𝑓 = et (𝑁) 𝑚𝑎𝑥
≈ 10,8 + 6,02𝑛 + 20𝑙𝑜𝑔 (2√2𝑉 )
√2 𝑑𝐵 𝑚𝑎𝑥

𝑆 𝑚𝑎𝑥 𝑉
(𝑁) ≈ 10,8 + 6,02𝑛 + 20𝑙𝑜𝑔 (2√2𝑉 )
𝑑𝐵 𝑚𝑎𝑥

𝑆
(𝑁) ≈ 6,02𝑛 + 1,77
𝑑𝐵

22
3.3. Repliement du spectre et théorème de Shannon
Intuitivement, on comprend que si l’on prend beaucoup d’échantillons d’un signal, on
obtient une information intéressante, c’est-à-dire que les échantillons donnent une
bonne idée de l’allure du signal. En d’autres termes, on prélève assez de points sur la
courbe pour avoir une bonne idée de sa forme. De ceci, on comprend facilement qu’il
faut échantillonner plus vite que les fréquences les plus élevées dans le signal.
Selon la figure 3.5, on voit que le spectre de s∗(f) (donc l’information présente sur le
signal échantillonné) permet de reconstruire sans difficulté le spectre du signal continu
original. La forme de ce dernier se retrouve, et même plusieurs fois, sur le spectre du
signal échantillonné. En bref, pas de problème dans le cas où fe ≥ 2fmax.

Figure 3.5. Spectres du signal continu et de son image discrète par échantillonnage
pour fe ≥ 2fmax
Si maintenant, on prélève les échantillons un peu moins vite de sorte que fe < 2f max,
alors, la représentation de cette opération est donnée par la figure 3.6

Figure 3.6. Spectres du signal continu et de son image discrète par échantillonnage
pour fe < 2fmax
Sur cette figure, on constate que les morceaux du spectre de s∗(t) se chevauchent, ce
qui brouille l’information sur le spectre de s(t). Ce chevauchement introduit un bruit qui
s’ajoute au spectre que l’on souhaiterait voir apparaître. Ce phénomène est appelé
repliement de spectre et a été mis en évidence par Claude Shannon. C’est juste
l’interprétation fréquentielle d’un échantillonnage trop lent. Par conséquent, il faut
échantillonner de telle sorte que fe ≥ 2fmax.

23
Théorème de Shannon : La fréquence d’échantillonnage d’un signal x(t) doit être
supérieure ou égale à deux fois la fréquence maximale de x(t).
𝑓𝑒 ≥ 2𝑓𝑚𝑎𝑥

3.4. Conversion analogique-numérique et numérique-analogique


Dans cette partie, il faut envisager les signaux continus comme des valeurs
analogiques et les signaux discrets comme des valeurs numériques (codées en
binaire) telles que celles manipulées par les ordinateurs.
En pratique, on peut concevoir un système qui multiplie le signal par un train
d’impulsions qui seront peut-être unitaires mais certainement pas de largeur nulle. Ce
document ne s’attarde pas sur les techniques électroniques qui résolvent ce problème.
Simplement, il convient de retenir que le dispositif généralement utilisé pour
échantillonner un signal est le convertisseur analogique-numérique (CAN).
Un tel composant assure en réalité deux opérations :
✓ une opération dite d’échantillonnage-blocage qui consiste généralement à
prélever des valeurs à des instants nTe (échantillonnage) mais aussi à bloquer
ces valeurs pendant une durée égale à Te (blocage dit « d’ordre zéro »), comme
indiqué sur la figure 3.7. Le blocage en tant que tel n’a d’intérêt que le temps
de la conversion ;

✓ une opération de conversion analogique-numérique proprement dite, qui


permet d’approcher la valeur exacte prélevée par une valeur numérique codée
en binaire, interprétable par un ordinateur qui la reҫoit sur un port ou que l’on
peut envoyer sur les entrées d’un composant programmable par exemple (c’est
une quantification).

3.7. Echantillonnage et blocage d’ordre zéro d’un signal


Après ces deux opérations, le signal réellement exploité par le dispositif numérique
n’est pas simplement discret, mais il est numérique.
L’opération de blocage sert aussi à restituer un signal. Si l’on suppose qu’un signal est
déjà échantillonné ou, du moins, discret (c’est donc une suite de valeurs), alors il est
représenté par une série de points régulièrement espacés dans le temps (des
impulsions). Lui appliquer un blocage d’ordre zéro revient à transformer la série
d’impulsions en un signal en forme d’escalier (on peut continuer de se référer à la

24
figure 3.7). Si les valeurs de la suite du signal discret sortent d’un composant
numérique ou d’un ordinateur, alors elles ne correspondent qu’à des codes binaires.
Un processus de conversion électronique permet de transformer des valeurs en code
binaire en de vraies tensions. Le blocage n’intervient qu’ensuite et maintient la tension
pendant un temps Te. L’ensemble convertisseur + bloqueur constitue un convertisseur
numérique-analogique (CNA). Le CNA a pour rôle de reconvertir le signal numérique
une fois traité en un signal analogique.
Les CAN et CNA sont des dispositifs électroniques très courants, souvent peu chers,
quoique cela dépende de leur définition (nombre de bits utilisés pour coder les valeurs
: de ce dernier dépend la hauteur minimale des marches de l’escalier), des gammes
de tension et de la possibilité plus ou moins grande de réduire Te.

Exercices

I.On désire numériser le signal vocal suivant, dont l’amplitude est comprise entre -8
volts et +8 volts. Ce signal est préalablement filtré par un filtre passe bas idéal de
fréquence de coupure fc = 10 kHz. La quantification est effectuée sur 8 bits.

1. Proposer une valeur pour la fréquence d’échantillonnage et représenter les


échantillons prélevés sur le signal analogique.
2. Quel est le volume du fichier (en kilo octets) correspondant à 5 secondes de ce
signal?
3. Quel est le pas de quantification?
4. Quelle est la valeur maximale du bruit de quantification?

II. De nombreuses communications transitent par le réseau téléphonique. Ce dernier


étant majoritairement numérisé, les centraux téléphoniques n'échangent plus un signal
électrique engendré par la parole, mais des échantillons de ce signal prélevés 8000
fois par seconde. Chaque échantillon est ensuite codé sur 8 bits.

1. Rappeler les principales étapes de la numérisation d'un signal


2. Déterminer la fréquence d'échantillonnage utilisée par les centraux
téléphoniques.

25
3. Combien de niveaux d'intensité sonore peut-on obtenir avec le codage
proposé?
4. Combien d'informations une ligne téléphonique doit-elle transporter par
seconde pour transmettre la parole d'un usager? Le résultat sera donné en
kibibit par seconde (Kibit.s-1). Donnée: 1 Kibit = 210 bits.

Correction des exercices

I.1. Le signal ayant été filtré à 10 kHz, on peut l'échantillonner au minimum à deux fois
cette fréquence pour respecter le théorème de Shannon. On peut donc prélever 20
000 échantillons par seconde, soit un échantillon toutes les 50 μs.

2. Le volume est de: 8x20000x5 = 800 000 bits soit 100 000 octets soit 97,6 ko
3. La quantification étant sur 8 bits, il y a 256 combinaisons, le pas de quantification
est de 16volts/28 = 0,0625 Volts
4. Le bruit de quantification est au maximum égal à la moitié du pas de
quantification soit 0,03125 dB.

II.1.les principales étapes de la numérisation d’un signal sont :

Etape 1: l’échantillonnage qui consiste à prélever à intervalles de temps égaux des


échantillons du signal analogique.

Etape 2: la quantification qui consiste à attribuer un nombre binaire à toute valeur


prélevée au signal lors de l’échantillonnage.

2. La fréquence d’échantillonnage utilisée par les centraux téléphonique est de 8 000


Hz.

3. Le nombre de valeurs différentes que l’on peut obtenir avec un codage 8 bits est de:
N = 28 = 256 niveaux différents.

4. 8000 échantillons sont prélevés par seconde. Chaque échantillon est ensuite codé
sur 8 bits. Un échantillon est codé sur 8 bits. Il faut transmettre 8 000 échantillons par
seconde. Le nombre de bits transmis par seconde est: n b = 8000 x 8 = 64 000 bits.
𝑛
Débit: 64 000 bits/s (Débit = ∆𝑡𝑏 ) Or D = 1 Kibit = 210 bits. Donc D = 62,5 Kibit.s-1.

26
Chapitre IV. Signaux et systèmes à temps discret

Ce chapitre se repose principalement sur la transformation des systèmes à temps


discrets. Les techniques de transformation jouent un rôle primordial dans l’étude des
systèmes linéaires invariants : c’est le cas des transformées en Z et de Fourier. Ces
transformations connaissent une particularisation aux systèmes en temps discret. La
propriété la plus remarquable est toujours la mise en correspondance de la convolution
dans le domaine direct avec un produit dans le domaine transformé. La transformée
en z présente en outre l’avantage d’être plus facilement inversible que la transformée
de Fourier.

4.1. Transformée en Z
L’objet est de définir la transformée en z, et de voir sous quelles conditions elle
converge.
La transformée en z d’une séquence x(n) est définie comme la série X(z) calculée
comme suit :
+∞

𝑋(𝑧) = ∑ 𝑥(𝑛)𝑧 −𝑛
𝑛=−∞

où z est une variable complexe.


On appelle encore cette équation la transformée directe, car c’est la relation qui permet
d’obtenir X(z) à partir de x(n).
Lors de la transformation en Z, les cas suivants peuvent se présenter :
1. x(n) = δ(n) : la définition fournit directement X(z)=1.
2. x(n) = u(n) :
+∞
1 𝑧
𝑋(𝑧) = ∑ 𝑧 −𝑛 = −1
=
1−𝑧 𝑧−1
𝑛=−∞

3. x(n) = an u(n) :
∞ ∞
𝑛 −𝑛
1 𝑧
𝑋(𝑧) = ∑ 𝑎 𝑧 = ∑ (𝑎𝑧 −1 )𝑛 = −1
=
1 − 𝑎𝑧 𝑧−𝑎
𝑛=−∞ 𝑛=−∞

avec un domaine de convergence |z| > |a|

4. 𝑥(𝑛) = 𝑢(𝑛)𝑒 𝑗∅0 𝑛 :


∞ ∞
𝑗∅0 𝑛 −𝑛 𝑛 1 𝑧
𝑋(𝑧) = ∑ 𝑒 𝑧 = ∑ (𝑒 𝑗∅0 𝑧 −1 ) = 𝑗∅ −1
=
1−𝑒 𝑧 0 𝑧 − 𝑒 𝑗∅0
𝑛=−∞ 𝑛=−∞

avec un domaine de convergence |𝑧| > |𝑒 𝑗∅0 | = 1

27
Exemples
1.Soit x(n) = { 1, 2, 4, 5, 0, 7 }
x(0) = 1, x(1) = 2, x(2) = 4, x(3) = 5, x(4) = 0 et x(5) = 7
5

𝑋(𝑧) = ∑ 𝑥(𝑛)𝑧 −𝑛
𝑛=0

X(z) = x(0)z0+x(1)z-1+x(2)z-2+x(3)z-3+x(4)z-4+x(5)z-5
= 1z0+2z-1+4z-2+5z-3+0z-4+7z-5
2 4 5 7
𝑋(𝑧) = 1 + + 2 + 3 + 5
𝑧 𝑧 𝑧 𝑧
2.Soit x(n) = { 1, 2, 4, 5, 0, 7 }
x(-5) = 1, x(-4) = 2, x(-3) = 4, x(-2) = 5, x(-1) = 0 et x(0) = 7
0

𝑋(𝑧) = ∑ 𝑥(𝑛)𝑧 −𝑛
𝑛=−5

X(z) = x(-5)z+5+x(-4)z+4+x(-3)z+3+x(-2)z+2+x(-1)z+1+x(0)z0
= 1z+5+2z+4+4z+3+5z+2+0z+1+7z0
𝑋(𝑧) = 𝑧 5 + 2𝑧 4 + 4𝑧 3 + 5𝑧 2 + 7
Inverse de la transformée en Z
Considérons la transformée donnée par :
1
𝑋(𝑧) =
1− 3𝑧 −1 + 2𝑧 −2
En multipliant par z2 les deux membres de la fraction (le numérateur et le
dénominateur), on aura :
𝑧2
𝑋(𝑧) =
𝑧 2 − 3𝑧 + 2
On cherche la forme
𝑋(𝑧) 𝑧
= 2
𝑧 𝑧 − 3𝑧 + 2
Δ = b2 - 4ac = 9 – 8 = 1 ⇒ √1 = ±1
Les racines sont z1 = (3 + 1) ̸ 2 = 2 et z2 = (3 – 1) ̸ 2 = 1
On aura :
𝑋(𝑧) 𝑧
=
𝑧 (𝑧 − 2)(𝑧 − 1)
On recherche donc une décomposition en fractions simples
28
𝐴1 𝐴2
+
(𝑧 − 2) (𝑧 − 1)
Calcul de A1 et A2
𝑋(𝑧) 𝑧
𝐴1 = (𝑥 − 2). = (𝑧 − 2). |𝑧=2
𝑧 (𝑧 − 2)(𝑧 − 1)
2 2
= = =2
2−1 1

𝑋(𝑧) 𝑧
𝐴2 = (𝑥 − 1). = (𝑧 − 1). |𝑧=1
𝑧 (𝑧 − 2)(𝑧 − 1)
1 1
= = = −1
1−2 −1

Alors
𝑋(𝑧) 2 1 2𝑧 𝑧
= − ⇒ 𝑋(𝑧) = −
𝑧 (𝑧 − 2) (𝑧 − 1) 𝑧−2 𝑧−1
La solution est donc x(n) = 2x2n u(n) − u(n)
Exercice : Déterminer l’inverse de la transformée de Z de :
𝑧2
𝑋(𝑧) =
0,5 − 1,5𝑧 + 𝑧 2
4.2. Filtres numériques
Les filtres numériques sont les homologues des filtres analogiques. Leur principale
fonction est d’isoler, de renforcer ou d’atténuer certaines composantes fréquentielles
d’un signal numérique.
Un filtre numérique est un système qui produit un signal discret à partir d’un signal reçu
en entrée. On appelle parfois excitation ou entrée du filtre la suite x et réponse ou
sortie du filtre la suite y.
La fonction de transfert en z d'un filtre numérique est la transformée en z de sa réponse
impulsionnelle discrète : H(z) = Z[hk ].

Elle s'écrit :

𝑌(𝑧) 𝐴0 + 𝐴1 𝑧 −1 + 𝐴2 𝑧 −2 + ⋯ 𝐴𝑛−1 𝑧 −(𝑛−1)


𝐻(𝑧) = =
𝑋(𝑧) 𝐵0 + 𝐵1 𝑧 −1 + 𝐵2 𝑧 −2 + ⋯ 𝐵𝑚−1 𝑧 −(𝑚−1)
Classification des filtres numériques
Un filtre numérique peut être classé selon :
➢ la durée de sa réponse impulsionnelle
• finie : les filtres RIF ont leur réponse impulsionnelle à support fini c’est-à-dire
h(n) = 0 pour n<0 et n>N
29
• infinie : les filtres RII ont leur réponse impulsionnelle à support infini c’est à
dire h(n) ≠ 0
➢ le type de représentation temporelle
• récursifs : la sortie y(n) dépend de l’entrée courante, des entrées
précédentes et des sorties précédentes
• non récursifs (ou transverses) : la sortie y(n) ne dépend que de l ’entrée
courante et des entrées précédentes
4.2.1. Filtres récursifs
𝑀 𝑁

𝑦(𝑛) = ∑ 𝑏𝑖 𝑥(𝑛 − 𝑖) − ∑ 𝑎𝑖 𝑦(𝑛 − 𝑖)


𝑖=0 𝑖=1

𝑁(𝑧)
⇒ 𝐻(𝑧) =
𝐷(𝑧)
En pratique on a N=M, N est appelée l'ordre du filtre.
Si N(z) n'est pas divisible par D(z) (cas général), on a un nombre infini de termes
dans la division polynomiale.
∞ ∞
−𝑖
𝐻(𝑧) = ∑ 𝑐𝑖 𝑧 = ∑ ℎ(𝑛)𝑧 −𝑛
𝑖=0 𝑛=0

Les coefficients cn sont les valeurs de la RI (h(n) = cn). Ceci montre qu'un filtre
récursif est, dans le cas général, à Réponse Impulsionnelle Infinie (RII).
Si N(z) est divisible par D(z) (cas particulier), on a un nombre fini de termes dans la
division polynomiale. Dans ce cas, le filtre est RIF.
Si N(z)=1 : filtre tout-pôle
Si D(z)=1 : filtre RIF
Principales propriétés :
• Les RII peuvent être instables : structure à base de pôles et de zéros
• Bande de transition faible
• Synthèse par réutilisation des méthodes analogiques
• Instabilité numérique due au rebouclage : forme cascade plus stable
4.2.2. Filtres transverses (non récursifs)
𝑀

𝑦(𝑛) = ∑ 𝑏𝑖 𝑥(𝑛 − 𝑖)
𝑖=0

Y(z) = H(z) X(z)


𝑀 𝑀
−𝑖
⇒ 𝐻(𝑧) = ∑ 𝑏𝑖 𝑧 = ∑ ℎ(𝑛)𝑧 −𝑛
𝑖=0 𝑛=0

30
Les coefficients bn du filtre sont les valeurs de la RI (h(n) = bn ). Ceci montre qu'un
filtre non récursif est à Réponse Impulsionnelle Finie (RIF).
M est appelée la longueur du filtre.
Principales propriétés
• Les RIF sont toujours stables (pas de pôles)
• Les RIF peuvent avoir une caractéristique de phase linéaire :
▪ Retard constant en fréquence (temps de propagation de groupe)
▪ Pas de distorsion harmonique
▪ Symétrie de la RI
• A sélectivité équivalente, ils sont toujours plus coûteux (en temps de calcul)
que leur équivalent RII.
Exercices
Soit le système du filtre suivant :
1 − 𝑧 −1
1. 𝐻(𝑧) =
3
1 + 4 𝑧 −1

3𝑧 −1
2. 𝐻(𝑧) =
2𝑧 −2 + 5𝑧 −1 + 2
On demande de trouver la réponse impulsionnelle h(n) du système.

4.3. Transformée de Fourier à temps discret


La transformée de Fourier à temps discret est un cas particulier de la transformée de
Fourier. Cette dernière ne s’applique que sur des signaux à temps discret non
périodiques.
Comme la transformée en z, la transformée de Fourier d’une séquence x(n) est définie
comme la série X(ꞷ) calculée comme suit :
+∞

𝑋(𝜔) = ∑ 𝑥(𝑛)𝑒 −𝑗𝜔𝑛


𝑛=−∞

où e-jꞷn est une variable complexe.


On appelle encore cette équation la transformée directe, car c’est la relation qui permet
d’obtenir X(ꞷ) à partir de x(n).
Lors de la transformation de Fourier, les cas suivants peuvent se présenter :
1. x(n) = δ(n) ⇒ X(ꞷ) = 1
2. x(n) = u(n) :

31
+∞ 𝜔
𝜔 𝜔 𝑒𝑗 2
𝑋(𝜔) = ∑ 𝑒 −𝑗𝜔𝑛 = 𝑒 −𝑗 2 2𝑗𝑠𝑖𝑛 = 𝜔
2 2𝑗𝑠𝑖𝑛
𝑛=−∞ 2
3. x(n) = an u(n) :
+∞
1 𝑒 𝑗𝜔
𝑋(𝜔) = ∑ 𝑎𝑛 𝑒 −𝑗𝜔𝑛 = =
1 − 𝑎𝑒 −𝑗𝜔 𝑒 𝑗𝜔 − 𝑎
𝑛=−∞

4. x(n) = u(n-k) :
𝑋(𝜔) = 𝑒 −𝑗𝜔𝑘 . 𝑋(𝜔)

Exemples :
1 1 1 1
1. 𝑥(𝑛) = { , , , }
4 4 4 4
+∞ 3
−𝑗𝜔𝑛
1 −𝑗𝜔𝑛
𝑋(𝜔) = ∑ 𝑥(𝑛)𝑒 =∑ .𝑒
4
𝑛=−∞ 0

1 1 1 1
= . 𝑒 −𝑗𝜔.0 + . 𝑒 −𝑗𝜔.1 + . 𝑒 −𝑗𝜔.2 + . 𝑒 −𝑗𝜔.3
4 4 4 4
1 1 −𝑗𝜔 1 −2𝑗𝜔 1 −3𝑗𝜔
= + .𝑒 + .𝑒 + .𝑒
4 4 4 4
1
= (1 + 𝑒 −𝑗𝜔 + 𝑒 −2𝑗𝜔 + 𝑒 −3𝑗𝜔 )
4
1 1
2. 𝑦(𝑛) − 𝑦(𝑛 − 1) = 𝑥(𝑛)
2 2
1 1
⇔ 𝑌(𝜔) − 𝑒 −𝑗𝜔 𝑌(𝜔) = 𝑋(𝜔)
2 2
1 1
⇔ (𝑌(𝜔)) (1 − 𝑒 −𝑗𝜔 ) = 𝑋(𝜔)
2 2
1
𝑌(𝜔) 2 1 1
⇔ 𝐻(𝜔) = = = .
𝑋(𝜔) 1 − 𝑒 −𝑗𝜔 2 1 − 1 𝑒 −𝑗𝜔
2
1 1 𝑛
⇒ ℎ(𝑛) = . ( ) 𝑢(𝑛)
2 2
Exercice : En utilisant la transformée de Fourier, trouver la réponse impulsionnelle
h(n) de l’équation suivante :
1 1
𝑦(𝑛) − 𝑦(𝑛 − 1) = 𝑥(𝑛) − 𝑥(𝑛 − 1)
2 4

32
Chapitre V. Applications des signaux
Ils s'appliquent à toutes les étapes d'une chaîne d'acquisition, d'analyse, de transfert
et de restitution des données, les techniques du traitement du signal trouvent des
applications dans pratiquement tous les domaines de la technologie :
• dans les télécommunications : que ce soit dans le domaine de la téléphonie
ou dans le transfert de données numériques terrestre ou via satellite, la
compression des données est primordiale pour exploiter au mieux la bande
passante disponible, et minimiser les pertes de capacité de transport.
• en audio: on cherche à améliorer les techniques d'enregistrement et de
compression pour obtenir la plus grande qualité sonore possible. Les
techniques de correction d'écho permettent de réduire les effets de
réflexions acoustiques dans la pièce. Le traitement du son s'est largement
amélioré grâce aux ordinateurs. Toutefois, certains musiciens parlent
davantage d'un son de nature différente de celle d'une simple amélioration
qualitative (de même que le CD ne « sonne » pas comme le disque vinyle, et
que certains groupes, par exemple Genesis, ont particulièrement profité du
« nouveau son » offert par le nouveau support). La synthèse sonore permet en
outre de créer des sons artificiels ou de recréer les sons d'instruments naturels.
Elle a été à l'origine de nombreux bouleversements en musique.
• l'analyse des échos permet d'obtenir des informations sur le milieu sur lequel
les ondes se sont réfléchies. Cette technique est exploitée dans le domaine de
l'imagerie radar ou sonar. En géophysique, en analysant les réflexions d'ondes
acoustiques, on peut déterminer l'épaisseur et la nature des strates du sous-
sol. Cette technique est utilisée dans le domaine de la prospection minière et
dans la prédiction des tremblements de terre.
• en imagerie : on trouve des applications dans le domaine médical
(reconstruction tomographique, imagerie par résonance magnétique - IRM),
dans le spatial (traitement de photos satellite ou d'images radar). Ce domaine
inclut aussi les techniques de reconnaissance de formes et de compression.
• le traitement de séquences vidéo concerne la compression, la restauration,
la réalisation d'effets spéciaux, et l'extraction de descripteurs (reconnaissance
de formes et textures, suivi de mouvements, caractérisation, etc.) afin de
produire des annotations automatiques dans une perspective de bases de
données (recherche par le contenu).

33

Vous aimerez peut-être aussi