Académique Documents
Professionnel Documents
Culture Documents
Cours Télécommunications
UE 3EEP11
2
3
Chapitre II Signal et Processus Aléatoires
Au chapitre précédent, il a été beaucoup question de signal d’information et de bruit mais aussi de
puissance et de fréquence.
Dans ce chapitre, on rappelle les principales variétés de signaux rencontrés et donne la définition de
la « taille » d’un signal décrit au travers des notions d’énergie et de puissance. On élargit cette analyse
dans le domaine temporel au domaine spectral, puis on rappelle les notions importantes que sont les
densités spectrale d’énergie et de puissance, la corrélation, extrêmement pertinentes pour la
caractérisation du bruit et des processus aléatoires, puis la convolution. Le chapitre se conclut par un
rappel des notions d’échantillonnage, et leur impact dans le dimensionnement d’une liaison
numérique.
1. Définitions
Un signal est un ensemble d'informations ou de données qui peut être fonction du temps, de l'espace,
ou des deux. Il existe différents types de signaux qu’on peut classer, pour les besoins de ce cours, selon
les cinq catégories suivantes :
1. Signaux continus ou échantillonnés
2. Signaux analogiques ou numériques
3. Signaux périodiques ou apériodiques
4. Signaux d’énergie ou signaux de puissance
5. Signaux déterministes ou signaux aléatoires
Pour définir la taille d’un signal, partons d’un exemple d’un signal qui nous est familier et qui est
dépendant de l'espace : le corps humain.
Quelle serait la taille d’un signal spatial associé à la « topologie » d’un corps humain ? Intuitivement,
nous y répondons en calculant son volume. Pour simplifier le calcul, on approxime le corps humain
par un cylindre de rayon r dont la valeur varie avec la hauteur h. L’expression de ce volume s’écrit donc
en fonction du signal spatial r(h):
"
𝑉 = 𝜋 % 𝑟 ! (ℎ) 𝑑ℎ 2.1
#
$%
𝐸 = % 𝑔! (𝑡) 𝑑𝑡 2.2
&%
Cette intégrale pouvant être soit convergente soit divergente, on distingue donc les deux situations
suivantes :
a) Signal d’énergie
Si 𝑔(𝑡) → 0 quand |𝑡| → ∞, alors cette intégrale est convergente faisant de l’énergie E calculée, une
quantité finie, on parle alors d’un signal d’énergie, qui a une signification physique. Retenons dans
4
cette situation que, si g(t) représente un courant ou une tension, alors cette énergie est supposée être
dissipée dans une résistance de 1 Ohm.
a-2) L’amplitude a,
)
a-3) L’aire A de la courbe représentative qui se met sous la forme : 𝐴 = ∫) ! 𝑔(𝑡) 𝑑𝑡.
"
(a) (b)
Figure 2.1 : Modélisation d’une impulsion « réaliste » g(t) (a) par une impulsion idéale G(t) (b)
On donne figure 2.1 b la version idéalisée de l’impulsion qu’on appelle fonction porte notée G(t) en
référence à Gate.
Cette fonction présente un grand intérêt en électronique et en télécom puisqu’elle permet de
transformer un signal mathématique (énergie infinie) en un signal physique (énergie finie). Il suffit
pour cela de multiplier le signal « mathématique » s(t) par la fonction porte G(t) (figure 2.2). On
développera le calcul des coefficients de Fourier de cette fonction ultérieurement.
Figure 2.2 : Signal mathématique (a) et signal physique (b), forcément limité dans le temps
5
L’impulsion de Dirac, notée 𝛿(𝑡), est définie comme une fonction porte dans laquelle 𝜏 → 0, 𝑎 →
∞ 𝑒𝑡 𝐴 → 1. Ces considérations sont synthétisées dans la notation suivante :
𝛿(𝑡 − 𝑡# ) = 0 𝑠𝑖 𝑡 ≠ 𝑡# 2.3
Cette fonction, qui est plutôt une distribution, est très utile pour décrire un échantillon unique prélevé
dans le signal d’information à l’instant t0. En effet, prélever un échantillon à l’instant t0 d’un signal g(t)
se modélise mathématiquement par les relations :
𝑔(𝑡)𝛿(𝑡 − 𝑡# ) = 𝑔(𝑡# )𝛿(𝑡 − 𝑡# ) = 𝑔(𝑡# ) 𝑠𝑖 𝑡 = 𝑡# 2.5
Et par conséquent
$% $%
% 𝑔(𝑡)𝛿(𝑡 − 𝑡# )𝑑𝑡 = % 𝑔(𝑡# )𝛿(𝑡 − 𝑡# )𝑑𝑡 = 𝑔(𝑡# ) ∀ 𝑡 2.6
&% &%
Ce type d’écriture nous indique que g(t’) apparaît comme la projection de g(t) sur une base
orthonormée formée des impulsions de Dirac à différents instants t’, induisant un début de similitude
entre signal et vecteur. Ce point très important sera traité ultérieurement.
b) Signal de puissance
Si le signal 𝑔(𝑡) ne tend pas vers 0 quand |𝑡| → ∞, alors l’intégrale est divergente et on lui on préfère
l’expression suivante qui permet de mesurer la « taille » d’un signal par sa puissance moyenne
P évaluée dans un intervalle de temps 2T :
1 $- !
𝑃 = lim % 𝑔 (𝑡) 𝑑𝑡 2.8
+→% 2𝑇 &-
Dans ce cas, cette intégrale est convergente faisant de P une quantité finie, on parle alors de signal de
puissance. Là encore si g(t) représente un courant ou une tension, alors cette puissance est supposée
être dissipée dans une résistance de 1 Ohm.
c) Signal aléatoire
Un signal aléatoire est un signal dont la description physique est incomplète. Il peut s’agir du bruit,
signal parasite qui n’apporte pas à priori d’information « utile », ou au contraire d’un signal riche en
6
information qu’il faudra apprendre à traiter. En effet, plus il y a d’incertitude dans le signal plus le
degré d’information qu’il renferme est élevé.
Dans tous les cas, il s’agit d’un signal non déterministe qui sera caractérisé comme vu précédemment,
mais par sa distribution p(n) (loi gaussienne, loi uniforme, loi de Poisson...) et son écart type σ, appelé
aussi valeur efficace ou valeur RMS (Root Mean Square). La puissance de bruit notée N est alors égale
à s2. On rappelle que dans le cas d’une distribution gaussienne (figure 2.4), la densité de probabilité
est donnée par la relation :
1 𝑛!
𝑝(𝑛) = 𝑒𝑥𝑝 -− / 2.9
√2𝜋𝜎 ! 2𝜎 !
𝒙 = T 𝑥. 𝝋𝒌 2.10
.01
Les principales propriétés et opérations entre deux vecteurs g et x qui nous intéressent, concernent la
possibilité de décomposer g sur x, ou de manière générale, sur une base orthogonale, et la propriété
d’orthogonalité entre deux vecteurs, définie notamment à travers le produit scalaire dont la définition
est donnée ci-dessous :
𝒈. 𝒙 = |𝒈||𝒙|cos(𝜃) 2.11
Ces concepts peuvent également être appliqués aux signaux, et on peut décomposer tout signal x(t)
sur une base orthogonale jk(t) tel que :
7
/
𝑥(𝑡) = T 𝑥. 𝜑. (𝑡)
.01
avec
$%
𝑥. = % 𝑥(𝑡). 𝜑. (𝑡) 𝑑𝑡
&% 2.12
et
$%
0, 𝑗≠𝑘
% 𝜑3 (𝑡). 𝜑. (𝑡)𝑑𝑡 = ]
&%
1, 𝑗=𝑘
II. La corrélation
Partant des notions de vecteurs, on rappelle que lorsque deux vecteurs g et x sont colinéaires et en
phase, ils admettent un coefficient de corrélation rn maximum, c’est-à-dire 1. S’ils sont colinéaires
mais en opposition de phase, alors rn vaut -1 et s’ils sont orthogonaux alors rn vaut 0.
La corrélation apparaît donc comme relié au produit scalaire (éq. 2.6) entre ces deux vecteurs, et est
directement reliée au cos(q), q étant l’angle que font entre eux, ces deux vecteurs.
Le coefficient de corrélation rn s’écrit par conséquent :
𝒈. 𝒙
ρ/ = cos(𝜃) = 2.13
|𝒈||𝒙|
De manière similaire, on peut écrire que le coefficient de corrélation rn de deux signaux, g(t) et x(t)
%&
1
ρ" = 3 𝑔(𝑡)𝑥(𝑡)𝑑𝑡
1𝐸# 1𝐸$ '&
8
Le coefficient de corrélation donnée en 2.14 est une quantité qui indique la ressemblance de deux
signaux indépendamment du temps. Si deux signaux sont identiques mais décalés dans le temps, c’est-
à-dire l’un est retardé par rapport à l’autre d’un retard t, le coefficient de corrélation ne rendra pas
compte de la similitude des deux signaux, et il affichera un coefficient rn<1 voire nul. Ce qui n’est pas
très pertinent.
Il nous faut donc introduire la notion de corrélation qui cherche la similitude entre deux signaux en
effectuant un balayage des temps de retards t.
Pour déterminer la fonction de corrélation Ygx(t) entre le signal g(t) et le signal x(t), on parle de
fonction d’intercorrélation, il nous faut donc calculer l’expression :
$%
ψ45 (τ) = % 𝑔(𝑡)𝑥(𝑡 + 𝜏)𝑑𝑡 2.15
&%
Si x(t) est une réplique retardée du signal g(t), comme dans le cas des impulsions émises et reçues dans
un radar, alors on parle de fonction d’autocorrélation :
$%
ψ4 (τ) = % 𝑔(𝑡)𝑔(𝑡 + 𝜏)𝑑𝑡 2.16
&%
𝑔(𝑡) = 𝑎# + T (𝑎/ cos 𝑛𝜔# 𝑡 + 𝑏/ sin 𝑛𝜔# 𝑡), avec 𝜔# = 2𝜋𝑓# 2.17
/01
avec :
1 + 2 + 2 +
𝑎# = % 𝑔(𝑡) 𝑑𝑡, 𝑎/ = % 𝑔(𝑡) cos 𝑛𝜔# 𝑡 𝑑𝑡 𝑒𝑡 𝑏/ = % 𝑔(𝑡) sin 𝑛𝜔# 𝑡 𝑑𝑡 2.18
𝑇 # 𝑇 # 𝑇 #
g(t) peut donc être représenté dans le domaine fréquentiel par des raies de pulsations nw0. Nous
verrons ultérieurement que lorsque g(t) est une exponentielle complexe, on peut assimiler ces raies à
des Dirac.
9
2. La série de Fourier en notation polaire
Sous sa forme dite « polaire », la décomposition en série de Fourier utilise une relation remarquable
des formules trigonométriques qui dit que : 𝛼 sin(𝑥) + 𝛽 cos(𝑥) = j𝛼 ! + 𝛽! sin(𝑥 + φ) avec 𝜑 =
7 7
arctan l8 m 𝑠𝑖 𝛼 > 0 𝑒𝑡 𝜑 = arctan l8m + 𝜋 sinon
Cette identité nous permet de réécrire la relation 2.17 sous la forme suivante :
60%
𝑎#
𝑔(𝑡) = 𝑋# + T 𝑋/ sin (𝑛𝜔# 𝑡 + φ/ ) 𝑎𝑣𝑒𝑐 𝑋# = 𝑒𝑡 𝑋/ = p𝑎/! + 𝑏/
!
2.19
2
/01
La phase jn, généralement négligée dans le volet analyse, est nécessaire pour le volet synthèse qui
s’appuie sur la série de Fourier inverse.
; &9< ; $9<
En posant 𝐶/ = # ! # et 𝐶/∗ = # ! # , et en constatant qu’on peut passer de 𝐶/ à 𝐶/∗ , en
changeant i en –i, alors la relation 2.20 peut s’écrire :
12&
Mettant en évidence une symétrie du spectre par rapport à l’origine. Cette notion est importante
puisque cette symétrie est conservée, lors d’opération de transposition de fréquence, autour de la
porteuse. On rencontre cette situation dans les modulations, induisant ainsi une déperdition
d’énergie.
1
On montre aisément que C/ = ! X/ 𝑒 >?@6(6)?C# 𝑒𝑡 C# = X# .
10
On peut à ce stade rappeler l’écriture d’un peigne de Dirac, 𝐼𝐼𝐼(𝑡) = ∑$%
&% 𝛿(𝑡 − 𝑘T# ) , très utile dans
la modélisation mathématique de l’échantillonnage, sous la forme de sa série de Fourier :
$% 60% 60%
1 1 2
𝐼𝐼𝐼(𝑡) = T 𝛿(𝑡 − 𝑘T# ) = T 𝑒 9/:" ) = + T cos (𝑛𝜔# 𝑡) 2.22
𝑇# 𝑇# 𝑇#
D0&% /0&% /01
1 + 1 + 2.23
P = 〈𝑝(𝑡)〉 = % 𝑝(𝑡)𝑑𝑡 = % |𝑔(𝑡)|! 𝑑𝑡
𝑇 # 𝑇 #
Cette puissance, répartie sur les différentes raies du spectre, peut être retrouvée, grâce à l’égalité de
Parseval en la calculant dans le domaine spectral. Pour cela, il est préférable d’utiliser la forme polaire
de la série de Fourier qui permet d’écrire :
60% ! 60%
1 + 1 𝑎# 1 2.24
P = % |𝑔(𝑡)|! 𝑑𝑡 = 𝑋#! + T 𝑋/! = l m + T (𝑎/! + 𝑏/! )
𝑇 # 2 2 2
/01 /01
*
Par exemple, la puissance du signal portée par la raie 3f0 vaut
!
1𝑎7! + 𝑏7! .
%
G(ω) = % 𝑔(𝑡) 𝑒 &9:) 𝑑𝑡 = ℱ[𝑔(𝑡)]
&% 2.25
A partir de laquelle on peut, par transformée inverse, retrouver le signal g(t) en appliquant la formule :
1 % 2.26
g(t) = % 𝐺(𝜔) 𝑒 9:) 𝑑𝜔 = ℱ &1 [𝐺(𝜔)]
2𝜋 &%
11
On note à ce stade, que si g(t) est une fonction réelle du temps, alors les spectres G(w) et G(-w) sont
complexes conjugués, c’est-à-dire : G(−𝜔) = 𝐺 ∗ (𝜔) .
Par conséquent si g(t) est réel alors |G(𝜔)| est une fonction paire.
Là encore, le théorème de Parseval permet de calculer, dans le domaine spectral, l’énergie Eg de g(t)
qui, dans le domaine temporel, n’est rien d’autre que l’aire sous |g(t)|! soit :
# #
1 # ∗ 1 # ∗ #
𝐸" = + 𝑔(𝑡) 𝑔∗ (t)𝑑𝑡 = + 𝑔(𝑡) 0 + 𝐺 (𝜔) 𝑒 $%&' 𝑑𝜔5 𝑑𝑡 = + 𝐺 (𝜔) 0+ 𝑔(𝑡) 𝑒 $%&' 𝑑𝑡5 𝑑𝜔
$# $# 2𝜋 $# 2𝜋 $# $#
Soit :
%
1 % ∗ 1 % 2.27
𝐸4 = % 𝑔(𝑡) 𝑔∗ (t)𝑑𝑡 = % 𝐺 (𝜔) 𝐺(𝜔)𝑑𝜔 = % |𝐺(𝜔)|! 𝑑𝜔
&% 2𝜋 &% 2𝜋 &%
L’énergie Eg est donc la somme des énergies réparties sur toutes les fréquences du spectre, et le terme
|𝐺(𝜔)|! apparaît comme la densité spectrale d’énergie (DSE) du signal g(t).
A ce stade il est important de rappeler la transformée de Fourier d’une impulsion de Dirac, et de sa
version « réaliste » c’est-à-dire une porte g(t) de largeur t et d’amplitude 1/t qui s’écrivent
respectivement :
%
%
ℱ[𝛿(𝑡)] = % 𝛿(𝑡) 𝑒 &9:) 𝑑𝑡 = 1 et ℱ[𝑔(𝑡)] = ∫&% 𝑔(𝑡) 𝑒 &9:) 𝑑𝑡 = 𝑠𝑖𝑛𝑐(𝜋𝑓𝜏) 2.28
&%
Et aussi de rappeler que tout retard ou décalage t dans le domaine temporel se traduit par un
déphasage dans le domaine fréquentiel (coefficient multiplicatif 𝑒 9EF" ), et que, par dualité, on obtient
un décalage fréquentiel dans le spectre si un signal est multiplié, dans le domaine temporel, par 𝑒 9:" ) .
En effet si G(w) est la transformée de Fourier de g(t) alors :
Propriété de décalage temporel Propriété de décalage fréquentiel
Posons Partant de
%
%
ℱ[g(𝑡)] = % 𝑔(𝑡) 𝑒 &9:) 𝑑𝑡 = 𝐺(𝜔)
&%
ℱ[g(𝑡)] = % 𝑔(𝑡) 𝑒 &9:) 𝑑𝑡 = 𝐺(𝜔)
&%
Calculons
Calculons
%
%
ℱ[g(𝑡 − 𝑡# ) ] = % 𝑔(𝑡 − 𝑡# ) 𝑒 &9:) 𝑑𝑡
&%
ℱ‡g(𝑡)𝑒 9:" ) ˆ = % 𝑔(𝑡) 𝑒 9:" ) 𝑒 &9E) 𝑑𝑡
&%
En posant x=t-t0, on a dx=dt et on obtient %
% ℱ‡g(𝑡)𝑒 9:" ) ˆ = % 𝑔(𝑡) 𝑒 9(:"$ :)) 𝑑𝑡
&9:(5$)" )
ℱ[g(𝑡 − 𝑡# ) ] = % 𝑔(𝑥) 𝑒 𝑑𝑥 &%
&% %
% ℱ‡g(𝑡)𝑒 9:" ) ˆ = % 𝑔(𝑡) 𝑒 &9(E&:" )) 𝑑𝑡
&9:)" &9:5
ℱ[g(𝑡 − 𝑡# ) ] = 𝑒 % 𝑔(𝑥) 𝑒 𝑑𝑥 &%
&% On en déduit que :
On trouve :
ℱ[g(𝑡 − 𝑡# ) ] = 𝐺(𝜔)𝑒 &9:)" ℱ‡g(𝑡)𝑒 9:" ) ˆ = 𝐺(𝜔 − 𝜔# )
12
Rappelons également que la transformée inverse d’un Dirac est :
1 % 1
ℱ &1 [𝛿(𝜔)] = % 𝛿(𝜔) 𝑒 9:) 𝑑𝜔 =
2𝜋 &% 2𝜋
Il en résulte que :
1 % 1 9: )
ℱ &1 [𝛿(𝜔 − 𝜔# )] = % 𝛿(𝜔 − 𝜔# ) 𝑒 9:) 𝑑𝜔 = 𝑒 "
2𝜋 &% 2𝜋
Signifiant que :
𝑒 9:" ) ⇔ 2𝜋𝛿(𝜔 − 𝜔# )
1
De ce fait, on peut, à partir de la formule d’Euler cos(𝜔# 𝑡) = (𝑒 9:" ) + 𝑒 &9:" ) ) , exprimer la
!
transformée de Fourier d’un signal sinusoïdal de type cos(𝜔# 𝑡)
% %
𝐶44 (𝜏) = % 𝑔∗ (𝑡)𝑔(𝑡 − 𝜏) 𝑑𝑡 = % 𝑔∗ (𝑡)𝑔(𝑡 + 𝜏) 𝑑𝑡 = 𝐶44 (−𝜏) 2.29
&% &%
De par sa formulation quadratique cette fonction d’autocorrélation est naturellement liée à l’énergie
du signal g(t). En appliquant la transformée de Fourier à la fonction Cgg(t), on obtient la densité
spectrale d’énergie (DSE). En effet il est facile de montrer que :
% %
ℱ‡𝐶44 (𝜏)ˆ = % 𝑒 &9:G ‰% 𝑔∗ (𝑡)𝑔(𝑡 + 𝜏) 𝑑𝑡Š 𝑑𝜏
&% &%
% %
ℱ‡𝐶44 (𝜏)ˆ = % 𝑔∗ (𝑡) ‰% 𝑔(𝑡 + 𝜏) 𝑒 &9:G 𝑑𝜏Š 𝑑𝑡 2.30
&% &%
%
ℱ‡𝐶44 (𝜏)ˆ = % 𝑔∗ (𝑡) ‡G(ω)𝑒 9:) ˆ𝑑𝑡 = 𝐺(𝜔)𝐺(−𝜔) = 𝐺(𝜔)𝐺 ∗ (𝜔) = |𝐺(𝜔)|!
&%
13
Pour les signaux de puissance, on parlera de densité spectrale de puissance (DSP), pourvu qu’on soit
capable de définir un temps d’observation noté Tobs qu’on fera tendre vers l’infini. Dans ce cas, la DSP
Sg(w) s’écrit comme :
|𝐺(𝜔)|! 2.31
S# (𝜔) = lim
+"#$ →& 𝑇9:;
Si le signal g(t) est donné en volt alors la DSP sera donnée en volt2/Hertz.
La difficulté, voire l’impossibilité, d’opérer une transformée de Fourier sur des signaux de puissance
ou des signaux aléatoires encourage l’utilisation de la fonction d’autocorrélation et sa transformée de
Fourier pour évaluer aussi bien la DSE que la DSP. Il s’agit donc d’un outil puissant pour les signaux
télécom qui s’apparentent davantage à des processus aléatoires qu’a des signaux déterministes.
!
Œ𝑋+%&' (𝜔)Œ 2.32
S5 (𝜔) = lim
+%&' →% 𝑇H<I
Un bruit blanc gaussien est un processus aléatoire qui possède la même densité spectrale à toutes les
fréquences que l’on note 𝒩/2. La puissance est alors infinie (impossible donc). Si ce bruit est contenu
dans une bande passante finie B, on dit qu’il est filtré et sa puissance « finie » devient : 𝒩B/2
VII. Convolution
Les messages m(t) à transmettre revêtent des formes d’ondes donnant lieu à des signaux qui se
propagent depuis l’étage d’émission jusqu’à l’étage de réception en passant par le canal. La traversée
de ces étages, agissant comme autant de filtres linéaires, s’accompagnent d’une déformation du signal
qu’on appelle convolution.
Si chaque filtre est caractérisé par sa réponse impulsionnelle h(t), on note l’entrée g(t) et la sortie y(t)
alors l’expression de y(t) s’écrit :
% %
y(𝑡) = g(t) ∗ h(t) = % g(𝑡)ℎ(𝑡 − 𝜏) 𝑑𝑡 = % g(𝑡 − 𝜏)ℎ(𝑡) 𝑑𝑡 ⇔ 𝑌(𝜔). 𝐻(𝜔)
&% &%
14
Qui se résume dans le domaine spectral à un simple produit des transformées de Fourier Y(w) et H(w)
de y(t) et h(t), respectivement.
Figure 2.6 : Échantillonnage d’un signal analogique : formalisation mathématique utilisant le peigne de Dirac
15
Cette remarque, étayée par une démonstration plus conséquente, a conduit Claude Shannon à
proposer son théorème qui fixe la fréquence d’échantillonnage minimum pour obtenir un signal
numérique « fidèle » au signal analogique d’origine :
Théorème de Shannon : un signal x(t) périodique de période T est correctement échantillonné si la
fréquence d’échantillonnage FS est supérieure au double de la fréquence maximale, fmax, du signal
d’origine soit :
FJ ≥ 2fK;5 2.34
Si le signal analogique est physique, donc de durée finie, son spectre s’étend à l’infini et il est en
principe rigoureusement « inéchantionnable » au sens de Shannon. Toutefois si on admet que 90% de
l’énergie du signal d’origine est contenue dans un spectre fini de fréquence maximum fmax,, la relation
2.34 reste pertinente. La fréquence fmax fixe donc la bande de passante B occupée par le signal.
c) Quantification
A l’image de l’échantillonnage qui a consisté à découper l’axe des temps en intervalles réguliers de
largeur Te (figure 2.6), on peut chercher à découper l’axe des amplitudes en intervalles réguliers de
« hauteur » q qu’on appelle le pas de quantification (figure 2.8).
On considère que l’amplitude du signal analogique à numériser évolue entre les tensions Va et + Vb.
On appelle DV la dynamique du signal qui s’écrit donc :
Δ𝑉 = 𝑉< − 𝑉; 2.35
Δ𝑉 = 𝑘𝑞 2.36
Après avoir appliqué d’abord une opération d’échantillonnage permettant de rendre discret et donc
dénombrable la variable temps (t), puis une opération de quantification permettant de rendre discret
et donc dénombrable la variable amplitude (S).
Les données, constituant l’information à transmettre aux temps discrets tn=(0,1,2,3,4,5…), sont les
amplitudes discrètes Sn=(-4, -2, 0, 2, 2, 2…). Pour terminer le processus de numérisation, il faudrait
pouvoir assigner à chaque valeur discrète, un ensemble d’impulsions binaires les distinguant les unes
des autres. Cette dernière opération s’appelle le codage par impulsion ou PCM (Pulse Code
Modulation).
16
d) Le codage numérique
L’idée ici est d’affecter des valeurs binaires à des valeurs décimales. Cela fait appel à des notions bien
connues de passage d’une base à une autre, mais d’autres solutions de codage peuvent être
envisagées pourvu que le codage soit défini sans ambiguïtés, c’est à dire qu’il respecte une relation
bijective entre les deux ensembles, décimale et binaire.
On suppose que les amplitudes analogiques discrètes de l’ensemble Sn sont comprises entre Vmin et
Vmax. Cet ensemble de k échantillons exprimés en base 10 doit être converti en un ensemble de k
échantillons exprimés en base 2.
Si k vaut deux, l’ensemble binaire correspondant sera l’ensemble (0,1). Soit un bit suffit pour coder
l’ensemble des k valeurs décimales. Si k vaut quatre, l’ensemble binaire correspondant sera l’ensemble
(00, 01, 11, 10). Soit deux bits suffisent pour coder l’ensemble des k valeurs décimales. Ce
raisonnement peut être généralisé en annonçant que pour coder k échantillons décimales, il faut un
nombre n de bits tel :
𝑘 = 2/ 2.37
On appelle symbole le nombre binaire formé par n bits. On peut ainsi étudier, traiter et transmettre
un symbole à 1 bit, un symbole à 2bits…un symbole à M bits.
Par exemple pour coder l’ensemble Sn dont les valeurs décimales, au nombre de 4, sont comprises
entre 0 et 10 volts, il faudrait utiliser des symboles formés d’au moins 2 bits.
L’ensemble Sn exprimés en base 2 serait par exemple (00, 01, 10, 11) pour les amplitudes.
Le pas de quantification s’exprime donc comme :
Δ𝑉 2.38
𝑞=
2/
On peut résumer figure 2.9 cette triple opération qui fait apparaître le pas d’échantillonnage Te et le
pas de quantification q, ainsi que le signal, en marche d’escalier, qui en résulte (en bleu) et le codage.
Figure 2.9 : Processus de numérisation d’un signal analogique : échantillonnage, quantification et codage PCM associé
17
IX. Signal échantillonné vu dans le domaine spectral
Pour étudier le signal échantillonné dans le domaine spectral, rappelons d’abord le théorème de
Shannon qui dit que si un signal est limité à une bande passante B (c-à-d 𝐺(𝜔) = 0 pour |𝜔| > 2πB),
alors pour le reconstruire à l’identique il faut assurer un taux d’échantillonnage R > 2B Hz, soit une
fréquence d’échantillonnage minimum
1
𝑓I = = 2B Hz
𝑇I
.
Les opérations d’échantillonnage puis de reconstitution du signal g(t) à partir de sa version
échantillonnée, peuvent avantageusement être conduite dans le domaine spectrale.
En effet on peut écrire la version échantillonnée de g(t) comme étant :
••••••
𝑔(𝑡) = g(t)δ +' (𝑡) = T g(n𝑇I )𝛿(𝑡 − 𝑛𝑇I )
/
1 2.39
•••••• = g(t)δ + (𝑡) =
𝑔(𝑡) [𝑔(𝑡) + 2𝑔(𝑡) cos 𝜔I 𝑡 + 2𝑔(𝑡) cos 2𝜔I 𝑡 + 2𝑔(𝑡) cos 3𝜔I 𝑡 + ⋯ ]
'
𝑇I
1 2
Avec δ +' (𝑡) = 𝑋# + T 𝑋/ cos (𝑛𝜔I 𝑡 + 𝜑/ ) 𝑋# = ; 𝑋 = 𝑒𝑡 𝜑/ = 0
𝑇I / 𝑇I
1
Or on sait que 𝑔(𝑡) cos 𝜔I 𝑡 = ‡𝑔(𝑡)𝑒 9:) + 𝑔(𝑡)𝑒 &9:) ˆ
2
Par conséquent 1
ℱ[g(𝑡)cos (𝜔I 𝑡] = [𝐺(𝜔 − 𝜔I ) + 𝐺(𝜔 + 𝜔I )]
2
Ce qui, dans le domaine spectral, se traduit par une périodisation du spectre G(w) de g(t) (Figure 2.10),
qui s’écrit :
%
1 (2.22)
•••••••
𝐺(𝜔) = T 𝐺(𝜔 − 𝑛𝜔I )
𝑇I
/0&%
18
De la même manière, il est aussi critique d’évaluer l’impact de l’opération inverse consistant à passer
de la version discrète de g(t) à sa version continue dans le temps.
Si à chaque instant t=kTS on prend la valeur discrète de g(t) et on la maintient jusqu’à l’instant t=(k+1)TS,
on a affaire à un filtre temporel d’amplitude 1 et de largeur TS centré sur les instants kTS. La sortie de
ce filtre donne une reconstitution en escalier de g(t), ce qui n’est pas satisfaisant.
On peut améliorer cela en réalisant une interpolation linéaire entre échantillons successifs mais il est
possible de reconstituer parfaitement le signal g(t).
•••••• à
Pour cela, il suffit, comme l’indique le spectre de la figure (Figure 2.10), de passer le signal 𝑔(𝑡)
travers un filtre passe bas idéal dont le gain vaut Ts et la bande passante B. Les réponses fréquentielle
et impulsionnelle de ce filtre idéal s’écrivent :
𝜔 1 (2.22)
𝐻(𝜔) = 𝑇I 𝑟𝑒𝑐𝑡 l m 𝑠𝑜𝑖𝑡 ℎ(𝑡) = 2B𝑇I 𝑠𝑖𝑛𝑐(2𝜋𝐵𝑡) = 𝑠𝑖𝑛𝑐(2𝜋𝐵𝑡) 𝑠𝑖 𝑇I =
4𝜋𝐵 2𝐵
Le signal g(t) reconstitué est donc la convolution de g(t) et de h(t), donnant accès à la formule de
l’interpolation « idéale » suivante :
Les calculs effectués ici considèrent le taux d’échantillonnage minimal soit la fréquence
d’échantillonnage minimale fs=2B Hz.
19
20