Vous êtes sur la page 1sur 20

L3

Cours Télécommunications
UE 3EEP11

Par Aziz Benlarbi-Delaï, Professeur de Sorbonne Université


Chapitre II Signal et Processus Aléatoires ........................................................................... 4
I. Taille d’un signal ........................................................................................................................................................ 4
1. Définitions ...................................................................................................................................................................... 4
a) Signal d’énergie .................................................................................................................................................................. 4
b) Signal de puissance ........................................................................................................................................................... 6
c) Signal aléatoire ................................................................................................................................................................... 6
2. Le signal vu comme un vecteur ............................................................................................................................ 7
II. La corrélation .............................................................................................................................................................. 8
III. Séries de Fourier ................................................................................................................................................... 9
1. La série de Fourier en notation réelle ............................................................................................................... 9
2. La série de Fourier en notation polaire ......................................................................................................... 10
3. La série de Fourier en notation complexe ..................................................................................................... 10
4. Égalité de Parseval : calcul de la puissance ................................................................................................. 11
IV. Transformée de Fourier .................................................................................................................................. 11
V. Autocorrélation, densité spectrale d’énergie et densité spectrale de puissance ........................ 13
VI. Densité spectrale d’un processus aléatoire ............................................................................................ 14
VII. Convolution .......................................................................................................................................................... 14
VIII. Signal échantillonné vu dans le domaine temporel ............................................................................ 15
a) Formalisation mathématique de l’échantillonnage : ........................................................................................ 15
b) Comment choisir la fréquence d’échantillonnage ? .......................................................................................... 15
c) Quantification .................................................................................................................................................................... 16
d) Le codage numérique ..................................................................................................................................................... 17
IX. Signal échantillonné vu dans le domaine spectral .............................................................................. 18

2
3
Chapitre II Signal et Processus Aléatoires

Au chapitre précédent, il a été beaucoup question de signal d’information et de bruit mais aussi de
puissance et de fréquence.
Dans ce chapitre, on rappelle les principales variétés de signaux rencontrés et donne la définition de
la « taille » d’un signal décrit au travers des notions d’énergie et de puissance. On élargit cette analyse
dans le domaine temporel au domaine spectral, puis on rappelle les notions importantes que sont les
densités spectrale d’énergie et de puissance, la corrélation, extrêmement pertinentes pour la
caractérisation du bruit et des processus aléatoires, puis la convolution. Le chapitre se conclut par un
rappel des notions d’échantillonnage, et leur impact dans le dimensionnement d’une liaison
numérique.

I. Taille d’un signal

1. Définitions
Un signal est un ensemble d'informations ou de données qui peut être fonction du temps, de l'espace,
ou des deux. Il existe différents types de signaux qu’on peut classer, pour les besoins de ce cours, selon
les cinq catégories suivantes :
1. Signaux continus ou échantillonnés
2. Signaux analogiques ou numériques
3. Signaux périodiques ou apériodiques
4. Signaux d’énergie ou signaux de puissance
5. Signaux déterministes ou signaux aléatoires
Pour définir la taille d’un signal, partons d’un exemple d’un signal qui nous est familier et qui est
dépendant de l'espace : le corps humain.
Quelle serait la taille d’un signal spatial associé à la « topologie » d’un corps humain ? Intuitivement,
nous y répondons en calculant son volume. Pour simplifier le calcul, on approxime le corps humain
par un cylindre de rayon r dont la valeur varie avec la hauteur h. L’expression de ce volume s’écrit donc
en fonction du signal spatial r(h):

"
𝑉 = 𝜋 % 𝑟 ! (ℎ) 𝑑ℎ 2.1
#

On voit que ce volume est fonction du carré de la fonction « signal » r(h).


Si on considère maintenant une fonction dépendante du temps g(t), sa taille E, rendant compte de son
énergie, peut par analogie s'écrire :

$%
𝐸 = % 𝑔! (𝑡) 𝑑𝑡 2.2
&%

Cette intégrale pouvant être soit convergente soit divergente, on distingue donc les deux situations
suivantes :
a) Signal d’énergie
Si 𝑔(𝑡) → 0 quand |𝑡| → ∞, alors cette intégrale est convergente faisant de l’énergie E calculée, une
quantité finie, on parle alors d’un signal d’énergie, qui a une signification physique. Retenons dans

4
cette situation que, si g(t) représente un courant ou une tension, alors cette énergie est supposée être
dissipée dans une résistance de 1 Ohm.

Quelques exemples « très utiles » de signaux d’énergie :


(1) Le signal de durée limitée : l’impulsion
C’est un signal dont l’amplitude est nulle avant un instant 𝑡# (début), et nulle après un instant 𝑡' (fin).
Les grandeurs essentielles nécessaires pour modéliser ce signal sont (figure 2.1a) :
a-1) Le temps de montée ϴ défini généralement comme la durée pour passer de 10% à 90% de
l’amplitude maximale. Les instants de début 𝑡# et de fin 𝑡' sont en général mal définis, et donc
difficiles à mesurer,

a-2) L’amplitude a,

)
a-3) L’aire A de la courbe représentative qui se met sous la forme : 𝐴 = ∫) ! 𝑔(𝑡) 𝑑𝑡.
"

(a) (b)

Figure 2.1 : Modélisation d’une impulsion « réaliste » g(t) (a) par une impulsion idéale G(t) (b)

On donne figure 2.1 b la version idéalisée de l’impulsion qu’on appelle fonction porte notée G(t) en
référence à Gate.
Cette fonction présente un grand intérêt en électronique et en télécom puisqu’elle permet de
transformer un signal mathématique (énergie infinie) en un signal physique (énergie finie). Il suffit
pour cela de multiplier le signal « mathématique » s(t) par la fonction porte G(t) (figure 2.2). On
développera le calcul des coefficients de Fourier de cette fonction ultérieurement.

Figure 2.2 : Signal mathématique (a) et signal physique (b), forcément limité dans le temps

(2) L’impulsion de Dirac


Considérons une fonction porte d’amplitude a et de durée τ. L’énergie portée par cette fonction est
bien entendu liée à la surface A=a τ.
On peut envisager une diminution de la durée de l’impulsion, tout en maintenant la surface A
constante.

5
L’impulsion de Dirac, notée 𝛿(𝑡), est définie comme une fonction porte dans laquelle 𝜏 → 0, 𝑎 →
∞ 𝑒𝑡 𝐴 → 1. Ces considérations sont synthétisées dans la notation suivante :
𝛿(𝑡 − 𝑡# ) = 0 𝑠𝑖 𝑡 ≠ 𝑡# 2.3

et l’aire A de l’impulsion vaut :


$%
𝐴=% 𝛿(𝑡 − 𝑡# ) 𝑑𝑡 = 1 2.4
&%

Cette fonction, qui est plutôt une distribution, est très utile pour décrire un échantillon unique prélevé
dans le signal d’information à l’instant t0. En effet, prélever un échantillon à l’instant t0 d’un signal g(t)
se modélise mathématiquement par les relations :
𝑔(𝑡)𝛿(𝑡 − 𝑡# ) = 𝑔(𝑡# )𝛿(𝑡 − 𝑡# ) = 𝑔(𝑡# ) 𝑠𝑖 𝑡 = 𝑡# 2.5

Et par conséquent
$% $%
% 𝑔(𝑡)𝛿(𝑡 − 𝑡# )𝑑𝑡 = % 𝑔(𝑡# )𝛿(𝑡 − 𝑡# )𝑑𝑡 = 𝑔(𝑡# ) ∀ 𝑡 2.6
&% &%

On en déduit alors que nous avons, d’une façon générale :


$% $%
𝑔(𝑡) = % 𝑔(𝑡′)𝛿(𝑡 − 𝑡′)𝑑𝑡′ 𝑎𝑣𝑒𝑐 𝑔(𝑡 * ) = % 𝑔(𝑡)𝛿(𝑡 − 𝑡′)𝑑𝑡 2.7
&% &%

Ce type d’écriture nous indique que g(t’) apparaît comme la projection de g(t) sur une base
orthonormée formée des impulsions de Dirac à différents instants t’, induisant un début de similitude
entre signal et vecteur. Ce point très important sera traité ultérieurement.

b) Signal de puissance
Si le signal 𝑔(𝑡) ne tend pas vers 0 quand |𝑡| → ∞, alors l’intégrale est divergente et on lui on préfère
l’expression suivante qui permet de mesurer la « taille » d’un signal par sa puissance moyenne
P évaluée dans un intervalle de temps 2T :
1 $- !
𝑃 = lim % 𝑔 (𝑡) 𝑑𝑡 2.8
+→% 2𝑇 &-

Dans ce cas, cette intégrale est convergente faisant de P une quantité finie, on parle alors de signal de
puissance. Là encore si g(t) représente un courant ou une tension, alors cette puissance est supposée
être dissipée dans une résistance de 1 Ohm.

c) Signal aléatoire
Un signal aléatoire est un signal dont la description physique est incomplète. Il peut s’agir du bruit,
signal parasite qui n’apporte pas à priori d’information « utile », ou au contraire d’un signal riche en

6
information qu’il faudra apprendre à traiter. En effet, plus il y a d’incertitude dans le signal plus le
degré d’information qu’il renferme est élevé.
Dans tous les cas, il s’agit d’un signal non déterministe qui sera caractérisé comme vu précédemment,
mais par sa distribution p(n) (loi gaussienne, loi uniforme, loi de Poisson...) et son écart type σ, appelé
aussi valeur efficace ou valeur RMS (Root Mean Square). La puissance de bruit notée N est alors égale
à s2. On rappelle que dans le cas d’une distribution gaussienne (figure 2.4), la densité de probabilité
est donnée par la relation :
1 𝑛!
𝑝(𝑛) = 𝑒𝑥𝑝 -− / 2.9
√2𝜋𝜎 ! 2𝜎 !

Figure 2.4 : Distribution gaussienne d’écart-type s.

2. Le signal vu comme un vecteur


On rappelle qu’un vecteur est défini par son amplitude (module) et par sa direction (phase). Les
vecteurs sont notés soit en gras soit avec une flèche au-dessus.
Un vecteur peut être décomposé en une somme de n vecteurs (on parle de projection d’un vecteur
sur une base, notamment orthogonale voire orthonormée). Soit un vecteur x, de dimension n, sa
décomposition sur la base jk s’écrit :
/

𝒙 = T 𝑥. 𝝋𝒌 2.10
.01

Les principales propriétés et opérations entre deux vecteurs g et x qui nous intéressent, concernent la
possibilité de décomposer g sur x, ou de manière générale, sur une base orthogonale, et la propriété
d’orthogonalité entre deux vecteurs, définie notamment à travers le produit scalaire dont la définition
est donnée ci-dessous :
𝒈. 𝒙 = |𝒈||𝒙|cos(𝜃) 2.11

Avec q l’angle que fait g avec x.

Ces concepts peuvent également être appliqués aux signaux, et on peut décomposer tout signal x(t)
sur une base orthogonale jk(t) tel que :

7
/

𝑥(𝑡) = T 𝑥. 𝜑. (𝑡)
.01

avec
$%
𝑥. = % 𝑥(𝑡). 𝜑. (𝑡) 𝑑𝑡
&% 2.12
et
$%
0, 𝑗≠𝑘
% 𝜑3 (𝑡). 𝜑. (𝑡)𝑑𝑡 = ]
&%
1, 𝑗=𝑘

On parle alors d’espace signal de dimension n.


Habituellement le signal est vu comme décomposable sur 3 dimensions spatiales (x,y,z) et une
dimension temporelle (t). Cette représentation, facile à imaginer pour nos sens, peut être généralisée,
comme pour le cas des vecteurs, à un espace à n dimensions. Cette notion, très utile dans les
traitements télécom des signaux d’information, aide à représenter géométriquement les signaux
donnant lieux à la notion de constellation qui permet d’identifier les symboles échangés dans une
communication numérique entre différents utilisateurs.

II. La corrélation
Partant des notions de vecteurs, on rappelle que lorsque deux vecteurs g et x sont colinéaires et en
phase, ils admettent un coefficient de corrélation rn maximum, c’est-à-dire 1. S’ils sont colinéaires
mais en opposition de phase, alors rn vaut -1 et s’ils sont orthogonaux alors rn vaut 0.
La corrélation apparaît donc comme relié au produit scalaire (éq. 2.6) entre ces deux vecteurs, et est
directement reliée au cos(q), q étant l’angle que font entre eux, ces deux vecteurs.
Le coefficient de corrélation rn s’écrit par conséquent :

𝒈. 𝒙
ρ/ = cos(𝜃) = 2.13
|𝒈||𝒙|

De manière similaire, on peut écrire que le coefficient de corrélation rn de deux signaux, g(t) et x(t)

%&
1
ρ" = 3 𝑔(𝑡)𝑥(𝑡)𝑑𝑡
1𝐸# 1𝐸$ '&

ou bien, si g et x sont complexes 2.14


%&
1
ρ" = 3 𝑔(𝑡)𝑥 ∗ (𝑡)𝑑𝑡
1𝐸# 1𝐸$ '&

Eg et Ex sont les énergies des signaux g(t) et x(t)

8
Le coefficient de corrélation donnée en 2.14 est une quantité qui indique la ressemblance de deux
signaux indépendamment du temps. Si deux signaux sont identiques mais décalés dans le temps, c’est-
à-dire l’un est retardé par rapport à l’autre d’un retard t, le coefficient de corrélation ne rendra pas
compte de la similitude des deux signaux, et il affichera un coefficient rn<1 voire nul. Ce qui n’est pas
très pertinent.
Il nous faut donc introduire la notion de corrélation qui cherche la similitude entre deux signaux en
effectuant un balayage des temps de retards t.
Pour déterminer la fonction de corrélation Ygx(t) entre le signal g(t) et le signal x(t), on parle de
fonction d’intercorrélation, il nous faut donc calculer l’expression :

$%
ψ45 (τ) = % 𝑔(𝑡)𝑥(𝑡 + 𝜏)𝑑𝑡 2.15
&%

Si x(t) est une réplique retardée du signal g(t), comme dans le cas des impulsions émises et reçues dans
un radar, alors on parle de fonction d’autocorrélation :
$%
ψ4 (τ) = % 𝑔(𝑡)𝑔(𝑡 + 𝜏)𝑑𝑡 2.16
&%

III. Séries de Fourier

1. La série de Fourier en notation réelle


Un signal de puissance noté g(t), périodique de période T0, peut être représenté, dans le domaine
spectral, par une série comportant un premier terme à la fréquence nulle, représentant la valeur
moyenne du signal, et une série de termes décomposés sur les bases orthogonales « cosinus » et
« sinus » dont les fréquences sont des multiples entiers de la fréquence fondamentale du signal, soit
* ,!
𝑓) = = .
+! !-

En notation réelle, g(t) peut donc s’écrire :


60%

𝑔(𝑡) = 𝑎# + T (𝑎/ cos 𝑛𝜔# 𝑡 + 𝑏/ sin 𝑛𝜔# 𝑡), avec 𝜔# = 2𝜋𝑓# 2.17
/01

avec :

1 + 2 + 2 +
𝑎# = % 𝑔(𝑡) 𝑑𝑡, 𝑎/ = % 𝑔(𝑡) cos 𝑛𝜔# 𝑡 𝑑𝑡 𝑒𝑡 𝑏/ = % 𝑔(𝑡) sin 𝑛𝜔# 𝑡 𝑑𝑡 2.18
𝑇 # 𝑇 # 𝑇 #

g(t) peut donc être représenté dans le domaine fréquentiel par des raies de pulsations nw0. Nous
verrons ultérieurement que lorsque g(t) est une exponentielle complexe, on peut assimiler ces raies à
des Dirac.

9
2. La série de Fourier en notation polaire
Sous sa forme dite « polaire », la décomposition en série de Fourier utilise une relation remarquable
des formules trigonométriques qui dit que : 𝛼 sin(𝑥) + 𝛽 cos(𝑥) = j𝛼 ! + 𝛽! sin(𝑥 + φ) avec 𝜑 =
7 7
arctan l8 m 𝑠𝑖 𝛼 > 0 𝑒𝑡 𝜑 = arctan l8m + 𝜋 sinon

Cette identité nous permet de réécrire la relation 2.17 sous la forme suivante :
60%
𝑎#
𝑔(𝑡) = 𝑋# + T 𝑋/ sin (𝑛𝜔# 𝑡 + φ/ ) 𝑎𝑣𝑒𝑐 𝑋# = 𝑒𝑡 𝑋/ = p𝑎/! + 𝑏/
!
2.19
2
/01

La valeur absolue de Xn donne accès au spectre d’amplitude ( 𝑛 ≥ 0).

La phase jn, généralement négligée dans le volet analyse, est nécessaire pour le volet synthèse qui
s’appuie sur la série de Fourier inverse.

3. La série de Fourier en notation complexe


Il peut être utile de disposer d’une écriture complexe de la série de Fourier. Pour cela on part des
formules d’Euler qui s’expriment par les égalités suivantes :

𝑒 ./0 + 𝑒 './0 𝑒 ./0 − 𝑒 './0


cos(𝜔𝑡) = sin(𝜔𝑡) =
2 2𝑖

Cette relation remplacée dans l’équation 2.17 permet d’obtenir :


60%
𝑎/ − 𝑖𝑏/ 9/: ) 𝑎/ + 𝑖𝑏/ &9/: )
𝑔(𝑡) = 𝑎# + T r 𝑒 " + 𝑒 " s 2.20
2 2
/01

; &9< ; $9<
En posant 𝐶/ = # ! # et 𝐶/∗ = # ! # , et en constatant qu’on peut passer de 𝐶/ à 𝐶/∗ , en
changeant i en –i, alors la relation 2.20 peut s’écrire :

12&

𝑔(𝑡) = C) + B C1 𝑒 ."/! 0 2.21


"2'& (15))
+"
1
Avec C/ = % 𝑔(𝑡) 𝑒 &9/:" ) 𝑑𝑡 les coefficients complexes de la série de Fourier de g(t).
𝑇# #

Mettant en évidence une symétrie du spectre par rapport à l’origine. Cette notion est importante
puisque cette symétrie est conservée, lors d’opération de transposition de fréquence, autour de la
porteuse. On rencontre cette situation dans les modulations, induisant ainsi une déperdition
d’énergie.
1
On montre aisément que C/ = ! X/ 𝑒 >?@6(6)?C# 𝑒𝑡 C# = X# .

10
On peut à ce stade rappeler l’écriture d’un peigne de Dirac, 𝐼𝐼𝐼(𝑡) = ∑$%
&% 𝛿(𝑡 − 𝑘T# ) , très utile dans
la modélisation mathématique de l’échantillonnage, sous la forme de sa série de Fourier :

$% 60% 60%
1 1 2
𝐼𝐼𝐼(𝑡) = T 𝛿(𝑡 − 𝑘T# ) = T 𝑒 9/:" ) = + T cos (𝑛𝜔# 𝑡) 2.22
𝑇# 𝑇# 𝑇#
D0&% /0&% /01

4. Égalité de Parseval : calcul de la puissance


Les signaux analogiques étudiés dans les domaines temporel et spectral sont analysés d’un point de
vue énergétique. La question posée ici concerne le calcul de la puissance portée par le signal s(t).
La puissance P (sous-entendu la puissance moyenne) portée par le signal g(t) s’écrit dans le domaine
temporel :

1 + 1 + 2.23
P = 〈𝑝(𝑡)〉 = % 𝑝(𝑡)𝑑𝑡 = % |𝑔(𝑡)|! 𝑑𝑡
𝑇 # 𝑇 #

Cette puissance, répartie sur les différentes raies du spectre, peut être retrouvée, grâce à l’égalité de
Parseval en la calculant dans le domaine spectral. Pour cela, il est préférable d’utiliser la forme polaire
de la série de Fourier qui permet d’écrire :

60% ! 60%
1 + 1 𝑎# 1 2.24
P = % |𝑔(𝑡)|! 𝑑𝑡 = 𝑋#! + T 𝑋/! = l m + T (𝑎/! + 𝑏/! )
𝑇 # 2 2 2
/01 /01

*
Par exemple, la puissance du signal portée par la raie 3f0 vaut
!
1𝑎7! + 𝑏7! .

IV. Transformée de Fourier


Un signal d’énergie est quant à lui décrit dans le domaine spectral, à travers sa transformée de Fourier.
Le spectre d’amplitude qui en résulte est un continuum de fréquence, et la transformée G(w) de g(t)
s’écrit :

%
G(ω) = % 𝑔(𝑡) 𝑒 &9:) 𝑑𝑡 = ℱ[𝑔(𝑡)]
&% 2.25

Noté aussi 𝑔(𝑡) ⇔ G(ω)

A partir de laquelle on peut, par transformée inverse, retrouver le signal g(t) en appliquant la formule :

1 % 2.26
g(t) = % 𝐺(𝜔) 𝑒 9:) 𝑑𝜔 = ℱ &1 [𝐺(𝜔)]
2𝜋 &%

11
On note à ce stade, que si g(t) est une fonction réelle du temps, alors les spectres G(w) et G(-w) sont
complexes conjugués, c’est-à-dire : G(−𝜔) = 𝐺 ∗ (𝜔) .
Par conséquent si g(t) est réel alors |G(𝜔)| est une fonction paire.
Là encore, le théorème de Parseval permet de calculer, dans le domaine spectral, l’énergie Eg de g(t)
qui, dans le domaine temporel, n’est rien d’autre que l’aire sous |g(t)|! soit :
# #
1 # ∗ 1 # ∗ #
𝐸" = + 𝑔(𝑡) 𝑔∗ (t)𝑑𝑡 = + 𝑔(𝑡) 0 + 𝐺 (𝜔) 𝑒 $%&' 𝑑𝜔5 𝑑𝑡 = + 𝐺 (𝜔) 0+ 𝑔(𝑡) 𝑒 $%&' 𝑑𝑡5 𝑑𝜔
$# $# 2𝜋 $# 2𝜋 $# $#

Soit :

%
1 % ∗ 1 % 2.27
𝐸4 = % 𝑔(𝑡) 𝑔∗ (t)𝑑𝑡 = % 𝐺 (𝜔) 𝐺(𝜔)𝑑𝜔 = % |𝐺(𝜔)|! 𝑑𝜔
&% 2𝜋 &% 2𝜋 &%

L’énergie Eg est donc la somme des énergies réparties sur toutes les fréquences du spectre, et le terme
|𝐺(𝜔)|! apparaît comme la densité spectrale d’énergie (DSE) du signal g(t).
A ce stade il est important de rappeler la transformée de Fourier d’une impulsion de Dirac, et de sa
version « réaliste » c’est-à-dire une porte g(t) de largeur t et d’amplitude 1/t qui s’écrivent
respectivement :

%
%
ℱ[𝛿(𝑡)] = % 𝛿(𝑡) 𝑒 &9:) 𝑑𝑡 = 1 et ℱ[𝑔(𝑡)] = ∫&% 𝑔(𝑡) 𝑒 &9:) 𝑑𝑡 = 𝑠𝑖𝑛𝑐(𝜋𝑓𝜏) 2.28
&%

Et aussi de rappeler que tout retard ou décalage t dans le domaine temporel se traduit par un
déphasage dans le domaine fréquentiel (coefficient multiplicatif 𝑒 9EF" ), et que, par dualité, on obtient
un décalage fréquentiel dans le spectre si un signal est multiplié, dans le domaine temporel, par 𝑒 9:" ) .
En effet si G(w) est la transformée de Fourier de g(t) alors :
Propriété de décalage temporel Propriété de décalage fréquentiel
Posons Partant de
%
%
ℱ[g(𝑡)] = % 𝑔(𝑡) 𝑒 &9:) 𝑑𝑡 = 𝐺(𝜔)
&%
ℱ[g(𝑡)] = % 𝑔(𝑡) 𝑒 &9:) 𝑑𝑡 = 𝐺(𝜔)
&%
Calculons
Calculons
%
%
ℱ[g(𝑡 − 𝑡# ) ] = % 𝑔(𝑡 − 𝑡# ) 𝑒 &9:) 𝑑𝑡
&%
ℱ‡g(𝑡)𝑒 9:" ) ˆ = % 𝑔(𝑡) 𝑒 9:" ) 𝑒 &9E) 𝑑𝑡
&%
En posant x=t-t0, on a dx=dt et on obtient %
% ℱ‡g(𝑡)𝑒 9:" ) ˆ = % 𝑔(𝑡) 𝑒 9(:"$ :)) 𝑑𝑡
&9:(5$)" )
ℱ[g(𝑡 − 𝑡# ) ] = % 𝑔(𝑥) 𝑒 𝑑𝑥 &%
&% %
% ℱ‡g(𝑡)𝑒 9:" ) ˆ = % 𝑔(𝑡) 𝑒 &9(E&:" )) 𝑑𝑡
&9:)" &9:5
ℱ[g(𝑡 − 𝑡# ) ] = 𝑒 % 𝑔(𝑥) 𝑒 𝑑𝑥 &%
&% On en déduit que :
On trouve :
ℱ[g(𝑡 − 𝑡# ) ] = 𝐺(𝜔)𝑒 &9:)" ℱ‡g(𝑡)𝑒 9:" ) ˆ = 𝐺(𝜔 − 𝜔# )

12
Rappelons également que la transformée inverse d’un Dirac est :

1 % 1
ℱ &1 [𝛿(𝜔)] = % 𝛿(𝜔) 𝑒 9:) 𝑑𝜔 =
2𝜋 &% 2𝜋
Il en résulte que :
1 % 1 9: )
ℱ &1 [𝛿(𝜔 − 𝜔# )] = % 𝛿(𝜔 − 𝜔# ) 𝑒 9:) 𝑑𝜔 = 𝑒 "
2𝜋 &% 2𝜋

Signifiant que :
𝑒 9:" ) ⇔ 2𝜋𝛿(𝜔 − 𝜔# )

1
De ce fait, on peut, à partir de la formule d’Euler cos(𝜔# 𝑡) = (𝑒 9:" ) + 𝑒 &9:" ) ) , exprimer la
!
transformée de Fourier d’un signal sinusoïdal de type cos(𝜔# 𝑡)

cos(𝜔# 𝑡) ⇔ 𝜋[𝛿(𝜔 − 𝜔# ) + 𝛿(𝜔 + 𝜔# )]

V. Autocorrélation, densité spectrale d’énergie et densité spectrale de puissance


Rappelons que la corrélation est une opération mathématique qui autorise la comparaison entre deux
signaux.
Prenons, comme déjà évoqué, l’exemple du radar qui envoie une impulsion sur une cible. Cette
impulsion est réfléchie et peut être comparée à l’impulsion de départ. Les deux impulsions
présenteront alors un maximum de corrélation pour un retard t compensant le temps de vol aller-
retour entre l’émetteur et la cible.
S’agissant de comparer le signal g(t) à une version retardée de lui-même d’un temps t, la fonction
d’autocorrélation, qui est toujours paire, s’exprime alors par l’expression suivante :

% %
𝐶44 (𝜏) = % 𝑔∗ (𝑡)𝑔(𝑡 − 𝜏) 𝑑𝑡 = % 𝑔∗ (𝑡)𝑔(𝑡 + 𝜏) 𝑑𝑡 = 𝐶44 (−𝜏) 2.29
&% &%

De par sa formulation quadratique cette fonction d’autocorrélation est naturellement liée à l’énergie
du signal g(t). En appliquant la transformée de Fourier à la fonction Cgg(t), on obtient la densité
spectrale d’énergie (DSE). En effet il est facile de montrer que :

% %
ℱ‡𝐶44 (𝜏)ˆ = % 𝑒 &9:G ‰% 𝑔∗ (𝑡)𝑔(𝑡 + 𝜏) 𝑑𝑡Š 𝑑𝜏
&% &%

% %
ℱ‡𝐶44 (𝜏)ˆ = % 𝑔∗ (𝑡) ‰% 𝑔(𝑡 + 𝜏) 𝑒 &9:G 𝑑𝜏Š 𝑑𝑡 2.30
&% &%

%
ℱ‡𝐶44 (𝜏)ˆ = % 𝑔∗ (𝑡) ‡G(ω)𝑒 9:) ˆ𝑑𝑡 = 𝐺(𝜔)𝐺(−𝜔) = 𝐺(𝜔)𝐺 ∗ (𝜔) = |𝐺(𝜔)|!
&%

13
Pour les signaux de puissance, on parlera de densité spectrale de puissance (DSP), pourvu qu’on soit
capable de définir un temps d’observation noté Tobs qu’on fera tendre vers l’infini. Dans ce cas, la DSP
Sg(w) s’écrit comme :

|𝐺(𝜔)|! 2.31
S# (𝜔) = lim
+"#$ →& 𝑇9:;

Si le signal g(t) est donné en volt alors la DSP sera donnée en volt2/Hertz.

La difficulté, voire l’impossibilité, d’opérer une transformée de Fourier sur des signaux de puissance
ou des signaux aléatoires encourage l’utilisation de la fonction d’autocorrélation et sa transformée de
Fourier pour évaluer aussi bien la DSE que la DSP. Il s’agit donc d’un outil puissant pour les signaux
télécom qui s’apparentent davantage à des processus aléatoires qu’a des signaux déterministes.

VI. Densité spectrale d’un processus aléatoire


Pour démarrer cette étude, on fixe l’hypothèse centrale d’un processus aléatoire stationnaire au sens
large. On rappelle que la stationnarité est la propriété d’invariance par rapport au temps t des lois de
probabilités qui caractérisent un processus aléatoire (par exemple valeur moyenne et écart-type
indépendants du temps).
Les processus non stationnaires n’admettent pas de DSP.
Si on considère un processus aléatoire x(t) observée pendant un temps Tobs, la DSP Sx(w) est
conformément à la relation 2.31, donnée par :

!
Œ𝑋+%&' (𝜔)Œ 2.32
S5 (𝜔) = lim
+%&' →% 𝑇H<I

Où XTOBS (w) est la transformée de Fourier fenêtrée du processus aléatoire x(t).

Un bruit blanc gaussien est un processus aléatoire qui possède la même densité spectrale à toutes les
fréquences que l’on note 𝒩/2. La puissance est alors infinie (impossible donc). Si ce bruit est contenu
dans une bande passante finie B, on dit qu’il est filtré et sa puissance « finie » devient : 𝒩B/2

VII. Convolution
Les messages m(t) à transmettre revêtent des formes d’ondes donnant lieu à des signaux qui se
propagent depuis l’étage d’émission jusqu’à l’étage de réception en passant par le canal. La traversée
de ces étages, agissant comme autant de filtres linéaires, s’accompagnent d’une déformation du signal
qu’on appelle convolution.
Si chaque filtre est caractérisé par sa réponse impulsionnelle h(t), on note l’entrée g(t) et la sortie y(t)
alors l’expression de y(t) s’écrit :

% %
y(𝑡) = g(t) ∗ h(t) = % g(𝑡)ℎ(𝑡 − 𝜏) 𝑑𝑡 = % g(𝑡 − 𝜏)ℎ(𝑡) 𝑑𝑡 ⇔ 𝑌(𝜔). 𝐻(𝜔)
&% &%

14
Qui se résume dans le domaine spectral à un simple produit des transformées de Fourier Y(w) et H(w)
de y(t) et h(t), respectivement.

VIII. Signal échantillonné vu dans le domaine temporel


L'objectif du traitement numérique du signal étant d'extraire, le plus fidèlement possible, les
informations contenues dans le signal analogique initial x(t), il est donc impératif de conserver ces
informations après échantillonnage, et d’être capable d’évaluer les conséquences d’une telle
opération. On parle aussi de Pulse Coded Modulation (PCM) sachant qu’in ne s’agit nullement d’une
modulation au sens défini précédemment.

a) Formalisation mathématique de l’échantillonnage :


Soient g(t) le signal analogique et 𝑔(𝑡)•••••• le signal échantillonné. Soient TS la période
d'échantillonnage et FS=1/TS la fréquence d'échantillonnage. Le signal 𝑔(𝑡) •••••• est obtenu par
multiplication de g(t) par un peigne de Dirac, soit :

•••••• = g(t)δ + (𝑡) = T 𝑔(𝑛 𝑇I )𝛿(𝑡 − 𝑛𝑇I )


𝑔(𝑡) 2.33
'
/

Figure 2.6 : Échantillonnage d’un signal analogique : formalisation mathématique utilisant le peigne de Dirac

b) Comment choisir la fréquence d’échantillonnage ?


Pour répondre à cette question, on se propose de partir de l’exemple de la figure 2.16. On souhaite
échantillonner le signal sinusoïdal d’énergie infinie de la figure 2.7a. Si on choisit un pas
d’échantillonnage égal à la période du signal, le signal numérisé résultant, figure 2.7b ne reflète
naturellement pas la réalité.
Si on divise par deux le pas temporel (figure 2.7c), alors le signal résultant (figure 2.7d) sans être
parfaitement identique au signal original permet grâce à la série de Fourier de ne retenir que la raie
fondamentale (soit F = 1/T) pour synthétiser un signal sinusoïdal qui serait l’image « parfaite » du signal
d’origine.

Figure 2.7 : Visualisation du risque de mauvaise interprétation d’un signal numérique


lorsque la fréquence d’échantillonnage est mal choisie.

15
Cette remarque, étayée par une démonstration plus conséquente, a conduit Claude Shannon à
proposer son théorème qui fixe la fréquence d’échantillonnage minimum pour obtenir un signal
numérique « fidèle » au signal analogique d’origine :
Théorème de Shannon : un signal x(t) périodique de période T est correctement échantillonné si la
fréquence d’échantillonnage FS est supérieure au double de la fréquence maximale, fmax, du signal
d’origine soit :

FJ ≥ 2fK;5 2.34

Si le signal analogique est physique, donc de durée finie, son spectre s’étend à l’infini et il est en
principe rigoureusement « inéchantionnable » au sens de Shannon. Toutefois si on admet que 90% de
l’énergie du signal d’origine est contenue dans un spectre fini de fréquence maximum fmax,, la relation
2.34 reste pertinente. La fréquence fmax fixe donc la bande de passante B occupée par le signal.

c) Quantification
A l’image de l’échantillonnage qui a consisté à découper l’axe des temps en intervalles réguliers de
largeur Te (figure 2.6), on peut chercher à découper l’axe des amplitudes en intervalles réguliers de
« hauteur » q qu’on appelle le pas de quantification (figure 2.8).
On considère que l’amplitude du signal analogique à numériser évolue entre les tensions Va et + Vb.
On appelle DV la dynamique du signal qui s’écrit donc :

Δ𝑉 = 𝑉< − 𝑉; 2.35

Figure 2.8 : Quantification d’un signal analogique : introduction du pas d’échantillonnage

La quantification consiste à ne considérer qu’un nombre fini k de valeurs d’amplitude évoluant à


l’intérieur de la dynamique DV. La relation reliant k, q et DV s’écrit simplement :

Δ𝑉 = 𝑘𝑞 2.36

Après avoir appliqué d’abord une opération d’échantillonnage permettant de rendre discret et donc
dénombrable la variable temps (t), puis une opération de quantification permettant de rendre discret
et donc dénombrable la variable amplitude (S).

Les données, constituant l’information à transmettre aux temps discrets tn=(0,1,2,3,4,5…), sont les
amplitudes discrètes Sn=(-4, -2, 0, 2, 2, 2…). Pour terminer le processus de numérisation, il faudrait
pouvoir assigner à chaque valeur discrète, un ensemble d’impulsions binaires les distinguant les unes
des autres. Cette dernière opération s’appelle le codage par impulsion ou PCM (Pulse Code
Modulation).

16
d) Le codage numérique
L’idée ici est d’affecter des valeurs binaires à des valeurs décimales. Cela fait appel à des notions bien
connues de passage d’une base à une autre, mais d’autres solutions de codage peuvent être
envisagées pourvu que le codage soit défini sans ambiguïtés, c’est à dire qu’il respecte une relation
bijective entre les deux ensembles, décimale et binaire.
On suppose que les amplitudes analogiques discrètes de l’ensemble Sn sont comprises entre Vmin et
Vmax. Cet ensemble de k échantillons exprimés en base 10 doit être converti en un ensemble de k
échantillons exprimés en base 2.
Si k vaut deux, l’ensemble binaire correspondant sera l’ensemble (0,1). Soit un bit suffit pour coder
l’ensemble des k valeurs décimales. Si k vaut quatre, l’ensemble binaire correspondant sera l’ensemble
(00, 01, 11, 10). Soit deux bits suffisent pour coder l’ensemble des k valeurs décimales. Ce
raisonnement peut être généralisé en annonçant que pour coder k échantillons décimales, il faut un
nombre n de bits tel :

𝑘 = 2/ 2.37

On appelle symbole le nombre binaire formé par n bits. On peut ainsi étudier, traiter et transmettre
un symbole à 1 bit, un symbole à 2bits…un symbole à M bits.

Par exemple pour coder l’ensemble Sn dont les valeurs décimales, au nombre de 4, sont comprises
entre 0 et 10 volts, il faudrait utiliser des symboles formés d’au moins 2 bits.
L’ensemble Sn exprimés en base 2 serait par exemple (00, 01, 10, 11) pour les amplitudes.
Le pas de quantification s’exprime donc comme :

Δ𝑉 2.38
𝑞=
2/

On peut résumer figure 2.9 cette triple opération qui fait apparaître le pas d’échantillonnage Te et le
pas de quantification q, ainsi que le signal, en marche d’escalier, qui en résulte (en bleu) et le codage.

Figure 2.9 : Processus de numérisation d’un signal analogique : échantillonnage, quantification et codage PCM associé

17
IX. Signal échantillonné vu dans le domaine spectral
Pour étudier le signal échantillonné dans le domaine spectral, rappelons d’abord le théorème de
Shannon qui dit que si un signal est limité à une bande passante B (c-à-d 𝐺(𝜔) = 0 pour |𝜔| > 2πB),
alors pour le reconstruire à l’identique il faut assurer un taux d’échantillonnage R > 2B Hz, soit une
fréquence d’échantillonnage minimum

1
𝑓I = = 2B Hz
𝑇I
.
Les opérations d’échantillonnage puis de reconstitution du signal g(t) à partir de sa version
échantillonnée, peuvent avantageusement être conduite dans le domaine spectrale.
En effet on peut écrire la version échantillonnée de g(t) comme étant :
••••••
𝑔(𝑡) = g(t)δ +' (𝑡) = T g(n𝑇I )𝛿(𝑡 − 𝑛𝑇I )
/

Ce qui revient à écrire sous forme de série de Fourier

1 2.39
•••••• = g(t)δ + (𝑡) =
𝑔(𝑡) [𝑔(𝑡) + 2𝑔(𝑡) cos 𝜔I 𝑡 + 2𝑔(𝑡) cos 2𝜔I 𝑡 + 2𝑔(𝑡) cos 3𝜔I 𝑡 + ⋯ ]
'
𝑇I

1 2
Avec δ +' (𝑡) = 𝑋# + T 𝑋/ cos (𝑛𝜔I 𝑡 + 𝜑/ ) 𝑋# = ; 𝑋 = 𝑒𝑡 𝜑/ = 0
𝑇I / 𝑇I

1
Or on sait que 𝑔(𝑡) cos 𝜔I 𝑡 = ‡𝑔(𝑡)𝑒 9:) + 𝑔(𝑡)𝑒 &9:) ˆ
2
Par conséquent 1
ℱ[g(𝑡)cos (𝜔I 𝑡] = [𝐺(𝜔 − 𝜔I ) + 𝐺(𝜔 + 𝜔I )]
2

Ce qui, dans le domaine spectral, se traduit par une périodisation du spectre G(w) de g(t) (Figure 2.10),
qui s’écrit :

%
1 (2.22)
•••••••
𝐺(𝜔) = T 𝐺(𝜔 − 𝑛𝜔I )
𝑇I
/0&%

Figure 2.10 : Spectre de 𝑔(𝑡) et de sa version échantillonnée %%%%%%


𝑔(𝑡)

18
De la même manière, il est aussi critique d’évaluer l’impact de l’opération inverse consistant à passer
de la version discrète de g(t) à sa version continue dans le temps.
Si à chaque instant t=kTS on prend la valeur discrète de g(t) et on la maintient jusqu’à l’instant t=(k+1)TS,
on a affaire à un filtre temporel d’amplitude 1 et de largeur TS centré sur les instants kTS. La sortie de
ce filtre donne une reconstitution en escalier de g(t), ce qui n’est pas satisfaisant.
On peut améliorer cela en réalisant une interpolation linéaire entre échantillons successifs mais il est
possible de reconstituer parfaitement le signal g(t).
•••••• à
Pour cela, il suffit, comme l’indique le spectre de la figure (Figure 2.10), de passer le signal 𝑔(𝑡)
travers un filtre passe bas idéal dont le gain vaut Ts et la bande passante B. Les réponses fréquentielle
et impulsionnelle de ce filtre idéal s’écrivent :

𝜔 1 (2.22)
𝐻(𝜔) = 𝑇I 𝑟𝑒𝑐𝑡 l m 𝑠𝑜𝑖𝑡 ℎ(𝑡) = 2B𝑇I 𝑠𝑖𝑛𝑐(2𝜋𝐵𝑡) = 𝑠𝑖𝑛𝑐(2𝜋𝐵𝑡) 𝑠𝑖 𝑇I =
4𝜋𝐵 2𝐵

Le signal g(t) reconstitué est donc la convolution de g(t) et de h(t), donnant accès à la formule de
l’interpolation « idéale » suivante :

𝑔(𝑡) = T 𝑔(𝑘 𝑇I )ℎ(𝑡 − 𝑘𝑇I ) = T 𝑔(𝑘 𝑇I ) 𝑠𝑖𝑛𝑐[2𝜋𝐵(𝑡 − 𝑘𝑇I )]


. . (2.22)

𝑔(𝑡) = T 𝑔(𝑘 𝑇I ) 𝑠𝑖𝑛𝑐(2𝜋𝐵𝑡 − 𝑘π)


.

Figure 2.11 a Figure 2.11 b


Reconstitution « brute » du signal échantillonné Reconstitution idéale du signal échantillonné moyennant
moyennant un filtre porte temporel (effet escalier) un filtre passe bas idéal (filtre porte fréquentiel)

Les calculs effectués ici considèrent le taux d’échantillonnage minimal soit la fréquence
d’échantillonnage minimale fs=2B Hz.

19
20

Vous aimerez peut-être aussi