Vous êtes sur la page 1sur 81

ECOLE ROYALE NAVALE

SIGNAUX CONTINUS

Support de cours

PROFESSEUR KARIM BENKIRANE

1
Signaux continus Professeur K.BENKIRANE

SIGNAUX CONTINUS

Plan :

1. Généralités sur les signaux et les systèmes ; exemples d'illustration.


2. Caractérisation temporelle des signaux déterministes
Définition et classifications ; Exemples (fonction porte, etc.) et
signaux particuliers (Impulsion de Dirac, échelon, etc.)

Caractérisation par la moyenne, énérgie et la fonction


d'autocorrélation ; Fonction d'intercorrélation et d'intercovariance

3. Caractérisation fréquentielle des signaux déterministes : Analyse de


Fourier, transformation de Fourier, propriétés et méthode de calculs
; densité spectrale et interspectre, théorème de Wiener Khintchine.
4. Filtrages des signaux/ systèmes linéaires invariants : Définition d'un
filtre; caractérisation temporelle et fréquentielle ; filtre à phase
linéaire ; introduction au filtre de Butterworth et Chebychev.
5. Autres traitements : Fenêtrage ; Echantillonnage et Modulation
6. Rappel sur les signaux aléatoires : Caratérisation : stationnarité au
sens large, ergodicité. Densité spectrale de puissance

Mot(s) clé(s) :

signal continu aléatoire, déterministe, périodique, moyenne, énérgie, puissance,


fonction d'autocorrélation, fenêtre d'apodisation, filtrage continu, filtrage à
phase linéaire, transformée de Fourier, développement en série de Fourier,
densité spectrale de puissance, théorème de Wiener Khintchine.

2
Signaux continus Professeur K.BENKIRANE

BREF HISTORIQUE DU TRAITEMENT DU SIGNAL

1 7eme siècle : Apparition de l’analyse numérique


1822 : Travaux de Fourier sur la propagation de la chaleur
1830 : Télégraphe (Morse, Cook, Wheatstone)
1876 : Téléphone (Bell)
1895-1896 : Premières liaisons radio (Popov, Marconi)
1904-1907 : Emergence de l’électronique
1920 : Etude du débit d’information (Nyquist)
1930 : Etude des signaux aléatoires (Wiener, Khintchine)
1949 : Théorie de la communication (Shannon, Wiener)
1950 : Théorie de l’échantillonage, Transformée en Z
1965 : Algorithme de Cooley-Tukey
1970 : Traitement signaux multidimensionnels
1975 : Développement du Traitement Numérique du Signal
1985 : Progrès de la micro-informatique, techniques de Vie Artificielle
Aujourd’hui : Présence des techniques de Traitement du signal dans la quasi
totalité des activités humaines. Miniaturisation, essor des algorithmes de
compression, du codage et du transport de données.

3
Signaux continus Professeur K.BENKIRANE

Chapitre I : Généralités sur les signaux et les systèmes

I .DEFINITIONS

1. SIGNAL

(Signal) vient du latin signum : signe; variation d’une grandeur physique de nature
quelconque porteuse d’information. C’est l’entité qui sert à véhiculer une
information.

Un signal est donc la représentation physique de l’information. Sa nature


physique peut être très variable: acoustique, électronique, optique, thermique,
etc…

Exemples

 Onde acoustique : courant délivré par un microphone (parole, musique, …)


 Signaux biologiques : EEG, ECG
 Tension aux bornes d'un condensateur en charge
 Signaux géophysiques : vibrations sismiques
 Finances : cours de la bourse
 Images
 Vidéos
 Résultat d’une mesure par un capteur.
 Exemple : signaux de parole (figures 1.1) et de musique (figures 1.2),
signaux audiofréquences,
 variation d’une pression en fonction du temps.

2. BRUIT (Noise):

(Bruit) vient du latin populaire brugere : braire et rugire : rugir; perturbation


indésirable qui se superpose au signal et aux données utiles, dans un canal de
transmission ou dans un système de traitement de l’information. Donc, le bruit
est tout phénomène perturbateur pouvant gêner la perception ou l'interprétation
d'un signal.

Remarque :

La notion de bruit est relative, elle dépend du contexte ; l’exemple classique est
celui du technicien en télécom et de l'astronome :

4
Signaux continus Professeur K.BENKIRANE

Exemple :

– Pour un opérateur sonar, le signal utile est émis par les navires et les sous-
marins, lorsque les poissons et les crustacés émettent des signaux qui sont des
perturbations pour le signal utile, donc des bruits,

– Réciproquement, pour l’opérateur sonar d’un bâtiment de pêche, le signal utile


est celui émis par les bancs de poissons, les autres signaux sont donc des
perturbations et constituent donc du bruit.

A noter qu’un signal aléatoire ne veut pas signifier bruit ; Exemple : Transmettre
la parole sur des câbles d’alimentation 50Hz. L’information est la parole qui est
un signal aléatoire, alors que le bruit gênant est déterministe, c’est une sinusoïde
50Hz.

Notion de rapport signal sur bruit

Le rapport signal à bruit R S/B est le rapport de puissance du signal, P S , sur celle
du bruit, P B , il mesure la qualité du signal:

𝑃𝑃𝑆𝑆 𝑃𝑃𝑆𝑆
𝑅𝑅𝑆𝑆/𝐵𝐵 = , 𝑅𝑅𝑆𝑆/𝐵𝐵 (𝑑𝑑𝑑𝑑) = 10log⁡� �
𝑃𝑃𝐵𝐵 𝑃𝑃𝐵𝐵

5
Signaux continus Professeur K.BENKIRANE

Chapitre II : Caractérisation temporelle des signaux


déterministes

Il s’agit de passer en revue les principales caractéristiques temporelles des


signaux déterministes

Définition

Un signal déterministe ou certain est un signal dont l’évolution en fonction du


temps peut être parfaitement décrite par un modèle mathématique.
Exemple : un signal sinusoïdal d’amplitude A et de fréquence f 0 , on peut prédire
la valeur du signal à tout instant grâce au modèle mathématique x(t ) = A sin( 2πf 0 t ) .
A) CLASSIFICATION

Les signaux obéissent à plusieurs classifications :

1) Pair, impair
Un signal est pair si : x(t ) = x(−t )
Un signal est impair si : x(t ) = − x(−t )
Remarque : Tout signal réel peut être décomposé en une partie paire et
une partie impaire : x(t ) = x p (t ) + xi (t )

x p (t ) = 1 (x(t ) + x(−t ) ) et xi (t ) = 1 (x(t ) − x(−t ) )


Avec 2 2

2) Dimensionnelle
On classe les signaux de point de vue dimensionnel
- signaux à 1D (unidimensionnels) : signal audio, mesure électrique, signal
reçu par une électrode en biomédical.
– signaux 2D (bidimensionnels) : image, représentation temps-fréquence
des signaux,
– signaux 2D+t : séquences vidéo,
– signaux 3D : objets3D (tomographie, etc.),

6
Signaux continus Professeur K.BENKIRANE

– signaux 3D+t : séquence d’objets 3D (tomographie, etc.),


Avec l’évolution des technologies (capteurs, calculateurs, etc…), le
traitement de signal traite de plus en plus fréquemment de signaux
multidimentionnels, on s’intéresse dans ce cas à des signaux nD, par
exemple des :
• signaux multi-capteurs (n capteurs) : réseaux d’antennes,
• signaux multi-modaux, c’est-à-dire relatifs à plusieurs
modalités physiques : signal audio/vidéo,
• association de signaux EEG, MEG et IRM (imagerie en
résonance magnétique).

3) Phénoménologique : Signaux déterministes ou aléatoires

Cette classification est basée sur l’évolution du signal en fonction du


temps, il existe ainsi deux types fondamentaux:
- Les signaux déterministes (ou certains) dont l’évolution en fonction du
temps peut être parfaitement décrite par un modèle mathématique.
Ces signaux proviennent de phénomènes pour lesquels on connaît les lois
physiques. A titre d’exemple, pour un oscillateur qui délivre un signal
sinusoïdal d’amplitude A et de fréquence f 0 , on peut prédire la valeur
du signal à tout instant grâce au modèle mathématique x(t ) = A sin( 2πf 0 t ) .
Une formule mathématique définit parfaitement le signal.
- Les signaux aléatoires (ou probabilistes) dont le comportement
temporel est imprévisible. Il faut faire appel à leurs propriétés
statistiques pour les décrire.

4) Morphologique

On distingue selon les variables temps et l’amplitude du signal 4 types de


signaux :

1. Les signaux analogiques dont l'amplitude et le temps sont continus


2. Les signaux échantillonnés dont l'amplitude est continue et le temps
discret
3. Les signaux quantifiés dont l'amplitude est discrète et le temps continu
4. Les signaux numériques dont l'amplitude et le temps sont discrets

7
Signaux continus Professeur K.BENKIRANE

On a 2 types de signaux selon le temps :

• Signaux continus : le temps est continu


• Signaux discrets : le temps est discret

5) Énergétique

Energie et Puissance
Dans le cas des signaux déterministes à temps continu, une classification est
faite autour des notions d’énergie et de puissance.
• L’énergie d’un signal x(t), fonction complexe de la variable réelle t, est la
quantité E définie par :
+∞
𝑬𝑬 = � |𝒙𝒙(𝒕𝒕)|𝟐𝟐 𝒅𝒅𝒅𝒅
−∞

• La puissance d’un signal x(t), fonction complexe de la variable réelle t, est


la quantité P définie par :
𝑻𝑻
𝟏𝟏 +𝟐𝟐
𝑷𝑷 = 𝐥𝐥𝐥𝐥𝐥𝐥 � |𝒙𝒙(𝒕𝒕)|𝟐𝟐 𝒅𝒅𝒅𝒅
𝑻𝑻→+∞ 𝑻𝑻 −𝑻𝑻
𝟐𝟐

Pour un signal périodique de période T, la puissance devient :

𝑻𝑻
𝟏𝟏 +𝟐𝟐
𝑷𝑷 = � |𝒙𝒙(𝒕𝒕)|𝟐𝟐 𝒅𝒅𝒅𝒅
𝑻𝑻 −𝑻𝑻
𝟐𝟐

8
Signaux continus Professeur K.BENKIRANE

Les signaux sont classés selon l’aspect énergétique en deux catégories :


• signaux à énergie finie caractérisés par une énergie finie, et une puissance
nulle.
• signaux à énergie infinie caractérisés par une énergie infinie, et une
puissance finie.

Les signaux rencontrés en physique sont évidemment d’énergie finie. Il est


toutefois utile, pour étudier les régimes permanents, de sortir du cadre des
signaux d’énergie finie pour envisager celui des signaux de puissance finie.

6) Classification spectrale

Un signal peut être classé suivant la distribution de son énergie ou de sa


puissance en fonction de la fréquence (spectre du signal). Le domaine des
fréquences occupé par son spectre ΔF est aussi appelé la largeur de bande du
signal: ∆F = Fmax − Fmin

Suivant la fréquence moyenne Fmoy = ( Fmax − Fmin ) / 2 , on peut distinguer deux types
de signaux :

- les signaux à bande étroite : ∆F / Fmin est petit ( Fmax ≈ Fmin ).


- les signaux à large bande : ∆F / Fmin est grand ( Fmax >> Fmin ).
Pour les signaux à bande étroite, les signaux sont classés suivant la valeur de la
fréquence moyenne Fmoy :

- 𝐹𝐹 < 250 𝐾𝐾𝐾𝐾𝐾𝐾 : signaux basses fréquences (BF)

- 250 𝐾𝐾𝐾𝐾𝐾𝐾 < 𝐹𝐹𝑚𝑚𝑚𝑚𝑚𝑚 < 30 𝑀𝑀𝑀𝑀𝑀𝑀 : signaux hautes fréquences (HF)

- 30 𝑀𝑀𝑀𝑀𝑀𝑀 < 𝐹𝐹𝑚𝑚𝑚𝑚𝑚𝑚 < 300 𝑀𝑀𝑀𝑀𝑀𝑀 : signaux très hautes fréquences (VHF)

- 300 𝑀𝑀𝑀𝑀𝑀𝑀 < 𝐹𝐹𝑚𝑚𝑚𝑚𝑚𝑚 < 3 𝐺𝐺𝐺𝐺𝐺𝐺 : signaux ultra hautes fréquences (UHF)

- 𝐹𝐹𝑚𝑚𝑚𝑚𝑚𝑚 > 3 𝐺𝐺𝐺𝐺𝐺𝐺 : signaux super hautes fréquences (SHF)

7) Signal causal et non causal

Un signal est dit causal s'il est nul pour toute valeur négative du temps :

𝒙𝒙(𝒕𝒕) = 𝟎𝟎 𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑 𝒕𝒕 < 0

9
Signaux continus Professeur K.BENKIRANE

B) SIGNAUX USUELS

1. Fonction signe

- 1, si t < 0
sgn(t) =  , sgn(0) peut prendre 1
 1, si t > 0

sgn(t)
0
toute valeur comprise entre -1 et 1, mais
-1
généralement on prend sgn(0) = 0
0

2. Fonction échelon unité

0, si t < 0
u(t) =  , par convention u (0) = 1 / 2
1, si t > 0 1

u(t)
On peut montrer facilement que :
0
-10 -5 0 5 10
1 1
u(t) = sgn(t) + , sgn(t) = 2u (t ) − 1
2 2

3. Fonction rampe

0, si t < 0 10
r(t) = 
t, si t ≥ 0
r(t)

t
Ou d’une autre manière : r(t) = ∫ u (τ )dτ 0
0 5
−∞

𝒕𝒕
4. Fonction rectangle :𝝅𝝅𝑻𝑻 (𝒕𝒕) = 𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓( )
𝑻𝑻
C’est une porte rectangulaire d’ouverture T
Et d’amplitude 1.
Exemple : T=1

0, si t < −1/2 et t > 1/2


rect(t) = 
1, si t < 1/2 et t > -1/2
1
rect(t)

Ou d’une autre manière :


0
-0.5 0 0.5
rect(t) = u (t + 1 / 2) − u (t − 1 / 2)

10
Signaux continus Professeur K.BENKIRANE

𝒕𝒕
5. Fonction triangle : ∆𝑻𝑻 (𝒕𝒕) = 𝒕𝒕𝒕𝒕𝒕𝒕( )
𝑻𝑻
C’est une porte triangulaire de demi-ouverture T
Et d’amplitude 1 en t=0.
Exemple : T=1

1 - t , si t < t ≤ 1 1
tri(t) = 

tri(t)
0, sinon

La surface d’une fonction tri(t) vaut 1 et son 0


-1 0 1
ouverture est égale à 2.

6. Impulsion de Dirac

0, si t ≠ 0
δ (t) =  (1/T)rect(t/T)
+ ∞, si t = 0 1/T

L’impulsion de Dirac peut être définie comme


0
une fenêtre rectangulaire centrée, de largeur -T/2 0 T/2
𝟏𝟏
T et d’amplitude quand T→ 0
𝑻𝑻
1
𝟏𝟏
δ(t)

𝜹𝜹(𝒕𝒕) = 𝐥𝐥𝐥𝐥𝐥𝐥 𝝅𝝅𝑻𝑻 (𝒕𝒕)


𝑻𝑻→𝟎𝟎 𝑻𝑻

+∞ 0
∫ δ (t )dt = 1
0
Elle vérifie :
−∞

Remarque : l’impulsion de Dirac est représentée par une flèche d’amplitude 1. Le


1 désigne la surface de l’impulsion mais pas son amplitude.

Propriétés :

x(t )δ (t ) = x(0)δ (t )

x(t )δ (t − t 0 ) = x(t 0 )δ (t − t 0 )
+∞

∫ x(t )δ (t − t )dt = x(t )


−∞
0 0

11
Signaux continus Professeur K.BENKIRANE

Décalage du signal : 𝒙𝒙(𝒕𝒕) ∗ 𝜹𝜹(𝒕𝒕 − 𝒕𝒕𝟎𝟎 ) = 𝒙𝒙(𝒕𝒕 − 𝒕𝒕𝟎𝟎 )

7. Peigne de Dirac : 𝜹𝜹𝑻𝑻𝒆𝒆 (𝒕𝒕) = Ш𝑻𝑻𝑻𝑻 (𝒕𝒕)

La fonction peigne de Dirac notée δ Te (t ) , est


une suite d’impulsions de Dirac, périodiques
de période Te .
+∞

𝜹𝜹𝑻𝑻𝒆𝒆 (𝒕𝒕) = Ш𝑻𝑻𝑻𝑻 (𝒕𝒕) = � 𝜹𝜹(𝒕𝒕 − 𝒌𝒌𝒌𝒌𝒆𝒆 )


𝒌𝒌=−∞

 Echantillonnage d’un signal :


+∞ +∞

𝒙𝒙(𝒕𝒕). � 𝜹𝜹(𝒕𝒕 − 𝒌𝒌𝒌𝒌𝒆𝒆 ) = � 𝒙𝒙(𝒌𝒌𝒌𝒌𝒆𝒆 ). 𝜹𝜹(𝒕𝒕 − 𝒌𝒌𝒌𝒌𝒆𝒆 )


𝒌𝒌=−∞ 𝒌𝒌=−∞

 Périodisation d’un signal :


+∞ +∞

𝒙𝒙(𝒕𝒕) ∗ � 𝜹𝜹(𝒕𝒕 − 𝒌𝒌𝒌𝒌𝒆𝒆 ) = � 𝒙𝒙(𝒕𝒕 − 𝒌𝒌𝒌𝒌𝒆𝒆 )


𝒌𝒌=−∞ 𝒌𝒌=−∞

12
Signaux continus Professeur K.BENKIRANE

8. Fonction sinus cardinal

La fonction sinus cardinal notée


sin c(t ) est définie par :

sin(πt )
sin c(t ) =
πt
sin c(t ) = 1 si t = 0

sin c(t ) = 0 si t est un entier .

%porte sous matlab


t = -0.2:0.0001:0.2;
% On crée le vecteur représentatif de la
fonction
x = zeros(1,1000); Fonction porte

x = [ x, ones(1,2001)];
1.5

x = [ x, zeros(1,1000)];
plot(t,x); 1

% Définition des options d'affichages


grid;
title('Fonction porte'); 0.5
x(t)

xlabel('Temps (t)');
ylabel('x(t)');
axis([-0.2,0.2, -0.5, 1.5]);
0

-0.5
-0.2 -0.15 -0.1 -0.05 0 0.05 0.1 0.15 0.2

Temps (t)

C) OPERATIONS SUR LES SIGNAUX

1) Inversion ou Retournement
Inverser un signal s(t) revient à le représenter en s(-t).
Exemple :

13
Signaux continus Professeur K.BENKIRANE

2) Translation
𝑠𝑠(𝑡𝑡 − 𝜏𝜏) est une translation de s(t) de 𝜏𝜏:
si 𝜏𝜏 > 0, vers les t positifs
si 𝜏𝜏 < 0, vers les t négatifs

Exemple :
Pour une fenêtre de largeur T , d’amplitude A et de retard τ :

 T T
0, si t < − + τ et t > + τ

Arect[(t-τ)/T]
t -τ 
 2 2 A
Arect( )=
T A, si t < T + τ et t > − T + τ

 2 2
0
0 τ-T/2 τ τ+T/2

A.tri[(t-τ)/T] A

t -τ 1 - t - τ , si t − τ ≤ T
tri( )=
T 0, sinon 0
0 τ-T τ τ+T

3) Inversion et Translation

4) Convolution
On appelle produit de convolution de deux signaux x(t) et y(t), et noté :
x(t)*y(t), l’expression :
+∞
𝑥𝑥(𝑡𝑡) ∗ 𝑦𝑦(𝑡𝑡) = � 𝑥𝑥(𝜏𝜏). 𝑦𝑦(𝑡𝑡 − 𝜏𝜏)𝑑𝑑𝑑𝑑
−∞
Propriétés :
 L’impulsion de Dirac représente l’élément neutre de la convolution :
𝒙𝒙(𝒕𝒕) ∗ 𝜹𝜹(𝒕𝒕) = 𝒙𝒙(𝒕𝒕)
 La convolution est commutative :
𝒙𝒙(𝒕𝒕) ∗ 𝒚𝒚(𝒕𝒕) = 𝒚𝒚(𝒕𝒕) ∗ 𝒙𝒙(𝒕𝒕)
 La convolution est associative :
𝒙𝒙(𝒕𝒕) ∗ 𝒚𝒚(𝒕𝒕) ∗ 𝒛𝒛(𝒕𝒕) = �𝒙𝒙(𝒕𝒕) ∗ 𝒚𝒚(𝒕𝒕)� ∗ 𝒛𝒛(𝒕𝒕) = 𝒙𝒙(𝒕𝒕) ∗ (𝒚𝒚(𝒕𝒕) ∗ 𝒛𝒛(𝒕𝒕))
14
Signaux continus Professeur K.BENKIRANE

 La convolution est distributive par rapport à l’addition :


�𝒙𝒙(𝒕𝒕) + 𝒚𝒚(𝒕𝒕)� ∗ 𝒛𝒛(𝒕𝒕) = 𝒙𝒙(𝒕𝒕) ∗ 𝒛𝒛(𝒕𝒕) + 𝒚𝒚(𝒕𝒕) ∗ 𝒛𝒛(𝒕𝒕)
 Décalage du signal :
𝒙𝒙(𝒕𝒕) ∗ 𝜹𝜹(𝒕𝒕 − 𝒕𝒕𝟎𝟎 ) = 𝒙𝒙(𝒕𝒕 − 𝒕𝒕𝟎𝟎 )
 Périodisation d’un signal :
+∞ +∞

𝒙𝒙(𝒕𝒕) ∗ � 𝜹𝜹(𝒕𝒕 − 𝒌𝒌𝒌𝒌𝒆𝒆 ) = � 𝒙𝒙(𝒕𝒕 − 𝒌𝒌𝒌𝒌𝒆𝒆 )


𝒌𝒌=−∞ 𝒌𝒌=−∞
Remarque :
Pour effectuer un produit de convolution : 𝒉𝒉(𝒕𝒕) ∗ 𝒙𝒙(𝒕𝒕), il faut suivre les
opérations suivantes :
 Retournement : h(u) → h(−τ )
 Translation : h(−τ) → h(t − τ )
 Multiplication : h(t − τ ).x(τ )
+∞
 Intégration : 𝒉𝒉(𝒕𝒕) ∗ 𝒙𝒙(𝒕𝒕) = ∫−∞ 𝐡𝐡(𝐭𝐭 − 𝛕𝛕 ). 𝐱𝐱(𝛕𝛕 )𝐝𝐝 𝛕𝛕

Exemple
Calculer le produit de convolution des signaux suivants

15
Signaux continus Professeur K.BENKIRANE

Exemple 2
𝝅𝝅𝑻𝑻 (𝒕𝒕) ∗ 𝝅𝝅𝑻𝑻 (𝒕𝒕) = 𝑻𝑻∆𝑻𝑻 (𝒕𝒕)

Remarque :
Pour les signaux à puissance finie, la convolution s’écrit :
𝑻𝑻
𝟏𝟏 𝟐𝟐
𝒛𝒛(𝒕𝒕) = 𝒙𝒙(𝒕𝒕) ∗ 𝒚𝒚(𝒕𝒕) = 𝐥𝐥𝐥𝐥𝐥𝐥 � 𝐱𝐱(𝛕𝛕 ). 𝐲𝐲(𝐭𝐭 − 𝛕𝛕 )𝐝𝐝 𝛕𝛕
𝑻𝑻→+∞ 𝑻𝑻 𝑻𝑻

𝟐𝟐
Si, de plus les signaux sont périodiques de même période T 0 .

𝑻𝑻𝟎𝟎
𝟏𝟏 𝟐𝟐
𝒛𝒛(𝒕𝒕) = 𝒙𝒙(𝒕𝒕) ∗ 𝒚𝒚(𝒕𝒕) = � 𝐱𝐱(𝛕𝛕 ). 𝐲𝐲(𝐭𝐭 − 𝛕𝛕 )𝐝𝐝 𝛕𝛕
𝑻𝑻𝟎𝟎 𝑻𝑻
− 𝟎𝟎
𝟐𝟐
5) Corrélation

Ce produit scalaire mesure les similitudes en forme et position des signaux.


Ces similitudes peuvent évoluer au cours du temps.
En plus, cette notion permet de restituer l’énergie d’interaction entre les
signaux
Si l’intercorrélation est nulle, on dit que les signaux sont décorrélés ou
orthogonaux.

16
Signaux continus Professeur K.BENKIRANE

 Signaux à énergie finie

a) Intercorrélation
+∞ +∞
𝜞𝜞𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝜸𝜸𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = � 𝐱𝐱(𝐭𝐭 ). 𝐲𝐲 ∗ (𝐭𝐭 − 𝛕𝛕 )𝐝𝐝 𝐭𝐭 = � 𝐱𝐱(𝐭𝐭 + 𝛕𝛕). 𝐲𝐲 ∗ (𝐭𝐭 )𝐝𝐝 𝐭𝐭
−∞ −∞

b) Autocorrélation

+∞ +∞
𝜞𝜞𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝜸𝜸𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = � 𝐱𝐱(𝐭𝐭 ). 𝐱𝐱 (𝐭𝐭 − 𝛕𝛕 )𝐝𝐝 𝐭𝐭 = �

𝐱𝐱(𝐭𝐭 + 𝛕𝛕). 𝐱𝐱 ∗ (𝐭𝐭 )𝐝𝐝 𝐭𝐭
−∞ −∞

Propriétés
• Pour les signaux réels la fonction C xx est paire,
𝑪𝑪𝒙𝒙𝒙𝒙 (−𝒕𝒕) = 𝑪𝑪𝒙𝒙𝒙𝒙 (𝒕𝒕)
+∞
• 𝑪𝑪𝒙𝒙𝒙𝒙 (𝟎𝟎) = ∫−∞ 𝐱𝐱(𝐭𝐭 ). 𝐱𝐱 ∗ (𝐭𝐭 )𝐝𝐝 𝐭𝐭 = 𝐄𝐄𝐱𝐱 Energie de x(t)

• ∀ 𝑡𝑡 , on a : 𝑪𝑪𝒙𝒙𝒙𝒙 (𝒕𝒕) ≤ 𝑪𝑪𝒙𝒙𝒙𝒙 (𝟎𝟎) (valeur maximale à t = 0)


• Relation entre convolution et corrélation :
𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝒙𝒙(𝝉𝝉) ∗ 𝒙𝒙∗ (−𝝉𝝉), et 𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝒙𝒙(𝝉𝝉) ∗ 𝒚𝒚∗ (−𝝉𝝉)

Dans le cas des signaux réels, on a :


𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝒙𝒙(𝝉𝝉) ∗ 𝒙𝒙(−𝝉𝝉), et 𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝒙𝒙(𝝉𝝉) ∗ 𝒚𝒚(−𝝉𝝉)

 Signaux à énergie infinie (à puissance finie)

Ces signaux possèdent une énergie infinie et sont de ce fait physiquement


irréalisables. Ils constituent toutefois une abstraction commode
permettant de modéliser des catégories importantes de signaux ayant un
comportement quasi-permanent. C'est le cas des signaux périodiques ou
quasi-périodiques usuels.
𝑻𝑻
𝟏𝟏 𝟐𝟐
𝜞𝜞𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝜸𝜸𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝐥𝐥𝐥𝐥𝐥𝐥 � 𝐱𝐱(𝐭𝐭 ). 𝐲𝐲 ∗ (𝐭𝐭 − 𝛕𝛕 )𝐝𝐝 𝐭𝐭
𝑻𝑻→+∞ 𝑻𝑻 −𝑻𝑻
𝟐𝟐

𝑻𝑻
𝟏𝟏 𝟐𝟐
𝜞𝜞𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝜸𝜸𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝐥𝐥𝐥𝐥𝐥𝐥 � 𝐱𝐱(𝐭𝐭 ). 𝐱𝐱 ∗ (𝐭𝐭 − 𝛕𝛕 )𝐝𝐝 𝐭𝐭
𝑻𝑻→+∞ 𝑻𝑻 −𝑻𝑻
𝟐𝟐
Si de plus x(t) et y(t) sont périodiques, de même période T 0

17
Signaux continus Professeur K.BENKIRANE

𝑻𝑻𝟎𝟎
𝟏𝟏 𝟐𝟐
𝜞𝜞𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝜸𝜸𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = � 𝐱𝐱(𝐭𝐭 ). 𝐲𝐲 ∗ (𝐭𝐭 − 𝛕𝛕 )𝐝𝐝 𝐭𝐭
𝑻𝑻𝟎𝟎 −𝑻𝑻𝟎𝟎
𝟐𝟐

𝑻𝑻𝟎𝟎
𝟏𝟏 𝟐𝟐
𝜞𝜞𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝜸𝜸𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = � 𝐱𝐱(𝐭𝐭 ). 𝐱𝐱 ∗ (𝐭𝐭 − 𝛕𝛕 )𝐝𝐝 𝐭𝐭
𝑻𝑻𝟎𝟎 −𝑻𝑻𝟎𝟎
𝟐𝟐

Remarque : Pour 𝜏𝜏 = 0,
𝑻𝑻 𝑻𝑻
𝟏𝟏 𝟐𝟐 𝟏𝟏 𝟐𝟐
𝑪𝑪𝒙𝒙𝒙𝒙 (𝟎𝟎) = 𝐥𝐥𝐥𝐥𝐥𝐥 � 𝐱𝐱(𝐭𝐭 ). 𝐱𝐱 ∗ (𝐭𝐭)𝐝𝐝 𝐭𝐭 = 𝐥𝐥𝐥𝐥𝐥𝐥 � |𝐱𝐱(𝐭𝐭)|𝟐𝟐 𝐝𝐝 𝐭𝐭
𝑻𝑻→+∞ 𝑻𝑻 −𝑻𝑻 𝑻𝑻→+∞ 𝑻𝑻 −𝑻𝑻
𝟐𝟐 𝟐𝟐
= 𝐏𝐏𝐱𝐱(𝐭𝐭) 𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏 𝐝𝐝𝐝𝐝 𝐱𝐱(𝐭𝐭)

𝑻𝑻𝟎𝟎 𝑻𝑻𝟎𝟎
𝟏𝟏 𝟐𝟐 𝟏𝟏 𝟐𝟐
𝑪𝑪𝒙𝒙𝒙𝒙 (𝟎𝟎) = � 𝐱𝐱(𝐭𝐭 ). 𝐱𝐱 ∗ (𝐭𝐭)𝐝𝐝 𝐭𝐭 = � |𝐱𝐱(𝐭𝐭)|𝟐𝟐 𝐝𝐝 𝐭𝐭 = 𝐏𝐏𝐱𝐱(𝐭𝐭) 𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏 𝐝𝐝𝐝𝐝 𝐱𝐱(𝐭𝐭)
𝑻𝑻𝟎𝟎 −𝑻𝑻𝟎𝟎 𝑻𝑻𝟎𝟎 −𝑻𝑻𝟎𝟎
𝟐𝟐 𝟐𝟐

𝑻𝑻
𝟏𝟏 𝟐𝟐
𝑪𝑪𝒙𝒙𝒙𝒙 (𝟎𝟎) = 𝐥𝐥𝐥𝐥𝐥𝐥 � 𝐱𝐱(𝐭𝐭 ). 𝐲𝐲 ∗ (𝐭𝐭)𝐝𝐝 𝐭𝐭 = 𝐏𝐏𝐱𝐱𝐱𝐱(𝐭𝐭) 𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢
𝑻𝑻→+∞ 𝑻𝑻 −𝑻𝑻
𝟐𝟐

𝑻𝑻𝟎𝟎
𝟏𝟏 𝟐𝟐
𝑪𝑪𝒙𝒙𝒙𝒙 (𝟎𝟎) = � 𝐱𝐱(𝐭𝐭 ). 𝐲𝐲 ∗ (𝐭𝐭)𝐝𝐝 𝐭𝐭 = 𝐏𝐏𝐱𝐱𝐱𝐱(𝐭𝐭) 𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢𝐢
𝑻𝑻𝟎𝟎 −𝑻𝑻𝟎𝟎
𝟐𝟐

Résumé de quelques propriétés

𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝑪𝑪∗𝒚𝒚𝒚𝒚 (−𝝉𝝉)

𝑪𝑪𝒙𝒙 (𝝉𝝉) = 𝑪𝑪∗𝒙𝒙 (−𝝉𝝉)

𝟐𝟐
�𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉)� ≤ 𝑪𝑪𝒙𝒙 (𝟎𝟎). 𝑪𝑪𝒚𝒚 (𝟎𝟎)

|𝑪𝑪𝒙𝒙 (𝝉𝝉)| ≤ 𝑪𝑪𝒙𝒙 (𝟎𝟎) = 𝑷𝑷𝒙𝒙

18
Signaux continus Professeur K.BENKIRANE

Chapitre III : Caractérisation fréquentielle des signaux


déterministes

La représentation temporelle d'un signal ne permet pas toujours de


répondre à la question que l'on veut traiter.
Un signal parlé ou musical est complexe, puisque son allure varie constamment au
cours du temps. Il contient des fréquences graves, moyennes et aiguës. Son
spectre s’étend de 20 Hz à 20 kHz et varie en permanence entre ces deux
fréquences extrêmes. Le signal vidéo est encore plus complexe et son spectre
s’étend du continu à quelques mégahertz.
Le spectre d’un signal est la représentation en fonction de la fréquence des
amplitudes des différentes composantes présentes dans le signal. Le spectre
d’un signal nous renseigne donc sur les différentes composantes fréquentielles
qu’il contient. Ainsi en télécommunication, la connaissance fréquentielle des
signaux est primordiale.

I- REPRESENTATION FREQUENTIELLE

1. Développement en série de Fourier


Ce développement est applicable pour les signaux périodiques : signaux à énergie
infinie
a. Développement en série de Fourier réelle


Soit un signal s(t) périodique, de période T0 = 2πf 0 = . Ce signal peut être
ω0
développé sous la forme :

+∞
s(t) = a0 + ∑ an cos(nω0t ) +bn sin(nω0t )
n =1

T0 / 2 T0 / 2 T0 / 2
1 2 2
Avec : a0 =
T0 ∫ s(t )dt , an =
−T0 / 2 T0 ∫ s
−T / 2
(t ) cos( n ω 0 t )dt , bn =
T0 ∫ s(t ) sin(nω t )dt
−T0 / 2
0
0

Remarques
T0 / 2
4
Si le signal est pair, s(t) = s (−t ) , bn = 0 , an =
T0 ∫ s(t ) cos(nω t )dt
0
0

19
Signaux continus Professeur K.BENKIRANE

T0 / 2
4
Si le signal est impair, s(t) = − s (−t ) , a n = 0 , bn =
T0 ∫ s(t ) sin(nω t )dt
0
0

Exemple :

Le signal est centré, sa valeur moyenne est nulle, donc a 0 = 0 . De même le signal
est impair, donc a n = 0 .

T0 / 2 
{ }
T0

bn =
2
∫ 1 sin( nω t )dt − ∫ sin( nω0t )dt  = =
2
[− cos(nω0t )]T00 / 2 + [cos(nω0t )]TT00 / 2
T0 nω 0
0
T0  0 T0 / 2 

2  2π T0   2π 2π T0  
= − (cos(n ) − 1) + cos(n T0 ) − cos(n ) 
T0 n 2π / T0  T0 2   T0 T0 2  

=
1
{[1 − cos(nπ )] + [1 − cos(nπ )]}

Si n est pair, bn = 0

4
Si n est impair, bn =

4 1 1 
Donc : s(t) = sin(ω0 t ) + sin(3ω0 t ) + sin(5ω 0 t )
π 3 5 

1 1

0 .. 0 ..
-1 -1

0 T/2 T 0 T/2 T

20
Signaux continus Professeur K.BENKIRANE

0 ..
-1

0 T/2 T

0 ..
-1

0 T/2 T

1.5
1
1
0 .. ..
0.5
-1
0
0 T/2 T 0 f0 3f0 5f0 7f0

Pour un signal où les a n et les bn sont non nuls, on a besoin de deux


représentations fréquentielles, l’une en cosinus, l’autre en sinus. Pour regrouper
les deux représentations en une seule, on utilise deux autres développements.

Représentation unilatérale

+∞

A partir de l’équation s(t) = a0 + ∑ an cos(nω 0 t ) +bn sin( nω 0 t ) , on peut écrire :


n =1

+∞
an bn
s(t) = a0 + ∑ a n2 + bn2 cos(nω0 t ) + a n2 + bn2 sin( nω 0 t ) .
n =1 a n2 + bn2 an2 + bn2

an bn
Posons : X n = , Yn = ⇒ X n2 + Yn2 = 1
a +b
2
n
2
n a +b2
n
2
n

21
Signaux continus Professeur K.BENKIRANE

En utilisant l’équation : cos 2 (φ n ) + sin 2 (φ n ) = 1 , on peut mettre X n = cos(φ n ) et


Yn = sin(φ n ) .

Donc :

+∞
s(t) = a0 + ∑ an2 + bn2 {cos(φn ) cos(nω 0 t ) + sin(φn ) sin( nω 0 t )}
n =1

+∞
s(t) = a0 + ∑ an2 + bn2 {cos(nω 0 t − φ n )}
n =1

Yn b sin(φ n ) b 
Et comme = n = = tan(φ n ) ⇒ φ n = arctan n 
X n a n cos(φ n )  an 

+∞

Finalement s(t) = A0 + ∑ An cos(nω 0 t − φn )


n =1

Avec : A0 = a0 , An = a n2 + bn2 , ⇒ φ n = Arctg(-bn/an ) .

Le spectre de raies est représenté par deux figures, une pour le module et
l’autre pour la phase du spectre.

b. Développement en série de Fourier complexe : Représentation


bilatérale
Celle-ci repose sur la forme complexe de la série de Fourier

En introduisant la notation complexe de cos(nω 0 t ) et sin( nω 0 t ) , on peut écrire la


série de Fourier sous la forme complexe.

+∞

𝑠𝑠(𝑡𝑡) = � 𝒄𝒄𝒏𝒏 𝒆𝒆𝒋𝒋𝒋𝒋𝝎𝝎𝟎𝟎 𝒕𝒕


𝒏𝒏=−∞

Avec c n coefficient de la série de Fourier complexe

𝑇𝑇0
1
𝑐𝑐𝑛𝑛 = ∫2
𝑇𝑇0 𝑠𝑠(𝑡𝑡)𝑒𝑒 −𝑗𝑗𝑗𝑗 𝜔𝜔 0 𝑡𝑡 𝑑𝑑𝑑𝑑
𝑇𝑇0 −
2

Expression de c n en fonction de a n et b n :

𝑎𝑎 𝑛𝑛 −𝑗𝑗 𝑏𝑏𝑛𝑛 𝑎𝑎 𝑛𝑛 +𝑗𝑗 𝑏𝑏𝑛𝑛


𝑐𝑐𝑛𝑛 = 𝑐𝑐−𝑛𝑛 =
2 2
22
Signaux continus Professeur K.BENKIRANE

Remarque:

• si s(t) est réel : c -n = c n *: |c n | = |c −n |, et arg(c n ) = −arg(c −n ) ;


• si s(t) est pair : les coefficients c n sont réels ;
• si s(t) est impair, les coefficients c n sont imaginaires purs.

Théorème de Parseval

La puissance moyenne selon le Théorème de Parseval pour les signaux périodiques


s écrit :
𝑻𝑻𝟎𝟎 +∞
𝟏𝟏 + 𝟐𝟐
𝑷𝑷 = � |𝒙𝒙(𝒕𝒕)|𝟐𝟐 𝒅𝒅𝒅𝒅 = � |𝒄𝒄𝒏𝒏 |𝟐𝟐
𝑻𝑻𝟎𝟎 −𝑻𝑻𝟎𝟎
𝟐𝟐 𝒏𝒏=−∞

Spectres
1
• Spectre d amplitude : |𝑐𝑐𝑛𝑛 | = �𝑎𝑎𝑛𝑛2 + 𝑏𝑏𝑛𝑛2 = 𝑓𝑓(𝑓𝑓)
2
1
• Spectre de puissance : |𝑐𝑐𝑛𝑛 |2 = (𝑎𝑎𝑛𝑛2 + 𝑏𝑏𝑛𝑛2 ) = 𝑓𝑓(𝑓𝑓)
2
𝑏𝑏𝑛𝑛
• Spectre de phase : 𝐴𝐴𝐴𝐴𝐴𝐴(𝑐𝑐𝑛𝑛 ) = 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 �− � = 𝑓𝑓(𝑓𝑓)
𝑎𝑎 𝑛𝑛

Exemple:

Spectre d’amplitude

23
Signaux continus Professeur K.BENKIRANE

On notera que le spectre d’un signal périodique est discret

Autre exemple

Séries de Fourier de quelques signaux usuels

24
Signaux continus Professeur K.BENKIRANE

2. Transformée de Fourier

2.1 Définition

Comme on a vu dans la section précédente, tout signal périodique de période T0


présente un spectre discret dont les raies sont espacés de f 0 . Plus la période
est grande plus l’espace entre les raies est réduit. Quand la période tend vers
l’infini, l’écart fréquentiel tend vers zéro et le spectre devient continu.

Lorsque le signal n’est pas périodique, on peut le supposer périodique à l’infini.

La transformée de Fourier d’un signal s (t ) est donnée par :

+∞
S ( f ) = ∫ s (t )e − j 2πft dt
−∞

La transformée inverse est obtenue par :

jf = + j∞

∫ S ( f )e
j 2πft
s (t ) = df
jf = − j∞

2.2 Propriétés

-Signaux réels

La transformée de Fourier d’un signal réel s (t ) est une fonction complexe S ( f )


telle que : S ( f ) = S re ( f ) + jS im ( f ) ;

Le module S ( f ) est une fonction paire.

La phase φ ( S ( f )) est une fonction impaire.

-Parité

Si s (t ) est une fonction paire, sa transformée de Fourier S ( f ) possède une partie


réelle paire et une partie imaginaire impaire.

-Linéarité

Si s (t ) est composé de deux signaux pondérés, la transformée de Fourier du


signal s (t ) est composée par les deux transformées pondérées des deux signaux.

25
Signaux continus Professeur K.BENKIRANE

s (t ) = as1 (t ) + bs 2 (t ) ⇔ S ( f ) = aS1 ( f ) + bS 2 ( f )

-Homothétie : compression et dilatation

1 f
s (at ) ⇔ S 
a a

Ce phénomène peut être perçu lorsqu’on écoute un enregistrement avec une


vitesse différente de l’originale. Si a > 0 , la vitesse sera plus grande d’où un
rétrécissement du signal et un étalement du spectre (le son de l’enregistrement
devient plus aigu)

- Translation temporelle

Un retard temporel provoque un déphasage qui s’ajoute à argument de la


transformée de Fourier.

s (t − t 0 ) ↔ S ( f )e − j 2πft0

- Translation fréquentielle (modulation)

La multiplication d’un signal avec un phaseur provoque un décalage fréquentiel du


spectre.

s (t )e j 2πf 0 t ↔ S ( f − f 0 )

Cette propriété est très importante dans la transmission de plusieurs signaux


sur un même support à condition que ces signaux soient à bande limitée

N N
y (t ) = ∑ s k (t )e j 2πf k t ↔ ∑ S k ( f − f k )
k =1 k =1

-Dérivation

dn
n
s (t ) ↔ ( j 2πf ) n S ( f )
dt

-Convolution

Une convolution dans le domaine temporel est équivalente à une multiplication


dans le domaine fréquentiel.

26
Signaux continus Professeur K.BENKIRANE

x(t ) ∗ y (t ) ↔ X ( f ) ⋅ Y ( f )
-Involution

s (−t ) ↔ S ∗ ( f )

s ∗ (t ) ↔ S ∗ (− f )
Résumé récapitulatif des propriétés de la transformée de Fourier

2.3. Spectres d’un signal

Dans le cas général, la transformée de Fourier d'une fonction produit une


fonction à valeurs complexes. Ainsi, on peut obtenir deux informations de la
fonction transformée de Fourier :

 Le spectre d'amplitude : ⌊𝑺𝑺(𝒇𝒇)⌋ = 𝒈𝒈(𝒇𝒇)


 Le spectre de phase : 𝑨𝑨𝑨𝑨𝑨𝑨(𝑺𝑺(𝒇𝒇)) = 𝒉𝒉(𝒇𝒇)

𝑡𝑡
Exemple 1 : Fenêtre rectangulaire d'ouverture T : 𝑠𝑠(𝑡𝑡) = 𝜋𝜋𝜃𝜃 (𝑡𝑡) = 𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟 � �
𝜃𝜃

27
Signaux continus Professeur K.BENKIRANE

𝑋𝑋(𝑓𝑓) = 𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃(𝜋𝜋𝜋𝜋𝜋𝜋)

On notera que le spectre d’un signal apériodique à énergie finie est continu.

Exemple 2 : Signal à décroissance exponentielle

𝒔𝒔(𝒕𝒕) = 𝐞𝐞𝐞𝐞𝐞𝐞(−𝒂𝒂. 𝒕𝒕) 𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑 𝑠𝑠𝑠𝑠𝑠𝑠 [0, +∞[ 𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎 𝑎𝑎 ∈ 𝑅𝑅 +∗


𝟏𝟏
𝑺𝑺(𝒇𝒇) = 𝑻𝑻𝑻𝑻�𝒔𝒔(𝒕𝒕)� =
𝒂𝒂 + 𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋

Spectre d’amplitude :

𝟏𝟏
|𝑺𝑺(𝒇𝒇)| =
�𝒂𝒂𝟐𝟐 + (𝟐𝟐𝟐𝟐𝟐𝟐)𝟐𝟐

Spectre de phase :
𝟐𝟐𝟐𝟐𝟐𝟐
𝝋𝝋𝒔𝒔 (𝒇𝒇) = −𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂 � 𝒂𝒂

28
Signaux continus Professeur K.BENKIRANE

Théorème de PARSEVAL relatif aux signaux à énergie finie

Ce théorème traduit la conservation de l’énergie


+∞ +∞
� |x(t)|2 dt = � |X(f)|2 d f
−∞ −∞

L'énergie totale d'un signal ne dépend pas de la représentation choisie.

|𝑋𝑋(𝑓𝑓)|2 est appelé densité spectrale d'énergie

3. Transformée de Fourier au sens des distributions

La transformée de Fourier d’une distribution conserve les propriétés de la


transformée de Fourier d’une fonction.

 Transformée de Fourier de l’impulsion de Dirac δ(t) :


+∞ +∞ +∞
−j2πft −j0
TF�δ(t)� = � δ(t). e dt = � δ(t). e dt = � δ(t)dt = 1
−∞ −∞ −∞

 Transformée de Fourier de la fonction 1

En utilisant la propriété d’involution

TF(1) = δ(f)

 Transformée de Fourier des fonctions : 𝑐𝑐𝑐𝑐𝑐𝑐(2𝜋𝜋𝑓𝑓0 𝑡𝑡) 𝑒𝑒𝑒𝑒 𝑠𝑠𝑠𝑠𝑠𝑠(2𝜋𝜋𝑓𝑓0 𝑡𝑡)


En utilisant les lois d’Euler, on a :
𝑒𝑒 𝑗𝑗𝑗𝑗 + 𝑒𝑒 −𝑗𝑗𝑗𝑗 𝑒𝑒 𝑗𝑗𝑗𝑗 − 𝑒𝑒 −𝑗𝑗𝑗𝑗
𝑐𝑐𝑐𝑐𝑐𝑐(𝑥𝑥) = 𝑒𝑒𝑒𝑒 𝑠𝑠𝑠𝑠𝑠𝑠(𝑥𝑥) =
2 2𝑗𝑗
Et en utilisant les propriétés de linéarité et de modulation, on trouve :
𝛿𝛿(𝑓𝑓 − 𝑓𝑓0 ) + 𝛿𝛿(𝑓𝑓 + 𝑓𝑓0 )
𝑇𝑇𝑇𝑇�𝑐𝑐𝑐𝑐𝑐𝑐(2𝜋𝜋𝑓𝑓0 𝑡𝑡)� =
2
Et
𝛿𝛿(𝑓𝑓 − 𝑓𝑓0 ) − 𝛿𝛿(𝑓𝑓 + 𝑓𝑓0 )
𝑇𝑇𝑇𝑇�𝑠𝑠𝑠𝑠𝑠𝑠(2𝜋𝜋𝑓𝑓0 𝑡𝑡)� =
2𝑗𝑗
Transformée de Fourier de signaux périodiques
On a vu que tout signal périodique s(t) de periode T 0 s’écrit :
+∞

𝑠𝑠(𝑡𝑡) = � 𝑐𝑐𝑛𝑛 𝑒𝑒 𝑗𝑗 2𝜋𝜋𝜋𝜋 𝑓𝑓0 𝑡𝑡


𝑛𝑛 =−∞

29
Signaux continus Professeur K.BENKIRANE

A partir de la linéarité et de la continuité de la transformée de Fourier, on peut


démontrer que :
+∞

𝑇𝑇𝑇𝑇�𝑠𝑠(𝑡𝑡)� = � 𝑐𝑐𝑛𝑛 . 𝑇𝑇𝑇𝑇�𝑒𝑒 𝑗𝑗 2𝜋𝜋𝜋𝜋 𝑓𝑓0 𝑡𝑡 �


𝑛𝑛=−∞

Or 𝑇𝑇𝑇𝑇�𝑒𝑒 𝑗𝑗 2𝜋𝜋𝜋𝜋 𝑓𝑓0 𝑡𝑡 � = 𝛿𝛿(𝑓𝑓 − 𝑛𝑛𝑓𝑓0 )

+∞

𝑻𝑻𝑻𝑻�𝒔𝒔(𝒕𝒕)� = � 𝒄𝒄𝒏𝒏 . 𝜹𝜹(𝒇𝒇 − 𝒏𝒏𝒇𝒇𝟎𝟎 )


𝒏𝒏=−∞

Ainsi, on peut montrer que la transformée de Fourier du peigne de Dirac est un


peigne de Dirac
+∞
𝟏𝟏
𝑻𝑻𝑻𝑻 �𝜹𝜹𝑻𝑻𝒆𝒆 (𝒕𝒕)� = � 𝒄𝒄𝒏𝒏 . 𝜹𝜹(𝒇𝒇 − 𝒏𝒏𝒇𝒇𝒆𝒆 ) 𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂 𝒄𝒄𝒏𝒏 = = 𝒇𝒇𝒆𝒆
𝑻𝑻𝒆𝒆
𝒏𝒏=−∞

Exemple

On désire avoir une représentation fréquentielle d’un signal d’horloge de la


forme :

30
Signaux continus Professeur K.BENKIRANE

Ainsi, le spectre est constitué de raies espacées de 1/T 2 et dont l’amplitude est
donnée par un sinus cardinal : c’est un spectre discret.

Exemple 2

Considérons les spectres unilatéraux d’un signal s (t ) .

Trouver l’expression du signal s (t ) , son spectre bilatéral et sa puissance


moyenne.

31
Signaux continus Professeur K.BENKIRANE

1
4 0.2π
0
An

φn
2
-1
-0.45π
0 -2
0 2 4 6 0 2 4 6

s(t) = 4 + 3 cos(ω 0 t ) + 2 cos(3ω 0 t + 0.2π ) + cos(5ω 0 t − 0.45π )

La forme complexe :

e jω 0 t + e − jω 0 t e j (3ω0t +0.2π ) + e − j (3ω0t +0.2π ) e j (5ω0t −0.45π ) + e − j (5ω0t −0.45π )


s(t) = 4 + 3 +2 +
2 2 2

e jω 0 t 1
s(t) = 4 + 3 + e j 0.2π e j 3ω0t + e − j 0.45π e j 5ω0t
2 2
− jω 0 t
3e 1
+ + e − j 0.2π e − j 3ω0t + e + j 0.45π e − j 5ω0t
2 2

2
4
Cn

φn

0
2

0 -2
-5 -4 -3 -2 -1 0 1 2 3 4 5 -5 -4 -3 -2 -1 0 1 2 3 4 5


Ps = ∑C = 4 2 + 2(1.5 2 + 12 + 0.5 2 ) = 23V 2
2
n
n = −∞

32
Signaux continus Professeur K.BENKIRANE

33
Signaux continus Professeur K.BENKIRANE

Table illustrée, transformées de Fourier (1/3)

34
Signaux continus Professeur K.BENKIRANE

Table illustrée de transformées de Fourier (2/3)

35
Signaux continus Professeur K.BENKIRANE

Table illustrée de transformées de Fourier (3/3)

36
Signaux continus Professeur K.BENKIRANE

II Densité spectrale : 𝑺𝑺𝒔𝒔 (𝒇𝒇) 𝒐𝒐𝒐𝒐 𝜸𝜸𝒔𝒔 (𝒇𝒇)

a) Signaux à énergie finie

|𝑋𝑋(𝑓𝑓)|2 est appelé densité spectrale d'énergie

Exemple
Soit à représenter la densité spectrale du signal suivant :
𝑡𝑡
𝑠𝑠(𝑡𝑡) = 𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟 � �
𝑇𝑇
𝑆𝑆(𝑓𝑓) = 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇(𝜋𝜋𝜋𝜋𝜋𝜋)

𝛾𝛾𝑠𝑠 (𝑓𝑓) = 𝑇𝑇 2 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠 2 (𝜋𝜋𝜋𝜋𝜋𝜋)

Théorème de Wiener-Khintchine

Ce dernier qui stipule que :

“ La densité spectrale du signal 𝑺𝑺𝒙𝒙𝒙𝒙 (𝒇𝒇) est la transformée de Fourier de la


fonction d'autocorrection 𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) ”

+∞
𝑆𝑆𝑥𝑥𝑥𝑥 (𝑓𝑓) = � 𝐶𝐶𝑥𝑥𝑥𝑥 (𝜏𝜏) 𝑒𝑒 −𝑗𝑗 2𝜋𝜋𝜋𝜋𝜋𝜋 𝑑𝑑𝑑𝑑
−∞
+∞
𝐶𝐶𝑥𝑥𝑥𝑥 (𝜏𝜏) = � 𝑆𝑆𝑥𝑥𝑥𝑥 (𝑓𝑓) 𝑒𝑒 𝑗𝑗 2𝜋𝜋𝜋𝜋𝜋𝜋 𝑑𝑑𝑑𝑑
−∞

𝑆𝑆𝑥𝑥𝑥𝑥 (𝑓𝑓) = 𝑇𝑇𝑇𝑇{𝐶𝐶𝑥𝑥𝑥𝑥 (𝜏𝜏)}

𝐶𝐶𝑥𝑥𝑥𝑥 (𝜏𝜏) = 𝑇𝑇𝑇𝑇 −1 {𝑆𝑆𝑥𝑥𝑥𝑥 (𝑓𝑓)}


𝑇𝑇𝑇𝑇
𝑆𝑆𝑥𝑥𝑥𝑥 (𝑓𝑓) ⇔ 𝐶𝐶𝑥𝑥𝑥𝑥 (𝜏𝜏)

En prenant : 𝜏𝜏 = 0, dans l'expression de la TF inverse de 𝑆𝑆𝑥𝑥𝑥𝑥 (𝑓𝑓), on obtient la


relation de Parseval.

37
Signaux continus Professeur K.BENKIRANE

+∞ +∞
𝐶𝐶𝑥𝑥𝑥𝑥 (0) = � |x(t)|2 d t = Ex =� |X(f)|2 d f Energie de x(t)
−∞ −∞

C'est pour cette raison que, 𝑆𝑆𝑥𝑥𝑥𝑥 (𝑓𝑓)(= |X(f)|2 ) est appelée : densité spectrale
d'énergie ou spectre d'énergie du signal x(t).

𝑇𝑇𝑇𝑇 −1 {𝑆𝑆𝑥𝑥𝑥𝑥 (𝑓𝑓)} = 𝑇𝑇𝑇𝑇 −1 {|𝑋𝑋(𝑓𝑓)|2 } = 𝑇𝑇𝑇𝑇 −1 {𝑋𝑋(𝑓𝑓). 𝑋𝑋 ∗ (𝑓𝑓)} = 𝐶𝐶𝑥𝑥𝑥𝑥 (𝜏𝜏)

En effet

+∞
−1 ∗
𝑇𝑇𝑇𝑇 �𝑋𝑋(𝑓𝑓). 𝑋𝑋 (𝑓𝑓)� = 𝑥𝑥(𝑡𝑡) ∗ 𝑥𝑥 ∗ (−𝑡𝑡)
=� x(t ). x ∗ (t − τ )d t = 𝐶𝐶𝑥𝑥𝑥𝑥 (𝜏𝜏)
−∞

Pour 𝜏𝜏 = 0, on obtient :

𝑇𝑇
+∞
1 2
Px(t) = 𝐶𝐶𝑥𝑥𝑥𝑥 (0) = lim � |x(t)|2 d t = � 𝑆𝑆𝑥𝑥𝑥𝑥 (𝑓𝑓) 𝑑𝑑𝑑𝑑
𝑇𝑇→+∞ 𝑇𝑇 −𝑇𝑇 −∞
2

Remarque :

Pour deux signaux x(t) et y(t), la densité interspectrale peut écrire :

𝑺𝑺𝒙𝒙𝒙𝒙 (𝒇𝒇) = 𝑻𝑻𝑻𝑻�𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉)�

𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = 𝑻𝑻𝑻𝑻−𝟏𝟏 �𝑺𝑺𝒙𝒙𝒙𝒙 (𝒇𝒇)�


𝑻𝑻𝑻𝑻
𝑺𝑺𝒙𝒙𝒙𝒙 (𝒇𝒇) ⇔ 𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉)
+∞
𝑺𝑺𝒙𝒙𝒙𝒙 (𝒇𝒇) = � 𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) 𝒆𝒆−𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋 𝒅𝒅𝒅𝒅
−∞

+∞
𝑪𝑪𝒙𝒙𝒙𝒙 (𝝉𝝉) = � 𝑺𝑺𝒙𝒙𝒙𝒙 (𝒇𝒇) 𝒆𝒆𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋 𝒅𝒅𝒅𝒅
−∞

b) Signaux à énergie infinie

La “densité spectrale de puissance” S S (f) d’un signal périodique s(t) de fréquence


fondamentale f 0 s’écrit :

+∞

𝜸𝜸𝒔𝒔 (𝒇𝒇) = 𝑺𝑺𝒔𝒔 (𝒇𝒇) = � |𝒄𝒄𝒏𝒏 |𝟐𝟐 𝜹𝜹(𝒇𝒇 − 𝒏𝒏𝒇𝒇𝟎𝟎 )


𝒏𝒏=−∞

38
Signaux continus Professeur K.BENKIRANE

Exemple :

𝑠𝑠(𝑡𝑡) = 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴(2𝜋𝜋𝑓𝑓0 𝑡𝑡 + 𝜑𝜑)

En développant, on a :

𝐴𝐴 𝑗𝑗𝑗𝑗 𝑗𝑗 2𝜋𝜋𝑓𝑓 𝑡𝑡 𝐴𝐴 −𝑗𝑗𝑗𝑗 −𝑗𝑗 2𝜋𝜋𝑓𝑓 𝑡𝑡


𝑠𝑠(𝑡𝑡) = 𝑒𝑒 𝑒𝑒 0 − 𝑒𝑒 𝑒𝑒 0
2𝑗𝑗 2𝑗𝑗

𝐴𝐴 𝑗𝑗𝑗𝑗
𝑐𝑐1 = −𝑐𝑐−1 = 𝑒𝑒
2𝑗𝑗

La densité spectrale s’écrit donc :

𝐴𝐴2 𝐴𝐴2
𝛾𝛾𝑠𝑠 (𝑓𝑓) = 𝛿𝛿(𝑓𝑓 − 𝑓𝑓0 ) + 𝛿𝛿(𝑓𝑓 + 𝑓𝑓0 )
4 4

On peut déduire la fonction d’autocorrélation en calculant la TF inverse de


𝛾𝛾𝑠𝑠 (𝑓𝑓) , on aura :
𝐴𝐴2
𝑅𝑅𝑠𝑠 (𝜏𝜏) = 𝑐𝑐𝑐𝑐𝑐𝑐(2𝜋𝜋𝑓𝑓0 𝜏𝜏)
2
𝐴𝐴2
D’autre part, on remarque que La puissance moyenne totale ( 2 ) est repartie
𝐴𝐴2
également en deux raies de poids aux fréquences f 0 et –f 0 .
4

39
Signaux continus Professeur K.BENKIRANE

Chapitre IV : systèmes linéaires invariants /Filtrages des signaux

Un système est un processus qui transforme un ou plusieurs signaux d’entrée en


un ou plusieurs signaux de sortie.

1) Définition d’un système linéaire

Le système est dit linéaire si à l'entrée : 𝒆𝒆(𝒕𝒕) = ∑𝒊𝒊 𝒂𝒂𝒊𝒊 𝒆𝒆𝒊𝒊 (𝒕𝒕) correspond la
réponse : 𝒔𝒔(𝒕𝒕) = ∑𝒋𝒋 𝒃𝒃𝒋𝒋 𝒔𝒔𝒋𝒋 (𝒕𝒕)
Il est dit invariant dans le temps si :
à l'entrée e(t-t 0 ) correspond la sortie s(t-t 0 ).
Le système linéaire est défini temporellement par sa réponse impulsionnelle h(t),
et fréquentiellement par sa réponse harmonique (fonction de transfert) H(f)
On appelle réponse impulsionnelle d’un système, la réponse du système à l’entrée
particulière e(t) =δ(t).

Un SLIT est régi par une équation différentielle linéaire à coefficients


constants du type :

2) Définition d’un filtre

Un filtre est un système linéaire invariant dans le temps permettant de diviser


le spectre afin de ne conserver qu’une ou plusieurs bandes de ce spectre. Le
filtre idéal permet de transmettre sans distorsion la bande filtrée sans
distorsion.
Un filtre est caractérisé par sa fonction de transfert 𝑯𝑯(𝒇𝒇). Celle-ci présente
une discontinuité dans le cas d’un filtre idéal et ce n’est pas physiquement
réalisable, car sa réponse impulsionnelle nécessiterait que l’évolution du signal de
sortie anticiperait l’évolution du signal d’entrée c.a.d un système non causal.

40
Signaux continus Professeur K.BENKIRANE

3) Types de filtres idéaux


Un filtre idéal est un filtre qui coupe parfaitement toutes les fréquences au delà
(ou en deca, ¸ca dépend du type de filtre) d’une fréquence de coupure.
Malheureusement, ceci n’est pas possible. En effet, ceci correspond à une pente
infiniment raide de la fonction de transfert à la fréquence de coupure.
Donc la réponse impulsionnelle aurait des valeurs s’étendant de −∞ à +∞, et donc
des valeurs non nulles à des temps négatifs. Ce qui veut dire que la réponse du
système serait non causale puisqu’il y aurait un signal en sortie avant que la cause
ne se soit manifestée.
Un filtre idéal étant non causal, il n’est pas physiquement réalisable. On doit
donc toujours faire une approximation du filtre idéal.

On peut classer les filtres en 4 types :


– Filtre passe-bas : la bande passante est de la forme [0, Fc[ ,
Fc étant la fréquence de coupure
– Filtre passe-haut : la bande passante est de la forme ]Fc, +∞[ ;
– Filtre passe-bande : la bande passante est de la forme ]Fcb, Fch[ ; ,
Fcb, Fch étant les fréquences de coupure basse et haute
respectivement.
– Filtre coupe-bande : la bande passante est de la forme [0, Fcb[U]Fch,
+∞[
Réponse fréquentielle de filtres idéaux

41
Signaux continus Professeur K.BENKIRANE

Application du filtrage à la HIFI

- Les tweeters reproduisent les hautes fréquences, typiquement les


fréquences supérieures à 2 kHz : le signal à reproduire est donc envoyé en
entrée d’un filtre passe-haut afin que la sortie de ce filtre qui alimente les
tweeters soit un signal constitué par les composantes hautes fréquences du
son ;
– Les mediums reproduisent les moyennes fréquences, typiquement les
fréquences dans un intervalle [500Hz, 5kHz] : le signal à reproduire
est donc envoyé en entrée d’un filtre passe bande afin que la sortie de
ce filtre qui alimente les mediums soit un signal constitué par les
composantes moyennes fréquences du son ;
– Les woofers reproduisent les basses fréquences, typiquement les
fréquences inferieures à 1 kHz : le signal à reproduire est donc envoyé
en entrée d’un filtre passe-bas afin que la sortie de ce filtre qui
alimente les woofers soit un signal constitué par les composantes
basses fréquences du son.
Une enceinte HIFI est donc équipée de 3 filtres fréquentiels qui sont réalisés à
l’aide d’un circuit d’électronique analogique.

Un filtre introduit un déphasage sur le signal d’entrée. Ce déphasage est un


décalage temporel. Il est compris entre 0 et T, la période du signal. Le retard de
phase est défini par :

42
Signaux continus Professeur K.BENKIRANE

𝜑𝜑(𝜔𝜔)
𝑡𝑡𝜑𝜑 = −
𝜔𝜔
Il représente le temps correspondant à la phase, pour une fréquence donnée. Le
retard de groupe est défini par :
𝑑𝑑𝑑𝑑(𝜔𝜔)
𝑡𝑡𝑔𝑔 = −
𝑑𝑑𝑑𝑑
Il traduit la variation de la phase par rapport à la fréquence.
Si la phase n’est pas constante en fonction de la fréquence, cela se traduit par
une déformation du signal ; en effet, les composantes harmoniques ne subissent
pas toutes le même retard. Si la phase est linéaire, 𝑡𝑡𝑔𝑔 est constant et le signal ne
subit pas de déformation. Or, dans de nombreux cas, la phase φ(ω) est définie
par une fonction "arctg", et donc n’est pas linéaire. Le retard de groupe,
également temps de propagation de groupe, correspond au temps mis par
l’énergie du signal pour traverser le filtre.

4) Filtres réels
Contrairement aux filtres idéaux, les filtres causaux doivent posséder entre une
bande passante et une bande d’atténuation une bande dite de transition. Ces
bandes sont en général définies a travers un gabarit fréquentiel sur le module
de la réponse fréquentielle du filtre, voir par exemple pour un filtre passe-bas.

Gabarit d’un filtre


Lorsqu’on réalise un filtre réel, on le caractérise par un gabarit qui spécifie
– la zone dans laquelle doit passer sa courbe en fréquence,
– la bande passante et la bande atténuée ou rejetée,
– les ondulations maximales admissibles dans la bande passante
– et l’atténuation minimale dans la bande atténuée.
Un filtre réel est toujours un compromis entre atténuation et oscillations.

43
Signaux continus Professeur K.BENKIRANE

Le problème de conception de filtre consiste alors à traiter la question suivante :


étant donne un gabarit sur le module de la réponse fréquentielle du filtre à
concevoir, déterminer le filtre qui satisfait ce gabarit.

3.a) Filtres de Butterworth

Les filtres de Butterworth sont définis par la fonction de transfert suivante :

𝟏𝟏
𝑯𝑯(𝒇𝒇) =
𝒇𝒇 𝒏𝒏
𝟏𝟏 + �𝒋𝒋 �
𝒇𝒇𝒄𝒄
𝟏𝟏
|𝑯𝑯(𝒇𝒇)| =
𝟐𝟐𝟐𝟐
�𝟏𝟏 + � 𝒇𝒇 �
𝒇𝒇𝒄𝒄
Où n est l’ordre du filtre,

44
Signaux continus Professeur K.BENKIRANE

Cette relation a été établie de façon à assurer que :


La courbe |𝐻𝐻(𝑓𝑓)| soit la plus plate possible et proche de 1 au voisinage de f = 0

Les réponses fréquentielles obtenues pour différentes valeurs de n sont


représentées figure. Noter que plus n est grand, plus la largeur de la bande de
transition est étroite.

45
Signaux continus Professeur K.BENKIRANE

3.b) Filtres de Tchebychev

Les filtres de Tchebychev sont définis par le module de la fonction de transfert


suivant :
𝟏𝟏
|𝑯𝑯(𝒇𝒇)| =
�𝟏𝟏 + 𝝁𝝁𝟐𝟐 𝑻𝑻𝟐𝟐𝒏𝒏 (Ω)
Où μ caractérise l’ondulation dans la bande passante et Ω est la fréquence
normalisée.

𝑻𝑻𝒏𝒏 (𝛀𝛀) représente les polynômes de Tchebytchev

𝑻𝑻𝒏𝒏 (𝛀𝛀) = 𝒄𝒄𝒄𝒄𝒄𝒄�𝒏𝒏�𝑨𝑨𝑨𝑨𝑨𝑨. 𝒄𝒄𝒄𝒄𝒄𝒄(𝛀𝛀)�� 𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑 𝛀𝛀 ≤ 𝟏𝟏

𝑻𝑻𝒏𝒏 (𝛀𝛀) = 𝒄𝒄𝒄𝒄�𝒏𝒏�𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨(𝛀𝛀)�� 𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑 𝛀𝛀 > 1

Il y a ondulation dans la bande passante, liée à la valeur de μ. Ceci permet une


coupure plus raide après la fréquence de coupure. Les filtres de Tchebytchev
sont donc plus sélectifs que ceux de Butterworth, à n identique.

46
Signaux continus Professeur K.BENKIRANE

3.c) Filtres elliptiques ou filtres de Cauer

Par rapport aux filtres précédents, les filtres elliptiques permettent de


satisfaire un gabarit avec un ordre plus faible.

Les filtres elliptiques sont caractérisés par des oscillations à la fois dans la
bande passante et dans la bande coupée. Ils permettent d’obtenir une
décroissance plus rapide que les 2 types précédents, avec un ordre inférieur.
Ceci au détriment dune complexité plus grande de conception. Ses coefficients
peuvent être déterminés par des méthodes numériques.

47
Signaux continus Professeur K.BENKIRANE

Exemple en guise de comparaison :

La simulation des différents filtres peut se faire sous Matlab en utilisant la


librairie <<Signal processing toolbox>> avec les fonctions butter, cheby1, cheby2,
ellip.

Exemple de simulation de filtre de Butterworth , Tchebychev et elliptique sous


Matlab

n = 5; % Ordre du filtre
wn = 1; % Pulsation de coupure en rad/s
% Calcul du filtre de Butterworth
[Bb,Ab] = butter(n, wn,’s’);
% Bb est le vecteur des coefficients du polynome num´erateur dont les
% termes sont ´ecrits par puissance d´ecroissante
% Ab est le vecteur des coefficients du polynome denominateur dont les
% termes sont ´ecrits par puissance d´ecroissante
% Calcul de la r´eponse fr´equentielle du filtre de Butterworth
w = 0:.001:3;
% vecteur de pulsations pour lesquelles la r´eponse fr´equentielle est
% calcul´ee.
Hb = freqs(Bb, Ab, w); % Calcul de la r´eponse fr´equentielle
figure
plot(w, abs(Hb), ’:’);
% R´epr´esentation du module de la r´eponse fr´equentielle en fonction de la
% pulsation
hold on
% Calcul du filtre de Chebyshev de type I
Rp = .5;
% Fixe l’amplitude des oscillations de l’amplitude de la r´eponse
% fr´equentielle dans la bande passante. unit´e dB
[Bc1,Ac1] = cheby1(n, Rp, wn, ’s’);
% Calcul du filtre de Chebyshev analogique de type I

% Calcul de la r´eponse fr´equentielle du filtre de Chebyshev de type I


Hc1 = freqs(Bc1, Ac1, w); % Calcul de la r´eponse fr´equentielle
plot(w, abs(Hc1));
% Calcul du filtre de Chebyshev de type II
Rs = 20;
% Permet de fixer l’amplitude des oscillations de l’amplitude
% de la r´eponse fr´equentielle dans la bande de r´ejection. Unit´e dB
[Bc2,Ac2] = cheby2(n, Rs, wn, ’s’);

48
Signaux continus Professeur K.BENKIRANE

% Calcul du filtre de Chebyshev analogique de type II


% Calcul de la r´eponse fr´equentielle du filtre de Chebyshev de type II
Hc2 = freqs(Bc2, Ac2, w); % Calcul de la r´eponse fr´equentielle
plot(w, abs(Hc2), ’-.’);
% Calcul du filtre elliptique
[Bce,Ace] = ellip (n, Rp, Rs, wn,’s’);
% Calcul de la r´eponse fr´equentielle du filtre elliptique

Hce = freqs(Bce, Ace, w);


plot(w, abs(Hce), ’--’);

On observera la différence en termes de raideur, d’atténuation et d’oscillations.


En pratique, on choisit le filtre adapté au problème que l’on veut traiter.

49
Signaux continus Professeur K.BENKIRANE

Chapitre V : Exemples de traitement du signal : Fenêtrage


; Echantillonnage et Modulation

1) Fenêtrage

1.a) Définition
De façon symétrique au filtrage fréquentiel, réaliser un « filtrage temporel »,
que l’on désignera par le terme de fenêtrage, consiste a transmettre un signal
dans certains intervalles de temps et a l’atténuer voire le supprimer dans
d’autres intervalles de temps.
Ainsi, pour observer un signal sur une durée finie, on le multiplie par une
fonction fenêtre d'observation 𝒉𝒉(𝒕𝒕) (également appelée fenêtre de pondération
0T

ou d'apodisation) qui limitera le signal entre 2 temps 0 et T. L’opération est la


suivante :
𝒔𝒔(𝒕𝒕) = 𝒆𝒆(𝒕𝒕). 𝒉𝒉(𝒕𝒕)
Ainsi, quand on multiplie un signal 𝒆𝒆(𝒕𝒕) par cette fenêtre, on n'obtient que la
partie comprise entre 0 et T de ce signal.
Au lieu d'étudier le signal 𝒆𝒆(𝒕𝒕) , on étudie le signal tronqué : 𝒔𝒔(𝒕𝒕) = 𝒆𝒆(𝒕𝒕). 𝒉𝒉(𝒕𝒕) ; en
0T

passant dans le domaine fréquentiel via une transformée de Fourier (TF), on


obtient le produit de convolution suivant :
𝑺𝑺(𝒇𝒇) = 𝑬𝑬(𝒇𝒇) ∗ 𝑯𝑯(𝒇𝒇)
L'utilisation d'une fenêtre de pondération va donc changer la transformée de
Fourier du signal.

1.b) Fenêtres d’observation :

a) Fenêtre rectangulaire (ou porte):


Elle est la plus simple des fenêtres ; Elle est décrite par l’expression suivante :
1 𝑠𝑠𝑠𝑠 𝑡𝑡 ∈ [0, 𝑇𝑇]
ℎ(𝑡𝑡) = �
0 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠

b) Fenêtre triangulaire (de Bartlett) :


Elle est décrite par l’expression suivante :

50
Signaux continus Professeur K.BENKIRANE

2t T
⎧ si t ∈ �0, �
⎪ T 2
h(t) = 2(T − t) T
⎨ si t ∈ � , T�
⎪ T 2
⎩ 0 sinon

c) Fenêtre de Hann :
Elle est décrite par l’expression suivante :
𝑡𝑡
ℎ(𝑡𝑡) = �0.5 − 0.5 cos �2𝜋𝜋 𝑇𝑇� 𝑠𝑠𝑠𝑠 𝑡𝑡 ∈ [0, 𝑇𝑇]
0 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠
d) Fenêtre de Hamming :
Elle est décrite par l’expression suivante :
𝑡𝑡
ℎ(𝑡𝑡) = � 0.54 − 0.46 cos �2𝜋𝜋 � 𝑠𝑠𝑠𝑠 𝑡𝑡 ∈ [0, 𝑇𝑇]
𝑇𝑇
0 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠
e) Fenêtre de Blackman :
Elle est décrite par l’expression suivante :
𝑡𝑡 𝑡𝑡
ℎ(𝑡𝑡) = �0.42 − 0.5 cos �2𝜋𝜋 𝑇𝑇� + 0.08 cos �4𝜋𝜋 𝑇𝑇� 𝑠𝑠𝑠𝑠 𝑡𝑡 ∈ [0, 𝑇𝑇]
0 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠

• Allure temporelle des fenêtres

51
Signaux continus Professeur K.BENKIRANE

• Allure fréquentielle des fenêtres

Les allures spectrales des fenêtres de pondérations présentent une succession


de lobes : pour se rapprocher d'une fonction de Dirac, il faut que le lobe
principal soit le plus étroit possible, tandis que les lobes secondaires doivent
être les plus faibles possible. Plus le lobe principal d'une fenêtre aura tendance à
être étroit, plus ses lobes secondaires seront importants...
Il y a donc toujours un compromis à faire entre largeur du lobe principal et
importance des lobes secondaires.
On remarque que la fenêtre rectangulaire a le lobe principal le plus étroit, mais
ses lobes secondaires sont les plus importants ; au contraire, celle de Blackman a
les plus faibles lobes secondaires, mais un lobe principal plus large. Le type de
fenêtre est à choisir selon ce qu'on souhaite observer d'un spectre : la
localisation des maximums, la localisation de l'énergie selon les fréquences, la
valeur des maximums, etc.
Voici les principales caractéristiques des fenêtres d'analyse courantes :

Bande
Perte au pire des cas
Fenêtre Lobe2aire (dB) Pente (dB/oct) passante
(dB)
(bins)
Rectangulaire -13 -6 1.21 3.92
Triangulaire -27 -12 1.78 3.07
Hann -32 -18 2.00 3.18
Hamming -43 -6 1.81 3.10
Blackman-
-67 -6 1.81 3.45
Harris 3

52
Signaux continus Professeur K.BENKIRANE

Il y en a d'autres fenêtres : Kaiser , gaussienne, flat top, en cosinus relevé, ...


1.3) Exemple

Soit le signal e(t) donné par l’expression suivante :


𝑒𝑒(𝑡𝑡) = sin⁡
(2𝜋𝜋. 𝐹𝐹. 𝑡𝑡)
Avec F=100Hz
Et on se propose d’analyser et comparer le fenêtrage de e(t) en lui appliquant les
différentes fenêtres d’apodisation de durée 500 secondes.

fenêtre de hann fenêtre de blackman fenêtre de bartlett fenêtre de hamming


1 1 1 1

0.5 0.5 0.5 0.5

0 0 0 0
0 200 400 600 0 200 400 600 0 200 400 600 0 200 400 600
spectre de hanning spectre de blackman spectre de bartlett spectre de hamming
300 300 300 300

200 200 200 200

100 100 100 100

0 0 0 0
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
sin(t)*hann sin(t)*blackman sin(t)*hamming sin(t)*bartlett
1 1 1 1

0 0 0 0

-1 -1 -1 -1
0 200 400 600 0 200 400 600 0 200 400 600 0 200 400 600
spectre de sin*hann spectre de sin*blackman
150 150 spectre de sin*hamming spectre de sin*bartlett
150 150

100 100
100 100

50 50 50 50

0 0 0 0
0 100 200 300 400 500 0 100 200 300 400 500 0 100 200 300 400 500 0 100 200 300 400 500

53
Signaux continus Professeur K.BENKIRANE

fenêtre rectangulaire
2

0
0 100 200 300 400 500 600

spectre rectangulaire
1000

500

0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5

sin(t)*rect
1

-1
0 100 200 300 400 500 600

spectre de sin*rect
400

200

0
0 50 100 150 200 250 300 350 400 450 500

2) Echantillonnage

L’échantillonnage consiste à prélever à des instants précis, le plus souvent


équidistants, les valeurs instantanées d’un signal. Le signal analogique x(t),
continu dans le temps, est alors représenté par un ensemble de valeurs
discrètes : xe(t) = x(n.Te) avec n entier ;Te est appelée période
d’échantillonnage.
Cette opération est réalisée par un échantillonneur souvent symbolisé par
un interrupteur.

On obtient un signal échantillonné défini seulement aux instants nTe.

54
Signaux continus Professeur K.BENKIRANE

a) Echantillonnage idéal
Le signal échantillonné idéalement x e (t) s’écrit :
+∞ +∞

𝑥𝑥𝑒𝑒 (𝑡𝑡) = 𝑥𝑥(𝑡𝑡). ш𝑇𝑇𝑇𝑇 = 𝑥𝑥(𝑡𝑡). � 𝛿𝛿(𝑡𝑡 − 𝑛𝑛𝑇𝑇𝑒𝑒 ) = � 𝑥𝑥(𝑛𝑛𝑇𝑇𝑒𝑒 )𝛿𝛿(𝑡𝑡 − 𝑛𝑛𝑇𝑇𝑒𝑒 )
𝑛𝑛=−∞ 𝑛𝑛=−∞

Pour déterminer le spectre d'un signal échantillonné, la meilleure façon est


d'utiliser la fonction d'échantillonnage constituée d'un train d'impulsion de Dirac
ш𝑇𝑇𝑇𝑇 appelée peigne de Dirac

Le spectre de x e (t) est donné par la transformée de Fourier :


+∞ +∞
1 1
𝑋𝑋𝑒𝑒 (𝑓𝑓) = 𝑥𝑥(𝑡𝑡) ∗ � 𝛿𝛿(𝑓𝑓 − 𝑛𝑛𝑓𝑓𝑒𝑒 ) = � 𝑋𝑋(𝑓𝑓 − 𝑛𝑛𝑓𝑓𝑒𝑒 )
𝑇𝑇𝑒𝑒 𝑇𝑇𝑒𝑒
𝑛𝑛 =−∞ 𝑛𝑛=−∞

Le spectre d'un signal échantillonné est un spectre continu, périodique de


période fe. Il est constitué par la répétition à l’infini avec la période fe du
spectre du signal analogique d'origine.

Remarques :

- On voit sur le spectre du signal échantillonné qu’il est possible de restituer le


signal original par un simple filtrage passe-bas.

- Si f M , la fréquence maximale du spectre du signal à échantillonner, est


supérieure à fe/2, la restitution du signal original sera impossible car il va
apparaître un recouvrement spectral lors de l’échantillonnage. On dit qu’il y a
sous-échantillonnage.

55
Signaux continus Professeur K.BENKIRANE

Le théorème de SHANNON montre que la reconstitution correcte d’un signal


nécessite que la fréquence d’échantillonnage fe soit au moins deux fois plus
grande que la plus grande des fréquences f M du spectre du signal : fe≻2 f M

- Lorsqu’il y a recouvrement spectral, il est impossible de reconstruire


correctement le signal. Pourtant dans la plupart des situations, le spectre du
signal à échantillonner s'étale sur tout le domaine des fréquences (tout en
diminuant du coté des hautes fréquences), mais il n'existe pas une fréquence
f max au-delà de laquelle l'énergie est nulle. Il y a donc un problème pour choisir la
fréquence d'échantillonnage. On se fixe donc en pratique une f max à partir de
laquelle on estime la représentation de notre signal satisfaisante pour les
applications que l’on veut en faire. Puis on effectue un filtrage passe-bas (à
fmax) avant l’échantillonnage afin de remédier aux repliements de spectre. On
appelle ce filtre un filtre antirepliement.

Exemple : la parole.

Le spectre des sons audibles s'étend jusqu'à environ20kHz. Dans le cas des CD
audio, le signal est échantillonné à 44.1 kHz, alors que dans le cas du téléphone
numérique le signal est échantillonné à 8 kHz seulement. En effet, en téléphonie,
on estime que le message est compréhensible pourvu que les composantes basses
fréquences soient transmises correctement alors que l’on veut conserver tous les
harmoniques pour avoir un son de qualité en audio. On limite ainsi le spectre à
22.05 kHz pour un CD audio et à 4 kHz pour la téléphonie (3.4kHz en pratique).

- Si fe>2fc, il y a sur-échantillonnage. Alors les motifs successifs obtenus par


périodisation du spectre sont disjoints et éloignés l’un de l’autre. Le filtrage
passe-bas pour la récupération du signal est facilité. Plus on prendra
d’échantillons par période, plus le signal sera facile à reconstruire.

56
Signaux continus Professeur K.BENKIRANE

b) RECONSTITUTION DU SIGNAL CONTINU A PARTIR DU SIGNAL


ECHANTILLONNE

Le spectre X(f) du signal analogique x(t) peut être facilement extrait du spectre
Xe(f) par troncature c.a.d. en multipliant celui-ci par une fenêtre carrée
d'amplitude 1 et qui s'étend de –fe /2 à + fe /2.

𝑓𝑓
𝑋𝑋(𝑓𝑓) = 𝑇𝑇𝑒𝑒 . 𝑋𝑋𝑒𝑒 (𝑓𝑓). 𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟( )
𝑓𝑓𝑓𝑓

En appliquant la transformée de Fourier inverse on obtient :

𝑥𝑥(𝑡𝑡) = 𝑇𝑇𝑒𝑒 . 𝑥𝑥𝑒𝑒 (𝑡𝑡) ∗ 𝑓𝑓𝑒𝑒 . 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠(𝑓𝑓𝑒𝑒 . 𝑡𝑡)


+∞ +∞
𝑡𝑡 − 𝑛𝑛𝑇𝑇𝑒𝑒
= � 𝑥𝑥(𝑛𝑛𝑇𝑇𝑒𝑒 ). 𝛿𝛿(𝑡𝑡 − 𝑛𝑛𝑇𝑇𝑒𝑒 ) ∗ 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠(𝑓𝑓𝑒𝑒 𝑡𝑡) = � 𝑥𝑥(𝑛𝑛𝑇𝑇𝑒𝑒 ). 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠( )
𝑇𝑇𝑒𝑒
𝑛𝑛 =−∞ 𝑛𝑛=−∞

Un signal analogique peut être reconstitué à partir de sa version échantillonnée


en additionnant à l'infini des fonctions sinc(t/Te). Chacune étant centrée sur
l'instant kTe, et ayant l'amplitude m(kTe). C'est pour cette raison que la
fonction sinc(t) est souvent appelée fonction d'interpolation.

Exemples de simulation de l’échantillonnage sous matlab

1- >> %===== echant.m echantillonnage de sinus


F0=100; % frequence en Herz du sinus
%===== signal en "temps continu"
Fc=10000; tpscont=[0:1/Fc:2/F0];
xtc=sin(2*pi*F0*tpscont);
plot(tpscont,xtc), grid
%===== signal en "temps discret"
Fe=450; % frequence d’echantillonnage
tpsdisc=[0:1/Fe:2/F0];
xn=sin(2*pi*F0*tpsdisc);
hold on, plot(tpsdisc,xn,'o'), hold off

57
Signaux continus Professeur K.BENKIRANE

0.8

0.6

0.4

0.2

-0.2

-0.4

-0.6

-0.8

-1
0 0.002 0.004 0.006 0.008 0.01 0.012 0.014 0.016 0.018 0.02

2-% Echantillonage
clear
close all
Fe=8000; %Frq d'échantillonage
Fo=50; %Frq du signal
t1=2/Fo; %Abscisse de 2eme periode
k=[0:1/Fe:t1]; %Le nombre de d'echantillons
s= sin (2*pi*Fo*k); %Le signal
plot(k,s); %Traçage du signal

b= randn(size(s)); %Vecteur aléatoire de mm dimension que s


hist(b); %Traçage du signal

subplot(3,1,1); %Decoupage en 3 de la page utilisation de la 1re partie


plot(k,s); %Traçage du signal
subplot(3,1,2); %Decoupage en 3 de la page utilisation de la 2nd partie
hist(b); %Traçage du signal
subplot(3,1,3); %Decoupage en 3 de la page utilisation de la derniere partie
z= s+b; %Nouveau signal
plot(z); %Tracage du nouveau signal qui est un 's' bruité

N=length(s);
f=[0:N-1]*Fe/N; % L'echelle en frequence
F1=fft(z); %FFT du signal bruité
F2=fft(s); %FFT du sinus

subplot(2,1,1) %Decoupage en 2 de la page utilisation de la 1re partie

58
Signaux continus Professeur K.BENKIRANE

plot(f,abs(F1)) %Tracage de la fft du sinus


subplot(2,1,2) %Decoupage en 2 de la page utilisation de la derniere partie
plot(f,abs(F2)) %Tracage de la fft du signal bruité

200

150

100

50

0
0 1000 2000 3000 4000 5000 6000 7000 8000

200

150 X: 49.84
Y: 160.2

100

50

0
0 1000 2000 3000 4000 5000 6000 7000 8000

c) Echantillonnage réel

En pratique, l’échantillonnage s’effectue en commandant un interrupteur par un


train d’impulsions étroites. Il est donc impossible d’obtenir des échantillons de
durée quasiment nulle. La modélisation de l’échantillonnage par un peigne de Dirac
est donc erronée. En fait, chaque impulsion va avoir une durée très courte 𝜏𝜏.
L’échantillonnage peut donc être modélisé par la multiplication du signal par une
suite de fonction rectangle (ou porte) de largeur τ.

59
Signaux continus Professeur K.BENKIRANE

L’expression du signal d’échantillonnage devient donc :


𝑘𝑘=+∞ 𝑘𝑘=+∞

𝑦𝑦(𝑡𝑡) = � 𝜋𝜋𝜏𝜏 ( 𝑡𝑡 − 𝑘𝑘𝑇𝑇𝑒𝑒 ) = 𝜋𝜋𝜏𝜏 (𝑡𝑡) ∗ � 𝛿𝛿( 𝑡𝑡 − 𝑘𝑘𝑇𝑇𝑒𝑒 )


𝑘𝑘=−∞ 𝑘𝑘=−∞

Et par conséquent, sa transformée de Fourier est égale à :


𝑘𝑘=+∞
1
𝑌𝑌(𝑓𝑓) = 𝜏𝜏. 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠(𝜏𝜏𝜏𝜏). � 𝛿𝛿(𝑓𝑓 − 𝑘𝑘𝑓𝑓𝑒𝑒 )
𝑇𝑇𝑒𝑒
𝑘𝑘=−∞

Comme l’expression du signal échantillonné est :𝑥𝑥𝑒𝑒 (𝑡𝑡) = 𝑥𝑥(𝑡𝑡). 𝑦𝑦(𝑡𝑡)

Sa transformée de Fourier devient :


𝑘𝑘=+∞
𝜏𝜏
𝑋𝑋𝑒𝑒 (𝑓𝑓) = 𝑋𝑋(𝑓𝑓) ∗ 𝑌𝑌(𝑓𝑓) = 𝑋𝑋(𝑓𝑓) ∗ . 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠(𝜏𝜏𝜏𝜏). � 𝛿𝛿(𝑓𝑓 − 𝑘𝑘𝑓𝑓𝑒𝑒 )
𝑇𝑇𝑒𝑒
𝑘𝑘=−∞

𝑘𝑘=+∞
𝜏𝜏
𝑋𝑋𝑒𝑒 (𝑓𝑓) = � 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠(𝑘𝑘𝑘𝑘𝑓𝑓𝑒𝑒 ). 𝑋𝑋(𝑓𝑓 − 𝑘𝑘𝑓𝑓𝑒𝑒 )
𝑇𝑇𝑒𝑒
𝑘𝑘=−∞

On retrouve la même allure de spectre modulé en amplitude par une fonction en


sinus cardinal.

Remarque :

Pour se rapprocher d’un échantillonnage idéal et qu’ainsi le signal soit facilement


reconstructible, il faut que 𝜏𝜏 soit le plus petit possible.

3) Modulation

Il existe deux modes de transmission des signaux :


• transmission en bande de base : les signaux sont transmis tels qu’ils
sortent de la source, c’est-à-dire dans leur bande de fréquence originale.
Cette technique est utilisée chaque fois que le milieu de transmission
convient au sens des domaines fréquentiels et que les conditions économiques

60
Signaux continus Professeur K.BENKIRANE

permettent de consacrer un support physique à chaque communication


(exemple : réseaux locaux informatiques) ;
• transmission par modulation : cette opération consiste à transposer un
signal en un autre signal contenant la même information, mais avec une
modification en fréquence du signal.
La transmission par modulation présente essentiellement deux avantages :
– le multiplexage fréquentiel : utilisation du même support de transmission
par plusieurs communications ;
– l’adaptation aux conditions particulières d’un milieu de transmission:
insensibilisation aux parasites, augmentation des distances de propagation, etc...

Exemple : modulation d’amplitude


L’onde porteuse étant définie par : 𝒑𝒑(𝒕𝒕) = 𝑨𝑨. 𝒄𝒄𝒄𝒄𝒄𝒄(𝛀𝛀 𝐭𝐭)
et le signal modulant 𝑠𝑠(𝑡𝑡) à transmettre vérifiant la propriété
|𝑠𝑠(𝑡𝑡)|𝑚𝑚𝑚𝑚𝑚𝑚 ≤ 1, l’expression du signal modulé en amplitude 𝑠𝑠𝐴𝐴𝐴𝐴 (𝑡𝑡) s’écrit sous la
forme suivante :
𝒔𝒔𝑨𝑨𝑨𝑨 (𝒕𝒕) = 𝑨𝑨. [𝟏𝟏 + 𝒎𝒎. 𝒔𝒔(𝒕𝒕)]𝒄𝒄𝒄𝒄𝒄𝒄(𝛀𝛀 𝐭𝐭)
où m est le taux de modulation, nombre compris entre 0 et 1 tel que l’expression
entre crochets soit toujours positive.

Dans le cas où l’amplitude maximale du signal s(t) est égale à 1, l’amplitude


positive de l’onde porteuse varie de A(1 + m) à A(1 −m) et l’amplitude négative
entre −A(1 + m) et −A(1 −m).On parlera d’enveloppe du signal modulé.

Étude spectrale d’un signal modulé en amplitude


Cas particulier : 𝒔𝒔(𝒕𝒕) = 𝒄𝒄𝒄𝒄𝒄𝒄(𝝎𝝎. 𝒕𝒕) 𝝎𝝎 ≪ 𝛀𝛀
Dans ce cas particulier, nous pouvons écrire la relation suivante :

𝒔𝒔𝑨𝑨𝑨𝑨 (𝒕𝒕) = 𝑨𝑨. [𝟏𝟏 + 𝒎𝒎. 𝒄𝒄𝒄𝒄𝒄𝒄(𝝎𝝎. 𝒕𝒕)]𝒄𝒄𝒄𝒄𝒄𝒄(𝛀𝛀 𝐭𝐭)

𝒎𝒎𝒎𝒎
𝒔𝒔𝑨𝑨𝑨𝑨 (𝒕𝒕) = 𝑨𝑨. 𝒄𝒄𝒄𝒄𝒄𝒄(𝛀𝛀 𝐭𝐭) + [𝒄𝒄𝒄𝒄𝒄𝒄(𝛀𝛀 + 𝛚𝛚)𝒕𝒕 + 𝒄𝒄𝒄𝒄𝒄𝒄(𝛀𝛀 − 𝛚𝛚)𝒕𝒕]
𝟐𝟐

La transformée de Fourier TF(s AM ( t)) s’écrit :

𝐀𝐀
𝐒𝐒𝐀𝐀𝐀𝐀 (𝐟𝐟) = �𝛅𝛅�𝐟𝐟 − 𝐟𝐟𝐩𝐩 � + 𝛅𝛅�𝐟𝐟 + 𝐟𝐟𝐩𝐩 ��
𝟐𝟐
𝐦𝐦𝐦𝐦
+ �𝛅𝛅�𝐟𝐟 − 𝐟𝐟𝐩𝐩 − 𝐟𝐟𝐁𝐁𝐁𝐁 � + 𝛅𝛅�𝐟𝐟 + 𝐟𝐟𝐩𝐩 − 𝐟𝐟𝐁𝐁𝐁𝐁 � + 𝛅𝛅�𝐟𝐟 − 𝐟𝐟𝐩𝐩 + 𝐟𝐟𝐁𝐁𝐁𝐁 �
𝟒𝟒
+ 𝛅𝛅�𝐟𝐟 + 𝐟𝐟𝐩𝐩 + 𝐟𝐟𝐁𝐁𝐁𝐁 ��

61
Signaux continus Professeur K.BENKIRANE

Le spectre unilatéral correspondant est composé de trois raies : une à la


fréquence porteuse fp et deux raies latérales espacées de la fréquence de
modulation f BF .

62
Signaux continus Professeur K.BENKIRANE

Chapitre VI : Introduction aux signaux aléatoires

1. Généralités sur les signaux aléatoires continus

Les signaux aléatoires sont des signaux qu’on ne peut prédire complètement
avant de les avoir observés. Ils sont à opposer aux signaux déterministes, qui,
moyennant la donnée d’un certain nombre de conditions initiales, sont
parfaitement prévisibles. Les signaux aléatoires, comme les signaux
déterministes peuvent servir de support physique à l’information.
Exemples : bruits en électronique (thermiques, de grenaille, etc.) ; fluctuations
observées dans les résultats de la mesure d’un paramètre physique ; signaux de
parole; signaux biologiques : EEG, ECG, Bourse ...

Une expérience aléatoire est une expérience pouvant conduire à plusieurs


résultats possibles et dont le résultat ne peut être prévu avec certitude. Cela
signifie que si l'on répète plusieurs fois la même expérience, on obtient à chaque
fois un résultat bien défini mais qui n'est pas toujours le même. L'ensemble des
résultats possibles sera noté ξ.
A un signal réel x(t) aléatoire, on peut associer une variable aléatoire X(t), qui
correspond à l'ensemble des valeurs que peut prendre x à l'instant t. On peut
dès lors étudier la statistique de cette variable, en procédant à n expériences et
en faisant l'analyse de n valeurs obtenues à l'instant t.

Un signal aléatoire X(t, ξ) peut être considéré sous deux points de vue :
 Le point de vue temporelle
 Le point de vue statistique

63
Signaux continus Professeur K.BENKIRANE

Remarque :

• Les signaux déterministes à temps continu sont représentés par des


fonctions (ou des distributions), les signaux déterministes à temps discret
par des suites numériques.
• Par contre, la représentation des signaux aléatoires passe par la notion de
processus aléatoire (ou processus stochastique) : processus aléatoires à
temps continu (ou fonctions aléatoires) ; processus aléatoires à temps
discrets (ou suites aléatoires).

2. Définition

Une variable aléatoire X est une quantité dont la valeur x dépend du hasard
par l’intermédiaire d’une loi de probabilité ou une distribution p X (x).

Une variable aléatoire réelle X est une application de l’ensemble des


possibles dans un ensemble inclus dans R. Elle est caractérisée par une
fonction de répartition F X qui est la probabilité pour que X soit inférieure
ou égale à un réel x :

𝑥𝑥
𝐹𝐹𝑋𝑋 (𝑥𝑥) = 𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃[𝑋𝑋 ≤ 𝑥𝑥] = 𝑝𝑝(𝑋𝑋 ≤ 𝑥𝑥) = � 𝑝𝑝(𝑥𝑥) . 𝑑𝑑𝑑𝑑
−∞
Au lieu de dresser la liste des évènements possibles, affectés chacun de
leur probabilité, on préfère souvent exprimer la probabilité pour que la
variable aléatoire soit inférieure à 1 seuil.

 𝐹𝐹(𝑥𝑥) est appelée fonction de répartition de la v.a.x


Avec 𝐹𝐹(−∞) = 0 𝑒𝑒𝑒𝑒 𝐹𝐹(+∞) = 1
𝑏𝑏
𝑝𝑝(𝑎𝑎 < 𝑋𝑋 < 𝑏𝑏) = � 𝑝𝑝(𝑥𝑥) . 𝑑𝑑𝑑𝑑 = 𝐹𝐹(𝑏𝑏) − 𝐹𝐹(𝑎𝑎)
𝑎𝑎

 Densité de probabilité :
La densité de probabilité p x mène à la probabilité pour que la variable aléatoire X
prenne des valeurs comprises entre x et x + dx :
𝑝𝑝𝑋𝑋 (𝑥𝑥)𝑑𝑑𝑑𝑑 = 𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃(𝑥𝑥 ≤ 𝑋𝑋 ≤ 𝑥𝑥 + 𝑑𝑑𝑑𝑑) = 𝑑𝑑𝑑𝑑𝑋𝑋 (𝑥𝑥)

64
Signaux continus Professeur K.BENKIRANE

Elle satisfait la relation :


+∞
� 𝑝𝑝𝑋𝑋 (𝑥𝑥) . 𝑑𝑑𝑑𝑑 = 1
−∞

Exemples de densité de probabilité:


• la loi uniforme et la loi gaussienne

3. Moments d'une variable aléatoire


Une variable aléatoire est caractérisée par ses moments statistiques 𝐸𝐸[𝑋𝑋 𝑁𝑁 ]
d’ordre N définis par :
+∞
𝑁𝑁 ]
𝐸𝐸[𝑋𝑋 =� 𝑥𝑥 𝑁𝑁 𝑝𝑝𝑋𝑋 (𝑥𝑥) . 𝑑𝑑𝑑𝑑
−∞

Les deux premiers moments sont importants :


– N = 1 : premier moment ou moyenne statistique :
+∞

𝐸𝐸(𝑋𝑋) = � 𝑥𝑥. 𝑝𝑝𝑋𝑋 (𝑥𝑥) 𝑑𝑑𝑑𝑑 = 𝑚𝑚


−∞

𝐸𝐸(𝑋𝑋) est appelé : L’espérance mathématique de X

– N = 2 : second moment : il permet de définir la variance :


La variance de X est le nombre V (X) défini par :

𝑉𝑉(𝑋𝑋) = 𝐸𝐸[(𝑋𝑋 − 𝐸𝐸[𝑋𝑋])2 ]


On démontre que :
𝑉𝑉(𝑋𝑋) = 𝐸𝐸[𝑋𝑋 2 ] − 𝐸𝐸[𝑋𝑋]2

65
Signaux continus Professeur K.BENKIRANE

Exemple :

L’écart-type de X est le nombre 𝜎𝜎(𝑋𝑋) défini par :


𝜎𝜎(𝑋𝑋) = �𝑉𝑉(𝑋𝑋)

4. Corrélation statistique
Pour un instant t 0 fixé, le processus aléatoire X(t, ξ) devient une variable
aléatoire X(t 0 , ξ)

la fonction d’autocorrélation statistique R 𝑥𝑥𝑥𝑥 (𝑡𝑡1 , 𝑡𝑡2 , ξ ).

Γ𝑥𝑥 (𝜏𝜏 ) = R 𝑥𝑥𝑥𝑥 (𝑡𝑡1 , 𝑡𝑡2 , ξ) = 〈𝑋𝑋(𝑡𝑡1 , ξ). 𝑋𝑋(𝑡𝑡2 , ξ)〉 = 𝐸𝐸[𝑋𝑋(𝑡𝑡1 , ξ). 𝑋𝑋(𝑡𝑡2 , ξ)]

5. Stationnarité au sens large (ordre 2)


Un signal aléatoire est dit stationnaire si toutes ses propriétés
statistiques, à tous les ordres, sont invariantes dans le temps. C’est-à-dire que
les deux signaux X(t) et Y(t) = X(t + t) ont les mêmes propriétés statistiques.
Le processus aléatoire X(t, ξ) en abrégé X(t).

On appelle processus aléatoire stationnaire (au sens strict), un processus ou le


signal X(t, ξ) (en abrégé X(t)) pour lequel les moments sont indépendants du
temps. Pour ce signal, toutes les variables aléatoires X(ti) ont même densité de
probabilité p x .
Un signal aléatoire est dit stationnaire au sens large (SSL) si sa moyenne
statistique est indépendante du temps et si sa fonction d’auto-corrélation n’est
fonction que de l’écart temporel :
𝐸𝐸[𝑋𝑋(𝑡𝑡)] = 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐; 𝑒𝑒𝑒𝑒 Γ𝑥𝑥𝑥𝑥 (𝑡𝑡1 , 𝑡𝑡2 ) = Γ𝑥𝑥𝑥𝑥 (𝑡𝑡1 − 𝑡𝑡2 )

66
Signaux continus Professeur K.BENKIRANE

5. Ergodisme
Un processus aléatoire est dit ergodique lorsque les moyennes temporelles de
tous les échantillons existent et sont indépendantes de l’échantillon.
Un signal aléatoire est dit ergodique si ses valeurs moyennes statistiques sont
identiques à ses valeurs moyennes temporelles.
Les moyennes temporelles se confondent avec les moments statistiques :

𝑇𝑇
1 2
< 𝑥𝑥 >= lim � 𝑥𝑥(𝑡𝑡). 𝑑𝑑𝑑𝑑 = 𝐸𝐸[𝑋𝑋]
𝑇𝑇→∞ 𝑇𝑇 −𝑇𝑇
2

𝑇𝑇
1 2
< 𝑥𝑥 2 >= lim � 𝑥𝑥 2 (𝑡𝑡). 𝑑𝑑𝑑𝑑 = 𝐸𝐸[𝑋𝑋 2 ]
𝑇𝑇→∞ 𝑇𝑇 −𝑇𝑇
2

𝑇𝑇
1 2
< 𝑋𝑋(𝑡𝑡, 𝜉𝜉0 ) >= lim � 𝑋𝑋(𝑡𝑡, 𝜉𝜉0 ). 𝑑𝑑𝑑𝑑 = 𝐸𝐸[𝑋𝑋(𝑡𝑡, 𝜉𝜉0 )]
𝑇𝑇→∞ 𝑇𝑇 −𝑇𝑇
2
𝑇𝑇
1 2
Γ𝑥𝑥𝑥𝑥 (𝜏𝜏, ξ0 ) = 〈𝑋𝑋(𝑡𝑡, ξ0 ). 𝑋𝑋(𝑡𝑡 − 𝜏𝜏, ξ0 )〉 = lim � 𝑋𝑋(𝑡𝑡, ξ0 ). 𝑋𝑋(𝑡𝑡 − 𝜏𝜏, ξ0 )𝑑𝑑𝑑𝑑
𝑇𝑇→∞ 𝑇𝑇 −𝑇𝑇
2
= 𝐸𝐸[𝑋𝑋(𝑡𝑡1 , ξ). 𝑋𝑋(𝑡𝑡2 , ξ)]

67
Signaux continus Professeur K.BENKIRANE

Alors, le processus étudié est dit ergodique.


La seule classe de processus aléatoires que nous retiendrons pour la pratique en
théorie du signal est celle des processus à la fois stationnaires et ergodiques.

6. Autocorrélation statistique et densité spectrale de puissance

 Autocorrélation statistique
La fonction d’autocorrélation statistique d’un signal aléatoire X(t) est définie
par :
Γ𝑥𝑥 (𝜏𝜏 ) = R 𝑥𝑥𝑥𝑥 (𝑡𝑡1 , 𝑡𝑡2 , ξ) = 〈𝑋𝑋(𝑡𝑡1 , ξ). 𝑋𝑋(𝑡𝑡2 , ξ)〉 = 𝐸𝐸[𝑋𝑋(𝑡𝑡1 , ξ). 𝑋𝑋(𝑡𝑡2 , ξ)]

+∞ +∞
Γ𝑥𝑥 (𝑡𝑡1 , 𝑡𝑡2 ) = � � 𝑋𝑋(𝑡𝑡1 ) . 𝑋𝑋(𝑡𝑡2 ). 𝑝𝑝(𝑥𝑥1 , 𝑡𝑡1 ; 𝑥𝑥2 , 𝑡𝑡2 ) 𝑑𝑑𝑥𝑥1 𝑑𝑑𝑥𝑥2
−∞ −∞
= 〈𝑋𝑋(𝑡𝑡1 , ξ). 𝑋𝑋(𝑡𝑡2 , ξ)〉 = 𝐸𝐸[𝑋𝑋(𝑡𝑡1 , ξ). 𝑋𝑋(𝑡𝑡2 , ξ)]

Il est mathématiquement délicat de définir l’analogue de la transformée de


Fourier pour un signal aléatoire. On raisonne plutôt sur les moments
statistiques du signal aléatoire, supposé stationnaire au sens large.
La représentation spectrale dans le domaine des fréquences remplace le
signal aléatoire stationnaire X(t) par le signal déterministe R xx (t). Elle
mesure la répartition de puissance dans le domaine des fréquences.
Soit x(t) un signal aléatoire réel ou complexe stationnaire au second ordre. Sa
fonction d’auto-corrélation s’écrit :

𝐑𝐑 𝒙𝒙𝒙𝒙 (𝝉𝝉 ) = 〈𝑿𝑿(𝒕𝒕). 𝑿𝑿(𝒕𝒕 − 𝝉𝝉)〉 = 𝑬𝑬[𝑿𝑿(𝒕𝒕). 𝑿𝑿(𝒕𝒕 − 𝝉𝝉)]

 Densité spectrale de puissance

Pour un signal aléatoire stationnaire X(t), son comportement est indépendant du


temps, jusqu’à l’infini, il est comparable aux signaux déterministes à énergie
infinie.

𝑿𝑿𝑻𝑻 (𝒇𝒇)𝑿𝑿∗𝑻𝑻 (𝒇𝒇)


𝑺𝑺𝒙𝒙 (𝒇𝒇) = 𝐥𝐥𝐥𝐥𝐥𝐥
𝑻𝑻→∞ 𝑻𝑻

X T (f) représente la transformée de Fourier du signal tronqué.

68
Signaux continus Professeur K.BENKIRANE

Nous savons que pour un signal déterministe, sa densité spectrale d’énergie, ou


de puissance, est égale à la transformée de Fourier de son autocorrélation.
Pour les signaux aléatoires stationnaires nous avons le théorème de Wiener-
Khintchine :
La densité spectrale de puissance d’un signal aléatoire stationnaire est égale à la
transformée de Fourier de sa fonction d’autocorrélation statistique :

𝑺𝑺𝒙𝒙 (𝒇𝒇) = 𝑻𝑻𝑻𝑻{𝑹𝑹𝒙𝒙 (𝝉𝝉)}

𝑹𝑹𝒙𝒙 (𝝉𝝉) = 𝑻𝑻𝑻𝑻−𝟏𝟏 {𝑺𝑺𝒙𝒙 (𝒇𝒇)}


𝑻𝑻𝑻𝑻
𝑺𝑺𝒙𝒙 (𝒇𝒇) ⇔ 𝑹𝑹𝒙𝒙 (𝝉𝝉)
+∞
𝑺𝑺𝒙𝒙 (𝒇𝒇) = � 𝑹𝑹𝒙𝒙 (𝝉𝝉) 𝒆𝒆−𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋 𝒅𝒅𝒅𝒅
−∞

+∞
𝑹𝑹𝒙𝒙 (𝝉𝝉) = � 𝑺𝑺𝒙𝒙 (𝒇𝒇) 𝒆𝒆𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋𝒋 𝒅𝒅𝒅𝒅
−∞

On aura alors :
+∞
𝟐𝟐
𝑬𝑬�𝑿𝑿 � = 𝑹𝑹𝒙𝒙 (𝟎𝟎) = � 𝑺𝑺𝒙𝒙 (𝒇𝒇) 𝒅𝒅𝒅𝒅
−∞

L’espérance mathématique de la puissance du signal aléatoire est égale à


l’intégrale sur tout le spectre en fréquence de la densité spectrale de puissance.
La définition est donc cohérente.

En pratique la densité spectrale de puissance d’un processus stochastique peut


être obtenue en calculant la valeur moyenne d’un grand nombre de
périodogrammes.

Exemples de processus aléatoire classique

Exemple 1
On considère le signal aléatoire défini par :

𝑋𝑋(𝑡𝑡) = 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴(𝜔𝜔𝜔𝜔 + 𝜑𝜑)

𝐴𝐴 𝑒𝑒𝑒𝑒 𝜔𝜔 sont des constantes, alors que la phase 𝜑𝜑 est une variable aléatoire
répartie uniformément sur [0, 2Π]
On s’intéresse au signal sinusoïdal à phase aléatoire Φ. Étudions la stationnarité
et l’ergodisme de X(t). Le caractère aléatoire de X(t) est uniquement dû à la
variable aléatoire Φ dont on cherchera sa densité de probabilité.

69
Signaux continus Professeur K.BENKIRANE

Notons Φ (t) la phase instantanée modulo 2 Π:

∅(𝑡𝑡) = 𝜔𝜔𝜔𝜔 + 𝜑𝜑 (2𝜋𝜋)

• Calcul de la fonction de répartition F(X) et de la densité de probabilité


p(x,t)
𝐹𝐹(𝑋𝑋, 𝑡𝑡) = 𝑃𝑃[𝑋𝑋(𝑡𝑡) ≤ 𝑥𝑥]
Cherchons tout d’abord le domaine de définition de la phase instantanée Φ (t)
pour que :

𝑋𝑋(𝑡𝑡) = 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴[∅(𝑡𝑡)] ≤ 𝑥𝑥

Nous pouvons distinguer à partir de la figure ci-dessus quatre cas :

A un instant t donné, la phase instantanée est une variable aléatoire


uniformément distribuée sur [0, 2Π[. Dans chacun des cas la probabilité est
donc proportionnelle à la largeur du domaine de définition. Le calcul se résume à :

70
Signaux continus Professeur K.BENKIRANE

La fonction de répartition et la densité de probabilité ne dépendant pas du


temps : le signal est stationnaire, en effet les deux premiers moments montrent
cette stationnarité :

71
Signaux continus Professeur K.BENKIRANE

Analysons l’ergodicité, pour cela calculons les moyennes temporelles (valeurs


moyenne et efficace) correspondantes pour un échantillon quelconque et
comparons.
La moyenne est nulle :

Calculons la puissance moyenne :

Donc, Le signal est ergodique.

Calculons la fonction d’autocorrélation statistique :

Le signal étant stationnaire, la fonction d’autocorrélation statistique ne dépend


que de l’intervalle séparant les deux instants t 1 et t 2 .
Nous constatons que les fonctions d’autocorrélation statistique et temporelle
sont identiques.
Conclusion : Le signal sinusoïdal à phase aléatoire et uniformément répartie sur
[0, 2π] fournit un excellent exemple de processus à la fois stationnaire et
ergodique.
Dans une application ergodique, moyenne spatiale et moyenne temporelle sont
égales presque partout.

72
Signaux continus Professeur K.BENKIRANE

Exemple 2
Considérons le signal aléatoire défini par :
𝑋𝑋(𝑡𝑡) = 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴(𝜔𝜔𝜔𝜔)

Où A est une variable aléatoire gaussienne centrée, de variance 𝜎𝜎 2 et où 𝜔𝜔 est


une constante.
Ce signal est-il stationnaire ? Est-il ergodique ?

• Pour cela, calculons l’espérance mathématique et la variance:

Le moment d’ordre 2 n’est pas indépendant du temps. Le signal n’est donc pas
stationnaire.
• Maintenant, comparons ces moyennes statistiques aux moyennes
temporelles évaluées sur un échantillon :

Le signal n’est pas ergodique.

• Calculons la fonction d’autocorrélation statistique :

R X (t 1 ,t 2 ) ne dépend pas que de la différence t 2 – t 1 .

73
Signaux continus Professeur K.BENKIRANE

Exemple 3

On considère un signal aléatoire (courbe verte) défini de la manière suivante :


- constant sur chaque intervalle [t n , tn +1 [ avec t n = θ + n ∆t ;
- θ est aléatoire avec une densité de probabilité uniforme sur [0, ∆t[ ;
- sur chaque intervalle l’amplitude aléatoire suit une distribution uniforme entre
–1 et +1 ;
- les amplitudes sont indépendantes d’un intervalle à un autre.

• Calcul des moments statistiques d’ordre 1 et 2

Le signal est donc stationnaire d’ordre 2. Il est évident que les moments
d’ordres supérieurs sont également indépendants du temps, il est donc
stationnaire au sens strict.
• Calcul des moyennes temporelles

Or

La valeur moyenne s’écrit :

74
Signaux continus Professeur K.BENKIRANE

De même pour la variance nous avons :

Le signal est donc ergodique.

• Calcul de la fonction d’autocorrélation statistique de ce signal


stationnaire
R𝑋𝑋 (𝜏𝜏 ) = 𝐸𝐸[𝑋𝑋(𝑡𝑡). 𝑋𝑋(𝑡𝑡 + 𝜏𝜏)]
Clairement si les instants sont séparés de plus de Δt les variables aléatoires x(t)
et x(t+τ) sont indépendantes, donc :

De manière générale nous avons :

Pour 𝜏𝜏 positif, le premier cas correspond à 𝑡𝑡𝑛𝑛 < 𝑡𝑡 < 𝑡𝑡𝑛𝑛 +1 − 𝜏𝜏 , et pour t négatif
cela correspond à 𝑡𝑡𝑛𝑛 + 𝜏𝜏 < 𝑡𝑡 < 𝑡𝑡𝑛𝑛 +1 . Nous sommes donc dans le premier cas si t se
trouve dans un intervalle de temps de largeur de ∆𝑡𝑡 − 𝜏𝜏. Nous pouvons donc
écrire :

C’est la fonction triangle

75
Signaux continus Professeur K.BENKIRANE

Fonction d’autocorrélation statistique du signal aléatoire

• La densité spectrale du signal aléatoire s’écrit:

Densité spectrale du signal aléatoire


Un signal aléatoire stationnaire et ergodique est nécessairement a puissance
finie.

76
Signaux continus Professeur K.BENKIRANE

Exemples se densité spectrale de puissance S xx (f) de signaux aléatoires


usuels

 Signal binaire en mode NRZ (Non Remise à Zéro)

Une source binaire x(t) émet un bit par T seconde (débit binaire D=1/T
bits/s). 0 correspond à une tension x 0 et 1 à une tension x 1 .

𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃[0] = 𝑝𝑝 𝑒𝑒𝑒𝑒 𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃[1] = 1 − 𝑝𝑝

𝑓𝑓
𝑆𝑆𝑥𝑥 (𝑓𝑓) = 𝜎𝜎𝑋𝑋2 𝑇𝑇𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠 2 � � + 〈𝑥𝑥〉2 𝛿𝛿(𝑓𝑓)
𝐷𝐷
Avec 〈𝑥𝑥〉 = 𝑝𝑝. 𝑥𝑥0 + (1 − 𝑝𝑝)𝑥𝑥1 et 𝜎𝜎𝑋𝑋2 = 𝑝𝑝. 𝑥𝑥02 + (1 − 𝑝𝑝). 𝑥𝑥12 − 〈𝑥𝑥〉2

Cas particulier : bits équiprobables (p=1/2) et niveaux anti-polaires (x1=-


x0=V) :
𝑆𝑆𝑥𝑥 (𝑓𝑓) = 𝑉𝑉 2 𝑇𝑇𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠 2 (𝜋𝜋𝜋𝜋𝜋𝜋)

Exemple de signal aléatoire stationnaire et ergodique important : le bruit blanc


 Le bruit blanc

Un bruit blanc est un signal aléatoire b(t) stationnaire au second ordre


dont la densité spectrale de puissance est constante sur la bande
fréquentielle B F utilisée par l’observateur :
𝑁𝑁 2
𝑆𝑆𝑥𝑥 (𝑓𝑓) = 𝜎𝜎𝑏𝑏2 =
2

𝑅𝑅𝑏𝑏 (𝜏𝜏) = 𝜎𝜎𝑏𝑏2 . 𝛿𝛿(𝑓𝑓)

77
Signaux continus Professeur K.BENKIRANE

La puissance d’un tel processus étant infinie celui-ci n’est pas réalisable
physiquement :
+∞
� 𝑺𝑺𝑿𝑿 (𝒇𝒇) 𝒅𝒅𝒅𝒅 = ∞
−∞

C’est pourquoi on définit le bruit blanc à bande limitée :

𝐴𝐴 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 0 ≤ 𝐹𝐹1 ≤ |𝑓𝑓| ≤ 𝐹𝐹2


𝑆𝑆𝑋𝑋 (𝑓𝑓) = �
0 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 |𝑓𝑓| ≤ 𝐹𝐹1 𝑜𝑜𝑜𝑜 𝐹𝐹2 ≤ |𝑓𝑓|

On note 𝐵𝐵𝐹𝐹 = 𝐹𝐹2 − 𝐹𝐹1

Deux cas se présentent selon que la borne inférieure est nulle ou non.
 Spectre de type passe-bas
𝐹𝐹1 = 0 𝑒𝑒𝑒𝑒 𝐵𝐵𝐹𝐹 = 𝐹𝐹2

Calculons la fonction d’autocorrélation correspondante.

Nous avons :
𝐵𝐵
𝑅𝑅𝑋𝑋 (𝜏𝜏) = ∫−𝐵𝐵𝐹𝐹 𝐴𝐴𝑒𝑒 𝑗𝑗 2𝜋𝜋𝜋𝜋𝜋𝜋 𝑑𝑑𝑑𝑑 = 2𝐴𝐴𝐵𝐵𝐹𝐹 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠(2𝜋𝜋𝐵𝐵𝐹𝐹 𝜏𝜏)
𝐹𝐹

Densité spectrale d’un bruit blanc à Fonction d’autocorrélation d’un bruit blanc à
bande passante limitée du type passe-bas bande passante limitée du type passe-bas

78
Signaux continus Professeur K.BENKIRANE

 Spectre de type passe-bande


Dans ce cas 𝐹𝐹1 ≠ 0

Densité spectrale d’un bruit blanc à bande Fonction d’autocorrélation d’un bruit blanc
passante limitée du type passe-bande à bande passante limitée du type passe-bande

+∞
𝑅𝑅𝑥𝑥 (𝜏𝜏) = � 𝑆𝑆𝑥𝑥 (𝑓𝑓) 𝑒𝑒 𝑗𝑗 2𝜋𝜋𝜋𝜋𝜋𝜋 𝑑𝑑𝑑𝑑
−∞

𝑅𝑅𝑋𝑋 (𝜏𝜏) = 2𝐴𝐴𝐵𝐵𝐹𝐹 . 𝑐𝑐𝑐𝑐𝑐𝑐(2𝜋𝜋𝐹𝐹0 𝜏𝜏)𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠(𝜋𝜋𝐵𝐵𝐹𝐹 𝜏𝜏)

Les courbes en pointillé correspondent aux enveloppes : ±2𝐴𝐴𝐵𝐵𝐹𝐹 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠(𝜋𝜋𝐵𝐵𝐹𝐹 𝜏𝜏)


Cette fonction s’annule pour :

79
Signaux continus Professeur K.BENKIRANE

BIBLIOGRAPHIE

• M. BELLANGER, Traitement numérique du signal, 6e édition,


Dunod (1998).

• F. COTTET, Traitement des signaux et acquisition de données,


Dunod (1997).

• F. DE COULON, Théorie et traitement des signaux, Dunod


(1984).

• C. GASQUET et P. WITOMSKI, Analyse de Fourier et


applications, Masson (1997).

• F. MANNEVILLE et J. ESQUIEU, Théorie du signal et


composants, 2e édition, Dunod (2000).

• J. MAX et J.-L. LACOUME, Méthodes et techniques de


traitement du signal et applications aux mesures physiques, 5e
édition, Dunod (2000).

• B. PICINBONO, Théorie des signaux et des systèmes, Dunod


(1989).

• H. REINHARD, Cours de mathématiques du signal, Dunod


(1986).

• G. ASH et coll., Acquisition de données, Dunod (1999).

• G. ASH et coll., Les Capteurs en instrumentation industrielle,


Dunod (1991).

80
Signaux continus Professeur K.BENKIRANE

81

Vous aimerez peut-être aussi