Vous êtes sur la page 1sur 78

Bases de traitement du signal

Maurice Charbit

21 septembre 2004
Table des matières

1 Les signaux déterministes à temps continu 2


1.1 Représentation des signaux à temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Représentation de Fourier des signaux périodiques . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Coefficients de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Propriétés des coefficients de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Représentation de Fourier des signaux d’énergie finie . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Transformée de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Convolution de deux signaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.4 Exemples de transformées de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Notation symbolique de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Filtrage linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.1 Définition et premiers exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5.2 Le filtrage convolutionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6 Distorsions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Echantillonnage 15
2.1 Cas des signaux passe-bas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Cas des signaux passe-bande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Cas des signaux passe-bas de bande infinie . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4 Reconstruction pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3 Signaux déterministes à temps discret 22


3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2 Transformation en Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3 Transformation de Fourier à temps discret (TFtd) . . . . . . . . . . . . . . . . . . . . . . 26
3.3.1 Relation entre la TFTC et la TFTD . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.4 Filtrage linéaire convolutionnel des signaux déterministes à temps discret . . . . . . . . . 29
3.4.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.2 Filtre à fonction de transfert rationnelle . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.3 Synthèse d’un filtre RIF par la méthode de la fenêtre . . . . . . . . . . . . . . . . . 33
3.5 Transformation de Fourier discrète (TFD) . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6 Récapitulatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

4 Processus aléatoires SSL à temps discret 45


4.1 Le modèle aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Propriétés générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.1 Loi temporelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.2 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.3 Propriétés du second ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3 Processus aléatoires SSL à temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4 Formule de filtrage des processus aléatoires SSL à temps discret . . . . . . . . . . . . . . . 51

1
4.5 Exemples de modèles de processus SSL à temps discret . . . . . . . . . . . . . . . . . . . . 52
4.5.1 Processus harmonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.5.2 Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.5.3 Processus à moyenne ajustée d’ordre q . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5.4 Processus autorégressif d’ordre p . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.6 Eléments d’estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.6.1 Estimation de la moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.6.2 Estimation des covariances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.6.3 Estimation de la d.s.p. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

A Questions-test 69

B TP 73
B.1 Observations temporelle et spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
B.1.1 Résolution spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
B.1.2 Repliement de spectre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
B.2 Traitements d’un signal de parole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
B.2.1 Observation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
B.2.2 Filtrage passe-bas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
B.2.3 Cryptage type Canal+ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
B.2.4 Dilatation et décalage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
B.2.5 Périodogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
B.3 Analyse des taches solaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
B.3.1 Suppression d’une tendance affine . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
B.3.2 Estimation de la périodicité des tâches solaires . . . . . . . . . . . . . . . . . . . . 75
B.4 Analyse et synthèse d’une voyelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

2
Chapitre 1

Les signaux déterministes à temps


continu

1.1 Représentation des signaux à temps continu


Modélisation
L’information, qui se présente à nous lors de l’observation d’un phénomène, se manifeste sous forme
d’une ou plusieurs grandeurs physiques qui se déroulent à la fois dans le temps et dans l’espace. Dans
les problèmes rencontrés en pratique, on est souvent amené à s’intéresser plus particulièrement à l’un ou
l’autre de ces deux aspects. On désigne alors par le terme de signal l’évolution temporelle, tandis que l’on
désigne par le terme d’image l’évolution spatiale.
Dans ce cours nous nous intéressons uniquement aux propriétés du signal, étant bien entendu que
certains résultats s’étendent sans difficulté à l’image.
Les différents traitements, que l’on fait subir aux signaux, nécessitent pour être étudiés des outils
mathématiques appropriés, qui sont à la “base du traitement du signal”. Dans ce cours nous envisageons
l’étude de certains de ces outils.
En signal on modélise la grandeur physique observée par un objet mathématique dépendant de la
variable réelle t représentant le temps. Dans la suite, le mot signal désignera indifféremment la grandeur
physique observée ou l’objet mathématique servant à la modéliser.
En théorie du signal, on a l’habitude d’envisager les cas suivants :
Déterministe/aléatoire : la première distinction porte sur notre capacité à prédire l’évolution tempo-
relle de la grandeur observée. Si on prend, par exemple, un oscillateur sinusoı̈dal d’amplitude A et
de fréquence f0 , moyennant la mesure de A et de f0 , on peut alors prédire la valeur de l’amplitude,
à tout instant, par l’expression x(t) = A cos(2πf0 t). Un tel modèle de signal est dit déterministe. Il
existe cependant des situations où il n’est pas concevable d’expliciter, de cette façon, la forme de
l’évolution temporelle du signal. C’est le cas, par exemple, pour la tension engendrée à la sortie d’un
microphone ou encore pour le courant électrique produit par l’agitation thermique des particules
dans un conducteur (bruit de fond). On ne peut pas dire combien vaudra x(t) à l’instant t, mais
on pourra éventuellement supposer que cette grandeur est distribuée suivant une certaine loi de
probabilité. On dit alors que le signal est aléatoire.
Temps continu/temps discret Si, comme c’est le cas pour le signal x(t) = A cos(2πf 0 t), le temps t
prend ses valeurs dans R, on dit que le signal est à temps continu. Toutefois on rencontre aussi en
traitement du signal des grandeurs qui évoluent uniquement à des instants discrets t n où n ∈ Z. On
parle alors de signal à temps discret ou encore de signal numérique. En terme mathématique, un
signal à temps continu est une fonction du temps tandis qu’un signal à temps discret est une suite.
Le développement et l’essor des techniques numériques ont fait que les problèmes portant sur le trai-
tements des signaux à temps discret ont pris une place majeure aujourd’hui, comparée à celle qu’oc-
cupent les traitements portant sur les signaux à temps continu. C’est pourquoi ce cours est centré
avant tout sur les problèmes de temps discret et sur le passage du temps continu au temps discret
(théorème d’échantillonnage). Toutefois il est utile de rappeler brièvement certaines propriétés des si-
gnaux à temps continu, sachant que cela nous servira en particulier à présenter un vocabulaire qui,

3
à l’origine, a été introduit pour ces signaux mais aussi à donner les éléments permettant d’énoncer le
théorème d’échantillonnage.
Dans le cas des signaux déterministes à temps continu, une classification est faite autour des notions
d’énergie et la puissance. En gros, les signaux d’énergie finie servent à modéliser les signaux de durée
finie et les signaux de puissance finie les signaux de durée infinie, plus particulièrement les mélanges de
sinusoı̈des.

Energie et Puissance
L’énergie d’un signal x(t), fonction complexe de la variable réelle t, est la quantité E définie par :
Z +∞
E= |x(t)|2 dt (1.1)
−∞

La puissance d’un signal x(t), fonction complexe de la variable réelle t, est la quantité P définie par :
+T /2
1
Z
P = lim |x(t)|2 dt (1.2)
T →+∞ T −T /2

Si x(t) est tel que 0 < E < +∞, on dit que le signal est d’énergie finie et sa puissance P = 0. Si x(t)
est tel que 0 < P < +∞ , on dit que le signal est de puissance finie et son énergie est infinie. 1
Les signaux rencontrés en physique sont évidemment d’énergie finie. Il est toutefois utile, pour étudier
les régimes permanents, de sortir du cadre des signaux d’énergie finie pour envisager celui des signaux de
puissance finie, dont l’archétype est sans aucun doute le signal :
P
X
x(t) = Ak cos(2πfk t + φk )
k=1

constitué de la somme de P sinusoı̈des et que nous désignerons sous le terme de mélange harmonique.

Représentation fréquentielle des signaux


Nous verrons que les exponentielles complexes sont les fonctions propres des filtres linéaires. C’est une
des raisons fondamentales de l’introduction de la décomposition d’un signal en une somme d’exponentielles
complexes. Cette décomposition porte le nom de représentation de Fourier ou représentation fréquentielle.
Ainsi à un signal x(t) périodique de période T admet la décomposition en série de Fourier :
+∞
X
x(t) = Xn e2jπnt/T
n=−∞

où
T /2
1
Z
Xn = x(t)e−2jπnt/T dt
T −T /2

La suite des coefficients Xn est désignée sous le terme de coefficients de Fourier (ou représentation
fréquentielle) du signal x(t). Mathématiquement la fonction x(t) et la suite X k sont équivalentes. Toutefois
en traitement du signal, elles ont chacune leur intérêt. De façon imagée on peut dire que ce sont deux
manières de “voir sous des angles différents” le même phénomène.

1.2 Représentation de Fourier des signaux périodiques


Un signal est dit périodique s’il existe U tel que, pour tout t ∈ (−∞, +∞), x(t + U ) = x(t). La
plus petite valeur positive T de U , qui vérifie cette propriété, s’appelle la période. L’inverse de T s’ap-
pelle la fréquence fondamentale. Les multiples de la fréquence fondamentale s’appellent les fréquences
harmoniques.
1 L%s d%́nominations %́n%rgi% %t puissanc% provi%nn%nt d% la r%pr%́s%ntation d%s signaux %́l%ctriqu%s. En %ff%t si l% signal

x(t! r%pr%́s%nt% un% t%nsion %xprim%́% %n volt, la quantit%́ x2 (t! %st alors proportionn%ll% à d%s watts %t x2 (t!¢t à d%s joul%s.

4
Remarque : La somme de deux sinusoı̈des de périodes différentes n’est pas forcément périodique. Pour
qu’il en soit ainsi, il faut que le rapport des périodes soit un nombre rationnel. Toutefois on peut vérifier
que la plupart des résultats énoncés pour les signaux périodiques s’appliquent encore aux signaux, que
nous avons désignés sous le terme de mélange harmonique.
Les signaux périodiques entrent dans la classe des signaux de puissance finie et on a :
1 T
Z
P = |x(t)|2 dt
T 0

1.2.1 Coefficients de Fourier


Sous certaines conditions, que nous ne rappelerons pas ici, un signal périodique, de période T , se
développe en série de Fourier sous la forme :
X
x(t) = Xn e2jπnt/T
n∈Z

où
T
1
Z
Xn = x(t)e−2jπnt/T dt
T 0

On remarque que :
T
1
X Z
x(0) = Xn et X0 = x(t)dt
T 0
n∈Z

1.2.2 Propriétés des coefficients de Fourier


Les coefficients de Fourier vérifient les propriétés suivantes :
1. linéarité : soient x(t) et y(t) deux signaux de même période T , alors ax(t) + by(t) a pour coefficients
de Fourier aXk + bYk ,

2. symétrie hermitienne : si le signal x(t) est à valeurs dans R, alors Xk = X−k , en particulier X0 est
réel,
3. retard : soit y(t) = x(t − τ ), le signal périodique retardé de τ , alors Yk = exp(−2jπk Tτ )Xk ,
4. bande limitée : le signal périodique réel x(t) est à bande limitée s’il existe n 0 tel que Xn est nul
pour tout |n| > n0 . On montre qu’un signal x(t) périodique à bande limitée ne peut s’annuler que
sur un ensemble au plus dénombrable de points.

Formule de Parseval
Soit x(t) et y(t) deux signaux périodiques de même période T et soit z(t) le produit de x(t) par y ∗ (t).
On note respectivement Xn , Yn et Zn les suites des coefficients de Fourier de x(t), y(t) et z(t). Un calcul
simple montre que :
X

Zn = Xk Yk−n
k∈Z

qui apparaı̂t comme la convolution de la suite Xn par par la suite Y−n . En faisant n = 0 il vient alors :

1 T /2
X Z

Xk Yk−n = x(t)y ∗ (t)dt
T −T /2
k∈Z

Dans le cas particulier où x(t) = y(t), nous obtenons la formule de Parseval :
1 T
X Z
P = |Xk |2 = |x(t)|2 (t)dt (1.3)
T 0
k∈Z

La relation de Parseval (1.3) est très importante, car elle possède une interprétation énergétique simple :
la puissance d’un signal est égale à la somme des puissances élémentaires de chacune de ses composantes,
où l’on entend par k-ème composante le signal “sinusoı̈dal” Xk e2jπk/T qui est de puissance |Xk |2 .
La transformée de Fourier généralise la notion de coefficients de Fourier aux signaux non périodiques.

5
1.3 Représentation de Fourier des signaux d’énergie finie
1.3.1 Transformée de Fourier
Nous rappelons que pour une fonction x(t) appartenant à l’ensemble L2 ∩ L1 des fonctions de carré
sommable et de module sommable, la transformée de Fourier existe et appartient à L 2 . Les formules de
transformations directe et inverse sont :
( R +∞
X(f ) = −∞ x(t)e−2jπf t dt
R +∞ (1.4)
x(t) = −∞ X(f )e2jπf t df

La variable f s’appelle la fréquence. Son unité est le Hertz (en abrégé : Hz).
On se souviendra que les valeurs à l’origine sont données par :
Z +∞ Z +∞
x(0) = X(f )df et X(0) = x(t)dt
−∞ −∞

1.3.2 Convolution de deux signaux


Soit x(t) et y(t) deux signaux de la variable réelle t, on appelle convolution de x(t) par y(t) l’opération
notée x(t) ? y(t) et définie par :
Z +∞ Z +∞
x(t) ? y(t) = x(u)y(t − u)du = x(t − u)y(u)du (1.5)
−∞ −∞

Le produit de convolution est commutatif, associatif et distributif par rapport à l’addition.


Rappelons que, pour deux signaux d’énergie finie x(t) et y(t), l’inégalité de Schwarz a pour expression :
¯Z +∞ ¯2 Z +∞ Z +∞
∗ 2
|y(u)|2 du
¯ ¯
¯
¯ x(u)y (u)du¯¯ ≤ |x(u)| du (1.6)
−∞ −∞ −∞

Une conséquence est que, si x(t) et y(t) sont d’énergie finie, le produit de convolution existe.
La propriété fondamentale du produit de convolution est que la transformée de Fourier de la convo-
lution est le produit simple des transformées de Fourier. Ce qui s’écrit :
TF
x(t) ? y(t) →X(f ) × Y (f )

1.3.3 Propriétés
La plupart des propriétés, énoncées dans le tableau ci-dessous, s’établissent simplement, comme nous
allons le voir sur un exemple. Montrons que la transformée de Fourier d’un signal réel possède la symétrie
hermitienne. Pour cela reprenons la formule de définition de X(f ) et conjuguons les deux membres. Il
vient :
Z +∞
X ∗ (f ) = x∗ (t)e2jπf t dt
−∞

En changeant alors f en −f et en utilisant le fait que x∗ (t) = x(t) puisque le signal est supposé réel, on
trouve que X ∗ (−f ) = X(f ).

6
Propriétés x(t) X(f )
1
Similitude x(at) |a| X(f /|a|)
Linéarité ax(t) + by(t) aX(f ) + bY (f )
Translation x(t − t0 ) X(f ) exp(−2jπf0 t)
Modulation x(t) exp(2jπf t0 ) X(f − f0 )
Convolution x(t) ? y(t) X(f )Y (f )
Produit x(t)y(t) X(f ) ? Y (f )
Dérivations dn x(t)/dtn (2jπf )n X(f )
(−2jπt)n x(t) dn X(f )/df n
Parité, conjugaison réelle paire réelle paire
réelle impaire imaginaire impaire
imaginaire paire imaginaire paire
imaginaire impaire réelle impaire
complexe paire complexe paire
complexe impaire complexe impaire
réelle X(f ) = X ∗ (−f )
Re(X(f )), |X(f )| paires
Im(X(f )), arg(X(f )) impaires
x∗ (−t) X ∗ (f )

Formule de Parseval
En utilisant la propriété de convolution des transformées de Fourier, on obtient :
Z +∞ Z +∞
x(t)y ∗ (t)dt = X(f )Y ∗ (f )df
−∞ −∞

En effet la transformée du produit de convolution x(t) ? y ∗ (−t) est X(f )Y ∗ (f ). Ce qui s’écrit :
Z +∞ Z +∞
x(u)y ∗ (u − t)dt = X(f )Y ∗ (f )e2jπf t df
−∞ −∞

En faisant t = 0, on obtient le résultat annoncé.


Cette relation est tout simplement l’expression de la conservation du produit scalaire par transforma-
tion de Fourier (isométrie). En faisant x(t) = y(t), on obtient alors la formule de Parseval :
Z +∞ Z +∞
2
|x(t)| dt = |X(f )|2 df (1.7)
−∞ −∞

qui traduit la conservation de l’énergie. La fonction |x(t)|2 apparaı̂t donc comme une répartition de
l’énergie en fonction du temps : c’est donc comme une puissance instantanée. Mais la formule de Parseval
montre que l’énergie est aussi l’intégrale sur tout l’axe des fréquences de la fonction |X(f )| 2 . Cette fonction
peut donc s’interpréter comme la répartition ou localisation de l’énergie en fonction de la fréquence : elle
porte dans la littérature le nom de densité spectrale d’énergie (d.s.e.) ou tout simplement spectre. La
fin de ce paragraphe énonce sans démonstration quelques notions et propriétés importantes des signaux
d’énergie finie.
Le signal x(t) est dit de durée finie, s’il est nul en dehors d’un intervalle de temps (t 0 , t1 ).
Le signal x(t) est dit à bande limitée, si sa transformée de Fourier est nulle en dehors de l’intervalle de
fréquence (−B0 , B1 ). Si x(t) est réel et à bande limitée, X(f ) possède la symétrie hermitienne (X(f ) =
X ∗ (−f )) et l’intervalle de fréquence s’écrit (−B, B). Dans ce cas, B s’appelle la bande du signal.
1. Un signal d’énergie finie ne peut être à la fois de durée finie et à bande limitée.

2. Si x(t) est d’énergie finie E et à bande limitée (−B, B) alors |x(t)| ≤ 2BE.
3. Théorème de Bernstein : si x(t) est d’énergie finie, à bande limitée (−B, B) et tel que sup t |x(t)| ≤
M , alors les dérivées successives vérifient :
|x(n) (t)| ≤ (2πB)n M (1.8)
Ce théorème a une interprétation pratique importante. Un signal borné et à bande limitée ne peut
avoir des variations arbitrairement rapides. On dit aussi qu’un signal a des variations d’autant plus

7
lentes que son support en fréquence est petit ou encore qu’un signal a des fronts d’autant plus raides
(dérivée importante) qu’il contient de l’énergie dans les fréquences élevées. Il y a ainsi un lien étroit
entre la notion de fréquence et celle de dérivée, c’est-à-dire de variation temporelle.

1.3.4 Exemples de transformées de Fourier


On appelle signal rectangle le signal x(t) défini par x(t) = rectT (t) = 11(−T /2, T /2)(t). Un calcul
immédiat donne pour sa transformée de Fourier :
sin(πf T )
X(f ) = = T sinc(f T ) (1.9)
πf
où la fonction sinc(x) = sin(πx)/(πx) s’appelle la fonction sinus-cardinal (car elle s’annule pour les valeurs
entières de la variable). Sa forme est représentée à la figure 1.1. Notons que lorsque la durée T diminue, la
“largeur” de son support en fréquence augmente. Ce comportement revêt un caractère tout à fait général.
Il traduit ce que l’on appelle parfois la dualité temps-fréquence.

−1

−2
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2

Fig. 1.1 – Fonction rectangle et sa transformée de Fourier sinus-cardinal.

Le tableau ci-après donne d’autres exemples de transformée de Fourier de signaux rencontrés en


pratique.
x(t) X(f )
rectT (t) ? rectT (t) (fonction triangle) T 2 sinc2 (f T )
exp(−πt2 ) exp(−πf 2 )
exp(−t/T )11(0,+∞) (t) T /(1 + 2jπf T )
exp(−|t|/T ) 2T /(1 + 4π 2 f 2 T 2 )

1.4 Notation symbolique de Dirac


La distribution δ(t) est un outil de calcul largement utilisé par l’ingénieur. Nous en donnons une
présentation délibérément non mathématique et nous nous limitons à l’énoncé de règles opératoires. Ces
règles se justifient dans la théorie de Fourier.

Règles opératoires
1. la distribution de Dirac δ(t) est paire, δ(t) = δ(−t), et est l’élément neutre de la convolution :
Z
x(t) ? δ(t − t0 ) = δ(u − t0 )x(t − u)du = x(t − t0 )
R

8
En particulier on a : Z
δ(u − t0 )du = 1
R

2. décalage en temps : δ(t − t0 ) a pour transformée de Fourier e−2jπf t0 ,


3. décalage en fréquence : e2jπf0 t a pour transformée de Fourier δ(f − f0 ).
En faisant f0 = 0, on voit que le signal constant C a comme transformée de Fourier la distribution
Cδ(f ). De façon générale, quand un signal est la somme d’un signal d’énergie finie et d’une constante
C, on dit qu’il possède une composante continue. Sa transformée de Fourier contient alors une raie
à l’origine d’amplitude C. Composante continue et raie à l’origine sont donc synonymes.
4. échantillonnage : x(t)δ(t − t0 ) = x(t0 )δ(t − t0 ),
5. on montre (dans le cadre de la théorie des distributions) que :
1 sin(πBt) 1
δ(t) = lim rectT (t), δ(t) = lim et δ(t) = lim √ exp(−t2 /2σ 2 )
T →0 T B→+∞ πt σ→0 σ 2π

Ce résultat justifie l’usage qui consiste à assimiler la distribution de Dirac à une impulsion infiniment
brève, d’aire 1, que l’on désigne sous le nom de raie.
6. On appelle échelon-unité la fonction u(t) = 11(0,+∞) (t). On montre que δ(t) = du(t)/dt. Ce résultat
donne un sens à la dérivée d’une fonction discontinue comportant un saut d’amplitude a en t 0 . La
dérivée comporte la distribution aδ(t − t0 ).

Peigne de Dirac
On appelle peigne de Dirac de période T la distribution périodique :
X
pE (t) = δ(t − nT )
n∈Z

On montre que pE (t) est développable en série de Fourier et que les coefficients du développement valent
1/T . Nous pouvons donc écrire :
X X 1
pE (t) = δ(t − nT ) = e2jπkt/T
T
n∈Z k∈Z

Comme la transformée de Fourier de e2jπkt/T est δ(f − k/T ), on en déduit que :


X X 1
δ(t − nT ) a pour TF δ(f − k/T ) (1.10)
T
n∈Z k∈Z

Transformée de Fourier d’un signal périodique


L’utilisation de la distribution de Dirac permet de donner un sens à la transformée de Fourier d’un
signal périodique. Considérons, en effet, le signal périodique x(t) ∈ L2P (TP
). En prenant la transformée de
Fourier de l’expression de son développement en série de Fourier x(t) = n Xn e2jπnt/T et en utilisant la
règle de décalage, on obtient :
X
X(f ) = Xn δ(f − n/T ) (1.11)
n∈Z

La transformée de Fourier d’un signal périodique de période T est constituée de “raies” régulièrement
espacées et d’amplitude Xn = XT (n/T )/T égales aux coefficients de Fourier.
En utilisant le peigne de Dirac, le signal périodique peut aussi s’écrire x(t) = x T (t) ? pE (t), où xT (t)
est la tronquée de x(t) sur (0, T ). En notant XT (f ) la transformée de Fourier de xT (t), puis en prenant
la transformée de Fourier de x(t) = xT (t) ? pE (t) et enfin en utilisant la règle d’échantillonnage, nous
obtenons :
X 1 X 1
X(f ) = XT (f ) δ(f − n/T ) = XT (n/T )δ(f − n/T ) (1.12)
T T
n∈Z n∈Z

Par conséquent Xn = XT (n/T )/T .

9
P
Exemple 1.1 (Signal d’horloge) Soit le signal de période T défini par x(t) = k∈Z xT (t − kT ) où
xT (t) = 11(−θ/2,θ/2) (t). D’après le résultat précédent, Xn = XT (n/T ) où XT (f ) = sin(πf θ)/(πf ) est la
transformée de Fourier de xT (f ). Par conséquent :
X sin(πnθ/T )
x(t) = e2jπnt/T
n
πn
X sin(πnθ/T )
et X(f ) = δ(f − n/T )
πn
k

Modulation
Soit le signal x(t) et soit y(t) le signal défini par :

y(t) = x(t) exp(2jπf0 t)

La multiplication par exp(2jπf0 t) est une opération qui joue un rôle important en communication, puis-
qu’elle intervient dans tous les systèmes de modulation. Dans le cas où les transformées de Fourier existe,
nous savons que Y (f ) = X(f − f0 ). Ce résultat s’étend à la transformée de Fourier (au sens de la
distribution de Dirac) des signaux périodiques.
Supposons que x(t) est périodique de période T . En général, y(t) n’est pas périodique de période T ,
sauf si f0 est un multiple de 1/T . Toutefois, en utilisant le développement en série de Fourier de x(t) on
obtient :
X
Y (f ) = Xk δ(f − f0 − k/T )
k∈Z

Le spectre reste donc un spectre de raies mais qui ne sont plus, à présent, régulièrement espacées depuis
l’origine.

Spectre ou d.s.p. d’un signal périodique


Soit x(t) un signal périodique de période T . Posons :
X
S(f ) = |Xk |2 δ(f − k/T )
k∈Z

En utilisant les règles opératoires de la distribution de Dirac, on peut alors écrire que la puissance de x(t)
a pour expression :
Z
P = S(f )df
R

Nous voyons que la puissance P apparaı̂t comme l’intégrale de S(f ) sur l’ensemble des fréquences. Pour
cette raison la fonction S(f ) est appelée densité spectrale de puissance (en abrégé d.s.p.) ou plus simple-
ment spectre du signal x(t).
Dans la littérature, le terme de spectre d’un signal est aussi utilisé pour désigner X(f ) ou encore
|X(f )—. Pour notre part nous réserverons ce terme à la d.s.e. pour les signaux d’énergie finie et à la
d.s.p. pour les signaux de puissance finie.

1.5 Filtrage linéaire


En pratique les signaux subissent un certain nombre de transformations au cours de leur passage à tra-
vers un système ; ces transformations peuvent être désirables, on parle alors de traitement ou indésirables
et on parle alors de distorsion. Une manière de décrire ces transformations est de donner l’expression du
signal de sortie y(t) en fonction du signal d’entrée x(t).

10
1.5.1 Définition et premiers exemples
Un filtre linéaire est une relation fonctionnelle entre une classe de signaux d’entrée X et une classe de
signaux de sortie Y, qui possède les deux propriétés suivantes :
– linéarité : si x1 (t) donne y1 (t) et x2 (t) donne y2 (t), alors ax1 (t) + bx2 (t) donne ay1 (t) + by2 (t),
– invariance temporelle : si au signal d’entrée x(t) correspond le signal de sortie y(t), alors au signal
d’entrée x(t − τ ) correspond le signal de sortie y(t − τ ). Autrement dit, un tel système prend en
compte les intervalles de temps mais pas l’origine des temps2 .
Nous commençons par des exemples évidents :
– Un amplificateur de gain G0 est défini par la relation y(t) = G0 x(t), qui se trouve être instantanée ;
c’est bien un filtre linéaire.
– Un retardateur pur est défini par la relation y(t) = x(t − τ ) ; c’est aussi un filtre linéaire.
– On peut sansP difficulté généraliser les deux exemples précédents à des relations entrée–sortie de la
K
forme y(t) = k=1 Gk x(t − τk ).
Par passage à l’infinitésimal on est alors conduit à la définition des filtres convolutionnels.

1.5.2 Le filtrage convolutionnel


Un filtre linéaire est dit convolutionnel si, à l’entrée x(t) ∈ X , il fait correspondre la sortie y(t) ∈ Y
définie par :
Z
y(t) = h(τ )x(t − τ ) dτ (1.13)
R
R
où la fonction h(t), supposée de module sommable ( |h(t)|dt < +∞), est appelée la réponse impulsion-
nelle du filtre.
La transformée de Fourier de h(t) s’appelle le gain complexe ou réponse en fréquence.

Exemples fondamentaux
– Exponentielle complexe : pour x(t) = exp(2jπf0 t), un calcul simple et justifié par le fait que
h(t) ∈ L1 (R), donne :
Z Z
y(t) = h(τ )e2jπf0 (t−τ ) dτ = e2jπf0 t h(τ )e−2jπf0 τ dτ = H(f0 )x(t)
R R

Ainsi l’action d’un filtre convolutionnel se résume à la multiplication du signal par le terme complexe
H(f0 ) qui n’est autre que la transformée de Fourier de la réponse impulsionnelle h(t) au point f 0 .
Autrement dit, les exponentielles complexes sont les fonctions propres des filtres linéaires.
– Mélange harmonique : par linéarité, le résultat précédent se généralise au mélange harmonique
défini par :
XK
x(t) = Ak e2jπfk t
k=1

qui donne en sortie le signal :


K
X
y(t) = H(fk )Ak e2jπfk t
k=1

– Entrée stable : si x(t) ∈ L (R), cad |x(t)|dt < +∞, alors y(t) ∈ L1 (R), plus précisément
1
R

Z Z Z
|y(t)|dt ≤ |h(t)|dt |x(t)|dt
R R R

et on a :

Y (f ) = H(f )X(f ) (1.14)


2 Contr%-%x%mpl% : on pourra v%́rifi%r qu% l% syst%̀m% qui, à l’%ntr%́% x(t!, bait corr%spondr% la sorti% y(t! =
Rt
0 x(u!du %st
lin%́air% sans %̂tr% invariant dans l% t%mps.

11
– Entrée d’énergie finie : si x(t) ∈ L2 (R), cad |x(t)|2 dt < +∞, alors y(t) ∈ L2 (R), plus précisément
R
Z Z Z
2
|y(t)| dt ≤ |h(t)|dt |x(t)|2 dt
R R R
et on a :
Y (f ) = H(f )X(f ) (1.15)
∞ ∞
– Entrée bornéeR : si x(t) ∈ L (R), cad supt |x(t)| < +∞, alors y(t) ∈ L (R), plus précisément
supt |y(t)| ≤ |h(t)|dt supt |x(t)|. Cette propriété fondamentale, qui dit qu’à toute entrée bornée
correspond une sortie bornée, porte le nom de stabilité. Les filtres convolutionnels sont donc stables.

Interprétation du filtrage
L’expression “réponse impulsionnelle” provient du fait que h(t) est la sortie du filtre dont l’entrée est
l’impulsion δ(t). Une façon de s’en approcher est de considérer les approximations de δ(t), comme celles
données par les expressions 1.10. On peut donc “estimer” la réponse impulsionnelle d’un filtre linéaire,
en l’excitant par une impulsion très brève, d’amplitude très grande et d’aire 1.
L’équation de convolution (1.13) montre que la sortie d’un filtre peut être vue comme l’action de la
fenêtre glissante h(−u) sur le signal d’entrée x(θ) et donc comme une pondération linéairedes entrées
passées et futures par la fonction h(−u). En particulier :
– si h(u) = 0 pour u < 0, la valeur en sortie à l’instant t ne nécessite pas la connaissance des valeurs
de l’entrée au-delà de t : on dit alors que le filtre est causal).
– si h(u) = 0 pour tout u > tM , la valeur en sortie à l’instant t ne nécessite pas la connaissance des
valeurs de l’entrée antérieures à l’instant t − tM : tM s’interprète alors comme la mémoire du filtre.
– si h(u) = 0 pour u < tR , la valeur en sortie à l’instant t ne nécessite pas la connaissance des valeurs
de l’entrée entre t − tR et t. On peut dire que ces entrées n’ont pas encore eu le temps de “traverser”
le filtre : tR s’interprète comme le temps de réponse du filtre.

h(u)

u
tr tm

x(u)

h(t–u)

t u

y(t)
t

Fig. 1.2 – Représentation graphique de la convolution

On peut “estimer” la réponse en fréquence H(f ) d’un filtre linéaire de réponse impulsionnelle réelle
en appliquant à son entrée le signal x(t) = cos(2πf0 t). Le signal en sortie a pour expression y(t) =

12
H0 cos(2πf0 t+φ0 ) où H0 = |H(f0 )| et φ0 = arg(H(f0 )). Et donc, en mesurant le rapport entre l’amplitude
de l’entrée et l’amplitude de la sortie, on obtient |H(f0 )|, puis en mesurant le déphasage entre l’entrée et
la sortie, on obtient arg(H(f0 )). En faisant varier f0 , on obtient la réponse en fréquence.

Système physique et filtrage linéaire


En pratique on peut considérer deux cas, qui conduisent à la représentation d’un système physique
par un filtre linéaire.
Dans le premier cas, on exploite la connaissance des lois d’évolution des phénomènes à l’intérieur
du système envisagé (ex : loi d’Ohm). Si ces lois possèdent les caractères linéaire et stationnaire (ou
sont approximables par des lois ayant ces propriétés), on obtient une équation différentielle linéaire à
coefficients constants, qui conduit à la représentation de ce système par un filtre linéaire.
Dans le deuxième cas on ne possède pas ou pas assez de connaissances physiques pour employer la
première méthode et on postule que le système étudié est représentable par un filtre linéaire. Le problème
consiste alors à estimer au mieux, suivant certains critères, la fonction de transfert de ce filtre.

1.6 Distorsions
Distorsions linéaires
On distingue deux types de distorsion pour les filtres linéaires :
1. Lorsque le gain n’est pas constant, les fréquences ne sont pas toutes amplifiées ou atténuées de la
même manière : on parle alors de distorsion d’amplitude.
2. Lorsque la phase de la fonction de transfert n’est pas linéaire, les fréquences ne sont pas toutes
retardées ou avancées de la même manière : on parle alors de distorsion de phase.

Distorsion dans les systèmes non linéaires


Pour illustrer ce type de distorsion, nous traiterons seulement un exemple. Soit un système réalisant
en fonction de l’entrée x(t) et la sortie y(t) = x(t) + x2 (t). Et considérons le signal d’entrée x(t) =
a1 cos(2πf1 t) + a2 cos(2πf2 t). La sortie s’écrit alors :
1 2
y(t) = (a + a22 ) + a1 cos(2πf1 t) + a2 cos(2πf2 t)
2 1
1 1
+ a21 cos(4πf1 t) + a22 cos(4πf2 t)
2 2
+a1 a2 cos(2π(f1 − f2 )t) + a1 a2 cos(2π(f1 + f2 )t)

Nous voyons qu’un tel système introduit deux types de distorsion proprement non linéaires :
1. La distorsion harmonique : elle correspond à la présence des fréquences 2f 1 et 2f2 .
2. La distorsion d’intermodulation : elle correspond à la présence des fréquences (f 1 − f2 ) et (f1 + f2 ).
Ces effets sont appelés distorsion quand ils sont nuisibles, mais sont mis à profit dans certains montages
(récupération de porteuse, déplacement de fréquence, multiplication de fréquence,..).

1.7 Exercices
Exercice 1.1 (Phénomène de Gibbs) On considère le signal u(t) = 11(0,T ) (t) à l’entrée d’un filtre
passe-bas idéal défini par son gain complexe H(f ) = 11(−b,b) (f ).
1. Déterminer l’expression de sa réponse impulsionnelle h(t).
2. Donner l’expression de la sortie y(t). Esquisser sa forme.
3. Déterminer l’amplitude du maximum de y(t). Que remarque-t-on quand b → +∞ ?

Exercice 1.2 (Signal triangle) On considère le signal rectangulaire x0 (t) = 11(−T /2,T /2) (t).
1. Déterminer l’expression de X0 (f ) de la transformée de Fourier de x0 (t).

13
2. Déterminer l’expression de x1 (t) = x0 (t) ? x0 (t). On remarque que x1 (t) est à présent continu.
3. En déduire l’expression X1 (f ) de la transformée de Fourier de x1 (t). Comparer X0 (f ) et X1 (f ) en
terme de décroissance quand f → +∞.
4. On itère l’opération de convolution. Que constate-t-on en terme de propriétés temporelle et spec-
trale ?

Exercice 1.3 (Cosinus sur–élevé) 1. On considère le signal y(t) dont la transformée de Fourier
s’écrit Y (f ) = X(f ) ∗ R(f ) où R(f ) = 11(−B,B) (f ). Quelle propriété remarquable a y(t).
2. On considère X(f ) = A cos(πf /2b)11(−b,b) (f ). Déterminer l’expression de x(t) (noter que X(f ) est
la somme de 2 exponentielles complexes).
3. On pose b = αB, où 0 < α < 1. Déterminer en fonction de α et de B, l’expression de Y (f ) =
X(f ) ∗ R(f ).
P
4. En déduire y(t). On considère le signal z(t) = k ak y(t − kT ) où T = 1/2B et où ak est une suite
à valeurs dans un alphabet fini. Déterminer z(t) aux instants nT .

Exercice 1.4 (BT d’un signal) Soit x(t) un signal réel d’énergie finie et soit X(f ) sa transformée de
Fourier. On définit sa durée quadratique moyenne T par :
R 2
2 t |x(t)|2 dt
T = RR
R
|x(t)|2 dt

et sa bande quadratique moyenne B par :

f 2 |X(f )|2 df
R
2
B = RR
R
|X(f )|2 df

On suppose que |tx2 (t)| → 0 quand |t| → +∞.


Montrer que BT ≥ 1/4π. Pour quel type de signal, a-t-on l’égalité ?

Exercice 1.5 (Filtrage de sinusoı̈des) On applique le signal x(t) = A cos(2πf 0 t) + B cos(2πf1 t) à


l’entrée d’un filtre linéaire réel de gain complexe H(f ). Déterminer l’expression du signal y(t) en sortie.

Exercice 1.6 (Filtrage non idéal) On considère un signal réel x(t) à bande limitée (−B, B) appliqué
à la sortie d’un système dont on note y(t) la sortie. On dit qu’un système est sans distorsion si, à l’entrée
x(t), correspond la sortie y(t) = Ax(t − t0 ) où A désigne une atténuation (A < 1) ou une amplification
(A > 1) et où t0 désigne un retard éventuel.
1. Montrer qu’un système sans distorsion est un filtre linéaire. Quel est son gain et quelle est sa phase ?
Quelle est sa réponse impulsionnelle ? Est-il causal ? Conclure.
2. On considère, à présent, que x(t) est appliqué à l’entrée d’un filtre linéaire de gain |H(f )| =
A + a cos(πf /B) avec a ¿ A et de phase linéaire Φ(f ) = −2πf t0 . Déterminer l’expression du signal
y(t) en sortie.

Exercice 1.7 (Transmission à trajets multiples et égalisation) Un signal x(t) est transmis à tra-
vers un canal et le signal reçu est de la forme :

y(t) = Ax(t − t0 ) + ax(t − t1 )

Cette modélisation correspond à la présence d’un trajet direct ((A, t0 )) et d’un trajet secondaire ((a, t1 )).
On suppose A À a. Déterminer le gain en fréquence Hc (f ) du canal et représenter son module.

Exercice 1.8 (Multiplication de fréquence) On considère le signal x(t) = |A cos(2πf 0 t)|.


Déterminer le développement en série de Fourier de x(t). En déduire une façon idéale de produire un
signal à la fréquence kf0 .

14
Exercice 1.9 (Filtre de détection radar) Pour estimer (en radar) l’instant d’arrivée d’un écho dû à
une cible éventuelle, on calcule à la réception la fonction g(t) définie par :
Z
g(t) = r(u)x(u − t)du
R

où r(t) désigne le signal reçu et où x(t) l’impulsion émise de forme connue. En l’absence de bruit et de
distorsion, on a simplement r(t) = x(t − t0 ) où t0 désigne le retard dû au trajet aller-retour de l’onde
émise. En pratique on déduit la position de la cible de l’estimation de la valeur t 0 et de la célérité de
l’onde (en radio c = 3 108 m/s). On considère pour x(t) les deux formes d’onde données à la figure 1.3

x1(t) x2(t)
A A
t t
T T
–A
Fig. 1.3 – Deux formes d’onde

1. Calculer l’énergie de x1 (t) et de x2 (t).


2. Déterminer pour x1 (t) et x2 (t), l’expression de g(t). En déduire un moyen de mesurer t0 .
3. Comparer de façon qualitative les deux situations lorsque les signaux sont soumis à un faible bruit
additif.

15
Chapitre 2

Echantillonnage

L’échantillonnage est une opération qui consiste à prélever sur un signal à temps continu une suite de
valeurs, prises en une suite d’instants tn , n ∈ Z. Dans la suite nous n’envisagerons que l’échantillonnage
dit régulier où tn = nT . L’intérêt porté aux problèmes de l’échantillonnage tient dans le développement
des techniques numériques de traitement du signal. La question fondamentale est de savoir s’il est possible
de reconstruire x(t) à partir des échantillons x(nT ). A première vue il existe une infinité de fonctions qui
passent par les valeurs x(nT ) aux instants nT . Toutefois le théorème d’échantillonnage montre que, pour
les signaux à bande limitée, la reconstruction est possible.

2.1 Cas des signaux passe-bas


Théorème 2.1 (Formule de Poisson)
Soit x(t) un signal de module intégrable (x(t) ∈ L1 (R)) et dont la transformée de Fourier X(f ) est
elle-même de module intégrable. On a alors pour tout T > 0 :
+∞ +∞
X n X
X(f − )=T x(kT )e−2jπkf T (2.1)
n=−∞
T
k=−∞

En effet le premier membre deP2.1 est une fonction de f de période 1/T . Elle est donc développable en
série de Fourier sous la forme k Xk e−2jπkf T , où Xk est donné par :
Z 1/2T Ã X +∞ +∞ Z 1/2T
!
n 2jπkf T
X n
Xk = T X(f − ) e df = T X(f − )e2jπkf T df
−1/2T n=−∞
T n=−∞ −1/2T
T

En faisant le changement de variable u = f − n/T , il vient :


+∞ Z
X 1/2T −n/T Z +∞
2jπkuT
Xk = T X(u)e df = T X(u)e2jπkuT df = T x(kT )
n=−∞ −1/2T −n/T −∞

qui est le résultat annoncé.

Théorème 2.2 (Théorème d’échantillonnage)


Soit un signal réel x(t) de module intégrable (x(t) ∈ L1 (R)), à bande
Plimitée B (X(f ) = 0 pour |f | > B)
et soit Fe = 1/T une fréquence d’échantillonnage. On suppose que Z |x(nT )| < +∞.
Si Fe ≥ 2B, x(t) peut être reconstruit de manière unique à partir de la suite d’échantillons x(nT ), suivant
la formule dite d’interpolation :
+∞
X
x(t) = x(nT )h(t − nT ) (2.2)
n=−∞

où
sin(2πBt)
h(t) = (2.3)
πFe t
Si Fe < 2B, la reconstruction est impossible. La fréquence minimale 2B s’appelle la fréquence de Nyquist.

16
Cela signifie que pour un signal qui a de l’énergie dans les fréquences élevées et donc des variations
rapides, il faut prendre une fréquence d’échantillonnage élevée. En pratique ce résultat est appliqué, de
façon intuitive, lors du relevé d’une courbe point par point : dans les parties à variations rapides (hautes
fréquences), on augmente la fréquence d’échantillonnage en prenant un plus grand nombre de points.
Le problème de l’échantillonnage, tel qu’il est posé ici, consiste à montrer que, pour une certaine classe
de signaux x(t), il est possible de faire coı̈ncider x(t) avec :
+∞
X
x̃(t) = x(nT )h(t − nT ) (2.4)
n=−∞

pour une certaine fonction h(t) à déterminer. La relation 2.4 est une équation de convolution semblable
à celle rencontrée dans le cas du filtrage linéaire, sauf qu’ici l’entrée est la suite x(nT ) à temps discret et
la sortie le signal x̃(t) à temps continu.
Afin de comparer x̃(t) et x(t) nous allons passer en fréquence. Pour cela notons H(f ) la transformée
de Fourier de h(t). Alors h(t − nT ) a pour transformée de Fourier H(f )e−2jπnf T . On en déduit que x̃(t)
a pour transformée de Fourier :
+∞
X
X̃(f ) = x(nT )H(f )e−2jπnf T
n=−∞

En sortant H(f ) du signe somme et en utilisant la formule de Poisson, on obtient :


+∞
1 X n
X̃(f ) = H(f ) X(f − )
T n=−∞
T

Cette expression fait dire que l’opération d’échantillonnage en temps a pour effet, en fréquence, de
périodiser le spectre du signal avec une période égale à la fréquence d’échantillonnage F e = 1/T . Il
est à noter que le résultat est vrai même si X(f ) n’est pas à bande limitée. Toutefois quand X(f ) est à
bande limitée, il est possible de choisir H(f ) de façon à ce que cette expression coı̈ncide avec X(f ).

X (f)

f
–B B


n= +∞
n= −∞
X( f − nT ) 1 1 1
T T T

Fig. 2.1 – Périodisation du spectre par échantillonnage

Supposons que X(f ) = 0 pour |f | > B. Deux cas sont possibles :


Fe = 1/T < 2B : il y a recouvrement des différentes courbes obtenues par périodisation de X(f ). On
dit alors qu’il y a repliement de spectre (en anglais aliasing). L’origine de ce terme s’explique de la
façon suivante : la partie de X(f − n/T ) qui s’ajoute à X(f ) dans l’intervalle (−1/2T, 1/2T ) est

17
la même que la partie de X(f ) qui se trouve au delà de n/T . Tout se passe comme si on empilait
dans l’intervalle (−1/2T, 1/2T ), après repliement, les deux extrémités de X(f ). La conséquence du
repliement de spectre est l’impossibilité de reconstruire X(f ) à partir de X̃(f ) et, par là même,
x(t) à partir des échantillons x(nT ).
Fe = 1/T ≥ 2B : en choisissant H(f ) = T rect2B (f ), il vient X(f ) = X̃(f ) et donc x(t) = x̃(t). La
transformée de Fourier inverse de H(f ) = T rect2B (f ) a pour expression h(t) = T sin(2πBt)/πt. En
portant dans 2.4, on obtient la formule d’interpolation :
X sin(2πB(t − nT ))
x(t) = x(nT )
n
πFe (t − nT )

La formule d’interpolation montre que le signal réel x(t) est reconstruit de façon unique à partir de
la suite de ses échantillons x(nT ). Mais cette opération n’est pas causale puisque la reconstruction de
x(t) au temps t, nécessite de connaı̂tre la suite x(nT ) au delà de t. Toutefois comme la fonction h(t)
décroı̂t rapidement quand t tend vers −∞, il est possible de réaliser une bonne approximation causale,
en acceptant un retard fini. Cela revient à dire que x(t) est calculé, de façon approchée, avec quelques
échantillons situés au delà de t.

Cas des signaux complexes à bande limitée


Pour un signal complexe dont le spectre est nul à l’extérieur d’une bande Bc , c’est-à-dire X(f ) = 0
pour f 6∈ Bc , le calcul de la transformée de Fourier de x̃(t) est en tout point identique à celui fait
précédemment. On en déduit que la fréquence minimale d’échantillonnage, qui s’obtient en exprimant
simplement la condition de non-repliement, a pour expression Fe = 1/T ≥ Bc . En fait on peut dire que,
dans les cas réel et complexe, la fréquence de Nyquist est égale à la largeur du support en fréquence de
la transformée de Fourier de x(t).

2.2 Cas des signaux passe-bande


Considérons à présent un signal réel x(t) dont la transformée de Fourier est nulle en dehors des deux
intervalles de fréquence définis par :
fm ≤ |f | ≤ fM
Rappelons que puisque x(t) est réel, X(f ) possède la symétrie hermitienne. L’application brutale du

X(f)

f
fm fM

Fig. 2.2 – Spectre d’un signal à bande étroite

théorème d’échantillonnage conduit à prendre comme fréquence de Nyquist la valeur 2f M . Pourtant il


est possible d’échantillonner à une cadence bien plus faible, si l’on met à profit le fait que le spectre est
nul dans l’intervalle (−fm , fm ).
Cherchons les conditions sur Fe pour que le spectre, une fois périodisé, soit constitué de bandes
disjointes. On voit graphiquement qu’il suffit de choisir deux valeurs k et Fe , telles que la k-ième et la
(k + 1)-ième translatées de la partie de X(f ) dans les fréquences négatives ne recouvrent pas la partie de
X(f ) dans les fréquences positives. Ce qui s’écrit :
−fm + kFe < fm
−fM + (k + 1)Fe > fM

18
(k+1)Fe

kFe f

fm fM

Fig. 2.3 – Périodisation du spectre pour un signal à bande étroite

Par conséquent Fe doit être choisie dans des plages de valeurs de la forme :
2fM 2fm
< Fe < (2.5)
k+1 k
où k est un entier tel que (2fM /k + 1) < 2fm /k, c’est-à-dire k ≤ fm /(fM − fm ). Plus la valeur choisie de
k est grande, plus la plage de fréquences possibles d’échantillonnage est située dans les fréquences basses.
Par conséquent la plus petite fréquence d’échantillonnage qui assure le non repliement du spectre est donc
donnée par 2fM /(k0 + 1) où k0 est la partie entière de fm /(fM − fm ). Les fréquences Fe d’échantillonnage
permises sont regroupées dans le tableau ci-desous.
Plage pour Fe
k0 2fM /(k0 + 1) ≤ Fe ≤ 2fm /k0
.. ..
. .
k 2fM /(k + 1) ≤ Fe ≤ 2fm /k
.. ..
. .
0 2fM ≤ Fe < +∞
Remarquons que, plus la fréquence d’échantillonnage est choisie petite, plus la plage de fréquences à
laquelle elle appartient est étroite.

Formule d’interpolation
Pour établir la formule de reconstruction, le calcul est en tout point analogue à celui fait pour un
signal passe-bas. Mais il faut prendre, pour faire coı̈ncider x̃(t) avec x(t), le filtre passe-bande réel, défini
par :
H(f ) = T (rect∆f (f − f0 ) + rect∆f (f + f0 ))
où ∆f = fM − fm et f0 =P (fM + fm )/2. Et donc h(t) = 2T cos(2πf0 t) sin(π∆f t)/πt. Il suffit alors
d’utiliser l’expression x(t) = n x(nT )h(t − nT ) pour obtenir la formule d’interpolation.

2.3 Cas des signaux passe-bas de bande infinie


En pratique, lorsque la fréquence d’échantillonnage est imposée, le phénomène de repliement de spectre
ne peut être évité. Il y a donc perte d’information sur le signal à échantillonner. Le problème est de limiter
autant que possible cette perte. Pour cela on choisit de filtrer préalablement le signal avant l’opération
d’échantillonnage proprement dite, suivant le schéma représenté figure 2.4.
A priori le signal x2 (t) reconstruit doit contenir toutes les fréquences compatibles avec la condition de
non-repliement à la fréquence d’échantillonnage Fe = 1/T : il faut donc supposer que la bande B = Fe /2.
Dans ce cas le filtre H(f ) a pour gain complexe H(f ) = T rectFe (f ).
Afin de déterminer au mieux le filtre G(f ), nous allons minimiser l’écart quadratique :
Z +∞
²2 = |x(t) − x2 (t)|2 dt
−∞

19
x(t) x 1 (t) x 1 (nT ) x 2 (t)
G(f ) H(f )
nT
Fig. 2.4 – Préfiltrage du signal avant échantillonnage

entre le signal original x(t) et le signal x2 (t) obtenu à partir des échantillons x1 (nT ). Avec des notations
évidentes, en utilisant la formule de Parseval, on a encore :
Z +∞
²2 = |X(f ) − X2 (f )|2 df
−∞

Déterminons l’expression de X2 (f ). Il vient en utilisant la formule de Poisson :


X 1X
X2 (f ) = x1 (nT )H(f )e−2jπnf T = X1 (f − n/T )H(f )
n
T n

Comme H(f ) = T rectFe (f ) et que X1 (f ) = X(f )G(f ), on en déduit que :


X
X2 (f ) = rectFe (f ) X(f − n/T )G(f − n/T ) (2.6)
n

et donc que : Z Z
2 2
² = |X(f ) − X2 (f )| df + |X(f )|2 df (2.7)
|f |<Fe /2 |f |>Fe /2

Comme tous les termes sont positifs et que le second terme du membre droit de l’équation (2.6) ne dépend
pas du choix de G(f ), le minimum est obtenu en prenant G(f ) = rectFe (f ) : en effet, dans ce cas et
d’après 2.6, X2 (f ) = X(f )rectFe (f ), ce qui annule complètement le premier terme de l’équation (2.6).
Ce résultat est important, puisqu’il indique que l’on doit faire précéder l’opération d’échantillonnage
d’un filtrage passe-bas idéal dans la bande (−Fe /2, Fe /2), appelé filtrage anti-repliement. Évidemment il
y a perte d’information et ce que l’on peut reconstruire, au mieux, est le signal x 1 (t). Ce qui est hors de
la bande (−Fe /2, Fe /2) est perdu.

Exemple 2.1 (Signal MIC en téléphonie numérique) le signal téléphonique est ećhantillonné à la
fréquence de 8000 échantillons/s. Pour éviter le repliement, on effectue un filtrage du signal dans la bande
(0 − 3400Hz) légèrement plus étroite que le minimum requis de 4000Hz. Chaque échantillon est ensuite
codé sur 8 bits. On obtient ainsi un débit de 64kbits/s. Cette suite est désignée par le terme de MIC
(pour Modulation par Impulsion et Codage).

2.4 Reconstruction pratique


La conversion du signal analogique à partir de la suite numérique nécessite une bonne approximation
causale d’un filtre passe-bas idéal. En pratique la façon la plus simple de procéder consiste à partir d’un
bloqueur d’ordre 0, qui bloque pendant toute la durée T entre deux échantillons la valeur numérique
appliquée à l’entrée. Le signal obtenu en sortie du bloqueur d’ordre 0 a donc pour expression :
X
x0 (t) = x(nT )h0 (t − nT )
n

où h0 (t) = rect(t − T /2). Le signal x0 (t) est un signal en escalier dont les marches ont pour amplitude
x((n + 1)T ) − x(nT ). En prenant la transformée de Fourier de x0 (t) et en utilisant la formule de Poisson,
on obtient :
X sin(πf T ) −jπf T
X0 (f ) = H0 (f )X(f − n/T ) où H0 (f ) = e
n
πf

En observant |X0 (f )| représenté à la figure 2.6, on voit apparaı̂tre 2 formes de distorsion entre le
signal de départ x(t) et le signal x0 (t) en sortie du bloqueur d’ordre 0.

20
t

Fig. 2.5 – Reconstruction par bloqueur d’ordre 0

sin(πfT)
πfT

f
1
T

Fig. 2.6 – Spectre en sortie du bloqueur d’ordre 0

1. distorsion dans la bande utile (−1/2T, 1/2T ) du signal. Un remède est de réaliser avant
échantillonnage une compensation par le filtre de gain πf T / sin(πf T ).
2. distorsion hors de la bande utile (−1/2T, 1/2T ). Cette distorsion peut être génante : ainsi, en
acoustique, si elle se trouve dans la bande audible, il faut alors utiliser un filtre passe-bas de
fréquence de coupure B.
Le calcul précédent montre que les lobes de la fonction en sinus-cardinal ont pour largeur 1/T où T
représente la durée de la fonction de reconstruction du bloqueur mais aussi la période d’échantillonnage
du signal. D’où l’idée de faire précéder le bloqueur d’une opération d’interpolation. Cette opération est
possible puisque le signal vérifie les conditions du théorème d’échantillonnage. Dans ce cas l’énergie hors
de la bande utile est située essentiellement autour de la fréquence 1/T . Ainsi en audio, en choisissant le
facteur d’interpolation suffisamment grand, la bande de fréquence autour de 1/T peut même être hors
de la bande audible et l’écoute ne nécessite alors aucun filtre supplémentaire en sortie du bloqueur.

2.5 Exercices
Exercice 2.1 (Echantillonnage) 1. On souhaite échantillonner un signal réel à temps continu à la
cadence de 8000 échantillons par seconde. Décrire les tâches à réaliser.
2. On échantillonne à 500 échantillons par seconde un signal réel à temps continu qui est la somme
de 3 sinusoı̈des de fréquences respectives 50Hz, 100Hz et 300Hz. A partir de ces échantillons on
reconstruit par le filtre de reconstruction parfaite un signal à temps continu. Quel est le signal
obtenu ?

Exercice 2.2 (Sous-échantillonnage) On dispose d’une suite de valeurs provenant de


l’échantillonnage d’un signal réel à la fréquence fe = 8000 Hz. On souhaite synthétiser la suite
des échantillons que l’on aurait obtenus si l’on avait effectuer (correctement) l’échantillonnage à 4000
Hz. Décrire le traitement nécessaire pour réaliser cette opération.

Exercice 2.3 (Repliement) On dispose d’un signal à temps discret x(n), avec n ∈ {0, · · · , N − 1},
provenant de l’échantillonnage d’un signal à temps continu xa (t) échantillonné à la fréquence de 8000Hz.

21
On calcule, à partir de x(n), le spectre |X(e2jπf )|. Ce spectre est représenté à la figure 2.7. On observe
une raie à la fréquence f = 0.36.

150

100

50

0
0 0.1 0.2 0.3 0.4 0.5

Fig. 2.7 – Spectre du signal x(n).

1. On suppose que le signal a été correctement échantillonné. Quelle est la fréquence, exprimée en Hz,
correspondant à la raie observée ?
2. On suppose qu’avant échantillonnage on a omis le filtre anti-repliement, Quelles sont les fréquences
possibles, exprimées en Hz, correspondant à la raie observée ?

22
Chapitre 3

Signaux déterministes à temps


discret

3.1 Généralités
Un signal déterministe à temps discret (ou tout simplement signal discret) est une suite de valeurs
réelles ou complexes indexées par Z. On utilise aussi le terme de signal numérique bien que ce terme soit
aussi utilisé en communication pour désigner un signal à temps continu servant à transmettre un message
numérique.
En traitement du signal, un signal à temps discret provient souvent de l’échantillonnage à la cadence
fe = 1/T , d’un signal xc (t) déterministe à temps continu qui, d’après le théorème d’échantillonnage, est
supposé à bande limitée (−fe /2, fe /2). Dans la suite nous supposerons, dans ce cas, que tous les signaux
sont échantillonnés à la même cadence et nous omettrons alors d’indiquer T en notant x(n) = x c (nT ).
Comme pour les signaux à temps continu on peut distinguer les signaux d’énergie finie qui vérifient :
X
E= |x(n)|2 < +∞ (3.1)
n∈Z

et les signaux de puissance finie qui vérifient :


+N
1 X
P = lim |x(n)|2 < +∞ (3.2)
N →+∞ 2N + 1
n=−N

Voici quelques exemples de signaux déterministes à temps discret.


– signal impulsion-unité, d’énergie finie 1, défini par :
½
1 si n = 0
δ(n) =
0 sinon
– signal échelon-unité défini par u(n) = 11N (n),
– signal rectangulaire d’énergie N défini par rectN (n) = 11{0,··· ,N −1} (n),
– signal exponentiel complexe de puissance A2 défini par x(n) = Ae2jπf0 n , avec f0 ∈ (0, 1) 1 ,
– signal sinusoı̈dal de puissance A2 /2 défini par la suite x(n) = A sin(2πf0 n), avec f0 ∈ (0, 1/2),
– signal exponentiel réel d’énergie finie 1/(1 − a2 ) défini par x(n) = an u(n) avec |a| < 1.

3.2 Transformation en Z
Définition 3.1
On appelle transformée en Z du signal à temps discret x(n), la fonction complexe de la variable complexe
z, définie par :
+∞
X
X(z) = x(n)z −n pour R1 ≤ |z| ≤ R2 (3.3)
n=−∞
1 Pour l% signal %xpon%nti%l compl%x%, l% chang%m%nt d% f %n f + N , où N d%́sign% un %nti%r qu%lconqu%, conduit à
0 0
d%ux suit%s indistingabl%s. C’%st pourquoi on n% consid%̀r% qu% d%s val%urs d% f 0 ∈ (0, 1!.

23
On suppose que la couronne de convergence, définie par R1 ≤ |z| ≤ R2 , ne se réduit pas à l’ensemble
vide.
Les points du domaine de convergence où X(z) = 0 s’appellent les zéros. Les points isolés du domaine
de convergence où |X(z)| = +∞ s’appellent les pôles. Dans la quasi-totalité des exemples rencontrés dans
ce cours, X(z) sera une fraction rationnelle et par conséquent les zéros sont les racines du numérateur et
les pôles les racines du numérateur.
De façon générale on a les propriétés suivantes :
– si x(n) est de durée finie, c’est-à-dire si x(n) = 0 à l’extérieur de l’intervalle (N 1 , N2 ), le domaine
de convergence est le plan tout entier, sauf peut-être en z = 0 et z = ∞.
– si x(n) est causale, càd x(n) = 0 pour n < 0, X(z) = x(0) + x(1)z −1 + · · · est finie à l’infini et
x(0) = lim|z|→+∞ X(z). Si X(z) est une fraction rationnelle, cela implique que son numérateur est
de degré inférieur ou égal à celui de son dénominateur. A titre de contre exemple, à la fonction
X(z) = (z − 1)2 /(z − 1/2) ne correspond aucune suite causale.
– si x(n) est causale, x(0) = lim|z|→+∞ X(z),
– si x(n) est nulle à gauche2 , c’est-à-dire si x(n) = 0 pour n < N1 , le domaine de convergence est la
partie du plan qui s’étend jusqu’à l’infini. Dans ce cas R2 = ∞.
– si x(n) est nulle à droite , c’est-à-dire si x(n) = 0 pour n > N2 , le domaine de convergence est la
partie du plan qui contient l’origine. Dans ce cas R1 = 0.
– si x(n) est bilatérale, le domaine de convergence est une couronne de la forme R 1 ≤ |z| ≤ R2 , qui
est délimitée inférieurement et supérieurement par un pôle, qui ne contient aucun pôle et qui est
connexe.

Exemple 3.1 Calculons la transformée en Z de x(n) = 11{0,··· ,N −1} (n). Il vient :

N
X −1
X(z) = z −n = 1 + z −1 + · · · + z N −1
n=0

qui converge pour toute valeur z 6= 0. X(z) n’a pas de pôle, autre que z = 0. On note que X(1) = N . On
peut aussi écrire pour tout z 6= 1 que :

1 − z −N
X(z) =
1 − z −1

Exemple 3.2 Calculons la transformée en Z de la suite x(n) = an pour n ≥ 0 et nulle pour n < 0. Il
vient :
+∞
X 1
X(z) = an z −n =
n=0
1 − az −1

La série converge pour toute valeur de z qui vérifie |z| > |a|. On vérifie que x(n) étant nulle à gauche
R2 = +∞. X(z) n’a pas de zéro et a un pôle en z = a.

Formule inverse
L’inversion de la transformée en Z ne peut se faire que si l’on s’est donné à la fois X(z) et son domaine
de convergence. En effet à une même fonction de z correspondent plusieurs suites numériques, suivant
le domaine de convergence qui lui est associé. C’est ce que montre l’exemple suivant. Considérons la
fonction :
z2
X(z) = 1
(z − 2 )(z − 2)

Cette fonction possède deux pôles l’un en z = 2 et l’autre en z = 1/2. Il y a donc 3 régions possibles
de convergence. A ces 3 régions correspondent 3 suites numériques distinctes mais qui ont en commun
l’expression X(z) de leurs transformées en Z.
2 On r%́s%rv% l% t%rm% causal (r%sp%ctiv%m%nt anticausal! à la suit% null% à gauch% (r%sp%ctiv%m%nt à droit%! à partir d%
0.

24
1. Au domaine |z| < 1/2 correspond la suite anti-causale :
½ ¡ ¢n+1
2 1
− 23 2n+1 n ≤ −2
x(n) = 3 2
0 n > −2

2. Au domaine 1/2 < |z| < 2 correspond la suite bilatérale :


µ ¶|n|
1 1
x(n) = −
3 2

3. Au domaine |z| > 2 correspond la suite causale :


−2 1 n+1
½
+ 23 2n+1
¡ ¢
n≥0
x(n) = 3 2
0 n<0

Vérifions le point 1. Il vient :


2 2
3z − 32 z 2 4 2
z −1 2
z
X(z) = 1 + = 3 + 3 z
2 −z
2−z 1 − 2z 1− 2

Comme on a supposé que |z| < 1/2, 2|z| < 1 et |z/2| < 1. On peut donc utiliser le développement en
P+∞
série 0 un = 1/(1 − u) valable pour |u| < 1. On obtient :
µ µ ¶n ¶
4¡ 2 n n+2
¢ 1 2 1 n+2
X(z) = z + ··· + 2 z + ··· − z + ··· + z + ···
3 3 2
En déterminant l’expression du coefficient du terme en z −n , on en déduit le résultat annoncé.
Cet exemple donne une méthode pratique d’inversion de la transformée en Z pour une fraction ra-
tionnelle : on décompose la fraction en élémentsPsimples, puis en prenant en compte le domaine de
+∞
convergence, on utilise le développement en série n=0 un = 1/(1 − u) valable pour |u| < 1.
Il existe aussi une formule générale d’inversion :
1
I
x(n) = X(z)z n−1 dz
2jπ (c)

où (c) désigne un contour de Cauchy situé dans le domaine de convergence entourant une fois l’origine
dans le sens direct. En pratique le calcul de cette intégrale se fait par la technique des résidus, qui fait
appel au théorème suivant dû à Cauchy.

Théorème 3.1
Si F (z) est holomorphe dans un domaine D et si (c) est un contour fermé dans D alors, en notant a k et
bk les singularités isolées respectivement intérieures et extérieures à D :
1
I X X
F (z)dz = Résidu(F (z), ak ) = − Résidu(F (z), bk ) − Résidu(F (z), ∞)
2jπ (c)
k k

où Résidu(F (z), z0 ) désigne le résidu de F (z) en z0 .


En pratique les résidus proviennent soit des pôles à distance finie soit des pôles ou des zéros à l’infini.
Les règles suivantes suffisent le plus souvent pour évaluer ces quantités :
1. z0 est un pôle à distance finie d’ordre 1 alors : Résidu(F (z), z0 ) = limz→z0 (z − z0 )F (z),
2. z0 est un pôle à distance finie d’ordre 1 alors : Résidu(A(z)/B(z), z0 ) = A(z0 )/B 0 (z0 ),
3. z0 est un pôle à distance finie d’ordre N alors :
µ N −1
(z − z0 )N F (z)

1 d
Résidu(F (z), z0 ) = lim
(N − 1)! z→z0 dz N −1

4. z0 est un zéro à l’infini d’ordre 1 alors : Résidu(F (z), ∞) = limz→∞ (−zF (z)),
5. z0 est un zéro à l’infini d’ordre ≥ 2 alors : Résidu(F (z), ∞) = 0,
6. z0 est un pôle à l’infini alors : Résidu(F (z), ∞) = −Résidu(z 2 F (1/z), 0).

25
Inversion du sens du temps
Soit la suite :
+∞
X
X(z) = x(n)z −n avec Dx = R1x < |z| < R2x
n=−∞

Considérons la suite t(n) = x(−n). Sa transformée en Z a pour expression T (z) = X(1/z) et donc la série
converge pour les valeurs de z appartenant au domaine :
1 1
Dt = R1t = < |z| < R2t =
R2x R1x
que nous notons symboliquement 1/Dx .

Produit de Convolution
Le produit de convolution de deux suites est défini par :
+∞
X +∞
X
t(n) = x(n) ? y(n) = x(k)y(n − k) = x(n − k)y(k)
k=−∞ k=−∞

Cette opération est commutative, associative et distributive par rapport à l’addition. Elle est, comme
dans le cas des signaux à temps continu, à la base de la caractérisation des filtres linéaires.
L’une des principales propriétés de la transformée en Z est d’associer au produit de convolution le
produit simple. En effet considérons deux suites x(n) et y(n) et leurs transformées en Z respectives :
+∞
X
X(z) = x(n)z −n avec Dx = R1x < |z| < R2x
n=−∞
+∞
X
Y (z) = y(n)z −n avec Dy = R1y < |z| < R2y
n=−∞

Déterminons la transformée en Z notée T (z) de la suite numérique t(n) = x(n) ? y(n).


+∞
à +∞ !
X X
T (z) = x(k)y(n − k) z −n
n=−∞ k=−∞
+∞ +∞
à !
X X
−k n−k
= x(k)z y(n − k)z = Y (z)X(z)
k=−∞ n=−∞

Par conséquent la transformée en Z de la suite t(n) = x(n) ? y(n) est T (z) = Y (z)X(z). Son domaine
de convergence contient au moins les valeurs de z qui vérifient max(R1x , R2y ) < |z| < min(R2x , R2y ). En
effet le domaine peut être augmenté des pôles de X(z) qui sont des zéros de Y (z). Symboliquement on
peut donc écrire que Dt contient Dx ∩ Dy .

Relation de Parseval
En appliquant la propriété de la convolution à la suite t(n) = x(n) ? y ∗ (−n) et en faisant n = 0, on
obtient la formule :
+∞
1 dz 1 dz
X I I
x(k)y ∗ (k) = t(0) = T (z) = X(z)Y ∗ (1/z ∗ )
2jπ (c) z 2jπ (c) z
k=−∞

où (c) est un contour de Cauchy dans le domaine défini par la double inégalité max(R 1x , 1/R2y ) < |z| <
min(R2x , 1/R1y ).
Dans le cas particulier où on fait x(n) = y(n), on obtient la formule dite de Parseval :
+∞
1 dz
X I
2
|x(k)| = X(z)X ∗ (1/z ∗ )
2jπ (c) z
k=−∞

26
Produit simple
On montre que la transformée en Z de la suite numérique t(n) = x(n)y(n) est donnée par :

1 du
I
T (z) = X(u)Y (z/u)
2jπ (c) u

dont la région de convergence contient au moins le domaine noté Dx × Dy et défini par : R1x R1y < |z| <
R2x R1y . En effet si Y (u) a comme domaine de convergence R1y < |u| < R2y , Y (z/u) a comme domaine
de convergence R1y < |z/u| < R2y . Par conséquent T (z) existe si l’intersection entre R1x < |u| < R2x et
|z|/R2y < |u| < |z|/R1y est non vide. Ce qui est obtenu si R1x < |z|/R2y et si R2x > |z|/R1y .
Les propriétés suivantes sont uniquement énoncées.
propriété t(n) T(z) convergence
linéarité ax(n) + by(n) aX(z) + bY (z) D x ∩ Dy
inversion du temps x(−n) X(1/z) 1/Dx
translation en temps x(n − n0 ) X(z)z −n0 Dx
convolution x(n) ? y(n) X(z)Y (z) D x ∩ Dy
produit x(n)y(n) X(z) ? Y (z) D x × Dy
conjugaison x∗ (n) X ∗ (z ∗ ) Dx
réelle X(z) = X ∗ (z ∗ )

3.3 Transformation de Fourier à temps discret (TFtd)


Définition 3.2
On appelle transformée de Fourier à temps discret (en abrégé TFtd) du signal numérique x(n) la fonction
définie par :
+∞
X
X(e2jπf ) = x(n)e−2jπnf (3.4)
n=−∞

La TFtd est donc égale à la transformée en Z calculée le long du cercle unité càd pour z = e 2jπf . Par
définition, la TFtd est périodique de période 1. Pour cette raison on limite en général sa représentation à
un intervalle de longueur 1 et on prend souvent soit (−1/2, 1/2) soit (0, 1). Remarquons que la suite x(n)
représente aussi la suite des coefficients de Fourier de la fonction périodique X(e 2jπf ). Par conséquent on
a la formule de TFTd inverse :
Z 1/2
x(n) = X(e2jπf )e2jπnf df (3.5)
−1/2

1
A titre d’exemple, calculons la TFTd du signal rectangulaire x(n) = N rectN (n). Il vient :

N −1
X 1 − e−2jπN f sin(N πf )
X(e2jπf ) = e−2jπnf = −2jπf
= e−jπ(N −1)f
n=0
1−e N sin(πf )

On a représenté figure 3.1, |X(e2jπf )| pour N = 10. On note que le lobe principal est de largeur 2/N ,
que les lobes secondaires sont de largeur 1/N et que le premier lobe secondaire se trouve à environ 13dB
en dessous du lobe principal.

Propriété 3.1
1. si x(n) est de module sommable, la série n x(n)e−2jπnf converge uniformément vers une fonction
P
continue de f ,
2. si x(n) est de carré sommable, sans être de module sommable, il n’y
Pa plus convergence P
uniforme. La
série converge seulement en moyenne quadratique. Rappelons que n |x(n)| < +∞ ⇒ n |x(n)|2 <
+∞, mais que la réciproque est fausse.

27
0

−5

−10

−15

−20

−25

−30

−35

−40
0 0.2 0.4 0.6 0.8 1

Fig. 3.1 – Module du spectre de la fenêtre rectangulaire pour N = 10.

Illustrons le point 2. Considérons la fonction X(e2jπf ), périodique de période 1, définie pour f ∈


(−1/2, 1/2) par :
½
2jπf 1 pour |f | < f0
X(e )=
0 pour |f | > f0
où f0 ∈ (−1/2, 1/2). En utilisant la formule inverse, on obtient pour les coefficients de Fourier la suite
PN
x(n) = sin(2πnf0 )/(πn) où n ∈ Z. Considérons à présent la fonction XN (e2jπf ) = N x(n)e−2jπnf . La
théorie de Fourier montre que :
Z +∞
¯X(e2jπf ) − XN (e2jπf )¯2 df
¯ ¯
−∞

tend vers 0 quand N tend vers l’infini. Mais il n’y a pas convergence uniforme, dans le sens où le sup de
l’écart ne tend pas vers 0. Un calcul compliqué montre d’ailleurs que le maximum de la fonction X N (e2jπf )
reste légèrement supérieur à 1,08 et ce quel que soit N . Ce phénomène est général : au voisinage d’une
discontinuité, il peut appraitre des oscillations non évanescentes, que l’on désigne, dans le contexte des
signaux, sous le nom de phénomène de Gibbs.
Remarquons enfin que, pour assurer la convergence en un point de discontinuité tel que f 0 , il suffit
d’affecter à la fonction la valeur du demi-saut : ici on prendra X(e2jπf0 ) = 1/2.
Les propriétés de la TFtd se déduisent sans difficulté de celles de la transformée en Z à condition
que les écritures aient un sens et donc que le cercle unité appartienne au domaine de convergence. On
remarque que presque toutes peuvent être obtenues par analogie avec celles de la transformée de Fourier
à temps continu.
propriété temps fréquence
2jπf
linéarité ax(n) + by(n) aX(e ) + bY (e2jπf )
2jπf −2jπf n0
translation en temps x(n − n0 ) X(e )e
translation en fréquence x(n)e2jπf0 n X(e2jπ(f −f0 ) )
convolution x(n) ? y(n) X(e2jπf )Y (e2jπf )
conjugaison x∗ (n) X ∗ (e−2jπf )
2jπf
réelle X(e ) = X ∗ (e−2jπf )
réelle, paire réelle, paire

Relation de Parseval
En utilisant la propriété de convolution, on obtient l’expression de conservation du produit scalaire :
X Z 1/2
x(n)y ∗ (n) = X(e2jπf )Y ∗ (e2jπf )df
n∈Z −1/2

28
1.2

0.8

0.6

0.4

0.2

−0.2
0 0.2 0.4 0.6 0.8 1
PN
Fig. 3.2 – Phénomène de Gibbs : XN (e2jπf ) = N x(n)e
−2jπnf
avec N = 5, 6, 7, 8
pour la suite x(n) = sin(2πf0 n)/πn, où f0 = 0,24 qui tend quadratiquement vers la
fonction rectangle de largeur 2f0 ;

qui donne pour y(n) = x∗ (n) :

X Z 1/2
|x(n)|2 = |X(e2jπf )|2 df
n∈Z −1/2

3.3.1 Relation entre la TFTC et la TFTD


On considère un signal à temps continu xa (t). On note Xa (F ) sa transformée de Fourier à temps
continu (TFTC). On échantillonne ce signal à la fréquence Fe = 1/T . On pose xe (n) = xa (nTe ). On
note Xe (f ) la transformée de Fourier à temps discret (TFTD) de la suite xe (n). La question est : quelle
est la relation entre Xa (F ) et Xe (f ). La réponse est donnée par le théorème d’échantillonnage que nous
rappelons ici :
+∞
1 X
Xe (f ) = Xa (Fe (f − k))
Te
k=−∞

On retiendra :
TFTC → TFTD :
– on divise l’axe des fréquences par Fe ,
– on périodise avec la période 1,
– on divise l’amplitude par Te .
TFTD → TFTC :
– on multiplie l’axe des fréquences par Fe ,
– on multiplie l’amplitude par Te ,
– si le signal xa (t) est à bande limitée, on limite la TFTC à cette bande.
Remarque : si le signal xa (t) est réel, la bande est centrée autour de la fréquence 0.

29
3.4 Filtrage linéaire convolutionnel des signaux déterministes à
temps discret
3.4.1 Définition et propriétés
Définition 3.3 P
Soit x(n) une signal à temps discret et soit h(n) une suite telle que n |h(n)| < +∞. Un filtre linéaire
convolutionnel effectue la convolution :
+∞
X +∞
X
y(n) = h(k)x(n − k) = h(n − k)x(k) (3.6)
k=−∞ k=−∞

La transformée de Fourier à temps discret H(e2jπf ) de la suite h(n) s’appelle la réponse en fréquence ou
gain complexe du filtre. On considère aussi la transformée en Z, H(z) = n∈Z h(n)z −n , de la réponse im-
P
pulsionnelle h(n), que l’on appelle la fonction de transfert. Comme h(n) est supposé de module sommable,
le domaine de convergence de H(z) contient le cercle unité.
Les signaux x(n) et y(n) appartiennent à une certaine classe de signaux.

Le terme réponse impulsionnelle vient de ce que h(n) est la sortie du filtre lorsque l’on applique à son
entrée le signal x(n) = δ(n) (qui vaut 1 pour n = 0 et 0 sinon).

Propriétés fondamentales
Linéarité : si x1 (n) et x2 (n) donnent respectivement y1 (n) et y2 (n), alors a1 x1 (n) + a2 x2 (n) donne alors
a1 y1 (n) + a2 y2 (n),
Invariance dans le temps : si au signal d’entrée x(n) correspond le signal de sortie y(n) alors, pour
tout entier k, au signal d’entrée x(n − k) correspond en sortie le signal y(n − k).
Exponentielle complexe : pour x(n) = exp(2jπf0 n), un calcul simple et justifié par le fait que h(n)
est supposé de module sommable, donne :
+∞
X
y(n) = h(k)e2jπf0 (n−k) = H(e2jπf0 )x(n)
k=−∞

Ainsi l’action d’un filtre convolutionnel se résume à la multiplication du signal par le terme complexe
H(e2jπf0 ) qui n’est autre que la transformée de Fourier à temps discret de la réponse impulsionnelle
h(n) au point f0 . Autrement dit, les exponentielles complexes sont les fonctions propres des filtres
linéaires.
Entrée mélange harmonique : par linéarité, le résultat précédent se généralise au mélange harmo-
nique défini par :
XK
x(n) = Ak e2jπfk n
k=1

qui donne en sortie le signal :


K
X
y(n) = H(e2jπfk )Ak e2jπfk n
k=1

Entrée stable : si x(n) ∈ `1 , cad |x(n)| < +∞, alors y(n) ∈ `1 , plus précisément
P
n
X X X
|y(k)| ≤ |h(k)| |x(k)|
k k k

et on a :

Y (e2jπf ) = H(e2jπf )X(e2jπf ) (3.7)

30
Entrée d’énergie finie : si x(n) ∈ `2 , cad |x(n)|2 < +∞, alors y(n) ∈ `2 , plus précisément
P
n
X X X
|y(k)|2 ≤ |h(k)| |x(k)|2
k k k

et on a :

Y (e2jπf ) = H(e2jπf )X(e2jπf ) (3.8)

∞ ∞
Entrée
P bornée : si x(n) ∈ ` , cad supn |x(n)| < +∞, alors y(n) ∈ ` , plus précisément supn |y(n)| ≤
k |h(k)| supn |x(n)|. Cette propriété fondamentale, qui dit qu’à toute entrée bornée correspond
une sortie bornée, porte le nom de stabilité. Les filtres convolutionnels sont donc stables.

Exemple 3.3 (filtre moyenneur) On considère le filtre dont la relation d’entrée–sortie s’écrit :
n
1 X
y(n) = x(k)
N
k=n−N +1

qui représente la moyenne des N dernières valeurs de x(n). Sa réponse en fréquence est H(e 2jπf ) =
e−jπ(N −1)f sin(πN f )/ sin(πf ).

3.4.2 Filtre à fonction de transfert rationnelle


Une importante classe de filtres linéaires est constituée par les systèmes qui répondent à une équation
récurrente linéaire à coefficients constants de la forme :

y(n) + a1 y(n − 1) + · · · + ap y(n − p) = b0 x(n) + b1 x(n − 1) + · · · + bq x(n − q) (3.9)

En utilisant les propriétés de la transformée en Z, on obtient pour la fonction de transfert la fraction


rationnelle :
b0 + · · · + bq z −q
H(z) = (3.10)
1 + a1 z −1 + · · · + an z −n
Le domaine de convergence est la couronne du plan ne contenant aucun pôle et contenant le cercle unité.
Pour que cette couronne ne soit pas vide il faut et il suffit que le polynome A(z) = 1 + a 1 z −1 + · · · + an z −n
n’ait pas de zéros sur le cercle unité, càd A(z) 6= 0 pour z = e2jπf . Rappelons en plus que le filtre est
causal si le domaine de convergence est une couronne qui s’étend à l’infini.
Par conséquent on a le résultat suivant.

Théorème 3.2
Pour qu’un filtre linéaire (par définition stable), ayant comme fonction de transfert la fraction rationnelle
H(z) = B(z)/A(z), soit causal il faut et il suffit que tous ses pôles (racines de A(z)) soient strictement à
l’intérieur du cercle unité.

Notons que, si il y a des pôles hors du cercle unité, il existe une solution (stable) mais elle n’est pas
causale. Elle est même anticausale si tous les pôles sont à l’extérieur du cercle unité.
On note que le système défini par 3.9 possède évidemment une solution causale : il suffit de dire que
y(n) peut s’obtenir uniquement à partir du présent et du passé. Cette solution apparaı̂t dans l’expression
de H(z), puisque le numérateur et le dénominateur ont même degré et donc H(z) est fini à l’infini. Cette
solution est stable (cad h(n) de module sommable) ssi A(z) 6= 0 pour |z| ≥ 1.
Remarquons enfin que, si les coefficients de l’équation aux différences 3.9 sont réels :
– la réponse impulsionnelle est réelle,
– la fonction de transfert vérifie H(z) = H ∗ (z ∗ ) et sa réponse en fréquence H(e2jπf ) = H ∗ (−e2jπf ),
– les numérateur et dénominateur de H(z) sont des polynômes à coefficients réels. Et donc ses pôles
et ses zéros sont soit réels, soit vont par pair de complexes conjugués.

31
Exemple 3.4 (Filtre purement récursif d’ordre 1) Soit le système répondant à l’équation aux
différences :

y(n) − ay(n − 1) = x(n) (3.11)

Calculons directement sa réponse impulsionnelle. Pour cela déterminons le signal de sortie h(n) produit
par le signal d’entrée impulsion-unité x(n) = δ(n). Il vient :

h(n) − ah(n − 1) = 0 pour n < 0


h(n) − ah(n − 1) = 1 pour n = 0
h(n) − ah(n − 1) = 0 pour n>0

La solution qui correspond à la condition de causalité doit vérifier h(n) = 0 pour n < 0. On en déduit
que h(0) = 1 et que h(n) = an pour n > 0. Cette solution ne correspond à un filtre stable que si |a| < 1.
Calculons sa fonction de transfert. Pour cela prenons la transformée en Z des deux membres de
l’équation 3.11. On obtient H(z) = 1/(1 − az −1). Pour assurer la stabilité il faut que |a| 6= 1. La réponse
impulsionnelle s’obtient alors en effectuant un développement de H(z) pour |z| > a.

Définition 3.4 (filtre passe-tout d’ordre 1)


On appelle filtre passe-tout d’ordre 1, un filtre dont la fonction de transfert a pour expression :

z −1 − b∗
H(z) = avec |b| < 1 (3.12)
1 − bz −1

Propriété 3.2
Pour un filtre passe-tout, |H(e2jπf )| = 1 pour tout f .

Il suffit de noter que H(e2jπf ) = e−2jπf (1 − b∗ e2jπf )/(1 − be−2jπf ).

Théorème 3.3
Soit une fonction rationnelle H(z) = B(z)/A(z) et soit b un zéro de H(z). Alors on ne change pas le
module de H(e2jπf ), en remplaçant le zéro b par le zéro 1/b∗3 .
−1 ∗
Pour remplacer le zéro b par le zéro 1/b∗ , il suffit de multiplier H(z) par z1−bz−b −1 et d’utiliser la propriété

précédente.
Si un ensemble de zéros et de pôles réalise un filtre, de fonction de transfert rationnelle, de gain donné
(module de sa réponse impulsionnelle), la condition de stabilité et de causalité impose de mettre tous les
pôles à l’intérieur du cercle unité. Il reste toutefois, d’après le théorème précédent, un degré de liberté
sur la position des zéros. Ce degré tombe si l’on impose au filtre d’être à minimum de phase.

Définition 3.5 (filtre à minimum de phase)


On dit qu’un filtre linéaire, dont la fonction de transfert est une fraction rationnelle, est à minimum de
phase, si les pôles et les zéros de sa fonction de transfert sont à l’intérieur du cercle unité.

Notons que, tel que nous l’avons défini, un filtre à minimum de phase est stable, causal et que le filtre
inverse est lui-même stable et causal.
Propriété 3.3
Le filtre à minimum de phase de fonction de transfert Hmin (z) est, parmi tous les filtres de fonction
de transfert H(z) ayant le même gain (module de la réponse en fréquence), celui qui répond le plus
“rapidement” dans le sens où (avec des notations évidentes) :
– si x(n) estPcausal, |ymin (0)| ≥ |y(0)|,
n Pn
– ∀n, on a k=−∞ |ymin (k)|2 ≥ k=−∞ |y(k)|2 .

32
x(n) y(t)
+

z–1
a1
+

+
z–1
a2

Fig. 3.3 – Réalisation d’un filtre du second ordre purement récursif

Filtre du second ordre purement récursif


On considère le filtre linéaire du second ordre, causal, stable, répondant à l’équation aux différences :
y(n) + a1 y(n − 1) + a2 y(n − 2) = x(n) (3.13)
Une façon de le réaliser est obtenue par la structure donnée à la figure 3.3.
Sa fonction de transfert a pour expression H(z) = 1/(1+a1 z −1 +a2 z −2 ). Les conditions de stabilité et
de causalité imposent que les deux pôles soient de module inférieur à 1 et que le domaine de convergence
soit constitué des valeurs de z, dont le module est supérieur au module du pôle de plus grand module.
On est conduit à distinguer deux cas suivant que les deux pôles sont réels ou complexes conjugués. En
nous limitant à ce dernier cas càd a21 − 4a2 < 0 et en notant p et p∗ les deux pôles, on a Re(p) = −a1 /2

et |p| = a2 supposé inférieur à 1.

P
0.5 M

0
0

−0.5
Q

−1

−1 −0.5 0 0.5 1

Fig. 3.4 – Position des pôles d’un filtre du second ordre purement récursif

Si on désigne par P et Q les affixes de p et p∗ dans le plan complexe (voir figure 3.4) et par M un
point du cercle unité d’affixe exp(2jπf ), le module du gain complexe a pour expression |H(e 2jπf )| =
1/(M P × M Q). La présence d’un pôle près du cercle unité peut alors entrainer de fortes valeurs pour
|H(e2jπf )|. Le calcul montre que |H(e2jπf )| passe par un maximum si a1 (1 + a2 ) < 4a2 . Le maximum est
alors atteint pour une fréquence dite de fréquence de résonance dont l’expression est :
1 −a1 (1 + a2 )
fR = arccos( )
2π 4a2
La valeur du maximum, appelée surtension, est donnée par :
1
HR =
(1 − a2 ) sin(2πfR )
3 Dans l% plan compl%x%, l%s ax%s d% b %t d% 1/b∗ borm%nt un% pair% dans l’inv%rsion d% pôl% 0 %t puissanc% 1.

33
Le terme de surtension s’explique par le fait que si l’on applique à l’entrée du filtre le signal sinusoı̈dal
x(n) = A cos(2πfR n), on obtient en sortie le signal sinusoı̈dal y(n) = AHR cos(2πfR n + φR ). Et donc
l’amplitude a été multipliée par HR .

Gabarit d’un filtre


En pratique on est souvent conduit à synthétiser un filtre, à partir de la donnée d’une région dans
laquelle on souhaite faire passer son gain en fréquence. En se limitant ici au cas d’un filtre passe-bas, on
est conduit à introduire 3 régions de la bande en fréquence :
– bande passante, plage de fréquences où le gain prend des valeurs comprises entre (1 − δ p , 1 + δp ) (δp
est le taux d’ondulation en bande passante),
– bande affaiblie, plage de fréquences où le gain prend des valeurs inférieures à δ a (δa est le taux
d’ondulation en bande affaiblie),
– bande de transition, plage de fréquences où le gain s’atténue dans un rapport A.
Une telle description porte le nom de gabarit.
Les remarques suivantes indiquent le lien entre le gabarit et la position des pôle et des zéros.
– Le cercle unité est gradué en valeur de la fréquence quivarie entre −1/2 et 1/2.
– Si les pôles et les zéros sont complexes conjugués, |H(e2jπf )| est paire (cas des filtres ayant une
réponse impulsionnelle réelle).
– La partie du plan complexe où se trouvent les pôles correspond à la bande passante. Plus les pôles
sont proches du cercle unité, plus les surtensions sont grandes. Plus le nombre de pôles est grand,
plus les ondulations dans la bande passante pourront être rendues faibles.
– La partie du plan complexe où se trouvent les zéros correspond à la bande affaiblie. Plus les zéros
sont proches du cercle unité, plus l’atténuation est grande. Plus le nombre de zéros est grand, plus
les ondulations dans la bande affaiblie pourront être rendues faibles.

Im(z)
|H( f )| zéros f=1/4
pôles

f=1/2 ϕ
B. affaiblie Ré(z)
f=–1/2 f=0
B. passante
f
Bande
0 1 f=–1/4 passante
2

Fig. 3.5 – Gabarit et position des pôles et des zéros

3.4.3 Synthèse d’un filtre RIF par la méthode de la fenêtre


Un filtre à réponse impulsionnelle finie, en abrégé filtre RIF, a pour relation d’entrée-sortie :

y(n) = h(0)x(n) + h(1)x(n − 1) + · · · + h(p − 1)x(n − p + 1) (3.14)

Une réalisation est constituée de p mémoires, de p + 1 multiplieurs et d’un sommateur. Evidemment il


est aussi possible de réaliser grâce à un “bouclage” un filtre à réponse impulsionnelle infinie, en abrégé
filtre RII. Nous en avons vu un exemple au paragraphe précédent avec la cellule du second ordre.

Deux avantages des filtres RIF


Le premier avantage d’un filtre RIF est d’être stable quels que soient les coefficients, puisque la fonction
de transfert n’a pas de pôle. Un deuxième avantage est permettre la réalisation d’un filtre à phase linéaire.
Cette propriété, qui assure l’absence de distorsion de phase, est parfois exigée dans certains problèmes
pratiques. Comme nous allons le voir cette propriété est liée à l’existence d’une symétrie, paire ou impaire,

34
dans les coefficients du filtre RIF. Considérons, sans perte de généralités, un filtre RIF ayant un nombre
pair N = 2P de coefficients non nuls et tel que h(i) = h(N − i) pour i ∈ {0, · · · , P }. En mettant e −jπP f
en facteur, sa réponse en fréquence a pour expression :

H(e2jπf ) = e−jπP f (h(0)ejπP f + h(N )e−jπP f ) + · · ·


¡ ¢

= e−jπP f (2h(0) cos(πP f ) + 2h(1) cos(π(P − 1)f ) + · · · )

On voit donc que la phase est linéaire modulo π. On voit clairement que cette propriété est liée à la
symétrie de h(n).

Méthode de la fenêtre
Dans ce paragraphe, nous nous limitons à présenter, pour un filtre passe-bas, une méthode de synthèse
des filtres RIF, appelée méthode des fenêtres. Elle suppose donné le gain en fréquence H(e 2jπf ) =
11(−f0 ,f0 ) (f ) du filtre à synthétiser. Dans ce cas la réponse impulsionnelle h(n) peut être obtenue par la
formule de transformation inverse :
Z 1/2
sin(2πnf0 )
h(n) = H(e2jπf )e2jπnf df =
−1/2 πn

Il s’en suit que la suite h(n) est infinie. On peut alors tronquer cette suite en ne conservant que les
p = 2k + 1 valeurs allant de −k à −k. Cette troncature revient à multiplier la suite h(n) par la fenêtre
rectangulaire :

πr (n) = 1 pour n ∈ {−k, · · · , k} (3.15)

dont la transformée de Fourier a pour module une fonction de la forme sin((k + 1)πf )/ sin(πf ). Cette
opération a, par conséquent, pour effet d’introduire, par convolution, des ondulations sur le gain en
fréquence. Ces ondulations peuvent même (phénomène de Gibbs) ne pas être évanescentes quand k tend
vers l’infini.
Il est possible de réduire l’amplitude de ces ondulations en utilisant des fenêtres différentes. L’une des
plus utilisées est la fenêtre de Hamming :

πh (n) = 0,54 + 0,46 cos(πn/k) pour n ∈ {−k, · · · , k} (3.16)

dont la hauteur du premier lobe secondaire est à 40dB tandis qu’il n’est que de 13 pour la fenêtre
rectangulaire. Toutefois la réduction des ondulations liée à la réduction de la hauteur des lobes secondaires
s’accompagne toujours de l’élargissement de la bande de transition lié à l’élargissement du lobe principal
qui est de 2/k pour la fenêtre de Hamming tandis qu’il n’est que de 1/k pour la fenêtre rectangulaire.
La méthode de la fenêtre est une méthode simple pour réaliser un filtre RIF. Elle présente toutefois
deux inconvénients importants :
– les ondulations, en bande passante et en bande atténuée, ne sont pas constantes ; le gabarit doit
donc être obtenu sur la plus grande amplitude des ondulations.
– elle ne permet pas de controler séparément les ondulations en bande passante et en bande atténuée.
La méthode dite de Remez, qui n’a pas ces inconvénients, lui est souvent préférée.

Exemple 3.5 (filtre passe-bas demi-bande) Soit à réaliser le filtre dont le gain est H(e 2jπf ) = 1
pour |f | < 1/4. On en déduit que sa réponse impulsionnelle est infinie et a pour expression h(n) =
sin(nπ/2)/(nπ). En se limitant aux valeurs de n appartenant à l’intervalle {−5, · · · , 5}, on obtient la
suite des coefficients :
1 1 1
h(−5) = h(5) = 5π h(−3) = h(3) = − 3π h(−1) = h(1) = π h(0) = 1/2

qui donne pour relation entrée-sortie :


1 1 1
y(n − 5) = x(n) − x(n − 2) + · · · + x(n − 10)
5π 3π 5π
On remarque que le filtre obtenu n’est pas à proprement parler causal. Toutefois il peut être considéré
comme tel, si l’on accepte un retard de 5 en sortie.

35
3.5 Transformation de Fourier discrète (TFD)
On a vu que l’outilP de base de l’étude des signaux numériques était la transformée de Fourier à temps
discret X(e2jπf ) = n x(n)e−2jπnf . En pratique, cette fonction ne peut être calculée que sur un nombre
fini de valeurs de n et pour un nombre fini de valeurs de f . Ces raisons sont à l’origine de l’introduction de
la transformée de Fourier discrète. On limite l’indice n à une plage de P valeurs et on discrétise l’intervalle
(0, 1) en prenant un nombre fini de N fréquences régulièrement espacées de la forme : f = k/N avec
k ∈ {0, · · · , N − 1}.

Définition 3.6
Soit la suite finie {x(0), x(1), · · · , x(P − 1)}. On appelle transformée de Fourier discrète (en abrégé TFD),
la suite finie {X(0), x(1), · · · , X(N − 1)} définie par :
P
X −1
kn
X(k) = x(n)wN avec wN = exp(−2jπ/N ) (3.17)
n=0

Notons que wN est racine N -ième de l’unité.


Très souvent, en particulier lors de l’utilisation de l’algorithme de calcul rapide (Fast Fourier Trans-
form, en abrégé FFT), on prend N = P . On obtient les formules directe et inverse :
( PN −1 kn
X(k) = n=0 x(n)wN
1
PN −1 −kn (3.18)
x(n) = N n=0 X(k)wN

Pour démontrer la formule inverse on utilise l’identité :


N −1
1 X kn
gN (k) = x(n)wN =1 si k=0 mod (N ) (3.19)
N n=0

Exemple 3.6 (exponentielle complexe) Pour illustrer le lien entre la transformée de Fourier discrète
et la transformée de Fourier à temps discret, considérons l’exponentielle complexe tronquée x(n) =
A exp(2jπf0 n)11{0,··· ,N −1} (n) où f0 ∈ (0, 1). Sa transformée de Fourier à temps discret a pour expression :

sin(πN (f − f0 )) −jπ(f −f0 )(N −1)


Xc (e2jπf ) = A e
sin(π(f − f0 ))

On retrouve un résultat général qui est que la troncature introduit des ondulations et “étale” le spectre.
On constante la présence d’un lobe de largeur 2/N bordé de lobes secondaires.
Le passage à la TFD se fait en ne conservant que N points de fréquence de la forme f = k/N :

sin(πN (f0 − k/N )) jπ(f0 −k/N )(N −1)


X(k) = A e
sin(π(f0 − k/N ))

Nous avons représenté à la figure 3.6 X(k) pour f0 = 0,2 et N = 32. A présent la suite X(k) comporte
plusieurs valeurs non nulles, sauf si f0 est juste un multiple de 1/N .

Dans les propriétés, données ci-après, les opérations sur les indices doivent être effectuées
modulo N . Ainsi si la suite x(n) désigne x(0), x(1), x(2), x(3), x(4), x(5), x(6), x(7), la suite
notée x(n − 3) désigne x(5), x(6), x(7), x(0), x(1), x(2), x(3), x(4) et la suite notée x(−n) désigne
x(0), x(7), x(6), x(5), x(4), x(3), x(2), x(1).

Propriété 3.4
– linéarité : ax(n) + b(y(n) a pour TFD aX(k) + bY (k),
pk
– retard : x(n − p) a comme TFD wN X(k),
– convolution circulaire : x(n) ? y(n) a comme TFD X(k)Y (k), symétrie hermiitenne : si x(n) réelle
alors X(k) = X ∗ (−k), conjugaison : x∗ (n) a comme TFD X ∗ (−k).

36
16

14

12

10

0
0 0.2 0.4 0.6 0.8 1

Fig. 3.6 – Module de la TFD de x(n) = e2jπf0 n , pour n ∈ {0, · · · , N − 1}, avec
N = 16 et f0 = 0,2. En pointillé, le module de la TFtd de la suite.

Convolution circulaire
Soit x(n) et y(n) deux suites de longueur N . On note X(k) et Y (k) leurs transformées de Fourier
discrètes respectives. Calculons la transformée de Fourier discrète inverse de la suite Z(k) = X(k)Y (k).
Il vient :
N −1 N −1 N −1 N −1
( )
1 X 1 X X X pk qk −nk
z(n) = X(k)Y (k) = x(p)wN y(q)wN wN
N N p=0 q=0
k=0 k=0
N −1 N −1
( N −1 )
X X 1 X (p+q−n)k
= x(p)y(q) wN
p=0 q=0
N
k=0

En utilisant l’identité 3.19, il vient :


N
X −1
z(n) = x(p)y(n − p) indice calculé moduloN (3.20)
p=0

L’opération décrite par la relation 3.20 s’appelle une convolution circulaire. Elle est à rapprocher de
l’expression 3.6, qui définit la convolution qualifiée parfois, par opposition, de linéaire.

Formule de Parseval
1
PN −1
En faisant y(n) = x∗ (−n) dans le résultat précédente et en remarquant que z(0) = N k=0 Z(k), on
obtient :
N −1 N −1
X 1 X
|x(n)|2 = |X(k)|2 (3.21)
n=0
N
k=0

3.6 Récapitulatif
Nous avons vu que l’évaluation numérique, à partir d’une observation, du spectre d’un signal à temps
continu nécessite :
– d’échantillonner le signal observé,
– de se limiter à un nombre fini d’échantillons,

37
– enfin de calculer la TFTD sur un nombre fini de points de fréquence. En prenant ces points
régulièrement espacés entre (0, 1), le calcul se fait par l’algorithme de FFT.
Nous allons présenter, à partir d’un exemple, les déformations introduites par ces différentes opérations
sur le spectre.

Exemple 3.7 On considère le signal à temps continu x(t) = τ −1 exp(−t/τ )11(0,+∞[ (t) avec τ > 0. Un
calcul sans difficulté donne pour sa transformée de Fourier l’expression :
Z +∞
1
X(F ) = τ −1 e−t/τ e−2jπF t dt =
0 1 + 2jπF τ
On échantillonne x(t) à la fréquence Fe = 1/Te . On note xe (n) = x(nTe ) la suite de ses échantillons et
Xe (f ) la TFTD de xe (n). On a vu que la TFTD s’obtient à partir de X(F ) en normalisant l’échelle des
fréquences par division par Fe puis en périodisant avec la période 1. On note que, dans notre cas puisque
le signal est de bande infinie, il y aura quelle que soit Fe du repliement de spectre.
On évalue la TFTD en ne prenant que N échantillons de la suite xe (n). Cela revient à multiplier la
suite xe (n) par une fonction rectangulaire de durée N (en secondes cela correspond à une durée D = N T ).
On obtient la suite
x̃e (n) = xe (n)11(n ∈ {d, · · · , d + N − 1})
Cela revient à convoluer le spectre de xe (n) par la fonction sin(πN f )/ sin(πf )ejφ(d) . En terme de module
la troncature introduit des ondulations dans le spectre de pseudo-période 1/N . Dans la suite on néglige
l’effet de d et on suppose d = 0.
Partant de la suite {xe (0), · · · , xe (N − 1) de ces échantillons, on veut calculer Xe (f ). Comme Xe (f )
est par définition périodique de période 1, il suffit de ne considérer que l’intervalle (0, 1). Pour pouvoir
effectuer le calcul sur ordinateur, il faut alors discrétiser l’intervalle en prenant par f k = k/L avec
k ∈ {0, · · · , L − 1}. Le calcul est fait au moyen de la FFT.
En conséquence le traitement introduit :
– un repliement éventuel, du à l’opération d’échantillonnage,
– des ondulations dues à la durée finie d’observation et dont la pseudo-période est 1/N si N désigne
le nombre d’instants d’observation,
– une précision d’affichage due au choix de L.
La figure 3.7 récapitule ces différents effets. On note que le signal est de bande infinie et, par conséquent,
il y a du repliement. C’est ce que l’on observe sur les spectres représentés à la sous-figure (b). Sur le
spectre de la suite constituée des 5 premières valeurs, on observe des ondulations de pseudo-période 1/5.

(a): Signal à t.c. (bleu) et signal à t.d. (rouge) (b): Repliement du spectre

0
−Fe 0 Fe
(c): Troncature en temps (d): Spectre du signal tronqué

0
0 −Fe 0 Fe

Fig. 3.7 – Effets de l’échantillonnage et du fenêtrage sur le spectre du signal.

38
3.7 Exercices
Exercice 3.1 (RIF symétrique) On considère un filtre RIF dont la réponse impulsionnelle réelle
h(n) = 0 pour n 6∈ {0, · · · M − 1} et tel que h(n) = h(M − n) pour 0 ≤ n ≤ M et 0 sinon. On
note H(z) sa fonction de transfert.
1. Calculer H(1/z) en fonction de H(z). En déduire que ce filtre n’est pas à minimum de phase.
2. Déterminer l’expression du gain complexe. En déduire l’expression de la phase.

Exercice 3.2 (Filtre modulé) On considère un filtre numérique réel, à réponse impulsionnelle finie
(RIF), de longueur L (h(n) = 0 pour n 6∈ {0, · · · , L − 1}). Son gain est représenté à la figure 3.8. On dira
que ce filtre est un passe-bas dans la bande (−1/8, 1/8). On veut transformer la suite des coefficients

H(e 2 jpf )

f
-1 2 -1 8 18 12
Fig. 3.8 – Gain du filtre de réponse impulsionnelle h(n)

h(n) en une suite g(n) telle que le filtre de réponse impulsionnelle g(n) obtenu se comporte comme un
filtre passe-bande autour de la fréquence f0 = 3000Hz lorsqu’on le fait agir sur les échantillons d’un
signal (réel) échantillonné à fe = 8000Hz.
1. Déterminer l’expression de g(n) en fonction de h(n), de fe et de f0 .
2. Quelle est la largeur de bande (en Hz) filtrée par g(n).

Exercice 3.3 (Filtre numérique du second ordre) On considère le filtre linéaire d’entrée x(n) et de
sortie y(n) associée à l’équation récurrente :

y(n) − 2ρ cos(θ)y(n − 1) + ρ2 y(n − 2) = x(n) − 2x(n − 1)

où |ρ| 6= 1 et θ ∈ (−π, π).


1. Quelle est la fonction de transfert, avec son domaine de convergence, associée à la solution stable
de ce filtre ?
2. Pour quelles valeurs de ρ ce filtre (stable) est-il causal ?
3. Est-ce un filtre à réponse impulsionnelle finie ou infinie ?
4. Ce filtre est-il à minimum de phase ? Sinon déterminer la fonction de transfert d’un filtre à minimum
de phase qui est stable et causal et qui a le même gain en fréquence le gain en fréquence est le module
de la fonction de transfert le long du cercle-unité).
5. Déterminer l’expression de sa réponse impulsionnelle.

Exercice 3.4 (Minimum de phase-1) Soit q(n) un signal numérique causal, dont on note Q(z) la
transformée en Z. On considère :

H(z) = Q(z)(1 − az −1 ) et G(z) = Q(z)(z −1 − a∗ )

où |a| < 1. On note h(n) et g(n) les suites ayant pour transformées en Z respctives H(z) et G(z).
1. Montrer que H(e2jπf ) et G(e2jπf ) ont même module.
2. Déterminer les expressions de h(n) et de g(n) en fonction de q(n) et de a. En déduire l’expression
de :
n0
X
²(n0 ) = |h(n)|2 − |g(n)|2
n=−∞

3. Que peut-on en conclure pour un filtre à minimum de phase ?

39
Exercice 3.5 (Minimum de phase-2) On considère une suite de M zéros et une suite de N pôles
définissant un filtre rationnel de fonction de transfert F (z). On considère l’ensemble H des filtres rationnels
causaux et stables ayant la même réponse en fréquence que F (z). Dans la suite, on note H(z) la fonction
de transfert d’un filtre de H.
1. Décrire l’ensemble H.
2. On note Hm (z) le filtre de H qui est à minimum de phase. On applique à l’instant 0, à l’entrée d’un
des filtres de H, le signal causal x(n). On note ym (n) le signal en sortie du filtre Hm (z) . Montrer
que |y(0)| ≤ |ym (0)|.
3. On note H(z) = Hm (z)G(z). Montrer que G(z) est la fonction de transfert d’un filtre causal et
stable. Montrer que G(z) est un filtre passe-tout, càd |G(e2jπf )| = 1 pour tout f . En déduire que :
X X
|y(k)|2 = |ym (k)|2
k k

T
On choisit un entier n0 . En considérant le signal ym (n) = ym (n) pour n ≤ n0 et 0 sinon et en
utilisant que G(z) est passe-tout et causal, montrer que :
n0
X n0
X
2
|ym (k)| = |y(k)|2 + c2
k=−∞ k=−∞

Conclure.

Exercice 3.6 (Egalisation) On considère le filtre linéaire numérique défini par la relation entre l’entrée
x(n) et la sortie y(n) par :

y(n) = h0 x(n) + h1 x(n − 1) avec |h1 | > |h0 |

1. Déterminer la réponse impulsionnelle de ce filtre. En déduire l’expression de sa fontion de transfert


H(z) et de son gain complexe. Déterminer α pour que le gain à la fréquence 1/2 soit égal à 1.
2. Esquisser l’allure du gain (module du gain complexe). Ce filtre est-il passe-bas, passe-bande ou
passe-haut ?
3. Ce filtre est-il stable ? Ce filtre est-il causal ?
4. On désire inverser (on dit aussi égaliser) ce filtre. Cela signifie que l’on observe y(n) et que l’on veut
essayer de reconstruire x(n).
(a) Donner l’expression de la fonction de transfert G(z) du filtre qui réalise cette opération.
(b) A quelle condition ce filtre est-il stable ? Dans ce cas, en déduire l’expression de sa réponse
impulsionnelle. Le filtre obtenu est-il causal ?
(c) Donner une approximation à réponse impulsionnelle finie de ce filtre.

Exercice 3.7 (Filtre réjecteur) On considère le schéma suivant :

x(n) + 1 y(n)
2
+
A(z)

Fig. 3.9 – Filtre réjecteur

où
a2 + a1 z −1 + z −2
A(z) =
1 + a1 z −1 + a2 z −2

40
1. En se limitant au cas où A(z) a uniquement des pôles complexes conjugués, comment doit-on choisir
a1 et a2 et le domaine de convergence, pour que le filtre de fonction de transfert A(z) soit causal et
stable ?
2. Déterminer la fonction de transfert G(z) du filtre linéaire d’entrée x(n) et de sortie y(n). Esquisser la
forme du module du gain complexe. Montrer que le filtre obtenu élimine une fréquence particulière,
dont on donnera l’expression en fonction de a1 et a2 .

Exercice 3.8 (Filtre décrit par ses pôles et ses zéros) On considère le filtre dont la fonction de
transfert comporte deux zéros complexes-conjugués, de module 1 et de partie réelle a et les 4 pôles :

p1 = 0,9 + 0,85j p2 = 0,9 − 0,85j p3 = 0,9 + 0,7j p4 = 0,9 − 0,7j

1. Déterminer l’expression de sa fonction de transfert ainsi que le domaine de convergence correspon-


dant à la réponse causale et stable. Quel type de filtre a-t-on réalisé ?
2. On applique à l’entrée des signaux provenant d’un échantillonnage à 1000 Hz et on souhaite annuler
complètement la fréquence 350 Hz. Quelle valeur de a doit-on choisir ?

Exercice 3.9 (Filtre en treillis) On considère le filtre numérique représenté à la figure 3.10 où k 1 et
k2 sont deux facteurs multiplicatifs, réels, de module strictement inférieur à 1 et tels que |k 2 | < |k1 |.

x(n) + + y(n)

– k2 – k1

k2 k1

u(n) + +
z–1 z–1
+ +
Fig. 3.10 – Filtre en treillis

On note respectivement X1 (z), U1 (z), X2 (z), U2 (z) et Y (z) les transformés en Z des suites x1 (n),
u1 (n), x2 (n), u2 (n) et y(n).
1. Montrer que :
µ ¶ µ ¶
X1 (z) X2 (z)
=M
U1 (z) U2 (z)

où M est une matrice 2 × 2, que l’on déterminera.


2. En déduire la fonction de transfert H(z) du filtre linéaire causal dont l’entrée est x 1 (n) et la sortie
est y(n). Ce filtre est-il stable ?
3. Déterminer la fonction de transfert G(z) du filtre linéaire causal dont l’entrée est x 1 (n) et la sortie
u1 (n). Ce filtre est-il stable ?
4. On note G(z) = N (z)/D(z). Vérifier que N (z) = z −2 D(1/z). Le filtre G(z) est-il à minimum de
phase ?
5. Déterminer l’expression de |G(e2jπf )|.

Exercice 3.10 (Filtrage analytique discret) On considère une suite réelle x(n) avec n ∈ {0, · · · , N −
1}. On note X(k) sa transformée de Fourier discrète (TFD) avec k ∈ {0, · · · , N − 1}. On suppose N pair.
1. Montrer que X(k) = X ∗ (−k).

41
2. On construit la suite :

 X(k) k ∈ {0, N/2}
Y (k) = 2X(k) k ∈ {1, 2, · · · , (N/2) − 1}
0 k ∈ {(N/2) + 1, · · · , N − 1}

et on note y(n) la transformée de Fourier discrète inverse de Y (k).


Déterminer la partie réelle de y(n) en fonction de x(n) (indication : exprimer la TFD de y(n)+y ∗ (n)
en fonction de X(k)).

Exercice 3.11 (Discrimination de deux sinusoı̈des) On considère le signal numérique de durée finie
N , défini par :

x(n) = A exp(2jπf0 n) pour n ∈ {0, · · · , N − 1}

où f0 ∈ (−1/2, 1/2).


1. Calculer la transformée de Fourier à temps discret X(e2jπf ) de x(n). Comment peut-on relier N à
la résolution en fréquence ?
2. On note xh (n) = πh (n)x(n), la suite obtenue en pondérant les valeurs de x(n) par la fenêtre de
Hamming :

πh (n) = C(0,54 − 0,46 cos(2πn/N )) pour n ∈ {0, · · · , N − 1}

où C est choisie de façon telle que Xh (e2jπf ) présente une amplitude égale à A en f = f0 (calibration
des amplitudes). Déterminer l’expression de C. Indiquer l’effet de πh (n) sur la résolution.
3. On ne calcule X(e2jπf ) que pour f = k/P avec k ∈ {0, · · · , P − 1}. Quel est l’effet de P sur la
précision de détermination de f0 ?
4. Application : on observe un signal composé de sinusoı̈des. Ce signal est échantillonné à 100 Hz.
En calculant une TFD à partir des échantillons, on souhaite discriminer deux fréquences séparées
de plus de 2Hz et d’amplitudes relatives 30 dB. On veut en plus mesurer chaque fréquence avec
une précision de 0.5Hz. Déterminer la fenêtre ainsi que les valeurs de N et P pour satisfaire ces
conditions.

Exercice 3.12 (Algorithme de FFT) Cet exercice a pour but d’introduire l’algorithme de FFT (Fast
Fourier Transform). Pour simplifier les écritures, on a pris une transformée de Fourier discrète (TFD) de
taille N = 8. Soit la suite x(0), x(1), · · · , x(7) et soit à calculer la TFD X(0), X(1), · · · , X(7).
1. En regroupant les termes d’indices pairs et les termes d’indices impairs, montrer que l’on peut
calculer la suite X(k) à partir de deux TFD de longueur 4. Donner l’algorithme qui itère cette
opération.
2. En comparant uniquement le nombre de multiplications et d’additions effectuées de l’algorithme
précédent à celui d’un calcul direct, donner le gain de calcul. Appliquer ce résultat à N = 1 024.
3. On considère la suite y(k) = jX ∗ (k). Calculer la transformée de Fourier discrète directe de la
suite y(k). En déduire une façon de réaliser la transformée de Fourier discrète inverse, en utilisant
l’algorithme de la transformée de Fourier discrète directe.

Exercice 3.13 (Filtrage par transformée de Fourier discrète) On veut réaliser le filtrage
numérique du signal x(n) (suite supposée infinie), par le filtre à réponse impulsionnelle finie notée
h(0), h(1), · · · , h(P − 1) en utilisant la transformée de Fourier discrète.
1. On considère les deux suites finies de longueur N , u(n) et v(n) et on note U (k) et V (k) leurs
transformées de Fourier discrètes respectives. Donner l’expression de la transformée de Fourier
discrète inverse de la suite W (k) = U (k)V (k).
2. On envisage d’effectuer le filtrage du signal x(n) par un traitement en bloc, qui fait correspondre
aux 2N valeurs d’entrée x(n − 2N + 1), · · · , x(n − N ), x(n − N + 1), · · · , x(n) les N valeurs de
sortie y(n − N + 1), · · · , y(n). Déduire du résultat de la question précédente une façon de réaliser ce
filtrage par transformation de Fourier discrète. En utilisant un algorithme de FFT donner le gain
de calcul par rapport à un calcul direct.

42
Exercice 3.14 (Décimation) On considère le système à temps discret x(n). On construit à partir de
x(n) le signal à temps discret y(k) = x(kM ) où M est un entier appelé facteur de décimation. On note
respectivement X(e2jπf ) et Y (e2jπf ) les transformées de Fourier à temps discret des suites x(n) et y(k).
1. Montrer que :
M −1 ½
1 X 2jπrp/M 1 si p = 0 modulo M
gM (p) = e =
M r=0 0 si p 6= 0 modulo M

2. En notant que gM (p) = gM (kM + p) et que, pour tout z, :


M
X −1
y(k) = x(kM + p)gM (kM + p)z −p/M
p=0

montrer que :
M −1
1 X
Y (e2jπf ) = X(e2jπ(f −r)/M )
M r=0

3. Dans le cas M = 2, esquisser la forme de Y (e2jπf ).


4. En déduire une façon d’effectuer l’opération de sous-échantillonnage.

Exercice 3.15 (Sur-échantillonnage) On considère le signal numérique réel x e (n) provenant de


l’échantillonnage à la fréquence de Nyquist Fe = 2B d’un signal x(t) réel de bande (−B, B). On note X(F )
la transformée de Fourier de x(t). On construit à partir du signal numérique xe (n), le signal numérique :
½
xe (n) si k = 0 mod M
ye (k) =
0 si k 6= 0 mod M
Dit de façon plus simple, la suite ye (k) est construite en intercalant (M − 1) zéro entre chaque élément
de la suite xe (n). On note Xe (e2jπf ) la TFtd de xe (n) et Ye (e2jπf ) la TFtd de ye (k).
1. Déterminer l’expression de Ye (e2jπf ) en fonction de Xe (e2jπf ).
2. On envisage le cas M = 2. On considère que ye (k) représente la suite échantillonnée à la fréquence
M Fe d’un signal y(t) dont on note Y (F ) la transformée de Fourier. Déterminer Y (F ) en fonction
de X(F ).
3. En utilisant le résultat de la question précédente, proposer un traitement numérique, portant sur
la suite ye (k), qui permet d’obtenir les échantillons du signal x(t) à la fréquence M Fe .

Exercice 3.16 (Décimation de facteur M ) 1. Déterminer, pour s ∈ Z, l’expression de la suite :


M −1
1 X 2jπrs/M
gM (s) = e (3.22)
M r=0
PM −1
2. En déduire l’expression de s=0 x(nM + s)gM (M n + s)z −(M n+s) .
3. On considère le schéma 3.11.

x(n) M u(n)

Fig. 3.11 – Décimateur de facteur M

x(n) désigne un signal à temps discret et X(z) sa transformée en Z. La suite u(n) = x(M n) s’obtient
en ne conservant que les valeurs d’indices multiples de M de la suite x(n) (opération de décimation).
On note U (z) la transformée en Z de u(n).
En utilisant les résultats précédents, montrer que :
M −1
1 X
U (z) = X(z 1/M e−2jπr/M ) (3.23)
M r=0

43
4. Pour M = 2, esquisser la forme de |U (e2jπf )| (spectre d’amplitude de u(n)) en fonction de celle de
|X(e2jπf )|.

Exercice 3.17 (Filtre de comb) On considère le filtre, dit filtre de comb (peigne), de la figure 3.12.

K
x(n) − t(n) + y(n)
z−1 z−1 z−1
+ +
z−1

Fig. 3.12 – Filtre de Comb

1. Donner la fonction de transfert C(z) du filtre dont l’entrée est x(n) et la sortie y(n). Donner la
forme de sa réponse en fréquence.
2. On rappelle que l’opération de sous-échantillonnage consiste en un filtrage suivi d’une décimation.
Le filtre C(z) vous paraı̂t-il satisfaisant pour réaliser le filtrage de ce traitement ?
3. On note M le facteur de sous-échantillonnage. En utilisant l’expression 3.23, montrer que si K = M
on peut effectuer la permutation illustrée par la figure 3.13.

1−z−M 1
M M 1−z−1
1−z−1 1−z−1

Fig. 3.13 – Equivalence

Exercice 3.18 (Insertion) On considère le schéma de la figure 3.14 où la suite v(n) est obtenue en
intercalant (M − 1) zéros entre chaque terme de la suite x(n). On note V (z) la transformée en Z de v(n).

x(n) v(n)
M

Fig. 3.14 – Insertion de facteur M

1. Déterminer l’expression de V (z) en fonction de X(z).


2. Pour M = 2, esquisser la forme de |V (e2jπf )| (spectre d’amplitude de v(n)) en fonction de celle de
|X(e2jπf )|.

Exercice 3.19 (Banc de filtres) On considère le schéma de la figure 3.15.


H0 (z), H1 (z), G0 (z) et G1 (z) désignent les fonctions de transfert de quatre filtres linéaires.
On note X(z) et Y (z) les transformées en Z respectives des suites x(n) et y(n). Montrer que Y (z)
peut s’écrire Y (z) = T (z)X(z) + A(z)X(−z) où T (z) et A(z) sont deux fonctions dont on donnera les
expressions en fonction de X(z), de H0 (z), de H1 (z), de G0 (z) et de G1 (z).
1. Déterminer une condition sur H0 (z), H1 (z), G0 (z) et G1 (z) qui permet d’écrire Y (z) = T (z)X(z).
2. On choisit H1 (z) = H0 (−z), G0 (z) = −G1 (−z) et H0 (z) = G0 (z). En déduire sur H0 (z) une
condition de reconstruction parfaite à savoir Y (z) = z −1 X(z).
Déterminer le filtre de la forme H0 (z) = h0 + h1 z −1 qui vérifie cette condition.
Donner les valeurs de h0 et h1 qui assure pour le filtre H0 (z) d’être à phase linéaire.

44
H0 2 2 G0
x(n) + y(n)
+
H1 2 2 G1

Fig. 3.15 – Banc de filtres

45
Chapitre 4

Processus aléatoires SSL à temps


discret

4.1 Le modèle aléatoire


Jusqu’à présent, nous n’avons rencontré que des signaux déterministes x(n), c’est-à-dire des fonctions
telles qu’à chaque instant n, on dispose d’une règle permettant d’évaluer la quantité x(n). Souvent cette
règle est spécifiée sous forme d’une formule mathématique, comme par exemple :

x(n) = cos(2πf0 n) ou encore x(n) = (1 − |n|)11(−N,N ) (n)

Les fonctions déterministes forment la base de l’analyse mathématique, mais la plupart des phénomènes
que nous aurons à modéliser ne sont pas de cette nature.

Fig. 4.1 – Signal de parole sur une durée de 1/16 de seconde.

Considérons le signal de parole représenté à la figure 4.1. Il est clair, à la vue de ce graphe, que
l’on ne peut réduire ces observations à une fonction déterministe du temps. Nous pourrions, peut-être,
trouver une fonction déterministe qui approxime correctement les valeurs observées sur un intervalle de
temps [0, T ], mais cette fonction ne serait pas une approximation valable de l’observation à l’extérieur
de cet intervalle d’observation, et cette propriété perdurerait indépendamment de la durée [0, T ] de
l’observation. Le graphe 4.1 contient un très grand nombre d’irrégularités et ces irrégularités ne semblent
pas respecter une évolution prédictible. Les observations ont un caractère aléatoire, dans le sens où nous
ne savons pas déterminer, pour un instant donné, quelle sera la valeur précise de la mesure. Par contre il
est envisageable d’indiquer un intervalle de valeurs possibles et éventuellement de préciser comment ces
valeurs sont distribuées à partir d’une certaine loi de probabilité.

46
La bonne façon de décrire le comportement du phénomène est donc de spécifier, à chaque instant n,
une distribution de probabilité, permettant de décrire la “vraisemblance” de chaque observation. Dans le
langage des probabilités, l’observation X(n) observée sur le capteur à chaque instant n est une variable
aléatoire et son évolution au cours du temps un processus aléatoire. Cet exemple est prototype d’une
large classe de phénomènes qui conduit à adopter,pour les modéliser, la définition suivante.

4.2 Propriétés générales


4.2.1 Loi temporelle
Définition 4.1
Un processus aléatoire {X(n)} est une famille de variables aléatoires indexées par t ∈ Z et définies sur
un espace de probabilité (Ω, F, P ). On parle de processus à temps discret Chaque réalisation particulière
(associée à une épreuve ω ∈ Ω) du processus est appelée une trajectoire.

Pour nous conformer aux usages habituels en théorie des probabilités, Ω est l’ensemble des épreuves,
ω est une épreuve particulière, X(n) est la variable aléatoire au temps n et X(n, ω) une réalisation
particulière du processus pour l’épreuve ω. Pour chaque instant n, X(n) est, par définition, une variable
aléatoire, càd une application (mesurable de Ω dans R) prenant ces valeurs dans un certain ensemble,
typiquement :
– R ou un intervalle de R si le processus est à valeurs continues,
– ou S = {xi , i ∈ I} où I est un ensemble fini ou dénombrable, si le processus est à valeurs discrètes.
Cette variable aléatoire définit sur R, B(R) une mesure appelée loi de probabilité. Cette loi peut être
caractérisée par l’intermédiaire de sa fonction de répartition.
Puisqu’un processus est une collection de variables aléatoires (correspondant aux valeurs prises
par le processus à tous les instants temporels), nous nous intéressons aussi aux lois jointes des va-
riables (X(n1 ), X(n2 ), · · · , X(nk )) correspondants aux instants d’observations distincts (n1 , n2 , · · · , nk ).
Le choix des instants d’observations étant ici arbitraires, c’est bien de l’ensemble de ces lois jointes dont
nous aurons besoin.
Définition 4.2
Nous appelons loi fini-dimensionnelle du processus X(n) d’ordre k, l’ensemble des lois de probabilité
des vecteurs aléatoires (X(n1 ), X(n2 ), · · · , X(nk )) où (n1 , n2 , · · · , nk ) est un k-uplet arbitraire d’instants
distincts.

La spécification des lois fini-dimensionnelles d’ordre 2 permet d’évaluer des expressions de la forme
P (X(n1 ) ≤ a, X(n2 ) ≤ b) ou encore E(f (X(n1 ))g(X(n2 ))), où f (x1 ) et g(x2 ) sont des fonctions
intégrables par rapport à la loi jointe de X(n1 ) et X(n2 ). De façon plus générale, la spécification des
lois k dimensionnelles permet d’évaluer des quantités faisant intervenir la loi conjointe du processus à n
instants successifs.
Pour des variables aléatoires, la donnée de la loi équivaut à la donnée des fonctions de répartition :

F (x1 , · · · , xk ; n1 , · · · , nk ) = P (X(n1 ) ≤ x1 , · · · X(nk ) ≤ xk ). (4.1)

Dans de nombreuses situations, les fonctions de répartitions sont des fonctions différentiables
par rapport aux variables (x1 , · · · , xk ), ce qui revient à dire qu’il existe des fonctions positives
pX (x1 , · · · , xk ; n1 , · · · , nk ) telles que :
Z x1 Z xk
F (x1 , · · · , xk ; n1 , · · · , nk ) = ··· pX (u1 , · · · , uk ; n1 , · · · , nk )du1 · · · duk (4.2)
−∞ −∞

La fonction positive pX (u1 , · · · , uk ; n1 , · · · , nk ) est appelée la densité jointe des variables


X(n1 ), · · · , X(nk ).
Il est intéressant de remarquer que les fonctions de répartitions 4.1 vérifient mécaniquement des
conditions de compatibilité. Soit π une permutation de l’ensemble {1, · · · , k}. Nous devons avoir :

F (x1 , · · · , xk ; n1 , · · · , nk ) = F (xπ(1) , · · · , xπ(k) ; nπ(1) , · · · , nπ(k) ) (4.3)

47
De la même façon, pour une coordonnée quelconque i ∈ {1, · · · , k}, nous avons :

lim F (x1 , · · · , xk ; n1 , · · · , nk ) = F (x1 , · · · , xi−1 , xi+1 , · · · , xk ; n1 , · · · , ni−1 , ni+1 , · · · , nk ). (4.4)


xi →∞

Définition 4.3 (Loi temporelle)


On appelle loi temporelle du processus l’ensemble des distributions fini-dimensionnelles à tout ordre ordre.
Notons que la donnée de la loi temporelle permet de spécifier la probabilité d’événements faisant intervenir
un nombre arbitraire n mais fini de variables aléatoires X(n1 ), · · · , X(nk ). Par exemple :

P (f1 (X(n1 )) ≤ a1 , f2 (X(n2 )) ≤ a2 , · · · , fk (X(nk )) ≤ ak )

où (f1 , f2 , · · · , fk ) sont k fonctions mesurables. La question difficile qui reste en suspens est maintenant la
suivante : la loi temporelle permet-elle d’évaluer la probabilité d’événements faisant intervenir un nombre
infini de variables aléatoires, comme par exemple la probabilité de dépassement d’un niveau (une question
que l’on se pose souvent pour dimensionner des limiteurs) et qui peut s’écrire sous la forme :

P (b ≤ sup X(n) ≤ a) (4.5)


n∈T

L’évaluation de telles quantités nécessiterait de spécifier la loi de probabilité jointe de l’ensemble des va-
riables aléatoires {X(n)} qui constituent le processus. Lorsque l’ensemble d’index T est infini dénombrable
(T = Z), nous avons à définir la loi de probabilité conjointe d’un ensemble infini de variables aléatoires.
Il peut donc sembler, que si nous cherchons à décrire la dynamique du processus, il soit nécessaire
de considérer des distributions de probabilité infini-dimensionnelle. En fait, mais la démonstration de
ces propriétés est tout à fait non-triviale, la donnée de la loi temporelle (ensemble des distributions fini-
dimensionnelles) suffit pour définir l’ensemble des lois du processus. L’énoncé même du résultat fait appel
à des constructions mathématiques avancées, qui vont au-delà du cours.
Il est aussi intéressant de formuler le problème en sens inverse. On se donne une famille de fonctions
de répartition qui vérifient les conditions de compatibilité 4.3 et 4.4. Existe-t-il un espace de probabilité
et un processus aléatoire défini sur cet espace de probabilité dont la loi temporelle coincide précisément
avec cette ensemble de fonctions de répartition. La réponse à cette question est affirmative et constitue
un des résultats clefs de la théorie des processus aléatoires, le théorème de Kolmogorov.

Théorème 4.1 (Kolmogorov)


Soit E = {F (•; n1 , · · · , nk ), n ∈ N, (n1 , · · · , nk ) ∈ Zn } une famille compatible de fonctions de répartition.
Alors, il existe un espace de probabilité (Ω, F, P ) et un processus aléatoire défini sur (Ω, F, P ) telle que
E soit la loi temporelle de {X(n)}.

4.2.2 Stationnarité
Il peut se faire que les variables aléatoires X(n) aient toutes la même distribution de probabilité quel
que soit l’instant d’observation n. On dit que le phénomène aléatoire est stationnaire dans la mesure où
il présente une certaine permanence dans son évolution. De façon plus générale, on aboutit à la définition
suivante.
Définition 4.4 (Stationnarité stricte)
Un processus aléatoire est stationnaire au sens strict si la loi temporelle est invariante par changement
de l’origine des temps, càd, pour tout k-uplet (n1 , · · · , nk ) ∈ Zk et tout τ ∈ Z :

F (x1 , · · · , xk ; n1 , · · · , nk ) = F (x1 , · · · , xk ; n1 + τ, · · · , nk + τ )

Exemple 4.1 (Processus aléatoire binaire) On considère le processus aléatoire X(n) à valeurs dans
l’ensemble {0, 1}. On suppose que pour tout n et toute suite d’instants (n 1 , · · · , nk ) ∈ Zk , ‘les variables
aléatoires (X(n1 ), X(n2 ), · · · , X(nk )) sont indépendantes. Sa loi temporelle est alors définie par la donnée
de la suite αn = P (X(n) = 1) à valeurs dans (0, 1). Si αn = α indépendant de n, le processus est
stationnaire au sens strict. On peut alors écrire que ∀k, (n1 , n2 , · · · , nk ) ∈ Zn :
Pk Pk
xj
P (X(n1 ) = x1 , · · · , X(nk ) = xk ) = α j=1 (1 − α)k− j=1 xj

48
Exemple 4.2 (Processus aléatoires gaussiens) Rappelons tout d’abord certaines définitions concer-
nant les variables aléatoires gaussiennes.

Définition 4.5
On appelle variable aléatoire gaussienne ou normale une variable aléatoire dont la loi de probabilité a
pour fonction caractéristique :
σ2
µ ¶
φX (u) = exp − u2 + jmu (4.6)
2

On en déduit que E(X) = m et que var(X) = σ 2 . Si σ 6= 0, la loi a pour densité de probabilité :


(x − m)2
µ ¶
1
pX (x) = √ exp − (4.7)
σ 2π 2σ 2

Définition 4.6
Un vecteur aléatoire de dimension d est dit gaussien ssi toute combinaison linéaire de ses composantes
est une variable aléatoire gaussienne.
On ¡montre que la loi d’un ¢ vecteur aléatoire gaussien a pour fonction caractéristique φ X (u1 , · · · , ud ) =
exp − 12 uT Ru + jM T u , que E(Xk ) = Mk et que covar(Xn , Xk ) = E((Xn − Mn )(Xk − Mk )) = Rnk . Si
det(R) 6= 0, la loi a pour densité de probabilité :
µ ¶
1 1 T −1
pX (x1 , · · · , xd ) = p exp − (X − M ) R (X − M ) (4.8)
(2π)d/2 det(R) 2

Définition 4.7
Un processus aléatoire est dit gaussien ssi, quel que soit k et quelle que soit la suite des instants
(n1 , n2 , · · · , nk ) ∈ Zk , le vecteur aléatoire à k dimensions (X(n1 ), X(n2 ), · · · , X(nk )) est gaussien.

Propriété 4.1
– Un processus aléatoire gaussien est défini par la donnée de la fonction m(n) = E(X(n)) où n ∈ Z
et de la fonction RXX (n1 , n2 ) = E((X(n1 ) − E(X(n1 ))(X(n2 ) − E(X(n2 ))) où (n1 , n2 ) ∈ Z2 .
Pour obtenir sa loi temporelle, il suffit de remplacer dans l’expression 4.8, le vecteur M par
(m(n1 ), · · · , m(nk ))T et la matrice R par la matrice d’élément Rmk = RXX (nm , nk ).
– On en déduit qu’un processus gaussien est stationnaire au sens strict ssi m(n) est indépendante de
n et RXX (n1 , n2 ) ne dépend que de l’écart (n1 − n2 ).
– La non corrélation des variables aléatoires (X(n1 ), X(n2 )), pour tout couple d’instants (n1 , n2 ),
entraı̂ne que R est une matrice diagonale et que les variables aléatoires (X(n 1 ), X(n2 )) sont aussi
indépendantes. Si le processus est en plus stationnaire, R = RXX (0)In .

Définition 4.8 (Processus indépendants)


On dit que deux processus {X(n)} et {Y (m)} définis sur un même espace de probabilité (Ω, A, P )
sont indépendants ssi pour tout couple (n, m) et pour tout n-uplet (n1 , · · · , nk ) ∈ Zn et tout m-uplet
(u1 , · · · , um ) ∈ Zm ,

P (X(n1 ) < x1 , · · · , X(nk ) < xk , Y (u1 ) < y1 , · · · , Y (um ) < ym )


= P (X(n1 ) < x1 , · · · , X(nk ) < xk )P (Y (u1 ) < y1 , · · · , Y (um ) < ym )

Processus aléatoires complexes


Jusqu’ici nous n’avons considéré que des processus à valeurs réelles. Toutefois les fonctions complexes
jouent un rôle important dans la représentation des signaux de communication. Pour les signaux passe-
bande et en particulier en communication pour les signaux modulés, la représentation dite en enveloppe
complexe est très largement utilisée. Nous indiquons ci-dessous comment les définitions précédentes se
transforment dans le cas des processus à valeurs complexes.
Un processus aléatoire X(n) à valeurs complexes est défini par l’intermédiaire de deux processus
aléatoires réels U (n) et V (n) suivant X(n) = U (n) + jV (n). Pour le moment du premier ordre, on a :

E(X(n)) = E(U (n)) + jE(V (n)) (4.9)

49
Pour les propriétés du second ordre, deux moments peuvent être définis. Le premier a pour expression
E(X(n1 )X(n2 )) et le second E(X(n1 )X ∗ (n2 )). Ces deux moments sont reliés simplement à ceux de U (n)
et V (n) par :

NXX (n1 , n2 ) = E[X(n1 )X(n2 )] = MU U (n1 , n2 ) − MV V (n1 , n2 ) + j(MU V (n1 , n2 ) + MV U (n1 , n2 ))


MXX (n1 , n2 ) = E[X(n1 )X ∗ (n2 )] = MU U (n1 , n2 ) + MV V (n1 , n2 ) + j(MU V (n1 , n2 ) − MV U (n1 , n2 ))

MXX (n1 , n2 ) vérifie pour tout couple d’instants (n1 , n2 ) la relation dite de symétrie hermitienne :

MXX (n1 , n2 ) = MXX (n2 , n1 ) (4.10)

Définition 4.9
On appelle fonction d’autocovariance du processus aléatoire complexe X(t), la fonction définie par :

RXX (n1 , n2 ) = E (Xc (n1 )Xc∗ (n2 )) (4.11)

où Xc (t) = X(n) − E(X(t)) désigne le processus centré.


Dans l’expression (4.11), la variable aléatoire centrée Xc (n2 ) est conjuguée. Cette conjugaison est im-
portante puisque le produit scalaire E(XY ∗ ) munit d’une structure d’espace de Hilbert, l’ensemble des
variables aléatoires de carré intégrable (E|X|2 < +∞).

Définition 4.10
On appelle fonction de covariance des processus aléatoires complexes X(n) et Y (n), la fonction définie
par :
RXY (n1 , n2 ) = E (Xc (n1 )Yc∗ (n2 )) (4.12)
où Xc (n) = X(n) − E(X(n)) et Yc (n) = Y (n) − E(Y (n)) désignent les processus centrés.

4.2.3 Propriétés du second ordre


Les propriétés qui suivent s’appliquent que les processus aléatoires soient réels ou complexes : dans
le cas réel, il suffit de remplacer X ∗ (n) par X(n).

Propriété 4.2
La fonction d’autocovariance RXX (n1 , n2 ) d’un processus aléatoire X(n) vérifie les propriétés suivantes :
1. RXX (n, n) ≥ 0, l’égalité ayant lieu si et seulement si X(n) est presque sûrement une constante.
2. symétrie hermitienne

RXX (n1 , n2 ) = RXX (n2 , n1 ) (4.13)
3. inégalité de Schwarz
2
|RXX (n1 , n2 )| ≤ RXX (n1 , n1 )RXX (n2 , n2 ) (4.14)
4. caractère non négatif
Pour tout k, pour toute suite d’instants (n1 , · · · , nk ) et pour toute suite de valeurs complexes
(λ1 , · · · , λk ) on a :
X k
λi λ∗j RXX (ni , nj ) ≥ 0 (4.15)
i,j=1

Le point (1) pourra être montré à titre d’exercice. Pour obtenir le point (2), il suffit de conjuguer l’expres-
sion de définition de RXX (n1 , n2 ). Pour montrer le point (3), il suffit d’appliquer l’inégalité de Schwarz
aux variables aléatoires centrées Xc (n1 ) = X(n1 ) − E[X(n1 )] et Xc (n2 ) = X(n2 ) − E[X(n2 )]. Montrons
le point (4). Pour une suite quelconque de valeurs complexes (λ1 , · · · , λk ), on a bien évidemment :
¯ ¯2
¯Xk ¯
E¯ λi Xc (ni )¯ ≥ 0
¯ ¯
¯ ¯
i=1

50
où Xc (n) = X(n) − E(X(n)). En développant il vient :
¯ k ¯2 
k k

k
¯X ¯ X X X
E¯ λi Xc (ni )¯ = E  λi Xc (ni ) λ∗j Xc∗ (nj ) = λi λ∗j E[Xc (ni )Xc∗ (nj )]
¯ ¯
¯ ¯
i=1 i=1 j=1 i,j=1

qui est le résultat annoncé.


La fonction de covariance entre deux processus aléatoires ne vérifie pas de propriété de positivité,
mais on a les résultats suivants.
Propriété 4.3
La fonction de covariance RXY (n1 , n2 ) des processus aléatoires X(n) et Y (n) vérifie les deux propriétés
suivantes :
1. symétrie : RXY (n1 , n2 ) = RY∗ X (n2 , n1 ).
2
2. inégalité de Schwarz : |RXY (n1 , n2 )| ≤ RXX (n1 , n1 )RY Y (n2 , n2 ).

4.3 Processus aléatoires SSL à temps discret


Définition 4.11 (processus aléatoires SSL à temps discret)
On appelle processus aléatoire Stationnaire au Sens Large (en abrégé SSL) une suite de variables aléatoires
X(n), n ∈ Z, définies sur le même espace de probabilité et telles que :
– E(X(n)) = mX indépendant de n,
– E(|X(n)|2 ) < +∞,
– RXX (k) = E(X(n + k)X ∗ (n)) − |mX |2 ne dépend que de l’écart de temps k ∈ Z.

Propriété 4.4
La fonction (suite) d’autocovariance d’un processus aléatoire SSL à temps discret vérifie :

1. symétrie hermitienne : RXX (k) = RXX (−k).
2. caractère défini non négatif :
n X
X n
λi λ∗j RXX (ki − kj ) ≥ 0
i=1 j=1

pour tout n, pour toute suite d’instants {k1 , · · · , kn } et pour toute suite de valeurs complexes
{λ1 , · · · , λn }.
3. valeur à l’origine : d’après l’inégalité de Schwarz, ∀k ∈ Z, |RXX (k)| ≤ RXX (0),
4. matrice de covariance : considérons le vecteur aléatoire X = (X(n0 ), X(n0 +1), · · · , X(n0 +k−1))T .
X a pour vecteur moyenne E(X ) = mX (1, · · · , 1)T et pour matrice de covariance :

E [(X(n0 + k) − mX )(X(n0 + p) − mX )∗ ] 0≤k≤n−1


£ ¤
RX =
0≤p≤n−1
 
RXX (0) RXX (1) ··· RXX (n − 1)
 ∗ .. .. .. 
 RXX (1) . . . 
= 
..

 .. .. 
 . . . RXX (1) 
∗ ∗
RXX (n − 1) ··· RXX (1) RXX (0)

Rappelons que la matrice RX est hermitienne (elle est symétrique si X(n) est réel) positive. On
remarque, de plus, que RX a donc toutes ses parallèles à la diagonale principale constituées de
termes constants : une telle matrice est dite de Toëplitz.

Preuve : voir exercice 4.2.


Définition 4.12
On considère un processus aléatoire X(n) à temps discret (n ∈ Z), SSL, de fonction d’autocovariance
RXX (k). On suppose que RXX (k) est de module sommable. On appelle spectre ou densité spectrale de

51
puissance (en abrégé d.s.p.) du processus aléatoire X(n), la transformée de Fourier à temps discret de sa
fonction d’autocovariance :
+∞
X
SXX (e2jπf ) = RXX (k)e−2jπf k (4.16)
k=−∞

On sait (voir propriété 3.1) que SXX (e2jπf ) est une fonction continue de f et que, d’après l’expression
3.5, on a la formule inverse :
Z +1/2
RXX (k) = SXX (e2jπf )e2jπf k df (4.17)
−1/2

On en déduit que la puissance, définie par PX = RXX (0) + |mX |2 , a pour expression :
Z +1/2
PX = SXX (e2jπf )df + |mX |2 (4.18)
−1/2

Théorème 4.2
La d.s.p. d’un processus aléatoire SSL vérifie :

SXX (f ) ≥ 0 ∀f (4.19)

Nous verrons, dans le paragraphe sur l’estimation de la d.s.p., que le périodogramme fournit une
explication sur le fait que la transformée de Fourier de la fonction d’autocovariance est désignée par le
terme de d.s.p. càd s’interprète comme une distribution de la puissance en fonction de la fréquence.

4.4 Formule de filtrage des processus aléatoires SSL à temps


discret
Théorème 4.3
Soit X(n) un processus aléatoire à temps discret, SSL, de moyenne mX et de fonction d’autocovariance
RXX (k). Une condition suffisante pour que la somme :
+∞
X +∞
X
Y (n) = g(n − s)X(s) = g(s)X(n − s)
s=−∞ s=−∞

existe, est que g(n) soit de module sommable càd s |g(s)| < +∞1 . Dans ce cas :
P
– Y (n) est SSL, P+∞
– sa moyenne est donnée par mY = mX s=−∞ g(s),
– sa fonction d’autocovariance a pour expression :
+∞
X
RY Y (k) = RXX (s)Cgg (k − s)
s=−∞
P+∞
où Cgg (k) = s=−∞ g(s)g ∗ (s − k).
– et la fonction de covariance entre Y (n) et X(n) a pour expression :
+∞
X
RY X (k) = RXX (s)g(k − s)
s=−∞

En particulier, si le processus aléatoire X(n) SSL possède une d.s.p., on a :

SY Y (e2jπf ) = G(e2jπf )G∗ (e2jπf )SXX (e2jπf ) (4.20)


SY X (e2jπf ) = G(e2jπf )SXX (e2jπf ) (4.21)

où G(e2jπf ) désigne la transformée de Fourier à temps discret de g(n).


1 |g(s!|2 < +∞, mais qu% la r%́ciproqu% %st bauss%.
P P
On rapp%ll% qu% s |g(s!| < +∞ ⇒ s

52
4.5 Exemples de modèles de processus SSL à temps discret
4.5.1 Processus harmonique
Le processus harmonique est défini par :
N
X
X(n) = Ak exp(2jπfk n) (4.22)
k=1

où {Ak } désigne une suite de N variables aléatoires complexes, centrées, non corrélées, de variance {σ k2 }
et {fk } une suite de N valeurs non nulles appartenant à I = (−1/2, 1/2). X(n) est centré et sa fonction
d’autocovariance est donnée par :
N
X
RXX (m) = E(X(n + m)X ∗ (n)) = σk2 exp(2jπfk m)
k=1

On en déduit que :
Z N
X
RXX (m) = e2jπf m µXX (df ) où µXX (∆) = σk2 11∆ (fk ) (4.23)
I k=1

La mesure µXX (∆), définie sur {I, B(I)}, est appelée mesure spectrale du processus. Cette notion
généralise celle de d.s.p., dans le sens où la d.s.p. est la densité (lorsqu’elle existe) de la mesure spectrale
par rapport à la mesure de Lebesgue sur {I, B(I)}.

4.5.2 Bruit blanc


On appelle bruit blanc à temps discret un processus aléatoire SSL, centré dont la d.s.p. est constante
sur tout l’axe des fréquences.
Si on note η la d.s.p. d’un bruit blanc, un conséquence directe de la définition est que la fonction
d’autocovariance d’un bruit blanc est la suite :
½
η si k = 0
RXX (k) = E(X(n + k)X(n)) = (4.24)
0 si k 6= 0

C’est l’exemple le plus simple de processus à temps discret, celui d’un processus sans mémoire, dans le
sens où la valeur du processus à l’instant n n’est pas corrélée (mais pas nécessairement indépendante) de
la valeur du processus à l’instant (n + k). La figure 4.2 montre une réalisation de N = 500 échantillons
d’un bruit blanc gaussien de moyenne nulle et de variance σ 2 = 1.

Exemple 4.3 (Bruit de quantification) Considérons le dispositif de quantification qui associe à la


suite de valeurs d’entrée x(n) la suite de valeurs y(n) suivant la règle :

y(n) = kq ⇔ x(n) ∈ (kq − q/2, kq + q/2)

q s’appelle le pas de quantification. Posons y(n) = x(n) + ²(n).


En pratique une description déterministe de l’erreur de quantification ²(n) n’est pas utile. Dans
beaucoup de calculs rencontrés par l’ingénieur, il suffit de modéliser ²(n) comme un processus aléatoire,
que l’on désigne sous le terme de bruit de quantification, et on adopte les hypothèses suivantes : ²(n) est
une suite de variables aléatoires de loi uniforme sur l’intervalle (−q/2, q/2) non corrélées entre elles. En
remarquant que cette loi a pour densité de probabilité :
1
p²n (e) = 11[−q/2,q/2) (e)
q

on déduit que E(²(n)) = 0, E(²(n)2 ) = q 2 /12 et E(²(n)²(k)) = 0 pour n 6= k. Ainsi modélisé, le bruit de
quantification est donc blanc et sa d.s.p. S²² (e2jπf ) = q 2 /12.

53
3

−1

−2

−3
0 100 200 300 400 500

Fig. 4.2 – Trajectoire d’un bruit, blanc, gaussien de variance 1

4.5.3 Processus à moyenne ajustée d’ordre q


Définition 4.13
2
Le processus {X(n)}, n ∈ Z, est dit à moyenne ajustée d’ordre q (ce que l’on note MA(q)), si :

X(n) = Z(n) + b1 Z(n − 1) + · · · + bq Z(n − q) (4.25)


2
où {Z(n)} est un bruit SSL blanc de puissance σZ .

Un calcul simple donne pour la moyenne mX = 0 et pour la fonction d’autocovariance :


½ 2
σZ (bk b0 + bk+1 b1 + · · · + bq bq−k ) 0 ≤ k ≤ q,
RXX (k) = (4.26)
0 autrement

En pratique pour estimer, à partir de l’observation (X1 , · · · , XN ), la suite bk , on substitue aux coefficients
RXX (k) une estimation sous la forme des quantités :
N −|k|
1 X
R̂XX (k) = Xc (j + k)Xc (j) (4.27)
N j=1

où Xc (j) = X(j) − X̄N avec


N
1 X
X̄N = X(n)
N n=1
On verra au paragraphe 4.6.2 que ces estimations convergent vers les vraies valeurs.
On note alors que la relation, entre la suite des paramètres bk de ce modèle et les coefficients d’au-
tocovariance, est non linéaire. C’est pourquoi on préfère souvent à un modèle MA un modèle AR, qui,
come nous allons le voir, conduit à une relation linéaire entre les paramètres du modèle et les coefficients
d’autocovariance.

4.5.4 Processus autorégressif d’ordre p


Partant encore du bruit blanc, une autre façon de procéder consiste à construire un modèle faisant
apparaı̂tre une dépendance avec le passé de X(n).
2 En anglais moy%nn% mobil% s% traduit par moving av%rag%

54
Définition 4.14 (Processus autorégressif d’ordre p)
Soit l’équation récurrente :

X(n) + a1 X(n − 1) + · · · + ap X(n − p) = W (n) (4.28)


2
où {W (n)} est un bruit blanc, centré, de variance σW . On montre que cette équation possède une unique
p p−1
solution SSL ssi le polynôme A(z) = z + a1 z + · · · + ap n’a pas de racine sur le cercle unité, cad
A(z) 6= 0 pour |z| = 1. Cette solution X(n), qui vérifie E(X(n)) = 0, est appelée processus autorégressif
d’ordre p (ce que l’on note AR–p). Elle a pour expression :

X
X(n) = h(k)W (n − k) (4.29)
k=−∞

où les coefficients h(k) sont les coefficients du développement en Z de la fonction H(z) = 1/A(z), qui est
analytique dans un voisinage du cercle unité. Il s’agit donc de la réponse impulsionnelle du filtre causal
et stable de fonction de transfert H(z). On a :
∞ ∞
1 X X
= h(k)z k avec |h(k)| < ∞, h(0) = 1 (4.30)
A(z)
k=−∞ k=−∞

En particulier, si le polynôme A(z) a toutes les racines à l’intérieur du cercle unité, cad A(z) 6= 0 pour
|z| ≥ 1, X(n) s’exprime causalement en fonction de W (n), ce qui s’écrit :
+∞
X
X(n) = W (n) + h(1)W (n − 1) + · · · = h(k)W (n − k) (4.31)
k=0

Nous nous intéresserons uniquement dans la suite aux processus autorégressifs “causaux” cad tels que
A(z) 6= 0 pour |z| ≥ 1.

Propriété 4.5
Soit X(n) le processus AR-p associé au polynôme A(z), où A(z) 6= 0 pour |z| ≥ 1. Alors pour tout k > 1 :

E(X(n − k)W (n)) = 0 (4.32)

Il suffit d’utiliser 4.31 et le fait que E(W (n)W (j) P


= 0 pour n 6= j.
p
Si on pose X(n) = X̂(n)+W (n), où X̂(n) = − i=1 ai X(n−i), on a, d’après 4.32, E(X(n−k)(X(n)−
X̂(n))) = 0. Ce qui signifie que l’écart ²(n) = X(n) − X̂(n) est orthogonal à X(n − 1), X(n − 2), etc.
Par conséquent X̂(n) est la meilleure régression linéaire en moyenne quadratique de X(n). De là le terme
d’autorégressif donné à ce type de processus.

Propriété 4.6
Soit X(n) le processus AR–p associé au polynôme A(z), où A(z) =
6 0 pour |z| ≥ 1. On note R(k) =
E(X(n + k)X(n) la fonction d’autocovariance de X(n). Alors on a :

th : f acARR(k) + a1 R(k − 1) + · · · + ap R(k − p) = 0 pour k>1 (4.33)


Xp
2
R(0) = σW + ai R(i). (4.34)
i=1

Rappelons tout d’abord que R(k) est paire càd R(−k) = R(k) et qu’il suffit donc de considérer k ≥ 0.
Ecrivons, pour tout k > 1, E(X(n−k)W (n) = 0 et remplaçons W (n) par X(n)+a1 X(n−1)+· P· ·+ap X(n−
p). Il vient 4.33. Considérons E(X(n)W (n)). En remplaçant tout d’abord X(n) par W (n)−P i ai X(n−i)
2
et en utilisant 4.32 il vient E(X(n)W (n)) = σW . En remplaçant à présent W (n) par X(n)+ i ai X(n−i),
il vient 4.34.
La suite des coefficients d’autocovariance du processus vérifie des équations de récurrences en tout
point similaires à celles du processus. Il est donc possible d’engendrer récursivement les coefficients d’au-
tocovariance. Cette propriété est utilisée pour estimer les paramètres du modèle et pour prolonger les
séquences d’autocovariance.

55
En utilisant la propriété 4.5 et en se limitant aux valeurs de k allant de 1 à p, il vient avec des notations
matricielles évidentes, :
   2 
1 σW
 a1   0 
R .  =  .  (4.35)
   
 ..   .. 
ap 0
où R désigne la matrice de dimension p + 1 par p + 1 dont l’élément situé à la ligne i et à la colonne j est
R(j − i). C’est la matrice de covariance d’ordre p + 1 dont on a vu (propriété 4.4) qu’elle était positive
et de Töeplitz.
Dans la littérature l’expression 4.35 s’appelle l’équation de Yule-Walker. Elle relie, de façon linéaire,
les coefficients d’un processus AR avec sa fonction d’autocovariance. Elle est utilisée pour estimer les
coefficients du modèle à partir de l’estimation 4.27 des coefficients d’autocovariance, dont nous rappelons
icil’expression :
N −|k|
1 X
R̂XX (k) = Xc (j + k)Xc (j)
N j=1
PN
où Xc (j) = X(j) − X̄N avec X̄N = N1 n=1 X(n). Comme la matrice de covariance estimée est de
Töeplitz, il existe un algorithme rapide d’inversion connu sous le nom d’algorithme de Levinson.

Exemple 4.4 (Processus autorégressif d’ordre 1) On considère le processus AR–1, X(n), défini par
l’équation récurrente :
X(n) + aX(n − 1) = W (n) (4.36)
2
où |a| < 1 et où W (n) est un bruit SSL, blanc, centré, de variance σW .
On en déduit que :

X
X(n) = (−1)k ak W (n − k) (4.37)
k=0
En utilisant la propriété 4.5, on obtient l’expression de sa fonction d’autocovariance :
2
σW
R(k) = (−1)k a|k|
1 − a2
Il peut paraı̂tre de prime abord surprenant, alors que le modèle 4.36 ne fait intervenir qu’une dépendance
entre deux instants successifs, que la fonction d’autocovariance ne s’annule pas pour |k| > 1, mais au
contraire tend vers 0 graduellement avec k. L’explication est que la corrélation entre X(n) et X(n − 2)
est non nulle car X(n) est relié à X(n − 1) et que X(n − 1) est lui-même relié à X(n − 2), et ainsi de
suite.
Partant de la fonction d’autocovariance, la densité spectrale de ce processus est donnée par :
2
σW
S(e2jπf ) = (4.38)
|1 + a exp(−2jπf )|2
La trajectoire d’un processus AR–1, gaussien, centré, est représentée figure 4.3 pour a = 0.5 et pour
a = 0.9.
Il est intéressant de remarquer que l’équation de récurrence 4.36 n’admet pas de solution stationnaire
lorsque a = ±1. Prenons a = −1 et supposons qu’il existe une solution stationnaire X(n) à l’équation
de récurrence X(n) = X(n − 1) + W (n). En itérant l’équation de récurrence, nous avons, pour tout k,
Pk−1
X(n) = X(n − k) + s=0 W (n − s), dont on déduit par élévation au carré et stationnarité :
k−1
à !
X
2
R(0) = R(0) + kσW + 2E X(n − k) W (n − s)
s=0

Cette dernière relation implique donc que :


k−1
à !
X
2
E X(n − k) W (n − s) = −kσW /2.
s=0

56
5

−5
0 100 200 300 400 500

10

−10
0 100 200 300 400 500

Fig. 4.3 – Trajectoires d’un processus AR(1) gaussien pour deux valeurs de a =
{0.5, 0.9}

En utilisant l’inégalité de Schwarz, nous avons aussi :


¯ Ã
k−1
!¯2
¯ X ¯
2
¯E X(n − k) W (n − s) ¯ ≤ R(0)σW k
¯ ¯
¯ ¯
s=0

2
ce qui, d’après la relation précédente, donnerait pour tout k > 0, R(0) ≥ kσW /4. Ce qui est contraire à
R(0) < +∞.

4.6 Eléments d’estimation


4.6.1 Estimation de la moyenne
Soit {X(n)} un processus à temps discret stationnaire au second ordre, de moyenne E(X(n)) = m X ,
et deP fonction d’autocovariance R(k). Nous supposons dans la suite que R(k) est absolument sommable,
càd |R(k)| < ∞. Nous considérons ici que mX et R(k) sont inconnus et nous cherchons à estimer
ces différentes quantités à partir de la donnée de N observations X1 , X2 , · · · , XN . Nous commençons
par étudier le problème le plus simple, à savoir l’estimation de la moyenne. Nous envisagerons ensuite le
problème plus difficile de l’estimation des coefficients d’autocovariance.
Dans cette étude introductive, nous considérons uniquement l’approche élémentaire consistant à esti-
mer mX par la moyenne empirique :
N
1 X
X̄N = X(n) (4.39)
N n=1
Il s’ensuit que E(X̄N ) = mX . On dit que X̄N est un estimateur sans biais de mX . Pour étudier la
dispersion de cet estimateur autour de la vraie valeur, nous considérons maintenant sa variance qui a
pour expression :
N N N −1
1 XX 1 X |r|
var(X̄) = 2 R(t − s) = (1 − )R(r) (4.40)
N s=1 t=1 N N
r=−(N −1)

On pourra montrer, à titre d’exercice, que :


N −1 ∞
X |r| X
lim (1 − )R(r) = R(r) = S(0) (4.41)
N →∞ N r=−∞
r=−(N −1)

57
où S(f ) désigne la d.s.p. du processus. On en déduit donc que la variance de X̄N tend vers 0 quand
N → ∞. On dit que X̄N converge en m.q. vers mX . Cette relation entre mX et X̄N est importante. D’un
côté, mX est la moyenne (espérance mathématique) de X(n) à tout instant. D’un autre coté, X̄N est la
”moyenne temporelle” de la suite {X(n)}, calculée pour une trajectoire donnée sur N instants succes-
sifs. La convergence exprimée par 4.41 “justifie” d’estimer la moyenne statistique m X par la moyenne
temporelle X̄N , fait partie d’un ensemble de propriétés que l’on désigne sous le terme d’ergodicité.

4.6.2 Estimation des covariances


Pour estimer les coefficients R(k), nous avons vu à l’équation 4.27, l’expression suivante :
PN −|k|
R̂N (k) = N1 n=1 (X(n + k) − X̄N )(X(n) − X̄N ) (4.42)
où X̄N est donné par
N
1 X
X̄N = X(n) (4.43)
N n=1
Remarquons que le nombre d’observations dont nous disposons étant précisément égal à N , il n’existe pas
de paires d’observations séparées de plus de N − 1 intervalles de temps, et donc qu’il n’est pas possible
d’estimer les valeurs de R(k) pour |k| ≥ N . Il est facile de voir que R̂N (k) est asympotiquement sans biais
dans le sens où limN →∞ E(R̂N (k)) = R(k). Indiquons simplement que, sous des hypothèses adéquates
(existence de moments d’ordre 4, stationnarité stricte), on peut montrer que :

1 X
var(R̂N (k)) ' (R2 (m) + R(m + k)R(m − k)), (4.44)
N m=−∞

Comme le montre l’expression 4.44, la variance de R̂N (k)3 est approximativement de l’ordre de 1/N pour
k ∈ {−(N − 1), · · · , (N − 1)} et tend donc vers zéro quand N tend vers l’infini. Là encore ce résultat
joue un rôle pratique important : il est justifié d’estimer l’espérance mathématique R(k) par la moyenne
temporelle faite sur une trajectoire, suffisamment longue.

4.6.3 Estimation de la d.s.p.


Soit {X(n)} un processus aléatoirePSSL de fonction d’autocovariance absolument sommable. Sa densité
spectrale est définie par S(e2jπf ) = k R(k) exp(−2jπf k). Nous supposons dans la suite que la moyenne
E(X(n)) est connue. On peut alors, sans perte de généralités, poser que E(X(n)) = 0. Dans ce cas,
R(k) = E(X(n + k)X(n)).
Une façon naturelle d’estimer la densité spectrale consiste donc à tronquer la sommation précédente
pour k ∈ {−(N −1, · · · , (N −1)} et à substituer les coefficients d’autocovariance R(k), par les estimateurs
PN −|k|
biaisés R̂N (k) = N −1 n=1 X(n + k)X(n). En notant IN (f ) = ŜN (e2jπf ), on obtient ainsi :
(N −1)
¯N ¯2
X 1 ¯¯ X ¯
IN (f ) = R̂N (k) exp(−2jπf k) = X(n) exp(−2jπf n)¯ (4.45)
¯

¯
¯
−(N −1) n=1

qui est appelé le périodogramme. Nous avons :


N −1
X |k|
E(IN (f )) = (1 − )R(k) exp(−2jπkf ) (4.46)
N
k=−(N −1)

et par suite, quand N tend vers l’infini, E(IN (f )) tend vers S(e2jπf ) : le périodogramme est donc un
estimateur asymptotiquement sans biais de la densité spectrale.
Toutefois, le périodogramme est un ” mauvais ” estimateur de la densité spectrale : plus précisément,
le périodogramme est un estimateur inconsistant de S(e2jπf ), dans le sens où var(IN (f )) ne tend pas
vers 0 quand N → ∞. D’autre part, on montre que les amplitudes du périodogramme prises à deux
fréquences de Fourier (f = k/N ) distinctes sont asymptotiquement décorrélées. Ceci explique l’apparence
extrêmement ” erratique ” du périodogramme (voir figure 4.4).
3
P P
L% bait d% suppos%r m |R(m!| < ∞ %ntraı̂n% qu% m |R(m + k!R(m − k!| < ∞.

58
N = 128 N = 256
40 40

20 20

0 0

−20 −20
0 0.2 0.4 0 0.2 0.4
N = 512 N = 1024
40 50

20
0
0

−20 −50
0 0.2 0.4 0 0.2 0.4

Fig. 4.4 – Périodogrammes d’un processus SSL pour N = 128, 256, 512, 1024

Périodogramme tronqué et périodogramme fenêtré


Une idée pour réduire la variance du périodogramme consiste à omettre dans la somme 4.45 un certain
nombre de termes. En faisant celà, nous devrions réduire la variance de l’estimateur, mais d’un autre côté
nous augmentons le biais (puisque nous négligeons un P plus grand nombre de termes). Toutefois, puisque
nous nous intéressons à des processus pour lesquels |R(s)| < ∞, il est raisonnable de penser que
l’augmentation de biais sera raisonnable. Ces idées suggèrent de considérer l’estimateur :
M
X
ŜM (e2jπf ) = R̂(s) exp(−2jπsf ). (4.47)
s=−M

où M est un entier tel que M < (N − 1). Un tel estimateur est appelé un périodogramme tronqué. Nous
n’étudierons pas précisément le biais et la variance de cet estimateur et nous contenterons d’une discussion
heuristique. Comme le nombre de termes intervenant dans la somme est (2M + 1) (contre (2N + 1) pour
le périodogramme non tronqué), il est aisé de se convaincre que la variance de cet estimateur est d’ordre
O(M/N ). De plus :
M ∞
X |s| X
E(ŜM (e2jπf )) = (1 − )R(s) exp(−2jπf s) → S(e2jπf ) = R(s) exp(−2jπsf ) (4.48)
N s=−∞
s=−M

lorsque M → ∞. Donc, si l’on fait dépendre la valeur de M de la taille N de l’échantillon de telle


sorte que M → ∞ quand N → ∞, alors ŜM (e2jπf ) est un estimateur (asymptotiquement) sans biais
de S(e2jπf ). Ces deux résultats suggèrent que si l’on fait croı̂tre M en fonction de N de telle sorte
que M → ∞ lorsque N → ∞, mais suffisamment ” lentement ” pour que M/N → 0, alors le biais
et la variance de l’estimateur ŜM (e2jπf ) de S(e2jπf ) tendront simultanément vers 0, et nous aurons
ainsi construit un estimateur consistant de S(e2jπf ) càd un estimateur dont la dispersion quadratique
E(ŜM (e2jπf )−S(e2jπf ))2 → 0 lorsque N → ∞. Il est facile de voir que ces deux conditions sont réunies si
l’on prend par exemple M = N α avec 0 < α < 1. L’estimateur 4.47 peut être vu comme un cas particulier
d’une classe plus générale d’estimateurs :
(N −1)
X
Ŝλ (e2jπf ) = λ(s)R̂(s) exp(2jπf s) (4.49)
s=−(N −1)

59
où λ(s) est une fonction paire. Le périodogramme tronqué correspond au cas où la fenêtre de pondération
des coefficients d’autocovariance est la fenêtre rectangulaire :
½
1, |s| ≤ M
λ(s) = (4.50)
0 |s| > M

On peut bien entendu considérer des fenêtres plus générales, par exemple des fenêtres de pondération
décroissant régulièrement vers 0 (plutôt qu’être constante sur une certaine plage et nulle au-delà). Pour
de tels estimateurs, la contribution de la queue des coefficients d’autocovariance sera réduite (plutôt que
purement et simplement éliminée), mais il est raisonnable d’espérer que si la λ(s) décroı̂t ” suffisamment
” vite, les estimateurs de la forme 4.49 seront consistants.
Bartlett (1950) a suggéré l’utilisation de la fenêtre triangulaire suivante :
½
1 − |s|/M |s| ≤ M
λ(s) = (4.51)
0 |s| > M

Ici encore M détermine le point où la fonction d’autocovariance est tronquée. Toutefois, alors que dans
l’exemple précedent les différents coefficients d’autocovariance étaient simplement tronqués, ici les coef-
ficients d’autocovariance sont pondérés avec un poids décroissant linéairement avec l’index s. La fenêtre
spectrale associée à la fenêtre temporelle 4.51 est donnée par
M
X
W (x) = (1 − |s|/M ) cos(2πsx) = FM (x) (4.52)
s=−M

où FM (x) est le noyau de Fejer. Notons que FM (x) est positive pour tout x, et donc que l’estimateur
spectral construit avec cette fonction de pondération est toujours positif.

4.7 Exercices
Exercice 4.1 (Variation d’un processus à bande limitée) Soit X(n) un processus aléatoire réel
centré à bande limitée (−b, b) ⊂ (−1/2, 1/2). Démontrer l’inégalité :

E(|X(n + τ ) − X(n)|2 ) < (2πbτ )2 RXX (0)

En déduire un majorant de P (|X(n + τ ) − X(n)| > ²). Donner une interprétation du résultat en fonction
de b < 1/2 et de RXX (0).

Exercice 4.2 (Propriétés de la fonction d’autocovariance) Soit X(n) un processus aléatoire SSL
de moyenne mX et de fonction de covariance RXX (k). On considère une suite quelconque Pn d’instants
(k1 , · · · , kn ) et une suite quelconque de valeurs comlexes (λ1 , · · · , λn ). On pose Y = i=1 λi X(ki ).

1. Montrer que RXX (k) = RXX (−k).
2. Montrer que RXX (k) est maximum en 0.
3. Déterminer la moyenne et la variance de Y . Conclure.

Exercice 4.3 (Conditions d’ergodicité d’un processus SSL) Soit X(n) un processus aléatoire SSL
à temps discret, réel, de moyenne mX et de fonction d’autocovariance RXX (k). On considère la variable
aléatoire définie par :
N −1
1 X
M= X(n)
T n=0

1. Déterminer la moyenne et la variance de M .


2. Montrer que, si RXX (k) tend vers 0 quand k tend vers l’infini, la moyenne temporelle M tend en
probabilité vers la moyenne statistique mX = E(X(n)) : on dit alors que X(n) est ”ergodique au
premier ordre”.
On suppose à présent que X(n) est gaussien, réel et on considère, pour k fixé, le processus aléatoire
Y (n) = (X(n + k) − mX )(X(n) − mX ). Par conséquent E[Y (n)] = RXX (k).

60
3. Déterminer en fonction de RXX (k) l’expression de la fonction d’autocovariance du processus Y (n).
On rappelle que si U1 , U2 , U3 , U4 sont 4 variables aléatoires gaussiennes, centrées, E(U1 U2 U3 U4 ) =
E(U1 U2 )E(U3 U4 ) + E(U1 U3 )E(U2 U4 ) + E(U2 U3 )E(U1 U4 ).
4. En utilisant le résultat de la question 2, en déduire une condition suffisante pour que le processus
X(n) soit ”ergodique au second ordre”.

Exercice 4.4 (Périodogramme d’une sinusoı̈de) On observe, pour 0 ≤ n ≤ N , le signal y(n) =


x(n) + b(n), où x(n) = A exp(2jπf0 n) et où b(n) est un bruit blanc, centré, de variance η. On considère
le périodogramme défini par :
¯ ¯2
1 ¯NX
−1 ¯
PN (f ) = y(n) exp(−2jπf n)¯
¯ ¯
N
¯
¯ ¯
n=0

Montrer que :

A2 sin2 (πN (f − f0 ))
E(PN (f )) = +η
N sin2 (π(ff 0))

Que constate-t-on quand N tend vers l’infini ?

Exercice 4.5 (Processus harmonique : spectre de raies et prédiction) Considérons le proces-


sus aléatoire à temps discret :
N
X
X(n) = αk exp(2jπfk n) avec n∈Z
k=1

où {αk } désigne une suite de variables aléatoires complexes, centrées, non corrélées, de variance {σ k2 } et
{fk } une suite de constantes ∈ (0, 1).
PN
1. Montrer que la d.s.p. peut s’écrire SXX (e2jπf ) = k=1 σk2 δ(f − fk ) où δ(f − f0 ) est la mesure
définie par δf0 (B) = 11B (f0 ) (mesure qui charge la valeur f0 avec 1).
QN
2. Posons zk = e2jπfk et considérons le polynôme Q(z) = k=1 (z − zk−1 ). Montrer en utilisant les
propriétés de Q(z) qu’il existe uen suite de constantes {a1 , · · · , aN } telles que :

X(n) + a1 X(n − 1) + · · · + aN X(n − N ) = 0

3. En posant bn = −an , interpréter le résultat de la question précédente.


4. Ce processus est mis à l’entrée d’un filtre linéaire de réponse impulsionnelle h(n). On note Y (n) le
processus en sortie :
+∞
X
Y (n) = h(s)X(n − s)
s=−∞

Déterminer l’expression de E(Y (n + τ )Y (n)) (τ ∈ Z).

Exercice 4.6 (Prédiction linéaire) Soit X(n) une suite aléatoire stationnaire au second ordre,
centrée, de fonction d’autocovariance RXX (k) supposée connue. On se propose de ”prédire” X(n) à
partir d’une combinaison linéaire des p valeurs précédentes :

X̂(n) = λ1 X(n − 1) + · · · + λp X(n − p)

Pour mesurer les performances de ce prédicteur, on définit l’erreur de prédiction par ² 2 = E(|X(n) −
X̂(n)|2 ). Déterminer, en fonction de RXX (k), la suite des coefficients {λ1 , · · · , λp } qui rend minimum
l’erreur ²2 .

Exercice 4.7 (Numérisation d’un signal) On désire numériser un signal à temps continu station-
naire au second ordre de bande limitée 4kHz, de puissance 10mW.

61
1. Quelle est la fréquence d’échantillonnage minimum qu’il faut choisir pour éviter le repliement de
spectre ?
2. Les échantillons sont numérisés en quantification linéaire sur 8 bits. Donner une valeur approxima-
tive du rapport signal sur bruit de quantification. En déduire la puissance du bruit de quantification.

Exercice 4.8 (Rapport Signal/Bruit de quantification) On effectue une quantification linéaire sur
N bits des échantillons X(n) d’un signal. On suppose que l’erreur de quantification peut être considérée
comme une variable aléatoire uniforme et qu’il y a absence d’écrêtage. Dans
√ le cas où X(n) est gaussien,
centré de variance Px , on sait que les amplitudes de X(t) supérieures à 3 Px sont de probabilité inférieure
à 0.1%.
Partant de là, montrer que le rapport signal sur bruit de quantification a pour expression en dB :

ρ = 6N + F 2

où F est une constante à déterminer.


Commentaire : on gagne 6dB par bit.

Exercice 4.9 (Echantillonnage en présence de bruit) On considère le processus aléatoire Y (t) =


X(t) + B(t) (t ∈ R), où le signal X(t) et le bruit B(t) sont deux processus aléatoires, réels, centrés,
stationnaires du second ordre au sens large, non corrélés entre eux, de densités spectrales de puissance
respectives SXX (F ) et SBB (F ), où F désigne la fréquence en Hz. On suppose que SXX (F ) = 0 pour
|F | > B et que SBB (F ) = N0 /2 pour |F | < 2B et SBB (F ) = 0 pour |F | > 2B.

S XX (F)
S BB( F)
F

B 2B

Fig. 4.5 – Spectres du signal et du bruit.

Y (t) est échantillonné à la fréquence Fe . On note SXe (f ) et SBe (f ) les d.s.p. respectives des suites
d’échantillons Xe (k) = X(k/Fe ) et Be (k) = B(k/Fe ), où f = F/Fe désigne la fréquence réduite.
1. On choisit Fe = 2B. En utilisant la formule de Poisson, déterminer les expressions de S Xe (f ) et
SBe (f ) en fonction de SXX (F ) et SBB (F ) respectivement.
2. Reprendre la question précédente pour Fe = 4B.
3. Quelle est la différence en dB du rapport signal/bruit obtenu pour chacune des deux fréquences
d’échantillonnage ? Conclure.

Exercice 4.10 (Quantification non linéaire) On considère une amplitude X modélisée par une va-
riable aléatoire à valeurs dans (−∞, +∞) de loi connue caractérisée par sa densité p x (x). L’opération de
quantification scalaire consiste :
– à partitionner l’intervalle (−∞, +∞) en n sous intervalles de la forme Ik = (ak−1 , ak ) avec k ∈
{1, · · · , n} et a0 = −∞ et an = +∞ tels que, si x ∈ Ik , on code x par k. En pratique n = 2N et k
est alors représenté sur N bits.
– à choisir n valeurs {µ1 , · · · , µn }, appelées valeurs de reconstruction, telles que, si le mot-code est
k, on prend comme valeur de x la valeur x̂ = µk .
On note ² = x − x̂.
1. Déterminer en fonction de n, de ak , de µk et de pX (x) l’expression de B = E(²2 ).
2. Déterminer des conditions sur les {ak } et les {µk } telles que B soit minimum (on n’essaiera pas de
trouver une expression analytique).

Exercice 4.11 (Filtre moyenneur à temps discret) On considère une suite aléatoire X(n) réelle,
stationnaire au second ordre, centrée, de fonction d’autocovariance
Pn RXX (k) avec RXX (0) = 1,
RXX (±1) = −1/2 et RXX (k) = 0 pour |k| ≥ 1. Et soit Y (n) = k=n−N +1 X(k)/N .

62
1. Montrer que cette relation établit un filtrage linéaire entre les suites aléatoires X(n) et Y (n), dont
on donnera la réponse impulsionnelle h(n).
2. Déterminer l’expression du gain en fréquence H(e2jπf ) de ce filtre.
3. Déterminer l’expression de la densité spectrale de puissance SXX (e2jπf ) de X(n).
4. Déterminer l’expression de la densité spectrale de puissance SY Y (e2jπf ) de Y (n).
5. En déduire E(Y 2 (n)).
6. On suppose que X(n) est un processus gaussien. Donner l’expression de la densité de probabilité
de Y (n).

Exercice 4.12 (Estimation de la réponse impulsionnelle) On considère un filtre à réponse impul-


sionnelle h(n) finie, càd h(n) = 0 pour n 6∈ {0, · · · , L}. Si on note X(n) le signal en entrée et Y (n) le
signal en sortie, on a :

Y (n) = h(0)X(n) + h(1)X(n − 1) + · · · + h(L)X(n − L)

On applique à l’entrée un signal aléatoire X(n), stationnaire au second ordre, centré, de fonction d’au-
tocovariance RX (k). Le signal en sortie Y (n) est donc centré. On note RY X (k) = E(Y (n + k)X(n)) la
fonction d’intercovariance entre le signal de sortie et le signal d’entrée et R Y (k) = E(Y (n + k)Y (n)) la
fonction d’autocovariance du signal de sortie.
1. Déterminer, en fonction de {RX (n)} et de {h(n)}, l’expression de RY X (k) pour k ∈ {0, · · · , L}.
2. On observe la réalisation, pour n ∈ {1, · · · , N }, du signal d’entrée X(n) et du signal de sortie Y (n).
Proposer une façon d’estimer, à partir de ces deux suites de valeurs, les suites R X (k) et RY X (k),
pour k ∈ {0, · · · , L} (on suppose N À L.).
En déduire une procédure pour estimer la réponse impulsionnelle d’un filtre.
Dans la suite on suppose que le processus aléatoire à l’entrée X(n) est blanc, de puissance R X (0) = 1.
3. Déterminer en fonction de {h(n)}, l’expression de RY (k) pour k ∈ {0, · · · , L}.
4. On suppose que L = 1. On observe uniquement le signal de sortie Y (n) pour n ∈ {1, · · · , N }
valeurs. En supposant que le filtre h(n) est à phase minimale, proposer une façon d’estimer la
réponse impulsionnelle {h(0), h(1)} à partir de la suite de valeurs Y (n).

Exercice 4.13 (Extraction d’une sinusoı̈de dans du bruit) On considère Y (n) = X(n) + B(n) où
X(n) = A cos(2πf0 + Φ) et B(n) est un bruit stationnaire au second ordre, centrée, blanc, de variance η.
On suppose que Φ une variable aléatoire uniforme sur (−π, π), indépendante de B(n).
A et f0 désignent des paramètres déterministes. On se propose de mesurer f0 à partir d’une suite
d’observations (Y (1), · · · , Y (N )).
1. Déterminer E(X(n)). Déterminer l’expression de RXX (k) = E(X(n + k)X(n)) en fonction de A et
f0 .
2. Déterminer l’expression de RY Y (k) = E(Y (n + k)Y (n)) en fonction de A et f0 et η.
3. Montrer que RY Y (k) vérifie l’équation récurrente :

RY Y (k + 1) + aRY Y (k) + bRY Y (k − 1) = η(δ(k + 1) + aδ(k − 1) + bδ(k − 2)) (4.53)

Déterminer a et b en fonction de A et f0 .
4. En utilisant l’équation 4.53 pour k = −1, 0, 1, montrer que la fréquence f0 peut être obtenue à
partir de la décomposition propre d’une matrice construite avec RY Y (0), RY Y (1), RY Y (2).
5. A partir d’une observation de Y (n), on a pu estimer les trois valeurs suivantes : R Y Y (0) = 0.5640,
RY Y (1) = 0.4148, RY Y (2) = 0.1658. Calculer f0 .

Exercice 4.14 (Décomposition spectrale) On considère un processus aléatoire X(n), réel, station-
naire au second ordre au sens large, centré, de fonction d’autocorrélation R(k). On note S(z) la trans-
formée en Z de R(k) et on se limite au cas où S(z) est une fraction rationnelle. On suppose que S(z) n’a
ni pôle ni zéro sur le cercle.
1. Montrer que S(z) = S ∗ (z ∗ ).

63
2. Montrer que S(z) = S ∗ (1/z ∗ ).
3. On note zj un zéro du numérateur ou du dénominateur et mj son degré de multiplicité, avec mj
positif si zj est un zéro et négatif si zj est un pôle. En remarquant que :
à !
1 z 1
z− ∗ =− ∗ −1
zj zj zj∗

montrer que S(z) peut s’écrire :


à à ! ∗ ! mj
t
Y 1
S(z) = S0 z (z − zj ) −1
zj∗
|zj |<1

En déduire que t = 0 et que S0 est positif. Comment sont situées les zéros et les pôles de S(z) par
rapport au cercle unité.
4. Dans le cas où S(z) a 2 pôles et 2 zéros non situés sur le cercle unité, donner l’expression générale
de S(z), ainsi que celle de S(e2jπf ).
5. On donne :
10 cos(2πf ) − 26
S(e2jπf ) =
4 cos(2πf ) − 5
Déduire des résultats précédents que le processus x(n) peut être obtenu comme la sortie d’un filtre
linéaire, causal, stable et à minimum de phase, dont l’entrée est un bruit blanc B(n) de puissance
1. On note H(z) sa fonction de transfert.
(a) Déterminer H(z).
(b) Déterminer la réponse impulsionnelle h(n) de ce filtre.
(c) Montrer que B(n) peut être obtenu comme la sortie d’un filtre linéaire causal dont l’entrée est
X(n). Déterminer la fonction de transfert G(z) de ce filtre. Ce filtre est-il stable et à minimum
de phase ?

Exercice 4.15 (Identification MA) On considère le filtre linéaire à temps discret défini par :
Y (n) = X(n) + b1 X(n − 1) + b2 X(n − 2)
où X(n) et Y (n) désignent respectivement les processus aléatoires réels d’entrée et de sortie du filtre et
où b1 et b2 sont 2 coefficients réels. On suppose que {X(n)} est une suite de variables aléatoires centrées,
indépendantes et de variance σ 2 .
1. Donner l’expression de RX (k) = E[X(n + k)X(n)] ainsi que la densité spectrale de puissance de
X(n).
2. Déterminer l’expression de RY (k) = E[Y (n + k)Y (n)] en fonction de b1 , de b2 et de σ 2 .
3. En déduire l’expression de la densité spectrale de puissance de Y (n).
4. On se propose d’évaluer b1 , b2 et σ 2 à partir d’une observation {Y (0), · · · , Y (N − 1)} de longueur
N . On admet qu’il est légitime (si N est très grand) de remplacer les covariances R Y (k) par les
moments temporels correspondants construits à partir de {y(0), · · · , y(N − 1)}, donner 3 équations
(non linéaires) dont b1 , b2 et σ 2 sont les solutions.

Exercice 4.16 (Mesure de spectre : modélisation AR(1)) On considère une suite aléatoire réelle
X(n) engendrée à partir d’une suite aléatoire réelle W (n) par l’équation récurrente :
X(n) − aX(n − 1) = W (n)
On suppose que |a| < 1 et que W (n) est une suite aléatoire réelle, stationnaire au second ordre, centrée,
blanche de variance η. On admettra que cette équation a comme solution :
X
X(n) = h(n − k)W (k) (4.54)
k=−∞

n
où h(n) = a pour n ≥ 0 et 0 pour n < 0. On note RXX (m) sa fonction d’autocovariance.

64
1. En appliquant la formule de filtrage, déterminer l’expression de RXX (0) en fonction de a et de η.
2. En élevant au carré les deux membres de 4.54, déduire une relation entre RXX (0) et RXX (1). En
déduire RXX (1).
3. Montrer que E(W (n)X(k)) = 0 pour k < n. En portant ce résultat de la question précédente dans
4.54, déduire une relation de récurrence sur la suite RXX (m). En déduire RXX (m).
4. A partir d’une observation de la suite X(n), on a estimé les valeurs RXX (0) et RXX (1). On a trouvé
RXX (0) = 1 et RXX (1) = 1/4. On veut à partir de là en déduire la densité spectrale de puissance.
Pour cela on envisage successivement les deux approches suivantes :
(a) On suppose queX(n) est un processus AR-1. Donner l’expression de sa densité spectrale de
puissance. Esquissez sa forme.
(b) On suppose que RXX (m) = 0 pour |m| ≥ 2. Donner l’expression de sa densité spectrale de
puissance. Esquissez sa forme.

Exercice 4.17 (Processus asymptotiquement AR1) On considère le processus aléatoire défini par
l’équation de récurrence X(n) = aX(n − 1) + Z(n) pour n ≥ 1 et X(0) = 0. On suppose que |a| < 1 et
2
que {Z(n)}n≥1 est une suite de variables aléatoires de moyenne nulle, de variance σZ et décorrélées.
1. En itérant l’équation de récurrence, montrer que :
n−1
X
X(n) = ak Z(n − k) (4.55)
k=0

2. En déduire les expressions de la moyenne et la fonction d’autocovariance de X(n).


3. Le résultat précédent montre que X(n) n’est pas stationnaire au second ordre. Déterminer la limite,
quand n tend vers l’infini, de la fonction d’autocovariance. Conclure.
4. Plus précisément montrer que X(n) converge en moyenne quadratique vers le processus AR1 défini
par l’équation de récurrence . On dit qu’un tel processus est asymptotiquement stationnaire au
second-ordre.
5. Que se passe-t-il si |a| > 1.

Exercice 4.18 (Approximation par un filtre linéaire) On considère un système S à temps discret
que l’on veut approximer par un filtre linéaire de gain complexe H(e2jπf ).

X(n) Y (n) e(n)


S
+ −
Z(n)
H( f )

Fig. 4.6 – Approximation de S par un filtre linéaire.

Pour cela on applique à son entrée un processus aléatoire réel X(n), supposé stationnaire au second
ordre, centré de densité spectrale de puissance SXX (e2jπf ). On note Y (n) le processus réel en sortie de S,
Z(n) le processus réel en sortie du filtre H(e2jπf ) et e(n) = Y (n) − Z(n). On suppose que Y (n) est centré
et que E[Y (n + k)Y (k)] et E[Y (n + k)X(k)] sont indépendants de k. On note S Y Y (e2jπf ) et SY X (e2jπf )
leurs transformées de Fourier à temps discret respectives. On suppose connues les fonctions S XX (e2jπf ),
SY Y (e2jπf ) et SY X (e2jπf ).
1. Donner l’expression de E[Y 2 (n)] en fonction de SY Y (e2jπf ).
2. Déterminer l’expression de E[Z 2 (n)] en fonction de H(e2jπf ) et de SXX (e2jπf ).
3. Déterminer l’expression de SY Z (e2jπf ), transformée de Fourier à temps discret de E[Y (n + k)Z(k)]
en fonction de H(e2jπf ) et de SY X (e2jπf ).
4. En déduire l’expression de E(Y (n)Z(n)).

65
5. En déduire l’expression de E(e2 (n)) en fonction de H(e2jπf ), SXX (e2jπf ), SY Y (e2jπf ) et
SY X (e2jπf ). Montrer que cette expression peut se mettre sous la forme :
Z 1/2 ¯ ¯2
2 2jπf SY X (e2jπf ) ¯¯
SXX (e2jπf )df
¯
E(e (n)) = P0 + ¯H(e
¯ )−
−1/2 SXX (e2jπf ) ¯

où P0 est une expression indépendante de H(e2jπf ), que l’on déterminera.


6. En déduire l’expression du filtre H(e2jπf ) qui minimise E[e2 (n)].
7. En déduire que la réponse impulsionnelle h(n) du filtre H(e2jπf ) vérifie une équation de convolution
où interviennent E[X(n + k)X(k)] et E[Y (n + k)X(k)].
8. On se limite à présent à un filtre H(e2jπf ) dont la réponse impulsionnelle h(n) est de longueur finie.
On note L le nombre de coefficients de h(n). Montrer que la suite h(n) où n ∈ {0, · · · , L − 1} est
solution d’un système linéaire dont on donnera l’expression.

Exercice 4.19 (Filtrage de Wiener) On considère un canal de transmission modélisé par un filtre
2
linéaire h(n) à 2 coefficients et soumis à un bruit B(n) additif, centré, blanc de puissance σ B .

B(n)
X(n) Y (n) T(n)
h(n) g(n)

Fig. 4.7 – Canal de transmission

Si on note X(n) le signal émis et Y (n) le signal reçu on a :


Y (n) = h(n) ? X(n) + B(n) = X(n) − aX(n − 1) + B(n)
où a ∈ R et |a| < 1. On suppose que {X(n)} est une suite de variables aléatoires centrées, non
2
corrélées de puissance σX , qui représente le signal utile. On suppose que les suites {X(n)} et {B(n)} sont
indépendantes.
1. Déterminer l’expression de la puissance σY2 de Y (n) en fonction de σB 2 2
, σX et a.
2. On effectue sur le signal Y (n) un filtrage linéaire de réponse impulsionnelle g(n). On note T (n) le
signal obtenu. On a avec des notations évidentes :
T (n) = g(n) ? Y (n) = g(n) ? h(n) ? X(n) + g(n) ? B(n) = U (n) + W (n)
Déterminer, en fonction de H(z), l’expression de la fonction de transfert G(z) du filtre stable qui
assure T (n) = X(n) + W (n), c’est-à-dire qui force à X(n) la partie signal de T (n).
Déterminer l’expression de sa réponse impulsionnelle g(n).
2 2
En déduire, en fonction de σB , σX et a, l’expression du rapport signal à bruit R =
2 2
E[|X(n)| ]/E[|W (n)| ].
3. On n’impose plus à G(z) la condition précédente et on se propose à présent de trouver g(n) qui
minimise ²2 = E[|X(n) − T (n)|2 ].
En notant que e(n) = X(n) − T (n), on a :
e(n) = (δ(n) − h(n) ? g(n)) ? X(n) − g(n) ? B(n)
où δ(n) désigne la suite de Kronecker (à savoir δ(0) = 1 et δ(n) = 0 pour tout n 6= 0).
Déterminer l’expression Se (e2jπf ) de la densité spectrale de puissance de e(n) en fonction de σB 2
,
2 2jπf 2jπf
σX , H(e ) et G(e ).
En déduire l’expression de ²2 = E[|X(n)−T (n)|2 ] (on laissera le résultat sous forme d’une intégrale).
En utilisant l’identité donnée ci-dessous, déduire l’expression de G(e2jπf ) qui minimise ²2 .
On donne :
¯ ¯2
2 2 2
¯ p
2 2
H∗ ¯ k2
|1 − HG| + k |G| = ¯G |H| + k − p +
¯ ¯
|H|2 + k 2
¯
¯ |H|2 + k 2 ¯

66
Exercice 4.20 (Filtre adapté) Considérons la situation que l’on rencontre en surveillance radar où
on émet un signal e(t) et où l’on cherche à détecter la présence ou l’absence de son écho sur une cible
éventuelle, que nous supposons ici, pour simplifier, immobile à la distance d.
Supposer que le signal e(t) est simplement affecté d’un retard pur permet d’envisager le problème
posé de la façon suivante : on fixe t0 et on se propose de décider, à partir de l’observation, si la cible se
trouve à la distance d = ct0 /2, auquel cas R(t) = e(t − t0 ) + B(t). On fait ensuite varier t0 dans une plage
de valeurs correspondant à la portée maximale du radar.
Par conséquent sous l’hypothèse que la cible est présente, le signal reçu est la somme d’un signal de
forme connue x(t) = e(t − t0 ) et d’un bruit. Dans le cas contraire,il n’y a que le bruit B(t) que nous
supposons, SSL, centré, blanc.
Avant traitement, le signal reçu est échantillonné à la cadence Te et on note R(0), R(1), · · · , R(N − 1)
la suite des N échantillons observés (à partir de maintenant on note x(n) et B(n) les échantillons de x(t)
et B(t)). On suppose P de plus que t0 = n0 Te .
On note Wx = n |x(n)|2 l’énergie finie de x(n) et on suppose que B(n) est un bruit à temps discret
SSL, centré, blanc de d.s.p. η. A la réception le système de détection est constitué :
– d’un filtre numérique de réponse impulsionnelle h(n),
– d’un échantillonneur, qui prélève à l’instant n0 la valeur :
+∞
X
Y (n0 ) = R(n0 − n)h(n)
n=−∞

– et d’un comparateur à seuil, qui décide la présence (respectivement l’absence) de la cible, si la valeur
Y (n0 ) est supérieure (respectivement inférieure) à un seuil s.

B(t) comparateur
R(t) h(t)
x(t) Y (t) Y (t0 )
filtre
linéaire t0

Fig. 4.8 – Système de détection.

On se propose de déterminer, en présence de la cible, la réponse impulsionnelle h(n) qui maximise le


rapport signal/bruit défini par :
2
|E[Y (n0 )]|
ρ=
var(Y (n0 ))
Le choix de ce critère est guidé par le fait que plus ρ est grand, plus il paraı̂t facile de ”deviner”, par
comparaison à un seuil, la présence ou l’absence du signal x(n) dans le bruit.
1. Déterminer l’expression de E(Y (t0 )) en fonction de n0 , x(n) et h(n).
2. En utilisant la formule de filtrage, montrer que :
+∞
X
var(Y (t0 )) = η |h(n)|2
n=−∞

3. En utilisant l’inégalité de Schwarz, montrer que :


Wx
ρ≤
η
En déduire le filtre h(n) qui maximise ρ. Dans la littérature, ce filtre s’appelle le filtre adapté (sous
entendu au signal x(t)).
4. Montrer que, pour effectuer le test sur plusieurs positions successives, il suffit de supprimer
l’échantillonneur et d’observer les sorties successives du filtre adapté.
5. Considérons le cas où e(n) est de durée finie, à savoir e(n) = 0 pour n 6∈ {0, · · · , L − 1}, avec
L ¿ N . donner le schéma de détection.

67
Annexe A

Questions-test

Echantillonnage et Reconstruction
Echantillonnage
1. Description des blocs d’une chaı̂ne de traitement numérique (du signal analogique au signal analo-
gique).
2. Quelles sont les opérations à effectuer pour échantillonner un signal réel de bande (−B, B) à la
fréquence Fe ?
3. Quelle est la relation entre la TFtd de la suite x(n) et la TF du signal xa (t) où x(n) = xa (nTe ).
4. On considère un signal réel, à bande étroite autour de F0 . A quelles fréquences peut-il être
échantillonné ?

Reconstruction
1. Quelles déformations introduit la reconstruction par un bloqueur d’ordre 0 ? Quel avantage a-t-on
à utiliser éventuellement un sur-échantillonnage ?
2. On échantillonne le signal xa (t) = A cos(2πF0 t) + A cos(2πF1 t) où F0 = 200Hz et F1 = 600Hz. La
fréquence d’échantillonnage est de Fe = 1000Hz. Qu’obtient à la reconstruction ?

Filtrage
Représentation en fréquence
1. Soit x(n) un signal réel. Montrer que la TFtd vérifie la symétrie hermitienne.
2. On tronque un signal x(n) réel sur un intervalle de durée N . Quelle conséquence cela a-t-il sur le
spectre ?
3. Esquisser la TFtd de la somme tronquée à N points de 2 sinusoides réelles, de fréquences f 0 et f1
telles que |f0 − f1 | À 1/N . Limite de Fourier à la résolution. Quel est le rôle des fenêtres ?
4. Expliquer ce que signifie distorsion d’amplitude et distorsion de phase ?
5. x(n) sont les échantillons du signal xa (t) à la fréquence Fe . On construit à partir de x(n) le signal
numérique :
½
x(n) si k = 0 mod M
y(k) =
0 si k 6= 0 mod M

Dit de façon plus simple, la suite y(k) est construite en intercalant (M −1) zéro entre chaque élément
de la suite x(n). On note X(e2jπf ) la TFtd de x(n) et Y (e2jπf ) la TFtd de ye (k). Déterminer
l’expression de Y (e2jπf ) en fonction de X(e2jπf ). Proposer un traitement numérique, portant sur
la suite y(k), qui permet d’obtenir les échantillons de xa (t) à la fréquence M Fe .
6. Montrer x((n − p) mod N ) (retard pur de p) a pour TFD X(k)WNpk .
7. Quelle est la TFDI de la suite X(k)Y (k) ?

70
8. Pour N = 1024, donner un ordre de grandeur du gain de rapidité de l’algorithme dit de fft pour le
calcul de la TFD.
9. On utilise une TFD sur L points pour calculer la TFtd d’un signal échantillonné. Quelle précision
en fréquence, exprimée en Hz, peut-on attendre d’une telle méthode ?
10. On observe N échantillons d’un signal composé de sinusoı̈des. Ce signal est échantillonné à 8000
Hz. En calculant une TFD sur P points, à partir des échantillons, on souhaite discriminer deux
fréquences séparées par un écart pouvant descendre jusqu’à 20Hz et d’amplitudes relatives 30 dB. On
veut en plus mesurer chaque fréquence avec une précision de 1Hz. Déterminer la fenêtre (Hamming
ou rectangulaire) ainsi que les valeurs de N et P pour satisfaire ces conditions.

Filtrage
1. Le signal réel x(n) est transmis à travers un canal comportant 2 trajets. Le retard relatif entre les
deux trajets est de n échantillons. Quelle conséquence cela a-t-il sur le spectre du signal reçu ?
2. On veut transmettre sans distorsion un signal à bande limitée. Quel est le filtre qui réalise une telle
transmission ?
3. On applique à l’entrée d’un filtre de réponse impulsionnelle h(n) le signal x(n) = exp(2jπf 0 n).
Qu’obtient-on en sortie ? En déduire une méthode pour mesurer la réponse en fréquence d’un filtre
réel.
Pn
4. On considère le filtre dont la relation d’entrée-sortie s’écrit y(n) = N1 k=n−N +1 x(k), qui représente
la moyenne des N dernières valeurs de x(n). Déterminer l’expression du gain complexe. Quel peut
être le rôle d’un tel filtre ? Que peut-on dire de sa phase ?
5. Soit l’équation récurrente y(n) = x(n) + ay(n − 1). Discuter en fonction de a les différentes solutions
(causalité et/ou stabilité).
6. On considère la fonction de transfert
1 + bz −1
H(z) = H0
1 − 2r cos φz −1 + r2 z −2
Expliciter la mise en œuvre causale de ce filtre. On choisit r = 1,8 : la mise en œuvre causale de ce
filtre est-elle raisonnable ?
7. A quelle condition un filtre de fonction de transfert rationnelle est-il stable et dans quel sens ? est-il
causal ?
8. On donne l’équation récurrente y(n) = 12 x(n + 1) + x(n) + 12 x(n − 1). Ce filtre est-il RIF ou RII ?
Quelle est sa réponse impulsionnelle ? Est-il causal ? Est-il stable ? Quel est le gain à l’origine ?
9. Montrer qu’avec un filtre RIF on peut obtenir un filtre à phase linéaire.
10. Décrire la synthèse d’un filtre RIF par la méthode de la fenêtre.
11. Donner les avantages et les inconvénients de la méthode de la fenêtre.
12. On considère un filtre passe-bas de bande (−1/16, 1/16), de réponse impulsionnelle h(n). On veut
en déduire la réponse impulsionnelle d’un filtre passe-bande autour de la fréquence 1800 Hz pour
des signaux échantillonnés à 8000 Hz. Proposer une solution.
13. On considère le filtre dont la fonction de transfert comporte les deux zéros z 1 = (a + jb) et z2 =
(a − jb) et les 4 pôles :
p1 = 0,9 + 0,85j p2 = 0,9 − 0,85j
p3 = 0,9 + 0,7j p4 = 0,9 − 0,7j
Déterminer l’expression de sa fonction de transfert ainsi que le domaine de convergence correspon-
dant à la réponse causale et stable. Quel type de filtre a-t-on réalisé ?
On applique à l’entrée des signaux provenant d’un échantillonnage à 1000 Hz et on souhaite annuler
complètement la fréquence 350 Hz. Quelles valeurs de a et b doit-on choisir ?
14. On considère le filtre de fonction de transfert H(z) = (z −1 − a∗ )/(1 − az −1 ). A quelle condition
sur a ce filtre est-il stable ? En déduire le gain et la phase de ce filtre. Déterminer sa réponse
impulsionnelle.
15. Décrire qualitativement la forme de la réponse en fréquence à partir de la position des pôles et des
zéros.

71
Quantification/Compression
1. On effectue une quantification linéaire sur N = 8 bits. Décrire l’opération de quantification.
Qu’appelle-t-on bruit de quantification ? Donner un ordre de grandeur du rapport signal/bruit
de quantification.
2. On sur-échantillonne d’un facteur 2 un signal réel, à bande limitée, puis on quantifie linéairement
ces échantillons. En supposant que le bruit de quantification est toujours blanc, montrer qu’il y
a un gain de 3dB sur le rapport signal/bruit de quantification. Avant de quantifier on effectue le
traitement (voir figure). Quel est le gain sur le rapport signal/bruit de quantification ?
3. En quoi consiste la compression logarithmique ?
4. Etablir les équations de Lloyd-Max.
5. On considère un processus aléatoire à temps discret X(n). On suppose que X(n) est stationnaire
au second ordre, centré, de fonction d’autocovariance R(k) = E(X(n + k)X(n)). On pose :

X̂(n) = a1 X(n − 1) + · · · + ap X(n − p)

et on veut déterminer la suite {ai } qui rend minimum e2 = E(X(n) − X̂(n))2 .


On pose :
 
R(0) R(1) ··· R(p − 1)
 .. .. 
 R(−1) R(0) . . 
R= ..

 .. .. 
 . . . R(1) 
R(−p + 1) · · · R(−1) R(0)
r = [R(1), · · · , R(p)]T

– Déterminer, en fonction de R(k) et de {a1 , · · · , ap }, l’expression de e2 .


– En déduire, en fonction de R et de r, la relation matricielle donnant la suite {a i } qui minimise
e2 .
– En prenant pour {ai } la suite qui minimise e2 et on pose ²(n) = X(n) − X̂(n).
– Déterminer, en fonction de R et de r, l’expression de E(²2 (n)).
– En déduire que E(²2 (n)) ≤ R(0).

Traitement des p.a. SSL


1. On considère un p.a. SSL X(n), de fonction d’autocovariance Rx (k). Ce p.a. est mis à l’entrée d’un
filtre linéaire de réponse impulsionnellle h(n). On note Y (n) le signal en sortie. Rappeler l’expression
de l’intercovariance sortie-entrée.
On considère N échantillons de X(n). Donner des estimateurs empiriques de la fonction d’autoco-
variance de X(n) et de la fonction d’intercovariance sortie-entrée.
En déduire une méthode de mesure de la réponse impulsionnelle d’un filtre RIF.
2. Proposer une méthode de calcul, par TFD, des covariances estimées :
N −i
1 X
r(i) = y(n + i)x(n)
N n=0

On supposera i ∈ {0, · · · , k − 1} avec k ¿ N . Pour N grand devant k, quel en est le gain en temps
calcul par raport è un calcul direct ?
3. Propriétés de la fonction d’autocovariance R(k) = E(Xc (n + k)Xc∗ (n)) d’un p.a. SSL : positivité,
symétrie, valeur en 0.
4. Propriétés de la densité spectrale de puissance (dsp) d’un p.a. SSL dont la fonction d’autocovariance
R(k) est de module sommable : def, positivité.
PP
5. On considère la p.a. harmonique SSL X(n) = k=1 αk exp(2jπfk n) où αk sont P v.a., centrées,
indépendantes, de variances respectives σk2 . Déterminer sa fonction d’autocovariance.
Pourquoi dit-on qu’un tel signal possède un spectre de raies ?

72
6. Déterminer l’expression du périodogramme de la somme d’un p.a. harmonique SSL et d’un bruit
blanc. Montrer que les raies jaillissent du bruit quand le nombre de points du périodogramme
augmente.
7. La corrélation d’un signal périodique possède une propriété de périodicité, qui peut être mise à
profit pour estimer la fŕequence fondamentale du signal. Expliquer comment.

73
Annexe B

TP

B.1 Observations temporelle et spectrale


B.1.1 Résolution spectrale
Une sinusoı̈de
Engendrer un signal numérique représentant N échantillons d’une sinusoı̈de de fréquence f 0 = 1300Hz.
La fréquence d’échantillonnage est de +8000Hz. En utilisant la fonction fft, tracer, en décibels, le module
de sa TFtd pour L = 1024 points de fréquence. Observer les lobes pour N = 16 puis N = 128.

Deux sinusoı̈des
Engendrer un signal numérique représentant N échantillons de la somme de 2 sinusoı̈des de fréquences
1000Hz et 1300Hz et d’amplitude relative 30dB. La fréquence d’échantillonnage est de 8000Hz. A partir
du module de la TFtd, on veut pouvoir “séparer” les deux composantes fréquentielles et mesurer les
fréquences respectives avec une précision de 10Hz. On se propose d’étudier expérimentalement le rôle du
nombre N de points de signal, du nombre L de points de calcul de la TFtd et du choix de la fenêtre de
pondération.
1. Appliquer successivement à la suite x(n) une fenêtre rectangulaire puis une fenêtre de Hamming
dont l’expression est, pour n = {1, 2, · · · , N }, ωh = 0.54 − 0.46 cos(2π(n − 1)/N ).
Tracer, en décibels, les TFtd respectives pour N = 50, 60, 70, 80. Choisir la fenêtre qui permet avec
un minimum de points de “séparer” les deux fréquences. Comparer le résultat à la “limite” de
Fourier cad 2/N . On note N0 la taille choisie.
2. Comment doit-on choisir L pour obtenir une précision de lecture des deux fréquences qui soit de
l’ordre de 10Hz. On note L0 la taille choisie.
3. En utilisant la fonction randn(1,N), ajouter au signal un bruit gaussien, centré de puissance telle
que le rapport S/B pour la sinusoı̈de la plus petite soit de 30 dB. Tracer, en décibels, les TFtd
respectives pour différentes valeurs de N = 200, 300, 400.

B.1.2 Repliement de spectre


On considère le signal modulé en fréquence :

xa (t) = A cos(Θ(t)) avec t∈R


1 dΘ
où la fréquence instantanée définie par Fi (t) = 2π dt est supposée varier linéairement en fonction du
temps, cad Fi (t) = F0 + λt où le paramètre λ s’exprime en Hz/s. On en déduit que Θ(t) = 2πF0 t + πλt2 .
On choisit F0 = 1 000 Hz et une durée de signal T = 2s.
xa (t) est échantillonné à la fréquence Fe = 8 000 Hz. On obtient la suite x(n) = xa (n/Fe ) par le
programme :
Fe=8000;
F0=1000;

74
T=2;
it=(0:Fe*T-1)/Fe;
phi=pi*lambda*(it .^2);
x=cos(2*pi*F0*it+Phi);

Ecouter le signal modulé obtenu, pour λ = 1 000 Hz/s puis pour λ = 2 000 Hz/s. Qu’observe-t-on ?
Interpréter le résultat.

B.2 Traitements d’un signal de parole


B.2.1 Observation
Les valeurs du fichier obtenu par load phrase proviennent d’un signal de parole échantillonné à la
fréquence de 8000 échantillons par seconde. Observer le signal dans différentes plages temporelles (utiliser
la fonction zoom).

B.2.2 Filtrage passe-bas


1. En utilisant la méthode de la fenêtre, déterminer la suite h des N = 35 coefficients d’un filtre RIF
passe-bas idéal dans la bande (0, 1000Hz). Vérifier le résultat en traçant le gain en fréquence du
filtre obtenu.
2. Appliquer à la suite h une fenêtre de Hamming dont l’équation a pour expression ω h = 0.54 −
0.46 cos(2πn/N ) avec n = {0, 1, · · · , 34}. Comparer la gain en fréquence à celui obtenu à la question
précédente.
3. En utilisant la fonction filter, effectuer le filtrage passe-bas du signal x. Ecouter le signal filtré et
comparer au signal non filtré.
4. Comment peut-on passer des coefficients du filtre passe-bas précédent à ceux d’un filtre passe-bande
dans la bande (1000Hz, 3000Hz). Effectuer cette opération et utiliser ce filtre pour filtrer le signal
x. Écouter le résultat obtenu.

B.2.3 Cryptage type Canal+


Le cryptage du son sur Canal+ utilise la technique dite du ”retournement” de spectre, qui consiste à
faire pivoter les parties du spectre dans les fréquences positives et négatives d’un demi-tour autour d’un
certain axe. En pratique on suppose que le spectre du son est situé (dans les fréquences positives) entre
100 Hz et 10 000 Hz et la fréquence de pivotement est 6, 4 kHz.

spectre spectre crypté

f f
0 0

Fig. B.1 – Cryptage Canal+

1. Montrer que l’opération de cryptage correspond à une translation du spectre d’une fréquence F 0 =
12, 8 kHz suivie d’un filtrage passe-bas.
En quoi consiste l’opération de décryptage ?
2. Ecrire un programme qui effectue le décodage sur un fichier son échantillonné à 48kHz.
3. Ecouter le résultat en partant du fichier cplus.dat disponible sur le serveur.

B.2.4 Dilatation et décalage


On effectue sur un signal de parole les deux opérations suivantes :

75
1. On veut dilater l’échelle des fréquences dans un rapport 5/4. Cette expérience revient faire tourner
plus vite un magnétophone. Comment effectuer cette opération ?
2. On veut décaler le spectre du signal de 1000Hz vers les fréquences positives. Cela signifie que
l’on fait passer le signal réel de la bande de fréquence (0Hz, 4000Hz) à la bande de fréquence
(1000Hz, 5000Hz)1 . Comment effectuer ce traitement ?
Effectuer, sous Matlab, ces 2 opérations sur le signal de parole. Comparer, par l’écoute, les résultats
obtenus.

B.2.5 Périodogramme
Le processus aléatoire SSL x(n) défini par x(n) = ax(n − 1) + w(n) où w(n) est un processus gaussien,
centré, blanc, de variance σ 2 , et où |a| < 1, est dit AR-1.
En utilisant la fonction filter, engendrer 2000 valeurs d’un signal AR-1 avec σ 2 = 1 et a = 0.8
(attention : problème de valeurs initiales).
On rappelle que le périodogramme d’une observation de durée N est défini par :
¯N −1 ¯2
1 ¯X ¯
−2jπf n ¯
IN (f ) = x(n)e
¯
N
¯ ¯
¯ ¯
n=0

Tracer le périodogramme (sur 1024 points de fréquence) de x(n) pour N = 128, 256, 512, 1024. Que
constate-t-on ?

B.3 Analyse des taches solaires


B.3.1 Suppression d’une tendance affine
On considère une suite de valeurs réelles x(n) et on souhaite déterminer la droite d’équation an + b
qui ”approxime” au mieux la suite x(n). Déterminer l’expression de a1 et a2 qui minimisent l’écart
PN −1
quadratique n=0 (x(n) − (a1 + a2 n))2 entre une suite de valeurs x(n) et la droite d’équation a1 + a2 n.
La fonction Matlab detrend.m, effectue cette opération.

B.3.2 Estimation de la périodicité des tâches solaires


Résultats préliminaires
On considère l’équation de régression :

x(n) = a1 x(n − 1) + · · · + ap x(n − p) + w(n) (B.1)

où w(n) est un processus gaussien, centré, blanc, de variance σ 2 et où le polynôme A(z) = z p − a1 z p−1 −
· · ·−ap est différent de 0 pour |z| ≥ 1. On admettra que cette équation a une solution stationnaire en x(n)
P+∞
qui a une expression causale en fonction de w(n) de la forme x(n) = k=0 h(k)w(n − k). Le processus
x(n) (n ∈ Z) est dit AR-p. Il est centré. On désigne par Rx (k) sa fonction d’autocovariance.
1. En multipliant les deux membres de B.1 une première fois par w(n) puis une seconde fois par x(n),
en déduire que Rx (0) − a1 Rx (1) − · · · − ap Rx (p) = σ 2 .
En multipliant les deux membres de B.1 par x(n − k), pour k > 0, établir que :

Rx (k) − a1 Rx (k − 1) − · · · − Rx (k − p) = 0

En déduire la relation matricielle RB = E, où B = (1, −a1 , · · · , −ap )T et où E est un vecteur
dont tous les termes sont nuls sauf le premier terme qui vaut σ 2 . R est une matrice de dimension
(p + 1) × (p + 1) symétrique, construite à partir de Rx (k).
1 C%tt% situation s% produit %n modulation CLU lorsqu% la br%́qu%nc% d% l’oscillat%ur à la r%́c%ption %st sup%́ri%ur% d%

1000Hz à la br%́qu%nc% d% modulation.

76
2. On admettra que, pour N suffisamment grand devant p, les coefficients de covariance R x (k) pour
k ∈ {0, · · · , p} peuvent être correctement approximés par :
N −k
1 X
r̂N = x(s)x(s + k)
N s=1

où x(1), · · · , x(N ) désigne une suite de N valeurs. En utilisant la fonction toeplitz, construire une
estimée de la matrice R. En déduire une façon d’estimer les coefficients {ai } et la variance σ 2 d’un
processus AR-p.
Le fichier sunspot.dat, disponible sur le serveur, contient le nombre de taches solaires relevé chaque
année lors des 288 dernières années. En utilisant la fonction detrend, supprimer la tendance affine
éventuelle. En admettant que le signal, après suppression de la tendance affine, est un AR-2, estimer
la périodicité du phénomène.

B.4 Analyse et synthèse d’une voyelle


Le fichier voyo.dat, disponible sur le serveur, contient le son ”o” échantillonné à la fréquence de
8000Hz.
On suppose que sur une tranche de 30ms, soit 240 échantilllons, le signal peut être modélisé par un
processus AR-30.
1. En utilisant les résultats de la question précédente, effectuer l’estimation des paramètres de ce
modèle.
2. Construire, par la fonction filter, le signal d’excitation. Ce signal correspond aux impulsions
d’excitation glottique. Observer ce signal. Estimer la fréquence glottique.
3. A partir des résultats précédents, reconstruire un signal correspondant au son ”o” sur une durée de
1s.

77

Vous aimerez peut-être aussi