Vous êtes sur la page 1sur 56

DISTRIBUTIONS TEMPS-FRÉQUENCE

J.P. Ovarlez

ONERA DEMR/TSI, BP72, 92322 Châtillon, France

Stage ELS 043 : Les Ondelettes : Theorie, Pratique et Applications


Table des matières

1 INTRODUCTION 7
1.1 Introduction générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 La transformation de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Quelques définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Limitations de la transformation de Fourier - Inégalités d’Heisenberg . . . . . . . 9
1.3 La transformée de Fourier à court terme . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Interprétation avec les bancs de filtres . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.3 Limitations de la transformation de Fourier à court terme . . . . . . . . . . . . . 13
1.4 La transformée en ondelettes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.2 Liens de l’échelle et de la fréquence . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.3 Propriétés des ondelettes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2 LES REPRÉSENTATIONS TEMPS-FRÉQUENCE 18


2.1 Bilinéarité des distributions temps-fréquence . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Principe de covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Covariance par le groupe des translations en temps et en fréquence . . . . . . . . 20
2.2.2 Covariance par le groupe affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3 Propriétés attendues des distributions temps-fréquence ou temps-échelle . . . . . . . . . 24

3 LES REPRÉSENTATIONS TEMPS-FRÉQUENCE DE LA CLASSE DE COHEN 28


3.1 La distribution de Wigner-Ville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.1.1 définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.1.2 Propriétés de la distribution de Wigner-Ville . . . . . . . . . . . . . . . . . . . . 30
3.1.3 Construction tomographique de la distribution de Wigner-Ville [9] . . . . . . . . 32
3.1.4 Exemples de résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.1.5 Lissage des distributions de Wigner-Ville . . . . . . . . . . . . . . . . . . . . . . 33
3.1.6 La méthode de réallocation sur les Pseudo Wigner-Ville Lissées . . . . . . . . . . 34
3.2 Les autres distributions de la classe de Cohen . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2.1 La ditribution de Choï-Williams . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.2 La distribution de Born-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

4 LES REPRÉSENTATIONS TEMPS-FRÉQUENCE AFFINES 39


4.1 Approche temps-échelle introduite par P. Flandrin et O. Rioul . . . . . . . . . . . . . . 39
4.1.1 Sous-classe temps-échelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Approche temps-fréquence affine introduite par P. et J. Bertrand . . . . . . . . . . . . . 40
4.2.1 Forme diagonale du noyau K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2.2 Covariance étendue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

5
4.2.3 Approche tomographique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.4 La représentation temps-fréquence affine unitaire . . . . . . . . . . . . . . . . . . 44
4.2.5 Lissage de la représentation affine unitaire . . . . . . . . . . . . . . . . . . . . . . 45

5 EXEMPLES 48

6
Chapitre 1

INTRODUCTION

1.1 Introduction générale


Dans beaucoup de domaines tels le radar, le sonar, la parole ou les télécommunications, les signaux
ont des caractéristiques spectrales qui varient dans le temps. L’exemple le plus souvent cité est celui du
morceau de musique [1] où chaque note est caractérisée par sa hauteur et son instant d’émission. Ces
signaux, dits non stationnaires, ne peuvent être correctement traités par les méthodes usuelles d’analyse
spectrale (transformation de Fourier) : en effet, la transformation de Fourier effectue une transposition
de l’espace temps vers son espace dual des fréquences et perd de ce fait toutes les informations sur
le séquencement temporel du signal. Ainsi, grâce à une analyse spectrale classique sur le signal de
musique, on pourra déterminer si telle ou telle note a été jouée mais on ne saura, en aucun cas, préciser
à quel moment celle-ci l’a été. Pour remédier à ces problèmes, sont apparus plusieurs outils d’analyse :
le plus simple est sans doute la transformation de Fourier à court terme (Analyse de Fourier par fenêtre
glissante h sur le signal) [2, 3] qui découpe le signal z(t) en tranches d’analyse (largeur de la fenêtre
h(t)) sur lesquelles on fait l’hypothèse de stationnarité locale et sur lesquelles on effectue une analyse
de Fourier classique :
Z +∞ 2
−2iπf u

Pz (t, f ) = z(u) h(u − t) e du (1.1)
−∞

où la fonction h peut être choisie arbitrairement. On choisit généralement une fenêtre rectangulaire
ou encore les fenêtres de pondération classiquement utilisées en analyse spectrale (Gauss, Hamming,
Hanning, etc. . . ).

L’inconvénient majeur de cette approche réside dans l’obligation préalable d’adopter un compromis
entre la résolution temporelle σt et la résolution fréquentielle σf (paramètres libres liés à la largeur
temporelle ou fréquentielle de la fenêtre) vérifiant conjointement l’inégalité de Heisenberg :
1
σt σf ≥ (1.2)

Pour éviter ce genre de problèmes liés à la résolution inhérent aux méthodes de Fourier, ll est égale-
ment possible sur les tranches de signal ainsi découpées d’effectuer des analyses spectrales plus évoluées
comme les méthodes spectrales paramétriques, encore appelées méthodes haute résolution (citons les
modèles AR autorégressifs, ARMA autorégressifs à moyenne ajustée, Music, etc...[4, 5]) qui, théorique-
ment, possèdent une résolution quasi-illimitée. Hormis l’hypothèse de stationnarité locale dans chaque
tranche de signal, il est pourtant nécessaire de choisir l’ordre du filtre lié au modèle. Il n’y a pas de
difficultés si l’on connaît a priori le nombre de composantes spectrales monochromatiques apparaissant
dans la fenêtre d’analyse mais le problème peut se compliquer si le signal n’est pas connu, auquel cas

7
il devient nécessaire de mettre en œuvre des méthodes d’estimation d’ordre du modèle (Akaike par
exemple).

Les représentations temps-fréquence des signaux fournissent une alternative qui n’exige pas l’intro-
duction d’une analyse de traitement local. Leur but principal est de décrire les modulations du signal
dans le plan temps-fréquence (fréquence instantanée, retard de groupe, etc..). De ce fait, ces distribu-
tions transforment un signal à une dimension en une représentation à deux dimensions et donnent à
celle-ci une interprétation de la répartition énergétique du signal dans cet espace.

Un grand nombre de distributions temps-fréquence a été proposé dans la littérature. La plus grande
partie a été regroupée sous le nom de classe de Cohen [6, 7] qui est covariante par le groupe des
translations en temps et en fréquence, mais d’autres distributions existent, comme les représentations
temps-fréquence affines [8], covariantes par le groupe affine.

1.2 Définitions
1.2.1 La transformation de Fourier
Soit x(t), un signal généralement complexe et dépendant de la variable t ∈ R. Sa transformée
de Fourier X(f ), dépendant de la variable duale f , peut être interprétée comme le coefficient de la
décomposition de x(t) sur une base de signaux exponentielles complexes, notés φf (t) = exp (2iπf t) :
Z +∞
x(t) = X(f ) φf (t) df
−∞

Pour exprimer le coefficient de la décomposition X(f ) de x(t), il est nécessaire de définir un produit
scalaire dans l’espace des signaux :
Z +∞
(x1 (t), x2 (t)) = x1 (t) x∗2 (t) dt
−∞

Ainsi, X(f ) n’est que le produit scalaire de x(t) avec le signal φf (t) de la base :
Z +∞
x(t) = (x(t), φf (t)) φf (t) df
−∞
soit :
Z +∞
X(f ) = x(t) e−2iπf t dt
−∞
car la base est orthogonale, c’est à dire :

(φf1 (t), φf2 (t)) = δ(f1 − f2 )


où δ est la distribution de Dirac.

En signal, on utilise beaucoup les notions de filtres linéaires invariants dans le temps (système
répondant aux principes de superposition et d’invariance dans le temps). Ces filtres linéaires, de réponse
impulsionnelle h(t) et de transformations de Fourier H(f ) possèdent comme fonctions propres les
exponentielles complexes φf (t) (équivalents des vecteurs propres des matrices en algèbre linéaire) et
relient l’entrée x(t) et la sortie y(t) du système par une équation de convolution :
Z +∞
y(t) = x(u) h(t − u) du
−∞

8
Ainsi, si on injecte dans ces systèmes les fonctions propres x(t) = φf (t), on obtient :

y(t) = H(f ) φf (t)


La construction de Fourier permet donc de décomposer un signal sur une base de fonctions propres
des systèmes linéaires invariants dans le temps : les exponentielles complexes ou encore les signaux
monochromatiques, ondes éternelles non localisées dans le temps.

1.2.2 Quelques définitions


Pour les signaux à énergie finie, on peut définir les grandeurs suivantes :
– la puissance instantanée du signal : px (t) = |x(t)|2
– la densité spectrale de puissance : PX (f ) = |X(f )|2
– l’énergie totale du signal :
Z +∞ Z +∞
Ex = |x(t)|2 dt = |X(ν)|2 dν
−∞ −∞

– par analogie avec la théorie des probabilités, on peut associer aux densités de probabilité classi-
quement utilisées une notion de répartition d’énergie. Ainsi px (t) et PX (f ) correspondent à deux
densités d’énergie qui vérifient toutes deux la conservation de l’énergie totale du signal. On peut
alors définir les moments de ces distributions (avec l’analogie des espérances mathématiques en
théorie des probabilités ou aux moments d’inertie en mécanique) :
Z +∞ Z +∞
∆t = t |x(t)|2 dt ∆f = f |X(f )|2 df
−∞
Z +∞ −∞
Z +∞
2 2 2
∆t =2
(t − ∆t) |x(t)| dt 2
∆f = (f − ∆f ) |X(f )|2 df
−∞ −∞

Les grandeurs ∆t et ∆f représentent respectivement l’époque moyenne du signal ainsi que la fré-
quence centrale ou moyenne du signal. On peut ainsi faire subir au signal une translation judicieuse

en temps et en fréquence pour que ces deux grandeurs soient nulles. Les deux grandeurs ∆t2 et
p
∆f 2 caractérisent, quant à elles, des étendues temporelles et fréquentielles équivalentes à une durée
moyenne et à une largeur de bande du signal.

Exemple : Soit le signal temporel gaussien non modulé :


s (t − t0 )2
1 −
x(t) = √ e 4σ 2
σ 2π
En calculant les différents moments d’ordre un et deux sur |x(t)|2 , on obtient les résultats classiques
donnant la valeur moyenne et l’écart-type d’une densité de probabilité gaussienne :

∆t = t0 ∆t2 = σ

1.2.3 Limitations de la transformation de Fourier - Inégalités d’Heisenberg


Dualité temps-fréquence
Le calcul de X(f ) nécessite la connaissance de toute l’histoire temporelle du signal x(t). Récipro-
quement, la relation :
Z +∞
x(t) = X(f ) e2iπf t df
−∞

9
fait remarquer qu’à un instant t donné, la valeur du signal est caractérisée par une combinaison linéaire
de signaux complètement délocalisés dans le temps (ondes éternelles). Cela peut être dans certains
cas intéressants (analyse de signaux stationnaires, signaux monochromatiques, régime permanent. . . )
mais ne reflète pas le sens physique du phénomène. Ex : les signaux brefs ou transitoires nuls en
dehors d’un intervalle temporel. La nullité des valeurs du signal en dehors de son intervalle est bien
sûr mathématiquement rendu par la transformation de Fourier mais d’une manière artificielle : elle
correspond au résultat de la superposition d’une infinité d’ondes virtuelles qui interféreraient entre
elles pour se détruire ou s’annuler. Sur le support où le signal est nul, on aura donc, non pas une
superposition de signaux nuls mais une superposition de signaux non nuls qui interfèrent pour s’annuler,
ce qui est en contradiction avec le fait que le signal n’existe pas.

Principe d’incertitude de Heisenberg


Le principe d’incertitude de Heisenberg vient de la mécanique quantique et décrit l’impossibilité
par exemple de connaître avec précision à la fois la position et la vitesse d’une particule. Du fait de
la dualité des espaces temps et fréquence, il existe un principe d’incertitude qui exprime le fait que
l’on ne peut connaître avec suffisamment de précision la localisation à la fois en temps et en fréquence
d’un signal : un signal de très brève durée possède une densité spectrale très étendue et vice versa. Ce
principe est énoncé par la relation :
√ p Ex
∆t2 ∆f 2 ≥


et montre
p qu’aucun signal ne peut être caractérisé à la fois par une durée ∆t2 = 0 et une largeur de
bande ∆f 2 = 0.

Démonstration : On suppose que :


– le signal est d’énergie finie, ce qui implique que soit le signal possède un support compact fini
ou que la décroissance plus forte que 1/t de sa puissance instantanée à l’infini est garantie
( lim t|x(t)|2 = 0).
|x|→∞
– le signal possède une époque moyenne nulle (∆t = 0) et une fréquence centrale nulle (∆f = 0).
Ceci est possible par simple translation temporelle et fréquentielle sur le signal.
et on applique l’inégalité de Cauchy-Schwartz :
Z +∞ 2 Z +∞ Z +∞
2 2
g1 (u) g2∗ (u) du


≤ |g1 (u)| du |g2 (u)| du
−∞ −∞ −∞

sur les fonctions :


dx
g1 (t) = t x(t) g2 (t) = (t)
dt
En intégrant par partie, il vient :
Z +∞
dx∗ +∞
(t) = t|x(t)|2 −∞ − Ex − I ∗

I= t x(t)
−∞ dt
D’après les hypothèses ci-dessus, le premier membre est nul, et en notant que I + I ∗ = 2<(I), on
obtient :

<(I) = −Ex /2
Il vient donc :

10
+∞ +∞ dx 2
Z Z
2 2 2 2
(<(I)) ≤ |I | ≤ t |x(t)| dt (t) dt
dt
−∞ −∞

En utilisant la conservation d’énergie (Parseval) et la propriété de la transformation de Fourier


d’une dérivée, on a :
+∞ dx 2
Z Z +∞
2
(t) dt =
dt 4πf 2 |X(f )| df
−∞ −∞

En remplaçant dans l’inégalité, on obtient l’inégalité recherchée :

Ex2
≤ 4π 2 ∆t2 ∆f 2
4
L’égalité de Cauchy-Schwartz est donnée par la colinéarité entre les deux fonctions g1 et g2 , ce qui
dx
donne l’équation différentielle (t) = k t x(t) dont la solution est donnée par :
dt
2
x(t) = C e−αt α ∈ R+
La gaussienne est donc le signal qui réalise le minimum d’étalement à la fois en temps et fréquence.
C’est donc un signal qui est le plus localisé possible dans les deux espaces. On peut donner aussi les
deux extrêmes :
– le signal choc x(t) = δ(t − t0 ) qui possède une durée nulle et une largeur de bande infinie.
– le signal monochromatique x(t) = exp (2iπf t) qui possède une durée infinie et une largeur de
bande nulle.

1.3 La transformée de Fourier à court terme


La limitation due au fait de décomposer un signal sur une base de signaux non localisables étant
un handicap, la solution la plus simple a été d’effectuer une analyse de Fourier non pas sur la totalité
du signal mais sur une portion du signal. Cette solution est très populaire et est connue sous le nom
de transformation de Fourier à court terme.

1.3.1 Introduction
L’expression mathématique de cette transformation est :
Z +∞
Fx (t, f ) = x(u) h∗ (u − t) e−2iπf u du
−∞

Le signal est caractérisé par x(t), h est une fonction de fenêtrage centrée en t. Pour obtenir la
représentation spectrale autour de t, il suffit de déplacer par translation la fenêtre h et d’effectuer une
transformation de Fourier sur le signal ainsi fenêtré. Cette fonction peut être de même vue comme
le coefficient Fx (t, f ) de la décomposition du signal x sur une base de signaux ht,f , chaque signal se
déduisant de la fenêtre mère h par une translation temporelle t et fréquentielle ν (action du groupe
des translations en temps et en fréquence) :

ht,f (u) = h(u − t) e2iπf u


Sous réserve que la fenêtre mère h soit d’énergie unité (condition dite d’admissibilité), le signal x(u)
s’exprime alors comme combinaison linéaire d’atomes élémentaires ht,f (u) pondérés par un coefficient
Fx (t, f ) :

11
Z +∞ Z +∞
x(u) = dt Fx (t, f ) ht,f (u) df
−∞ −∞
Z +∞ Z +∞
= dt Fx (t, f ) h(u − t) e2iπf u df
−∞ −∞
Z +∞
Exercice : Démontrer la condition d’admissibilité |h(t)|2 dt = 1.
−∞

Pour cela, on réinjecte la définition de Fx (t, f ) dans x(u). On obtient :


Z +∞ Z +∞ Z +∞
x(u) = dt x(s) h∗ (s − t) h(u − t) e−2iπf (s−u) ds df
−∞ −∞ −∞

En intégrant par rapport à f , puis par rapport à s, x(u) devient :


Z +∞
x(u) = x(u) |h(u − t)|2 dt
−∞
ce qui donne la condition cherchée.

La fenêtre mère h peut être choisie arbitrairement, la plus simple étant la fonction créneau sur
une durée T d’analyse mais il est également judicieux de choisir toute fonction possédant à la fois une
bonne une bonne localisation temps-fréquence (Ex : la fenêtre de Hamming, Hanning, de Gauss . . . )
ainsi qu’une bonne régularité (décroissance rapide, fonction n fois dérivable, . . . ).

On appelle généralement Spectrogramme le carré du module de la transformation de Fourier à court


terme associé à une distribution d’énergie (carré du signal) et qui prend la forme :

2
Sx (t, f ) = |Fx (t, f )|
Z +∞ 2
∗ −2iπf u

=
x(u) h (u − t) e du (1.3)
−∞

1.3.2 Interprétation avec les bancs de filtres


Il est possible d’exprimer Sx (t, f ) en utilisant l’égalité de parseval (unitarité de la transformation
de Fourier) :
Z +∞ Z +∞

x1 (t) x2 (t) dt = X1 (f ) X2∗ (f ) df
−∞ −∞
Il vient :
Z +∞ 2
∗ 2iπνt

Sx (t, f ) = X(ν) H (ν − f ) e dν
−∞

On remarque dans ce cas que c’est la transformation de Fourier H(ν) de la fonction h qui joue le
rôle d’une fenêtre glissante que l’on déplace en tout point f de l’espace des fréquences. Cette relation
s’apparente de même à une analyse à banc continu de filtres uniformes, dont la largeur de bande est
constante.

Exercice : Montrer que le spectrogramme Sx (t, f ) tend vers la densité spectrale du signal |X(f )|2
lorsque la fenêtre spectrale H d’analyse tend à devenir de plus en plus sélective.

12
1.3.3 Limitations de la transformation de Fourier à court terme
Prenons deux exemples :

1. Signal parfaitement localisés en temps : x(t) = δ(t − t0 ).

On peut facilement calculer Sx (t, f ) = |h(t0 − t)|2 . La représentation de Fourier à court terme
n’est que le module carré de la fenêtre déplacée autour du temps de localisation. La représentation
sera alors d’autant plus adaptée au signal que la fenêtre sera étroite (bonne résolution temporelle
= ∆t2 petit).
2. Signal parfaitement localisé en fréquence : x(t) = exp (2iπf0 t).

On peut facilement calculer Sx (t, f ) = |H(f0 − f )|2 . La représentation de Fourier à court terme
n’est que le module carré de la transformée de Fourier de la fenêtre déplacée autour de la fréquence
f0 du signal. La représentation sera alors d’autant plus adaptée au signal que la fenêtre spectrale
sera étroite (bonne résolution fréquentielle = ∆f 2 petit).
On remarque ainsi que la largeur temporelle et fréquentielle de la transformée de Fourier à court
terme conditionne la finesse de l’analyse (bonne résolution temporelle ou bonne résolution fréquen-
tielle). À cause des relations d’incertitude (produit ∆t2 ∆f 2 borné inférieurement), il est impossible
d’obtenir simultanément les deux. L’analyse temps-fréquence s’effectue en√décomposant
p le signal sur
des atomes qui pavent le plan temps-fréquence avec une fenêtre de surface ∆t2 ∆f 2 constante avec
∆t2 constant et ∆f 2 constant. La fenêtre qui minimise à la fois l’encombrement temporel et fréquentiel
est la gaussienne.

1.4 La transformée en ondelettes


Le besoin d’améliorer l’analyse classique des méthodes du type transformation de Fourier à court
terme se fit alors assez vite sentir. L’idée principale fut de définir une analyse du même type mais en
faisant dépendre la largeur de la fenêtre d’analyse de sa position. On pouvait ainsi régler la finesse
de l’analyse en temps ou en fréquence indépendamment l’une de l’autre. Il faut cependant garder à
l’esprit que si les relations
√ p d’incertitude sont toujours présentes (pavage du plan temps-fréquence par
atome de surface ∆t2 ∆f 2 constante), les résolutions obtenues, elles, peuvent changer (∆t2 non
constant et ∆f 2 non constant). Une des solutions proposées dans les années 80 fut la transformation
en ondelettes.

1.4.1 Définition
Partant d’une fonction mère h dépendant de t et possédant de bonnes propriétés ("assez" localisable,
"assez" régulière, . . . ), il est possible de générer, par l’action d’une déformation dite du groupe affine
sur le signal, une famille de fonctions ht,a appelée famille d’ondelettes :
 
1 u−t
ht,a (u) = √ h
a a
où a > 0 est un paramètre d’échelle de contraction (a < 1) ou de dilatation (a > 1) de la fenêtre et t
une translation de la fenêtre.

Une fois cette famille générée, on décompose classiquement le signal x(t) sur cette famille selon le
produit scalaire usuel dans l’espace des signaux. On obtient ainsi des coefficients d’ondelettes Tx (t, a)
qui caractérisent le coefficient de la décomposition du signal x(t) dans cette base :

13
Z +∞
Tx (t, a) = x(u) h∗t,a (u) du
−∞
+∞  
u−t
Z
1
= √ x(u) h∗ du
a −∞ a

Moyennant une condition dite d’admissibilité sur l’ondelette mère h(t) et la détermination d’une
mesure dµ(t, a) = dt d(1/a) = dt da/a2 (mesure de Haar invariante à gauche), le signal x(u) peut donc
être reconstruit par combinaison linéaire d’ondelettes pondérées par leur coefficient Tx (t, a) :

Z +∞ Z +∞
x(u) = Tx (t, a) ht,a (u) dµ(t, a)
−∞ −∞
+∞ Z +∞  
u−t
Z
1 da
= √ Tx (t, a) h dt
a −∞ −∞ a a2

Exercice : Déterminer la condition d’admissibilité de l’ondelette mère.

En remplaçant Tx (t, a) par sa valeur dans l’expression précédente, on a :


Z +∞ Z +∞
da +∞
   
s−t u−t
Z

x(u) = dt 3
x(s) h h ds
−∞ −∞ a −∞ a a
Remplaçons h par sa transformée de Fourier inverse, il vient :

+∞ +∞ +∞ Z +∞    
s−t
Z Z Z
da ∗
x(u) = dt x(s) H (f1 ) exp −2iπf1 df1
−∞ −∞ a3 −∞ −∞ a
Z +∞    
u−t
. H(f2 ) exp 2iπf2 df2 ds
−∞ a

En intégrant par rapport à t et en utilisant le fait que δ(f (u)) = δ(u − u0 )/|f 0 (u0 )|, u0 étant la
seule racine d’ordre 1 de f , on a :

Z +∞ Z +∞ Z +∞ 
da ∗
  s 
x(u) = x(s) H (f1 ) exp −2iπf1 df1
−∞ a2 −∞ −∞ a
Z+∞   u  
. H(f2 ) exp 2iπf2 df2 δ(f1 − f2 ) ds
−∞ a

En intégrant par rapport à f1 , pour f2 = f , on a :


Z +∞ Z +∞ Z +∞  s u 
 da
x(u) = x(s) |H(f )|2 exp −2iπf − df ds 2
−∞ −∞ −∞ a a a
En effectuant le changement de variable a0 = 1/a, et en intégrant par rapport à a0 , l’expression
ci-dessus devient :
Z +∞ Z +∞
df
x(u) = x(s) |H(f )|2 δ(s − u) ds
−∞ −∞ f
On obtient enfin la condition d’admissibilité en intégrant par rapport à s :

14
+∞
|H(f )|2
Z
df = 1
−∞ f
Pour satisfaire la condition d’admissibilité, il faut s’assurer de la bonne décroissance de l’ondelette
à l’infini ce qui est garanti si la décroissance de |H(ν)|2 , densité spectrale de l’ondelette mère, est plus
"forte" que 1/ν. La deuxième condition est la convergence de l’intégrale en 0 qui impose l’annulation
du spectre en ν = 0, ce qui revient à prendre une ondelette de valeur moyenne nulle :
Z +∞
h(t) dt = 0
−∞

Exemples d’ondelette :

1. L’ondelette chapeau mexicain :

t2 t2
   
1
h(t) = √ 1− 2 exp − 2
σ 2π σ 2σ
2. L’ondelette de Morlet (gaussienne modulée) :

t2
 
1
h(t) = √ exp − 2 exp (−2iπνt
σ 2π 2σ

1.4.2 Liens de l’échelle et de la fréquence


En transposant la définition de la transformation en ondelette dans le domaine des fréquence
(unitarité de la transformation de Fourier), on obtient :
Z +∞

Tx (t, a) = a X(ν) H ∗ (aν) e2iπνt dν
−∞

où H est la transformée de Fourier de l’ondelette mère h. Si cette ondelette est localisée autour de sa
fréquence centrale f0 (moment d’ordre deux sur sa densité spectrale), on peut remarquer que le fait de
parcourir l’axe des échelles a revient à explorer l’axe des fréquences f . En utilisant la correspondance
entre l’échelle unité a = 1 et la fréquence f0 , il devient naturel de faire correspondre au paramètre
d’échelle a une fréquence f = f0 /a. La transformation temps-échelle devient une transformation temps-
fréquence au même titre que la transformation de Fourier à court terme :
p Z +∞
Tx (t, f ) = f0 /f X(ν) H ∗ (νf0 /f ) e2iπνt dν
−∞

En contraste avec la transformation de Fourier à court terme qui offre des résolutions temporelle et
fréquentielle identiques en tout point du plan temps-fréquence, la transformée en ondelettes présente
une résolution qui dépend du point (t, f ) d’analyse et varie en fonction de la fréquence. On a ainsi
toujours le respect de l’inégalité de Heisenberg :

2 (f ) ≥ Ex
q q
∆t2t,f (f ) ∆ft,f

mais les résolutions dépendantes de la fréquence ont maintenant la forme suivante :
√ p
q
2 ∆t2 q
2 ∆f 2
∆tt,f (f ) = f0 ∆ft,f (f ) = f
f f0

15
On dit encore que l’analyse en ondelette est une analyse à surtension constante (le coefficient de
surtension d’un filtre étant le rapport de sa fréquence centrale sur sa largeur de bande) en opposition
avec l’analyse de largeur constante dans le cas de la transformation de Fourier à court terme.

1.4.3 Propriétés des ondelettes


La régularité des ondelettes
La transformation en ondelette transforme un signal de dimension un, le temps par exemple, en
un signal de dimension deux, le temps et l’échelle, ce qui a pour effet une redondance d’information.
Pour réduire le nombre de coefficients de la transformation (codage et réduction de l’information par
exemple), il devient nécessaire de choisir des ondelettes caractérisées par une décroissance rapide des ses
coefficients. Limitons-nous au cas t = 0 et intéressons-nous à la vitesse de convergence des coefficients
d’ondelette du signal avec la croissance de 1/a en décomposant le signal en série de Taylor autour de
0 à l’ordre n. Il vient :

Z +∞
1 u
Tx (0, a) = √ x(u) h∗ du
a −∞ a
"n
#
+∞ +∞
up ∗  u 
Z Z
1 X
(p) ∗
u
= √ x (0) h du + R(u) h du
a p=0 −∞ p! a −∞ a

où le reste R(u) de la série de taylor à l’ordre n est défini par :


Z u
(u − t)n (n+1)
R(u) = x (t) dt
0 n!
et où x(n) sont les dérivée n-ième du signal. En notant Mn les moments d’ordre n de l’ondelette h :
Z +∞
Mn = tn h(t) dt
−∞

et en notant que la transformée en ondelette du reste R décroît en an+2 , on a :


" n #
1 X (p) p+1 Mp n+2
Tx (0, a) = √ x (0) a + O(a )
a p=0 p!

Selon la condition d’admissibilité de l’ondelette (le moment d’ordre un est nul), le premier terme de
la série est nul. La vitesse de convergence vers zéro des coefficients de la transformation en ondelette
avec la décroissance de a ou la croissance de 1/a est alors déterminée par le premier moment non nul
de l’ondelette mère h. Si les n + 1 premiers moments de l’ondelette sont nuls, alors les coefficients
d’ondelette décroîtront vers 0 aussi vite que an+2 . Ainsi la régularité de l’ondelette h(t) conduit à la
rapidité de convergence des coefficients d’ondelette.

Liens avec l’analyse temps-fréquence


On définit le Scalogramme comme le carré du module de la transformation en ondelette du signal :
+∞   2
u−t
Z
1
2 ∗

|Tx (t, a)| = √
x(u) h du
a −∞ a
On peut dès lors, montrer que ce scalogramme définit une répartition d’énergie du signal dans
le plan temps-échelle (ou temps-fréquence si on donne une interprétation de fréquence au paramètre
d’échelle). Il suffit pour cela de calculer la quantité I suivante :

16
Z +∞ Z +∞
da
I= |Tx (t, a)|2 dt
−∞ −∞ a2
En remplaçant Tx (t, a) par sa définition, on obtient
Z +∞ Z +∞ Z +∞ Z +∞
da
I=a X(ν1 ) X ∗ (ν2 ) H(aν1 ) H ∗ (aν2 ) e2iπ(ν1 −ν2 )t dν1 dν2 dt 2
−∞ −∞ −∞ −∞ a
Intégrer par rapport à t, puis à ν1 , renommer ν2 = ν conduisent à :
Z +∞ Z +∞
da
I=a |X(ν)|2 |H(aν)|2 dν 2
−∞ −∞ a
En effectuant un changement de variable u = νa et en se rappelant la condition d’admissibilité de
l’ondelette, on a :
Z +∞ Z +∞
da
|Tx (t, a)|2 dt 2 = Ex
−∞ −∞ a
ce qui donne au carré du module de la transformée en ondelette une interprétation de répartition
d’énergie dans le plan temps-échelle ou temps-fréquence.

17
Chapitre 2

LES REPRÉSENTATIONS
TEMPS-FRÉQUENCE

2.1 Bilinéarité des distributions temps-fréquence


Bien que la linéarité des méthodes temps-fréquence soit une propriété souhaitable, il est difficile de
concilier les notions de linéarité et d’énergie (carré du signal).

Ces distributions temps-fréquence énergétiques Pz (t, f ) combinent le concept de puissance instanta-


née pz (t) = |z(t)|2 et le concept de densité spectrale d’énergie |Z(f )|2 . Idéalement, cette interprétation
énergétique est exprimée par les relations marginales données par :
Z +∞ Z +∞
2
Pz (t, f ) df = |z(t)| Pz (t, f ) dt = |Z(f )|2 (2.1)
−∞ −∞

qui peuvent être considérées comme l’équivalent des densités de probabilité conditionnelles conjointes
classiquement utilisées en théorie des probabilités. La quantité P (t, f ) est vue comme une densité de
probabilité régissant la distribution d’énergie dans les espaces temps et fréquence et on a bien sûr :
Z +∞ Z +∞ Z +∞ Z +∞
2
Pz (t, f ) df dt = |z(t)| dt = |Z(f )|2 df = Ez (2.2)
−∞ −∞ −∞ −∞

où Ez est l’énergie totale du signal z(t).

Pour garder la notion première de répartition d’énergie dans le plan temps-fréquence, ces dis-
tributions sont ainsi construites sur des formes quadratiques du signal (plus exactement des formes
bilinéaires du signal) :

Z +∞ Z +∞
Pz (t, f ) = K(u, v; t, f ) z(u) z ∗ (v) du dv (2.3)
−∞ −∞
Z +∞ Z +∞
= K̂(u, v; t, f ) Z(u) Z ∗ (v) du dv (2.4)
−∞ −∞

où z(t) (Z(f )) est le signal analytique analysé, z(u) z ∗ (v) (Z(u) Z ∗ (v)) est appelée la partie utile du
signal et K(u, v; t, f ) (K̂(u, v; t, f )) est un noyau régissant le comportement du signal au point (t, f ).

18
Il existe une seconde raison expliquant l’importance de la bilinéarité. Tous les signaux physiques
sont toujours mesurés ou analysés à une phase origine près. Pour pouvoir définir des classes de si-
gnaux indépendantes de cette phase origine, les représentations temps-fréquence construites à partir
de la partie utile z(u) z ∗ (v) doivent être invariantes par la transformation qui agit sur les signaux par
changement de phase constant, c’est à dire la transformation suivante :

z(t) −→ z 0 (t) = z(t) eiφ (2.5)


Un signal réel s(t) peut être caractérisé comme le passage d’un message utile à travers un canal de
transmission non distordant (atténuation α0 et déphasage β0 constants). Pour garder le caractère réel
du signal, cette transformation doit alors vérifier :

s(t) −→ α0 e−iβ0 s(−) (t) + α0 eiβ0 s(+) (t) (2.6)


−iβ0 iβ0
S(f ) −→ α0 e Y (−f ) S(f ) + α0 e Y (f ) S(f ) (2.7)

où s(−) (t) et s(+) (t) représentent respectivement le signal à fréquence négative et positive du signal
réel et Y (f ) l’échelon unité (distribution d’Heaviside).

L’introduction de la notion de signal analytique d’un signal réel s(t) défini par la bijection

s(t) −→ z(t) = 2s(+) (t) (2.8)


permet alors de simplifier le diagramme (2.6) et (2.7) qui se transforme comme suit :

z(t) −→ α0 eiβ0 z(t) (2.9)


iβ0
Z(f ) −→ α0 e Z(f ) (2.10)

La partie utile du signal réel s(t) doit être alors définie par la forme bilinéaire z(u) z ∗ (v) avec z(t)
définissant le signal analytique associé au signal s(t). Il s’avère alors que la partie utile du signal est
invariante sous les transformations (2.9) et (2.10). Mais, de ce fait, elle exclut la possibilité d’exploiter
les informations de phases et d’amplitudes relatives entre les signaux porteurs d’un même message.

Dès lors, toutes les représentations temps-fréquence construites sur des formes bilinéaires de signaux
seront en correspondance bijective avec le signal analysé, mais à une phase et une amplitude près.

Une forme immédiate particulière de forme bilinéaire connue est le carré de forme linéaire comme
le carré de la transformée de Fourier à court terme ou le carré de la transformée en ondelette :

Z +∞ 2
2 −2iπf u

Pz (t, f ) = |Fz (t, f )| = z(u) h(u − t) e du (2.11)
−∞
 2
f +∞
Z 
f
= |Tz (t, f )|2 =

Pz (t, f ) z(u) h (u − t) du (2.12)
f0 −∞
f0

Les formes bilinéaires, beaucoup plus générales, englobent ainsi ces deux distributions d’énergie du
signal. De part leur forme bilinéaire, la représentation temps-fréquence Pz (t, f ) de la somme de deux
signaux z(t) = z1 (t) + z2 (t) n’est pas la somme des deux représentations Pz1 (t, f ) + Pz2 (t, f ). Chaque
distribution bilinéaire satisfait le principe de superposition quadratique :

c1 z1 (t) + c2 z2 (t) −→ |c1 |2 Pz1 (t, f ) + |c2 |2 Pz2 (t, f ) + c1 c∗2 Pz1 ,z2 (t, f ) + c2 c∗1 Pz2 ,z1 (t, f ) (2.13)

19
où Pz1 ,z2 (t, f ) définit est la représentation temps-fréquence inter-signaux. De ce fait, si un signal pos-
sède plusieurs composantes, la représentation quadratique associée sera composée de la somme des
représentations de chaque composantes mais aussi de la somme des représentations inter-composantes.
Ainsi, un signal constitué de N composantes verra sa représentation temps-fréquence constituée de N
termes dus à chaque composante et N (N −1)/2 termes dus aux intérférences entre chaque composantes.

2.2 Principe de covariance


Le noyau K intervenant dans (2.3) peut prendre une forme tout à fait générale mais peut être
parfaitement déterminé si l’on impose à la distribution des contraintes de comportements (covariance
par un groupe de transformation, unitarité, localisation sur des signaux particuliers, respect des mar-
ginales, etc...). Parmi ces contraintes figurent en tout premier lieu celles relatives à des principes de
covariance, tels que l’effet d’une transformation puisse indifféremment s’obtenir sur la représentation
ou sur le signal dont elle est issue. Ainsi, si l’on désigne par T une transformation quelconque, imposer
un principe de covariance relativement à T est équivalent à demander que le diagramme :

z → Pz
↓ ↓
T z → PT z = T Pz (2.14)

soit commutatif.

2.2.1 Covariance par le groupe des translations en temps et en fréquence


Si on impose à la distribution P (t, f ) de vérifier le diagramme de covariance du groupe des trans-
lations en temps et fréquence donné par :

z(t) −→ z 0 (t) = e−2iπf0 t z(t − t0 )


↓ ↓ (2.15)
Pz (t, f ) −→ Pz0 (t, f ) = Pz (t − t0 , f − f0 )

on peut montrer que le noyau K(u, v; t, f ) est nécessairement de la forme :

K(u, v; t, f ) = K(u − t, v − t; 0, 0) e−2iπf (u−v) (2.16)


ce qui impose au noyau K constitué de 4 variables dans sa forme initiale de ne plus dépendre que de
deux variables indépendantes.

Démonstration :
En introduisant la paramétrisation (2.3) de la distribution par son noyau bilinéaire, il est facile de
montrer que :
Z +∞ Z +∞
Pz0 (t, f ) = K(u + t0 , v + t0 ; t, f ) e2iπf0 (u−v) z(u) z ∗ (v) du dv (2.17)
−∞ −∞
et
Z +∞ Z +∞
Pz (t − t0 , f − f0 ) = K(u, v; t − t0 , f − f0 ) z(u) z ∗ (v) du dv (2.18)
−∞ −∞

20
Par suite, l’égalité de ces deux dernières quantités devant être assurée pour tout signal, on en déduit
que le noyau doit vérifier

K(u + t0 , v + t0 ; t, f ) e2iπf0 (u−v) = K(u, v; t − t0 , f − f0 ) (2.19)


soit encore, en fixant t0 = t et f0 = f et en réorganisant les variables,

K(u, v; t, f ) = K(u − t, v − t; 0, 0) e−2iπf (u−v) (2.20)


Si l’on reporte cette relation dans la forme initiale (2.3), on obtient après changement de variables
u = s + τ /2 et v = s − τ /2

Z +∞ Z +∞  τ τ   τ ∗ τ  −2iπf τ
Pz (t, f ) = K s + − t, s − − t; 0, 0 z s + z s− e ds dτ (2.21)
−∞ −∞ 2 2 2 2

Il suffit alors de réécrire l’intégrale en τ dans sa représentation fréquentielle en introduisant les


quantités
Z +∞ 
τ τ 
Π(t, f ) = K t + , t − ; 0, 0 e−2iπf τ dτ (2.22)
−∞ 2 2
Z +∞ 
τ ∗ τ  −2iπf τ
Wz (t, f ) = z t+ z t− e dτ (2.23)
−∞ 2 2
pour obtenir le résultat final
Z +∞ Z +∞
Pz (t, f ) = Π(s − t, ξ − f ) Wz (s, ξ) ds dξ (2.24)
−∞ −∞

On reconnaît dans Wz (t, f ) la distribution de Wigner-Ville et il est facile de montrer que la forme
générale des distributions temps-fréquence Pz (t, f ) respectant le diagramme de covariance du groupe
des translations en temps et en fréquence est donnée par

Z +∞ Z +∞ Z +∞  τ ∗ τ  −2iπf τ
Pz (t, f ) = e2iπξ(s−t) f (ξ, τ ) z s + z s− e dξ ds dτ (2.25)
−∞ −∞ −∞ 2 2

en posant
Z +∞ Z +∞
f (ξ, τ ) = Π(t, f ) e−2iπ(f τ +ξt) dt df (2.26)
−∞ −∞

Cette forme générale a été introduite par Cohen [6] sous le nom de Classe de Cohen et englobe
ainsi toute la famille de distribution temps-fréquence bilinéaire covariante par translation de temps
et de fréquence. La classe de Cohen est ainsi paramétrisée par une fonction f (ξ, τ ) arbitraire lissant
la distribution maîtresse de Wigner-Ville et devant vérifier au moins f (0, 0) = 1 si l’on veut que la
distribution réalise la condition de conservation de l’énergie du signal (2.2)

2.2.2 Covariance par le groupe affine


Approche Temps-Fréquence introduite par P. et J. Bertrand [8,15]
Pour garder le caractère réel du signal lors d’un changement de phase, la logique impose au signal
de vérifier le diagramme (2.6) ou (2.7). La classe de Cohen n’est alors invariante sous ces transforma-
tions que si la distribution est construite sur les signaux à fréquence positive (ou à fréquence négative).

21
Mais, l’espace des signaux analytiques ne se conserve pas par le groupe des translations en temps et
en fréquence. Il y a donc une faille dans la formulation de l’invariance de phase pour la classe de Cohen.

Dans l’étude des signaux large bande, le groupe physique à considérer est le groupe affine A(a, b)
(a réel positif, b réel) dont la loi de composition est donnée par (a, b)(a0 , b0 ) = (aa0 , b + ab0 ) et qui agit
sur les signaux analytiques (à fréquence positive) en les translatant en temps et en les comprimant (ou
les dilatant) selon le schéma suivant :

t −→ t0 = at + b
↓ ↓
z 0 (t) = ar z a−1 (t − b)

z(t) −→ (2.27)
↓ ↓
Z(f ) −→ Z 0 (f ) = ar+1 e−2iπf b Z(af )

où r est un réel (r ∈ R), appelé paramètre de dimensionnement physique du signal. Ce paramètre est
assez général dans un premier temps mais on peut lui donner pourtant un sens plus subtil associé à la
notion de dimension physique du signal mesuré et au principe de localisation.

Ce qui a été défini pour le signal peut l’être aussi pour sa représentation temps-fréquence associée.
On introduit alors un paramètre de dimensionnement physique, noté q, de la distribution P (t, f ) qui
doit alors vérifier le diagramme de commutativité suivant :

Z(f ) −→ Z 0 (f ) = ar+1 e−2iπbf Z(af )


↓ ↓ (2.28)
q −1
PZ (t, f ) = PZ 0 (t, f ) = a PZ (a (t − b), af )

Si l’on impose, par exemple, de donner à PZ (t, f ) une signification probabiliste (densité de proba-
bilité), le choix q = 0 (caractérisant la non dimensionalité de P ) est alors imposé. Il n’existe pas, à
priori, de relations entre le paramètre r de dimension physique du signal et le paramètre q. Seule la si-
gnification physique associée à P détermine le paramètre q. En imagerie radar, des exemples physiques
concrets permettent de choisir les paramètres r et q en fonction de la situation physique donnée.

Si on impose à la distribution PZ (t, f ) de vérifier le diagramme de covariance du groupe affine


donné par :

Z(f ) −→ Z 0 (f ) = ar+1 e−2iπbf Z(af )


↓ ↓ (2.29)
PZ (t, f ) = PZ 0 (t, f ) = aq PZ (a−1 (t − b), af )

on peut montrer que le noyau K(u, v; t, f ) est nécessairement de la forme :


 
u v
K(u, v; t, f ) = f 2r−q
K , ; 0, 1 e−2iπt(u−v) (2.30)
f f
ce qui impose au noyau K constitué de 4 variables dans sa forme initiale de ne plus dépendre que de
deux variables indépendantes.

Démonstration :

22
En introduisant la paramétrisation (2.4) de la distribution par son noyau bilinéaire, il est facile de
montrer que :
Z +∞ Z +∞
PZ 0 (t, f ) = a2r+2 K(u, v; t, f ) e2iπb(u−v) Z(au) Z ∗ (av) du dv (2.31)
−∞ −∞
et
Z +∞ Z +∞
aq PZ (a−1 (t − b), af ) = aq K(u, v; a−1 (t − b), af ) Z(u) Z ∗ (v) du dv (2.32)
−∞ −∞

Par suite, l’égalité de ces deux dernières quantités devant être assurée pour tout signal, on en déduit
que le noyau doit vérifier
u v 
a2r K , ; t, f e2iπb(u−v)/a = aq K(u, v; a−1 (t − b), af ) (2.33)
a a
soit encore, en fixant b = t et a = 1/f (on se restreint ici alors aux fréquences positives si a est positif)
et en réorganisant les variables,
 0 0 
u v 0 0
K(u0 , v 0 ; t, f ) = f 2r−q K , ; 0, 1 e−2iπt(u −v ) (2.34)
f f
Si l’on reporte cette relation dans la forme initiale (2.4), on obtient après changement de variables
u0 = u f et v 0 = v f
Z +∞ Z +∞
PZ (t, f ) = f 2r+2−q K(u, v; 0, 1) Z(u f ) Z ∗ (v f ) e−2iπf t(u−v) du dv (2.35)
−∞ −∞

On obtient alors le résultat suivant :

Les représentations temps-fréquence, définies comme fonctionnelles de la partie utile et caractérisées


par (2.3) ou (2.4), qui vérifient le diagramme de covariance (2.28) sont répertoriées dans une classe,
appelée classe de Bertrand [8], et données par :
Z +∞ Z +∞
PZ (t, f ) = f 2r+2−q K(u, v) Z(f u) Z ∗ (f v) e2iπf t(u−v) du dv (2.36)
0 0

où K(u, v) est un noyau symétrique et réel.

Cette famille de distribution, qui respecte le diagramme de covariance du groupe affine A donné
par (2.28), est la forme la plus générale qui soit. Le paramètre libre de ce type de représentation est le
noyau K(u, v) et il existe donc une infinité de ces formes.

Approche Temps-Échelle introduite par P. Flandrin et O. Rioul [9]


La définition d’une classe générale de représentation temps-échelle bilinéaires peut s’obtenir de
manière totalement équivalente à ce qui vient d’être fait dans le cas temps-fréquence. Cette approche
part du respect de la covariance affine du noyau général temporel K introduit en (2.3).

t − t0
 
1
z(t) −→ zt0 ,a0 (t) = √ z
a0 a0
↓ ↓ (2.37)
0−1 0 a
Pz (t, a) = Pzt0 ,a0 (t, a) = Pz (a (t − t ), 0 )
a

23
Cette contrainte se traduit sur le noyau par l’égalité :

|a0 | K(a0 u + t0 , a0 u0 + t0 ; t, a) = K(u, u0 ; a0−1 (t − t0 ), a0−1 a) (2.38)


Cette relation devant être vérifiée quelles que soient les valeurs des variables, le choix t0 = t et
0
a = a conduit à la forme simplifiée du noyau :

u − t u0 − t
 
0 1
K(u, u ; t, a) = K , ; 0, 1 (2.39)
a a a
ce qui montre que seulement deux variables sont nécessaires à la paramétrisation de K. En reportant
le noyau ainsi déterminé dans la forme générale, on obtient finalement :
Z +∞ Z +∞  
s−t
P (t, a) = Π , aξ Wz (s, ξ) dξ ds (2.40)
−∞ −∞ a
en introduisant la quantité Π(t, f ) :
Z +∞  τ τ 
Π(t, f ) = K t − , t + ; 0, 1 e2iπf τ dτ (2.41)
−∞ 2 2
Ceci constitue la classe affine des représentations bilinéaires covariantes par l’action des translations-
dilatations. En introduisant une notation équivalente à celle de la classe de Cohen, on obtient les
paramétrisations suivantes :

+∞ +∞ 
s−t
Z Z
P (t, a) = Π
, aξ Wz (s, ξ) dξ ds (2.42)
−∞ −∞ a
Z +∞ Z +∞ 
τ
= f aξ, Az (ξ, τ ) e−2iπξt dξ dτ (2.43)
−∞ −∞ a
Z +∞ Z +∞    
1 1 ξ ∗ 1 ξ
= ψ(ξ, ν) X (ν − ) X (ν + ) e−2iπξt/a dξ dν (2.44)
|a| −∞ −∞ a 2 a 2

où la fonction ψ(ξ, ν) est reliée à Π(t, f ) par :


Z +∞
ψ(ξ, ν) = Π(t, ν) e−2iπξt dt (2.45)
−∞

où la fonction Az (ξ, τ ) est la fonction d’ambiguïté de z :


Z +∞ 
τ ∗ τ  2iπξs
Az (ξ, τ ) = z s+ z s− e ds (2.46)
−∞ 2 2

2.3 Propriétés attendues des distributions temps-fréquence ou


temps-échelle
Pour des raisons de clarté et de commodité, il est souhaitable (mais pas toujours réalisable) que
la représentation temps fréquence, notée Pz (t, f ) (ou PZ (t, f )), ou temps-échelle, notée Pz (t, a) (ou
PZ (t, a)), construites sur le signal analytique z(t) (ou Z(f )), vérifient certaines contraintes dont les
plus générales sont données plus bas. Pour la classe temps-échelle, on fera la correspondance a = f0 /f .

24
– Énergie totale : Pz (t, f ) ou Pz (t, a) est une distribution d’énergie dans le plan temps-fréquence.
Elle doit donc être réelle et positive et l’énergie totale de la distribution doit être égale à l’énergie
totale du signal :
Z +∞ Z +∞
Pz (t, f ) dt df = Ez (2.47)
−∞ −∞
Z +∞ Z +∞
da
Pz (t, a) dt = Ez (2.48)
−∞ −∞ a2
où Ez définit l’énergie du signal.
– Marginale sur le temps : La propriété de marginalisation sur le temps impose :
Z +∞
2
Pz (t, f ) dt = |Z(f )| (2.49)
−∞
Z +∞   2
f0
Pz (t, a) dt = Z (2.50)
−∞ a
L’intégration de la représentation temps-fréquence sur l’axe du temps donne la densité spectrale
d’énergie. La distribution Pz (t, f ) joue le rôle d’une densité conditionnelle positive sur l’axe tem-
porel.

– Marginale sur la fréquence : La propriété de marginalisation sur la fréquence ou l’échelle


impose :
Z +∞
2
Pz (t, f ) df = |z(t)| (2.51)
−∞

L’intégration de la représentation temps-fréquence sur l’axe de la fréquence donne la puissance


instantanée. Pz (t, f ) peut alors jouer le rôle d’une densité conditionnelle positive sur l’axe fré-
quentiel.

Z +∞
da 2
Pz (t, a) = |z(t)| (2.52)
−∞ a2
Il est à noter que si la distribution temps-fréquence satisfait les deux marginales en temps et
en fréquence, elle satisait automatiquement la contrainte de conservation de l’énergie du signal
mais la réciproque est fausse. Il est possible que la distribution temps-fréquence satisfasse la
conservation de l’énergie sans satisfaire les marginales. Le spectrogramme et le scalogramme
définis plus haut en sont deux exemples.
– Moments de la distribution : Définition des principaux moments de la distribution

Si le signal temporel z(t) analytique et sa transformée de Fourier Z(f ) sont définis par une
enveloppe et une phase :

z(t) = a(t) eiφ(t) −→ Z(f ) = A(f ) eiψ(f ) (2.53)


alors, les moments du premier ordre de la distribution peuvent définir la fréquence instantanée
fi (t) et le temps de propagation de groupe τg (f ) :

25
Z +∞
f Pz (t, f ) df
−∞ 1 dφ
fi (t) = +∞ = (2.54)
2π dt
Z
Pz (t, f ) df
−∞
Z +∞
t Pz (t, f ) dt
−∞ 1 dψ
τg (f ) = Z +∞ =− (2.55)
2π df
Pz (t, f ) dt
−∞

Cette propriété est intéressante dans le sens où elle permet facilement d’accéder directement à
la loi de fréquence du signal sans avoir à calculer de manière brute la phase et la dérivée de la
phase à partir des informations des voies en quadrature du signal. Cette dernière méthode est
très difficile à mettre en œuvre car très sensible au bruit additif.

– Changement d’échelle :
Si le signal subit un changement d’échelle, la représentation subit la transformation suivante :

 
1 t−b
z(t) −→ z 0 (t) = √ z
a a
↓ ↓ (2.56)
 
t−b
Pz (t, f ) = Pz0 (t, f ) = Pz , af
a

– Conservation des supports : Conservation du support du signal temporel ou fréquentiel.


Si le signal occupe une bande de fréquence donnée B ou a une durée T , la distribution temps-
fréquence doit alors possèder le même support temporel ou fréquentiel.

– Conservation du produit scalaire : Propriété dite d’unitarité ou de Moyal.


Z +∞ Z +∞ Z +∞ 2
z1 (t) z2∗ (t) dt

Pz1 (t, f ) Pz2 (t, f ) dt df = (2.57)
−∞ −∞ −∞

+∞ +∞ 2
da +∞
Z Z Z


Pz1 (t, a) Pz2 (t, a) dt 2
= z1 (t) z 2 (t) dt (2.58)
−∞ −∞ a
−∞

On peut remarquer que cette propriété est contradictoire avec la contrainte 1 qui exige la positivité
de P (t, f ). En effet, si les deux signaux sont orthogonaux, le terme de droite de (2.57) est nul,
ce qui entraîne que, soit Pz1 (t, f ), soit Pz2 (t, f ) sont négatifs à un endroit donné du plan temps-
fréquence.
– Réduction des interférences
Le défaut majeur de ces distributions est d’introduire des termes d’interférences entre chaque
composante élémentaire du signal. Ces termes d’interférences proviennent de leur structure bili-
néaire. Ainsi, pour des signaux composés de plusieurs composantes élémentaires, la lisibilité de
ce genre d’analyse devient très difficile, surtout en présence de bruit additif réparti dans tout le
plan temps-fréquence. Pour éviter ce genre de problèmes tout en gardant l’analyse globale sur le
signal, ces distributions peuvent être lissées en temps et en fréquence. Dans le cas du groupe des
translations en temps et en fréquence, on peut utiliser la formule de Moyal et avoir :

26
Z +∞ Z +∞
Pl (t0 , f0 ) = Pz (t, f ) Ph (t − t0 , f − f0 ) df dt (2.59)
−∞ −∞
Z +∞ 2
∗ −2iπf0 u

= z(u) h (u − t0 ) e du (2.60)
−∞

où h représente la fenêtre d’analyse et Ph sa distribution temps-fréquence. Ainsi si on lisse, dans


le plan temps-fréquence, la distribution P (t, f ) par une fenêtre Ph (distribution temps-fréquence
de h) déplacée par le groupe des translations en temps et en fréquence, cela revient à effectuer
une analyse spectrale classique de type Fourier à court terme par la fenêtre h. Connaissant
les relations d’incertitudes entre l’espace temps et fréquence, le contrôle des résolutions liées
en temps et fréquence devient impossible. Pour éviter cela, on peut introduire les distributions
temps-fréquence pseudo-lissées Pl (t, f ) que l’on présente plus bas et qui sont de la forme :
Z +∞ Z +∞
Pl (t0 , f0 ) = Pz (t, f ) g(t0 − t) H(f0 − f ) df dt (2.61)
−∞ −∞

où les deux quantités g et H représentent respectivement deux fenêtres d’analyse contrôlant de


manière indépendante les résolutions temporelle et fréquentielle.

Si l’on s’intéresse au groupe affine des changements d’échelle, on a

+∞ +∞  
t−b
Z Z
Pl (a, b) = P (t, f ) Ph
, af df dt (2.62)
−∞ −∞ a
 2
1 +∞
Z 
∗ u−b
= z(u) h du (2.63)
a −∞
a

où h représente la fenêtre d’analyse et Ph sa distribution temps-fréquence. Ainsi si on lisse, dans


le plan temps-fréquence, la distribution P (t, f ) par une fenêtre Ph (distribution temps-fréquence
de h) déplacée par le groupe affine, cela revient à effectuer une analyse de type transformée en
ondelettes par l’ondelette mère h. Connaissant les relations d’incertitudes entre l’espace temps et
fréquence, le contrôle des résolutions liées en temps et fréquence devient impossible. Pour éviter
cela, on peut introduire de la même manière les distributions temps-fréquence affines pseudo-
lissées Pl (t, f ) [20]
Il a été montré qu’aucune distribution ne pouvait vérifier à la fois toutes ces propriétés [11, 12,
13, 14], la remarque faite dans le dernier cas en apportant la preuve. Néanmoins, on demande aux
distributions de ne vérifier que les plus importantes.

27
Chapitre 3

LES REPRÉSENTATIONS
TEMPS-FRÉQUENCE DE LA
CLASSE DE COHEN

Les représentations temps-fréquence caractérisées par (2.3) et vérifiant le diagramme de covariance


du groupe des translations en temps et fréquence sont répertoriées dans une classe, appelée classe de
Cohen [7, 15], et donnée par :

Z +∞ Z +∞ Z +∞  τ ∗ τ  −2iπf τ
Pz (t, f ) = e2iπξ(s−t) f (ξ, τ ) z s + z s− e dξ ds dτ (3.1)
−∞ −∞ −∞ 2 2

où f (ξ, τ ) est une fenêtre d’observation vérifiant f (ξ, τ ) = f ∗ (−ξ, −τ ) pour garantir le caractère réel
de Pz (t, f ).

Toutes les principales distributions ont été répertoriées dans [13, 14]. Elles sont caractérisées par
différentes fonctions de pondération f (ξ, τ ). On retrouve ainsi les principales distributions connues de
Wigner et Ville, Rihaczeck, Margenau et Hill, Page, ou encore Choi et Williams mais aussi la classique
transformée de Fourier à court terme (spectrogramme, sonagramme, voir [18] pour une synthèse ré-
cente).

Voici présentées ci-dessous les différentes contraintes imposées sur le noyau f (ξ, τ ) pour obtenir
différentes propriétés sur Pz (t, f )
– Conservation d’énergie
Z +∞ Z +∞
Pz (t, f ) dt df = Ez −→ f (0, 0) = 1 (3.2)
−∞ −∞

– Marginales correctes

Z +∞
Pz (t, f ) dt = |Z(f )|2 −→ f (0, τ ) = 1 (3.3)
−∞
Z +∞
Pz (t, f ) df = |z(t)|2 −→ f (ξ, 0) = 1 (3.4)
−∞

28
– Invariance d’échelle

z 0 (t) = √1 t−b
 
z(t) −→ a
z a 
↓ ↓ −→ f (ξ, τ ) = g(ξ τ ) (3.5)
t−b
 
Pz (t, f ) = Pz0 (t, f ) = Pz a , af

où g est une fonction arbitraire


– Unitarité ou Moyal
Z +∞ Z +∞ Z +∞ 2
z1 (t) z2∗ (t) dt −→ |f (ξ, τ )| = 1

Pz1 (t, f ) Pz2 (t, f ) dt df = (3.6)
−∞ −∞ −∞

– Liens avec les fonctions d’ambiguïté

La classe de Cohen peut se réecrire de la manière suivante en faisant apparaître la fonction


d’ambiguïté :
Z +∞ Z +∞
Pz (t, f ) = f (ξ, τ ) Az (ξ, τ ) e−2iπ(ξt+f τ ) dξ dτ (3.7)
−∞ −∞

où Az (ξ, τ ) est la fonction d’ambiguïté symétrique de z(t) définie par :


Z +∞ 
τ ∗ τ  2iπξt
Az (ξ, τ ) = z t+ z t− e dt (3.8)
−∞ 2 2
Cette fonction d’ambiguïté joue un rôle très important en théorie du radar car elle peut caracté-
riser le pouvoir de discrimination et de séparation de cibles proches les unes les autres en distance
(lié au retard) et en vitesse (lié à la fréquence Doppler)
Il existe bien entendu d’autres contraintes liées à d’autres propriétés (positivité, conservation du
support, etc). Celles-ci peuvent être consultées dans [26, 27].

Toutes ces propriétés ne peuvent être réalisées en même temps et on peut donner quelques règles :
– Pour des distributions d’énergie, seulement deux de ces trois propriétés sont vérifiées mais jamais
les trois ensemble :
– forme quadratique du signal
– marginales correctes
– positivité
Exemple : Le spectrogramme est une forme particulière de forme quadratique et est positive
mais ne satisfait pas les contraintes des marginales.
– Positivité et respect de l’unitarité sont incompatibles

Exemple : Wigner-Ville n’est pas une densité d’énergie positive partout dans le plan temps-
fréquence.

3.1 La distribution de Wigner-Ville


3.1.1 définition
Une distribution intéressante peut être obtenue si l’on impose à la fonction de pondération f (ξ, τ )
d’être indépendante des variables ξ et τ (par exemple f (ξ, τ ) = 1). Elle est connue sous le nom de
distribution de Wigner-Ville :

29
Z +∞
 u ∗  u  −2iπf u
Wz (t, f ) = z t+ z t− e du (3.9)
−∞ 2 2
Z +∞ 
ν ∗ ν  2iπf ν
= Z f+ Z f− e dν (3.10)
−∞ 2 2

Cette distribution est la plus populaire et la plus utilisée en traitement du signal. Elle possède de
nombreuses propriétés et est de plus très facile à calculer, dans la plupart des cas, analytiquement,
voire numériquement par des techniques basées sur la transformation de Fourier [19]. On peut montrer
qu’elle satisfait aux contraintes de marginalisation sur le temps et la fréquence, qu’elle n’est pas positive,
qu’elle conserve le support temporel ou fréquentiel des signaux, qu’elle est unitaire et qu’elle permet
d’accéder, grâce à ses moments du premier ordre, à la fréquence instantanée ou au retard de groupe
des signaux.

3.1.2 Propriétés de la distribution de Wigner-Ville


Voici les propriétés les plus couramment rencontrées :
– Réelle et satisfaisant les marginales et la conservation de l’énergie.
– Covariance par le groupe des translations en temps et fréquence

– Conservation du produit scalaire (unitarité ou Moyal).


– Non positivité
– Conservation du support du signal temporel et fréquentiel

z(t) = 0 ∀t 6∈ (t1 , t2 ) −→ Wz (t, f ) = 0 ∀t 6∈ (t1 , t2 ) (3.11)


|Z(f )| = 0 ∀f 6∈ (f1 , f2 ) −→ WZ (t, f ) = 0 ∀t 6∈ (f1 , f2 ) (3.12)

– Conservation des moments du signal

Z +∞ Z +∞ Z +∞
n
t Wz (t, f ) dt df = tn |z(t)|2 dt (3.13)
−∞ −∞ −∞
Z +∞ Z +∞ Z +∞
f n Wz (t, f ) dt df = f n |Z(f )|2 df (3.14)
−∞ −∞ −∞

– Accès à la fréquence instantanée fz (t) du signal z(t) par le moment d’ordre un de sa distribution
temps-fréquence
Z +∞
f Wz (t, f ) df
1 d −∞
fz (t) = arg z(t) = Z +∞ (3.15)
2π dt
Wz (t, f ) df
−∞
iφ(t)
Démonstration : On pose z(t) = A(t) e . On a, après avoir réorganiser les variables :

30
Z +∞ Z +∞ Z +∞ 
 u ∗  u
f Wz (t, f ) df = z t+ z t− du f e−2iπf u df (3.16)
−∞ −∞ 2 2 −∞
Z +∞ 
u   u  1 d
= z t+ z∗ t − δ(u) du (3.17)
−∞ 2 2 2iπ d u
1 d h  u ∗  u i
= z t+ z t− |u=0 (3.18)
2iπ d u 2 2
d
= A2 (t) φ(t) (3.19)
dt
Z +∞
Comme Wz (t, f ) df = |z(t)|2 = A2 (t), la démonstration est terminée. La démonstration est
−∞
duale pour le temps de propagation de groupe et on a :
Z +∞
t Wz (t, f ) dt
1 d −∞
T (f ) = − arg Z(f ) = Z +∞ (3.20)
2π df
Wz (t, f ) dt
−∞
– Interactions entre composantes fréquentielles.
De par sa structure bilinéaire, la distribution de Wigner-Ville crée des interactions entre les
composantes fréquentielles du signal :

Z +∞
Wz1 +z2 (t, f ) = Wz1 (t, f ) + Wz2 (t, f ) + 2Re z1 (t − u/2) z2∗ (t − u/2) e−2iπuf du (3.21)
−∞

Deux points dans le plan temps-fréquence génèrent ainsi une interaction située en leur barycentre.
– Localisation :
Une dernière propriété très importante est la capacité de la distribution de Wigner-Ville à loca-
liser parfaitement les signaux monochromatiques et les chirps, c’est à dire les signaux à loi de
modulation linéaire.
– Sur les signaux monochromatiques :

z(t) = e2iπf0 t ou Z(f ) = δ(f − f0 ) −→ Wz (t, f ) = δ(f − f0 ) (3.22)


– Sur les chirps :
2
z(t) = e−iπαt −→ Wz (t, f ) = δ(t − α f ) (3.23)
– Sur les signaux chocs x(t) = δ(t − t0 ) soit X(f ) = e−2iπf t0

Ici, une polémique s’installe. En effet, soit le signal est analytique et il ne possède pas de fré-
quence négative (ce qui n’est pas le cas de x(t)), soit le signal est réel, auquel cas, à cause de la
forme bilinéaire de sa construction, Wigner-Ville engendre des interférences entre composantes
de fréquences positives et négatives.

Exemple : Ainsi, si on utilise le signal réel x(t) = cos 2πf0 t, Wigner-Ville donne le résultat sui-
vant : Wx (t, f ) = δ(f − f0 )/2 + δ(f + f0 )/2 + cos (2πf0 t) δ(f ). Si l’on utilise le signal analytique
z(t) = e2iπf0 t , on obtient Wz (t, f ) = δ(f − f0 ).

Pour le signal réel choc x(t) = δ(t − t0 ), la parfaite localisation de sa distribution n’est due
qu’aux termes d’interférences entre partie à fréquence positive et partie à fréquence négative.

31
Si on utilise le signal choc z(t) construit à partir de sa forme analytique, c’est à dire δ+ (t − t0 )
(ou Z(f ) = 2Y (f ) e−2iπf t0 avec Y (f ) l’échellon d’Heaviside), la distribution de Wigner-Ville
donne une localisation non parfaite autour de t0 surtout dans les basses fréquences :

sin 4πf (t − t0 )
Wz (t, f ) = 4 Y (f ) (3.24)
π(t − t0 )
Les représentations affines comblent ces lacunes en restant cohérent avec les hypothèses de
départ : elles ne mélangent jamais fréquence positive et fréquence négative

3.1.3 Construction tomographique de la distribution de Wigner-Ville [9]


Il a été montré que la distribution de Wigner-Ville n’est pas positive mais que, néanmoins, elle
possédait des marginales positives sur l’espace temps et sur l’espace fréquence. Il est possible d’étendre
cette notion de marginales ou encore de densité conjointe à d’autres courbes du plan temps-fréquence.
On peut alors montrer que la distribution de Wigner-Ville peut être encore considérée comme une
densité d’énergie positive sur des courbes bien déterminées du plan temps-fréquence : les droites. Ceci
peut facilement se montrer en utilisant la propriétés d’unitarité :
Z +∞ Z +∞ Z +∞ 2


Wz (t, f ) Wz1 (t, f ) dt df =
z(t) z1 (t) dt (3.25)
−∞ −∞ −∞
2

avec z1 (t) = exp iπ(at + 2bt + c) définissant un signal chirp général. Il vient :
Z +∞ Z +∞ Z +∞ 2
−iπat2 −2iπbt

Wz (t, f ) δ(f − at − b) dt df = z(t) e e dt (3.26)
−∞ −∞ −∞

Le membre de gauche n’est autre que la transformation de Radon [17] de la distribution temps-
fréquence tandis que le membre de droite représente le produit scalaire du signal et du signal chirp
général caractérisé par sa pente a et son ordonnée à l’origine b. Ainsi une transformation de Radon
sur une distribution de Wigner-Ville d’un signal n’est autre qu’un filtrage adapté sur ce signal par une
famille de chirps. La mise en place numérique de la transformation de Radon est une transformée de
Hough, très utilisée en théorie de l’image pour détecter la présence de lignes droites dans une image.

3.1.4 Exemples de résultats


Voici quelques exemples de résultats
– Signal monochromatique

z(t) = e2iπf0 t −→ Wz (t, f ) = δ(f − f0 ) (3.27)


– Signal gaussien
1 2 2 √ 2 2 2 2
z(t) = √ e−πt /σ −→ Wz (t, f ) = 2 e−2π(t /σ +σ f ) (3.28)
σ
– Signal monochromatique d’enveloppe gaussienne
1 2 2 √ 2 2 2 2
z(t) = √ e−π(t−t0 ) /σ e2iπf0 t −→ Wz (t, f ) = 2 e−2πα(t−t0 ) /σ −2πσ (f −f0 ) (3.29)
σ
– Chirp idéal
2
z(t) = eiπβt +2iπf0 t
−→ Wz (t, f ) = δ(f − βt − f0 ) (3.30)

32
– Chirp d’enveloppe gaussienne
1 2 2 2 √ 2 2 2 2
z(t) = √ e−πt /σ eiπβt −→ Wz (t, f ) = 2 e−2π[t /σ +σ (f −βt) ] (3.31)
σ
– Somme de deux sinusoïdes

z(t) = a1 e2iπf1 t + a2 e2iπf2 t −→ Wz (t, f ) = a21 δ(f − f1 ) + a22 δ(f − f2 )


+2a1 a2 δ(f − (f1 + f2 )/2) cos 2π(f2 − f1 )t (3.32)

3.1.5 Lissage des distributions de Wigner-Ville


Pour réduire les interférences de nature oscillantes d’un spectre de Wigner-Ville, il est judicieux
d’effectuer un lissage séparable en temps et fréquence contrôlé par deux fenêtres indépendantes tem-
porelle et fréquentielle φ(t, f ) = g(t) H(f ). On obtient ainsi ce que l’on appelle les distributions de
Pseudo Wigner-Ville Lissées :
Z +∞ Z +∞
Pl (t, f ) = φ(t0 , f0 ) Wz (t − t0 , f − f0 ) dt0 df0 (3.33)
−∞ −∞

où g et h sont deux fenêtres paires et réelles avec h(0) = G(0) = 1. L’expression précédente se réduit
à:
Z +∞ Z +∞
Pl (t, f ) = h(τ ) g(ν) z(t − ν + τ /2) z ∗ (t + ν + τ /2) e−2iπf τ dν dτ (3.34)
−∞ −∞

La fenêtre d’analyse doit être adaptée au type de signal analysé mais il est évident que ces mé-
thodes ont le défaut d’élargir les traces utiles temps-fréquence du signal (obtenues par exemple par
Wigner-Ville) du fait du lissage temporel et fréquentiel. Ainsi, il n’est pas rare de devoir modifier à
plusieurs reprises les paramètres de contrôle des fenêtres avant d’obtenir un résultat correct.

Des méthodes ont alors été proposées et permettent de choisir, de manière optimale et automatique,
la fenêtre d’analyse en fonction du type de signal analysé. Cette fenêtre est ainsi dépendante du signal.
On trouve deux types d’approche :
– une analyse adaptative [21] où la fenêtre est automatiquement ajustée en fonction du type de
signal rencontré. Ainsi, si on choisit une fenêtre gaussienne, son écart-type se calculera adaptati-
vement selon un critère énergétique. Cette méthode dispense l’utilisateur des réglages nécessaires
pour obtenir une bonne lisibilité.
– une analyse adaptative fondée sur le même principe mais gardant la résolution de Wigner-Ville
pour le signal et rejetant ou annulant les interférences [22]. Pour cela, on choisit une fenêtre
f (ξ, τ ) = 1 dans une région temps-fréquence où le signal est présent et une fenêtre f (ξ, τ ) =
exp (2iπBτ ) pour rejeter les interférences au delà de la bande B d’analyse du signal si le signal
n’est pas présent dans la région (t, f ) du plan temps-fréquence. On peut aussi choisir de ne
pas garder ces interférences en les supprimant grâce à la fenêtre Ψ(t, f ) = 0 mais on détruit la
propriété d’unitarité de la distribution. Cette méthode est adaptative et le critère de décision de
la présence ou non des interférences se fait selon un critère de type énergétique. Cette méthode
a l’avantage de garder la résolution donnée par une distribution de Wigner-Ville dans les régions
d’intérêts (car f (ξ, τ ) = 1) tout en rejetant les interférences hors du domaine d’analyse. La
figure 3.1 donne un exemple de ce genre d’analyse.

33
Fig. 3.1 – Distributions temps-fréquence d’un signal de chauve-souris. (a) Distribution de Wigner-
Ville faisant apparaître de grosses interférences. (b) Distribution optimale en supprimant les termes
d’interférences (Ψ(t, f ) = 0 en dehors des régions d’intérêt). (c) Distribution optimale en translatant
les interférences au delà de B = 70 Hz par la fenêtre Ψ(t, f ) = exp (2iπBt). Extrait de [22]

3.1.6 La méthode de réallocation sur les Pseudo Wigner-Ville Lissées


Une méthode a récemment été proposée pour améliorer la lisibilité des méthodes temps-fréquence
[23]. Cette méthode peut être appliquée aux distributions Pseudo Wigner-Ville Lissées et a pour but de
reconcentrer à leurs vraies places l’énergie des termes monocomposantes du signal élargis par l’opéra-
tion de lissage. Pour ce faire, il est nécessaire de calculer la position temps-fréquences des barycentres
d’énergie de la distribution temps-fréquence et de réallouer l’énergie dispersée sur les traces élargies.
Cette méthode originale n’a pour but que d’améliorer a posteriori la lisibilité d’une image temps-
fréquence obtenue par des méthodes conventionnelles. En voici résumé le principe de base.

Les centres de gravités des contributeurs d’énergie de la distribution temps-fréquence Wz (t, f )


lissées par le noyau φ(t, f ) sont donnés par :

Z +∞ Z +∞
t0 φ(t0 , f0 ) Wz (t − t0 , f − f0 ) dt0 df0
−∞ −∞
t̂(t, f ) = t− Z +∞ Z +∞ (3.35)
φ(t0 , f0 ) Wz (t − t0 , f − f0 ) dt0 df0
−∞ −∞
Z +∞ Z +∞
f0 φ(t0 , f0 ) Wz (t − t0 , f − f0 ) dt0 df0
−∞ −∞
fˆ(t, f ) = f− Z +∞ Z +∞ (3.36)
φ(t0 , f0 ) Wz (t − t0 , f − f0 ) dt0 df0
−∞ −∞

Cette réallocation conduit à la construction d’une distribution modifiée Pm (t0 , f 0 ) dont la valeur
des points (t0 , f 0 ) est la somme de toutes les valeurs de la distribution lissée Pl (t, f ) réallouées en ce
point :
Z +∞ Z +∞
0 0
Pm (t , f ) = Pl (t, f ) δ(t0 − t̂(t, f )) δ(f 0 − fˆ(t, f )) dt df (3.37)
−∞ −∞

34
Wigner-Ville
T/2

Temps 0

-T/2
0 Fe/4 Fe/2
Pseudo Wigner-Ville Lissée
T/2
Temps

-T/2
0 Fe/4 Fe/2
Réallocation
T/2
Temps

-T/2
0 Fe/4 Fe/2
Fréquence

Fig. 3.2 – Analyse temps-fréquence de signaux chirps par distribution de Wigner-Ville, Pseudo distri-
bution de Wigner-Ville Lissée et réallocation de distribution

où la distribution Pl (t, f ) est obtenue par lissage de Wz (t, f ) et du noyau φ(t, f ) :


Z +∞ Z +∞
Pl (t, f ) = φ(t0 , f0 ) PV W (t − t0 , f − f0 ) dt0 df0 (3.38)
−∞ −∞

Il est à noter que cette distribution est non-bilinéaire et qu’elle n’appartient pas à la classe de
Cohen. Elle conserve néanmoins la propriété de covariance par le groupe des translations en temps
et fréquence, conserve l’énergie et localise parfaitement les signaux du type chirps. On remarque de
même qu’il est impossible de réallouer Wigner-Ville car les centres de gravité (t̂, fˆ) de cette distribution
sont exactement les points (t, f ). Les trois figures (3.2 à 3.4) montrent les résultats obtenus sur trois
types de signaux différents. On remarque que Wigner-Ville fait apparaître très rapidement une non-
lisibilité due aux termes d’interférences et que sa distribution pseudo-lissée élargit les traces tout
en faisant disparaître les interférences (réglages des paramètres des fenêtres d’analyse). Les résultats
les plus surprenants concernent les méthodes de réallocation sur les Pseudo Wigner-Ville Lissées qui
font pratiquement disparaître les termes d’interférences tout en améliorant les traces des fréquences
instantanées des différentes composantes du signal : on arrive dans certains cas à obtenir une meilleure
résolution qu’avec Wigner-Ville.

3.2 Les autres distributions de la classe de Cohen


Le tableau (3.1) donne quelques exemples de définitions de distributions temps-fréquence de la
classe de Cohen. Voici en détail les propriétés de ces distributions

35
Wigner-Ville
T/2

Temps 0

-T/2
0 Fe/4 Fe/2
Pseudo Wigner-Ville Lissée
T/2
Temps

-T/2
0 Fe/4 Fe/2
Réallocation
T/2
Temps

-T/2
0 Fe/4 Fe/2
Fréquence

Fig. 3.3 – Analyse temps-fréquence de signaux monochromatiques par distribution de Wigner-Ville,


Pseudo distribution de Wigner-Ville Lissée et réallocation de distribution

3.2.1 La ditribution de Choï-Williams


Cette distribution a été introduite dans le but de réduire les interférences intervenant dans la lecture
des distributions temp-fréquence. Le noyau f (ξ, τ ) choisi est de la forme :
2
f (ξ, τ ) = e−(πξτ /σ) /2
(3.39)
où σ est un paramètre de contrôle de la fenêtre de lissage. Ce noyau est une forme produit des deux
variables ξ et τ et satisfait donc les marginales (on rappelle que ceci est vérifié si f (ξ, 0) = f (0, τ ) = 1).
Il garantit même l’accès à la fréquence instantanée et au retard de groupe. Si le paramètre σ tend vers
l’infini, la distribution tend vers la distribution de Wigner-Ville. Dans le autres cas, cette distribution a
pour but de réduire les interférences entre composantes et prend les deux formes équivalentes suivantes :
r Z +∞ Z +∞
2 σ −2σ2 (s−t)2 /τ 2  τ ∗ τ  −2iπf τ
P (t, f ) = e z s+ z s− e ds dτ (3.40)
π −∞ −∞ |τ | 2 2
selon que l’on prenne le signal temporel z(t) ou le signal fréquentiel Z(f ).

Pour mieux comprendre le comportement de cette distribution, on considère le signal constitué de


deux fréquences pures, soit :

z(t) = A1 e2iπf1 t + A2 e2iπf2 t (3.41)


Z(f ) = A1 δ(f − f1 ) + A2 δ(f − f2 ) (3.42)

La distribution associée prend la forme suivante :

P (t, f ) = A21 δ(f − f1 ) + A22 δ(f − f2 ) + K(t, f ) (3.43)

36
Wigner-Ville
T/2

Temps 0

-T/2
0 Fe/4 Fe/2
Pseudo Wigner-Ville Lissée
T/2
Temps

-T/2
0 Fe/4 Fe/2
Réallocation
T/2
Temps

-T/2
0 Fe/4 Fe/2
Fréquence

Fig. 3.4 – Analyse temps-fréquence de signal modulé sinusoïdalement en fréquence par distribution de
Wigner-Ville, Pseudo distribution de Wigner-Ville Lissée et réallocation de distribution

où K(t, f ) est le terme d’interférences.

r
2σ 2
 
2 σ 2
K(t, f ) = 2 A1 A2 exp − (f − (f 1 + f 2 )/2) cos 2π(f1 − f2 )t (3.44)
π |f1 − f2 | (f1 − f2 )2

La dernière quantité tend vers δ(f − (f1 + f2 )/2) quand σ tend vers l’infini ce qui montre que
la distribution de Wigner-Ville est d’énergie infinie pour f = (f1 + f 2)/2. Quand σ est fini, on peut
remarquer que les termes d’interférences ne sont plus localisés qu’en un seul point et qu’ils s’étalent
avec une énergie maximale plus petite que celle de Wigner-Ville.

3.2.2 La distribution de Born-Jordan


sin 2πaτ ξ
Si l’on choisit un noyau du type f (ξ, τ ) = où a est une constante, ceci permet encore de
2πaτ ξ
réduire l’énergie des termes d’interférences. La distribution prend la forme :
Z +∞  Z t+aτ  
1 τ ∗ τ
P (t, f ) = z s+ z s− ds e−2iπf τ dτ (3.45)
−∞ 2a|τ | t−aτ 2 2
Considérons de la même manière les termes d’interférences K(f ) des deux signaux monochroma-
tiques engendrés par cette distribution. On obtient :


1 1 (a + 1/2)f1 − (a − 1/2)f2 ≤ f ≤ −(a − 1/2)f1 + (a + 1/2)f2
K(f ) = si (3.46)
2a f2 − f1 0 sinon

37
Le terme d’interférence ne dépend donc pas de f et on a ainsi une répartition uniforme de l’énergie
dans la zone considérée. Le choix a = 1/2 permet donc de répartir de manière uniforme l’énergie des
termes d’interférences entre f1 et f2 .

Nom f (ξ, τ ) Pz (t, f )

Z +∞  τ ∗ τ  −2iπf τ
Wigner-Ville 1 z t+ z t− e dτ
−∞ 2 2
Z +∞        
1 1
s-Wigner e2iπsξτ z t− s− τ z∗ t − s + τ e−2iπf τ dτ
−∞ 2 2

Rihaczek eiπξτ z(t) Z ∗ (f ) e−2iπf τ


" #
Z +∞ Z t+|τ |/2
sin πξτ 1  τ ∗ τ
Born-Jordan z s+ z s− ds e−2iπf τ dτ
πξτ −∞ |τ | t−|τ |/2 2 2

2 √ Z +∞ Z +∞
σ −2σ2 (s−t)2 /τ 2  τ ∗ τ  −2iπf τ
Choï-Williams e−(πξτ /σ) /2
2π e z s+ z s− e ds dτ
−∞ −∞ |τ | 2 2
Z +∞ 2
∗ −2iπf s

Spectrogramme Ah (ξ, τ )
z(s) h (s − t) e ds
−∞
Z +∞ Z +∞  τ ∗ τ  −2iπf τ
Séparable G(ξ) h(τ ) h(τ ) g(s − t) z s + z s− e ds dτ
−∞ −∞ 2 2

Tab. 3.1 – Classe de Cohen : quelques exemples de fonctions de paramétrisation et leurs représentations
temps-fréquence associées

38
Chapitre 4

LES REPRÉSENTATIONS
TEMPS-FRÉQUENCE AFFINES

Deux approches sont possibles : l’approche temps-echelle introduite par P. Flandrin et O. Rioul [9]
et l’approche temps-frequence introduite par J. et P. Bertrand [8].

4.1 Approche temps-échelle introduite par P. Flandrin et O. Rioul


Les représentations temps-échelle bilinéaires qui vérifient le diagramme de covariance du groupe
affine sont répertoriées dans une classe, appelée classe affine de Cohen et sont données par :

+∞ +∞ 
s−t
Z Z
Pz (t, a) = , aξ Wz (s, ξ) dξ ds
Π (4.1)
−∞ −∞ a
Z +∞ Z +∞ 
τ
= f aξ, Az (ξ, τ ) e−2iπξt dξ dτ (4.2)
−∞ −∞ a
Z +∞ Z +∞    
1 1 ξ ∗ 1 ξ
= ψ(ξ, ν) X (ν − ) X (ν + ) e−2iπξt/a dξ dν (4.3)
|a| −∞ −∞ a 2 a 2

où la fonction ψ(ξ, ν) est reliée à Π(t, f ) par :


Z +∞
ψ(ξ, ν) = Π(t, ν) e−2iπξt dt (4.4)
−∞

Ces formes sont les plus générales qui soient. Un cas particulier est le scalogramme défini plus haut :
+∞   2
u−t
Z
2
1 ∗

|Tz (t, a)| = √
z(u) h du
a −∞ a
où la fenêtre h représente l’ondelette mère. Cette distribution d’énergie peut se mettre sous la forme
plus générale :
Z +∞ Z +∞  
2 s−t
|Tz (t, a)| = Wh , aξ Wz (s, ξ) dξ ds (4.5)
−∞ −∞ a
Il apparaît que la classe affine est générée à partir de la distribution de Wigner-Ville par l’action
d’un lissage affine.

39
4.1.1 Sous-classe temps-échelle
De la même manière que nous avons définis des distributions pseudo Wigner-Ville lissées qui contrô-
laient de manière indépendante le lissage en fréquence et en temps, on peut s’intéresser aux distributions
pseudo Wigner-Ville lissées affines qui sont obtenues par l’action d’un noyau de lissage séparable. Le
noyau f (ξ, τ ) doit être choisi séparable de la forme :

f (ξ, τ ) = G(ξ) e2iπH(ξ)τ (4.6)


où les deux fonctions G et H sont réelles. Cette nouvelle classe définit alors une sous-classe des distri-
butions de Cohen affine et sont définies alors par :
Z +∞    
H(aξ) ξ H(aξ) ξ
P (t, a) = G(aξ) X − X∗ + e−2iπξt dξ (4.7)
−∞ a 2 a 2
Lorsqu’on impose à ces nouvelles distributions de satisfaire des contraintes d’unitarité ou de locali-
sation parfaite sur des signaux particuliers, les deux fonctions G et H sont alors parfaitement définies.
Par exemple, la contrainte d’unitarité sur la distribution, c’est à dire :
+∞ +∞ 2
da +∞
Z Z Z
Pz1 (t, a) Pz∗2 (t, a) ∗

2
= z1 (t) z2 (t) dt (4.8)
−∞ −∞ a −∞

conduit à la contrainte suivante sur G et H :

dH(ξ)
G2 (ξ) = H(ξ) − ξ (4.9)

La contrainte de localisation P (t, a) = |a| δ(t − t0 ) sur des courbes du type X(f ) = |f |−1/2 e2iπf t0
(notons ici que ce signal n’est en aucun cas analytique) conduit à :
 2
ξ
G2 (ξ) = H 2 (ξ) − (4.10)
2
Si l’on impose les deux dernières contraintes, il faut résoudre une équation différentielle qui donne
l’expression des deux fonctions H et G :

   
ξ ξ
H(ξ) = coth (4.11)
2 2
ξ/2
G(ξ) = (4.12)
sinh ξ/2

et on tombe sur la définition de la distribution de Bertrand dont la formulation temps-échelle est


donnée par :
Z +∞
ξ e−ξ/2 ξ eξ/2
   
1 ξ/2
P (t, a) = X X∗ e−2iπξt/a dξ (4.13)
|a| −∞ sinh ξ/2 2a sinh ξ/2 2a sinh ξ/2

4.2 Approche temps-fréquence affine introduite par P. et J. Ber-


trand
Les représentations temps-fréquence, définies comme fonctionnelles de la partie utile et caractérisées
par (2.3) ou (2.4), qui vérifient le diagramme de covariance (2.28) sont répertoriées dans une classe,

40
appelée classe affine de Bertrand [8], et données par :
Z +∞ Z +∞
PZ (t, f ) = f 2r+2−q K(u, v) Z(f u) Z ∗ (f v) e2iπf t(u−v) du dv (4.14)
0 0

où K(u, v) est un noyau symétrique et réel.

Cette famille de distribution, qui respecte le diagramme de covariance du groupe affine A donné
par (2.28), est la forme la plus générale qui soit. Le paramètre libre de ce type de représentation est le
noyau K(u, v) et il existe donc une infinité de ces formes.

Plusieurs modes de construction, aussi différents les uns que les autres, ont été proposés. Voici
succinctement présenté le cheminement principal des trois grandes idées :

4.2.1 Forme diagonale du noyau K


Une première solution consiste à se restreindre à des formes quasi-diagonales du noyau du type
K(v, v 0 ) = K(v, g(v)) où g est une fonction bijective sur R, qui permettent de réduire la forme (4.14)
à une intégrale simple plus exploitable. Ce noyau peut donc être paramétré par des formes du type :
Z +∞
0
K(v, v ) = µ(u) δ(v − λ(u)) δ(v 0 − λ(−u)) du (4.15)
−∞

qui est de la forme générale K(v, g(v)), avec la fonction λ continue et bijective de R sur R+∗ et la
fonction µ assurant le caractère réel et symétrique du noyau K, on obtient alors, par deux intégrations
successives sur v et v 0 , les familles de distributions suivantes :
Z +∞
P (t, f ) = f 2r+2−q µ(u) Z(f λ(u)) Z ∗ (f λ(−u)) e2iπf t(λ(u)−λ(−u)) du (4.16)
−∞

Lorsqu’on impose à cette distribution de satisfaire :


– une relation d’unitarité donnée par :
Z +∞ Z +∞ Z +∞ 2
2q ∗ 2r+1

P1 (t, f ) P2 (t, f ) f dt df = Z1 (f ) Z (f ) f df (4.17)
−∞ 0 0

– la contrainte de localisation des signaux localisés en temps,

Z(f ) = f −r−1 e−2iπf t0 −→ P (t, f ) = f −q−1 δ(t − t0 ) (4.18)


– la contrainte de localisation des signaux localisés en fréquence,

Z(f ) = f −r δ(f − f0 ) −→ P (t, f ) = f 1−q δ(f − f0 ) (4.19)


on obtient une forme, appelée distribution affine unitaire, bien définie par les fonctions λ(u) et µ(u) et
donnée par
Z +∞  2r+2
u
P (t, f ) = f 2r+2−q
Z(f λ(u)) Z ∗ (f λ(−u)) e2iπf tu du (4.20)
−∞ 2 sinh(u/2)
avec la fonction λ continue, croissante et bijective de R dans R+∗ :
u
λ(u) = (4.21)
1 − e−u

41
4.2.2 Covariance étendue
La deuxième solution est d’imposer aux distributions d’être covariantes par certains groupes à trois
paramètres plus généraux contenant le groupe affine A [8]. Ces groupes Gk labélés par un réel k ont
donc trois paramètres et agissent sur chaque élément du groupe g = (a, b, c) et g 0 = (a0 , b0 , c0 ) selon la
loi de composition :

g g 0 = (aa0 , b + ab0 , c + ak c0 ) pour Gk , k 6= 1 (4.22)


0 0 0 0
g g = (aa , b + ab + a(ln a), c + ac ) pour G1 (4.23)

L’action de ces groupes Gk agissent sur les signaux analytiques Z(f ) selon :

k
Z g (f ) = ar+1 e−2iπ(bf +cf ) Z(af ) pour k 6= 0, 1 (4.24)
Z g (f ) = ar+1 e−2iπ(bf +c ln f ) Z(af ) pour k = 0 (4.25)
Z g (f ) = ar+1 e−2iπ(bf +cf ln f ) Z(af ) pour k = 1 (4.26)

La covariance sur la distribution temps-fréquence se traduit par PZ g (t, f ) = aq P (g −1 .(t, f )) :

P g (f, f ) = aq P a−1 (t − b − kcf k−1 ), af



pourk 6= 0, 1 (4.27)
   
g q −1 c
P (f, f ) = a P a t−b− , af pourk = 0 (4.28)
f
P g (f, f ) = aq P a−1 (t − b − c − c ln f ), af

pourk = 1 (4.29)

Cette méthode conduit à une grande famille de distributions appelées fonctions affines de Wigner
définies par :
Z +∞
P (t, f ) = f 2r+2−q
µk (u) Z(f λk (u)) Z ∗ (f λk (−u)) e2iπf t(λk (u)−λk (−u)) du (4.30)
−∞

avec la fonction λk donnée par :


 −u  1
e − 1 k−1
λk (u) = k −ku (4.31)
e −1
La fonction µk , arbitraire doit être réelle, positive et paire. Elle est néanmoins bien déterminée si on
impose une fois de plus l’unitarité ou la localisation. Lorsqu’on impose et l’unitarité et la localisation,
on retrouve bien sûr la forme (4.20).

Ainsi, si on impose l’unitarité pour ces distributions, on tombe sur la condition suivante :
r
r+1 d
µk (u) = (λk (u) λk (−u)) (λk (u) − λk (−u)) (4.32)
du
Ainsi pour k = 2, q = 0, r = −1/2, on retrouve la distribution de Wigner-Ville restreinte ici aux
signaux analytiques.

Si on impose les distributions soient localisables sur les signaux chocs, c’est à dire,

Zt0 (f ) = f −r−1 e−2iπf t0 −→ P (t, f ) = f −q−1 δ(t − t0 ) (4.33)


il est nécessaire de satisfaire les conditions suivantes :

42
– la correspondance u −→ (λk (u) − λk (−u)) est bijective de R dans R.

Cette condition impose forcément k ≤ 0 ce qui, d’emblée, exclut totalement la distribution de


Wigner-Ville comme distribution localisable sur les signaux chocs.
r+1 d
– µk (u) = (λk (u) λk (−u)) du (λk (u) − λk (−u))
Pour les k négatifs, la covariance étendue par le groupe Gk peut être appliquée aux signaux chocs.
L’opération montre que :

k
Z(f ) = f −r−1 e−2iπc f e−2iπf t0 −→ Pk (t, f ) = f −q−1 δ t − t0 − k c f k−1

k<0 (4.34)
 
β
Z(f ) = f −r−1 f −2iπβ e−2iπf t0 −→ P0 (t, f ) = f −q−1 δ t − t0 − k=0 (4.35)
f
(4.36)

Le cas k = 0 est un exemple de cas qui satisfait aux deux conditions : c’est la distribution affine
unitaire rencontrée en (4.20) :

+∞ 2r+2
uf e−u/2 uf eu/2
Z     
u ∗
P0 (t, f ) = f 2r+2−q
Z Z e−2iπf tu du (4.37)
−∞ 2 sinh u/2 2 sinh u/2 2 sinh u/2

Cette distribution localise ainsi les signaux dits hyperboliques.

Le cas k = −1 est appelée distribution active d’Unterberger et correspond au cas λ−1 (u) = eu/2 et
µ−1 (u) = cosh u/2 et localise les signaux dont le temps de propagation de groupe décroit en 1/f 2 .

4.2.3 Approche tomographique


Une troisième solution repose sur une méthode de construction par tomographie déjà proposée dans
le cas de la distribution de Wigner-Ville [16]. La forme obtenue dans ce cas est la distribution affine
unitaire (4.20).

Il peut être montré que la distribution affine unitaire n’est pas positive mais que, néanmoins, elle
possédait des marginales positives sur l’espace temps et sur l’espace fréquence. Il est possible d’étendre
cette notion de marginales ou encore de densité conjointe à d’autres courbes du plan temps-fréquence.
On peut alors montrer que la distribution affine unitaire peut être considérée comme une densité
d’énergie positive sur des courbes bien déterminées du plan temps-fréquence : les hyperboles. Ceci
peut facilement se montrer en utilisant la propriétés d’unitarité :
Z +∞ Z +∞ Z +∞ 2
2q
Z(f ) Z1∗ (f ) f 2r+1

P (t, f ) P1 (t, f ) f dt df = df (4.38)
0 −∞ 0

avec f −r−1 f −2iπβ e−2iπf ξ définissant un signal hyperbolique. Il vient :


Z +∞ Z +∞   Z +∞ 2
β q
2iπξf 2iπβ+r

P (t, f ) δ t − ξ − f dt df = Z(f ) e f (4.39)
0 −∞ f 0

Le membre de gauche n’est autre que la transformation de Radon généralisée de la distribution


temps-fréquence affine tandis que le membre de droite représente le produit scalaire entre le signal
Z(f ) et les signaux hyperboliques : cette transformation définit la transformation de Mellin [24, 25]
du signal qui joue un rôle très important dans toute l’étude ou le calcul de ces distributions

43
4.2.4 La représentation temps-fréquence affine unitaire
La forme la plus exploitable en analyse de signaux est la distribution affine unitaire qui permet de
localiser en temps ou en fréquence des signaux localisés en temps (comme par exemple des chocs) ou
en fréquence (comme des signaux monochromatiques). Cette distribution est donnée par :
Z +∞  2r+2
u
P (t, f ) = f 2r+2−q Z(f λ(u)) Z ∗ (f λ(−u)) e2iπf tu du (4.40)
−∞ 2sh(u/2)
avec la fonction λ continue, croissante et bijective de R dans R+∗ définie par :

u u eu/2
λ(u) = −u
= (4.41)
1−e 2 sinh u/2
Cette distribution dépend du paramètre r de dimensionnement du signal, mais aussi de son propre
paramètre q de dimensionnement.

Propriétés de la représentation affine unitaire


Voici quelques unes de ses propriétés les plus intéressantes :
– La représentation affine peut être considérée comme une pseudo-densité dans le plan temps
fréquence :
Z +∞ Z +∞ Z +∞
q 2
P (t, f ) f dt df = |Z(f )| f 2r+1 df (4.42)
−∞ 0 0
Le choix q = 0 confère à la distribution une signification probabiliste.
– Covariance par le groupe affine étendu

Z(f ) −→ Z 0 (f ) = ar+1 e−2iπ(bf +c ln f ) Z(af )


↓ ↓ (4.43)
0 q −1
P (t, f ) = P (t, f ) = a P (a (t − b − c/f ), af )
– Conservation du support fréquentiel du signal

En particulier P (t, f ) = 0 pour f < 0 (Signal analytique nul aux fréquences négatives)
– Formule de Moyal ou unitarité
Z +∞ Z +∞ Z +∞ 2
P1 (t, f ) P2 (t, f ) f 2q dt df = Z1 (f ) Z2∗ (f ) f 2r+1 df

(4.44)
−∞ 0 0
Cette relation est l’analogue large bande de la formule de Moyal pour la classe de Cohen
– Marginalisation sur le temps
Z +∞
P (t, f ) dt = f 2r+1−q |Z(f )|2 (4.45)
−∞

La marginalisation usuelle (telle qu’on la définit pour la distribution de Wigner-Ville) est ainsi
obtenue pour un paramètre de dimensionnement q égal à 2r + 1.

La propriété de marginalisation sur la fréquence n’est, elle, pas définie de manière simple, la
forme intégrale étant alors difficile à calculer. Il n’est pourtant pas raisonnable d’espérer obtenir
pour des signaux à grande largeur de bande relative, l’enveloppe du signal analytique (au sens
bande étroite) qui ne reste qu’une notion bande étroite, mais plutôt une extension large bande
de cette quantité.

44
– Le moment du premier ordre sur le temps de la distribution définit le retard de groupe du signal.
Z +∞
t P (t, f ) dt
−∞
Z +∞ = τg (f ) (4.46)
P (t, f ) dt
−∞

Le moment du premier ordre sur la fréquence est encore une grandeur très difficile à calculer
de manière analytique. De le même façon que pour la marginalisation sur les fréquences, il n’est
pourtant pas raisonnable d’espérer obtenir pour des signaux à grande largeur de bande relative,
la fréquence instantanée du signal analytique (au sens bande étroite) qui ne reste qu’une notion
bande étroite, mais plutôt une extension large bande de cette grandeur.
– Parfaite localisation des signaux du type :
– Signaux monochromatiques :

Z(f ) = f −r δ(f − f0 ) −→ P (t, f ) = f 1−q δ(f − f0 ) (4.47)


– Signaux chocs :

Z(f ) = f −r−1 e−2iπf ξ −→ P (t, f ) = f −q−1 δ(t − ξ) (4.48)


– Signaux hyperboliques à temps de propagation de groupe hyperbolique (Voir figures 4.1 et 4.2 :

Z(f ) = f −2iπβ−r−1 e−2iπf ξ −→ P (t, f ) = f −q−1 δ(t − ξ − β/f ) (4.49)


– A bande étroite, P (t, f ) tend vers la distribution de Wigner-Ville Wz (t, f )

Il suffit de remarquer que, lorsque le signal est à bande étroite autour de la fréquence centrale f0 ,
la contribution majeure de l’intégrale, définie par l’expression (4.40), est obtenue au voisinage
de u = 0. En développant λ(u) et λ(−u) en série dans (4.40), en effectuant le changement de
variable γ = f u, et en posant q = 2r + 1 (pour satisfaire à la propriété de marginalisation usuelle
de la distribution de Wigner Ville), on obtient :

Z +∞
P (t, f ) = f Z(f (1 + u/2)), Z ∗ (f (1 − u/2)) e2iπf tu du (4.50)
0
Z +∞
= Z(f + γ/2) Z ∗ (f − γ/2) e2iπγt dγ (4.51)
0

Le deuxième terme de (4.51) n’est autre que la définition de la distribution de Wigner-Ville.

4.2.5 Lissage de la représentation affine unitaire


De la même manière que pour Wigner-Ville, il est possible de lisser la représentation affine unitaire
pour réduire les interférences.

Faisons l’hypothèse que le signal fenêtre H(0,f0 ) (f ) soit bien "localisé" en t = 0 autour de la
fréquence f0 . Lorsqu’on fait subir à H une transformation du groupe affine (a, b) caractérisé par une
translation de temps b = t et un changement d’échelle a = f0 /f , le signal transformé H(t,f ) (f ), localisé
autour du temps t et autour de la fréquence f prend la forme
 −r−1  
f 0 f0 0
H(t,f ) (f 0 ) = e−2iπf t H(0,f0 ) f (4.52)
f0 f

45
0
120
−2
110
−4
100
−6
90
−8
80
−10
70
−12
60
−14

50
−16

40
−18

30
−20
−5 0
1

0.5

0
−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4

Fig. 4.1 – Distribution temps-fréquence affine unitaire d’un signal hyperbolique

Par le diagramme de commutativité du groupe affine, la distribution P(t,f ) associée à H(t,f ) prend
la forme :
 −q  
0 0 f f f0
P(t,f ) (t , f ) = P(0,f0 ) (t − t0 ), f 0 (4.53)
f0 f0 f
En remplaçant dans la formule d’unitarité Z1 = Z et Z2 = H(t,f ) , on obtient une distribution lissée
qui a la forme :
Z +∞ Z +∞
P̃ (t, f ) = f −q PZ (t0 , f 0 ) P(t,f ) (t0 , f 0 ) f 02q dt0 df 0 (4.54)
−∞ 0

On obtient ainsi le résultat par la formule de Moyal :


Z +∞ 2
−q 0 ∗ 0 02r+1 0

P̃ (t, f ) = f
Z(f ) H(t,f ) (f ) f df (4.55)
0

qui n’est que la transformée en ondelette du signal Z par l’ondelette mère H. la figure 4.3 montre une
transformée en ondelette d’un signal hyperbolique.

46
0
120

110

100
−5
90

80

70

60 −10

50

40

30
−15
−30 −20 −10 0
1

0.5

0
−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4

Fig. 4.2 – Distribution temps-fréquence affine unitaire d’un signal composé de deux signaux hyperbo-
liques croisés

0
120

110

100
−5
90

80

70

60 −10

50

40

30
−15
−5 0
1

0.5

0
−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4

Fig. 4.3 – Transformation en ondelette d’un signal hyperbolique

47
Chapitre 5

EXEMPLES

48
Signal in time
2

Real part
0

−1

Linear scale |STFT|2, Lh=16, Nf=64, log. scale, imagesc, Thld=5%

0.45

0.4

0.35
Energy spectral density

Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
908 454 0 20 40 60 80 100 120
Time [s]

Fig. 5.1 – Analyse temps-fréquence de signaux chirps par Spectrogramme

Signal in time

80
60
Real part

40
20
0
−20
−40

Linear scale SP, Lh=30, Nf=128, log. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
2.3519 1.176 0 50 100 150 200 250 300
6
x 10 Time [s]

Fig. 5.2 – Analyse temps-fréquence d’un signal de parole par Spectrogramme (’GABOR’)

49
Signal in time
1

0.5

Real part
0

−0.5

Linear scale WV, log. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
365 182 0 20 40 60 80 100 120
Time [s]

Fig. 5.3 – Analyse temps-fréquence de deux logons de Gabor par Wigner-Ville

Signal in time

1
Real part

−1

Linear scale WV, log. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
1450 725 0 20 40 60 80 100 120
Time [s]

Fig. 5.4 – Analyse temps-fréquence d’un signal chirp par Wigner-Ville

50
Signal in time

Real part
0

−1

Linear scale PWV, Lh=16, Nf=128, log. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
1450 725 0 20 40 60 80 100 120
Time [s]

Fig. 5.5 – Analyse temps-fréquence de quatre logons de Gabor par Wigner-Ville

Signal in time

0.5
Real part

−0.5

Linear scale WV, log. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
400 200 0 20 40 60 80 100 120
Time [s]

Fig. 5.6 – Analyse temps-fréquence de quatre logons de Gabor par Pseudo-Wigner-Ville

51
Signal in time

Real part
1
0
−1

Linear scale WV, log. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
14338 7169 0 20 40 60 80 100 120
Time [s]

Fig. 5.7 – Analyse temps-fréquence d’une raie pure et d’un logon de Gabor par Wigner-Ville

Signal in time

2
Real part

1
0
−1

Linear scale PWV, Lh=16, Nf=128, log. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
14338 7169 0 20 40 60 80 100 120
Time [s]

Fig. 5.8 – Analyse temps-fréquence d’une raie pure et d’un logon de Gabor par Pseudo-Wigner-Ville

52
Signal in time

Real part
1
0
−1

Linear scale SPWV, Lg=6, Lh=16, Nf=128, log. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
14338 7169 0 20 40 60 80 100 120
Time [s]

Fig. 5.9 – Analyse temps-fréquence d’une raie pure et d’un logon de Gabor par Pseudo-Wigner-Ville-
Lissée

Signal in time
1

0.5
Real part

−0.5

Linear scale SCALO, Morlet wavelet, Nh0=11.3137, N=128, log. scale, pcolor, Thld=5%
0.4

0.35

0.3
Energy spectral density

Frequency [Hz]

0.25

0.2

0.15

0.1

996 498 0 20 40 60 80 100 120


Time [s]

Fig. 5.10 – Analyse temps-fréquence de deux logons de Gabor par Scalogramme

53
Signal in time

0.2

Real part
0

−0.2

Linear scale BERT, N=128, log. scale, pcolor, Threshold=5%

0.2

0.18

0.16
Energy spectral density

Frequency [Hz]

0.14

0.12

0.1

0.08

0.06

0.04

0.02
11 5 0 20 40 60 80 100 120
Time [s]

Fig. 5.11 – Analyse temps-fréquence d’un signal hyperbolique par Distribution affine unitaire

Signal in time

1
Real part

−1

Linear scale RSP, Lh=13, Nf=128, log. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
9575 4787 0 20 40 60 80 100 120
Time [s]

Fig. 5.12 – Analyse temps-fréquence d’un signal académique par Distribution Spectrogramme Réal-
louée

54
Signal in time

Real part
0

−1

Linear scale RSP, Lh=13, Nf=128, log. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
9575 4787 0 20 40 60 80 100 120
Time [s]

Fig. 5.13 – Analyse temps-fréquence d’un signal académique par Spectrogramme

Signal in time
2

1
Real part

−1

Linear scale WV, log. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
3583 1792 0 20 40 60 80 100 120
Time [s]

Fig. 5.14 – Analyse temps-fréquence d’un signal académique par Wigner-Ville

55
Signal in time
2

1
Real part

−1

Linear scale SPWV, Lg=6, Lh=16, Nf=128, lin. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
3583 1792 0 20 40 60 80 100 120
Time [s]

Fig. 5.15 – Analyse temps-fréquence d’un signal académique par Pseudo-Wigner-Ville-Lissée

56
Signal in time
2

1
Real part

−1

Linear scale RSPWV, Lg=6, Lh=16, Nf=128, log. scale, imagesc, Threshold=5%

0.45

0.4
Energy spectral density

0.35
Frequency [Hz]

0.3

0.25

0.2

0.15

0.1

0.05

0
3583 1792 0 20 40 60 80 100 120
Time [s]

Fig. 5.16 – Analyse temps-fréquence d’un signal académique par Pseudo-Wigner-Ville-Lissée Réallouée

57
Bibliographie

[1] J. Ville, "Théorie et Applications de la Notion de Signal Analytique", Câbles et Transmission,


No.1, pp.60-74, janvier 1948
[2] J.B. Allen L.R. Rabiner, "A Unified Approach to Short Time Fourier Analysis and Synthe-
sis", Proc. of the IEEE, Vol.65, No.11, November 1977
[3] R.A. Altes, "Detection Estimation and Classification with Spectrograms", J. Acoust. Soc. Am.,
Vol.67, No.4, pp.1232-1246, 1980
[4] S.M. Kay, "Modern Spectral Estimation", Prentice Hall, Englewood Cliffs, New Jersey 07632,
1988
[5] S.L. Marple, Jr, "Digital Spectral Analysis With Applications", Prentice Hall, Englewood Cliffs,
New Jersey 07632, 1987
[6] L. Cohen, "Generalized Phase-Space Distribution Functions", J. of Math. Physics, Vol.7, No.5,
pp.781-786, May 1966
[7] L. Cohen, "Time Frequency Distributions - A Review", Proc. of the IEEE, Vol.77, No.7, July
1989
[8] J. Bertrand P. Bertrand, "Affine Time-Frequency Distributions" in "Time Frequency Signal
Analysis. Methods and Applications", Editor B. Boashash, Longman Cheshire, 1991
[9] O. Rioul and P. Flandrin, "Time-Scale Energy Distributions : A General Class Extending
Wavelet Transform", IEEE Trans. on Signal Proc., Vol. SP-40, No.7, pp. 1746-1757, 1992
[10] P. Bertrand, "Représentation des Signaux dans le Plan Temps-Fréquence", La Recherche Aéro-
spatiale, No.1 (Janv.-Fév.), pp.1-12, 1983
[11] E.P. Wigner, "Perspectives in Quantum Theory", W. Yourgrau and A. Van der Merwe (Eds),
Dover, New York, 1979
[12] J.G. Krüger A. Poffyn, "Quantum Mechanics in Phase Space. I- Unicity of the Wigner Dis-
tribution Function", Physica 85A, pp.84-100, 1976
[13] P. Flandrin, "Représentation des Signaux dans le Plan Temps-Fréquence", Thèse D. Ing. INPG,
Grenoble 1982
[14] P. Flandrin, "Représentations Temps-Fréquence des Signaux Non Stationnaires", Thèse Etat
INPG, Grenoble 1987
[15] L. Cohen, "Introduction to Time Frequency Distributions" in "Time-Frequency Signal Analysis.
Methods and Applications", Editor B. Boashash, Longman Cheshire, 1991,
[16] J. Bertrand P. Bertrand, "Représentation des Signaux à Large Bande", La Recherche Aéro-
spatiale, No.5, pp.277-283, Sept.-Oct. 1985
[17] D. Ludwig, "The Radon Transform on Euclidean Space", Communication On Pure and Applied
Mathematics, Vol.XIX, pp.49-81, 1966
[18] F. Auger, "Représentations Temps-Fréquence des Signaux Non-Stationnaires : Synthèse et
Contribution", Thèse de Doctorat, Ecole Centrale de Nantes, 4 décembre 1991

58
[19] T.A. Claasen W.F. Mecklenbraüker, "The Wigner Distribution- A Tool for Time Frequency
Signal Analysis", Part I-II-III, Philips J. Res., Vol.35, No.3-4-5-6, 1980
[20] P. Gonçalvès et R. Baraniuk, "Pseudo Affine Wigner Distributions and Kernel Formulation",
IEEE Trans.SP, April 1996
[21] R.G. Baraniuk D.L. Jones, "A Signal-Dependant Time-Frequency Representations : Fast Algo-
rithm for Optimal Kernel Design", IEEE Trans. on Signal Processing, Vol.42, pp.134-146, january
1994
[22] R.G. Baraniuk, "Optimal Phase Kernel for Time-Frequency Analysis", submitted to IEEE
Trans. on Signal Processing, january 1996
[23] F. Auger P. Flandrin, "Improving the Readability of Time-Frequency and Time-Scale Repre-
sentations Using the Reassigment Method", IEEE Trans. on Signal Processing, Vol. 43, No .5, May
1995
[24] J. Bertrand P. Bertrand and J.P. Ovarlez, "The Mellin transform", in : The Transforms
and Applications Handbook, ed. A. D. Poularikas, CRC Press Inc., 1995, chapter 12
[25] J.P. Ovarlez, La Transformation de Mellin : un Outil pour l’Analyse des Signaux à Large-Bande,
Thesis University Paris 6, Paris, April 1992.
[26] P. Flandrin, Temps-Fréquence, Ed. Hermès, 1993
[27] F. Hlawatsch, G.F. Boudreaux-Bartels, Linear and Quadratic Time-Frequency Representa-
tions, IEEE Signal Proc. Magazine, pp.21-67, 1992

59

Vous aimerez peut-être aussi