Vous êtes sur la page 1sur 279

lllustr"tion de couverture: Stéphane Degei/h

Ce pictogramme mérite une explication. établissements d'enseignement supérieur,


Son objet est d'olsrfer le lecteur sur provoquant une baisse brutale des achats
la menace que représente pour l'avenir de livres et de revues, ou point que la

pement massif du photo•


copillage.
®
de l'écrit, particulièrement dans r----,---,-, possibilitè même pour les auteurs
le domaine de l'édition tech- DANGER de créer des œuvres nouvelles et
nique et universitaire, le dêvelop- de les foire éditer correctement
est aujourd'hui menacêe.
Nous rappelons donc que
le Code de la propriété toute reproduction, partielle ou
intellectuelle du 1cr juillet 1992 %~ totale, de la présente publication
interdit en effet expressément la est interdite sons autorisation du
photocopie à usage collectif Centre français d'exploitation du
sons autorisation des ayants droit. Or, droit de copie !CFC, 20 rue des Grands-
cette pratique s'est gênêrolisêe dans les Augustins, 75006 Paris).

© Dunod, Paris, 2004


ISBN 2 10 005985 8
Toute représentation ou reproduction intégmle ou partielle faite sans le
consentement de l'auteur ou de ses ayants droit ou ayants cause est illicite
selon le Code de la propriété intellectuelle (Art L 122-4) ct constitue une
contrefaçon réprimée par le Code pénal. • Seules sont autorisées (Art L 122-5)
les copies ou reproductions strictement réservées à l'usage privé du copiste ct
non destinées à une utilisation collective, ainsi que les analyses ct courtes
citations justifiées par le caractère critique, pédagogique ou d'infonnation de
l'œuvre à laquelle elles sont incorporées, sous réserve, toutefois, du respect des
dispositions des articles L 122-10 à L 122-12 du même Code, relatives à la
reproduction par reprographie.
Table des matières

CHAPITRE 1 • MÉTHODES RÉCURSIVES ET ADAPTATIVES POUR LE FILTRAGE OPTIMAL

1.1 Filtrage optimal et estimation linéaire 2


1.1.1 Filtrage adapté 2
1.1.2 Filtrage de Wiener 6
1.1.3 Estimation linéaire et équations normales 8
1.2 l'algorithme de levinson et ses applications 12
1.2.1 Matrice de Toeplitz et algorithme de Levinson 12
1.2.2 Applications de l'algorithme de Levinson 15
1.2.3 Représentation en treillis d'un filtre polynomial 18
1.2.4 Existence de la représentation en treiUis et stabilité 21
1.3 Algorithmes récursifs sur la variable temps 27
1.3.1 Algorithme des moindres carrés récursives 28
1.3.2 Algorithme du gradient stochastique 35
1.3.3 Détermination du filtre de Wiener à horizon fini 40
1.3.4 Détermination du filtre de Kalman 44
EXERCICES ET PROBLÈMES CORRIGÉS 51

CHAPITRE 2 • MÉTHODES D'ANALYSE SPECTRALE 61

2.1 Méthodes fondées sur le modèle d'une somme de p fréquences 62


2.1.1 Pisarenko : Matrice de corrélation de rang = p + 1 64
2.1.2 MUSIC : Matrice de corrélation de rang > p + 1 66
2.1.3 Prony : Somme de fréquences amorties 68
2.2 Méthodes fondées sur le modèle ARMA(p, q) 69
2.2.1 Modèle aulorégressîf d'ordre p : AR(p) 69
2.2.2 Modèle de la moyenne ajustée d'ordre q: MA(q) 72
2.2.3 Modèle ARMA(p, q) 73

2.3 Méthodes sans modèle pour le signal 74


2.3.1 Méthode du périodogramme 74
2.3.2 Méthode du maximum d'entropie 77
2.3.3 Méthode de la variance mînimale (Capon) 79
EXERCICES ET PROBLÈMES CORRIGÉS 81
VI Table des matières

CHAPITRE 3 • MÉTHODES D'ANALYSE TEMPS-FRÉQUENCE 91


3.1 Transformée de Fourier de courte durée (STFT) 95
3.1.1 Principales propriétés de la STFT, Spectrogramme 95
3.1.2 Localisation t-f associée à la STFf 98
3.2 Distribution de Wigner-Ville et extensions 102
3.2.1 Distribution de Wigner-Ville 103
3.2.2 Distributions de Wigner-Ville lissées 108
3.2.3 Application aux signaux chirp 113
3.3 Distributions d'ordres élevés 117
3.3.1 Signaux à phase polynomiales (SPP) 121
3.3.2 Noyaux adaptés à la représentation d'un SPP 123
3.3.3 Fonction ambiguïté généralisée 126
3.3.4 Distribution de Wigner-Ville généralisée 128
· ·3:3:5 Extensions -aux- ens- des--signaux-· multicornposantes- 131
3.3.6 Estimation de la phase d'un SPP à amplitude constante 133
3.3.7 Estimation de la phase d'un SPP à amplitude aléatoire 139
3.3.8 Estimation de la phase d'un SPP à amplitude variable 152
EXERCICES ET PROBLÈMES CORRIGÉS 156

CHAPITRE 4 • MÉTHODES D'ANALYSE TEMPS-ÉCHELLE 167


4.1 Transformée en ondelettes (TO) 168
4.1.1 Principales propriétés de la TO, Scalogramme 169
4.1.2 Localisation t-f associée à la TO 169
4.2 Décomposition d'un signal sur une trame 172
4.2.1 Notion de trame et opérateur associé 172
4.2.2 Trames obtenues en discrétisant la STFT et la TO 175
4.3 Décomposition sur des bases et des paquets d'ondelettes 177
4.3.1 Décompositions classiques de signaux particuliers 177
4.3.2 Analyse multirésolution de L'(lR) 182
4.3.3 Construction d'une fonction échelle à support compact 186
4.3.4 Construction d'une base orthonormale d'ondelettes 188
4.3.5 Décomposition et reconstruction : codage d'un signal 192
4.3.6 Décomposition sur des paquets d'ondelettes 197
4.3.7 Paquets construits à partir d'un filtre RIF 199
4.3.8 Paquets construits à partir d'un filtre Rll 201
4.3.9 Systèmes d'ondelettes redondantes 203
EXERCICES ET PROBLÈMES CORRIGÉS 204
Table des matières VIl

CHAPITRE 5 • MÉTHODES D'ANALYSE POLYSPECTRALE ET APPLICATIONS 213


5.1 Statistiques d'ordres élevés et polyspectres 213
5.1.1 Moments et cumulants d'une variable aléatoire réelle 214
5.1.2 Extensions au cas d'une variable complexe 217
5.1.3 Fonctions moments et cumulants associées à un signal 223
5.1.4 Notions de distribution polyspectrale d'un signal 224
5.1.5 Polyspectres d'un signal stationnaire 226
5.1.6 Estimation d'un bispectre 231
5.1.7 Modélisations d'un polyspectre et blanchiment 233
5.2 Applications au filtrage et à l'identification 240
5.2.1 Filtrage et transformations d'un bruit blanc 240
5.2.2 Identification d'un filtre linéaire ou quadratique 243
5.3 Application à la séparation de sources 245
5.3 .1 Méthodes fondées sur le blanchiment des données 246
5.3.2 Méthodes fondées sur le modèle d'état 249
5.3.3 Méthodes Bayesiennes 250
5.3.4 Exemples d'algorithmes de séparation 253
EXERCICES ET PROBLÈMES CORRIGÉS 260

BIBLIOGRAPHIE 265
INDEX 273
Table des figures

1.1 Algari thme de Levinson dans le cas réel 14


1.2 Représentation en treillis d'un polynôme 18
1.3 Domaine de stabilité dans IR~ 26
1.4 Domaine de stabilité dans IR~ 26

2.1 MUSIC : matrice d'ordre 7 et 3 fréquences bruitées 67


2.2 MUSIC : matrice d'ordre 7 et 2 fréquences 67
2.3 MUSIC: matrice d'ordre 7 et 1 fréquence bruitée 68
2.4 Signal, DSP, périodogramme, périodogramrne moyenné 75

3.1 Juxtaposition de 2 cosinus et somme de ces 2 cosinus 92


3.2 Signal chirp et son spectre 94
3.3 Somme de deux chirps croisés 97
3.4 Localisation de llz,,v(t)l 2 et pavage du plan temps-fréquence 99
3.5 Spectrogramme avec des fenêtres de durées différentes 100
3.6 Spectrogramme avec des fenêtres de durées différentes 100
3.7 Succession de deux sinus, trois fenêtres, deux durées différentes 101
3.8 Modèle spectral de la voyelle /a/ : 2 fenêtres 101
3.9 Contenu spectral de la voyelle /al ; deux fenêtres 102
3.!0 T.F, W. V et ses coupes par les plans t = to et v = Vo 105
3.11 T.F, W. V et ses coupes par les plans t = to et v= l/o !05
3.12 Somme de trois sinus 114
3.13 Somme de deux chirps 115
3.14 Somme de deux chirps croisés l15
3.15 Somme de 3 chirps 116
3.16 Somme de 2 gaussiennes, d'un chirp et d'une sinusoïde 117
3.17 Distributions d'un signal à phase cubique 118
3.18 Somme de 2 chirps et d'un signal à phase cubique 118
3.19 Plan vertical passant par le radar et la cible 120
3.20 Estimation de a3, a1, a1,: (b) donne â3, (c) donne â2, (d) donne ât 127
3.21 SPP de phase: qJ(t) = k1t 5 130
3.22 SPP de phase: q1(t) = 0.11 + k1t 5 130
3.23 SPP de phase : </J(t) = 0.1 t + k 3t 6 131
3.24 Variances et estimateurs de a3, a2, a1, ao 136
3.25 Densité de probabilité 152
x Table des figures

4.1 Localisation de l·t/Ja.b (t) 12 et pavage du plan temps-fréquence 170


4.2 Décomposition : passage de Vj+ 1 à Vj et Wj 194
4.3 Reconstitution: passage de Vj et Wj à Vj+l 195
4.4 Décompositions et reconstitutions d'un signal 196
4.5 Décompositions et reconstitutions d'une image 197
4.6 Décompositions et reconstitutions d'un signal 197

5.1 Mélange bruité x et séparation en deux étapes donnant z 247


Chapitre 1

Méthodes récursives et adaptatives


pour le filtrage optimal

Nous allons exposer brièvement le filtrage adapté et le tïltrage optimal au sens de


Wiener. Nous présentons ensuite quelques résultats théoriques sur l'espérance
conditionnelle qui serviront de critères pour définir l'estimation d'un signal et l'op-
timalité d'un filtre. L'estimation linéaire et la détermination de filtres optimaux se
ramènent souvent à la résolution de systèmes linéaires faisant intervenir la matrice
de corrélation du signal observé. Lorsque ce signal est stationnaire, la matrice de
corrélation possède une structure dite de Toeplitz et la résolution des systèmes peut
se faire à l'aide de l'algorithme célèbre de Levinson qui sera présenté dans la suite.
Mais dans les problèmes pratiques, on ne dispose que de la matrice de corrélation
estimée qui n'est pas forcément de Toeplitz et les techniques classiques fondées sur
l'inversion de la matrice sont complexes et coûteuses en temps de calcul. De plus,
quand le signal traité est non-stationnaire, comme c'est le cas des signaux de parole
par exemple, la solution cherchée évolue dans le temps. Une adaptation de cette
solution qui tient compte des variations du signal est nécessaire. Il existe des algo-
rithmes, dits adaptatifs, qui prennent en compte, à chaque instant. la nouvelle infor-
mation et qui permettent ainsi d'éviter les obstacles mentionneés ci-dessus. Ces
algorithmes seront exposés brièvement dans la suite et pour plus de détails, on
pourra consulter les références suivantes: [3] [8] [78] [79] [90] [1081 [126].
2 1 • Méthodes récursives et adaptatives pour le filtrage optimal

1.1 FILTRAGE OPTIMAL ET ESTIMATION LINÉAIRE

1.1. 1 Filtrage adapté

Soit un signal déterministe s(t) de durée T mélangé à un bruit b(t) aléatoire sta-
tionnaire au sens large. Le problème que l'on se propose de résoudre est de déter-
miner à l'aide d'un filtre linéaire dit optimal ou adapté. à quel moment apparaît le
signal s(t). La notion d'optimalité est relative à un critère à choisir en fonction du
problème traité. Le filtre ainsi défini permet, par exemple, de détecter un signal
déterministe noyé dans un bruit additif. Nous présentons ci-dessous le filtre adapté
qui est en fait une approximation du filtre optimal et qui a l'avantage d'être simple
à utiliser.

Afin de simplifier les calculs, on supposera que le signal apparaît à l'instant t = 0.


Il est donc présent sur1'intervalle [0, T], la borne T désignant l'instant où le signal
a été détecté par le filtre. Ceci n'est pas une restriction dans la mesure où le bruit est
supposé stationnaire. À l'instant T la sortie Ys(T), signal détemüniste associé à l'en-
trée s (t), est donnée par :

y.(T) = J:oo H(v)S(u)ej 2rr"T dv.

Si l'on appelle rb et f.v 1, les DSP de b(t) et Yb(t), la formule des interférences donne

fy,(u) =1 H(l/) 12 rb(v).

D'où
+co
ly"(O) =
l -oo 1 H(u)
2
1 fb(v)dv.
1.1 Filtrage optimal et estimation linéaire 3

Le SNR défini par (1. 1) s'exprime donc sous la forme:

1 r+oo H(v)S(v)ej"ITUT dv 1" 1< A(u),B(u) >1 2


p( T) = • -oo = ---,-:--,----:--;-:--
J~::: 1H(v) 1" rb(v)dv < A(v),A(u) >

où on a posé:

~ 1/2 ~ S(v)*
A(v) = H(v)rb (v) et B(11) = , . •
rb11 -(v)eJ2rruT
Comme Je SNR reste inchangé si l'on multiplie H par une constante, la solution H
qui maximise Je rapport p(T) est égale à celle qui maximise ce même rapport sous
la contrainte< B,B >=ete. Si l'on appelle PmaxCT) la valeur maximale du SNR,
l'inégalité de Schwarz permet d'obtenir la fonction Ha qui définit le filtre cherché.
Cette fonction s'obtient en écrivant que A et B sont proportionnelles. D'où :
_ , S(v)* ,-j2rruT
H tl ( v ) - .1\ t . ( 1.2)
r"cvJ
Considérons le cas particulier important où b(t) est un bruit blanc de densité spec-
trale rb(v) =al. Ce bruit correspond à un cas idéal, car un tel bruit aurait une puis-
sance infinie. Sous cette hypothèse, le filtre étant déterminé à une constante près, sa
réponse impulsionnelle peut être définie par :

lza(t) = s*(T- t). ( 1.3)

Le filtre adapté au signal s(l) a donc pour réponse impulsionnelle le signal s(l)
retourné et décalé de T dans Je temps. Ce décalage signifie qu'il faut attendre pen-
dant une durée T après l'apparition du signal avant de le détecter. L'opération de fil-
trage étant indépendante de l'origine des temps, si l'on suppose que le signal appa-
raît à l'instant 10 la sortie du liltre adapté donnerait un signal maximal à J'instant
to + T. Le tiltrage adapté à un signal s(l) revient à faire passer ce dernier dans un
filtre de réponse impulsionnelle s( -1). La longueur de la réponse du filtre adapté
est donc égale à la durée du signal qui lui est associé. Le SNR qui correspond au
filtre adapté est donné par :

1< A(v),A(v) >1 2


p(T) = =< A(v),A(v) >. (1.4)
< A(v),A(v) >

Le filtre adapté est indépendant de l'amplitude du signal associé.


Le filtre adapté représente Je filtre optimal uniquement sous l'hypothèse de bruit
blanc.
4 1 • Méthodes récursives et adaptatives pour le filtrage optimal

Théoriquement faire un filtrage adapté revient à faire une corrélation. Mais dans
la pratique, le problème réside dans le choix de la durée T du signal et de la durée
d'intégration (longueur de la réponse impulsionnelle du tïltre).
Si s(l) est à support [-r,r], le filtre adapté n'est pas causal mais s(l- T) est
causal si T > r. Le retard T permet de rendre le tïltre causal dans le cas d'un signal
à support fini. Si s(l) n'est pas à support fini, i.e, T = oo, seulement une approxi-
mation du filtre adapté sera réalisée et le choix de T fera l'objet d'un compromis
entre avoir une bonne approximation et avoir à considérer un retard assez court.
Si le bruit est coloré, on introduit un filtrage préalable pour le blanchir et l'on se
ramène au cas d'un bruit blanc. Il suffit de prendre un filtre dont la réponse en fré-
quence est définie par H(v) = 1/ y'fb.

Exemple 1. 1. 2 Filtre adapté à 1111 signal sinusoïdal


Pour-un signlll s1nuso\'dais(i);;;;expé]2.;;:;;c;i-+7<Pl. on a··sc;;y·;;;··ei <P 6cv - vol et
le tïltre adapté est donné par :
e- J2m'T- JrP 6(v- vo)
Ha (v) = À-----,-----,-'----'"-
r,(v)
Si le bruit est blanc, un choix de la constante arbitraire À montre que la réponse en
fréquence du filtre adapté est simplement un Dirac. Ce filtre est donc à bande très
étroite et la nature du bruit n'a aucune influence sur la forme du filtre adapté. La
réponse impulsionnelle du filtre adapté à un signal s(t) = exp(j27f//ol + jr/J) est
donc, à une constante près :
ha Ct)= exp(j2r.vol).

Exemple 1.1.3 Détermination d'une fréquence par .filtrage adapté


Considérons une raie spectrale bruitée définie par

x(t) = Aei<2"fo'+rPI + b(t)


où Jo désigne une fréquence réelle déterministe, A une amplitude déterministe posi-
tive, r/J une phase à l'origine et b(t) un bruit blanc complexe de composantes cen-
trées indépendantes, de même variance rr 2 La fonction d'autocorrélation de x(t) et
sa densité spectrale sont données par :
1
-(,(T) = A-e.l-". + 2rr-J(T).
1 ., ,.07 '1
fx(V) = A-6(1/- .f(J) + 2rr-.
Î "

D'après l'exemple 1.1.2, la réponse impulsionnelle du filtre adapté est


h(r) = ei 2""' 7 • Si l'on connaît.f0, ce filtre est complètement déterminé. Si l'on doit
au contraire déterminer fo sachant que.fo E Lh, .t;naxl, on introduit un banc de til tres
adaptés aux fréquences v 1, ••• , V max. L'analyse des spectres à la sortie de ces filtres
1.1 Filtrage optimal et estimation linéaire 5

permet de trouver Jo. En effet, chaque filtre à pour réponse impulsionnelle et


réponse en fréquences :

lzk(t) = ejhv,r et Hk(v) = Tsinc[rrT(v- vk)].


La sortie associée au signal x(t) = eP7rfot est y,(t) = H(fo)x(t). La puissance de
la sortie associée à un bruit blanc b(t) de DSP r? est

Comme b(t) est centré, la puissance de la sortie, y(t)), associée au signal


s(t) + b(t) est:

Ce résultat montre que la fréquence cherchée Jo peut être estimée par la valeur du
vk qui définit le filtre dont la puissance de sortie est la plus grande.

Exemple 1.1.4 Comparaison entre filtre adapté et TFD


On considère le signal à temps discret défini par :

x, = ejZn(~,+'Pl + b, avec rf;, =nf N, n E Z

où <p est une phase à l'origine uniformément distribuées sur [0, 1] et b, un bruit
blanc complexe centré de variance zr? indépendant de <p. On peut supposer <p
déterministe et obtenir ·le même filtre adapté que dans le cas y:> aléatoire.
Le rapport signal sur bruit est donné par :
E(lejh(~,+'Pl 12) 1
RSBI = E(lb, 12) 2u2.

L'expression de la TFD d'une réalisation particulière du signal est :


N
2
L n e- jhk~, -- ej "'PA k
X k- - "\"'x + Bk
k~O

N
"\"' -j2rrj\;(l-k) _ N<
A k.è.
- Le - uk-J,
k~O

Le rapport signal sur bruit, à l'instant k = 1, associé au signal ainsi transformé est
donné par:
6 1 • Méthodes recursives et adaptatives pour le filtrage optimal

E(lej2rr10 Akl 2) N2 N
RSB2= =-- 2
=-
E(IBnl2) 2Nu 2u2
et on voit que cette opération permet d'améliorer ce rapport En fait, cette méthode
consiste à pondérer chaque échantillon x" de façon à obtenir un signal résultant
formé par l'addition de vecteurs tous colinéaires. Elle maximise ainsi la norme de la
partie signal dans le signal résultant Par ailleurs, d'après l'exemple L 1.2, l'expres-
sion de la réponse impulsionnelle du filtre adapté à un signal sinusoïdal montre que
l'application de la TFD revient à faire un filtrage adapté.
La méthode ci-dessus qui permet d'améliorer le rapport signal sur bruit peut être
généralisée au cas de fonctions rf>n non linéaires par rapport à n. À titre d'exemple,
pour rf>" = n 2 / N, la méthode consistera à calculer, comme dans le cas linéaire, le
signal :

X k--"x e-j2mp"k- ej2mpc + B


N
~ Il - k k·
k=O

Lorsque 1'instant d'arrivée du signal s(t) est inconnu, une formulation du problème
consiste à introduire le signal aléatoire: xw(t) = s(t + Tw) + b(t) où Tw désigne
une variable aléatoire. Si Tw est une variable aléatoire uniformément distribuée sur
un intervalle donné, le signal s(t + rw) est stationnaire. On est alors ramené au for-
malisme précédent à la seule différence que le signal de sortie désiré est y(t + rw).

1.1.2 Filtrage de Wiener

Le filtrage optimal au ~ens de Wiener a été conçu pour séparer deux signaux aléa-
toires supposés ergodiques centrés et stationnaires au sens large. On est souvent
conduit à résoudre le problème suivant: déterminer un filtre linéaire h(t) tel que sa
sortie y(t) = h(t) * x(t) approche<< au mieux>> un signal de référence z(t) au sens
du critère de l'écart quadratique moyen minimal, i.e., on doit déterminer le filtre
h(t) qui minimise la fonctionnelle :

1 ~ E[l y(t) - z(t) 12 ].

On développe l'expression de 1 en faisant apparaître les fonctions de corrélation


pour obtenir
1 = !y(O) +!JO)- 2 Re byJO)].

Utilisant la formule des interférences, on obtient :

1 = [h(t) * h(-t)* * lx(t)](O) + /,(0)- 2 Re [(h(t) * lx,(t))(O)].


1.1 Filtrage optimal et estimation linéaire 7

qui s'écrit dans le domaine fréquentiel sous la forme équivalente :

J = i: 1 H(v)
2
1 rx(v)dv + i: r~(v)dv- 2 Re i: H(vJr.dv)dv.

La minimisation de J par rapport à H conduit aux deux relations équivalentes sui-


vantes dénommées équation de Wiener-Hoppf:

ix(t) * h(t) = lx:(t) et rx(v)H(v) = r.dt/) (1.5)

qui permettent de déterminer respectivement la réponse impulsionnelle et la réponse


en fréquence du filtre de Wiener.
En général, le signal z(t) = s(t) est un signal utile et x(t) est un mélange du
signal s(t) et d'un bruit parasite b(t) :
x(t) = s(t) + b(t).
Sous l'hypothèse où s(t) et b(t) sont non corrélés, la solution de l'équation de
Wiener est donnée par :

H(v) = r,(v)
r,(v) + rb(v)

L'expression de H montre que le filtre ainsi construit est paire et ne peut donc pas
être causal.

Exemple 1.1.5 Fifre défini par une corrélation exponentielle


Déterminer le filtre de Wiener associé à /_,(1) = e-aiti et lb(t) = e-PI<I. On suppose
les deux signaux indépendants.

Exemple 1.1.6 Exemple de prédicteur optimal MA


~
;;; Soit le signal aléatoire
~

où A désigne une variable aléatoire centrée de variance <7; et vo E [ -1/2, 1/2] une
fréquence déterministe. On se propose de déterminer, par filtrage optimal, la fré-
quence inconnue vo à partir du signal bruité :
0

·~
B
0

} où b,. désigne un bruit blanc indépendant des,., centré et de variance <7~. La fonc-
tion de corrélation et la DSP de x,. sont données par

rx (v) = ~/i(v- Vo) +~


8 1 • Méthodes récursives et adaptatives pour le filtrage optimal

On considère le filtre prédicteur dont l'entrée est x, et la sortie :


p
Yn = Xn - L a;Xn-i
i=l

où les a1 sont des nombres réels à déterminer de façon à minimiser l'erreur quadra-
tique moyenne :
1/2 .
n=
1
') ') ')
1 = E(Jy, /y(O) = IH(e 12"")J-[i'o(v- vo) + <Tb]dv
-1/2

où H (z) désigne la fonction de transfert du filtre donnée par :


p
···························~··········=;·······

H(z)=l- L,a;z .
Î=i

Utilisant l'égalité de Parseval, on peut exprimer 1 sous la forme :

qui est une fonction linéaire-quadratique des parmètres a1• Les a 1 pour lesquels 1
atteint son minimum sont solution du système obtenu en annulant les dérivées de 1
par rapport à chaque a1. La solution de ce système définit la fonction de transfert du
filtre optimal. Dans le cas où le signal est formé par la somme de q fréquences
noyées dans un bruit, la méthode reste valable et la longueur p du filtre doit vérifier
p > q.

1.1.3 Estimation linéaire et équations normales

Commençons par rappeler quelques propriétés de l'espérance conditionnelle.


Introduisons sur l'ensemble des variables aléatoires (V.A) réelles ou complexes,
définies sur le même espace probabilisé (Q,T,P), la relation d'équivalence
X fd Y ssi X= Y sauf sur un ensemble de probabilité nulle et appelons L(P)
l'ensemble de toutes les classes d'équivalence ainsi définies. Cet espace sera muni
du produit scalaire

<X, Y>~ E[XY)

où E désigne l'espérance mathématique et de la norme définie par


1.1 Filtrage optimal et estimation linéaire 9

On a bien une norme sur L ( P) puisque

E(IX1 2 ) = 0 ~=> X!';;_ 0 <=> X= 0 sur L(P).

Les éléments de L(P) seront appelés V.A. et le sous-espace de L(P) engendré par
les V.A de norme finie est un espace de Hilbert que nous désignons par L 2 (P).
L'écart type et la covariance coïncident avec la norme et le produit scalaire pour les
V.A centrées. Deux V.A X et Y sont dites non corrélées si elles vérifient la propriété
suivante :

Cov(X,Y) = E[X E(X)](Y- E(Y)] =O.

Donc la non corrélation équivaut à l'orthogonalité pour les V.A centrées.

Exemple 1.1. 7 Projection sur la somme d'espace orthogonaux


Soient;\:' et Y deux sous espaces vectoriels deL 2 (P) orthogonaux et P,y, Py les pro-
jecteurs orthogonaux sur X et Y respectivement. Alors, on peut vérifier que le pro-
jecteur sur l'espace vectoriel X + Y est donné par :
Pxu = P,y + Py.
10 1 • Méthodes récursives et adaptatives pour le filtrage optimal

Comme le calcul de E(YJX 1 , ••• ,Xk) nécessite la connaissance de la loi


conjointe de Y,X 1 , ••• ,Xb on se limite souvent à chercher l'estimation linéaire, Y
de Y. Cette estimation n'est pas égale à l'espérance E(YJXJ, ... ,Xk), elle est donc
sous-optimale mais elle est très utilisée dans les problèmes pratiques. Dans le cas,
important dans la pratique, où l'on considère des V.A gaussiennes, on a les résultats
suivants.

Nous allons considérer dans la suite le problème de l'estimation linéaire en


moyenne quadratique, notée Xm+l• d'une V.A Xm+l en fonction de nz autres
X 1 , ... ,X,. Les m + 1 V.A appartiennent à un même espace probabilisé L 2 (P). On
sait que Xm+l est la projection orthogonale de Xm+l sur l'espace de Hilbert engen-
dré par les combinaisons linéaires des X k. k = 1, ... ,m. On pose
.-..m+l
X mx m + . • • + am"'X 1 =,
!;,.
=al T
amxm
1.1 Filtrage optimal et estimation linéaire 11

et on se propose de déterminer les coefficients d'estimation a;" et l'erreur quadra-


tique moyenne définie par :

- ' =< Xm+J,Xm+I- Xm+I >.


Xm+II-] -
Exprimant Œm en fonction de am et écrivant que chaque Xk est orthogonal à
Xm+l - Xm+I, on obtient:

E[Xj[Xm+i,Xm, ... ,Xil[_


1
am
]l =0, j = l, ... ,m.

On voit que l'équation relative à Œm est du même type que les suivantes et on obtient
m + 1 équations linéaires qui se mettent sous la forme suivante dénommée équa-
tion normale généralisée ou équation de Wiener-Hoppf ou encore équation de Yule-
Walker:

R m+l [ -am
1 J= [Œm
0 J (1.10)

avec (1.11)

Ce système contient 111 + 1 équations linéaires, m + 1 indetenninées el il fait inter-


venir une matrice définie non négative et un réel a~ O. Un tel système admet tou-
jours une solution (cf. exercice 1.4).
Les deux cas suivants jouent un rôle important dans le traitement des signaux sta-
tionnaires.
1) Les composantes de Xm+l sont des échantillons équidistants d'un signal station-
naire. Dans ce cas, la matrice Rm+l a une structure de Toeplitz. Ce cas correspond
à l'estimation du signal à l'instant tm+ 1 en fonction des échantillons de ce même
signal aux instants tm, ... , t 1 , avec T, + 1 = T; + T pour i = m, .. . , 1. L'estimation
ainsi obtenue est appelée prédiction à un pas du signal en fonction d'un passé m.
2) Les composantes de Xm sont des échantillons équidistants d'un signal stationnaire
et Xm+ 1 = Y est une grandeur que1conque à es limer. Dans ce cas, la matrice R111 est
toujours de Toeplitz mais Rm+ 1 n'a aucune raison d'être de Toplitz. Alors, les m der-
nières équations du système (1.10) sont équivalentes au système suivant:
12 1 • Méthodes récursives et adaptatives pour le filtrage optimal

(1.12)

qui permet de calculer am et la première équation de (1.10) conduit aux deux


expressions équivalentes suivantes qui permettent de calculer l'erreur d'estimation :

0: 111 2
=am+!- HRmC111 =
3 111 UJ-
7
3 H Cm, 2 ~ E(l X m+l 12) .
am+!=
111

La résolution des systèmes (1.10) et (1.12) se fait à l'aide de l'algorithme de


Levinson qui sera développé dans la suite.

Exemple 1.1.11 Filtre prédicteur d'ordre 1


Soit le signal aléatoire à temps discret :

où A désigne une variable aléatoire centrée de variance ~. va E [ -1/2, 1/2] une


fréquence déterministe et b, un bruit blanc indépendant de A, centré et de variance
a~ = E[b,b~]. La fonction de coqélation de x, est donnée par 1, = E[xkxz_,]
= a1 2
e- 1 'wnn + aj;611 • On considère le filtre linéaire dont l'entrée est x 11 et la sortie
y =
11 X11 - ax11 _1 où a est un nombre complexe à déterminer de façon à minimiser

l'erreur quadratique moyenne J = E(ly, 12 ]). On sait que ce minimum s'obtient en


écrivant que ax,_l est égal à la projection orthogonale de x, sur x,_ 1. D'où
aopt = "!il"'o·

1.2 L'ALGORITHME DE LEVINSON ET SES APPLICATIONS

1.2.1 Matrice de Toeplitz et algorithme de Levinson

Considérons un système d'ordre 11 du type (1.10) faisant intervenir une matrice de


Toeplitz définie positive. La solution a, d'un tel système peut se déterminer de
manière récursive sur l'ordre 11. En effet, on va établir une récurrence entre les solu-
tions a 111 et am+ 1 des sous-systèmes associés aux matrices R 111 et Rm+ 1· L'algorithme
récursif ainsi obtenu est appelé algorithme de Levinson. Une matriceR,, de dimen-
sion 11, a la structure de Toeplitz si tous les éléments situés sur une même diagonale
(direction de la diagonale principale) sont égaux, i.e. :
ri,J = '1-J pour 0 ~ i,j:::;; n

On peut vérifier que cette propriété est équivalente à la suivante :


T
JRmJ = Rm, pour Ill= 1, ... ,Il (1.13)
1.2 L'algorithme de Levinson et ses applications 13

où J est la matrice carrée de dimension m ayant des 1 sur la diagonale secondaire


et des zéros ailleurs. Pour établir ce résultat, il suffit de remarquer que la matrice
JMJ s'obtient en faisant une symétrie par rapport au centre de la matrice M. À titre
d'exemple, on obtient pour une matrice M de dimension 3 :

J(: ~ ~)J=(:: =)·


a3 b3 CJ Cj b1 Q)

Si l'on appelle ri.j les éléments de R,, la relation (1.13) équivaut à

lm+l-i,m+l-j = lj,i• v m,i,j ~ n.


Choisissant convenablement des valeurs pour les entiers m,i,j, on établit que
chaque diagonale est formée par le même élément. La réciproque est évidente.
On considère un système faisant intervenir une matrice de Toeplitz définie posi-
tive et donc hermitienne, i.e., vérifiant R7,, = R~. Remplaçons le système ( 1.1 0) par
le système équivalent suivant :

Rm+2 1 ] = [ 0
-am O:m] (1.14)
[
0 /3m

(1.15)

Si l'on multiplie à gauche les deux membres du système (1.14) par J et l'on intro-
duit J2 = 1 entre le facteur Rm+2 et le suivant, le système reste équivalent à celui de
départ. Tenant compte de (1.13) et de l'hypothèse Rm = R~, le système ainsi obtenu
s'écrit sous la forme équivalente suivante :

Rm+2
[
-.Tâm
0 ] = [73"'
0 ] · (1.16)
1 a,
Combinant (1.14) et (1.16), on voit que s'il est possible de choisir un scalaire km+!
~
Î de sorte que
'' O:m] _ [73"'] _ [O:m+l] (1.17)
~j [ /3m0 km+l Œ0 - 00 111
5
~ alors le vecteur défini par

(1.18)
14 1 • Méthodes récursives et adaptatives pour le filtrage optimal

est solution du système d'ordre m +2 suivant

R m+2 [ 1 ] _ [
-am+I -
Œm+l
0 J· (1.19)

Le coefficient km+ h appelé coefficient de réflexion, existe si, et seulement si,


Œm =f O. Sous cette hypothèse, les relations (1.17) et (1.18) conduisent à l'algo-
rithme suivant.

Algorithme de Levinson Conditions initiales: ao = 1, (30 = I"J, a}= r1 . On cal-


cule, pour m = 1,2, ... :

3m+l = [ am
O J- km+l [Jam
-1 J·
Cet algorithme permet de calculer récursivement, voir la figure 1.1, la solution am+!
à partir de rm, de km+ 1 et de la solution am précédemment calculée. L'algorithme de
Levinson fonctionne tant que l'on ne rencontre pas un coefficient de réflexion kj de
module 1. Les signaux pour lesquels on rencontre cette situation, dite singulière,
sont appelés signaux prédictibles. Pour les extensions de l'algorithme de Levinson
au cas des matrices non hermitiennes et pour plus de détails sur cet algorithme, on
peut se reporter à [8].

rb kl, al
Conditions Pourm = l, ... ,n-1
initiales "'-._

-
k m+l- !3. .
n;-
<--<m

Figure 1.1 Algorithme de Levinson dans le cas réel.


1.2 L'algorithme de Levinson et ses applications 15

Exemple 1.2.1 Équation avec second membre quelconque


La résolution des systèmes du type (1.12) peut se faire en commençant tout d'abord
par déterminer, à l'aide de l'algorithme de Levinson, la matrice inverse sous la forme
(1.23) donnée dans la suite et calculer ensuite la solution par:

a"= L d.tag (0: -1


11 , • • • ,a
-1) LH Cu.
0
(1.20)

Dans certaines applications, on doit résoudre plusieurs systèmes du type (1.12) fai-
sant intervenir la même matrice. Dans ce cas, on peut utiliser ( 1.20) et il existe des
méthodes qui permettent de réduire encore plus le nombre d'opérations nécessaires
pour calculer a,.

Exemple 1.2.2 Calcul rapide des coefficient de réflexion


sTi'on est intéressé seulement par le calcul des coefficient de réflexion, on peut uti-
liser les coefficients d'intercorrélations définis par :

C;,j ""'E(X;Xj).

La même démarche que celle utilisée pour obtenir l'algorithme de Levinson, conduit
à l'algorithme récursif suivant, dénommé algorithme de Lemux-Guegen [77].
_ Cm,m+l
km + I - - - -
Cm,O

Cm+l.} =Cm,)- km+!Cm,m+l-j·

1.2.2 Applications c!e l'algorithme de levinson

Les applications de l'algorithme de Levinson aux matrices de Toeplitz définies non


négatives R sont nombreuses. Il permet, par exemple, de determiner le rang de R,
d'établir si R est définie positive ou non, d'obtenir la factorisation de Cholesky de
l'inverse deR, de déterminer la valeur propre minimale deR etc ...
Ces résultats qui ont des applications en analyse spectrale, seront énoncés de
manière précise dans les exemples suivants.

Exemple 1.2.3 Matrice définie positive et algorithme


Soit R, une matrice de Toeplitz à laquelle on associe les systèmes d'ordre
111 = 1, ... ,11- 1 définis par (1.10). En écrivant que 1 est solution de chacun de ces
systèmes, on obtient :

det(Rm+1l
--:-:':'-'...:.:.. =Π111 , m = 0,1, ... ,11- 1.
det(R,)
16 1 • Méthodes récursives et adaptatives pour le filtrage optimal

On en déduit que

det(R,) > 0, (m = 1, ... ,11) si et seulement si a, > 0, (m = 1, ... ,11) .


On sait que pour une matrice hermitienne cette condition équivaut à dire que la
matrice R, est définie positive. D'après cet algorithme, on voit que la matrice est
définie positive si, et seulement si, l'algorithme permet de calculer Œ!, ... , a, et que
a, > 0 pour l ~ m ~ 11. Cette condition équivaut à dire aussi que les modules des
k, sont strictement inférieurs à 1.

Exemple 1.2.4 Calcul du rang d'une matrice de Toeplitz


Considérons un signal stationnaire, Sk, pour lequel la matrice de corrélation, qui est
une matrice de Toeplitz définie non négative, est de rang p. Soit Rune matrice de
·······Taêj:>1itzde dimërtsionfi=Fl,définie non négative; construite· à partir des coeffi-
cients de corrélation : r0 , r1, ... , r, du signal Sk. On peut établir que les trois pro-
priétés suivantes sont équivalentes.
(1) La matriceR est de rang p.
(2) Le système homogène suivant admet une solution unique ap =f 0 :

Rp+l [-ap1 ] = [0]


0 avec ap à- [ a 1p , ••• ,aPp]T •

(3) Le nombre p est le plus petit entier pour lequel les corrélations vérifient:
p

rk- :L:>.frk-.< = 0, Vk EZ.


s=l

On peut établir alors que les racines du polynôme :


p
Q p (...7) !!o 7P -
....
' \ ' aP 7p-m
~Ill ... (1.21)
m=l

associé à ap sont toutes distinctes, de module 1 et que les n + 1 - p polynômes


construits à partir des vecteurs engendrant le noyau deR sont divisibles par Qp(z).

Exemple 1.2.5 Factorisation d'une matrice inverse


Toute matrice de corrélation R de dimension n + 1 vérifie la relation suivante :
R L = U diag(a,, ... ,ao) (1.22)

où di ag(.) est une matrice diagonale dont les éléments sont les a 1, U est une matrice
triangulaire supérieure dont la diagonale est formée de 1 et
1.2 L'algorithme de Levinson et ses applications 17

1 0 0 0
-a" 0
L,!!,
-an-1 0

est une matrice triangulaire inférieure dont la partie de la colonne j située en des-
sous de la diagonale est donnée par le vecteur au-Hl• j = 1, ... ,11. Le nombre o:,
et le vecteur a, sont solutions du système (1.10) pour m = i, i = 1, ... ,11. Si la
matrice Rest inversible, la factorisation de Choleski de sa matrice inverse est don-
née par:

R -1 = Ld'tag (Œ11-1 , ••• ,a0-I)LH . (1.23)

En effet, partant du nombre O:m et du vecteur am vérifiant le système ( 1.1 0), le déve-
loppement du produit matriciel R L conduit à une matrice qui se met sous la forme
U diag(o:,, ... ,o:0 ). Multipliant à gauche les deux membres de (1.22) par R- 1 et
tenant compte de l'unicité de la factorisation de Choleski, on obtient (1.23).

Exemple 1.2.6 Calcul de la valeur propre minimale


Il existe plusieurs méthodes qui permettent de déterminer la valeur propre minimale
Àmin d'une matrice de Toeplitz définie positive R. On va présenter ici une méthode
fondée sur le principe de dichotomie et sur l'algorithme de Levinson. La matrice
définie par
Ro = R- al
où 1 est la matrice identité est une matrice de Toeplitz. Pour a = À min, Ro admet 0
comme valeur propre minimale et elle est donc singulière. Supposons que l'on dis-
~ pose d'un majorant de ,\min que l'on désigne par a, i.e. Àmin E [O,a]. D'après les
j résultats de l'exemple 1.2.3, le calcul des coefficients km à l'aide de Levinson appli-
qué à la matrice R 1 = R 0 - a/21 conduit à l'une des trois situations suivantes.
~ 1) R1 est définie positive et dans ce cas on a Àmin E]a/2,a].
''j 2) R 1 n'est pas détïnie positive et dans ce cas on a Àmin E [O,a/2].
l On introduit la matrice R2 détïnie dans le premier cas par R2 = R1 - a/21 et
"~ dans le second cas par R2 = R 1. La valeur propre minimale de R2 ainsi détïnie
§ appartient à [O,a /2]. L'algoritrne de Levinson s'applique à Rz et par itération de la
5. procédure, on peut déterminer des intervalles successifs Ij. de largeur af2j, j
l
; = 1,2, ... ,L, contenant tous Àmin· Ceci donne une application de l'algorithme de
§ Levinson pour calculer la valeur propre minimale d'une matrice de Toeplitz détïnie
'
;JJ non négative.
18 1 • Méthodes récursives et adaptatives pour le filtrage optimal

1.2.3 Représentation en treillis d'un filtre polynomial

Associons au vecteur am le polynôme défini par


m
Pm (....7 ) ..& _m _ '""am 7 m-I (1.24)
-i. L...,;l"· ·
1=1

Rappelons que la fonction de transfert d'un filtre AR est donnée par H (z)
= 1/P(z- 1) etcelled'unfiltreMAestdonnéepar H(z) = P(C 1) où P(z) désigne
un polynôme dont le degré est égal à l'ordre du filtre. Chacun de ces deux types de
filtre sera appelé filtre polynomial. Pour établir une représentation classique impor-
tante, appelée représentation en treillis d'un filtre polynomial, multiplions respecti-
vement les équations (1.18) par z"'+ 1 , z"', ... ,z0 , et additionnons membre à
.. membre.dii.obileiiila··réciii-Teiicepolyriomiillif:

(1.25)

où P,7, dénote le polynôme réciproque de Pm défini par

(1.26)

La récurrence (1.25) peut être aussi écrite pour P,~+l (z).


Ces deux récurrences donnant Pm+l (z) et P,~+ 1 (z) sont équivalentes et peuvent être
utilisées en même temps. On obtient alors le système suivant équivalent à ( 1.25) :

-km+1
l
J[Pm(z)]
P,~
(z)
(1.27)

Ce système constitue la forme treillis de l'algorithme de Levinson et permet de


construire récursivement, à partir des conditions initiales Po = P~ = 1 et de la suite
des coefficients de rétlexion k 1 , .•• ,k,, une suite de polynômes P 1, .•• , P, de degrés
l, . .. ,11. La figure 1.2 définie la représentation en treillis du polynôme P,.

1
-
,.
L.
kl
1-

f-
k2
1--
---8P,;
1-- - - -
kn
Pn

Figure 1.2 Représentation en treillis d'un polynôme.


1.2 L'algorithme de Levinson et ses applications 19

où chacune des cellules représente le quadripôle défini par :

L'algorithme de Levinson permet de définir un opérateur, T, qui associe à tout vec-


teur k, ~ [/q , ... ,k,f de IC" un vecteur a, ~ T(k,) de IC". Les composantes de k,
sofifiij:ipelées coefficients de réflexion du filtre a, (ou du polynôme P, associé).
L'algorithme de Levinson définit complètement l'opérateur T puisqu'il permet d'ex-
primer de manière unique a, en fonction de k1, ... ,k,. La transformation T ppssède
des propriétés structurelles qui sont étudiées dans [8]. On peut véritier que dans le
cas réel, chaque a; est une fonction polynomiale dont les indéterminées sont les k;.
Les propriétés de ces fonctions polynomiales peuvent s'ét;:tblir soit en examinant le
treillis associé au polynôme soit en raisonnant par récurrence sur le degré 11.

Exemple 1.2.7 Structure des coefficients du polynôme T(k,)


À titre d'exemple, on peut vérifier que pour 11 = 3 et dans le cas réel, les coefficients
de a3 sont donnés par :

Dans le cas général, comme le montre le cas 11 = 3, chaque composante a;;, (k,) de
a, est un polynôme à coefl1cients dans [-1,+1} et dont les indéterminées sont les
k;. Le degré total de ce polynôme est inférieur ou égal à 11 et le degré partiel par rap-
port à chaque k; est égal à 0 ou 1. Chaque composante a;;,
est un polynôme conte-
"~ nant c;;•monômes différents. Expliciter les expressions de ces polynômes est un
~ problème difl1cile comme le montre le cas simple suivant. Soit
0
g
o. Q( .(.-) = .(._n- an,n-I
1.... - ... -ct"0
ci0
3 le polynôme de degré 11 construit à partir des coefficients réels kJ,kz, ... ,k,.
0
0 L'expression du polynôme a;' s'obtient on considérant tous les chemins du treillis
20 1 • Methodes recursives et adaptatives pour fe filtrage optimal

qui passent par 11 - 1 cellules de décalage c 1 • On obtient : a]' = -k 1


+ k1k2, ... + k,_lk,. Pour établir l'expression du polynôme a~. un raisonnement du
même type montre qu'il est assez difficile de déterminer le nombre de chemins qui
passent par n - 2 cellules. Pour plus de détails on peut consulter [8].

Exemple 1.2.8 Dérivée d'un polynôme réciproque


Si P(z) est un polynôme de degré 11, le calcul de la dérivée de son polynôme réci-
proque P*(z) conduit à l'identité suivante:
z[P*(z)J' + [P(z)']* = nP*(z). (1.28)

.Exemple .... l.2.9 Construction.depolynômes. autoréciproques (a.r)

Un polynôme qui vérifie la condition


P(z) + o:F*(z) = 0 o: E IC (1.29)

est appelé polynôme autoréciproque (a.r). On peut vérifier que cette condition
impose lo:l = 1. Pour Je voir, il suffit d'écrire que les coefficients du terme de plus
haut degré et du terme de degré 0 sont nuls. On a le résultat suivant : le polynôme
P, construit à partir de kJ, ... ,k, avec lk,l = 1 est a.r. En effet, on a:

P,(z) = zPn-1 (z)- k,P,~_ 1 (z) et P,~(z) = P,;_ 1(z)- k,zPn-1 (z).

Multipliant la deuxième relation par k,, additionnant membre à membre ces deux
relations et tenant compte de lk, 1= 1, on obtient (1.29) avec o: = k,.

Exemple 1.2.1 0 Factorisation et polynôme a.r


On construit un polynôme P, #o T(kJ, ... ,k,) à partir de kJ, ... ,k, et on suppose
qu'il existes, s < 11, tel que lksl = 1. Alors on a la factorisation suivante:

En effet, d'après l'exemple 1.2.9, Ps(z) = T(kJ, ... ,k5 ) est un polynôme a.r.ll véri-
fie donc Ps + k.,. P,* = 0. Le polynôme Ps+ 1 se factorise alors comme suit :

P.,+! (z) = zPs(Z)- k.,+IP,*(z) = Ps(z)[z + ks+lk,,] = Ps(z)[z- k;+ 1].


L'itération de la méthode conduit au résultat.
1.2 L'algorithme de Levinson et ses applications 21

Exemple 1.2.11 Lien entre un polynôme a.r et sa dérivée

Soit P(z) un polynôme normé de degré net P,_J (z) ~ P(z)' fn. Alors P(z) est a.r
ssi P(z) vérifie:

P(z) = zP,_J (z)- k,P,;_ 1 (z), k, ~ -P(O). (1.30)

En effet, si P(z) vérifie P(z) + aP(z)* = 0, on a forcément a- 1 = Œet la relation


( 1.28) conduit à :

zP(z)'- Ci'[P(z)']* = nP(z).


On obtient (1.30) en posant k, = Œ. La réciproque est immédiate d'après l'exemple
-1.29 puisque P(z) vérifie (1.28) et l'identification des monômes de même degré
conduit à k, = -P(O). La relation (1.30) montre que tout polynôme a.r peut se
construire à partir de sa dérivée normée en utilisant l'algorithme de Levinson direct.

1.2.4 Existence de la représentation en treillis et stabilité

Dans cette section, nous allons donner un algorithme, dénommé algorithme de


Levinson inverse ou algorithme de Schur-Cohn, qui permet de déterminer, lors-
qu'eUe existe, la représentation en treiiiis (RT) d'un polynôme donné quelconque.
Pour ce faire, nous aiions inverser la relation de récurrence (1.25). S'il existe deux
polynômes Pm et Pm+J vérifiant cette relation, alors ces polynômes vérifient aussi
l'équation suivante :

(1.31)

Partant de Pm+J, on obtient km+J = - Pm+J (0)/ P,~+J (0) de manière unique et la
détermination de Pm à partir de Pm+ 1 introduit les trois cas suivants :

ID
1. Si lkm+ 11 =f 1, alors Pm existe et il est unique.

i§ 2. Si lkm+II = 1 et Pm+J + km+J P,~+J = 0, alors Pm existe et il n'est pas unique. En


effet, Pm+J est un polynôme a.r et la relation 1.30 montre que l'on peut prendre
~
0

~
g
go. 3. Si lkm+II = 1 et Pm+J (z) + km+J P,~+J (z) =f 0, alors Pm n'existe pas.
5
g Comme la multiplication du polynôme Pm+l par une constante non nulle ne
3 modifie pas la valeur du coefficient km+J, pour le calcul des k;, on introduit I'algo-
9 rithme récursif suivant dénommé couramment algorithme de Schur-Cohn.
22 1 • Méthodes récursives et adaptatives pour le filtrage optimal

Algorithme S.C C.I. Pn = P, faire pour m = n,n- 1, ... ,

k __ P,(O)
zQ(z) ~ P,(z) + k,P,~(z), "' - P*(O)
(1.32)
m

Si [k,[ 1 prendre Pm-I ~ Q (1.33)


=f-
6 '
1 et Q=O, prendre Pm-I= pm (1.34)

- 1 et Q =f- 0, fin. (1.35)

Exemple 1.2.13 Polynôme Il 'admettant pas de RT

Considérons le polynôme P4(z) = z4 - 2z 3 + z2 + z- 2. On a k4 = 2 et P;j(z) =


1 - 2z + z2 + z3 - 2z 4 La détermination de P3 (z) se fait à l'aide de (1.31) qui
conduit à:

On obtient un polynôme P3(z.) = z3 - z + 1 pour lequel [kJ[ = 1 et qui n'est pas


a.r. Le polynôme P4(z) n'admet donc pas de représentation en treillis.

Exemple 1.2.14 Polynôme admettant plusieurs RT

Considérons le polynôme P4 (z) = z4 - 2z 3 + z- 2. On a k4 = 2 et P;j(z) =


1 - 2z + z3 - 2z. 4 • La récurrence ( 1.31) conduit à :

On obtient k3 = -1 et P3(z) = z 3 + 1 est un polynôme a.r. On peut donc continuer


l'algorithme en prenant Pz(z) = P~ (z) /3 = z 2 /3. D'où kz = 0 puis k1 = O. On peut
vérifier que P4(z) admet la RT définie par [0,0,-1 ,2]. Cette représentation n'est pas
unique. En effet, au lieu de prendre Pz = P~ f3, on peut prendre par exemple
Pz(z) = z2 - z + 1 qui vérifie aussi P3(z.) = zPz(z)- k1Pl(z). Comme Pz se
construit à partir de /q = 1/2 et kz = -1, alors P4 admet aussi la RT définie par
[1/2,-1,-1,2].
1.2 L'algorithme de Levinson et ses applications 23

Nous allons maintenant présenter un critère qui permet de tester la stabilité au


sens strict d'un filtre puis une version étendue de ce critère au cas des polynômes
ayant des racines sur le cercle unité (C.U). Une extension de ces critères pour
J'étude générale de la position des zéros d'un polynôme par rapport au C.U est don-
née dans [8]. Le résultat suivant est un cas particulier du critère de stabilité au sens
large qui sera énoncé et démontré plus loin.

Exemple 1.2.16 Polynôme instable

Pour P(z) = z2 + 2z- 1, on a k = 1 et P*(z) = 1 + 2z- z2 • D'où


P(z) + kP*(z) = 4z ~ zQ(z).

Comme le polynôme Q(z) = 4 n'est pas a.r, on a n;(P) =f 11.

Exemple 1.2.17 Calcul de la déri1•ée d'un polynôme a.r

Un polynôme P a.r de degré n + 1 peut toujours se mettre sous la forme :


P(z) = zQ(z) - aQ*(z), lai = 1 (1.37)

"~
o où Q est de degré n. Les formes factorisées de Q et Q(z)* sont données par:
,"
~ i=n-q i=n-q
~
c
0
Q(z) = zq TI (z- w;) et Q(z)* = TI (1- w;z)
;; i=l i=l
0

g
, où q E N désigne l'ordre de multiplicité de la racine 0 et les w; les 11 - q autres
f
0
racines non nulles de Q. La dérivée de P (z) peut se mettre sous la forme :
É.
11-q 1 11-q -
q w·
P'(z) = Q(z) + zQ(z)[-::- + L -_- ] + aQ*(z)[L
1-
' _ ( 1.38)
.:.. i=l "-- W; i=l W;.::.
24 1 • Méthodes récursives et adaptatives pour le filtrage optimal

Exemple 1.2.18 Racines de la dérivée d'cm polynôme a.r

Partant de la forme factorisée d'un polynôme: P(z) = Tii~ 1 (z- w;)"', où les Œ;
désignent les ordres de multiplicité des racines w; de P, on obtient immédiatement:
q .
P ' (z) = P(z) ""'
L.... -a,
-.
i=l z- Wj

Si P'(w) = 0, on a aussi P(w)' = 0 et donc:

-
P(W) L
q

1~1 w- w;
= P(w) L
0'.; -

1~1 lw- w;l


q O:.i
2
(w- w 1) =O.

·· Ainsi~westsoitraêîtfedePsoiroarycentredenacinesdeP affectées par des coef-


ficients positifs À;. Donc les racines de la dérivée d'un polynôme P sont situées à
l'intérieur ou sur le polygone convexe formé par les racines de P. Soit P un poly-
nôme a.r qui n'admet aucune racine à l'extérieur du C.U. Alors Pa forcément toutes
ses racines sur le C.U et donc sa dérivée a forcément ses racines à l'intérieur ou sur
le C.U.

Exemple 1.2.19 Multiplicité des zéros d'w1 polynôme a.r

Soit P un polynôme construit à partir des coefficients k1 , ... , kn+ 1 vérifiant lk1 1 < 1
pour 1 ,::; i ,::; Il et lkn+ Ji = 1. Alors, toutes les racines de P sont simples. En effet,
comme P peut se mettre sous la forme (1.37) avec kn+ 1 = a, toute racine w de P
vérifie aQ*(w) = wQ(w) et l'expression (1.38) de P'(z) devient:

P'(w) = Q(w) + Q(w)[q + t;


n-q w
w- w;] + Q(w) t;
1!-(j w·w
1 -'w;w

Comme lwl 2 = ww = 1, on obtient:

P'(w)=Q(w)[l+q+f
i=l W- Wj
w +f îif;]
i=l W- W;

i~n-q 1 - lw;12
=Q(w)[l+q+ L
1=1
lw-w·lz]=O.
1

Comme, lk;l < 1, 1 ,::; i ,::; 11, les racines de Q vérifient lw;! < 1, 1 ,::; i ,::; 11. Le
nombre P'(w) ne peut pas être nul et les racines de P sont donc forcément toutes
simples.
1.2 L'algorithme de Levinson et ses applications 25

Ce résultat n'est plus vrai si dans le cas P, + k, P,~ = 0 de l'algorithme S.C. au


lieu de prendre P,_J = P/,,. on prend un autre polynôme. Par exemple, pour
Pz(z) = z2 - 1 on peut choisir P1 (z) = z- k 1 où k 1 est quelconque. On peut donc
avoir lk1l > 1 et aucune racine à l'extérieur du C.U.
La démonstration de ce critère s'obtient en considérant les trois cas possibles.
1. lkm =f 1: on applique les résultats donnés dans l'exercice 1.10 où on prend
1

-oo-.-•JT_== 0°
2. lk, 1 = 1 et P, est un polynôme a.r : on applique les résultats donnés dans
l'exemple 1.2.18.
3. lk, 1 = 1 et P, est un polynôme non a.r : le développement de la forme factori-
sée de P, conduit à lk, 1 = 1 fi Z; 1 où les Z; désignent les racines de P,. Donc la
condition lk, 1 > 1 implique qu'au moins l'un des facteurs est de module stricte-
ment supérieur à 1.

Exemple 1.2.21 Géométrie du domaine de stabilité


Pour étudier la stabilité des filtres autorégressifs d'ordre n, nous allons identifier
chaque élément, a,, de l'ensemble de ces filtres par Je polynôme unitaire, P, (z), qui
Je définit. Comme l'algorithme de Levinson définit un opérateur, T, qui associe à
tout vecteur k, !!!, [k 1 , •• • ,k,]T de C' (k) un vecteur a, de C" (a), l'ensemble des
filtres stables au sens strict, appelé domaine de stabilité, peut être représenté soit par
le domaine Dk = {k E C"(k)/lkjl < 1,(1,;; j,;; n)} soit par Da= [a E C"(a)}.
~ Dans l'espace C' (k), le domaine est tout simplement l'intérieur d'un hypercube
§ alors que dans C" (a), la géométrie de ce domaine est beaucoup plus complexe. À
li titre d'exemple, on va présenter ici le cas des filtres réels d'ordre n = 2 pour mon-
.~
·<J trer les correspondences entre les frontières des deux ensembles Dk et Da et pour
~ plus de détails, on peut consulter [43]. Le domaine Dk est détïni par -1 < kj < 1,
g (j = 1,2) et cela correspond à l'intérieur du carré de la figure 1.3. Les relations qui
-a_ définissent Da s'obtiennent en traduisant les inégalités -1 < kj < 1, (j = 1, 2) en
§ fonction des coefficients du filtre. On obtient :
ë
'É.
-1 < y < 1, x- 1 -y < 0, -x- 1- y< 0
.,;
§ et cela correspond à l'intérieur du triangle de la figure 1.4. On peut remarquer que
Cl
" les polynômes situés sur la frontière ont au moins un zéro sur Je cercle unité et que
26 1 • Méthodes récursives et adaptatives pour le filtrage optimal

les polynômes stables au sens large sont situés sur les frontières des deux représen-
tations du domaine de stabilité. Sur ces figures, on désigne par Di, Dj, Di, Dï
les droites d'équation respectives k1 = -1, k1 = 1, k1 = -1, k1 = 1 et par 6.{,
6.], 6.:i et 6.2 les droites associées par l'opérateur T.

k2
D-1 D+1
1
D+
2

-1 0 1 k1

-1 . """"" "' D2

Figure 1.3 Domaine de stabilité dans IR~.

Figure 1.4 Domaine de stabilité dans IR~.

En effet, la relation am-I = am (1 - lkm 12 ) conduit immédiatement à l'équivalence


entre (5.l.l) et (5.1.1).

Exemple 1.2.23 Forme rapide de l'algorithme de Levinson

Considérons des polynômes Pm à coefficients réels et plaçons nous dans le cas régu-
lier défini par lkm+II =f 1. Si l'on introduit le polynôme a.r:
1.3 Algorithmes recursifs sur la variable temps 27

Rm+l (z) ~ Pm+! (z) + P,~+l (z)


Ja somme des deux équations (1.27) conduit à :

Rm+l (z) *
k = zPm(z) + Pm(z). (1.40)
1- m+l

Introduisant l'expression de Rm et la relation (1.40), on obtient

Rm+l (z) * Rm+l (z)


(z- J)Pm(z) = 1
_ k - Rm(z) et (z- l)Pm(z) = -:----;-- + zRm(z).
m+l 1 -km+I

Remplaçons dans la relation (1.25) les Pm par leurs expressions en fonction des Rm,
·· ·· · on obtient :

Rm+2
- Rm+I = Z _
[-R--'''::"+.:...1_ - Rm ] - k m+l [ l -Rm+l
k + ZR m] ·
1- km+2 1- km+! - m+l

Finalement :

Rm+2 _ (1 + z) Rm+l (1.41)


1-km+2 1-km+I

~ (1- k,)(l +km+!) et on pose Qm+l =~ _R_,.:c"-'-+"-1-,


Si J'on introduit le réel "'fm = . la
1- km+I
relation (1.41) devient:

Qm+2- (1 + zlQm+l + 'YmZQm =O. (1.42)

~ Cette récurrence fait intervenir des polynômes a.r et constitue une forme possible de
§ ce que J'on appelle l'algorithme rapide de Levinson.
~
0
'5l
·o
0 1.3 ALGORITHMES RÉCURSIFS SUR LA VARIABLE TEMPS
''a
0
, La résolution des équations normales permet de déterminer un vecteur a,. Ce vee-
l leur peut définir soit une estimation soit un filtre dit optimal au sens d'un certain cri-
{ Ière. Dans les deux cas, les algorithmes qui sont à la base sont les mêmes et nous
J allons exposer dans la suite les principaux algorithmes utilisés en traitement des
] signaux.
8
©
28 1 • Méthodes récursives et adaptatives pour fe filtrage optimal

1.3.1 Algorithme des moindres carrés récursifs

Exemple 1.3.1 Régression linéaire au sens des moindres carrés

Soient x(l),x(2), ... ,x(n) un ensemble d'observations et y(l),y(2), ... ,y(n) un


ensemble de références. Cherchons un modèle de la forme :

y(k) = ax(k) + e(k), pour k = 1,2, ... ,11

qui traduit « au mieux >> le lien entre les observations et les références. La méthode
des moindres carrés consiste à déterminer le coefficient a pour lequel la fonction :

" 2
Ç(a)§,L 1 y(k) .--ax(k) 1 (1.43)
k=l""" "" " """""" """""""

est minimale. Un calcul simple conduit à l'équation suivante :

Rua, ~ r, avec R, ~ L" 1 x(k) 2


1 et r, ~ L" x(k)y(k)
k=l k=l

qui admet comme solution â,, = R;; 1r,. Le problème est de savoir comment tenir
compte des données x(n + 1) et y(n + 1) sans avoir à calculer l'inverse R,~:_ 1 • En
effet, dans la pratique, la quantité R,+l n'est plus un scalaire mais une matrice. La
méthode des moindres carrés récursifs consiste à calculer récursivement â,,+ 1 à par-
tir de â,, en introduisant une relation de récurrence entre R,-; 1 et R;;:_ 1 •
a) Critère des moindres carrés et équation Normale
Soit x(l),x(2), ... ,x(n) un signal à l'entrée d'un filtre MA(N) dont la sortie à l'ins-
tant 11 est donnée par la somme :
N
y(n) ~ L ap(n)x(n - p) (1.44)
p=l

où l'on convient que x(i) = 0 pour i < O. Le vecteur

(1.45)

définit la réponse impulsionnelle du filtre a, à l'instant n pour lequel le signal de


sortie y( 1), ... ,y(n) , représenté par le vecteur y, approche « au mieux » un signal
dit de référence y(l),y(2), ... ,y(n), représenté par y. Le critère des moindres car-
rés consiste à déterminer, pour n fixé, le tïltre pour lequel la quantité
1.3 Algorithmes recursifs sur la variable temps 29

n n
Q(a,) ~ L w"-Piy(p)- y(p)l ~ L w"-Pie(p)l
2 2

p~J p~J

est minimale, le nombre w étant un réel fixé vérifiant 0 < w ~ 1. Le facteur w est
appelé facteur d'oubli car il permet de minimiser l'influence des premières compo-
santes des vecteurs x et y. Si l'on associe au signal erreur e(p), le vecteur e, on doit
déterminer le vecteur a,, noté a7,P', pour lequel la norme quadratique :
(1.46)

est minimale. Cela nous conduit à travailler sur IR" muni du produit scalaire défini
par
(1.47)

(1.48)

est une matrice diagonale (11,11). Afin de simplifier les calculs, introduisons la
matrice X de type 11 x N définie à partir de x(l),x(2), ... ,x(n) par:

x(l) x(2) x(n - 1)


x(n) )
xr = o x(l) x(n - 1)

( ... . ..
0 x(l) x(n- N + 1)
Le nombre N sera fixé dans toute la suite. La recherche du vecteur optimal a;t' qui
minimise la fonction quadratique (1.46), pour n fixé, équivaut à la détermination de
la projection orthogonale de y sur l'espace engendré par les N colonnes de la
" matrice X. Le système linéaire qui admet a7,P' comme solution s'obtient en expri-
5
' mant l'orthogonalité du vecteur
§

~
~ à chacune des colonnes de la matrice X au sens du produit scalaire défini par (1.47).
~
0
D où
1

''
~ XHWe =0 soit XHWXa, = XHWy.
'5.
0

Ce système, dénommé équation de Wiener-Hopf ou encore équation normale, peut


se mettre sous sa forme classique :
~
;
; R,a, = r, avec R, ~ xHwx et r, ~ xHwy (1.49)
30 1 • Méthodes récursives et adaptatives pour le filtrage optimal

désignent les matrices << d'autocorrélation » et << d'intercorrélation » avec facteur


d'oubli, définies à partir des moyennes temporelles pondérées. Ces matrices sont
déterminées à partir du vecteur observation x et du vecteur référence y. On peut
étendre le critère des moindres carrés de la manière suivante. On introduit la fonc-
tion définie par :

Q(a,.) ~Ile 11 2 +a?,'WRoe

où Ro est une matrice positive constante et on cherche le vecteur a~pt pour lequel
Q(a,.) atteint son minimum. Comme Q(a,.) est une fonction quadratique de a,., le
vecteur a~pt est solution du système obtenu en annulant le gradient de Q(a,.). Le
système obtenu reste donné par (1.49) où l'on remplace R,. par l'expression plus
·· générale suivante .

G,.=R,.+RoW.

Dans un contexte stationnaire, les matrices peuvent ne pas dépendre de 11 pourvu


qu'il soit suffisamment grand. De plus, la matrice du système a la structure de
Toeplitz et on peut utiliser l'algorithme de Levinson.

b) Algorithme des moindres carrés récursifs (MCR)


Dans un contexte non stationnaire, les différentes grandeurs peuvent dépendre de
l'instant n. Nous allons donc introduire un indice n atïn d'éviter les ambiguïtés.
L'algorithme des moindres carrés récursifs (MCR) a comme principe de trouver
une relation de récurrence entre deux vecteurs consécutifs a~P' et a~~~, solutions des
équations normales :
Rnan =rn et Rn+tan+I = rn+l (1.50)

aux instants n et n + 1 et qui seront notés dans toute la suite par a,. et a,.+ 1. Pour
les premières valeurs de n, ces vecteurs ne donnent pas la solution optimale cher-
chée puisque R,. ne représente pas tout à fait la matrice de covariance de la suite
(x,.). D'après les définitions (1.49), les matrices R,. et r,. vérifient les relations
n+l
R n+l =A '\'
~W
n-p-1 T
XpXp = R 11 + WX T
11 +tX11 +t
p=l

n+J
rn+l ~ L wn-p-IXpy(p) = r,. + WXn+IY(Il + 1).
p=l

où Xp désigne la colonne p de la matrice X(n + 1) T Afin d'établir une relation de


récurrence entre les vecteurs a,. et an+l, partons de (1.50) et remplaçons rn+l en
1.3 Algorithmes récursifs sur la variable temps 31

fonction der,, puis r, en fonction de a, et enfin R, en fonction de Rn+I· On obtient

Rn+ lan+! =rn+! = r, + WXn+IY(Il + l) = R,a, + WXn+IY(Il + 1)


= (Rn+! - WXn+Ix;,+l)a, + WXn+IY(Il + 1).

On obtient:

(1.51)

(1.52)

est un vecteur appelé gain d'adaptation ou gain de Kalman. Mais la relation (1.52)
nécessite l'inversion de la matrice R,+ 1 et ceci conduit à une complexité de calculs
élevée à chaque itération. Il faut donc trouver une méthode récursive sur l'instant 11
qui permet de diminuer le volume de calculs de l'étape (1.52). La solution consiste
à calculer R;;-l 1 à partir de R;,- 1 en utilisant la relation entre les matrices R,+ 1 et R,
et le lemme suivant.

~ Prenant alors B = R,,,C = Xn+I et D = w, on obtient après calculs, la formule de


"tl récurrence suivante :
§

R-1 R-1 R n-1 Xn+l T R-I


n+l = n - --I---"'To-'.:.R:.:_:..,I,----Xn+l n ·
w- + Xn+l n Xn+l

On obtient donc les récurrences suivantes, dénommées algorithme MCR, qui per-
l mettent de calculer d'une manière itérative les coefficients d'un filtre optimal au sens
des moindres carrés.
15
"É.
x ~ -1 T R-I gn+l = u11
x-IR-! Xn+l
u11 = W +xn+I n Xn+l et 11
32 1 • Méthodes récursives et adaptatives pour le filtrage optimal

(1.53)

L'évolution des coefficients du filtre a, dépend du gain gn+ 1 qui ne fait intervenir
que le signal d'entrée et du terme y(n + 1)- x?,"+ 1an qui dépend non seulement du
signal d'entrée mais aussi de la référence y(n). Chaque itération de l'algorithme
MCR nécessite une complexité de calculs proportionnelle à N. On obtient la solu-
tion optimale exacte au sens du critère des moindres carrés en calculant le gain gn+ 1
à partir de g" sans inversion de matrice.

c) Convergence de l'algorithme MCR


Seulement quelques résultats succints seront présentés dans la suite. Pour plus de
détails, on peut consulter les références [3], [90], [79].
········Posons
y(n) =x?," a~P' + b(n).
où b(n) est un bruit blanc de puissance Emin et non corrélé avec le signal x(n).
Définissons l'écart par rapport au filtre optimal par

La matrice de covariance de !'.an est donnée par :


n n
R;: §, E(L'.ant.a?,") = R;;- 1E(~= w"-Pb(p)Xp L w"-qb(p)x~JR;;- 1
p=l q=l

et on a le résultat suivant.
Si x(n) est une suite non aléatoire vérifiant x(p) 2 =cr;, Vp et b(n) 1111 bruit
blanc centré et de variance Emin. on a :
. ' 1- w .
E[e(n)-]"" EminO + N--) SI w =f 1
1 +w
N
""EminO+-) si w=l.
Il

En effet, les hypothèses permettent d'écrire :

11 - 1X(w)R- 1 X(w) ~
" 2 2
Rna = Emin•'n n , §, L.- w "- PxPxpT· (1.54)
p=l

1 1
Le signal d erreur S écrit

e(n) = y(n)- a?," Xn = b(n)- t.a;, Xn


1.3 Algorithmes recursifs sur la variable temps 33

et sa variance est donnée par :

(1.55)

Tenant compte de ( 1.54), cette variance peut se mettre sous la forme :

Le terme Eex qui vient s'ajouter à l'erreur quadratique minimale Emin introduite par
le filtre optimal a~pt est appelé erreur excédentaire.
Comme x (11) véritïe, pour tout p, x (p ) 2 = i;, on obtient pour w =f 1:

X( W ) =cr;'I N L n
W
2n-2p
= Œx l
2
1
-
-w-
W
2n
, 1N·
p=l

La relation (1.54) s'écrit alors

2 1 - w2" T -2 1- w'2n (1 - wn)-2


Oex = ax 7 XTI R/1 Xn = N 'J -1 .
1- w- 1- w- (1- w) -

On obtient pour w =f 1 et 11 assez grand :

1- w 1 + w" 1- w
t5" = N -:-:...__ ~ N --
. 1 + w 1 - w" 1+ w

et pour w = 1 et 11 impair :
N
Oex = -. (1.56)
Il

:\1 Le régime d'établissement du filtre adaptatif avec l'algorithme MCR est caractérisé
"'§par les expressions de 6,x ci-dessus. Comme 6,x ne tend pas assez vite vers zéro
li dans le cas général, il subsiste donc, après convergence, une erreur supérieure à
-~
·\:!a Emin·
;; Si w = 1 et si le signal est ergodique stationnaire, la matrice de covariance de

g x(n) est donnée par
0
1
l rn= -R". Il
l5 Pour w "' 1, on obtient pour les grandes valeurs de 11

1- w"
Rn ;::::::::;:fn ;: : : : ;: _ __
1-w
34 1 • Méthodes récursives et adaptatives pour le filtrage optimal

1
En fait le terme-- correspond à la fenêtre d'observation du signal. Lorsque n
l-w
tend vers l'infini, l'équation de mise à jour du vecteur a, peut être approximée par

(1.57)

Cette relation montre que le pas d'adaptation de l'algorithme MCR est défini par la
matrice r,;- 1 qui introduit des rotations et des homothéties appliquées au vecteur
x,+l· Le pas d'adaptation doit vérifier

1-w l-w
--~a::(--. (1.58)
Àmax Àmin

où Àmax et Àmin représentent respectivement les valeurs propres maximale et mini-


Na;,
male de r 11 • Comme ,\max est inférieure à la trace de r 11 , i.e . .À max :(
on peut
introduire l'erreur de prédiction E, et remplacer la relation ( 1.58) par :

l-w l-w
--,- ::( a ::( - - . (1.59)
Nrr;. Ea

Tenant compte de l'expression de e(n + 1), l'équation d'évolution de a, s'écrit

(1.60)

La stabilité d'un tel système est garantie si la somme des valeurs absolues des élé-
ments d'une ligne quelconque de la matrice qui multiplie a, est inférieure à 1. Soit: .

1- w '
Il- --Nrr-
x 1< 1
E
"
ou bien

2Ea
0 <l-w<--. (1.61)
Nrrx2

Cette inégalité définit un domaine de choix pour le facteur d'oubli w garantissant la


stabilité de l'algorithme MCR. Dans la pratiqueE, est difficile à déterminer a priori
mais il est possible de l'imposer dans l'algorithme.
-1.3 Algorithmes récursifs sur la variable temps 35

1.3.2 Algorithme du gradient stochastique


On cherche à déterminer l'estimation :
N
Y(n)!!, La;(n)X(n- i + 1)!!, a;,x(n)
i=l

x(n)!!, [X(n),X(n- l), ... ,X(n- N + l)f

est un vecteur aléatoire dont les composantes sont les données à partir desquelles on
veut déterminer Y(n) (par exemple, les entrées d'un filtre dont la sortie est Y(n)).
Le problème consiste à déterminer le vecteur déterministe :
--""'"'""'"'"""'"

dont les composantes sont, par exemple, les coeftïcients d'un filtre à l'instant 11. Les
coefficients optimaux doivent minimiser l'erreur quadratique moyenne définie par:

(1.62)

où Y (n) est un signal de références. Contrairement à l'erreur Y(n) qui est un nombre
aléatoire, Q(a,) est un nombre certain qui représente, par définition, l'énergie du
signal Y(n). On a

Q(a,) = E[{Y(n) -a,T x,} 2 ] = E[Y(n) 2 ] +a,T f,a, - 2a,T c,


r, = E[x,x;;] et c, = E[x,Y(n)]
~
-o représentent la matrice de covariance du vecteur x, et la matrice d'intercorrélation
~ de x, et Y (n). Le vecteur a, correspondant au minimum local de la fonction qua-
.~ dratique définie par (1.62). Comme la matrice r, est définie non négative, le vec-
·~, leur a~pt qui annule le gradient de Q(a,) correspond au minimum absolu de cette
~ fonction et il est solution de l'équation normale :
g
t"
D
Grad[Q(a,)] = f,a~Pt- c, = E[x,(x;, a~pt- Y(n))] = 0.
ë
'É. L'introduction de la solution a 0 p1 (n) permet d'écrire la fonction Q(a,) sous la forme
:J
1i équivalente suivante :
8 Q(a,) = Qmio +[a,- a~P'fr,[a,- a~P']
©
36 1 • Methodes recursives et adaptatives pour le filtrage optimal


. _ a 2()-
Qmm- y n optr rz3opt_
3 11
2()- 3 opt Cil
- Uy n 11

La surface d'équation cartésiennef(anl = Q(anl est appelée couramment« swface


d'erreur».
L'algorithme classique du gradient peut s'écrire sous la forme :

3 11 ,k+l = 3n,k + o:E[Xne 11 ,k] avec en,k = y(n)- a~ X 11 • (1.63)

Prenant les conditions initiales n = k et supprimant l'espérance mathématique appa-


raissant dans (1.63), on obtient l'algorithme suivant, dénommé algorithme du gra-
dîeïifsf6chastique (GS}: · · ········· -

(1.64)

où le nombre a, appelée pas d'adaptation, est choisie de façon à obtenir un bon


compromis entre la vitesse de convergence de l'algorithme et l'erreur résiduelle. Le
nombre a permet de contrôler les performances de l'algorithme.
La suppression de l'espérance mathématique dans (1.63) se justitïe par le fait que
les itérations successives de l'algorithme récursif, réalisent d'elles-mêmes une
approximation de l'espérance mathématique. En effet, pour tout entier positif p,
on a:

où ap f;, pa. Dans la pratique l'indice n varie à partir d'un instant initialn = 0 et
tant que n reste inférieur à la dimension N du vecteur Xn, les échantillons observés
jusqu'à cet instant ne suffisent pas pour détïnir le vecteur Xn. On pose par conven-
tion X(m) = 0 pour nz <O. L'algorithme du gradient possède de bonnes propriétés
de stabilité numérique mais sa convergence est d'autant plus lente que le signal d'en-
trée est fortement corrélé. Nous allons établir que si la valeur propre maximale,
Àmux. de la matrice d'autocorrélation du signal d'entrée vérifie :

(1.65)

alors l'algorithme GS converge. L'étude de la convergence de cet algorithme est


assez difficile et on se limitera ici à énoncer quelques résultats. Pour plus de détails,
on peut consulter [79].
1.3 Algorithmes récursifs sur la variable temps 37

a) Convergence de l'algorithme du gradient déterministe


La matrice r, étant symétrique, elle est diagonalisable sous la forme
r, =Prop
où D est la matrice diagonale formée par les valeurs propres de r, : )q ,.À2, ... ,.À,
et p la matrice unitaire (Pr = p-t) dont les colonnes sont les vecteurs propres
associés aux .>.1• Définissons la déviation du filtre à l'instant Il par rapport au filtre
optimal par : â', = a, - aopt· Si l'on pose :

l'algorithme (1.63) conduit aux relations:


ân+I = (1- aD)â, et â, = (1- aD)" Pao

où 1 désigne la matrice identité. Dans l'hypothèse où r, est inversible, toutes ses


valeurs propres sont strictement positives et la suite des vecteurs ân+t converge
vers 0 si et seulement si
-1 < 1 - ŒÀmax ( ... ( 1 - ŒÀmin < 1.
Ceci conduit immédiatement à la condition a> 0 et à celle donnée par (1.65). À
chaque valeur propre Ài est associé un temps de convergence Ti qui est le nombre
d'itérations requis pour que chacune des composantes â;, du vecteur ân vérifie la
condition:

où E est une atténuation prédéterminée. On obtient les inégalités et approximations


suivantes [3] :
Tf Log(! - Œ.Ài) ,;: Log(E)

et comme 0 < 1 - a>-1 < 1 pour a faible, on a aussi


Log(E) Log(E)
Tj)!: ~ ----. (1.66)
Log(! - a.\) Œ.Ài
ii
.~ Cette dernière relation montre que la vitesse de convergence de l'algorithme est pro-
·§ portionnelle à a. Mais elle n'est pas uniforme dans tout l'espace puisque les valeurs
'5
" propres ne sont pas toutes égales. Si on définit la dispersion de la matrice r" par
g
0
·a. Àmax
p=-
~ . .\min
i:ï la relation (1.66) montre que le temps de convergence associé à .Àmin vérifie
] 2Tmax)!: -pLogE.
il
@ Pour certaines matrices, ce temps peut être très grand.
38 1 • Méthodes récursives et adaptatives pour le filtrage optimal

b) Convergence du gradient stochastique


La première difficulté du GS vient de ce que nous appelons le << bruit de sortie »
défini par
b(n) ~ y(n) -x?; aopt· (1.67)
C'est l'écart entre la référence y(n) et l'estimation donnée par le filtre optimal.
L'écart b(n) est relié à l'erreur e(n) qui contrôle l'algorithme et qui est définie par:
1'-
e(n) = b(n)- x, a,.

Cet écart peut être par exemple le bruit de mesure de la sortie du filtre qui est inévi-
table et son énergie sera désignée par :

(1.68)

L'algorithme GS s'écrit alors


-a,+l ]a,+ a b (n)x,.
= [1- ax,x,T- (1.69)

Il est clair que a, = 0 n'implique pas a,+ 1 = 0, i.e. après avoir atteint l'optimum
le filtre peut s'en écarter.
La deuxième difficulté provient de la corrélation qui existe entre les entrées suc-
cessives x(i) qui forment les vecteurs x,. Comme les vecteurs x,+J et x, ont n- 1
composantes communes, il sont fortement corrélés. Il s'en suit, d'après (1 .69), que
x, et a, sont aussi corrélés et ceci rend très difficile le calcul des moments de a,.
Supposer que les vecteurs successifs x, sont indépendants est une hypothèse
irréaliste. On introduit alors les hypothèses suivantes peu contraignantes pour les·
applications pratiques [79].
'H 1 : m-indépendance Pour tout entier k, les deux sous-ensembles de variables aléa-
toires: {b(n),X,,Il,;; k) d'une part et [b(ll),x,,n? k + m) d'autre part, sont
indépendants pour un certain m donné.
'H2: Bomitude des x, Pour tout couple d'entiers (n,k), on a E[X(n)k],;; B'(k)

'H3: Bomitude des b(n) Pour tout entier n, on a E[b(n) 5],;; B.


'H4: Bruit blanc Les {b(n)) forment une suite de V.A centrées, indépendantes entre
elles et indépendantes de la suite X (11).
Les trois premières hypothèses permettent d'avoir des conditions suffisantes pour
la convergence de l'algorithme GS et 'H4 permet d'établir plus simplement la preuve
de cette convergence. Cette dernière hypothèse signifie que le signal à estimer peut
être modélisé par la sortie d'un filtre aopt dont l'entrée est X (11) et dont la sortie est
mesurée en présence d'un bruit blanc additif inconnu b(n).
13 Algorithmes récursifs sur la variable temps 39

L'étude de la convergence peut se faire en séparant la déviation a, en une partie


dite transitoire, qui dépend des conditions initiales, et une partie dite fluctuation, qui
dépend du bruit de sortie, selon
T]- 1
'01
3 11 = (1 - GX11 X 11 3 11 _1, '01
30 =Ba- Bopt

et

a(,= [1- ax,x;,]a(,_l + ab(n)x,], a{= o.


Les définitions ci-dessus donnent par addition :
- _-r -J
3 11 - 311 +311 •

Si J'on pose

Vj.n = 1 si 11 ,; j et Vj,n = f1" [1- ax;xiJ si 11 > j


i=j+l

on obtient Ujn = Uk,; Ujk pour j ,; k ,; n [79] puis les relations suivantes :

a(, = L" ab(j)Vj.nXj


j=l
et 3';, = Uo.,ao.

Critère de convergence [79] Si la suite X, est stationnaire, de matrice de cova-


riance r, inversible et satisfait aux hypothèses 1 et 2, la déviation transitoire par
rapport à l'optimalité de l'algorithme GS décroît exponentiellement vers zéro ainsi
que tous ses moments selon :
Vn ?o no, Va ?o ao, [[Uo.nll,; B(l- 6a)"

Vm > 0, Va ?o a,, E[[[Uo,nlll,; c,(l- c5,a)"


~
"" où a 0 ,a,,6,6, etc, désignent des nombres strictement positifs et [[.[[ la norme
§
~ matricielle subordonnée à une norme vectorielle.
Sous J'hypothèse 7-14, l'énergie de a{ est donnée par :
n-1

••
E[[a(,[ 2
] =a 2
Emin L E[[[Uj.nXj[[ 2
] avec Emin = E[b(nf] .

f0
j=l

"B. La stationnarité de la suite X, donne la relation :


j
-ci n-J
§
0

E[[a(,[ 2 ] = a 2 Emin L E[[[Uo.,xo[[ 2


]

"" j=O
40 1 • Méthodes récursives et adaptatives pour le filtrage optimal

qui conduit, après majoration et sommation à :

-J 2 CJ
E[ja, 1 ] ,;; -oŒmin
0!
o
où c 1 et 1 ne dépendent que de la statistique des entrées X, et non de Œ. Ainsi
l'énergie des fluctuation est une suite croissante majorée et elle admet donc une
limite donnée par :

lim E[jja{ll 2l = F(a) ,;; vaEmin (1.70)


11~00

où v dépend seulement de la statistique des entrées X (11) . L'erreur de fluctuation du


filtre adaptatif à pas constant ne décroit donc pas vers zéro et il n'y a pas conver-
. gence au sens. strict. Mais en choisissantq P9J.lLqt!eJ[[déyiation quadratique soit
inférieure à la précision numérique de l'outil de calcul ou bien pour que l'EQM soit
négligeable devant le bruit additif.

1.3.3 Détermination du filtre de Wiener à horizon fini

On va déterminer le filtre de Wiener à temps discret en lui imposant la contrainte


d'être à horizon fini p. Cela signifie que l'on impose à la sortie du filtre Yk le modèle
suivant:

Dans ce cas, la détermiation du filtre revient à trouver, pour un instant fixé k, un vec-
teur a de composantes af, ... , aC, qui minimise la fonctionnelle E[JydJ où

- ~
Yk = Zk- Yk

désigne l'erreur à la sortie du filtre. Pour k fixé, on obtient l'expression de l'erreur


quadratique moyenne suivante en supposant Xk et Zk stationnaires :

représentent la matrice de covariance du vecteur Xk et la matrice d'intercorrélation


de Xp et z,. Le vecteur ap correspondant au minimum local de Q(a). En effet,
comme la matriceR, intervenant dans cette forme quadratique est définie non néga-
ta , Algorithmes récursifs sur la variable temps 41

tive, Je vecteur a qui annule le gradient de Q(a) correspond au minimum absolu de


cette fonction et il est solution de J'équations normale :

Grad[Q(a)] =Ra- c = E[xk(x[ a- Zk] =O.

Dans la pratique, plusieurs algorithmes peuvent être utilisés pour déterminer Je filtre
de Wiener à horizon fini. Cela dépend des informations disponibles sur les proprié-
tés statistiques du signal.
Algorithme de levinson Appelons a~pt Je vecteur dont les composantes sont les
coefficients du filtre d'ordre p cherché. Si Je signal est non singulier, sa matrice d'au-
tocorrélation est inversible et le filtre est donné par

(1.71)

Si les signaux x(n) et z(n) sont stationnaires dans leur ensemble, les grandeurs Rp
et Cp ne dépendent plus du temps n. Il en est donc de même pour la solution a~pt.
De plus la matrice Rp a une structure de Toeplitz et la solution peut être obtenue à
J'aide de J'algorithme de Levinson (Levinson-Durbin). Comme il a déjà été men-
tionner, cet algorithme permet de déterminer récursivement une suite de N filtres
optimaux a?', a~P', ... , a~P', d'ordres respectifs 1,2, ... ,p. L'algorithme de
Levinson ne pose pas de problème de convergence. L'inconvénient de cet algo-
rithme est l'obligation d'avoir une structure de Toeplitz pour la matrice Rp. On peut
signaler cependant que, dans un très grand nombre de cas pratiques, le vecteur
observation est extrait d'un processus stationnaire et si la matrice Rp est bien esti-
mée, son caractère défini positif et sa structure de Toeplitz sont assurés. Pour un sys-
tème faisant intervenir un vecteur ap de dimension p, la compléxité numérique de
l'algorithme de Levinson est de l'ordre de 0(p 2 ).
' Algorithme du gradient déterministe L'algorithme du gradient permet de calcu-
'
' 1er à partir d'un vecteur initial ap.o de dimension p, une suite de vecteurs
3~ ap.J, ... •ap.ko tous de même dimension p, qui converge vers la solution optimale
~ a~Pl Le calcul se fait itérativement à J'aide de la relation
l ap.k+l = ap.k + Œ[Cp- f',.ap.kJ (1.72)
§
"~ où a est un nombre réel appelé pas d'incrémentation. La relation (1.72) correspond
j à l'algorithme du gradient classique lorsque Je critère d'optimisation correspond à la
~ minimisation de l'erreur quadratique moyenne (EQM). Pour des matrices Rp inver-
l sibles, on peut établir que pour k tendant vers l'infini, la suite ap.kconverge vers la
solution optimale a~P'. Le principe de l'algorithme du gradient est de passer à
chaque étape k de ap.k à ap.k+I de sorte que ap.k+I soit« plus proche au sens des
42 1 • Methodes recursives et adaptatives pour fe filtrage optimal

moindres carrés >> que ap,k de la solution recherchée a~P'. Cet algorithme pose a
priori le problème de convergence. Il est donc nécessaire d'étudier la convergence
de la suite ap,k vers la solution optimale et d'introduire un critère d'arêt pour l'algo-
rithme. Le nombre d'itérations nécessaires pour obtenir a~P' reste donc inconnu.
Cependant la convergence de cet algorithme est assuré. De plus cet algorithme est
simple et peut s'appliquer même si la matrice de corrélation n'est pas de Toeplitz,
i.e. au cas de signaux non stationnaires.
Le calcul direct des coefficients d'autocorrélation de x(n) n'est pas toujours pos-
sible et même dans l'hypothèse générale d'ergodicité de x(n), on préfère l'éviter
pour les principales raisons suivantes. L'estimation préalable de la matrice de cor-
rélation se fait à partir de la donnée d'un ensemble de M échantillons :
x(n),x(n- !), ... ,x(n- M), connus à l'instant présent 11. Mais ce calcul est sou-
vent très lourd. Dans le cas non stationnaire, la matrice estimée, notée aussi R,,
··déjîeiïddel'insüült·ii erdonclefiltre·optimalaussi: Par suite, à l'instant smvrn1t··!ll!
11 + 1 le calcul préalable de R,.+ 1 est à refaire avant de calculer les nouveaux coef-
ficients du filtre. Ceci est évidemment très lourd pour des traitement en temps réel.
Dans la pratique, il est souhaitable de trouver des schémas de calcul des coefficients
du filtre optimal qui incorporent en même temps celui des coefficients de corréla-
tion et celui des autres grandeurs nécessaires. Deux algorithmes importants sont uti-
lisés pour pallier à ces deux obstacles : l'algorithme MCR et l'algorithme du gra-
dient stochastique. Ces deux algorithmes ont été présentés ci-dessus.

Algorithme MCR Cet algorithme nécessite une complexité de calculs proportion-


nelle à p à chaque itération. Il donne exactement la solution optimale au sens du cri-
tère des moindres carrés.

Algorithme du gradient stochastique Il existe une version simplifiée de l'algo-


rithme du gradient stochastique, dénommée algorithme du signe. Elle est définie par

an+! =a,.+ aSg[x,.]Sg[y(n) -a;; x,.] (1.73)

où Sg désigne la fonction signe et elle permet d'obtenir une bonne approximation


de la solution assez rapidement.
Forme treillis du filtre de Wiener à horizon fini Considérons le polynôme asso-
cié au filtre défini par ap. La récurrence (1.27) constitue lafonne treillis du filtre et
permet de représenter les filtres d'ordre 1, ... , p sous forme d'une cascade de p cel-
lules. Chacune parmi ces cellules est complètement détenninée à partir d'un coeffi-
cient de réflexion. Le calcul de ces coefficients de réflexion nécessite la connais-
sance des coefficients de corrélation. Lorsque l'estimation des coefficients de
corrélation n'est pas disponible, on représente le filtre par sa forme treillis non opti-
raisée, i.e., une forme où les k; ne sont pas les coefficients qui correspondent au
filtre optimal. Des techniques itératives permettent alors de faire converger les k;
récursifs sur la variable temps 43

vers ceux qui représentent le filtre optimal. Afin d'établir cette forme treillis, asso-
~ions à chaque polynôme Pm les deux filtres MA de fonctions de transfert
z'-m Pm(Z) etC"' P,~(z). Soient x;:' et x%' les signaux à la sorties de ces filtres. Les
V:A' Xf' et x%' sont appelées erreurs de prédiction avant (progressive) et arrière
(r~trograde) respectivement. L'estimation des k; optimaux se fait en minimisant
~\iccèssivement x'k' à la sortie de chaque cellule. On peut aussi utiliser x[' à la place
de x;;'. Le passage des prédicteurs d'ordre m à ceux d'ordre m + 1, se fait à l'aide des
relations suivantes déduites de ( 1.27) en introduisant les fonctions de transfert
Z..,..-m Pm (z) et z-m P,~ (z) :

--
_-1
<.
1
.(. - km+l ][x"'-xm"'] ·
k
• k
(1.74)

Ce système constitue la forme treillis du filtre et permet de construire, par récur-


rence, à partir des conditions initiales X); = :ti = Xk et de la suite des coefficients
de réflexion k1 , ... ,kp une suite de filtres d'ordres 1, ... ,p.
TI existe plusieurs méthodes qui permettent de déterminer les k;. Ces méthodes
doivent conduire à des coefficients estimés k 1, ••• ,kp tous de module inférieur à 1
afin d'assurer la stabilité du filtre cherché. En général, on détermine ces coeftïcients
en minimisant la variance de X'f/, la variance de X;;' ou une combinaison de ces deux
variances et ceci à la sortie de chaque cellule du treillis.
(1) La minimisation de l'erreur pr?ressive est appelée méthode Forward et conduit
à des coefficients notés souvent k; .
(2) La minimisation de l'erreur rétrograde est appelée méthode Backward et conduit
à des coefficients notés souvent kf.
(3) Par exemple, Burg [83] propose de minimiser la moyenne arithmétique des

~ variances de x;:' et x%' et Itakura propose de prendre k{ = Sg(k() ik{ k;' 1 et montre
§
0 que ce choix conduit à un tïltre AR stable.
~ Alors que les coefficients apparaissant dans la forme transverse dépendent de
g l'ordre p du filtre, les coeflïcients de réflexion qui détïnissent la forme treillis de ce
'~ filtre sont indépendants de p. Cela signitïe que pour passer d'un filtre d'ordre p à
t celui d'ordre p + 1, on doit remplacer tous les coefficients aj, ... ,a% par d'autres
-~ coe j'fiIC!ents
. p+l a1ors qu ''1
a 1p+l , ••• ,ap+l 1 suff-11 d' aJouter
. . 1ement un coe ffi
s1mp .
· Jc1ent
kp+l à la suite /q, ... ,kp qui définit la forme treillis d'ordre p. De plus la forme
~; treillis permet de contrôler la stabilité à l'aide d'une simple comparaison des [k;[
l
' à 1.
44 1 • Methodes récursives et adaptatives pour le filtrage optimal

1.3.4 Détermination du filtre de Kalman

a) Critère de la variance conditionnelle minimale


On se place dans le cas des signaux à temps discret et on considère le modèle d'état
suivant:
(1.75)

(1.76)

où Vk et bk sont respectivement les bruits d'état et d'observation. Le filtrage au sens


de Kalman consiste à trouver la << meilleure estimation linéaire » au sens de la
variance conditionnelle minimale, de l'état Xk à l'instant k, à partir d'observations
... effectuéesjusqu'àj'i!lgaJ1tX:J'I, ... ·Yk·. Ons ait que l'estimation linéaire cherchée
est la projection orthogonale cte xk sur l'espacevectoiiet Y1.k engendré par
y,, . ... Yk·
On se propose d'établir dans cette section les équations du filtre dans le cas géné-
ral d'une observation Yk vectorielle. On se place tout d'abord dans le cas où les bruits
vk et bk sont gaussiens, centrés et décorrélés dans leur ensemble. On étend ensuite
les équations du filtre au cas où Vk et bk sont corrélés. Les notations et les hypo-
thèses suivantes seront utilisées.
1. On désigne une suite de j observations par

2. Les matrices d'intercovariance d'une suite de vecteurs aléatoires Zk sont notées :

R'kAR'
- kk•

La matrice de covariance d'un vecteur aléatoire z conditionnées par J'observation


Y1.j sera notée RtkJj· Si Zk est indépendant de Yl.j• on a évidemment Rf,klj = Rf.k

3. L'estimation linéaire Xklj de Xk en fonction de l'observation Y 1.j, l'erreur d'esti-


mation Ykli et la matrice de covariance de cette erreur sont définies par:

4. On définit les mêmes grandeurs pour Yk :

Pour j = k - 1 et j = k, on obtient respectivement les estimations linéaires a priori


et a posteriori pour Xk. Pour j = k - 1 , on obtient la prédiction linéaire de Yk en
fonction du passé Y!.k-1·
11ri, Algorithmes récursifs sur la variable temps 45

s. Chacun des bruits bk et Vk est une suite de V.A centrées et non corrélées :
E[vd = 0, E[bd = 0,

6._ La matrice de covariance du vecteur initial x0 est notée RJ et on fait les hypo-
, thèses suivantes :
E[x(O)] ~mo, E[xob[l = 0, E[xov[J =O.

b) Filtre dans le cas de bruits blancs gaussiens non corrélés


Nous allons exposer brièvement les équations du filtre dans le cas où les bruits vk
---·-etbk-sont des bruits blancs gaussiens centrés et non corrélés. On peut alors vérifier,
par récurrence, que :
1. Xk dépend linéairement des quantités XJ et VI, ... , vk-I·
2. Yk dépend linéairement des quantités XI, vI, ... , Vk-I , et bk.
Le filtrage de Kalman est fondée sur un algorithme qui permet de passer récursive-
ment des estimations \xklt.Rklk) obtenues à partir des observations YI, ... ,yk aux
estimations Cxk+IIt.Ri+llkl obtenues à partir des mêmes observations YI, ... .Yk·
On cherche le filtre de Kalman au sens de l'estimation linéaire en moyenne qua-
dratique minimale. Les estimations et prédictions qui interviennent dans la déter-
mination du filtre de Kalman sont des projections orthogonales sur des espaces vec-
toriels engendrés par toutes les fonctions linéaires des V.A servant à l'estimation ou
à la prédiction. On sait que dans le cas gaussien, cela revient à chercher les projec-
tions sur des espaces vectoriels engendrés par toutes les fonctions des V.A et que les
matrices de covariance des erreurs sont égales aux matrices de covariance condi-
tionnelles.
Partant de l'équation d'état et des hypothèses sur v, on obtient:
(1.77)

(1.78)

Si l'on fait une nouvelle observation Yk+I, on peut déterminer l'estimation Xk+IIk+I
de Xk+I en fonction des V.A gaussiennes Yk+I et YI.k· En effet, la règle de Bayes
donne
46 1 • Méthodes récursives et adaptatives pour le filtrage optimal

Ces trois densités sont gaussiennes et on a E[Yk+Ifxk+ll = ck+IXk+I et

R~+llk §, COV[Yk+I/YI,kl = ck+ltk+IIkcr+l + RZ+t


On a donc:

avec:

La densité P, contient toute l'information sur l'état Xk+l conditionnellement à la


connaissance de YI, Y2, ... ,Yk+ I . Elle contient donc toute l'information nécessaire
pour estimer selon un critère donné l'état Xk+l· On peut par exemple choisir le cri-
tère du MAP, celui des moindres carrés ou celui de la variance minimale. Les équa-
tions ci-dessus permettent de détenniner Xk+IIk+l lorsqu'on connaît Xklk· Ces deux
équations sont à la base de l'algorithme récursif sur lequel est fondé le filtre de
Kalman dans le cas discret. Il existe plusieurs formes d'algorithmes possibles pour
la détermination de ce filtre. Nous donnons les deux formes suivantes.
Forme 1 de l'algorithme :

xk+ Ilk = Akxklk.

y
R k+llk = c k+l (ck+IIk
, l-IcT Rb
k+l + k+I •
, , ,
'-'k+l = ck+IIk
cT
k+l
CRYk+IIk l-1

Forme 2 de l'algorithme :

R ykik-I -
-
C k (Cklk-I
' )-IcT
k + R"k• K. k ="Aktklk-I
' cT
k
1,3 Algorithmes récursifs sur la variable temps 47

Les matrices c;'+ llk et Ef+ llk+ 1 sont les matrices de covariance d'erreur d'estimation
a priori et a posteriori, Rflk-l est la matrice de covariance de l'erreur de prédiction
de Yk en fonction du passé Yl,k-1, la matrice JCk est dénommée couramment gain
de Kalman et elle souvent remplacée par le gain généralisé défini par

Le calcul de la matrice de gain /Ck ne dépend que des matrices Ak,Ck.RZ,Rf:, e-0et
non des observations. Il peut donc être calculé avant les observations Yk.k ? 1.

dFittre dans le cas de bruits blancs gaussiens corrélés


Nous allons exposer brièvement les équations du filtre de Kalman dans le cas où les
estimations considérées sont des projections sur des espaces LL .... Y, (P), i.e. on
considère des estimations linéaires en moyenne quadratique et non des estimations
au sens de la variance minimale. Si les V.A qui apparaissent dans le modèle d'état
sont gaussiennes dans leur ensemble, il n'y a aucune distinction entre les deux esti-
mations. On considère le modèle d'état suivant

( 1.79)

(1.80)

où uk est une entrée déterministe et Vk et bk sont respectivement les bruits d'état et


d'observation. Les notations sont celles introduites dans les sections précédentes.
On introduit l'intercorrélation entre Vk et bk par :

Utilisant les propriétés de linéarité de la projection orthogonale, on peut établir les


equations qui définissent le filtre de Kalman en faisant apparaître les trois étapes
suivantes.
§' 1. Le calcul de Xklk et e-klk :
0
a. ,
K k = 0 klk-l cT< ,. J-1
k Eklk-1
j
;
0
0

''9 (1.81)
48 1 • Méthodes récursives et adaptatives pour le filtrage optimal

2. Le calcul de Xk+ llk et "k+ llk :

W k =~ R"b( v
k Eklk-1 )-t , -Xk+llk = A-
kXklk + Uk + W-
kYklk-1
v
ék+llk = A ktklk
v AT+ R"
k k k k - A k K k (R"b)T
k- R"bKTAT k - R"bWT
k k·

3. Le calcul de Yk+ Ilk :

Le décompte des opérations numériques des différentes étapes de l'algorithme


montre que chaque itération nécessite un nombre de multiplications dont l'ordre de
grandeur est donné par (n et p dimensions des matrices) :
5 7··························0 ·····················l········ 3 ........... 3.....3
N =-(n-p+ p-n) + -p + -n
2 2 2
La complexité numérique est donc très importante notamment lorsque n ou p sont
assez grands. Des alternatives telles que la factorisation de Chandrasekhar permet-
tent d'obtenir une complexité réduite. L'algorithme de calcul proposé pour la déter-
mination du tïltre de Kalman n'est pas unique. Il existe dans la litérature un grand
nombre de versions possibles de cet algorithme. Nous présentons dans la suite une
version compacte et une version asymptotique de cet algorithme. La mise en œuvre
de l'algorithme est sensible aux incertitudes sur les paramètres définissant le modèle
et aux erreurs liées à l'imprécision des calculs numériques. Ceci se traduit généra-
lement par la perte du caractère symétrique et défini-positif des matrices de cova-
riances estimées, ce qui peut conduire à la divergence de l'algorithme. C'est pour-
quoi, il est nécessaire, dans la pratique, d'assurer la symétrie de ces matrices.
Utilisant les expressions ci-dessus, on peut établir la récurrence suivante entre
"k+llk et "klk-1 :

ck+llk = AkEI 1k_ 1 A[- AkKkCkch_ 1A[-


R);bK[A[- AkKk(R"b)[- Wk(R"b)[ + R);.
Remplaçant Kk et W k par leurs expressions, on obtient :

Ce qui conduit à la relation suivante, équation de Riccati discrète :

ck+llk = R); + Akcklk-tAk-


[A kEklk-1
x cT+
k R"bJ[C
k k c,
éklk-i l-tcT
k + Rbl-llA
k v
ktklk-i cr+
k R"blT
k ·
'l:3.' Algorithmes récursifs sur la variable temps 49

"'Dans Je cas stationnaire, les matrices sont indépendantes de l'indice k qui sera omis
dans Jes notations. Si l'on appelle Ex, K et W les limites respectives des matrices
correspondantes lorsque k tend vers l'infini, on obtient :

f/=R"+Ac'AT -(Ac'CT +R"b)(C[c'r 1cT +Rb)- 1(Ac'CT +R"bl


K = c'CT (C[c'rlcT + Rb)-1, W = R"b(C[c'rlcT + Rb)-1

La matrice c' peut être déterminée de manière itérative à l'aide de J'équation de


;Riccati. On obtient une forme sous-optimale du filtre de Kalman en remplaçant Kk
parK et Wk par W. L'équation précédente permet une mise en œuvre simplifiée
mais aussi sous-optimale du filtre de Kalman. On obtient alors les équations du
filtre de Wiener :
Yklk-1 = Yk- cxklk-1· xklk =xklk-1 + KY'klk-1
xk+llk = Axklk + uk + WY'klk-l
Ce filtre limite est sous-optimal mais il a l'avantage d'avoir une complexité numé-
rique assez faible.
Le filtre de Kalman dé±ïni ci-dessus suppose la connaissance exacte des matrices
Ak.Bk. Ck. des propriétés statistiques du bruit et des conditions initiales R", x 0 et c0.
Mais dans la pratique on ne dispose que des estimations pour ces grandeurs.
Cependant, lorsque tous ces paramètres sont connus, le filtre de Kalman donne la
solution optimale du problème du filtrage linéaire par minimisation du critère de
l'erreur quadratique moyenne.

d) Cas des signaux à temps continus


On se place dans Je cas d'un système linéaire stochastique à temps continu, dont la
représentation d'état est décrite par :
x(l) = A(t)x(t) + B(t)u(t) + v(t) (1.82)

li Yk = Ckxk +bk (1.83)


~

5tl
où les différentes grandeurs ont été introduites dans la section précédente et où v(l)
~ est le bruit d'état et b(t) est un bruit d'observation. On se place dans le cas d'obser-
g
• vations scalaires. Le principe du filtre de Kalman est analogue à celui décrit dans le
l cas discret, seule l'évolution entre deux observations consécutives est spécifique au
i cas continu. Par analogie avec le cas déterministe, la relation qui relie entre-elles les
s deux valeurs prises par la solution générale x(l) aux instants tet T,t ;;, T, s'écrit:

x(t) = <l>(t,T)X(T) + L <l>(t,li)[B(Ii)u(li) +v(li)]dO. (1.84)


50 1 • Méthodes récursives et adaptatives pour le filtrage optimal

On considère dans cette section que les bruits bk et vk sont non corrélés dans leur
ensemble, soit:

E[v(t)b(r)T] =O.

Tenant compte des différentes hypothèses, on obtient

E[x(t)] = <!>(t,r)E[x(r)]. (1.85)

Comme la matrice de transition satisfait la propriété <!> (t, r) = <!> (t ,8)<1> (8, r), il
vient

(1.86)

D'où

(1.87)

Comme <!> (t, r) vérifie ( 1.85) et qu'en tant que fonction de t, elle est solution du sys-
tème homogène associé à ( 1.82), on obtient

x(t)- E[x(t)] = <l>(t,T)(x(r)- E[x(t)]) +[ <!>(t,8)[R"(8)<!>T(t,8)d8.

Tenant compte de cette expression, on obtient :

et la dérivée de fx(t,t) est donnée par:

1\(t,t) = A(tlfx(t,t) + fx(t,t)AT (t) + R"(t). (1.88)

La valeur de x(l) est donnée par (1.84) et sa meilleure estimation par l'espérance
conditionnelle définie par :

x(t) = <!>(t,r)x(r) +[ <l>(r,8)v(8)d(). (1.89)

Considérons une suite d'instants 11 ,t2, .... Pour t compris entre deux instants d'ob-
servations successives, lk et lk+ 1, x(t) est donné par (1.89) et il est donc solution du
système différentiel suivant :

Î(t) = A(t)x(t) + v(t). (1.90)


JJlif!ff;ffi1v,
% >'
-'\(

;-,<-:,;\Éxilrèices et problèmes corrigés 51

:.Les deux équations (1.88) et (1.90) constituent la phase de prédiction de l'algo-


rithme. La deuxième étape de l'algorithme, appelée étape de correction, est donnée
,parles équations suivantes.
1. On se place à l'instant tk et on ne tient pas compte de l'observation Yk·

-Yklk-1 = C-
kXklk-1.
y
Eklk-1 = Cktklk-!
' CTk + Rbk
z. On se place à l'instant tk. et on tient compte de l'observation Yk·

EXERCICES ET PROBLÈMES CORRIGÉS

1.1 Filtre adapté

On considère le signal :

z(t) = u(t) + b(t), u(t) = Aei 2"fnt


où A est une variable aléatoire uniformément répartie sur [-1,1[ et b(t) un bruit
blanc réel, centré, indépendant de A et de variance dl.
1. Calculer la fonction de corrélation et la DSP de z(t).
2. On considère le filtre de réponse impulsionnelle
t
h(t) = eJ-rrvorn(-)
'7

T
~ où f1(8) désigne la fonction rectangle définie ci-dessus.
!" Tracer le module de la réponse en fréquence G(l/) de ce filtre.
l
; 3. Calculer la sortie y (t) associée à u (t).
11
'
4. Calculer la puissance, ')',.,(0), de la sortie Yb (tl associée à b(t).
l" 5. Calculer le rapport :

'
~ p(t) = 1Yu(l)l
2

l'n,(O)
~
;
i et déterminer la relation entre 1/o etfo lorsque ce rapport est maximum.
52 1 • Méthodes récursives et adaptatives pour le filtrage optimal

6. On sait que Jo < !max· Comment peut-on estimer Jo à partir de plusieurs tïltres
adaptés?
7. On observe la sortie y,(t) du filtre associée à z(t) sur l'intervalle [-T,T] et on
désigne par 1z(t) le signal égal à y,(t) sur [- T, T] et nul ailleurs.
a) Calculer la fonction

-
J',(r) =
1 {T é. -
T Lr E\y,(t)y:(t- r) )dt.
*
2

et calculer sa transformée de Fourier f,(v).


b) Tracer le graphe de f,(v) et le comparer à celui de la DSP de z(t) pour les
grandes valeurs de T.

1.2 EstimationÙ~é~i~~~~~ensdelavariance minimale


On considére 11 variables aléatoires centrées XJ, ... ,X11 et l'on définit une nouvelle
variable X par :

où a 1 , ••• , a 11 sont des scalaires déterministes. On se propose de calculer ces sca-


laires de sorte que la V.A correspondante X approxime << au mieux » une V.A X cen-
trée et connue. Le terme << au mieux >> est pris au sens du critère de la variance
minimale, i.e., on détermine les paramètres qui minimisent la quantité :

f(aJ, ... ,a") !!o var(X- X).


1. Calculer l'espérance de X - X.
2. Démontrer que les coefficients ak vérifient les conditions suivantes :

Cov(X- X,Xkl = 0 pour k = 1,2, ... ,Il.

3. Donner le système linéaire qui permet de determiner les coefficients ak.


4. Calculer les coefficients ak dans le cas particulier où les xk sont indépendantes.

1.3 Exemple de prédicteur optimal MA


On considère le signal s, donné par :
p
s" = L
k~l
Akexp( -j21fvkn) (1.91)

où les Ak sont des variables aléatoires centrées, deux à deux indépendantes et de


variances O'k = E(AkAï;), et vk E [-1/2,1/2] sont des fréquences distinctes. On
EiErcices et problèmes corrigés 53

introduit le signal bruité Xn = sn + b" où b 11 est un bruit blanc centré, indépendant


.de s11 , et de variance a1- Soit Yn la sortie, associée à x,, du filtre dont la fonction de
transfert est donnée par :
p
H(z) = 1- La z- 1
1
( 1.92)
i=l

où les a1 sont des nombres complexes à déterminer de façon à minimiser l'erreur


quadratique moyenne J = E([y11 [ 2 ]. On va établir de deux manières différentes le
système vérifié par les coefficients a1•
1. Donner le système que doivent vérifier les coefficients a1 qui minimisent Jp en
utilisant le théorème de la projection. Ces coefficients définissent la fonction de
transfert Hopo (z) du filtre optimal.
--z:-taicl.iler la densité spectrale ïx(v) de x 11 •
2
3. Exprimer J = E([y 11 [ ] à l'aide de la densité spectrale ïx{v) et de H.
4. Pour simplifier les calculs, on suppose que la fonction H ne comporte qu'un seul
coefficient a (p = 1) et que a est un nombre réel. Tous les paramètres, autres que
a, sont supposés constants, donner l'équation que doit vérifier a pour que J soit
extrêmale et déterminer la solution de cette équation.

1.4 Existence d'une solution des équations normales


Soit un système du type (1.10) où Rm+I est une matrice définie non négative.
Démontrer qu'il existe toujours un scalaire o: ? 0 et un vecteur a, vérifiant ce sys-
tème. Pour cela on peut introduire les échantillons d'un signal aléatoire stationnaire
x(t) et interpréter Rm+l' comme matrice de corrélation d'un vecteur aléatoire de
composantes x(T), ... ,x([m + l]T). On introduit ensuite la projection de
x([m + l]T) sur l'espace vectoriel engendré par les variables aléatoires
x(T), ... ,x(mT). On exprime enfin que cette projection existe toujours puisque cet
espace est de dimension finie.

1.5 Représentation en treillis


On considère le polynôme à coefficients réels P11 ~ T(k 11 ) = z" - a1z"- 1 - ••• - a1.

1. Démontrer que les coefficients a1, ••• ,a11 sont des polynômes des indéterminées
kt,. .. ,kil.
2. Démontrer que les degrés totaux de a1, • •• ,a,, en tant que polynômes à plusieurs
indéterminées sont donnés par :
[2,4,6, ... ,2p,2p- 1,2p- 3, ... ,3,1] pour n = 2p
[2,4,6, ... ,2p,2p + 1,2p- 1, ... ,3, 1] pour n = 2p + 1
54 1 • Méthodes récursives et adaptatives pour fe filtrage optimal

3. Démontrer que si Sg(k;) = (-1) 1+ 1 , alors on a aussi Sg(a;) = (-l/+ 1•


4. Démontrer que chaque coefficient a; est un polynôme dont les termes sont des
monômes de la forme ( -1) 1'k; 1 ••• ,k;,. En déduire que si tous les k; sont négatifs,
alors il en est de même pour tous les a;.

1.6 Racines multiples et RT

1. Déterminer la RT des polynômes suivants :


P,(z) = z"- 1, Q,(z) = (z- 1)" et R,(z) = (z + 1)".
2. Vérifier que l'on retrouve bien P,, Q, et R, en utilisant la construction à partir
des coefficients trouvés.
---iQiî~-peui=üiidlredei<iiiiültip1icîtêdestacines···deP,.;--Q,;·et Q,. Comparer
nombre de coefficients k; de module 1.
4. Déterminer le polynôme Q dont la représentation en treillis est donnée par
kt = k2 = a réel, Jo 1 < 1 et k3 = l.
5. On suppose qu'il existe une valeur de a pour laquelle ce polynôme et sa dérivée
admettent une racine commune w. Combinant les deux relations
Q(w) = Q'(w) = 0, montrer que l'on arrive à une contradiction. Conclusion.

1.7 Multiplicité des racines d'un polynôme a.r

Soit Pn+l le polynôme construit, à l'aide de Levinson direct, à partir des coefficients
complexes k1, ... ,k, vérifiant Jk; 1 < 1 pour 1 ( i ( 11 et lkn+tl = 1. On admet que
les racines de Pn+l sont toutes de module 1 et on se propose de démontrer qu'elles
sont toutes simples. On pose
Pn+l (z) = zP,(z)- k,P,~(z).
1. Justifier les deux formes factorisées suivantes :
i=n-q i=n-q
P,(z)=z" TI (z-w;), w; =f 0 et P,(z)* = TI (1- w;z).
i=l i=l

2. Calculer la dérivée de Pn+l (z) en utilisant les expressions ci-dessus.


3. On suppose que Pn-l admet une racine w de multiplicité strictement supérieure
à 1 (Pn+l (w) = P,;+l (w) = 0). Démontrer que w vérifie alors la condition sui-
vante:
i=n 1 -Jw;J2
P,(w)[l + q + L
lw- w J2] =O.
t=l 1

4. En déduire que les racines de Pn+l sont forcément toutes simples.


Exercices et problèmes corrigés 55

1.8 Principe de l'argument

Soient P et Q deux polynômes vérifiant

P(z)Q(z) =f- 0 pour lzl = 1.

On se propose de démontrer le résultats suivant

P(z)
Ll.cu Arg(--) = 27r[n; (P) - n; ( Q)]
Q(z)

où Ll.cuArg[H(z)] désigne la variation de l'argument de H(z) lorsque z décrit une


fois le cercle unité dans le sens positif.
1. Si Pest un polynôme de degré 1 et que sa racine est à l'intérieur du cercle unité,
démontrer que

Ll.cuArg(P(z)) = 2r..

2. Si P est un polynôme de degré 1 et que sa racine est à l'extérieur du cercle unité,


démontrer que

Ll.cuArg(P(z)) = 0.

3. Généraliser le résultat à un polynôme P de degré quelconque en utilisant la forme


factorisée de P.
4. En déduire le résultat pour une fraction rationnelle en introduisant la forme fac-
torisée des polynômes qùi définissent cette fraction.

1.9 Théorème de Rouché

Soient R et S deux polynômes vérifiant

0 < JR(z)J < JS(z)J pour lzl = 1. (1.93)

On se propose de démontrer le résultat suivant :


n;(R + S) = n;(S). (1.94)

1. Démontrer que R +SetS n'ont pas de zéro sur le cercle unité.


2. Démontrer que la fraction rationnelle

H(z) = R(z) + S(z).


S(z)
56 1 • Méthodes récursives et adaptatives pour fe filtrage optimal

vérifie
Re[HCzl] = 1 +Re[;~;];:: 1-JR(z)S(z)J > 0, 'lz = ej 0.
3. Appliquer le principe de l'argument à H (z) pour établir le résultat.

1.10 Théorème de Schur-Cohn généralisé

Soient P et Q deux polynômes vérifiant :

(z- ai Q(z) ~ P(z) + kP*(z), Q(a) =f. 0, lkl =f. 1, d EN. (1.95)
Appliquer le théorème de Rouché pour établir les résultats suivants :
· · · llc(P)= ll,(Q) (1.96)
n,(P) = n,(Q) (1.97)

où n,(P) et n,(P) désignent les nombres de zéros de P de module 1 et de module


> 1 respectivement.

SOLUTIONS
1.1 1. La fonction de corrélation et la DSP de z(t) sont données par:
'ix Ct+ T,t) = IAI 2ejZrrf<,r + 2a2 t5(r)
2 2
r xCv) = IAI t5(v- fol+ 2a

2. Le module de la réponse en fréquence G(v) du filtre est


G(v) = Tsinc(rrT(v- f 0 ).
3. La sortie y,(t) associée à u(t) est donnée par sa T.F:
Y, (v) = AG(l/)O(v- Jo) = G(fo)ii(v- Jo)
D'où
y,(t) = AG(J0 )ejZ7rf<>t = G(j0 )u(t)
4. La formule des interférences donne ry,,(v) = IG(v)J 2 r,(v) = a 2 JG(v)l 2dv et on obtient
pour la puissance de la sortie y,(t):

'!y,, (0) = 'f ' 'f ' '1T


rr JG(v)l-dv =a· Jh(t)l-dt =a· -T '
ft= a·T.

5. Le rapport est donné par :


T 2sinc(rrT(vo- JO)' Tsinc(rrT(vo- fo) 2
p(t) = = .
2
rr T Œ2
\ 1Exetcices et problèmes corrigés 57

6• Ce rapport est maximum pour IJo = Jo. On met N til tres adaptés en parallèle. Le filtre

lz;(l) étant adapté au signal x;(t) = ejo~J,r avec f; =~Jo, i = 1, ... ,N. Le filtre pour
lequel le rapport est maximum nous fournit la fréquence cherchée.
7.

et sa transformée de Fourier est :


-r,(IJ) ='!y,* 2Tsinc(27rT(IJ)-.'
8. Pour les grandes valeurs de T, on obtient Î\(IJ)"' r,(IJ).

1;2 1. Comme X et les X 1 sont centrées, on obtient: E(X)- oqE(XJl- ...


- o:,E(X,) =O.
~-;z~D'après le théorème de la projection, on sait que X est égal à la projection orthogonale
de X sur l'espace vectoriel engendré par les Xi et muni du produit scalaire détïni par
< U, V>= E(UV). Comme X- X est orthogonal à chaque X 1, on obtient les conditions
demandées.
3. Ces conditions se traduisent par le système linéaire dont la matrice a pour éléments
lllij = E(X1 Xj) et dont Je second membre est le vecteur colonne d'éléments E(XXj).
4. Dans le cas où les X; sont indépendantes, la matrice du système est diagonale et les coef-
ficients o:k sont donnés par :
E(XXk)

1.3 1. On écrit que< )'11 ,Xn-i >= 0 pour i = 1,2, ... ,p.
2. On a
p l'
'(,(n) = L Œkexp(- j27fl/kll) + a1J(n), rxev) = I:: o:,Jc"- v,) + a1.
k=l k=l

3.

1 = 7,.(0) = j
-1/2
l/2
r,.(IJ)diJ = j
-l/2
1/2
2
IH(ej "'')1 2 fx(IJ)dv.

4. L'équation que doit vérifier a pour que J soit extrêmale s'obtient en annulant le gradient
de J qui admet comme expression :
l'
.1 = I::akiH(ejh"'ll' + (1 +a 2 )~.
k=l

1.4 On admet que toute matrice définie non négative peut être considérée comme
matrice de covariance d'un vecteur aléatoire. Une matrice définie non négative Rm+l peut
donc s'écrire sous la forme (1.11) où Xm+I fÈ:. [Xm+l ,X11" " •• ,XJ]T est un vecteur aléatoire.
58 1 • Méthodes récursives et adaptatives pour le filtrage optimal

Considérons alors la projection orthogonale

de Xm+I sur l'espace vectoriel engendré par les autres composantes X 1, X 2 , ... , Xm et
posons Œm ~ E[IXm+I - Xm+ll ]. L'application du théorème de ]a projection orthogonale
2

montre que le nombre O:m et le vecteur a 111 vérifient le système ( 1.1 0).

1.5 1. La propriété est vraie pour n = 1,2,3. On suppose la propriété vraie pour a 2 p et
on exprime les degrés de k1p+Ia2p· Comme la dernière composante de a 2p+l est de degré 1,
on obtient la proprié~é pour azr+l· On fait un raisonnement identique en partant de a 2r+I·
2. La propriété est vraie pour n = 1,2,3. Supposons la propriété vraie pour 3 111 _ 1 et dési-
gnons les signes de 3 111 -t par:
············r:t::=,+;: .:;r=TJ"'J:····
Alors, les signes de a,;,_, sont donnés par :
(-1)"'[+,-,+, ... ,(-1)"'].
Comme k 111 = ( -1) 111 + 1 \km 1, les signes de -k 111 a,~_ 1 sont donnés par:
( -1)"' [+,-,+, ... , ( -1)"'].

On vérifie que la propriété est vraie pour les m - 1 premières composantes de am. Comme
elle est vraie pour la dernière composante a;;: =km, elle est donc vraie pour am.
3. La propriété est vraie pour n = 1,2,3. Si l'on suppose la propriété vraie pour n, on déduit
immédiatement à partir de (1.25) qu'elle est vraie pour n + 1.

1.6 1. Le calcul des ki associés à Z11 - 1 conduit immédiatement à k 11 = 1 et


kn-1 = ... = k 1 =O. Ce polynôme qui admet une RT a toutes ses racines de module 1 et
elles sont toutes simples.
Le polynôme (z - 1)" est a.r et on a k, = ( -1 )"-i. On prend P,_i (z) = P/, /n et on obtient
Pn-1 (z) = (z- 1) 11 - 1• Le polynôme Pn-1 (z) est aussi a.r et on a kn-1 = ( -1) 11 - 2. Itérant la
méthode, on obtient k, = (-1)'-1, i = 1, ... ,Il.
Le calcul des k, associés à (z + 1)" conduit à k, = ... = ki = -1. Ce polynôme qui admet
une RT a donc toutes ses racines de module 1 et elles sont toutes confondues.
2. La reconstruction se fait à l'aide de la récurrence: Pm+J(Z) = zPm(Z) -km+IP*(z). À
m '
titre d'exemple, Q 11 se construit par induction comme suit. On a Q 1 (z) = z- 1. On suppose
Q 111 (z) = (z- 1) 111 • On obtient alors immédiatement : Q 111 +1 (z) = z(z- 1)''1 - (-1)1'1
[(z - l)"T = (z - 1)"'+ 1
3. Le polynôme construit à partir de la représentation en treillis ki = k 2 =a, !al < 1 et
k3 = 1, est donné par: z3 + az 2 - az- 1 pour a réel. S'il existe une valeur de a pour
laquelle ce polynôme et sa dérivée admettent une racine commune w, on doit avoir:

w3 +aw 2 -aw-1=0 et 3w 2 +2aw-a=0.


"Exercices et problèmes corrigés 59

On en déduit (a+ 3)(w 2 - 1) =O. Comme a+ 3 ofo 0 par hypothèse, on a forcément


w2 = 1. Mais on peut véritïer que Q'(±l) ofo 0 et donc on arrive à une contradiction. Les
racines de Q sont simple puisque seul k1 est de module 1.

1.7 Comme Pn+I est construit à partir des coefficients kJ, ... ,kn+I vérifiant lk;l < 1
pour 1 !'( i !'( n et lkn+II = 1, il est autoréciproque et toutes ses racines sont de module 1.
1. Dans le cas général, la fonne factorisée d'un polynôme est donnée par:

Pn(Z) = l 1 n
n-q

i=l
(z- Wi)

où q E N désigne l'ordre de multiplicité de la racine 0 et les wi les n - q autres racines non


nulles. On obtient immédiatement :
n-q
Pn(z)' =z''Pn(Z) =no- ill1z).
i=l

2. Pour calculer la dérivée de Pn+I (z) = zPn (z) - kn P,7(z), on utilise les expressions clas-
siques suivantes :
n-q 1 n-q 1
P,;(z) = Pn(Z)[~ + L ----] et P,7' (z) = P,7 (z)[ L J.
.:. i=l <..-Wi i=l 1 -Wi<..
On obtient:
1 q n-q 1 n-q Wj
Pn+l (z) = Pn(Z) + zPn(Z)[-: + L --] + kn P,7(z)[L J.
...:. i=l z- Wi i=l 1- Wj<..

3. Si w est racine de Pn+l-• on a k11 P,7(w) = wP11 (w) et l'expression de P,;+I (z) devient:
. n-q ~~~ -
,
Pn+ 1(w) = Pn(w) + Pn(w)[q + "~ ---]
W + Pn(w) "~ W1W .
i=l W- Wj i=l l- W;W

Comme lwl 2 = ww = 1, on obtient:


n-q n-q -
, (w) = Pn(w)II
Pn+l . +q + "~ -- + W "~ =--=]
W1
i=l W - Wj i=l W - Wj

1 -1Wd 2
= Pn(w)[l +q + L i=n

i=l
l _
w w, 12
].

l
0
4. Comme, lki 1 < 1, 1 ( i ( n, les racines de P11 vérifient 1Wi 1 < 1 , 1 ( i ( Il. Le nombre
P~+l (w) ne peut pas être nul et les racines de Pn+I sont donc forcément toutes simples.
"â.
1.8 Pour établir ce résultat, il suffit d'exprimer la variation de l'argument de
P(z) '1 m -I
- _ =nOcz-z1HOcz-p1Jl
Q(,) 1~1 1~1
60 1 • Méthodes récursives et adaptatives pour le filtrage optimal

où a désigne une constante, les Z; les zéros de Pet les Pi les zéros de Q. Le résultat se déduit
du fait que la variation de l'argument d'un monome z- w est nulle si [w\ > 1 et elle est
égale à 2rr si lw\ < 1.
1.9 1. Par hypothèse, on a S(z) i' 0 pour lzl = 1. Donc on aura aussi
P(z) + Q(z) i' 0 pour lzl = 1 sinon il existerait zo de module 1 pour lequel on aurait
1P(zo)l = 1Q(zo)l et ceci contredirait l'hypothèse.
2. En vertu de l'hypothèse, on a

[R(-)J
Re[H (zl] = 1 +Re -"- ;;, 1 -
S(z)
IR(-)1
-"- > 0,
S(z)
Par suite le nombre complexe H(z) est représenté par un point qui reste toujours dans le
demi-plan Re(H(z)) >O. La variation de son argument est donc nulle .
. 3.0n peutappliquerleprincipe del:argument àlafraction }f (z). Ce qui conduit immédia-
tement à la relation (1.94).····· ·- .. ·· ... · ·· · ........ · ·· ·· ·· .... ···

1.10 Comme lkl i' 1, la relation (1.95) donne d 0 (Q) = d 0 (P)- d. Désignons par
zéro(m) un zéro de P de multiplicité met appartenant au CU. Si a est zéro(m) de P, alors
co.:)- 1 = Œ est zéro{m) de P*. Donc Œ est zéro(m') de Q avec 111 1 ~ 111. Soit u le facteur de
Payant comme racines celles de P qui sont sur le CU, i.e., n,(U) = n,(P).ll est clair que
V est a.r et la relation ( 1.95) peut se factoriser sous la forme :

U(z- o-)Qo = U(Po + koP0) avec lkol = lkl. ( 1. 98)

De plus, si Qo(a) = 0 pour lai= 1, on obtient IPo(a)l = lkoi1P0(a)l et ceci contredit les
deux conditions lkol i' 1 et IPo(a)l = IP0(a)l i' O. Donc n,(Qo) = 0 et par suite
n,(Q) = n,.(U) = n,.(P). Finalement, comme n,(Q) = n,(Q*), on obtient (1.96).
Pour établir (1.97), distinguons les deux cas: n,.(P) = 0 et n,.(P) i' O.
Cas 1: n,.(P) =O. Si k = 0, on a (z- o-)" Q(z) = P(z) ce qui donne (1.97). Supposons
maintenant ki' O. La définition de P* implique

IP(z)l = IP*(z)l pour lzl = 1


et (1.95) donne
ICz- o-)" Q(z)- P(z)l = lkiiP(z)l pour lzl = 1.
Comme IP(z)l i' 0 pour lzl = 1 et 0 < lkl < 1, on obtient
0 < l(z- o-)" Q(z)- P(z)l < IP(z)l pour lzl = 1.
L'application du théorème de Rouché donne n;{(z-o-)"Q}=n 1 (P)=n 1 (Q)+d. D'où
d 0 (P) -n,(P) = d 0 (Q) -n 0 (Q) +d en vertu de (1.96). Comme lkl i' 1, on a
d 0 (P) = d 0 ( Q) + d. Finalement, on obtient ( 1.97).

Cas 2: n,(P) i' O. Le polynôme P peut se factoriser sous la forme (1.98). La simplification
par le facteur U nous ramène au cas ne( Po)= O.
Chapitre 2

~~
Méthodes d'analyse spectrale

L'analyse spectrale consiste à estimer le spectre de puissance d'un signal à partir


d'un nombre limité d'échantillons. Dans le cas d'un signal déterministe, le principal
ôutil est la Transformée de Fourier (T.F). Dans le cas d'un signal aléatoire, la T.F
d'une seule trajectoire reste souvent insuffisante et on doit calculer la densité spec-
tr.ale de puissance (DSP) comme T.F d'une fonction de corrélation estimée.
TI existe différentes classes de signaux ou de spectres et par suite différentes
modélisations pour le signal. Dans la pratique, avant tout traitement, on se donne
souvent un modèle pour le signal temporel ou pour son spectre et on applique une
méthode d'analyse spectrale appropriée. Les modèles les plus importants sont les
suivants.
1. Modèles pour la loi temporelle du signal [12] [42] [69] [lOO].
2. Modèle pour le signal lui-même ou pour son spectre [83] [68].
Les modèles les plus fréquents sont linéaires. Le signal à étudier s'interprète alors
comme la sortie d'un filtre linéaire qui est soit un filtre autorégressif (AR(p) ), soit
un filtre à moyenne mobile (MA(q)) soit une combinaison de ces deux derniers
(ARMA(p,q)). Le modèle peut aussi être non linéaire et on se limite souvent aux
modèles quadratique, cubique ou de Volterra. [23] [63] [70].
Pour un modèle donné, l'étude du signal peut être fondée sur :
l. les statistiques du second ordre (SOS) [66]
2. les spectres évolutifs et l'analyse temps-fréquence [14] [29] [30] [31]
3. les statistiques d'ordres supérieurs à 2 (HOS) [25] [52].
4. les polyspectres évolutifs et l'analyse temps-fréquence [9] [17] [50] [59].
Pour chaque modèle, il existe des méthodes d'analyse appropriées et dans ce cha-
pitre, on se limitera aux méthodes fondées sur l'utilisation des moments d'ordre 2.
62 2 • Méthodes d'analyse spectrale

Généralement on ne dispose que d'une seule réalisation du signal. On suppose alors


que le signal est ergodique et ceci nous permet de remplacer les moments statis-
tiques d'ordre 2 par les moments temporels associés. Souvent l'observation se réduit
à un nombre fini N d'échantillons ce qui ne permet d'obtenir qu'une estimation des
moments (coefficients de corrélation 'Ykl· Pour obtenir p + 1 coefficients l'o·· .. •~'p•
on doit choisir N > > p afin d'assurer une qualité suffisante pour les estimateurs.

2.1 MÉTHODES FONDÉES SUR LE MODÈLE D'UNE SOMME


DE p FRÉQUENCES

Commençons tout d'abord par donner le résultat suivant relatif aux signaux, dits pré-
. dictibles;pour lesquels la matrice-de corrélation,R, devient singulière à partir d'une-;
certaine dimension. ·

Le sous-espace propre Emin associé à Àmin est de dimension q = 11 + 1 - p si p


est le rang de la matrice R supposée de dimension 11 + 1. L'espace Emin contient q
vecteurs propres indépendants qui seront notés ai. Ces vecteurs sont orthogonaux à
chacun des p vecteurs signal Ui définis par :

Ui =a (1 ,i.;, -")T '


_ ... •"i avec (2.3)
Méthodes fondées sur le modèle d'une somme de p fréquences 63

Chacun des vecteurs n;, i = 1,2, ... ,p, est donc orthogonal aux q vecteurs a1. Cette
orthogonalité se traduit par :
n-I
Pc(z;) ~z;' + 'I:,afz{ =< a;,n; >=Ü [z;l = 1, f = l, ... ,q. (2.4)
j=O

Ainsi, les nombres z; qui définissent les vecteurs n 1 peuvent être déterminés en cal-
culant les zéros de module 1 qui sont communs aux q polynômes Pc. En vertu du
modèle (2.2) de x(t), ces q polynômes ont au moins p zéros communs de module
L Soit Xk un signal défini par le modèle suivant :
p

.Xk-- sk + z.,,k avec ""k -- "'A,·ejl;wik


L (2.5)
i=l

~--···aŒTe:•;A 1 sont des VA non corrélées, les v 1 des fréquences distinctes et bk un bruit
blanc de variance Œ2 indépendant du signal Sk. Le signal ainsi construit, dénommé
somme de fréquences bruitées, est stationnaire et sa fonction de corrélation 'Yx(n)
est donnée par :
p

'Yx(n) =L '"" 7
E([A; r-Je 1"')-'"''" + crr5(n).
')
(2.6)
i=l

La matrice de corrélation r construite à partir des corrélations /o .... , ln a la


forme:

(2.7)

où Rest la matrice de corrélation associée à sk et I la matrice identité. Les matrices


r et R sont de Toeplitz, la première est définie positive et la seconde définie non
négative. Tenant conte du modèle de Sk. on peut vérifier que Rest de rang p. La pro-
position 2.1.1 permet d'associer à toute matrice de Toeplitz détïnie non négative, R,
un signal de la forme (2.5) admettant R comme matrice de corrélation. Toute
matrice r détïnie positive peut donc être considérée comme la matrice de corréla-
m
.~ lion d'un signal du type (2.5). La valeur propre minimale de r est donnée par
~ Àmin = ~ et sa multiplicité est égale au nombre de fréquences pures contenues dans
~ le signal. Utilisant cette propriété, on peut retrouver théoriquement, à partir de la
g
. ~ co~naissan ce de r:
0 1
les parffamètres v1 intervenan.\t dans le modèle (2.5) ainsi que 1~
: vanance Œ- du bruit. En e et, la valeur propre min de la matrice r nous donne o-
o
'Ë. et permet de déterminer la matrice R = r - Œ2 L Comme R est une matrice de
Toeplitz définie non négative, la Proposition 2.1.1 permet alors de déterminer les
fréquences v1 contenues dans le signal Xk. Pour ce faire, on va distinguer le cas où
.\min est de multiplicité 1 et celui où Àmin est une valeur multiple.
64 2 • Méthodes d'analyse spectrale

2.1.1 Pisarenko: Matrice de corrélation de rang= p +1


Lorsque Àmin est de multiplicité 1, on part du polynôme P(z) de degré 11 construit
à partir du vecteur propre associé à Àmin· On détermine ensuite les racines de P(z)
qui sont alors forcément sur le cercle unité. La Proposition 2.1.1 montre que ces
racines se confondent avec les ejzm,,. Dans la pratique, on peut aussi déterminer les
v; en calculant les maxima de la fonction

~ 1
f(v) = IP(ejhv)l (2.8)

Cette méthode est connue sous dénomination de méthode de Pisarenko. Nous allons
développer les calculs dans le cas de p sinusoïdes noyées dans un bruit blanc.

Exemple 2.1.2 Matrice de corrélation d'ordre 2p +1


Soit Xk un signal réel défini par le modèle suivant :'
p

Xk = Sk +bk. Sk =LA; cos (27rv;k + <p;) (2.9)


i=l

où les A; sont des amplitudes déterministes, les v; des fréquences réelles positives
distinctes, 'P; des variables aléatoires indépendantes et bk un bruit blanc de variance
o-'1 indépendant de Sk. Le signal ainsi construit est stationnuire et sa fonction de cor-
rélation est donnée par :

(2.10)

')'5 (1!) = Ï1~,


L.. Aj COS (27rV;Il) =
1~,.,
_L... AjeJ-rrv;n (2.11)
1=1
4 l=-q
avec les notations v_; = -v;, A_; = A;, i = 1, . .. , p et Ao §, O. La matrice de cor-
rélation r de Xk est une matrice de Toeplitz symétrique définie non négative
(valeurs propres positives ou nulles). Si cette matrice est d'ordre 2p + 1, sa valeur
propre minimale Àmin est de multiplicité 1.
Soit a le vecteur propre associé à Àmin et dont la première composante est égale
à 1. Alors, ce vecteur est unique, vérifie la propriété de symétrie a = Ja et le poly-
nôme de degré 2 p associé à a par :
2p
P(z) "'La;z; (2.12)
i=O

·
admet comme racmes _
4.i =~ e jhv1, l• = ±1 ,... ,± p.
2.1 Méthodes fondées sur le modèle d'une somme de p fréquences 65

Si À min = 0, on peut vérifier qu'il existe un seul signal Sk du type (2.9) qui admet
r comme matrice de corrélation. Les fréquences IJ; sont alors données par les
racines du polynôme (2.12) et les A~ sont solutions du système carré d'ordre p sui-
vant :
p
LA~ cos (2TCV;Il) = 2")'_,(11), Il= 1, ... ,q. (2.13)
i=l

Si Àrnin =f 0, alors il existe un seul signal Sk du type (2.9) qui admet f - Àminl
comme matrice de corrélation. On a alors u 2 = Àmin et les paramètre du signal sk
~sont calculés à partir de la matrice f - ,\mini.
Dans la pratique, on peut donc toujours associer à une matrice de corrélation un
signal unique du type (2.1 0). Si Je signal à partir duquel on a estimé cette matrice
,~_esLeffectivement un mélange de p sinusoïde noyées dans un bruit blanc, on retrou-
vera les paramètres du signal. Sinon, Je signal ainsi déterminé est un signal station-
naire qui a en commun avec Je signal réelles mêmes p + 1 premiers coefficients de
corrélation.

Exemple 2.1.3 Cas d'rme matrice de dimension 3


Pour Je signal

Xk = -J2A cos (2m;k + <p) +bk


les 3 coefficients de corrélation sont donnés par :
'} '} ., 'J
bo•I'I •l'2l =("+A-, A- cos (27rv), A- cos (47rv)]

Les valeurs propres de ·la matrice d'ordre 3 sont données par

[.\o,ÀJ,,\2] = (~. ~ + A 2[1- cos (4TCv)], ~ + A 2[2 + cos (47rv)]]

Les vecteurs propres associés sont

uo = (-2 co~ (2TCv)) , UJ =


(
COS (2TCV))
]
cos (2m;) '

On peut vérifier que ,\min =~ et que les racines du polynôme :

li P(z) =
1
z-- 2 cos (2m;)z + 1

associé à u 0 sont e±j 2"". Leur connaissance permet Je calcul de v. La puissance A 2


est ensuite déterminée par Je système linéaire qui se réduit à la seule équation :
1
A- cos (27rv) = 1'!·
66 2 • Méthodes d'analyse spectrale

2.1.2 MUSIC: Matrice de corrélation de rang> p +1


Dans le cas où Àmin est de multiplicité supérieure à 1, la méthode de Pisarenko,
connue aussi sous la dénomination méthode MUSIC en traitement d'antennes, peut
se résumer comme suit. Le sous-espace propre Emin associé à Àmin est de dimension
q = n + 1 - p si p est le nombre de fréquences v1 distinctes contenues dans le
signal. L'espace Emin contient q vecteurs propres indépendants qui seront notés a 1•
Chacun des vecteurs u 1 est donc orthogonal aux q vecteurs a,. Cette orthogona-
lité se traduit par les q équations linéaires données par (2.4).
La résolution de ce système revient à chercher des zéros de module 1 qui sont
communs à q polynômes Pe, f = 1,2, ... ,q.
La grande difficulté dans la pratique réside dans le choix du nombre q de poly-
nômes et du degré n de ces derniers qui définit 1' ordre de la matrice r. On peut aussi
······················· ....... déterminer les v 1 en.calculanlles_valeurs_de_v pPuLksmie!les la fonction suivante
atteint ses maxima.

La méthode de Pisarenko et la méthode MUSIC peuvent se généraliser au cas où la


matrice de corrélation n'est pas forcément de Toeplitz et on obtient la méthode des
sous-espaces 011hogonaux. Cette méthode consiste à classer les valeurs propres de
la matrice par ordre croissant puis décider, en fonction d'un certain << critère >>, que
les q vecteurs propres associés aux q plus petites valeurs engendrent un espace qui
sera l'espace bruit. Les autres vecteurs propres engendrent l'espace signal qui est
donc orthogonal à l'espace bruit puisque la matrice de corrélation est hermitienne.
Les vecteurs u1 appartiendront alors à cet espace signal. Dans la pratique, la princi-
pale difficulté consiste à estimer le nombre q qui représente théoriquement la mul-
tiplicité de la valeur propre minimale.
Les figures 2.1, 2.2 et 2.3 donnent le spectre (à gauche) d'un signal s(t) et la posi-
tion des zéros du polynôme construit à partir du vecteur propre associé à la valeur
propre minimale d'une matrice de corrélation de s(t) d'ordre 7. Les<< o >> représen-
tent les 6 zéros du polynôme et les << * >> les vraies fréquences contenues dans le
signal. Ce signal est égal à 1, 2 ou 3 fréquences bruitées selon que l'on considère la
figure 2.3, 2.2 ou 2.1. On constate sur cette simulation que les fréquences contenues
dans s(t) sont bien déterminées à partir des racines de module 1 du polynôme, à
coefficients réels et de degré 6, associé à l'un des vecteurs de l'espace bruit. Dans le
cas de trois fréquences, l'espace bruit contient un seul vecteur et donc on ne peut
utiliser qu'un seul polynôme. Dans les deux autres cas on a la possibilité d'utiliser
2 ou 3 polynômes et chercher les zéros communs.
; Méthodes fondées sur le modèle d'une somme de p fréquences 67
21

Spectre
0 : Fréquences vraies

0.9
0.8
'" ~
" ' ~ 60
0.7
0.5 •

0.6 '" "


0.5 180. . .. ~ . 0

0.4

0.3 '" "0

300
0.2 '" '"

" : Zéros du polynôme


0.4

Figure 2.1 MUSIC: matrice d'ordre 7 et 3 fréquences bruitées.

Spectre
0 : Fréquences vraies
0.9

0.8
"0 " ' 60
0.7
"0 '
·e.. 30
0.6 .... ..

0.5 :~:- .. 0

0.4
•(;.
•.. •· ,30
0.3 '"
0.2 '" 2ï0 '"
0.1
~\..J'v,_ * : Zéros du polynôme
oo 0.2 0.4

Figure 2.2 MUSIC: matrice d'ordre 7 et 2 fréquences.


68 2 • Méthodes d'analyse spectrale

Spectre
0 : Fréquence vraie
0.9

0.8

0.7

0.6

.. : ...
0.5 1130 . . . . . ··>l'· . . .""> . . . ; +. 0

0.4
330
0.3 '"
0.2 ,70

b.; ·
ov ~. ~--'--~
0 0.2 0.4
* : Zéros du polynôme

Figure 2.3 MUSIC: matrice d'ordre 7 et 1 fréquence bruitée.

2.1.3 Prony: Somme de fréquences amorties


La méthode, connue sous la dénomination méthode de Prony permet l'analyse du
spectre d'un signal constitué par la somme de ji·équences amorties dont le modèle
s'écrit :
p
a.s'""A k
Sk= ~ iZj, '1 k, (2.16)
i=l

où z1 et A; désignent des nombres complexes. Le problème à résoudre est la déter-


mination des 4p paramètres fl;, Œ;, W;, r;, i = J, ... ,p, à partir de Il échantillons
Sk,k = 0, ... ,11- l. Chaque composante A;zf du signal Sk est une réponse propre
du filtre linéaire de fonction de transfert :
p p
H(z) ~ [10- z;z- 1) ~ z-P La1zP-i avec a0 = 1.
i=l i=O

Le signal Sk est donc une réponse transitoire de ce filtre. La transformée en z de Sk


vérifie donc l'identité: H(z)S(z} = 0 qui se traduit dans le domaine temporel par:
p

Sk -La; sk-i =0 'Ile


i=l
Méthodes fondées sur le modèle ARMA(p,q) 69

'écriture de cette récurrence pour k = p,p + 1, ... ,2p- 1, conduit au système


]inéaire suivant :
Sp-1 1
So ) ( 0 ) = ( Sp )
(
S2p-2 Sp-1 Op Szp-l

···qui permet de calculer les ok à partir des échantillons Sk. k = 0, 1, ... ,2p- 1. La
'résolution de ce système carré de Toeplitz permet de calculer les coefficients du
polynôme:
p
P(z) ~ zP- ,L:o;zp-;
i=l

dont les racines donnent immédiatement les Œk et les wk. La deuxième étape
-"consiste à calculer les Ak apparaîssant dans la relation (2.16). L'écriture de cette
dernière pour sk.k = 0, ... ,211- 1, conduit au système linéaire:

qui permet de calculer les Ak. L'approche proposée par Prony n'est pas utilisable si
le signal est bruité, c'est-à-dire si Xk = sk +bk. Mais l'élimination de Sk entre ;q et
bk conduit à la récurrence :
p p

L amXn-m = L ambn-m
m=O m=O

qui montre que Xk est un signal ARMA(p,p).

2.2 MÉTHODES FONDÉES SUR LE MODÈLE ARMA(p,q)

2.2.1 Modèle autorégressif d'ordre p: AR(p)


.g
~ Le modèle autorégressif [AR(p)] joue un rôle important dans beaucoup d'applica-
••c tions telles que la géophysique, la médecine, le traitement de la parole etc ...
..
0
c L'intérêt de ce modèle se justifie par les propriétés suivantes.
f 1. La détermination des paramètres d'un modèle autorégressif se fait par la résolu-
{ tian d'un système linéaire pour lequel existent plusieurs algorithmes dits
:l « rapides >>.
-g
§
Q
2. Le modèle autorégressif permet une représentation temporelle (un codage tem-
g porel) d'un signal à l'aide d'un petit nombre de paramètes qui sont soit les para-
70 2 • Méthodes d'analyse spectrale

mètres du modèle soit les coefficients de réflexion apparaissant dans la représen-


tation en treillis du modèle.
Soit Xk un signal stationnaire connu qu'on cherche à modéliser. La modélisation
autorégressive de Xk consiste à représenter ce signal comme la sortie d'un filtre auto-
régressif d'ordre p, noté AR(p), dont l'entrée ak est souvent inconnue et souvent
prise égale à un bruit blanc de variance Œ2 . Cette modélisation permet de représen-
ter Xk par la donnée de p + 1 paramètres qui sont les p coefficients du modèle
AR(p) et la puissance r? de l'entrée. On écrit donc Xk sous la forme :

(2.17)

où le signal Xk représente la prédiction linéaire de Xk en fonction du passé fini :


Xk-1' ... ' et :Xrl'erreurdeprédiction ou l'ùmovation. Le vecteur a est u~·~·'-
miné de façon à minimiser la fonctionnelle Œp ~ E[\Xk \2 ]. En effet, en régime sta-
tionnaire, Œp est indépendant de l'instant k et n'est fonction que des coefficients ai.
La détermination des ai peut se faire en considérant, par exemple, le filtre
MA(p + 1) dont l'entrée est Xk et la sortie le signal Xk. Les coefficients optimaux
correspondent alors au filtre qui minimise la puissance de la sortie. Il existe un cer-
tains nombre d'algorithmes adaptés à la détermination d'un tel filtre. Pour les coef-
ficients optimaux a1, ... ,a p. le signal formé par les innovations Xk est proportion-
nel à l'entrée Uk du filtre AR dont la sortie est.tk. Si les coefficients a1, ... ,ap ne
représentent pas le filtre optimal, la variance de l'erreur de prédiction est supérieure
à celle de l'innovation. Cela correspond, par exemple, au cas où le signal Xk ne peut
pas être modélisé par un AR(p ). On peut aussi utiliser la méthode des moindres car-
rées pour déterminer le vecteur a. Cette méthode consiste à déterminer le a qui
minimise la fonctionnelle :
N-1
Q(aJ, ... ,ap) ~ L !xk- aTxk\", Xk ~ [Xk-1·· .. ,-'1-p].
k=p

Le premier terme de la somme correspond à k = p puisque les observations sont


indexées de k = 0 à k = N - 1. La relation récursive (2.17) montre alors que les p
premières données x 0 , ... ,XN- 1 ne peuvent pas être prédites à partir des données
observées. Pour surmonter cet« effet de bord », on peut ajouter p échantillons nuls
avant x 0 . On dit qu'on a fait un pré-fenêtrage des observations. Comme cet effet de
bord apparaît aussi au niveau des derniers échantillons, on peut aussi ajouter p
échantillons nuls après XN-1· On fait ainsi un post-fenêtrage des observations. La
combinaison de ces possibilités conduit à quatre expressions de la fonctionnelle
Q(a 1 , ••• ,ap). Cette fonctionnelle prend la forme matricielle suivante valable dans
les quatre cas :
cz;z~ Méthodes fondées sur le modèle ARMA(p,q) 71

Q(a1 , ... ,ap) =(x- Xa)r (x- Xa)

()ù xr = [xo, ... ,XN-1,0, ... ,0] et X désigne la matrice de Toeplitz de dimensions
(N + p) x (p + 1) dont la première colonne est formée par x.

a) Détermination des paramètres du modèle


Comme le signal Xk est stationnaire, les coefficients a1 sont indépendants du temps
et vérifient l'équation normale. La détermination de la solution peut se faire de plu-
sieurs manières, par exemple à l'aide de l'algorithme de Levinson. Cet algorithme
est fondé sur l'estimation préalable de la matrice de corrélation et cela peut poser
_des problèmes pratiques pour les raisons suivantes .
.,L On ne dispose pas toujours de suffisamment d'échantillons Xk pour obtenir une
·-- ·--bonne estimation de la matrice de corrélation.
2. La matrice estimée n'est pas toujours définie positive.
3. Le filtre obtenu n'est pas toujours stable.
Pour pallier à ces difficultés, des méthodes permettant d'estimer le modèle AR
sans passer par la détermination préalable de la matrice de corrélation ont été intro-
duites. L'une des plus importantes est fondée sur la possibilité de représenter les p
a,
paramètres du modèle par les p coefficients de réflexion qui définissent la repré-
sentation en treillis du modèle. Cette représentation à été introduite dans le chapitre
1. ll existe aussi plusieurs autres algorithmes récursifs qui permettent de déterminer
les coefficients du modèle AR.

b) Expression du spectre du modèle


Le signal Xk peut être 'considéré comme la sortie d'un filtre linéaire AR dont l'entrée
est la suite non corrélée Xk et dont la fonction de transfert est donnée par :

1
H(z)= P .•
1- ""·
L....l=l a·7-·
j--..

~
"
-~
~ L'application de la formule des interférences conduit à l'estimateur r AR du spectre
" de Xk fondé sur le modèle AR :
§
"
~

f
0

'6.
.J
-g qui est déterminée à partir des coefficients a1, i = l, ... ,p et de aP.
§
0
Q
72 2 • Méthodes d'analyse spectrale

Exemple 2.2.1 Somme de fréquences pures


Considérons le signal suivant composé par une somme de fréquences pures :
p
Xk = L Aiejl'1w;k Vk E Z
i=l

et le filtre défini par la fonction de transfert :


p p
H(z) = flo- e/ "'''z- 1) = z-P l:a;zP-i,ao = 1.
2
i=l i=O

Tenant compte des facteurs apparaissant dans H (z), si l'entrée du filtre est
· zf=e/2 1ïv,k, v; fixé, la sortie.... a.s.socié.ee.sUe sigi1~1111Jld()!lné par H(z;)z}. Par
linéarité, il est clair que le signal Xk est une réponse transitoire de ce filtre et si l'on
désigne par X (z) la transformée en z de Xk, on obtient l'identité :

H(z)X(z) =0
qui se traduit dans le domaine temporel par :
p
Xk- z=a;Xk-i = 0 Vk E Z.
i=l

Ceci montre que la somme de préquences pures est un signal AR(p) singulier, i.e.,
pour lequel le bruit générateur est nul.

2.2.2 Modèle de la moyenne ajustée d'ordre q : MA(q)

Certaines formes de spectres ne se représentent pas facilement à l'aide de modèles


autorégressifs. Par exemple, une brisure importante, voir un spectre qui s'annule
brutalement, est très difficile à représenter à l'aide d'une fonction n'admettant que
des pôles. On introduit alors pour ce type de spectre une représentation qui admet
des zéros. Par exemple, le circuit bouchon et le résonateur de Helmholtz ont des
réponses en fréquences qui présentent des brisures et ne peuvent pas se modéliser
correctement à l'aide d'un AR(p) court. La modélisation MA(q) d'ordre q consiste
à représenter le signal Yk sous la forme :
q
Yk = Lb;llk-i (2.18)
i=O

où Uk désigne un bruit blanc centré et de variance u 2 et les b; désignent les coeffi-


cients du modèle MA(q) à déterminer à partir des observations Yk· La méthode la
2.2 Méthodes fondées sur le modèle ARMA(p,q) 73

plus classique consiste à calculer les b; à partir de la matrice de corrélation du


signal. Cette matrice est estimée à partir d'un certain nombre d'échantillons. La
résolution de ce problème est complexe surtout que l'entrée du système est généra-
lement inconnue. En effet, un calcul simple montrent que les coeftïcients de corré-
lation de Yk sont nuls pour k > q et que les autres sont reliés aux a; par le système
non linéaire suivant :

'Yk = bobk + b1bk+I + ... + br-kbeo -q,;;k,;;q.

Le spectre estimé est donné par :


q
f'(v) = u21 L rke-j2Kukl2
k=O

----et son expression est analogue à celle obtenue par Blackman-Tukey [63] [66]. Cette
modélisation pose des problèmes de résolution et n'est pas adaptée aux spectres à
bande étroite. Une amélioration possible consiste à prendre un ordre p élevé ou bien
à introduire des pôles dans Je modèle. Ceci conduit au modèle ARMA(p,q).

2.2.3 Modèle ARMA(p,q)

L'identification du modèle ARMA(p,q) est assez difficile dans la pratique. La


détermination des coefficients de la partie AR(p) ne pose pas de problème puisque
ces derniers vérifient l'équation normale et J'algorithme de Levinson permet la réso-
lution de cette équation. C'est la détermination des coefficients de la partie MA(q)
qui rend l'identitïcation du modèle difficile. Des méthodes simples qui conduisent à
des modèles sous-optirnaux sont souvent introduites dans la pratique.

Exemple 2.2.2 Somme de fréquences bruitées


Considérons Je signal bruité défini par:

D'après ce qui précède, sk vérifie un modèle AR(p) du type (2.2. 1) dans lequel le
bruit est de variance nulle. Remplaçants; par x;- u; dans (2.2.1), on obtient:

Ceci montre que la somme de fréquences bruitées est un ARMA(p,p) particulier


où les coefficients de la partie AR(p) sont égaux à ceux de la partie MA(p).
74 2 • Méthodes d'analyse spectrale

2.3 MÉTHODES SANS MODÈLE POUR LE SIGNAL

2.3.1 Méthode du périodogramme


La DSP d'un signal stationnaire x, peut être estimée par la T.F de sa fonction de cor-
rélation '},. Mais dans la pratique, on dispose rarement des valeurs de cette fonction.
On admet que le signal x, est ergodique et on introduit l'un des deux estimateurs
suivants pour les coefficients de corrélation '}, (2 choix pour Œ) :
N-1-lnl
~· = a L XmXm+lnb lnl ,;; N- 1.
m=O

Comme
N-1-1111 N-1-1111
E[Y,:J =Œ L E[XmXm+l"l] =Œ L "'( 11 = (N- lni)Œ'}11
m=D m=D

1 1
l'estimateur Y,; est biaisé pour a= -et non biaisé pour Œ = . La T.F C(v)
N N -lnl
de Y,; est un estimateur de la DSP, appelé estimateur de Blackmann-Tukey ou cor-
réla gramme. On a donc :
00

C(v) ~
L
11=-00
(2.19)

La fonction C(v) est de période 1. Dans la pratique, on la détermine par les valeurs
qu'elle prend aux M fréquences réduites équidistantes: [0,1/M, ... ,(M- 1)/M].
Le nombre M, indépendant de N, est en général une puissance de 2. Ainsi, on a
deux expressions possibles pour le corrélogramme selon la valeur que l'on donne au
coeftïcient Œ. Pour les signaux de très courte durée, spots radar par exemple, on a
une mauvaise estimation pour les coefficients de corrélation et ceci conduit à un
estimateur de Blackmann-Tukey qui peut prendre des valeurs négatives. De plus, cet
estimateur possède une très mauvaise résolution, i.e., une mauvaise aptitude à dis-
cerner deux fréquences voisines. Pour pallier à ces difficultés, on utilisé souvent
l'estimateur suivant, dénommé périodogramme, qui a l'avantage de ne pas prendre
des valeurs négatives et qui est <<proche >> de celui de Blackmann-Tukey pour les
grandes valeurs de N.
Le périodogramme d'un signal x,, est la fonction aléatoire détïnie par :

1 N-1 l oo
P(v) ~NI L...,x,e-1·1-""''1-"
'"""' ~NI '"""
L.., x,N e-J-"v"l-
·o '
n=O n=-oo
2 ,3 Méthodes sans modèle pour le signal 75

où le signal x/:désigne le signal tronqué de support [O,N- 1]. Le corrélogramme


Co(v) associé à l'estimateur biaisé '?,; et le périodogramme Po(v), calculés tous les
deux pour une même réalisation d'un signal x,, sont égaux. On a aussi
N Po(v) = rN (v) où rN désigne la DSP du signal déterministe tronqué x/:. En
effet :

n=-oo 11=-oom=-oo
00 00

-_ ""
~
" " .x,xm-n
L .N N j e jhVII -_ r N (v.)
n=-oo m=-oo

Dans la pratique, on calcule souvent le périodogramme lissé de x, qui est défini par
~--le--périodogramme du signal y,.!à. WN(n)x, où WN(n) désigne une fenêtre de pon-
dération. Afin de diminuer la variance du périodogramme, on peut aussi calculer la
moyenne arithmétique de plusieurs périodogrammes (périodogramme moyenné).
La figure 2.4 donne un signal, sa DSP et les estimateurs de sa DSP à l'aide du pério-
dogramme et du périodogramme moyenné (P.M).

DSP

/
Figure 2.4 Signal, DSP, périodogramme, périodogramme moyenné.

Exemple 2.3.1 Périodogramme de la somme de 2 raies spectrales


Considérons un signal analytique déterministe composé de deux raies spectrales
pures :
_ _
."trz- e j'2;;v1n + ej'110u2n .
Le périodogramme associé est donné par :
76 2 • Méthodes d'analyse spectrale

On voit que les termes principaux, fonction de v, admettent un lobe central de lar-
geur 2/ N en fréquence réduite. Dans le meilleur des cas, on peut donc séparer deux
raies de fréquences VJ et v2 vérifiant II/J - l/21 > 1/ N.

Soit YN-1 la sortie à l'instant N- 1 du filtre numérique MA(N) de réponse percu-


sionnelle
1 1
h =6 Nl/2 u - (1 ' ej2rrf , ... ' ejhf(N- 1) .
avec u .è.

Alors, on a pour f = .fi :


P(f;) =1 YN-1 12 et E[P(.fi)] = E<IYN-11 2 ) = /y(O).
Le filtre F; correspondant à la fréquence f; a pour réponse en fréquences

sin 1rN(v- f;)


(2.21)
sin 1r(v- J;)

Le principe du périodogramme consiste donc à faire passer le signal dont on veut


analyser le spectre dans un banc de filtres identiques F; centrée autour de .fi, ayant
chacun une réponse en fréquences (2.21). Lorsque N tend vers l'infini, l'énergie à la
sortie de chacun de ces filtres donne l'espérance du périodogramme et donc la
valeur de la densité spectrale à la fréquence .fi. De plus, comme YN-1 = x1u,
l'énergie de la sortie du filtre F; peut aussi s'exprimer comme suit :

(2.22)
2.3 Méthodes sans modèle pour le signal 77

où R désigne la matrice de corrélation du vecteur XN. Malheureusement on


'démontre que la variance du périodogramme ne tend pas vers zéro lorsque N tend
'vers l'infini.

"'2.3.2 Méthode du maximum d'entropie


êLa majorité des méthodes classique d'analyse spectrale reposent sur l'estimation des
:m premiers coefficients de corrélation et font l'hypothèse que les autres coefficients
sont nuls. La méthode du maximum d'entropie, introduite par Burg [83], consiste à
prolonger la fonction de corrélation en faisant le moins d'hypothèses possibles sur
le signal. La théorie de l'information développée par Shannon permet à Burg de pos-
tuler que faire le moins d'hypothèses possibles sur le signal revient à choisir l'esti-
mateur le plus aléatoire possible, i.e., celui qui maximise l'entropie du signal sous
la contrainte les n premiers coefficients de corrélation sont imposées. Sans rentrer
dans les détails, on peut dire que l'entropie permet de mesurer l'incertitude moyenne
d'apparition d'un événement. Elle joue un rôle important en théorie de l'information.
En particulier, la technique du maximum d'entropie permet la détermination de lois
de probabilité soumises à des contraintes. Nous allons donner succinctement
quelques définitions élémentaires et établir l'expression de l'estimateur du spectre
au sens du maximum d'entropie et ceci dans le cas d'un signal gaussien. Soit X une
V.A discrète prenant les valeurs x; avec les probabilités p;. On appelle entropie de
X la quantité
00
H(X) =- L p;Log(p;)
i=-oo

où Log représente le logarithme népérien. Pour une V.A continue de densité f (x),
1'entropie est définie par :

H(X) = -E[Log(f(x))] = - i: Log[f(x)]f(x)dx.

Pour un signal aléatoire X k. on introduit le vecteur x formé par n échantillons consé-


cutifs du signal et on définit le taux d'entropie par :

1
[ = - lim -E[Logfx(x)] = - lim -
1 100 Log[fx(x)]j~(x)dx
/Z---'.>00 11 1/l--'1-00 11 -00

où f, désigne la densité de probabilité de x.


78 2 • Méthodes d'analyse spectrale

Exemple 2.3.4 Estimation de la DSP d'un signal gaussien


Qn_vlLéJill?lir_q\lepQ11IJm_~i.gnill.'!tég!uire_gmto,ien,J'e_,tim1!tion . spectrale.au.sens
maximum d'entropie donne une densité spectrale de puissance, r(v), qui est celle
d'un modèle AR. Soit :

r(v) =JI-"" a.e-j2m'kJ2. (2.23)


L-k=O k

En effet, comme la DSP est la T.F de la fonction de corrélation, on obtient :

[ = ~ +-1 11/2 Log(L 'Yke-j2rruk)dv. 00

2 -1/2 -00

La détermination de r(v) revient à maximiser [sous la contrainte : les Il premiers


coefficients de corrélation sont imposées. On peut aussi résoudre ce problème en
écrivant que les coefficients 'Yb JkJ > 11, sont choisis de manière à maximiser[.
Cela se traduit par le système suivant :

at: --11/2 aLogCI::"'oo 'Yke- j2rruk) dv -- 0,


pour JkJ > 11.
a'Yk -1;2 a'Yk

Soit
1/2 e-}21rvk

1 -=-:--:-d 1J = 0,
-1/2 r(v)
pour Jkl > 11.

Ce dernier système signifie que les coefficients de la série de Fourier de 1/ r(v)


sont nuls pour Jkl > 11. Soit

1
"
"
L ske - j2rruk .
r(v) k=-11
2,3 Méthodes sans modèle pour le signal 79

Comme cette expression est toujours positive, elle peut se mettre sous la forme :
1 "
- - = ~=>k cos (27rvk)
r(v) k=D

et d'après le théorème de Riesz, il existe un polynôme P(z), de degré n, tel que


1 j"'"~-JJ ') • 1
- = IP(e- _, JI- SOit r(v) = c-;=:;;---:---,=,-;;-
rcv) 1 I:Z=o bke jhukl2

et ceci donne immédiatement (2.23) avec cr~ lbol- 2 et ak ~ -bk/bo.

2.3.3 Méthode de la variance minimale (Capon)

..-Cette méthode. d'analyse a été introduite par Capon pour l'étude de signaux sismique
et elle consiste à faire passer le signal dont on veut analyser le spectre dans un banc
de filtres optimisés de sorte que l'énergie de la sortie de chaque filtre donne une
approximation de la valeur du spectre pour une fréquence particulière. Les filtres
optimaux ne sont plus des filtres identiques obtenus à partir d'un même filtre par des
translations comme c'est le cas dans la méthode du périodogramme. Le filtre analy-
seur de la méthode Capon n'est pas indépendant de la fréquence où l'on estime le
spectre mais s'adapte pour chaque fréquence aux caractéristiques du signal autour
de cette fréquence. La méthode de Capon consiste à déterminer un banc de filtres
F1 tels que pour chaque fréquence 1-'i, le filtre F1 (v) est optimisé pour être le plus
sélectif possible : ce filtre n'introduit aucune distortion sur la composante de fré-
quence v1 et coupe les composantes du signal de fréquences autres que 1-'i. On
découpe la bande de fréquences en N intervalles adjacents centrés en v,,
i = 1, ... ,Net on cherche les filtres F1 tels que l'énergie c, à la sortie de chaque F;
est minimale et le gain complexe H 1 (v) de F1 vérifie :

Chaque filtre F1 ainsi construit est très sélectif et la puissance de sa sortie constitue
une bonne approximation de la puissance portée par la composante de fréquence Vi.
Ceci ne constitue pas une approximation de la densité spectrale en v1• Néanmoins,
si le signal contient des fréquences sinusoïdales (raies spectrales), la hauteur des
pics dans le graphe de la puissance de sortie est proportionnelle à la puissance de
ces composantes. Pour simplifier les notations, désignons par F le filtre associé à la
fréquence/ E [v 1, ... ,vN) et par H(v) sa réponse en fréquence. Considérons uni-
quement les filtres à réponse impulsionnelle définie par le vecteur h ayant pour
composantes: h 0 , .•. ,hp. La condition (H1(vil = 1) s'écrit:
p
L,hke-P"fk ~ uHh = 1, u = [l,e-.i 2"f, ... ,e-.i 2"!Pf.
k=O
80 2 • Méthodes d'analyse spectrale

Si l'on introduit la matrice de covariance R d'ordre p + 1 du signal x,, on peut écrire


E[l<,l 2 ] = E[lh H xl]=
2
h H Rh.

La méthode de Capon consiste à chercher le vecteur h qui minimise la forme qua-


dratique hHRh sous la contrainte hH u - 1 = 0. La méthode des multiplicateurs de
Lagrange revient à annuler le gradient, par rapport à .\ et h, de la fonctionnelle :

Ceci conduit à l'équation suivante : 2Rh - .\u = 0 et on obtient :

Finalement l'énergie à la sortie du filtre h est donnée par :

7 1
E[I<,I-J = uHR-Iu
Il est intéressant de comparer cette énergie à celle, donnée par (2.22), de la sortie
YN-I du filtre intervenant dans la méthode du périodogramme. On appelle estima-
teur de Capon d'ordre p de la valeur de la densité spectrale à à la fréquence v, la
quantité

(2.24)

Exemple 2.3.5 Lien entre l'estimateur AR et celui de Capon


Remplaçant dans l'expression de c;- 1 (f) la matrice R; 1 par sa factorisation de
Choleski donnée par (1.23) et développant l'expression ainsi obtenue, on montre
que l'estimateur noté Sp(v) fondé sur un modèle AR(p) et l'estimateur de Capon
sont reliés par :

1 p 1
-C-=TeL-s-.
Av) 11~1 ,(f)

Cette relation montre que l'estimateur de Capon d'ordre p est proportionnel à la


moyenne harmonique des estimateurs AR(!), ... , AR(p). Ceci explique pourquoi à
ordre égal, la résolution de l'estimateur AR est meilleure que celle de l'estimateur de
Capon.
--Exercices et problèmes corrigés 81

Exemple 2.3.6 Estimateur normalisé


Par construction, le filtre Fk est très sélectif autour de la fréquence vk et la puissance
de sa sortie est Cx (v). Soit Gk le filtre passe bande idéal tel que la puissance de sa
sortie soit la même que celle de Fk lorsque l'entrée des deux filtres est un bruit blanc
de puissance 1. La bande équivalente de Fk est donnée par
6 H
Be = U U.

Supposons que le spectre de puissance est relativement plat dans la bande


[vk- Be/2,vk + Be/2]. Ce spectre est alors approximé par:

La normalisation du spectre r_~ conduit à l'estimateur r_~ qui améliore de manière


significative la résolution fréquentielle du signal, connu sous la dénomination esti-
mateur de Lagunas ou estimateur normalisé au sens de la variance minimum. Son
expression est donnée par :

rl_u "R-1
xu
x- uHR 2u'
x

EXERCICES ET PROBLÈMES CORRIGÉS

2.1 Matrice singulière et signaux prédictibles

Soit un signal réel à temps discret Xk. aléatoire, centré et stationnaire. On désigne
par R,+ 1 la matrice de corrélation de dimension n + 1 construite à partir des coef-
ficients de corrélation r0 , r 1 , .•. , r, de Xk. On sait que R,+l est une matrice de
Toeplitz définie non négative et que les coefficients de prédiction linéaire de Xk en
fonction des échantillons passés Xk-i.i = 1, ... ,11 sont solution du système:

avec a, ,@, E[lxk - L" a;xk-i 1


1 ] (2.25)
i=l

où a, désigne l'erreur de prédiction en moyenne quadratique. On désigne par Rm


les sous-matrices carrées de dimension m, formées par les m premières lignes et les
m premières colonnes de R,+l· On suppose qu'il existe un entier p, 0 < p ,;; 11 tel
que ces matrices véritïent :
82 2 • Méthodes d'analyse spectrale

det(Rm) > 0 pour m = 1,2, ... ,p et det(Rp+ll =O.

1. Donner J'expression de ap en fonction des déterminants de Rp et Rp+1 et en


déduire que ap =O.
2. Montrer qu'il existe un vecteur unique aP vérifiant le système (2.25) où n = p.
3. Déduire du résultat ap = 0 que :
p
m.q '"" p Vk E '1L (2.26)
Xk =~ai Xk-i•
i=l

où les ar sont les composantes du vecteur ap.


4. Démontrer que le nombre p est le plus petit entier pour lequel les corrélations
vérifient:
p
rk- Larrk-i =o. Vk E z.
i=l

5. On suppose que le signal admet une représentation harmonique de la forme :


1/2
Xk =
1 -1/2
ejhukdX(v)

où d X (v) représentent des accroissements indépendants d'une mesure spectrale


aléatoire X (v). Partant de (2.26), montrer qu'il existe p variables aléatoires indé-
pendantes A 1 et p fréquences distinctes v; telles que
p
_ n!..:_q "'A. j2rw;k wk '77
Xk - ~ 1 e , v E tLJ
i=l

où les ejhv,, i = 1, ... , p sont les racines du polynôme :


p
Q( ...
7 ) ~ -P _
.{.
"'aP_p-i
~ 1<.
i=l

construit à partir du vecteur ap.


6. Considérons les vecteurs bm, m = 0,1, ... , n + 1- p de JR:"+ 1 définis par:

b~ ~ [0, ... ,0,1,-a;,o, ... ,o]

où les m premières composantes sont des zéros. Démontrer que ces vecteurs sont
indépendants et appartiennent au noyau de R,+ 1.
Exercices et problèmes corrigés 83

1. Soit P; le polynôme associé à un vecteur du noyau de Rn+I· Démontrer que Q


.divise P; et que toutes les racines de Q sont de module 1.

2.2 Estimation d'un spectre et périodogramme


On considère un signal à temps discret x, (n entier), réel, centré et stationnaire au
sens strict. On observe ce signal sur un intervalle de temps fini: l,;;n,;;N et on intro-
duit le signal tronqué :

x 11N~
= X 11 SI· r N
~n~ et xnN~o·
= smon

1. On introduit la fonction :
00

XN(v) !!o L x,~ exp(- j2mm)


n=-oo

et on appelle périodogramme la quantité

• -1
lN(v) --"'- 1x-N (v) 1·'
N .
Montrer que IN est une forme quadratique du type
00 00

IN(v) = L L
11=-00111=-00
G 11 ,111 X{; x:;;

et déterminer a 11 ,m.

2. On introduit la quantité
00
7N 1
I, = N L
m=-oo
NXN
Xm m-n·

Montrer que cette quantité est un estimateur biaisé de la fonction de corrélation /,.
Calculer le biais et montrer que :

"':N N -;rv
ln = ln
N-In!

est un estimateur non biaisé de /,.


3. Soit le filtre numérique de réponse impulsionnelle égale à zéro sauf pour
O,;;n,;;N- 1 où elle vaut:

lz, !!o ~exp(j27r/n).


84 2 • Méthodes d'analyse spectrale

Montrer que IN (f) s'exprime à l'aide de la sortie de ce filtre en un instant à déter-


miner, lorsque l'entrée du filtre est le signal x,. Calculer le gain complexe HN (v)
de ce filtre.
4. Calculer la moyenne E[IN (f)] en fonction de la densité spectrale de x,. Justifier
pourquoi la limite de 1 HN (v) 12 tend vers l'infini avec Net déterminer la limite de
E[IN (.{)]lorsque N tend vers l'infini.

2.3 Méthode du maximum d'entropie


On considère un signal aléatoire à temps discret x[n] réel, centré et unitaire, c'est-
à-dire de variance égale à un. On suppose que l'on connaît la suite des coefficients
de réflexion {k;] apparaissant dans la prédiction linéaire à un pas et à passé fini de

2
1. Calculer l'erreur de prédiction à un pas et à passé infini E à l'aide des coefficients
k;.
2. Les coefficients k; sont supposés inconnus. Déterminer les k; qui maximise E2 et
calculer la densité spectrale du signal qui correspond à ces coefficients.
3. Soit c, le vecteur dont les composantes sont les coefficients de corrélation :
-1 1 , ... , --y, de x [n]. Rappeler la condition nécessaire et suffisante que doivent satis-
faire les composantes --y[i] pour représenter des coefficients de corrélation d'un
qu'un vecteur v donné soit le vecteur de corrélation d'un signal unitaire régulier,
c'est-à-dire tel que E2 =f 0.
4. Le vecteur c, étant donné, déterminer l'ensemble des valeurs "Y;, i > m, telle que
2
E soit maximum. Comment peut-on alors déterminer la densité spectrale à maxi-
mum d'erreur de prédiction ?
5. Soit un vecteur aléatoire x à Il dimensions continu réel et centré et de densité de
probabilité Px (x). On appelle entropie de ce vecteur la quantité

H_, = -E[Logpx(x)] = - J Px(x)Log[px(x)]dx

où Log représente le logarithme népérien. On suppose dans la suite que x est gaus-
sien centrée. Calculer l'entropie de x. Pour cela, on peut noter que
xT A x = Tr(xxT A), où Tr représente la trace d'une matrice carrée.
6. On associe au vecteur x le vecteur x = Mx, où M est une matrice inversible.
Calculer la loi de probabilité et l'entropie H_, de x.
7. Au vecteur x de composantes X 1,X 2 , ..• ,X,, on associe le vecteur x de compo-
santes :
Exercices et problèmes corrigés 85

où EL représente l'estimation linéaire en moyenne quadratique de X 1 à l'aide de


X1>· .. ,Xi-I· Montrer que x= Mx et calculer le déterminant de M. En déduire la
x
relation : = H,,.
s. En d~uire l'expression de cette entropie à l'aide des erreurs de prédiction :
2
, 2 = E[Xil ].
1
9. Supposons que les composantes de x sont les valeurs d'un signal aléatoire centré
stationnaire à temps discret. On appelle taux d'entropie de ce signal la quantité
hx = lim (Ijn)H,,.
11~00

Déterminer lim 11 ~ 00 E~ et calculer lzx pour un signal gaussien.

2.4 Détermination de fréquences avec MATLAB

On se propose de déterminer les fréquences contenues dans un signal à l'aide de plu-


sieurs méthodes. Le signal considéré est la somme de trois sinusoïdes noyées dans
un bruit blanc. Les fréquences des sinusoïdes sont .f1 = 100 Hz, fz = 200 Hz et
/3 = 250 Hz et leurs amplitudes respectives sont A 1 = 1, A2 = 2 et A3 = 1. La fré-
quence d'échantillonnage est .fe = 1 000 Hz et dans le cas bruité, le rapport bruit à
signal sera choisi égal à RBS = 0.01. Soit le signal :
p
s(n) !!, s(n,w) = L Ak(w)ejZrrf;nT", Il = O, ... ,N- 1
k~l

où [Ak(w)) est une suite de variables aléatoires centrées et orthogonales (non cor-
rélés). Soit r,, la matrice de covariance de dimension N (N > P) construite à l'aide
des N premiers coefficients de corrélation du signal s(n).
1. Exprimez r, sous la forme :

où A est une matrice diagonale. Donnez l'expression de E et de A. Que peut-on en


conclure sur le rang de r.,.
2. On considère maintenant le signal y(n) = s(n) + b(n). Ici, b(n) est un bruit
blanc, gaussien, centré, de variance c? indépendant de s(n). Donnez l'expression de
r y en fonction de r,. Montrez que les valeurs propres de r y s'ordonnent de la
manière suivante :

On appelle sous-espace signal le sous-espace engendré par les vecteurs propres


associés à J.!I, ... , J.l p et sous-espace bruit, le sous-espace engendré par ceux associés
à /l•P+i•· .. ,J.lN·
86 2 • Méthodes d'analyse spectrale

3. Générez N = 50 échantillons du signal à analyser.


4. Déterminer une matrice r de taille M = 7 qui soit une estimée de la matrice de
covariance du signal. Est-elle de Toeplitz ? Augmentez la valeur de N et observez
l'évolution vers une matrice de Toeplitz.

Méthodes fondées sur le calcul des vecteurs propres

Dans toute cette partie, la matrice de corrélation estimée peut ne pas être une
matrice de Toeplitz. On supposera le bruit nul et on prend M = 7.
1. Déterminez le vecteur propre associé à la valeur propre minimale de la matrice
r. Que vaut cette valeur propre ? En déduire le rang de r. Conclusion ?
2. En utilisant l'orthogonalité entre sous-espace signal et bruit, donnez l'expression
. éF1.ine fonciion cie I ql.îl soit ïiùïX!iiiiïe pour les 6 fréquences :
f = JI,h.f3,- JI,- h,-.f3. Programmez cette fonction.
3. Tracez le graphe de cette fonction et comparez les valeurs obtenues aux fré-
quences cherchées.
4. On peut aussi estimer les fréquences en calculant les racines d'un certain poly-
nôme Q(z). Donnez son expression.
5. Calculez et tracez les zéros de ce polynôme dans le plan complexe.

6. Comparez les valeurs obtenues aux fréquences cherchées et commentez les résul-
tats.
7. Après avoir estimé les fréquences par l'une des méthodes exposées précédem-
ment, on souhaite estimer les amplitudes correspondantes. Pour cela, nous allons
minimiser le critère suivant :
N-I p 2

J(AJ, ... ,A6) = L s(n)- L Akej2rrf;uT,


n=O k=I

Quelle est l'expression de A= argminJ(AJ, ... ,A6)? Calculez A à l'aide du logi-


ciel matlab.

Méthodes fondées sur l'algorithme de Levinson

On supposera le bruit nul et on prend M = 7. On commence par approximer la


matrice de corrélation estimée r par une matrice de Toeplitz. Puis, on utilise l'al-
gorithme de Levinson pour ç!,éterminer le vecteur propre associé à la valeur propre
minimale. L'approximation r de r est obtenue en remplaçant chaque diagonale de
r par la moyenne des éléments de cette diagonale :
Exercices et problèmes corrigés 87

ll,M II
12,1 1'2,2 f2,M lo
r= f=

lM,! lM,2 lM,M lM-2

ou' -lk = M l_ k " M -k


L-i=I l;,;+k• k· = 0 , ... , M - 1. C' est cette matnce
. F qui sera uti-
lisée dans l'algorithme de Levinson.
1. Commencez par construire la matrice r.
2. Utilisez l'algorithme de LeviEson pour déterminer le vecteur propre associé à la
valeur propre la plus faible de r. On notera Vmin le vecteur obtenu.
3. La première composante de Vmin est égale à 1. On note Vmin le vecteur de taille
M- 1 tel que:
-T T
Vmin = [1 Vm;nl

On extrait de F une sous matrice de taille M - l x M - 1 obtenue en supprimant


la l ère ligne et la 1ère colonne de F. On note cette matrice f. Montrez que l'on peut
calculer Vmin en résolvant un système du type :

rvmin =x
où X est un vecteur à détenniner. Sous matlab, inversez ce système et comparez le
résultat à celui de la question précédente.
4. Reprenez la détermination des fréquences contenues dans le signal en utilisant un
signal bruité. Commentaires.

SOLUTIONS

2.1 1. Exprimant à l'aide des formule de Cramer que la solution du système à pour pre-
mière composante le nombre 1, on obtient :

. - Rr+l
O:p- .
Rr

Donc Œp = 0 d'après les hypothèses.


2. D'après les hypothèses sur les déterminants, la matrice Rp+ 1 est de rang p et admet
comme valeur propre O. Les vecteurs associés à cette valeur sont tous proportionnels. Il
existe donc un seul vecteur propre ayant 1 comme première composante.
88 2 • Méthodes d'analyse spectrale

3. La définition de nr conduit à:
p
- -
xk '"""
Laifl Xk-î
- l'!:!_/
- 0. (2.27)
i=l

4. Cette récurrence implique E[xmx,~~-k]- Lf= 1 af E[xm-ix;~~-d =O. Comme le signal est
stationnaire, on obtient :
l'
l"k- La/'n.:-i = 0, Vk E Z. (2.28)
i=l

On ne peut pas avoir une relation similaire avec p0 < p termes sinon la matrice Rro serait
singulière et donc on aurait det(Rp0 ) = O.
5. On remplace dans (2.27) les Xk par leurs expressions et on obtient :
1/2 fJ

1-!/2
(1- Lafe-j2ïlvi)ej2ïlllkdX(t.!)''g'o.
i=l

On en déduit que la mesure spectrale X (v) est donnée par:


p
X (v) = L A ej:zm,,k 1
i=l

où les z1 :f5:. ef1m'; désignent les racines du polynôme Q et les A 1 des V. A indépendantes.
6. Comme ar est solution du système (2.25) et que les rk vérifient (2.28), le calcul de
Rn+ 1b 111 donne 0 pour chacun de ces n + 1 - p vecteurs. Ces derniers appartiennent donc
tous au noyau de Rn+!· Comme ces vecteurs sont indépendants, le rang de ce noyau est
): 11 + 1 p. Comme, par hypothèse, ce rang est~ p, il est égal à p exactement.
7. Partons de la relation :

et appelons :: 1, ••• ,Zp-I les racines de Pp-I· Toute racine w de Q vérifie:


p-! p-!
w ncw-z;) -kp no-z,w) =0.
1=1 i=I

Supposons lwl > l. Comme lk1,1 = l ofo 0 et lz;l < l,i = !, ... ,p- 1, alors on a forcé-
ment w ofo z;, i = 1, ... ,p- 1. D'où

w =
p-I

n
l ";:;
-,,,w fi-l
_ .,._ = 1Ji(w). n. (2.29)
1=1 w "' 1 i=l

Tenant compte de l'identité


Exercices et problèmes corrigés 89

l'égalité (2.29) conduit à une contradiction. Donc toutes les racines de Q vérifient fwl ~ 1.
Finalement, comme le module du produit de ces racines est égal à [kp[ = 1, elles sont toutes
sur Je C.U.

2.2 1. et 2. Calculs évidents.


3. La sortie )'111 de ce filtre associée à l'entrée x 11 est :
N-1 1 N-I ...,
' - " ' ' ,. - _ _ " e l - " f n ,.
•\ m - ~ n·'"m-11 - NI(! L ·'"m-Il·
11=0 1!=0

Pour m = N - 1, on obtient :
l N-I . ej2Trf(N-I) N-I .
' - --" . -j1Ti"f1! - " • -jlT./11
} N - l - N 112 ~XN-I-ne - Nlfl .L.__,;Xne •
n=O n=O

···D'où IN (f) =1 YN-1 1 2


et, utilisant la formule des interférences, on obtient:

où HN (u) désigne Je gain complexe donné par:


1 N-I ef;r(J-u)(N-ll sin 11N(v- f)
HN ( v ) = - - " ejh(f-u)tl = --,=,---,--,-'--;::,.:.
2
Nl/ L... N 112 sin rr(1;- j')
n=O
D'où
N , 1 sin 2 rrN(u- f)
1H (u) 1-= . , . .
N sm -rr(IJ- j)

3. Lorsque N tend vers l'infini, la limite de HN (v) est égale à zéro sauf pour IJ = .f. De plus,
d'après le thèorème de Parseval, on a :

On admet alors que: limN-oo 1HN (u) l'= o(v- .f) et on obtient:

Jim E[IN (f)] =


N_...oo
f 1(1

-1/2
fx(u)o(v- .f)dv = fx(.f).
Chapitre 3

Méthodes d'analyse
temps-fréquence

L'analyse d'un signal peut se faire par des méthodes fondées soit sur la représenta-
tion temporelle, x(/), soit sur la représentation spectrale X (l/), qui est la transfor-
mée de Fourier (TF) de x(t). Le signal temporel donne une information sur la pré-
sence d'un signal, son énergie et son évolution temporelle. La T.F nous renseigne
sur les fréquences présentes dans le signal et sur la répartition de l'énergie sur ces
fréquences. Pour les signaux déterministes, les représentations couramment utili-
sées pour l'analyse des signaux sont l'énergie instantanée lx(l)l 2 et le spectre
d'énergie IX(u)l 2 Pour les signaux aléatoires, les outils d'analyse sont fondés sur
l'autocorrelation dans le domaine temporel et sur la densité spectrale (T.F de l'auto-
corrélation) dans le domaine fréquentiel. Ces outils d'analyse sont valables dans le
cas des signaux stationnaires, aussi bien déterministes qu'aléatoires. Cependant,
leurs limitations sont immédiates quand on les applique aux signaux non station-
naires, i.e., aux signaux avec un spectre qui varie avec le temps. En particulier, ils
ne donnent pas d'information sur la manière dont la fréquence varie avec le temps.
Par exemple, les signaux tels que les vocalisations humaines, les vocalisations des
oiseaux etc ... , ont la particularité de présenter des modulations de fréquence. Ces
signaux sont donc non stationnaires. L'analyse spectrale classique, l'ondée sur la T.F,
implique implicitement que les propriétés spectrales du signal sont stationnaires. En
fait, le module de la T.F d'un signal fournit seulement une moyenne temporelle du
contenu spectral du signal sans donner de précision sur d'éventuelles changements
de fréquences au cours du temps. L'exemple suivant illustre cette propriété.
92 3 • Méthodes d'analyse temps-fréquence

Exemple 3.01. Signa/non stationnaire et T.F


Considérons les signaux

x(!)= cos (2r.f11)n (~) +cos(2r..f2(t- T))n (~)


et
y(t) = cos (2r.flt) + cos (2r..f',_t).

Le signal x(t) est la juxtaposition d'un cosinus à la fréquence f 1 observé sur une
durée T suivi d'un cosinus à la fréquence ./2 observé sur la même durée. Le signal
y(!) est la somme de ces 2 signaux observés chacun sur une durée 2T. La tïgure 3.1

TF

-1

Fréquence

Figure 3.1 Juxtaposition de 2 cosinus et somme de ces 2 cosinus.

donne les modules des TF des signaux x (t) et y(t). On remarque que la T.F du pre-
mier signal ne fait pas apparaître le changement de fréquence au cours du temps. On
pourrait même penser que les deux signaux x(t) et y(t) sont identiques. D'une
manière générale l'information contenue dans le module de la T.F est insurtïsante
pour traiter un signal non stationnaire. Plutôt que d'examiner l'argument de la TF
pour faire la différence entre les signaux x(t) et y(t), on prétère utiliser des repré-
sentations temps-fréquence el non la TF. Une façon de traiter un signal non sta-
tionnaire, tel que x(t), consiste alors à analyser ce dernier sur des durées courtes ce
qui revient à introduire des fenêtres d'analyse. Cette méthode permet de réduire les
effets des variations spectrales dans le temp.s el limite donc l'effet des non-station-
narités. Malheureusement de telles fenêtres, à support fini par construction, posent
le problème des troncatures appelé couramment effet de bord 153]. Une autre façon
de traiter les problèmes dus à la non stationnarité consiste à faire passer les signaux
dans un banc de tïltres avec des bandes passantes rapprochées et étroites, suivi d'une
analyse spectrale de la sortie de chaque filtre. Le problème des effets de bord se
93

pose alors dans le domaine fréquentiel à cause de la limitation de la bande des


filtres. Si on utilise des filtres avec des bandes étroites, la possibilité de bien loca-
liser les signaux dans le temps est perdue et si l'on utilise des filtres avec des bandes
larges. le détail dans le domaine temporel est amélioré mais la résolution fréquen-
clelle devient mauvaise. Pour les signaux non stationnaires, une représentation à
trois dimensions est souvent nécessaire, par exemple étudier l'évolution de l'ampli-
tude en fonction du temps et de la fréquence. On intoduit alors la notion de «
spectre instantané "• appelé aussi spectrogramme ou sonagramme. Usuellement
deux largeurs de bandes sont disponibles : 50 Hz et 300 Hz, dénommées respecti-
vement bande étroite et bande large. Un tïltre de largeur 45Hz donne une fréquence
avec une incertitude 45 Hz mais ne peut pas détecter des variations temporelles
inférieures à 22 ms= 1/45, alors qu'un tïllre de largeur 300Hz. présente une incer-
titude de 300Hz en fréquence mais peut détecter des variations temporelles jusqu'à
3.3 ms. Par exemple, une largeur de bande de 150 Hz permet de décrire assez bien
l'évolution temporelle d'un chant d'oiseaux et une largeur de bande de 30 Hz per-
met d'obtenir une bonne résolution fréquentielle lorsqu'on analyse un cri d'oiseau.
Le spectre instantané ne peut pas être précis en temps et en fréquence simultané-
ment [principe d'incertitude de Gabor-Heisenberg : 6.1/6.1 ~ 1/'if où 6.11 est la lar-
geur de bande du filtre et6.1 sa constante de temps ou son temps de réponse]. Nous
allons exposer dans la suite des méthodes adaptées à l'analyse des signaux non sta-
tionnaires. Un modèle pouvant représenter une large classe de tels signaux (suppo-
sés non bruités) est donné par:

.t (tl "" t
1
-'k (1) avec xk(r) "" ak(l)e.i"'' ln et ,;,k (1) "" 21f !~00 'Pk (T)dT.
Si la fonction 'Pk(r). appelée courammentfréqueuce iustalllauée (F.l). varie avec le
temps. on dira que le signal .t (1) est non stationnaire. En fait. pour une vibration
harmonique la fréquence est détïnie par le nombre d'oscillations par unité de temps
et cette définition n'est plus valable pour les signaux non harmoniques. On peut
détïnir la notion de FI rigoureusement par le biais du signal analytique associé à
x(r) [ 101]. Les techniques classiques, fondées sur la T.F, ne permettent pas d'avoir
des renseignements sur les variations de 'Pk(r). Or cette information est nécessaire
quand on traite des signaux modulés en fréquence (FM), à titre d'exemple. un chilp
est un signal détïni par :

(3.1)

où n (1) est la fonction rectangle de support [-1 /2. l/2],/() une fréquence centrale
et o une constante réelle détïnissant le taux de variation de la F.l. La tïgure 3.2. qui
donne la partie réelle et la T.F d'un chirp. ne permet pas de se rendre compte de la
94 3 • Méthode d'analyse temps-fréquence

opoctro

70

60

60

40

30'

20.

Figure 3.2 Signal chirp et son spectre.

2
variation linéaire de la F.I. Par ailleurs, on peut vérifier que pour o: = ~0 , le spectre
du chirp x 1 est très «proche» de celui du signal dé!ïni par:

(3.2)

alors que ces deux signaux sont fondamentalement différents.

Exemple 3.0.1. Position de /a .fréquence instantanée


Considérons le signal :

Ce signal est analytique pour w 1,w2 > O. On peut donc le mettre sous la forme
umque :

s(l) = A(t)eN•Irl

avec
. dr/>(t) 1 1 A~- Af
(t) = - - = -(wo + WJ) + -(wo- WJ)~----,c"'-
.f ' dt 2 - 2 - A (t )2
et

A(t)
2
=AT+ A~ +2A1A2cos [(w2 -WJ)I].
Ainsi, l'interprétation physique de la fréquence instantanée .fi (t) dépend énormément
des paramètres A 1 , A 2 , w1 et w2 . Ce n'est que dans le cas A 1 = A2 que .fi (1) peut s'in-
terpréter comme la valeur moyenne ses fréquences qui existent dans le signal.
3.1 Transformée de Fourier de courte durée (STFT) 95

3.1 TRANSFORMÉE DE FOURIER DE COURTE DURÉE (STFT)

En 1946, D. Gabor a introduit la notion de l'analyse temps-fréquence par la trans-


formée de Fourier de courte durée (TFCT) ou Short Time Fourier Transfonn
(STFT). Cette méthode consiste à pondérer le signal x(l) à analyser par une famille
de fenêtres h (t - T) et à considérer les T.F des signaux ainsi obtenus. L'examen de
l'ensemble des T.F ainsi obtenues permet d'avoir des infonnations aussi bien sur les
fréquences présentes dans un signal que sur l'intervalle de temps où ces fréquences
sont présentes. D'après le principe d'incertitude de Gabor-Heisenberg, il est impos-
sible d'avoir une localisation parfaite à la fois en temps et en fréquence. En d'autres
tem1es, plus le support temporel de la fenêtre d'observation est petit plus la résolu-
tion en fréquence est mauvaise et inversement. On peut montrer que les fenêtres
possédant la meilleure localisation temps-fréquence sont les fonctions gaussiennes.
Plusieurs types de fenêtres sont proposés pour diverses applications.

3.1.1 Principales propriétés de la STFT, Spectrogramme

Soit h(t) une fonction à décroissance rapide appelée fenêtre de podération et de


nonne non nulle, i.e.,

111111
2
~ I: 2
lh(t)l dt =f.O. (3.3)

La distribution temps-fréquence, appelé transformée de Fourier de courte durée ou


STFT, est détïnie par :

(3.4)

(3.5)

La deuxième expression de Sx se déduit des propriétés classiques de la T.F : con-


servation du produit scalaire, propriété de décalage et transformation d'un produit
nom1al en un produit de convolution. La STFT est donc constituée par l'ensemble
des T.F de x(t)h*(t- T) obtenues en pondérant x(t) par la fenêtre h(t- T)* que
l'on décale en faisant varier le paramètre T. Associons à h (t), la famille de fonc-
tions, dépendant des deux paramètres continus Tet IJ, définie par:

(3.6)
96 3 • Méthode d'analyse temps-fréquence

Les nombres S,(T,I!) sont appelés couramment projections de x(t) sur le système
de fonctions h,,,,. Si h est la fonction rectangle de support T. la STFT consiste à
prendre les T.F d'une succession de signaux égaux à x sur le support de h (t - T) et
nuls ailleurs. Chacune des T.F étant obtenue pour une valeur de T donnée. La dis-
tribution 15,(-r,ull est appelé spectmgramme de x(l) et elle fournit une information
sur la quantité d'énergie présente dans le signal au voisinage de la fréquence 11 et à
l'instant T. On a :

1Sx(l,1!)1 2 "" r
}rp._2
.t(T)h(T- t) 1 X(11) 1 h(11- t)e-} 2rrP(T-u)dTlfll.

Le spectrogramme définit une fonction positive et conduit à des lissages de l'éner-


gie instantanée en temps et en fréquence con1me l'indique les relations suivantes :

00 2 100 2
1 -oo 1Sx(ty)l dz; = -oo lx(T)h(T- t)i d-r

i: 1Sx(t,u)l dt =
2
i: IX(f)H(I!- fll df.
2

Exemple 3.1.1 Tran~formation de Gabor


La fonction porte et la fonction gaussienne sont des fenêtres qui jouent un rôle
important dans plusieurs applications. Le cas particulier de la STFT qui correspond
à une fenêtre gaussienne h(t) = exp(-t 2 ju2 ) et à des pas d'échatillonnage en
temps et en fréquence inverses l'un de l'autre est appelée transformation de Gabor.

Exemple 3.1.2 Spectrogrammes avec différentes fenêtres


Considérons le signal :

où rjJ 1 et 02 désignent deux polynômes de degré 2 ayant pour coefficients de t 2 des


nombres positifs. Le signal z.(t) est la somme de 2 chirps croisés et la ligure 3.3
donne la T.F et le spectrogramme de ce signal calculé avec trois fenêtres di!l'érentes.

L'opérateur linéaire, dénommé STFT, détïni par :


S: x--+ S(x) ""S,(T,ll) (3.7)

possède la propriété importante suivante [30].


3.1 Transformée de Fourier de courte durée (STFT) 97

Gauss
~~ .. -··---~

0.4!~-====-~-~ J
0.3
0. 2
i
.
------<::~~S:::-~-;:>-~-~-r:f;~~~~'
-~-:::::::_-~-..r\'.".r:.·--\-,;ii \:' ~ 1 (
0

O. 1 /:<:t~.)'~:~;~-
1
0

Figure 3.3 Somme de deux chirps croisés.

Comme pour la transformée de Fourier classique, moyennant certaines précautions,


le résultat ci-dessus peut s'étendre au cas des distributions tempérées. En particulier,
si l'on prend y(t) = 6(t- 11), on obtient la formule d'inversion suivante qui permet
de calculer x à partir deS, (T.u) :

.Y(I) = --
1
111111-
0
1"'1"'
-cc -oo
S,.(T,I/)f1 7 .u(l) dTd//. (3.9)

Exemple 3.1.4 Calcul pratique de la STFT


On part du signal à temps discret [x, = x (11 T)], T > 0, on pose h" = h (11 T) et on
désigne par N le nombre d'échantillons contenus dans la fenêtre d'analyse. On intro-
duit une discrétisation de la variable fréquence u. La STFT est alors délïnie par l'en-
'
0 semble des nombres Xk.n calculés comme suit:
'
Il
N-I -j27rfT-
AJ.:,n
v L " _-rc-rk 1*
=" " 1ce N, k E .Z. Il= 1.2 .... (3.10)
t=O

~
::: Si l'on veut augmenter la résolution fréquentielle. il faut accroître la largeur N de
à cette fenêtre, el inversement si l'on cherche plutôt une résolution temporelle. on doit
9
98 3 • Méthode d'analyse temps-fréquence

diminuer N. On obtient ce que l'on appelle le sonagraphe. 11 existe des sonagraphes


permettant l'analyse dans les bandes de largeurs 45 Hz et 300 Hz. Ces bandes ont
été choisies pour les besoins d'analyse de la parole humaine : la première permet de
décrire les structures fréquentielles, structures harmonique du signal source et les
fréquences de résonance du conduit vocal. La deuxième permet de mettre en évi-
dence l'évolution temporelle et la structure fréquentielle.
Comme pour la T.F, la méthode du remplissage par des zéros (zero-padding) per-
met d'améliorer la résolution fréquentielle. Le principe de cette méthode consiste à
compléter par M zéros un ensemble deN échantillons de sorte que M + N soit une
puissance de 2 et cela permet d'éffectuer les calculs à l'aide de la T.F rapide en uti-
lisant les N + lv! points. Lorsque lv! = N, la méthode revient à utiliser les algo-
rithmes TFD qui sont faits pour calculer N points du spectre à partir de Npoints du
signal afin de calculer 2N points du spectre à partir, seulement, de N points du
signal. Les propriétés de la STFT discrète ainsi que les conditions d'échantillonnage
nécessaires à la reconstruction de x(t) sont développées dans [37] et seront analy-
sées plus loin dans ce chapitre. Dans la pratique, il existe plusieurs types de fenêtres
chacune étant plus ou moins adaptée à une classe de signaux donnés.

3.1 .2 Localisation t-f associée à la STFT

La localisation temps-fréquence des fonctions h 7 _,(t) est dél1nie par le supports


temporel de lzn,(l) et le support fréquentiel de sa T.F Hn-Cf). Supposons que h(t)
est de norme 1. i.e. :

I: 2
lh(t)l dt = I: 2
IH(f)l df = 1.
Les paramètres t etfpeuvent alors s'interpréter comme deux variables aléatoires de
densités respectives 111(1)1 2 et IH(fJI 2 . On peut toujours se ramener à des variables
centrées en introduisant une translation temporelle sur t et une modulation de h (t).
On peut donc supposer :

Les supports de h et H sont approximés par les variances de t et f dél1nies par:

Un calcul simple montre que pour tout couple (T,II) 11xé, les fonctions lhrAtJI 2 et
1Hr.uU) 12 sont respectivement centrées autour de Tet 11 et possèdent les mêmes a}
3.1 Transformée de Fourier de courte durée (STFT) 99

et a} que 11!(1)1 2 et IH(v)l 2 Les supports temps-fréquence associés aux fonctions


lh 7 _1,(1)1 2 sont donc des rectangles centrés en (T,V) se déduisant par translation de
celui de 11!(1)1 2 • L'application de la STFT correspond donc à un pavage du plan
temps-fréquence en rectangles identiques comme l'indique la figure 3.4.

f f
2u

t
T

Figure 3.4 Localîsatîon de l/1,. 1,(_t}r;. et pavage du plan temps~fréquence.

Le résultat suivant donne une contrainte que doivent vérifier les largueurs de
bandes temporelle et fréquentielle u; el o} associées à une fenêtre h donnée.

Principe d'incertitude de Gabor-Heisenberg Si les variances u; et ~- associées à


h(t) existent, elles véti!ient l'inégalité suivante:

(3.11)

et la seule l'onction. de carré sommable, pour laquelle la borne inférieure 1/rr est
e~nr , o: > 0.
2
atteinte est la gaussienne h (t) =
~ Ce résultat signifie que l'on ne peut pas avoir simultanément des précisions arbi-
;; traires sur les localisations temporelle et fréquentielle d'un signal. Il y a donc un
.,"0 compromis entre la précision en temps et la précision en fréquence. Si on veut avoir
·~ une étude localisée, il faut imposer à h d'avoir un support borné et cela entraîne des
~ effets de bord importants. On peut alors choisir des l'onctions à supports non bornés
"~ et à décroissance \~ rapide }) à l'inl1ni. Le choix de la durée d'observation du signal
§
; et du support de la fenêtre glissante est conditionné par le principe d'incertitude de
'! Gabor-Heisenberg. À titre d'exemple, si le signal est de durée T. une fenêtre de su p-
o port T /2 donne une assez bonne précision en fréquence mais une mauvaise préci-
~ sion en temps. Pour une fenêtre de durée T j 10 on obtient des résultats inverses. La
-g figure 3.5. donne le spectrogramme de la success tvec trois
8 types de fenêtre. Pour les figures d'en bas, la durée e de celle
g des fenêtres des figures d'en haut.
100 3 • Méthode d'analyse temps-fréquence

Hamming1 Gauss1

!-
1
- J
1

Kaiser2 Gauss2

F~~~~fW j
1 ____ j

Figure 3.5 Spectrogramme avec des fenêtres de durées différentes.

La figure 3.6, donne le spectrogramme de la somme de deux chirps avec trois


types de fenêtre. Pour les tïgures d'en bas, la durée des fenêtres est double de celle
des fenêtres des ligures d'en haut. Sur la figure 3.7. on considère la somme de deux
chirps croisés.

Hamming - i

Figure 3.6 Spectrogramme avec des fenêtres de durées différentes.


3.1 Transformée de Fourier de courte durée (STFT) 101

Gauss1

[------]
Gauss- 2

:B
=
L::~:2~~~~
m
=
_g
ù::

temps

Figure 3.7 Spectrogramme avec des fenêtres de durées différentes.

Butterworth

~ 0'-----------,
TF

li
1

1 1
0 200 400 1 0 1

i~
~ f1 (~~--:,-,--:-;;-,-;:,,~-;~;~AY:::-.-;:~---:-_,;-"-"-:"--;;;;ri
~~-- ·--····------ ~
1---===U-
0 200 400 1 0 1
temps Amplitude

Figure 3.8 Modèle spectral pour la voyelle /a/: une fenêtre; 2 durées.

Exemple 3.1.5 r1pplications aux signaux de parole


Un signal de parole peut être modélisé [85] [91] [1] par s(t) = h(t) * p(t) où
c 4
g
·5_ /z(t) =
"À 1
U(t) L.__ e ' cos (27r.fil)
§ i=l
15 désigne la réponse impulsionnelle du conduit vocal et
-€.
co (1- nT) 2
1
p(t)=
I:
n=-oo
e 2 T2
102 3 • Méthode d'analyse temps-fréquence

un train d'excitations auxquelles ce conduit est soumis. Les signaux de parole sont
par nature non stationnaires et leurs traitements nécessitent donc l'utilisation de
méthodes temps-fréquence. Le spectrogramme est largement utilisé pour donner
une vue globale du contenu spectral d'un mot ou d'une phrase mais il ne pennel pas
d'obtenir une bonne résolution temporelle. Comme on le verra plus loin, le spectro-
gramme fait partie d'une classe de distributions temps-fréquence obtenues par des
lissages de la distribution de Wigner-Ville. De plus. parmi ces distributions, cer-
taines offrent plus de possibilités que le spectrogramme pour l'analyse du spectre
d'une voyelle, d'une consonne ou d'une transition consonne-voyelle. À titre
d'exemple, la figure 3.8 donne le contenu spectral d'un signal pouvant modéliser
théoriquement les fonnants constituant le spectre de la voyelle /al et la tïgure 3.9
donne le contenu spectral du signal réel qui correspond à /al. On a considéré une
fenêtre de Butterworth avec deux durées différentes. Chacune des deux tïgures de
droite représente la coupe par un plan t = 10 du spectrogramme dont une coupe
horizontale est donnée sur la tïgure de gauche.

ButtenNorth TF

~
i[ 0 200 400
1 1
[__ ~ ~
j
0 1

•b
~
.g
ù::

0
<-, _--: __--
200
temps
. ;.
-~

400
·: 1

1
1
~(""

j
0
Amplitude
~· · -~1

Figure 3.9 Contenu spectral de la voyelle 1 a 1; une fenêtre; 2 durées.

3.2 DISTRIBUTION DE WIGNER-VILLE ET EXTENSIONS

Dans beaucoup de domaines tels que les télécommunications, le radar, le sonar,


l'analyse des vibrations, le traitement de la parole, l'analyse des chants d'oiseaux,
l'exploration sismique. les signaux à traiter présentent un comportement non sta-
tionnaire. Des techniques importantes. dénommées méthodes d'analyse temps-fré-
quence ont permis de compléter l'apport de la STFT pour l'analyse de tels signaux
[15] [29] [30] [31]. Parmi ces techniques, la distribution lemps-fréquence de
Wigner-Ville reste l'une des plus importante et nous allons l'étudier de manière
détaillée dans la suite.
3.2 Distribution de Wigner-Ville et extensions 103

3.2.1 Distribution de Wigner-Ville

Les modules des T.F des signaux définis par (3.1) et (3.2) sont très proches ella
considération des arguments de ces T.F est nécessaire pour faire la distinction entre
ces deux signaux. On préfère cependant ne pas utiliser les arguments et rechercher
des " distributions du type énergétiques », c'est-à-dire bilinéaires par rapport au
signal, qui offrent plus de renseignements que le spectre de puissance (carré du
module de la T.F). Par exemple le module de la STFT est une distribution du type
bilinéaire. Plusieurs travaux on cherché à introduire une notion de spectre instan-
tané et on pense qu'une distribution temps:fi'équence Px (t, u) doit être telle que

dEx(t,u) ,!', Px(t,u)dtdu

représente l'énergie contenue dans un rectangle élémentaire dt.du du plan (t-u) .


............ Pour préciser la distribution Px(t,u), introduisons l'application:

p: [x(t),y(t)]-+ Pxy(t,u)

qui associe à x(l) et y(t) la fonction des deux variables réelles P.n-(t,u). Laques-
tion est de savoir s'il existe p véritïanl les trois propriétés suivantes simultanément.
P 1 : Px v est sesquilinéaire.
P2 : P..",!', Pxx vérifie les deux conditions suivantes, appelées pmpriétés mw~~ ina/es :
2 2
i:Px(t,u)dt = IX(u)l et i:Px(t,u)du= lx(t)l • (3.12)

P3 : Px (1, u) ne prend pas de valeurs négatives.

i: i: L:
Si les conditions marginales sont vérifiées. l'énergie du signal est donnée par :
2
E., ,!', lx(t)l dt = Px(t,JJ)dtdu .

. C>


~~1?JJ~~
0 '
:~ Les applications sesquilinéaires qui vérifient soit la propriété de positivité soit les
~ conditions marginales jouent un rôle important dans l'analyse des signaux non sta-
"5 tionnaires. L'image fln (t, u) d'une telle application est appelée distribution temps-
; fréquence. Une distribution importante est celle de Wigner-Ville (W. V).
·~
0

o.

-g
§
Cl
g
104 3 • Méthode d'analyse temps-fréquence

Une preuve de cette proposition est donnée dans l'exercice 3.3. Lorsqu'on consi-
dère un seul signal, x = y, les notations simplifiées W, et K, seront utilisées à la
place de W.u et Ku. L'expression (3.13), introduite en 1932 en mécanique quan-
tique par Wigner [127], a été ensuite établie par Ville [123]. Pour un signal réel, la
distribution W., ne prend que des valeurs réelles et d'après le théorème de Wigner,
ces dernières peuvent être négatives pour certains signaux.

Exemple 3,2.3 Expression de W,.y dans le domaine fréquentiel


La distribution W., y peut se mettre sous la fom1e d'un produit scalaire :

Utilisant la conservation du produit scalaire par la T.F et le résultat :


T · Îf 1 V
_:F [x(t + ;:;le-l"'"'] =
"1
2X(2.f)e--~-"- * i5(f + ;:;l
·~J - -

-.f
-?X(?
_ ~ + lJ)e -j47rtU+~l
-

on obtient une expression de W,,(t,v) en fonction des T.F de x(t) et y(t) :

(3.15)

Exemple 3,2.4 Fonction ambiguïté


La distribution W,y est en fait la T.F bidimensionnelle de la distribution classique
dénommée .fimction ambiguïté (F.A) et détïnie par :

A,y(.f,T) §,loo l(.(t,T)ej "f' dt.


-00
2
(3.16)

En effet, on a :

A.n(f,T) = ;:-l [K,(t,T)] = ;:-l {:F- 1 [Wxy(t,u)]j.


- T....:;.f T-+f IJ-+T
3.2 Distribution de Wigner-Ville et extensions 105

On peul remarquer que A,(O.O) est toujours égal à l'énergie de x(l) el que W,(O,O)
esl égal à deux fois l'énergie de x (1) si x (1) est un signal pair. La représentation de
IW,(t,l!)l en fonction des variables 1 et l! est une surface qui donne des infonnations
sur la répartition de l'énergie du signal dans le plan lemps-fréquence. En général, les
coupes de celle surface par des plans parallèles au plan des axes t-f donnent une
bonne approximation de celte répartition d'énergie. On peut aussi considérer des
coupes par des plans verticaux et parallèles soit à l'axe des temps soit à l'axe des fré-
quences. À titre d'exemple. les figures 3. 10 et 3.11 donnent chacune la T.F d'un
signal. la projection d'un ensemble de courbes de niveau (coupes par des plans hori-
zontaux) de la surface 1W, (1, r;)l, une coupe de cette surface par le plan 1 = lo et une
coupe par le plan l! = 1/o. Les signaux considérés dans les figures 3.10 et 3.11 sont
la somme et deux cosinus et la somme de 2 chirps respectivement.

Coup~ : r=.:.:onst

1 1 ., T.F 1

lilL~J Fnfqucncc

1 l
"' i 1

A.n,plitudt:
Jll__ -_·---==~~-----_""_--_-v__jl
Figure 3.10 T.F, W. V et ses coupes par les plans t = fo et u= uo.

~-t Arnpliutùt:

Figure 3.11 T.F, W. V et ses coupes par les plans t = to et u = 11o.


106 3 • Méthode d'analyse temps-fréquence

Les principaux inconvénients de la distribution de WV proviennent de son carac-


tère non linéaire et du fait qu'elle peut prendre des valeurs négatives. Les tïgures
3.10 et 3.11 montrent l'importance de ce terme croisé qui ne représente en fait
aucune réalité physique. La distribution de WV ne peut donc pas être interprétée
comme une densité d'énergie. Nous allons développer les principales propriétés de
cette distribution et pour plus de détails, on peut se reporter à [14] [29] [30] [31].

Exemple 3.2.5 L'opérateur West sesquili11éaire


On peut vérifier en utilisant la détïnition les propriétés suivantes :
W(cu,y) = aW(x,y) et W(x.ay) = o:*W(x.y)

W(.tJ + x2.y) = W(xJ,)') + W(x2,y)


W(x,)'t + Y2l = W(x,yJl + W(x,y2).

Exemple 3.2.6 W(x ,y) est complèteme11t déji11i à partir de W(x ,x)
L'opérateur W(x,y), considéré sur l'ensemble des fonctions à valeurs complexes,
est complètement déterminé par sa restriction à la diagonale (x ,x) et l'on a :
2W(x.y) = -(1- j)[W(x,x) + W(y,y)]
(3.17)
+ W(x + y,x +y)- jW(x- jy,x- jy).

Il suftït, pour établir ce résultat, d'utiliser les identités suivantes :

W(x + y,x +y)= W(x.x) + W(y,y) + 2ReW(x,y)


W(x- jy.x- jy) = W(x.x) + W(y,y)- 2jimvV(x,y).
3.2 Distribution de Wigner-Ville et extensions 107

S'il existe T tel que g( T) ~ x (t + ~) y (t - ~) * =f 0, alors on a t1 oS; t + ~ oS; t2


f] + TJ
2 oS; T2. Donc~ oS; t oS; 2· En prenant les contraposées, si t <le
T h +T'
et TJ oS; t-

1] +Ti h + To]
[
-z· - - , alors on a g(T) = 0, '<IT E ïlè. Par suite l'intégrale est nulle. La
2
deuxième partie se démontre de la même façon.

Les distributions associées à un signal et à son signal analytique sont reliées par le
résultat suivant.

Introduction du signal analytique On démontre dans l'exercice 3.4 le résultat sui-


vant. Soient x 1(t),x 2 (t) deux signaux et z. 1 (t),::: 2 (t) leurs signaux analytiques asso-
ciés. Alors, on a W0102 (t,v) = 0 pour 11 < 0 et:

sin (4m;t)
W01 :,(t.u) =4W,,x2(1,11* _ pour 11 >O. (3.22)
t "
1

Exemple 3.2.9 Distribution de W. V discrète


Si l'on note x, = x(nT) et on introduit une discrétisation de la variable fréquence
~ en N points équidistants, la relation qui permet de calculer, pour chaque k E Z, fixé,
§ le vecteur de dimension N dont les composantes sont données par :

11 = 0,1.. .. ,N (3.23)

§ est appelée distribution de W. V discrète. Les propriétés de cette distribution ainsi


·a." gue les conditions d'échantillonnage nécessaires à la reconstruction de x(tl sont
i développées dans [105]. Comme pour la TFD, on peut aussi introduire des fenêtres
'É.. de pondération et traiter le signal w 11 x 11 au lieu du signal x 11 •
J
-o La distribution de Wigner-Ville possède un inconvénient majeur dû à sa bilinéa-
o
g rité. En effet, la distribution de la somme de deux signaux contient un terme croisé
0
g qui ne con·espond à aucune réalité physique et qui fait que cette distribution peut
108 3 • Méthode d'analyse temps-fréquence

prendre des valeurs négatives. De plus, le calcul de la distribution associée à un


signal réel fait apparaître des interactions entre fréquences positives et négatives.
Pour pallier à cette dernière difficulté, Ville a proposé de calculer la distribution de
W. V du signal analytique z associé à x plutôt que celle associée au signal x lui-
même. Cela ne permet malheureusement pas de faire disparaître les tmmes croisés
comme on le voit sur l'exemple suivant.

Exemple 3.2.10 Distribution de la somme de deux .fréquences


Considérons le signal analytique (donc sans fréquences négatives) :

(3.24)
Un calcul simple montre que la distribution de W. V de z(t) est donnée par:

W,(t.l/) =Afo<v- ftl + A~il(u- .hl


+2A 1 A26(u- fi ; h cos [2rr(fi - ,h)t].

Le troisième terme de cette expression n'a aucune réalité physique et il est de nature
oscillatoire. On peut le faire disparaître en calculant l'intégrale de W,(t.u) par rap-
port à 1. D'après les propriétés marginales. on doit trouver IX(u)l 2 .
D'une manière générale~ les termes croisés peuvent être très gênants surtout
lorsque leurs amplitudes peuvent dépasser celle du signal utile. De plus. dans la pra-
tique. le signal est connu sur un horizon fini et cela introduit dans la disllibution
l'autocorrélation de la fonction porte qui définit le support du signal. Comme pour
la STFT, la troncature brutale du signal fait apparaître des lobes gênants.
Pour limiter les effets néfastes des troncatures et des termes croisés. on lisse le
signal par des fenêtres appropriées et bien localisées telles que la fonction de Gabor
et d'autres fenêtres qui seront présentées plus loin.

3.2.2 Distributions de Wigner-Ville lissées


En remarquant que les termes croisés sont de nature oscillatoire, Cohen a proposé de
« lisser» la distribution de W. V atïn de supprimer ces termes. Pour ce ftlire. il intro-
duit une double convolution par rapport à la variable temps et à la variable fréquence.
Cette opération pennet aussi de tenir compte du fait que le signal n'est connu que dans
un domaine limité du plan temps-fréquence. Si l'on remplace le signal z(t) par un
signal « approché " limité dans le domaine temporel et le domaine fréquentiel, la dis-
tribution de W. V du signal obtenu prend la forme suivante :
p(t,u) = W(t.u) **/(/,1/)
Ill
où 'f (1 ,u) désigne une fonction de pondération traduisant les troncatures et** dénote
la double convolution dans le domaine t-f. Pour tenir compte de ces contraintes. on
3.2 Distribution de Wigner-Vi/le et extensions 109

introduit dans la définition des distributions temps-fréquence une fonction de pondé-


ration ft(f,-r). Cela conduit à toute une classe de distributions définies par:

(3.25)

ou de manière équivalente, en utilisant la T.F inverse :

1 JR2
.
) jh(ft+-;v)
Cxy (1 ,l!e · c;/tl (f' )A xy (/,T.
cU=P·.,T_ ) (3.26)

L'opérateur C qui associe à un couple de fonctions x(l) et y(t) de L 2 (iR!.) la distri-


bution Cxy(t,v) à deux variables est appelé opérateur de Cohen et son image est
appelée distribution lissée. Dans le cas x = y, on pose Cxx "" C,. L'ensemble des
distributions Cxy(t,v) est appelé classe de Cohen [33]. On a donc:

À titre d'exemple, on peut vérifier que la distribution de W.V est obtenue pour
p.(f,-r) = 1. On effel, on a:

F . F [ F~t ]
C,y(t,v) = f-r--+t v [Axy(.f.-r)j =j.T--+I v B--+ .K,y(B,T)
.' ' ' ' 1
= F
T---+ 1/
[Kn-(G,T)j

= Wn-(t,v).

Exemple 3.2.11 Distribution de Choi- Williams (C. W)


~ La fenêtre de Choi-Williams est définie par
~

4,..lr21}
'ID p(v,T) ""e ~~ avec rr E iR!.+. (3.27)
"
·~
't:
~ Pour le signal donné par (3.24), le calcul de cette distribution conduit à:
"
CW,(I,v) =Afc\(v- /tl +A~J(v- ./2)

+2AtA2S(v- .ft; h) cos [2r.Cft- ,h)l]!t.(V,ft,.f2,rr)

] ~:. 1 cr [v- ~Cft+ hlfrr2


cl avecp(v,.ft,.f2,rr)= re. exp[
2(/t - ./2) 2 ).
© v27ri./I-.hl
110 3 • Méthode d'analyse temps-fréquence

On peut remarquer que

et voir ainsi que pour les grandes valeurs de a, CW,(t,lJ) se comporte comme
W,(t,u). D'autre part, l'amplitude du terme croisé tend vers zéro en même temps
que u et donc le choix de ce paramètre pennet de contrôler l'influence du tenne
croisé qui n'a aucune réalité physique.

Exemple 3.2.12 Autre exemples de fenêtres


-
Pour limiter les effets des termes croisés qui apparaissent dans la distribution de
W.V, une solution consiste à choisir des fenêtres de pondération appropriées. On
peut citer les noyaux suivants.
1. Fenêtre gaussienne à variables séparables :

71"202) ( _2-,2)
tp(!!,r) =exp ( - '~ 2 exp - '~ 2 •
-CT() -ŒT

2. Fenêtre de Zhao-Atlas-Marks (ZAM) [122]:

(3.28)

où o· est un nombre positif et a un paramètre réel.


3. Fenêtre de Margenau-Hill (MH)

1,<e. rJ = cos ("iJ"OrJ (3.29)

4. Fenêtre de Zhang-Sato (ZS) [123]

fi.(O,r) = e- 2"'o'i';a' cos [71"(30rj (3.30)

où a et (3 sont deux paramètres réels. Cette fenêtre peut être vue comme le produit
du noyau de Chai et Williams et celui de Margenau-Hill.
Les distributions lissées possèdent des propriété"s qui sont plus ou moins intéres-
santes selon le choix du noyau. Se plaçant directement dans le cas x = y, on va don-
ner les propriétés les plus importantes de C,(t,u).
3.2 Distribution de Wigner-Ville et extensions 111

Exemple 3.2.14 Symétrie hermitienne


La distribution Cx vérifie les propriétés de symétrie hermitienne suivantes.
1. C,(T.u) est réelle ssi:
't.(u,t)* = p,(-u.-t). (3.34)

2. Si '' vérifie la symétrie


p,(t.J.f) = p,(u.-t) (3.35)
alors. on a
Cx·(t.u) = C(t.-u). (3.36)
3. Pour o: = -1. la relation (3.33) donne :
Cx(-tl(t.u) = C,(-t.-u) ssi tt.,(-u.-t) = 't(u,t), (3.37)

&t~1fi~
lte

~ i~
§
,[; !~
'"·~
0
';~;;; ''·;;~~ :~ ,;,, ;,;
'"
0
0
;.;

,0

"&
B
E
1
"
§
0
9 ':;;;:,.;:.,
112 3 • Méthode d'analyse temps-fréquence

~}~~?;~~
~i~~
~~
;z:g f~' '·" ''"
3.2 Distribution de Wigner-Ville et extensions 113

3.2.3 Application aux signaux chirp

Les signaux faisant intervenir une fréquence variant linéairement avec le temps se
rencontrent dans plusieurs domaines de la nature et des applications de l'ingénieur.
Une grande majorité de ces signaux peut être représentée par le modèle :

x(l) = A(l)ei•!•ll) cb(t) = T<("(t 2 + 2./()t).


Ces signaux chilp, dont un exemple est donné dans la ligure 3.2, correspondent à des
modulations linéaires en fréquence. Certains chants et cris d'oiseaux peuvent être
modélisés par des chirps à amplitude constante p(t) = A. Pour un tel signal. on a :

(3.50)

oü 0' désigne la dérivée de r/J(f), qui sera appelée par abus de langage, fréquence
instantanée (FI). La distribution de W. V est alors donnée par:

W,(t,u) l ' (t)].


= cl[u- ;:;-1' (3.51)
-"
Ainsi, pour les signaux modulés linéairement en fréquence, la distribution de W. V
concentre l'énergie autour de la fréquence instantanée. Malheureusement, dès lors
qu'on à affaire à un signal multicomposantes, résultant par exemple de la somme de
plusieurs chirps. la distribution de W. V devient difficilement utilisable. Pour de tels
signaux, il existe des fenêtres qui conduisent aux distributions lissées : C.W. ZAM,
Z.S. Butterworth, qui sont mieux adaptées que la distribution de W. V (fenêtre rec-
tangulaire). Nous donnons dans la suite quelques distributions construites à l'aide de
ces fenêtres et quelques tïgures comparatives.

Exemple 3.2.19 Signaux chùp et distributions lissées


Pour le signal chirp à amplitude constante de la forme

x(l) = Aexp(jT<"(t 2 + j2T<.f(1t)


la distribution ]V,, et les distributions CWx et ZS, associées aux fenêtres de C.W et
Z.S ont pour expressions :
114 3 • Méthode d'analyse temps-fréquence

Le graphe de la fréquence instantanée est la droite tl d'équation JJ- fo- '(t =O.
Considérons le nouveau repère orthonormé ayant cette droite comme axe et soit ç
la coordonnée sur l'axe L'l' perpendiculaire à Ll. Alors les distributions le long de L'l'
sont données par [ 128] :

ZSx(Ç) =A- '1 e __''-'-'!' ' cos [27Ty~


,...' ' cr cos [wyr] l + '(2ÇT]dT.

Ces expression permettent de comparer les valeurs W,(O), CWx (0) et ZSx(O).
Les tïgures 3.12 3.13 3.14 donnent la T.F, le contour de la distribution de W.V
et les contours des distributions de ZAM et C.W calculées chacune avec deux lon-
gueurs différentes pour la fenêtre associée. Les signaux considérés sont : la somme
de trois sinus, la somme de deux chirps et enfin la somme de deux chirps croisés.

TF C.W-1 ZAM -1
1~
1
1 .

UlJ 1

-2

Figure 3.12 Somme de trois sinus.


3.2 Distribution de Wigner-Ville et extensions 115

C.W-"1

C.W-2

temps

Figure 3.13 Somme de deux chirps.

Figure 3.14 Somme de deux chirps croisés.

Exemple 3.2.20 Le spectrogramme appartient à la classe de Cohen


On peut démontrer [29] [30][31] que Je spectrogramme est relié à la distribution de
·5. W. V de h par la relation suivanle :
~
0
'Ë.

~
§ Le spectrogramme est donc obtenu par lissage de W,(t,.f) par la distribution de
~ W. V d'une fenêtre h(t) dont les supports temporel et fréquentiel sont forcément liés
116 3 • Méthode d'analyse temps-fréquence

et doivent satisfaire à la borne de Heisenberg. Le lissage temporel et fréquentiel ne


peuvent donc pas être choisis indépendamment l'un de l'autre. On peut choisir
comme noyau associé au spectrogramme la fonction suivant :
T T
fl(t,u) = lz(-t +
2 )/z'"(-1-
2).
Comme, on l'a déjà signalé, le terme croisé introduit par la disttibution de W. V peut
devenir très gênant pour les signaux multicomposantes. À titre d'exemple, la figure
3.12 montre cette difficulté pour une somme de trois sinus. Le spectrogramme ne
présente pas de ten11e d'interférence et il délinit une fonction positive. Par contre, il
ne possède pas certaines autres propriétés importantes que doit vérifier une distri-
bution temps-fréquence. La propriété relative à la fréquence instantanée des signaux
monocomposante n'est pas vérifiée. On peut cependant considérer la phase de la
STFT pour retrouver la loi de modulation en fréquence. Pour tenniner cette section,
nous donnons les ligures 3.15 et 3.16 qui pennettent de comparer plusieurs distri-
butions. Pour la ligure 3.15, le signal considéré est la somme de 3 chirps et pour la
ligure 3 .16, le signal est égal à la somme de deux gaussiennes, d'un chirp et d'une
fréquence constante.

STFT SPWV ZAM

w. v Butterworth
c.w

temps

Figure 3.15 Somme de 3 chirps.


3.3 Distributions d'ordre élevé 117

STFT SPWV ZAM

i 1
1 ~~ -<H-»-1 1,,,~~~
1 ~"'::._·- 1

1
i, _ _ _ _ _ __j
1
'
;

L_ _ __ _,_________!
1 c -- -··

Butterworth

(l """''·""",_"'y!l!'~-ill
(o) ~~-,.. ,., ~~~HM~~
'L_·----~
Figure 3.16 Somme de 2 gaussiennes, d'un chirp et d'une sinusoïde.

3.3 DISTRIBUTIONS D'ORDRE ÉLEVÉ

Les distributions temps-fréquence classiques sont utilisées pour analyser les


signaux dont les propriétés spectrales varient avec le temps.
En surveillance sous-marine. les bruits de bateaux se manifestent sous la forme
de signaux harmoniques à bandes étroites qui varient avec le temps si la vitesse du
bateau n'est pas constante.
En acoustique, les ondes produites par les baleines présentent aussi des modula-
tions de fréquences. Des situations similaires apparaissent dans l'étude des vibra-
tions, la surveillance radar. la sismique et bien d'autres applications.
~ Les signaux provenant d'une source mobile sont des signaux non-stationnaires à
" cause de l'effet Doppler. Lorsque la phase de tels signaux peut être approximée par
~ le terme quadratique at 2 • on obtient des signaux modulés linéairement en ti·é-
-~ quence, dénommés signaux chirp, que l'on rencontre dans le cas des radars à com-
·~ pression d'impulsions par exemple. Les distributions de la classe de Cohen sont
'
s;" adaptées à l'étude de tels signaux comme il a été vu dans la section précédente.
Par contre. si l'on considère un signal Doppler sans introduire d'hypothèse sim-
~ plificatrice, le problème se ramène à la détermination de la phase Ç>(l) qui apparaît
~ dans l'expression du signal reçu x (t) = A (t )eJc•(ll. Une modélisation de c/> est don-
t.5 née par [97 j :
118 3 • Méthode d'analyse temps-fréquence

où l'on désigne par :

'!'o : la phase initiale, v11 la vites_se ra_d~ale: a;; : l'accélération radiale


_=

1 V.L: la vitesse orthogonale. l acceleratiOn orthogonale.


a.L :
À titre d'exemple, les tïgures 3.17 et 3.18 montrent le comportement des distri-
butions de Cohen lorsque le signal contient des fréquences qui varient non linéaire-
ment. Sur la figure 3.17, le signal a une phase cubique et sur la figure 3.18, le signal
est égal à la somme de 2 chirps et d'une phase cubique.

Figure 3.17 Distributions d'un signal à phase cubique.

STFT SPWV ZAM

~~~lr~----
1____ ! 1 ~- i

w. v

1 ~J(_ - - . .
temps
1 j
Figure 3.18 Somme de 2 chirps et d'un signal à phase cubique.
3.3 Distributions d'ordre élevé 119

Dans la suite de cette section, nous nous limitons au cas des Signaux à Phase
Polynomiale (SPP) définis par le modèle :
N
z(l) = A(t)eiôitJ avec rj:>(l) ~ La, t', N > l. (3.52)
i=O

Le cas le plus fréquent correspond à un SPP à amplitude constante A (t) = A.


Comme exemple de signaux faisant intervenir une modulation en fréquence non-
linéaire et qui n'est pas forcément polynomiale, on peut donner les exemples sui-
vants qui illustrent les approximations faites couramment.

Exemple 3.3.1 Radar de poursuite


Un radar envoie un signal s(t) formé par une suite d'impulsions vers une cible et
récupère un signal reçu (écho) x(t) à partir duquel on doit extraire des informations
utiles. Par exemple, si la cible se rapproche du radar à une vitesse v colinéaire à la
direction du signal radar s(t), le signal x(t) reçu par le radar après réflexion sur la
cible peut être approximé par le modèle [2] :

x(t) = s[t -ÇJ(t)] =s[ (1- "~) 2


t- <Po]
où v et c désignent respectivement la vitesse de la cible et celle de la lumière. Le
signal x(t) est entaché d'un effet Doppler. Dans le cas où les vecteurs vitesse v etc
forment un angle e non nul, l'expression de x(t) est plus complexe et on montre que
l'effet Doppler diminue lorsque etend vers Tr/2 et il est maximum pour Il= O. Un
radar de poursuite est un système motorisés pouvant orienter l'angle d'azimuth d'une
antenne ainsi l'angle d'élévation de cette antenne. À titre d'exemple, le radar de
Wallops Island Station, Virginie, a une antenne qui l'ait 9 mètres de diamètre. Un
moteur électrique pennet d'orienter la direction de visée dans le plan vertical et un
autre moteur permet de la l'aire tourner dans le plan hmizontal. Un contrôleur auto-
matique permet d'assurer que l'antenne pointe toujours vers la cible ir suivre.
L'exemple suivant donne une idée sur la partie traitement du signal qui permet au
'' radar de détecter la cible, de déternliner sa position et d'estimer sa vitesse radiale
(projection sur la droite joignant la cible au radar).

Exemple 3.3.2 Station radar de poursuite


'''

0
On considère une station radar de poursuite R et un avion en rapprochement vers
'§ un radar suivant une trajectoire rectiligne passant à une distance L = lOO m du
ë.. radar. L'avion est animé d'une vitesse rectiligne v = 300 mis et il se trouve à une
.J
distance Do= lOO km à l'instant t =O. Pour simplifier l'analyse. on suppose que
"'
a
5 la trajectoire de l'avion est clans le plan vertical passant par le radar (plan représenté
Cl
g par la figure 3.19.
120 3 • Méthode d'analyse temps-fréquence

.P-... vio:n.

250"

350 300

Figure 3.19 Plan vertical passant par le radar et la cible.

On admet aussi que le signal reçu (signal Doppler) échantillonné (T, = w- 3 s)


est de la forme :
2v
Fd(k) =-cos (lh)
,\
où k = 0, 1, ... ,N- 1 désigne le numéro de l'impulsion reçue, F,1(k) la fréquence
du signal -'k et .\ = 0,03 m la longueur d'onde. Un calcul simple conduit aux
expressions suivantes :

fh ~ fl(kT,) = Arctg ( L . )
Do- vkT,

6 2vTe
0::=--
,\
Le signal Xk n'est donc pas stationnaire puisque sa fréquence Fd(k) varie au cours
du temps. Le déphasage entre les échantillons k et k + 1 est donné par :

6.rp(lc) = o[(k + 1) cos (flk+l)- k cos (flk)]


avec

cos tflkl = ( 1 + (
L
.
Do- vkT,
)')-1/'
Comme, pendant la durée T,, le déplacement vT, = 300.0,001 = 0,3m et l'écart
angulaire correspondant sont petits (maximum pour fi= r./2), on peut obtenir une
3.3 Distributions d'ordre élevé 121

approximation du déphasage !lrjJ(k) en utilisant des développements limités pour les


cosinus. On peut aussi faire l'approximation suivante: !50"" Arctg(c\IJ) = 310- 3
2v
puis /:lqJ(k) "" -:\' Comme ce déphasage est pratiquement constant entre deux
échantillons successifs, on peut effectuer une TFD du signal Xk clans le but d'amé-
liorer la détection de l'avion. Ce traitement consiste à calculer :
N-1
X(n)= 'L_x(kT,)e-i 27Ckn/N k=O ... N-1.
k=O

On peut choisir N le plus grand possible pour améliorer le rapport signal à bruit.
Mais pendant ces N échantillons l'avion s'est déplacé de N vT,. et, pour N = 100 par
exemple. la variation de déphasage peut atteindre !50= Arctg(30/l00) = 0.291
radian soit environ 16 °. Elle n'est donc plus négligeable devant 360 "/ N = 3, 6. Le
signal a une fréquence Fd(k) variant de 600/0.03 = 20 000 Hz à
-600 cos (Hk)/0.03. Pour fh = 60, Fd passe de -10 000 Hz à 20 000 Hz. Pour évi-
ter à l'antenne de capter trop de signaux indésirables. on peut mettre à la réception
un tïltre ne laissant passer que cette bande.

3.3.1 Signaux à phase polynomiales (SPP}

Comme la distribution de W. V n'est pas adaptée à l'analyse d'un SPP, des extensions
de cette distribution ont été développées pour les SPP ayant pour phase un poly-
nôme de degré N > 2. Les distributions proposées ont pour principe de concentrer
l'énergie du signal à analyser autour de la fréquence instantanée comme le fait la
distribution de W. Y. Noùs allons exposer brièvement dans la suite les distributions
introduites dans [1 03] [ 17] et nous développons ensuite les extensions de ces distri-
butions. Pour faciliter la lecture du document, les démonstrations ne seront pas pré-
sentées et le lecteur intéressé pourra se reporter aux références [9JJ98].

'' Exemple 3.3.3 Tran~formée de phase polynomiale d'un SPP


0
·.,c La transformée de phase polynomiale (TPP) d'un signal complexe ::(1), notée
30
PN(;,,(i.T). estdéf1nie par [103]:

0
E ..
80
PN(::.O.T) !'ô r
Jo
n
T N-!

k=O
[::Sk(t -kT>)
c
CN e-jOtdt (3.53)
ë
~

n.. où:
.:3
si k est pair
si k est impair
et cq.p+I =
~ (qp). =
6 p!
q!(p- q)!
, 4
. (_,.5 )
122 3 • Méthode d'analyse temps-fréquence

La TPP vérifie de nombreuses propriétés et pour un SPP à amplitude constante, A,


elle se réduit à [ 102] :

PN(z.,II,T) = A 2N-I Texp (j [eN- l)!c1N-I~-I- 'V+ ~T]) sine (~T)


où:

~ JI N!(N-1) JI
<1> = N !c1 N 1 -
1
- IJ et \jJ =6 aN 1 ,
2

Cette expression montre que pour un signal z.(t) donné par (3,52), l'expression de
PN est directement reliée à un sinus cardinal centré en Il= N!aN~-I, Par consé-
quent, il est possible de déterminer le coefficient ON à partir de l'argument du
maximum du module de PN(z,(i,T),

Exemple 33.4 Distribution de Wigner- Ville polynomiale


On sait que la distribution de WV d'un signal FM linéaire, communément appelé
« chirp », est une distribution de Dirac autour de la dérivée première de la phase,
Ainsi, il est possible de retrouver la fréquence instantanée (F,I) du signal à partir de
l'argument du maximum de W(z.,t,w). Supposons que z.(t) soit un SPP défini par
(3.52) où A est une amplitude constante. Pour N ?o 3, la distribution de W. V n'as-
sure plus une raie spectrale autour de la FI. La DWV polynomiale (DWVP) d'ordre
q d'un signal complexe z.(l), notée W pl'll(z.,t,w), est détïnie par [17]:

f n
+oo 11/2
W p(lf)(z,t,W) fl= {z.(/ + fkT)}I'I e-j<CTdT
-co k=-q/2

où les paramètres lk.Pk et l'ordre q sont choisis de sorte que, pour un SPP donné par
(3.52), la DWVP se réduise à :

W plq)(z,t,w) = A" â[w- fj/(t)]

2
où ,//(t) est la dérivée de la phase de z.(t) et n = l.J~ -q/2 Pk· La sélection des
paramètres t"- Pk et l'ordre q a été résolue pour un signal FM quadratique et un
signal FM cubique comme suit. Les auteurs suppose que la phase est de degré
N = 4. Ils prennent q = 4, P2 = -P-2 = 1, Pl =-p-l= 2, po= 0 et ils résol-
vent l'équation suivante :

q/2
L
k=-r;/2
Pk rp(l + fkT) = nj/ (1)
3.3 Distributions d'ordre élevé 123

pour obtenir les valeurs suivantes pour les paramètres tk :

1
lj -
- -1 1 -
- - 2(2- 2113) '-"' 0 .67)- • lo_ = -Lo_ = -2- 1/ 3 11 '-"' -0.85.

3.3.2 Noyaux adaptés à la représentation d'un SPP

Afin d'introduire une classe assez large de distributions adaptées à l'analyse des SPP,
considérons le noyau défini par :

(3.55)

qui est fonction des deux variables temporelles 1 et T, des paramètres réels arbi-
traires lk et des coefficients réels à choisir c{ Pour un SPP ~(t), mis sous la forme
(3.52), le noyau ICS+I a pour expression :

(3.56)

Les distributions généralisées consistent à prendre la T.F de ce noyau par rapport à


l'une des deux variables 1 ouT. Ce noyau doit donc être construit de sorte que le cal-
cul de cette T.F soit possible. Pour ce faire nous allons chercher des qui permet- nf
tent de séparer les variables 1 et T qui apparaissent dans ce noyau. Une telle sépara-
tion sera obtenue en étudiant la décomposition de la dérivée d'ordre C d'un
polynôme rjJ sous la forme :

Vt (3.57)

ol! Q est un entier naturel, to, ... .tQ des réels arbitraires donnés et ag, ... ,cr~ des
coefficients. On suppose dans la suite N > 1 et on désigne par IP'N [1] l'ensemble des
polynômes de degré ~ N. Comme cet ensemble est un espace vectoriel de dimen-
sion N + 1, la décomposition (3.57) existe toujours pourvu que l'ensemble des
0

-~ polynômes r/>(t -lk), 0 ~ k ~ Q, engendre IP'N[I]. A priori, les coeftïcients ni


2
9 dépendent du polynôme qJ considéré mais les résultats suivants montrent que ces
" coefficients. quand ils existent, sont indépendants de cjJ.
124 3 • Méthode d'analyse temps-fréquence

Pour Q = N et pour Q =N- 1 et C < N, les paramètres a[ sont déterminés de


manière unique par :
Q-1
.t "o (to,,, Jk-IJk~J,,,, Jo)
(l 1~ = E! - - ' - k = 0, . .. , Q (3,61)
f1 i,P k(li -lk)
Si les paramètres lk sont remplacés par (' fk (où p est un réel arbitraire) alors les et~
sont remplacés par ok/ ri, Ce résultat, qui se déduit immédiatement de la structure
3.3 Distributions d'ordre élevé 125

du système (3.58), permet de montrer (voir exercice 3.6) qu'un polynôme cf; vérifie
(3.57) si, et seulement si, cjJ vérifie l'identité suivante :
Q
f q,<O(I) = L af r/J(t- tkT) liT, lit. (3.62)
k~O

Si rf; est de degré N, les résultats ci-dessus montrent que pour e = N, la plus petite
valeur de Q est N et pour e < N, la plus petite valeur de Q est N - 1 à condition
que les lk vérifient la relation (3.59) qui s'écrit :
to+ ... +tQ=O. (3.63)

Exemple 3.3.7 Noyau associé à 1111 SPP


D'après les résultats précédents, si le degré N de la phase r/J(I) vérilïe N ,:; Q, les
af existent toujours et l'expression (3.56)) du noyau /C~~~ prend la forme impor-
tante suivante : - ·

[
/CQ+ 1(z.,I,T) = [
Q

n i ·..J'
A(tk}''<]el· '7'
·(ill 1
' (3.64)
k~O

dans laquelle les tk peuvent être choisis arbitrairement. On obtient ainsi un noyau où
les variables t et T sont séparées et ceci facilitera le calcul de la T.F de ce noyau par
rapport à l'une de ces deux variables.

Exemple 3.3.8 Décomposition des dérivées d'ordre N - 1 et N


lllustrons la décomposition (3.57) pour C = N, C = N - 1 et en prenant Q minimal.
1. Pour C = Net Q = N, les coeftïcients uf sont donnés par:

k = 0, .. . ,Q (3.65)

~
0
et la décomposition (3.57) se réduit à:

(3.66)
'
0

'
·n. 2. Pour C = N- 1 et Q = N- 1,
0
les paramètres to, ... JN-I doivent vérifier
~o (3.63), les coefficients af restent toujours donnés par (3.65) et (3.57) se réduit à:
-g_
N-1 (N _ 1)!
(N -l)'a.v-1 + N!a.vt = L -~c--'-- q)(t- fk), lit. (3.67)
k~o n~~~Jt; - tkl
126 3 • Méthode d'analyse temps-fréquence

Dans ces deux cas, on peut remarquer que si les lk sont remplacés par lk + c, c E JR,
les e>f correspondant restent inchangés.
Exemple 3.3.9 Cas où les lk sont équidistants
Considérons les paramètres tk suivants :
tk=k+c, k=O, ... ,Q et cER (3.68)

Alors pour Q = N, les o:f sont indépendants de cet sont donnés par:

Q k Q!
Œk =(-1) , k=O, ... ,O (3.69)
k!(Q- k)! -

?
et pour Q = N - 1, les o:1 sont toujours donnés par (3.69) mais on doit prendre
c = -Q/2.

3.3.3 Fonction ambiguïté généralisée

Soient to, . .. ,t Q des réels distincts et o:6, ... ,o:~ les paramètres solutions du système
(3.58). La fonction ambiguïté généralisée (FAG) d'un signal complexe z(t), notée
A~+ I (z,fJ, r), est la distribution définie par :

.:..·(t) ---:"'-
· A 1Q+! (-.::., fJ ' T)' .&
- 1
0
T
IC 1Q+l (•... , t ' r) t,- j(lrc/t (3.70)

où le noyau /C~+I est donné par (3.55). Si z(l) est donné par (3.52) alors, pour
Q ;;, N - 1, on peut établir la propriété suivante [91] :

A~_;:: (z,ll,r) = exp(j [(N - 1)!aN-I ,N-I + ~ T]) sine ( ~ T) (3.71)


où<!>~ N!aN,-N-I -Il. On en déduit:

(3.72)

Ce résultat montre que l'expression de A~:;::,


_, appliquée à un signal z(t) donné par
(3.52), est indépendante des paramètres lk et que lA~.;:: (;:,O,r)l est directement relié
au module d'un sinus cardinal centré en 0 = N!aNT"- 1 dans le plan (IJ,T). Ainsi, si
l'argument du maximum de lA~.;:: (z,fJ,r)l par rapport à 1) est nul pour tout T, alors
3.3 Distributions d'ordre élevé 127

on a aN = 0, i.e. d0 (r/>) < N. En revanche, si cet argument est non nul pour T =f 0,
nous pouvons détenniner le coefficient aN et le degré de la phase. Après le calcul
de aN, la multiplication du signal :(t) par exp[ -jaNIN} conduit à un nouveau SPP
dont la phase est le polynôme rj1(t) - a NIN de degré ~ N - 1. Cette procédure peut
être répétée pour déterminer de proche en proche tous les coefficients de la phase
jusqu'à l'obtention du coefficient a1. Ce processus itératif est similaire à celui uti-
lisé par la TPP dé!inie par (3.53). En tin. pour détemüner a 0 , il suffit de calculer la
phase de :(1) exp[- j L,{: 1 a, t'}= exp (ja 0 ). La ligure 3.20 et l'exemple suivant
illustrent la procédure pour une phase de degré 3. Dans la suite, on utilisera la nota-
tian suivante :
(3.72a)

Exemple 3.3. 10 Estimation de la phase en utilisant la FAG


Considérons un SPP ayant pour phase : r/J(t) = a 3 t 3 + a 2 t 2 + a 1t + a 0 où
a3 = 0.0063, a2 = 0.2513, a 1 = 7.854, a 0 = 1.0003. Le spectre de ce signal
affecté par un bruit additif est donné sur la figure 3.20 (a). Utilisant (3.72), on
obtient [9] à partir des pics de [A3(:,1i,T)[, [A 2(:!,0,T)[, :1(1) = :(t) e-Ja,r" et
IA 1(z2. li,T) 1, :2Ctl = Z! (1 )e-Jaor' ((b), (c) et (d) respectivement), les estimateurs de
a3, a2, a 1 respectivement.

(a)

0
.-:::
~
0 10 20 30 0 10 20 30
"§ theta theta
(c) (d)
'"0
0
-~

'"3= 40

§"
"'
=ru =
"' 30

= ~ 20
=
1~ il" ~ r~{!lrf1r[ll~~~~lr~~~ 1~ ~jil!l11rl ,11ilv /il l li \ '"l ~
1 1 1 1
0 :ê
"5.. o.
=
•o E
<(
3

~
~
o.r. -10 1 1 J
,; 0 10 20 30
0 the!a
=
il Figure 3.20 Estimation de a3, a2, Ot : (b) donne â..1. (c) donne â2, (d) donne ât.
g
128 3 • Méthode d'analyse temps-fréquence

Exemple 3.3.11 Lien entre la FAG et la TPP


Pour un signal de phase, c'est-à-dire pour un signal complexe z(t) tel que l:(t)l = 1,
la FAG prend la forme suivante :

(3.73)

qui est très proche de (3.53). Si de plus les lk sont donnée par (3.68), nous obtenons
pour Q = N et Q = N - 1 respectivement :

A~+I (z(t),IJ,T) = PN+ 1 (z(t- cT),IJ,T) V c E lRè

A~- 1 (z(r),IJ,T) =PN (z (r+ N~ T) 1


,e,T).

Ces relations montrent le lien étroit qui existe entre la FAG et la TPP.

3.3.4 Distribution de Wigner-Ville généralisée


Soient lo, ... ,tQ des réels distincts et nô, ... , n~ les paramètres solutions du système
(3.58). La Distribution de Wigner- Ville Généralisée (DWVG) d'un signal complexe
z(t) est définie par:

z(t)--+ Wh+J(Z,I,W) =fuT /C~+I(z,f,T) [TC-! e-jwr'dT [of 0

où le noyau est donné par (3.55). Pour C = 1, on obtient la DWVP sur l'intervalle
[0, T] [17]. Les propriétés de la T.F conduisent immédiatement à la relation suivante:
[ -1 c .
AQ+I(z,li,T) = Fr-0 :Fw~r'[WQ+I(z.,t,w)] pour TE [O,T]. (3.74)

Considérons un SPP d'amplitude constante A = 1 . Pour Q :;, N et pour des para-


mètres fk arbitraires, nous avons :

vVb+I (z,l,w) =
i, n
0
T 0

k=O
lej,f,(t-trT) r'
t
Cf-Ie-jwr' dT

=fT exp(j[tnZ1>Ct-tkT)-wf])ef-IdT
Jo k=O

w] f)h 1-IdT
T
=fu exp (j [r/>10(1)-

= T 1exp J
(. q,cn(l) _ w T r) .
· smc
(q)IO(I)- w 1)
T .
2 2
3.3 Distributions d'ordre élevé 129

On a donc

(3.75)

Ces résultats restent valables pour Q = N - 1 à condition que les af


existent, c'est-
à-dire si les paramètres lk vérifient la condition (3.63). On voit donc que l'expres-
sion de l'opérateur W~+l, appliqué à un signal :(1) donné par (3.52). est indépen-
dante des paramètres tk et que [}VG+I (:.t,w)[ est directement relié au module d'un
sinus cardinal centré en w = rj} 0 (tl dans le plan (l.w). Cette dernière propriété
montre l'intérêt de la décomposition (3.57) qui peut être exploitée cie différentes
manières pour déterminer les coefficients de la phase. Comme la FAG, la DWVG
permet d'estimer itérativement les coefllcients Je la phase. En e!Tet, faisant
C = N = Q dans (3.75) on obtient:

u..'o ~ arg max IJ!VA~+ 1 (.::,t,'-w')l = N!aN. (3.76)


c"

Il faut noter que le résultat (3.76) n'est pas valable pour Q = N- 1 puisque dans
ce cas (3.75) n'est pas valable pour C = N. Si l'argument délïnie par (3.76) est nul.
alors "N = 0 et par suite d 0 (r/J) < N sinon. la valeur de l'argument permet de déter-
miner aN. On multiplie ensuite :(t) par exp[-.iaNIN) et on applique la DWVG au
nouveau SPP dont la phase est le polynôme rjJ(I) -a NIN de degré os; N- 1. On
itère ainsi la procédure jusqu'à l'obtention de a 1 .
On peut aussi utiliser la relation (3.75) pour C = 1 et la DWVG nous donne alors
la dérivée de la phase r/>(1 ). Les ligures 3.21 3.22 et3.23 permettent de faire la com-
paraison de la DWVG avec les principales distributions de la classe de Cohen. Sur
chacune des trois ligures, on a considéré un signal :(1) = exp(jr/>(1)) dont la phase
rp(t) est donnée dans la légende de la figure, le choix des constantes de normalisa-
tion k 1, k 2 , k3 dépend de la durée d'observation. On a tracé en haut et à gauche la
dérivée de rf>(l) (fréquence instantanée) et sur les cinq autres ligures les différentes
§ distribulions. On constate que la DWVG concentre mieux l'énergie du signal autour
"00 de la fréquence instantanée que les autres distributions.
'7.
-~

"~ Exemple 3.3.12 Lien entre la DWVP et la TPP


"
;" Si .::(t) est un signal de phase, la DWVG prend la forme:
·;s.
~~
n.
130 3 • Méthode d'analyse temps-fréquence

Fréq. instantanée w. v Z.A.M

DWVP C.W Butterworth

Temps Temps Temps


5
Figure 3.21 SPP de phase : rfJ(t) = k, t •

Fréq. instantanée w. v Z.A.M

~-j
DWVP C.W B utterworth

Temps Temps Temps

Figure 3.22 SPP de phase : rf;(t) = 0.1 t + kot 5


3.3 Distributions d'ordre élevé 131

Fréq. înstantanée w. v Z.A.M

DWVP C.W Butterworth


Il
i ~· ,i
!J~
Temps Temps Temps

Figure 3.23 SPP de phase : <jJ(t) = 0.11 + k,t 6 •

Si z.(l) est donné par (3.52) avec A= 1 et les lk sont donnés par (3.68) avec c = 0,
on obtient pour Q = N :

N -
WN+Ikt,w)- -1 TI0
T N

k=ll
I_Sk . )'l.N+<
'· (1-kT)
.
N,_.N-I e-jwrv dT. (3.78)

3.3.5 Extensions aux cas des signaux multicomposantes


Dans la pratique, on doit considérer des signaux dits multicomposantes et qui sont
définis par :
l'
z.(l) = L Akei•!<dtl.
k=I

5 Le problème de la détection où la séparation des composantes constituant de tels


§
D
g signaux est assez complexe dès lors que p > 2. Nous pouvons considérer, par
132 3 • Méthodes d'analyse temps-fréquence

exemple, comme distribution associée à un signal;.(!) la TF multidimentionnelle


par rapport à Tt, ... ,T,1 du noyau défini par:

'1
K,(t,T) = [1[;.(1 +UI(I));.*(t -Ut(I))J"'
t~t

où Ut (I) est une fonction linéaire des variables Tt, . ... Tq. Soit

La DWVP correspond à Tt = ... = T,1 = Tet U, (I) = CfT. L'étude des signaux mul-
ticomposantes ne sera pas considérée dans la suite. Pour plus de détails, on peut
consulter [51] [ 14].

Exemple 3.3.13 Somme de deux clzirps [14]


Soit le signal :

Exprimons la DWVP associée au noyau :

(,
K,"'(r,T) = [;.(1 + T/4)]-
, .~
[;.*(t- T/4)]- = e 1-" ''
.,_,~ ._'J-r-
+ e 1-" ''
.,_fl+h_
+ 4e 1-" 2 '
. J(,-t·f'~ .. f<+Jf- ]
e 12 "~' + e' 2
+ 4 cos 2:;r(ft - .f2 )t [
''~'

+ 2 cos 47T<ft - h )t

Les deux premiers termes de cette expression représentent les composantes qui
existent effectivement. Les deux derniers sont des termes d'interférence avec des
. d es osci'11 antes. L e ten11e 4 exp { .1·7 1t ft
amp 1ttu 1

2
+ .h ,
qm a une amp l'Jtu d el .
constante pose un grand problème dans l'étude du signal puisqu'il peut représenter
une troisième composante dans le signal au même titre que les deux premiers ten11es
ayant des amplitudes constantes.
Si l'on intègre par rapport à t la DWVP ainsi définie. on obtient:

w~-~'cJJ! ,§, Jw,t-lt<, ,fldt =su- .t'tl+ su- .hl -H~{r- ft ; h).
La présence de la composante à la fréquence Ut + fi) /2 est due à un terme non
oscillant qui ne peut pas être supprimé par un simple moyennage.
3.3 Distributions d'ordre élevé 133

3.3.6 Estimation de la phase d'un SPP à amplitude constante

Soit z(t) un signal donné par (3.52). Alors, pour Q:? N- 1, la distribution AZ~l
est donnée par (3.71). Dans la suite, nous présentons deux méthodes fondées soit
sur la FAG soit sur la DWVG, pour l'estimation d'une phase d'un SPP à amplitude
constante affecté par un bruit additif. En l'absence de bruit, le noyau KG+ 1 s'ex-
prime comme suit selon les valeurs de C :

KS+I (z,t,T) = exp [j "ta a~q;(t- tkT)] = exp [j-r"q,1°(t)j, 0 ,.ç C ,.ç N

exp [j,N-I [(N- !)!aN-I+ N!aNt]] pour C = N- 1

= exp [j'T"' N!aN J pour C= N (3.79)

Dans la suite, on va considérer le signal à temps discret suivant :

y(n) ~ z(n) + w(n) = AeJc/>(nL>I + w(n) pour n = 1, ... . N, (3.80)

où 1\. est la période d'échantillonnage, N, le nombre d'échantillons, w(n) un bruit,


blanc, complexe, circulaire et N(O,ci,;,) et enfin 1> une phase polynomiale de degré
N supposé connu. Nous calculons le biais et la variance de l'estimateur du coeffi-
cient du terme de plus haut degré de cette phase. Nous nous limitons aux estima-
teurs donnés par la FAGet la DWVG. La détermination des biais et des variances
des estimateurs des autres coefiicients ne sera pas abordée.

a) Estimation fondée sur la FAG


Avant d'aborder l'estimation des coefficients [a;)~ 0 , nous définissons tout d'abord,
la version discrète de A~- 1 (z.li,T), donnée par (3.72a), de la manière suivante:
Nf N-I
AN(z,li,T) ~ L TI [z$k(ll-IF)r·N e-j(nL>)II
11=N; k=O

.~ N-I N-l
~ où N; ~ 1 + ~ T, Nf ~ N,- ~ T, lest, sont donnés par (3.68) et Test un
"É. paramètre véritïant :

N,- l
Û<T< (3.81)
N -!
134 3 • Méthodes d'analyse temps-fréquence

Il est possible de choisir d'autres valeurs pour les fk mais si les produits tk T sont non
entiers, il sera alors nécessaire de suréchantillonner le signal.

Ainsi, on peut déterminer aN à partir de l'argument du maximum de


1 E[AN (y ,Il, T)]l. Les N autres coefficients de la phase peuvent être déterminés de la

., . ' ' a·(n~)i


mamere smvante ou 1 on pose Yk(n) = y(n)e - j "\"N
L...;~"' '

1
ak = k arg max lE [Ak(vk(n),li,T)]I
k!(T6) ·- 1 0 - •

Le calcul du moment d'ordre 1 de la FAG au point Omax conduit à :

Le résultat (3.85) montre que la variance de AN(y,O,T) ne dépend pas des coeffi-
cients de la phase mais qu'elle dépend du degré N, du nombre d'échantillons N,, du
SNR et du paramètre T. D'autre part, le résultat (3.84) montre que l'énergie relative
à la conttibution du bruit additif w(n) est uniformément distribuée sur toutes les fré-
quences, en particulier sur llmax- Ainsi, la présence du bruit limitera les perform-
ances de la méthode proposée. Par conséquent, pour assurer une estimation correcte
de aN, nous devons avoir:

(3.86)
3.3 Distributions d'ordre élevé 135

où F est un nombre réelle plus grand possible. Dans [103] et [113], les auteurs
choisissent F = 25. Par exemple, avec cette valeur nous arrivons à :
N,- (N- l)r ~ 25 Ç(N,SNR). (3.87)

Exemple 3.3.15 Nombre minimal d'échantillons à traiter


Soit 'EN(;;,IJ,r) la TPP discrète du signal ;;(n). Supposons que T= N,fN.
Connaissant la variance de P N(y,IJ,T) [103], il est alors facile de voir que

var (AN(y,O,T)} = var(PN(y.O,r)} (3.88)

et que la condition (3.87) se ramène à :

(3.89)
cette inégalité fournit le nombre minimal d'échantillons à traiter pour assurer une
bonne estimation de aN pour un degré Net un SNR !1xés. Dans [103], les auteurs
proposent une condition sur le degré N à traiter pour un N, et un SNR fixés.
Pour assurer une estimation correcte des autres coefficients de la phase, il est
nécessaire de vérifier en plus de (3.87), les conditions suivantes (F = 25) :
N, - (N - 2)T ~25 Ç(N- l,SNR) (3.90)

N, ~25 Ç(l,SNR). (3.91)

Considérons l'estimateur ~ défini par :

1
N 1 arg max iAN(y,O,r)l. (3.92)
1
N.(TD.) ()

Pour N, » 1, on peut établir [97]les approximations suivantes pour le biais et la


variance de cet estimateur :

EiâN] "'aN (3.93)

0
Ç(N,SNR) (3.94)
·o.
30
Ï où L ,€; N,. - (N - 1)T. Ces résultats montrent que âN est non biaisé sous l'hy-
pothèse N, » 1. Soit var{âN.P) la vmiance de l'estimateur de aN basé sur la TPP.
Cette vmiance est donnée par Eq.(35) dans [98]. Si nous supposons queT= N,/ N
dans (3.94 ). nous obtenons var {âN) = vm· {âN. p). Il est possible de montrer que la
136 3 o Méthodes d'analyse temps-fréquence

variance de âN peut être approchée, pour SNR » 1, par :

- 6cN-!,2N-3 1
var{aN} "" (N!)2r2N 2Ll!è,.2N SNR

En effet, on a l'approximation suivante pour Ç(N,SNR) pour SNR » L

N-1 ' l
Ç(N,SNR)"" [1[1 +ck~N_,--]-1
k=O
· -sNR

1 N-1 ' 1
"" SNR L("k,N-2 = SNR CN-1,1N-3
k=O

Exemple 33.16lnfiuence du bruit sur la variance des estimateurs


Considérons un signal z(t) de phase <jJ(t) = a 3 t 3 + a 1 t 2 + a 1t + a0 à amplitude
constante et affecté par un bruit blanc gaussien additif. On prend [ao,a! ,a1,a3]
= [1.0003,7.854,0.2513,0,0063], une période d'échantillonnage /è,. = 0.2s, un
paramètre de retard T = Ne /3. On fait varier le SNR de -5 dB à 25 dB par pas de
l dB et pour chaque SNR on effectue l 00 réalisations indépendantes. La figure 3.24
donne les racines carrées des vmiances empériques des estimateurs des 4 coeffi-
cients a3, a2, a1 et ao tracées respectivement en (a), (b), (c) et (d).

o'T \
x 10" (") (\l)

~
31 ~\
2• ~
0.,

§ § o.os 1
'
0
_,
0 '0 20
-0.0:l 0 w 20
SNR (<..113) SNR (dAI
(cl (dl
8
0.8
j
6

\\
0.6

\
~
~ 4 ~ 0.4

ê § 0.2 '\
2
0
0
-0.2
0 '0 20 0 w 20
SNR (dBl SNR (dB)

Figure 3,24 Variances des estimateurs de a3, a2,a1,ao.


3.3 Distributions d'ordre élevé 137

b) Estimation fondée sur la DWV généralisée


Nous définissons la version discrète de VV~+I (~,t.w), donnée par (3.78), comme
suit :

}1\JN(:.n,w) -!5:. N Ln {:s"(n-


Nf N
fJ.;III) r~.N+I (mb..)'''-1 e-j(mb.)Nw..,

m=l k=O

, , 1 ~::, Ne - 1 , , .
ou les sont donnes par (~.68), ---etc un parametre venliant:
1
tk N1. =
N+c
0 < c < N, - 1 - N. (3.95)

.~

t
0

{ Ce résultat montre que la variance de V\IN(;•,N,.w) est indépendante des coefli-


cients de la phase mais qu'elle dépend du degré N, du nombre N, .. du SNR et du
paramètre c. D'autre part, nous voyons que l'énergie relative à la contribution de
w(n) est uniformément distribuée sur l'ensemble des w. en particulier sur
138 3 • Méthodes d'analyse temps-fréquence

w = N !aN. Ainsi, la présence du bruit limitera les performances de la méthode et


comme pour la FAG, nous devons avoir (avec F = 25) :

(3.100)

qui se ramène à :

S~_ 1 ) 25 Ç(N + I,SNR) S2N-2· (3.101)

Supposons maintenant que c = N / N,. Pour N, » N nous obtenons :

N2N-1
' Ne et S:. N _ 2 ~ -:-::-:-:--''~·-:-:-=--;-
Nr""-
N' (2N- 1)N2N 1.
(3.1 02)

Ainsi, la condition (3.1 01) se réduit à :

N3
N,. ) Nw ~ 25 Ç(N + 1,SNR). (3.103)
2N -1

Cette inégalité fournit le nombre minimal d'échantillons à traiter pour assurer une
bonne estimation du coefficient aN. pour des valeurs tïxées du degré Net du SNR
en utilisant la DWVG.

Exemple 3.3.18 Nombre d'échantillons minimal


Soient NA et Nw les nombres donnés respectivement par (3.89) et (3.103). Alors,
nous pouvons montrer que :

Nw "" 2N NA pour SNR » 1 (3.104)

Nw »NA pour SNR « 1. (3.105)

Ces résultats montrent que le nombre d'échantillons nécessaires pour une estimation
correcte du coefficient aN en utilisant la FAG est plus petit que celui nécessaire à
l'estimation de aN en utilisant la DWVG.
Considérons à présent l'estimateur aN défini par :
1
aN= ar a max IWN(v,N,,w){. (3.1 06)
N! 0 w - •

Alors, pour N, » 1, on a:

E[aN] ""0

var{aN} ""
(3.107)
3.3 Distributions d'ordre élevé 139

Ces résultats montrent que, comme âN, l'estimateur aN est aussi non biaisé sous
l'hypothèse N, » 1. Pour comparer les performances des estimateurs âN et de aN,
nous pouvons donc comparer leurs variances. Pour N, » N et c = N 1N,, la
variance (3.107) peut être approchée par:

_ 18N2 N+ 3 G(N)
var(aN)"' 'N. Ç(N + I,SNR) (3.108)
(N!l:!.N)1(2N- !)Ne · 1

avec:

0
- 3N + 1
4N 2
G(N) = (3N- 1)(4N- 1) (3.109)

D'autre part, pour T = N,/ Net en particulier pour SNR » l, nous pouvons mont-
rer que [92] :

Le facteur multiplicatif de var(âN) dans (3.110) est supérieur à 1. Ainsi, pour


SNR » 1, la variance de âN est plus petite que la variance de à ,v. En conclusion,
pour de fortes valeurs du SNR, les performances de l'estimateur de aN par la FAG
sont meilleures que celles de l'estimateur de aN par la DWVG.

3.3.7 Estimation de la phase d'un SPP à amplitude aléatoire

Dans diverses situations, le signal à traiter est affecté simultanément par un bruit
additif et un bruit multiplicatif. Pour cette raison, nous allons considérer le cas d'un
SPP à amplitude aléatoire. Ceci est le cas à chaque fois que l'information recherchée
se trouve dans la réflexion d'une onde sur un obstacle. Par exemple, en radar le
signal reçu est souvent sujet à une modulation d'amplitude due au déplacement de
la cible [2]. En sonar, l'analyse des données [441 [121] a montré que le signal acous-
tique est sujet à des perturbations multiplicatives. Ce phénomène, principalement dû
à la propagation du signal dans le milieu marin, s'accentue lorsque la distance entre
la source et la cible augmente [120]. L'analyse des signaux harmoniques affectés
par un bruit multiplicatif et un bruit additif est largement traitée dans la littérature.
=
=
= Nous pouvons mentionner, à titre d'exemple, les références [Il] [44] [58] [ 131]
" [ 132]. Dans [441 , l'auteur considère une sinusoïde, all'ectée par un bruit multiplica-
·~
~ tif gaussien et centré. et il utilise pour l'analyse de celle-ci les cumulants d'ordre 4.
o. Dans [119], ces mêmes cumulants sont utilisés pour analyser une somme de sinu-
S
soïdes affectées par des bruits multiplicatifs blancs et gaussiens. Dans [58], les
auteurs s'intéressent à l'estimation des signaux hannoniques affectés par des bruits
multiplicatifs et additifs supposés à la fois blancs et gaussiens. La méthode pro po-
140 3 • Méthodes d'analyse temps-fréquence

sée dans [58] est basée sur une approche cyclique en distinguant les bruits multi-
plicatifs centrés et non centrés. Les performances des estimateurs proposés sont
analysées dans [131]. L'analyse d'un signal hannonique modulé en amplitude par un
processus autorégressif est considérée dans [ 10] [Il]. L'estimation de la FI d'un
signal FM affecté par un bruit multiplicatif, par des méthodes temps-fréquence. est
proposée dans [18] où les auteurs utilisent une distribution appelée le trispectre.
Dans [56], les auteurs estiment une phase déterministe d'un SPP. affecté par un bruit
multiplicatif en utilisant le principe de cyclostationnarité. Leur analyse généralise la
méthode présentée dans [ 119] et utilise le fait que les moments d'ordre "J.l', p > 1,
du bruit multiplicatif sont toujours non nuls. Toutefois. lorsque la moyenne de ce
bruit est nulle. les auteurs proposent dans [56] d'utiliser la fonction d'autoconéla-
tion pour estimer le coefficient du terme de degré 1. Cependant, de nombreuses
questions restent posées, notamment celles relatives à l'analyse statistique de la TPP
et au calcul des variances des estimateurs des coeflicients de la phase et du bruit
multiplicatif. Des éléments de réponse à ces questions sont proposés clans [97] [9].
Dans cette section, nous allons présenter brièvement l'analyse d'un SPP affecté par
un bruit multiplicatif et un bruit additif en utilisant la TPP [9] [97]. Les expressions
de la moyenne et de la variance de la TPP sont proposées dans le cas d'un bruit mul-
tiplicatif blanc et pour des phases particulières. L'estimation d'une phase quadra-
tique est traitée comme exemple pour montrer l'int1uence de la loi de probabilité du
bruit multiplicatif sur l'estimation des coefficients de cette phase.

a) Moyenne et variance de la TPP


Soit v(l) un signal défini par :
. 1(
y(l) "" b(l) e.l',' <1 + w(t) (3 .Il 1)

où b(t) est un bruit réel et w(l) un bruit blanc. complexe, circulaire, ;V(O,a~,) et
indépendant de b(t). La phase</' est un polynôme déterministe de degré N. La loi
de probabilité de y(t) dépend de celle des deux bruits. Nous allons utiliser dans
cette section la TPP pour l'analyse de y(t) avec des lk donnés par: lk ""N- 1 -k.
On distinguera les deux cas b(n) centré et b(n) non centré. Comme
"N-(
Lk=O Ck,N =-
~ )N-(
, on ob.t1ent. pour N ?: 7_ :

E[PN(y.!i.T)] = E[PN(h(t)eiôl<l .fi,T) pour T=f 0

= PN(e 1"' 1<l Ji.T) * (T ( m 2.v-l.f,(I,I).I!)e-i11'dt


Jo

3.3 Distributions drordre élevé 141

désigne la fonction moment de b(t) et


I~ [(N- 1)7, ... ,(N- l)7,(N- 2)7,,.,(N- 2)7,,,,, 7 ].
'-v-'
C2.Nfois CN-l,Nfois

2N-'2

E[PN(y,I;I,O)] = t; c~ 2N_,_ 1 i! a~: fuT E[{b(t)f''-'- 2;] e-ie'dt

Dans le cas particulier N = 1, on a :

qui se réduit, dans le cas d'un bruit b(t) stationnaire, à:

(3.112)

Les expressions du moment, valables pour N ;;, 2, deviennent dans le cas stalion-
nmre:

(3, ll3)

(3.114)

où m 2N-I,,(z:) désigne le moment m 2N-I,[,(t,I) et lllp ~ E[bP(t)]. Le moment


E[PN(v,e, 7)] dépend des valeurs que peut prendre m 2N-',b(I). Par exemple, dans
le cas où ce moment est non nul, J'argument du maximum de !E[P,y(y,8,T)]! est
N!aN,-N- 1 , Par contre, pour m 2N-',b(I) = 0, on a E[PN(y,0,7)] =O. Par consé-
quent, dans ce dernier cas, la TPP ne permet pas de détenniner le coeftïcient aN.
:::!
Lorsque m 2N-'.b(I) = 0 pour certaines valeurs de T, il ne faut donc pas choisir l'une
,
~
de ces valeurs pour T pour la détermination de aN. Dans toute la suite, nous suppo-
serons 7 =f 0, sinon pour N;;, 2 il n'est pas possible de retrouver aN à l'aide du
'5i
0
maximum de la TPP dont J'abscisse est N!aN,-N- 1, L'équation (3. 114) révèle que
,
'C
0
IE[PN(y,O,O)JI atteint son maximum en zéro, car les moments pairs de b(t) sont
"§ nécessairement non nuls. Par exemple, J'équation (3.112), pour mb = 0 montre que
0
·ii, la détermination de a1 n'est pas possible. Pour ce type de bruit, on calcule le
~ moment de PN(y 2,0,7) au lieu de celui de PN(y,O,T). Dans ce cas, il est possible
.g_ de montrer que E[PN (.v 2 ,8,7)] est donné par [98] :
j
142 3 • Méthodes d'analyse temps-fréquence


N-1
m 2N,b(t,i:)"" Elf1 [b(l + IF)f"'.vl
k=O

avec la notation 'f ,!>, [r,:r]. Pour un bruit multiplicatif stationnaire aux ordres éle-
vés, on a:

(3.115)

et ce résultat montre que E[P,y(y 2,0,T)] est relié à P,y(ej 2•Wl,IJ,T) par le facteur
multiplicatif m 2N.b<i:). Lorsque ce dernier est non nul, l'argument du maximum de
2
1 E[P,y (y ,0, T)][ est alors 2N !a,y~-l. Par ailleurs. dans le cas d'un bruit blanc cen-

tré, l'argument du maximum de [E[P,y(y 2,0,T)][ est toujours 2N!a,y~-l et donc


la détermination de a ,y est possible en utilisant la TPP du carré du signal.

Exemple : Cas d'une phase quadratique


Soit le signal FM linéaire :
2
y(l) = b(t)ej(ao+a,thlo/ ) + w(t)
où b(t) est un bruit gaussien N(ü,O'l,) ayant pour fonction d'autocorrélation Rb(T).
Dans ce cas, l'équation (3.113) se réduit à :

Si Rb(T) =f 0, l'argument du maximum de [E[P2(y,ii,T)][ est 2a2T. En revanche,


lorsque b(t) est blanc. nous obtenons pour T =f 0 :

E[P2(y,0,T)] = 0.
Ce résultat relève l'incapacité de la TPP d'ordre 2 à extraire une quelconque infor-
mation sur le coefficient du terme du second degré de la phase, lorsque le bruit mul-
tiplicatif est blanc et centré. Par contre, l'équation (3.115) donne :

En raison de la nature gaussienne de b(t), nous obtenons:


(t)
'
E[P2(y-,0,T)] = ( - '1
E[lr(t)]E[Ir(t
'1
+ T)] + 2E-[b(t)b(l + T)]
1 ) . .,
P2(el-'i'
i
,O,T)
3.3 Distributions d'ordre élevé 143

Ainsi, quel que soit la fonction d'autocorrélation du bruit multiplicatif, l'argument


du maximum de 1E[P2(v 2,0,7)] 1 est 4 a2T et si ce bruit est blanc, l'équation ci-des-
sus se réduit à a-j, P 2 (ei 2•1•<tl ,0,7) puisque T=f O.

b) Phase quelconque et bruit multiplicatif non centré


Considérons l'estimation d'un SPP à temps discret y(n), affecté par un bruit multi-
plicatif et un bruit additif, soit :

y(n) = b(n)ei<,i(n) + w(n), cjJ(n) =tj;(n6.), pour il= l, ... ,N,(3.116)

où N, est le nombre d'échantillons et 6. la période d'échantillonnage. Désignons par


PN la version discrète de la TPP définie par:

PN(y,II,T) ~
Nc-(N-l)T N-1
L
n=I
n
k=O
Ik{y(n + lk7))'1 N e~jn!>.O (3.117)

Enfin, nous prendrons pour Tla valeur TN = N,/ Net nous noterons Tk.N ~ IFN·
Nous présentons dans ce paragraphe, l'analyse statistique de la TPP du signal
(3.116) lorsque b(n) est un bruit blanc réel non centré. Les résultats suivants sont
établis dans [97].

E[PN(v,II.TN)] =(TI k=O


m,.,_")PN(eJI/J<ni,IIJN) (3.118)

Comme les moments de b(n) sont non nuls, on a :

(3.119)

Posons y 111 (11) = ""


y(n)e -J. Li=m+la1 ( 11 " 1;
• Les coefficients a 111 ,111 = N - 1, .. . , 1 peu-
vent être détenninés par (3.119) oil N est remplacé par 111, TN par""' = N,.j 111 et y
par Ym (Tl). Comme :

et 111" =f 0, on obtient:

ao = arg (E[yo(n)])

(3 .120)
144 3 • Méthodes d'analyse temps-fréquence

(3.121)

L'équation (3.121) donne un estimateur de ul et non le carré de l'estimateur de CJb.

En effet,;;; et (5;,) 2 risquent de fournir des résultats totalement différents. Pour s'en
convaincre, il suflït de considérer u~ = 0. Dans ce cas, (5;,) 2 donne toujours des
valeurs positives ou nulles, alors que l'estimateur uÈ peut donner lieu à des valeurs
négatives. La variance de la TPP de y(n) est donnée par:

var(PN(V,8,TN)}
.
Ne
=N
-( n
N-I

k~O
ry
Ill~k,N
) ,
Q(u;,,.N) (3.122)

avec:

0( 2. N) !!o
._, crw,
n [C!.N"\""" (C
N-I
L..,; k,N
.
)2 111 2cuv-21
,
. . ' 2i ] -
1 .aw
1. (3.123)
k=O i=O 1 lllë~.N

1
. ,e..TN) nous utilisons -PN
Si au lieu de l'opérateur PN (v N, (v
. ,Il, TN), comme cela est
le cas dans [56], alors ce nouvel opérateur est de variance nulle lorsque N, tend vers
l'infini. Pour s'en convaincre, il suflït de diviser la variance (3.122) par N"/; et de faire
tendre N, vers l'infini. L'équation (3.122) montre, en plus par rapport à un SPP à
amplitude constante, que l'énergie relative à la contribution de b(n) est unifonné-
ment distribuée sur l'ensemble des fréquences, en particulier sur N !aN (T,y 6.)N-I.
Aussi, pour assurer une bonne estimation de aN, nous devons avoir:

(3.124)

où F est un nombre réel positif le plus grand possible. Cette dernière relation se
réduit à la condition suivante sur le nombre minimal d'échantillons à traiter :

(3.125)
3.3 Distributions d'ordre élevé 145

Enlïn, pour assurer une estimation correcte des autres coefllcients de la phase, il est
nécessaire de vérilïer simultanément en plus de (3. 125), l'ensemble des conditions
suivantes :

N, ~ F (N- 1) Q(rr~,N- 1) (3.126)

(3. 127)

Exemple 3.3.19 TPP du carré d'un signal sinusoïdal


Dans le cas d'un bruit multiplicatif blanc de moments non nuls, la TPP du signal
et/ou la TPP du carré du signal permettent de déterminer les coetl1cients de la phase.
Aiïn de comparer les deux méthodes, considérons l'estimation d'une sinusoïde
(polynôme de degré N = 1) et introduisons les estimateurs :

(/1
"' arg max
()
IPt(Y,Ii,Ttll
. (3.128)

1
OJ
"' - anr max [Pt (/.O.Tt )[.
2 ._ (} (3.129)

L'analyse que nous présentons dans ce paragraphe, peut être étendue au cas général
d'un SPP de degré N quelconque. Pour N, » 1, les variances respectives de Ût et
de ii 1• peuvent être approchées par les expressions suivantes [98] :

var[<Ît) (3.130)

var[ ii tl (3.131)

Dans le cas d'une amplitude constante b(n) =A, il est facile de voir que
var[â 1 ) < var[iit). Ce résultat confirme que. dans le cas d'une sinusoïde à amplitude
constante affecté par un bruit additif, l'élévation au carré du signal est inutile.

·[ Nous nous proposons de calculer les erreurs d'estimation du coeftlcient aN d'une


8 phase polynomiale de degré N ~ 3 lorsque nous utilisons l'estimateur suivant :
2
2
o.
aN = arg max IPN(Y,iJ.TN )[
N!(TN/',.)N 1 ~ Il ..
146 3 • Méthodes d'analyse temps-fréquence

La détermination de l'erreur d'estimation des autres coeftïcients peut se faire d'une


manière itérative [97]. Le calcul explicite de la variance des autres estimateurs est
très diftïcilement réalisable [109]. Nous étudierons les performances de l'estimateur
âN dans le cas d'un bruit multiplicatif gaussien. Une illustration de l'étude théorique
par des simulations numériques est proposée dans [97] et [98]. On démontre dans
[102] que pour N, » l, on a:

N,.fN ( N )
11- ~ Im{'IJN(11)}
;
2

0-J { b(ll+TkQ) }C(Q


- 6
1/ 0 (11) = -1+ n
-

k=O
Ik
11lJ
J
· +
W(ll+TkQ)'
111f eJioi(ll-h~,Q)
J
., ·

12
avec Tk.Q l'ô (Q- l - k)TQ, Q E N*, YQ l'ô --;;c;o
l_Q+2
et que :
Q ·'Q

E[lm{IJQ(11)}] =0 VQEN*. (3.138)

On a donc E [&1 N] "' 0. On démontre [98] que pour N,. » 1, la variance de âN peut
être approchée par :

(3.139)

avec:

L'estimateur â,v a une variance qui dépend de la variance a~, du bruit additif, du
nombre de points N, et aussi de la période d'échantillonnage L>. D'autre part,
contrairement au cas d'une phase quadratique où le bruit multiplicatif n'intervient
dans les expressions des variances des estimateurs qu'à travers sa moyenne et sa
variance, nous remarquons cette fois-ci que ce même bruit intervient dans la
variance de CÎN à travers ses moments pairs d'ordre supérieur en plus de 1111J et de cr~.
Pour m, l1xée var(âN} diminue lorsque le numérateur de R(a~,N) diminue. Pour
illustrer cette variance, nous considérons un SPP à amplitude constante b(n) = A.
3.3 Distributions d'ordre élevé 147

Dans ce cas, nous avons pour Ne >> 1, m P = A P et par suite :

c) Phase quadratique et bruit multiplicatif non centré


Considérons le signal FM linéaire :

(3.132)

et soient les estimateurs suivants pour les coefficients a 2 , a 1

GJ arg max [P 1( v (n) e- ja, (n "l' ,Il. TJ) [.


(} .

Posons âai ~ âi -ai. On démontre 1 dans [97] que les erreurs d'estimation sont
données par :

(3.133)

(3.134)

où fjJ(n) désigne la phase quadratique du signal. lm [x} la partie imaginaire de x.


:j Om.k"' O,(Nc-k), k = 1,2 et:
'"
~

(3.135)

Les eJTeurs (3.133) et (3.134) montrent comment les bruits b(n) et w(n) intervien-
nent dans l'estimation des paramètres de la phase. Les propriétés statistiques des
.s
8 bruits impliquent: E[1)2(ll)] =O. 6a; = O,(N;:i-11·5 ) et2 :
0
3
~

" 1. Soit !X(n)! une suite de variables aléatoires. La notation X(n) = O"'(n(n)) sig11itle que pour tout
entier k. il existe une constante positive B(k) telle que E[IX(nl/o(nli 1 J :( 8(1.:) Vu.
2. On di ru qu'une fonction X(u) est en ordre 0(}\u)) si lim .Y(ul/}'(11)
11-N
= c :f: O.
148 3 o Méthodes d'analyse temps-fréquence

Pour chaque estimateur à;, nous voyons que le biais est en 0(!V,~ 1 ~ 1 ) _ Il est donc
asymptotiquement nuL Pour les variances des estimateurs, on a les résultats suivants
[97] :

(3, 136)

, 96 ('17
var[a 1 ) = - 1- , - +-1 + -0 1- ) l
--
,;
+ O(N,-:-'-) (3.137)
N;; 11- 16 Ph ·'-Pu• Pw

oü flt 1 ~ m~/cri et Pw ~mf,/ a~:· Les variances obtenues sont respectivement en


5
0(Nc~ ) et O(N,-: 3 Jet pour de grandes valeurs de Ne- nous pouvons les approcher
respectivement par les termes en N,-: 5 et N; 3 des équations (3.136) et 3.137),

Exemple 3.3.20 Cas d'une amplitude constante b(n) = A


Pour N,. » 1. on a les approximations suivantes :

var!a1}
~
~
96
--,
N~;':,- ( 17
-
16
u~,
+ --,
av,'
' -,-
2A- A-
)
Ces résultats s'obtiennent en prenant u1, = 0 et 111, = A clans (3, 136), (3, 137).
Exemple 3.3.21 Cas d'wz d'zm bmit additif nul
En l'absence de bruit additif, w(n) = 0, nous avons:

lim N>ar[à2l = lim N>ar[àd =O.


N,,_.o.:: N,~co

En effet, pour w(n) = 0 le nombre 172 (n) donné par (3.135) est réeL Ainsi. les
etTeurs âa 2 et r5a 1 se réduisent respectivement il O,(N; 3 J et O,(N; 2 J. Pour de
grandes valeurs du nombre d'échantillons Ne et en l'absence du bruit additif w(n),
nous pensons que le bruit multiplicatif b(n) n'a pas d'effet sur l'estimation des coef-
ficients a2 et a,
par la TPP.
3.3 Distributions d'ordre élevé 149

d) Phase quelconque et bruit multiplicatif centré


Nous allons dans ce paragraphe considérer le cas où le bruit multiplicatif est blanc
et centré. Ainsi, comme lllb = 0, on voit à partir de (3.118) que:
E[P,y(y,IJ,T,y )] =O. (3. 140)

Ce résultat démontre l'incapacité de la TPP de y(n) à pouvoir trouver a ,y. Cependant,


nous avons déjà vu que la TPP du carré du signal pen11et de pallier cette difficulté.
En effet, en utilisant Je même principe de démonstration pour calculer (3.118), il est
alors possible de montrer que [98] :

P N (e j'2r{i(n) ..IJ ,IN·


~ ) (3.141)

Comme les moments d'ordre pair de b(n) sont tous non nuls, il en résulte alors :

(3.142)

D'autre part, on peut montrer que, les N autres coeftïcients de la phase peuvent à
leur tour être déterminés en utilisant les relations suivantes :

0 Il E[Pk( [v
arg,_ max :_m
] 2 ,IJ, T, lll = 2m !a, (Tm 1\.)"'- 1 m = N - 1. ... 1

arg! E[[yo(n)} 2 Jl = 2ao.


La moyenne m,
et la variance O"f, peuvent être calculées en reportant dans les équa-
tions (3.120) les valeurs obtenues pour les coef11cients a,. L'algorithme suivant
donne la déten11ination des coefficients de la phase à partir d'une seule réalisation
l: = [v•(n ),Il = 1, ... ,)'N,.}. lorsque nous utilisons la TPP du carré du signal. Posons
v =v.
~N ~

Algorithme
(1) Pour 111 = N,N- 1. .... choisir T, = N,jm et calculer à, par:

1
a,= argmax IIP,([v f.IJ.T,)I.
2m!(Tm~) 111 ~ 1 '-' 0 ·:_m

(2) Faire :....}//-


v =v
:_111
exp[-jà,(nl\.)"'}pourn
.
= I, ... ,N,.
1
(3) Faire 111 = 111 - 1. Si 111 ;:,. 1 aller en (2).
150 3 • Methodes d'analyse temps-frequence

On estime ao et ul, comme suit (mb = 0) :


-;
et 'Yb = [
N. Re L y-(n)e-J-O(a)
{ Ne 7 ., , }

f n=l

N
où 2J(Il) ~ L ii; (Il D.Y.
i=Ü
Une telle opération aura éventuellement pour conséquence une réduction des erreurs
dans l'estimation de la variance. Cependant, si la TPP du carré du signal est utilisée
pour l'estimation de la phase lorsque b(n) est un bruit blanc réel non centré, alors il
sera nécessaire de garder, pour l'estimation de ul,, l'équation (3.121) avec des esti-
mateurs calculés en utilisant {ii;)(: 0 . On peut montrer que si b(n) est centré, on a:

var jP,y(y".IJ,r,y)) =; (TI m~C!.N) Q2(u~,N)


k~O

où Q2(u~,,N) est obtenu en remplaçant dans (3.123) la variable Ck,N par la variable
2ck.N·

e) Phase quadratique et bruit multiplicatif centré


Considérons le signal FM linéaire donné par (3.132) où le bruit multiplicatif est
centré et introduisons les estimateurs des coefficients de la phase, défmis par :

-1- arg max IP,(\'-.IJ,r,)l


' (3.143)
4T2!1 U - . -

1 1 "'1- ( L'.l'
arg max IPJ(y-(n)e-.1-"'" ,H,rJ)I. (3.144)
7- 1!
La même démarche qui permet d'établir (3.133) et (3.134), permet aussi de mon-
trer que les erreurs 6ai ~ âi - ai sont données par :

(3.145)

= (3.146)

olt
2
- 6
17; (n) = -1
n(-)
+ Ik {b(n+n;)
' +
w(n.+rk;) } ''<,;
.. . i = 1,2 (3.147)
Uf eJÇi(II+T~,;)
Œj
k=O · 1 1

avec c!J(n) désignant la phase quadratique du signal.


3.3 Distributions d'ordre élevé 151

Les erreurs d'estimation ayant été obtenues, nous pouvons voir, en utilisant les pro-
priétés statistiques des bruits, que 'ï72 (11) et ·ij 1(11) sont centrés, que
Ja·1 = 0 1n (N-i-O.s)
e - et qu'enfin··

a2 + O(N; 3 J (3.148)
' .
ar + O(N;-) (3.149)

Le biais de a;
est en O(N,-i-I ). Par ailleurs. en utilisant Je même principe de
calcul conduisant aux relations (3.136) et (3.137), nous pouvons montrer que les
variances des estimateurs sont données par :

96 ( 1 ~-
N 3 L'- 2
16 + /ll.j
a.J + -Pb.w ) -
Pb.w + O(N,.-3.5 )
e h

ou, -
flh.w = + rrw.J / 7_ah.
' /
Œ~ 1 crj;' .J Pour N e >> 1, ces vanances
. -
peuvent etre . '
approxtmees
par les termes en N,.- 5 et N;: 3 Ce faisant, les variances ainsi obtenues sont fonc-
tions du moment d'ordre 4 de b(11 ). de a~, de a~ .. du nombre de points N, et enfin,
dans Je cas de a2 et de ar. de la période d'échantillonnage L'.. Par ailleurs, J'appari-
tion du moment d'ordre 4 dans la variance de ii 1 résulte de la présence de 6a2 dans
J'erreur r5ar. Enfin. pour illustrer les expressions des variances obtenues, nous consi-
dérons les deux exemples suivants.

Exemple 3.3.22 Bruit addit!f"gaussien


Si b(n) suit une loi normale N(O.a~), nous avons lii.J = 3a~ et pour N,. » 1, on
§
obtient :

96
Ns 6_..!-
~- ) Pb.w
("1- + -Pb.u· - (3.150)
'
var[iï 1 ) 96 (49 - ) - (3.151)
.::: Nt 6.2 16 + 2Ph.u· Pb.w
80
0
i.
Exemple 3.3.23 Bmit additif un!f"orme
Si b(n) est uniformément distribué sur [-a.a ]. nous avons III.J = a.J /5 et a~ = a 2 /3
et pour N,. » l, on obtient :
152 3 • Méthodes d'analyse temps-fréquence

96 (95+-Pb.w
Nê"'.6.4
7- ) -
Ph,w

var(iïJ) 96 ( 149 7- ) -
N"j~:J.2 SO + -Pb,w Ph. JI!'

Ces deux exemples montrent que pour ŒL et <T,;, fixées, les performances des esti-
mateurs sont meilleures dans le cas d'une distribution unifom1e plutôt que dans le
cas d'une distribution gaussienne. En effet, dans ce demier cas la fréquence des réa-
lisations proches de zéro (zéro est la moyenne du bruit multiplicatif) est supérieure
à celle des réalisations proches de zéro dans le cas uniforme. Ainsi, lorsque le bruit
b(n) est gaussien, le nombre d'échantillons porteurs d'informations sur la phase du
signal est plus petit que le nombre d'échantillons porteurs d'informations sur la
phase du signal lorsque b(n) est uniformément distribué. Pour contï1mer ces résul-
tats, nous considérons un bruit multiplicatif dont la densité de probabilité est don-
née dans la tïgure 3.25.

l p(x)

1_,
_ _ [ ___]__]- 1
-2a -a
2a

n
a 2a x

Figure 3.25 Densité de probabilité.

1Jl4 31 x 9 lll4
Dans ce cas, nous avons 4 = - - - qui est inférieur à 4 évalué dans le cas
ab 49 x 5 ab
gaussien et dans le cas uniforme. Les performances des estimateurs dans le cas de
cette nouvelle densité de probabilité sont meilleures que dans les deux premières
distributions.

3.3.8 Estimation de la phase d'un SPP à amplitude variable

Dans certaines applications telles que la sismologie et le traitement de la parole [ 19]


[74] [ 124], le signal est affecté par un bruit additif et il est sujet à une modulation
d'amplitude déte1ministe variable avec le temps. À titre d'exemple, dans les appli-
cations sismiques, les signaux de pression étudiés sont des chirps dont l'amplitude
décroît exponentiellement dans le temps [124]. Les paramètres de cette amplitude
3.3 Distributions d'ordre élevé 153

sont directement reliés aux caractéristiques des couches terrestres [ 19] En anémo-
métrie Jaser [54], le signal étudié est une sinusoïde dont l'amplitude est une gaus-
sienne qui dépend de la ti·équence du signaL Dans [62], l'auteur considère une
somme de sinusoïdes réelles avec des amplitude qui varient dans le temps, Pour
chacune des composantes du signal, l'auteur propose d'estimer la phase initiale, la
fréquence ainsi que les paramètres de l'amplitude. Pour les estimateurs qu'il détïnit,
J'auteur propose une analyse asymptotique qui généralise celle présentée dans [20].
Dans [74], les auteurs utilisant une prédiction linéaire et une décomposition en
valeurs singulières pour analyser un signal égal à la somme de sinusoïdes com-
plexes ayant des amplitudes qui décroissent exponentiellement. Dans [54], l'esti-
mation de la fréquence d'une sinusoïde à enveloppe gaussienne est réalisée par la
méthode des moindres carrés sur la phase de la fonction d'autocorrélation du signaL
Dans Ill 0 J, les auteurs considèrent le modèle d'une sinusoïde modulée en ampli-
tude par une fonction déterministe et affectée par une perturbation additive, elle
aussi détenniniste. Dans [51], la méthode du MV est utilisée pour l'estimation de
l'amplitude et de la phase d'un signaL L'étude des SPP à amplitude variable est
abordée dans [51] où les auteurs proposent d'estimer les coefficients de la phase et
les paramètres de deux amplitudes particulières en utilisant la TPP, la méthode
MUSIC ainsi que les algorithmes présentés dans [65] et [74], Dans la suite, nous
allons présenter brièvement les résultats développés dans [98] sur l'application de la
TPP aux SPP à amplitude variable,
Soit s(t) un SPP à amplitude variable défini par:

s(t) "'p(t)e.i<!•lr) (3,152)

où cjJ(t) est une phase polynomiale de degré N et p(t) une amplitude réelle déter-
ministe. Les propriétés de la TPP nous pennettent d'écrire :

(3.153)

La TPP du signal s(l) est donc une convolution fréquentielle entre la TPP de p(t)
et un sinus cardinal centré en N'aN7.N-l_ Par ailleurs, comme l'amplitude p(t) est
positive, nous avons :

IPN(f!(l)ei•Pil 1,8,T)! os; P,v(p(t),O,T) = PN((l(t)ejôlrl,N!a,vTN-l,T). (3.154)


0
0
0

.2 Si aucun a priori n'est considéré sur p(t), plus précisément sur le maximum du
8o module de sa TPP, aucune conclusion immédiate n'est alors possible sur l'argument
! du maximum de IP.v (p(t )eiôlll ,0, T) 1. Toutefois, si nous supposons que l'amplitude
S vérilie :
.,;
0
0

8 arcrc max
0
IPN(p(t),li.T)! = 0 (3.155)
(Q
154 3 • Méthodes d'analyse temps-fréquence

alors on a:

(3.156)

Ainsi, Je coefficient "N peul être obtenu à partir de J'argument du maximum de


IPN(s(I),O,r)l. Dans la suite de cette section, nous considérerons toujours vraie
J'équation (3.155). Un exemple d'amplitude qui vérilïe cette hypothèse est
p(t) = e-lu ,b > 0.
Nous supposons à présent que s(l) est sujet à un bruit additif w(l) blanc, com-
plexe, circulaire el N'(O,rr~,) et nous désignons par

y(t) ~ p(t) eiô(f) + w(t) (3.157)

le signal résultant. Pour N :;:, 2, le moment d'ordre 1 de PN (y ,IJ, r) est donné par :

E[PN(y,li,O)]

Pour N = 1. on a :

(3.158)

Nous allons considérer maintenant le problème de l'estimation de la phase d'un SPP


à temps discret défini par :

y(n) ~ p(n)eid•lnl + w(n), <fln= r/!(116.), pour 11 = 1, ... ,N, (3.159)

oü N, est Je nombre d'échantillons et 6. la période d'échantillonnage.


Nous allons calculer Je moment d'ordre 1 et la variance de P,v pour Je signal
(3.159). On choisit T =rN= N,/ N et on introduit la notation Tk.N ~ tk7N. La
même démarche qui a permis d'établir (3.118) conduit à [98] :

(3.160)

Il vient alors :

(3.161)

La même démarche qui a permis d'établir (3.3.7) permet de montrer que les N
autres coef'lïcients de la phase peuvent être déterminés en utilisant les relations
suivantes :
3.3 Distributions d'ordre élevé 155

arg {ELvo(n)]} =au V 11

où Tm =Ne/Ill et
N 1
6. -;" tr(IIÔ)
v
::_Ill
= v(n)e .

L....i=rn+l
1

En outre, on peut vérifier que l'amplitude du signal, à un instant 11 donné, peut être
calculée par :

p(n) = E[y(n)e-Ninl] 'ln. (3.162)

Dans [57], le coefficient ao est estimé par la méthode des moindres carrés et pour
l'estimation de l'amplitude du signal on peut consulter les rétërences [51], [62], [74]
et [57].
La variance de la TPP du signal y(n) est donnée par:

N,.(N
var [PN (y, O.TN)} L JVIN(p,O"~,) (3.163)
11=1

avec:

MN((>,O"~,) là 'ïî {~ (Ck:N). i!O"~:


k=O i=O l
2
[p(ll +rk.N)j"'''-.v- 21 }
N-1
TI [p(11 + Tk.N) f'"N
k=O

1
L'estimateur -PN(y,(!,rN) [50] a une variance qui tend vers zéro lorsque N, tend
N,
vers l'infini. La relation (3.163) montre que le temps intervient explicitement dans la
variance de la TPP, et ceci à travers la présence de p(n). Par conséquent, d'une ampli-
lude à une autre. l'expression analytique de cette variance prendra des formes diffé-
rentes. Pour assurer une bonne estîmation du coefficient aN, nous devons avoir:

IPN (p(ll )e.iO:•(nl. N !aN ( TN 6)'V-I. TN) /2


var {PN (y ,fi, TN)}
(3.164)
[ '\'TN
L....n=I
nN-1{ (
k=O p 11 Tk,N
)jè'kNj2
.
+ F
~~~~~~----~-------~
Ln~l
" ' ' Nf N(P,CJü_,)
'
156 3 • Méthodes d'analyse temps-fréquence

où Fest un nombre réel positif le plus grand possible. Enfin, pour assurer une esti-
mation correcte des autres coefficients de la phase, nous devons vérifier simultané-
ment (3.164) et les conditions suivantes :

(3.165)

À titre d'exemple. pour un signal FM linéaire nous devons vérifier (3.165) et :


'
[%; p(n)p(n + T2l ; , F N, a;, (1 + 2 SNR) (3.166)

où le rapport signal à bruit est donné par :

(3.67)

Le terme de droite de (3.166) s'obtient en remarquant que :


N,f2 N<,
Llr}(n) + r}(n + T 2 )] = L p2 (n) car T 2 = N,/2.
/1=1 11=1

EXERCICES ET PROBLÈMES CORRIGÉS

3.1 Formule de Moyal. Inégalité d'Heisenberg

On se propose d'établir l'inégalité (3.8). Partant de la définition de la STFT donnée


par (3.5) et utilisant la conservation du produit scalaire par la T.F. exprimer le pro-
duit< S,.,S,. > sous la forme d'une intégrale double contenant x(t), y(t) et h(t).
Utilisant le changement de variables : t =tet 11 = t - T, établir (3.8).
On se propose maintenant d'établir l'inégalité (3.11) en développant l'intégrale suivante:
dh(t)
j
•CÇ

!(ct)= [n-- + th(t)[ 2 dt. ct réel


_
00
dt

sous la fmme : l (ct) = o2a + o:b + c. Préciser les expressions de a, b et c et en


déduire l'inégalité (3.11) à partir de la condition !(a);;, O.
Exercices et problèmes corrigés 157

3.2 Démonstration du théorème de Wigner

Le but de cet exercice est de démontrer le théorème de Wigner. Considérons deux


signaux x et y dont les supports sont contenus respectivement dans les intervalles T
et L'.. On suppose ces intervalles disjoints, on introduit le signal
:(1) = m(l) + j3y(t)
et on suppose qu'il existe un opérateur Px.y vérifiant les hypothèses du théorème de
Wigner (Proposition 3.2.1 ).
1. Démontrer que si Px (t ,u) vérifie les propriétés marginales et que Px (1 ,u) ;;, 0, on
a forcément p,(t,u) = 0 'ft rfc T. Établir la même propriété pour Py(/y).
2. Utilisant le fait que l'oppérateur P.n qui associe à (x,y) la distribution P.nCtY)
est sesquilinéaire, établir :

P: = lofp, + ltJi"Py + [af!''P.n + o*f3Pyx]·


3. Comme cet opérateur est positif, l'inégalité de Schwarz s'applique. Tenant compte
des résultats précédents, établir l'égalité :

pJI,l/) = lai 2 Px(/,u) + 1!'11 2p,.(t,u).


4. Utilisant la seconde condition marginale, établir la relation :

5. Calculant directement la T.F Z(u) de z(t), puis 1Z (u) 12 , établir la condition :

Re[ai3*X(u)Y(u)*] =O.

6. Choisissant x(l) et y(t) réels et pairs, en déduire que X(lJ)Y(u) = 0, 'luE IR et


que c'est absurde. Conclusion.

3.3 Propriétés marginales de W


c
~ 1. Développer les deux quantités en utilisant la sesquilinéairité de W:
·a_
8
3
W(x + y,x +y) et W(.t + jy,x + jy).
Q
P.. 2. Utilisant le fait que lN(:,:) est réel pour tout : réel ou complexe, que
j W(y,x) + W(x,y) est réel et W(y.x)- W(x.y) est imaginaire pur. En déduire
-a0
que l'li est hermitien.
5
0
Q 3. Démontrer que W vérifie les propriétés marginales données par (3.12).
158 3 • Méthodes d'analyse temps-fréquence

4. On considère des signaux réels et on pose

!1 ~ Jx(t)y(t)*dt
t
et h ~ 1{
1 1/J
W,(t,u)W,:(t,u)dtdu. (3.168)

Démontrer que I? = h et en déduire la relation :

3.4 Distribution de WV d'un signal analytique

Partant de la relation (3.15), exprimer W"" (t ,u) en fonction de Z 1 (u) et Z 2 (u) et


de la fonction :
~
H(O,u) =4U(u+ -)U(u- -)
e e
2 2
Montrer que :

H(O,IJ) = 4f1(-)U(u)
e
41/
et calculer la T.F de H(O,u) par rapport àf En déduire la relation (3.22).

3.5 Propriétés de la classe de Cohen

Dans cet exercice, les domaines d'intégration seront lP211 avec 11 = l, 2, 3 ou 4.


L'élément différentiel indiquera l'ordre de l'intégrale considérée.
1. Démontrer les 4 relations suivantes :

jcx(t,u)dudt = JI.(O,O) fx(t)l 2 dt (3.169)

JKx(t.T)dt = Jt(t + ~)x*(r- ~)dt= }x<.f')l 2 ei 2"' df 7


(3.172)

2. Utiliser ces relations pour démontrer les propriétés (3.46), (3.47) et (3.48) des
distributions de la classe de Cohen.
Exercices et problèmes corr;gés 159

3.6 Décomposition de la dérivée

Soient lo, ... Jg, Q + 1 réels arbitraires distincts deux à deux et lf'N[I] l'ensemble
des polynômes de degré ~ N. Cet ensemble est un espace vectoriel de dimension
N+l.
1. Démontrer que si ·lj!(t) =rN est un polynôme de degré N, alors les N + 1 poly-
nômes 1/1N(t- t;), 0 ~ i ~ N fonnent une base de lf'N[I] (ce résultat reste vrai
même si l'on remplace '1/!N par un polynôme quelconque de degré N.
2. Démontrer que 1/JN(t) =rN vérifie (3.57) si, et seulement si, les coeflïcients réels
o{ k = 0, ... , Q, vérifient le système 3.58.

nf tels que IN vérifie (3.57), alors tous


3. Démontrer que s'il existe des coefficients
les polynômes 1p de degré ~ N vérifient aussi (3.57) et que les coeflïcients nf sont
indépendants de </J.
4. Démontrer qu'un polynôme qJ quelconque vérifie (3.57) si, et seulement si, rp
vérifie l'identité suivante :
Q
T<O q,lfl (t) = L o{ rj>(t - !kT) Vt, VT (3.173)
k~O

3.7 Moments de la FAG

1. Démontrer que pour assurer que les variables y(n - IF) et y(m - t1T) sont indé-
pendantes pour tout 11 =f m, il faut queT vérifie :
111 -11
T=f 11--1, V m =f n et V k =f l. (3.174)
l- k
2. Utilisant la même démarche que dans [97] et supposant que T vérifïe les condi-
tions ci-dessus, donner l'expression du moment E[AN(y,e,T)] et établir la relation
(3.84).

v
·n.
SOlUTIONS
8
.2

"
ü. 3.1. Comme le produit scalaire de 2 fonctions est égal au produit scalaire de leurs T.F, on
obtient :
~

~ < Sx.S,. >[!,< F[x(t) h,,,(t)].F[y(t) h,_,(t)[ >= 1/ 2


.r(l)y(l)''[h(t- T)[ dTdt.
160 3 • Méthodes d'analyse temps-fréquence

Le changement de variables t = t et 11 = t - T conduit immédiatement à :

< S,,s,. >= f1


u 1
2
x(t)y(t)"III(u)l dt du= IIII(u)ll' 1t
x(t)y(t)'dt

Après calculs, l'intégrale

l(n) = J~ dh(t) '


a--;'-'-+ th(t)l-dt, a réel
-00 dt

peut mettre sous la forme 1 (o:) =a a:!+ bo: + c avec

N = JN 4rnr1H(u)l-du =
dh(t) , 0 0 '
4rnr~
0 0
a
J 1--1-dt
dl
-·'X:! -CQ

loo dlfi(t)1 2
J
N dfi(t) dfi(t)'
b t(--dth(t)' + II(t)-.-dt)dt = t dt= 1
-00 dt dt . -00 dt
oo
c
l
. -oo ' ' = ~·'
t-III(t)l-dt

Soit 1 (o:) = 4ct 2 7i 2 a~ + o: +a~. Comme J (o:) est un polynôme qui ne prend que des valeurs
non négatives pour tout n réel, son discriminant est non négatif. D'où l'inégalité (3.11).

J:
3.2 1. Appliquant la première propriété marginale, on obtient

{J,(t,u)du =lx (Ill'= 0, 'lt ct T.

Comme Px(t.IJ);?: 0, on obtient forcément fJx{t,l-1) = 0 Vt <t. T. On démontre de la même


façon que f),.(t,u) = 0 'lt r/c l>.
2. Le résultat s'obtient en développant l'expression de P-:.·
3. L'inégalité de Schwarz se traduit par :

IPxy 1 ~ PxPr
2

Comme le second membre est nul d'après ce qui précède, on obtient :

pJt,u) = letl'r),(t,u) + lf31 2Py(t,u).


4. Utilisant la seconde condition marginale, on obtient la relation :

IZ(u)l 2 = leti 2 IX(tl)l 2 + l.ôi'IY(u)l 2 •

5. Le calcul direct du module de la T.F Z(u) conduit:


IZ(u)l 2 = leti 2 1X(t;)l
2
+ lili 2 1Y(u)l 2 + ReiD/l'X(u)Y(u)*].
Par comparaison, on obtient la condition cherchée.
6. Si on choisit x(t) el y(t) réels et pairs, il en sera de mème pour X(u) et Y(u). On obtient
alors
X(tl)Y(u) = 0, '111 E iR
Exercices et problèmes corrigés 161

et donc x(t) * y(t) =O. Mais ce résultat ne peut pas être vrai pour tout couple (x.y). Pour
1
le voir, il suftlt de prendre x(t) = n (T) et ;•(t) = x(t - 2T) + x(t + 2T). On anive donc
à un résultat absurde et ceci termine la démonstration.

3.3 1. La propriété de bilinéarité, dont la vérification est immédialc. permet d'écrire :


W(.t + v.x +y)= WCLx) + W(y,v) + W(\' ..tl + WCLvl
W(x + jy,x + jy) = H 1(x,x) + V\1(\',y) + j[W(y,x)- W(x.y)].
2. Comme HJ(~ . .::) est réel pour tout.:: réel ou complexe. les relations ci-dessus montrent que
);V(_-r.x) + )1\J(x,y) est réel et HJ(y.x)- HJ(x.y) est imaginaire pur. On en déduit que lV
est hermitien.
3. JI suffit de démontrer l'une des deux propriétés marginales. L'autre se démontre de la
T ,- T
même façon. Si on pose o: = t + el (J = t - . on obtient:
2 2
= .l: I: x(t + ~) x(t- ~ )"" e-j2.:TJiT dnlr

= L: L: x(n) x(,/3)" e~J'Kui<Hil du d;i


,[·: x(o:) e-.i 2 "''~' do I·: x(,d)"' e.i2.-:n'd d,d

X (u)X (u)'' = 1X (uJI 2 •

4. On a

I, ~ 11
1 lJ
Wx(t,u)W,'(t.u)dtdu=< F[K,(t,T)I. F[K,.(I,T)] >
.

< K,(LT), K,(t,T) >= i,!, x(t + ~)x(t- ~)'y(t + ~)"' y(t- ~)dt dT,
TJ , TJ .
Posons et= t +-et ;.1 = 1 --.On obt1ent
2 2

I, = { x(u) y(n)' dn
'(\
J,d
x (Il)' y(ii) dji = 1 J(1
x(n) y(n)"' dnl .
2

Pour x = y. on obtient

2 2
1j' lx(n)l 2 dnl = j'jiW,(t,u)l dtdiJ.
(_\ t /}

Comme
162 3 • Méthodes d'analyse temps-fréquence

il vient :

111
0 11
W,.(n,u)dudnl' =! ;·
I , /1
IW,(I,ull' dt du.

3.4 L'expression dans le domaine fréguentiel (3.15) et la définition du signal analy-


tique : Zi (u) = 2U (u)Xi(F) où U (u) désigne la fonction d'heaviside et où Zi désigne la T.F
de ::: 1 conduit immédiatement à la relation :

on obtient:

sin (4nvt)
= 4{Wt' 1x!(t,u)* )U(u).
7rt
On en déduit (3.22).
3.5 1. Les calculs suivants donnent immédiatement les trois relations. Prenant
(.f, T) = (0.0) dans (3.26), on obtient:

2
fc,(t,u)dudt = fi(O,O)A,(O,O) = ft(O,O) jlx(t)l dt

Les calculs suivants donnent immédiatement les relations (3.170) et (3.171) :

je, (t .u)dt = jejlrrfr>-<> p.(.f,T)K, (s.T)e-j 2""'dfdsdnlt

= JJ(f)ejlrrf.• 11(/, T) K, (.1·, T)e- jlmffdfdsdT .

= Jti(Ü, T)KJ,, T)e- jlm~dsdT

J Cx(l ,u)du = ./~.ïl7ïf(s-n p(f, r)K.~(s,T)(je-F2 m-'Tdu)dfdsdr

= JejlrrfiHl p.(f,O)I.t(s)l 2 dfds

La conservation du produit scalaire par la T.F donne immédiatement (3.172).


2.Équivalence (3.46): elle se déduit immédiatement de (3.169).
Équivalence (3.47) : Prenant p(O, T) = 1, dans (3.170). on obtient

jc,(t.u)dt = _[IX(f)l 2 e-j 2c 1"-n'dnlf = fl(u- f)IX(f)l 2df = IX(ull 2 .


Exercices et problèmes corrigés 163

Réciproquement, (3.26) donne:

fJ Cx (t ,u)dt )ej
2
ô"'du = p.(O, T) jK.,(t, T)dt
et tenant compte de la relation (3.172), on obtient :

j JC, (t ,u)dt )ef'""'du = JI(O, T) jnx (ull'ei'"'~du.


Donc, si fC,(t,u)dt = IIX(uJI', on obtient J!(Ü,T) = l.
Équivalence (3.48) : elle se déduit de (3.171 ). En effet, si Jl(/,0) = l, on obtient :

jc,(t,u)dt =} jei'"ftHidflllx(s)i ds 2
= llx(l)j 2 •

Réciproquement, la relation (3.26) donne :

jc,(t,u)ei'ôf'dudt = 1t.(f.O)A,(f.O).

Si f C (1 ,ti)du = llx(l)l 2 , on obtient jt(f,O) = l.

3.6 1. Supposons qu'il existe une combinaison linéaire de la forme :


N
L c; t/JN(I- t;) = 0, VI.
j=O

On démontre [98J que les coefficients t~; sont nuls. Les polynômes sont donc indépendants.
Les polynômes (1- tk)N, 0 ~ k ~ N fom1ent donc une base de iPN[I].
2. L'identification des termes de même degré de la relation (3.57) conduit immédiatement au
système 3.58.
3. La dérivation de l'identité (3.57) entraîne :

Vt

et donc le polynôme ·1/1N~I = tN~! de degré N- 1 vérifie aussi (3.57). Ainsi. on établit en
itérant la procédure que les N + l polynômes 'if'N• '1/'N-I• .. . , 1/'o véritient tous l'identité
(3.57) avec les mêmes coeftïcients or
Comme ces polynômes forment une base de IPN[t],
alors tout polynôme de ll'Nitl vérifie aussi (3.57).
4. En faisant T = 1 dans (3.173), on obtient (3.57). Inversement, supposons qu'il existe un
polynôme if• véritïant (3.57). Alors.l'identitïcation des termes de plus haut degré dans (3.57)
donne Lf=o n:f = â(C), où t}{ C) désigne le symbole de Kronecker. et ainsi (3.173) est véri-
tlée pour T = O. Supposons alors queT-=/= 0 et introduisons le polynôme 'li'( X) = (f!(Tx). Le
polynôme 1/•(x) vérifie (3.57). Comme 1/p·l(:r) = fç)( 0 (Tx), on obtient

J Q
r--r/Pl(TX) = Lniô(r(x -!/;}) VT.VJ:.
k=O
Finalement, en faisant t = r:x, on voit que c/J vérine (3.173).
164 3 • Méthodes d'analyse temps-fréquence

3.7 1. Pour que les variables y(n - t 1..r) et y(m- t,T) soient indépendantes pour tout
11=!= il faut que T vérifie : 11- fkT =!= m- ftT pour tout n =Fm. Si k = l. y(n- f~;. T) et
111.

y(m - t1r) sont indépendantes V n =F m et si k =!= 1. sachant que Test supposé positif. nous
obtenons la condition (3.174 ).
2. On a:

=
Nf
LE[
11=N1
n
N-1

k=O
IY"(n- t,T) )"'" Je~j(,ô)l/

L
Nr

n=N, k=O
N-l
n E[{_v$"(n- fkT) t'.N]e-j(nf>.){)

L n k"(n- t,T) rLN e~j(,ô)(/.


Nr N-1
= (3.175)
n=N, k=O

Utilisant le fait que les variables y(n- t,,:r) et y(m- fJT) sont indépendantes pour 11 =!= 111,
on obtient :

2
E[IA.v (.v ,Il, Tt 1 1

LLE [ n N~I
{y$k(ll-ff...T)}c',N n
N~l
{ySI+!(m-t,r)}Ci.N
]
e-j(ll-1/l)f>.()

Il Ill #; 11 /.:=0 1=0

' " ' E N~I


n 1y .."rn-hTl)''LN ] E [N~I
"
~L
n m fr- 11
[ k=O
n 1y Si·(·!(111-tT
t J)''<.N ] e ~j(,~m)M
1=0

N-1
+ Ln E [1:: 5/.:(n- t,.T) + uP'(n- lkT)I 1C"N]
11 k=O
Exercices et problèmes corrigés 165

+ Lil[A'''N~(ck.N)'n(:;;)']
Il 1.:=0 1=0 1

(3.176)

La définition de la variance conduit immédiatement à la relation (3.84).


Chapitre 4

Méthodes dl 11 analyse temps-échelle

On va considérer une fenêtre de pondération particulière, 'lj;(l), dénommée fonction


ondelette, On introduit une famille double de fonctions 'lj;a,b(t) de L 2 (JR:)
construites à partir de '1/J(I) par décalage et changement d'échelle. On étudie ensuite
les projections d'un signal d'énergie ti nie sur la famille de fonctions ainsi obtenue.
Finalement les famille de fonctions conduisant à des bases orthonormées seront étu-
diées de manière détaillée. Parmi les travaux sur les bases orthonormées de L2 (JR:),
on peut citer ceux de Franklin (1927), de Littlewood-Paley (1930), de J.O.
Stromberg et de Caldéron ( 1960). On peut également considérer les travaux plus
récents, de Daubechies [36], de Mallat [81] et de Meyer [89]. Dans tous ces travaux,
les bases sont construites à partir d'une fonction '/jJ(I), dénommée ondelette dont la
définition introduit des conditions plus ou moins restrictives selon les problèmes
posés. Une fonction 'lj;(l) de L 2 (JR:) est appelée ondelette:
1. au sens de Grassmann-Morlet, si sa T.F. 41, vérifie la condition suivante pour
presque tout 11
00
10(1/1)1 2
1,
0
:..:....:._.:_:....dt = 1
1
(4.1)

2. au sens de Littlewood-Paley-Stein, si sa T.F vérilïe la condition suivante pour


presque tout 1/

(4.2)
)=-00
3. au sens de Franklin-Stromberg. si la suite double 2j/ 2 4,(2it- k),(j.k) E Lï 2 est
une base orthonormée de L 2 (JRU .
168 4 • Methodes d'analyse temps-echelle

Une fonction 'lj1(t) de la variable réelle sera appelée fonction ondelette, de classe 111,
E N. si elle véritïe toutes les conditions suivantes.'
111

1. La fonction '1/J(t) ainsi que toutes ses dérivées d'ordre k ,ç m appartiennent à


L CO(JR).
2. La fonction 'VJ(I) ainsi que toutes ses dérivées d'ordre k ,ç m sont à décroissance
rapide à l'intïni.
3. on a

(4.3)

4. La suite double 21'j1-4,(21. t - k), (.i,k) E z-' est une base orthogonale de ,
L-(JR).

4.1 TRANSFORMÉE EN ONDELETTES (TO)

Nous allons présenter maintenant une méthode d'analyse qui constitue une alterna-
tive à la STFf. Associons à une fonction ondelette '1/J la famille double et non
dénombrable de fonctions 'lj;" ,1> (t), détïnies par

(4.4)

où le facteur ,jjaj est choisi pour assurer à toutes les fonctions 'V'a.b d'avoir la même
énergie que '1/J. L'opérateur de L 2 (JR) dans L 2 (JR* x JR) :

x--+ O(x) ~ O,(a,b) = i: x(t) 1/J~.b(t) dt=< x(t),'I/Ja.l>(t) > (4.5)

qui associe à toute fonction x de L 2 (JR), la fonction à deux variables O,(a,b) est
appelé Transformée en Ondelettes (TO). Pour chaque couple (a,b) tïxé, la valeur
prise par O,(a,b) peut s'interpréter comme le produit scalaire de x par la fonction
'1/'a,b(t). La conservation du produit scalaire par la T.F conduit à une seconde
expression pour la TO :

Q,(a,b) = 1
IT::T
vial
100

-oo
X(u) lj;-*('/)
-
a
exp(j2nbu) du. (4.6)
4.1 Transformée en ondelettes (TO) 169

4.1.1 Principales propriétés de la TO, Scalogramme

On impose généralement à l'ondelette 4• de vérifier la condition suivante dite condi-


tion d'admissibilité :

(4.7)

qui impose à la fonction '1/•, supposée à décroissance rapide. de vérifier :

(4.8)

Ce résultat s'étend aux distributions particulières telles que le Dirac. Prenant


y(t) = i5(t -11) dans (4.9), on obtient la formule d'inversion suivante qui permet le
calcul de x à partir de 0, (a ,b) :

1
x(t) = A,!. 1-N.f-œ
00 0

("
O,(a,b) 1/•,,~oCtl da db. (4.10)

4.1.2 Localisation temps-fréquence associée à la TO


Associons à ·1/! le support temps-fréquence défini par le pavé [-u,,<T,] x
rf- Of ,f + <Tf]. Pour justifier le choix d'un tel support. on peut nonnen/• de sorte
que 11/1(1) 12 soit une densité de probabilité. On suppose cette densité centrée, i.e. :

-~ et on pose :
"
E
0
~
o.
j
1~ L: .t!VUJI
2
df

a~~ L:t 11/•(t)l dt,


2 2
a}~ L:u· 2
-/l 2 1;,;:(fll df.
170 4 • Méthodes d'analyse temps-échelle

Chaque fonction I1/Ja.b(t)l 2 est alors aussi une densité de probabilité et un calcul
simple montre que le support qui lui est associé est défini par les paramètres sui-
vants:

Ces résultats s'obtiennent simplement en utilisant le fait que le "support de g(at)


est égal à 1/a fois celui de g(t). Les variances introduites ci-dessus définissent les
étalements moyens des graphes des fonctions l·•l'a.l,l et l1,ba./JI autour des abscisses
de leurs valeurs moyennes. Ces variances permettent d'évaluer les localisations
temps fréquences associées aux fonctions ·~'a.l,. Pour un instant b tïxé, la famille des
ondelettes '1/!a.b couvre les diftërentes bandes de fréquence lorsque a varie. Plus a
est petit plus le support de '1f;a.h est large comparé à celui de ·•f; supposée à support
borné. Contrairement à l'analyse par la STFf, l'introduction du paramètre a, appelé
facteur d'échelle, permet donc d'agir sur la longueur des côtés du rectangle temps-
fréquence en multipliant l'un par a et en divisant l'autre par ce même facteur. Ceci
donne la possibilité de faire apparaître dans l'analyse du signal à étudier plus au
moins de détails. Pour b fixé, les '1/>a.h permettent donc d'avoir des zooms sur le
contenu fréquentiel du signal autour de l'instant b. L'analyse temps-fréquence d'un
signal fondée sur la transformée en ondelettes correspond au pavage du plan t-f indi-
qué sur la ligure ci-dessous.

f f
2aa,

a -+-------~
t t
b

Figure 4.1 Localisation de l1/'a.h(t)l 2 et pavage du plan temps-fréquence.


4.1 Transformée en ondelettes (TO) 171

Afin d'obtenir une forme énergétique associée à l'opérateur TO, on introduit la


distribution dénommée scalogramme définie par :

IO,(a,b)l' ~ 1~, x(t) </'"·"(t)x(t') <l'".!• (t') dt dt'. ( 4.11)

Le scalogramme est relié aux distributions de W. V de <b(t) et de x(t) par la relation


suivante :

(4. 12)

II appartient donc à la classe de Cohen, mais son étude montre qu'il ne vérilïe pas
les propriétés marginales.

Exemple 4.1.2 Scalogramme en imagerie radar et SAR


L'imagerie radar consiste essentiellement à localiser des points réflecteurs, dénom-
més poi!lts brillants, d'une zone dont on cherche à construire une image. Le prin-
cipe consiste à estimer les retards des signaux réflechis sur ces réflecteurs par rap-
port à un signal émis par une antenne donnée. La difficulté est que ces réflecteurs
ne répondent pas de la même manière dans la bande de fréquence d'émission de
l'antenne. De plus, la réflectivité de ces points brillants peut dépendre de la position
de l'antenne d'émission. L'objectif de l'imagerie radar est de localiser et caractériser
les points réflecteurs (réponse en fréquence, réponse en angle de ces points).
L'analyse temps-fréquence et l'analyse temps-échelle constituent des outils qui per-
mettent de mettre en évidence les propriétés physiques des réflecteurs lors de la
reconstruction de l'image. Les deux grandeurs physiques qui apparaissent dans le
signal sont la fi·équence d'émission et l'angle d'incidence de fonde émise. Par
ailleurs, l'effet Doppler rencontré en radar lorsque la vitesse relative entre l'antenne
et le réflecteur n'est pas nulle introduit un décalage fréquentiel dans le signal écho
par rapport au signal d'émission. On est souvent conduit à faire des approximations
de ce décalage qui se justilïent sous l'hypothèse bande étroite du signal d'émission.
Dans ces conditions, le signal écho est non stationnaire et on cherche à l'analyser en
choisissant des distributions temps-fréquence de sorte que la distribution du signal
écho puisse se déduire de celle du signal d'émission par simples translations tem-
porelle et fréquentielle. Par ailleurs pour augmenter la résolution de l'imagerie
1 radar, on crée artilïciellement une ouverture d'antenne plus grande en faisant circu-
3 1er l'antenne réelle le long d'une trajectoire rectiligne ou circulaire. C'est le principe
3
0
-5. du Radar à Oul'erture Synthétique (SAR en Anglais). Si la fonction ondelette est
localisée autour de la fréquence .frJ = 1 Hz, la transformée en ondelettes associée
peut s'interpréter comme une fonction du temps et de la fréquence et conduit à des
outils adaptés aux traitement de signaux radar et SAR [99].
172 4 • Méthodes d'analyse temps-échelle

4.2 DÉCOMPOSITION D'UN SIGNAL SUR UNE TRAME

4.2.1 Notion de trame et opérateur associé


Les systèmes de fonctions h 7 , , et 'if•a.b (1), qui détïnissent respectivement la STFT et
la transformée en ondelettes constituent des familles indéxées par des paramètres
variant sur IR. Dans la pratique, il est important de pouvoir extraire à partir de tels
systèmes des familles dénombrables, c'est-à-dire des suites de fonctions indéxées
sur ::Z de sorte que les suites obtenues forment des bases orthonormales de l'espace
de Hilbert des signaux d'énergie finie. Pour cela nous allons présenter des systèmes
1
plus généraux connus sous la dénomination de « trame ». À titre d exemple, on sait
que tout signal x de période T, d'un espace de Hilbert séparable, peut se décompo-

ser sur la base dénombrable formée par les exponentielles exp( 2m'*) de période

T. On obtient le développement en série de Fourier associée à x. On sait aussi que


si x est tel que sa TF X est à support limité [- B, B]. alors x se décompose sur la
base dénombrable des fonctions sinc(2Bt- 11), 11 E Z. Mais les fonctions

exp ( 27TZJ;) et sinc(2Bt - 11) ne sont pas bien localisées en temps et en fréquence.

Une analyse temps-fréquence bien localisée d'un signal consiste à calculer les pro-
jections de ce dernier sur une famille de fonctions ayant des supports t-f aussi petits
que possible. On peut trouver dans [37] [5] une analyse générale de la décomposi-
tion d'une fonction sur des systèmes qui ne forment pas forcément une base et dans
[80] [36] une étude sur la construction de bases orthonormales. Une « trame >> défi-
nie sur un espace de Hilbert iHl est un système particulier qui n'est pas forcément
orthonormé sur lequel tout élément de !HI admet une décomposition. Donnons un
exemple sur des espaces de dimensions finies qui permet de comprendre l'idée sur
laquelle reposent les décompositions récherchées.

Exemple 4.2.1 Opérateur adJoint sur 1111 espace de dimension jïuie

Soit llk,k = 1, ... .m. un ensemble de 111 vecteurs d'un espace euclidien I>lf de dimen-
sion n. Posons

Xk ~<X, llk > ,k = J, ... ,111

et
4.2 Décomposition d'un signal sur une trame 173

Le problème consiste à trouver des conditions sur les llk pour que l'on puisse relier
x à x.
Il est clair que si l'on prend Il = 111 et les llk orthonormés, on aura x =x.
x
D'une manière plus générale, le passage de x à est le résultat de la composition
de deux opérateurs : U de lHI dans lll'."' et son adjoint U* défini de JR"' dans lHI par :

U: xE lHI---> U(x) !!= (x 1, ... ,x,)

et

U*: xE IR111 -+ U*(xJ, ... ,X111 ) ~


"'
LXkllk ~X.
k=I

Considérons maintenant un espace de Hilbert lHI de dimension quelconque et une


famille dénombrable llk,k E I, (généralement I = Z") d'éléments de lHI. Cette
famille est appelée trame [37] [5] s'il existe deux constantes positives a > 0 et
(3 > 0 telles que :

allxll 2 ~ L 1<x, llk > l 2 ~f311xll 2 'ix E lHI. (4.13)


kEI

Les constantes o et (3 sont appelées bornes de la trame. Une trame pour laquelle on
peut trouver des constantes o et (3 égales est dénommée trame exacte.

§
Afin d'étudier l'existence et l'unicité de la décomposition d'un signal sur une
trame, il est commode d'associer à une trame llk,k E I, l'opérateur linéaire de lHI
dans l'espace e2 (I) des suites de carré sommable, appelé opérateur trame, défini par

0
'ik E I.
-~
a On utilisera la même notation pour les produits scalaires sur !HI et sur C2 (I). Comme
:2
j la nom1e de U(x) sur C2 (I) est détïnie par:

IIU(xlll 2 = L I[U(x)]d
kEI
2
174 4 • Méthodes d'analyse temps-échelle

la condition (4.13) conduit à:

Soit:

Π<x, x> ,;: < U(x), U(x) > ,;: j3 <x, x >. (4.14)

L'adjoint de U est un opérateur, noté U* défini par :

< U(x), y >=<x, U*(y) > '<lx E lHI Vy E C2 (I).

On peut vérifier que U* est une application de C2 (T) dans lHI qui associe à toute
famille (ckhEI l'élément unique x delHI défini par:

U*[(q)kEil !!o L Ckllk 2


'<l(ck) E C (I). (4.15)
kEI

Introduisons l'opérateur :

U*U(x) !!o U*[U(x)] = LU(x)kuk = L <x, uk > uk


f.:.EI kEI

qui est autoadjoint puisqu'il vérifie U*U = (U*U)*. Les inégalités (4.14) se tradui-
sent par :

(4.16)

où I désigne l'opérateur identité. La condition Œ > 0 implique que U*U est un opé-
rateur strictement positif et il est donc inversible. Son inverse, qui est aussi auto-
adjoint et positif, vérifie

Associons maintenant à la trame (ukJkEI la suite de lHI définie par :


4.2 Décomposition d'un signal sur une trame 175

La condition 3 de cette proposition se traduit par :

< X,V
~ >= "'Ç""""'
L < X,llk >< Vk,V
- > = ~
L < X,Vk >< llk_,V
- >
k~ kei

Elle se traduit aussi par la double décomposition de tout élément x(t) d'un espace
de Hilbert lH1 muni des deux trames"" et Vk reliées par (4.16):
+oo
x= L <x, Vf.: > llk = L <x, llk > Vf.:_-
kei k=-oo

En particulier. pour les trames reliées par (4.16), si < llk,Vk > 4 1, alors
(11 kik ,p" est une trame et si < "", vk > = 1, alors (uk)"*" est un système incomplet.

5
= 4.2.2 Trames obtenues en discrétisant la STFT et la TO
.:;,

~ D'une manière générale, lorsqu'on dispose d'une représentation continue d'un


'È. signal. comme la STFT ou la TO. il est important de savoir dans quelle mesure peut-
" on échantillonner cette représentation sans perdre d'infonnation. Nous donnons
dans la suite des éléments de réponse à cette question en considérant l'exemple de
la STFT puis celui de la TO.
176 4 • Méthodes d'analyse temps-échelle

Exemple 4.2.5 Discrétisation de la STFT


Associons à une fonction ondelette de base la famiJie double et non dénombrable de
fonctions lza.b(t) définies par (4.4). On a vu que si la fonction lz vérifie la condition
(4.7), J'opérateurS introduit par (3.7) est inversible et permet de calculer x à partir
de son image S(x) [37]. Un problème pratique important consiste à trouver les
conditions sur lz qui permettent d'exprimer x(t) comme combinaison linéaire d'un
ensemble dénombrable de fonctions lza,bCt). On introduit alors la suite double et
dénombrable de fonctions h,,o (t), définies par
2
h111 , 11 (t) ~ ej "
111110
' h(t -nTo) (m,n) E I ~ LZ 2
La suite ainsi définie est appelée sytème de Weyl-Heisenbe1g ou système de Gabor
ou système d'états colzérellts. L'opérateurS deL 2 (ffiè) dans C2 (I) qui associe à toute
fonction x de L 2 (ffiè), la suite double de €2 (I) définie par:

S: X---+ [S(x)] 111 , 11 ,@,<X, h111 , 11 >::@: Xm.n, (111,11) E I

est appelé STFT discrète. Atïn de pouvoir reconstituer x à partir de la suite (x,. 0 )
qui lui est associée, il est nécessaire que l'opérateurS soit injectif et numériquement
stable, i.e. si les suites (x,,o) et (y,, 0 ) associées à deux fonctions x(t) et y(t) sont
« très proches », alors les fonctions x(t) et y(t) sont aussi « très proches ». On doit
alors imposer à la suite (lz,,o) d'être une trame. Ce problème est lié aux deux ques-
tions suivantes qui sont largement discutées dans [37] [5].
1. Pour une fonction lz donnée, trouver J'ensemble des couples (vo.to) pour lesquels
les fonctions lz,,o forment une trame et déterminer des estimateurs pour les bornes
de cette trame.
2. Trouver les conditions sur la fonction de pondération h pour que la famiJie lz,,o
soit une base orthonormale de L 2 (ffiè).
La fom1Uie de reconstruction de x(t) est donnée par:
x(T) = L < x(t), !l,,o (t) > aef2mouo'lz (T- nto)
!11,11

où a est une constante et plus a est proche de 1 plus la série converge vite vers x(t).

Exemple 4.2.6 Discrétisation de la /rausformée eu oudelettes


On a vu que si la fonction 1jJ vérifie la condition d'admissibilité (4.7), l'opérateur
transformée en ondelettes 0 est inversible et permet de calculer x à partir de la
famille double et non dénombrable de fonctions 1/Jn.b(t), définies par (4.4) [37] [5].
Comme pour la STFT, un problème pratique important consiste à trouver les condi-
tions sur 1/• qui permettent d'exprimer x(t) comme combinaison linéaire d'un
ensemble dénombrable de fonctions :
4.3 Décomposition sur des bases et paquets d'ondelettes 177

obtenue à partir de 4•a.l> pour a ~ab et b ~ kboai) 1 où ao et bo sont des réels à


déterminer. On associe à x(l) la suite numérique double détïnie par:

Si 1/• satisfait la condition d'admissibilité (4.7) et si elle est à décroissance suffi-


samment rapide, alors 0, détïnit une application deL 2 (1R') dans C2 (I). En général,
cette application n'admet pas d'inverse borné sur son image. Le problème consiste à
chercher les conditions que doivent satisfaire ao, bo et '1/J pour que la suite double
(1/JJ.k)(J.kiEI soit une base hilbertienne de C(!R'). Une analyse générale de ce pro-
blème est donnée dans [37] où l'on peut trouver le résultat suivant. Si la suite double
1/';.k.(j,k) E I est une trame de bornes o et ;3, on peut exprimer x sous la fonne:

? ;3
x(l) = -=- L 0_-(j,k) 1/';.k(t) + R(t) avec IIR(tlii(O(- -IJII.r(tlll-
o+,8 ., .
1·" '"

4.3 DÉCOMPOSITION SUR DES BASES ET DES PAQUETS


D'ONDELETTES

4.3.1 Décompositions classiques de signaux particuliers


Nous présentons dans celle section des exemples de décompositions d'un signal sur
des bases particulières. Nous développons ensuite la méthode qui conduit à des
décompositions sur des systèmes plus généraux et en particulier sur des bases ortho-
.,
"' normales d'ondelettes .

Exemple 4.3.1 Bases d'ondelettes temps-fréquence


La formule (3.9) peut s'interpréter comme la décomposition d'une fonction .r(t) sur
un système de fonctions hT.I;(t) indéxées par les deux paramètres continus (T.IJ), les
o
coefficients étant les S,(T,u). La recherche de bases d'ondelettes consiste à déter-
-~ miner sous quelles conditions peut-on décomposer x sur une famille dénombrable
§ h,y(t), c'est-à-dire. obtenir une décomposition dans laquelle les indices Tet 11 sont
o. des entiers relatifs et non plus des réels. En 1946 Gabor [53] introduisit une
~ méthode temps-fréquence fondée sur un banc de tïltres pour lesquels des conditions
§ temporelles et fréquentielles sont imposées. Le plan temps-fréquence (t-f) est alors
~ divisé en séries de rectangles appelés « lagons » et un nombre c 11 ~.~ 1 est associé
178 4 • Methodes d'analyse temps-echelle

à chacun de ces logons, les indices 111 et 11 désignant respectivement le temps et la


fréquence. L'analyse temps-fréquence du signal x(t) est alors faite en utilisant la
décomposition suivante :
00 00

x(t) = L L
m=-con=-oo
C 111 •11 h111 , 11 (t) (4.17)

où h,,,(t) désigne une fonction gaussienne centrée autour du point (111,11).


Helstrom [64] généralisa la décomposition (4.17) au cas continu en remplaçant les
h,,, (1) par une fonction Ç( T,l ,v) de trois variables. La résolution de ce problème se
déduit de celle du problème plus général de la construction de bases orthononnées.
On se limitera aux exemples suivants.

Exemple 4.3.2 Base orthonormée de Wilson


Si la fenêtre h est suffisamment régulière et bien localisée, alors [89]!a suite double
lz 111 , 11 (f) ~ ej 2;rmuot lz(t - llTo), (111 ,Il) E 2. 2 ne peut jamais former une base ortho-
normée de L 2 (lR(). Mais cette difficulté peut être contournée en utilisant des fenêtres
très régulières et en faisant alterner la transformation en cosinus discrète (OCT) et
la transformation en sinus discrète (DST) selon que l'entier j est pair ou impair et
en utilisant pour la DST la base orthonormée de fonctions :

1 (k-t2 ) ,
-.-sin
fo
k = 1,2 .... Cette démarche a permis d'introduire des fenêtres h

telles que h et sa T.F soient à décroissance exponentielle et que la suite double


h,,k(t), définie ci-dessous, forme une base orthonormée de L 2 (1R).

llo,l(l) = h(t- 217r) pour e pair

et pour k = 1,2, ...

uu(t) = hh(t- 2Cr.) cos ck2r), pour e pair


k
= J'ih(t - 2Cr.) sin ( -1),
2
pour e impair

Exemple 4.3.3 Ondelettes de Ma/var à support fixe


Malvar a proposé des transformations voisines de la DCT qui pennettent de
construire des ondelettes temps-fréquence, appelées bases trigonométriques locales.
La fenêtre de Mal var est détïnie par les conditions suivantes :
4.3 Décomposition sur des bases et paquets d'ondelettes 179

h(t) E [0.1] sur [-IT,37r] et h(t) = 0 ailleurs

h(27f- f) = h(t) et 11 2 (1) + h 2 (-t) = 1 SI - 7f,;:; ( ,;:; 7L

À partir d'une fenêtre h vérifiant ces conditions, on peut construire une famille
double de fonctions llk.J (t) qui forment une base orthonormée de L 2 (ffi:). Le choix
d'une fonction h véritïant les conditions imposées permet d'obtenir des fenêtres
indéfiniment dérivables mais ayant des T.F qui ne sont pas à décroissance exponen-
tielle à cause de la condition h(t) = 0 pour t ~]- 7f,37r[.

Exemple 4.3.4 Ondelettes de Ma/var à support variable


La construction de fenêtres véritïant les conditions de Mal var conduit à des pondé-
rations du type hj(l) !!ô h(l- 2j7r) se déduisant par translation de h 0(1). On peut
cependant généraliser [72] la méthode de Mal var et obtenir des fenêtres h.i dont la
largeur du support dépend de j. Considérons une partition arbitraire de la droite
réelle en intervalles adjacents [aj.Cij+Il• -oo, ... < a~ 1 < a 0 < a 1 .... +oo,
posons l.i = aJ+ 1 - a1 et désignons par ŒJ des nombres strictement positifs assez
petits pour que l'on ait lj ~ <Xj + <Xj+J pour tout j E 23. Les conditions imposées
aux hi (t) sont alors les suivantes :

lzj(l) = 1 s1 1 E [aj +rxi,a.i+l -<Xj+J]


= 0 si 1 ~ [aj - Ctj ,a.i·l·l + Oj+Il

Ces hypothèses permettent aux h.i d'être indéfiniment dérivables et de vérifier l'iden-
tité :

VIER
j=-00

'"f On obtient alors des ondelettes analogues à celles de Mal var données par :

"
o.
llj.dtJ =
2
!l:hj(t) cos[-,. (k
Il l
+ ;:;l(l- Clj)]. j E 2LZ, k E l"T
v Il 1 -

et telles que la famille double IIJ,k<l) forme une base orthonom1ée de L 2 (1Pi).
180 4 • Méthodes d'analyse temps-échelle

Exemple 4.3.5 Ondelettes de Ko(fman-Meyer


Les ondelettes de Mal var permettent d'analyser des fonctions definies seulement sur
[O.oo]. Koifman-Meyer ont adapté la construction de ces ondelettes pour obtenir
des bases de iP!. en pm1ant d'une segmentation particulière en intervalles diacliques
[21 ,zi+ 1], j E Z. Le choix des fenêtres est défini par:

et les constructions reposent alors sur le choix de l'unique fenêtre de base h(t). Les
conditions de Koifman-Meyer se particularisent et conduisent à :
. ')} .
llj = 21 , Œj = :_, fj = Œj +n}+l = 21
3
Les bases de Mal var prennent alors la fmme suivante :

On peut aussi remplacer les cosinus par les sinus et obtenir le système :

qui constitue une autre base de L 2 (0,oo). Si l'on détïnit h(t) sur iP!. en posant
il( -t) = h(t). alors les deux familles:

{ ~llj.ko ~ v;.k. j E 2Z, k E l\1 l


et
l
WJ,k = -;;("J.k- iv;.kl

constitue des bases orthonormées deL 2 (iP!.). Si l'on introduit les exponentielles ima-
ginaires! on obtient la famille suivante :

qui est aussi une base orthonormée de L 2 (iP!.). Si l'on désigne par 1/•(u) la T.F de
h(t)ei"r/ 2 , alors 1/•(J;) est une fonction réelle vériliant'lj•(l- u) = rj;(u) et la suite

2ii 2 ,J!(2it-k), jEZ. kEZ

est aussi une base orthonormée de L 2 (iP!.).


4.3 Décomposition sur des bases et paquets d'ondelettes 181

Exemple 4.3.6 Décomposition d'un signal à bande limitée


Considérons l'ensemble li}(JP;) des signaux d'énergie finie. Cet ensemble contient le
signal sinc(2Bt) ainsi que tous les signaux:

1r,(t) ""sinc[2Bt -11)]

obtenus à partir de sinc(2Bt) par translation. Les 1r,(t) fonnent un système ortho-
gonal de II}(JP;) et on a :

Le théorème de la projection orthogonale sur l'espace vectoriel fermé de dimension


2N + 1, engendré par 1r,,n = -N,-N + 1, ... •N pennet d'écrire d'une manière
unique

x(t) = x(t) + .i'(t)


+N
X= I:;b,T<,(t), b, =< x(t),T<,(t) >
-N

Tout signal x(t) à bande limitée [-B,B] et d'énergie 11nie, se décompose sous la
forme:

-t-N Il
x(t) = I:;x(-)sinc[2Bt -n] + .i'(t). (4.18)
-N 2B

où les coeftïcients sont des échantillons équidistants du signal. Lorsque N tend vers
l'inlïni, le signal erreur .i'(t) tend vers zéro et on obtient la formule d'échantillon-
nage classique.

Exemple 4.3. 7 Décomposition d'un signal de durée limitée


-~ Considérons l'ensemble des signaux de durée limitée [- T, T]. Cet ensemble
5 t t
.[ contient le signal rectangle f1 ( '2T) ainsi que tous les signaux déduits de f1 ( '2T) par
translations. Un signal de support [- T, T] et un signal périodique de période 2T
admettent la même formule de décomposition (en série de Fourier), les coefficients
apparaîssant dans cette formule sont les échantillons équidistants cie son spectre.
182 4 • Méthodes d'analyse temps-échelle

4.3.2 Analyse multirésolution de L 2 (!Ft)


Nous allons présenter un procédé dénommé analyse multirésolution (AMR) qui
permet de construire des bases orthonormées de L 2 (lPc) [81] [88] [37] [5]. L'AMR
permet de construire une fonction cj1, appelée fonction échelle à partir de laquelle on
construit une autre fonction 4• appelée j(mction ondelette telle que la suite double :

(4.19)

forme une base orthononnée deL 2 (1R) appelée base d'ondelettes. Nous donnons les
relations qui permettent de calculer récursivement les projections d'un signal sur
une base d'ondelettes donnée. Une application de cette technique au codage sera
présentée.
Une AMR de L 2 (1R) est une suite de sous-espaces vectoriels (10)jEC: de L 2 (1R)
qui véritïent les S propriétés suivantes [88] [81].
1. Les sous-espaces Vj sont fermés dans L 2 (lP() et forment une suite croissante au
sens de l'inclusion :
(4.20)

2. L'intersection des espaces Vj est réduite à (0) :

nj;:_oo vj = (0). (4.21)

3. La réunion des espaces Vj est dense dans L 2 (1R)

Uj;:_ 00 V; est dense dans L 2 (!R). (4.22)

4. Un élément x(t) est dans Vj si et seulement si son contracté x(2t) est dans Vj+t :

x(t) E V; {} x(2t) E Vj+l, j E :Z. (4.23)

S. L'espace Vo contient au moins une fonction cp telle que (cp(l- kllkEZ soit une
base de Riesz de Vo.
L'AMR d'un signal x(/) consiste à calculer les projections de ce signal sur les
espaces V; et l'étude de ces projections permet alors d'obtenir des informations sur
x(l).
Une Base de Ries: d'un espace de Hilbert lHI est une famille""-" E Z qui vérifie
les deux conditions suivantes.
1. Il existe deux constantes u > 0 et If > 0 telles que, pour toute partie finie Io
de Z et toute suite de scalaires (x;), on ait
4.3 Décomposition sur des bases et paquets d'ondelettes 183

ΠL lxkl 2 ~11 LXkllkll 2 ~f3L lxd. (4.24)


kEio kEio kEio

2. L'ensemble des combinaisons linéaires finies LkETo xkuk est dense dans iHI.
La dernière condition de la détïnition d'une AMR signifie donc que pour toute
suite o·k de C2 (Z),la série .z=;:,_,
00
Oitp(t- k) converge commutativement dans Vo
et que V0 possède la propriété suivante : x (1) E Vo 9 x (t - k) E Vo, k E ::Z. Dans
le cas général la base (rp(l- k))kE'2 n'est pas une base orthonormale de Vo.
Pour obtenir une base orthonormale, il faut que les deux constantes, o· et ,13, inter-
venant dans (4.24) véritïent n = ;3 = 1 [5]. Pour assurer cette condition, la fonction
'P sera remplacée dans la suite par la fonction cjJ proportionnelle à 'P et détïnie dans
le domaine fréquentiel par:

1
(j)(u) = 1....
);'P(l;) avec \'J/è,~"-'
'- = L., lcp(u + ") 1-.
1' 1
,
\
> 0
k=-OC·

appeléefbnction échelle associée à l'AMR. Ainsi </J doit véritïer la condition :


(X)

I: 1~(1/ + k)l 2 = 1 (4.25)


k=-00

qui implique que le système {qJ(t- k),k E Zj est orthonormaL En effet, tenant
compte de la conservation du produit scalaire par la T.F, la relation (4.25) conduit à
la propriété suivante :

La suite qJ(u + k) vérifie donc la condition (4.24) avec a= ;3 = 1 puisque c'est une
base orthonormale. Sans perte de généralité, la fonction 'P sera donc remplacée dans
la suite par la fonction échelle r/J.

·~ Exemple 4.3.8 Exemple de fonction échelle


8
3
i On peut délïnir V0 par l'ensemble des fonctions deL 2 (JR'.) qui sont constantes sur les
intervalles du type [k,k + 1[ où k décrit ::Z. La fonction r/J est alors égale à la fonc-
~

tion indicatrice de l'intervalle [0, 1[.


184 4 • Méthodes d'analyse temps-échelle

Exemple 4.3.9 AMR p-régulière et AMR localisée


Une AMR de L 2 (JR) est dite p-régu/ière, (p E l\T) si la fonction rjJ véritïe:

é 1 1 C,
-dt-k cp (t) ,::; -;-,(l,---+-,-.:::-1tc-:1)-::-:"' pour k = 0,,,, ,p
1

où C, désigne une constante et ceci pour tout 111 E N, Elle est dite localisée si cf;
vérifie :

+oo

l -oo (! + ltiJ"'I1,(t)l 2dt < 00, \fm E f\L (4.26)

La condition (4.26) est satisfaite par toutes les fonctions à décroissance rapide, Elle
n'implique pas cependant que r/J(t) est à décroissance rapide à l'infini. On peut éta-
blir que (4,26) entraîne des majorations de 'P(t) (voir exercice 4.3).
4.3 Décomposition sur des bases et paquets d'ondelettes 185

La condition (4.25) implique, pour chaque j fixé. que le système {r/Jj.k),k E 23}

L:
est orthonormal. En effet, on peut établir l'identité :

c/Jj.k(t)r/J].,(t)dt = rl(k- lz), Vk,lz E 23.

Exemple 4.3.11 Équation double-échelle vérifiée par les fzk


La condition (4.28) se traduit dans le domaine de Fourier par:
00

-;j;(2u) = H(u)'J;(u) avec H(u) ~ L izkexp(-j2m;k) (4.30)


k=~co

où H désigne la T.F de la suite (hk). Comme H (u) est de période 1, on peut établir
que les conditions sur r/J conduisent aux conditions suivantes sur H (u) :

IH(uJI 2 + IH(u+ 1/2)1 2 = 1 (4.31)

H(O) = l. (4.32)

Ces conditions qui sont à la base de la détermination des coefficients h k permettent


d'interpréter 1-/ comme la réponse fréquentielle d'un Jïltre numérique passe-bas. En
e!Iet, on a H(O) = 1 et H(l/2) =O.
186 4 • Méthodes d'analyse temps-échelle

Exemple 4.3.13 Extension à l'AMR multidimensionnelle


Les définitions ci-dessus s'étendent naturellement aux cas multidimensionnel. Plus
particulièrement, les résultats relatifs au cas bidimensionnel peuvent être trouvées
dans [80]. On peut, par exemple. définir une AMR de L 2 (1R' 2 ) à partir d'une analyse
de L \IR') comme suit. Si q) est la fonction qui permet de construire une base de
Riesz de Vo, alors la fonction <b(t- k)r/J(/- j).(k.j) E Z 2 fournit une base de
Riesz de V0 ® Vo.

4.3.3 Construction d'une fonction échelle à support compact


La construction de la fonction échelle peut se faire en deux étapes. La première
étape consiste à déterminer une suite 11nie de coef11cients hk vérifiant les conditions
(4.31) et (4.32). La deuxième étape permet de construire r/J de manière itérative à
partir de ces coeflicients ""·

Première étape: Construction des coefficientslzk


Nous allons donner une méthode qui pennet de construire les suites"" finies ayant
pour T.F une fonction H (v) de la forme :

(4.36)

où N E N* et Q désigne un polynôme réel que l'on doit déterminer de sorte que la


fonction H vérifie (4.31) et (4.32). Comme Q est à coettïcients réels, les nombres
complexes Q[ej 2""] et Q[e- j 2""] sont conjugués l'un de l'autre et on a donc :

1- cos (2r.v)
IQ(eP"''J1 2 = P( sin (r.u) 2 ) = P( )
2

où P est un polynôme à coefticients réels. Posons y !!o cos (r.v) 2 . La condition


(4.31) est alors équivalente à la condition suivante portant sur P:

yN P(l- y)+ (1- y)N P(y) = 1 et P(y);, 0 pour y E [0,1]. (4.37)

La recherche des fonctions H équivaut à celle des polynômes Q et donc à celle des
polynômes P solutions de (4.37). En effet. un tel polynôme vérifie P(O) = 1. i.e.,
Q(l) = 1 et donc la condition H(O) = 1 est bien véritiée. Le résultat suivant est
démontré dans l'exercice 4.5.
4.3 Décomposition sur des bases et paquets d'ondelettes 187

On peut vérifier que P(y) est une fonction strictement croissante sur JRc+ et donc
P(y),;; P(l),lfy E [O,l]. Par ailleurs, on peul vérifier que P(l) = crN-~I et par
suite P(l) < 22N- 2 .

Deuxième étape : Construction de r/J comme point fixe

La relation (4.28) signilïe que la fonction r/J est un point fixe de l'opérateur H de
L 1(IRC) dans L 1(IPi), détïni par
cç,

H(rjJ(r)) =2 L hkr/J(21- k). (4.40)


k=-00

:~ Dans la pratique, la suite hk est supposée tïnie, i.e. hk = 0 pour k < 0 ou k > N. Si
~ de plus. la suite"" véritïe les conditions (4.31) et (4.32), ce pointlïxe existe et il est
~ unique. On peul alors le déterminer de manière itérative comme limite de la suite de
=
o fonctions définie par la récuiTence suivante :
·o.
8
3
{ rb,+l = H(ÇJ,), r;) 0 (1) ~ fl(l) (4.41)
"
-g où l'on a choisi comme condition initiale (/Jo la fonction indicatrice de l'intervalle
=
8 [-l/2,1/2].
Q
188 4 • Méthodes d'analyse temps-échelle

Algorithme La construction de q) nécessite la connaissance de la suite lzk ayant


comme T.F la fonction H et cela nécessite donc la construction du polynôme Q. On
commence par choisir un entier naturel N non nul puis construire le polynôme P (y)
donné par (4.39). Ensuite. la factorisation de P(y) donne le polynôme Q(y) et donc
la suite lzk. On détennine finalement </J comme point limite de la suite 'i'n+I définie
par (4.41). On sait que la factmisation de P ne conduit pas à un polynôme unique
et elle consiste à choisir des zéros communs aux deux polynômes P et Q. Un cas
important consiste ù détenniner le polynôme Q et donc la fonction H qui corres-
pond ù la réponse en fréquence d'un tiltre de longueur minimale (ce qui correspond
à R = 0) el ù phase minimale (ce qui impose à Q d'avoir tous ses zéros à l'intérieur
du cercle unité). Ces deux conditions détenninent Q à un facteur de phase, ei2""" 0 ,
près. On peut alors choisir no pour que le filtre soit en plus causal. Les filtres H ainsi
obtenus sont à la base de la construction des ondelettes de Daubechies. Signalons
qu'on peut être amené ù imposer à </J de satisfaire des conditions particulières. À titre
d'exemple, les conditions proposées dans [81] sont plus simples que celles propo-
sées dans [37] mais les premières ne garantissent pas la continuité de rj!.

Exemple 4.3.16 Fonction échelle associée à la base de Haar


La base d'ondelettes connue sous la dénomination de base de Haar se déduit de
l'AMR de L 2 (lR) où Vj ,j E Z, désigne l'espace vectoriel, engendré par les fonctions

en esca1.1ers constantes sur des mterva


. Il es [ k) , k + l [ . ,;;' E d..~ pour 1. f-1xe.- D' apres
'
2
la définition de V0 , la fonction cjJ est égale à la fonction rectangle :

f1(t) = 1 si 0 o( 1 o( 1 et 0 sinon.

On peut aussi vérifier que la relation (4.28) est satisfaite en prenant la suite (izkl
1
définie par: /z 0 = /z 1 =0
et lzk = 0 sinon. On peut ainsi retrouver rb(!)= f1(1) en
utilisant la construction itérative proposée ci-dessus. En effet, si l'on part de la
condition initiale r;)0 (1) = f1(1- 1/2) une seule itération conduit à 7-i(r/,0 ) = ô 0 (1)
= r/J(I). On peut aussi partir de ,;, 0 (1) = f1(1) el observer la vitesse de convergence
de la suite </,, vers le point lixe n (1 - 1/2) qui est unique et indépendant de la
condition initiale.

4.3.4 Construction d'une base orthonormale d'ondelettes


Appelons \Vi l'espace supplémentaire orthogonal de Vi dans Vi+l· La définition de
wj se traduit par la somme directe suivante
(4.42)
4.3 Décomposition sur des bases et paquets d'ondelettes 189

où les espaces Vj et Wj sont en plus orthogonaux. La construction d'une base ortho-


nom1ale de L 2 (lft) revient à la construction d'une base orthonommle pour chacun
des espaces Wj. En effet, la propriété d'inclusion (4.20) des Vj conduit à la décom-
position de l'espace L 2 (lft) selon la somme directe suivante

EH~-oo Wj. est dense dans 2


L (1Pc).

Ainsi la réunion des bases de tous les W; conduit à une base orthonormée deL 2 (lft)
appelée base d'ondelettes. Comme pour la construction des bases des Vj, on
construit les bases des Wj à partir d'une même fonction ~· appelée .fimction onde-
lette. On définit alors cette fonction·~· à partir de dJ à l'aide de l'identité suivante ana-
logue à celle définissant r/; :
00

1/•(t) = 2 L gkr/J(2t - k) ou l/•(2u) = G(u)r/;(1/) (4.43)


k=~c,;:;

G(u) désignant la TF de la suite (gk) de C2 (Z). La fonction G ne peut pas être quel-
conque et les résultats suivants donnent un procédé pour choisir des fonctions G
conduisant à la construction d'une base d'ondelettes.

Exemple 4.3.17 Projections de rjJj+l.k sur ~/JJ.n et sur -~,!~.i., 1

On va établir les projections de rjJ.i+!.k sur cjJj.n puis sur ·1,bj.n· Partant de la relation
double échelle (4.28) et utilisant la définition de rjJj+l.ko on obtient:

~bj. 11 (t) = 2)/'2-~}J(]Jt -n) = 2.2.il 2 Lh 111 çb[2(2it-n) -m]


"'
= J221.i+li/ 2 L h,rj!(2j+l t - 2u- 111)
êX)
"'
= .J2 L
111=-X·
hm~2nÇJJj+l.m(l),

La même démarche conduit à :

0 gm-211 (/Ji+ l,m ( l) ·


"P..
8
B
.§.. Comme, on a des systèmes orthonormés, les projections de (/J.i+ l.k sur cbJ.k et sur ·-!Lj.k
sont données par :

(4.44)
190 4 • Méthodes d'analyse temps-échelle

L'orthonormalité du système {'1fi},d,k E Z) se traduit par la condition suivante ana-


logue à la condition (4.31) portant sur rp:

(4.45)

On peut également vérifier que l'orthogonalité des espaces l'J+ 1 et W;.1. 1 se traduit
par la condition

H(u)G*(u) + H(u+ l/2JG*(u+ 1/2) =O. (4.46)

On peut résumer les conditions (4.31) (4.45) (4.46) par la relation matricielle:

M(ll)M(I/)H = I, 1/ E [0, 1[ (4.47)

où M est la matrice donnée par :

M(l') !!, ( H (1/) G(l/) )


(4.48)
. H(l/ + 1/2) G(l/+ 1/2)

Deux filtres H et G admettant respectivement lz et g comme réponses impulsion-


nelles sont appelés .filtres miroirs en quadrature (QMF) si leurs réponses en fré-
quence H (1/) et G (1/) sont telles que la matrice M soit unitaire pour tout 1/, i.e., M
vérifïe (4.47). À titre d'exemple, les filtres dont les réponses en fréquences sont
reliées par :

sont des fïltres QMF. Comme


cc co
G(u) ~ /\e-J2r.IJLh'f:ei2Tr(l'+I/'2lk = /\ Lh7_k(-I)I-ke-J2ïollk
~co

les réponses impulsionnelles sont reliées par :


4.3 Décomposition sur des bases et paquets d'ondelettes 191

L'espace Wj s'interprète comme un espace contenant tous les détails apparaissant


au niveau de résolution j + 1. On peut dire aussi que Wj représente l'information
des détails qui viennent compléter l'approximation à l'échelle 2j pour obtenir l'ap-
proximation à l'échelle plus tine 2H 1 . Dans la pratique, les lïltres H et G sont sou-
vent des lïltres RIF, i.e., leurs réponses impulsionnelles hk et gk sont de support tinis
et dans ce cas les fonctions q) et ·1/' sont à supports compacts.

Exemple 43.19 Ondelette associée à la base de Haar


Nous allons construire la fonction ondelette ·1j! associée à la base de Haar. Dans
l'exemple 4.3.16, nous avons déterminé la fonction échelle r/J et les coefficients
l
ho = h 1 = :;: du tiltre H qui définit rb. Pour les coel'Jïcients gk qui délïnissent le

lïltre G on peut prendre, par exemple. gk = (-1 )k h'f_k et ceci à un coel'licient de


module 1 près. On obtient

et gk = 0 smon.

Finalement, la fonction ondelette est donnée par ·~;(1) = r/J(2t) -qJ(2t- 1) d'après
la relation (4.43 ).

Exemple 43.20 Ondelette associée à la base de Shannon-Nyquist


Soit une suite d'approximations -'j (t) d'un signal x(t). Cette suite contient de plus
en plus d'informations sur le signal x(t) si, par exemple, le spectre de chaque Xj(t)
est obtenu en multipliant celui de x(t) par une fenêtre rectangulaire de support
[-2j-I ,2j-I] de plus en plus grand. On délïnit ainsi une suite d'espaces d'approxi-
-~ mation:
·c
2
~
c

-~ Les ondelettes correspondant à cette AMR sont appelées ondelettes de Shannon-


8 Nyqu;st et cette dénomination rappelle le théorème d'échantillonnage des signaux à
2
.g_ bande limitée. En effet, tous les signaux de Vj sont à BL et peuvent donc être
s reconstruits, sans perte d'information, à partir de leurs échantillons pourvu que la
fréquence d'échantillonnage véritïe f~ ;;, 2j. Se plaçant à la fréquence limite, la for-
mule d'échantillonnage classique donnée par (4.18) conduit à :
192 4 • Méthodes d'analyse temps-échelle

co
s(t) = 'L,scrfk)rflèq\J_k(t), <PJ.k(t) ""2 1Psinc[r.(2it- k)].
-co

On peut alors vérifier que la suite rjJJ.k(t),k E Z est une base orthonormée de v1. La
fonction échelle associée à cette AMR est donc r/J(I) = sinc(r.l). La relation double-
échelle permet de voir que le tïltre associé H (u) est un passe-bas idéal de fréquence
de coupure 1/4. Comme filtre G(u), on peut choisir un fïltre passe-haut de fré-
quence de coupure 1/4. L'ondelette cherchée est donc donnée par:

r/•(t) =sine . cos (37rl) .


(7rl)
2 2

Exemple 4.3.21 Oudelettes à support bomé


Pour obtenir une AMR facile à mettre en œuvre dans les applications, Daubechies
[36] a construit des ondelettes à suport borné. On démontre que celte propriété est
satisfaite si, et seulement si, les tïltres associés sont de longueur tïnie. Les onde-
lettes de Daubechies sont à support minimal, i.e., les filtres de l'AMR asociée sont
de longueur minimale pour un nombre N tïxé de moments nuls. Leur construction
[361 conduit, pour une ondelette de support 2N - 1, à des filtres pairs, de longueur
2N et à déphasage minimal.

Exemple 4.3.22 Oudelettes biortlwgouales


Les filtres qui sont à la base des ondelettes de Daubechies ne sont pas à phase
linéaire et cela introduit une dissymétrie dans la fonction ondelette. On peut démon-
trer que les seuls filtres para-unitaires qui soient à phase linéaire et à réponse impul-
sionnelle tïnie sont ceux de Haar. Comme dans certaines applications (traitement
d'image), il est important que l'ondelette soit symétt·ique, on est obligé de chercher
des systèmes de fonctions paires mais qui ne forment pas des bases orthonormales.
On aboutit alors à la notion d'olldelettes biortlwgmwles. Le principe est classique et
consiste à décomposer le signal sur un système 'f/•J,k et à le reconstruire sur un autre
système '1/'111 •11 , ces deux systèmes devant vérifier :

< 1•J,k•lfm." >= 1 pour (j,k) = (111,11) et 0 sinon.

4.3.5 Décomposition et reconstruction : codage d'un signal


Nous allons expliciter les récurrences qui permettent de calculer les projections suc-
cessives d'une suite donnée sur les différents espaces Vi et WJ. Pour ce faire, asso-
cions à une suite d'échantillons, notée CJ+ J.k, k E Z, le signal de Vi+ 1 défini par:
4.3 Décomposition sur des bases et paquets d'ondelettes 193

00

c;+l (1) = L
k=~cc
c;+l.lc'/J;+l.k

qui sera noté simplement CJ+l· Soient c; et d1 les projections de c;+l sur les espaces
V; et W1 respectivement. On peut écrire d'une manière unique

c~;+ 1 = c~; + (~i


ou
'Xl

L
k=-00
(~i+l.k4)j+l,k = L
k=-00
Cj.k~!Jj.k + L
k=-00
dj,k'l/:i.k·

On se propose d'établir des relations de récurrence qui permettent de passer des


coefficients CJ+ 1 .k aux coefficients CJ.k et dJ,k et inversement. Désignons par H_ el
g_ les projections orthogonales de \lj+l sur v1 et W;. D'après (4.44), ces projecteurs
sont indépendants de l'indice j et on a :
cc
'H_(q)j+l.k) = :z=
n=-co
< çbj+l.k·9./Jj.ll
JJ=-·X
(4.50)

00 ·X

Ç_(c/Jj+l.k) = L < 'I\+J.k,"1hn > c/Jj.n = J2 L gk-2n'hn· (4.51)

Finalement, utilisant (4.50) et (4.51), on obtient les récurrences suivantes:


CXJ

Cj.n = J2 L c;+l,khk-2n ~ [cj+l.k * h_k)(2n).


k=-oo
CXJ

dj.n = J2 L Cj+l.kgk-2n ~ [é]+l.k * g_k](211).


k=-oo
=
=
Ces relations délïnissent complètement les projecteurs 7-L et g_ et montrent que
chacun panni ces deux opérateurs est équivalent à un système composé d'un lïltre
linéaire indépendant de l'indice j suivi d'un opérateur de décimation. L'opération de
décimation correspond à un sous-échantillonnage d'un facteur 2 et elle sera repré-
sentée par le schéma suivant.

g
194 4 • Méthodes d'analyse temps-échelle

Les projecteurs H_ el ç_ se traduisent alors par le schéma de la figure 4.2 qui


représente la décomposition de C)+ 1 sur les espaces orthogonaux et qui fait appa-
raître, sur chacune des deux voies, un filtre indépendant de j suivi d'une décimation.
Comme v1 et w1 sont orthogonaux et que leur somme est égale à Vj+1, les relations
(4.50) et (4.51) conduisent à la formule de reconstitution de t/>;+l.k:

CX.' co
c/Jj+l.k = -J2 L
n=-co
hk~"2n~bj, 11 + J2 L
n=-co
gk-2n··ljJj,w (4.52)

Figure 4.2 Décomposition : passage de Vj+l à V; et lv:-;.

Le résultat suivant précise la reconstitution du signal ci+ 1 à partir des signaux ci


et d; obtenus dans la décomposition directe.

Posant H ~ H+H- et Ç ~ Ç.1.Ç_, on obtient H + Ç = I. Ce résultat se traduit par


la relation suivante qui permet de reconstituer ci+ 1 à partir de ses projections sur Vi
et W;:

Cette opération est représentée par le schéma de la tïgure 4.3 qui traduit le passage
des espaces Vi el Wi à l'espace Vi+l·
4.3 Décomposition sur des bases et paquets d'ondelettes 195

Figure 4.3 Reconstitution : passage de vj et W; à vj+ 1.


Peut-on calculer de manière récursive toutes les projections d'un signal en utilisant
uniquement les coefficients hk et gk et sans avoir à déterminer les fonctions c/J et 'if' ?
La réponse est négative. En e!Tet, les relations (4.52) permettent de calculer toutes
les suites (d;.k hEZ pour j = J - 1, J - 2, ... , -oo à partir d'une suite particulière
(c.l.klkEZ· Or les CJ.k sont définis par

1
00

cu~ -oo x(t)r;o~.k(t)dt (4.55)

et leur calcul nécessite donc la connaissance de la fonction </J. De plus, ces relations
ne permettent pas le calcul des suites (dJ.k lkEZ pour j = .! + 1,J + 2, ... , +oo à
partir de (c.ulkEZ· La décomposition totale:
N DO

x(t) = L L
j=-Nk=-00
dJ.k'i'J.k(l) (4.56)

d'un signal x(t) sur la base '1/j·.J.: ne peut donc pas être déterminée récursivement à
partir de la connaissance d'une suite particulière (d.u hE=· Néanmoins, pour des
fonctions échelles q, à support compact, on peut choisir l'indice .! suftïsamment
grand pour que les <I'J.k puissent être identifiées à des distributions de Dirac. Dans
ce cas, les produits scalaires initiaux CJ.k. détïnis par (4.55), peuvent être approxi-
més par les échantillons du signal. On obtient alors récursivement la décomposition
(4.56) en admettant que d;.k = 0 pour k E 23 et j = J + J.J + 2, .... +oo.
Signalons qu'il est toujours possible de décomposer x(t) selon la relation suivante
qui fait intervenir les coeftïcients dJ,k et CJ.k :
•:x! rx·
0
'5..
x(l) =
i=.!+l k=-N
d;.k 'hk (1) + I:
ô k=-X·
3
0
~

j a) Codage d'une suite d'échantillons d'un signal


On considère une suite discrète d'observations (xk} à laquelle on cherche à associer
une autre suite (Yk) de sorte que l'on puisse reconstituer d'une manière unique (xk)
196 4 • Méthodes d'analyse temps-échelle

à partir de (_vk). Une méthode fondée sur l'AMR pem1et de résoudre ce problème en
introduisant deux filtres en quadrature et sans avoir à déterminer la fonction oncle-
lette. Le principe de cette méthode consiste à associer à la suite (xk), notée
(c;+ 1.klkEZ· où j désigne un enlier arbitraire fixé, le signal à temps continue défini
par:
00

Cj+1 (1) = L
k=~oo
Cj+l.k'!)J+i.k(t) E VJ+1 (4.57)

et de determiner ensuite les projections c; (t) et d; (t). On peut itérer cette procédure
de décomposition comme suit. Partant de la suite c;. on construit récursivement
C)-1 .... Comme les espaces V; forment une suite croissante vis-à-vis de l'inclusion,
les projections successive c;,CJ-1·· ... q, ... de c;+1 vérifient ck !!= h(ck+Il =
... = Pk(c;+1). Ces projections q sont donc redondantes contrairement aux pro-
jections d1 sur les espaces W; qui sont eux orthogonaux.
Dans la pratique, on part d'une suite c1 de !.N échantillons de V;. On détermine
alors une suite d;_ 1 de 2N- 1 échantillons de w1_ 1 et une autre, c;_ 1, de 2N- 1
échantillons de V;- 1. On recommence l'opération de proche en proche sur c;-1, ... ,
q. Cela revient à associer aux 2N échantillons un autre ensemble de 2N échantillons
donnés par 2N- 1 + 2N- 2 + ... +2k + 2k Les échantillons ainsi obtenus devraient
permettre une meilleure analyse de l'information contenue dans les échantillons de
départ. À titre d'exemple, les figures 4.4 et 4.5 illustrent la décomposition d'un
signal et d'une image respectivement. La tïgure 4.4 (respectivement 4.5), donne un
signal de départ (a) (respectivement une image) puis sa reconstitution à partir des
décompositions à l'ordre 4, 6 et 8.

' Signal de départ______,

IM~WW~
1

(a)

Signal recomposé6 ~?ignal recomposéS


1 ·_._---~ ,-

NWWJW~ lW~\~~~~ ·•
(c) (d)

Figure 4.4 Décompositions et reconstitutions d'un signal.


4.3 Décomposition sur des bases et paquets d'ondelettes 197

Image de départ 1mage recomposée 4

Figure 4.5 Décompositions et reconstitutions d'une image.

Exemple 4.3.24 Décompositiou d'uu sigual réel (électrocardiogramme)


Considérons un électrocardiogramme que l'on décompose utin d'extraire les détails
d'ordre 1, 2, 4 et le flou 4 en utilisant la base de Haar. La ligure 4.6 illustre cette
décomposition en donant le signal reconstitué à partir des 3 signaux détails et du
signal tl ou.

L.. --=.-------'
(a)

Flou 4 Détail 4

ILJJJjjJ

(e)

Figure 4.6 Décompositions et reconstitutions d'un signal.

4.3.6 Décomposition sur des paquets d'ondelettes


La décomposition d'un signal sur une base d'ondelettes discrètes fait apparaître, à
chaque niveau de résolution, deux signaux : un signal appelé signal détail (hautes
198 4 • Méthodes d'analyse temps-échelle

fréquences) et un autre appelé signal approximation ou signal !1ou (basses fré-


quences). Pour le nivau suivant, on continue la résolution à partir du signall1ou seu-
lement. L'idée de la décomposition en paquets d'ondelettes est de continuer à chaque
niveau de résolution la décomposition sur les deux signaux. La théorie des paquets
d'ondelettes est essentiellement dûe à V. Wickerhauser [125], de même que l'algo-
rithme de décomposition dans la meilleure base (« Best Basis ») qui lui est associée.
La théorie des paquets d'ondelettes peut être présentée en introduisant la notion
d'AMR comme pour les ondelettes. Le principe consiste à générer une famille de
bases possibles et de représenter le signal sur une base appropriée selon un certain cri-
tère.
La décomposition d'un signal sur une base orthonom1ale a souvent pour but de
faire apparaître certaines informations pouvant être contenues dans le signal étudié.
Le choix de la base à considérer peut jouer un rôle assez important dans cette étude.
La construction de bases de paquets d'ondelettes repose sur le théorème général sui-
vant qui permet de passer d'une base orthonormale à d'autres bases orthonormales.

Soit iHI 0 et iHI1 les sous-espaces fermés de iHl engendrés respectivement par les
vecteurs ce:;)~ f2n et (e/,l ~ hn+i, k E Z. On peut recommencer l'opération avec
les espaces Lfllo et iHI1 pour obtenir lHloo,iHlol d'une part et iHIIIJ,Ii-lh 1 d'autre part. On
itère ce procédé on gardant les mêmes coefficients à chaque étape. On obtient alors
une suite de sous-espaces IHit 1.E 2••••. f 111 , indexés par l'indice EJ,E:]., .•. ,E111 dont cha-
cune des composantes <j vaut 0 ou 1. L'algorithme qui petmet de construire la suite
des espaces iHlc,.c,,. .. ,E, est dénommé splitting a/gorithm et pennet d'obtenir tout un
ensemble de décompositions de l'espace de départ !HI en sommes directes. Il existe
des ctitères qui permettent de choisir la meilleure base et ce choix dépend du pro-
blème à traiter. V. Wickerhauser [125] propose des critères fondés sur la minimisa-
tion de fonctions, appelées fonctions de coût de l'information. Soit c une fonction
dell' dans IR. Unefonctùm coût de l'ùlfi:mnation est une application C de C2 (Z) dans
IR définie par
C({x, li)= L c(x,) et C(O) =O.

On peut citer les différentes fonctions coût suivantes [119] :


4.3 Décomposition sur des bases et paquets d'ondelettes 199

Nombre d'échantillons au dessus d'un seuil C'est la fonction qui associe à un


ensemble d'échantillons, le nombre d'échantillons dont la valeur absolue est supé-
rieure à un nombre E fixé :
C({x;]) ~ Card(xi tel que lxii> E}.

Concentration en norme 1r•, p < 2. On pose C((x]) ~Il x Ill'. On remarque que
plus cette norme est petite, plus l'énergie est concentrée dans peu de coefficients.

Logarithme de l'énergie On prend C((x;]) ~-Li log(lx;1 2 ) en convenant que


log(O) = 0 lorsque cela est nécessaire.

Entropie C'est la fonction définie par

E((xi)) ~- L Pi log(pi) avec

avec la convention plog(p) = 0 si p = O. Cette fonction n'est pas additive, mais elle
est reliée à la fonction additive :

par
E(x) =ll.t 11- 2 C(x) + log(ll x 11 2).
Minimiser E revient à minimiser C. La fonction entropie donne un renseignement
sur le nombre de composantes Xi de x qui ont une contribution signilïcative dans la
norme de x. On montre [ 125] que la fonction entropie est bien représentative de la
concentration du signal.

"l 4.3.7 Paquets construits à partir d'un filtre RIF


Soit deux lïltres RIF dont les réponses impulsionnelles. définies par
izk. 0,;; k,;; 2N- 1 et gko 0,;; k,;; 2N- 1, sont reliées par la relation (4.48).
Supposons que la T.F de lzk. 0,;; k,;; 2N- 1 vérifie (4.31), (4.32) et la condition
suivante :
"
-~ H(11) =f 0,11E [-l/3,1/3].
3
s
o. Introduisons alors la suite de fonctions détïnie récursivement par :
2N-! 2N-l
P2,(1) fA .fi L lzkP,(2t- k) et P2n+I (1) fA J2 L gkP,(2f- k)
k=O k=O
200 4 • Méthodes d'analyse temps-échelle

où la fonction initiale 'Po est un point tïxe de l'opérateur 'H+ de L 1(JRè) dans L 1(JRè),
défini par:
2N-I
'H+(x(t)) !!!o Ji L hk_t(2t- k).
k~ll

Lorsque 'Po appartient à L 1 (JRè) et vérifie Po(O) = 1, alors le point 11xe 'Po est
unique et sa T.F est donnée par:
2N-I
-
'Po(v) = TI v
Ho( ---c).
J=1 2J

Une fois la fonction 'Po construite, la suite complète des fonctions 'P, est détermi-
née en utilisant les récurrences ci-dessus et on a les résultats suivants.
1. Le support de 'Po est exactement [0,2N - 1] et les supports des 'P, sont inclus
dans celui de 'Po.
2. La suite double 'P,(t- k),n E N,k E Z est une base de L 2 (lP{).
3. La suite 'P,(t- k),2",;;k,;;2"+ 1 , extraite de la tùmille double 'P,(I- k), est une
base orthonormée de l'espace Wi introduit par (4.42).

Exemple 4.3.26 Système de Walsh


Considérons la fonction périodique s(t) définie par

s(t) = l,t E [0, 1/2], s(t) = -1,1 E [1/2, 1[.

et associons à s(t) la suite de fonctions délïnies par

où les E; désignent les coefficients égaux à 0 ou 1 apparaissant dans la décomposi-


tion de l'entier 11 sur la base 2, i.e.,

11 =co +c 12+ ... ci2i.


La suite V, (t) est appelée système de Walsh et elle peut être définie de manière équi-
valente par les récunences suivantes :

V2, (t) V,(2t) + V,(2t- 1)


V2n+I(t) V,(2t)- V,(2t- 1).

Cette suite corespond donc à un paquet d'ondelettes associées aux tïltres particuliers
dont les RI sont données par: ho= h 1 = h/2 et gu= -g1 = h/2.
4.3 Décomposition sur des bases et paquets d'ondelettes 201

La suite V, est une base orthonormée de L 2 [0, 1] ella suite double V, (t - k) est une
base orthonormée de L 2 (1R) [ 125],

43,8 Paquets construites à partir d'un filtre Rll


On se propose de construire les suites de fonctions P,,ll EN dans Je cas oü H et G
sont des tïltres QMF ayant des RI infinies. Les suites h, et gk sont donc de supports
inlïnis. On peut vérifier que les conditions initiales Po et P 1 peuvent être prises
égales à la fonction échelle r/J et à la fonction ondelette ''/' respectivement et que

P2,(tl=J'iL_h(P,(2t-k) et P2n+JUl=hL_g(P,(2t-k).
k k

Écrivanl. c..:es relations sous la forme :

P2,(1- Cl= J'iL_hJ-2tP,(2t- j) li!o H+[J'iP,(2t- j)](C)


j

P2n+l (1- Cl= hL_gJ-2tP,(2t- j) i!o Ç+[hP,(2t- j)](E)


j

et, tenant compte de la définition des P, et de l'équation (4.52). on obtient :

Introduisons, pour chaque n fixé, les espaces vectoriels Q 11 engendrés chacun par la
suite {P,(t- klhEZ> On a par délïnition

Q, f= {x(l): x(t) = L,wkP,(t -k)].


k

~ Toute fonction x(t) de Q, se décompose donc selon

hx(2t) = y(t) + z(l) avec y(l) E S12, et z(t) E Q2n+l (4.58)


0
0
0
-~ On démontre [125] que, pour 11 fixé. la suite {P,(t- k)], k E 23 est une base ortho-
~ normée de Q, et la suite double {P, (t - k)}, n E N , k E 23 une base orthonom1ée
.2 de C (lit), Introduisons l'opérateur ri détïni par:
"-

rlx(l) = J'ix(2t).
202 4 • Méthodes d'analyse temps-échelle

On peut déduire d'après r équation (4.58) que :

SQo =no ffi QI soit SQo- no= QI


et par suite

et d'une manière générale, on obtient par itération :

Finalement. on a :

Comme 6kQ0 tend vers L 2 (JR:). alors la famille double {P,(t- k)}. 11 EN .k E 23
est un système complet de L 2 (JR:).
D'après l'équation (4.58). on a: 6Q, = Q2, EB Q2,+1 et utilisant le même pro-
cédé itératif que ci-dessus. on obtient :

Ceci permet d'énoncer le résultat suivant qui est à la base de la décomposition en


paquets d'ondelettes.

Exemple 4.3.28 Bases de paquets d'oudelettes particulières


De même que pour les ondelettes. on peut considérer qu'un signal discret est la pro-
jection d'un signal continu dans l'espace Q 0 . Ainsi on peut représenter la décompo-
sition en paquets d'ondelettes par un schéma bloc donnant les différentes possibili-
tés de choisir une base. Parmi les bases possibles on peut citer les trois suivantes.
4.3 Décomposition sur des bases et paquets d'ondelettes 203

1. Base du type Walsh qui correspond à la décomposition :

L 2 (1R:) = Qo EB Qt EB Q2 EB · · · EB Qk EB · · ·

2. Base d'ondelettes qui correspond à la décomposition :

3. Base en sous-bandes qui correspond à la décomposition :


2 K -K K K
L (lR:) = 5 QoEBrl Qt EB5 Q2 EB ··· EB5 QJ EB ···

Exemple 4.3.29 Décomposition sur des paquets d'ondelettes


Soit (xL.klkEZ la suite des coefficients de x(t) sur 5LQ 0. On se propose de déter-
miner les coeftïcients de x(t) sur les espaces r)kQ,. Posons:

"'
r11.j.k (l)b7J/2<n(71
= - rn - t ')
-Il

et

.n.j
.tk 6
=< ·p-ll,j,k (t ) . ).:·( t ) > .

Alors. on a les relations de récurrences suivantes [111]:

.2n.j~t _ .,_, [( }1.)) ·]('·) t .2n+l.)~t _ G [( .n.j) ·]('·)


.\k - 1 t.+ .tf {: Il C .tk -Y+ .\{ C Il

oli J-1.+ et (h désignent les opérateurs définis par (4.53 ). Soit c; le coeftïcient de rang
i de la représentation binaire de 11. Alors on a pour tout k E Z [ 1251 :
_n,} _
.tk - F:f F:cL-J [.
.\
]('·) pour 0 ~./· ~ L , () ~Il~...oL~;·
1 • • • Il11

où Fo Il= 'H+ et Ft Il= Ç.1.. On peut donc. à partir des coefficients 1. choisir pam1i xt
toutes les bases possibles, la base qui convient le mieux au signal étudié x (1). Une
fois la base choisie la décomposition en paquets d'ondelettes se compose des coel'-
ficients du signal dans la base et d'un arbre permettant une représentation de cette
base.

4.3.9 Systèmes d'ondelettes redondantes


La décomposition d'un signal en ondelettes orthogonales assure la non redondance
de l'information. Cependant, cette redondance peut parfois être utile en traitement
du signal. Ainsi la plupart des méthodes de représentation temps-fréquences d'un
204 4 • Méthodes d'analyse temps-échelle

signal sont très redondantes (T.F à fenêtre glissante, distributions de Wigner-


Ville ... ). L'idée de la décomposition en ondelettes redondantes est de ne pas effec-
tuer du tout des décimations. De ce fait on a à chaque résolution le même nombre
de coefficients pour les détails et les flous que pour le signal initial. De plus la repré-
sentation ainsi obtenue est invariante par translation. ce qui n'est pas le cas pour la
transformée en ondelettes orthogonales qui fait intervenir la décimation et qui ne
correspond pas à un filtrage linéaire. Une fois la décomposition en ondelettes redon-
dantes obtenue, on doit effectuer un choix de base. L'algorithme de reconstruction
du signal est analogue à celui de la décomposition en ondelettes discrètes orthogo-
nales. La seule modil1cation apportée est le choix de l'interpolation conespondant à
la base choisie. On peut donc à partir des coefl1cients xt
1 choisir, parmi toutes les
bases possibles, la base qui convient le mieux au signal étudié x(t). Une fois la base
choisie la décomposition en paquets d'ondelettes se compose des coefficients du
signal dans la base et d'un arbre permettant une représentation de cette base. Étant
donné un signal s(t) à support compact, l'analyse et la reconstruction de ce signal
fondée sur les filtres QMF déduits d'une AMR de L 2 (iPL) est généralement précédée
d'une mise en forme du signal (zéro-padding: prolongement du signal par des zéros
ou autre) afin d'atténuer les effets de bords présents lors de la reconstruction du
signal. Ces effets de bord ne permettent pas une reconstruction exacte et ceci peut
s'expliquer par une mauvaise conélation sur les bords. L'utilisation des ondelettes
de " bord » (edge wavelet) est une solution apportée par Daubechies pour réduire
ces effets perturbateurs. Cette approche s'inspire des travaux de Y. Meyer [88] [89]
sur l'intervalle. Signalons aussi l'existence d'autres méthodes fondées sur l'utilisa-
tion du système de Franklin, obtenu en orthogonalisant le système de Faber qui per-
mettent déliminer les effets de bord.

EXERCICES ET PROBLÈMES CORRIGÉS

4.1 (Formule de Moyal pour la transformée en ondelettes)

La transformée en ondelettes associe à toute fonction x(t)de L 2 (lP/) la fonction de


L 2 (lP/ 2 ) à deux variables réelles a et !J dél1nie par:

O,(a,b) ~ j"'
-N
x(t) ,;,;;.f,(t)dt avec 1/•,.h(t) ~ MI/J[a(l- b)].

1, Exprimer O.,· (a, b) en fonction des T.F de x et de ,;,, .h (t) .


Exercices et problèmes corrigés 205

2. Partant de l'expression obtenue pour O,(a.b), démontrer que:


- v 1
~;(-JI-
< l'J,(a,b).O,.(a.b) >= { X(v)Y(v)''l-a-.
· lv a lai
Démontrer que l'on a :

!"'-œ
,-...,

1'1'(~)1-
--"---da =
lai
lJ .,

j'"' ll/•(u)l2 du
-ex lui
6
= A,;,.

et en déduire la formule de Moyal.

4.2 Opérateur trame et opérateur adjoint


On se propose ùe démontrer quelques résultats sur les opérateurs trame et les opé-
rateurs adjoints.
1. Établir les propriété (1 ), (2) et (3) de la Proposition 4.2.3.
2. Expliciter l'expression de l'opérateur adjoint de rL. On notera cet opérateur par
H+ et on rappelle que, par délïnition de l'adjoint. on a :

< rL(x),(yk) >=< (xK),H.1.(vk) > (4.60)

où (x1J et (l'k) sont deux suites quelconques de C2 (:ï::). Déterminer aussi l'adjoint
!h de Ç_.
3. Démontrer la relation suivante en utilisant les définitions de la section 4.3.5 :

(4.61)

et en déduire (4.54).
4.ltérer la relation (4.61) pour établir la fommle:
q
-u'l+ 1 ( •
1 L+ éj-q
)
+ L....t
'\'oui "
1
f )
L+Y-t- ( (j-i = Cj-t-1. (4.62)
'0 i=O
0
'&i
·o
~ 5. On pose H !!= H+H- et Ç !!= Ç+Ç_, Partant de H + Ç =!,établir la relation:
H"+' + [H'~ + ... +H 0 ]Ç = !. (4.63)

4.3 Unicité de la fonction échelle


On suppose que la fonction cp intervenant dans une AMR vérifie (4.26).
206 4 • Méthodes d'analyse temps-échelle

1. Démontrer que la fonction échelle <P vérilïe aussi (4.26).

2. On suppose que <P vé1ifie la condition (4.25) et la suivante:

, Bm
\fm E l\1,3Bm > 0,
1
lti?A
lrb(l)l-dl :;; - .
' Alli

Démontrer que s'il existe une autre fonction échelle rp0 associée à la même AMR et
vérifiant les mêmes conditions que <P. on a forcément

r/Jo(u) = C(u),/J(u)

où C(u) est une fonction régulière C'".

4.4 Filtre H à réponse impulsionnelle finie

Soit <P une fonction de période 1 vérifiant les conditions :


co
L l;);(u+k)l 2 =1 et ;);(2u)=H(u););(u)
k=-C)O

où H (u) est la T.F d'une suite d'énergie finie.


1. Démontrer que l'on a :

2 2
IH(u)l + IH(u+ 1/2)1 = 1. (4.64)

2. On suppose que H (u) est de la forme

N
avec Q[z] "'= L a,zk
11=0

où les a, sont des réels et a, =f O. On pose y "'= cos 2 (r.u). montrer qu'il existe un
polynôme à coef11cients réels P tel que :
1Q(zJI 2 = P(zJ
où z = ej 2"" est un nombre complexe de module 1 et que la relation (4.64) peut se
mettre sous la fom1e :

yN P(l- y)+(!- y)N P(y) = 1, (y E 10,1]).

3. Démontrer le lemme de Ries::. qui s'énonce comme suit. Soient a 0 .a 1, ... ,aN une
suite de N coef'tïcients réels tels que
Exercices et problèmes corrigés 207

N
G(u) ~ L ""cos (2r./w) > 0 pour 11 E [ -1/2, 1/2].
11=0

Alors. il existe des réels ho ,/z 1 , ••• ,lz N tels que :


N
G (u) = 1 L hkej 2""'f.
n=O

4. Réciproquement, appliquer le lemme de Riesz pour démontrer que, tout poly-


nôme P vérifiant les conditions énoncées dans la question 2 conduit à une suite de
coefficients réels lzk qui satisfont à (4.64).
5. Que peut-on dire de l'unicité de P.

4.5 Polynôme générateur de la fonction échelle

On se propose de déterminer les polynômes solution de l'équation :

.\'N PN(I - v . = L
•. ) + ( ! - .v)N PN(V) (4.65)

Le nombre de combinaisons de 11 objets distincts pris p à p sera noté c;;.


1. Démontrer les identités suivantes

k
?Cn-I
- 1n-I - -en2n e-t "'cj
L "
n+J = cn+k+I' Vn ;, 1 Vk ;, L (4.66)
j=O

2. Démontrer que. Vn ;, 0 et Vy, on a:


"
. ~ "\'cJ .[vj(l- -v)"+ 1 + (1- .v)jv"+
S,(v) 1] = L
L liT}. -
(4.67)
j=O

Il suffira de démontrant que So(y) = 1 et que S,~ 1 (y) = S, (y).


3. En déduire qu'une solution de (4.65) est donnée par:
N-I
s
=
.;;!
PN(Y) ~ L
11=0
c~'-I+iYi·
"
8
E
.g_ 4. Démontrer que l'ensemble des polynômes de degré strictement inférieur à N
solution de (4.65) est réduit au seul polynôme PN.
5. Démontrer que tout polynôme de degré quelconque solution de (4.65) peut se
mettre sous la forme :
208 4 • Méthodes d'analyse temps-échelle

P(y) = PN(Y) + yN R(y)


où R ( ~- y) est un polynôme impair par rapport à y.
SOLUTIONS

4.1 1. On part de l'expression de O., dans le domaine lréqucntiel (4.6). On obtient:

< Ox,L'\- >::@: 1 a,h


< x(t), 1/}a_h(t) >< 'l,ba,b(T), y(T) > dadb

= [ { X(/J)Y(f)'_I__'J.(~J'J.([_)'e-j 2 ""u·-IIdadbdiidf
, a.h lu..r lai a a
= [ { X(!J)Y(f)'_I__'J.(~l7•([_)'<5(1J- fldad!Jdf
• 11 lu._r lai a a
- /! ,

= ! .

• 11
X(!J)Y(li)' 1-'-
o
~·(-)1-
1
la 1
-cicu/ii .

2. Distinguant les cas u > 0 et 11 < 0, et introduisant le changement de variable 11 = IJ j a. on


obtient directement :

Cette intégrale est donc indépendante de u et ceci termine la démonstration.

4.2 Propriétés des opérateurs trame 1. Pour établir le point ( 1). il suftït d'exprimer
< x.V"-V(y) > en faisant appaniître rru. On obtient:

<x. V"'Vy > =< Vx. Vy >= L <x. v~,.>< y. VJ.; >
'
= L <x. (I./'LI)- 1 a, ><y, (U'1.1)- 1 u, >
'
= L
1 1
< (l.t"Ul- x. "' >< (U''/1)- \·.u, >

'
=< U(U'U)- 1 x,U(lrrn- 1 y >
=< II'I/(1t'/.l)- 1x. (1./"11)- 1)· >
=<x. (11'11)- 1 y>.

Le point (2) traduit toul simplement la définition. En effet. on a pour tout x et tout k:
V(xh =< x.(U'l{)- 1 (ud >=< x.(/.I'U)- 1 (.tl,u, >= U(l/"U)- 1 (.rh. Le point (3) est une
conséquence immédiate du point (2).
Exerdces et problèmes corrigés 209

2. Tenant compte de la définition de 1{_, on obtient:

< 1i_(xk).(yd > =< Lx,Jln<!.k,Yk >= L Lxulzn<!k.Yk


Il f.: Il

D'où l'expression de 1{+ par identification. Le même procédé permet de déterminer Çh.
3. Comme Vj+l = V.i EB W.i et que les bases considérées sont orthonormées, on obtient:

L]+l.rr = Lcj.k < (j)j.k·r/J.f+l.n > + Ldj.k < ·t/'j,kJ;6.i+l.'r >


k k

= L cpil,_o; + L dpg,_, = 'H.,.k;l[n] + Ç+(d; l[n].


• •
D"où (4.61 ). Remplaçant cj par 'H_(c;+l) et d; par Ç_(c;+ 11. on obtient:

c;·l·l." = 'H+'H-[cj+ll(n) + Q.,.Ç_]<]+<l(n)


= I'H+'H- + Ç+Ç_]Jcj+,](n)
Cc résultat étant vrai pour tout n. on obtient la relation (4.54).
4. Remplaçant t~; en fonction de Lj-1 et dj-1 dans (4.61 ). on obtient :

'H+I'H+(cj-1) + Y+(dj_,)] + Ç+(d;) = c;+l·

Ce qui donne

L'itération de cc procédé conduit à la relation (4.62).


5. Comme 1i + G= !. on obtient 'H:!. +HG+ G = 1 puis de proche en proche la relation
(4.63).

1. Évident puisque les deux fonctions sont proportionnelles.


2. Si ô et ô 0 sont deux fonctions échelle associées à une même ANIR. elles sont reliées par
l'une des 2 relations équivalentes :
::x.·
<; 0 (f) = 2 L c~r/J(f- k) ou (/J0 (11) = C(llkJ(It).
k=-X

C(u) est une fonction de période l. D'oü:


~ ~

L
k=-'X
10o(1!+kJI 2 =1C(i'll
2
L
k=--..:..·
J0(1!+ki]
2
.

Tenant compte de (4.25), on obtient jC(ull:!. = l. Par ailleurs. les ri){t- k) étant orthonor-
mées, les coefficients ck sont donnés par:
210 4 • Méthodes d'analyse temps-échelle

L'inégalité de Schwarz conduit alors à :

ct tenant compte de la majoration vériJ-ïée par (jJ, on obtient:

Cette majoration étant vraie Vm, les coefiicients de Fourier sont donc à décroissance rapide
et par suite C(11) est une fonction régulière Cx'.

4.4 1. Remplaçant u par 2u dans (4.25), on obtient:


:x; x
L 1~(2u+2k)l + 2
L 1~(2u+2k+ 1)1 2 = 1
k=-cç. k=-oc·

Comme H est de période 1, la relation double échelle conduit à:


rx; N

IH(uJI
2
L
k=-œ
l~(u+ 1;)1 2 + IH(r/+ 1/2)1 2 L
k=-oc
l~(u+ k)l 2 =!.

Ce qui donne la relation (4.64 ).


2. Comme Q est à coefficients réels, les nombres complexes Q[ei1 m'] et Q["e-j 2" 1' ] sont
conjugués l'un de l'autre. Par suite, on a :
1 Q(e.i 2"")] 2 = P[yJ avec y~ cos (7rv) 2

où Pest un polynôme à coefficients réels vérifiant :


P(v) ;;, 0 pour y E [0.11. (4.68)

On obtient alors IQ[ej 2~ 1 "+hl 2 = P[ sin (m'J'] el donc la relation (4.31) prend la
forme:
yN P(l- r) + (1- r)N P(!') = 1. (4.69)

3. Lemme de Ries: On a :
N
G(u) = ao +~ L ak(e.i7."kl' + e.i?.,ku)
- 11=0

J
= ej7.,.Nu[a(~.i7."N" + 7
{ N-1
L aN-ke_;7.,.,kl' + 7 L nke.i2,.,(N-kli'J
N

- n=O - n=l
N-! N
= ao~.
_N
+ 7] "\'
LllN-k~.
_k
+ 71 "\'
La"".N+k =6 P(- 1·1 = l .
~J, pour~·
- n=O - 11=1
Exercices et problèmes corrigés 211

Le polynôme P(::;) est un polynôme à coefncicnts réels de degré 2N et vérifie l'identité


2
:. NP(z:- 1 ) = P(::.). Alors si ::.i est racine de P, ::- 1 est aussi racine de P. Regroupant N
racines d'un côté et leurs inverses de l'autre. on peut meure 1P(::)l sous la forme:

IP(:)I = IQ(:)I' pour 1:1 = l

où Q est un polynôme de degré N. Finalement, le polynôme Q donne les coefficients


ho .fi 1.... • hN recherchés.
4. Réciproquement. tout polynôme P vérifiant les 2 conditions (4.68) et (4.69) permet de
déterminer un polynôme Q et conduit donc à une suite de coefficients réels hk qui satisfont
à (4.31 ).

5. Le polynôme Q n'est évidemment pas unique. Il y a en effet autant de polynômes Q que


de façons de choisir N racines parmi les '2N racines de P.

4.5 1. La première relation se déduit des deux identités classiques suivantes

1
et C''
Il
+cp+! =
Il
c''+
1!+1'

La deuxième relation est évidente pour k = 1 et si on la suppose vraie pour k. on établit


immédiatement qu'elle est aussi vraie pour k + 1 en utilisant l'identité classique :

c"n·H+l _L
'
ck+l
n+k+l
= c"u+k+2'
2. On a S0 (y) = l et
JJ-1

s"_, (y)= :z= c;:_,+iLvi o - y>"o -v+_,.>+ ( 1 - v)iv"o --" + v>J


j=O
11-1
='\'ci_
~ 11
.[ri(J- v)"+' +(1-v);,,"+'l
l+J- - - -
j=fl
n~l

+'\'ci
~
.[vi+ 1( l - .v)"+'+ ~v"+'o- -v)j+l)]
11-l+J-·
j=O
//-[

+'\'ci
~
.. r,.J+'(l- ·v)"+
lr-1+! . - ·
v"(l- 1')i+ 2 [.
.
i=O

Développant les sommes et utilisant le relation (4.66), on obtient Sn_ 1 (y) = S'11 (_r) et ceci
"
·u. termine la démonstration.
s
3 3. Ce résultat se déduit de (4.67).
_g
o.. 4. Cherchons maintenant toutes les solutions de degré < N que l'on note :
'
212 4 • Méthodes d'analyse temps-échelle

Pour obtenir les conditions que doivent satisfaire les Cff, il suftlt d'écrire que les cocfftcients
du polynôme :

O(y) là yN P(l -y)+(! - y)N P(y)- 1

sont tous nuls. Considérons dans un premier temps seulement les monômes de degré < N.
Ils sont donnés par le développement de(!- yiN P(yl- 1 puisque yN P(l- y) est divi-
sible par y .v. Ce développement conduit aux conditions:
i-!
Cfo = l et Cfi = L(-l)i-n+lc;\-;-nqn. i = l, ... . N- 1.
n=O

Or ces conditions déterminent de manière unique les coeftïcients qi. Comme PN est solu-
tion, les Cfi sont nécessairement les coefficients de PN, les coefficients des monômes de
yN P( 1 -y) sont identiquement nuls et la solution PN est unique.
5. Toute solution de (4.65) se met donc sous la forme
Q(_v) = PN(Y) + YN R(y)
En écrivant que ce polynôme satisfait (4.65), on obtient: R(l -y)+ R()'i = 0 soit

R( ~- r) + R( ~ +y) = 0 ce qui signilïc que Rest antisymétrique par rapport à 112.


Chapitre 5

Méthodes d'analyse polyspectrale


et applications

5.1 STATISTIQUES D'ORDRES ÉLEVÉS ET POLYSPECTRES

Traditionnellement, les méthodes de traitement du signal sont fondées sur les


moments statistiques d'ordres 1 et2 (SOS). Ces moments définissent complètement
les signaux Gaussiens mais restent insuftïsants pour décrire les signaux plus com-
plexes. Pour de tels signaux. il est nécessaire de prendre en compte les statistiques
d'ordres é/erés (HOS ). i.e., les moments d'ordre supérieur à 2 ou bien leur TF qui
sont appelées polyspectres. Plusieurs raisons ont poussé les chercheurs et ingénieurs
à utiliser les polyspectres durant les 30 dernières années. En traitement du signal,
des méthodes fondées sur les SOS ont été reconsidérées en introduisant les HOS.
Ceci a conduit à des applications pour les problèmes de séparation de sources 127]
1351 194] [73]. de traitement d'antennes [40]. de classitïcation. de détermination
d'harmoniques. d'estimation de retard. de détection. d'identitïcation. de déconvolu-
tion aveugle et d'égalisation. Comme la détermination des pol yspectres devient rapi-
dement compliquée dès que l'ordre p dépasse 2, dans les problèmes pratiques on se
limite souvent aux cas p = 3 etp = 4. On démontre dans [441 que les coupes du
trispectre p = 3 permettent par exemple de détecter la présence de modulations
d'amplitude gaussiennes et ceci est impossible à faire en utisant le spectre.
Cependant. pour les signaux ayant des distributions symétriques. le trispectre est
identiquement nul et il existe des signaux pour lesquels le module du trispectre est
très petit. Pour de tels signaux, le bispectre est insuttïsant et l'on doit utiliser des
214 5 • Méthodes d'analyse polyspectrale et applications

polyspectres d'ordre supérieur à 3. Dans la pratique, on dispose seulement d'un


ensemble d'observations limité à partir desquelles, on doit estimer le poyspectre.
Les méthodes classiques d'estimation du bispectre ont été largement étudiées dans
le contexte des statistiques [115] [26] [122] [112] et leurs extensions à l'estimation
des polyspectres avec des applications en traitement du signal ont fait l'objet de tra-
vaux récents [95].
Dans cette section, on va exposer, brièvement et sans démonstration, les tech-
niques classiques d'analyse polyspectrale d'un signal. Pour plus de détails, on peut
se reporter aux références qui seront indiquées.

5.1.1 Moments et cumulants d'une variable aléatoire réelle

a) Variable monodimensionnelle
Dans la suite, les variables aléatoires seront représentées par des lettres majuscules
ou minuscules selon le contexte. Comme, on l'a déjà vu. la fonction caractéristique
d'une Y.A scalaire x est définie par :

et les moments de x par :

Pk -à E [·'.k] , ,,.. -- 1.~, •...

Ces moments peuvent exister ou ne pas exister. Si les Pk existent pour


k = 1,2, ... . p, la fonction rp(u) admet le développement suivant:

p ·i
rjJ(u) = ""' 1
L.. ':-tt';ll
1.
+ o(lul"l
i=O l.

et elle est continue en u = 0. Il existe donc un réel positif â tel que la fonction

1/!(u) !}o Log(q\(u)), 1/'(0) = 0

soit définie pour lui < 6. La fonction 1/!(u), dénommée fonction caractéristique du
second espèce, admet alors le développement suivant :

~'(li)=
""'J
p
. .+ o(lul"l
·i
L.. -=ïcum[x']u'
i=O l.

où les nombres cumlx; 1 sont appelés cumulants de x.


5.1 Statistiques d'ordres élevés et polyspectres 215

b) Variable multidimensionnelle
Soient x;, 1 ,::; i ,::; p les composantes d'un vecteur aléatoire réel x. La fonction
caractéristique de x est définie par :

S'il existe un réel positif 11 tel que

E[l .\1··l"l < oo, pour 1·-lry


- ·-·· .• • p

alors, pour tout vecteur n ayant pour composantes des entiers n; vérifiant
l'
Il nIl li= L 111;1 ( 11
i=l

on a EUx;'' ... x;: Ï] < co et les dérivées partielles


1

existent et sont continues. La fonction 1/J(U) admet donc le développement de Mac-


Laurin suivant

Comme 1jJ(U) est continue en u = 0 et 1jJ(O) = 1, il existe un réel positif r\ tel que
rjJ(u) =f 0 pour Il u Il< rl. On peut. comme dans le cas d'une variable scalaire. déli-
~ nir dans ce domaine la seconde fonction caractéristique par :
~

3
0
4•(u) !'= Log(r/J(u)). 1/'(0) =O.
:]
~ Si Il n Il( 11. les dérivées partielles de lj• 1" 1 ••• .. "•• 1(u) existent et sont continues. Le
§
o développement de Mac-Laurin de 1/•(u) s'écrit sous la forme
0
!S...
8 'IIJ+ ... +IIp
3
..ê .! 1 "1 1 ••••
cum_x • xfl
"l' 1u"11 .• • u11"l' + o (Il u Il" l
~

(J:-nJ+ ... +nl'· n


n 1 1.... 11 1,.1
~
0
0

~ où les réels cum[x~ 11 •••• • x;:~·-1 sont appelés cumulnnts de x.


216 5 • Méthodes d'analyse po/yspectrale et applications.

Pour les vecteurs non centrés, si J'on pose E(x) ""rn, les moments et les cumulants
de x se déduisent de ceux de la variable centrée x - rn en utilisant les propriétés
(5.2) et (5.1).
Considérons le vecteur aléatoire x de dimension p. Pour un p-uplet fixé
[n 1 , ••• ,n pJ, le cumulant cum[x~ 11 •• •• ,x;; 1'] est une fonction des variables x 1 , • . . ,xfi
que l'on notera :

[ -"'1 , ••• ,.\{-""1"=


CUI11.t 1 . [· ·]
CU1TI111 , ••• , 111, J.:], . . . ,.\p.

Considérons maintenant le vecteur x de dimension q < p et cherchons la relation


entre les deux fonctions cum 111 ..... nl'fxJ .... . xp_l et cum 111 ____ 1111 [XJ, ..• • xql- La
Propriété (5.3) montre que :

Par exemple, on a cum[x;'' ,x~] = cum[x;'', Il = cum[x;''], le premier terme de ces


égalités apparait dans le développement de 1/\,x, (u.v) et le dernier dans celui de
~\, (u). Soulignons que Je terme cum[x 1x 2 ] ne peut pas apparaître dans le dévelop-
pement de la seconde fonction caractéristique du vecteur x. En effet. ce lenne n'est
pas un cumulant associé aux composantes de x, mais c'est un cumulant de la
variable produit y= Xt-'2· Par contre. le terme E[.ttX2] apparaît dans la fonction
caractéristique de x et c'est évidemment un moment de x.
Nous allons présenter les principales propriétés des moments et des cumulants et
donner ensuite les extensions de ces deux notions aux Y.A. complexes et aux
signaux aléatoires.
1. Les moments et les cumulants sont des fonctions symétriques, i.e .. pour tout i.j
appartenant à [ 1. ... . p 1, on a:
5.1 Statistiques d'ordres élevés et po/yspectres 217

2. Les moments et les cumulants sont des l'onctions multilinéaires, i.e .• pour tout
i E { 1. .... p} et a 1 E lR. on a :

E[xt ... a,x, ... Xp} =a, E[xt ... Xi ... x 1,]

E[xt ... (x, +Yi) ... Xp] = E[xt ... x, ... x 1,] + E[x1 ... Yi ... Xp]

et

cum[XJ , ... ,a; x;, ... ,xp] = a;cum[x 1 , ••• ,x;, ... ,xp]
cmn[ ... ,(x1 +y;), ... ]= cum[ ... ,x1, .. •J + cum[ ... ,y,, ... ].

3. Si la suite de V.A XJ, ... ,xi' est indépendante de la suite YI·· .. ·Yq· on a:

E[XI ... Xp_\'J .. ·Yq] = E(XI ....'Cp).E(yJ .. ·Yq)

et

cum[xt +YI, ... ,x"+ v"]= cum[xJ .... ,xl']+ cum[yt , ... . y"], p ~ q.

La dernière propriété n'est pas vraie pour les moments.


4. Les moments de x+ a où a est un vecteur déterministe se déduisent de ceux de
x en utilisant la relation (5.1). Les cumulants d'ordre 11 > 1 sont indépendants de
toute translation a déterministe sur x. Ce résultat est une conséquence immédiate de
la relation (5.2).
En général, on introduit les notations condensées suivantes où n désigne le vec-
teur dont les composantes sont les entiers 11 1 •. •• ,II p·

.1, ... x·"''J


t'· x [nl =" E[ ·"' fi , . l' n '1
é_r
6 '
= CUJll [.t·"' , ... ,.\.''l'
1 11
1
!.b. 1 1 Il ') 6 Il.1
n. -IIJ., ...• llp.. ( 111 ~ = m!(n-m)!'

Utilisant les développement de Mac-Laurin de 'f' et •/• et tenant compte du lien entre
c
c
c
ces deux l'onctions, on peut établir différentes relations entre les moments et les
eL cumulants (voir Exercice 5.1) [76] [69] [93] [86].
s
~
o. 5.1.2 Extensions au cas d'une variable complexe

Pour des raisons pratiques. la notion de V.A à valeurs complexes joue un rôle impor-
tant et apparait clans un grand nombre de traitements du signal. Les définitions de
218 5 • Méthodes d'analyse polyspectrale et applications

moments de cumulants et de V. A gaussienne. ont étés introduites dans le cas com-


plexe en utilisant des démarches plus ou moins différentes [ 107]. On peut introduire
la notion de fonction caractéristique classique qui a été généralisée comme suit. Si
z est une V. A réelle ou complexe, sa fonction caractéristique est détïnie par :

"' ( -) ~ E[ e-4nvc+wcl] ,
'+'::: W,lD = p = -1
où w est une variable déterministe complexe et w le complexe conjugué de w. La
fonction <!>,est donc une fonction des deux variables complexes w et w qui prend
des valeurs réelles. Pour les variables réelles, z =x, <!>, est reliée à la fonction
caractéristique classique par :

où u est une variable réelle. Ainsi cette extension penne! d'avoir une seule détïni-
tion de la fonction caractéristique qui est valable aussi bien pour des V.A à valeurs
réelles que complexes. En particulier, les concepts de moments. cumulants, variable
gaussienne seront définis sans distinction entre le cas réel et le cas complexe. Dans
la suite. nous allons rappeler les principaux résultats concernant ces notions en se
plaçant directement dans le cas d'une VA vectorielle. Associons au vecteur de
dimension 2p :
T [:, T T T
tg, (x 1 •... ·-'p•l'l· ... ·Yp) = (X ,y ) (5 .4)

dont les composantes sont des V.A réelles, le vecteur aléatoire complexe de dimen-
sion p dél1ni par :

(5.5)

La loi de probabilité de t est complètement détenninée par sa fonction caractéris-


tique classique :

(5.6)
li est clair que. dans le cas général, la fonction r/! 1 ne peut pas S exprimer seulement
1

en fonction des p variables complexes déterministes :

w; ~ ll; + jv;,; = l. ... . p (5.7)

ali les ui et les Vi désignent les composantes des vecteurs u et v respectivement. La


fonction <tJt peut cependant s'exprimer en fonction des wi et de leurs complexes
conjugués wi. Ceci conduit à la définition suivante qui étend naturellement aux cas
des vecteurs complexes la fonction caractéristique classique.
5.1 Statistiques d'ordres élevés et po/yspectres 219

La fonction caractéristique d'un vecteur aléatoire complexe z est la fonction des


variables complexes w,W détïnie par:

<P,(w,w);;, E [exp(f(wflz + W11 z)) J= E[exp(j Re(wHz))]


où W désigne le complexe conjugué de w et w 11 le transposé de W. Si z est réel. on
prend w = u réel et sa fonction caractéristique classique est donnée par :

</J,(u) = <P,(u,u)

Les définitions des moments et des cumulants, données dans le cas réel, peuvent
s'étendre au cas complexe comme suit. Soit~;, 1 ,;; i ,;; p, un ensemble de p V. A et
supposons qu'il existe un entier n tel que :

E[l~;l"l <co. pour i = 1.2, ... ,p. (5.9)

Alors, pour tout vecteur n ayant pour composantes des entiers 11;, on peut détïnir le
développement de Mac-Laurin où les notations ont déjà été introduites dans la
Section 5.1.1 ainsi que les hypothèses:

( { )lln+mll
<P,(w.W) = L n!m!
Elz"z"'Jw"W"' + o(ll w ll"l (5.10)
!LIIn+mll-:n

:D oü n est un vecteur déterministe de composantes entières: n 1 •••. ,nfl et

U n ,§, tt'l'l . . . ll {J
Il,,
' n.' .Q.
~n 1 1
..... ,1Ip 1
. (5.11)

·~ La fonction <P, est continue à l'origine (0.0) et véritïe <P,(O.O) = 1. Il existe donc
~ un réel ô tel que <P,(w,W) 4 0 pour lwl < â. On peut donc définir la seconde fonc-
~
ë. ti on caractéristique de z par :

~~,(w,W);;, Logi<P,,(w,W)]. 'li,(0.0) = 0. (5.12)


220 5 • Méthodes d'analyse po/yspectrale et applications

La fonction Wz peut se développer sous la forme

(~)lin-t-mil
Wz(W,W) = L :__=-:_--:--,------
n!m!
Cz[n,mlw"W"' + o(ll w Il") (5.13)
U :lln+mii<H

où les coefficients Cz[-l sont appelés cwnulants du vecteur aléatoire complexe z.


Comme dans le cas réel. on introduit la notation suivante :

::!111']
• -
C.z[n,m] =6 cun1 ,-_Il]
.-. 1 •••• _Ill' -=1111
• .:..p ..... 1 , ••• ..... 11 _ (5.14)

En général, les propriétés des moments et des cumulants d'un vecteur réel peuvent
être étendues au cas complexe. Par exemple, la matrice des moments du second
ordre d'un vecteur complexez à p dimensions est la matrice de dimensions 2p x 2p
définie par :

avec r z=6 El·zz Hl , r z:z=6 E[ -Hl ~_zz. (5.15)

Vecteur Gaussien complexe Beaucoup d'applications introduisent des vecteurs


gaussiens centrés. Ces vecteurs sont complètement détïnis à partir de leurs statis-
tiques d'ordre 2. Dans certains cas on doit traiter des données complexes. i.e., des
vecteurs z de dimension p à valeurs complexes. Il est évident que cela revient à
traiter des vecteurs réels t de dimension 2p. Cependant, li est souvent intéressant
de considérer directement les vecteurs complexes. Le résultat suivant donne la
relation entre les statistiques de second ordre des vecteurs t et z. Rappelons qu'un
vecteur réel centré t est dit gaussien si sa fonction caractéristique est donnée par :
5.1 Statistiques d'ordres élevés et polyspectres 221

où 'lt est la forme quadratique définie par :

q 1(u,v)""
(
u
v )
T (
r,
_,
lyx
r,Y)
fy
(u),
v
(5, 18)

On dira qu'un vecteur aléatoire complexe est un recteur gaussieu complexe si sa


fonction caractéristique est donnée par :

où Q, est la forme quadratique définie par :

Q,(w,w)""-1 (w)
_
4 w
11
( r'
r,, r,
r,)· (:).
w
(5.19)

Cette détïnition généralise celle d'un vecteur gaussien réel. En effet, si z =x est
réel, on prend w = u réel dans (5.19) pour obtenir

Q,(w,w) = u
- T
r,u, et <l>,(u.u) = r,&,(u)
qui est bien la fonction caractéristique d'un vecteur gaussien réel. Est-il alors pos-
sible de construire des vecteurs complexes gaussiens, i.e .. des vecteurs complexes z
pour lesquels on a :

(5.20)

où Q, désigne la forme quadratique introduite par (5.19)? Si oui, Je vecteur réel t


associé à z est-il gaussien? Le résultat suivant montre que la réponse est oui pour
chacune de ces deux questions.
222 5 • Méthodes d'analyse polyspectrale et applications

En effet, la relation (5.21) est une conséquence directe de (5.17). Pour tout vec-
teur complexe z tel que son vecteur réel associé t est Gaussien, on a :

ct>,(w,W) = E[exp(~(wHz + wHz)] = E[exp(j[uTx + vTy])]

1 . 1
= exp(- q,(u,v)) = exp(- Q,(w,w))
2 2
Le vecteur z est donc gaussien. La réciproque est immédiate,
Ce résultat montre gue tout vecteur complexe gaussien se construit à partir d'un
vecteur réel gaussien. On peut donc définir un vecteur gaussien sans faire de dis-
tinction entre vecteur complexe et vecteur réeL Un vecteur centré z l'ô x+ jy (réel
ou complexe) est dit gaussien si sa fonction caractéristique est donnée par (5.20) où
w = u + jv, Le cas réel correspond tout simplement à y= 0 et v= O. Les résul-
tats suivants donnent l'expression de la densité de.probabilité d'un vecteur gaussien
en fonction de la matrice de ses moments du second ordre et une condition suffi-
sante pour que la fonction caractéristique d'un vecteur gaussien puisse s'exprimer
seulement en fonction de la matrice !',,
5.1 Statistiques d'ordres élevés et polyspectres 223

Vecteur circulaire Un vecteur gaussien complexe z tel que ï, = ï y et


rxy = -ryx est appelé vecteur gaussien circulaire. De tels vecteurs sont caractéri-
sés par la condition r, = 0 et l'expression de leur densité de probabilité (5.22) se
réduit à :

(5.24)

(5.25)

Dans certains problèmes pratiques, on étend la propriété de circularité, définie par


r ii = 0 pour les vecteurs gaussiens, au cas des vecteurs non gaussiens selon la défi-
nition suivante. Un vecteur complexe centré z est dit circulaire [ 107] si ces
moments vérifient :

E(: 1, ••. : 11 ,Z.1, ••• Z.1") =0 si p =f q.

5.1.3 Fonctions moments et cumulants associées à un signal

Soit x(t) une signal aléatoire à temps discret ou continu. Pour un entier p donné, on
associe à x(t) les deux fonctions multilinéaires définies par [118]:

(5.26)

et
(5.27)

où x (II), ... , x (lp) sont des échantillons arbitraires du signaLe (1). Ces fonction sont
dénommées respectivement fonction mmne11t et fonction cumulant d'ordre p asso-
ciées à x(l). Cette définition s'étend naturellement an cas d'un signal à valeurs com-
plexes en considérant directement les moments et les cumulants d'une V.A com-
plexe. Les fonctions moment et les fonctions cumulant peuvent exister ou non.
Lorsqu'elles existent, ces fonctions possèdent des propriétés intéressantes qui seront
étudiée plus loin. Nous donnons ci-dessous les expressions des fonctions cumulants
"" en fonction des moments dans des cas particuliers importants. Pour p = 1, 2, 3, on
"
·g." a les relations suivantes dans le cas d\m signal non centré.
3
~
o. (5.28)

c, (II J2 ,!3) = Ill x (1 I J2 ,!3) - Ill x (tJ)m,. (t2 ,!3) - Ill x (t2 )m, (II ,!3)
(5.29)
-m,(t3)m,UI.t2) + 2m,(ti )m,(12)m,(t3).
224 5 • Méthodes d'analyse polyspectrale et applications

Pour p = 4, on donne l'expression dans le cas d'un signal centré :

CxUIJ2J3,!4) =Ill x (ti J2J3,t4)- Ill x (tl J2)111x(t3,t4)


(530)
-m,. U! ,/])lllx (t,, /4) - Ill x (II ,l4)m,. ( /2 ,!3).

Exemple 5.1,7 Détermination de fréquences noyées dans un bruit Gaussien


L'exemple suivant montre l'utilité des HOS lorsque le signal à traiter est affecté par
un bruit Gaussien. Considérons le signal réel suivant :
l'
-'k = La; cos (j2Kiw; + <P;) + b~c (5.31)
i=l

où les <P;'s désignent des V.A indépendantes et uniformément distribuées sur [0.1],
les u;'s des fréquences détenninistes inconnues à déten11iner et les a;'s des ampli-
tudes déterministes inconnues. Le bruit bk est supposé Gaussien blanc avec un
spectre inconnu. Le problème classique consistant à estimer le nombre p, les fré-
quences u;'s el les amplitudes a;'s a été largement étudié à l'aide des SOS [83].
L'expression de la fonction cumulant d'ordre 2 est donnée par :

1 l'
c:_,x(k) = 7 Laf cos {j27ïkv;) + CJ 2 . (5.32)
- i=l

Ce même problème a été reconsidéré récemment en utilisant seulement les valeurs


de la diagonale de la fonction cumulant c4 ,x dont l'expression est donnée par [86] :

3
q,(k,k,k) = -
8
Lai cos (j2Kiw;).
l'
(533)
i=l

Cette fonction est ainsi indépendante du bruit Gaussien additif.

5. 1.4 Notion de distribution polyspectrale d'un signal

On considère des signaux réels centrés et l'on ne fait aucune distinction entre le cas
discret et le cas continu. La variable t désigne donc aussi bien un réel ou un entier
relatif. Comme les signaux sont supposés centrés, les fonctions moment et cumu-
lant du second ordre sont les mêmes. Mais, comme on peut le constater sur (5.30),
les fonctions moment el cumulant d'ordre p ;;, 4 sont différentes même pour les
signaux centrés. Deux définitions d'un polyspectre sont alors possibles selon que
l'on considère les moments ou les cumulants. En général. on introduit la déllnition
des polyspectres en partant des fonctions cumulants. C'est ce qui sera fait dans la
suite. Pour simplifier les écritures des formules, on introduira les notations :
5.1 Statistiques d'ordres élevés et po/yspectres 225

où 11 désignera un paramètre temporel. t, k. ou fréquentiel. 1/, f. La fonction déter-


ministe Cx(L 11 ) associée ü un signal x(t), introduite par (5.:27), est dite lwrmouisable
si elle peut se mettre sous la fonne :

(5.34)

où Cx est une fonction à variations bornées dénommée distributio11 polyspectrale


généralisée de c,. (LI') et 'D ~ JRI' si x(t) est à temps continu et 'D ~ [-1/2. 1/2]1' si
x(t) est à temps discret. S'il existe une fonction C, telle que

(5.35)

cette fonction C,, qui est alors la TF multidimensionnelle cie c, est appelée densité
polyspectrole générolisée du signal x(t). Dans toute la suite. le signe fest utilisé
pour représenter aussi bien une intégrale qu'une somme et les bornes ne seront pas
spécitïées. L'inversibilité de la T.F conduit au résultat suivant. Si la fonction C,
existe. alors c, est donnée par :

c.(·t)
-~ -f'
= jc-(u
.\ -JI
)e-j 27ïU!ttt+ .. +l!l' 1 1du 1 ... du ,
1'
1

Un signal x(t), à valeurs réelles ou complexes. est dit d'ordre p s'il satisfait la condi-
tion :
E[lx(tJif'] <+co 'Ir E lR. (5.36)
Si la fonction x(t) vérifie (5.36), on peut établir que tous les moments m, Ctt ..... t,1)
existent pour q :( p.
Dans la suite, on se placera dans le cas d'un signal ayant des fonctions cumulants
hannonisables. Rappelons qu'un tïltre est stable ssi sa réponse impulsionnelle h(l)
véritïe la condition

.r \h(l )\dt < 00. (5.37)

0
·~ Formule des interférences [ 118] Soit h(t) la réponse impulsionnelle d'un lïltre
-3
~
stable et dont l'entrée x(t) est supposée d'ordre p. Alors y(t) est aussi d'ordre pet
o.
on a les propriétés suivantes.
l. Les fonctions cy d'ordre q existent pour q :s;: p et la fonction cumulant cy de la
sortie existe et vérifie
226 5 • Méthodes d'analyse polyspectrale et applications

cy(Ip) = I h(TJ- t 1) ... h(Tp- tp)c,({P)dt 1 ... dt". (5.38)

3. La TF de c,. existe et elle est donnée par :

C,.(!!p) = H(uJ) ... H(l/p)Cx(!!p). (5.39)

où H (u) désigne le gain complexe du filtre.


Dans le but d'utiliser les informations contenues dans les statistiques d'ordre supé-
rieur à 2. il est naturel de généraliser les distributions temps-tféquence classiques afin
d'introduire la notion de po/y.1pectres instantanés 117] [49] [58] [ l 03] [ 104] [9] (voir
chapitre 3 ). Dans la suite. on va considérer des signaux stationnaires.

5.1.5 Polyspectres d'un signal stationnaire

On suppose que la fonction C"x (!") est harmonisable, i.e., elle peut s'écrire sous la
forme (5.34). L'objectif de cette section est d'étendre les résultats sur les SOS aux
fonctions cumulant d'ordre élevé. Le processus x(t) est dit stationnaire à !'01âre p
(p-stationnaire) si les statistiques d'ordre q = 1.... . p de x(t) et celles de x(f + T)
sont les mêmes pour T quelconque, i.e., les statistiques d'ordre q = 1, .... p sont
indépendantes de toute translation T. Si Lp sont des valeurs arbitraires de t et
x~ [xl, ... ,x1,f, la stationnarité à l'ordre p se traduit par:

Fq[{q,x] = Fq[t 1 + T, .•. ,lq + T.X]. 'cfT E IR, 1 ,;; q ,;; p. (5.40)

Comme la distribution conjointe d'ordre p détermine toutes les distributions d'ordre


inférieur, la condition (5.40) est satisfaite si elle l'est pour q =p. Le processus x(f)
est dit stationnaire à l'ordre p au sens des moments s'il est d'ordre p et si sa fonction
moment d'ordre p vérifie :
(5.41)

La fonction m, dépend alors seulement de p - 1 variables et sera désignée par :

(5.42)

Le processus x(t) est dit stationnaire à l'ordre p au sens des cumulants s'il est
d'ordre p et si sa fonction cumulant d'ordre p vérifie :
(5.43)

La fonction c, dépend alors seulement de p - 1 variables et sera désignée par :

Cp.x(Lp~l) ~ C"x(L1,).
5.1 Statistiques d'ordres élevés et polyspectres 227

Il y a une grande différence entre les fonctions moments et les fonctions cumulants.
Par exemple, mp,x2 est identique à 1112p,x alors que c 11 .xz et c2p.x sont deux fonctions
différentes. La fonction c11 ,x vérine les p! relations suivantes où Œ désigne une per-
mutation quelconque de {1, .... p - 1} :

et

La fonction cp.x est donc complètement déterminée par les valeurs qu'elle prend sur
le domaine:

Ô 00 !1ô {({p~l) E iR'J'~l tel que 0 "lp~l " ... "IJ}.

Dans le cas général p =f 1, il n'y a pas d'équivalence entre les notions de stationna-
ri té au sens des moments et au sens des cumulnnts respectivement. Cependant,
tenant compte des relations entre les cumulants et les moments, on peut démontrer
que la condition (5.41) est véritïée pour p = 1, .... 11 ssi la condition (5.43) est véri-
lïée pour p = 1, ... ,11. Ceci conduit à la délïnition suivante.
1
Le processus x(t) est dit stationnaire au sens large à rordre p S il est stationnaire
à l'ordre q pour q = 1.... , p au sens des moments ou des cumulants.
Si la fonction cumulant cp.x vérilïe la condition:

J}cp.x({p~l )}d/1 ... dtp~l < 00

alors sa TF multidimensionnelle d'ordre (p- 1)

existe et elle est appelée polyspectre d'ordre p.


Tenant compte des relations de symétrie des fonctions cumulants données dans
le cas stationnaire, on obtient les propriétés suivantes pour le polyspectre :
Cp.x(!.!.p~!) = Cp.x(l!rr(il•· .. ,flrr(p-1)) (5.44)

p-1
C 11 .xÜ!.p-I) = Cp ..rCurr(l)·· .. , - L l/i .... ,UrT(p-!)) (5.45)
i=l

(5.46)

où a désigne une permutation quelconque de l'ensemble {1, ... . p - 1}.


228 5 • Méthodes d'analyse polyspectrale et applications

Dans le cas d'un signal x(l) stationnaire au sens large à J'ordre p, la distribution
polyspectrale c..introduite par (5.34) possède des propriétés intéressantes dont une
analyse complète est proposée dans [114]. Nous nous limitons ici à donner le résul-
tat suivant qui caractérise le support de Cx en fonction des hyperplans H,,ll E 2':,
déllnis par :
l'
H,"" IC!!.,l ElPCI'/I;u; =11) (5.47)
i=l

et dénommés multiplicités principales.

Comme, il a déjà été signalé, un polyspectre peut être cléf1ni à partir des fonctions
moment ou des fonctions cumulant. Nous présentons dans la suite quelques pro-
priétés qui relient ces deux définitions dans le cas d'un signal stationnaire jusqu'à
l'ordre pet pour plus de détails. on peut consulter (114).
La fonction moment m, (L,) associée au signal x (t) par la relation (5.:?6) est dite
han!lo!lisable si elle peut se mettre sous la l'orme :

(5.50)

où A:l.r est une fonction à variation bornée. La fonction }vl.r est dénommée distri-
bution polvspectrule
• c
r;énéro/isée ùe la fonction moment 111 •r(t--p ) .
Si x(t) est stationnaire au sens large à l'ordre p, la distribution ;vlx introduite par
(5.50) possède des propriétés intéressantes et elle est reliée à la distribution spec-
trale des cumulants ex [114]. Comme pour la fonction cumulant. Je support de ;vfx
peut être déterminé en fonction des ensembles suivants. dénommés multiplicités
secondaires [114] :
H,_,,(.l)"" ((!!_,)EH, 1 LI/;= q) (5.5 1)
ÎE./
5.1 Statistiques d'ordres élevés et pofyspectres 229

où J désigne un sous-ensemble de (1.2, ... ,p), (n,q) E 23 2 dans le cas discret et


(n.q) = (0,0) dans le cas continu.

Polyspectre de la sortie d'un filtre linéaire [ 118] Soit x (t) un signal stationnaire
au sens large à l'ordre pet y(t) la sortie d'un tïltre stable attaqué par x(t). Alors
1. le signal y(t) est stationnaire au sens large à l'ordre p
2. si cp ..r est sommable, alors cp.y est aussi sommable
3. on a les relations suivantes où, par convention, Ta = ta = 0 :
Cp,y(!:'p-l) = H(ul) ... H(up-I)H(-!:'p_ 1 )Cp.A!:'p-l) (5.53)
p-1
Cp.y(Ip-1) =
1Cp.x(tp-1) TI h(T; -t; + t)dtdt1 ... dtp-1 (5.54)
i=O

Utilisant (5.53), on peut établir la propriété suivante qui correspond à un tïltre passe
bande [23].

Polyspectre de la sortie d'un filtre quadratique Un filtre quadratique Ùll'(lriant


(ou filtre quadratique) est détïni par la relation entrée-sortie suivante :
0
·o. (5.56)
8
5
{ où h(/1.!2) désigne la réponse impulsionnelle du lïllre qui sera supposée réelle. Le
gain complexe du filtre est défini par :

(5.57)
230 5 • Méthodes d'analyse polyspectrale et applications

On supposera dans la suite que le signal x(t) réel el centré. Si le tïltre est stable, sa
sortie peut s'interprétér comme la somme :

y(t) = J y,.(t)dT avec YT(I) f'o JhT(t')x(t- t'- T)x(t- t')dt'

des sorties d'un ensemble de fïltres de réponses impulsionnelles :

(5.58)

Le tïltre sera supposé stable, i.e. sa réponse impulsionnelle est absolument som-
mable. Dans ce cas, la sortie y(l) est aussi stationnaire, les fonctions cumulant cq,y
et les polyspectres C,1,y existent pour q ,;; p si les fonctions cumulant c2p,x existent.
Dans le cas d'une entrée arbitraire .r(t). l'expression de la fonction C,. associée à la
sortie d'un filtre quadratique devient très compliquée pour p > 2. Pour cette raison,
seulement quelques exemples correspondant à des entrées x(t) stationnaires et par-
ticulières seront considérés et pour plus de détails, on peut consulter [23].
Commençons par donner le résultat suivant sur la stationnarité du signal à la sortie
d'un filtre quadratique. Si le signal x(t) est 2p-stationnaire, alors [ll4]la sortie
y(t) estp-stationnaire. Les fonctions polyspectrales Cq,y d'ordres q = 1, ... ,p, de
y(t), lorsqu'elles existent, ne dépendent que des fonctions polyspectrales d'ordres q,
1 < q,;; 2p, de l'entrée x(t). Si les fonctions cumulant de x(t) d'ordre 2 et 4 sont
absolument sommables, alors [23]la covariance de y(t) existe et vérifie:

C2.v(t) = J h(t] h)h(13J4){qx(l + l] - l3,t + 1] - l4,/] - 12)


(5.59)
+ 2c2,xU + l] - l3lc2.xU + /2- t4))dt1 ... dt4

et le spectre de y (1) est donné par :

c2.y(v) =! H*(I!] ,IJ- UJ)H(IJ2,U- v2)C4,xCIJJ - IJ,V2,/J- IJ2)du]dl/2

+ J
(5.60)
2
2 1H (UJ, IJ- //]) I C2,x (I!J )C2.x (IJ- uJ)di!J.

Exemple 5.1.11 Cas d'un filtre diagonal quadratique


Dans le cas particulier d'un filtre diagonal défini par sa réponse impulsionnelle :

h(/J.t2) = ho(/J)ii(IJ- 12) avec ho(IJl f'o h(IJ,/J)

la relation (5.57) donne


5.1 Statistiques d'ordres élevés et polyspectres 231

et les relations ci-dessus se simplifient et conduisent à :

En particulier, on retrouve (5.54) et (5.53) pour p = 2.

5. 1.6 Estimation d'un bispectre

Dans la pratique, le polyspectre d'ordre p = 2 et p = 3. On obtient respectivement


le spectre classique et le bispectre dont l'expression fait intervenir les statistique
d'ordre trois. Nous allons décrire brièvement ci-dessous deux méthodes d'estima-
tion d'un bispectre, dénommées méthode directe (domaine temporel) et méthode
indirecte (domaine fréquentiel). On dispose deN échantillons.

Estimation des cumulants d'ordre 3 Considérons tout d'abord le cas d'un signal
centré (xk). La fonction cumulant d'ordre 3 est alors égale à la fonction moment de
même ordre. Un estimateur des cumulants d'ordre 3 est donc détïni par :

l 11:;:
CJ.x(p,q) = N L XnX,
11=1/t
1+pX 11 +q

où 111 = max(O,-p,-q) et n2 = max(N,N- p,N- q). On peut aussi subdiviser


l'ensemble des données en [(classes de M échantillons chacune, N = [(M. Pour
le calcul des cumulants, plutôt que d'utiliser la région définie par
s+ = (p,q)/0,; q,; p,; M, on utilise la régions-= (p,q)/- M,; q,; p,; O.
On calcule alors les estimateurs sur chaque classe i, i = 2,3, ... , [(, par :

et on fait ensuite la moyenne des estimateurs ainsi obtenus :

Dans le cas où la suite Xk n'est pas centrée, on peut utiliser la relation suivante

C3.x(p,q) = 1113,x(JJ,q)- lllt,x[1112.x(fJ) + ill2,x(q) + ill2.x(P- q)] + 2m~.x


232 5 • Méthodes d'analyse polyspectrale et applications

où m,,x désigne le moment d'ordre 11 de Xk. Mais cette méthode est inadaptée si le
nombre d'échantillons est variable. Par exemple, on peut avoir à traiter des données
en temps réel et prendre en compte les échantillons gui arrivent à chaque instant.

Estimation du bispectre dans le domaine temporel La méthode consiste à cal-


culer la TF bidimensionnelle de la fonction cumulant d'ordre 3. Dans la pratique,
on ne dispose que d'une séquence finie d'observations et cela ne permet pas d'ob-
tenir un estimateur consistant. Dans Je cas stationnaire, le problème peut être résolu,
en utilisant par exemple la méthode qui sera exposée ci-dessous. On estime les
cumulants ê.1.x(p,q) à partir d'une suite tïnie de 11 échantillons xk, k = 1.... , N. Un
estimateur du bi spectre est alors donné par :
M M
CJ.x(UJ.U2) = L L w(p,q)ê,1.x(p,q)e-jl1f(pU,+qU,)
p=-Ml;=-M

où M < N- 1 et où w(p,q) désigne une fenêtre de pondération bidimensionnelle.


Cette fenêtre doit satisfaire des conditions de symétrie et d'autres conditions gui
permettent d'améliorer les propriétés de l'estimateur.

Estimation du bispectre dans le domaine fréquentiel On calcule la TF bidi-


mensionnelle discrète d'une suite finie de 11 échantillons Xk, k = 1, ... ,Net on
détermine ensuite le bispeetre comme produit de trois facteurs. Supposons toujours
N = KM, et calculons pour chacune des K classes i la FT discrète :
] N-1
x<il - - ~ _(i))- j27ïm 7&- 111 E [O,N /2]. i=I, ... ,K.
111 - N Lx,, e ,
11=0

Un estimateur du bispectre en fonction des échantillons de la classe i est donné


par:

où tl = .1; /No est la distance séparant deux échantillons fréquentiels consécutifs


dans le domaine bispectral dans les directions des axes, f, la fréquence d'échan-
tillonnage et N = LN0 . Le nombre total d'échantillons fréquentiels est donc N 0 . Un
estimateur du bispectre est donné par :

Du point de vue complexité numérique. on peut remarquer qu'un estimateur de C 3 .,


nécessite le calcul d'une TFD bidimensionnelle dans le domaine temporelle et
d'une TFD monodimensionnelle dans le domaine fréquentielle.
5.1 Statistiques d'ordres élevés et po/yspectres 233

5.1. 7 Modélisations d'un polyspectre et blanchiment

La modélisation d'un polyspectre S consiste à trouver un filtre dont la sortie asso-


ciée à un bruit blanc (BB) est un signal qui admet S comme polyspectre. Il est
important de détenniner si le filtre est RIT (réponse impulsionnelle infinie) ou RIF
(réponse impulsionnelle finie). Si l'on suppose le filtre linéaire, la modélisation se
réduit au problème de la factorisation spectrale classique. Dans ce cas. on sait que
cette factorisation n'est pas toujours possible et n'est pas unique. En général
l'identification d'un filtre est directement reliée à la modélisation d'un polyspectre.

Notions sur les bruits bians d'ordre élevé


Comme le BB joue un rôle assez important dans la modélisation d'une large classe
de signaux. nous allons rappeler quelques notions sur les différents BB en se pla-
çant dans le cas discret. Une analyse comparative et détaillée de ces BB est propo-
sée dans [24 ]. Soit (xiJ une suite de Y. A réelles. On peut caractériser la blancheur
de cette suite soit à l'aide de la loi temporelle soit a l'aide des fonctions moments
et cumulants associées à cette suite. Si (xk) est une suite de Y.A indépendantes,
alors(.<;'), n,E 1'1 est aussi une suite de V.A indépendantes. Désignant par â(.) le
symbole de kronecker multidimensionnel et tenant compte de la relation (5.1.1), on
obtient :

cum[xZi, ... ,xz; J = cum[x~]â[kt, ... .kt.k 1

oü les entiers Il; vérifient III + ... + 11( = 11 3 c ete quelconque. On a en pm·ticu-
lier:

cum[-'CJc, .... ,xk,l = cum[xEJâ[kJ, ... ,kf,kl 'IC E fi*. (5.61)

Attention, un BBGp n'est pas forcément un signal gaussien. On peut cependant


noter qu'un signal gaussien est un BB2 si. et seulement si ce signal est un BBP. En
effet. les cumulants d'ordre> 2 sont tous nuls pour toute VA gaussienne. On ter-
234 5 • Méthodes d'analyse polyspectrale et applications

mine ces rappels en donnant le résultat suivant concemant l'indépendance d'une


suite 11nie de VA.

;{ c;,;_; •. ;c., :;;


,,~,
;•1; 1'~~
~.P •; .&.:
;
···"'
.. ••,,....
;

·:.? ;;.::z:;; ; '.'•'


,,, ;-;; ;;
;-;
t!" cr": ;p; :FfèY , .. ·:·····
;_
.. 't': ••<••:'·' • ;,.j
'"''· ~~·
;pou mlf ~i}f t·' '.s
;;;;;. .... ... .. ;'· ';·•;;; ...... ,. '• ··.;;;.
Modélisation par filtrage linéaire : factorisation polyspectrale
Nous allons donner dans cette section quelques résultats sur la factorisation d'un
polyspectre S(!!.1,_ 1 ) à l'aide de tïltres linéaires.
La factorisation d'un polyspectre S(~p-l) d'ordre p donné consiste à chercher un
tïltre linéaire tel que le polyspeetre de la sortie y(t) associée à un BBp x(t) soit égal
à S(~p-l). Introduisons la notation suivante :

cum[x(t)'~] ""lq.x q E l\1* (5.64)

puisque le signal x(l) étant stationnaire au sens large à l'ordre p. les cumulants
cum[x(t)'l] et les moments E[x(t)'l] d'ordre q, 1 ,;; q,;; p. sont indépendants de t.
Si x(t) est un BBp. les relations (5.53) et (5.54) se réduisent à :

(5.65)

(5.66)

On suppose connu lp,x et on doit chercher le f1ltre solution de l'une des deux équa-
tions équivalentes suivantes :

(5.67)

où Cp.y• cp.y sont donnés par (5.65), (5.66) et c(Ip-l) désigne la fonction cumulant
associée à S(J!.1,_ 1). On peut noter que gain complexe H ne peut être déterminé qu'à
un facteur de module 1 près puisque lz (t) est indépendante de l'origine des temps
d'après la relation (5.66). De plus. le BBp ne doit pas être gaussien sinon Tep= O.
Dans la suite, on va se placer dans le domaine temporel et on suppose que la don-
née est la fonction cumulant c(Ip-l) et non le polyspectre associé. Tenant compte
de la symétrie des fonctions cumulant d'un signal stationnaire, cp.y est complète-
5.1 Statistiques d'ordres élevés et polyspectres 235

ment déterminée par sa restriction au domaine :

u
Af!o('-
t:..p-1
E:yf'-1
~ tel que 0 ,; kp-1 ,; ... ,; k1). (5.68)

Il est donc suffisant de ne considérer que le support de cf' ..'· qui est contenu dans 6..
De plus, on va se limiter à des fonctions c(Ip-l) à supports tinis. Les deux pro-
priétés suivantes, qui précisent le lien entre le support de la R.I du filtre cherché et
celui de la fonction cumulant donnée, vont nous permettre de délimiter le domaine
sur lequel on doit chercher la R.I du filtre .

.oe Cette proposition est non valable pour p = 2. En effet. la factorisation d'un
~
~ spectre à l'aide d'un filtre linéaire se fait à un facteur de module 1 près. Ce facteur
0
D peut être considéré comme la réponse en fréquence d'un filtre passe tout. Or un
·~ filtre passe tout réel peut admettre une R.I. à support fini ou infini.
·c
~ On va déterminer les équations que doit vérifier la R.l du filtre cherché en se pla-
§ çant dans le cas où la fonction cumulant est à support fini, c'est-à-dire, elle vérifie
; (5.70). La Proposition 5.1.14 montre alors que la factorisation d'un polyspectre
·n.
.s consiste à déterminer une R.l. h(i) d'ordre N, vérifiant l'équation (5.67) dans le
2
.g_ domaine temporel en tenant compte de (5.66). On obtient dans le cas discret:
N
c(rp- 1) =c(Ip- 1) =-f1u Lh(i1 +i) ... h(ip-1 +i)h(i) (5.71)
i=O
236 5 • Méthodes d'analyse polyspectrale et applications

où c(Ip-I) désigne le cumulant connu. De plus, on peut supposer ce filtre causal


puisque (5.66) est indépendante de l'origine des temps et choisir h(i) = 0 pour
i < 0 et i > N. Les coeflïcients 11(0), .... h(N) doivent donc vérifïer l'équation
suivante obtenue en prenant k 1 = N dans (5.66):

(5.72)

Prenant dans cette relation k2 = ... = kp-I = 111, on obtient:

c[N,m, ... . 111] = 'ip ..J•(O)h(m)~'- 2 h(N), 0,:; 111,:; N

et. en particulier, c[N.O, .. .,0] = 'ip ..J•(O)I'- 1h(N) et c[N,N, ... ,N] =
/p ..J•(O)h(NJ''- 1 Comme la R.l h(N) est de support tïni N, on a forcément
c[N,O, ... . 0]=f 0 et c[N.N, ... ,N] =f O. Si les h(i) existent, il doivent donc véri-
tïer les conditions nécessaires, mais pas suftïsantes. suivantes :

. ')l'
'"'p-21 . p(p-'2) - ____c_·(N
'----·•_
.._·_·_·''------
'1'' 1(1) - 0::;;; i ~ N. (5.73)
· c(N,O, ... ,O)c(N,N ..... N)

On peut trouver dans [26] une méthode qui permet de discuter l'existence et l'uni-
cité des h(i) en fonction de 'ip,x supposé connu. Si (5.72) n'admet pas de solution,
le spectre considéré est non factorisable.

Modélisation par filtrage quadratique


Plusieurs applications pratiques nécessitent l'introduction de modèles non linéaire
et l'on choisit souvent des modèles du type quadratique, cubique ou de Volterra
[68]. En particulier, la modélisation d'un polyspectre est une généralisation de la
factorisation lorsqu'on considère des fïllres non linéaires. Se limitant à des filtre
quadratiques, on est alors conduit à considérer les expressions des polyspectres de
la sortie d'un tel filtre ou celles des fonctions cumulant associées. L'entrée du filtre
est généralement un BB gaussien centré. Si l'on désigne par-"" la sortie d'un filtre
quadratique. symétrique, stable. attaqué par un BB gaussien centré Xk, la fonction
cumulant d'ordre p de Yk s'exprime à l'aide de la R.I. h;.; comme suit:

(5.74)

où M,, nE I>l, dénote


-
la matrice dont les éléments sont h;+n.i+n•
.
Tr(M) la trace de
la matrice M et Tr représente la moyenne sur toutes les permutations cr définies sur
( 1.. ... p - 1). Le polyspectre d'ordre p de .\'k s'exprime en fonction de la réponse
en fréquence H(11 1 ,1;2 ) à l'aide de la formule (5.79).
5.1 Statistiques d'ordres élevés et pofyspectres 237

La fonction cumulant cp.y de la sortie d'un filtre quadratique RIT peut être à sup-
port fini ou infini. Dans le cas d'un filtre linéaire attaqué par un BBp, on a vu que
la fonction cumulant d'ordre p de sa sortie est à support fini si, et seulement si, le
filtre est un filtre RIF. Dans le cas d'un filtre quadratique, les résultats suivants, éta-
blis dans [23], sont à la base de la modélisation d'un polyspectre lorsque la fonction
cumulant est à support lïni.

La réciproque de ce résultat n'est pas vraie. On peut cependant établir que si cp.y
est à support tïni et si N est le plus petit entier tel que (5.70) soit véritïée, alors la
N
R.I. ht.J du lïltre n'est pas nécessairement à support borné : C ~ - - . Cette
[p/2]
réponse peut être à support borné d'ordre e' > e et même à support non borné.

Exemple 5.1,17 Cas d'un polyspectre factorisable


Soit Cf'.-'" un polyspectre supposé factorisable par un filtre H (u) attaqué par un BBp
Wk. On va montrer que Cp._,. est modé!isable par le filtre quadratique défini par :

"
où Je signal Xk est un BB gaussien de variance cr;. En et'fet, les VA sont indépen-
dantes et il en est de même pour les xf.
Donc Je signal Yk est un BBp. Par ailleurs,
on peut établir que si x est une V. A gaussienne centrée, la fonction génératrice de
x:2 est donnée par :

1
r!J(u)
. = -r;==;c;="C
.ji - 7_ucr.r'
pour

La dérivée d'ordre p de Log(r/J(u)) donne le cumulant d'ordre p de x":

·c.
0
8 "lp,x~,-71'-r(p-IJ'~~'
--
'
.v x ·
.3

:;- Comme la réponse en fréquence H(u) du fïltre linéaire qui factorise C"·-" à l'aide
~ de la relation la relation (5.65) est déterminée à une constante de module 1 près, on
§ peut toujours supposer dans cette relation Î'11 , w > O. Ainsi, on peut déterminer cr~ tel
0
,9 que
238 5 • Méthodes d'analyse polyspectrale et applications

~p-l
~
(p - l)'.ŒX2 p- - "I(I.X

et donc le polyspectre Cp,y estmodélisable.

Exemple 5.1.18 Cas d'un polyspectre non factorisable


On va construire une suite aléatoire ayant un polyspectre non factorisable et qui
peut être modélisé par un filtre quadratique. Soit uk une suite de V. A ii d centrées et
posons p., ~ E(u'k). Alors la nouvelle suite définie par:

(5.75)

est stationnaire, centrée et sa fonction cumulant CJ,, est donnée par :

c 3.Ji,j) = Eü.;:i.JZo)

Les seuls couples (i,j),O ~ j ~ i, pour lesquels CJ,: =f 0 sont (0,0) et (1,0) et on
a:
CJ.:(O,O) = p. 3 p. 6 et CJ.:(I,O) = fl-~{J. 5 •

Donc. sous l'hypothèse p. 5 =f 0, CJ.Ji,j) est à support fini d'ordre 1 et donc s'il
existe un filtre qui factorise C,(u 1 ,u2 ), ce tïltre est forcément d'ordre 1 et sa
réponse impulsionnelle vérifie lz(O) =f 0 et lz(l) =f O. Or, pour p = 3, la relation
(5.71) conduit à c3 _,(1, 1) = lp.Jt (0)/z (1) 2 On doit donc avoir c3.: (l, l) =f O. Mais
d'après le support de c3,,, on a c3_,(l,l) =O. Ceci est absurde et C 3.,(u 1,tl2) est
non factorisable. Cependant on peut établir [23] que C3.:Cu1 Y2) peut être modélisé
avec un tïltre RIF d'ordre l dont la relation entrée-sortie est donnée par
Zk ~ a xl_ 1 + bxkxk-1 où a et b sont des constantes réelles et Xk est un BB gaus-
sien. Plus généralement, on démontre [23 j que tout polyspectre factorisable peut
être modélisé à l'aide d'un filtre quadratique attaqué par un BB gaussien.

Blanchiment d'un signal aux ordres élevés


Le problème de blanchiment d'un signal x(t) consiste à chercher s'il existe des
filtres linéaires associant à l'entrée x(t) une sortie y(t) qui est BB. Lorsqu'on
cherche à blanchir à l'ordre 2. c'est-à-dire, on cherche des filtres donnant comme
sortie un 882. le problème est classique et il est largement étudié [Ill] [1 12]. Le
blanchiment à des ordres élevés est un problème moins classique et il consiste à cher-
cher des filtres qui donnent comme sortie un BBp. Tenant compte de (5.65) et de la
définition d'un BBp. on doit résoudre le systmème des (p- l) équations suivantes:

C 1._,.(!!,1_ 1) = H(ut) ... H(uq-t)H(-!!,1_ 1)Cq.x(!!,1_ 1). 2 ~ q ~p.

L'étude de ces équations pour p quelconque dépasse l'objectif de ce livre et on peut


seulement noter que blanchir un signal aléatoire à un ordre élevé par tïltrage linéaire
5.1 Statistiques d'ordres élevés et po/yspectres 239

est une opération qui n'est pas toujours possible. De plus. il n'est pas facile d'éta-
blir des conditions suffisantes assurant un tel blanchiment et qui soient valables
pour une classe assez large de signaux. On peut cependant citer le cas des signaux
gaussiens. En effet, il suftït qu'un signal soit gaussien pour que tous ses polyspec-
lres d'ordre p > 2 soient nuls. Un autre exemple est celui des signaux obtenus par
tïltrage d'un BBp. Il sunït que le filtre générateur posséde un inverse stable pour
pouvoir blanchir de tels signaux en leur appliquant le tïltre inverse. On va se limi-
ter seulement au blanchiment aux ordres p = 2 et p = 3.
Pour p = 2, ce système se réduit à la seule relation classique suivante qui fait
intervenir le spectre du signal à blanchir :
2
C2,,.(u) = IH(u)I C2.x(u)

Cette équation admet toujours une solution à condition que le spectre du signal à
blanchir vérifie des conditions assez large de régularité. Les filtres solution ont tous
des réponses en fréquence de même module IH(u)l et des phases arbitraires. Il sont
déf1nis à un facteur de module 1 près et on a la possibilité de choisir comme solu-
tions des lïltres causaux, des 111tres stables. des filtres à phase minimale etc ...
Pour p = 3, le système se réduit à deux équations et n'admet pas toujours des
solutions. En effel, on montre [23] qu'une condition nécessaire pour que •·(i) soit
un BB3 est donnée par:
2
IC3 __,(UJ,ll2)1 = (J._,.C2.x(U] iC2,x(u2lC2.x(u1 + u2)
où ( 3 , ,. désigne une constante dépendant uniquement de T~. ,. et 1\ ,.. De plus. on
peul vérifier que l'équation ci-dessus n'est pas toujours véril1ée. Pmir cela, il suffit
de considérer l'exemple suivant [23] qui montre qu'il n'est pas possible de déter-
miner un tïltre linéaire dont la sortie est un BB3 lorsque l'entrée eslun BB2.

Exemple 5.1.19 Sigua/uou blauchissable à l'ordre 3


On va construire un BB2 qui est non blanchissable à l'ordre 3. Considérons le signal
Xk ="~"k-I où les"" sont des V.A iid. On peut véritïer alors que -'k est un BB2
stationnaire. Pour montrer que -'k n'est pas blanchissable à l'ordre 3, il suftïl de cal-
culer son cumulant d'ordre 3. On obtient: CJ.x(i.j) = E(x,x.ix0 ). On véril1e que
CJ.x est non nul que pour les 3 couples (i.j} = (0.0). (i.jl = (0.1) et
(i.j) = (-1.-1 ). Le bispeclre de -'k est clone:

.2
:;::...
~ ol1 m; désigne le moment d'ordre ide lfk. Le signal Xk est donc un BB3 si. et seu-
{ lement si, C3 ..r est constant. et cela équivaut ü m 5 =O. Donc un signal Xk pour
.:3 lequel ms =f 0 ne peut pas conduire à une sortie qui eslun BB3.
240 5 • Méthodes d'analyse polyspectrale et applications

5.2 APPLICATIONS AU FILTRAGE ET À L'IDENTIFICATION

5.2.1 Filtrage et transformations d'un bruit blanc

Les transformations et en particulier le filtrage d'un bruit blanc sont des opérations
importantes en traitement du signal. Elles sont à la base de la synthèse d'une large
classe de signaux. à titre d'exemple on peut citer les signaux ARMA. On se propose
de donner, sous forme d'exemples, quelques transformations d'un BBp. On va
considérer le filtrage linéaire. puis le filtrage quadratique et enfin une transforma-
tion plus générale d'un BB en se plaçant directement dans le cas discret et on se
limitant à quelques exemples. Pour plus de détails, on peut consulter [23][24].
A titre d'exemple, on peut noter que le filtre linéaire, dénommé filtre retard, dé!ïni
par:
y(i) = cx(i - T), c =f 0
conserve toutes les fon11es de blancheur.

Exemple 5.2.1 Filtrage linéaire d'un BBp


Soient x (i) un BBp et y(i) la sortie associée dans un filtre linéaire réel différent
d'un !ïltre retard. Comme le tïltre est à coefficients réels, on a H(-11) = H(u)* et
la relation (5.65) s'écrit:

C,1 ,y(l:q~l) = Î, ,x H(ut) ... H(l/q~J!H*(l!., ~ 1 )


1 1 pour 2 ~ q ~ p

Dans le cas classique d'un BB2. cette relation équivaut à IH(u)i = M 2 où M


désigne une constante positive. Le tïltre cherché est donc un filtre de phase de gain
H(u) = MeN!<•) Si l'on prend p = 3, en plus de la condition H(u) = Mejç•l<•l. le
Jïltre cherché doit satisfaire :

Ces deux conditions conduisent à :

et donc la fonction rj<(u) est linéaire par morceaux. Soit r/J(u) = 2rrcw mod(2rr).
Comme le filtre est à temps discret, son gain complexe H est de période 1 et le
nombre n est forcément entier. Ainsi le Jïltre solution est un déphaseur et il
conserve évidemment toute forme de blancheur. Eliminant ce cas particulier. si l'on
veut trouver d'autres tïltres pour lequels C3 __,. est constant, on doit avoir forcément
C3.y =O. D'où nécessairement 'i}.x =O. Finalement, un BB3 se transfom1e en un
BB3 dans un !11tre linéaire autre qu'un déphaseur, si et seulement si son bispectre
est nul ce qui équivaut à dire sa fonction cumulant d'ordre 3 est nulle. Le raisonne-
5.2 Applications au filtrage et à l'identification 241

ment ci-dessus s'étend à un BEp pour p quelconque. En conclusion, un BEp se


transfonne en un BEp si, et seulement si, tous ses cumulants d'ordre q = 2,3 .... ,p
sont nuls ce qui équivaut à dire que ce bruit est un BBGp.

Exemple 5.2.2 Filtrage quadratique d'un BB4


Si l'entrée x(t) est un BE d'ordre 4, la fonction cumulant et le polyspectre de la sor-
tie ont [23] pour expressions dans le cas continu :

c2.,.(t) = 'I.J,, 1 ho(IJ)ho(!! + t)dO + 2-t~.x 1 h,(H)h,(IJ + t)dn/0

où h, est défini par (5.58). Dans le cas discret, on a:

c2.y(n) ='lü 'I:Jzo(i)ho(i + n) + 2-,L l:,h;(j)h;(j + n) (5.76)


i.)

(5.77)

Comme conséquence directe de l'équation (5.76), on a le résultat suivant. Si x(i)


est un BB4, alors y(i) est un BB2 pour toul x(i) ssi le filtre linéaire de R.I izo(i)
est un lïltre de phase et si

Tr(MoM;) = Tr(M 1~)1Î;. (5.78)

Si x(i) est un BB4 el si tous les filtres /zk(i), k ~ 0 sont des filtres de déphasage,
alors la relation (5.77) montre que y(i) est un BB2. Cette condition sutllsante n'est
pas une condition nécessaire [97].

Exemple 5.2.3 Filtrage quadratique d'un BB2p gaussien


On considère un lïltre quadratique attaqué par un BB2p Gaussien. Alors [21 [toutes
les fonctions cumulant d'ordres q, qs;p. de la sortie yU) existent et véri11ent:

( , p.y (- ) - ~p-l,l' "\"' -,, (- ) a\'CC


!_p-! - ~ 12.x ~ rr ,.!_p- 1
c

j
hc(Ip-1) ~ 1 h [1 .Ir,( 1j[ · · · h [Tc(k) +falk) .Tr,(k) + lc(k+ 1Jl. · ·
... h[Ta(p-ll + la(p-[J.Trr(p-1) + t]dtdfrr(ll ... dtrr(p-1)
242 5 • Méthodes d'analyse po/yspectrale et applications

la somme étant prise sur toutes les permutations CJ de l'ensemble ( 1, ... , p - 1}. La
fonction polyspectre de y(t) d'ordre pest donnée par:

(5.79)

.\o = 1\p = 0 et 1\ f3:. IJi + ... + l-'p-l pour 1~i ( p - 1.

Pour p = 3, la sortie y(i) est un BB3 ssi la relation (5.78) est satisfaite et

Pour p > 3, la sortie y(i) est un BBp ssi Mn lvi; = M1~il(i.OI. Un exemple de filtre
satisfaisant cette condition est donné par h(i,k) = h(i)h(k) oü h(i) est la R.l d'un
tïltre de phase. Pour le voir, on peut poser

v(i) ~ Lh(i- k)x(k)


k
et calculer J'expression de la sortie du filtre quadratique. On arrive à y(i) = v(i) 2
d'après (5.56) et on applique ensuite les résultats précédents.

Exemple 5.2.4 Transformation quelconque d'un BBp


Dans le cas d'une transformation quelconque de la forme y1 = g(x 1) d'un BB x 1,
l'analyse devient assez rapidement complexe. Lorsque la blancheur de la suite (x;}
est caractérisée par certaines propriétés des cumulants de Xi, il est nécessaire. pour
étudier la blancheur de la suite (y;}, d'exprimer les cumulants de y1, s'ils existent,
en fonction de ceux de x,. Si la fonction g admet un développement de Mac-Laurin
et si les séries intervenant dans les calculs sont convergentes, cela est possible.
Néanmoins, sauf cas particuliers, ces expressions font intervenir des sommes infi-
nies et on ne peut établir des résultats généraux. Si d'autres hypothèses concernant
la suite (x 1 1 sont introduites, on peut obtenir des informations sur la blancheur de
(y1 1. Ainsi, si la suite (x;] est un BBP el si y 1 est toujours une Y. A, la suite (y; 1 est
aussi un BBP.
De même, si l'on conn ail certaines lois de probabilité conjointes des Y. A x 1• on
peut développer la fonction g sur des bases de polynômes orthogonaux (polynômes
d'Hermite dans Je cas gaussien, polynômes de Poisson-Charlier dans le cas d'un
processus de Poisson, etc ... ). Par exemple, si x(i) est un signal stationnaire gaus-
sien. alors y(i) est un signal stationnaire et si de plus g est développable en série au
moyen des polynômes d'Hermite, alors on a:
5.2 Applications au filtrage et à l'identification 243

IC,(i)l IC,(i)l
-·-- ,;; - - - .
C,.(O) C,(OJ
On peut alors dire dans un certain sens que " y(i) est plus proche du BB2 que
x(i) ».Cette propriété devient fausse si l'on enlève l'hypothèse gaussienne.

5.2.2 Identification d'un filtre linéaire ou quadratique

Tenant compte de la formule des interférences. l'information contenue dans les


spectres de l'entrée et de la sortie d'un tïltre linéaire ne donne aucun renseignement
sur la phase du filtre linéaire. L'analyse des spectres ne permet donc pas de déter-
miner complètement un filtre si l'on ne fait aucune hypothèse sur ce dernier.
L'exemple suivant illustre ce résultat et montre que l'analyse polyspectrale peut
conduire à une identification complète d'un tïltre linéaire. La tableau 5.1 [96] donne
deux tïltres linéaires pour lesquels les sorties ont la même fonction c 2 ,,. et des CJ.y
différentes (même spectre et des bispectres différents).

TABLEAU 5.1 CUMULANTS DES SORTIES DE 2 FILTRES MA AYANT LE MËME GAIN,


LES MÊMES CUMULANTS D'ORDRE 2 ET DES CUMULANTS D'ORDRE 3 DIFFÉRENTS .

. .. . . . ·;. '.' .. . . Filtre 1 ·; •·. • ; • • · • ··. ·; · 1· •..•.•.....•••. .Filtré 2. ·. ;; · .


Cp.y (1-a:.- 1 )(1-b:.- 1 ) (1-a:.)(l-k-· 1 )

c,,, (0) 1 +a 2 1/ +(a +b) 2 1 + a 2 !/- +(a+ b)2.

c2.yO) -(a+ b)( 1 +ab) -(a+ b)(l +ab)


c2 ,,.(2) ab ab
CJ, ,, (0.0) 1- (a +b) +a b 3 3 3 (1 +ah) 1 -a 1 -b 3
c,,,.(l.O) -(a+ b) 3 + ab(a + b) 2 a 2 (l +ab)- ( 1 + ah) 2 b
CJ,,,(I.I) (a+ b) 2 - a 2 1/(a + h) -a(l + ah) 2 + (1 + ab)b 2

CJ.y(2.Q) ab ~a 2 b

CJ.r(2, J) -(a+ b)ah (l+ah)ab


CJ.y(2.2) a 2 b'2 -ab 2

Soit un signal Xk généré par un filtre linéaire MA de fonction de transfert:


+iV
H(:.)!!, L_h,:.", h0 h,v =f 0 (5.80)
Il

et admettant une fonction cumulant CJ., (i. j) donnée qui sera notée simplement
c(i.j). On se propose de déterminer la RI du filtre H à partir de la fonction c(.).
244 5 • Méthodes d'analyse polyspectrale et applications

Tenant compte de l'expression du bispectre de la sortie d'un filtre MA, la transfor-


mée en Z de c(.) est donnée par :
+::ç +::o
C(ZJ,Z2)"' LLc(i,j)z zi = nH(ZJ)H(Z2)H(zi 1z2 1)
1
1
(5.81)
-cc -co

Où O' est une constante caractérisant le bruit générateur du signal XJ.:. La fonction
C(z. 1,: 2 ) reste inchangée si l'on remplace H (z) par:" H (z.) oü k est un entier arbi-
traire. Ceci signifie que le filtre MA ne peut être détenniné qu'à une translation de
l'origine des temps près et, sans perte de généralité, on peut chercher H sous la
forme (5.80). Dans ce cas, C(Z.I-7. 2 ) s'écrit aussi:
+N +N
C(zJ,Z2) = L:L:c(i,j)z zi = etH(ZI)H(z2)H(zi 1z2 1).
1
1
(5.82)
-N -N

Ceci signifie que c(i,j) est nulle dès lors que Iii > N ou l.il > N. Réciproquement,
l'équation (5.82) permet de déterminer l'ordre N comme étant la valeur minimale
de 11 pour laquelle on a c(11,11) = 0 pour tout 11 > N. En effet, (5.82) montre que
c(N,N) = eth 2 (0)h(N) =f O. Entïn, on peut noter que C(ZJ,z 2 ) reste inchangée si
l'on remplace H(z) par j)H(z) et n par o;F 3 et donc la fonction de transfert d'un
MA ne peut être déterminée qu'à une constante près.

En effet, posons G(z 1,z2J"' (z 1z 2)NC(zi.Z2l et H*(z) "'zN H(z- 1). On obtient
à partir de (5.82) :
2N 2N
G(ZJ,Z2) = LLc(i- N,j- N)z\z~ = oH(zJ)H(Z2)H*(z!Z2)
Il ()

ce qui donne pour z2 = 0, ZI = z et en tenant compte de (5.80) :


2N
G(z.O) = Lc(11- N,-N)z" = nH(z)H(O)H*(O) = nh 0 h,yH(z).
Il

Comme H est un polynôme de degré N on obtient :

l N
H(z.) = -.-- Lc(11- N.-N)z".
oh oh N n=O
5.3 Application à la séparation de sources 245

Les relations de symétrie des fonctions cumulants dans le cas stationnaire :

c(i.j) = c(j.i) et c(i,j) = c(j- i,-i)


conduisent à l'expression donnée pour H (~) et la relation (5.82) donne :

c(O,N) = c(-N,-N) = nh 2 (0)h(N) =f 0


c(O.-N) = c(N,N) = nh(O)h 2 (N) =f O.
Si l'on définit <T-
1 = ah(O)h(N), on obtient l'expression proposée pour 0'3 :

1 1
tT = = nc(-N.-N)c(O,-N) = oc(N,O)c(N,N).
0 3!J(Q)3!J(N)3

On peut retrouver les coefficient h, en utilisant directement les relations (5.73) pour
p = 3.
Pour ce qui concerne les nitres quadratique, la connaissance des spectres de l'en-
trée et de la sortie du filtre ne permet pas forcément l'identification complète de ce
filtre. A titre d'exemple, on peut montrer [23] que les deux filtres quadratiques,
admettant comme réponses impulsionnelles les deux suites symétriques dift'érentes
définies ci-dessous. ont des sorties qui ont le même polyspectre d'ordre p lorsque
l'entrée est un BB gaussien :

/1 ..
--{hli-jl pourO:;;i.j:;;/} et ~ 1
0··=(-l)h·~··.
1
l • .J 0 ailleurs 61
'1 • .J •.J

5.3 APPLICATION À LA SÉPARATION DE SOURCES

On considère N signaux sources qui se mélangent pour donner un nouveau signal.


Ce dernier est observé sur M capteurs d'une antenne. À la sortie de chaque capteur
on dispose donc d'un signaL appelé signal mélange, résultant d'une combinaison des
signaux sources et éventuellement d'un bruit additif. Le problème de la séparation
de sources consiste à retrouver les N signaux sources à partir de la connaissance des
A1 signaux mélanges. La séparation est dite aveugle lorsque la résolution du pro-
blème n'utilise aucune connaissance a priori sur la nature des sources. Le problème
de la séparation de sources se rencontre dans des applications très variées du traite-
.2 ment du signal et en particulier dans les domaines suivants .
e-
g ( 11 En traitement de la parole, on doit séparer des signaux de parole émis simulta-
~ nément par des locuteurs au cours d'une conversation ou reconnaître la voix d'un
locuteur parmi d'autres.
(2) En radio astronomie. on doit séparer des signaux radio émis par des étoiles
observées simultanément.
246 5 • Méthodes d'analyse polyspectrale et applications

(3) En traitement d'antenne à bande étroite, en radar, en sonar, en analyse de données


géophysiques, la séparation de source est utilisée lorsque des signaux provenant de
plusieurs émetteurs ou rét1ecteurs interférent au niveau de l'antenne de réception.
(4) En traitement de signaux biomédicaux, on doit extraire les données utiles (EEG,
ECG, etc) d'un enregistrement perturbé par l'activité cardiaque ou musculaire.
Les mélanges rencontrés dans les applications sont le plus souvent des mélanges
instantanés et linéaires. On peut aussi avoir à traiter des mélanges instantanés non
linéaires oü des mélanges convolutifs linéaires ou non linéaires. Mais dans le cas
non linéaire, on se limite très souvent à des modèles particuliers qui sont quadra-
tiques ou cubiques. Dans la suite de cet exposé. on considèrera le cas, important
dans les applications, d'un mélange linéaire auquel s'ajoute une composante de bruit
parasite. Dans de nombreuses situations réelles, le bruit parasite peut être vu comme
une source additionnelle et ceci peut conduire à un problème de séparation oü le
nombre de sources est supérieur au nombre de capteurs. Même dans ce cas, l'iden-
titïcation du modèle reste encore possible, moyennant des hypothèses supplémen-
taires sur les bruits (gaussiens par exemple) eliou sur les sources.
Les méthodes de séparation qui sont présentées dans la suite supposent que les
sources sont statistiquement indépendantes dans leur ensemble (et souvent à bande
étroite). Signalons l'existence de travaux récents qui traitent du problème de sépa-
ration dans le cas de signaux large bande. Dans le cas général le mélange de sources
et le bruit reçus par chaque capteur sont temporellement et spatialement corrélés.
Mais dans ce cas le problème de séparation devient complexe et pour éviter cette
diftïculté, de nombreuses méthodes ne prennent pas en compte la présence de bruit
ou bien le suppose spatialement et temporellement blanc et indépendant des signaux
sources. Plusieurs méthodes ont été développées pour résoudre le problème de sépa-
ration. On peut citer des méthodes adaptatives utilisant des transformations non
linéaires [66] [27] [75], des approches utilisant seulement les statistiques d'ordre 2
[5] et des méthodes qui exploitent les culumants d'ordre 4 [35] [84]. Des méthodes
utilisant, soit l'approche bayesienne [6 1], soit une approche J'ondée sur la represen-
tation d'état ont été proposées récemment [1291 [ 130].

5.3. 1 Méthodes fondées sur le blanchiment des données


Soient s; (1 ). i = 1..... N, les N signaux sources. réels ou complexes, qui se mélan-
gent et x;(t), i = L ... . A1. les signaux observés sur les NI capteurs d'une antem~e.
Chacun des x 1 (tl résulte d'un mélange des .1· 1(t) et éventuellement d'un bruit addi-
tif. On peut donc considérer la relation vectorielle :

x(l) = A(s(l)) + b(t)


oü x(ll est le vecteur observation. s(t) le vecteur source et b(l) le vecteur bruit.
Dans le cas général. l'opérateur mélange .A peut être linéaire ou non. instantané ou
ü mémoire. Comme on se place clans le cas de mélanges linéaires. le modèle s'écrit:
5.3 App/icat;on à la séparaUon de sources 247

x= y +b avec y = As (5.84)

où A est une matrice constante, appelée matrice de mélange, et s, y. x sont des vec-
teurs dépendant de l'instant t que l'on ne fait pas apparaître pour simplifier les nota-
tions. Pour un signal stationnaire, on désignera dans toute la suite par :

Rc(T) = E[e(t)eH (t - T)]

la matrice de corrélation du vecteur signale où eH représente le transposé conjugué


de e et on utilisera la notation Re !è Rc(O). Pour une matrice A inversible, si l'on
remplace dans le modèle ci-dessus A par AR, et s par R;;- 1s, le vecteur observation
x reste inchangé. Cette propriété nous permet de supposer, sans perte de généralité,
chacun des signaux sources de variance unité. Le problème de la séparation de
sources revient soit à identifier la matrice A et estimer ensuite le vecteur sources,
soit à identifier directement une matrice proche de la matrice inverse de A.
Nous allons exposer maintenant les différentes étapes de la séparation. Comme
les sources sont supposées spatialement décorrélées el toutes de variance unité, on
a:

R, = E(s(t)sH (t)) = I (5.85)

où I désigne la matrice identité. D'où

Ry = ARsA H = AA H (5.86)

et puisque le bruit est blanc et indépendant des, on obtient:

R, = Ry + cr2 1 = AA H + cr2I. (5.87)

Soit W la matrice de blanchiment du vecteur y, i.e. telle que le vecteur signal :

z = Wy(t)
soit spalialement blanc, i.e. :

E[Z(t )zH (til = I.


"~ Tenant compte de l'expression de z(t), cette propriété conduit à la relation matri-
-~ cielle :
3
_g
o. E'(i(t)zH (t)j = WA(WA)H = I (5.88)
,;
0
5 qui montre que pour toute matrice de blanchiment, W, de y, il existe une matrice
0
Q unitaire U vérifiant :
248 5 • Méthodes d'analyse polyspectrale et applications

U = WA avec uuH = I.
La matrice de mélange A se calcule donc à partir de U et W en utilisant la relation :

A=W'U (5.89)

où W' désigne la pseudo-inverse de Moore-Penrose de W qui se réduit à w- 1


lorsque W est inversible. 11 suffit donc de connaître W et U pour pouvoir détermi-
ner A. Par ailleurs, tenant compte de (5.87), on obtient:

(5.90)

et si on suppose Œ2 connue, "\;V peut ainsi être déterminée à partir de la matrice de


covariance R, des observations x. D'après la relation (5.89), la connaissance de W
ne permet de déterminer A qu'à une matrice unitaire U près. Ce résultat peut s'ex-
z
pliquer par le fait que deux vecteurs et z reliés par :

z= uz avec uuH = I

ont la même matrice de corTélation. Donc si z


est le vecteur observation blanchi,
i.e., R; = I, on aura aussi Rz = I et donc z est aussi blanc. Comme le vecteur
source cherchés est aussi blanc, la question est de savoir s'il existe une matrice uni-
taire U qui transforme le vecteur observation blanchi z
en un vecteur z dont les
composantes sont celles des à une permutation près. La recherche de cette matrice
constitue l'étape« Blanchiment» de la l1gure 5.1.

Mélange b Blanchiment Indépendance

~ A
~ w z
u z

Figure 5.1 Mélange bruité x et séparation en deux étapes donnant::.

La détermination de U constitue la seconde étape des principales méthodes de


séparation utilisant le blanchiment (étape «Indépendance, de la figure 5.1 ). Ces
méthodes utilisent soit une diagonalisation simultanée de plusieurs matrices de
covariance calculées à des instants différents [4], soit des statistiques d'ordre supé-
rieur à deux [39] [35] [55].
Cmnme IÇ est aussi une matrice diagonale, la propriété suivante relative à runi-
cité de la factorisation d'une matrice hermitienne, montre que la diagonalisation de
R; ne permet pas de déterminer U.
5.3 Application à fa séparation de sources 249

Unicité de la factorisation spectrale Soit R une matrice hermitienne ayant ses


valeurs propres distinctes deux à deux. La diagonalisation de R est unique à une
matrice de permutation près. i.e., si l'on écrit R sous l'une des deux fonnes :

R = U(1 DtUt = UfD2U2

oü Dt et D2 sont des matrices diagonales, alors Ut et U2 sont forcément unitaires et


on a: D2 = PDt et U2 =PUt oü P désigne une matrice de pennutation.

5.3.2 Méthodes fondées sur un modèle d'état


L'approche par représentation d'état suscite un interêt croissant dans les travaux
récents sur la séparation de sources. Cette méthode a d'abord été utilisée pour la
résolution du problème de déconvolution. Par exemple. l'article de L. Zhang et
A. Ciehocki [28] présente le cadre général de cette problématique et l'élargit au cas
de la séparation de sources. Dans le cas d'un modèle linéaire. la méthode consiste à
introduire deux équations d'état et donc deux vecteurs d'état x et x le premier repré-
sente la phase d'obsenYlfion et le second la phase de séparation. Le vecteur obser-
vation, noté ici u. est donné par la sortie de l'équation d'observation de la première
phase. Le vecteur y, représentant la sortie de la phase de séparation, sera calculé à
partir de x et de u. Pour la phase d'observation, on a le modèle suivant :

x(k + 1) = Ax(k) + Bs(kl + LÇp(kJ


u(k) = Cx(k) + Ds(k) + !l(k)

oü A. B, C et D désignent les matrices de mélange du modèle d'état, L la matrice


bruit, Çp(k) le bruit d'observation et O(k) le bruit de mesure. Pour la phase de sépa-
ration, le modèle est délïni par :

x(k + 1) = Ax(k) + Bu(k) + LÇR(k)


y(k) = Cx(k) + Du(k)
oü A, B, C, D et L, appellées matrices de séparation et matrice bruit, représentent
les paramètres à déterminer. La fonction de transfert de la phase d'observation est
donnée par:
- - - -
H(~) = C(~I- A) B + D
~t-

(5.91)

et celle de la phase de séparation par:


-
B + D.
~t
H(z) = C(z.l- A) (5.92)

Dans cette section on suppose toujours les sources indépendantes mais pas néces-
sairement de variance unité. Comme précédemment. on veut que la sortie y vérifie :
250 5 • Méthodes d'analyse polyspectrale et applications

y= H(:)H(z)s = PA(z)s (5.93)

où P est une matrice de permutation et A (z) une mahice diagonale dont les élé-
ments sont de la forme .\ z-k;, ,\ E !R* et k; E N. L'existence des matrices A, B,
C, D qui permettent d'obtenir l'équation (5.93), est discutée dans [125]. On y
démontre, en particulier, que si le rang de la matrice D est égal à N, il existe un
ensemble de matrice A, B, C, D telles qu'on puisse récupérer les signaux sources à
partir du signal de sortie y. Différents algorithmes t'Ondés sur le modèle d'état ont
été proposés dans [28]. On trouve aussi une approche relative à ces algorithmes
appelée TBYY (Temporel Bayesian Ying Yang). Ces algorithmes estiment les para-
mètres du modèle de séparation par apprentissage adaptatif basé sur la minimisation
d'une fonction coût (divergence de kullback-Leibler). L'algorithme d'apprentissage
est basé sur la maximisation de l'information mutuelle des signaux de sortie définie
par [28] :

"
I(H) = -1-i(y,H) + _L'H(y;,H) (5.94)
i=l

avec

1-i(y,H) =- f fj,(y,H)logfy(y,H)dy

et

1-i(y;,H) = - f f,.;(y;.H)logfv;(Y;,H)dy;

oùfy(y,H) etfv;()';,H) désignent les densités de probabilité conjointe et marginale


respectivement. L'algorithme d'apprentissage permet d'obtenir les équations d'esti-
mation des matrices C et D en supposant que les matrices A et B sont connues.
Dans le cas contraire, l'estimation du vecteur d'état x permet de séparer les signaux
mélangés en utilisant les règles d'apprentissage de Cet D.

5.3.3 Méthodes Bayesiennes

Le principe des méthodes dites bayesiennes est de chercher parmi un ensemble de


solutions possibles, celle qui est la plus probable au sens d'un certain critère. Cela
revient souvent à chercher la solution qui maximise une fonctionnelle appelée
<< vraissemblance ». Dans la suite, nous allons présenter l'algorithme de Bell-
Sejnowski en se basant sur l'article [71 J. Le résultat mathématique sur lequel repo-
sent ces méthodes est la l'annule de Bayes classique suivante [6] :
5.3 Applicatîon à la séparatîon de sources 251

P (données 1modèle, !) P (modèle Il)


P (modèle 1données,/ ) = -'----':---,-----'--'------''- (5,95)
P(donnéesll)

où P désigne la loi de probabilité et !l'information a priori. L'application de cette


formule au modèle défini par (5.84) conduit à:

" A l P(xiA,s,l)P(A,sl/)
PA.s = P( ,s x,l) = P(xll) (5.96)

où A et s délïnissent le modèle à détemliner, x les données ou observations et J l'in-


formation a priori éventuelle sur les sources ou sur le modèle. À titre d'exemples,
on peut disposer des informations suivantes.
-Les sources sont non corrélées.
- Les sources sont statistiquement indépendantes.
- On cannait certaines grandeurs statistiques des sources.
- La densité de probabilité est une hyper-Gaussienne (cas des signaux de parole par
exemple).
Le principe des méthodes bayesiennes consiste à détem1iner les paramètres A et
s du modèle qui maximisent la probabilité PA,s donnée par (5.96). Comme P(xll)
est une grandeur indépendante des paramètres à détenniner, on peut la considérer
comme une constante de nonnalisation. Si J'on suppose que la matrice de mélange
est indépendante des signaux sources, la probabilité a priori P(A.sll) peut s'écrire
comme le produit de deux probabilités, soit :
P(A,sll) = P(Ail)P(sll)

et on obtient :

PA.s = aP(xiA,s,/)P(Ail)P(sll)

où a est un facteur indépendant de A et de s. À titre d'exemple, une fonctionnelle


dont la maximisation donne la matrice A s'obtient en intégrant par rapport au
signaux sources. D'où

PA= nP(Ail) f P(xiA,s.l)P(sil)ds. (5.97)


0
"5...
80 Comme la fonctionnelle à maximiser est positive et que la fonction logarithme est
"3 croissante, on préfère maximiser la fonctionnelle :
'6.

qui a pour expression :


252 5 • Méthodes d'analyse polyspectrale et applications

LA= (3+logP(Ail) +log 1 P(xiA.s,l)P(sll)ds. (5.98)

Pour trouver le maximum, on peut utiliser la méthode du gradient classique sous la


forme [71] :

B k+1 = Bk + u'B , avec B "= A- 1


~ (5.99)

où les éléménts ôbiJ de la matrice Ll.B sont définis à partir des éléments biJ de B
par:

À titre d'exemple, on peut considérer un mélange linéaire instantané avec une vrai-
semblance donnée par:

P(xiA.s,!) = nô (x; - L G;kSk)


' k
(5.100)

où les a;k sont les éléments de la matrice inconnue A et ô la distribution de Dirac.


L'indépendance des sources conduit à :

P(sl/) = Tit;,(.,,). (5.101)


1

Si l'on ne dispose d'aucune connaissance a priori sur la structure de la matrice A, on


peut faire l'hypothèse d'une densité de probabilité unifonne. Cela signifie que l'on
prend P(Ail) = Cte pour toutes les matrices A possibles et P(Ail) = 0 si la
1
matrice A n'a aucune chance d'être solution. Comme B = A - , on peut établir la
relation [71] :

l;(u;) T
Ll.B = A T + -·._,- x (5.102)
J;,(u;)

où Il; = sk/a;k· En multipliant à droite par BTB, on obtient l'équation de mise à jour
suivante (Beii-Sejnowski) :

(5.103)
5.3 Application à la séparation de sources 253

Exemple Supposons que le signal observé est déjà décorrélé, l'étape de blanchi-
ment de la tigure 5.1 n'est plus mécessaire et la matrice A est elle-même orthogo-
nale. Généralement on utilise dans ce cas l'hypothèse a priori suivante :

P(Ail) = J
1,o- exp [liA _ A~Tf]
o- (5. 104)
2 2 2 2

où o- représente l'incertitude sur l'orthogonalité de la matrice A et Il. Il la norme de


Frobnius.

5.3.4 Exemples d'algorithmes de séparation

Nous allons présenter brièvement dans cette section, quelques exemples de


méthodes de séparation et les algorithmes associés. Signalons que dans la majorité
des applications en séparation de sources, le nombre de sources est inconnu et son
estimation reste assez délicate. Par conséquent, on ne peut pas toujours connaître la
taille de la matrice de mélange et donc appliquer correctement les algorithmes. Des
éléments de réponse à ce problème sont proposés dans la littérature. lorsqu'on consi-
dère un nombre de sources inférieur au nombre de signaux observés. Par ailleurs,
les perfonnances des algorithmes de séparation dépendent fortement du bruit per-
tm·bateur. Dans le cas non bruité, l'éfficacité de la séparation est totalement liée à
l'identification de la matrice de mélange A. Dans le cas bruité, la qualité de la res-
titution d'une source est directement liée au rapport signal à bruit. Dans le premier
cas, on définit le taux de réjection hq comme étant la puissance relative des sources
sk(t) et sq(l). Le taux de réjectio!J est calculé en fonction de la matrice de mélange
A et de la matrice de séparation A définie par :

AA=P

où P est une matrice de pennutation en admettant que le bruit b est négligeable et


les sources de variance unité. Ce taux est défini par [46] :

0
0
0
0
·o.
§ où les l'kq sont les éléments de P. Une autre grandeur de mesure pour la source Sk (1)
{ est donnée par:
254 5 • Méthodes d'analyse polyspectrale et applications

a) Algorithmes adaptatifs avec loi d'apprentissage


Une des premières solutions du problème de séparation fut proposée dans [66].
Cette solution est obtenue à l'aide d'un algorithme adaptatif défini par la relation
entrée/sortie suivante :

où la matrice F a tous ses éléments diagonaux nuls et les autres éléments sont mis
à jour à l'aide de la loi d'apprentissage suivante :

(5.105)

dans laquelle!' est un pas d'adaptation positif et F 1, F2 deux fonctions impaires dif-
férentes. À litre d'exemple, on peut choisir F 1(u) = u 3 et F2(11) = 11. Cette loi d'ap-
prentissage constitue une sorte de test d'indépendance des signaux de sortie z;. En
effet, la relation (5.1 05) tend à annuler les moments E[F1(z; )F2 (Zj )] qui sont effec-
tivement nuls lorsque les composantes z; ont des lois paires et sont indépendantes.
Plusieurs types de réseaux représentant la loi d'adaptation de cet algorithme sont
proposés dans [85].
Toujours dans l'esprit des méthodes adaptatives, B. Laheld et J.F. Cardoso [75]
ont proposé un~ famille d'algorithmes fondés sur une loi d'adaptation de la matrice
de séparation, A, définie en l'absence de bruit par :

z = Ax.
Cette matrice relie le vecteur observation x au vecteur z à partir duquel on doit pou-
voir déduire le vecteur source s par simple pemmtation des composantes. Le plus
simple parmi les algorithmes proposés dans [75] est donné par la relation suivante
qui détïnit ln mise à jour de la matrice A :
- -
Ak+l = [I- p.f(zk)]Ak

avec

où g désigne une fonction vectorielle non linéaire agissant composante par compo-
sante. Cet algorithme permet des performances de séparation qui sont indépen-
dantes de la matrice de mélange et en particulier de son conditionnement.
Nous allons présenter dans la suite des méthodes de séparation de sources qui
procèdent en deux phases : une phase de décorrélation ou " blanchiment" des
observations suivi d'une phase utilisant souvent le calcul des cumulants qui permet
d'achever la séparation proprement dite, voir la figure 5.1. Signalons toul d'abord un
5.3 Application à la séparation de sources 255

algorithme auto-adaptatif de séparation qui consiste à extraire, après la phase de


blanchiment, les sources à séparer l'une à la suite de l'autre. Cet algorithme, fondé
sur les idées de O. Shalvi, a été proposé par N. Del fosse et P. Loubaton [38]. Pour
les sources de kurtosis négatif, le principe est de minimiser pour chaque restitution
le cumulant d'ordre 4 de la sortie considérée.

b) Diagonalisa tian conjointe de plusieurs covariances


Dans les travaux [4] les auteurs proposent une technique de séparation fondée sur
la diagonalisation conjointe d'un ensemble de matrices de covariance. Le principe
de la méthode proposée consiste à blanchir les observations et à maximiser ensuite
une fonctionnelle pour déterminer la matrice unitaire U. Cette maximisation revient
en fait à effectuer une diagonalisation conjointe de plusieurs matrices de covariance.
Comme le bruit est supposé blanc, la matrice de corrélation du signal blanchi
z(l) = Wx(t) est donnée par :

(5.106)

où U = WA et UUH = I. Comme la matrice U est unitaire et R,(T) est diagonale,


la relation (5.1 06) traduit la factorisation spectrale de IÇ(T).
Si les valeurs propres de IÇ( T) sont distinctes, l'unicité de la factorisation spec-
trale d'une matrice hermitienne montre que la matrice U s'obtient en diagonalisant
IÇ( T). Mais, d'après la remarque sur l'unicité de la factorisation spectrale, cela ne
pe1met pas de retrouver s. Si la matrice IÇ(T) admet au moins une valeur propre
multiple, c'est l'unicité de la diagonalisation de cette matrice qui pose problème.
Donc, dans les deux cas, une simple diagonalisation de IÇ(T) ne sufl1t pas pour
résoudre le problème de la séparation de sources. Pour résoudre ce problème en uti-
lisant uniquement les statistiques d'ordre deux, les auteurs de [4] procèdent à une
diagonalisation simultanées d'un ensemble de matrices de corrélation IÇ(Tkl,
k = 1, ... K de dimension M. Cette diagonalisation conjointe consiste à déterminer
une matrice V, lorsqu'elle existe, telle que chacune des matrices IÇ(Tk) soit la plus
proche possible d'une matrice diagonale. Dans le cas d'une seule mat1ice ( [( = l),
cela revient à chercher une base orthonormée (v,,i = 1, ... ,!VI} qui minimise la
quantité :
(5.107)

=
où V désigne la matrice dont les colonnes sont les éléments v, de la base orthonor-
c
= mée cherchée et

ofi'(M) !!= L 2
lmi.J 1
l<:;io:f- j(ll

On obtient alors la diagonalisation de IÇ(T1). Pour K > 1, la matrice V n'existe pas


forcément. Cependant, la relation (5.106) qui est valable pour T quelconque, montre
256 5 • Méthodes d'analyse polyspectrale et applications

que V existe toujours dans le cas de signaux stationnaires. Une méthode de diago-
nalisation conjointe consiste à chercher les vecteurs v; qui minimisent la quantité :
K
C(TJ, ... ,TK,V) =L C(T;,V) (5.108)

ce qui équivaut à chercher la matrice unitaire V qui minimise cette quantité. La


solution V ainsi trouvée nous donne la matrice U à une permutation près.

Algorithme DC
1. Déterminer un estimateur R, de la matrice de covariance des observations x. Soit
,\1, ... , ,\N les N plus grandes valeurs propres de cette matrice eth; les vecteurs
propres associés.
2. Estimer la variance du bruit par la moyenne arithmétique î72 des M - N valeurs
propres les plus petites.
3. Signal blanchi :
- 1
z;(t) = h;, i = l, ... ,N
JÀi- êi2
4. Estimer la matrice de blanchiment par :

5. Déterminer une mattice unitaire U par diagonalisation conjointe de ~( Tk),


k = 1, ... ,K.
6. Estimer s par ûHWx(t) et A par WPÛ.

c) Maximisation d'une fonction contraste


Après l'étape de décorrélation (ou" blanchiment») des observations, on procède à
la maximisation d'une fonction appelée contraste. Cette maximisation permet de
transformer les composantes décorrélées en composantes mutuellement indépen-
dantes. On admet [35] que la résolution du problème ~ la séparation de sources
mélangées linéairement équivaut à trouver une matrice A telle que le vecteur :

z~Ax=AAs
admet des composantes mutuellement indépendantes. Les composantes de s se
déduisent alors de celles de z par simple changement d'échelle et permutations
éventuelles. On doit donc avoir:
5.3 Application à la séparation de sources 257

AA=DP

où D et P désignent une matrice diagonale et une matrice de permutation. La dia-


gonalisation de la matrice de conélation de z sous la forme

conduit à un vecteur dont les composantes sont décorrélées mais pas forcément
indépendantes sauf dans le cas gaussien. Dans le cas non gaussien, les cumulants
d'ordres supérieurs à 2 sont non nuls. En particulier, le cumulant d'ordre 4 auquel
on associe la dénomination de kurtosis joue un rôle important dans la mesure du
blanchiment d'un signal. Dans la suite, on désignera par ~ 1 .... • ~N les composantes
d'un vecteur aléatoire z, par cum(~ 1 ,, ••• • z11') le cumulant des variables aléatoires
::;,. , ••• ,:::. 1,
1
et dans le cas;,,. 1 = ... = :::.,., = : : on utilisera la notation simplitiée c1,(:::),
appelée cumulant d'ordre p de la variable aléatoire~-
La méthode développée dans [35] pour résoudre le problème de la séparation de
sources statistiquement indépendantes est fondée sur la maximisation d'une fonc-
tion \jJ. appelée« fonction contraste », définie sur l'ensemble des vecteurs aléatoires
à valeurs complexes et vérifiant les propriétés suivantes.
1. \jJ (z) ne dépend que de la densité de probabilité conjointe des z;.
2. \jJ est invariante par changement d'échelle, i.e., pour toute matrice diagonale D
inversible. on a :

\j.I(Dz) = \j.l(z).

3. \j.l(z) ne dépend pas de l'ordre des Y.A.


4. Pour tout vecteur z de composantes indépendantes et toute matrice M, on a:

\j.I(Mz) ~ \j.l(z).

Signalons que Shalvi et Weinstein [117 J sont aussi d'autres utilisateurs de cette
approche et Donoho [41] en est le précurseur.

Exemple 5.3.1 Fonctions contraste


c
0
c On peut vérifier [35] [92] que les relations suivantes définissent des fonctions
{ contrastes pour les vecteurs blancs ayant au plus un cumulant d'ordre p non nul.
,j
2
0 N N
L [c,(z; )[.
~

= I.:C~(z; ).
o.
\j.l,(z) p > 4 et <Pp(z) = p > 4.
1 1

On peut aussi vérifier que la quantité suivante :


258 5 • Méthodes d'analyse polyspectrale et applications

Sp(Z) = L 2
cum (.::i 1 , • • • ,Zif')
ij, .... il,

est invariante par transfom1ation unitaire du vecteur z [53]. Ce résultat permet d'af-
tïrmer que, pour un vecteur blanc, maximiser WP (z) équivaut à minimiser la somme
des carrés des cummulants croisés du même ordre. Rappelons que si un sous-
ensemble de composantes d'Lm vecteur aléatoire z sont statistiquement indépen-
dantes des autres composantes. alors on a cmn2 (: 1, •••• :p) =O. Cette propriété
permet de justitïer que la maximisation de Wp(z) tend à rendre les composantes de
z indépendantes.
On doit estimer une matrice unitaire U qui maximise la fonction contraste. Tl
existe plusieurs méthodes et on va présenter ici celle qui est fondée sur un algo-
rithme du type gradient:

Atïn d'assurer que la matrice U est unitaire. on peut considérer la factorisation de U


en produit de rotations plane ou de Givens :

où D désigne une matrice diagonale ayant pour éléments ± 1, chaque matrice


Q1 (fl1 ) est définie par un seul paramètre et lv!= N(N- 1)/2. Comme la matrice
D a pour éléments ±1, elle peut être intégrée dans la matrice de permutation P
inconnue. Le problème revient donc à chercher les paramètres (i qui maximisent la
fonction contraste considérée en utilisant l'algorithme du gradient et la forme sui-
vante pourU :
(5. 109)

C'est un problème classique et on obtient les algorithmes proposés dans [92]. À titre
d'exemple, si l'on considère la fonction contraste Wp(z) comme fonction de U et
donc des fi k. le calcul du gradient de Wp(z) par rapport aux lh conduit à l'algorithme
suivant.
(1) Calcul de la sortie: Z(11) = u,_[X(11)
"N iJ:;(n),. ~
(2) Loi d'adaptation: flk(n) = lh(n- Il+ p L..i=l aOk ëi (n)q[:;(n- 1)].
(3) Estimation des cumulants: ê4 [:;(n)] = (1- ~~Jê.J[:;(n- 1)] + fL,.[:j(n)- 3].
La même démarche conduit à un autre algorithme fondé sur l'utilisation de la
fonction contraste <P,(z). Ces algorithmes peuvent se simplifier. En particulier, si
l'on suppose que les cumulants des sources sont de même signe (par exemple, les
Exercices et problèmes corrigés 259

signaux de communication possèdent souvent des kurtosis négatif) on obtient des


simplifications très avantageuses pour la complexité de mise en oeuvre des algo-
rithmes.

d) Annulation de cumulants croisés d'ordre 4


La méthode présentée par Ruben Martin-Clemente et José !. Acha [84], fondée sur
les statistiques d'ordre supérieur ù deux nécessite les hypothèses classiques suivantes
: les sources sont centrées, indépendantes, stationnaires, de variance unité, et au plus
une source est gaussienne et la matrice de mélange est inversible. L'algorithme pro-
posé permet de retrouver les sources en ne résolvant que des sys1èmes linéaires.
Classiquement, la première étape de la séparation de sources consiste ù blanchir le
vecteur observation y pour obtenir un signal z spatialement blanc. On a alors :
z = Wy = WAs(t) = Us(f) (5.110)

où W désigne la matrice de blanchiment et U une matrice orthogonale. On cher-


chera à estimer les signaux « sources » par :

(5.111)

où P est une matrice de permutation. Dans cette partie, on ne s'occupera pas de la


détennination de W mais on raisonnera directement sur B. On supposera donc dans
cette partie que le signal x est lui-même décorrélé. Ce qui revient à dire que W = I
et par suite la matrice A est orthogonale. La matrice A représente en fait le produit
des matrices de mélange A et de blanchiment W de la première section. Les vec-
teurs y et z sont les mêmes. Utilisant les cumulants d'ordre 4 et le fait que P est une
matrice de permutation. on obtient la condition suivante que doit satisfaire la
matrice B :
N N
4-'ij(z,B) = 0, \fi =f j avec 'if'ij = L Lb; 111 bj 11 CUm(x;,Xj.X 111 ,Xn)
Ill 11

les h.;, désignant les éléments de la matrice B. Introduisons les deux matrices
J(x.B) dont les éléments sont les •t/1;.; et

où H 11 désigne le kurtosis de la variable aléatoire S 11 • Supposons dans la suite les


valeurs propres de la matrice b.; (A) deux à deux distinctes pour tout i. Ceci nous
impose d'avoir au plus une source gaussienne. Alors B est une matrice de sépara-
tion si et seulement si J(x.B) est une matrice diagonale. On obtient un ensemble
d'équations linéaires [84] :
260 5 • Méthodes d'analyse polyspectrale et applications

où e; désigne le i-ème vecteur de la base canonique. Ainsi. on a :

extrema pour la forme quadratique :


N
L g~Ia~Nh·-n·
i=l

On a donc N matrices de séparation que l'on désigne par:

P{ = E[xxtx~]- o:{I avec a{= 1 + '1/'iJHJ.

Sous l'hypothèse a;,; =f 0, l'équation Pf v; = e; admet une solution unique :


Ae·
. ___
.1
V ,- .
20ij

Cette solution est proportionnelle à la j-ème colonne de A et donc les P/ fournis-


sent chaque colonne de A, proportionnelle à v; et à b;. On obtient ainsi les lignes de
la matrice de séparation B.

EXERCICES ET PROBLÈMES CORRIGÉS

5.1 Relation entre les moments et les cumulants

1. Établir les relations suivantes entre les matrices blocs intervenant dans les
matrices M, et r, définies par (5.15) et (5.16).

r,=f,. r,,=fzï'. r,=r,+rr+.i(-r,r+rr,l

2. Démontrer les propositions 5.1.5 et 5.1.6.


Exercices et problèmes corrigés 261

3. Établir les expressions suivantes qui donnent les moments en fonction des cumu-
lants :

(5.111)

où la somme est pnse sur tous les entiers h et tous les vecteurs lk tels que
itlt + ... +iqlq =n.
4. Établir les expressions suivantes qm donnent les cumulants en fonction des
moments:

5. Établir les expressions mixtes suivantes

6. Remplaçant n par n +rn dans (5. 11 1) et prenant les dérivées partielle de


11An +rn]. établir la formule suivante :

ap.,[n+m]- (n+m)
ac,[m] - n pAn].

5.2 Inversibilité de la matrice des moments

Soit X(k) une V. A vectorielle à q composantes définie par :

x(k) ~ [xk-l·· ..• -'k-qf (5.112)

et P (x) un polynôme réels à q indétenninées défini par :

P(x) = (5.113)
,
·o.
8
t
'É.
où h 1, ..;,1 sont des réels et d le degré total de P, on suppose que le degré partiel de
P par rapport à chaque variable .r1 est cft, i.e. l ~ ij ~ d1 pour j = 1, ... ,q.
Introduisons le vecteur,'\:', obtenu en concaténant lous les monômes possibles dans
un certain ordre (lexicographique par exemple). Le vecteur,'\:' doit contenir tous les
262 5 • Méthodes d'analyse po/yspectra/e et applications

monômes possibles. La même opération sur les coefficients lz;, ... ;'l conduit à un vec-
teur h. Le polynôme P (x) peut alors se mettre sous la forme suivante :

(5.114)
où les coeftïcients hi 1... i,1 qui correspondent à des monomes de .-l'qui n'interviennent
pas dans P(x) sont nuls. Dans certains traitements non linéaires, on est conduit à
étudier l'inversibilité de la matrice :
(5.115)

1. Démontrer que l'inégalité suivante est toujours vérifiée


., 1 . '
E[-~"'iJ i, ., i
,. 'l-' '0:::::, E[x-'
' ' '-~Cf " J
l'' ' ' '
E[x·-'
.tj
'1 l .
l''~ '

2. Démontrer que les conditions

EI-'Fl < oo, pour k = 1, ... ,q


sont suffisantes pour que les inégalités suivantes soient vérifiées :
1
lE[x ;,1 .. . xq'111 < oo,

3. On suppose que x est réduit à une V.A scalaire, q = 1. Démontrer que la matrice
K est non inversible ssi cette variable est discrète et prend au plus d valeurs dis-
tinctes avec des probabilités non nulles. On peut consulter [211.

5.3 Estimation polynomiale d'une variable aléatoire

On va chercher l'estimation polynomiale d'une V.A Y en fonction des V.A


X 1, ... , Xq. On sait que cette estimation est donnée par la projection orhogonale de
Y sur l'espace de Hilbert engendré par toutes les fonctions polynomiales dont les
variables s9?t X 1 ••••• Xq. Cette projection est donc un polynôme qui est délïni par
le vecteur h solution des équations normales :
Kh = E[Yx]. x"' [X 1, .•• ,Xq]T

1. Démontrer que l'erreur d'estimation est donnée par :


2 2 ~T -
c" = E[Y l - h ElY x].

2. Écrire les deux équations ci-dessus sous la fonne d'un système dont on explici-
tera la matrice lVI.
3. Écrire la matrice M, notée rq+l• dans le cas particulier où Y= X"+l et
X;=X 1, i = l ..... q.
Exercices et problèmes corrigés 263

4. On suppose ï,1 inversible. Appliquer la méthode de Cramer au système pour éta-


blir l'expression de l'eiTeur E~ en fonction de et de Ïq et Ïq+l·
5. Utilisant les résultats de la question 3 de l'exercice 5.4.2, en déduire que si une
V.A scalaire est discrète et prend q + 1 valeurs distinctes, alors on a E~ =O.
6. On suppose que X est une V.A gaussienne de variance cr 2 . Démontrer que
E~ = q !cr1q. La suite E~ est-elle décroissante à partir d'un certain rang? Commenter.

SOLUTIONS

5.1 1. Il suftït de développer les calculs en considérant les différentes matrices blocs.
1
2. • Démonstration de la proposition 5.1.5. Il suffit d'exprimerft(x,y) ~ K exp[ - g,(x,y)]
2

en fonction de (, (. On obtient

41(()
( (1
11

g,(x,y) = 1

L'hypothèse fxy = 0 conduit à rz = rz = rx + r.Y· rzZ = r1.Ï = rx- r'y et on obtient:

I
( -J
1 )-
j
1
( r,
0
() ) ( 1 ./•
r, 1 -J
)-
1
= 4 ( r'
r-zz
r,).
rz

Prenant l'inverse de cette matrice, on obtient l'expression de g 1 (x.y).

• Démonstration de la proposition 5.1.6. Tenant compte des expressions des matrices de cor-
rélation de différents vecteurs, on obtient :

4q,(U. V)= 4Qz(W.W) = wl/fzW +WH r'zW + wHfzïW + WHflzW


= 2wf-l fzW + 2Re(\V 11 füW) = 2n,l1 r'zW +UT (fx- fy)V
-v T cr,-r,Jv+u T (ï,,+ï,,)v.
0
'6..
~ D'où 4Qz(w,W) = 2wHrzw si, et seulement si, l'équation suivante est vérifiée pour tout
~ couple de vecteurs réels (u. v).
j

3. Voir [21] pour les questions suivantes.


264 5 • Méthodes d'analyse polyspectrale et applications

5.3 1. On a
cq = E[(Y- hx)2J = E[(Y- hx)YJ = E[Y 2 ] - I;E[Y(x)].

2. Les deux équations ci-dessus s'écrivent sous la forme condensée suivante :


K
( E[Yx]r
E[Y~])
E[Y·]
(h)l = ( c;~)
3. Dans le cas particulier OÙ y = xq+l et X; = xi ,i = I , ... ,q' la matrice l\tl = ï q+l du
système ci-dessus est une matrice de Hankel d'ordre q +let d'élément E[X 1 Xi].
4. La résolution du système par la méthode de Cramer conduit à :
7 det(Ïq+I)
E- = ,
·q det(fq)

5. Si la V. A X est discrète et prend q + 1 valeurs distinctes, alors la matrice Ïq+l est singu-
lière d'après le résultat de la question 3 de l'exercice 5.4.2. On a donc det(fq+ll = 0 et par
. Eq' = 0 .
SUite

6. Comme X est une V. A gausienne centrée, on peut montrer que [6] :

On montre ensuite que c~ = q !a2q. Cette suite n'est croissante gu' à partir d'un certain rang.
En fait, dans l'estimation linéaire d'une variable Y en fonction de X 1, .•. • Xq, l'erreur E~
décroît lorsque q augmente. Dans l'exercice, on estime en fait une V.A Y= xq+l qul change
avec le nombre q et l'erreur E~ n'a aucune raison d'être décroissante.
Bibliographie

[1] D'ALESSANDRO C, YEGNANARAYANA B, and DARSINOS V- An


iterative algorithm for decomposition of speech signais into periodic and ape-
riodic components, IEEE, Trcmsaclions on Speech and Audio Processing, 6.
January 1998.
[2] BASSEM R. MAHAFZA. -flllmduclion to radar analysis. CRC Press. 1998.
[3] BELLANGER M.- Traitement Numérique du Signal, Masson, Paris, 1982.
[4] BELOUCHERANI A., ADEB-MERAIM K., CARDOSO J.F. and MOU-
LINES E. - A blind source separation technique using second-order statis-
tics,IEEE T~: an SP, 45, no 2: 499-509, February 1997.
[5] BENEDETTO J.J. and FRAZIER M. W. - Wm•e/ets : Mathematics and
Applications, CRC PRESS. 1994.
[6] BEN ID IR M.- Théorie et Traitement du Signal, Tome 1, Dunod, Paris, 2002.
[7] BENIDIR M.- Characterization of polynomial functions and application to
time-frequency analysis. IEEE, Trans. SP, 45: 549-552, May 1997.
[8] BENIDIR M. et BARRET M.- Stabilité desfiltres et des systèmes linéaires,
Dunod, Paris. 1999.
[9] BENIDIR M. and OULDALI A.- Polynomial phase signal analysis based on
the polynomial derivatives decompositions, IEEE, Trans. SP, 47 : 1954-1965,
July 1999.
[lOI BESSON O. and CASTANIÉ F.- Mn estimating the lrequency afa sinusoid in
autoregressive multiplicaive noise. Signal processing, 30: 65-83, January 1993.
[Il] BESSON O. and STOl CA P.. Estimation of the parameters of a random
amplitude sinusoid by correlation fitting, IEEE Trans. Signal processing,
44:2911-2916, November 1996.
[12] BLANC-LAPIERRE A. et FORTET R.- Théorie des frmctions aléatoires,
Masson. Paris. 1953.
[ 13] BOASHASH B. - Methods and Applications of Time-Frequency Signal
Analysis. Longman Cheshire. ISBN Il 0 0-13-007444-6,Melbourne, Australia,
1991.
[14] BOASHASH B. - Time-frequency signal analysis, in S. Haykin. editor,
Admnces in Spectral Estimation and Array Pmcessing. volume 1, chapter 9,
pages 418-517, Prentice Hall. Englewood Cliffs, New Jersey, 1991.
[ 15] BOASHASH B.- lnterpreting and estimating the instantaneous frequency of
a signal- Part II : Algorithms. Proceedings of' the IEEE, pages 519-569, April
1992.
266 Bibliographie

[16] BOASHASH B. and O'SHEA P. - Time-varying higher arder spectra in


advanced signal processing algorithms, architectures and implementations, San
Diego, USA, July 1991.
[ 17] BOASHASH B. and 0' SHEA P. -Polynomial Wigner-Ville distributions and
their relationship with time-varying higher spectra, IEEE Transactions on
Acoustics, Speech and Signal Processing, 1993.
[18] BOASHASH B. and RIST!CH B.- Time-varying higher arder spectra and the
reduced Wigner trispectrum. in Franklin T. Luk. editor, Advanced signal
Processing Algorithms, Architectures and Implementations, volume 1770,
pages 268-280, San Diego, USA, July 1992, Proceedings of SPIE.
[19] BOLT B.- Inside in the earth, San Francisco: W.H, Freeman, 1982.
[20] BOLT B. and BRILLINGER D.- Estimation of uncertainties in eigenspectral
estimates from decaying geophysica1 times series, Geophys. .!. R. As/1: Soc.,
59 : 593-603, 1979.
[21] BONDON P. - Statistiques d'ordre supérieur et modélisation en traitement du
signal. Thèse de doctorat de 1'Université de Paris-Sud, Décembre 1991.
[22] BONDON P., BEN!DIR M. and PICINBONO B. - Bispectrum modelling
using quadratic lïlters, Proc. ICASSP, Toronto, Canada, pages 3113-3116,
1991.
[23] BONDON P., BENIDIR M. and PICINBONO B.- Polyspectrum modelling
using linear or quadratic lïlters, IEEE Trans. Signal Pmcessing, pages 672-702,
February 1993.
[24] BONDON P. and PICINBONO B. - De la blancheur et de ses transfonna-
tions, Trait~ment du Signal, 7:385-395, 1991.
[25] BRILLINGER D. - An introduction to polyspectra, Ann. Mati!. Stat., 36:
1351-1374. 1965.
[26] BRILLINGER D.R. and ROSENBLATT M.- Asymptotic them·y of estimates
ofk-th arder spectra, in B. Harris, editor, Spectra Analysis r!f'Time Series, chap-
ter 7. pages 153-188, John Wiley and Sons, New York, USA, 1967.
[27] CARDOSO J.F.- Source separation using higher-order moments, Pmceedings
of the IEEE International Conference on ASSP, Glasgow, Scot/and, May 1989.
[28] CICHOCKI A. and AMARI S.I. - Adaptil•e Blind Signal and Image
Pmcessing. John Wiley, England, 2002.
[29] CLASSEN T.A.C.M. and MECKLENBRAUKER W.F.G.- The Wigner dis-
tribution - a tool for time frequency analysis - Part !, Phillips Journal of
Research. 35:217-250. 1980.
[30] CLASSEN T.A.C.M. and MECKLENBRAUKER W.F.G.- The Wigner dis-
tribution - a tool for time frequency analysis - Pa11 Il, Phillips Joumal of
Research. 35: 276-300. 1980.
[311 CLASSEN T.A.C.M. and MECKLENBRAUKER W.F.G.- The Wigner dis-
tribution - a tool for time frequency analysis - Part III. Phillips .loumal ()f'
Research, 35 : 372-389. 1980.
267 Bibliographie

[32] CLAUD ER J.R. and SKAGERSTAM B.S. -Coherent states, World Scient(fic,
1985.
[33] COHEN L. - Time-frequency distributions - A review, Proceedings of the
IEEE, 77(7): 941-981, July, 1989.
[341 COMON P. - From sources separation to blind equalization contrast-based
approaches, Iut. Cm!f on Image and Signal Processing. lClS, Agadir,
Marocco, pp. 20-23, May 2001.
[35] COMON P. - lndependent component analysis, a new concept, SP, 36, n'3 :
287-314, April 1994.
[36] DAUBECHIES I. - Orthonormal bases of compactly supported wavelets,
Co/11111. P11re and Appt. Math., 41 : 909-996, 1988.
[371 DAUBECH!ES L - The wavelet transform, time-frequency localization and
signal analysis, Trans. fT, 36: 961-1005, Sep. 1990.
[38] DELFOSSE N. and LOUBATON P. - Adaptive separation of independent
sources: a deflation approach, Proc. JCASSP'94, IV: 41-44, April 1994.
[39] DINH-TUAN P. and CARDOSO J.F.- Blind separation of instantaneous mix-
tures of nonstationary sources, IEEE, Transactions on SP, September 2001.
[40] DOGAN M.C. and MENDEL J.M.- Antenna array noise reconditioning by
cumulants, Proceeding (}{the Workslwp on Higher-Onler Statistics, June 1993.
[41] DONOHO D. - On minimum entropy deconvolution, Applied Time Series
Ana/ysis, pages 565-608, 1981.
j42] DOOB J.L- Stochastic Processes, J. Wiley, New York, 1953.
[43] DUVAUT P.- Traitement du Signal, Hennes, Paris, 1991.
[44] DWYER R. -Ranger and doppler infonnation from fourth-order spectra.
IEEE .loumal <Jf oceanic engineering, 16 : 233-243. July 1991.
]45 j DWYER R.F.- Fourth-order spectra of Gaussian amplitude-modulated sinu-
soids, .l. Acoust. Soc. Am., pages 919-926, August 1991.
[46] FABRY P. - Technique de séparation de sources appliquées à des signaux
vibratoires de machines tournantes. Thèse de doctorat de /'INPG. 2001.
[47] FAVIER G.- Filtrage, Modéli.~ation et ldem{fication de Systèmes Linéaires
Stochastiques à Temps Discret, Editions du CNRS. 1982.
[48] FLANDRIN P. et ESCUDIÉ B. - Principe et mise en œuvre de l'analyse
temps-fréquence par transfonnation de Wigner-Ville, Trait. Sig., 2: 143-151,
1985.
[49] FONOLLOSA J.R. and NIKlAS C.L. - General class of time-frequency
higher-order spectra : Definitions. properties, computation and applications
to transient signais, in Proc. /nt. Signal Processi11g ~Vorkshop on Higher~Order
Statistics. pages 132-135, Chamrousse. France, July 1991.
]50] FONOLLOSA J.R. and NIKlAS C.L- Wigner polyspectra: HOS spectra in
TV signal processing, in Pme. !nt. Co'!f: Acoustic, Speech and Signal
Processing (!CASSP). pages 3085-8, Toronto, Canada. May 1991.
268 Bibliographie

[51] FRIEDLAND ER B. and FRAN COS J.- Estimation of amplitude and phase
parameters of multicomponent signais, IEEE Trans. Signal processing, 43 :
917-925, April\995.
[52] FRIEDLANDER B. and PORAT B. - Detection of transient signais by the
gabor representation, Trans. ASSP, 37: 169-180, 1989.
[53] GABOR D. - Theory of communication, .loumal (}(the lEE, 93 : 429-457,
1946.
[54] GALT!ER F.- Contribution à l'estimation fréquentielle de signaux en ané-
mométrie laser doppler, Thèse ENSICA, 1997.
[55] GAETA M. and LACOUME J-.L.- Source separation without a priori know-
ledge : the maximum likelihood solution, EUSIPCO '90, pages 621-624. May
1990.
[56] GIANNAKIS G., SHAMSUNDER S. and FRIEDLAND ER B. - Estimating
random amplitude polynomial phase signais : A cyclostationnary approach,
IEEE Trans. Signal pmcessing. 43 : 492-505, February 1995.
[57] G!ANNAK!S G., ZHOU G. and SWAMl A.- On polynomial phase signais
with time-varying amplitudes, lEE Trans. Signal pmcessing, 44 : 848-861,
April 1996.
[58] GIANNAKIS G. and ZHOU G. - Harmonies in multiplicative and additive
noise : parameters estimation using cyclic statistics, IEEE Trans. Signal pm-
cessing, 43: 2217-2221, January 1995.
[59] GIANNAKIS G.B. and DANDAWATE A.- Polyspectral analysis ofnon-sta-
tionary signais : bases, consistency and HOS-WY, in Proc. !nt. Signal
Pmcessing Workslwp on Higher-Onler Statistics, pages 167-170, Chamrousse,
France, J uly 1991.
[60] GRAN GER C.W.J. - Forecasting white noise, discussion paper.
[61] GROSS MANN A. and MORLET J.- Decomposition of hardy fonctions into
square integrable wavelets of constantshape, SIAM.!. Math. Anal, 15 : 723-
736. 1984.
[62] HASAN T.- Non1inear ti me series regression for a class of amplitude modu-
lated cosinusoids, ./. 1ïme Series Anal., 3: 109-122, 1982.
[63] HAYKIN S. - Nonlinear methods for spectral analysis. Springer-Verlag,
1983.
[64] HELSTROM C.- An expansion of a signal into gaussian elementary signais.
IEEE Trans. !1(/'ormation Themy, 13 : 344-345, 1966.
[65] HUA Y. and SARKAR T. - Matrix pencil methodfi>r estimating parame/ers
of exponentially dampedlundamped silwsoids in noise, volume 38, 1990.
[66] JUTTEN C. and HÉRAULT J. -lndependent component analysis versus pca,
Proc. EUS!PCO, pages 643-646, 1988.
[67] KANTOROVITCH L.V.- Sur un problème de m. steinhaus, Funcl. Mat/1.. 14:
266-270, 1929.
269 Bibliographie

[68] KAY S.M. - Modern spectral estimation, Prentice-Hall Signal Processing


Series, !988.
[69] KENDALL M.G. and STUART A. - The AdFanced The01y of Statistics,
Griffin and Co. Ltd., London, 1966.
[70] KIM K.I. and POWERS E.J. - A digital method of rnodeling quadratically
nonlinear systems with a general random input, IEEE Trans. Acoust. Speech,
Signal Processing, 36 : 1758-1769, 1988.
[71] KNUTH K.H.- A bayesian approach to source separation. ICA'99, pages
283-288, Janvier 1999.
[72] KOIFMAN R. and MEYER Y.- Remarques sur J'analyse de fourier à fenêtre,
C.R. Acad. Sei. serie!, 312: 259-261, 1991.
[73] KROB M. and BENIDIR M. -Blind identiiïcation of a linear-quadratic mix-
ture : Application to quadratic phase coupling estimation, Proceeding of the
Workshop on Higher-Order Statistics, pages 351-355, June 1993.
[74] KUMARESAN R. and TUFTS D.W. - Estimating the angles of arrivais of
multiple plane waves, IEEE Trans. Aero;p. Electron. Syst., 19: 134-139, 1983.
[75] LAHELD B. and CARDOSO J.F - Adaptive source separation without
prewhitening, in Pme. EUS!PC0'94, pages 183-186, September 1994.
[76] LEONOV V.P. and SHIRYAEV A.N. - On a method of calculation of semi-
invariants, Th. Prob. Appt., 4: 319-329, 1959.
[77] LEROUX J. and GUEGEN C. -A fïxed point computation of partial conela-
tion coefficients. IEEE Trans. ASSP, 25:257-259, Jun 1977.
[78] LEVINSON N.- The wiener rms enor criterion in fi1ter design and prediction,
1. Math. Plzysics, 25, 1947.
[79] MAC CHI O. - Adaptive Processing-The /east mean squares approac/z witlz
applications in transmission. John Wi1ey and Sons, 1995.
[80] MALLAT S. - Multiresolution approximation and wavelet orthonormal bases
of 12 ('\1), Trans. Ame~: Math. Soc., 315: 69-87, Sep. 1989.
[81] MALLAT S.- A theory for multireso1ution signal decomposition : the wave1et
representation, IEEE Trans. PAMl, 11 : 674-693, Ju1y 1989.
[82] MARKS R.J., ZHAO Y., ATLAS L.E. -The use of cone-shaped kernels for
generalized time-frequency representations of nonstationnary signais, IEEE
Trans. ASSP, 38: 1084-1091, July 1990.
[83] MARPLE S.L. Jr.- Digital Spectral Analysis witlz Applications, Prentice-Hall,
Englewood Cliffs, NJ, 1987.
[84] MARTIN-CLEMENTE R. and ACHA J.I .- Linear equations for the blind
separation of sources.
[85] MELLA O. - Extraction of formants of oral vowels and critical analysis for
speeker characterisation, ESCA workslzop on automatic speaker Recog. Idellfi(
and Ver((, pages 193-196, 1994.
270 Bibliographie

[86] MENDEL J.M. - Tutorial on higher-order statistics (spectral in signal pro-


cessing and system theory : theoretical results and sorne applications.
Pmceedings of the IEEE, 79: 277-305, 1991.
[87] MENDEL J.M .. ZHAO X. and NGO C.Y.- A new formula to calculate cumu-
lants and sorne applications of it, Proceedings of the Intemational Signal
Pmcessing Workshop on Higher-Order Statistics, Chamrousse, France, pages
59-61, 1991.
[88] MEYER Y.- Ondelettes et opérateurs, Tome 1, Hermann, Paris, 1990.
[89] MEYER Y. - Méthodes temps-fréquence et méthodes temps-échelles en
traitement du signal et de l'image, Ondelettes et paquets d'ondelettes,
Roquencourt, pages 1-29, 17-21, Jun 1991.
[90] MICHAUT F.- Méthodes adaptatives pour le signal, Hermes, Paris, 1992.
[91] MOKHTARI P. el BONNEAU R.- Un diagnostic phonétique pour les défi-
ciences auditives, XXIJJèmes Joumées d'Études sur la parole, Aussois, Juin
2000.
[92] MOREAU E. - Apprentissage et adaptativité, séparation auto-adaptative de
sources indépendantes par réseau de neurones, Thèse de docteur en sciences
de 1'Université de Paris-Sud. Février 1995.
[93] MORRIS C.N. - Natural exponential families with quadratic variance func-
tions, Amz. Statist., 10: 65-80, 1982.
[94] NIKlAS C.- Higher order spectra, in S. Hay kin, editer, Advmzces in Spectral
Estimation and Array Pmcessing, volume 1 of 2, chapter 7, pages 326-365,
Prentice Hall, Englewood Cliffs, New Jersey, 1990.
[95] NIKlAS C. and PETROPULU A.P. - Prentice Hall, Englewood Cliffs, New
Jersey, 1993.
[96] NIKlAS C.L. and RAGHUVEER M.R. - Bispectrum estimation : A digital
signal processing framework, Pmceeding of the IEEE, 75(7): 869-891, July
1987.
[97] OULDALI A.- Approches pour l'analyse des signaux à phase polynomiales,
effets d'un bruit multiplicatif et d'une amplitude variable, Thèse de doctorat
de l'Université de Paris-Sud, Septembre 1998.
[98] OULDALI A. and BENIDIR M. - Statistical analysis of polynomial phase
signais affected by multiplicative and additive noise, SP, 78 : 19-42, 1999.
[99] OVARLEZ J.P., VIGNAUD L., CASTELLI J.C., TRIA M., and BENIDTR
M. - Analysis of sar images by multidimensional wavelet transform, lEE
Proc. Radar Sonar Navig., ISO: 941-981, August 2003.
[ 100] PA PO ULIS A. - Pmbability, Randmn Variables, and Stoc/zastic Pmcesses,
McGraw Hill, Kogakusha, Ltd, 1965.
[101] PAPOULIS A. - Pmbability, Random Variables, and Stochastic Processes,
McGraw Hill, J apan, 1984.
271 Bibliographie

[102] PELEG S. and FRIEDLANDER B.- A technique for estirnating the pararn-
eters of multiple polynomial phase signais, in Proc. !nt. Symp. Time-
Frequency and Time-Sca/e Analysis, pages 119-122, Victoria, Canada, Oct.
1992.
[1 03] PELEG S. and PO RAT- The Cramer-Rao lower bound for signais with con-
stant amplitude and polynomial phase. IEEE Transactions on Signal
Processing, 39(3): 749-752, March 1991.
[ 104] PELEG S. and PO RAT B. - Estimation and classification of polynomial
phase signais, IEEE Trans. I'!lonnation Themy, 37 : 422-429, March 1991.
[ 105] PEYRIN F. and FROST R. -An unitïed definition for the discrete-tirne, dis-
crete-frequency and discrete-time/frequency wigner distribution. IEEE Trans.
ASSP, 34: 858-867, Aug. 1986.
[ 106] PIC!NBONO B.- Théorie des Signaux et Système, Dunod Université, Paris,
1989.
[ 107] P!C!NBONO B.- Signaux aléatoires, Tome 1, Du nod Université, Paris, 1994.
[108] PIC!NBONO B. -Signaux aléatoires, Tome 2, Dunod Université, Paris, 1994.
[109] PORAT B. and FRIEDLANDER B. -Performance analysis of parameter
estimation algorithrns based on high-order moments, !nt. .!. Adaptatil'e
Control and Signal Processing, 3: 191-229, 1989.
[ 110] PO RAT B. and FRIEDLAND ER B. - Estimation of frequency in the pres-
ence of nonrandom interference, IEEE Trans. Signal processing, 44 : 640-
651. March 1996.
[Ill] RA BINER L. and SCHAFER R. - Digital Processing of Speech Signais,
Printice-Hall, 1978.
[112] RAO T.S. and GABR M.M. - An introduction to bispectral analysis and
bilinear time series rnodels, Lecture Notes in Statistics, 24, 1984.
[113] RIFE D.C. and BOORSTYN R.R. - Single torre parameter estimation from
discrete-time observations, IEEE Transactions on b~f'ormation TheOJ)',
20(5) : 591-598, 1974.
[ 114] ROSENBLATT M. - Stationwy Sequences and Random Fields. Boston :
Birkhauser, 1985.
[115] ROSENBLATT M. and VAN NESS J.W.- Estimation of the bispectrum.
Ann. Mat/1. Statist., 36. 1965.
[116] SCHWARTZ S., THOMAS J.- Tapies in Non-Gaussian Signal Processing,
E. Wegman and S. Schwartz and J. Thomas, 14. Springer Ver/ag, 1988.
[ 117] SHALVI O. and WEINSTEIN E.- New criteria for blind deconvolution of
nonrninimum phase systems (channels), IEEE Trans. on b~f'ormation Theory,
36. n°2: 312-321. March 1990.
[118[ SHIRYAEV A.N. - Sorne problems in spectral theory of higher-order
moments i, Th. Prob. Appl., 5 : 265-284, 1960.
272 Bibliographie

[119] Third-order wigner distribution : Definitions and properties.- Pmceedùzgs of


the IEEE Imemational Conference on ASSP Tomnto Canada, 35 : 3081-
3084.
[120] URICK R. - Models for amplitude fluctuations of narrowband signais and
noise in the sea, JAZf\, 62: 878-887, July 1977.
[ 121] URICK R. -Princip les of underwater sound, July 1983.
[122] VAN NESS J. W.- Asymptotic normal y of bispectral estimates, Amz. Matlz.
Statist., 37, 1986.
[123] VILLE J.- Théorie et application de la notion de signal analytique, Cab/es
et Transmissions, 2A(l): 61-74, 1948.
[124] WALTERS K. -lR~f/ection Seismology: A tao/for energy ressource explo-
ration, John Wiley, 1978.
[ 125] WICKERHAUSER M.V - Inria lectures on wavelet packet algorithms.
Ondelettes et paquets d'ondelettes, Roquencourt, pages 31-99, Jun. I 99 L
[126] WIENER N. - Extrapolation, interpolation and smootlzing of rime series.,
MIT Press, Englewood Cl iffs, New Jersey, USA, 1949.
[127] WIGNER E.P.- On the quantum correction for therrnodynamic equilibrium.
Plzysics Review, 40: 748-759, 1932.
[128] ZHANG B. and SATO S.- A time-frequency distribution of cohen's class
with a compound kemel and its application to speech signal processing,
IEEE, Transactions on SP, 42 : 54-64, January 1994.
[129] ZHANG L.-Q. and CHICHOCKI A. -Blind deconvolution of dynamical
systems : astate space approach. SP, 4, n°2 : 111-130, March 2000.
[ 130] ZHANG L-Q. and CICHOCKI A. -Blind deconvolution/equalization using
state space models, Pme '98 IEEE Signal Processing Society Workslzop on
NNSP, 33, nol: 123-131. 1998.
[131] ZHOU G. and GIANNAK1S G.- On estimating random amplitude modulat-
ed harmonies using higher-order spectra. IEEE Journal (~(oceanic engineer-
ing, 19: 529-539, October 1994.
[ 132] ZHOU G. and GIANNAKIS G. - Hmmonics in multiplicative and additive
noise : parameter estimation using cyclic statistics, IEEE Trans. Signal pm-
cessing, 43: 1445-1460, Jun. 1995.
Index

A E
algorithme de Levinson 12 entropie 77
algorithme du gradiem stochastique 36 équation de Riccati discrète 48
algorithme MCR 31 équation de Wiener-Hoppf Il
analyse mullirésolulion (AMR) 182 équation de Yule-Walker Il
équation double-échelle 185
B estimateur de Blackmann-Tukey 74
estimation linéaire 9
base d'ondeleues 182
base de Haar 188
base de Riesz 182 F
base de Shannon-Nyquist 191 hrctorisation polyspectrale 234
base orthonormale d'ondelettes 188 fenêtre d'observation 95
base orthonormée de Wilson 178 fenêtre de Chai- Williams 109
blanchiment d'un signal 238 fenêtre de Margenau-Hill 110
fenêtre de Zhang-Sato 110
c fenêtre de Zhao-Atlas-Marks Il 0
coefi1cient de réflexion 14 fenêtre gaussienne 110
corrélograrnme 74 filtre adapté 2
critère de stabilité au sens strict 23 tïltre de Wiener 7
cumulants 214,215 lïltre polynomial 18
c filtre quadratique invariant 229
=
filtres miroirs en quadrature 190
D
fonction ambiguïté 104
densité polyspectrale généralisée 225 fonction ambiguïté généralisée 126
= distribution de W. V discrète 107 fonction cumulant 223
0
0
distribution de Wigner- Ville Généralisée hmclion échelle 183, 185
128 fonction moment 223
distribution de Wigner- Ville polynomiale forme treillis 18
122 l'orme treillis du tïltrc 43
distribution polyspectrale 224 formule des interférences 225
distribution polyspectrale généralisée 225 fréquence instantanée 93
distribution temps-fréquence 103 fréquences amorties 68
274 Index

G polyspectres instantanés 226


princtpe J'incertitude de Gabor-
gain d'adaptation 31 Heisenberg 95, 99
gain de Kalman 31,47 projecteur et espérance conditionnelle 9
propriétés marginales 103

innovation 70 R
représentation en treillis 18
L représentations temps-fréquence 92
lemme d'inversion matriciel 31
5
M signal analytique 107
matrice de blanchiment 247 signaux chirp 113
matrice de mélange 247 signaux multicomposantes 131
maximum d'entropie 77 spectre instantané 93
méthode Backward 43 spectrogramme 93, 96
méthode de Capon 80 stabilité 2!
méthode de Pisarenko 64 stabilité au sens large 25
méthode de Prony 68 stabilité au sens strict 23
méthode Forward 43 structure de Toeplitz
méthode MUSIC 66
modèle autorégressif 69 T
modèle de la moyenne ajustée 72
modélisation d'un polyspectre 236 taux d'entropie 77
test de stabilité 26
0 trame exacte 173
trames biorthogonales 175
ondelettes à support borné 192 transformation de Gabor 96
ondelettes biorthogonales 192 transformée de Fourier de courte durée 95
ondelettes de Mal var !78, !79 transformée de phase polynomiale 121

p
v
périoclogramme 74
polynôme autoréciproque (a.r) 20 vecteur circulaire 223
polynôme réciproque 18 vecteur Gaussien complexe 220

Vous aimerez peut-être aussi