Académique Documents
Professionnel Documents
Culture Documents
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 7 228 − 1
FILTRAGE OPTIMAL _____________________________________________________________________________________________________________________
t1
1.1 Définitions
s2 ( t1 ) =
∫
Ð∞
s1 ( τ ) h ( t1 Ð τ ) d τ (2)
t1
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 7 228 − 2 © Techniques de l’Ingénieur, traité Mesures et Contrôle
____________________________________________________________________________________________________________________ FILTRAGE OPTIMAL
La relation (1) devient, compte tenu de (2) et (3) : Si nous l’appliquons au numérateur de la relation (8) en prenant
f ( ω ) = h ( ω ) et g ( ω ) = s 1 ( ω ) exp j ωt 1 il vient :
t1 2
∫ Ð∞
s 1 ( τ ) h ( t 1 Ð τ ) dτ
R o ( t 1 ) = -----------------------------------------------------------------------------------------------------------------------
- (5) ∫
+∞
h ( ω ) s 1 ( ω ) exp { j ωt 1 } dω
2
<
∫
+∞
h (ω) 2dω
∫
+∞
s1 ( ω ) 2 d ω
t t Ð∞ Ð∞ Ð∞
∫ ∫
1 1
k b ( τ , σ ) h ( t 1 Ð τ ) h ( t 1 Ð σ ) dσ d τ
Ð∞ Ð∞ Ainsi Ro est majoré comme suit :
+∞
∫
Il est évident que l’équation (5) n’est soluble que si la fonction
d’autocorrélation k b est connue. Ro ( t1 ) < ( 2 ⁄ No ) s1 ( ω ) 2 d ω (11)
Ð∞
∫ ∫
+∞
∫
k b ( τ , σ ) h ( t 1 Ð τ ) h ( t 1 Ð σ ) dτ d σ
où h op ( t ) = s 1 ( Ð ω ) exp { Ð j ω ( t 1 Ð t ) } d ω
Ð∞ Ð∞
Ð∞
t1 t1
= ( No ⁄ 2 )
∫ ∫Ð∞ Ð∞
δ ( τ Ð σ ) h ( t 1 Ð τ ) h ( t 1 Ð σ ) dτ d σ soit h op ( t ) = s 1 ( t 1 Ð t ) (12)
Ð∞
∫ s 1 ( τ ) h ( t 1 Ð τ ) dτ
R o ( t 1 ) = -------------------------------------------------------------------------
- (7)
du filtre.
Cette dernière relation signifie qu’à l’instant t1 tout le signal a tra-
No + ∞
∫
versé le filtre. Nous avons le signal à la sortie :
------- h ( t 1 Ð τ ) dτ
2
2 Ð∞ t
+∞ 2
∫ Ð∞
h ( ω ) s 1 ( ω ) exp ( j ωt 1 ) dω
R o ( t 1 ) = ---------------------------------------------------------------------------------------------------
- (8)
Cette dernière relation présente une grande similitude avec la
fonction d’autocorrélation de s (t ) :
+∞
∫
T
∫
No ⁄ 2 h ( ω ) 2 dω 1
k s ( τ ) = lim ------- s (t) s (t + τ) dt
Ð∞ T → ∞ 2T
ÐT
or h ( ω ) 2 = h ( ω ) h ( Ð ω ) = h ( ω ) h∗ ( ω ) (9) Rappelons que pour les signaux à énergie finie, c’est-à-dire tels
que :
Nous aurons besoin d’utiliser l’inégalité de Schwarz que nous
+∞
∫
énoncerons comme suit :
s (t) 2 dt < ∞
ω2 2 ω2 ω2 Ð∞
∫ ω1
f ( ω ). g ( ω ) dω <
∫ ω1
f (ω) 2 dω
∫ ω1
g (ω) 2 dω (10)
On a :
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 7 228 − 3
FILTRAGE OPTIMAL _____________________________________________________________________________________________________________________
Exemple : nous allons considérer un cas simple pour mettre en évi- la recherche du maximum de R o ( t 1 ) est aussi équivalente à la
dence la difficulté du choix de l’instant t1. Soit un signal représenté minimisation de Q, sous la contrainte que s 22 ( t 1 ) est connu. On
peut aussi considérer la quantité Q avec l’expression suivante :
1
en figure 2 constitué par une exponentielle de constante de temps --- Q = E { b 22 ( t 1 ) } Ð µs 2 ( t 1 ) .
α
tel que : Ceci est un problème d’optimisation où µ est un multiplicateur
de Lagrange.
0 t<0
s1 ( t ) = La résolution, c’est-à-dire la recherche de la réponse impulsion-
a exp { Ð αt } t>0
nelle du filtre optimal, pourra être effectuée par l’utilisation de tech-
niques classiques du calcul variationnel.
0 t > t1
s ( t 1 Ð t ), t > 0
h op ( t ) = = a exp { Ð α ( t 1 Ð t ) } 0 < t < t1 Pour ce faire, nous allons remplacer h (t ) par :
0 t<0
0 t<0 h op ( t ) + γδh ( t ) (16)
Ainsi, plus t1 est petit − c’est-à-dire petit par rapport à la durée du
signal − plus l’approximation de la réponse impulsionnelle, par un filtre dans l’expression (15)
réalisable, est grossière.
où γ est une variable réelle, et δ h un accroissement arbitraire.
Nous obtiendrons alors une expression de Q qui sera fonction de
γ et que nous noterons Q ( γ ) . La solution sera obtenue par la réso-
s1(t) h (t) lution de l’équation :
a
a ∂Q (γ ) = 0
------------------
∂γ γ=0
[ h op ( t 1 Ð σ ) + γδh ( t 1 Ð σ ) ] k b ( τ Ð σ ) d σ d τ
0 t t1
c е
∫ Ð∞
[ h op ( t 1 Ð τ ) + γδh ( t 1 Ð τ ) ] s 1 ( τ ) dτ
Figure 2 – Signal s1, filtre adapté et signal de sortie s2
soit, en condensant les écritures :
Q ( γ ) = Q ( 0 ) + 2 γA + γ 2 B > 0
1.3 Cas d’un bruit coloré
la condition nécessaire donnant le minimum de Q est :
1.3.1 Position du problème ∂Q (γ )
------------------ = 0 (17)
∂γ γ=0
Nous allons considérer ici le cas d’un signal noyé dans un bruit
coloré de fonction d’autocorrélation kb. Quel que soit l’incrément δ h , cette relation conduit à A = 0, soit :
Reprenons l’expression (5) :
t1 t1
∂-------
∫ ∫
Q
t1 2 - = [ h op ( t 1 Ð τ ) δh ( t 1 Ð σ ) + h op ( t 1 Ð σ ) δh ( t 1 Ð τ )
∫
∂γ
s1 ( τ ) h ( t1 Ð τ ) d τ Ð∞ Ð∞
Ð∞
R o ( t 1 ) = ---------------------------------------------------------------------------------------------------------------------------
- + 2 γδh ( t 1 Ð τ ) δh ( t 1 Ð σ ) ] k b ( τ Ð σ ) d σ d τ
t t
∫ ∫
1 1
kb ( τ , σ ) h ( t1 Ð τ ) h ( t1 Ð σ ) d σ d τ t1
Ð∞
s 22 ( t 1 )
Ð∞
= ------------------------------
- (14) or
е
∫Ð∞
δh ( t 1 Ð τ ) s 1 ( τ ) d τ
E { b 22 ( t 1 ) }
t1 t1
Quand R o ( t 1 ) aura atteint sa valeur maximale, cela signifiera
que la puissance du bruit E { b 22 ( t 1 ) } sera minimale. ∫ ∫ Ð∞ Ð∞
h op ( t 1 Ð σ ) δh ( t 1 Ð τ ) k b ( σ Ð τ ) d τ d σ =
Q = E { b 22 ( t 1 ) } Ð µs 22 ( t 1 ) (15) ∫ ∫
Ð∞ Ð∞
h op ( t 1 Ð τ ) δh ( t 1 Ð σ ) k b ( τ Ð σ ) d τ d σ (18)
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 7 228 − 4 © Techniques de l’Ingénieur, traité Mesures et Contrôle
____________________________________________________________________________________________________________________ FILTRAGE OPTIMAL
Il vient, en tenant compte de (17) et de la parité de Si ϕ b ( ω ) est la densité spectrale du bruit b (t ), l’équation (22)
kb : kb ( τ Ð σ ) = kb ( σ Ð τ ) : devient :
t1 t1 ∞
∫ ∫ Ð∞ Ð∞
2 δh ( t 1 Ð τ ) h op ( t 1 Ð σ ) k b ( τ Ð σ ) d τ d σ
∫ Ð∞
h op ( t 1 Ð σ ) exp { Ð j ωσ } ϕ b ( ω ) dσ = s ( ω ) (23)
t1
е
∫Ð∞
δh ( t 1 Ð τ ) s 1 ( τ ) d τ = 0 En opérant le changement de variable défini par x = t 1 Ð σ , l’équa-
tion (23) devient :
+∞
∫
ou encore :
exp { Ð j ωt 1 } ϕ b ( ω ) h op ( x ) exp { j ωx } dx = s ( ω )
t1 t1 Ð∞
∫ Ð∞
δh ( t 1 Ð τ )d τ
∫ Ð∞
2 h op ( t 1 Ð τ ) k b ( τ Ð σ ) d σ Ð µ s 1 ( τ ) = 0 (19)
ou encore :
Cette relation doit être satisfaite quel que soit δh , donc (19) se s (Ð ω)
H op ( ω ) = ------------------- exp { Ð j ωt 1 }
réduit à : ϕb ( ω )
t1
∫
µ Ceci peut être une solution approchée dans certains cas où l’on ne
h op ( t 1 Ð σ ) k b ( τ Ð σ ) d σ = --- s 1 ( τ ) Ð ∞ < τ < t1 se pose pas le problème de la réalisabilité du filtre, ou bien dans le
Ð∞
2
cas où l’on dispose d’enregistrements. En effet, si l’on opère sur des
enregistrements, il est évident qu’à chaque instant on connaît le
µ
Le facteur --- modifie uniquement le gain du filtre, il aura donc la passé et le futur du signal et il n’y a plus de difficulté à écrire l’inté-
2 grale de { Ð ∞ à + ∞ } .
même incidence sur le bruit et sur le signal. Si nous le prenons égal
à 1, h op sera alors connue à un facteur constant près, et l’équation
1.3.3 Solution du filtre adapté par les techniques
générale du filtre adapté pour un bruit coloré devient :
du blanchissement ou « blanchiement »
t1
∫Ð∞
h op ( t 1 Ð σ ) k b ( τ Ð σ ) d σ = s 1 ( τ ) (20) En réalité, le problème délicat reste la résolution de l’équation (20)
et naturellement la difficulté majeure provient du fait que la borne
supérieure de l’intégrale soit t1 au lieu de + ∞ . Nous exposerons la
Pour nous assurer que technique du blanchissement couramment utilisée dans la résolu-
tion des équations de Fredholm qui jouent un rôle important dans
∂Q (γ ) = 0 divers domaines de la théorie de la détection et de l’estimation.
------------------
∂γ γ=0
Nous introduirons successivement la factorisation spectrale et la
est aussi une condition suffisante, il faut calculer la quantité : mise en forme spectrale avant d’aborder la résolution de l’équation
(23) proprement dite.
t1 t1
∫ ∫
∂2 Q
---------- = 2 δh ( t 1 Ð τ ) δ h op ( t 1 Ð σ ) k b ( τ Ð σ ) d τ d σ
∂γ 2 1.3.3.1 Factorisation spectrale
Ð∞ Ð∞
Si l’on considère un processus aléatoire de densité spectrale de
et s’assurer qu’elle est positive. Ceci est en effet le cas, car k b est puissance (dsp) ϕ ( ω ) et de fonction d’autocorrélation k (t ), le théo-
définie positive. rème de Wiener-Kinchin donne :
∂2 Q
---------- sera positive ou nulle pour δ h = 0 . +∞
∫
∂γ 2
ϕ (ω) = k ( τ ) exp { Ð j ωτ } d τ
Ð∞
1.3.2 Filtre adapté non physiquement réalisable
■ Rappelons que :
Si l’on ne s’impose pas de contrainte de réalisabilité, l’équation
1°) ϕ ( ω ) est une fonction réelle ; en effet :
du filtre adapté devient :
+∞
∫
+∞
∫ Ð∞
k b ( τ Ð σ ) h op ( t 1 Ð σ ) d σ = s ( τ ) Ð ∞<τ<+ ∞ (21) ϕ (ω) =
Ð∞
k ( τ ) [ cos ωτ Ð j sin ωτ ] d τ
C’est là une équation de convolution qui se simplifie si on k (t ) étant paire, cette relation se réduit à :
l’exprime dans le domaine fréquentiel. L’application de la transfor-
+∞
∫
mée de Fourier aux deux membres de l’équation (21) donne :
ϕ (ω) = k ( τ ) cos ωτ d τ
+∞ +∞ Ð∞
∫ ∫
Ð∞ Ð∞
k b ( τ Ð σ ) h op ( t 1 Ð σ ) exp { Ð j ωτ } d σ dτ
k (t ) étant réelle pour un processus réel, ϕ ( ω ) sera donc une
+∞ fonction réelle ;
=
∫ Ð∞
s ( τ ) exp { Ð j ωτ } d τ (22) 2°) ϕ ( ω ) est une fonction paire : par simple changement de varia-
ble de τ en − τ, on obtient ϕ ( ω ) = ϕ ( Ð ω ) ;
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 7 228 − 5
FILTRAGE OPTIMAL _____________________________________________________________________________________________________________________
On aura ainsi :
x (t ) est le processus aléatoire de densité spectrale ϕ ( ω ) .
ϕÐ ( ω ) H ( Ð ω ) = ϕ+ ( ω ) H ( ω )
■ Supposons que ϕ ( ω ) résulte du passage d’un bruit blanc, dont
nous prendrons la dsp égale à 1, à travers un filtre passif de fonction Le filtre blanchissant, physiquement réalisable, aura pour fonc-
de transfert H ( j ω ) . Nous aurons : tion de transfert :
H ( ω ) = 1 ⁄ ϕ+ ( ω )
ϕ ( ω ) = H ( j ω ) 2 .1
Pour un filtre stationnaire, linéaire et à constantes localisées, 1.3.3.2 Solution de l’équation du filtre adapté
H ( j ω ) a la forme générale : Dans le cas général, c’est-à-dire en présence d’un bruit station-
naire coloré, on peut penser intuitivement à la solution suivante qui
ω n + a n Ð 1 ω n Ð 1 + ... a 0 opère en deux étapes : d’abord blanchir le bruit et considérer
H ( ω ) = k ---------------------------------------------------------------
ω d + b d Ð 1 ω d Ð 1 + ... b 0 ensuite que l’on est dans le cas de la détection d’un signal mélangé
à un bruit blanc. On peut montrer que la solution dans le cas général
ou encore : est effectivement celle-ci, à savoir : utiliser un premier filtre H 1 ( ω )
qui blanchit le bruit, suivi d’un filtre H 2 ( ω ) adapté à un signal noyé
H ( ω ) = A ( ω 2 ) + j ωB ( ω 2 ) dans un bruit blanc.
Ce scénario est schématisé dans la figure 3.
ϕ ( ω ) devient :
Soit un signal s (t ) mélangé au bruit coloré b (t ). Le premier filtre
ϕ ( ω ) = H ( ω ) 2 = H ( ω ) H ( Ð ω ) = A2 ( ω2 ) + ω2 B2 ( ω2 ) de fonction de transfert H 1 ( ω ) blanchit le bruit b (t ). Ainsi, le bruit
b1 (t ), délivré par ce filtre, aura une densité spectrale constante que
la dsp peut être alors mise sous la forme : nous prendrons égale à l’unité. Les quantités s ( ω ) et s 1 ( ω ) sont
respectivement les transformées de Fourier des signaux s (t ) et
Nn ( ω 2 ) s1 ( t ) .
ϕ ( ω ) = k 2 ----------------------
Dd ( ω 2 ) De ce fait, au nouveau message constitué par le signal s 1 ( t )
mélangé au bruit b 1 ( t ) , nous pourrons appliquer un filtre adapté,
N n ( ω 2 ) et D d ( ω 2 ) sont respectivement des polynômes en ω 2 H 2 ( ω ) , tel qu’il a été établi précédemment dans le cas d’un bruit
de degrés n et d. blanc.
ϕ ( ω ) étant réelle, N n et D d seront à coefficients réels. H 1 ( ω ) est le filtre blanchissant
On peut facilement montrer que ϕ ( ω ) peut se mettre en facteurs H 2 ( ω ) est le filtre adapté à s 1 ( t ) mélangé à un bruit blanc
sous la forme particulière suivante : On a : s 1 ( ω ) = H 1 ( ω ) s ( ω ) = s ( ω ) ⁄ ϕ 1+ ( ω ) [ où : ϕ = ϕ b+ ϕ bÐ ]
Considérons le filtre H 3 ( ω ) = s 1 ( Ð ω ) exp { Ð j ωt 1 } c’est-à-dire
ϕ ( ω ) = ϕ+ ( ω ) ϕÐ ( ω ) le filtre adapté à s 1 ( t ) .
et que [ ϕ + ( ω ) ] = [ ϕ Ð ( ω ) ] ∗ On peut montrer que l’on obtient une solution explicite qui donne
l’expression de la fonction de transfert du filtre optimal soit :
où ϕ + ( ω ) a ses zéros dans le demi-plan supérieur et ϕ Ð ( ω ) a ses
zéros dans le demi-plan inférieur. ∞ +∞
∫ ∫
1 s (Ð ν)
On peut aussi montrer que la transformée de Fourier inverse q + ( t ) H ( ω ) = ---------------- exp ( Ð j ωt ) ------------------ exp j ν 2π ( t Ð t 1 ) d ν d t
de ϕ + ( ω ) est telle que q + ( t ) = 0 t < 0 et que la transformée ϕ 1+ ( ω ) 0 Ð∞ ϕ 1Ð ( ν )
inverse q Ð ( t ) de ϕ Ð ( ω ) est telle que q Ð ( t ) = 0 pour t > 0 .
On peut montrer que cette solution peut être obtenue directement
Ceci entraîne que le filtre de fonction de transfert par la résolution de l’équation intégrale suivante :
1
H ( ω ) = ------------------ est physiquement réalisable.
+ t1
ϕ+ ( ω )
■ Le processus de blanchissement (on dit aussi blanchiement)
∫ Ð∞
h + ( t1 Ð σ ) kb ( τ Ð σ ) d σ = s ( τ )
On voit que cette équation est satisfaite si : On dispose d’un message m (t ) = s1 (t ) + b1 (t ) où le signal et le
bruit sont deux processus aléatoires stationnaires. Il s’agit de trou-
1 = ϕ+ ( ω ) H (ω) ver le filtre linéaire stationnaire qui donne la meilleure approxima-
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 7 228 − 6 © Techniques de l’Ingénieur, traité Mesures et Contrôle
____________________________________________________________________________________________________________________ FILTRAGE OPTIMAL
tion de s1 (t ) notée sö ( t ) . Le signal et le bruit sont deux processus Pour rechercher le minimum du critère de { e 2 ( t ) } , nous adopte-
aléatoires stationnaires. rons une procédure analogue à celle utilisée pour obtenir le filtre
adapté, en remplaçant dans la relation (27) :
m (t ) = s1 (t ) + b1 (t ) s (t ) = s2 (t ) + b2 (t )
h (t)
h ( t ) par h op ( t ) + γδh ( t ) (29)
+∞ +∞
∫ ∫
T
k mm ( σ Ð τ ) [ h ( τ ) + γδh ( τ ) ] d τ d σ (31)
∫
1
e 2 ( t ) = lim ------- e 2 ( t ) d t = E { e 2 ( t ) } = E { [ s 1 ( t ) Ð sö ( t ) ] 2 } (25) [ h ( σ ) + γδh ( σ ) ]
T → ∞ 2T Ð∞ Ð∞
ÐT
k (t Ð s) = k (s Ð t)
J ( γ ) = J ( 0 ) + 2 γC + γ 2 D (32)
Le filtre de Wiener est celui qui a une réponse impulsionnelle h op +∞ +∞
obtenue en minimisant le critère d’optimalité : où C =
∫ Ð∞
δh ( τ ) Ð k ms ( τ ) +
∫Ð∞
k mm ( τ Ð σ ) h ( τ ) d σ d τ
J = E { s 1 ( t ) Ð sö ( t ) }2
(26) +∞ +∞
Nous verrons, en effet, que s ( t ) n’apparaît pas de manière expli- D’après (30), on a : C = 0, soit :
cite dans la procédure de calcul que nous allons présenter. Il appa-
raît à travers la fonction d’autocorrélation qui constitue une +∞ +∞
information a priori nécessaire, comme nous le verrons plus loin,
pour obtenir le filtre de Wiener. Il vient, si nous reprenons la relation
(25) :
∫ Ð∞
δh ( τ ) Ð k ms ( τ ) +
∫ Ð∞
k mm ( τ Ð σ ) h ( σ ) d σ dτ = 0
∫
il s’ensuit que :
E { e2 ( t ) } = E s1 ( t ) Ð h ( τ ) m ( t Ð τ ) dτ
Ð∞ +∞
+∞
∫
Cette équation intégrale dite de Fredholm de première espèce est
J = E { e 2 ( t ) } = k ss ( 0 ) Ð 2 k ms ( τ ) h ( τ ) d τ
appelée équation de Wiener-Hopf.
Ð∞
+∞ +∞ La recherche de h op solution de cette équation intégrale néces-
∫ ∫
site la connaissance des fonctions d’intercorrélation k ms et k mm .
+ h (σ) k mm ( σ Ð τ ) h ( τ ) dτ d σ (27)
Nous supposerons que le signal et le bruit ne sont pas corrélés.
Ð∞ Ð∞
L’équation (32) traduit la condition nécessaire pour que J ( γ ) soit
où k ss ( τ ) = E { s 1 ( t ) s 1 ( t + τ ) } minimum.
k ms ( τ ) = E { m ( t ) s 1 ( t + τ ) } Il suffit de calculer :
k mm = k ss + k bb + k bs + k sb (28) ∂2 J
--------- = D
sont respectivement les fonctions d’autocorrélation du signal, ∂γ 2
d’intercorrélation du message et du signal, et enfin d’autocorréla- et de constater que D > 0 pour s’assurer également que c’est une
tion du message. condition suffisante.
La relation (28), dans le cas où s 1 ( t ) et b ( t ) sont stationnaires Nota : nous n’avons fait aucune hypothèse sur la réalisabilité du filtre. Dans le cas d’un
et non corrélés, se réduit à : traitement en temps réel, où il y a nécessité d’utiliser un filtre réalisable, il faut modifier les
limites de l’équation intégrale, la borne Ð ∞ devant être remplacée par 0. Cela ne simplifie
k mm ( τ ) = k ss ( τ ) + k bb ( τ ) naturellement pas la résolution de l’équation de Wiener-Hopf, car on exclut l’utilisation
de la transformée de Fourier.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 7 228 − 7
FILTRAGE OPTIMAL _____________________________________________________________________________________________________________________
ϕ ss ( ω )
H op ( ω ) = ---------------------------------------------
- (35)
ϕ ss ( ω ) + ϕ bb ( ω ) 0 f
∫ ∫
Ð∞ 1
H ( ω ) = ------------------------ exp { Ð 2πj ft } d t ξ ( ν ) exp ( 2 πj νt ) dν (36)
ϕ mm ( ω ) 0 Ð∞
ou, si s (t ) et b (t ) ne sont pas corrélés :
+∞
où les bornes d’intégration 0 et l’infini correspondent à la partie réa-
ϕ ss (f ) ϕ bb (f )
∫
lisable. On peut faire abstraction de la première intégrale, si l’on ne
min E { e 2 ( t ) } = - df
-------------------------------------------- considère, dans ξ ( ν ) , que la partie qui donne bien un filtre physi-
ϕ
Ð ∞ ss
( f ) + ϕ bb ( f )
quement réalisable, c’est-à-dire ξ + ( ν ) .
Cette relation est intéressante pour commenter les résultats obte- On adopte, traditionnellement, les notations suivantes :
nus sur le filtre de Wiener. En effet, supposons que les signaux s (t ) [ ξ ] + = partie réalisable de ξ ( ν ) = ξ + ( ν )
et b (t ) soient tels que leurs densités spectrales n’aient pas de sup- L’équation (36) devient :
port commun comme cela est représenté dans la figure 4. Le produit
ϕ ss . ϕ bb sera quasi nul et conduira à une erreur d’estimation égale 1 ϕ ms ( ω )
à zéro. Dans ce cas, on n’aura pas besoin d’utiliser le filtre de Wiener H ( ω ) = -----------------------
- ------------------------
pour séparer le signal du bruit. Il suffira d’utiliser un simple filtre ϕ mm+
( ω ) ϕ mm ( ω ) +
passe-bas pour éliminer le bruit. Nota : nous avons porté notre attention essentiellement sur les spectres rationnels. Les
spectres non rationnels peuvent être approchés par des spectres rationnels. On peut mon-
Par contre, dans le cas de signaux réels, nous aurons un recouvre- trer qu’une condition nécessaire et suffisante de « factorabilité » est que l’intégrale :
ment des spectres du signal et du bruit, tel que cela est schématisé
dans la figure 5. Dans ce cas, seul le filtre de Wiener permettra une +∞
∫
log ϕ mm ( ω )
estimation du signal. On constate que le produit ϕ ss . ϕ bb dans la ----------------------------------- d f
1+f2
Ð∞
bande de fréquence qui nous intéresse ne sera pas nul et, de ce fait,
l’erreur d’estimation ne sera jamais nulle. soit convergente.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 7 228 − 8 © Techniques de l’Ingénieur, traité Mesures et Contrôle
____________________________________________________________________________________________________________________ FILTRAGE OPTIMAL
Exemple : soit à déterminer le filtre optimal, sachant que La figure 7 montre la sortie yö ( n ) du filtre comparée à une sortie
ϕ b ( ω ) = k 2 (bruit blanc) et : désirée d (n ) ; cette dernière joue le rôle de la sortie réelle y ( n ) que
l’on cherche à approximer.
1
ϕ ss ( ω ) = ------------------ avec ( p = jω ) Ainsi, on peut noter indifféremment l’erreur :
1 Ð p2
b2 Ð p2 1 + k2 e ( n ) = [ y ( n ) Ð yö ( n ) ]
On a : ϕ mm = ϕ ss + ϕ bb = k 2 --------------------- avec b 2 = ------------------
-
1 Ð p2 k2
ou encore : e ( n ) = [ d ( n ) Ð yö ( n ) ] (37)
ϕ mm = k ------------------- k ------------------ = ϕ ++ .ϕ Ð Ð
b + jω b Ð jω La sortie du filtre étant :
1 + jω 1 Ð jω
1 1 T (n) X (n)
et : ϕ ms = -----------------2- = -------------------2- HN N
1Ðp 1+ω
l’erreur sera :
ϕ ms 1 1Ðp 1 1 1
Ð - = ------------------- --------------------------- = ---------------------------- ---------------- + ---------------
d’où : --------------
ϕ mm 1 Ð ω2 k ( b Ð p ) k ( 1 + b ) 1 + p b Ð p e ( n ) = d ( n ) Ð HN
T (n) X (n) = d (n) Ð XT (n) H (n)
N N N
(38)
ε (n) = E { d 2 ( n ) } Ð 2 H NT ( n ) E { d ( n ) X N ( n ) }
T (n) E [X (n) HT (n)] H (n)
2.5 Filtre de Wiener discret + HN N N N
J = ε ( n ) = E [ d 2 ( n ) ] Ð 2 HN
T (n) r
dx + H N ( n ) R . H N ( n )
T (40)
2.5.1 Filtre de Wiener à réponse finie
où r dx = E [ d ( n ) X N ( n ) ] vecteur 1 x N d’intercorrélation
■ Nous allons ici rechercher un filtre numérique de réponse impul- R = E { X N ( n ). X NT ( n ) } vecteur N x N d’autocorrélation
sionnelle H nT (figure 6) :
J est une forme quadratique définie de H N .
T = [ h ( 1 ), ....., h ( N ) ]
HN ■ Le minimum de J sera obtenu en calculant :
T (n) = [x (n)
XN x ( n Ð 1 )..... x ( n Ð N + 1 ) ] H∗ est le filtre optimal :
J min- = E { d 2 ( k ) } + ( R Ð1 r dx ) T R . R Ð1 r dx Ð 2 R Ð1 r dx
T r
dx
Figure 6 – Filtre numérique de réponse impulsionnelle H nT
J min = E { d 2 ( k ) } + r dx
T R Ð1 r T
dx Ð 2 r dx R
Ð1 r
dx d’où :
T H∗
ε min = J min = E { d K2 } Ð r xd
d (n ) Nota : 1°) L’erreur ε ( n ) donnée par l’équation (39) peut être mise sous la forme sui-
ou y (n ) vante :
+
x (n ) y (n )
Filtre de Wiener ε EQM = ε min + ( H Ð H∗ ) T R ( H Ð H∗ )
–
e (n )
On peut écrire cette relation :
ε = ε min + V T RV
ö ( n ) du filtre de Wiener, comparée à la sortie
Figure 7 – Sortie y
désirée y (n) V apparaît comme l’écart par rapport au filtre optimal de Wiener.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 7 228 − 9
FILTRAGE OPTIMAL _____________________________________________________________________________________________________________________
2°) Reprenons la relation (38) : e ( n ) = d ( n ) Ð X NT ( n ) H et multiplions les deux mem- Si l’on applique la transformée de Fourier discrète à l’équation
bres par X N :
(46), le filtre optimal devient :
e ( n ) X N ( n ) = d ( n ) X N ( n ) Ð X N ( n ) X NT ( n ) H
ϕ dx ( ω )
h opt ( ω ) = --------------------
- (47)
E { e ( n ) X N ( n ) } = r dx Ð RH (42) ϕ xx ( ω )
J (n) = E { e2 ( n ) } = E { [ d ( n ) Ð y ( n ) ]2 } ϕ xx ( ω ) = ϕ ss ( ω ) + ϕ bb ( ω )
∞ 2
et :
= E d ( n ) Ð ∑ h opt ( k ) x (n Ð k) (44)
k = Ð∞ ϕ sx ( ω ) = ϕ ss ( ω )
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 7 228 − 10 © Techniques de l’Ingénieur, traité Mesures et Contrôle
____________________________________________________________________________________________________________________ FILTRAGE OPTIMAL
Ainsi, dans les blocs où le signal de parole est présent, l’estima- 2 000
tion de la densité spectrale nous donne ϕ xx . Dans le cas du bloc i,
on aura alors l’expression suivante du filtre de Wiener :
0
ϕ bb ( ω )
h opt, i ( ω ) = 1 Ð ------------------------
- – 2 000
ϕ xx , i ( ω )
– 4 000
Ensuite, on filtre le signal bruité :
Sö i ( ω ) = H opt, i ( ω ) Xi ( ω ) – 6 000
0 500 1 000 1 500 2 000 2 500
Échantillons
où X i ( ω ) est la transformée de Fourier du signal bruité pour le bloc
courant i. La séquence temporelle est la partie réelle de la transfor-
ö i ( ω ) . Elle nous donnera le Figure 10 – Signal débruité par le filtre de Wiener
mée de Fourier inverse du spectre S
signal de parole non bruité.
Dans la figure 8, on présente la densité spectrale de puissance du
bruit capté dans une voiture R25 roulant sur autoroute à 130 km/h
(signaux aimablement fournis par la société Matra). Amplitude
Signal original
6 000
4 000
Amplitude [dB]
0 2 000
– 10 0
– 20
– 2 000
– 30
– 4 000
– 40
– 6 000
– 50 0 500 1 000 1 500 2 000 2 500
Échantillons
On remarque bien que le signal de parole est une succession de segments
– 60 pseudo-périodiques et aléatoires correspondant respectivement aux sons
0 500 1 000 1 500 2 000 2 500 3 000 3 500 4 000
voisés et non voisés
Fréquence [Hz]
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 7 228 − 11
FILTRAGE OPTIMAL _____________________________________________________________________________________________________________________
ö (t)
Figure 12 – Filtre de Wiener fournissant une estimation s
du signal recherché 3.2 Algorithme du filtre de Kalman
x ( k + 1 ) = Φ ( k + 1, k ) x ( k ) + G ( k ) u ( k ) (53)
∫ht0
( t , τ ) k mm ( τ , σ ) d τ = k ms ( t , σ ) (51)
E {v (k)} = 0
∫t0
h ( t , τ ) k m ( τ , σ ) d τ = k ms ( t , σ )
et E {x ( 0 ) uT ( k ) } = 0 ∀k (54)
∫h
de Kronecker.
sö ( t ) = (t, τ) m (t, τ) dτ (52)
t0 ■ Estimation du vecteur d’état
Il s’agit d’estimer le vecteur d’état x ( k ) compte tenu des informa-
L’équation (51) est, d’une manière générale, difficile à résoudre
tions disponibles à l’instant n, postérieur, antérieur ou identique à
dès que l’on aborde des cas non triviaux. Elle est, en outre, peu
l’instant k.
adaptée au traitement par calculateur à cause de son caractère non
récursif. On se propose de développer ici un filtre qui permette On considérera les trois cas suivants :
d’estimer de manière récursive le signal noyé dans le bruit. Il s’agit 1) k = n : il s’agit, dans ce cas, de déterminer une estimation de
du filtre de Kalman, plus approprié au traitement par calculateur. l’état, compte tenu de toutes les mesures disponibles à l’instant
Kalman a introduit ce filtre, dès 1960, à partir de la représentation considéré n. C’est le cas du filtrage ;
des systèmes dans l’espace d’état par des équations différentielles 2) k < n : on ne prendra en compte ici qu’une partie des mesures
matricielles du premier ordre. disponibles. On fait alors un lissage ou une interpolation ;
Ce filtre est basé sur le fait qu’un processus aléatoire peut être
3) k > n : il s’agit, dans ce cas, de prédire une estimation du vec-
modélisé comme étant la sortie d’un système linéaire gouverné par
teur d’état. C’est ce qu’on appelle prédiction ou extrapolation.
un bruit blanc, alors que, dans le cas du filtre de Wiener, les systè-
mes sont représentés par des équations de covariance. Nous noterons pour ces différents cas une telle estimation par :
xö ( k ⁄ n ) , c’est-à-dire l’estimation à l’instant k compte tenu des infor-
Au lieu de décrire les systèmes linéaires qui génèrent les mes-
mations disponibles à l’instant n.
sages en termes de réponse impulsionnelle, l’approche de Kalman
amène une description par des équations différentielles dont la On définit aussi une telle estimation par la valeur moyenne du
solution est le signal recherché. vecteur d’état compte tenu des mesures y ( 1 ) , ... y ( n ) . Cette
Par ailleurs, au lieu de spécifier la solution optimale comme sortie moyenne est exprimée par l’espérance mathématique condition-
d’un système linéaire gouverné par une équation intégrale, comme nelle, notée comme suit :
dans le cas de l’approche de Wiener, l’estimation optimale donnée
par Kalman est ici solution d’une équation différentielle dont les xö ( k ⁄ n ) = E {x (k) ⁄ y ( 1 ), ..., y ( n ) } (55)
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 7 228 − 12 © Techniques de l’Ingénieur, traité Mesures et Contrôle
____________________________________________________________________________________________________________________ FILTRAGE OPTIMAL
Nota : on peut aussi, de manière plus commode, noter xö ( k ⁄ n ) = E [ x ( k ) ⁄ y ( n ) ] , Le filtre de Kalman est donc un filtre à minimum de variance.
cette notation condensée est équivalente à celle explicitée par la relation (55). Nous devrions exprimer le critère J ( k ) en fonction du gain. Il est
La matrice de transition Φ ( k , k Ð 1 ) caractérise l’évolution du plus aisé d’opérer sur l’expression de la matrice de covariance de
vecteur d’état. Intuitivement, on peut admettre que l’évolution de l’erreur P ( k ⁄ k ) plutôt que sur l’expression du critère J ( k ) .
l’estimation du vecteur d’état xö ( k ⁄ n ) sera, elle aussi, caractérisée ■ Calcul de la matrice de covariance P ( k ⁄ k ) en fonction du gain
par cette même matrice de transition. K (k)
En d’autres termes, nous aurons : Nous allons, à partir des équations d’état et de l’expression de
l’estimation, expliciter la matrice de covariance P ( k ⁄ k ) en fonction
xö ( k ⁄ k Ð 1 ) = Φ ( k , k Ð 1 ) xö ( k Ð 1 ⁄ k Ð 1 ) (56) du gain K ( k ) .
Reprenons les relations (53) et (56).
Cette relation peut être obtenue de manière rigoureuse en appli-
quant la définition donnée par la relation (55) à l’équation (53) soit : x (k) = Φ (k, k Ð 1) x (k Ð 1) + G (k Ð 1) u (k Ð 1)
E {x (k) ⁄ y ( 1 ), ..., y ( k Ð 1 ) } = xö ( k ⁄ k Ð 1 ) = Φ ( k , k Ð 1 ) xö ( k Ð 1 ⁄ k Ð 1 )
+G (k Ð 1) E {u (k Ð 1) ⁄ y ( 1 ), ..., y ( k Ð 1 ) } x ( k ) Ð xö ( k ⁄ k Ð 1 ) = Φ ( k , k Ð 1 ) [ x ( k Ð 1 ) Ð xö ( k Ð 1 ⁄ k Ð 1 ) ]
+ G (k Ð 1) u (k Ð 1) (60)
soit encore :
D’après la relation (59) définissant P ( k ⁄ k ) , nous aurons :
xö ( k ⁄ k Ð 1 ) = Φ ( k , k Ð 1 ) xö ( k Ð 1 ⁄ k Ð 1 )
P (k ⁄ k Ð 1) = E [ ( x ( k ) Ð xö ( k ⁄ k Ð 1 ) ) ( x ( k ) Ð xö ( k ⁄ k Ð 1 ) ) T ]
sachant que :
D’où, en prenant les espérances mathématiques des deux mem-
E [ u ( k ) ⁄ y ( 1 ) , ..., y ( k Ð 1 ) ] = 0 bres de l’équation (60) :
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 7 228 − 13
FILTRAGE OPTIMAL _____________________________________________________________________________________________________________________
soit : Nous pouvons, en outre, écrire, dans le cas scalaire par exemple,
l’équation récursive de mise à jour de l’estimation comme suit :
Ð [ I Ð K ( k ) H ( k ) ] P ( k ⁄ k Ð 1 ) HT ( k ) + K ( k ) R ( k ) = 0
xö ( k ) = xö ( k Ð 1 ) + K ( k ) [Terme de correction]
d’où :
Il apparaît ainsi que :
K ( k ) = P ( k ⁄ k Ð 1 ) H T ( k ) [ H ( k ) P ( k ⁄ k Ð 1 ) H T ( k ) + R ( k ) ] Ð1 (65) 1) à R (k) constant, si P (k) est faible, le gain sera faible. Ainsi, on
fera davantage confiance à l’estimation obtenue à partir du modèle.
Dans le cas continu, cette dernière équation prend la forme d’une Si P (k) est élevé, ce qui traduit notre faible confiance dans le
équation différentielle de Riccati. C’est pour cette raison, et par ana- modèle, K sera élevé et la contribution du terme de correction pon-
logie, que la relation (65) est appelée ici équation de Riccati discrète. déré par le gain sera plus forte ;
Elle peut être réécrite sous la forme suivante :
2) à P (k) constant, si R (k) est faible, nous aurons donc des me-
P (k ⁄ k) = P (k ⁄ k Ð 1) Ð K (k) H (k) P (k ⁄ k Ð 1) sures faiblement bruitées. La valeur élevée du gain donnera plus de
poids à la mesure. Si R (k) est élevé, le gain sera faible et le poids du
= [I Ð K (k) H (k)] P (k ⁄ k Ð 1) (66) deuxième terme sera plus faible.
La matrice K ( k ) H ( k ) P ( k ⁄ k Ð 1 ) est définie positive (cf. nota
ci-dessous) ou, à la rigueur, semi-définie positive.
Il s’ensuit que tous ses éléments diagonaux seront soit positifs,
3.3 Initialisation et mise en œuvre
soit nuls. Par conséquent, on pourra affirmer que : du filtre de Kalman
trace P ( k ⁄ k ) < trace P ( k ⁄ k Ð 1 )
■ Conditions initiales x (0) et P (0).
et donc le critère J (k) ira en décroissant, ce qui garantit la conver- Pour pouvoir utiliser l’ensemble des équations récurrentes consti-
gence du filtre. tuant le filtre de Kalman, on doit choisir les conditions initiales,
Nota : soit x un vecteur et A une matrice, on dit que la matrice A est définie positive si x ( 0 ) et P ( 0 ⁄ 0 ) :
la forme quadratique x T A x est strictement positive. Dans le cas contraire, on dit qu’elle
est définie négative. Une matrice telle que x T A x > 0 est dite semi-définie positive.
xö ( 0 ) = E {x (0)}
■ Autre expression du gain K (k)
Reprenons l’expression du gain donnée par la relation (65) : car, au démarrage du filtre, la seule information que l’on pourrait
espérer avoir au mieux est la valeur moyenne du vecteur d’état,
K ( k ) = P ( k ⁄ k Ð 1 ) H T ( k ) [ H ( k ) P ( k ⁄ k Ð 1 ) H T ( k ) R ( k ) ] Ð1 et E {[x ( 0 ) Ð xö ( 0 ) ] [ x ( 0 ) Ð xö ( 0 ) ] T } = P ( 0 ⁄ 0 ) = P ( 0 )
Si P et R sont inversibles, on aura en appliquant le lemme d’inver- ■ Nous résumons ci-après l’ensemble des équations du filtre.
sion matricielle à la relation (66) :
Équation du modèle x ( k + 1 ) = Φ ( k + 1 , k ) x ( k ) + G ( k ) u ( k )
P Ð1 ( k ⁄ k ) = P Ð1 ( k ⁄ k Ð 1 ) + H T ( k ) R Ð1 H ( k ) (67) Équation d’observation y ( k ) = H ( k ) x ( k ) + v ( k )
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 7 228 − 14 © Techniques de l’Ingénieur, traité Mesures et Contrôle
____________________________________________________________________________________________________________________ FILTRAGE OPTIMAL
u (k ) + x (k ) + y (k ) + + x (k /k)
E { v ( k ) vT ( j ) } = δ ( k , j ) R ( k ) G + Z –1 H K +
+ + – +
Z –1
E { u ( k ) v T ( j ) } = 0 ∀k , j
Φ (k,k –1) H (k ) Φ (k,k –1)
Équation du filtre x (k /k –1) x (k–1 /k–1)
xö ( k ⁄ k ) = xö ( k ⁄ k Ð 1 ) + K ( k ) [ y ( k ) Ð H ( k ) xö ( k ⁄ k Ð 1 ) ] (68)
Figure 14 – Schéma bloc du filtre de Kalman
ou encore
xö ( k ⁄ k ) = Φ ( k ⁄ k Ð 1 ) xö ( k Ð 1 ⁄ k Ð 1 ) + K ( k ) [ y ( k ) Ð H ( k ) xö ( k ⁄ k Ð 1 ) ] Le choix des valeurs initiales est délicat. En effet, un mauvais
Expression du gain choix de x (0), c’est-à-dire à la limite une valeur arbitraire, n’est pas
catastrophique en ce sens que l’algorithme excité par les mesures
apportera les corrections nécessaires. Par contre, le traitement des
K ( k ) = P ( k ⁄ k Ð 1 ) H T ( k ) [ H ( k ) P ( k ⁄ k Ð 1 ) H T ( k ) + R ( k ) ] Ð1
mesures n’améliore pas la covariance de l’erreur au fur et à mesure
et
K ( k ) = P ( k ⁄ k ) H T ( k ) R Ð1 ( k ) de son traitement. Nous pouvons traduire notre ignorance de P (0)
en adoptant P (0) = a I, a ayant une valeur élevée (100 à 10 000).
(69)
Variance a posteriori P ( k ⁄ k ) = [ I Ð K ( k ) H ( k ) ] P ( k ⁄ k Ð 1 ) ■ Le déroulement des différentes opérations peut être décomposé
comme suit :
Variance a priori
— pour k = 1, on calcule successivement :
P ( k ⁄ k Ð 1 ) = Φ ( k , k Ð 1 ) P ( k Ð 1 ⁄ k Ð 1 ) ΦT ( k , k Ð 1 ) P (1/0) à partir de la relation (71), en tenant compte de P (0)
+ G ( k Ð 1 ) Q ( k Ð 1 ) GT ( k Ð 1 ) (70) K (1) à partir de la relation (69)
Remarques générales : X (1) par la relation (68)
Si nous prenons les expressions des matrices de covariance P (1/1)
d’erreur P ( k ⁄ k Ð 1 ) , appelées aussi erreur a priori et P ( k ⁄ k ) erreur
— et on continue en faisant k = 2, ..., comme suit :
a posteriori d’une part, et du gain K (k) d’autre part :
k = 1 : P (1/0) ; K (1) ; x (1) ; P (1/1)
P ( k ⁄ k Ð 1 ) = Φ ( k , k Ð 1 ) P ( k Ð 1 ⁄ k Ð 1 ) ΦT ( k , k Ð 1 )
k = 2 : P (2/1) ; K (2) ; x (2) ; P (2/2)
+ G ( k Ð 1 ) Q ( k Ð 1 ) GT ( k Ð 1 ) (71)
k = 3 : etc.
K ( k ) = P ( k ⁄ k Ð 1 ) H T ( k ) [ H ( k ) P ( k ⁄ k Ð 1 ) H T ( k ) + R ( k ) ] Ð1 Ceci permet de représenter ces opérations par l’organigramme
de la figure 13.
P (k ⁄ k) = [I Ð K (k) H (k)] P (k ⁄ k Ð 1) (72)
■ Le schéma bloc du filtre, quant à lui, est représenté par la
il apparaît que l’on peut déterminer ces trois quantités indépendam- figure 14.
ment de toute mesure et avant même que celle-ci ne soit traitée par
le filtre. En effet, les paramètres qui interviennent dans ces trois
expressions dépendent soit des paramètres du modèle, soit de la
connaissance a priori des statistiques du processus générateur et du Exemple : nous allons, sur un exemple scalaire, illustrer le déroule-
bruit de mesure (ces informations font aussi partie du modèle). ment des différentes opérations de mise en œuvre du filtre de Kalman.
■ Ces quantités peuvent être déterminées dans l’ordre où elles sont Au préalable, reprenons les équations (69), (70), (72) qui se rédui-
écrites. On a besoin pour ce faire de la connaissance de P (0/0) que sent dans ce cas à :
nous noterons P (0). P (k ⁄ k Ð 1) = P (k Ð 1 ⁄ k Ð 1) + Q
K ( k ) = [ Φ 2 P ( k Ð 1 ⁄ k Ð 1 ) + Q ] [ Φ 2 P ( k Ð 1 ⁄ k Ð 1 ) + Q + R ] Ð1
Calcul a priori et
P ( k ⁄ k ) = R [ Φ 2 P ( k Ð 1 ⁄ k Ð 1 ) + Q ] [ Φ 2 P ( k Ð 1 ⁄ k Ð 1 ) + Q + R ] Ð1
Injection de P (0) P (k /k –1) = R.K (k)
Considérons le modèle scalaire avec les valeurs numériques
K (k ) suivantes :
k=k+1 Φ = 1 ; G = 1 ; P ( 0 ) = 10 ; Q = 20 ; R = 10 et H = 1.
Prise en compte
des mesures x (k )
Les trois équations précédentes deviennent :
Mise à jour
P (k /k)
P ( k ⁄ k Ð 1 ) = P ( k Ð 1 ⁄ k Ð 1 ) + 20
Calcul a posteriori K ( k ) = [ P ( k Ð 1 ⁄ k Ð 1 ) + 20 ] [ P ( k Ð 1 ⁄ k Ð 1 ) + 30 ] Ð1
Figure 13 – Organigramme du filtre de Kalman et P ( k ⁄ k ) = 10 K ( k )
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 7 228 − 15
FILTRAGE OPTIMAL _____________________________________________________________________________________________________________________
Le tableau suivant résume l’évolution des différents paramètres : où u (k) représente le signal d’excitation qui permet de
générer s (k)
k P (k ⁄ k Ð 1) K (k) P (k ⁄ k)
Soit le vecteur d’état constitué par les p dernières valeurs du
0 Ð Ð 10 signal s (k) :
1 30 0,75 7,5
2 27,5 0,74 7,4 x ( k ) = [ s ( k Ð p + 1 ), ..., s ( k ) ] T (74)
3 27,4 0,74 7,4
et l’observation y (k). On peut représenter ce système dans l’espace
On constate que pratiquement, au bout de la troisième itération,
d’état :
k = 3, P (k/k) et le gain n’évoluent plus et l’on peut écrire :
P (k ⁄ k) = P (k Ð 1 ⁄ k Ð 1) = P (k) x ( k + 1 ) = Φx ( k ) + Gu ( k ) (75)
en combinant alors les deux équations donnant P (k/k) et K (k), on
voit que P (k) obéira alors à l’équation du deuxième degré : y ( k ) = Hx ( k ) + b ( k ) (76)
P k2 + 20 P k Ð 200 = 0 où :
qui admet pour solution Pk = 7,4. 0 1 . . . . 0
. . .
.
On peut donc considérer R = 3 comme permettant d’atteindre le . . .
.
régime permanent. L’équation de l’estimateur devient : . . .
.
Φ= . . .
.
.
. . . .
xö ( k + 1 ⁄ k + 1 ) = xö ( k ⁄ k ) + 0,74 [ y ( k + 1 ) Ð xö ( k ⁄ k ) ] 0 0 1
– ap – ap –1 . . . . – a1
■ Notion d’innovation
Reprenons l’équation de l’estimateur récursif dans le cas scalaire : est la matrice de transition. Les matrices G de commande et H
d’observation sont telles que :
xö ( k ⁄ k ) = xö ( k ⁄ k Ð 1 ) + K ( k ) [ y ( k ) Ð H ( k ) xö ( k ⁄ k Ð 1 ) ]
G = H T = [ 0, 0, ..., 0, 1 ] T
y (k) représente la mesure effective et H (k) xö ( k ⁄ k Ð 1 ) la prédic-
tion de la mesure. u (k) est le processus générateur et b (k) le bruit additif contami-
Si cette prédiction est parfaite, la correction apportée par la nant le signal. On suppose que u (k) et b (k) sont indépendants,
quantité : blancs, gaussiens, de moyennes nulles et de variances respectives
σ u2 et σ b2 :
ν ( k ) = y ( k ) Ð H ( k ) xö ( k ⁄ k Ð 1 )
E {u (k)} = 0
est nulle.
On appelle ν ( k ) l’innovation. On peut montrer que si le filtre est E {b (k)} = 0
optimal, le processus ν ( k ) est un bruit blanc de valeur moyenne
nulle, c’est-à-dire qu’il ne contient plus d’information pouvant enri-
chir la mise à jour de l’estimation de l’état. E {u (k) b (l)} = 0
Ainsi, en testant la « blancheur » de l’innovation, on peut appré-
cier le degré d’optimalité et donc les performances du filtre. E {u (k) u (l)} = σ u2 δ ( k , l ) et E {x (0) u (l)} = 0
Nota : les performances du filtre de Kalman peuvent se dégrader et le filtre risque
de diverger si la dynamique du bruit − processus générateur − n’est pas gaussienne.
E {b (k) b (l)} = σ b2 δ ( k , l ) et E {x (0) b (l)} = 0
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 7 228 − 16 © Techniques de l’Ingénieur, traité Mesures et Contrôle
____________________________________________________________________________________________________________________ FILTRAGE OPTIMAL
+ E { b ( k ) b ( k Ð l ) } = r ss ( l ) + r bb ( l ) = r ss ( l ) + δ ( l ) σ b2 (77)
0
E {s (k) s (k Ð l)} =
p Amplitude
Signal bruité
E ∑ Ð ai s ( ( k Ð i ) s ( k Ð l ) ) + u ( k ) s ( k Ð l ) (78) 6 000
i = 1
4 000
où :
2 000
E {u (k) s (k Ð l)} = δ ( l ) σ u2
0
E {s (k) s (k Ð l)} = r ss ( l )
(79) – 2 000
E {s (k Ð i) s (k Ð l)} = r ss ( l Ð i )
– 4 000
on peut donc réécrire l’expression (78) :
p – 6 000
∑ ai rss ( l Ð i ) + δ ( l ) σu2
0 500 1 000 1 500 2 000 2 500
r ss ( l ) = Ð
Échantillons
i=1
On peut voir que le deuxième terme dans la partie droite est non Figure 16 – Signal de parole bruité
nul uniquement pour l = 0. On peut donc écrire l’équation (79) pour
p + 1 < l < 2 p en utilisant l’équation (77), soit :
p
r yy ( l ) = Ð ∑ ai ryy ( l Ð i ) Amplitude
i=1
Signal débruité
6 000
Pour calculer les paramètres ai, on écrira :
–1 4 000
– ap ryy (1) . . . . ryy (p) ryy (p +1)
. . . .
.
. . . .
.
. =– . . . 2 000
.
. . . .
.
– a1 ryy (2p)
0
Rappelons, pour les lecteurs qui ne sont pas familiers avec les Échantillons
signaux de parole, que l’on considère que le signal de parole est une
succession de segments de signaux quasi périodiques (voyelles) et
aléatoires (consonnes). Figure 17 – Signal de parole débruité par filtrage de Kalman
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 7 228 − 17
FILTRAGE OPTIMAL _____________________________________________________________________________________________________________________
On appellera filtre adaptatif un filtre numérique dont les coeffi- 4.2.2 Algorithme LMS
cients évoluent en fonction des signaux reçus. Ces coefficients
seront estimés par des algorithmes récursifs, au sens d’un certain Nous allons présenter ici une méthode itérative, celle dite du gra-
critère. dient par la méthode de la plus grande pente (steepest descent) qui
effectue la recherche du minimum de la surface représentant
Les critères qui sont généralement retenus pour l’obtention de ces
l’erreur quadratique moyenne (EQM) en suivant la direction et le
algorithmes sont du type moindres carrés car ils conduisent aux
sens opposé du gradient. Cette approche permet l’obtention d’une
résultats les plus simples à interpréter. Les filtres peuvent être à
solution récursive de l’équation de Wiener dans le cas discret [rela-
réponse impulsionnelle finie (RIF) ou infinie (RII), quant à la struc-
tion (41)] :
ture, elle est soit transverse, soit en treillis.
Les familles d’algorithmes qui en découlent ont des complexités H∗ = R Ð1 r dx
arithmétiques différentes et leur comportement dépend du type
d’excitation et de l’absence ou de la présence de bruit. La méthode du gradient permet de construire cette solution récur-
sive par la relation suivante :
On considèrera deux grandes familles d’algorithmes basés sur le
gradient stochastique ou LMS (Least Mean Squares) et sur les α
moindres carrés récursifs type MCR (ou RLS). Dans cette dernière H ( n ) = H ( n Ð 1 ) Ð --- grad ε EQM
famille, la recherche d’algorithmes à très faible complexité a conduit 2
à développer des algorithmes dits rapides, appelés FTF (Fast Trans- où :
versal Filters).
Le développement d’algorithmes rapides de type FTF qui peuvent ε EQM = E { d ( n Ð 1 ) Ð H NT ( n Ð 1 ) X N ( n Ð 1 ) } 2
opérer en temps réel résulte de la réduction des redondances. Cette
réduction de la redondance « fragilise » en quelque sorte ces algo- et α est un paramètre dit gain ou pas, qui permet de contrôler la
rithmes sous l’effet conjugué des arrondis et des troncatures quand convergence de l’algorithme du gradient.
ces algorithmes doivent opérer sur des processeurs à virgule fixe. Il
Soit :
en résulte ainsi une instabilité que l’on a essayé de circonscrire
durant les dernières années en développant des versions dites sta-
bilisées. H (n) = H (n Ð 1) + α E {X (n Ð 1) e (n Ð 1)} (80)
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 7 228 − 18 © Techniques de l’Ingénieur, traité Mesures et Contrôle
____________________________________________________________________________________________________________________ FILTRAGE OPTIMAL
Cet algorithme est d’un usage limité car il est difficile de connaître Car, même dans ce dernier cas, c’est-à-dire dans le cas où :
E { X ( n Ð 1 ) e ( n Ð 1 ) } que l’on va donc remplacer :
E { X ( n ) XT ( m ) } = σ b2 n=m
E {X (n Ð 1) e (n Ð 1)} = X (n Ð 1) e (n Ð 1) (81)
= 0 n≠m
La valeur moyenne est ainsi remplacée par sa valeur instantanée.
La matrice d’autocorrélation définie par la relation (81) donne par
L’algorithme (80) devient : exemple pour m = n Ð 1 :
H (n) = H (n Ð 1) + α X (n Ð 1) e (n Ð 1) (82)
0 0 ... 0
Ce sont les différentes itérations successives pour effectuer la σ b2 0
mise à jour de H ( n ) qui assurent la réalisation de la moyenne et la
E { X ( n ) XT ( n Ð 1 ) } =
0 σ b2 0 0
convergence en moyenne de l’algorithme.
0 σ b2 0
On va montrer que la condition qui assure la convergence est :
On voit ainsi que, même avec une séquence blanche, on ne peut
0 < α < 2 ⁄ λ max
pas satisfaire « l’hypothèse d’indépendance ». Ceci montre l’aspect
un peu « irréaliste » de cette hypothèse.
où λ max est la plus grande valeur propre de la matrice d’autocorré-
lation du signal d’entrée. Reprenons l’équation de mise à jour des coefficients du filtre sous
la forme :
Dans le cas d’une séquence blanche de puissance σ x2 , cette
condition devient : H ( n + 1 ) = H ( n ) + α [ d ( n ) Ð HN
T X (n)] X (n)
2
α < ----------- qui peut être réécrite, en notant que
Nσ x2 T X ( n ) = ( H T X ( n ) )T = XT ( n ) H
HN :
N N
On montrera aussi que la vitesse de convergence, proportionnelle
au pas, est inversement proportionnelle à la dispersion des valeurs H ( n + 1 ) = ( I Ð α X ( n ) X T ( n ) ) H ( n ) + αd ( n ) X ( n )
propres et qu’elle est indépendante des conditions initiales. On peut
démontrer qu’il existe une valeur de α qui maximalise la vitesse et, en prenant les valeurs moyennes des deux membres :
moyenne de convergence du LMS, cette valeur est :
E [ H ( n + 1 ) ] = ( I Ð α R ) E ( H ( n ) ) + α . R . H∗ (83)
2
α = -------------------------------- en notant R = E [ X ( n ) XT ( n ) ] la matrice d’autocorrélation de
λ min + λ max X (n) .
Dans le cas d’une séquence blanche gaussienne, le pas maximali- Définissons le vecteur erreur U ( n ) , différence entre la valeur
sant la vitesse de convergence est :
moyenne de H ( n ) et la valeur optimale H∗ soit :
1
α opt = -----------
Nσ x2 U ( n ) = E ( H ( n ) ) Ð H∗
■ Erreur quadratique résiduelle Si nous retranchons H∗ de chacun des deux membres de l’équa-
À l’inverse du gradient déterministe, le LMS à pas constant ne tion (83), il vient :
permet pas d’atteindre le minimum de la surface d’EQM, à cause du
bruit introduit par les fluctuations du gradient estimé. Le vecteur E ( H ( n + 1 ) ) Ð H∗ = ( I Ð αR ) E ( H ( n ) ) Ð ( I Ð αR ) H∗
H ( n ) des paramètres suit des fluctuations aléatoires vis-à-vis de la
trajectoire obtenue pour l’utilisation du gradient déterministe. Ces ainsi U ( n + 1 ) = E ( H ( n + 1 ) ) Ð H∗
fluctuations sont à moyenne nulle et leur variance, proportionnelle
au pas, reste bornée. d′où U ( n + 1 ) = ( I Ð αR ) E ( H ( n ) Ð H∗ )
■ Convergence en moyenne du LMS
soit U ( n + 1 ) = ( I Ð αR ) U ( n ) (84)
Reprenons la relation (81) :
Cette dernière équation est intéressante dans le sens où elle nous
H (n) = H (n Ð 1) + α e (n Ð 1) X (n Ð 1) fournit une expression récursive d’évolution de l’erreur d’estimation
des paramètres du filtre.
La démonstration de la convergence est basée sur l’hypothèse Ainsi, démontrer que le LMS converge en moyenne vers la solu-
d’indépendance de H ( n ) et de X ( n ) .
tion optimale H∗ se ramène à démontrer que l’erreur U ( n )
En fait, compte tenu de la nature récursive de l’équation de mise
converge vers zéro.
à jour des coefficients du filtre, H ( n ) dépend en fait, non seulement
de X ( n Ð 1 ) , mais aussi de X ( n Ð 2 ) , X ( n Ð 3 ) , ... Pour ce faire, nous allons effectuer un découplage des équations
de mise à jour en utilisant la décomposition suivante que nous éta-
D’où le caractère contraignant de cette hypothèse qui nécessite blirons en annexe (en fin d’article) :
que les vecteurs d’entrée { X ( n ) } soient non corrélés, c’est-à-dire :
R = QΛQ T (85)
E [ X ( n ) XT ( m ) ] = 0 n≠m
où les colonnes de la matrice Q sont les vecteurs propres de R :
C’est une condition encore plus forte que celle qui nécessite que
Q = [ Q 1 -------- Q N ]
l’entrée soit une séquence blanche.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 7 228 − 19
FILTRAGE OPTIMAL _____________________________________________________________________________________________________________________
et Λ la matrice des valeurs propres notée comme suit : or λ i > 0 d’où trace (R) > λ max soit :
2 2
------------ > --------------
λ1 ... 0 λ max N
0 λN
On peut donc remplacer la condition (88) par la condition plus restrictive :
U ( n + 1 ) = ( I Ð α Q Λ QT ) U ( n ) (86) ∑ λi
i=1
L’analyse de la convergence va être effectuée en tirant avantage Par ailleurs, R étant une matrice de Tœplitz, on pourra écrire :
de la relation (85). Pour ce faire, on va considérer un vecteur U ′ ( n )
N
obtenu par la transformation linéaire suivante :
∑ λi = trace ( R ) = N r ( 0 ) = N E [ x 2 ( n ) ]
i=1
U ′ ( n ) = QT U ( n )
d’où
Ainsi, si nous prémultiplions les deux membres de l’équation (86)
par la matrice Q T et si nous utilisons la relation Q T Q = I , il vient : 2 2
0 < α < ----------------------------------- = -------------
N . E ( x2 ( n ) ) N σ x2
Q T U ( n + 1 ) = [ Q T Ð αQ T QΛ ] U ( n )
2
0 < α < ----------------------------------------------------------------------------------------------------
N ( puissance du signal d ′entrée )
et, en utilisant la propriété Q T Q = I , il vient :
Il s’agit d’une condition certes plus restrictive sur la stabilité du filtre, mais plus facile
Q T U ( n + 1 ) = [ I Ð αΛ ] Q T U ( n ) , soit : à mettre en œuvre.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 7 228 − 20 © Techniques de l’Ingénieur, traité Mesures et Contrôle
____________________________________________________________________________________________________________________ FILTRAGE OPTIMAL
y (n ) 4 000
b1 (n )
H
2 000
0
Figure 19 – Schéma bloc du système annulateur de bruit
– 2 000
Considérons que λ i ,, 1 , alors :
– 4 000
ln ( 1 Ð αλ i ) ≈ αλ i
– 6 000
1 0 500 1 000 1 500 2 000 2 500
d’où t i = ---------
αλ i Échantillons
E { e 2 ( n ) } = E { s 2 ( n ) } + E { ( b0 ( n ) Ð y ( n ) ) 2 }
Amplitude
On voit que la valeur minimale de E ( e 2 ( n ) ) est obtenue quand :
6 000
y ( n ) = b0 ( n )
4 000
alors e ( n ) = s ( n ) est le résultat désiré.
2 000
■ Conditions expérimentales de mise en œuvre des simulations.
Pour satisfaire la condition sur la corrélation des bruits b 1 ( n ) et 0
b 0 ( n ) , le bruit b 0 ( n ) sera généré par le processus suivant :
b 0 ( n ) = 0,5 b ( n Ð 1 ) + 0,35 b ( n Ð 2 ) Ð 0,3 b ( n Ð 3 ) Ð 0,2 b ( n Ð 4 ) – 2 000
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 7 228 − 21
FILTRAGE OPTIMAL _____________________________________________________________________________________________________________________
fréquentiel. Ceci est motivé par l’existence de l’algorithme de la transformée de Fourier 1 Compte tenu de la symétrie de R, avec R = R T, les vecteurs
FFT qui conduit, en général, à une double amélioration : rapidité de convergence et dimi-
nution de la complexité. On peut aussi citer l’utilisation d’autres transformations, de type
propres qui correspondent à des valeurs propres distinctes sont
Hartley par exemple, ou opérant sur des décompositions sur des bases d’ondelettes. orthogonaux :
2°) Filtres d’ordre adaptatifs
Dans le cas de bruits impulsionnels, la combinaison de filtres non linéaires de type T Q = 0 pour toute paire de vecteurs m, n.
Qm
filtres d’ordre avec des filtres adaptatifs permet de réduire l’effet des bruits impulsionnels, n
aussi bien pour l’estimation de paramètres de modèles de signaux bruités que pour le
rehaussement de signaux perturbés par des bruits impulsionnels.
En effet, soit λ 1 et λ 2 deux valeurs propres distinctes :
3°) L’algorithme LMS n’était jusqu’à présent pas considéré comme un algorithme opti-
mal. En effet, l’approximation faite dans la relation 4.4 en prenant :
RQ 1 = λ 1 Q 1
E {X (n) e (n)} = X (n) e (n)
RQ 2 = λ 2 Q 2 (93)
fait que l’algorithme ne découle pas de l’utilisation d’un critère d’optimalité exact mais
d’un critère approché. Ainsi, on le considère comme un algorithme sous-optimal.
La raison pour laquelle nous l’avons introduit dans la famille des algorithmes optimaux En prenant les transposées et en postmultipliant (93) par Q 2 , il
résulte de notre interprétation des travaux récents (1996) menés par Th. Kailath et ses col- vient :
lègues qui ont permis de montrer que le LMS est optimal au sens du critère dit « H infini ».
Q 1T R = λ 1 Q 1T
5. Annexe. Quelques Q 1T RQ 2 = λ 1 Q 1T Q 2
propriétés de la matrice R
En postmultipliant (A.5) par Q 1T , on aura :
RQ i = λ i Q i avec λ i scalaire Ainsi, les vecteurs propres correspondant aux valeurs propres λ 1
et λ 2 sont orthogonaux.
Q i vecteur colonne (91)
soit : ( R Ð λ i I ) Q i = O RQ = QΛ
Cet ensemble d’équations homogènes n’a de solution non nulle
que si nous avons : 2 La matrice R est réelle, toutes ses valeurs propres doivent être
réelles.
det ( R Ð λ i I ) = O
On peut esquisser une démonstration par l’absurde. Supposons
Cette dernière relation dont les solutions seront notées λ 1 , .... λ N que λ 1 soit complexe.
est appelée équation caractéristique.
L’équation caractéristique de R est un polynôme de degré N.
On peut alors écrire, compte tenu de (91), et en définissant la
matrice Λ des valeurs propres : Si λ 1 est complexe, alors λ 1* , qui est la valeur conjuguée, doit
être aussi une valeur propre.
λ1 0 0
λ 1 complexe entraîne que Q 1 complexe
0 λ2
Λ = ..
. λ 1* → Q 1
0 ... λ N
On ne peut plus alors vérifier la relation d’orthogonalité
λ1 0 0 λ 1 Q 1T Q 2 = λ 2 Q 1T Q 2 . On en déduit l’impossibilité d’avoir une valeur
0 λ2 0 propre complexe.
R [ Q 1 , Q 2 , ... Q N ] = [ Q 1 , Q 2 , ... Q N ]
.. ..
. . On peut normaliser les vecteurs propres pour qu’ils soient nor-
0 ... λ N més à 1. Dans ce cas, la matrice Q est dite orthonormée :
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 7 228 − 22 © Techniques de l’Ingénieur, traité Mesures et Contrôle
____________________________________________________________________________________________________________________ FILTRAGE OPTIMAL
Références bibliographiques
[1] WIENER (N.). – Extrapolation, interpolation based on adaptive Kalman Filter. Procee- [18] OTTAVIANI (R.), SETTINERI (R.) et NAJIM
and smoothing of stationary time series. MIT dings EUSIPCO’96, sept. 96, Trieste, Italie. (M.). – Order statistics fast Kalman filter. IEEE
Press, 1949. Cambridge, Ma. ISCAS 96 - mai 1996 - Atlanta.
[12] DENTINO (M.), Mc COOL (J.) et WIDROW
[2] LEE (Y.W.). – Statistical theory of communica- (B.) . – Adaptive filtering in the frequency [19] NASSER ELDIN (S.) et NAJIM (M.). – Sample
tion. J. Wiley, 1960. domain. Proc. IEEE, vol. 66, pp. 1658-1659, restoration based on nonlinear fast Kalman
[3] VAN TREES (H.L.). – Detection, estimation déc. 1978. filtering. Actes de la Conférence Intern.
and modulation theory. Tome 1, J. Wiley, [13] FERRARA (E.R.). – Fast implementation of Workshop on Theory of Sampling, Aveiro,
1968. LMS adaptive filters. IEEE Trans. on Acous. June 16/19, 1997. Portugal.
[4] THOMAS (J.B.). – An introduction to statisti- Speech and Signal Proc. vol. ASSP-28, pp. [20] MEHRA (R.K.). – On the identification of
cal communication theory. J. Wiley, 1969. 474-475, april 1980. variances and adaptive Kalman filter. IEEE
[5] PAPOULIS (A.). – Probability, random varia- [14] MANSOUR (P.), GRAY Jr (A.H.). – Uncon- Trans. on Automatic Control vol. AC-15, n° 2,
bles and stochastic processes. Mc Graw Hill, strained frequency domain adaptive filter. pp 175-84, April 1970.
1965. IEEE Trans. on Acous. Speech and Signal [21] MEHRA (R.K.). – On line identification of
Proc, vol. ASSP 30, pp. 726-734, Oct. 1982. linear dynamic systems with applications to
[6] KALMAN (R.E.), BUCY (R.S.). – New results in
linear filtering and prediction theory. Trans. [15] FLORIAN (S.), BERSHAD (N.J.). – A weighted Kalman filtering. IEEE Trans. on Automatic
ASME, Series D, Journal of Basic Eng. vol-38, normalized frequency domain LMS adaptive Control vol. AC-16, n° 1, p. 12-21, February
p. 95-101, 1960. algorithm. IEEE Trans. on ASSP, vol. ASSP- 1971.
[7] KALMAN (R.E.). – A new approach to linear 36, pp. 1 002-1 007, july 1988. [22] HASSIBI (B.), SAYED (A.H.), KAILATH (Th). –
filtering and prediction problems. ASME, [16] ATTALLAH (S.), NAJIM (M.). – The influence H infinity optimality of the LMS algorithm.
Journal of Basic Eng. vol-82-D, p. 34-45, of the regularity and the subband coding Trans. on Signal Proces. vol. 44, n° 2, pp. 267-
1960. decomposition structure on the convergence 280, 1996.
[8] NAJIM (M.). – Modélisation et identification behaviour of the normalized wavelet trans- [23] WIDROW (B.), STEARNS (M.). – Adaptive
en traitement du signal. Masson, Paris, 1988. form. IC ASSP 1996. digital signal processing. Prentice Hall, NJ,
[9] SORENSON (H.W.). – Kalman Filtering, [17] HAWEEL (T.I.), CLARKSON (P.M.). – A class of 1985.
Theory and Applications. IEEE Press, New order statistic LMS algorithms. IEEE Trans.
[24] THERRIEN (Ch. W.). – Discrete random signal
York, 1985. on S.P. vol SP-40 n° 1, p. 44-51, jan 1992.
and statistical signal processing. Prentice
Cette approche généralise celle du filtre
[10] BELLANGER (M.). – Analyse du signal et fil- Hall, 1992.
median LMS développée dans :
trage numérique adaptatif. Masson, 1989. P.M. CLARKSON and T.I. HAWEEL : A median [25] MACCHI (O.). – Adaptive processing. The
[11] GABREA (M.), MANDRIDAKE (E.), NAJIM LMS algorithms. Electron Letters, vol. 25, pp. least means square approach with applica-
(M.). – A single microphone noise canceller 520-522, 1989. tions in transmission. J. Wiley 1994.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 7 228 − 23