Académique Documents
Professionnel Documents
Culture Documents
ET A LEGALISATION
ENSICAEN
Specialite : Electronique
et Physique Appliquee
Majeure : Signal, Automatique, Telecommunications
mathieu.pouliquen@unicaen.fr
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
5
6
7
8
11
13
16
16
17
17
18
18
20
20
22
23
23
24
25
27
27
29
30
30
33
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
51
51
52
52
54
56
56
59
59
61
72
72
72
79
85
87
88
89
Remerciements `a Guy Binet, Miloud Frikel, Olivier Gehan et Eric Pigeon pour
les remarques et critiques.
CHAPITRE
1.1
Notations et rappels
Dans ce cours, seuls sont traites les signaux discrets cest `a dire echantillonnes.
Un signal temporel x(t) sera donc decrit par la valeur xk de ses echantillons
aux instants kTe . Te designe la periode dechantillonnage. On supposera dans la
suite que la periode dechantillonnage a ete judicieusement choisie de mani`ere `a
satisfaire la condition du theor`eme de Shannon.
1.1.1
La Transform
ee de Fourier
Rappelons que la transformee dun signal echantillonne x(t) est definie par :
T F [x(t)] = X(f ) =
+
X
xk ej2f kTe
k=
P+
Cette transformee de Fourier existe si k= |xk |. Dans la suite, lorsquon sera
sera amene `a calculer une transformee de Fourier, la condition precedente sera
supposee verifiee par defaut.
De meme, certains calculs necessiteront la permutation dintegrales, de sommes
et de limites. Par defaut, les conditions necessaires `a la validite de ces permutations seront supposees satisfaites (voir cours de Mathematiques).
La transformee de Fourier dun signal echantillonne etant periodique de periode
1
ee de Fourier inverse sexprime par :
Te , la transform
Z
xk = Te
X(f )ej2f kTe df
1
Te
Cette propriete de reversibilite est de premi`ere importance puisquelle signifie que x(t) et X(f ) contiennent les memes informations, decrivent les memes
comportements mais simplement de mani`ere differente. Ce qui diff`ere cest simplement la nature des informations directement accessibles. La representation
5
1.1.2
Limpulsion
Tout comme lanalyse en temps continu, lanalyse en temps echantillonne utilise couramment la sequence impulsion. Cette sequence est notee (t) et se caracterise par :
1 pour k = 0
k =
0 pour k 6= 0
(t)
6
1
6
- t
+
X
k=
xk (t kTe )
+
X
k ej2f kTe = 1
k=
+
X
i=
(t iT )
1.1.3
Le filtrage num
erique lin
eaire
+
X
hi q i
i=0
hi q i x(t)
i=0
y(t) =
X
i=0
hi x(t iTe )
hi xki
i=0
Le filtrage lineaire sexprime de mani`ere equivalente par lintermediaire du produit de convolution . Si on definit un signal h(t) `a partir des coefficients hi :
h(t) =
+
X
k=0
hk (t kTe )
z(t) =
i=
+ X
+
X
z(t) =
i= k=0
z(t) =
+
X
hi x(t iTe )
+
X
hi
i=
z(t) =
i=
+
X
q=
xq (t iTe qTe )
pour t = kTe
z(kTe ) =
+
X
i=
hi
+
X
q=
zk =
+
X
hi xki
i=
+
X
hi xki = yk
i=0
+
X
X
T F [y(t)] =
hi xki ej2f kTe
k=
T F [y(t)] =
i=0
X
+
X
k= i=0
+
X
i=
1.1.4
Analyse de corr
elation
Les Signaux d
eterministes
Les signaux deterministes se repartissent en deux classes : les signaux `a energie
finie et les signaux `a puissance finie. Pour un signal x(t), lenergie Exx et la
puissance Pxx sont definies par
Exx =
xk xk
k=
N
X
1
xk xk
N 2N + 1
Pxx = lim
k=N
xk+i xk
k=
k=N
yk+i xk
k=
Signaux a
` puissance finie
N
X
1
yk+i xk
N 2N + 1
k=N
On peut montrer que les fonctions de correlation et les spectres sont lies par les
relations suivantes :
T F [Rxx (t)] = Sxx (f )
T F [Ryx (t)] = Syx (f )
do`
u les figures 1.2 et 1.3.
tranformee de Fourier
-
x(t)
X(f )
autocorrelation
module2
?
Rxx (t)
?
Sxx (f )
tranformee de Fourier
-
x(t)
y(t)
tranformee de Fourier
-
X(f )
Y (f )
intercorrelation
produit et conjugue
?
Ryx (t)
?
Syx (f )
tranformee de Fourier
-
k=N
10
N
X
1
yk+i xk
N 2N + 1
k=N
avec i = t1 t2 .
La transformee de Fourier dun signal aleatoire netant pas definie, les figures
1.2 et 1.3 sont remplacees par les figures 1.4 et 1.5.
x(t)
autocorrelation
?
xx (t)
transformee de Fourier
-
Sxx (f )
x(t)
y(t)
intercorrelation
?
yx (t)
transformee de Fourier
-
Syx (f )
1.2
Objets du cours
11
12
Premi`
ere partie
Techniques de filtrage
adaptatif
13
Les techniques de filtrage adaptatif trouvent tout leur sens dans les probl`emes
pour lesquels la composante de bruit ou le processus ont un comportement
spectral inconnu. Considerons par exemple le cas dun signal perturbe par un
parasite sinusodal `a la frequence de 50Hz. Ce signal peut etre filtre efficacement
par un filtre classique coupe bande centre sur 50Hz. En revanche considerons le
cas de la mesure sur electrocardiogramme du rythme cardiaque dun bebe encore
dans le ventre de sa m`ere. Le signal va etre parasite par le rythme cardiaque
de la m`ere. Ce signal parasite est a priori de contenu spectral inconnu et il
risque meme de se superposer en partie au signal correspondant au bebe. Le
filtrage classique est donc ici inefficace alors que le filtrage adaptatif va se reveler
performant.
On distingue quatres classes dapplications :
lidentification : La figure 1.6 illustre le contexte du probl`eme didentification.
Celui-ci consiste en la determination dun filtre modelisant au mieux le comportement dun processus inconnu. Seuls sont connus les signaux dentree/sortie
de ce processus. Le filtre representant le mod`ele sera estime `a partir de lobservation de la difference entre la sortie du processus et son estimation `a la
sortie du filtre.
sortie
processus ?
entr
ee
filtre adaptatif
signal de r
ef
erence ?
retard
filtre adaptatif
pr
ediction
signal de r
ef
erence
filtre adaptatif
retard
signal de r
ef
erence ?
processus
filtre adaptatif
estimation
15
CHAPITRE
2.1
Principe g
en
eraux
Le principe de synth`ese du filtre est presente sur la figure 2.1. Il est suppose ici
que le signal quon souhaite estimer, y(t), est correle `a un second signal u(t).
Cette estimation de y(t) sera notee yb(t) et prendra la forme suivante :
avec
yb(t) = H(q)u(t)
(2.1)
H(q) = h0 + h1 q 1 + h2 q 2 + . . . + hn q n =
n
X
hi q i
i=0
o`
u q est loperateur retard. H(z) est la fonction de transfert du filtre qui est
suppose ici etre un filtre FIR dordre n. Cette fonction de transfert secrit :
H(z) = h0 + h1 z 1 + h2 z 2 + . . . + hn z n =
n
X
hi z i
i=0
Remarque :
Ce type de filtre a lavantage detre toujours stable. Dun point de vue mise
en oeuvre, cest une garantie appreciable.
yb(t) sexprime donc comme suit :
yb(t) =
n
X
i=0
hi u(t iTe )
o`
u Te est la periode dechantillonnage.
16
y(t)
u(t)
y(t)
b
H(z)
+
-?
y(t)
e
2.1.1
Contexte de signaux al
eatoires et d
eterministes
Dans le cas des signaux deterministes, le crit`ere (2.2) na pas de sens, nest
alors considere que le crit`ere (2.3) :
t
1X
JW = lim
(yk ybk )2
t t
k=1
Dans la suite, afin de ne pas alourdir les ecritures, nous determinerons uniquement le vecteur des param`etres minimisant le crit`ere (2.2), on se placera par
consequent dans un contexte aleatoire. La resolution du second crit`ere etant
analogue `a celle du premier, le resultat sera simplement enonce et non demontre.
2.1.2
Formalisme
n
X
i=0
hi u(t iTe )
Ceci peut aussi se reecrire sous le formalisme usuel des moindres carres comme
suit :
ye(t) = y(t) (t)T
17
avec
(t) =
u(t)
u(t Te )
..
.
u(t nTe )
et
h0
h1
..
.
hn
Remarque :
Dans certaines situations il peut etre necessaire de faire de la prediction de
signaux (presence de retard, anticipation sur une decision), ceci revient alors
`a realiser lestimation dune valeur future y(t + jTe ) `a partir des donnees
disponibles jusqu`a linstant t. Cette estimation prend la forme :
n
X
yb(t + jTe ) =
hi u(t iTe )
i=0
o`
u j designe le pas de prediction. Ceci peut se reecrire comme suit
n
X
yb(t) =
hi u(t iTe jTe ) = H(q)u(t)
i=0
o`
u H(z) est le filtre defini par :
H(z) = z j (h0 + h1 z 1 + h2 z 2 + . . . + hn z n ) = z j
n
X
hi z i
i=0
2.2
Solution globale
2.2.1
dJW
= 2E (t)(y(t) (t)T ) = 0
d
E {(t)y(t)} = E (t)(t)T
18
(2.4)
(2.5)
u(t)y(t)
u(t Te )y(t)
E {(t)y(t)} = E
..
u(t
nT
e )y(t)
E {u(t)y(t)}
E {u(t Te )y(t)}
=
..
nTe )y(t)}
E {u(t
yu (0)
yu (1)
..
.
yu (n)
o`
u yu (i) est la fonction de correlation entre y(t) et u(t iTe ) dont lexpression
est rappelee `a la page 10.
De la meme mani`ere on a :
..
.
uu (1) uu (0) . .
.
T
=
E (t)(t)
..
.
.
.
.
.
.
.
.
.
.
uu (n)
uu (0)
Dans le cas de signaux reels, la fonction dautocorrelation est paire, par consequent
uu (i) = uu (i) et il vient alors :
..
.
uu (1) uu (0) . .
.
T
E (t)(t)
=
..
.
.
.
.
.
.
.
.
.
.
uu (n)
uu (0)
On notera dans la suite les matrices :
E (t)(t)T = uu
E {(t)y(t)} = yu
(2.6)
(2.7)
19
2.2.2
V
erification du principe dorthogonalit
e
Ainsi lerreur destimation ye(t) = y(t) (t)T est orthogonale au vecteur des
entrees du filtre (t). Ceci correspond au principe dorthogonalite, principe
general `a toute estimation quadratique. Lestimation yb(t) apparat etre ainsi
la projection orthogonale de y(t) sur le plan engendre par (t) comme illustre
sur la figure 2.2.
6
y(t)
e
....
....
....
....
.... y(t)
..
..
..
..
..
..
..
.
y(t)
b
plan (t)
2.2.3
Mise en oeuvre
determination de yu et uu
?
= (uu )1 yu
?
Figure 2.3 Solution de Wiener-Hopf
Cet algorithme relativement simple souffre de quelques defauts. Tout dabord
il necessite la connaissance des termes de correlation uu (i) et yu (i) pour i
[0; n], ceci est d
u au fait que la solution (2.9) est obtenu par minimisation du
crit`ere (2.2) de nature probabiliste. En general on ne dispose que de realisations
des signaux aleatoires u(t) et y(t) et non des termes uu (i) et yu (i).
20
Remarquons que lhypoth`ese dergodicite etant verifiee il est possible de substituer au crit`ere (2.2) le crit`ere (2.3). On peut aisement demontrer que le vecteur
des param`etres minimisant (2.3) est determine par :
= (Ruu )1 Ryu
avec
(2.8)
PN
Ruu (i) = limN N1 k=1 uk+i uk
P
N
Ryu (i) = limN N1 k=1 yk+i uk
(2.9)
o`
u bt designe une estimation de `a partir des donnees jusqu`a linstant t = N Te .
Lalgorithme de mise en oeuvre est presente sur la figure 2.4.
b yu/t et R
b uu/t
calcul de R
?
b uu/t )1 R
b yu/t
bt = (R
?
Ces deux derniers probl`emes peuvent etre contraignant dans le cas de lutilisation dun calculateur ne permettant pas linversion de la matrice uu (ou
Ruu ) ou encore dans le cas dun probl`eme necessitant une application en temps
reel pour laquelle il est necessaire dactualiser `a chaque instant la valeur des
param`etres du filtre. Un algorithme recursif sera propose dans la suite afin de
permettre un contournement intuitive des deux probl`emes precedents.
2.2.4
Exemple
Dans le cas dun filtre dordre 0, lestimation yb(t) prend la forme yb(t) = h0 u(t)
et la fonction de co
ut devient :
JW = E{(y(t) h0 u(t))2 }
yy (0) = E{y(t)2 }
uu (0) = E{u(t)2 }
yu (0) = E{y(t)u(t)}
yy (0) = 10
uu (0) = 1
yu (0) = 3
(2.10)
on a h0 = 3.
Les informations sur uu (0) et yu (0) sont generalement estimees `a partir de
series de donnees. Afin dillustrer ceci, nous avons utilise des series de donnees
correspondant aux realisations de signaux aleatoires satisfaisants les relations
(2.10). Lhypoth`ese dergodicite etant par nature verifiee ici, uu (0) et yu (0)
peuvent etre estimes, pour t 1, comme suit :
buu/t (0)
uu (0) R
byu/t (0)
yu (0) R
22
3.04
3.03
estimation de h
3.02
3.01
2.99
2.98
2.97
2.96
2.95
0.5
1.5
2.5
3
nombre de points
3.5
4.5
5
4
x 10
2.3
Solution r
ecursive
2.3.1
Premi`
ere approche
Remarque :
Signalons tout de suite que la solution sur proposee par lalgorithme recursif
nest quune approximation de la solution proposee par lequation de WienerHopf. Il sera vu plus loin les conditions necessaires pour que cette approximation ne soit pas trop grossi`ere.
Intuitivement la nouvelle estimation du vecteur des param`etres va prendre la
forme :
bt = btTe + terme correctif
Si la derivee
dJW (t/tTe )
dbtTe
JW (t/t Te )
JW (t/t Te )
6
dJW (t/tTe )
b
d
tTe
.
..
.
..
..
..
.
dJW (t/tTe )
b
d
tTe
tTe
..
..
.. w
..
..
tTe
Figure 2.6
Une premi`ere version possible de lalgorithme est donc :
!
dJW (t/t Te )
b
b
t = tTe signe
2
dbtT
e
avec > 0.
Le terme signe
dJW (t/tTe )
dbtT
e
2.3.2
Algorithme du gradient d
eterministe
On a
dJW (t/t Te )
bt = btTe
2
dbtTe
dJW (t/t Te )
= 2E{(t)(y(t) (t)T btTe )}
dbtT
e
dJW (t/t Te )
= 2(yu uu btTe )
dbtT
(2.11)
24
(2.12)
2.3.3
(2.13)
Propri
et
e de convergence
Il vient :
do`
u
et = (1 uu )( btTe )
et = (1 uu )etTe
ou encore
et = (1 uu )N e0
o`
u t = N Te et e0 designe lerreur au temps initial t = 0.
1 0
0
..
.
.
0 2
.
.
D= .
.
.
..
..
..
0
0 0 n+1
o`
u les i designe les valeurs propres de uu . et peut donc etre mis sous la forme
suivante :
et = P (1 D)N P T e0
25
avec
et = P DN P T e0
D =
1 1
0
..
.
1 2
..
.
0
..
..
.
.
..
.
0
0 1 n+1
2
, i
i
2
max
o`
u max designe la valeur propre maximale de uu .
Remarque :
On consid`ere en general que la valeur sur permettant une convergence optimale est donnee par :
2
opt =
max + min
En dec`a de cette valeur la convergence risque detre lente, au del`a elle risque
de presenter des oscillations.
En labsence dinformation sur les valeurs propres de uu , il est possible de
prendre une borne superieur sur max en remarquant que
max <
n+1
X
i = trace(uu )
i=1
o`
u n est lordre du filtre et uu (0) est la puissance de u(t). Une condition de
convergence de lalgorithme du gradient deterministe est alors donnee par
0<<
2
(n + 1)uu (0)
o
(n+1)uu (0) .
Lal-
o
(n+1)uu (0) (yu
uu btTe )
o`
u a est un terme leg`erement superieur `a 0 ajoute au denominateur afin de ne
pas voir ce dernier tendre vers 0.
2.3.4
Exemple
2.3.5
3.5
3.5
2.5
2.5
h estim
0.5
0.5
0.5
0.5
1
1
0.5
0.5
1.5
h0 estim
2.5
3.5
1
1
2
max
0.5
0.5
1.5
h0 estim
2.5
3.5
2
max
3.5
3.5
2.5
2.5
2
h estim
1.5
1.5
h estim
1.5
h estim
1.5
0.5
0.5
0.5
0.5
1
1
0.5
0.5
1.5
h0 estim
2.5
Figure 2.9 = 1
3.5
1
1
2
max
0.5
0.5
1.5
h0 estim
2.5
3.5
2
max
mais lalgorithme perd alors son aspect adaptatif. En labsence dinformation sur
les uu (i) et yu (i) on remplace la moyenne quadratique E{(y(t)(t)T btTe )2 }
par sa valeur instantanee (y(t) (t)T btTe )2 , on obtient alors lalgorithme
suivant :
algorithme du gradient stochastique :
bt = btTe + (t)(y(t) (t)T btTe )
(2.14)
Toutefois, cet algorithme etant base sur lerreur instantanee, meme si `a un instant donne il atteint le point il ne sarretera pas pour autant et continuera `a
tourner autour.
28
(2.15)
2.3.6
Mise en oeuvre
?
ye(t/t Te ) = y(t) yb(t/t Te )
?
b
b
t = tTe + (t)e
y (t/t Te )
?
Le choix de linitialisation nest peut etre pas si contraignant que ca. En effet, si
les signaux sont stationnaires, la fonction de co
ut JW na quun seul minimum.
Par consequent, meme si lestimation initiale nest pas tr`es bien choisie (estimation initiale eloignee de la solution), lalgorithme devrait pouvoir converger
29
vers la solution globale apr`es un certain temps... pourvu que le choix de soit
judicieux...
En effet, le choix sur le gain est plus delicat. Si ce gain est choisi trop faible,
lalgorithme risque de mettre pas mal de temps avant de converger, do`
u un
temps de calcul un peu long. Sil est choisi plus fort, la convergence sera acceleree
mais il y a aussi risque de voir lalgorithme osciller voir meme diverger.
3.5
estim de a
2.5
1.5
0.5
0.5
1.5
2.5
3
nombre de point
3.5
4.5
5
4
x 10
2.4
2.4.1
Exemples dapplication
Application de la solution r
ecursive : annulation decho
acoustique
Le schema de principe de leffet decho lors dune teleconference est presente sur
la figure 2.13.
[1]
[2]
y(t)
u(t)
30
6+
v(t)
Une personne parlant dans une pi`ece [1] emet un signal u(t). Transmis dans une
autre pi`ece [2] par lintermediaire dun haut parleur, ce signal apparat deforme
(filtre) et bruite, le bruit v(t) correspondant au signal parole dune seconde
personne dans la pi`ece [2]. Par lintermediaire dun micro dans la pi`ece [2], tout
ceci se retrouve dans la pi`ece [1] pour former le signal y(t). Resultat : la personne
dans la pi`ece [1] va sentendre parler.
[1]
[2]
y(t)
e
6
y(t)
H(z)
+
6
-
6+
v(t)
u(t)
y(t)
+
u(t)
e
?y(t)
H(z)
Le probl`eme dannulation de cet echo peut etre resolu par lintermediaire dun
filtrage du signal initial u(t) comme illustre sur les figures 2.14 et 2.15 : il sagit
simplement devaluer la distorsion du signal u(t) lors de ses passages [1] y [2]
et [2] y [1], puis de la compenser. La nature de la distortion etant inconnue,
le probl`eme sera resolu par filtrage adaptatif.
paramtre
1.5
0.5
200
400
600
800
1000
itrations
1200
1400
1600
1800
2000
31
Lalgorithme du gradient a ete teste sur une serie de donnees pour laquelle
on connat le terme de bruit v(t). La figure 2.16 presente levolution au cours
du temps dun des coefficients du filtre estime (filtre choisi dordre n = 10).
Differentes valeurs du gain ont ete testees. Il apparat que plus ce gain est
fort, plus la convergence est rapide. Cependant cet accroissement de la vitesse
de convergence se traduit par une amplification du bruit sur les coefficients, voir
meme une instabilite de lalgorithme du gradient au del`a dun certain seuil.
ecart entre le terme de "bruit" et lerreur a posteriori
4
200
400
600
800
1000
itrations
1200
1400
1600
1800
2000
60
80
100
0.5
0.5
100
80
60
40
20
0
points
20
40
200
400
600
800
1000
itrations
1200
1400
1600
1800
2000
60
80
100
0.5
0.5
100
80
60
40
20
0
points
20
40
32
2.4.2
signal de la parole +
y(t)
bruit
v(t)
1.5
0.5
0.5
1.5
50
100
150
200
250
300
350
400
450
temps
1.5
enregistrement bruit
0.5
0.5
1.5
50
100
150
200
250
300
350
400
temps
33
450
X
buu/L (i) = 1
uu (i) R
uk+i uk
L
k=1
x(t) 6 ....
..
..
..
..
..
..
...
..
..
..
..
.
..
...
..
..
..
..
.
- t
Figure 2.21
Dapr`es ce qui prec`ede on a
u(t) = y(t) + v(t)
il vient alors
byu/L (i) = R
byy/L (i) + R
byv/L (i)
R
do`
u
buu/L (i) = R
byy/L (i) + R
bvv/L (i)
R
byu/L (i) = R
buu/L (i) R
bvv/L (i)
R
choix de n et L
?
b
bvv/L (i)
Ruu/L (i) et R
?
byu/L (i) = R
buu/L (i) R
bvv/L (i)
R
?
1
b
b
b yu/L
= Ruu/L R
?
yb(t) = (t)T b
?
1.5
enregistrement filtr
0.5
0.5
1.5
50
100
150
200
250
300
350
400
temps
35
450
CHAPITRE
3.1
Principe
+ h2 z
+ . . . + hn z
n
X
hi z i
i=0
k=1
N
1 X
(yk ybk/t )2
N
k=1
avec
ybk/t = (kTe )T bt
On retrouve ainsi le crit`ere destimation des moindres carres JMC (t) presente
dans le cours de modelisation.
Le crit`ere des moindres carres nest pas de nature probabiliste, par consequent
il est generalisable au contexte des signaux deterministes. Dans la suite on
36
avec
bt = ((t)(t)T )1 (t)Yt
Yt =
y(Te )
y(2Te )
..
.
y(N Te )
(t)T =
(Te )T
(2Te )T
..
.
(N Te )T
Remarque :
si on developpe le terme (t)Yt on obtient :
PN
1
u(kTe )y(kTe )
k=1
N
1 PN u(kTe Te )y(kTe )
N k=1
(t)Yt =
..
.
PN
1
k=1 u(kTe nTe )y(kTe )
N
Dans le cas de signaux aleatoires stationnaires ergodiques et pour t on
a
E {u(t)y(t)}
E {u(t Te )y(t)}
(t)Yt =
= yu
..
Remarque :
Lapplication de lexpression precedente suppose que la matrice (t)(t)T
soit inversible. Cette condition est appelee condition dexcitation persistante.
Elle est verifiee `a partir du moment o`
u il y a suffisamment dinformations
sur les signaux. Par exemple un signal constant est une excitation persistante
dordre 1, un bruit blanc est une excitation persistante dordre infini.
Solution r
ecursive
bt = btTe + Kt ye(t/t Te )
37
Remarque :
Cet algorithme a une forme similaire `a lalgorithme du gradient developpe
dans le cadre du filtrage de Wiener. En effet, dans les deux cas on a une reactualisation de lancienne valeur des param`etres `a partir dun terme correctif,
terme correctif correspondant au produit dun gain avec lerreur a priori :
algorithme des moindres carres :
bt = btTe + Kt ye(t/t Te )
algorithme du gradient stochastique :
bt = btTe + (t)e
y (t/t Te )
Afin de prendre en compte des variations eventuelles des caracteristiques des
signaux, il est possible dintroduire un facteur doubli [0; 1], terme permettant dattenuer limportance des donnees passees. Lintroduction de ce
facteur doubli se manifeste sur le crit`ere JMC (t) comme suit :
N
1 X N k
(yk ybk/t )2
N
k=1
et la solution recursive devient :
bt = btTe + Kt ye(t/t Te )
ye(t/t Te ) = y(t) (t)T btTe
3.2
Exemples dapplication
3.2.1
Exemple num
erique
On consid`ere un syst`eme variant dans le temps dont le comportement dynamique peut etre decrit par une fonction de transfert G1 (z) pendant une premi`ere
periode de temps et par une fonction de transfert G2 (z) pendant une seconde
periode de temps. G1 (z) et G2 (z) sont donnees par :
G1 (z) =
10
X
(0.5)k z k
k=1
G2 (z) =
10
X
(0.9)k z k
k=1
0.9
paramtre estim
0.8
0.7
0.6
0.5
0.4
200
400
600
800
1000
iterations
1200
1400
1600
1800
2000
0.9
paramtre estim
0.8
0.7
0.6
0.5
0.4
200
400
600
800
1000
iterations
1200
1400
1600
1800
2000
3.2.2
On se propose ici de modeliser le comportement dun syst`eme de transmission flexible represente sur la figure 3.3. Le syst`eme de transmission flexible
est compose de trois poulies reliees entre elles par deux courroies metalliques
comportant chacune deux ressorts comme le montre la figure. Le mouvement de
la premi`ere poulie est genere par un moteur `a courant continu. Linertie de la
troisi`eme poulie peut etre modifiee en y ajoutant des masses. Les positions des
poulies sont mesurees par de simples potentiom`etres.
Le probl`eme didentification considere ici est la determination dun mod`ele entre
la tension appliquee sur la premi`ere poulie et la position de la troisi`eme poulie.
Deux experiences sont considerees.
Dans le premi`ere experience aucune charge nest placee sur la troisi`eme poulie.
Dans la seconde experience une masse est rajoutee sur la troisi`eme poulie `a
linstant t 600.
Pour chacune de ses experiences, le signal dentree est une sequence binaire
pseudo aleatoire permettant de verifier la condition dexcitation persistante.
39
0.8
0.6
erreur destimation
0.4
0.2
0.2
0.4
0.6
0.8
1
400
500
600
700
itrations
800
900
1000
0.8
0.6
erreur destimation
0.4
0.2
0.2
0.4
0.6
0.8
1
400
500
600
700
itrations
800
900
1000
40
3.2.3
Reprenons ici lexemple de la page 30. Cet exemple a ete traite par le biais
du filtrage de Wiener, mis en oeuvre `a partir de lalgorithme du gradient stochastique. Ici nous souhaitons appliquer lalgorithme des moindres carres sans
facteur doubli. Les deux algorithmes presentent des similitudes, `a savoir quils
necessitent tout deux :
le choix de lordre du filtre ;
une initialisation du vecteur des param`etres bt .
Lalgorithme du gradient stochastique necessite ensuite le choix du gain alors
que lalgorithme des moindres carres necessite un choix dinitialisation sur Pt .
Le choix de est difficile a priori puisque son influence sur les conditions de
convergence depend du signal dexcitation u(t) pour lequel on ne dispose pas
forcement de beaucoup dinformations. Le choix de Pt est en revanche beaucoup
plus aise ici. En labsence de connaissance a priori sur les param`etres, il est
conseille de prendre Pt important, ici nous prendrons Pt sous forme diagonale
avec 1000 sur la diagonale.
La figure 3.6 presente levolution au cours du temps dun des coefficients du
filtre estime (filtre choisi dordre n = 10), ceci pour deux valeur de dans le
cas de lalgorithme du gradient stochastique ainsi que pour lalgorithme des
moindres carres. Il apparat que ce dernier permet une convergence rapide des
param`etres tout en preservant une variance faible, contraintes incompatibles
dans le cas de lalgorithme du gradient stochastique. Lalgorithme des moindres
carres na til alors que des avantages dans cette application ? Non puisquil
necessite beaucoup plus de calcul que lalgorithme du gradient stochastique. Il
est possible de mettre en oeuvre une version normalisee de ce dernier pour ce
rapprocher des performances des moindres carres, mais ceci au prix dun nombre
plus important doperation a` realiser.
paramtre
1.5
0.5
200
400
600
800
1000
itrations
1200
1400
1600
1800
2000
3.3
3.3.1
Le biais
Jusquici a ete considere la synth`ese dun filtre H(z) pour lestimation du signal
y(t) :
yb(t) = H(q)u(t)
41
Peu dhypoth`eses ont ete faites sur la nature de la relation entre y(t) et u(t).
Nous allons `a present supposer quil existe une fonction de transfert G(z) telle
que la relation entre y(t) et u(t) sexprime comme suit :
y(t) = G(q)u(t) + v(t)
o`
u G(z) et v(t) sont tels que :
G(z) est suppose avoir la meme structure que H(z), cest `a dire que G(z) est
aussi un filtre FIR dordre n et sexprime de la mani`ere suivante :
n
X
G(z) = g0 + g1 z 1 + g2 z 2 + . . . + gn z n =
gi z i
i=0
v(t) est un terme que nous appellerons bruit bien que cette denomination soit
reductrice dans certains cas. Nous verrons par la suite quelques interpretations
donner `a ce terme.
Dapr`es ce qui prec`ede y(t) peut alors se reecrire comme suit :
y(t) = (t)T + v(t)
(3.1)
avec
(t) =
u(t)
u(t Te )
..
.
u(t nTe )
et
g0
g1
..
.
gn
La question posee ici est : quelles sont les conditions sur les signaux pour lesquelles on a limt bt = ? En dautre terme, quelles sont les conditions sur
lentree u(t) et le bruit v(t) permettant une determination exacte, `a partir de
la methode des moindres carres, du vecteur ? Le probl`eme considere ici est
celui de la validite dune solution.
Lexpression (3.1) peut etre formulee pour differents temps de la mani`ere suivante :
Yt = (t)T + Vt
avec
Yt =
y(Te )
y(2Te )
..
.
y(N Te )
, (t)T =
(Te )T
(2Te )T
..
.
(N Te )T
et Vt =
v(Te )
v(2Te )
..
.
v(N Te )
((t)(t)T )1 (t)Yt
|
{z
[1]
((t)(t)T )1 (t)Vt
|
42
{z
[2]
Rvu (0)
Rvu (1)
=0
..
.
Rvu (n)
Il vient alors
Rvu (i) = 0 i
Ceci est verifie si les deux conditions suivantes sont satisfaites :
les signaux v(t) et u(t) sont independant lun de lautre :
Rvu (i) = mv mu i
o`
u mv et mu designe les moyennes de respectivement v(t) et u(t).
le bruit v(t) est centre :
mv = 0
En resume, il est possible de retrouver le vecteur `a partir de lalgorithme des
moindres carres si le terme de bruit est de moyenne nulle et est independant des
termes contenus dans le vecteur dobservation (t).
Afin de mettre en perspective ce resultat considerons les quelques exemples
suivants.
Exemple :
Supposons que la relation vraie entre y(t) et u(t) est de la forme :
y(t) = u(t) + 0.5u(t Te ) + e(t)
o`
u e(t) est la realisation dun bruit blanc de moyenne nulle et independant de
u(t). Cette relation peut etre exprimee comme suit :
y(t) = (t) + v(t)
avec
u(t)
1
(t) =
=
u(t Te )
0.5
v(t) = e(t)
Il apparat donc quen choisissant le filtre H(z) dordre 1 il est possible destimer sans biais le vecteur .
Exemple :
Supposons `a present que la relation vraie entre y(t) et u(t) est de la forme :
y(t) + 0.9y(t Te ) = u(t) + 0.5u(t Te ) + e(t)
(3.2)
43
o`
u e(t) est la realisation dun bruit blanc de moyenne nulle et independant de
u(t). Cette relation peut etre exprimee comme suit :
y(t) = (t) + v(t)
avec
u(t)
1
(t) =
=
u(t Te )
0.5
v(t) = e(t) 0.9y(t Te )
Ici inutile despere estimer le vecteur sans biais en choisissant pour H(z)
un simple filtre FIR. En effet (t) et v(t) sont correles par lintermediaire du
terme y(t 1) : (t) contient u(t Te ) et y(t Te ) sexprime en fonction de
u(t Te )...
Exemple :
Supposons enfin ici que la relation entre y(t) et u(t) est de la forme :
y(t) = 0.5 + 0.2eu(t) + e(t)
(3.3)
o`
u e(t) est la realisation dun bruit blanc de moyenne nulle et independant de
u(t). Apr`es developpement limite on a
(u(t))2
(u(t))3
y(t) = 0.7 + 0.2u(t) + 0.2
+ 0.2
+ . . . + e(t)
2!
3!
Cette relation peut etre exprimee comme suit :
y(t) = (t) + v(t)
avec
1
0.7
(t) =
et
=
u(t)
0.2
et
(u(t))3
(u(t))2
v(t) = 0.2
+ 0.2
+ . . . + e(t)
2!
3!
La modelisation de la relation entre y(t) et u(t) par un filtre H(z) apparat
insuffisante puisque le terme v(t) est correle au vecteur (t). Il napparat
donc pas possible destimer sans biais le vecteur .
Si en revanche on exprime la relation (3.3) sous la forme
y(t) = (t) + v(t)
avec
1
0.7
(t) =
=
0.2
eu(t)
v(t) = e(t)
Il est possible destimer sans biais.
Les trois exemples qui prec`edent nous portent `a la constatation suivante : si on
veut estimer sans biais un vecteur de param`etres tel quil peut etre defini
auparavant, il est indispensable de choisir de mani`ere judicieuse la structure du
vecteur (t) et le contenu du terme de bruit.
3.3.2
Nous allons considerer ici uniquement le cas des syst`emes lineaires. La theorie de
lidentification propose differentes structures de mod`ele incluant une modelisation
des dynamiques de lentree et une modelisation du bruit. Pour chacune de ses
structures, y(t) peut etre exprime `a partir dun vecteur de param`etres comme
suit :
y(t) = (t)T + e(t)
(3.4)
o`
u e(t) est le bruit. Bien entendu, le contenu des vecteurs et (t) depend de
la structure et le but du jeu est lidentification de .
Cette identification peut etre realisee via lapplication de lalgorithme des moindres
carres avec ou sans facteur doubli. Suivant les cas, suivant le syst`eme considere,
telle ou telle structure sera plus appropriee pour decrire le comportement du
syst`eme et la forme du bruit. Les structures les plus communes sont les suivantes :
mod`ele FIR :
On retrouve ici le cas etudie dans le paragraphe precedent : on suppose que
le syst`eme peut etre modelise par lintermedaire dun filtre FIR. Pour ce qui
est du bruit, celui-ci est suppose etre un bruit blanc additif de moyenne nulle.
On a alors :
y(t) = B(q)u(t) + e(t)
avec
n
X
B(z) =
bi z i
i=0
et e(t) le bruit.
on a :
..
et
= ...
(t) =
.
bn
u(t nTe )
mod`ele ARX :
ARX signifie Auto Regressif and with eXogenous input (on parle aussi de
mod`ele derreur dequation). La relation entre lentree et la sortie du syst`eme
est donnee par :
A(q)y(t) = B(q)u(t) + e(t)
avec
n
X
A(z) =
ai z i
o`
u a0 = 1
B(z) =
i=0
n
X
bi z i
i=0
et e(t) un bruit
on a :
blanc de moyenne
nulle. Pour cette
structure
u(t)
b0
..
..
.
.
u(t nTe )
bn
(t) =
et
=
y(t Te )
a1
.
..
..
.
y(t nTe )
an
45
mod`ele ARMAX :
ARMAX signifie Auto Regressif Moving Average and with eXogenous input.
La relation entre lentree et la sortie du syst`eme est donnee par :
A(q)y(t) = B(q)u(t) + C(q)e(t)
avec
n
X
A(z) =
ai z i
o`
u a0 = 1
B(z) =
i=0
n
X
bi z i
i=0
C(z) =
n
X
ci z i
i=0
o`
u c0 = 1 et e(t)
un bruit blancde moyenne nulle.
Pourcette structure on a :
u(t)
b0
..
..
.
.
u(t nTe )
bn
y(t Te )
a1
..
(t) =
et
= ...
y(t nTe )
an
e(t Te )
c1
.
..
.
.
.
e(t nTe )
cn
Remarquons ici quune difficulte pour lidentification du syst`eme `a partir de
cette structure, est la non connaissance des termes e(t iTe) (termes de bruit
par definition inconnus). Cette difficulte peut etre contournee en substituant
e(t iTe ) parlerreur destimation aposteriori ye(t iTe /t iTe ). On a alors
u(t)
..
u(t
nT
)
e
y(t
T
)
e
.
b =
..
(t)
y(t nTe )
ye(t Te /t Te )
..
avec
b iTe )T btiT
ye(t iTe /t iTe ) = y(t) (t
e
o`
u btiTe est lestimation de `a linstant t iTe .
Dans le cas de lidentification dun syst`eme `a partir de lalgorithme des
moindres carres applique `
a cette structure on parle de lalgorithme des moindres
carres etendus.
mod`ele OE :
OE signifie Output Error (on parle aussi de mod`ele derreur de sortie). La
46
B(z) =
i=0
n
X
bi z i
i=0
et e(t) un bruit
on a :
blanc de moyenne
nulle. Pour cette
structure
u(t)
b0
..
..
.
.
u(t nTe )
bn
(t) =
et
=
y(t Te )
b
a1
.
..
..
.
b
y(t nTe )
an
avec yb(t iTe ) = y(t iTe ) e(t iTe ).
Comme dans le cas de la structure ARMAX, remarquons que les termes yb(t
iTe ) sont par nature inaccessibles. La mise en oeuvre de cette structure est
alors realisee via la substitution de yb(t iTe ) par lestimation a posteriori
yb(t iTe /t
iTe ). On a alors
u(t)
..
u(t
nT
)
e
b
(t) =
y
b
(t
T
/t
T
)
e
e
..
.
yb(t nTe /t nTe )
avec
b iTe )T btiT
yb(t iTe /t iTe ) = (t
e
o`
u btiT est lestimation de `a linstant t iTe .
e
Les differences entre ces structures sont resumees dans les tableaux 3.7 et 3.8
ci-dessous.
Il est important de remarquer que si le bruit est bien un bruit blanc, alors chaque
echantillon e(t) est decorrele des termes e(t iTe ) avec i > 0. Par suite, pour
chacune des structures precedentes on a bien
(t)Vt = 0
le biais didentification est par consequent nul.
Realiser lidentification dun syst`eme `a partir dune des structure precedente
cest bien, savoir si le resultat est coherent cest encore mieux ! Cest meme
indispensable. A cette fin il est possible de realiser quelques tests simples. Remarquons tout dabord quune fois lidenfication realisee on se retrouve avec un
vecteur des param`etres estimes bt et une estimation de la sortie :
yb(t/t) = (t)T bt
47
FIR
u(t)
..
.
u(t nTe )
ARX
u(t)
..
.
u(t n)
y(t Te )
..
y(t nTe )
ARMAX
u(t)
..
u(t nTe )
y(t Te )
..
y(t nTe )
e(t Te )
..
e(t nTe )
OE
u(t)
..
.
u(t nTe )
y(t Te )
b
..
b
y(t nTe )
avec
yb(t iTe ) =
do`
u
ye(t/t) = y(t) yb(t/t)
Toutes les structures FIR, ARX, ARMAX et OE ne sont que des mod`eles, on
ignore sils sont capables de decrire la realite du syst`eme. Neanmoins, si cest
le cas cela signifie quil existe une vecteur tel que
y(t) = (t)T + e(t)
De plus, si lidentification a ete correctement realise, on a alors bt = , par
suite
ye(t/t) = e(t)
Ainsi, les tests de validation dun mod`ele sont le test de blancheur et le test
de decorrelation. Le premier consiste `a verifier que lerreur destimation ye(t/t)
est bien un bruit blanc (pour les mod`eles FIR, ARX et ARMAX), le second
consiste `a verifier que lerreur destimation ye(t/t) est independante du signal
dentree u(t) (pour le mod`ele OE). Ces tests sont `a realiser si possible sur une
serie de donnees differente de celle utilisee pour le calcul de bt .
3.3.3
FIR
ARX
b
0
..
.
bn
b0
..
.
bn
a1
..
.
an
ARMAX
b0
..
.
bn
a1
..
.
an
c1
..
.
cn
OE
b0
..
.
bn
a1
..
.
an
0.8
0.6
erreur destimation
0.4
0.2
0.2
0.4
0.6
0.8
1
400
500
600
700
itrations
800
900
1000
Figure 3.9 Erreur destimation avec facteur doubli pour le mod`ele ARMAX
49
autocorrlation normalise
1.5
1
0.5
0
0.5
1
200
150
100
50
0
itrations
50
100
150
200
150
100
50
0
itrations
50
100
150
200
autocorrlation normalise
1.5
1
0.5
0
0.5
1
200
50
CHAPITRE
Filtrage De Kalman
4.1
Principe
Une difference importante reside dans le fait quon dispose `a present dun mod`ele
decrivant la mani`ere dont est genere le signal y(t). Ce signal subit linfluence du
signal u(t) (le meme que pour le filtrage de Wiener) mais aussi linfluence de
signaux aleatoires (cette information netait pas disponible et netait donc pas
utilisee dans le cas du filtrage de Wiener).
Le signal y(t) est ainsi ici modelise par la representation detat dordre n suivante :
X(t + Te ) = AX(t) + Bu(t) + w(t)
(4.1)
y(t)
= CX(t) + Du(t) + v(t)
o`
u X(t) Rn1 designe la variable detat. Les signaux w(t) Rn1 et v(t) sont
des bruits blancs gaussiens independants lun de lautre tels que :
E{w(t)}
E{v(t)}
E{w(t)v(t )}
E{w(t)w(t )}
E{v(t)v(t )}
=
=
=
=
=
0
0
0
Q(t t )
R(t t )
4.2
Filtre et pr
edicteur de Kalman
4.2.1
Filtre de Kalman
Considerons les differents etats decrit sur la figure 4.1. On suppose etre `a linsb
tant t et vouloir determiner X(t/t).
A cette fin on suppose disposer de lestimab Te /t Te ) ainsi que dune nouvelle mesure de la sortie y(t). Cette
tion X(t
b
estimation de X(t/t)
est realisee en deux etapes :
b
b Te /t Te )
e
b Te /t Te )) + w(t Te )
X(t/t
Te ) = A(X(t Te ) X(t
52
temps
information disponible
etat estime
6
b
y(t)
X(t/t)
................................................................................................. 6 etape 2
b
X(t/t
Te )
6
etape 1
t Te
b Te /t Te )
y(t Te )
X(t
.................................................................................................
Figure 4.1
e
e Te /t Te ) + w(t Te )
X(t/t
Te ) = AX(t
e
e
Notons Pt/tTe = E{X(t/t
Te )X(t/t
Te )T } la variance de cette erreur
destimation, il vient :
Pt/tTe = APtTe /tTe AT + Q
e Te /t Te )X(t
e Te /t Te )T }
avec PtTe /tTe = E{X(t
b
b
b
A linstant t, la mesure y(t) est disponible. Lestimation X(t/t
Te ) obtenue `a letape precedente peut donc etre corrigee en fonction de limportance de lerreur destimation sur la sortie y(t) yb(t/t Te ) :
b
b
X(t/t)
= X(t/t
Te ) + Kt (y(t) yb(t/t Te ))
e
e
b
X(t/t)
= X(t/t
Te ) + Kt (CX(t) + Du(t) + v(t) C X(t/t
Te ) Du(t))
e
e
X(t/t)
= (In Kt C)X(t/t
Te ) + Kt v(t)
R + CPt/tTe C T
Pt/tTe C T
Pt/tTe
53
filtre de Kalman :
b
yb(t/t) = C X(t/t)
+ Du(t)
b
b
X(t/t)
= X(t/t
Te ) + Kt (y(t) yb(t/t Te ))
b
b Te /t Te ) + Bu(t Te )
X(t/t
Te ) = AX(t
b
yb(t/t Te ) = C X(t/t
Te ) + Du(t)
Remarque :
En automatique on utilise plus communement le terme dobservateur de
Kalman pour decrire ce type dalgorithme.
4.2.2
Pr
edicteur de Kalman
Considerons les differents etats decrit sur la figure 4.2. On suppose etre juste
apr`es linstant t et vouloir predire la valeur de letat y(t + 1). A cette fin on supb
pose disposer dune prediction X(t/t
Te ) `a linstant precedent et de la mesure
b
y(t). La determination de la prediction X(t+T
ecedemment
e /t) se fait comme pr
en deux etapes :
b
b
temps
information disponible
etat estime
6
t + Te
.................................................................................................
b + Te /t)
X(t
6
etape 2
b
y(t)
X(t/t)
.................................................................................................
b
X(t/t
Te )
Figure 4.2
et la variance minimale correspondante est la suivante
Pt/t = Pt/tTe Pt/tTe C T (CPt/tTe C T + R)1 CPt/tTe
b + Te /t) `a partir de X(t/t)
b
55
etape 1
predicteur de Kalman :
b + Te /t) + Du(t + Te )
yb(t + Te /t) = C X(t
b + Te /t) = AX(t/t)
b
X(t
+ Bu(t)
b
b
X(t/t)
= X(t/t
Te ) + Kt (y(t) yb(t/t Te ))
b
yb(t/t Te ) = C X(t/t
Te ) + Du(t)
4.2.3
Mise en oeuvre
Les algorithmes de mise en oeuvre des filtres et predicteurs sont presentes sur
les figures 4.3 et 4.4.
Remarque :
Le filtre de Kalman est plus evolue que le filtre de Wiener dans le sens quil
permet un filtrage sur mesure des signaux. Neanmoins, ceci se paie par
le biais dune inflation dans la qualite des informations necessaires pour le
mettre en oeuvre (connaissance dune realisation de la representation detat)
et le nombre de param`etres de synth`ese (R, Q, valeur initiale de letat estime
et de Pt/tTe ).
4.3
Solution stationnaire
(4.2)
Il est etablit dans la litterature que cette equation de Riccati a une solution
unique sym
etrique et definie positive si la paire (A, C) est detectable et si la
paire (A, Q) est stabilisable (voir cours de syst`emes echantillonnes pour la
definition de ces termes).
56
t=0
?
initialisation de Pt/tTe
?
b
initialisation de X(t/t)
?
t = t + Te
?
Kt = Pt/tTe C T (CPt/tTe C T + R)1
?
b
X(t/t Te )
?
b
X(t/t)
Pt+Te /t
?
= APt/tTe A AKt CPt/tTe AT + Q
T
?
b
yb(t/t) = C X(t/t) + Du(t)
Figure 4.3 Algorithme du filtre de Kalman
Solution stationnaire :
P = AP AT AP C T (CP C T + R)1 CP AT + Q
K = P C T (CP C T + R)1
Remarque :
La solution de lequation de Riccati est fournie par tout bon logiciel de trai57
t=0
?
initialisation de Pt+Te /t
?
b + Te /t)
initialisation de X(t
?
t = t + Te
?
Kt = Pt/tTe C T (CPt/tTe C T + R)1
?
b
X(t/t)
?
b
X(t + Te /t)
Pt+Te /t
?
= APt/tTe A AKt CPt/tTe AT + Q
T
?
b
yb(t + Te /t) = C X(t + Te /t) + Du(t + Te )
Figure 4.4 Algorithme du predicteur de Kalman
tement du signal qui se respecte.
Cette solution stationnaire du probl`eme de Kalman permet la synth`ese dun
filtre permettant le filtrage ou la prediction de letat :
Filtrage :
Les equations
detat du filtre sont :
(
b
b Te /t Te ) + (In KC)Bu(t Te ) KDu(t) + Ky(t)
X(t/t) = (In KC)AX(t
b
y(t/t) = C X(t/t) + Du(t)
58
do`
u
KD + (In KC)Bq 1
K
b
X(t/t)
=
u(t) +
y(t)
1
In (In KC)Aq
In (In KC)Aq 1
Prediction :
Les equations
detat du predicteur sont :
(
b
b
X(t + Te /t) = A(In KC)X(t/t
Te ) + AKy(t) + (B AKD)u(t)
b
yb(t/t Te ) = C X(t/t Te ) + Du(t)
do`
u
AKq 1
(B AKD)q 1
b
X(t/t
Te ) =
y(t)
u(t)
1
In A(In KC)q
In A(In KC)q 1
Remarque :
Pour Q = 0, une solution de lequation de Riccati (4.2) est P = 0, do`
u K = 0.
La solution stationnaire du filtre de Kalman na donc aucun interet dans ce
cas.
4.4
Exemples dapplication
4.4.1
y(t)
x(t)
0.5
0.5
50
100
150
itration
Pour lapplication de ce filtre il apparat deux possibilite : soit utiliser une version
avec gain variable, soit utiliser une version avec un gain constant.
1. S
oderstr
om - Discrete-time stochastic systems : estimation and control, Prentice hall
International, 1994
59
dou
e
b Te /t Te ) k(aX(t Te ) + v(t) aX(t
b Te /t Te ))
X(t/t)
= aX(t Te ) aX(t
e
e Te /t Te ) kv(t)
X(t/t)
= a(1 k)X(t
(4.3)
k2 R
1 a(1 k)2
(4.4)
Les expressions (4.3) et (4.4) nous permettent les deux remarques suivantes :
Soit on souhaite une variance minimale, dans ce cas on prendra k = 0
(equation (4.4)) ;
Soit on souhaite une convergence rapide, dans ce cas on prendra k = 1
(equation (4.3)).
Ainsi, ces deux conditions apparaissent difficile `a reunir dans le cas dun gain k
constant. Ceci est illustre sur la figure 4.6.
1.5
x(t)
estim
estim
estim
estim
de
de
de
de
x
x
x
x
pour
pour
pour
pour
k=0.01
k=0.05
k=0.1
k=0.5
0.5
0.5
50
100
150
itration
avec
b
b Te /t Te ) + kt (y(t) aX(t
b Te /t Te ))
X(t/t)
= aX(t
kt =
Pt/tTe
Pt/tTe +R
et Pt+T /t = a2 Pt/tT
e
e
2
a2 Pt/tT
e
Pt/tTe +R
On remarque que :
lim
Pt/tTe
kt = 1
60
donc
lim kt = 0
et par consequent, dapr`es lequation (4.4), on va tendre vers une variance minimale de lerreur de filtrage. Le filtre de Kalman non stationnaire permet donc
une combinaison des deux contraintes precedentes : une convergence rapide et
une variance minimale. Ceci est illustre sur la figure 4.7.
1.5
x(t)
estim de x(t) avec gain variable
0.5
0.5
50
100
150
itration
Pt/tTe
Pt/tTe + R
Par exemple, remarquons que si R est grand, kt sera faible des les premi`eres
iterations do`
u une convergence lente. De la meme mani`ere si la valeur initial
de Pt/tTe est faible, le gain sera ici aussi faible des les premi`eres iterations.
Remarque :
Bien que ses performances semblent interessantes, la solution non stationnaire
a un inconvenient majeur : elle necessite une re-actualisation de la valeur du
gain `a chaque instant do`
u une charge de calcul supplementaire par rapport
`a la version avec gain constant.
4.4.2
61
avec
A=
C=
1
0
Ts
1
w(t) =
Ts2
2
Ts
62
10
non filtr
filtr
5
position
10
15
20
100
200
300
400
500
600
700
itration
position
10
15
20
100
200
300
400
500
600
700
itrations
position filtre
50
100
150
itration
drive de la position
seconde composante de ltat
0.8
0.6
vitesse estim
0.4
0.2
0.2
0.4
0.6
0.8
100
200
300
400
500
600
itration
700
Deuxi`
eme partie
64
CHAPITRE
Le probl`eme degalisation
5.1
Mod`
ele
equivalent discret du canal
emission
y(t)
modulation num.
emetteur
bruit
r
eception
d
emodulation num.
r
ecepteur
milieu
u(t)
65
6
-
2-PAM
6
-
4-QAM
16-QAM
v(t)
- cq d
y(t)
- u(t)
v(t)
y(t)
q d C(z)
? u(t)
-
67
ci
6
- i
5.2
Bruit et interf
erence inter symbole
xk = c0 ykd +
ci ykid + vk
i
i 6= 0
Le symbole xk apparat etre la combinaison de trois termes :
P
c0 ykd +
ci ykid
+ vk
i
i 6= 0
|{z}
[1]
{z
[2]
(5.1)
|{z}
[3]
emission
r
eception
bruit
y(t)
u(t)
..........
.
-? -
.....
d
ecision
..........
.. ..
.. ..
.......
.....
Figure 5.6
un 1 recu, toute composante du signal de sortie negative sera consideree comme
un 1 recu.
On notera r(t) la sortie de ce bloc de decision. La figure 5.7 int`egre cette
modelisation.
v(t)
y(t)
qd C(q)
u(t)
-? -
r(t)
ou encore
yb(t) = q d H(q)u(t)
69
plan complexe
2
1.5
0.5
0.5
1.5
2
2
1.5
0.5
0.5
1.5
plan complexe
2
1.5
0.5
0.5
1.5
2
2
1.5
0.5
0.5
1.5
plan complexe
2
1.5
0.5
0.5
1.5
2
2
1.5
0.5
0.5
1.5
70
v(t)
+
- ? -
d
ecision
canal
y(t)
egaliseur
y(t
b
dTs )
u(t)
r(t dTs )
m
X
ci q i
i=0
On consid`ere donc ici un canal retarde de d echantillons et de reponse impulsionnelle de longueur m. La condition de blancheur sur le bruit peut etre satisfaite
par la realisation dun filtrage de blanchiement. Pour ce qui est du mod`ele du
canal C(q) on le suppose en general normalise cest `a dire tel que
m
X
c2i = 1
i=0
71
CHAPITRE
6.1
Egaliseur lin
eaire
6.1.1
Principe
Cette approche suppose que la reponse impulsionnelle du canal est connue,
ce qui est dej`a en soit une limitation non negligeable. Cette connaissance est
accessible par le biais dune modelisation physique de la trajectoire du signal
ou bien par le biais de methodes didentification usuelles telles que les moindres
carres, les moindres carres etendus, etc. La methode degalisation consiste alors
simplement `a essayer de compenser les distorsions du canal et donc faire en sorte
que lensemble canal/egaliseur se comporte comme un canal ideal.
yb(tdTs ) designe lestimation du signal dentree `a la sortie de legaliseur. Dapr`es
ce qui prec`ede, en labsence de bruit on a
u(t) = C(q)y(t dTs )
1
C(z)
(6.1)
72
Remarque :
Cette approche ne prend absolument pas en compte la presence de bruit sur la
mesure y(t). Ainsi, si le gain du canal est faible sur une gamme de frequences,
linversion de C(z) risque damplifier le bruit sur cette gamme de frequences
do`
u une degradation du rapport signal/bruit et une augmentation du nombre
derreurs dinterpretations `a la sortie du bloc de decision.
Faisabilit
e du filtre
En terme de mise en oeuvre, plusieurs solutions sont possibles. Si la fonction
de transfert C(z) est inversement stable alors le filtre decrit par lequation (6.1)
est directement realisable comme montre par la figure 6.1 ou sous une forme
recursive comme montre sur la figure 6.2.
-
u(t)
1
C(q)
y(t
b
dTs )
u(t)
- y(t
b
dTs )
1
c0
C(q) c0
+
+
+
C(z)
1 az 1
a a2
a3
m
X
1
zi
C(z)
ai
i=1
m 1
X
1
z m
aim z i
C(z)
i=0
73
u(t)
qd
Hn (q)
Hd (q)
y(t
b
dTs )
u(t)
qd Hn (q)
6
Hd (q) 1
y(t
b
dTs )
1
C(z)
Ainsi, le terme
1
z m C (z)
C(z)
o`
u C (z) est un filtre FIR.
Dans le cas o`
u C(z) se decompose en deux fonctions de transfert, la premi`ere
inversement stable et la seconde non inversement stable, le filtre H(z) defini par
lequation (6.1) peut etre approxime de la mani`ere suivante :
H(z) z d
Hn (z)
Hd (z)
o`
u z d Hn (z) correspond au developpement en serie de la composante non inversement stable de C(z) et Hd (z) correspond `a la composante inversement stable.
La mise en oeuvre de cette approximation est donc :
(6.2)
n (q)
Lexpression yb(t dTs ) = q d H
tre deux retards d et d . ils
Hd (q) u(t) fait appara
nont pas le meme role :
d correspond au retard du canal. On ne matrise pas ce temps de retard, il
nous est impose par le canal, par la distance que doit parcourir le signal. La
presence de ce terme dans (6.2) permet simplement une compensation de ce
retard.
d est un delai quon se donne. y(tdTs ) influe sur u(t) mais aussi sur u(t+Ts ),
u(t + 2Ts ), etc. Ceci est illustre sur la figure 6.5. On trouve ainsi des traces de
y(t dTs ) de u(t) jusqu`a u(t + mTs ), par consequent pour estimer y(t dTs )
on va filtrer u(t) mais aussi u(t + Ts ), u(t + 2Ts), etc. Ceci justifie lutilisation
du terme davance d dans (6.2).
74
75
{z
|
{z
}
{z
?
u(t)
?
y(t
b
dTs )
{z
avec
yb(t d Ts ) = q d H(q)u(t)
H(z) = h0 + h1 z 1 + h2 z 2 + . . . + hn z n =
n
X
hi z i
i=0
n
X
hi q i u(t)
i=0
m
X
i=0
ci y(t iTs )
Pour simplifier les lignes suivantes faisons abstraction du terme de retard d (il
se compense), les deux expressions precedentes se reecrivent alors comme ceci
u(t) =
m
X
i=0
ci y(t iTs )
yb(t d Ts ) =
n
X
(6.3)
hi q i u(t)
(6.4)
i=0
Pour differents instants, lequation (6.3) peut se mettre sous la forme matricielle
u[t:tnTs ] = y[t:tmTs nTs ] C
avec
u[t:tnTs ] =
u(t) u(t Ts )
y[t:tmTs nTs ] =
u(t nTs )
76
et
C=
c0
c1
c0
c2
..
.
..
.
c1
..
.
c0
..
.
..
..
..
..
..
cm
0
..
.
..
.
0
..
..
..
..
..
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.
. cm
0
0
..
.
..
.
0
c0
c1
c2
..
.
..
.
cm
Les coefficients hi du filtre H(z) peuvent etre integres dans une vecteur de la
mani`ere suivante
h0
h1
= .
..
hn
0
..
.
J=
1
0
..
.
0
(6.5)
Cette egalite devant etre verifiee pour tout echantillon de y(t), le vecteur
solution de (6.5) est tel que
J = C
77
do`
u
1
= (C C)
C J
(6.6)
Remarque :
Independamment des coefficients du mod`ele du canal, le vecteur des param`etres de legaliseur depend de 2 termes : le retard d et lordre n. Ces
deux param`etres sont `a choisir par lutilisateur.
Afin de juger des performances de la methode, nous lavons appliquee sur deux
canaux tests. Les coefficients ci de ces canaux sont presentes dans le tableau
6.19. Leur gain en frequence est donne `a la figure 6.7.
canal 1
canal 2
c0
c1
c2
c3
c4
c5
c6
0.04
-0.05
0.07
-0.21
-0.5
0.72
0.36
0.407
0.815
0.407
c7
0
c8
c9
c1 0
0.21
0.03
0.07
Bode Diagram
10
Magnitude (dB)
10
15
20
25
30
35
40
1
10
canal1
canal2
0
10
10
Frequency (rad/sec)
40
canal 1
canal 2
35
30
25
20
15
10
10
15
20
25
30
rapport signal/bruit (db)
35
40
45
50
(t) =
u(t)
..
.
(6.7)
u(t nTs )
y(t dTs )
..
y (t) =
.
P =
6.1.2
Principe
Legaliseur de Wiener est aussi appele egaliseur `a erreur quadratique moyenne
minimale (egaliseur MMSE). Il a lavantage, par rapport `a legaliseur precedent,
de prendre en compte la composante de bruit. Le filtre realisant legalisation est
determine par la minimisation du crit`ere de Wiener applique `a lerreur entre
lentree du canal et la sortie du filtre :
JW = E{(y(t) yb(t))2 }
79
On consid`ere ici un filtre egaliseur de meme structure que celui utilise pour
legalisation zero forcing :
Il vient :
v(t) est un bruit blanc, par consequent sa densite spectrale est constante
Svv (f ) = v2
Pour ce qui est de la sequence emise, elle sera consideree comme une suite
de symboles independants et identiquement distribues (cette sequence est donc
stationnaire). On utilisera dans la suite le terme abrege de sequence iid. La
fonction de correlation Ryy (i) est alors la suivante
Ryy (i) = y2 (i)
et donc
Syy (f ) = y2
Dapr`es ce qui prec`ede, Syeye (f ) devient alors :
Syeye (f ) =
1 ej2f Ts d H (ej2f Ts )C (ej2f Ts ) 1 ej2f Ts d H(ej2f Ts )C(ej2f Ts ) y2
+H (ej2f Ts )H(ej2f Ts )v2
avec
Syeye (f ) =
W2 W11 W2 + W3
Si on note N =
donne par :
v
y ,
C (ej2f Ts )y2
C (ej2f Ts )C(ej2f Ts )y2 + v2
egaliseur de Wiener :
z d H(z) =
C (1/z)
C (1/z)C(z) + N 2
(6.8)
Remarque :
En labsence de bruit, cest `a dire pour N = 0, on obtient :
1
z d H(z) =
C(z)
On retrouve alors legaliseur zero forcing.
Exemple
Considerons le cas dun canal dordre 1 :
C(q) = c0 + c1 q 1
avec c20 + c21 = 1. Le filtre egaliseur H(z) solution du crit`ere de Wiener est
q d H(q) =
q d H(q) =
q d H(q) =
c0 + c1 q
(c0 + c1 q)(c0 + c1 q 1 ) + N 2
c0 + c1 q
c0 c1 q + 1 + c0 c1 q 1 + N 2
c1 + c0 q 1
c0 c1 + (1 + N 2 )q 1 + c0 c1 q 2
81
do`
u, pour d = 0, la solution suivante sur H(z)
c1 + c0 q 1
c0 c1 + (1 + N 2 )q 1 + c0 c1 q 2
H(q) =
Pour c0 = 0.8 et c1 = 0.6, la figure 6.9 presente les gains de legaliseur zero
forcing et legaliseur de Wiener pour plusieurs valeurs du rapport N = vy . Il
apparat clairement que pour un N faible on retrouve legaliseur zero forcing,
en revanche en presence de bruit important on a une attenuation du gain de
legaliseur de mani`ere `a ne pas amplifier le bruit.
gain
Zero forcing
Wiener (N=0.25)
Wiener (N=0.5)
Wiener (N=0.75)
10
10
10
10
10
frequence
do`
u
(6.9)
T
o
y[t:tmTs nTs ] C + v[t:tnTs ]
y[t:tmTs nTs ] C + v[t:tnTs ] =
n
o
T
E y[t:tmTs nTs ] C + v[t:tnTs ] y[t:tmTs nTs ] J
82
ce qui devient
y2 CT C + v2 In+1 = y2 CT J
et donc
= CT C + N 2 In+1
avec N =
v
y .
1
CT J
(6.10)
+
-? +
canal
y(t)
egaliseur
u(t)
-qdd
-
+
d
ecision
T
y(t
b dTs dr(t
s ) dTs d Ts )
La resolution de ce crit`ere peut etre realise hors ligne, cest `a dire par lintermediaire de la solution globale (equation de Wiener-Hopf), ou bien en ligne
par lintermediaire dun algorithme recursif. Lalgorithme du gradient stochastique applique `a ce probl`eme degalisation est le suivant :
83
(t) =
(6.11)
u(t)
..
.
u(t nTs )
Il est possible de remplacer cet algorithme par celui des moindres carres. En
mode apprentissage ceci donne :
bt = btTs + Kt (y(t dTs d Ts ) yb(t dTs d Ts /t Ts ))
Cette solution permet une convergence plus rapide des param`etres mais ceci au
prix dune complexite accrue.
40
30
25
20
15
10
10
15
20
25
30
rapport signal/bruit (db)
35
40
45
50
coefficients
6
chantillons
10
11
6.1.3
Principe
Legaliseur par retour de decision (DFE - Decision Feedback Equalizer) est dans
le meme esprit que legaliseur de Wiener. Sa structure est proche de celle de la
figure 6.4 `a la difference que le filtre Hd (z) 1 nest plus applique sur yb(t dTs )
mais sur r(t dTs ) (donc en sortie du bloc de decision). Ceci est illustre sur la
figure 6.13 et se traduit par la relation :
d
ecision
y(t
b
dTs )
qd Hn (q)
r(t dTs )
Hd (q) 1
Les filtres Hn (z) et Hd (z) sont en general choisis de telle sorte que z d Hn (z) est
anti-causal :
(n)
(n)
(n)
z d Hn (z) = h0 q d + h1 q d 1 + ... + hd
m
Hd (z) = 1 + h1 q 1 + ... + h(d)
m q
85
(n)
hn0
hn1
..
.
hnd
d
h1
..
(d)
et = .
hdm
On peut montrer que si on suppose les decisions bonnes, cest `a dire si r(tiTs ) =
y(t iTs ) alors lexpression (6.12) devient :
2 T
(n)
y Csup Csup + y2 CTinf Cinf + v2 Id +1 y2 CTinf
=
2
y2 Cinf
I
(d)
m
y
y2 CTsup Jsup
0m
avec
et
c0
c1
c
2
.
..
c
d
C=
cd +1
.
.
.
cm
..
.
..
.
0
Jsup
c0
c1
..
.
c0
..
.
cd 1
..
..
..
..
..
cd
..
.
..
.
..
.
..
.
..
..
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.
. cm
0
0
..
.
..
.
c0
Csup
=
c1
Cinf
..
..
.
..
.
..
.
cm
0
..
= .
0
1
86
do`
u les solutions suivantes sur (n) et (d) :
(d) = Cinf (n)
et
(n) = CTsup Csup + N 2 Id +1
1
CTsup Jsup
(6.13)
Une autre solution pour la recherche des param`etres est lutilisation dune
sequence dapprentissage comme pour legaliseur de Wiener. Cette version de
lalgorithme sera presentee plus loin.
Remarque :
Supposons que r(t dTs ) = yb(t dTs ), on a alors :
35
30
25
20
15
10
10
15
20
25
30
rapport signal/bruit (db)
35
40
45
50
6.2
Egaliseur adaptatif
En norme GSM (pour les mobiles) les donnees sont transmises par paquets successifs dune duree de 0.577ms (figure 6.15). Dans chaque paquet une partie des
bits est reservee `a la synchronisation (6 bits), une autre partie est reservee aux
donnees `a transmettre (2 58 bits), une troisi`eme partie dediee `a la specification
87
des temps de montee et de descente des signaux et enfin une derni`ere partie
(26 bits du milieu) est reservee `a lapprentissage. Cette derni`ere partie est une
sequence pseudo-aleatoire connue du recepteur.
apprentissage
bits de donn
ees
-
-
3bits
57bits
1bits
-
26bits
garde
bits de donn
ees
1bits
-
- 57bits
3bits
8bits
0.577ms
6.2.1
Legaliseur presente ici fonctionne sur les deux modes : apprentissage et operationnel.
En mode apprentissage, une sequence de symbole connue est injectee en entree
du canal permettant une initialisation de lalgorithme et donc un ajustement
des param`etres du filtre.
En mode operationnel, la sequence emise est `a priori inconnue du recepteur.
Afin de permettre tout de meme une adaptation des param`etres du filtre, le
vecteur des param`etres est re-actualise via lalgorithme (6.11) en remplacant le
signal dentree y(t dTs d Ts ) par son estime en sortie du bloc de decision :
egaliseur de Wiener adaptatif en mode operationnel :
bt = btTs + (t)(r(t dTs d Ts /t Ts ) yb(t dTs d Ts /t Ts ))
(t) =
u(t)
..
.
u(t nTs )
(6.14)
v(t)
+
-? +
canal
y(t)
egaliseur
d
ecision
y(t
b
dTs dr(t
s ) dTs d Ts )
u(t)
-
6.2.2
canal
-? +
egaliseur
u(t)
y(t)
-qdd
-
+
d
ecision
y(t
b
dTs dr(t
s ) dTs d Ts )
89
(t) =
u(t)
..
.
u(t d Ts )
r(t dTs d Ts Ts /t Ts )
..
.
r(t dTs d Ts mTs /t mTs )
(6.15)
y(t)
-? +
canal
u(t)
7
egaliseur
d
ecision
y(t
b
dTs dr(t
s ) dTs d Ts )
-
(6.16)
canal 1
c0
c1
c2
c3
c4
c5
c6
0.01
-0.05
0.17
-0.01
-0.5
0.85
0.01
c7
0
c8
c9
c1 0
0.01
0.03
0.07
galiseur
galiseur
galiseur
galiseur
14
zero forcing
de Wiener (globale)
de Wiener (rcursive)
par retour de dcision
12
10
10
15
20
25
30
rapport signal/bruit (db)
35
40
45
50
Figure 6.20 Performances des egaliseurs adaptatifs dans le cas dun chagement de dynamique du canal
91
CHAPITRE
7.1
Principe
Comme precedemment lestimation de la sequence emise est notee yb(t) et correspond `a la sortie dun filtre FIR H(z) :
yb(t) = H(q)u(t)
Remarque :
Comme il ny a plus de comparaison par rapport `a la sequence emise, on ne
fait plus apparatre le retard d.
Les egaliseurs de type Bussgang sont bases sur la propriete suivante : considerons
une sequence s(t) iid de distribution non gaussienne et F (z) un filtre FIR. La
sortie filtree F (q)s(t) poss`ede la meme distribution que s(t) si et seulement si
le filtre F (z) poss`ede un unique coefficient non nul.
Pour interpreter cette propriete, considerons la sortie u(t) du canal en labsence
de bruit :
u(t) = C(q)y(t)
92
et la sortie de legaliseur
yb(t) = H(q)u(t)
yb(t) = H(q)C(q)y(t)
yb(t) = F (q)y(t)
avec F (q) = H(q)C(q). Dapr`es lenonce precedente, la synth`ese dun filtre H(z)
tel que le produit H(z)C(z) comporte plusieurs coefficients non nuls gaussiannise lestimation yb(t). Le principe de lalgorithme de Bussgang consiste alors
en la synth`ese dun filtre H(z) tel que la sequence estimee yb(t) soit forcee `a
avoir les memes caracteristiques que le signal emis y(t) (cest `a dire etre une
serie de symboles iid non gaussienne). Il en resultera un filtre F (z) = H(z)C(z)
comportant un seul coefficient non nul do`
u:
H(q)C(q) = aq d
canal
7
egaliseur
u(t)
y(t)
d
ecision
y(t)
b
r(t)
?
f (.)
egaliseur de Bussgang :
bt = btTs + (t)(f (b
y (t/t Ts )) yb(t/t Ts ))
yb(t/t Ts ) = (t)T btTs
(t) =
u(t)
..
.
u(t nTs )
(7.1)
93
La convergence de lalgorithme en moyenne sous entend la convergence du vecteur des param`etres bt du filtre apr`es un certain nombre diterations. Cette
convergence se traduit par la relation
E{bt } = E{btTs }
Il vient alors
E{(t)(f (b
y (t)) yb(t))} = 0
(7.2)
Cette expression etablit que la fonction f (.) doit etre telle que la fonction dautocorrelation de yb(t) soit egale `a la fonction dintercorrelation de yb(t) avec f (b
y(t)).
Cette condition est appelee condition de Bussgang. Ce resultat est etabli pour
H(z) de la forme
H(z) =
n
X
hi z i
i=n
n
X
hi z i
i=0
94
algorithme
f (b
y)
f (b
y ) = 1 signe(b
y)
Godard
f (b
y) =
+ p |b
y|p1 |b
y |2p1 )
f (b
y) = yb(1 + 2 |b
y |2 )
module constant
o`
u p est defini par :
p =
y
b
y|
|b
y| (|b
E{|y(t)|2p }
E{|y(t)|p }
Remarque :
Lalgorithme `a module constant (note souvent CMA pour Constant Modulus
Algorithm) est un cas particulier de lalgorithme de Godard pour p = 2.
Il a ete montre dans la litterature que les algorithmes utilisant ces fonctions
convergent pourvu que les conditions suivantes soient satisfaites :
[1] : y(t) satisfait (7.2) ;
[2] : le kurtosis de y(t) est negatif
Ky = E{|y(t)|4 } 3E{y(t)2 }2 < 0
(on dit alors que la sequence y(t) est sous-gaussienne)
La mise en oeuvre de lalgorithme de Godard est donne ci-dessous :
(t) =
u(t)
..
.
u(t nTs )
(7.3)
Il apparat que cet algorithme est construit de telle mani`ere `a penaliser les sorties
yb(t) seloignant du module constant p .
Exemple
La fonction de co
ut associee `a lalgorithme de Godard est la suivante :
JGodard = E{((b
y (t))p p )2 }
Afin dillustrer la capacite de cet algorithme `a estimer un filtre F (z) ne comportant quun coefficient non nul, on etudie ici la fonction de co
ut JGodard pour
95
1.5
f1
0.5
0.5
1.5
2
2
1.5
0.5
0
f0
0.5
1.5
96
1.5
0.5
0.5
1.5
2
2
1.5
0.5
0
f
0.5
1.5
Legaliseur CMA a ete applique sur le premier canal test. La figure 7.4 presente
le taux derreur en fonction du rapport signal sur bruit. Les performances
de legaliseur sont mises en perspectives avec les performances des egaliseurs
presentes auparavant. Hors presence de bruit, les performances sont equivalentes
`a celles des egaliseurs zero forcing et de Wiener. En revanche, en presence de
bruit, ces performances se degradent.
Remarque :
La faible complexite de ces algorithmes et leur capacite `a sadapter meme en
labsence de connaissance sur le contenu de la sequence dentree se traduit
par un temps de convergence juge long et une sensibilite excessive vis `a vis
du bruit comme illustre sur lessai precedent.
30
20
15
10
10
15
20
25
30
rapport signal/bruit (db)
35
40
45
50
97
7.2
m
X
i=0
m
X
i=0
Cette relation est vrai pour tout indice o, p et q, on peut donc considerer les 2
cas suivant :
Pour o = p = q = m on a
m
X
Ku (m, m, m) = Ky
ci cim cim cim
i=0
Ku (m, m, m) = Ky cm c30
Pour o = 0 et p = m on a
m
X
Ku (0, m, q) = Ky
ci ci ci+m ci+q
i=0
Ku (0, m, q) = Ky cm c20 cq
Il vient alors :
cq = c0
Ku (0, m, q)
Ku (m, m, m)
98
1.6
1.4
1.2
1
0.8
0.6
0.4
0.2
0
4
5
chantillons
9
4
x 10
99
ANNEXE
Resultats divers
A.1
A.2
(A.1)
Considerons la fonction de co
ut suivante :
J(x) = x W1 x x W2 W2 x + W3
(A.2)
100
Bibliographie
101