Vous êtes sur la page 1sur 58

Filtrage de Kalman, application en trajectographie

Fabien Campillo

dess d'Ingnierie Mathmatique


Universits AixMarseille I & II
Table des mati res
1 Systmes linaires en temps discret 1
1.1 Processus alatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Systmes totalement observs . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 Systmes partiellement observs . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Filtrage linaire optimal et extensions 5
2.1 Critre d'estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Filtre de Kalman tendu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3 Systmes sans bruit de dynamique 17
3.1 Estimateur baysien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2 Estimateur du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . 19
4 Application  la trajectographie passive 23
4.1 Le problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2 Le modle cartsien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.3 Le modle polaire modi  . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.4 Problme de localisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
A Rappels de probabilits 33
B Simulation sur ordinateurs 38
B.1 Filtre de KalmanBucy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
B.1.1 Simulation d'un bruit blanc gaussien . . . . . . . . . . . . . . . . . . 38
B.1.2 Simulation d'un systme linaire partiellement observ . . . . . . . . 40
B.1.3 Filtre de KalmanBucy . . . . . . . . . . . . . . . . . . . . . . . . . . 41
B.2 Filtre de Kalman tendu en dimension 1 . . . . . . . . . . . . . . . . . . . . 43
B.3 Application  la localisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Bibliographie 49
Index 51

i
ii
Chapitre 1
Syst mes linaires en temps discret
1.1 Processus alatoires
Un processus al atoire en temps discret est une famille fXk k 2 N g de vecteurs alatoires
(note fXk g) d nies sur un espace probabilis ( F P )  valeurs dans R n . Un processus
al atoire gaussien est un processus alatoire fXk g tel que pour tout N et tout i1 : : : iN 2 N
0 1
B@ X...i1 CA
XiN
est un vecteur alatoire gaussien (de dimension n  N ).
Deux processus alatoires fXk g et fYk g sont ind pendants si pour tout N et M et
i1 : : : iN j1 : : : jM 2 N , les vecteurs alatoires
0 1 0 1
B@ X...i1 CA et B@ Y...j1 CA
XiN YjN
sont indpendants.
Un bruit blanc est un processus alatoire fXk g tel que
E Xk ] = 0 E Xk Xl ] = 0 si k 6= l :
fXk g est appel bruit blanc gaussien lorsque qu'il s'agit d'un processus gaussien et d'un bruit
blanc.

1.2 Systmes totalement observs


On considre le systme dynamique suivant
Xk+1 = Ak Xk + Bk + Ck Wk k  0 (1.1)
o Xk prend ses valeurs dans R n , Ak 2 R nn , Bk 2 R n , Ck 2 R nl . Les entres du systmes
sont
le bruit fWk g : on suppose que fWk g est un bruit blanc gaussien de covariance
QWk de dimension l,
la condition initiale X0 : on suppose qu'elle est gaussienne d'esprance X 0 et de
covariance QX0 (connues), de plus on suppose que X0 est indpendante de
fWk g.

Proposition 1.2.1 fXk g la sortie du systme (1.1) est un processus gaussien  valeurs dans
R n , Xk  N (X k QX
k ) avec

X k+1 = Ak X k + Bk X 0 = EX0
QXk+1 = Ak QXk Ak + Ck QWk Ck QX0 = Cov(X0) :

Preuve Comme sortie d'un systme linaire  entres gaussiennes, fXk g est un proces
sus gaussien. En eet : pour tout N et i1 : : : iN  0, il existe M tel que fi1 : : : iN g 
f0 1 : : : M g et on vri e aisment qu'il existe une matrice A 2 R M M et B 2 R M tels que
0 1 0 1
X1 X0
BB X2 CC BB W1 CC
B@ ... CA = A B@ ... CA + B
XM WM ;1
D'aprs les hypothses (X0 W1 : : : WM ;1) est un vecteur gaussien, donc (X1 X2    XM )
est un vecteur alatoire gaussien (comme transformation ane d'un vecteur alatoire gaus-
sien).
Par ailleurs, d'aprs (1.1)
X k+1 = E Xk+1]
= E Ak Xk + Bk + Ck Wk ]
= Ak E Xk ] + Bk + Ck E Wk ]
= Ak X k + Bk

QXk+1 = E (Xk+1 ; X k+1)(Xk+1 ; X k+1)


= E (Ak (Xk ; X k ) + Ck Wk ) (Ak (Xk ; X k) + Ck Wk ) 
= Ak E (Xk ; X k )(Xk ;X k ) Ak + Ck E Wk (Xk ; X k ) Ak
+Ak E (Xk ; X k ) Wk Ck + Ck E Wk Wk ] Ck
= Ak QXk Ak + Ck QWk Ck :
Dans cette dernire galit on a utilis le fait que Xk ; X k est indpendant de Wk donc
E (Xk ; X k ) Wk ] = 0. 2
Bk Vk
+
+- ? Xk+1- retard 
?+ -
Wk - Ck
+6
 Xk- H
k
+-
 Y k

Ak 

Fig. 1.1  Syst me linaire partiellement observ.

1.3 Systmes partiellement observs


Coe cients dterministes

Xk+1 = Ak Xk + Bk + Ck Wk (1.2)
Yk = Hk Xk + Vk (1.3)
o fXk g, fYk g, fWk g et fVk g sont respectivement  valeurs dans n, d, l et p. On fait les
hypothses du paragraphe 1.2 et de plus Hh 2 R dn (cf. Figure 1.1). On suppose que
 fWk g (resp. fVk g) est un bruit blanc gaussien de covariance QWk (resp. QVk ),
 X0  N (X 0 QX0 ),
 X0, fWk g et fVk g sont mutuellement indpendants.
Dans (1.2,1.3), Xk reprsente l'tat d'un systme  l'instant k. On suppose que l'on ne
peut pas observer directement ce systme, mais que l'on dispose d'une observation Yk qui
est la somme d'un signal Hk Xk et d'un bruit d'observation Vk .
D'aprs le rsultat 1.2.1, f(Xk Yk )g est un processus gaussien, Xk  N (X k QXk ), Yk 
N (Y k QYk ) avec
X k+1 = Ak X k + Bk
QXk+1 = Ak QXk Ak + Ck QWk Ck
Y k = Hk X k
QYk = Hk QXk Hk + QVk
et X 0 = EX0 et QX0 = Cov(X0).
Coe cients dpendants de l'observation
Dans le systme (1.2,1.3) les coecients Ak , Bk , Ck et Hk peuvent dpendre de l'obser
vation Yk de la manire suivante
Xk+1 = Ak (Y ) Xk + Bk (Y ) + Ck (Y ) Wk (1.4)
Yk = Hk (Y ) Xk + Vk (1.5)
o Ak (Y ), Bk (Y ), Ck (Y ), Hk (Y ) sont des fonctions de Y0 Y1 : : : Yk;1  valeurs dans R nn ,
R n , R nl , R dn respectivement ( l'instant k les coecients ne dpendent de l'observation
que jusqu' l'instant k ; 1). Les covariances QWk , QVk des bruits fWk g, fVk g peuvent dpendre
de la mme manire de l'observation.
Dans ce cas le processus f(Xk Yk )g (a fortiori fXk g) n'est plus gaussien, mais le processus
fXk g est conditionnellement gaussien par rapport  l'observation Yk;1 = fY0 : : : Yk;1g (i.e.
pour des valeurs de l'observation donnes, la sortie du systme (1.4) est gaussienne).
Exemple 1.3.1 Identication de paramtres dans un modle ARMA. On considre un
modle ARMA scalaire
Yk + a1 Yk;1 +    + an Yk;n = an+1 uk;1 +    + an+m uk;m : (1.6)
Dans ce systme uk d signe l'entr e d terministe (contr
le) et Yk la sortie (observ e). Le but
est d'estimer les coe cients (a1 : : : an+m), cela revient donc  identi er le modle (1.6).
Si (1.6) est pris comme modle exact et si les ai sont suppos s constants, le problme
d'estimation est alors trivial (il su t de r soudre un systme lin aire). Mais, dans la plupart
des cas, le modle lin aire (1.6) est trop simple. Il est donc plus r aliste de supposer que les
coe cient ai sont soumis  des uctuations al atoires et que l'observation donn e par (1.6)
est bruit e. Cela revient  prendre
aik+1 = aik + Wki i = 1 : : : n + m (1.7)
et
Yk + a1k Yk;1 +    + ank Yk;n = ank +1 uk;1 +    + ank +m uk;m + Vk : (1.8)
o fWk1g : : : fWkn+mg et fVk g sont des bruits blancs gaussiens mutuellement ind pendants.
On obtient donc un systme de la forme
Xk+1 = Xk + Wk
Yk = Hk Xk + Vk
o 0 1 1 0 1 1
ak Wk
Xk = @ . A Wk = @ ... C
B .
. C B A
akn +m
Wk n +m

et
Hk =4 ;Yk;1 ; Yk;2    ; Yk;n uk;1 uk;2    uk;m] :
On note que Hk d pend des observations pass es et du contr
le. 2
Chapitre 2
Filtrage linaire optimal et extensions
Le problme de ltrage (en temps discret) se prsente en gnral de la manire suivante :
on considre fXk g, un processus (qui possde certaines caractristiques donnes) reprsentant
l'tat d'un systme non observ. A l'instant k, on a accs  une observation Yk qui est forme
d'un signal (i.e. une fonction h(Xk ) de l'tat Xk ) et d'un bruit additif Vk :
Yk = h(Xk ) + Vk :
Le bruit de mesure fVk g doit aussi avoir certaines caractristiques. A l'instant k, on dispose
donc de l'information Yk = fY0 : : : Yk g le but est alors d'obtenir le plus d'information
possible sur l'tat du systme Xk (on veut, par exemple, pouvoir calculer un estimateur Xbk
de Xk ). Comme on le verra au paragraphe 2.1, la solution est de calculer la loi conditionnelle
de Xk sachant Yk .
Dans le cas des systmes dcrits dans le chapitre 1, on est dans un cadre gaussien et
l'volution de cette loi conditionnelle (dtermine par son esprance et sa covariance) est
rgie par un systme dynamique (le ltre de Kalman) simple  mettre en uvre (cf. para
graphe 2.2). Dans tous les autres cas (non linaires), l'volution de cette loi conditionnelle
est dtermine par un tout autre type de systmes souvent impossibles  utiliser en pratique.
Mais les techniques dveloppes dans le cas linaire peuvent s'tendre au cas non linaire
par des mthodes de linarisation (cf. paragraphe 2.3). Les ltres ainsi obtenus sont souvent
utilisables en pratique mais conduisent parfois  de mauvais rsultats.

2.1 Critre d'estimation


On considre le problme gnral suivant : soient X et Y deux vecteurs alatoires, qu'ap
porte le fait d'observer la ralisation Y = y sur la connaissance que l'on a de X ?
La rponse  ce problme est en fait la densit conditionnelle pX jY =y (x) de X sachant
que Y = y. Cette densit est donne par

pX jY =y (x) = R ppX Y((xx yy))dx = pXpY ((xy)y) : (2.1)


XY Y
X
Proposition 2.1.1 Soit Z = Y un vecteur al atoire gaussien de dimension N (X de
dimension n et Y de dimension d) d'esp rance et de covariance
 X  Q Q 
Z = Y QZ = QXX QXY :
YX YY
Alors la densit conditionnelle pX jY =y (x) de X sachant que Y = y est gaussienne d'esp rance
X + QXY Q;1
Y Y (y ; Y )
et de covariance
QXX ; QXY Q;1
Y Y QY X :

Preuve On suppose (pour simpli er) que QZ et QY Y sont inversibles.


pX jY =y (x) =
= pX Y (x y)
p (y)
Y
  x ; X   x ; X 
1 1
(2)N=2 jQZ j1=2
exp ; 2 y ; Y
1
QZ y ; Y
;1

= ;
exp ; 12 (y ; Y ) Q;1  :
Y Y (y ; Y )
1 1
(2)d=2 jQ j
Y Y 1=2

On utilise la formule suivante (simple  vri er)


 I ;Q Q;1   I 0

XY Y Y QZ ;Q;1 Q I =
0 I
 Q Y Y ;XYQ Q;1 Q 0

= XX XY Y Y Y X : (2.2)
0 QY Y
En prenant le dterminant dans (2.2), on obtient
1  jQZ j  1 = jQXX ; QXY Q;1
Y Y QY X j  jQY Y j :
(2.2) implique aussi que
 I 0
;1  I ;Q Q;1 ;1
QZ 0
;1 XY Y Y =
;Q;1
Y Y QXY I I
 (Q ; Q Q;1 Q );1 
= XX XY Y Y Y X 0
0 Q;1
YY
c'est  dire
 I 0
  (Q ; Q Q;1 Q );1 0 
QZ =
;1
;Q;1  XX XY Y Y Y X 
Y Y QXY I 0 Q;1
 I ;Q Q;1 
Y Y
 0 XY Y Y
I :
Donc
 x ; X   x ; X 
y ; Y QZ;1
y ; Y
= (x ; X ) (QXX ; QXY Q;1
Y Y QY X ) (x ; X ) +
;1

+(y ; Y ) Q;1
Y Y (y ; Y )
o
X =4 X + QXY Q;1
Y Y (y ; Y ) :
Donc  
pX jY =y (x) = (21)n=2 jR1j1=2 exp ; 21 (x ; X ) R (x ; X )
avec
R =4 QXX ; QXY Q;1
Y Y QY X
ce qui montre le rsultat. 2
Estimateur Soient X et Y deux variables alatoires. Un estimateur de X obtenu a partir
de l'observation de Y = y est une fonction Xb (y) de y :
R d 3 y ! Xb (y ) 2 R n :
On note Xb = Xb (Y ). Pour une ralisation particulire de l'observation Y = y (y x),
xb = Xb (y) est appele une estimation de X .

y - Estimateur - xb
observation Xb () estimation :
sortie de l'estimateur

Estimateur du minimum de variance Soit Xb (y) un estimateur de X sachant Y = y.


Naturellement Xb n'est pas gal  X , une mesure de l'erreur moyenne est donne par
h i
E jX ; Xb (Y )j2jY = y : (2.3)
L'estimateur du minimum de variance est un estimateur Xb () tel que
h i  
E jX ; Xb (Y )j2jY = y
E jX ; (Y )j2 jY = y
pour tout autre estimateur () et pour toute ralisation y de l'observation.
Proposition 2.1.2 Soient X et Y des vecteurs al atoires de dimensions respectives n et d,
et de densit conjointe pX Y . L'estimateur du minimum de variance de X sachant Y = y est
la moyenne conditionnelle, i.e.
Z
Xb (y) = E X jY = y] = x pX jY =y (x) dx :
Rn
Preuve Soit () un estimateur,

E jX ;Z (Y )j2jY = y

= (x ; (y)) (x ; (y)) pX jY =y (x) dx
ZR n
Z
= x x pX jY =y (x) dx ; 2 (y) pX jY =y (x) dx + (y) (y)
Rn Z  Rn Z 
=  (y ) ; x pX jY =y (x) dx (y) ; x pX jY =y (x) dx
Z Rn
Z 2 Rn

+ x x pX jY =y (x) dx ; x pX jY =y (x) dx

Rn R n

et le vecteur (y) qui minimise cette expression est


Z
(y) ; x pX jY =y (x) dx :
Rn
2
On vient de voir que la moyenne conditionnelle est l'estimateur qui ralise le minimum
de l'erreur conditionnelle (2.3). On aimerait avoir un rsultat inconditionnel.

Proposition 2.1.3 Soient X et Y des vecteurs al atoires.


Xb =4 Xb (Y ) = E X jY ]
est l'estimateur du minimum de variance, i.e. pour tout (Y ) estimateur de X

b ; 
E jX ; X (Y )j
E jX ; (Y )j2 :
2

Preuve On utilise le rsultat 2.1.2



Z
E jX ; Xb (Y )j 2
= E jX ; Xb (Y )j2jY = y] pY (y) dy
ZR d

= E jX ; Xb (y)j2jY = y] pY (y) dy


ZR d


E jX ; (y)j2jY = y] pY (y) dy
ZR d


E jX ; (Y )j2jY = y] pY (y) dy

E jX ; (Y )j2 :
R; d

2
Biais d'un estimateur Soient X et Y des vecteurs alatoires et () un estimateur de X
sachant Y . Le biais de  est d ni par
b (y) =4 E X ; (y)jY = y] :
On dit que  est un estimateur sans biais si b (y) = 0 pour tout y. D'aprs la d nition de
la moyenne conditionnelle Xb de X sachant Y , le rsultat suivant est immdiat
Proposition 2.1.4 La moyenne conditionnelle Xb de X sachant Y est un estimateur sans
biais.

2.2 Filtre de Kalman


On considre un systme linaire du type (1.2), c'est  dire
Xk+1 = Ak Xk + Bk + Ck Wk (2.4)
Yk = Hk Xk + Vk (2.5)
avec les hypothses du paragraphe 1.3. A l'instant k on dispose de l'information
Yk =4 fY0 Y1 : : : Yk g :
Le but est donc de dterminer Xk  partir de Yk , d'aprs le paragraphe 2.1 il s'agit donc
de calculer la loi conditionnelle de Xk sachant Yk . Comme nous sommes dans le cas gaussien
il sut donc de calculer la moyenne et la covariance
h i
Xbk =4 E Xk jYk ] Rk =4 E (Xk ; Xbk ) (Xk ; Xbk ) :
On d nit les quantits suivantes (la prdiction de la moyenne et de la covariance)
h i
Xbk; =4 E Xk jYk;1] Rk; =4 E (Xk ; Xbk;) (Xk ; Xbk;) :
Proposition 2.2.1 (Filtre de Kalman) Xbk et Rk sont les sorties du ltre suivant
Xbk; = Ak;1 Xbk;1 + Bk;1 (2.6)
Rk; = Ak;1 Rk;1
Ak;1 + Ck;1 Q W C (2.7)
k;1 k;1
Xbk = Xbk; + Kk Yk ; Hk Xbk; (2.8)
Rk = (I ; Kk Hk ) Rk; (2.9)
Kk =
; 
Rk; Hk Hk Rk; Hk + QVk ;1
avec l'initialisation
Xb0; = X 0 = E X0] R0; = QX0 = CovX0 ] :
Kk est appel le gain du ltre de Kalman.
Construction du ltre de Kalman On procde en plusieurs tapes. Le point central est
le rsultat 2.1.1 qui sera constamment utilis.
1 On montre
 (2.8,2.9) pour k = 0
X0 est un vecteur gaussien d'esprance et de covariance donnes par
Y 0
 X   QX QX0 H0

H0Q0 H0QX0 H0 + QV0 :
0 0
H0 X 0 X

Donc la loi de X0 sachant Y0 est gaussienne de moyenne


Xb0 = X 0 + QX0 H0 (H0 QX0 H0 + QV0 );1 (Y0 ; H0X 0 )
et de covariance
R0 = QX0 ; QX0 H0 (H0 QX0 H0 + QV0 );1H0 QX0 :
2 On montre (2.6,2.7) pour k = 1
X1 = A0 X0 + B0 + C0 W0 : (2.10)
W0 et Y0 sont indpendants, ainsi
loi(W0 jY0) = loi(W0 ) = N (0 QW0 ) :
Comme
loi(X0jY0) = N (Xb0 R0)
et d'aprs (2.10) on a donc : la loi de X1 sachant Y0 est gaussienne d'esprance
Xb1; = A0 Xb0 + B0
et de covariance
R1; = A0 R0 A0 + C0 QW0 C0 :
3 On montre (2.8,2.9) pour k = 1
Y1 = H1 X1 + V1 : (2.11)
V1 et Y0 sont indpendants, ainsi loi(V1 jY0) = loi(V1) = N (0 QV1 ). Comme
loi(X1jY0) = N (Xb1; R1;)
et d'aprs (2.11) on a donc : la loi de Y1 sachant Y0 est gaussienne d'esprance
Yb1; =4 H1 Xb1;
et de covariance
H1 R1; H1 + QV1 :
D'o
E (X1 ; Xb1;) (Y1 ; Yb1;) ] =
= E (X1 ; Xb1;) (H1 (X1 ; Xb1;) + V1) ]
= E (X1 ; Xb1;) E (V1) + E (X1 ; Xb1;) (X1 ; Xb1;) ] H1
= R1; H1 :
X 
On en dduit donc que la loi conditionnelle de Y 1 sachant Y0 est gaussienne d'esprance
1
et de covariance b; !  ; 
X1 R1 R1; H1
H1 Xb1; H1 R1; H1 R1; H1 + QV1 :
En appliquant le rsultat de base, on obtient que la loi conditionnelle de X1 sachant Y1
est gaussienne d'esprance
Xb1 = Xb1; + R1; H1 (H1 R1; H1 + QV1 );1 (Y1 ; H1 Xb1;)
et de covariance
R1 = R1; ; R1; H1 (H1 R1; H1 + QV1 );1 H1 R1; :
4 En rptant les tapes 2 et 3, on construit le ltre de Kalman. 2
Proposition 2.2.2 Le processus fk g d ni par
k =4 Yk ; Hk Xbk;
est un bruit blanc gaussien de covariance
Qk = Hk Rk; Hk + QVk :
fk g est appel processus innovation.
Preuve
k = Yk ; Hk Xbk; = Yk ; E Yk jYk;1]
donc
E k ] = E Yk ] ; E E Yk jYk;1]] = 0 :
Maintenant on remarque que k est indpendant de Yk;1. En eet pour toute fonction
mesurable '
E '(Y0 : : : Yk;1) k ] =
= E '(Y0 : : : Yk;1) (Yk ; E Yk jYk;1]]
= E '(Y0 : : : Yk;1) Yk ] ; E E '(Y0 : : : Yk;1) YkjYk;1]]
= E '(Y0 : : : Yk;1) Yk ] ; E '(Y0 : : : Yk;1) Yk ]
=0:
Donc pour k < l, k est indpendant de l (car k est Yl;1 mesurable), ainsi E k l ] = 0.
En n
k = Yk ; Hk Xbk; = Hk (Xk ; Xk;) + Vk
comme Xk ; Xbk; et Vk sont indpendants, on a
Covk ] = Hk CovXk ; Xbk;] Hk + CovVk ] = Hk Rk; Hk + QVk :
2

Exemple 2.2.3 On considre le problme de ltrage lin aire en dimension 1 :


Xn+1 = Xn
Yn = Xn + Vn
o V est un bruit blanc gaussien N (0 2 ) ind pendant de X0  N (0 ;0 ).

Filtre de Kalman : Le ltre s' crit :


X^n;+1 =X^n
Rn;+1 =Rn
X^n+1 =X^n;+1 + Kn+1 Yn+1 ; X^n;+1]
Rn+1 =1 ; Kn+1] Rn;+1
R;
Kn+1 = ; n+1 2
Rn+1 + 
avec l'initialisation : X^0 = 0, R0 = ;0 .
Aprs simplication, on obtient

X^n+1 = X^n + R R+n 2 Yn+1 ; X^n]


 n
R

Rn+1 = 1 ; R + 2 Rn :
n
n

Etude de la variance :
 
= 1 ; Rn 2 Rn =  2 Rn = RnRn :
2
Rn+1 Rn +  Rn +  1 + 2
On peut donc obtenir une expression explicite pour la variance Rn :

Rn = ;0 ;0 :
1 + n 2
Convergence de la moyenne conditionnelle : L' quation de l'esp rance conditionnelle
s' crit :
;0
1+n 02
;
X^n+1 = X^n + Y ; X^n]
+ 2 n+1
;0
1+n 20
;

;0
= X^n + Y ; X^n] :
(n + 1) ;0 + 2 n+1
Ainsi, pour n grand : X^n+1 ' X^ n.

2.3 Filtre de Kalman tendu


On considre un systme non linaire
Xk+1 = fk (Xk ) + gk (Xk ) Wk (2.12)
Yk = hk (Xk ) + Vk : (2.13)
fXk g, fYk g, fWk g, fVk g sont  valeurs dans R n , R d , R l , R p , et
fk gk hk : R n ! R n R nl Rd
respectivement. On va supposer que les fonctions fk et hk sont drivables par rapport  la
variable x. fWk g et fVk g sont des bruits blancs gaussiens (de covariances respectives QWk et
QVk ) indpendants entre eux et indpendants de la condition initiale X0 de (2.12).
Pour le systme (2.12) (2.13), la plupart des proprits obtenues au chapitre 1 ne sont
plus vraies. En particulier le processus solution de (2.12) (2.13) n'est pas gaussien (ni mme
conditionnellement gaussien), ses moments ne peuvent pas tre calculs de manire simple.

Filtre de Kalman linaris


On se donne fX k g une suite (dterministe) dans R n , appele trajectoire nominale (on
peut prendre par exemple X k comme une approximation de la moyenne de Xk ). La mthode
consiste  linariser les fonctions fk gk hk autour de X k , c'estdire
fk (x) ' fk (X k ) + rfk (X k ) (x ; X k )
gk (x) ' gk (X k )
hk (x) ' hk (X k ) + rhk (X k ) (x ; X k ) :
On note
Fk0 =4 fk (X k ) Fk =4 rfk (X k )
Gk =4 gk (X k )
Hk0 =4 hk (X k ) Hk =4 rhk (X k ) :
Le systme (2.12) (2.13) est alors approch par
Xk+1 = Fk Xk ; X k ] + Fk0 + Gk Wk (2.14)
Yk = Hk Xk ; X k ] + Hk0 + Vk : (2.15)
On applique le ltre de Kalman, et on obtient
Xbk; = fk;1(X k;1) + rfk;1(X k;1) (Xbk;1 ; X k;1)
Rk; = rfk;1(X k;1) Rk;1 rfk;1(X k;1)] +
+gk;1(X k;1) QWk;1 gk;1(X k;1)]
h i
Xbk = Xbk; + Kk Yk ; (hk (X k ) + rhk (X k ) (Xbk; ; X k ))
Rk = I ; Kk rhk (X k )] Rk;
 
Kk = Rk; rhk (X k ) rhk (X k ) Rk; rhk (X k )] + QVk ;1 :
A la place de la premire et la troisime de ces quations, on peut utiliser
Xbk; = fk;1(Xbk;1)
Xbk = Xbk; + Kk Yk ; hk (Xbk;)] :
On choisit en n l'initialisation Xb0; et R0; de telle sorte que N (Xb0; R0;) soit une bonne
approximation de la loi de X0.
Proposition 2.3.1 (ltre de Kalman linaris)
Xbk; = fk;1(Xbk;1)
Rk; = Fk;1 Rk;1 Fk;1 + Gk;1 QWk;1 Gk;1

Xbk = Xbk; + Kk Yk ; hk (Xbk;)]


Rk = I ; Kk Hk ] Rk;

Kk = Rk; Hk Hk Rk; Hk + QVk ;1

avec : Fk;1 =4
rfk;1(X k;1) , Gk;1 =4 gk;1(X k;1) , Hk =4 rhk (X k ) , o fX k g est une
trajectoire nominale donn e (une suite dans R n ).

Filtre de Kalman tendu


On a vu (cf. paragraphe 2.2) que les coecients du systme linaire peuvent dpendre
des observations (jusqu' l'instant k ; 1). Donc, au lieu d'utiliser une trajectoire nominale
dterministe fX k g, on peut utiliser des estimateurs de Xk : Xbk;1 pour l'tape de prdiction
et Xbk; pour l'tape de correction. Pour l'tape de prdiction ( l'instant k) on utilise donc
la linarisation
fk (x) ' fk (Xbk;1) + rfk (Xbk;1) (x ; Xbk;1)
pour l'tape de correction ( l'instant k) on utilise les linarisations
gk (x) ' gk (Xbk;)
hk (x) ' hk (Xbk;) + rhk (Xbk;) (x ; Xbk;) :
Proposition 2.3.2 (ltre de Kalman tendu)
Xbk; = fk;1(Xbk;1)
Rk; = Fk;1 Rk;1 Fk;1 + Gk;1 QWk;1 Gk;1

Xbk = Xbk; + Kk Yk ; hk (Xbk;)]


Rk = I ; Kk Hk ] Rk;

Kk = Rk; Hk Hk Rk; Hk + QVk ;1

avec : Fk;1 =
4
rfk;1(Xbk;1) , Gk;1 =4 gk;1(Xbk;1) , Hk =4 rhk (Xbk;) .
Remarque 2.3.3
 On peut s'attendre  de bons r sultats avec cette technique de ltrage lorsque l'on est
proche d'une situation lin aire ou lorsque le rapport signal=bruit est grand.
 Pour v rier si le ltre de Kalman tendu se comporte bien, on peut, en sortie, tester
le processus de pseudoinnovation
k =4 Yk ; hk (Xbk;)
et v rier s'il est proche d'un bruit blanc.
 Le choix du systme de coordonn es dans lequel on exprime le problme in uence beau
coup le comportement du ltre de Kalman tendu (cf. chapitre 4).
Chapitre 3
Syst mes sans bruit de dynamique
On observe un processus alatoire fYk g  valeurs dans R d de la forme
Yk = hk (Xtk ) + Vk (3.1)
o fVk g est un bruit blanc gaussien, et fXtg vri e l'quation d'tat dans R n
X_ t = b(t Xt ) (3.2)
avec une condition initiale inconnue X0  l'instant t0 , et t0 < t1 <    < tk    dsigne la
suite des instants d'observation.
On introduit le ot direntiel x 7!
t s x] associ  l'quation direntielle ordi
naire (3.2), qui permet d'exprimer la solution de l'quation (3.2)  l'instant t, en fonction de
la condition initiale  l'instant s, c'estdire
Xt =
t s Xs] : (3.3)
On notera que le ot
t s x] est d ni pour tout couple (t s) : dans le cas t < s, il sut de
considrer l'quation direntielle (3.2) dans le sens rtrograde du temps.
Ceci permet de transformer le systme (3.1) (3.2) en un systme non linaire  temps
discret, du type tudi au chapitre 2. On introduit Xk = 4
Xtk et on a
Xk+1 = Xtk+1 =
tk+1 tk Xtk ] = fk (Xk )
avec fk (x) =4

tk+1 tk x]. On obtient ainsi le systme non linaire suivant
Xk+1 = fk (Xk ) (3.4)
Yk = hk (Xk ) + Vk : (3.5)
On peut aussi adopter le point de vue que pour estimer l'tat Xtk il sut d'estimer le
paramtre = X0 , et considrer le problme comme un problme d'estimation paramtrique.
En eet, Xtk =
tk t0 ] et l'observation (3.1) peut s'exprimer comme une observation du
paramtre
Yk = hk (Xtk ) + Vk = hk (
tk t0 ]) + Vk = mk ( ) + Vk
avec mk ( ) = 4
hk (
tk t0 ]). On obtient ainsi le modle de rgression non linaire
Yk = mk ( ) + Vk : (3.6)
Il existe deux approches possibles pour traiter ce problme.
Approche baysienne On suppose que l'on dispose d'une information a priori sur la
valeur du paramtre . On modlise cette information a priori en considrant comme une
variable alatoire de loi 0. Ce problme peut tre trait comme un problme de ltrage non
linaire et rsolu  l'aide du ltre de Kalman tendu prsent au chapitre 2.
Approche non baysienne Ici on suppose que l'on n'a aucune information a priori sur
la valeur du paramtre . Utiliser une technique baysienne en se donnant une loi a priori 0
non reprsentative de la ralit peut conduire  de mauvais rsultats. Dans ce cas on peut
utiliser la technique d'estimation du maximum de vraisemblance expose plus loin.

3.1 Estimateur baysien


On dispose d'observations Yk = fY0 : : : Yk g modlises par le systme non linaire sui
vant
Xk+1 = fk (Xk ) X0  0 (3.7)
Yk = hk (Xk ) + Vk (3.8)
avec fk (x) =
4

tk+1 tk x].
Le ltre de Kalman tendu fournit une estimation (Xbk Rk ) de l'tat Xk au vu des obser
vations Yk , d nie par les quations suivantes
INITIALISATION
Z Z
Xb0; = x 0(dx) R =
;
0 (x ; Xb0;) (x ; Xb0;) 0(dx) :
Rn Rn

PHASE DE PR DICTION
Xbk; = fk;1(Xbk;1)
Rk; = Fk;1 Rk;1 Fk;1
o
Fk;1 =4 rfk;1(Xbk;1) :
PHASE D'ACTUALISATION
Xbk = Xbk; + Kk Yk ; hk (Xbk;)]
Rk = I ; Kk Hk ] Rk;

Kk = Rk; Hk Hk Rk; Hk + QVk ;1

o
Hk =4 rhk (Xbk;) :
3.2 Estimateur du maximum de vraisemblance
Dnition gnrale
Soit Y un vecteur alatoire de densit pY (y ) qui dpend d'un paramtre 2 R n inconnu.
L'estimateur du maximum de vraisemblance b de est d ni par
b(y) 2 Arg max p (y ) :
2Rn Y
C'est  dire, pour tout autre estimateur (y) de ,
pY (y (y))
pY (y b(y)) 8y 2 R d :
A y x, l'application
! pY (y )
est appele fonction de vraisemblance.
Si Y  N ( Q) o est inconnue et Q est connue, alors
 
pY (y ) = p 1 d exp ; 21 y ; ] Q;1 y ; ] :
(2) jQj
Maximiser pY (y ) revient donc a minimiser
y ; ] Q;1 y ; ] :
On trouve donc
b(y) = y :

Application aux rgressions


Soit Yk = fY0 : : : Yk g donne par
Yk = mk ( ) + Vk : (3.9)
L'estimateur du maximum de vraisemblance se calcule de la manire suivante. fYk g est une
suite de vecteurs alatoires gaussiens, Yk  N (mk ( ) QVk ), donc
Yk
pY0 ::: Yk (y0 : : : yk ) = pYl (yl ) =
l=0
Y
p(21)d jQV j exp ; 12 yl ; ml( )] (QVl );1 yl ; ml( )]
k
=
l=0
( X l
k )
= Ck exp ; 12 yl ; ml ( )] (QVl );1 yl ; ml ( )] :
l=0
Donc bk l'estimateur du maximum de vraisemblance de sachant Yk est d ni par
bk (y0 : : : yk ) 2 Arg min
2Rn
Jk ( ) (3.10)

o
X
k
Jk ( ) =
4 1
2 yl ; ml ( )] (QVl );1 yl ; ml ( )] : (3.11)
l=0

Application aux systmes sans bruit de dynamique


On dispose d'observations Yk = fY0 : : : Yk g modlises par le systme non linaire sui
vant
X_ t = bt (Xt ) (3.12)
Yk = hk (Xtk ) + Vk : (3.13)
La fonction de vraisemblance pour l'estimation du paramtre = X0 au vu des observations
Yk est ( )
X
k
Lk ( ) = Ck exp ; 1
2
yl ; ml ( )] (QVl );1 yl ; ml ( )] (3.14)
l=0

avec ml ( ) =
4
hl (
tl t0 ]), et l'estimateur du maximum de vraisemblance est
bkMV 2 Arg max L ( ) :
2Rn k
(3.15)

Compte tenu de la relation Xk =


tk t0 ], l'estimateur du maximum de vraisemblance
de l'tat Xk au vu des observations Yk est
XbkMV =
tk t0 bkMV ] : (3.16)

Remarque 3.2.1 A la di rence de l'approche bay sienne pr sent e plus haut, et condui
sant  l'utilisation du ltre de Kalman tendu, le calcul de l'estimateur du maximum de
vraisemblance XbkMV n'est pas r cursif.

Un algorithme itratif
Le critre d'estimation (3.11) peut tre minimis  l'aide de techniques d'optimisation
standard. La plupart de ces mthodes itratives sont fondes sur le gradient de la fonction
co!t
 @J ( )  " X k
@m ( )
#
rJk ( ) = @ = ; yl ; ml ( )] (QVl );1 @
k l
: (3.17)
i i l=0 i i
La matrice des drives secondes est
 @2J ( ) 
r Jk ( ) = @ k@
2
i j ij
"X k  
= @m l ( )
(QVl );1 @ml ( )
@ i @ j
l=0
X
k #
; yl ; ml ( )] (QVl );1 @ 2 ml ( ) : (3.18)
l=0 @ i @ j ij
Il n'est pas toujours judicieux d'utiliser (3.18) pour calculer la matrice des drives se
condes, en eet cela augmente la masse de calcul. En pratique il est donc conseill d'utiliser
la matrice des drives secondes approche suivante
"X
k   #
re 2Jk ( ) = @ml ( ) (QVl );1 @ml ( ) : (3.19)
l=0 @ i @ j ij
Si le critre d'estimation Jk ( ) est presque quadratique en , alors l'estimateur du maxi
mum de vraisemblance de peut tre approch en une seule tape par
h i;1
bk = k(0) ; re 2Jk ( k(0) ) rJk ( k(0) )
o k(0) est une valeur initiale. Si cette valeur initiale est loin de la vraie valeur et si le critre
Jk ( ) n'est pas quadratique, il est ncessaire s'utiliser un algorithme itratif
(i) initialisation : k(0) et p = 0
(ii) valuer r e 2Jk et rJk au point k(p), et la direction de descente
h i;1
d(kp) = re 2Jk ( k(p) ) rJk ( k(p))
(iii) on cherche s > 0 tel que


s 2 Arg min J (p) ; s d(kp)
s>0 k k

(iv) on pose
k(p+1) = k(p) ; s d(kp)
(v) si Jk ( k(p+1) ) ; Jk ( k(p)) est susamment petit on s'arrte, sinon on pose
p = p + 1 et on retourne  l'tape (ii).
Chapitre 4
Application  la trajectographie passive
4.1 Le problme
Un b"timent B appel bruiteur cherche  dterminer la position d'un second b"timent
P appel porteur,  l'aide de mesures d'angle seulement. La situation est dcrite par la
gure 4.1.

Porteur Bruiteur Relatif

xP position en Ox xB position en Ox r distance Porteur Bruiteur


yP position en Oy yB position en Oy rx coordonne relative en Ox
cP cap cB cap ry coordonne relative en Oy
vP vitesse vB vitesse azimut
vxP vitesse en Ox vxB vitesse en Ox vx vitesse relative en Ox
vyP vitesse en Oy vyB vitesse en Oy vy vitesse relative en Oy
aP acclration
aPx acclration en Ox
aPy acclration en Oy

o, par d nition,


rx =4 xB ; xP
ry =4 yqB ; yP
r =4 rx2 + ry2
vx =4 vxB ; vxP
vy =4 vyB ; vyP :
A l'instant tk on mesure
Yk =  (tk ) + Vk (4.1)
Bruiteur

mouvement
rectiligne
uniforme

β
ry
observation
β + bruit

Porteur

rx

Fig. 4.1  Trajectographie passive


o  (tk ) est l'azimut   l'instant tk , Vk est un bruit blanc gaussien de variance gale  2 ,
et t0 < t1 <    < tk    dsigne la suite des instants d'observation. On fait l'hypothse
suivante
la vitesse v B et le cap cB du bruiteur sont constants. (4.2)
On va prsenter dans la suite deux systmes de coordonnes utiliss pour modliser
le problme : le modle cartsien, et le modle polaire modi . Pour chacun de ces deux
systmes, on obtient une quation d'tat non bruite, de sorte que le problme revient 
estimer l'tat initial, c'estdire un paramtre constant, au vu des mesures successives
Y0 Y1    Yk   . Les deux approches prsentes au chapitre prcdent pour ce type de
problme d'estimation, sont appliques ensuite au problme de trajectographie : il s'agit de
l'approche baysienne, conduisant au ltre de Kalman tendu, et de l'approche base sur le
maximum de vraisemblance.

4.2 Le modle cartsien


Modlisation
Dans les coordonnes cartsiennes (relatives), le vecteur d'tat est
0 X (t) 1 0 v (t) 1
x
X (t) = B
B X2 (t) C =4 B vy (t) C
1
C B
@ X3(t) A @ rx(t) CA (4.3)
X4 (t) ry (t)
Il est facile de vri er que l'quation d'tat est
X_ (t) = F X (t) ; G(t) (4.4)
o
00 0 0 01 0 aP (t) 1
x
4 B 0 0 0 0 C 4 B a P (t) C
F =B @1 0 0 0A C G ( t ) = B
@ y0 CA :
0 1 0 0 0
Si t0 dsigne un instant de rfrence, on obtient en intgrant (4.4) entre t0 et t
X (t) = A(t t0 ) X (t0) ; B (t t0) (4.5)
o
0 1 0 0 0
1
A(t t0) =4 B
B 0 1 0 0C
@ t ; t0 0 1 0 CA (4.6)
0 t ; t0 0 1
0 aP (s) 1
Z t B axP (s) C
B (t t0) = 4
B@ (t ; sy) aP (s) CA ds : (4.7)
t0 x
(t ; s) aPy (s)
L'azimut est donne par  = Arctg(X3=X4), l'quation d'observation s'crit donc
Yk = h(X (tk )) + Vk (4.8)
o h(X ) = Arctg(X3=X4).
Dans la suite on notera
Xk =4 X (tk )
Ak =4 A(tk+1 tk )
Bk =4 B (tk+1 tk ) :
Le systme non linaire en temps discret correspondant est
Xk+1 = Ak Xk ; Bk (4.9)
Yk = h(Xk ) + Vk : (4.10)
Le ltre de Kalman tendu
Le problme de ltrage est dcrit par l'quation d'tat (4.9) et par l'quation d'obse-
vation (4.10). L'quation d'tat est linaire et dterministe, et l'quation d'observation est
bruite et non linaire.
PHASE DE PR DICTION 8 b;
< Xk = Ak;1 Xbk;1 ; Bk;1
: R; (4.11)
k = Ak;1 Rk;1 Ak;1 :
PHASE D'ACTUALISATION
8b h i
>
> Xk = Xbk; + Kk Yk ; h(Xbk;)
>
<
> Rk = I ; Kk Hk ] Rk; (4.12)
>
>  ;1
: Kk = Rk; Hk Hk Rk; Hk + 2
o
Hk =4 rh(Xbk;) :
INITIALISATION
0 0
1 0 v2 0 0 0
1
max
B
Xb0; =4 B 0 C
C B
R0; = B
4 0 vmax
2
0 0 CC : (4.13)
@d0 sin(Y0 )
A @ 0 0 d20 0 A
d0 cos(Y0) 0 0 0 d20
o
d0 : distance initiale suppose ,
Y0 : premire observation de l'azimut ,
vmax : vitesse maximale suppose du bruiteur .
Mthode de maximum de vraisemblance
On pose = X (t0 ), d'aprs (4.5)
X (t) = A(t t0 ) ; B (t t0 )
et
Yk = mk ( ) + Vk
avec
mk ( ) =4 h (A(tk t0 ) ; B (tk t0)) :
A k x, l'estimateur du maximum de vraisemblance bk est obtenu en minimisant
X
k
1
Jk ( ) =4 21 Yl ; ml ( )]2 :
l=0 QlV

4.3 Le modle polaire modi


Modlisation
Le vecteur d'tat est
0 Z (t) 1 0 _ (t) 1
B
Z (t) = B Z
1
(t) C 4 B r_(t)=r(t) C
@ Z2(t) CA = B@
3
CA :
 (t) (4.14)
Z4(t) 1=r(t)
On peut vri er que l'quation d'tat est alors
Z_ (t) = b(t Z (t)) (4.15)
o
0 ;2 Z Z ; Z ;aP (t) cos Z ; aP (t) sin Z  1
4; x y 3
4 B Z1 ; Z2 ; Z4 ax (t) sin Z3 + ay (t) cos Z3 C
1 2 3
P P
b(t Z ) = B CA :
2 2
@ Z 1
;Z2 Z4
Si t0 dsigne un instant de rfrence, on vri e que la solution de (4.15) est
Z (t) =
t t0 Z (t0)] (4.16)
avec
0 (S S ; S S )=(S 2 + S 2) 1
4 B
2 C
1 4 2 3 3 4


t t0 Z ] = B ( S S + S S ) = ( S 2
+ S4) C
@ Z3 + Arctg (S3=S4) A
1 3 2 4 3

p
Z = S2 + S2
4 3 4
et
S1 =
4
Z1 ; Z4 B1(t t0 ) cos Z3 ; B2(t t0 ) sin Z3]
S2 =
4
Z2 ; Z4 B1(t t0 ) sin Z3 + B2 (t t0) cos Z3]
S3 =
4
(t ; t0) Z1 ; Z4 B3(t t0 ) cos Z3 ; B4(t t0 ) sin Z3]
S4 =
4
1 + (t ; t0) Z2 ; Z4 B3(t t0 ) sin Z3 + B4 (t t0) cos Z3]
B (t t0 ) = B1 B2 B3 B4 ] est d ni par (4.7). L'quation d'observation s'crit
Yk = H Z (tk ) + Vk (4.17)
o H =
4
0 0 1 0]. Dans la suite on notera
Zk =4 Z (tk )
fk (Z ) =4
tk+1 tk Z ] :
Le systme non linaire en temps discret correspondant est
Zk+1 = fk (Zk ) ; Bk (4.18)
Yk = H Zk + Vk : (4.19)
Le ltre de Kalman tendu
Le problme de ltrage est d ni par l'quation d'tat (4.18) et par l'quation d'obser-
vation (4.19). Dans ce cas l'quation d'tat est non linaire et dterministe, et l'quation
d'observation est bruite et linaire.
PHASE DE PR DICTION
8 b;
< Zk = fk;1(Zbk;1)
: R; (4.20)
k = Fk;1 Rk;1 Fk;1
o
Fk;1 =4 rfk;1(Zbk;1) :
PHASE D'ACTUALISATION
8 b h i
>
> Zk = Zbk; + Kk Yk ; H Zbk;
>
<
> Rk = I ; Kk H ] Rk; (4.21)
>
>  ;1 :
: Kk = Rk; H H Rk; H + 2
INITIALISATION
00 1 0p 0 0 0
1
B0
Zb0; =4 B
CC B0 p 0
R0; =4 B
0 CC (4.22)
@Y 0 A @0 0 p 0 A
1
d0 p 0 0 1
d20
o
d0 : distance initiale suppose ,
Y0 : premire observation de l'azimut ,
p : paramtre  choisir par simulation .

Mthode de maximum de vraisemblance


On pose = Z (t0 ), d'aprs (4.16)
Z (t) =
t t0 ]
et
Yk = mk ( ) + Vk
avec
mk ( ) =4 H
tk t0 ] :
A k x, l'estimateur du maximum de vraisemblance bk est obtenu en minimisant
X
k
1 Y ; m ( )]2 :
Jk ( ) = 4 1
2 QVl l l
l=0

4.4 Problme de localisation


Un b"timent P appel porteur cherche  dterminer la position d'un second b"timent B
appel bruiteur,  l'aide de mesures d'angle seulement. On suppose que B est immobile et
que P se dplace suivant une trajectoire rectiligne uniforme (i.e.  cap et vitesse constant).

Modle cartsien relatif : On note :


Porteur Bruiteur

xP (t) position en Ox  l'instant t xB position en Ox (constante)


y P (t) position en Oy  l'instant t yB position en Oy
cP cap (constant) cB cap (constant)
vP vitesse (constante) vB vitesse (constante)
vxP B
vitesse en Ox (constante) vx = 0 vitesse en Ox (nulle)
vyP vitesse en Oy (constante) vyB = 0 vitesse en Ox (nulle)
Relatif

r(t) distance Porteur Bruiteur  l'instant t


rx (t) coordonne relative en Ox  l'instant t
ry (t) coordonne relative en Oy  l'instant t
(t) azimut  l'instant t
vx = vxB ; vxP = ;vxP vitesse relative en Ox (constante)
vy = vyB ; vyP = ;vyP vitesse relative en Oy (constante)

o, par d nition, q


r(t) =4 rx2 (t) + ry2 (t) :
A l'instant tk on mesure
Yk =  (tk ) + Vk
o  (tk ) est l'azimut   l'instant tk , Vk est un bruit blanc gaussien de variance gale  2 ,
et t0 < t1 <    < tk    dsigne la suite des instants d'observation.
On choisit le vecteur d'tat :
 r (t) 
X (t) = 4 x :
ry (t)

Le vecteur d'tat est solution de l'quation direntielle :


 
d X (t) = 0 0 X (t) + ;vxP
 
dt 0 0 ;vyP : (4.23)
La direntielle de X (t) est donc constante, d'o l'quation d'tat :
Zt d k
Xk = Xk;1 + X (t) dt
t ; dt
k 1
 vP 
= Xk;1 ; (tk ; tk;1) vxP :
y
On note :  vP 
Bk = ;(tk ; tk;1) vxP
4
:
y
Ainsi :
Xk = Xk;1 + Bk
L'quation d'observation est :
 r (t) 
Yk = Arctg rx(t) + Vk
y
o  X 1(t)   r (t) 
h(X (t)) = Arctg X 2 (t) = Arctg rx(t) :
y

Le ltre de Kalman tendu s'crit donc :


Prdiction

X^k; = X^k;1 + Bk;1


Rk; = Rk;1 :
Correction

h i
X^k = X^k; + Kk Yk ; h(X^k;)
Rk = I ; Kk Hk ] Rk;

Kk = Rk; Hk Hk Rk; Hk + 2 ;1

o
Hk =4 rh(X^k;) :

Cas de deux porteurs : On suppose maintenant qu'il existe deux porteurs P1 et P2.
A l'instant tk on mesure donc :
  (t )   V 1 
Yk = 1 k + k2
2 (tk ) Vk (4.24)

o Vk1 et Vk2 sont deux bruits blancs gaussiens de variance 2 , et t0 < t1 <    < tk   
dsigne la suite des instants d'observation.

On note (pour i = 1 2) :

Porteur Pi Bruiteur

xPi (t) position en Ox  l'instant t xB position en Ox (constante)


y Pi (t) position en Oy  l'instant t yB position en Oy
cPi cap (constant) cB cap (constant)
v Pi vitesse (constante) vB vitesse (constante)
vxPi B
vitesse en Ox (constante) vx = 0 vitesse en Ox (nulle)
vyPi vitesse en Oy (constante) vyB = 0 vitesse en Ox (nulle)
Relatif

ri (t) distance Porteur Pi Bruiteur  l'instant t


rxi (t) coordonne relative Porteur Pi Bruiteur en Ox  l'instant t
ryi (t) coordonne relative Porteur Pi Bruiteur en Oy  l'instant t
i (t) azimut Porteur Pi Bruiteur  l'instant t
vxi = vxB ; vxPi = ;vxPi vitesse relative Porteur Pi Bruiteur en Ox (constante)
vyi = vyB ; vyPi = ;vyPi vitesse relative Porteur Pi Bruiteur en Oy (constante)

o, par d nition, q


ri(t) =4 rxi ]2 (t) + ryi ]2 (t) :

On choisit le vecteur d'tat :


 r1 (t) 
X (t) =4 x :
ry1(t)

L'quation d'tat est la mme que dans le cas prcdent :


Xk = Xk;1 + Bk
avec :  vP 
Bk = ;(tk ; tk;1) vxP1
1
4
:
y

Pour l'quation d'observation :


 r1 (t)   X 1(t) 
1 (t) = Arctg x = Arctg
ry1(t) X 2(t)
et
 r2 (t)   r1(t) + r2(t) ; r1 (t)   X 1(t) + r2(t) ; r1 (t) 
2 (t) = Arctg x = Arctg x x x = Arctg x x
ry2(t) ry1(t) + ry2 (t) ; ry1 (t) X 2(t) + ry2(t) ; ry1(t)
donc  V1 
Yk = hk (Xk ) + Vk2
k
o  ArctgX 1=X 2]

hk (X ) = Arctg(X 1 + r x(tk ))=(X 2 + r y (tk ))]
et
r x(t) = rx2 (t) ; rx1 (t) r y (t) = ry2(t) ; ry1(t) :
Annexe A
Rappels de probabilits
On prsente ici quelques notions utilises dans ce cours. Il s'agit d'un expos non math-
matique et succinct. En particulier on suppose que toutes les variables alatoires sont conti
nues et admettent des densits.

Espace de probabilits
Un triplet ( F P ) est appel espace de probabilit s si
  est un ensemble de ralisations,
 F est une tribu sur , c'estdire F est un ensemble de parties de  tel que
 A 2 F ) Ac 2 F ,
 Ai 2 F i 2 N ) i2N Ai 2 F ,
  2 F.
 P est une mesure de probabilit (ou une probabilit ) sur ( F ), c'estdire P : F ! R
est tel que
 P (A)  0, 8A 2 F ,
 P () = 1,
 Ai 2 F i 2 N , tel que Ai \ Aj =  si i 6= j alors
X
P (i2N Ai ) = P (Ai) :
i2N

En particulier,Pon a les proprits suivantes : 0


P (A)
1, P (Ac) = 1 ; P (A),
P (i2N Ai)
i2N P (Ai). Les lments de F sont les v nements.
Probabilit conditionnelle et indpendance
Soit A B 2 F , la probabilit que l'vnement A se ralise sachant que B est ralis est
appel la probabilit conditionnelle de A sachant B est d nie par
\ B)
P (AjB ) =4 P (PA(B )
en supposant que P (B ) 6= 0.
Des vnements A1 : : : An sont mutuellement ind pendants si
P (Ai1 \    \ Aik ) = P (Ai1 )    P (Aik )
8k, fi1 : : : ik g  f1 : : : ng tels que ip 6= iq si p 6= q.  A et B indpendants est not
A ? B . Attention : on peut avoir A ? B , B ? C , A ? C mais pas A B C mutuellement
indpendants.
Si Ai, i = 1 : : : n est une famille d'vnements disjoints tels que i Ai =  (i.e. fAi i =
1 : : : ng est une partition de ), alors
X
n
P (B ) = P (B jAi) 8B 2 F :
i=1

Formule de Bayes

P (AjB ) = P (BPjA(B) P) (A) si P (B ) 6= 0 :

Si fAi i = 1 : : : ng est une partition de , alors

P (Aj jB ) = PnP (BPj(ABjj)AP)(AP j()A ) :


i=1 i i

Variables alatoires
Cas scalaire
Une variable al atoire r elle X est une application
X:!R
telle que
8B 2 B : f! 2  X (!) 2 B g 2 F
o B est la tribu borlienne sur R , on dit que X est une application mesurable de ( F )
dans (R B). On note
fX 2 B g =4 f! 2  X (!) 2 B g  
et
P (X 2 B ) =4 P (fX 2 B g) :
Soit X une variable alatoire relle, sa fonction de r partition est d nie par
FX (x) =4 P (X
x) x2R :
La fonction de rpartition est croissante, monotone avec FX (x) ! 0 quand x ! ;1 et
FX (x) ! 1 quand x ! +1 et elle est continue  droite.
Dans beaucoup de cas FX (x) est direntiable par rapport  x, dans ce cas la densit de
la variable alatoire X est d nie par

pX (x) =4 dFdx
X (x)
:
Dans ce cas Z
P (X 2 B ) = pX (x) dx :
B
Soit X une variable alatoire relle et B un vnement, la fonction de r partition condi
tionnelle de X sachant B est d nie par

FX jB (x) =4 P (X
xjB ) = P (fXP
(Bx)g \ B ) :

Si FX jB (x) est drivable, on peut d nir la densit conditionnelle de X sachant B par


dFX jB (x)
pX jB (x) =4dx :
Si Y est une autre variable alatoire, et en prenant B = fy < Y
y + yg et en faisant
y ! 0, on d nit la densit conditionnelle de X sachant Y

pX jY =y (x) = pXpY ((xy)y) :


Y
On a la formule Z
pX (x) = pX jY =y (x) pY (y) dy :
R

Cas vectoriel
Un vecteur al atoire est une application
0 1
X1
X = @ ... C
B A :  ! Rn
Xn
mesurable de ( F ) dans (R n Bn). On d nit la fonction de rpartition et la densit de X
par
FX (x) =4 P (fX1
x1 g \    \ fXn
xng) x = (x1 : : : xn)
pX (x) =4 @x @  @x FX (x) :
n
1 n
Soit 1
p < n, la densit (marginale) de (X1 : : : Xp) est obtenue par intgration
Z Z
pX1 ::: Xp (x1 : : : xp) =    pX (x) dxp+1    dxn :
R R
Les vecteurs alatoires sont aussi appels des variables alatoires.
Ind pendance
Deux variables alatoires X et Y sont indpendante si les vnements fX
xg et fY
yg
sont indpendants, ce qui est quivalent 
FX Y (x y) = FX (x) FY (y)
PX Y (x y) = PX (x) PY (y)
pX jY =y (x) = pX (x) :
Esprance
L'esp rance (ou la moyenne) de la variable alatoire X , note E (X ), est d nie par
Z
E (X ) = 4
x pX (x) dx :
Rn
Si Y = g(X ) est une fonction de la variable alatoire X , Y a pour esprance
Z
E (g(X )) = 4
g(x) pX (x) dx :
Rn
La matrice de covariance (en dimension 1 on parlera de variance) est d nie par
Cov(X ) =4
E (X ; E (X )) (X ; E (X )) ] :
Il s'agit d'une matrice symtrique et d nie positive.
L'oprateur d'esprance est linaire : soit   2 R et X Y deux vecteurs alatoires de
dimension n,
E ( X +  Y ) =  E (X ) +  E (Y ) :
Soit X1 : : : Xp des variables alatoires mutuellement indpendantes,
E (X1    Xp) = E (X1 )    E (Xp)
si de plus elles sont centres
2 p !23 p
X 5 X 2
E4 Xi = E (Xi ) :
i=1 i=1
Esprance conditionnelle
Soit X une variable alatoire et B un vnement, l'esp rance conditionnelle de g(X )
sachant B est d nie par
Z
E g(X )jB ] =
4
g(x) pX jB (x) dx :
Rn
Soit Y une autre variable alatoire, par analogie avec les probabilits conditionnelle, on
d nit Z
E g(X )jY = y] = g(x) pX jY =y (x) dx :
4

Rn
Cette dernire quantit est une fonction (y) de y. L'esprance conditionnelle de g(X ) sa
chant Y est la variable alatoire (Y ), note E g(X )jY ], c'est une fonction de Y . L'esprance
conditionnelle est un oprateur linaire.
L'esprance de E g(X )jY ] est
E (E g(X )jY ]) = E g(X )] :
Si X et Y sont indpendants
E g(X )jY ] = E g(X )] :
Variables alatoires gaussiennes
Soit X une variable alatoire de dimension n, X est dite gaussienne de moyenne E X ] =
 2 R n et de matrice de covariance CovX ] = R 2 Rdd (symtrique, d nie positive) si la
transforme de Laplace de la loi de X est donne par :
Ee;i  X = exp (;i   +  R )  2 Rn :
Lorsque la matrice R est strictement d nie positive, alors R est une matrice rgulire et la
loi de X admet la densit :
 
pX (x) = (21)n=2 jR1j1=2 exp ; 21 (x ; ) R;1 (x ; ) :
On a les proprits suivantes
 Les composantes d'un vecteur alatoire gaussien sont des variables alatoires gaus
siennes. Mais un vecteur alatoire dont les composantes sont des variables alatoires
gaussiennes n'est pas ncessairement gaussien.
 Les combinaisons linaires de variables gaussiennes sont des variables gaussiennes. Si
X  N ( R) (de dimension n) et si  2 R pn et  2 R p alors
Y  N ( +  R ) :
 Si X et Y sont des variables gaussiennes indpendantes
X  N (X RX ) et Y  N (Y RY )
indpendantes, alors
X + Y  N (X + Y RX + RY ) :
Annexe B
Simulation sur ordinateurs
Sur (presque) tout systme informatique et avec (presque) tous les langages (Pascal,
Fortran, C) on peut gnrer une suite
U0 U1 : : : Uk : : :
de variables alatoires indpendantes et de loi uniforme sur 0 1] (plus exactement il s'agit
d'une suite de nombres pseudoalatoires gnrs suivant une loi uniforme sur 0 1] et de
manire indpendante).
A partir de ces nombres, on peut gnrer une suite variables alatoires gaussiennes
N ( 2)  l'aide de l'algorithme de BoxMuller : on pose
p
X2i;1 =  +  p;2 log(U2i;1) sin(2 U2i)
X2i =  +  ;2 log(U2i;1) cos(2 U2i ) :
En particulier si on veut gnrer un bruit blanc N (0 1), on pose
p
W2i;1 = p;2 log(U2i;1) sin(2 U2i)
W2i = ;2 log(U2i;1 ) cos(2 U2i) :
On peut ainsi gnrer la sortie d'un systme de la forme (1.1) ou de la forme (1.2) (1.3).

B.1 Filtre de Kalman Bucy


B.1.1 Simulation d'un bruit blanc gaussien
Utiliser la mthode de BoxMuller (cf. cours) pour gnrer un bruit blanc gaussien rel
N (0 1). Tracer le rsultat  l'aide de Gnuplot. Constater, toujours  l'aide de Gnuplot, que
ce bruit blanc reste(avec une grande probabilit) dans l'intervalle ;2 2]. Vri er que la
moyenne et la variance empirique sont proches de 0 et 1.
Crer donc une fonction BBG(seed), o seed est un entier (germe du gnrateur) (cf.
Algorithme B.1).
Function BBG(seed)
D claration
Entier seed
Logique seesaw vrai
Si seesaw faire
C1 2 RAND(seed)
C2
C2
p;2C log( RAND(seed) )
C  sin(C )
2
W1
C  cos(C )
2 1
W2 2 1
Rendre W1
seesaw not seesaw
Sortir
Sinon
Rendre W2
seesaw not seesaw
Sortir
Fin faire

Tab. B.1  G n rateur de bruit blanc gaussien N (0 1).


B.1.2 Simulation d'un systme linaire partiellement observ
Xk+1 = a Xk + c Wk X0  N (X 0 QX0 ) (B.1)
Yk = h Xk + Vk (B.2)
o fXk g, fYk g, fWk g et fVk g sont  valeurs dans R # a, c, h 2 R . On suppose que fWk g
(resp. fVk g) est un bruit blanc gaussien de covariance QW (resp. QV ) et que X0, fWk g et
fVk g sont mutuellement indpendants.
La simulation du systme (B.1) est donne par l'algorithme (B.2).
Fichiers
donnees chier d'entre
simulation chier de sortie
Lecture des donn es
Lire
X 0 , QX W V
0 , a, c, h, K , Q , Q , seed
dans le chier donnees
Initialisation
q
X X 0 + QX0  BBG(seed2)
W 
cp
p
Q W
V QW
Y h X + V  BBG(seed)
Enregistrer 0 X Y dans le chier simulation
It ration
Pour k = 1  K faire
X a X + W BBG(seed)
Y h X + V BBG(seed)
Enregistrer k X Y dans le chier simulation
Fin faire

Tab.B.2  Simulation du systme (B.1).


Le processus f(Xk Yk )g est un processus gaussien, Xk  N (X k QXk ), Yk  N (Y k QYk )
avec
X k+1 = a X k
QXk+1 = a2 QXk + c2 QWk
Y k = h X k
QYk = h2 QXk + QVk
et X 0 = EX0 et QX0 = Var(X0).
B.1.3 Filtre de Kalman Bucy
La loi conditionnelle - de Xk sachant Y0    Yk est gaussienne N (X^k Rk ). L'esprance
et la variance conditionnelles sont les sorties du ltre de Kalman bucy :
X^k; = a X^k;1
Rk; = a2 Rk;1; + c2 QW 
Kk = Rk; h= h2 Rk; + QV


X^k = X^k; + Kk Yk ; h X^k;
Rk = (1 ; Kk h) Rk;
avec l'initialisation X^0; = X 0 = E X0] R0; = QX0 = VarX0 ].
Fichiers
donnees chier d'entre
simulation chier d'entre
filtre chier de sortie
Lecture des donn es
Lire
X 0 , QX W V
0 , a, c, h, K , Q , Q , seed
dans le chier donnees

Initialisation
Lire k X Y dans
; le chiersimulation
K QX 2 X
0 h= h Q0 + Q
V
X^ X0 + K (Y h X^ ; ) ;
R ;
(1 K h) R;
^ R dans le chier
Enregistrer k X filtre

It ration
Tant que Lire k X Y dans le chier simulation faire
X^ ; aX
R; a2 R +;c2 QW 
K R; h= h2 R; + QV
X^ ;
X^ ; + K (Y h X^ ; )
R ;
(1 K h) R;
^ R dans le chier
Enregistrer k X filtre
Fin faire

Tab. B.3  Filtre de KalmanBucy associ au systme (B.1), version 1.


On considre l'innovation k = Yk ; h X^k;, il s'agit d'un bruit blanc gaussien de variance
h2 Rk; + QV , ainsi le processus
q ;
4
^
 k = (Yk ; h Xk ) = h2 Rk + QV
;
est un bruit blanc gaussien N (0 1).
Fichiers
donnees chier d'entre
simulation chier d'entre
filtre chier de sortie
Lecture des donn es
Lire
X 0 , QX W V
0 , a, c, h, K , Q , Q , seed
dans le chier donnees
Initialisation
Lire k X Y dans
; le chiersimulation
K QX 2 X
0 h= h Q0 + Q
V
X^ X 0 + K (Y h X^ ; ) ;
R (1 K h) R;;
^ R dans le chier
Enregistrer k X filtre

It ration
Tant que lire k X Y dans le chier simulation faire
X^ ; aX
R; a2 R + c2 QW
Q
h2 R; + QV
p
P 1= Q

 ;
P (Y h X^ ; )
K P 2 R; h
X^ X^ ; + P R; h 
R P 2 QV R;
^ R  dans le chier
Enregistrer k X filtre
Fin faire

Tab. B.4  Filtre de KalmanBucy associ au systme (B.1) version 2.


B.2 Filtre de Kalman tendu en dimension 1
On considre un systme non linaire
Xk+1 = a Xk + Wk (B.3)
Yk = h(Xk ) + Vk : (B.4)
fXk g, fYk g, fWk g, fVk g sont  valeurs dans R, fWk g et fVk g sont des bruits blancs gaus
siens (de covariances respectives QW et QV ) indpendants entre eux et indpendants de la
condition initiale X0 de (B.3). On considre l'exemple


h(x) =4  Arctg x
o  > 0 est donn. On d nit les fonctions FUNC(x) et DFUNC(x) comme h(x) te h0(x) (on
pourra en faire des routines  part o intgrer les fonction dans les programmes.
La simulation du systme non linaire (B.3,B.4) est donne par l'Algorithme B.5, le ltre
de Kalman tendu par l'Algorithme B.6.
Fichiers
donnees chier d'entre
simulation chier de sortie
Lecture des donn es
Lire
X 0 , QX W V
0 , a, K , Q , Q , seed
dans le chier donnees
Initialisation
q
X X 0 +
p
QX
0  BBG(seed2)
W pQ
W
V QW
Y FUNC(X ) + V  BBG(seed)
Enregistrer 0 X Y dans le chier simulation
It ration
Pour k = 1  K faire
X 
a X + W BBG(seed)
Y FUNC(X ) +  V 
BBG(seed)
Enregistrer k X Y dans le chier simulation
Fin faire

Tab. B.5  Simulation du systme non lin aire (B.3,B.4).


Fichiers
donnees chier d'entre
simulation chier d'entre
filtre chier de sortie
Lecture des donn es
Lire
X 0 , QX W V
0 , a, c, h, K , Q , Q , seed
dans le chier donnees
Initialisation
Lire k X Y dans
; le chiersimulation
K QX 2 X
0 h= h Q0 + Q
V
X^ X 0 + K (Y h X^ ; ) ;
R (1 K h) R;;
^ R dans le chier
Enregistrer k X filtre

It ration
Tant que lire k X Y dans le chier simulation faire
X^ ; a X^
R; a2 Rk;1 + QW
H DFUNC(X ^ ;)
K R H = (H 2 R; + QV )
;

X^ ;
X^ ; + K (Y FUNC(X^ ; ))
R ;
(1 K H ) R;
^ R  dans le chier
Enregistrer k X filtre
Fin faire

Tab. B.6  Filtre de Kalman tendu en dimension 1 associ au systme (B.3,B.4).


B.3 Application
la localisation
Un b"timent B appel bruiteur cherche  dterminer la position d'un second b"timent
P appel porteur,  l'aide de mesures d'angle seulement. On suppose que le porteur est
immobile.

Porteur Bruiteur Relatif

xP position en Ox xB position en Ox r distance Porteur Bruiteur


yP position en Oy yB position en Oy rx coordonne relative en Ox
cP cap ry coordonne relative en Oy
vP vitesse azimut
vxP vitesse en Ox vx vitesse relative en Ox
vyP vitesse en Oy vy vitesse relative en Oy

o, par d nition,


rx(t) =
4
xB ; xP (t)
ry (t) =
4
yqB ; yP (t)
r(t) =
4
rx2 (t) + ry2(t)
vx =
4
;vxP
vy =
4
;vyP :
Dans ce problme, si on suppose que le porteur suit un mouvement rectiligne uniforme,
alors les quantits suivantes sont constantes : cP , vP , vxP , vyP , xB , yB , vx , vy .
A l'instant tk on mesure
 r (t ) 
Yk = Arctg rx(tk ) + Vk (B.5)
y k
o Vk est un bruit blanc gaussien de variance gale  2 , et t0 < t1 <    < tk    dsigne la
suite des instants d'observation. On suppose que :
tk = k  k = 0 2 ::: :
On se xe galement Tmax , la dure totale de la simulation.
Dans les coordonnes cartsiennes (relatives), le vecteur d'tat est
 X (t)  4  r (t) 
X (t) = 1
= x : (B.6)
X2(t) ry (t)
 $crire le systme quation d'tat/quation d'observation.
 $crire le ltre de Kalman tendu associ.
 Raliser plusieurs simulations (plusieurs scnarios).
Il est facile de vri er que l'quation d'tat est
 vP 
_X (t) = G =
4
; vxP (B.7)
y
qui est constant, d'o
X (tk+1) = X (tk ) +   G :
L'quation d'observation s'crit
Yk = h(X (tk )) + Vk
o h(X ) = Arctg(X1=X2).
On note Xk = X (tk ), on obtient donc le systme non linaire
Xk+1 = Xk +   G (B.8)
Yk = h(Xk ) + Vk : (B.9)
Le ltre de Kalman tendu
Le problme de ltrage est dcrit par l'quation d'tat (B.8) et par l'quation d'obse-
vation (B.9). L'quation d'tat est linaire et dterministe, et l'quation d'observation est
bruite et non linaire.
PHASE DE PREDICTION  X^ ; = X^k;1 +   G
k
Rk; = Rk;1 : (B.10)
PHASE D'ACTUALISATION
8K
< k = Rk; Hk = (Hk Rk; Hk + 2 )
: XR^kk = X^k; + Kk Yk ; h(X^k;)]
= I ; Kk Hk ] Rk;
(B.11)

o
Hk =4 rh(X^k;) :
INITIALISATION
d sin(Y0)
  d20

X^0; =4 0
d0 cos(Y0) R =
; 4
0
0
0 d20 : (B.12)
o
d0 : distance initiale suppose ,
Y0 : premire observation de l'azimut .
Structure de chiers
donnees contenant Tmax , , , xP (0), yP (0), cP , vP , xB , yB .
mesure contenant (tk Ytk   (tk )) pour tout k.
porteur contenant (tk xP (tk ) yP (tk ) vP vP ) pour tout k.
bruiteur contenant (tk xB yB ) pour tout k.
Bibliographie
&1] B.D.O. ANDERSON and J.B. MOORE. Optimal Filtering. PrenticeHall, Englewood
Clis, NJ, 1979.
&2] A. GELB, editor. Applied Optimal Estimation, volume 64 of Mathematics in Science and
Engineering. MIT Press, Cambridge, 1974.
&3] G.C. GOODWIN and R.L. PAYNE. Dynamic System Identication, volume 136 of Ma
thematics in Science and Engineering. Academic Press, New York, 1977.
&4] A.H. JAZWINSKI. Stochastic Processes and Filtering Theory, volume 64 of Mathematics
in Science and Engineering. Academic Press, New York, 1970.
&5] R.E. KALMAN and R.S. BUCY. New results in linear ltering and prediction theory.
Transactions of the ASME, Series D. Journal of Basic Engineering, 83:95108, 1961.
&6] P.S. MAYBECK. Stochastic Models, Estimation, and Control. Volume 1, volume 1411
of Mathematics in Science and Engineering. Academic Press, New York, 1979.
&7] P.S. MAYBECK. Stochastic Models, Estimation, and Control. Volume 2, volume 1412
of Mathematics in Science and Engineering. Academic Press, New York, 1979.
&8] P.S. MAYBECK. Stochastic Models, Estimation, and Control. Volume 3, volume 1413
of Mathematics in Science and Engineering. Academic Press, New York, 1982.
Index
approche
baysienne, 18
non baysienne, 18
azimut, 25
bruit blanc, 1
gaussien, 1
simulation, 38
estimateur, 7
baysien, 18
bias d'un, 9
du maximum de vraisemblance, 19
du minimum de variance, 7
ltre
de Kalman, 9
tendu, 14
linairis, 13
fonction
de vraisemblance, 19
problme
de localisation, 29
de rgression, 19
de trajectographie passive, 23
en coordonnes cartsiennes, 25
en coordonnes polaires modi es, 27
processus
alatoires, 1
alatoires gaussiens, 1
alatoires indpendants, 1
innovation, 11
pseudoinnovation, 15
systme
linaire conditionnellement gaussien, 4
linaire gaussien, 2
sans bruit de dynamique, 17
Ce cours a t labor d'abord dans le cadre du dess Informatique
et Sciences de l'Ingnieur (option ttns) de l'essi (Universit de Nice
SophiaAntipolis), puis dans celui du dess d'Ingnierie Mathmatique
(Universits AixMarseille I & II). Il a t rdig en collaboration avec
Fran(ois LeGland.
L'accent a t mis sur les applications du ltrage de Kalman, no
tamment au travers d'applications  la trajectographie passive. Les
prrequis probabilistes sont rduits  leur plus simple expression.
Les lois de probabilits sont supposes possder une densit. Un mini
mum de rappels de probabilits est propos en annexe.

Fabien Campillo
Inria (Sophia Antipolis) & latp (umr cnrs 6632)
cmi 39 rue F. Joliot Curie 13435 Marseille Cedex 13
http://www.inria.fr/mefisto/personnel/campillo/

Vous aimerez peut-être aussi