Fabien Campillo
i
ii
Chapitre 1
Syst mes linaires en temps discret
1.1 Processus alatoires
Un processus al atoire en temps discret est une famille fXk k 2 N g de vecteurs alatoires
(note fXk g) d
nies sur un espace probabilis ( F P ) valeurs dans R n . Un processus
al atoire gaussien est un processus alatoire fXk g tel que pour tout N et tout i1 : : : iN 2 N
0 1
B@ X...i1 CA
XiN
est un vecteur alatoire gaussien (de dimension n N ).
Deux processus alatoires fXk g et fYk g sont ind pendants si pour tout N et M et
i1 : : : iN j1 : : : jM 2 N , les vecteurs alatoires
0 1 0 1
B@ X...i1 CA et B@ Y...j1 CA
XiN YjN
sont indpendants.
Un bruit blanc est un processus alatoire fXk g tel que
E Xk ] = 0 E Xk Xl ] = 0 si k 6= l :
fXk g est appel bruit blanc gaussien lorsque qu'il s'agit d'un processus gaussien et d'un bruit
blanc.
Proposition 1.2.1 fXk g la sortie du systme (1.1) est un processus gaussien valeurs dans
R n , Xk N (X k QX
k ) avec
X k+1 = Ak X k + Bk X 0 = EX0
QXk+1 = Ak QXk Ak + Ck QWk Ck QX0 = Cov(X0) :
Preuve Comme sortie d'un systme linaire entres gaussiennes, fXk g est un proces
sus gaussien. En eet : pour tout N et i1 : : : iN 0, il existe M tel que fi1 : : : iN g
f0 1 : : : M g et on vri
e aisment qu'il existe une matrice A 2 R M M et B 2 R M tels que
0 1 0 1
X1 X0
BB X2 CC BB W1 CC
B@ ... CA = A B@ ... CA + B
XM WM ;1
D'aprs les hypothses (X0 W1 : : : WM ;1) est un vecteur gaussien, donc (X1 X2 XM )
est un vecteur alatoire gaussien (comme transformation ane d'un vecteur alatoire gaus-
sien).
Par ailleurs, d'aprs (1.1)
X k+1 = E Xk+1]
= E Ak Xk + Bk + Ck Wk ]
= Ak E Xk ] + Bk + Ck E Wk ]
= Ak X k + Bk
QXk+1 = E (Xk+1 ; X k+1)(Xk+1 ; X k+1)
= E (Ak (Xk ; X k ) + Ck Wk ) (Ak (Xk ; X k) + Ck Wk )
= Ak E (Xk ; X k )(Xk ;X k ) Ak + Ck E Wk (Xk ; X k ) Ak
+Ak E (Xk ; X k ) Wk Ck + Ck E Wk Wk ] Ck
= Ak QXk Ak + Ck QWk Ck :
Dans cette dernire galit on a utilis le fait que Xk ; X k est indpendant de Wk donc
E (Xk ; X k ) Wk ] = 0. 2
Bk Vk
+
+- ? Xk+1- retard
?+ -
Wk - Ck
+6
Xk- H
k
+-
Y k
Ak
Xk+1 = Ak Xk + Bk + Ck Wk (1.2)
Yk = Hk Xk + Vk (1.3)
o fXk g, fYk g, fWk g et fVk g sont respectivement valeurs dans n, d, l et p. On fait les
hypothses du paragraphe 1.2 et de plus Hh 2 R dn (cf. Figure 1.1). On suppose que
fWk g (resp. fVk g) est un bruit blanc gaussien de covariance QWk (resp. QVk ),
X0 N (X 0 QX0 ),
X0, fWk g et fVk g sont mutuellement indpendants.
Dans (1.2,1.3), Xk reprsente l'tat d'un systme l'instant k. On suppose que l'on ne
peut pas observer directement ce systme, mais que l'on dispose d'une observation Yk qui
est la somme d'un signal Hk Xk et d'un bruit d'observation Vk .
D'aprs le rsultat 1.2.1, f(Xk Yk )g est un processus gaussien, Xk N (X k QXk ), Yk
N (Y k QYk ) avec
X k+1 = Ak X k + Bk
QXk+1 = Ak QXk Ak + Ck QWk Ck
Y k = Hk X k
QYk = Hk QXk Hk + QVk
et X 0 = EX0 et QX0 = Cov(X0).
Coe cients dpendants de l'observation
Dans le systme (1.2,1.3) les coecients Ak , Bk , Ck et Hk peuvent dpendre de l'obser
vation Yk de la manire suivante
Xk+1 = Ak (Y ) Xk + Bk (Y ) + Ck (Y ) Wk (1.4)
Yk = Hk (Y ) Xk + Vk (1.5)
o Ak (Y ), Bk (Y ), Ck (Y ), Hk (Y ) sont des fonctions de Y0 Y1 : : : Yk;1 valeurs dans R nn ,
R n , R nl , R dn respectivement ( l'instant k les coecients ne dpendent de l'observation
que jusqu' l'instant k ; 1). Les covariances QWk , QVk des bruits fWk g, fVk g peuvent dpendre
de la mme manire de l'observation.
Dans ce cas le processus f(Xk Yk )g (a fortiori fXk g) n'est plus gaussien, mais le processus
fXk g est conditionnellement gaussien par rapport l'observation Yk;1 = fY0 : : : Yk;1g (i.e.
pour des valeurs de l'observation donnes, la sortie du systme (1.4) est gaussienne).
Exemple 1.3.1 Identication de paramtres dans un modle ARMA. On considre un
modle ARMA scalaire
Yk + a1 Yk;1 + + an Yk;n = an+1 uk;1 + + an+m uk;m : (1.6)
Dans ce systme uk d signe l'entr e d terministe (contr
le) et Yk la sortie (observ e). Le but
est d'estimer les coecients (a1 : : : an+m), cela revient donc identi
er le modle (1.6).
Si (1.6) est pris comme modle exact et si les ai sont suppos s constants, le problme
d'estimation est alors trivial (il sut de r soudre un systme lin aire). Mais, dans la plupart
des cas, le modle lin aire (1.6) est trop simple. Il est donc plus r aliste de supposer que les
coecient ai sont soumis des
uctuations al atoires et que l'observation donn e par (1.6)
est bruit e. Cela revient prendre
aik+1 = aik + Wki i = 1 : : : n + m (1.7)
et
Yk + a1k Yk;1 + + ank Yk;n = ank +1 uk;1 + + ank +m uk;m + Vk : (1.8)
o fWk1g : : : fWkn+mg et fVk g sont des bruits blancs gaussiens mutuellement ind pendants.
On obtient donc un systme de la forme
Xk+1 = Xk + Wk
Yk = Hk Xk + Vk
o 0 1 1 0 1 1
ak Wk
Xk = @ . A Wk = @ ... C
B .
. C B A
akn +m
Wk n +m
et
Hk =4 ;Yk;1 ; Yk;2 ; Yk;n uk;1 uk;2 uk;m] :
On note que Hk d pend des observations pass es et du contr
le. 2
Chapitre 2
Filtrage linaire optimal et extensions
Le problme de
ltrage (en temps discret) se prsente en gnral de la manire suivante :
on considre fXk g, un processus (qui possde certaines caractristiques donnes) reprsentant
l'tat d'un systme non observ. A l'instant k, on a accs une observation Yk qui est forme
d'un signal (i.e. une fonction h(Xk ) de l'tat Xk ) et d'un bruit additif Vk :
Yk = h(Xk ) + Vk :
Le bruit de mesure fVk g doit aussi avoir certaines caractristiques. A l'instant k, on dispose
donc de l'information Yk = fY0 : : : Yk g le but est alors d'obtenir le plus d'information
possible sur l'tat du systme Xk (on veut, par exemple, pouvoir calculer un estimateur Xbk
de Xk ). Comme on le verra au paragraphe 2.1, la solution est de calculer la loi conditionnelle
de Xk sachant Yk .
Dans le cas des systmes dcrits dans le chapitre 1, on est dans un cadre gaussien et
l'volution de cette loi conditionnelle (dtermine par son esprance et sa covariance) est
rgie par un systme dynamique (le
ltre de Kalman) simple mettre en uvre (cf. para
graphe 2.2). Dans tous les autres cas (non linaires), l'volution de cette loi conditionnelle
est dtermine par un tout autre type de systmes souvent impossibles utiliser en pratique.
Mais les techniques dveloppes dans le cas linaire peuvent s'tendre au cas non linaire
par des mthodes de linarisation (cf. paragraphe 2.3). Les
ltres ainsi obtenus sont souvent
utilisables en pratique mais conduisent parfois de mauvais rsultats.
= ;
exp ; 12 (y ; Y ) Q;1 :
Y Y (y ; Y )
1 1
(2)d=2 jQ j
Y Y 1=2
+(y ; Y ) Q;1
Y Y (y ; Y )
o
X =4 X + QXY Q;1
Y Y (y ; Y ) :
Donc
pX jY =y (x) = (21)n=2 jR1j1=2 exp ; 21 (x ; X ) R (x ; X )
avec
R =4 QXX ; QXY Q;1
Y Y QY X
ce qui montre le rsultat. 2
Estimateur Soient X et Y deux variables alatoires. Un estimateur de X obtenu a partir
de l'observation de Y = y est une fonction Xb (y) de y :
R d 3 y ! Xb (y ) 2 R n :
On note Xb = Xb (Y ). Pour une ralisation particulire de l'observation Y = y (y
x),
xb = Xb (y) est appele une estimation de X .
y - Estimateur - xb
observation Xb () estimation :
sortie de l'estimateur
+ x x pX jY =y (x) dx ; x pX jY =y (x) dx
Rn R n
E jX ; (y)j2jY = y] pY (y) dy
ZR d
E jX ; (Y )j2jY = y] pY (y) dy
E jX ; (Y )j2 :
R; d
2
Biais d'un estimateur Soient X et Y des vecteurs alatoires et () un estimateur de X
sachant Y . Le biais de est d
ni par
b (y) =4 E X ; (y)jY = y] :
On dit que est un estimateur sans biais si b (y) = 0 pour tout y. D'aprs la d
nition de
la moyenne conditionnelle Xb de X sachant Y , le rsultat suivant est immdiat
Proposition 2.1.4 La moyenne conditionnelle Xb de X sachant Y est un estimateur sans
biais.
Etude de la variance :
= 1 ; Rn 2 Rn = 2 Rn = RnRn :
2
Rn+1 Rn + Rn + 1 + 2
On peut donc obtenir une expression explicite pour la variance Rn :
Rn = ;0 ;0 :
1 + n 2
Convergence de la moyenne conditionnelle : L' quation de l'esp rance conditionnelle
s' crit :
;0
1+n 02
;
X^n+1 = X^n + Y ; X^n]
+ 2 n+1
;0
1+n 20
;
;0
= X^n + Y ; X^n] :
(n + 1) ;0 + 2 n+1
Ainsi, pour n grand : X^n+1 ' X^ n.
PHASE DE PR DICTION
Xbk; = fk;1(Xbk;1)
Rk; = Fk;1 Rk;1 Fk;1
o
Fk;1 =4 rfk;1(Xbk;1) :
PHASE D'ACTUALISATION
Xbk = Xbk; + Kk Yk ; hk (Xbk;)]
Rk = I ; Kk Hk ] Rk;
Kk = Rk; Hk Hk Rk; Hk + QVk ;1
o
Hk =4 rhk (Xbk;) :
3.2 Estimateur du maximum de vraisemblance
Dnition gnrale
Soit Y un vecteur alatoire de densit pY (y ) qui dpend d'un paramtre 2 R n inconnu.
L'estimateur du maximum de vraisemblance b de est d
ni par
b(y) 2 Arg max p (y ) :
2Rn Y
C'est dire, pour tout autre estimateur (y) de ,
pY (y (y))
pY (y b(y)) 8y 2 R d :
A y
x, l'application
! pY (y )
est appele fonction de vraisemblance.
Si Y N ( Q) o est inconnue et Q est connue, alors
pY (y ) = p 1 d exp ; 21 y ; ] Q;1 y ; ] :
(2) jQj
Maximiser pY (y ) revient donc a minimiser
y ; ] Q;1 y ; ] :
On trouve donc
b(y) = y :
o
X
k
Jk () =
4 1
2 yl ; ml ()] (QVl );1 yl ; ml ()] : (3.11)
l=0
avec ml () =
4
hl (
tl t0 ]), et l'estimateur du maximum de vraisemblance est
bkMV 2 Arg max L ( ) :
2Rn k
(3.15)
Remarque 3.2.1 A la di rence de l'approche bay sienne pr sent e plus haut, et condui
sant l'utilisation du ltre de Kalman tendu, le calcul de l'estimateur du maximum de
vraisemblance XbkMV n'est pas r cursif.
Un algorithme itratif
Le critre d'estimation (3.11) peut tre minimis l'aide de techniques d'optimisation
standard. La plupart de ces mthodes itratives sont fondes sur le gradient de la fonction
co!t
@J () " X k
@m ( )
#
rJk () = @ = ; yl ; ml ()] (QVl );1 @
k l
: (3.17)
i i l=0 i i
La matrice des drives secondes est
@2J ()
r Jk () = @ k@
2
i j ij
"X k
= @m l ()
(QVl );1 @ml ()
@i @j
l=0
X
k #
; yl ; ml ()] (QVl );1 @ 2 ml () : (3.18)
l=0 @i @j ij
Il n'est pas toujours judicieux d'utiliser (3.18) pour calculer la matrice des drives se
condes, en eet cela augmente la masse de calcul. En pratique il est donc conseill d'utiliser
la matrice des drives secondes approche suivante
"X
k #
re 2Jk () = @ml () (QVl );1 @ml () : (3.19)
l=0 @i @j ij
Si le critre d'estimation Jk () est presque quadratique en , alors l'estimateur du maxi
mum de vraisemblance de peut tre approch en une seule tape par
h i;1
bk = k(0) ; re 2Jk (k(0) ) rJk (k(0) )
o k(0) est une valeur initiale. Si cette valeur initiale est loin de la vraie valeur et si le critre
Jk () n'est pas quadratique, il est ncessaire s'utiliser un algorithme itratif
(i) initialisation : k(0) et p = 0
(ii) valuer r e 2Jk et rJk au point k(p), et la direction de descente
h i;1
d(kp) = re 2Jk (k(p) ) rJk (k(p))
(iii) on cherche s > 0 tel que
s 2 Arg min J (p) ; s d(kp)
s>0 k k
(iv) on pose
k(p+1) = k(p) ; s d(kp)
(v) si Jk (k(p+1) ) ; Jk (k(p)) est susamment petit on s'arrte, sinon on pose
p = p + 1 et on retourne l'tape (ii).
Chapitre 4
Application la trajectographie passive
4.1 Le problme
Un b"timent B appel bruiteur cherche dterminer la position d'un second b"timent
P appel porteur, l'aide de mesures d'angle seulement. La situation est dcrite par la
gure 4.1.
mouvement
rectiligne
uniforme
β
ry
observation
β + bruit
Porteur
rx
t t0 Z ] = B ( S S + S S ) = ( S 2
+ S4) C
@ Z3 + Arctg (S3=S4) A
1 3 2 4 3
p
Z = S2 + S2
4 3 4
et
S1 =
4
Z1 ; Z4 B1(t t0 ) cos Z3 ; B2(t t0 ) sin Z3]
S2 =
4
Z2 ; Z4 B1(t t0 ) sin Z3 + B2 (t t0) cos Z3]
S3 =
4
(t ; t0) Z1 ; Z4 B3(t t0 ) cos Z3 ; B4(t t0 ) sin Z3]
S4 =
4
1 + (t ; t0) Z2 ; Z4 B3(t t0 ) sin Z3 + B4 (t t0) cos Z3]
B (t t0 ) = B1 B2 B3 B4 ] est d
ni par (4.7). L'quation d'observation s'crit
Yk = H Z (tk ) + Vk (4.17)
o H =
4
0 0 1 0]. Dans la suite on notera
Zk =4 Z (tk )
fk (Z ) =4
tk+1 tk Z ] :
Le systme non linaire en temps discret correspondant est
Zk+1 = fk (Zk ) ; Bk (4.18)
Yk = H Zk + Vk : (4.19)
Le ltre de Kalman tendu
Le problme de
ltrage est d
ni par l'quation d'tat (4.18) et par l'quation d'obser-
vation (4.19). Dans ce cas l'quation d'tat est non linaire et dterministe, et l'quation
d'observation est bruite et linaire.
PHASE DE PR DICTION
8 b;
< Zk = fk;1(Zbk;1)
: R; (4.20)
k = Fk;1 Rk;1 Fk;1
o
Fk;1 =4 rfk;1(Zbk;1) :
PHASE D'ACTUALISATION
8 b h i
>
> Zk = Zbk; + Kk Yk ; H Zbk;
>
<
> Rk = I ; Kk H ] Rk; (4.21)
>
> ;1 :
: Kk = Rk; H H Rk; H + 2
INITIALISATION
00 1 0p 0 0 0
1
B0
Zb0; =4 B
CC B0 p 0
R0; =4 B
0 CC (4.22)
@Y 0 A @0 0 p 0 A
1
d0 p 0 0 1
d20
o
d0 : distance initiale suppose ,
Y0 : premire observation de l'azimut ,
p : paramtre choisir par simulation .
h i
X^k = X^k; + Kk Yk ; h(X^k;)
Rk = I ; Kk Hk ] Rk;
Kk = Rk; Hk Hk Rk; Hk + 2 ;1
o
Hk =4 rh(X^k;) :
Cas de deux porteurs : On suppose maintenant qu'il existe deux porteurs P1 et P2.
A l'instant tk on mesure donc :
(t ) V 1
Yk = 1 k + k2
2 (tk ) Vk (4.24)
o Vk1 et Vk2 sont deux bruits blancs gaussiens de variance 2 , et t0 < t1 < < tk
dsigne la suite des instants d'observation.
On note (pour i = 1 2) :
Porteur Pi Bruiteur
Espace de probabilits
Un triplet ( F P ) est appel espace de probabilit s si
est un ensemble de ralisations,
F est une tribu sur , c'estdire F est un ensemble de parties de tel que
A 2 F ) Ac 2 F ,
Ai 2 F i 2 N ) i2N Ai 2 F ,
2 F.
P est une mesure de probabilit (ou une probabilit ) sur ( F ), c'estdire P : F ! R
est tel que
P (A) 0, 8A 2 F ,
P () = 1,
Ai 2 F i 2 N , tel que Ai \ Aj = si i 6= j alors
X
P (i2N Ai ) = P (Ai) :
i2N
Formule de Bayes
Variables alatoires
Cas scalaire
Une variable al atoire r elle X est une application
X:!R
telle que
8B 2 B : f! 2 X (!) 2 B g 2 F
o B est la tribu borlienne sur R , on dit que X est une application mesurable de ( F )
dans (R B). On note
fX 2 B g =4 f! 2 X (!) 2 B g
et
P (X 2 B ) =4 P (fX 2 B g) :
Soit X une variable alatoire relle, sa fonction de r partition est d
nie par
FX (x) =4 P (X
x) x2R :
La fonction de rpartition est croissante, monotone avec FX (x) ! 0 quand x ! ;1 et
FX (x) ! 1 quand x ! +1 et elle est continue droite.
Dans beaucoup de cas FX (x) est direntiable par rapport x, dans ce cas la densit de
la variable alatoire X est d
nie par
pX (x) =4 dFdx
X (x)
:
Dans ce cas Z
P (X 2 B ) = pX (x) dx :
B
Soit X une variable alatoire relle et B un vnement, la fonction de r partition condi
tionnelle de X sachant B est d
nie par
FX jB (x) =4 P (X
xjB ) = P (fXP
(Bx)g \ B ) :
Cas vectoriel
Un vecteur al atoire est une application
0 1
X1
X = @ ... C
B A : ! Rn
Xn
mesurable de ( F ) dans (R n Bn). On d
nit la fonction de rpartition et la densit de X
par
FX (x) =4 P (fX1
x1 g \ \ fXn
xng) x = (x1 : : : xn)
pX (x) =4 @x @ @x FX (x) :
n
1 n
Soit 1
p < n, la densit (marginale) de (X1 : : : Xp) est obtenue par intgration
Z Z
pX1 ::: Xp (x1 : : : xp) = pX (x) dxp+1 dxn :
R R
Les vecteurs alatoires sont aussi appels des variables alatoires.
Ind pendance
Deux variables alatoires X et Y sont indpendante si les vnements fX
xg et fY
yg
sont indpendants, ce qui est quivalent
FX Y (x y) = FX (x) FY (y)
PX Y (x y) = PX (x) PY (y)
pX jY =y (x) = pX (x) :
Esprance
L'esp rance (ou la moyenne) de la variable alatoire X , note E (X ), est d
nie par
Z
E (X ) = 4
x pX (x) dx :
Rn
Si Y = g(X ) est une fonction de la variable alatoire X , Y a pour esprance
Z
E (g(X )) = 4
g(x) pX (x) dx :
Rn
La matrice de covariance (en dimension 1 on parlera de variance) est d
nie par
Cov(X ) =4
E (X ; E (X )) (X ; E (X )) ] :
Il s'agit d'une matrice symtrique et d
nie positive.
L'oprateur d'esprance est linaire : soit 2 R et X Y deux vecteurs alatoires de
dimension n,
E ( X + Y ) = E (X ) + E (Y ) :
Soit X1 : : : Xp des variables alatoires mutuellement indpendantes,
E (X1 Xp) = E (X1 ) E (Xp)
si de plus elles sont centres
2 p !23 p
X 5 X 2
E4 Xi = E (Xi ) :
i=1 i=1
Esprance conditionnelle
Soit X une variable alatoire et B un vnement, l'esp rance conditionnelle de g(X )
sachant B est d
nie par
Z
E g(X )jB ] =
4
g(x) pX jB (x) dx :
Rn
Soit Y une autre variable alatoire, par analogie avec les probabilits conditionnelle, on
d
nit Z
E g(X )jY = y] = g(x) pX jY =y (x) dx :
4
Rn
Cette dernire quantit est une fonction (y) de y. L'esprance conditionnelle de g(X ) sa
chant Y est la variable alatoire (Y ), note E g(X )jY ], c'est une fonction de Y . L'esprance
conditionnelle est un oprateur linaire.
L'esprance de E g(X )jY ] est
E (E g(X )jY ]) = E g(X )] :
Si X et Y sont indpendants
E g(X )jY ] = E g(X )] :
Variables alatoires gaussiennes
Soit X une variable alatoire de dimension n, X est dite gaussienne de moyenne E X ] =
2 R n et de matrice de covariance CovX ] = R 2 Rdd (symtrique, d
nie positive) si la
transforme de Laplace de la loi de X est donne par :
Ee;i X = exp (;i + R ) 2 Rn :
Lorsque la matrice R est strictement d
nie positive, alors R est une matrice rgulire et la
loi de X admet la densit :
pX (x) = (21)n=2 jR1j1=2 exp ; 21 (x ; ) R;1 (x ; ) :
On a les proprits suivantes
Les composantes d'un vecteur alatoire gaussien sont des variables alatoires gaus
siennes. Mais un vecteur alatoire dont les composantes sont des variables alatoires
gaussiennes n'est pas ncessairement gaussien.
Les combinaisons linaires de variables gaussiennes sont des variables gaussiennes. Si
X N ( R) (de dimension n) et si 2 R pn et 2 R p alors
Y N ( + R ) :
Si X et Y sont des variables gaussiennes indpendantes
X N (X RX ) et Y N (Y RY )
indpendantes, alors
X + Y N (X + Y RX + RY ) :
Annexe B
Simulation sur ordinateurs
Sur (presque) tout systme informatique et avec (presque) tous les langages (Pascal,
Fortran, C) on peut gnrer une suite
U0 U1 : : : Uk : : :
de variables alatoires indpendantes et de loi uniforme sur 0 1] (plus exactement il s'agit
d'une suite de nombres pseudoalatoires gnrs suivant une loi uniforme sur 0 1] et de
manire indpendante).
A partir de ces nombres, on peut gnrer une suite variables alatoires gaussiennes
N ( 2) l'aide de l'algorithme de BoxMuller : on pose
p
X2i;1 = + p;2 log(U2i;1) sin(2 U2i)
X2i = + ;2 log(U2i;1) cos(2 U2i ) :
En particulier si on veut gnrer un bruit blanc N (0 1), on pose
p
W2i;1 = p;2 log(U2i;1) sin(2 U2i)
W2i = ;2 log(U2i;1 ) cos(2 U2i) :
On peut ainsi gnrer la sortie d'un systme de la forme (1.1) ou de la forme (1.2) (1.3).
Initialisation
Lire k X Y dans
; le chiersimulation
K QX 2 X
0 h= h Q0 + Q
V
X^ X0 + K (Y h X^ ; ) ;
R ;
(1 K h) R;
^ R dans le chier
Enregistrer k X filtre
It ration
Tant que Lire k X Y dans le chier simulation faire
X^ ; aX
R; a2 R +;c2 QW
K R; h= h2 R; + QV
X^ ;
X^ ; + K (Y h X^ ; )
R ;
(1 K h) R;
^ R dans le chier
Enregistrer k X filtre
Fin faire
It ration
Tant que lire k X Y dans le chier simulation faire
X^ ; aX
R; a2 R + c2 QW
Q
h2 R; + QV
p
P 1= Q
;
P (Y h X^ ; )
K P 2 R; h
X^ X^ ; + P R; h
R P 2 QV R;
^ R dans le chier
Enregistrer k X filtre
Fin faire
It ration
Tant que lire k X Y dans le chier simulation faire
X^ ; a X^
R; a2 Rk;1 + QW
H DFUNC(X ^ ;)
K R H = (H 2 R; + QV )
;
X^ ;
X^ ; + K (Y FUNC(X^ ; ))
R ;
(1 K H ) R;
^ R dans le chier
Enregistrer k X filtre
Fin faire
o
Hk =4 rh(X^k;) :
INITIALISATION
d sin(Y0)
d20
X^0; =4 0
d0 cos(Y0) R =
; 4
0
0
0 d20 : (B.12)
o
d0 : distance initiale suppose ,
Y0 : premire observation de l'azimut .
Structure de chiers
donnees contenant Tmax , , , xP (0), yP (0), cP , vP , xB , yB .
mesure contenant (tk Ytk (tk )) pour tout k.
porteur contenant (tk xP (tk ) yP (tk ) vP vP ) pour tout k.
bruiteur contenant (tk xB yB ) pour tout k.
Bibliographie
&1] B.D.O. ANDERSON and J.B. MOORE. Optimal Filtering. PrenticeHall, Englewood
Clis, NJ, 1979.
&2] A. GELB, editor. Applied Optimal Estimation, volume 64 of Mathematics in Science and
Engineering. MIT Press, Cambridge, 1974.
&3] G.C. GOODWIN and R.L. PAYNE. Dynamic System Identication, volume 136 of Ma
thematics in Science and Engineering. Academic Press, New York, 1977.
&4] A.H. JAZWINSKI. Stochastic Processes and Filtering Theory, volume 64 of Mathematics
in Science and Engineering. Academic Press, New York, 1970.
&5] R.E. KALMAN and R.S. BUCY. New results in linear
ltering and prediction theory.
Transactions of the ASME, Series D. Journal of Basic Engineering, 83:95108, 1961.
&6] P.S. MAYBECK. Stochastic Models, Estimation, and Control. Volume 1, volume 1411
of Mathematics in Science and Engineering. Academic Press, New York, 1979.
&7] P.S. MAYBECK. Stochastic Models, Estimation, and Control. Volume 2, volume 1412
of Mathematics in Science and Engineering. Academic Press, New York, 1979.
&8] P.S. MAYBECK. Stochastic Models, Estimation, and Control. Volume 3, volume 1413
of Mathematics in Science and Engineering. Academic Press, New York, 1982.
Index
approche
baysienne, 18
non baysienne, 18
azimut, 25
bruit blanc, 1
gaussien, 1
simulation, 38
estimateur, 7
baysien, 18
bias d'un, 9
du maximum de vraisemblance, 19
du minimum de variance, 7
ltre
de Kalman, 9
tendu, 14
linairis, 13
fonction
de vraisemblance, 19
problme
de localisation, 29
de rgression, 19
de trajectographie passive, 23
en coordonnes cartsiennes, 25
en coordonnes polaires modi
es, 27
processus
alatoires, 1
alatoires gaussiens, 1
alatoires indpendants, 1
innovation, 11
pseudoinnovation, 15
systme
linaire conditionnellement gaussien, 4
linaire gaussien, 2
sans bruit de dynamique, 17
Ce cours a t labor d'abord dans le cadre du dess Informatique
et Sciences de l'Ingnieur (option ttns) de l'essi (Universit de Nice
SophiaAntipolis), puis dans celui du dess d'Ingnierie Mathmatique
(Universits AixMarseille I & II). Il a t rdig en collaboration avec
Fran(ois LeGland.
L'accent a t mis sur les applications du
ltrage de Kalman, no
tamment au travers d'applications la trajectographie passive. Les
prrequis probabilistes sont rduits leur plus simple expression.
Les lois de probabilits sont supposes possder une densit. Un mini
mum de rappels de probabilits est propos en annexe.
Fabien Campillo
Inria (Sophia Antipolis) & latp (umr cnrs 6632)
cmi 39 rue F. JoliotCurie 13435 Marseille Cedex 13
http://www.inria.fr/mefisto/personnel/campillo/