Vous êtes sur la page 1sur 6

Filtrage stochastique non linéaire par la théorie

de représentation des martingales


Adriana Climescu-Haulica
Laboratoire de Modélisation et Calcul
Institut d’Informatique et Mathématiques Appliquées de Grenoble
51, rue des Mathématiques, 38041-Grenoble cedex 9 France
email: adriana.climescu@imag.fr

Résumé

A partir de l’étude d’une équation de filtrage associée à un bruit modélisé par une infinité des
mouvements browniens généralisés, on montre qu’une condition suffisante pour l’existence
d’une forme explicite de l’estimateur du signal au sens des moindres carrés est l’équivalence
des mesures induites par le signal observé et le bruit. On montre que l’estimateur admet une
représentation en fonction de la dérivée de Radon-Nikodym des deux mesures. En utilisant
un théorème de représentation des martingales et l’orthogonalité des polynômes de Hermite
par rapport à la mesure gaussienne, on construit son approximation en moyenne quadratique.
On obtient ainsi un algorithme d’extraction du signal par un filtre non linéaire.
Mots clés: filtrage stochastique, processus d’innovation, martingales, polynômes de Hermite

Abstract

Based on the study of a filtering equation associated with a noise modelled by an infinity
of generalized Brownian motions, it is shown that a sufficient condition for the existence of
an explicit form for the least mean square estimator of the signal is the equivalence of the
measures induced by the observation and the noise. It is shown that the estimator admits
a representation depending on the Radon-Nikodym derivative of the two measures. Its
approximation on quadratic mean is built by means of a martingales representation theorem
and the orthogonality of Hermite polynomials with respect to the Gaussian measure. Hence,
an algorithm of signal extraction by a non linear filter is done.
Keywords: stochastic filtering, innovation process, martingales, Hermite polynomials

1 Introduction
Un cas particulier de la théorie du filtrage non linéaire est celui où l’observation, le bruit et
le signal à estimer sont liés par une équation différentielle stochastique, soit
Z t
Z (ω, t) = ΣB (dx) S (ω, u) + B (ω, t) , t ∈ [0, 1]
0

1
B = (B1 , B2 , . . .) : Ω × [0, 1] → IR∞ est le processus stochastique modélisant le bruit,
dont les composantes sont des mouvements browniens généralisés indépendants. Chaque
Bn (·, t), t ∈ [0, 1], suit une loi normale N (0, βn (t)) , où βn est une fonction monotone non
décroissante et continue. βn désigne aussi la mesure induite sur [0, 1] par la fonction de même
sigle. ΣB = diag (β1 , β2 , . . .) représente la matrice de covariance de B.
L’observation est modélisée par le processus Z : Ω × [0, 1] → IR∞ , et le signal transmis
par le processus S : Ω × [0, 1] → IR∞ . B, Z et S sont des processus définis sur (Ω, A, P ),
un espace de probabilité qui a été enrichi d’une filtration notée A = {At ⊆ A, t ∈ [0, 1]} .
La particularité de l’approche est qu’on ne peut pas supposer, pour A, que les “conditions
habituelles ” sont satisfaites. 1
En généralisant un résultat classique de filtrage stochastique donné par Mémin (1974) pour
le mouvement brownien standard, on peut montrer que

E [S(·, t) | σt (Z)] = Ŝ(Z(·, ·), t) P p.s.

est l’estimateur de S(·, t) au sens des moindres carrés et qu’il satisfait une équation différentielle
stochastique qui n’est pas de type Itô,
Z t
Z (·, t) = ΣB (dx) Ŝ (Z(·, ·), u) + B Z (·, t) , P p.s. (1)
0

car Ŝ dépend du passé. Cette équation est appelée équation de filtrage, B Z (·, t) étant un
processus d’innovation. C’est l’existence d’un tel processus qui fait l’objet de l’étude de
l’équation de filtrage. Dans la section suivante on montre qu’une condition suffisante pour
qu’un tel processus existe est l’existence de la fonction de vraisemblance entre la mesure
induite par le signal reçu et celle induite par le bruit. A partir de ce résultat, on donne une
procédure de construction d’une approximation en moyenne quadratique pour Ŝ, en utilisant
le lien entre la mesure gaussienne et les polynômes de Hermite.

2 La fondation analytique
G désigne l’ensemble des trajectoires des processus B et Z qui est soit C[0, 1], le produit
d’une famille dénombrable de copies de C[0, 1], muni de la distance
n o
i i
∞ min 1, sup
X t∈[0,1] | c 1 (t) − c 2 (t) |
δ(c1 , c2 ) = ,
i=1 2i

soit C ([0, 1]; l2 ) , l’ensemble des fonctions continues c : [0, 1] → l2 muni de la distance
∆(c1 , c2 ) = supt∈[0,1] || c1 (t) − c2 (t)||l2 . G désigne l’ensemble des boréliens de G. Soit (H, H) ,
1
Les raisons sont analogues à celles invoquées par Von Weizsäker et G. Winkler (1990) car les résultats
à obtenir ici sont basés sur l’obtention de vraisemblances. De plus, sur les espaces de trajectoires, les tribus
“naturelles” ne sont pas, a priori, continues à droite.

2
l’espace mesurable associé, selon le cas, soit à H = IRIN , soit à H = l2 . On note dH la
distance naturelle de H.
ev t : G 7→ H est l’évaluation définie par ev t (g) = g (t) ∈ H. Si PX est nla loi sur G induite
o
X
par un processus X, on obtient, par rapport à cette loi, un processus ev t , t ∈ [0, 1] , à
partir de la relation , valable pour des boréliens Hi ∈ H, 1 ≤ i ≤ n
 
X
PX g ∈ G : ev ti (g) ∈ Hi , 1 ≤ i ≤ n = P (ω ∈ Ω : X (ω, ti ) ∈ Hi , 1 ≤ i ≤ n) .

Définition
 
Une solution faible de l’équation (1) est un couple P W , W tel que P W soit une probabilité
 
sur (G, G) , et W soit un mouvement brownien généralisé relativement à G, G, G, P W , de
variance ΣB , qui ait la propriété que, presque sûrement, relativement à P W ,
Z t
PW
ev (g, t) = ΣB (dx) f (g, x) + W (g, t) .
0

On définit
h i  X∞ Z 1 
L2 β = f = (f1 , f2 , . . .) : [0, 1] → IR∞ , n=1
fn2 (x)βn (dx) < ∞ .
0

PB
Soit NPB (G) la famille des ensembles de G qui sont négligeables relativement à PB . Gt
désigne alors la tribu engendrée par Gt et NPB (G) . On dispose alors du lemme suivant.

Lemme
La filtration G PB est continue à droite.

Démonstration: G est la filtration ”naturelle” du processus d’évaluation ev. Par rapport à


PB , ce processus est un mouvement brownien, et donc fortement markovien, d’après Von
Weizsäker et G. Winkler (1990). La continuité à droite de la filtration augmentée G PB est
une conséquence de la proprieté de Markov.2

Proposition

Soit Z un processus à trajectoires dans G, défini sur la base (Ω, A, A, P ) , tel que PZ et
PB soient
équivalentes. Il existe alors un processus progressivement mesurable Ŝ, défini sur
la base G, G PB , G PB , PZ , et un mouvement brownien généralisé W Z , défini sur la base
(Ω, σ1 (Z) , σ (Z) , P ) , de covariance ΣB , tels que l’on ait, presque sûrement, relativement à
P,
Z t
Z (·, t) = ΣB (dx) Ŝ (Z (·, ·) , x) + W Z (·, t) , (2)
0
et    
2 2
PB g ∈ G : || Ŝ (g, ·) ||L2 [ β ] < ∞ = PZ g ∈ G : || Ŝ (g, ·) ||L2 [ β ] < ∞ = 1.

3
Démonstration: La filtration G PB étant continue à droite, la martingale
" #
dPZ PB
EPB G
dPB t

a une modification Mt continue à droite d’après Von Weizsäker et G. Winkler (1990). Le


théorème de représentation des martingales d’une filtration brownienne dans la version
obtenue par l’auteur (1999) assure alors que
Z t
M (g, t) = 1 + hh (g, x) , ev B (g, dx)i,
0

où h est un processus prévisible pour G PB , tel que


 
PB g ∈ G : || h (g, ·) ||2L2 [β ] < ∞ = 1.

La notation 0t h·, ·i désigne l’intégrale stochastique par rapport à une infinité de mouvements
R

browniens généralisés.
Cette représentation entraı̂ne que M est un processus continu à droite, et presque sûrement
continu, relativement à PB . Soit

T (g) = inf {t ∈ [0, 1] : {M (g, t) = 0} ou {M (g, t−) = 0}} .

M a, presque sûrement, relativement à PB des trajectoires sur [[T, 1]] qui sont nulles. Mais,
à cause de l’hypothèse

d’équivalence, M1> 0, presque sûrement, relativement à PB . On a
donc que PB g ∈ G : inf t∈[0,1] M (g, t) > 0 = 1. L’expression ln [Mt ] a ainsi un sens, presque
sûrement, relativement à PB . Une version adéquate de la formule d’Itô permet alors d’écrire
* + 2
Z t h (g, x) 1 h (g, ·)
ln [Mt ] = , ev PB (g, dx) − I[0,t] ,
M (g, ·) L2 [β ]

0 M (g, x) 2

soit  
Z t
h (g, x) PB 1 h (g, ·) 2
M (g, t) = exp  h , ev (g, dx)i − || I[0,t] || .
0 M (g, x) 2 M (g, ·) L2 [β ]

On définit alors
h (g, t)
Ŝ (g, t) =
M (g, t)
et on a que
∞ Z
h2i (g, x)
!
2 1
dβi (x) ≤ 1/ inf M 2 (g, t) || h (g, ·) ||2L2 [
X
|| Ŝ (g, ·) ||L2 [ β ]= β ].
i=1 0 M 2 (g, x) t∈[0,1]

4
 
On obtient ainsi l’égalité PB g ∈ G : || f (g, ·) ||2L2 [β ] <∞ = 1, et dans cette dernière re-
lation, on peut remplacer PB par PZ , puisque ces mesures sont équivalentes. Cette pro-
priété de PZ , et le fait d’avoir EPB [M (·, 1)] = 1, assurent conformément à un résultat de la
thèse (1999), qu’il existe une solution faible unique de l’équation
Z t
Z (·, t) = ΣB (dx) Ŝ (Z (·, ·) , x) + B (·, t) .
0
 
On pose alors, sur la base G, G PB , G PB , PB ,
Z t
W
P (dg) = M (g, 1) PB (dg) , W (g, x) = − ΣB (dx) Ŝ (g, x) + ev B (g, t) .
0

Le théorème de Girsanov dit que W est, relativement à P W , un mouvement brownien


généralisé, de covariance ΣB . M (·, 1) étant une version de la dérivée dP Z /dP B , P W = PZ .
La démonstration est complète si l’on pose W Z = W ◦ Z. 2
Note: On peut montrer que si l’hypothèse PZ  PB est satisfaite, alors il existe un processus
Ŝ et un mouvement brownien W Z verifiant l’equation (2) et tel que
 
2
PZ g ∈ G : || Ŝ (g, ·) ||L2 [β ] < ∞ = 1.

3 Une approximation en moyenne quadratique


Soit Q un sous ensemble dénombrable et dense de [0, 1] qui contient s0 = 0. On désigne par
Ql = {s0 = 0 < s1 < s2 < . . . sl } le sous ensemble de Q contenant les premiers l + 1 éléments
et par Fl la tribu engendrée par la famille {Bn (si ) − Bn (sj ), i, j = 1, 2, . . . , l, n ∈ IN ∗ }. Soit
L2 [Fl , P ] l’ensemble des processus Fl -mesurables et de carré P-intégrable.
Le théorème suivant donne une procédure de construction d’une approximation en moyenne
quadratique pour Ŝ, l’estimateur du signal transmis. C’est un algorithme d’extraction du
signal par un filtre non linéaire.
On introduit la famille des polynômes de Hermite définis par

z2 ∂k −z 2
! !
1
Hk (t, z) = (−t)k exp exp ,
k! 2t ∂z k 2t
où k ∈ IN , t ∈ [0, T ] et z ∈ IR.

Théorème

Sous les hypothèses de la Proposition précédente, le processus Ŝ est la limite en moyenne


quadratique d’une suite des processus Ŝ l ∈ L2 [Fl , P ] définis par

h1l (ω, t) h2l (ω, t) hn (ω, t)


!
h (ω, t)
Ŝ l (ω, t) = l = , ,..., l ,...
M (ω, t) M (ω, t) M (ω, t) M (ω, t)

5
où pour t ∈ [sj−1 , sj )

hnl (ω, t) = ak,l φnk,j (ω, t),


X

(k=(k1 ,k2 ,...,kl ):max(i|ki >0)=j)


avec

φnk,j (ω, t) = Gnk,j Hkj ,n−1 (βn (t) − βn (sj−1 ), Bn (ω, t) − Bn (ω, sj−1 ))
Y
× Hkj ,i (βi (t) − βi (sj−1 ), Bn (ω, t) − Bn (ω, sj−1 )) ,
i6=n

Gnk,j étant des variables aléatoires définies par


j−1
Gnk,j =
Y
Hkq ,n (βn (sq ) − βn (sq−1 ), Bn (·, sq ) − Bn (·, sq−1 ))
q=1

et ak,l des scalaires obtenus par

l Y
l
" #
Y
ak,l = E (M (·, t) − 1) · Hki ,n (βn (si ) − βn (si−1 ), Bn (·, si ) − Bn (·, si−1 )) .
n=1 i=1

Démonstration: Par la Proposition précédente il suffit de montrer que la suite


Z t
Xl (·, t) = 1 + hhl (·, u) , B (·, du)i
0

converge en moyenne quadratique vers M (·, t) quand l → ∞. Cela découle du fait que pour
l ∈ IN et si ∈ [0, 1], i = 1, 2, . . . , l fixés, la famille des variables aléatoires

l Y
l
( )
l
Y
Hki ,n (βn (si ) − βn (si−1 ), Bn (·, si ) − Bn (·, si−1 )) , k = (ki )1≤i≤l ∈ IN
n=1 i=1

forme un système orthogonal complet dans l’espace L2 [Fl , P ].2

Bibliographie
[1] Climescu-Haulica, A. (1999) Calcul stochastique appliqué aux problèmes de détection des
signaux aléatoires, thèse, Ecole Polytechnique Fédérale de Lausanne
[2] Mémin, J. (1974) Sur quelques problèmes fondamentaux de la théorie du filtrage, thèse,
Université de Rennes
[3] Von Weizsäker, H. et Winkler, G. (1990) Stochastic Integrals, Vieweg, Wiesbaden

Vous aimerez peut-être aussi