Académique Documents
Professionnel Documents
Culture Documents
Filtrage adaptatif
6.1.1.2 Egalisation.
Le problème est celui de la figure (6.2) : l’observation est une version perturbée par un bruit blanc additif b, de
variance σb2 , de la sortie d’un filtre H pz q –le canal de transmission –attaqué par un bruit blanc normé (les données
transmises). Le but est d’estimer les données à partir des observations. Si l’on choisit de minimiser la puissance
de l’erreur entre les données transmises et la sortie du filtre égaliseur, la meilleure solution linéaire est le filtre de
Wiener dont la fonction de transfert en z s’écrit :
H p1{z q
W pz q
H pz qH p1{z q
(6.1)
σb2
56
CHAPITRE 6. FILTRAGE ADAPTATIF 57
En l’absence de bruit pσb2 q, W pz q se réduit au filtre inverse 1{H. En présence de bruit, de fortes valeurs du gain
1{H peuvent conduire à trop amplifier le bruit, la solution de Wiener régularise le filtre inverse grâce la prise en
compte de la constante pσb2 q : elle est semblable au filtre inverse aux fréquences pour lesquelles le rapport signal à
bruit est fort mais amplifie moins les zones de faible rapport signal à bruit.
6.1.1.3 Identification.
Ayant accès à l’entrée et à la sortie d’un filtre linéaire dont la sortie est bruitée, un problème d’identification
directe consiste à estimer le filtre linéaire inconnu. Ce problème correspond au schéma de la figure (6.3). Lorsque le
système inconnu est susceptible de varier au fils du temps, le processus d’indentification peut être effectué à l’aide
d’un traitement adaptatif.
Voyons sur cet exemple pourquoi la solution du problème se formalise en termes d’optimisation d’un critère de
coût, ici l’erreur quadratique moyenne pEQM q minimale. Notons un le signal d’entrée, vn rH pz qsun la sortie
du système à identifier H pz q, bn le bruit additif de sortie, xn vn bn la sortie bruitée (signal de référence), et
enfin yn rH pz qsun la sortie du système estimé H pz q. On compare les deux systèmes grâce à l’erreur d’estimation
en xn yn bn pH H qun . La puissance moyenne, ou variance pour des signaux centrés, de cette erreur est
nommée EQM de l’identification, et se calcule facilement ici compte–tenu de l’indépendance des signaux aléatoires
un et bn :
BJ 2r
BW xy 2Rxx W (6.3)
et on atteint le point optimum lorsque le gradient s’annule. La valeur des paramètres est alors donnée par la
solution
W R1
xx rxy (6.4)
De manière heuristique, on imagine bien que cette solution peut être atteinte récursivement en corrigeant les
valeurs des coefficients wk en chaque instant n dans le sens opposé à l’évolution de l’erreur quadratique par rapport
au vecteur des coefficients W pnq (figure 6.6) :
Wpnq Wpn 1q
γ B ε2 p nq
2 BW
où γ est un facteur de pondération du gradient.
Figure 6.6 – Dérivée de l’erreur quadratique en l’instant n par rapport au coefficient wk pnq.
On en déduit que la recherche de l’optimum peut se faire avec l’algorithme récursif suivant :
que l’on désigne sous le nom d’algorithme RLM S (Recursive Least Mean Square).
Les grandeurs dont on a besoin sont :
le vecteur des p coefficients à l’instant n 1 :
γ p.σ
γ0
2
(6.10)
x
De manière à éviter que le gain n’augmente indéfiniment lorsque la puissance du signal de référence tend vers
zéro, on peut corriger le dénominateur du gain en y ajoutant un terme constant a ! 1 :
γ a γ0
p.σx2
(6.11)
Comme cet algorithme utilise un gain normalisé par la puissance σx2 du signal xpnq, il porte le nom d’algorithme
N LM S ( Normalised Least Mean Square).
Chapitre 7
Filtrage de Kalman
Le long de ce chapitre on discutera la technique appelée filtrage de Kalman. Le filtrage de Kalman est une
technique pour estimer l’état d’un système dynamique à partir d’une incomplète séquence ou à partir des mesures
bruitées. Les mesures ne nécessitent pas d’être eux mêmes les variables d’état, mais doivent être reliées aux variables
d’état à travers une relation fonctionnelle linéarisable. C’est une solution d’un problème linéaire quadratique Gaus-
sien, qui est le problème de l’estimation instantanée de l’état d’un système linéaire et dynamique qui est perturbé
par un bruit blanc Gaussien-en utilisant les mesures des observables qui sont linéairement reliées à l’état, mais
corrompues (perturbées) par le bruit blanc. Il est optimal dans le sens de la moyenne quadratique. Il est l’une
des grandes innovations dans la théorie de l’estimation statistique et est largement utilisé dans une grande variété
d’applications.
Rudolf Emil Kalman est né à Budapest en 1930, et a émigré avec sa famille aux US en 1943. Il a étudié à MIT et
compléta un Ph.D. à Columbia en 1957. Il étudia les travaux de Wiener sur le filtrage et introduis l’idée d’appliquer
dans l’espace des états en mettant en équation l’opérateur prévision avec une projection dans un espace des états de
dimension fini, et le filtre de Kalman est élaboré. Le filtre de Wiener est utilisé en électronique analogique, mais le
filtre de Kalman est idéalement fait pour manipuler les données numériques. Le filtre de Kalman a été utilisé comme
une partie du système de guidage du projet Apollo. Une large partie des systèmes de guidage et des processus de
contrôle incluent des filtres de Kalman et plusieurs extensions existent de nos jours.
Dans la prédiction numérique météorologique, la relation fonctionnelle pour connecter les observables et le vecteur
état est le modèle de prédiction numérique du temps (beau, pluvieux, ...) (numerical weather prediction NWP),
augmenté à d’autres modèles qui peuvent relier les observables aux variables d’état. Le filtrage de Kalman permet
à l’analyse initiale d’être réalisée d’une façon optimale à partir d’observations prises à des instants (moments)
aléatoires (le modèle est utilisé pour effectuer une interpolation temporelle optimale qui inclut les dynamiques
atmosphériques et physiques comme le montre le modèle NWP), et en des endroits aléatoires (l’interpolation spatiale
est faite grâce à des modèles d’équations), et à partir divers ensembles d’observations (sondes pluviométriques, bouée,
balise flottante, satellites...). Récemment, les modèles NWP ont commencé à incorporer les mesures de rayonnement
par les satellites, plutôt que les variables extraites de la température et l’humidité.
7.1 Introduction
Le célèbre filtre de Kalman enraciné dans la formulation de l’espace d’état ou dans les systèmes
linéaires dynamiques, procure une solution récursive du problème du filtrage linéaire optimal. Il
s’applique aux environnements stationnaires ou non. La solution est récursive dans le sens que
chaque mise à jour de l’estimation d’état est calculée à partir de l’estimation précédente et de la
nouvelle donnée d’entrée, donc seulement la précédente estimation nécessite d’être mémorisée. En
plus, afin d’éliminer la mémorisation complète des données observées précédentes, le filtre de Kalman
est plus efficace d’un point de vue calculatoire que le calcul direct de l’estimation à partir de toutes
les données observées précédemment pour chaque pas temporel du processus du filtrage.
Considérons un système linéaire, discrétisé dans le temps et dynamique du diagramme en bloc
comme le montre la figure 7.1. Le concept d’état est fondamental pour cette description. Le vecteur
d’état ou simplement état, dénoté par xk , est défini comme étant l’ensemble minimal de données
suffisantes pour décrire d’une manière unique le comportement dynamique non forcé du système ;
l’indice k dénote le temps discret. En d’autres termes, l’état est la plus petite quantité de données du
comportement passé du système dont on a besoin pour prédire son comportement futur. Typique-
61
CHAPITRE 7. FILTRAGE DE KALMAN 62
ment, l’état xk est inconnu. Pour l’estimer, on utilise un ensemble de données observées pobservationsq,
dénoté par le vecteur yk .
En termes mathématiques, le diagramme en bloc de la figure.1 englobe la paire d’équations suivantes :
où Fk 1,k est la matrice de transition amenant l’état xk de l’instant k à l’instant k 1. Le processus de bruit
wk est supposé additif, blanc et Guaussien, avec une moyenne nulle et une matrice de covariance définie par :
"
nk
E rwn wkT s
Qk ,
nk
(7.1)
0,
où T désigne la transposition matricielle. La dimension de l’espace d’état est dénotée par M .
yk Hk xk vk (7.2)
où yk est l’observable à l’instant k et Hk est la matrice des mesures. Le bruit de mesure vk est assumée être
additif, blanc et Guaussien avec une moyenne nulle et une matrice de covariance définie par :
"
Rk , n k
E rvn vkT s
0, n k
(7.3)
En plus, le bruit de la mesure vk est non corrélé avec le bruit du processus wk . La dimension de l’espace des
mesures est dénotée par N .
Figure 7.1 – Structure canonique représentant un système linéaire, discret dans le temps et dynamique.
Le problème du filtrage de Kalman, à savoir le problème qui consiste à résoudre conjointement les équations
du processus et celles des mesures pour un état inconnu et d’une manière optimale, peut être maintenant formulé
ainsi :
Utilisation de toutes les données observées, composées des vecteurs y1 , y2 ,..., yk , afin de trouver pour chaque
k ¥ 1 l’erreur quadratique moyenne minimale de l’estimation de l’état xk .
Le problème est appelé filtrage pf iltering q si i k, prédiction ppredictionq si i ¡ k et lissage psmoothing q si
1 ¤ i ¤ k.
scalaires et la généralisation de la théorie des variables aléatoires vectorielles. Supposons que l’observable suivante
soit donnée :
yk xk vk (7.4)
où xk est un signal inconnu et vk une composante du bruit additif. Supposons que xk dénote l’estimation à priori
pk est différente du signal inconnu
du signal xk , étant donnée les observations y1 , y2 ,..., yk . En général, l’estimé x
xk . Pour trouver cette estimé d’une manière optimale, on a besoin d’une fonction coût pperteq pour les estimés
incorrectes. La fonction coût doit satisfaire deux conditions :
La fonction coût est non négative.
La fonction coût est une fonction non décroissante de l’erreur d’estimation de xk définie par :
Ces deux conditions sont satisfaites par l’erreur quadratique moyenne définie par :
Jk E rpxk xpk q2 s
Jk E rpx̃k q2 s (7.6)
où E est l’opérateur espérance pexpectation operatorq. La dépendance de la fonction coût Jk en fonction du
temps met l’accent sur la nature non stationnaire du processus d’estimation récursif.
Pour trouver la valeur optimale de l’estimé x pk , on doit invoquer deux théorèmes de la théorie des processus
stochastiques.
pk
x E rxk | y1 , y2 , ..., yk s (7.7)
il en découle que :
(i) les processus aléatoires xk et yk sont conjointement Guaussiens ; ou
(ii) si l’estimé optimale est restreinte d’être une fonction linéaire des observables avec comme
fonction coût l’erreur quadratique moyenne,
(iii) donc, l’optimum de l’estimé xpk connaissant les observables y1 , y2 , ..., yk est la projection ortho-
gonale de xk sur l’espace engendré par ces observables.
pk
x E rxk | y1 , y2 , ..., yk s estimé à posteriori
CHAPITRE 7. FILTRAGE DE KALMAN 64
Si on dispose de toutes les mesures avant l’instant k (k non compris), disponibles pour l’estimation de xk , on
p
peut donc établir une estimé à priori notée x k
p
x k E rxk | y1 , y2 , ..., yk1 s estimé à priori
Il est important de noter que xp
k et xpk sont deux estimations de la même quantité xk . Cependant, x p
k est une
estimé de xk avant que la mesure yk ne soit prise en compte, et xpk est une estimé de xk après que la mesure yk soit
prise en compte. Naturellement, xpk est meilleure que x pk car on utilise plus d’information pour calculer x pk .
Si on dispose de mesures après l’instant k, disponibles pour l’estimation de xk , on peut donc établir une estimé
du lissage
pk|k
x N E rxk | y1 , y2 , ..., yk , ..., yk N s estimé du lissage
Si on veut trouver la meilleure prédiction de xk au delà d’un pas temporel des mesures disponibles, on peut
établir une estimé de prédiction
pk|kM
x E rxk | y1 , y2 , ..., ykM s estimé de prédiction
Les relations entre l’à posteriori, à priori, lissage et prédiction de l’estimation d’état sont représentés dans les
figures.2 et 3.
Dans la notation suivante, on utilise x p0 pour l’estimation de l’état initial en absence de toute mesure disponible.
La première mesure est réalisée à l’instant k 1. Puisqu’on ne dispose d’aucune mesure pour estimer x0 , il est
p0 comme étant la valeur de l’espérance de l’état initial x0 :
raisonnable de considérer x
p0
x E p x0 q
CHAPITRE 7. FILTRAGE DE KALMAN 65
On utilise le terme Pk pour dénoter la covariance de l’erreur d’estimation. Pk dénote la covariance de l’erreur
d’estimation de x p pk :
k , et Pk dénote la covariance de l’erreur d’estimation de x
Ces relations sont représentées dans la figure.7.4. La figure montre qu’après le traitement des mesures à l’instant
k 1, on dispose d’une estimé de xk1 (dénotée x pk1 ) et de la covariance de cette estimé dénotée Pk1 . Juste à
p
l’instant k et avant le traitement des mesures à cet instant, on calcule l’estimation de xk dénotée x k et sa covariance
dénotée Pk . puis on traite les mesures à l’instant k pour améliorer notre estimation de xk . Le résultat obtenu est
pk , et sa covariance par Pk .
dénoté x
pk
x Gpk1q xpk Gk yk (7.9)
p1q
où les matrices Gk et Gk qui doivent être déterminées. Le vecteur erreur d’état est défini par :
p1q
p
E rpxk Gk x k Gk Hk xk Gk vk qyi s 0 i 1, 2, ..., k
T
pour (7.12)
Puisque le bruit wk du processus et le bruit vk de mesure sont non corrélés, il s’ensuit que :
p1q p1q
En utilisant cette relation et en y ajoutant Gk xk Gk xk , l’équation (13) est réécrite sous la forme :
E rpI Gk Hk Gk
p1q qx yT Gk
p1q px xpk qyiT s 0 (7.14)
k i k
p
E rpxk xk qyi s 0
T
(7.15)
CHAPITRE 7. FILTRAGE DE KALMAN 66
pour des valeurs arbitraires de l’état xk et l’observable yi , l’équation (17) ne peut être satisfaite que lorsque les
p1q
facteurs de pondération Gk et Gk soient ainsi reliés :
I Gk Hk Gk
p1q 0 (7.17)
p1q
ou, d’une façon équivalente, Gk est définie en termes de Gk :
Gk
p1q I G H (7.18)
k k
En substituant l’équation (19) en (10), on peut exprimer l’estimé à posteriori de l’état à l’instant k ainsi :
pk
x xpk p
Gk pyk Hk x kq (7.19)
E rpxk x
pk qyiT s 0 (7.20)
il en découle que
E rpxk x
p k qy
piT s 0 (7.21)
pkT est une estimé de yk étant donné les mesures précédentes y1 , y2 , ..., yk1 .
où y
Définissons le processus d’innovation
le processus d’innovation représente une mesure de la nouvelle information contenue dans yk ; ce qui peut aussi
s’exprimer sous la forme :
ỹk yk Hk xpk
Hk xk vk Hk xpk
vk Hk x̃k (7.23)
E rpxk x
pk qỹkT s 0 (7.24)
xk x
pk x̃k Gk pHk x̃k vk q
pI Gk Hk qx̃k Gk vk (7.25)
E rtpI Gk Hk qx̃
k Gk vk upHk x̃k vk qs 0 (7.26)
Puisque la mesure de bruit vk est indépendante de l’état xk et par conséquent l’erreur de prédiction x̃
k de
l’Eq.(27) est réduite à :
P
k E rpxk xpk qpxk xpk qT s
E rx̃k x̃k T s (7.28)
en invoquant les définitions de la covariance des Eq.(4) et (29), on peut écrire Eq.(28) ainsi :
Gk Pk HTk Rk 1
Preuve : l’équation 7.30 nous permet d’écrire :
Gk rHk P T
k Hk Rk s P T
k Hk
Gk Hk P T
k Hk Gk Rk pPk Gk Hk Pk qHTk
Gk Hk P T
k Hk Gk Rk Pk HTk Gk Hk Pk Hk
T
Gk Rk Pk HTk
Gk Pk HTk R
k
1
Eq.(30) est la relation désirée pour calculer le gain de Kalman Gk , qui est défini en termes de la matrice
de covariance à priori Pk . Pour terminer la procédure d’estimation récursive, on considère la propagation de la
covariance d’erreur, qui décrit les effets du temps sur les matrices de covariance des erreurs d’estimation. Cette
propagation nécessite deux étapes de calcul :
1. La matrice de covariance à priori P
k à l’instant k définie par Eq.(29). Connaissant Pk , calculer la matrice
de covariance à posteriori Pk , qui à l’instant k est définie par :
Pk E rx̃k x̃Tk s
E rpxk xpk qpxk xpk qT s (7.31)
2. Connaissant l’ancienne matrice de covariance à posteriori, Pk1 , calculer la mise à jour de la matrice de
covariance à priori P
k.
Pour réaliser l’étape.1, on substitue l’Eq.(26) dans (32) et en notant que le processus de bruit vk est indépendant
de l’erreur d’estimation à priori x̃k . On aboutie par la suite à :
En développant les termes de l’Eq.(33) et en utilisant (31), on peut reformuler la dépendance de la matrice de
covariance à posteriori Pk en fonction de la matrice de covariance à priori P
k d’une façon simple :
Pk pI Gk Hk qPk
CHAPITRE 7. FILTRAGE DE KALMAN 68
Concernant la deuxième étape de propagatin de la covariance d’erreur, on commence par reconnaitre que l’estimé
à priori d’état est définie en termes des anciennes estimé à posteriori de la manière suivante :
p
x k Fk,k1 xpk1 (7.34)
On peut ainsi utiliser l’Eq.(1) et (35) pour exprimer l’erreur d’estimation à priori sous une autre forme :
x̃
k xk xpk
pFk,k1 xk1 wk1 q Fk,k1 xpk1
Fk,k1 pxk1 xpk1 q wk1
Fk,k1 x̃k1 wk1 (7.35)
p k 1
En conséquence, en utilisant l’Eq.(36) et (29) et en notant que le processus de bruit wk est indépendant de x
P
k Fk,k1 E rx̃k1 x̃Tk1 sFTk,k1 E rwk1 wkT1 s
Fk,k1 Pk1 FTk,k1 Qk1 (7.36)
P
k Fk,k1 Pk1 FTk,k1 Q k 1
Avec les équations Eqs.(35), (37), (31), (20) et (34), on peut maintenant résumer l’estimation récursive de l’état
comme le montre la figure.2. Cette figure inclut aussi l’initialisation. En l’absence de toute donné à l’instant k 0,
on peut choisir l’estimé initiale d’état ainsi :
p0
x E rx0 s (7.37)
Ce choix des conditions initiales n’est pas seulement intuitivement satisfaisant mais possede aussi l’avantage de
produire une estimé non biaisée de l’état xk .
Le filtre de Kalman utilise une densité de probabilité Guaussienne durant le processus de propagation, la diffusion
est purement linéaire et la fonction densité évolue comme une impulsion Guaussienne qui se translate, s’étale et se
renforce de demeurer Guaussienne tout au long du processus.
p(x)
Deterministic
drift
p(x)
Stochastic
diffusion
p(x)
Reactive
effect of
measurement
p(x)
y
x
Figure 7.6 – Le filtre de Kalman en tant que propagation de densité.