Vous êtes sur la page 1sur 15

Chapitre 6

Filtrage adaptatif

6.1 Pourquoi du filtrage adaptatif ?


Les méthodes adaptatives en traitement du signal visent l’adaptation automatique des opérateurs de traitement
aux propriétés statistiques des signaux et des systèmes, ainsi que l’adaptation à leurs variations dans le temps. Il
s’agit donc d’un mélange bien pondéré entre la stationnarité, qui permet grâce à la permanence dans le temps de
propriétés statistiques de se débarrasser, ou tout au moins de réduire, les fluctuations purement aléatoires, et la
non–stationnarité, c’est–à–dire la variation ƒlente‚au cours du temps de ces propriétés, sans laquelle il n’y aurait
pas besoin de l’adaptatif : il suffirait de calculer une fois pour toute le ƒfiltre optimal‚puis de le mettre en ligne.
Ces méthodes ont connu un essor considérable depuis les années 60, dû au développement du traitement
numérique et à l’augmentation constante de la puissance des processeurs de traitement (DSP, Digital Signal Pro-
cessors), permettant la mise en œuvre en temps réel d’algorithmes de plus en plus sophistiqués, à des cadences de
plus en plus rapides. Elles sont arrivées à une certaine maturité aussi bien en ce qui concerne le développement et
l’implémentation des algorithmes, que du point de vue des outils théoriques d’étude des performances. Ce chapitre
se propose d’en donner une vue synthétique, non exhaustive mais suffisante, pour permettre au lecteur d’y trouver
rapidement les outils et résultats qui l’intéressent, et éventuellement les références vers des ouvrages permettant
d’approfondir des aspects spécifiques.

6.1.1 Quelques exemples : soustraction de bruit, égalisation et identification.


Ce paragraphe présente succinctment trois exemples classiques d’application du filtrage adaptatif : la soustraction
de bruit, l’égalisation et l’identification directe. Ces exemples ne constituent qu’une infime fraction des applications
classiques du filtrage adaptatif parmi lesquelles figurent notamment l’annulation d’écho, certains codages de com-
pression, la formation de voies ainsi que de nombreuses techniques de traitement d’antenne. Le lecteur intéressé par
des présentations détaillées d’applications du filtrage adaptatif peut se référer, entre autres, aux articles fondateurs
[Widrow60, 67, 75] et [Bellanger 85].

6.1.1.1 Soustraction de bruit.


Le schéma typique d’un dispositif de soustraction de bruit est celui de la figure (6.1). Un signal observé se
compose d’un signal utile, non observé que l’on souhaite estimer, pollué de manière additive par un bruit supposé
indépendant du signal utile. Lorsque ce bruit sur l’observation est obtenu par filtrage linéaire d’une source de bruit
auprès de laquelle il est possible de placer un capteur, il devient envisageable d’estimer le bruit pour ensuite le
soustraire du signal observé.

6.1.1.2 Egalisation.
Le problème est celui de la figure (6.2) : l’observation est une version perturbée par un bruit blanc additif b, de
variance σb2 , de la sortie d’un filtre H pz q –le canal de transmission –attaqué par un bruit blanc normé (les données
transmises). Le but est d’estimer les données à partir des observations. Si l’on choisit de minimiser la puissance
de l’erreur entre les données transmises et la sortie du filtre égaliseur, la meilleure solution linéaire est le filtre de
Wiener dont la fonction de transfert en z s’écrit :

H  p1{z  q
W pz q 
H pz qH  p1{z  q
(6.1)
σb2

56
CHAPITRE 6. FILTRAGE ADAPTATIF 57

Figure 6.1 – Soustraction de bruit.

En l’absence de bruit pσb2 q, W pz q se réduit au filtre inverse 1{H. En présence de bruit, de fortes valeurs du gain
1{H peuvent conduire à trop amplifier le bruit, la solution de Wiener régularise le filtre inverse grâce la prise en
compte de la constante pσb2 q : elle est semblable au filtre inverse aux fréquences pour lesquelles le rapport signal à
bruit est fort mais amplifie moins les zones de faible rapport signal à bruit.

Figure 6.2 – l’égalisation est une ƒidentification inverse‚.

6.1.1.3 Identification.
Ayant accès à l’entrée et à la sortie d’un filtre linéaire dont la sortie est bruitée, un problème d’identification
directe consiste à estimer le filtre linéaire inconnu. Ce problème correspond au schéma de la figure (6.3). Lorsque le
système inconnu est susceptible de varier au fils du temps, le processus d’indentification peut être effectué à l’aide
d’un traitement adaptatif.
Voyons sur cet exemple pourquoi la solution du problème se formalise en termes d’optimisation d’un critère de
coût, ici l’erreur quadratique moyenne pEQM q minimale. Notons un le signal d’entrée, vn  rH pz qsun la sortie
du système à identifier H pz q, bn le bruit additif de sortie, xn  vn bn la sortie bruitée (signal de référence), et
enfin yn  rH pz qsun la sortie du système estimé H pz q. On compare les deux systèmes grâce à l’erreur d’estimation
en  xn  yn  bn pH  H qun . La puissance moyenne, ou variance pour des signaux centrés, de cette erreur est
nommée EQM de l’identification, et se calcule facilement ici compte–tenu de l’indépendance des signaux aléatoires
un et bn :

EQM pH q  E pe2n q  σb2 varpH  H qun ¥ σb2 . (6.2)

L’identification du systme H coı̈ncide ici avec la minimisation de l’EQM .

6.2 Filtrage adaptatif


Un filtre adaptatif est un système numérique dont les coefficients se modifient eux mêmes en fonction des
signaux extérieurs. Il est utilisé chaque fois qu’un environnement est mal connu ou changeant ou pour supprimer
des perturbations situées dans le domaine de fréquences du signal utile, ce que les filtres classiques ne peuvent pas
faire.
CHAPITRE 6. FILTRAGE ADAPTATIF 58

Figure 6.3 – l’Identification directe.

Figure 6.4 – Modèle pour le filtrage linéaire optimal.

Figure 6.5 – Modèle pour l’égalisation linéaire.

Un filtre adaptatif est constitué de deux parties distinctes :


un filtre numérique à coefficients ajustables ;
un algorithme de modification des coefficients basé sur un critère d’optimisation.

6.2.1 Algorithme récursif des moindres carrés (RLMS)


Nous savons que pour trouver les paramètres optimaux, il faut descendre le long d’une paraboloı̈de afin d’at-
teindre le minimum de l’erreur quadratique moyenne. Mathématiquement, cette descente se fait dans le sens opposé
à celui du gradient. Voir equation 5.29.
CHAPITRE 6. FILTRAGE ADAPTATIF 59

BJ  2r
BW xy 2Rxx W (6.3)

et on atteint le point optimum lorsque le gradient s’annule. La valeur des paramètres est alors donnée par la
solution

W  R1
xx rxy (6.4)

De manière heuristique, on imagine bien que cette solution peut être atteinte récursivement en corrigeant les
valeurs des coefficients wk en chaque instant n dans le sens opposé à l’évolution de l’erreur quadratique par rapport
au vecteur des coefficients W pnq (figure 6.6) :

Wpnq  Wpn  1q 
γ B ε2 p nq
2 BW
où γ est un facteur de pondération du gradient.

Figure 6.6 – Dérivée de l’erreur quadratique en l’instant n par rapport au coefficient wk pnq.

Comme l’erreur quadratique à l’instant n vaut :




p¸1 2
2
ε pnq 
2
y pnq  wi xpn  iq  ypnq  XpnqT W (6.5)

i 0
il vient :

Bε2 pnq  2εpnq Bεpnq  2εpnqXpnq


BW BW (6.6)

On en déduit que la recherche de l’optimum peut se faire avec l’algorithme récursif suivant :

Wpnq  Wpn  1q γεpnqXpnq (6.7)

que l’on désigne sous le nom d’algorithme RLM S (Recursive Least Mean Square).
Les grandeurs dont on a besoin sont :
le vecteur des p coefficients à l’instant n  1 :

Wpn  1q  rw0 pn  1q, w1 pn  1q, ..., wp1 pn  1qsT (6.8)

les p dernières valeurs du signal d’entrée :

Xpnq  rxpnq, xpn  1q, ..., xpn  p 1qsT (6.9)


CHAPITRE 6. FILTRAGE ADAPTATIF 60

la valeur du signal de sortie y pnq à l’instant n ;


le gain d’adaptation γ de l’algorithme récursif (généralement très inférieur à 1).
La valeur du gain d’adaptation γ est difficile à fixer : si on la choisit trop faible, la convergence vers la valeur
optimum est très lente ; si on la choisit trop forte, la convergence se fait en oscillant onguement autour de la valeur
optimum ; enfin, si le gain d’adaptation est trop élevé, le processus d’optimisation diverge.
Les avantages de cet algorithme résident dans la simplicité à le déduire, à le programmer, et au peu de calculs
à effectuer. Par contre, ses inconvénients sont la lente convergence des paramètres et le risque d’oscillations ou
de divergence si le gain d’adaptation est trop grand. Ces inconvénients, associés au fait que les signaux sont
généralement non stationnaires, ont nécessité la recherche d’une adaptation automatique du gain.

6.2.2 Gain d’adaptation normalisé


Pour la plupart des situations pratiques, on choisit un gain initial γ0  0.1 qui, après normalisation par le
nombre de paramètres et par la variance du signal d’entrée, donne un gain d’adaptation qui évolue en fonction de
la puissance du signal d’entrée :

γ  p.σ
γ0
2
(6.10)
x

De manière à éviter que le gain n’augmente indéfiniment lorsque la puissance du signal de référence tend vers
zéro, on peut corriger le dénominateur du gain en y ajoutant un terme constant a ! 1 :

γ a γ0
p.σx2
(6.11)

L’algorithme s’écrit alors :

Wpnq  Wpn  1q εpnqXpnq


γ0
(6.12)
a p.σx2

Comme cet algorithme utilise un gain normalisé par la puissance σx2 du signal xpnq, il porte le nom d’algorithme
N LM S ( Normalised Least Mean Square).
Chapitre 7
Filtrage de Kalman

Le long de ce chapitre on discutera la technique appelée filtrage de Kalman. Le filtrage de Kalman est une
technique pour estimer l’état d’un système dynamique à partir d’une incomplète séquence ou à partir des mesures
bruitées. Les mesures ne nécessitent pas d’être eux mêmes les variables d’état, mais doivent être reliées aux variables
d’état à travers une relation fonctionnelle linéarisable. C’est une solution d’un problème linéaire quadratique Gaus-
sien, qui est le problème de l’estimation instantanée de l’état d’un système linéaire et dynamique qui est perturbé
par un bruit blanc Gaussien-en utilisant les mesures des observables qui sont linéairement reliées à l’état, mais
corrompues (perturbées) par le bruit blanc. Il est optimal dans le sens de la moyenne quadratique. Il est l’une
des grandes innovations dans la théorie de l’estimation statistique et est largement utilisé dans une grande variété
d’applications.
Rudolf Emil Kalman est né à Budapest en 1930, et a émigré avec sa famille aux US en 1943. Il a étudié à MIT et
compléta un Ph.D. à Columbia en 1957. Il étudia les travaux de Wiener sur le filtrage et introduis l’idée d’appliquer
dans l’espace des états en mettant en équation l’opérateur prévision avec une projection dans un espace des états de
dimension fini, et le filtre de Kalman est élaboré. Le filtre de Wiener est utilisé en électronique analogique, mais le
filtre de Kalman est idéalement fait pour manipuler les données numériques. Le filtre de Kalman a été utilisé comme
une partie du système de guidage du projet Apollo. Une large partie des systèmes de guidage et des processus de
contrôle incluent des filtres de Kalman et plusieurs extensions existent de nos jours.
Dans la prédiction numérique météorologique, la relation fonctionnelle pour connecter les observables et le vecteur
état est le modèle de prédiction numérique du temps (beau, pluvieux, ...) (numerical weather prediction NWP),
augmenté à d’autres modèles qui peuvent relier les observables aux variables d’état. Le filtrage de Kalman permet
à l’analyse initiale d’être réalisée d’une façon optimale à partir d’observations prises à des instants (moments)
aléatoires (le modèle est utilisé pour effectuer une interpolation temporelle optimale qui inclut les dynamiques
atmosphériques et physiques comme le montre le modèle NWP), et en des endroits aléatoires (l’interpolation spatiale
est faite grâce à des modèles d’équations), et à partir divers ensembles d’observations (sondes pluviométriques, bouée,
balise flottante, satellites...). Récemment, les modèles NWP ont commencé à incorporer les mesures de rayonnement
par les satellites, plutôt que les variables extraites de la température et l’humidité.

7.1 Introduction
Le célèbre filtre de Kalman enraciné dans la formulation de l’espace d’état ou dans les systèmes
linéaires dynamiques, procure une solution récursive du problème du filtrage linéaire optimal. Il
s’applique aux environnements stationnaires ou non. La solution est récursive dans le sens que
chaque mise à jour de l’estimation d’état est calculée à partir de l’estimation précédente et de la
nouvelle donnée d’entrée, donc seulement la précédente estimation nécessite d’être mémorisée. En
plus, afin d’éliminer la mémorisation complète des données observées précédentes, le filtre de Kalman
est plus efficace d’un point de vue calculatoire que le calcul direct de l’estimation à partir de toutes
les données observées précédemment pour chaque pas temporel du processus du filtrage.
Considérons un système linéaire, discrétisé dans le temps et dynamique du diagramme en bloc
comme le montre la figure 7.1. Le concept d’état est fondamental pour cette description. Le vecteur
d’état ou simplement état, dénoté par xk , est défini comme étant l’ensemble minimal de données
suffisantes pour décrire d’une manière unique le comportement dynamique non forcé du système ;
l’indice k dénote le temps discret. En d’autres termes, l’état est la plus petite quantité de données du
comportement passé du système dont on a besoin pour prédire son comportement futur. Typique-

61
CHAPITRE 7. FILTRAGE DE KALMAN 62

ment, l’état xk est inconnu. Pour l’estimer, on utilise un ensemble de données observées pobservationsq,
dénoté par le vecteur yk .
En termes mathématiques, le diagramme en bloc de la figure.1 englobe la paire d’équations suivantes :

7.1.1 Équation du processus


xk 1  Fk 1,k xk wk

où Fk 1,k est la matrice de transition amenant l’état xk de l’instant k à l’instant k 1. Le processus de bruit
wk est supposé additif, blanc et Guaussien, avec une moyenne nulle et une matrice de covariance définie par :
"
nk
E rwn wkT s 
Qk ,
nk
(7.1)
0,

où T désigne la transposition matricielle. La dimension de l’espace d’état est dénotée par M .

7.1.2 Équation de mesure

yk  Hk xk vk (7.2)

où yk est l’observable à l’instant k et Hk est la matrice des mesures. Le bruit de mesure vk est assumée être
additif, blanc et Guaussien avec une moyenne nulle et une matrice de covariance définie par :
"
Rk , n  k
E rvn vkT s 
0, n  k
(7.3)

En plus, le bruit de la mesure vk est non corrélé avec le bruit du processus wk . La dimension de l’espace des
mesures est dénotée par N .

Figure 7.1 – Structure canonique représentant un système linéaire, discret dans le temps et dynamique.

Le problème du filtrage de Kalman, à savoir le problème qui consiste à résoudre conjointement les équations
du processus et celles des mesures pour un état inconnu et d’une manière optimale, peut être maintenant formulé
ainsi :
Utilisation de toutes les données observées, composées des vecteurs y1 , y2 ,..., yk , afin de trouver pour chaque
k ¥ 1 l’erreur quadratique moyenne minimale de l’estimation de l’état xk .
Le problème est appelé filtrage pf iltering q si i  k, prédiction ppredictionq si i ¡ k et lissage psmoothing q si
1 ¤ i ¤ k.

7.2 Estimations optimales


Avant de procéder à l’élaboration du filtre de Kalman, il est utile de réviser certains concepts de base de
l’estimation optimale. Pour se simplifier les choses, ce rappel est présenté dans le contexte des variables aléatoires
CHAPITRE 7. FILTRAGE DE KALMAN 63

scalaires et la généralisation de la théorie des variables aléatoires vectorielles. Supposons que l’observable suivante
soit donnée :

yk  xk vk (7.4)

où xk est un signal inconnu et vk une composante du bruit additif. Supposons que xk dénote l’estimation à priori
pk est différente du signal inconnu
du signal xk , étant donnée les observations y1 , y2 ,..., yk . En général, l’estimé x
xk . Pour trouver cette estimé d’une manière optimale, on a besoin d’une fonction coût pperteq pour les estimés
incorrectes. La fonction coût doit satisfaire deux conditions :
La fonction coût est non négative.
La fonction coût est une fonction non décroissante de l’erreur d’estimation de xk définie par :

x̃k  xk  xpk (7.5)

Ces deux conditions sont satisfaites par l’erreur quadratique moyenne définie par :

Jk  E rpxk  xpk q2 s
Jk  E rpx̃k q2 s (7.6)

où E est l’opérateur espérance pexpectation operatorq. La dépendance de la fonction coût Jk en fonction du
temps met l’accent sur la nature non stationnaire du processus d’estimation récursif.
Pour trouver la valeur optimale de l’estimé x pk , on doit invoquer deux théorèmes de la théorie des processus
stochastiques.

Références des deux théorèmes :


R.E Kalman, “A new approach to linear filtering and prediction problems”, Transactions of the ASME, Ser.
D., Journal of Basic Engineering, 82, 34–45 (1960).
H.L. Van Trees, “Detection, Estimation, and Modulation Theory, Part I”. New York., Wiley 1968.

Théorème 1 : Estimateur conditionnel de la moyenne.


pk qui
Si les processus aléatoires xk et yk sont conjointement Guaussiens, donc, l’estimé optimale x
minimise l’erreur quadratique moyenne Jk est l’estimateur conditionnel moyen :

pk
x  E rxk | y1 , y2 , ..., yk s (7.7)

Théorème 2 : Principe d’orthogonalité.


Supposons que les processus aléatoires xk et yk de moyennes nulles, donc :

E rxk s  E ryk s  0 @k (7.8)

il en découle que :
(i) les processus aléatoires xk et yk sont conjointement Guaussiens ; ou
(ii) si l’estimé optimale est restreinte d’être une fonction linéaire des observables avec comme
fonction coût l’erreur quadratique moyenne,
(iii) donc, l’optimum de l’estimé xpk connaissant les observables y1 , y2 , ..., yk est la projection ortho-
gonale de xk sur l’espace engendré par ces observables.

7.3 Notations adoptées


Si on dispose de toutes les mesures jusqu’à l’instant k (y compris k), disponibles pour l’estimation de xk , on
pk
peut alors établir une estimé à posteriori notée x

pk
x  E rxk | y1 , y2 , ..., yk s  estimé à posteriori
CHAPITRE 7. FILTRAGE DE KALMAN 64

Si on dispose de toutes les mesures avant l’instant k (k non compris), disponibles pour l’estimation de xk , on
p
peut donc établir une estimé à priori notée x k

p
x k  E rxk | y1 , y2 , ..., yk1 s  estimé à priori
Il est important de noter que xp
k et xpk sont deux estimations de la même quantité xk . Cependant, x p
k est une
estimé de xk avant que la mesure yk ne soit prise en compte, et xpk est une estimé de xk après que la mesure yk soit
prise en compte. Naturellement, xpk est meilleure que x pk car on utilise plus d’information pour calculer x pk .
Si on dispose de mesures après l’instant k, disponibles pour l’estimation de xk , on peut donc établir une estimé
du lissage

pk|k
x N  E rxk | y1 , y2 , ..., yk , ..., yk N s  estimé du lissage
Si on veut trouver la meilleure prédiction de xk au delà d’un pas temporel des mesures disponibles, on peut
établir une estimé de prédiction

pk|kM
x  E rxk | y1 , y2 , ..., ykM s  estimé de prédiction
Les relations entre l’à posteriori, à priori, lissage et prédiction de l’estimation d’état sont représentés dans les
figures.2 et 3.

Figure 7.2 – à posteriori, à priori, lissage et prédiction.

Figure 7.3 – Lissage, filtrage et prédiction.

Dans la notation suivante, on utilise x p0 pour l’estimation de l’état initial en absence de toute mesure disponible.
La première mesure est réalisée à l’instant k  1. Puisqu’on ne dispose d’aucune mesure pour estimer x0 , il est
p0 comme étant la valeur de l’espérance de l’état initial x0 :
raisonnable de considérer x

p0
x  E p x0 q
CHAPITRE 7. FILTRAGE DE KALMAN 65

On utilise le terme Pk pour dénoter la covariance de l’erreur d’estimation. Pk dénote la covariance de l’erreur
d’estimation de x p pk :
k , et Pk dénote la covariance de l’erreur d’estimation de x

Pk  E rpxk  xpk qpxk  xpk qT s


Pk  E rpxk  xpk qpxk  xpk qT s

Figure 7.4 – Estimations d’états et erreurs de covariance.

Ces relations sont représentées dans la figure.7.4. La figure montre qu’après le traitement des mesures à l’instant
k  1, on dispose d’une estimé de xk1 (dénotée x pk1 ) et de la covariance de cette estimé dénotée Pk1 . Juste à
p
l’instant k et avant le traitement des mesures à cet instant, on calcule l’estimation de xk dénotée x k et sa covariance

dénotée Pk . puis on traite les mesures à l’instant k pour améliorer notre estimation de xk . Le résultat obtenu est
pk , et sa covariance par Pk .
dénoté x

7.4 Filtre de Kalman


Supposons qu’une mesure dans un système linéaire et dynamique, décrite par les équations (1) et (3), réalisée
à l’instant k. Il est exigé d’utiliser l’information contenue dans la nouvelle mesure yk pour mettre à jour l’estimé
de l’état inconnu xk . Supposons que x p
k dénote l’estimé à priori de l’état, qui est toujours disponible
à l’instant k. Avec un estimateur linéaire comme objectif, on peut exprimer l’estimé à posteriori x pk comme une
combinaison linéaire de l’estimé à priori et de la nouvelle mesure, comme le décrit l’équation :

pk
x  Gpk1q xpk Gk yk (7.9)

p1q
où les matrices Gk et Gk qui doivent être déterminées. Le vecteur erreur d’état est défini par :

x̃k  xk  xpk (7.10)

En appliquant le principe d’orthogonalité à la situation en main, on peut donc écrire :

E rx̃k yiT s  0 pour i  1, 2, ..., k  1 (7.11)

En substituant les équations (3), (10) et (11) dans (12), on obtient :

p1q
p
E rpxk  Gk x k  Gk Hk xk  Gk vk qyi s  0 i  1, 2, ..., k
T
pour (7.12)

Puisque le bruit wk du processus et le bruit vk de mesure sont non corrélés, il s’ensuit que :

E rvk yiT s  0 (7.13)

p1q p1q
En utilisant cette relation et en y ajoutant Gk xk  Gk xk , l’équation (13) est réécrite sous la forme :

E rpI  Gk Hk  Gk
p1q qx yT Gk
p1q px  xpk qyiT s  0 (7.14)
k i k

où I est la matrice identité. À partir du principe d’orthogonalité, on remarque que :

p
E rpxk  xk qyi s  0
T
(7.15)
CHAPITRE 7. FILTRAGE DE KALMAN 66

En conséquence, l’équation (15) se simplifie :

pI  Gk Hk  Gpk1q qE rxk yiT s  0 pour i  1, 2, ..., k  1 (7.16)

pour des valeurs arbitraires de l’état xk et l’observable yi , l’équation (17) ne peut être satisfaite que lorsque les
p1q
facteurs de pondération Gk et Gk soient ainsi reliés :

I  Gk Hk  Gk
p1q  0 (7.17)
p1q
ou, d’une façon équivalente, Gk est définie en termes de Gk :

Gk
p1q  I  G H (7.18)
k k

En substituant l’équation (19) en (10), on peut exprimer l’estimé à posteriori de l’état à l’instant k ainsi :

pk
x  xpk p
Gk pyk  Hk x kq (7.19)

La matrice Gk est appelée gain de Kalman.


Maintenant, reste le problème de trouver une formulation explicite de Gk . À partir du principe d’orthogonalité,
on a :

E rpxk  x
pk qyiT s  0 (7.20)

il en découle que

E rpxk  x
p k qy
piT s  0 (7.21)

pkT est une estimé de yk étant donné les mesures précédentes y1 , y2 , ..., yk1 .
où y
Définissons le processus d’innovation

ỹk  yk  ypk (7.22)

le processus d’innovation représente une mesure de la nouvelle information contenue dans yk ; ce qui peut aussi
s’exprimer sous la forme :

ỹk  yk  Hk xpk
 Hk xk vk  Hk xpk
 vk Hk x̃k (7.23)

Donc, en soustrayant Eq.(22) de (21) et en utilisant la définition de l’Eq.(23), on peut écrire :

E rpxk  x
pk qỹkT s  0 (7.24)

En utilisant Eq.(3) et Eq(20), on peut exprimer le vecteur erreur d’état xk  x


pk ainsi :

xk  x
pk  x̃k  Gk pHk x̃k vk q
 pI  Gk Hk qx̃k  Gk vk (7.25)

en substituant Eq.(24) et (26) dans (25), on obtient :

E rtpI  Gk Hk qx̃ 
k  Gk vk upHk x̃k vk qs  0 (7.26)

Puisque la mesure de bruit vk est indépendante de l’état xk et par conséquent l’erreur de prédiction x̃
k de
l’Eq.(27) est réduite à :

pI  Gk Hk qE rx̃k x̃k T sHTk  Gk E rvk vkT s  0 (7.27)


CHAPITRE 7. FILTRAGE DE KALMAN 67

Définissons la matrice de covariance à priori

P
k  E rpxk  xpk qpxk  xpk qT s
 E rx̃k x̃k T s (7.28)

en invoquant les définitions de la covariance des Eq.(4) et (29), on peut écrire Eq.(28) ainsi :

pI  Gk Hk qPk HTk  Gk Rk  0 (7.29)

en résolvant cette équation pour Gk , on obtient la formule désirée :

Gk  Pk HTk rHk Pk HTk Rk s1 (7.30)

Gk  Pk HTk Rk 1
Preuve : l’équation 7.30 nous permet d’écrire :

Gk rHk P T
k Hk Rk s  P  T
k Hk

sachant que Pk  pI  Gk Hk qPk donc Pk  Pk Gk Hk P


k

Gk Hk P T
k Hk Gk Rk  pPk Gk Hk Pk qHTk
Gk Hk P T
k Hk Gk Rk  Pk HTk Gk Hk Pk Hk
T

Gk Rk  Pk HTk
Gk  Pk HTk R
k
1

Eq.(30) est la relation désirée pour calculer le gain de Kalman Gk , qui est défini en termes de la matrice
de covariance à priori Pk . Pour terminer la procédure d’estimation récursive, on considère la propagation de la
covariance d’erreur, qui décrit les effets du temps sur les matrices de covariance des erreurs d’estimation. Cette
propagation nécessite deux étapes de calcul :
1. La matrice de covariance à priori P 
k à l’instant k définie par Eq.(29). Connaissant Pk , calculer la matrice
de covariance à posteriori Pk , qui à l’instant k est définie par :

Pk  E rx̃k x̃Tk s
 E rpxk  xpk qpxk  xpk qT s (7.31)

2. Connaissant l’ancienne matrice de covariance à posteriori, Pk1 , calculer la mise à jour de la matrice de
covariance à priori P
k.

Pour réaliser l’étape.1, on substitue l’Eq.(26) dans (32) et en notant que le processus de bruit vk est indépendant
de l’erreur d’estimation à priori x̃k . On aboutie par la suite à :

Pk  pI  Gk Hk qE rx̃k x̃k T spI  Gk Hk qT Gk E rvk vkT sGTk


 pI  Gk Hk qPk pI  Gk Hk qT Gk Rk GTk (7.32)

En développant les termes de l’Eq.(33) et en utilisant (31), on peut reformuler la dépendance de la matrice de
covariance à posteriori Pk en fonction de la matrice de covariance à priori P
k d’une façon simple :

Pk  pI  Gk Hk qPk  pI  Gk Hk qPk HTk GTk Gk Rk GTk


 pI  Gk Hk qPk  Gk Rk GTk Gk Rk GTk
 pI  Gk Hk qPk (7.33)

Pk  pI  Gk Hk qPk
CHAPITRE 7. FILTRAGE DE KALMAN 68

Concernant la deuxième étape de propagatin de la covariance d’erreur, on commence par reconnaitre que l’estimé
à priori d’état est définie en termes des anciennes estimé à posteriori de la manière suivante :

p
x k  Fk,k1 xpk1 (7.34)

On peut ainsi utiliser l’Eq.(1) et (35) pour exprimer l’erreur d’estimation à priori sous une autre forme :

x̃
k  xk  xpk
 pFk,k1 xk1 wk1 q  Fk,k1 xpk1
 Fk,k1 pxk1  xpk1 q wk1
 Fk,k1 x̃k1 wk1 (7.35)

p k 1
En conséquence, en utilisant l’Eq.(36) et (29) et en notant que le processus de bruit wk est indépendant de x

P
k  Fk,k1 E rx̃k1 x̃Tk1 sFTk,k1 E rwk1 wkT1 s
 Fk,k1 Pk1 FTk,k1 Qk1 (7.36)

P
k  Fk,k1 Pk1 FTk,k1 Q k 1

Ce qui définie la dépendance de la matrice de covariance à priori P


k en fonction de l’ancienne matrice de
covariance à posteriori Pk1 .

Avec les équations Eqs.(35), (37), (31), (20) et (34), on peut maintenant résumer l’estimation récursive de l’état
comme le montre la figure.2. Cette figure inclut aussi l’initialisation. En l’absence de toute donné à l’instant k  0,
on peut choisir l’estimé initiale d’état ainsi :

p0
x  E rx0 s (7.37)

et la valeur initiale de la matrice de covariance à posteriori ainsi :

P0  E rpx0  E rx0 sqpx0  E rx0 sqT s (7.38)

Ce choix des conditions initiales n’est pas seulement intuitivement satisfaisant mais possede aussi l’avantage de
produire une estimé non biaisée de l’état xk .

Le filtre de Kalman utilise une densité de probabilité Guaussienne durant le processus de propagation, la diffusion
est purement linéaire et la fonction densité évolue comme une impulsion Guaussienne qui se translate, s’étale et se
renforce de demeurer Guaussienne tout au long du processus.

La composante aléatoire du modèle dynamique wk entraine la hausse de l’incertitude, quand la composante


déterministe Fk 1,k xk entraine la dérive en bloc de la fonction densité. L’effet d’une observation extérieure y est
de superposer un effet réactif sur la diffusion dans laquelle la densité tend à pointer au voisinage des observations.
La figure.3 montre la propagation de la forme de la fonction densité en utilisant le filtre de Kalman.
CHAPITRE 7. FILTRAGE DE KALMAN 69

Figure 7.5 – Résume du filtre de Kalman.


CHAPITRE 7. FILTRAGE DE KALMAN 70

p(x)

Deterministic
drift

p(x)

Stochastic
diffusion

p(x)

Reactive
effect of
measurement

p(x)
y

x
Figure 7.6 – Le filtre de Kalman en tant que propagation de densité.

Vous aimerez peut-être aussi