Faculté de Technologie
___________________________________________________________________________
`Ìi`ÊÜÌ
ÊvÝÊ*Ê
`ÌÀÊ
ÊvÀiiÊvÀÊViÀV>ÊÕÃi°
/ÊÀiÛiÊÌ
ÃÊÌVi]ÊÛÃÌ
\ÊÜÜܰpdfediting.com
Identification des Systèmes Linéaires
Octobre 2007
`Ìi`ÊÜÌ
ÊvÝÊ*Ê
`ÌÀÊ
ÊvÀiiÊvÀÊViÀV>ÊÕÃi°
/ÊÀiÛiÊÌ
ÃÊÌVi]ÊÛÃÌ
\ÊÜÜܰpdfediting.com
2
Table des matières
2 Méthodes directes 25
2.1 Analyse harmonique . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Analyse indicielle . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Analyse impulsionnelle . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4 Approximation par un modèle paramétrique . . . . . . . . . . . . 28
2.4.1 A partir de la réponse harmonique . . . . . . . . . . . . . 28
2.4.2 A partir de la réponse indicielle - Méthode de Strejc . . . 29
2.4.3 A partir de la réponse indicielle - Méthode de Broïda . . . 33
2.4.4 Processus Intégrateur . . . . . . . . . . . . . . . . . . . . 33
2.5 Obtention d’un modèle non paramétrique . . . . . . . . . . . . . 35
2.5.1 Problème préliminaire : Passage d’une réponse impulsion-
nelle à une réponse harmonique . . . . . . . . . . . . . . . 35
2.5.2 Principe du traitement numérique des données par corré-
lation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5.3 Utilisation des séquences binaires pseudo aléatoires . . . . 40
2.5.4 Méthode des moindres carrés appliquée à l’obtention d’une
séquence de pondération (déconvolution numérique) . . . 45
3
TABLE DES MATIÈRES
3 Méthodes Itératives 55
3.1 Méthodes stochastiques . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.2 Méthode du maximum de vraisemblance (Astrom et Boh-
lin 1965) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.1.3 Méthode des moindres carrés généralisés (Clarcke 1967) . 61
3.1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2 Méthodes du modèle (Méthode déterministe) . . . . . . . . . . . 63
3.2.1 Méthode du modèle appliquée à la détermination d’un
modèle paramétrique . . . . . . . . . . . . . . . . . . . . . 64
3.2.2 Méthode du modèle appliquée à la détermination d’une
séquence de pondération . . . . . . . . . . . . . . . . . . . 69
4 Filtre de Kalman 71
4.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2 L’algorithme discret du filtre de Kalman . . . . . . . . . . . . . . 74
4.3 Schéma structurel du Filtre de Kalman . . . . . . . . . . . . . . . 74
4.4 Filtre de Kalman sous-optimal du régime permanent . . . . . . . 76
4
Chapitre 1
Aspect généraux de
l’identification
5
1.1. PRÉSENTATION DU PROBLÈME
physique pour cet objet peut être donné par la figure 1.2.
Et un modèle mathématique pour ce même objet est donné par l’équation 3.3.
dΩ(t)
Ω(t) + τ = Kv u(t) (1.1)
dt
6
CHAPITRE 1. ASPECT GÉNÉRAUX DE L’IDENTIFICATION
7
1.2. SYSTÈMES DYNAMIQUES "OBJET" ET "MODÈLE" (ASPECT
STRUCTUREL)
Une analyse plus fine permet de voir que les sorties yjo ne sont pas les effets
des seuls signaux ui . D’où le nouveau schéma sur la figure 1.4.
8
CHAPITRE 1. ASPECT GÉNÉRAUX DE L’IDENTIFICATION
Les relations entrée/sortie précédentes n’ont en fait de sens que lorsque la ré-
ponse impulsionnelle est intégrable (hypothèse de stabilité entrée-bornée, sortie-
bornée). Dans ce cas, h(θ) (ou a(k)) tend vers zéro lorsque θ −→ ∞ (k −→ ∞).
L’instant T0 (ou N ) à partir duquel h(θ) (ou a(k)) est négligeable est appelé
mémoire du système.
9
1.2. SYSTÈMES DYNAMIQUES "OBJET" ET "MODÈLE" (ASPECT
STRUCTUREL)
Représentations paramétriques
Représentations stochastiques
Les équations précédentes ne peuvent décrire le comportement d’un objet que
lorsque celui-ci est faiblement perturbé. Si ce n’est pas le cas, une représentation
stochastique peut s’avérer nécessaire. Pour un système discret, on écrira de
manière très générale :
½
x(k + 1) = Fx(k) + Gu(k) + b(k)
(1.2)
y(k) = Hx(k) + w(k)
où b(k) et w(k) sont des bruits blancs discrets gaussiens de variance inconnue à
priori.
avec x̂(k) l’estimée de l’état x(k) et ν(k) une séquence de bruit blanc gaussien
(Innovation).
y(k)+β 1 y(k−1)+. . .+β n y(k−n) = α0 u(k)+. . .+αn u(k−n)+ν(k)+c1 ν(k−1)+. . .+cn ν(k−n)
soit :
à ! ⎛ ⎞ à !
n
X Xn n
X
1+ β i z −i Y (z) = ⎝ αj z −j ⎠
U (z) + 1 + cl z −l
ν(z)
i=0 j=0 l=1
10
CHAPITRE 1. ASPECT GÉNÉRAUX DE L’IDENTIFICATION
à Pn ! µ P ¶
−j
j=0 αj z 1 + nl=1 cl z −l
Y (z) = P n U (z) + P ν(z)
1+ i=0 β i z
−i 1 + ni=0 β i z −i
Un schéma synoptique de cette représentation peut être donnée par la figure
1.6.
11
1.2. SYSTÈMES DYNAMIQUES "OBJET" ET "MODÈLE" (ASPECT
STRUCTUREL)
12
CHAPITRE 1. ASPECT GÉNÉRAUX DE L’IDENTIFICATION
De plus, la synthèse d’une loi de commande n’est pas facilitée par de tels mo-
dèles (les théories utilisent le plus souvent un modèle paramétrique).
Nous verrons par la suite qu’un modèle non paramétrique conduit à des algo-
rithmes d’identification très simples et son établissement sera souvent considéré
comme une étape permettant de concentrer les résultats d’une expérience.
13
1.3. CRITÈRE D’ÉQUIVALENCE "OBJET-MODÈLE" (ASPECT
PARAMÉTRIQUE)
14
CHAPITRE 1. ASPECT GÉNÉRAUX DE L’IDENTIFICATION
15
1.3. CRITÈRE D’ÉQUIVALENCE "OBJET-MODÈLE" (ASPECT
PARAMÉTRIQUE)
Cette distance ne peut évidemment pas être explicitée car Po est inconnu
(distance dite de structure). (cf. figure 1.13)
En toute généralité kεk n’induit pas une distance paramétrique mais on peut,
sous certaines conditions, établir une équivalence en se plaçant au voisinage de
l’optimum :
Développons kεk au second ordre par rapport aux Pim au voisinage de Pim = Pio :
N µ ¶ N N
à !
X ∂ kεk 1 XX ∂ 2 kεk
kεkPo +∆P ' kεkPo + ∆Pi + ∆Pi ∆Pj
i=1
∂Pim P m =P o 2 i=1 j=1 ∂Pim ∂Pjm m o
i i P =P
(1.4)
en posant : " #
µ ¶
T ∂ kεk
(∇ k k)P0 = ...,..., ,...,...
∂Pim Pim =Pio
et : Ã !
∂ 2 kεk
H = [hij ]Po avec hij =
∂Pim ∂Pjm
Pm =Po
(H est appelé le Hessien, ∇ le gradient).
16
CHAPITRE 1. ASPECT GÉNÉRAUX DE L’IDENTIFICATION
d’où :
T 1 T
kεkPo +∆P ' kεkPo + (∇ k k)P0 .∆P+ (∆P) .H. (∆P) (1.5)
2
— kεkPo = 0
µ ¶ Z t0 m
∂ kεk m o ∂y
— = 2 (y − y ) dt = 0
∂Pim Pm =Po 0 ∂Pim
car y m −y o =!0 pour Pm = Po (l’objet et le modèle ont la même structure)
à Z t0 Z t0 Z t0
∂ 2 kεk m o ∂ 2ym ∂y m ∂y m ∂y m ∂y m
— = 2 (y − y ) dt+2 dt = 2 m dt
∂Pim ∂Pjm 0 ∂Pim ∂Pjm m
0 ∂Pi ∂Pj
m m
0 ∂Pi ∂Pj
soit :
1
kεkPo +∆P ' (∆P)T H (∆P) (1.6)
2
kεk peut être donc approximée, au voisinage de l’optimum, par une forme qua-
dratique en ∆P. Il s’agit d’établir qu’elle est définie positive :
⎡ ⎤
..
Zt0 ⎢ . Z ∙ ¸
⎥£ ¤ t0
... σi σj
H =2 ⎢ σi ⎥ . . . σj ... dt = 2 dt
⎣ ⎦ σi σj ...
0 .. 0
.
∂y m £ ¤
en posant : σ i (t) = (σi (t) : fonction de sensibilité) et σ T = σ 1 σi σN
∂Pim
Z t0
H=2 σσ T dt
0
soit :
Z t0 Z t0
T ¡ T ¢T ¡ T ¢
kεkPo +∆P ' (∆P) σσ T (∆P) = σ ∆P σ ∆P dt
0 0
Z t0 ¡ T ¢2
= σ ∆P dt
0
¡ ¢
car σ T ∆P est un scalaire.
17
1.3. CRITÈRE D’ÉQUIVALENCE "OBJET-MODÈLE" (ASPECT
PARAMÉTRIQUE)
boucle ouverte, en réponse à un échelon, peuvent être très différent. (cf. figures
1.16 et1.17)
Cependant, les "bons" signaux d’excitation dépendent aussi des caractéris-
tiques (à priori inconnues) de l’objet. Ainsi, on conçoit aisément que pour ajuster
18
CHAPITRE 1. ASPECT GÉNÉRAUX DE L’IDENTIFICATION
19
1.3. CRITÈRE D’ÉQUIVALENCE "OBJET-MODÈLE" (ASPECT
PARAMÉTRIQUE)
d’où :
— Il faut choisir une structure du modèle "minimale" de manière à ne prendre
en compte que les paramètres qui agissent efficacement sur la sortie.
— Il faut disposer de signaux d’entrée, suffisamment riches en information
dans le domaine temporel (ou fréquentiel) que l’on désire explorer. Par
exemple : échelon, séquences binaires aléatoires, signaux impulsionnels,. . .
K
(1 + T1 p)(1 + T2 p)
20
CHAPITRE 1. ASPECT GÉNÉRAUX DE L’IDENTIFICATION
Au départ d’une expérience sur l’objet, les conditions initiales de celui-ci sont
inconnues. En conséquence, y o − v est l’effet non seulement de la commande
mesurée depuis le début de l’expérience mais aussi de tout le passé (résumé
dans l’état initial). D’où la nécessité d’une phase d’initialisation : cette phase
consiste généralement à n’exploiter la sortie y o qu’au bout d’un temps T0 (ou
N ) correspondant à la mémoire estimée de l’objet (cf. figure 1.19).
21
1.3. CRITÈRE D’ÉQUIVALENCE "OBJET-MODÈLE" (ASPECT
PARAMÉTRIQUE)
22
CHAPITRE 1. ASPECT GÉNÉRAUX DE L’IDENTIFICATION
L’inconnue β peut être estimée à partir des observations u(k) et y o (k), en ré-
23
1.4. ALGORITHME D’IDENTIFICATION
Exemple 7 Soit un objet discret que l’on modélise par l’équation suivante :
y m (k + 1) = β (y m (k))2 + u(k)
Ce modèle est celui d’un système dynamique non linéaire, et pourtant le pa-
ramètre β peut être obtenu à partir de la résolution d’un système d’équations
linéaires : ⎧ ¡ ¢2
⎪
⎪ y 0 (1) = β y 0 (0) + u(0)
⎨ ¡ ¢2
y 0 (2) = β y 0 (1) + u(1)
⎪
⎪
⎩ ...
24
Chapitre 2
Méthodes directes
Nous alons distinguer dans ce chapitre les méthodes dites graphiques (c’est-
à-dire - simples du point de vue théorique et expérimental - ne réclamant aucun
calcul complexe) de méthodes plus évoluées nécessitant l’utilisation de calcula-
teurs numériques.
Il est à noter que ces méthodes graphiques, bien que n’étant pas toujours les plus
performantes, sont le plus couramment utilisées et appréciées dans le domaine
industriel.
Principe
L’objet est soumis à une excitation harmonique du type u(t) = uk sin(wk t)
et l’on procède après extinction du régime transitoire, à l’enregistrement des
signaux d’entrée et de sortie (cf. figure 2.1).
Cette expérience est réalisée pour différentes pulsations. On relève ensuite, sur
les enregistrements, le gain et le déphasage de l’objet aux diverses pulsations.
Ces points, reportés dans le plan de Bode ou de Nyquist, après interpolation per-
mettent d’obtenir un tracé continu constituant un modèle "non paramétrique"
de l’objet.
Mise en oeuvre
Pour un processus suffisamment rapide (du type servomécanisme) on peut se
dispenser de réaliser des enregistrements en disposant d’un générateur harmo-
25
2.1. ANALYSE HARMONIQUE
26
CHAPITRE 2. MÉTHODES DIRECTES
Principe
L’objet est soumis à une variation brusque de commande, et l’on enregistre
l’effet de sortie (cf. figure 2.2).
27
2.3. ANALYSE IMPULSIONNELLE
Retenons toutefois que l’objet ne peut être inséré dans une boucle de régulation
(la commande de l’objet ne serait pas un échelon).
28
CHAPITRE 2. MÉTHODES DIRECTES
29
2.4. APPROXIMATION PAR UN MODÈLE PARAMÉTRIQUE
Exemple Pour tester cette méthode, nous partons d’un système dont la fonc-
tion de transfert est :
100
T (p) =
(p + 4)(p + 5)(p + 1)
30
CHAPITRE 2. MÉTHODES DIRECTES
5.e−0.09p
T̂ (p) =
(1 + 0.65p)2
31
2.4. APPROXIMATION PAR UN MODÈLE PARAMÉTRIQUE
32
CHAPITRE 2. MÉTHODES DIRECTES
K.e−τ p
T (p) = (2.2)
1 + Tp
Le principe n’est pas de faire coïncider la tangente au point d’inflexion (souvent
imprécis) mais d’ajuster les paramètres T et τ pour que les courbes de réponse du
modèle et du processus aient deux points communs judicieusement choisis. Les
points communs C1 et C2 habituellement utilisés correspondent respectivement
à 28% et 40% de la valeur finale. Le modèle de Broïda donne les points C1 et
C2 pour les dates suivantes :
s(t) t−τ
— = 0.28 =⇒ = 0.328
K.E0 T
s(t) t−τ
— = 0.40 =⇒ = 0.510
K.E0 T
La méthode d’identification s’appuie sur les résultats précédents. Soient t1 et
t2 les temps au bout desquels la réponse expérimentale atteint respectivement
28% et 40% de la valeur finale. On va simplement résoudre le système donné
par :
t−τ
= 0.328 =⇒ t − τ = 0.328T (2.3)
T
t−τ
= 0.510 =⇒ t − τ = 0.510T (2.4)
T
La résolution de ces équations donne :
T = 5.5(t2 − t1 ) (2.5)
τ = 2.8t1 − 1.8t2 (2.6)
Le gain K est déterminé comme dans la méthode de Strejc avec la valeur finale
de la sortie.
5.e−0.375p
T (p) =
(1 + 1.12p)
La figure 2.7 donne les courbes de réponse du système réel et du modèle de
Broïda. La concordance des deux points C1 et C2 est bien vérifiée.
33
2.4. APPROXIMATION PAR UN MODÈLE PARAMÉTRIQUE
34
CHAPITRE 2. MÉTHODES DIRECTES
35
2.5. OBTENTION D’UN MODÈLE NON PARAMÉTRIQUE
Il est bien évident, par ailleurs, que le temps tm est choisi à partir d’une connais-
sance à priori de l’objet, et il est raisonnable de prendre tm voisin de λ.t0 où
t0 est le temps de réponse à 5% de l’objet, et λ compris entre 1 et 1/3 (par
exemple, on choisit λ = 1/3 lorsque l’objet semble d’ordre faible et sans retard
pur).
t0 3
tm = =⇒ fc '
3 2t0
36
CHAPITRE 2. MÉTHODES DIRECTES
M
X −1 µ ¶
−2πknj
Hk = hn exp 06k 6M −1 (2.8)
n=0
M
Données
— L’objet est supposé discret et caractérisé par une séquence de pondération
ao (i).
— w(k) est une séquence de nombres (séquence d’analyse) simulant une réa-
lisation de processus aléatoire stationnaire d’ordre deux et ergodique.
— w(k) et u(k) sont corrélés : φwu 6= 0
— w(k) et v(k) ne sont pas corrélés : φwv = 0
37
2.5. OBTENTION D’UN MODÈLE NON PARAMÉTRIQUE
( ∞
)
X
φwyo (k) = E {w(i)y o (i + k)} = E w(i) ao (l)u(k + i − l) + E {w(i)v(k + i)}
| {z }
l=0
φwv =0
∞
X
φwyo (k) = ao (l)E {w(i)u(k + i − l)} + 0 (2.10)
l=0
X∞
φwyo (k) = ao (l)φwu (k − l) (2.11)
l=0
où φwyo (k) est la sortie fictive de l’objet lorsque φwu (k) est son entrée.
38
CHAPITRE 2. MÉTHODES DIRECTES
Les aspects pratiques du calcul des fonctions φwu et φwyo serons envisagés dans
la suite pour le cas particulier où w(k) est une séquence binaire pseudo aléatoire.
Dans ce cas :
d’où : ∞
X
φwyo (k) = ao (l)φww (k − l) (2.14)
l=0
39
2.5. OBTENTION D’UN MODÈLE NON PARAMÉTRIQUE
que φww (k) = λ2 δ(k). (w(k) est alors une réalisation d’un bruit blanc discret).
Application 2 L’objet est inséré dans une boucle de régulation (cf. figure
2.14).
40
CHAPITRE 2. MÉTHODES DIRECTES
w(k) est une séquence binaire de nombres valant ±A, périodique, de période
N, et dont la fonction d’autocorrélation est représentée sur la figure 2.16.
La mise en oeuvre sur calculateur suppose le schéma suivant (cf. figure 2.17).
Le nombre K peut être réduit à l’unité lorsque les signaux y o (k) et u sont
périodiques de période N (Ceci suppose en particulier que les perturbations
soient nulles).
41
2.5. OBTENTION D’UN MODÈLE NON PARAMÉTRIQUE
Quand au nombre N, il doit être choisit de telle sorte que N soit supérieur
ou égal à la mémoire de l’objet discret. Le choix de N est donc lié au choix de
la période d’échantillonnage dans le cas d’un objet continu (N T ≥ T0 ) :
— s’il s’agit d’estimer un modèle continu on a intérêt à choisir un pas d’échan-
tillonnage fin, donc un nombre N élevé (N = 63, 127, 255, . . .),
— s’il s’agit d’établir un modèle numérique de conduite, un éhcantillonnage
conduisant à N = 15, 31 ou 63 est le plus souvent suffisant (en respectant
toutefois N T ≥ T0 ).
L’estimation des fonctions de corrélation par les formules précédentes sup-
posent la stationnarité des signaux u, y o et w. Cette stationnarité peut être
obtenue pratiquement en appliquant depuis l’instant −N la séquence w(k) (cf.
figure 2.18).
42
CHAPITRE 2. MÉTHODES DIRECTES
Application 1 Le calcul de φwyo (k) suffit car φww (k) est connue.
Cette constante peut être aisément évaluée lorsque ao (0) = 0 (ce qui est en
général le cas) soit :
µ ¶
2 1
φwyo (k) − φwyo (0) = A 1 + .ao (k) (2.17)
N
43
2.5. OBTENTION D’UN MODÈLE NON PARAMÉTRIQUE
44
CHAPITRE 2. MÉTHODES DIRECTES
Le problème de départ a été remplacé par un problème plus simple où les nou-
velles séquences d’entrée et de sortie fictives de l’objet vont être traitées par des
méthodes décrites ultérieurement (moindres carrés, méthode du modèle,...).
45
2.5. OBTENTION D’UN MODÈLE NON PARAMÉTRIQUE
la méthode des moindres carrés revient bien à minimiser l’erreur de sortie car
la matrice A ne dépend que de l’entrée (cf. figure 2.22) :
AT A m AT Yo
P̂ = (2.23)
M M
On vérifie aisément que, pour M très élevé :
⎡ ⎤
φuu (0) φuu (1) . . . φuu (N − 1)
⎢ . .. ⎥
AT A ⎢ φuu (1) φuu (0) . . . ⎥
'⎢⎢ .. ..
⎥
⎥ (2.24)
M ⎣ .. .. .. ⎦
. . . . .
φuu (N − 1) ... ... φuu (0)
1
£ 2 ¤
Par exemple : le terme noté φuu (0) correspond à M u (1) + u2 (2) + u2 (3) + . . . + u2 (M )
qui est bien une estimation de la fonction d’autocorrélation de l’entrée u pour
un retard nul.
46
CHAPITRE 2. MÉTHODES DIRECTES
d’où
⎡ ⎤⎡ ⎤ ⎡ ⎤
φuu (0) φuu (1) . . . φuu (N − 1) a0 (0) φuyo (0)
⎢ . .. ⎥⎢ .. ⎥ ⎢ ⎥
⎢
⎢ φuu (1) φuu (0) . . . ⎥⎢
⎥⎢ . ⎥ ⎢
⎥=⎢
φuyo (1) ⎥
⎢ .. .. ⎥⎢ .. ⎥ ⎣ .. ⎥
⎣ .. .. .. ⎦⎣ ⎦ . ⎦
. . . . . .
φuu (N − 1) ... ... φuu (0) ao (N − 1) φuyo (N − 1)
(2.26)
c’est-à-dire :
N
X −1
φuyo (k) = a0 (i)φuu (k − i) (2.27)
i=0
AT Yo
= Pm φuu (0) (2.28)
M
Cette manière de procéder évite l’inversion de la matrice AT A.
Dans le cas général l’inversion de AT A peut poser quelques problèmes car son
déterminant est souvent très faible et l’on pourra avoir recours à la méthode de
Choleski.
47
2.6. OBTENTION D’UN MODÈLE PARAMÉTRIQUE
Rappelons que :
— Un système est dit complètement commandable si, quelque soit l’état ini-
tial x(0), il existe une commande {u(0), u(1), . . . . . . . . .} qui transfère en
un temps fini le système en un état donné quelconque.
48
CHAPITRE 2. MÉTHODES DIRECTES
⎡ ⎤
a(1) · · · a(n) ··· a(r) ⎡ ⎤
⎢ .. .. .. .. ⎥ H
⎢ . . . . ⎥ ⎢ ⎥
⎢ ⎥ ⎢ HF ⎥£ ¤
⎢ .. ⎥ ⎢ ⎥ G|F G| . . . . . . |F r−1 G
Hr = ⎢ a(n) · · · a(2n − 1) . ⎥=⎢ ⎥
⎢ ⎥ ⎣ ⎦
⎢ . .. .. ⎥
⎣ .. . . ⎦ HF r−1
a(r) ··· ··· ··· a(2r − 1)
(2.33)
L’équation 2.33 donne la matrice de Hankel d’ordre r.
½
a(i) = HF i−1 G
(2.34)
a(0) = 0
49
2.6. OBTENTION D’UN MODÈLE PARAMÉTRIQUE
⎡ ⎤
⎡ ⎤ 1 0 ··· 0 ··· 0
a(1) · · · a(n) ··· a(r) ⎢ .. .. ⎥
⎢ .. .. .. .. ⎥ ⎢ p21 1 . . ⎥
⎢ . . ⎥ ⎢ ⎥
⎢ . . ⎥ ⎢ .. .. .. .. ⎥
⎢ .. ⎥ ⎢ . . . . ⎥
⎢ a(n) · · · a(2n − 1) . ⎥ = ⎢
⎢ ..
⎥×
⎥
⎢ ⎥ ⎢ pn1 ⎥
⎢ . .. .. ⎥ ⎢ ··· ··· 1 . ⎥
⎣ .. . . ⎦ ⎢ . .. ⎥
⎣ .. .. ⎦
a(r) · · · ··· ··· a(2r − 1) . .
pr1 ··· ··· ··· ··· 1
⎡ ⎤
q11 ··· ··· q1n ··· q1r
⎢ .. .. ⎥
⎢ 0 q22 . . ⎥
⎢ ⎥
⎢ .. .. .. .. ⎥
⎢ . . . . ⎥
⎢ ⎥
⎢ .. ⎥
⎢ 0 ··· ··· qnn . ⎥
⎢ ⎥
⎢ . .. .. ⎥
⎢ .. ··· ··· 0 . . ⎥
⎣ ⎦
..
0 ··· ··· ··· ··· .
Hr = P×Q (2.35)
Par construction la matrice P est de rang r, donc la matrice Q est d’un rang
égal à celui de la matrice de Hankel.
On remarque que cette factorisation est simple à réaliser au point de vue numé-
rique :
— q1i = a(i)
— p21 × q11 = a(2) =⇒ p21 = a(2)
q11
— connaissant p21 on peut déterminer la seconde ligne de Q et ainsi de suite,
jusqu’à ce que l’on rencontre un zéro sur la diagonale de Q.
En pratique la séquence de pondération n’est connue qu’avec une certaine
erreur , ce qui conduit à définir une matrice de Hankel avec un ordre quasi
infini (la séquence d’erreur additionnelle est considérée comme la séquence de
pondération d’un système n’admettant pas, à priori, de représentation paramé-
trique). Il convient donc de rechercher la nullité des termes diagonaux de Q en
tolérant une erreur.
50
CHAPITRE 2. MÉTHODES DIRECTES
51
2.6. OBTENTION D’UN MODÈLE PARAMÉTRIQUE
(où x(k) est un vecteur de mesure) car y m (k) dépend de y m (k − i). Nous pou-
vons supprimer cette dépendance en explicitant successivement les y m (k − i) en
fonction des sorties modèle précédentes et ainsi de suite, mais il apparaît alors
que le système d’équations devient non linéaire en paramètre, comme le montre
l’exemple suivant.
Par contre un modèle du type donné par 2.39 : (un modèle dit de prédiction)
n
X n
X
y m (k) = − βm o
i y (k − i) + αm
j u(k − j) (2.39)
i=1 j=1
52
CHAPITRE 2. MÉTHODES DIRECTES
Afin d’analyser le biais de cette méthode, supposons que l’objet soit décrit par
l’équation stochastique suivante :
n
X n
X n
X
y o (k) = − βm o
i y (k − i) + αm
j u(k − j) + cl ν(k − l) (2.45)
i=1 j=1 l=1
| {z }
ζ(k)
53
2.6. OBTENTION D’UN MODÈLE PARAMÉTRIQUE
y o (i) dépend de ζ(i) et puisque ζ(i) n’est pas en général un bruit blanc il appa-
raît une corrélation entre y o (i) et ζ(k + i) pour k ≥ 1.
Notons que le problème est simplifié dans l’application 1 de 2.5.2 car la mé-
thode de corrélation est susceptible de fournir directement une estimation de
la séquence de pondération de l’objet. Dans ce cas la séquence d’entrée fictive
est u(k) = δ(k) et la sortie est l’estimation des ao (k). On remarque alors, étant
donné la structure particulière de la matrice A, que les coefficients β m i peuvent
être déterminés en premier lieu indépendamment des αm i . Ce qui a pour intérêt
essentiel de réduire la dimension des matrices à inverser.
54
Chapitre 3
Méthodes Itératives
Dans ce chapitre nous allons voir comment il est possible d’éliminer le biais
relatif à l’identification d’un modèle paramétrique (voir la méthode des moindres
carrés) en introduisant des calculs itératifs.
3.1.1 Principe
Le biais de la méthode des moindres carrés provient du fait que la séquence
ζ(k) n’était pas un bruit blanc.
En effet, nous avions supposé que l’objet était décrit par l’équation :
A(z) C(z)
Y o (z) = .U (z) + .ν(z)
1 + B(z) 1 + B(z)
| {z }
v(z)
Supposons que C(z) soit connu : il suffit alors d’introduire un filtrage inverse
1/C(z) comme l’indique la figure 3.1, afin d’éliminer le biais dans l’estimation
des paramètres par la méthode des moindres carrés.
∙ ¸
∗ A(z) C(z) 1
Y (z) = .U (z) + .ν(z) .
1 + B(z) 1 + B(z) C(z)
A(z) ν(z)
Y ∗ (z) = .U ∗ (z) +
1 + B(z) 1 + B(z)
55
3.1. MÉTHODES STOCHASTIQUES
c’est-à-dire :
n
X n
X
y ∗ (k) = − β oi .y ∗ (k − i) + αoj .u∗ (k − j) + ν(k)
1 0
n
X n
X
y m (k) = − βm ∗
i .y (k − i) + αm ∗
j .u (k − j)
1 0
M
X M
X 2 T
Q= e2 (k) = [y ∗ (k) − y m (k)] = [Y∗ − A.Pm ] . [Y∗ − A.Pm ]
1 1
Cette fois, le bruit ν(k) étant un bruit blanc, il n’y a plus de corrélation entre
la matrice AT et le vecteur ν. Par la même, le biais disparaît (ceci est obtenu
en blanchissant le résidu e(k)).
56
CHAPITRE 3. MÉTHODES ITÉRATIVES
Le schéma de la méthode des moindres carrés est appliqué à partir des variables
y ∗ (k) et u∗ (k) d’après le modèle de prédiction (linéaire en paramètre) :
n
X n
X
y m (k) = − βm ∗
i .y (k − i) + αm ∗
j .u (k − j)
1 0
n
X n
X
e(k) = y ∗ (k) − y m (k) = y ∗ (k) + βm ∗
i .y (k − i) − αm ∗
j .u (k − j)
1 0
Seulement ici, y ∗ (k) et u∗ (k) s’expriment à partir des variables observées (u(k)
et y o (k)) par les équations récursives :
½ ∗ P
y (k) = − Pn1 cm ∗ o
l .y (k − l) + y (k)
∗ n m ∗
u (k) = − 1 cl .u (k − l) + u(k)
où cm
l sont des inconnues.
57
3.1. MÉTHODES STOCHASTIQUES
∂Q
Il s’agit d’exprimer ∂Pm :
"M # "M #
∂Q ∂ X X ∂e(k)
2
= e (k) = 2.e(k).
∂Pm ∂Pm 1 1
∂Pm
n
X n
X
e(k) = y ∗ (k) + βm ∗
i .y (k − i) − αm ∗
j .u (k − j)
1 0
soit : Ã ! Ã n !
n
X X
E(z) = 1+ βm
i .z
−i
.Y ∗ (z) − αm
j .z
−j
.U ∗ (z)
1 0
avec :
Y o (z) U (z)
Y ∗ (z) = Pn m −l et U ∗ (z) = Pn m −l
1 + 1 cl .z 1+ 1 cl .z
d’où : ⎧ ³ ´
⎪
⎪ Z ∂e(k)
= −z −j .U ∗ (z)
⎪
⎨ ³ ∂αj ´
m
Z ∂e(k)
∂β m = +z −i .Y ∗ (z) (3.2)
⎪
⎪ ³ i ´
⎪
⎩ Z ∂e(k)
−l
∂cm = − 1+zSn.E(z)
cm .z −l
l 1 l
Ces équations 3.2 montrent comment sont calculées les composantes du vecteur
gradient à partir des équations aux différences.
58
CHAPITRE 3. MÉTHODES ITÉRATIVES
∂e(k)
m = y ∗ (k − i)
⎪
⎪ ³ ∂β i ´ P
⎪
⎩ ∂e(k) n ∂e(k−l)
∂cm = 1 cm l . ∂cm − e(k − l)
l l
d’où : "M #
∂Q X ∂e(k)
= 2.e(k). m
∂pm
i 1
∂pi
A partir de ces éléments spécifiques à la méthode du maximum de vraisem-
blance, on se reportera aux méthodes du modèle pour une étude plus détaillée
de la mise en oeuvre numérique de cette méthode. Ces méthodes du modèle
seront explicitées plus loin dans ce chapitre.
Ce qui peut s’écrire matriciellement sur l’horizon [1, M ], en supposons les condi-
tions initiales nulles :
⎡ ⎤ ⎡ y m (1) ⎤ ⎡ m ⎤ ⎡ u(1) ⎤
1 0 ··· ··· ··· 0 α0 0 ··· ··· ··· 0
⎥⎢ y (2) ⎥ ⎥⎢ u(2) ⎥
m
⎢ βm 1 0 · · · · · · 0 ⎢ ⎥ ⎢ αm α m
0 · · · · · · 0
⎢ m 1 ⎥⎢ . ⎥ ⎢ m 1 0 ⎥⎢ ⎥
⎢ β2 βm 1 0 · · · 0 ⎥⎢ . ⎥ ⎢ α2 αm α m
0 · · · 0 ⎥⎢⎢
.. ⎥
⎥
⎢ 1 ⎥ . ⎢ 1 0 ⎥⎢ .
⎢ .. .. .. .. ⎥ ⎢ ⎥
.. ⎥ = ⎢ . .. .. .. ⎥⎢ . ⎥
⎢ . . . ⎥⎢⎢ ⎥ ⎢ .. . . ⎥⎢ . ⎥
⎢ . ⎥⎢ . ⎥ ⎢ . ⎥⎢ . ⎥
⎢ . . ⎥⎢ . ⎥ ⎢ . . ⎥⎢ . ⎥
⎣ .. .. 0 ⎦ ⎣ . ⎦ ⎣ .. .. ⎦⎣ . ⎥
m
. 0 . ⎦
m m
0 ··· 0 βn · · · 1 m
y (M ) 0 · · · 0 α n · · · α 0 u(M )
⎡ ⎤ ⎡ ν(1) ⎤
1 0 ··· ··· ··· 0
⎢ cm 1 0 ··· ··· 0 ⎥⎢ ν(2) ⎥
⎢ 1 ⎥⎢ ⎥
⎢ cm cm 1 0 ··· 0 ⎥ ⎢ .. ⎥
⎢
⎥
⎢ 2 1 ⎥⎢ .
+⎢ .. .. .. .. ⎥⎢ . ⎥
⎢ . . ⎥⎢ . ⎥
⎢ . . ⎥⎢ . ⎥
⎢ .. .. ⎥⎢ . ⎥
⎣ . ⎦⎣ . ⎥
. 0 . ⎦
0 ··· 0 cm
n ··· 1 ν(M )
B.Ym = A.U + C.ν
soit :
Ym = B−1 .A.U + B−1 .C.ν (3.3)
59
3.1. MÉTHODES STOCHASTIQUES
On remarque par ailleurs que cette équation est non linéaire par rapport aux
paramètres et que :
£ ¤T
B−1 .C.ν = v(1) v(2) . . . v(M )
Supposons que les expériences effectuées sur l’objet se déroulent toujours dans
des conditions identiques :
— Conditions initiales nulles,
— Séquence de commande figée à {u(1), . . . , u(M )} ,
— Horizon d’observation [1, M ].
L’expérience va alors fournir un vecteur de mesure Yo , résultat d’une expé-
rience aléatoire.
(2π) 2 |ΣYm Ym | 2 2
or :
−1 1 h −1 ¡ −1 ¢T i−1 1 ¡ ¢T
[ΣYm Ym ] = 2
. B .C. B .C = 2 . C−1 .B .C−1 .B
σ σ
et :
|ΣYm Ym | = σ 2
car les matrices B et C sont des matrices triangulaires de diagonale 1, donc de
déterminant unité. En conséquence :
½ ¾
m m 1 1 £ −1 m −1
¤T £ −1 m −1
¤
P (Y /P ) = M exp − 2 C BY − C AU C BY − C AU
(2π) 2 σ M 2σ
60
CHAPITRE 3. MÉTHODES ITÉRATIVES
1 £ −1 ¤T £ −1 ¤
L = log (P (Yo /Pm )) = λ−M log σ− 2
C BYo − C−1 AU C BYo − C−1 AU
2σ
Le maximum de cette fonction est obtenu pour :
½ ∂L
∂Pm = 0
∂L
∂σ = 0
La fonction L peut être interprétée comme une fonction de coût et l’on établit
immédiatement la relation :
M
X £ ¤T £ ¤
Q= e2 (k) = C−1 .B.Yo − C−1 .A.U . C−1 .B.Yo − C−1 .A.U
1
P̂m −→ Po lorsque M −→ ∞
61
3.1. MÉTHODES STOCHASTIQUES
On sait, d’après les modèles précédents que ζ(k) est déduit, par filtrage à
moyenne mobile, du bruit blanc ν(k) :
ζ(z) = C(z).ν(z)
Xn
ζ(k) = cm
l .ν(k − l) + ν(k)
1
en confondant ζ(k) avec e(k) il n’est cependant plus possible d’identifier les
coefficients cm l car ν(k) est non mesurable. Cependant si l’on cherche à approcher
le filtrage précédent par un filtrage récursif du type :
q
X
e(k) = − ri .e(k − i) + ν(k)
1
L’estimation des ri est possible par une méthode des moindres carrés à partir
de la mise en équation matricielle suivante :
⎡ ⎤ ⎡ e(q)
⎤
· · · · · · e(1) ⎡ −r1 ⎤ ⎡ ν(q + 1) ⎤
e(q + 1)
⎢ .. ⎥ ⎢ .. ⎥⎢ . ⎥ ⎢ .. ⎥
⎢ ⎥ ⎢ . e(2) ⎥⎥⎢ .. ⎥ ⎢ ⎥
⎢ . ⎥=⎢ ⎢ ⎥ ⎢ . ⎥
⎢ .. ⎥ ⎢ ⎢
.. .. ⎥ ⎢ . ⎥ + ⎢
⎥⎣ . ⎦ ⎣ . ⎥
⎣ . ⎦ ⎣ . . ⎦ . .
. ⎦
e(M ) .
.. −rq ν(M )
e(M − 1) · · · · · ·
e=E×r+ν
d’où : ¡ ¢−1 T
r̂ = ET .E .E .e
Si la séquence e(k) était une estimation non biaisée de ζ(k), r̂ ne présenteraient
pas de biais car ν(k) est un bruit blanc. Malheureusement, e(k) est biaisé car
c’est le résidu de la méthode des moindres carrés ordinaire.
∗ ∗
b. A partir des nouvelles données
© m ª y (k) et u (k) on effectue une estimation des
m
paramètres {αi } et β j par une méthode des moindres carrés ordinaire.
c. On construit la nouvelle séquence d’erreur e∗ (k) (résidu relatif à l’estimation
en (b)).
d. A partir de e∗ (k), on effectue une estimation d’un filtre caractérisé par r̂.
62
CHAPITRE 3. MÉTHODES ITÉRATIVES
3.1.4 Conclusion
Dans la plupart des cas pratiques le modèle mathématique des perturbations
n’est pas utilisé par la suite et il faut plutôt considérer les méthodes précédentes
comme des méthodes permettant d’éliminer, en identification paramétrique, l’in-
fluence de ces bruits.
La sortie du modèle est calculée à partir des équations du modèle et des seules
observations de l’entrée.
63
3.2. MÉTHODES DU MODÈLE (MÉTHODE DÉTERMINISTE)
ou encore :
Y m (z) A(z)
=
U (z) 1 + B(z)
Le principe de la méthode réside dans la minimisation d’une fonction de coût
par des méthodes de programmation non linéaire (méthodes itératives) (cf. fig.
3.4).
64
CHAPITRE 3. MÉTHODES ITÉRATIVES
A noter qu’en opérant en temps différé ce problème ne se pose pas car les
séquences d’entrée et de sortie sont identiques pour toute la durée de la mini-
misation.
Les caractéristiques du signal de sortie sont liés aux perturbations v(k). Si l’on
veut que l’estimation des paramètres du modèle (en temps différé, c’est-à-dire en
opérant à partir d’enregistrements relatifs à une seule expérience) soit proche de
la valeur optimale, il faut que le bruit v(k) soit à variations rapides par rapport
à l’horizon M (c’est-à-dire que ce bruit soit proche d’un bruit blanc).
Si le bruit v(k) ne peut être considéré comme blanc par rapport à M , il est
65
3.2. MÉTHODES DU MODÈLE (MÉTHODE DÉTERMINISTE)
A noter que l’identification “en ligne” ne présente pas tout à fait la même
difficulté car on réalise un nombre d’expériences égal au nombre d’itération de
l’algorithme P.N.L.
Le calcul de y m (k) exige la donnée de la séquence u(k −j) mais aussi des valeurs
précédentes de la sortie du modèle.
4. Minimisation du critère
66
CHAPITRE 3. MÉTHODES ITÉRATIVES
Méthode du gradient :
µ ¶
∂Q
P m (K + 1) = P m (k) − λ2 .
∂P m P M =P M (K)
Méthode de Gauss-Newton :
µ ¶
∂Q
P m (K + 1) = P m (k) − λ2 . B. m
∂P P M =P M (K)
où :
∂Q
— ∂P m est le vecteur gradient.
m
∂y (k)
en posant σ i (k) = ∂pm , σ i est appelé fonction de sensibilité.
i
X M X M
∂2Q ∂σ i (k)
m m = 2. σj (k).σ i (k) + 2. (k).
∂pi ∂pj ∂pm j
k=1 k=1
soit :
X M
∂2Q
m m ' 2. σ j (k).σ i (k)
∂pi ∂pj
k=1
La matrice B de l’algorithme
P de Gauss-Newton peut être choisie telle que
B −1 = [bij ] avec bij = 2. M
k=1 σ j (k).σ i (k).
On note alors que B −1 est définie positive par construction et tend vers
le Hessien lorsque (k) −→ 0.
67
3.2. MÉTHODES DU MODÈLE (MÉTHODE DÉTERMINISTE)
Posons :
X ∂Y m (z)
σ i (z) = Z(σ i (k)) = σi (k).z −k =
∂pmi
avec :
m m
P m = [αm m m m
0 . . . αn | β 1 . . . β n ] = [p1 . . . . . . p2n−1 ]
d’où :
U (z)
σ αm (z) = z −i . Pn m −j
i
1+ j=1 β j .z
et :
Y m (z)
σβm (z) = −z −j . Pn
j
1 + j=1 β m
j .z
−j
Les fonctions de sensibilité sont alors générées à partir d’équations aux diffé-
rences (équations de sensibilité) comme le montre l’exemple suivant.
Exemple 10
Y m (z) αm + αm 1 .z
−1
= 0 m −1
U (z) 1 + β 1 .z
d’où :
⎧ m
⎪
⎪ y (k) = −β m m
1 .y(k − 1) + α0 .u(k) + α1 ⎫
m
.u(k − 1)} modèle
⎨ m
σα0 (k) = −β 1 .σ α0 (k − 1) + u(k) ⎬
m
⎪ σα1 (k) = −β 1 .σ α1 (k − 1) + u(k − 1)
⎪ modèle de sensibilité
⎩ ⎭
σβ 1 (k) = −β m
1 .σ β1 (k − 1) + u(k − 1)
6. Conclusion
Rappelons que lorsque l’objet est continu, il est possible de transposer tout
ou partie des résultats précédents en analogique, mais l’on considérera aussi
avec attention les méthodes de simulation numérique d’un système continu.
68
CHAPITRE 3. MÉTHODES ITÉRATIVES
Par contre, si l’on met en oeuvre l’algorithme des moindres carrés récurrents, la
méthode devient itérative et applicable en temps réel.
Nous allons donner une autre version itérative de la méthode du modèle fondée
sur la minimisation de la fonction de coût (dite encore distance de structure) :
N
X −1
2
Q= [am (i) − ao (i)]
i=0
d’où :
N−1
X
∆Q(K) = θ2 u2 (K − i) + 2θ (K) (3.6)
i=0
69
3.2. MÉTHODES DU MODÈLE (MÉTHODE DÉTERMINISTE)
(K)
θopt = − PN−1 (3.7)
i=0 u2 (K − i)
2 (K)u(K − i)
am m
K+1 (i) = aK (i) − λ PN −1 2 (3.8)
i=0 u (K − i)
70
Chapitre 4
Filtre de Kalman
4.1 Principe
Un système dynamique bruité peut être décrit par les équations :
½
x(k + 1) = A.x(k) + B.u(k) + G.w(k)
(4.1)
y(k) = C.x(k) + v(k)
où :
— x : vecteur d’état de dimension n,
— u : vecteur de commande de dimension m,
— y : vecteur de mesure de dimension p,
— w : vecteur de bruit du système de dimension r,
— v : vecteur des bruits de mesure de dimension p.
©w estªun bruit blanc de moyenne nulle et de matrice de covariance Q =
E w.wT , qu’on écrit w ∼ (0, Q). Il represente les erreurs de modéllisation et
les perturbations.
L’état initial du système x0 est lui aussi inconnu, mais on en dispose de quelques
connaissances sous forme de valeur moyenne (prédite) x̄0 et de matrice de co-
variance P0 ; x0 ©∼ (x̄0ª, P0 ). On
© suppose
ª que x0 est indépendant de v et de w
(c’est-à-dire : E x.v T = E x.wT = 0).
Le but est de concevoir un estimateur qui fournit des estimations de l’état x(k),
en tenant compte des dynamiques données par l’équation 4.1 et des mesures de
sortie y(k).
71
4.1. PRINCIPE
x̂(k) = F y(k) + g
72
CHAPITRE 4. FILTRE DE KALMAN
On définit x̂(k|k −1) comme étant l’estimation de x(k) à partir des informations
jusqu’à l’instant k − 1.
ȳ(k) = C x̂(k|k − 1)
n o
Py(k)x(k) = E (y(k) − ȳ(k)) (x(k) − x̂(k|k − 1))T
n o
P (k|k − 1) = E (x(k) − x̂(k|k − 1)) (x(k) − x̂(k|k − 1))T
g = x̂(k|k − 1) − F.ȳ(k)
−1
F = Px(k)y(k) .Py(k)
73
4.2. L’ALGORITHME DISCRET DU FILTRE DE KALMAN
Pour voir jusqu’à quel point l’estimation x̂(k|k) est précise, l’erreur de cova-
riance postérieure P (k|k) peut être calculée :
n o
P (k|k) = E [x(k) − x̂(k|k)] [x(k) − x̂(k|k)]T
nh i
−1
P (k|k) = E x(k) − x̂(k|k − 1) − Px(k)y(k) .Py(k) .(y(k) − ȳ(k))
h iT ¾
−1
x(k) − x̂(k|k − 1) − Px(k)y(k) .Py(k) .(y(k) − ȳ(k))
P (k|k) = P (k|k − 1) − P (k|k − 1).C T .(C.P (k|k − 1).C T + R)−1 .C.P (k|k − 1)
74
CHAPITRE 4. FILTRE DE KALMAN
75
4.4. FILTRE DE KALMAN SOUS-OPTIMAL DU RÉGIME PERMANENT
76
CHAPITRE 4. FILTRE DE KALMAN
Fig. 4.3 —
77