Académique Documents
Professionnel Documents
Culture Documents
1. Introduction
L’identification des systèmes multivariables directement sous forme d’état est pé-
nalisée par la présence du vecteur d’état inconnu (x k ), équation (1). Pour éviter ce
problème d’estimation non linéaire du produit A x k , une première solution consiste
à identifier au préalable une représentation externe, du type matrices de transfert ou
matrices polynomiales, avant de la convertir sous forme d’état canonique observable.
Sous l’hypothèse d’observabilité, cette technique propose de décomposer le système
multivariable en autant de sous-systèmes que de sorties. Chacun des sous-systèmes
peut alors s’écrire sous la forme d’une régression linéaire des entrées et des autres
sorties du système pour tenir compte de sa nature multivariable. Les méthodes ex-
ploitant ce principe se décomposent en deux classes selon le critère de minimisation
utilisé :
— Une première approche repose sur la minimisation d’une erreur de prédiction
(erreur d’équation). Les paramètres relatifs à chaque sous-système peuvent être esti-
més par des techniques d’estimation dérivées de la méthode des moindres carrés (MC)
ou celles de la variable instrumentale. Les propriétés statistiques de ces estimateurs
sont bien connues et expliquent en partie l’attrait pour cette stratégie. En revanche,
l’hypothèse a priori de blancheur de l’erreur de prédiction, pour les techniques de
4 Technique et science informatiques. Vol. 15- no 6/1996
type MC, est une hypothèse « lourde » dans le sens où elle n’est que rarement vérifiée
en pratique et de ce fait constitue, a posteriori, un sérieux obstacle à la validation du
modèle.
— La seconde approche minimise une erreur de sortie [BAR 75], [BAR 77]. Ce
second critère se distingue du premier par sa signification physique et sa sensibilité
plus importante aux erreurs de structure du modèle et aux valeurs des paramètres. En
revanche, elle se différencie aussi par sa mise en œuvre plus délicate due à l’expres-
sion non linéaire de l’erreur de sortie par rapport aux paramètres du modèle. La ré-
solution du problème fait alors intervenir des techniques itératives de programmation
non linéaires reposant sur des méthodes locales et déterministes comme les méthodes
de Newton et ses variantes : Gauss-Newton, Quasi-Newton et Levenberg-Marquardt,
la méthode des gradients conjugués et la méthode du simplex [DEN 83], [LUE 84],
[WAL 94].
L’identification des systèmes multivariables par les méthodes précédentes néces-
site une paramétrisation canonique du modèle. La paramétrisation d’une représenta-
tion d’état est un point de recherche délicat qui a fait l’objet de beaucoup de travaux
[LUE 67], [DEN 74], [GLO 93], [GUI 75], [KAI 80], [GUI 81], [GEV 84]. Les avan-
tages principaux de ces formes canoniques sont leur identifiabilité globale [MCK 95]
et leur nombre réduit de paramètres à estimer : d = np + 2nm où n est l’ordre du
modèle, m le nombre de variables de sortie et p le nombre de variables d’entrée. En
revanche, elles impliquent la détermination au préalable des indices structuraux ou in-
dices d’observabilité. Cette étape, appelée « identification structurale » a suscité l’in-
térêt de nombreux chercheurs [GUI 75], [GUI 82], [BEG 87], [FUC 90], [DUO 93].
Différents tests ont été développés pour sélectionner les ordres des polynômes dont
ceux fondés sur les critères d’information de type AIC (Akaïke Information Criterion),
BIC (Bayes Information Criterion), CIC (Control Information Criterion) [KEU 93].
Aujourd’hui les problèmes majeurs de ces méthodes restent leur coût de calcul et leur
manque de précision lorsque la dimension du système réel augmente. Jusqu’en 1992,
il n’existait pas d’algorithmes d’identification structurale possédant des propriétés sta-
tistiques, pour déterminer le rang de la matrice ou la nullité des résidus en présence
de bruit sur les données. Cette approche a été développée par D UONG et L ANDAU
[DUO 93].
Sur la base d’une autre approche dite « combinée », regroupant réalisations dé-
terministe et stochastique [VAN 94a], un théorème unifié [VAN 94b] a été proposé
par V AN OVERSCHEE et D E MOOR. Plus récemment, J ANSSON et W AHLBERG ont
proposé une expression des techniques 4SID sous la forme d’une régression linéaire
[JAN 96]. En termes plus précis, leur conclusion présente les méthodes des sous-
espaces comme des méthodes fondées sur les erreurs de prédiction à horizons mul-
tiples et sur des contraintes de rang. La généralisation des méthodes des sous-espaces
a aussi été entreprise dans le domaine fréquentiel avec les travaux de M CKELVEY
[MCK 94a], [MCK 94b]. Sur ce même thème, une approche itérative est proposée par
J ACQUES et al. [JAC 96].
Pour améliorer les performances des algorithmes 4SID en terme de coût de calcul
et de précision d’estimation, une exploitation judicieuse des structures des matrices
de Hankel et de Toeplitz utilisées au sein de ces méthodes a été suggérée par C HO et
al. [CHO 94]. L’estimation des pôles proches du cercle unité en présence de bruit est
un autre problème pouvant conduire à l’estimation de modèles instables, une solution
« robuste » a été proposée par M ACIEJOWSKI [MAC 94]. Sur ce thème de recherche,
l’introduction d’une transformation bilinéaire a été présentée comme une seconde so-
lution [VER 95b].
Initialement destinés aux modèles d’état dynamiques à temps discret, des travaux
ont été menés pour adapter les algorithmes 4SID au cas de l’estimation de modèles
d’état à temps continu [MOO 91], [VAN 96a], [HAV 96], [BAS 97c], [BAS 97b]. D’autres
études ont permis d’étendre l’utilisation des algorithmes 4SID à l’identification de sys-
tèmes singuliers [MOO 93], [YU 95]. Le champ d’application des algorithmes 4SID
s’est aussi orienté vers l’identification des systèmes en boucle fermée avec les travaux
de V ERHAEGEN [VER 93] et ceux de L JUNG et M CKELVEY [LJU 96]. L’applica-
tion des méthodes des sous-espaces au problème de l’identification de systèmes non
linéaires multivariables de type Wiener a aussi été considérée [VER 95a]. Enfin, ré-
cemment, un algorithme de détection de défaut utilisant une technique d’estimation
4SID a été proposé par G USTAFFSSON. Il repose sur la proximité, soulignée dans
[VAN 96b], des relations des méthodes des sous-espaces avec celles d’un filtre de
Kalman. D’autres travaux comme ceux de B ASSEVILLE [BAS 97a] confirment cette
orientation vers des applications de diagnostic.
vecteur de bruits blancs dont la matrice d’autocovariance est donnée par E e i eTj =
f g
kX
;1
xk = Ak x0 + Ah Buk;1;h (5)
h=0
8 Technique et science informatiques. Vol. 15- no 6/1996
Mesures u ; y #
k k
Estimation de
Identification
sous-espaces
structurale
vectoriels
Indices
ν
d'observabilité i Matrice
Γ i $
X = xk k = 1:i
Matrice d'état
d'observabilité étendue
Estimation Estimation de
paramétrique l'ordre
n
Estimation des
matrices
A, B, C, D
( q −1 )
(q −1 ) yk = −1 uk +
!(q −1 ) x = Axk + Buk + wk
y
k +1
e
$(q ) "(q −1 ) k k = Cxk + Duk + vk
Modèle polynomial Modèle d'état
Représentation
canonique
Ac , Bc , Cc , Dc
ou encore :
0u 1 0u 1
k;1
B . C BB u01 CC
B@ .. CCA = Ak x0 + ;Ak;1 B
xk = Ak x0 + k B
AB B B @ ... CA : (6)
u1
u0 uk;1
k =
; B AB Ak;1 B
2 Rn kp est la matrice de commandabilité
Exemple d’utilisation du style LATEX tsi.sty 9
étendue (k > n). En incluant dans (6), l’équation de sortie (4) pour les instants t 2
f0 k 1 , nous obtenons :
; g
0u 1
; BBu01 CC
yk = CAk x0 + CAk;1 B CB D B @ ... CA : (7)
uk
Considérons à présent les vecteurs d’entrée et de sortie suivant :
0 y 1 0 u 1
k k
BB yk+1 CC BB uk+1 CC
yi (k ) = B . C Rmi 1 u i (k ) = B . C Rpi 1:
@ .. A 2
@ .. A 2 (8)
yk+i;1 uk+i;1
L’équation (7) est alors étendue aux différents échantillons de sortie, de k à k +i;1
pour obtenir :
yi (k ) = ;i xk + Hi ui (k ) (9)
avec :
0 D 0 0
1 0 C 1
BB CB D 0 0CC BB CA CC
Hi = BBB CAB CB D 0CC CA 2 Rmi pi et ;i = BBB CA. 2 CCC 2 Rmi n
@ ... ..
. @ .. A
CAi;2 B CAi;3 B CB D CAi;1
(10)
Yi = ;i X + Hi Ui : (11)
avec :
10 Technique et science informatiques. Vol. 15- no 6/1996
0y y yj;1
1
0 1
; B
B y1 . .
yj
CC
yi (j 1) = B CC
.
Yi = yi (0) yi (1) B@ .. Rmi j
A
; 2
..
. .
yi;1 yi+j;2
(12)
0u u uj;1
1
0 1
; B
B u1 . ..
uj C
C
Ui = ui (0) ui (1) ui (j 1) = B
B@ .. C
.. C Rpi j
. A
; 2
.
ui;1 ui+j;2
(13)
;
X = x0 x1 xj;1
2 R
n j: (14)
Dans la suite, la matrice de Hankel d’entrée, U i , est supposée être de rang plein
( = pi et i > n) car toute diminution de rang à ce niveau risque d’une part de
provoquer une sous-estimation du nombre d’état estimé du système, et d’autre part
de diminuer les performances d’estimation de ces approches. De plus, cette condition
permet d’éviter tout problème de conditionnement numérique qui se traduirait par des
erreurs de calcul dans l’estimation de ; i ou de X . Cette condition est à rapprocher
de la condition d’excitation permanente définie dans [BAR 77]. La matrice de Han-
kel d’entrée peut aussi être exploitée en vue de tester l’ordre d’excitation persistante
[SöD 89] dont un estimateur est donné par R uu (i) = Ui UiT . La séquence fuk g est
alors une excitation persistante d’ordre i si R uu (i) est une matrice définie positive.
Yi = ;i X + Hd Ui + Hs Ei (15)
où Hd = Hi est la matrice des paramètres de Markov de la réalisation déterministe
et Hs celle de la réalisation stochastique :
0 I 0 0
1
BB CK I 0 0CC
Hs = BBB CAK CK I 0CC CA 2 Rmi mi (16)
@ ... ..
.
CAi;2 K CAi;3 K CK I
Exemple d’utilisation du style LATEX tsi.sty 11
4. Interprétations géométriques
Im lig ! Yi &
!
Im lig Γi XUi ⊥ & ! &
Im lig Γi X
!
= Im lig Yi U i ⊥ &
!
Im lig H i U i & ! &
Im lig U i
2. La figure 2 montre aussi que la projection orthogonale de Im lig (Yi ) sur Imcol (Ui? )
est égale à la projection orthogonale de Im lig (;i X ) sur Imcol (Ui? ). La dimension du
sous-espace Imlig (;i X ), réalisant une combinaison linéaire des vecteurs lignes de X ,
est égale à n, l’ordre du système si j i > n. Alors, si la projection sur Im col (Ui? )
ne modifie pas la dimension de Im lig (;i X ), la dimension du résultat de la projection,
noté Imlig (Yi Ui? ), fournit une estimation de l’ordre du modèle. Im lig (Yi Ui? ) peut
être présenté comme le sous-espace engendré par des composantes des vecteurs de
sortie indépendantes des vecteurs d’entrée et ne résultant par conséquent que de l’état
du système. A partir du théorème de Sylvester généralisé, appliqué à deux reprises sur
l’équation matricielle (11), Moonen [MOO 89] confirme l’interprétation géométrique
et démontre également l’égalité entre l’équation précédente et l’ordre de système.
Les mêmes interprétations géométriques peuvent être étendues pour estimer soit
Imlig (X ) soit Imcol (;i ) à partir de Ui et Yi :
U ⊥
E
i
i ΠΨ
H s Ei Π U⊥
plan déterministe
i
Yi Π Ψ = Γi XΠ Ψ
Γi X
Γi X d ΠΨ Π E⊥
Γi Yi i
Hd U i Ui
Ei
;
U ? = (Ui? ) (Ui? )T Ui? ;1 (Ui? )T (20)
où Ui? 2 Rj j ;pi est la matrice orthogonale de U i définie par Ui Ui? = 0. L’uti-
lisation de cette projection dans notre problème revient algébriquement à multiplier
chacun des membres de l’équation matricielle déterministe (11) par U ? .
14 Technique et science informatiques. Vol. 15- no 6/1996
Yi U ? = ;i X U ? (21)
L’équation résultante (21) montre que le produit Y i U ? est une combinaison li-
néaire des vecteurs colonnes de ; i . Par conséquent, le sous-espace colonne de Y i U ?
est une réalisation du sous-espace d’observabilité étendu Im(; i ). Le calcul de U ?
nécessite l’utilisation d’une décomposition en valeurs singulières dont la charge de
calcul est de l’ordre de o(j 3 ) flops (floating point operation) [GOL 93] où j est le
nombre de colonnes de la matrice à décomposer. Un moyen de calcul plus écono-
mique en temps et en nombre d’opérations consiste à effectuer une factorisation RQ
(o(j 2 ) flops). Cette factorisation est définie par l’équation (22).
U R
i
Yi = RQ =
U
RYQ= R 11 0pi mi Q1
R21 R22 Q2 (22)
remplaçant Yi par RY Q et Ui par RU Q dans les équations (20) et (21), nous obtenons
finalement l’égalité (23).
Yi U ? = R22 Q2 : (23)
Q2 étant par définition une matrice orthonormale, cette dernière équation est fina-
lement équivalente à :
Yi U ? QT2 =
T :
U V (25)
;^ i =
1=2 :
U (26)
Exemple d’utilisation du style LATEX tsi.sty 15
EfUi g = 0: (29)
Face à toutes ces conditions, plusieurs solutions ont été formulées, toutes pro-
posent de décomposer les matrices d’entrée-sortie en deux sous-matrices dites « pas-
sée » et « future ».
U2i = UUp Y2i = YYp (30)
f f
avec Up , Uf 2 Rpi j et Yp , Yf 2 Rmi j .
Parmi les différentes approches proposées, nous citerons ici les principales.
— méthodes PI-MOESP et PO-MOESP [VER 94].
Yf = ;i Xf + Hd Uf + Vf (31)
16 Technique et science informatiques. Vol. 15- no 6/1996
;
avec Xf = xi xi+1
xi+j;1 . Deux choix de la matrice instrumentale
sont proposés :
PI-MOESP : utilisation des entrées passées
= Uf? UpT : (32)
Yf = ;i Xf + Vf : (34)
Dans les deux cas, cela suppose que les bruits de mesure et d’état soient suffisamment
peu corrélés avec les entrées et/ou les sorties passées du système pour que :
1
lim V = 0:
j !1 j f
(35)
UUfp Yp ] représente la projection oblique sur les observations passées selon les direc-
tions des entrées futures. Une expression de cette projection est donnée par l’équation
(38) [VAN 96b] où ( ) + désigne l’opérateur matriciel de la pseudo-inverse.
U + U
UUfp Yp ] = Uf? p
Yp Uf?
p
Yp : (38)
Yf
Uf
Oi = Γ i X f
HiU f
Ψ
Yp
Oi
Up
Le résultat de cette projection oblique, défini par l’équation (39), est noté O i .
Oi = ;i X: (40)
En outre, un théorème unifié [VAN 94b] montre que les différences entre les algo-
rithmes 4SID (CVA, MOESP et N4SID) sont relatives à un choix particulier de deux
matrices de pondérations W 1 et W2 sur Oi . Les estimations de ;i et X s’effectuent
alors à partir de la décomposition en valeurs singulières de la nouvelle matrice géné-
ralisée suivante :
W1 Oi W2 =
T : U V (41)
18 Technique et science informatiques. Vol. 15- no 6/1996
0U 1 0R 0 0 0
1 0Q 1
BBUfp CC = BBR1121 R22 0 0 CC BBQ12CC :
@ Yp A @R31 R32 R33 0 A @Q A 3
(44)
Yf R41 R42 R43 R44 Q4
Chacune des projections précédentes est alors calculée à partir des matrices sui-
vantes :
— méthode PO-MOESP;
Yf = R42:3 : (45)
— méthode IV-ESP;
+ R1:31:3
Yf = R41:3 R1:31:3 (46)
— méthode N4SID;
; U
Y = L
f Up LY Y p
p (47)
p
avec :
;L = R R+
LUf LYp def
Up 41:3 1:31:3 (48)
Une seconde stratégie, empruntée par certains algorithmes 4SID, vise à estimer les
vecteurs d’état contenus dans la matrice X . Un des premiers algorithmes établis sur
ce principe est celui de M OONEN et al. [MOO 89]. Ce dernier propose d’estimer le
Exemple d’utilisation du style LATEX tsi.sty 19
Y Y
Imlig (Xf ) = Imlig Up \ Imlig Uf : (49)
p f
Cette notion d’intersection rejoint l’interprétation graphique de la projection oblique
donnée à la figure 4. La décomposition passé-futur des données est identique à celle
explicitée par les équations (30) et (31). Cette intersection est déterminée grâce à une
double décomposition en valeurs singulières. La première est donnée par l’équation
suivante :
0U 1
BB Ypp CC = 11 12
11 0 T
@U A
U U
T T
U 12 Zp = ;U22Zf (51)
;
avec ZpT = UpT YpT
T ; T
et ZfT = UfT YfT . Cette dernière équation signifie
que l’espace ligne de la matrice U 12 T Zp est égal à l’intersection des espaces ligne de
Zp et Zf , et par suite à l’espace ligne de X f . Dans ce but, une base de l’intersection
est calculée à partir d’une seconde SVD définie par :
T ;
U12 U11
11 = U1q
q 0 T :
U 2q 0 0 q V (52)
X^f = 1Tq 12T UYp :
U U (53)
p
Une seconde solution consiste à utiliser la projection oblique, O i , pour en extraire
une estimation de la matrice des états futurs à partir de l’équation (40) et de l’estima-
tion a priori de ; i .
X^ f = ;^ +i Oi : (54)
20 Technique et science informatiques. Vol. 15- no 6/1996
L’estimation de l’ordre n du modèle d’état est la seconde étape des méthodes des
sous-espaces. Dans le cas déterministe, l’ordre n est égal au rang des matrices estimées
;^ i et X^f :
Yf = s
s sT + b
b bT :
U V U V (56)
Le rang du sous-espace « système » est alors une estimation de l’ordre du modèle
d’état :
n^ = rang (
s ) : (57)
Une fois l’ordre estimé, la matrice d’observabilité étendue et la matrice des états
sont réduites pour ne tenir compte que de la partie « système ». Les matrices réduites
^ s et X^f sont données par :
notées ;
^s
7.1. Première stratégie fondée sur ;
A^ = ;^ s + ;^ s (59)
C^ = ;^ s (1 : m :): (60)
;^ s et ;^ s sont définis par (62). En présence de bruit, certains pôles peuvent être mal
estimés ce qui peut donner lieu à des modèles instables. M ACIEJOWSKI a récemment
proposé une solution robuste par rapport à la stabilité du modèle, en posant :
;^ 0 = ;^ s A^ (61)
avec :
0 C 1 0 CA 1 0 CA 1
B CA CC B ... CC B ... CC
;^ s = B
B@ ... CA ;^ s = B
B@CAi;2 CA ;^ 0 = B
B@CAi;2 CA (62)
CAi;2 CAi;1 0m n
En contrepartie de cette robustesse accrue, la précision d’estimation de l’emplace-
ment des pôles est diminuée. Les matrices A^ et C^ étant connues, il reste à déterminer
^ et D^ à partir de la nouvelle équation matricielle :
les matrices B
Yi = ;^ s X + Hi Ui : (63)
T + T
Ub Yi Ui = Ub Hi (64)
ou :
K = JHi (65)
avec J = UbT , K = JYi Ui+ et Ub est donné par l’équation (56). L’équation (65)
mène finalement à un système d’équations surdéterminé, équation (66), linéaire en B
et D et qui peut être résolu à partir de méthodes telles que les moindres carrés.
0K (: 1)1 0J (: 1) J (: 2) J (: i 1) J (: i)
1
BBK (: 2)CC BBJ (: 2) J (: 3) 0 C
;
J (: i) C D
BB ... CC = BBJ (: 3) J (: 4) .. CC I 0
BB . CC BB . . CC 0 ;i;1 B
@ . A @ .
. .
..
. A
K (: i) J (: i) 0 0
(66)
avec :
;
x^i+1:j+i;1 = x^i+1 x^j+i;1
(68)
;
x^i:j+i;2 = x^i x^i+j;2
(69)
;
yi:j+i;2 = yi yi+j;2
(70)
;
ui:j+i;2 = ui u
:
i+j ;2 (71)
Exemple d’utilisation du style LATEX tsi.sty 23
A partir de l’équation algébrique (15), les méthodes 4SID estiment dans une pre-
mière phase le produit matriciel ; i X avant d’estimer ; i ou X . Par l’intermédiaire
de quelques équations, ce paragraphe apporte une autre interprétation de l’objectif
4SID permettant de mieux situer ces méthodes par rapport à des approches conven-
tionnelles. Seul le cas déterministe est considéré. Sur la base du modèle de la réponse
impulsionnelle d’un système causal, les évolutions des sorties du système peuvent être
représentées par le produit de convolution discret suivant :
X
k+i
yk+i = Ht uk+i;t (72)
t=0
avec i > 0 et Ht : paramètres de Markov définis par :
X
i;1 X
k+i
yk+i = Ht uk+i;t + H t uk+i;t (74)
t=0 t=i
X
i;1
yk+i = Ht uk+i;t + y^k+i=k (75)
t=0
Pk
où y^k+i=k = t=0 Ht+i uk;t correspond à la prédiction à i pas de la sortie ne
connaissant que les mesures d’entrée u t pour t k . Or, dans le cas de la représentation
d’état, la combinaison des équations (4) et (5) permet d’aboutir à :
X
i;1
yk+i = CAi xk + H t uk+i;t : (76)
t=0
Par identité entre les expressions (74) et (76), on en déduit que :
T
T
;i+1 xk = y^k=k y^kT+1=k y^kT+i=k (78)
d’où :
0 y^ y^k+1=k+1 y^k+j;1=k+j;1
1
k=k
B
;i+1 X = @ ... ..
.
CA 2 Rm(i+1) j : (79)
y^k+i=k y^k+i+1=k+1 y^k+i+j;1=k+j;1
Dans une première étape, toutes les méthodes des sous-espaces estiment le produit
;i X de l’équation (15), connaissant U i et Yi . Etant donné l’équation (79), les mé-
thodes des sous-espaces apparaissent comme des techniques cherchant à estimer les
prédictions à horizons multiples (1 à i) sur les sorties. Une autre étude [JAN 96], plus
détaillée, aboutit à la même conclusion. En ce sens, les méthodes des sous-espaces
peuvent être classées entre les méthodes de l’erreur d’équation (erreur de prédiction à
un pas) et les méthodes du modèle (erreur de sortie). Les différences entre les princi-
paux algorithmes 4SID se situent au niveau de l’estimation de ; i X . Jusqu’à présent,
aucune des méthodes des sous-espaces ne repose véritablement sur l’optimisation d’un
critère explicite reposant entièrement ou en partie sur les erreurs de prédictions à ho-
rizons multiples, ce qui en fait des méthodes sous- ou quasi-optimales.
Etant donné la nature algébrique de l’équation matricielle (11), la théorie 4SID fait
intervenir des projections de sous-espaces vectoriels et des techniques de calcul d’al-
gèbre linéaire avancées. En conséquence, il est plus difficile de les comparer avec des
méthodes conventionnelles fondées sur des approches statistiques. Pour cette raison,
il est intéressant d’introduire un modèle de regression 4SID [JAN 94], [JAN 96]. Pour
y arriver, considérons le cas optimal où x k est remplacé dans l’équation (9) par x ^k,
son estimation par un filtre de Kalman dont les équations peuvent être ramenées à :
x^k = K1yp (k p) + K2 up (k p) + K3 uf (k f )
; ; ; (80)
yf (k ) = L1 yp (k ; p) + L2 up (k ; p) + L3 uf (k ; f ) + nf (k ) (81)
avec :
Exemple d’utilisation du style LATEX tsi.sty 25
;L L = ; ;K K
1 2 f 1 2 (82)
L3 = ;f K3 + Hd (83)
nf (k ) = ;f (xk x^k ) + Hs ef (k ):
; (84)
Ce modèle de régression 4SID exprime les sorties futures sous la forme d’une
combinaison linéaire des entrées et sorties passées et des entrées futures. Cette com-
binaison linéaire montre que les prédictions sur y f (k ) à partir des données passées
fup (k ; p) yp (k ; p)g dépendent de la matrice d’observabilité étendue ; f que l’on
9. Conclusions et perspectives
ek
uk yk
xk +1 = Ax k + Buk + Ke k
y k = Cx k + Duk + e k
Système
u0 u1 u j −1 y0 y1 y j −1
u1 U p y Y
= p
Y 2i = 1
U 2i =
=
U
Y
u 2 i −1 u j+2 i−2 f
y 2 i −1 y j +2 i −2 f
DE SOUS-ESPACES
Y2 i = Γ2 i ⋅ X + H d ⋅ U 2 i + H s ⋅ E2 i
IDENTIFICATION
Yf ⋅ Π Ψ = Γi ⋅ X f ⋅ Π Ψ
ESTIMATION
Γ i = Γ s + Γ b X f = X s + X b
DE L'ORDRE
rang 4 X =
rang 4 Γ = n
s9 s9
A Γ s = Γ s X s 1:,2: j6 A
B X s 1:,1: j −16
DES MATRICES
=
ESTIMATION
C = Γ s (1: m ) U 11: j − 11
Yi 11: j − 11, :m6 C D i , : p6
N 2
= min ∑ " yk
! B, D& − D + C (qI − A )−1 B u '
k
B, D
k =1
Bibliographie
[BAS 97b] BASTOGNE T., « Identification des systèmes multivariables par les méthodes des
sous-espaces. Application à un système d’entraînement de bande ». Thèse de Doctorat,
Université Henri Poincaré, Nancy 1, novembre 1997.
[BAS 97c] BASTOGNE T., G ARNIER H., S IBILLE P. et M ENSLER M., « PMF-based subspace
method for continuous-time model identification. Deterministic study ». In Proc. of the
11th IFAC Symposium on System Identification, vol. 4, p. 1665–1670, Kitakyushu, Japan,
July 1997.
[BAY 92] BAYARD D., « An algorithm for state-space frequency domain identification without
windowing distortions ». In Proc. of the 31st Conference on Decision and Control, p.
1707–1712, Tucson, AZ., USA, 1992.
[BEG 87] B EGHELLI S., G UIDORZI R. et S OVERINI U., « Structural identification of multi-
variable systems by the eigenvector method ». Int. J. of Control, vol. 46, no 2, p. 671–678,
1987.
[BIE 79] B IENVENU G. et KOPP L., « Principe de la goniométrie passive adaptative ». In
Actes du 7ème colloque GRETSI, Nice, 1979.
[CHO 94] C HO Y. M., X U G. et K AILATH T., « Fast recursive identification of state-space
models via exploitation of displacement structure ». Automatica, Special Issue on Statistical
Signal Processing and Control, vol. 30, no 1, p. 45–49, 1994.
[DEM 87] D E M OOR B. et VANDERWALLE J., « A geometrical strategy for the identification
of state space models of linear multivariable systems with Singular Value Decomposition ».
In Proc. of the 3rd International Symposium on Applications of Multivariable Systems
Techniques, p. 59–68, Plymouth, U.K., 1987.
[DEM 88] D E M OOR B., « Mathematical concepts and techniques for modelling of static and
dynamic systems ». PhD thesis, Katholieke Universiteit Leuven, Faculteit der Toegepaste
Wetenschappen, Departement Elektrotechniek, 1988.
[DEN 74] D ENHAM M. . J., « Canonical forms for the identification of multivariable linear
systems ». IEEE Trans. On Automatic Control, vol. 19, no 6, p. 646–656, 1974.
[DEN 83] D ENNIS J. E. et S CHNABEL R. B., Numerical methods for unconstrained optimi-
zation and nonlinear equations. Prentice Hall, Englewood Cliffs, NJ, 1983.
[DEP 88] D EPRETTERE E. F., SVD and signal processing - algorithms, applications and ar-
chitectures. North Holland, Elsevier Science Publishers, 1988.
[DUO 93] D UONG H. N., « Identification structurelle et paramétrique des systèmes linéaires
monovariables et multivariables ». Thèse de doctorat, Institut National Polytechnique de
Grenoble, 1993.
[ENN 84] E NNS D., « Model reduction for control system design ». PhD thesis, Dep. Aero-
naut., Stanford University, Stanford CA., 1984.
[FAU 76] FAURE P., « Stochastic realization algorithms », Chapitre System Identification :
Advances and cases studies. Academic Press, (Eds) Mehra R., Lainiotis D., 1976.
[FUC 90] F UCHS J.-J., « Structure and order estimation of multivariable stochastic pro-
cesses ». IEEE Trans. of Automatic Control, vol. AC-35, p. 1338–1341, 1990.
[GEV 84] G EVERS M. et W ERTZ V., « Uniquely identifiable state-space and ARMA para-
metrizations for multivariable linear systems ». Automatica, vol. 20, no 3, p. 333–347,
1984.
[GLO 93] G LOVER K. et W ILLEMS J. C., « Parametrizations of linear dynamical systems :
Canonical forms and identifiability ». IEEE Trans. On Automatic Control, vol. 19, no 6, p.
640–645, 1993.
[GOL 93] G OLUB G. H. et VAN L OAN C. F., Matrix computations. The Johns Hopkins Uni-
versity Press, Baltimore, Maryland, USA, 1993.
[GUI 75] G UIDORZI R., « Canonical structures in the identification of multivariable systems ».
Automatica, vol. 11, p. 361–374, 1975.
Exemple d’utilisation du style LATEX tsi.sty 29
[GUI 81] G UIDORZI R., « Invariants and canonical forms for systems structural and parametric
identification ». Automatica, vol. 17, no 1, p. 117–133, 1981.
[GUI 82] G UIDORZI R., L OSITO M. P. et M URATORI T., « The range error test in the structu-
ral identification of linear multivariable systems ». IEEE Trans. on Automatic Control, vol.
AC-27, p. 1044–1054, 1982.
[HAV 96] H AVERKAMP B. R. J., C HOU C. T., V ERHAEGEN M. et J OHANSSON R., « Identi-
fication of continuous-time MIMO state space models from sampled data, in the presence
of process and measurement noise ». In Proc. of the 35th Conference on Decision and
Control, Kobe, Japan, 1996.
[HO 65] H O B. L. et K ALMAN R. E., « Effective construction of linear state-variable models
from input/output data ». In Third Annual Alberton Conference on Circuit and System
Theory, 1965.
[JAC 96] JACQUES R. N., L IU K. et M ILLER D. W., « Identification of highly accurate low
order state space models in the frequency domain ». Signal Processing, vol. 52, p. 195–207,
1996.
[JAN 94] JANSSON M. et WAHLBERG B., « 4SID Linear Regression ». In Proc. 33rd IEEE
Conference on Decision and Control, p. 2858–2863, Lake Buena Vista, Florida, USA, 1994.
[JAN 96] JANSSON M. et WAHLBERG B., « A linear regression approach to state-space sub-
space system identification ». Signal Processing, vol. 52, p. 103–129, 1996.
[KAI 80] K AILATH T., Linear Systems. Prentice Hall, Englewood Cliffs, New Jersey, 1980.
[KEU 93] K EUCHEL U., « Parameter estimation and structure selection for linear multiva-
riable systems ». In Proc. of the 2nd European Control Conference, vol. 1, p. 615–620,
Groningen, The Netherlands, 1993.
[KIN 88] K ING A. M., D ESAI U. B. et S KELTON R. E., « A generalized approach to Q-
Markov covariance equivalent realizations for discrete systems ». Automatica, vol. 24, no
4, p. 507–515, 1988.
[KUN 78] K UNG S., « A new identification and model reduction algorithm via singular value
decomposition ». In Asilomar Conf. on Circuits, Systems and Computers, p. 705–714,
Pacific Grove, California, USA, 1978.
[LAN 88] L ANDAU I. D., Identification et commande des systèmes. Traité des nouvelles tech-
nologies, Hermés, Paris, 1988.
[LAR 83] L ARIMORE W. E., « System identification, reduced-order filtering and modelling
via canonical variate analysis ». In Proc. of the American Control Conference, p. 445–451,
1983.
[LAR 90] L ARIMORE W. E., « Canonical Variate Analysis in Identification, Filtering, and
Adaptative Control ». In Proc. of the 29th Conference on Decision and Control, p. 596–
604, Honolulu, Hawai, 1990.
[LAR 96] L ARIMORE W. E., « ADAPTx : Automated Multivariable System Identification and
Time Series Analysis Software ». Users Manual, 1996. Adaptics Inc.
[LIU 91] L IU K., « Identification of multi-input and multi-output systems by observability
range space extraction ». In Proc. of the 31st Conference on Decision and Control, p.
915–919, Tucson, Arizona, USA, 1991.
[LJU 87] L JUNG L., System identification : theory for the user. Prentice Hall, Englewood
Cliffs, NJ, 1987.
[LJU 91] L JUNG L., « A simple start-up procedure for canonical form state space identifica-
tion, based on subspace approximation ». In Proc. of the Conference on Decision and
Control, p. 1333–1336, Brighton, UK, 1991.
[LJU 95] L JUNG L., System identification toolbox user’s guide. The Math Works, Inc., 1995.
[LJU 96] L JUNG L. et M C K ELVEY T., « Subspace identification from closed loop data ».
Signal Processing, vol. 52, p. 209–215, 1996.
30 Technique et science informatiques. Vol. 15- no 6/1996
[LUE 67] L UENBERGER D. G., « Canonical forms for linear multivariable systems ». IEEE
Trans. On Automatic Control, vol. 12, page 290, 1967.
[LUE 84] L UENBERGER D. G., Linear and nonlinear programming. Addison-Wesley, Mas-
sachusetts, 2nd édition, 1984.
[MAC 94] M ACIEJOWSKI J. M., « Guaranted stability with subspace methods ». Systems &
Control Letters, vol. 26, p. 153–156, 1994.
[MCK 94a] M C K ELVEY T., « An efficient frequency domain state-space identification algo-
rithm ». In Proc. 33rd IEEE Conference on Decision and Control, p. 3359–3364, Lake
Buena Vista, Florida, USA, 1994.
[MCK 94b] M C K ELVEY T., « On state-space models in system identification ». PhD thesis,
Department of Electrical Engineering, Linköping University, Sweden, 1994.
[MCK 95] M C K ELVEY T., « Identification of State-Space Models from Time and Frequency
Data ». PhD thesis, Linköping Studies in Science and technology, 1995.
[MOO 89] M OONEN M., D E M OOR B., VANDENBERGHE L. et VANDEWALLE J., « On- and
off-line identification of state-space models ». Int. J. of Control, vol. 49, no 1, p. 219–232,
1989.
[MOO 90] M OONEN M. et VANDEWALLE J., « QSVD approach to on- and off-line state-
space identification ». Int. J. of Control, vol. 51, no 5, p. 1133–1146, 1990.
[MOO 91] M OONEN M., D E M OOR B. et VANDEWALLE J., « Identification of continous-time
systems, methodology and computer implementation », Chapitre SVD-based subspace me-
thods for multivariable continuous-time systems identification, p. 473–488. Kluver Acade-
mic Publishers, (Eds) N. K. Sinha and G. P. Rao, 1991.
[MOO 93] M OONEN M. et R AMOS J., « A subspace algorithm for balanced state space system
identification ». IEEE Trans. on Automatic Control, vol. 38, no 11, p. 1727–1729, 1993.
[OTT 94] OTTERSTEN B. et V IBERG M., « A subspace based instrumental variable method
for state-space system identification ». In Proc. of the 10th IFAC Symposium on System
Identification, vol. 2, p. 139–144, Copenhagen, Denmark, 1994.
[PET 95] P ETERNELL K., S CHERRER W. et D EISTLER M., « Statistical analysis of Subspace
identification methods ». In Proc. of the 3rd European Control Conference, p. 1342–1347,
Roma, Italy, 1995.
[PET 96] P ETERNELL K., S CHERRER W. et D EISTLER M., « Statistical analysis of novel
subspace identification methods ». Signal Processing, vol. 52, p. 161–177, 1996.
[PIS 73] P ISARENKO V. F., « The retrieval of harmonics from a covariance function ». Geo-
physical J. Royal Astronomical Soc., vol. 33, p. 347–366, 1973.
[ROY 89] ROY R. et K AILATH T., « ESPRIT - Estimation of Signal Parameters via Rotational
Invariance Techniques ». IEEE Trans. on Acoustic, Speech and Signal Processing, vol. 37,
no 7, p. 984–995, 1989.
[SCH 79] S CHMIDT R. O., « Multiple emitter location and signal parameter estimation ». In
Proc. of the RADC Spectrum Estimation Workshop, p. 243–258, 1979. Rome Air Develop-
ment Corp.
[SCH 91] S CHRAMA R., « An open-loop solution to the approximate closed-loop identifica-
tion problem ». In Proc. 9th IFAC/IFORS Symp. on Identification and System Parameter
Estimation, p. 1602–1607, Budapest, Hungary, 1991.
[SöD 89] S ÖDERSTRÖM T. et S TOICA P., System identification. University Press, Cambridge,
Prentice Hall, 1989.
[SWI 92] S WINDLEHURST A., ROY R., OTTERSTEN B. et K AILATH T., « System identifi-
cation via weighted subspace fitting ». In Proc. of the American Control Conference, p.
2158–2163, 1992.
[VAN 93] VAN D EN H OF P. et S CHRAMA R. J. P., « An indirect method for transfer function
estimation from closed loop data ». Automatica, vol. 29, no 6, p. 1523–1527, 1993.
Exemple d’utilisation du style LATEX tsi.sty 31
[VAN 94a] VAN OVERSCHEE P. et D E M OOR B., « N4SID : Subspace algorithms for the
identification of combined deterministic-stochastic systems ». Automatica, vol. 30, no 1,
p. 75–93, 1994.
[VAN 94b] VAN OVERSCHEE P. et D E M OOR B., « A unifying theorem for subspace identifi-
cation algorithms and its interpretation ». In Proc. of the 10th IFAC Symposium on System
Identification, vol. 2, p. 145–150, Copenhagen, Denmark, 1994.
[VAN 96a] VAN OVERSCHEE P. et D E M OOR B., « Continuous-time frequency domain sub-
space system identification ». Signal Processing, Special Issue on Subspace Methods, part
II : System identification, vol. 52, p. 179–194, 1996.
[VAN 96b] VAN OVERSCHEE P. et D E M OOR B., Subspace identification for linear systems -
Theory, implementation, applications. Kluwer Academic Publishers, 1996.
[VEE 93] VAN DER V EEN A.-J., D EPRETTERE E. D. et S WINDLEHURST A. L., « Subspace-
based signal analysis using singular value decomposition ». In Proceedings of the IEEE,
vol. 81 de 9, September 1993.
[VER 91] V ERHAEGEN M., « A Novel Non-iterative MIMO State-Space Model Identification
Technique ». In Proc. of the 9th Identification and System Parameter Estimation Sympo-
sium, p. 1453–1458, Bupadest, Hungary, 1991.
[VER 93] V ERHAEGEN M., « Application of a subspace model identification technique to
identify LTI systems operating in closed loop ». Automatica, vol. 29, no 4, p. 1027–1040,
1993.
[VER 94] V ERHAEGEN M., « Identification of the Deterministic Part of the MIMO State
Space Models given in Innovations Form from Input-Output Data ». Automatica, vol. 30,
no 1, p. 61–74, 1994.
[VER 95a] V ERHAEGEN M. et W ESTWICK D., « A subspace model identification algorithm
to identify MIMO Wiener type of non-linear systems ». In Proc. of the 3rd European
Control Conference, p. 3429–3434, Roma, Italy, 1995.
[VER 95b] V ERHAEGEN M., W ESTWICK D. et K EARNEY R., « The use of a bilinear transfor-
mation of the shift operator in subspace model identification ». IEEE Trans. on Automatic
Control, vol. 40, no 8, 1995.
[VIB 91] V IBERG M., OTTERSTEN B., WAHLBERG B. et L JUNG L., « A statistical perspec-
tive on state-space modeling using subspace methods ». In Proc. of the 30th Conference
on Decision and Control, p. 1337–1342, Brighton, England, 1991.
[VIB 94] V IBERG M., « Subspace Methods in System Identification ». In Proc. of the 10th
IFAC Symposium on System Identification, vol. 1, p. 1–12, Copenhagen, Denmark, 1994.
[WAL 94] WALTER E. et P RONZATO L., Identification de modèles paramétriques à partir de
données expérimentales. Masson, Paris, 1994.
[WAN 94] WANG J., « Algorithms for approximate closed-loop identification of state-space
representations ». Master’s Thesis, Department of Electrical Engineering, Katholieke Uni-
versiteit Leuven, Leuven, Belgium, 1994.
[WIL 86] W ILLEMS J., « From time series to linear systems ». Automatica, 1986. Part I: Vol.
22, No. 5, pp. 561-580, 1986, Part II: Vol. 22, No. 6, pp. 675-694, 1986, Part III: Vol. 23,
No. 1, pp. 87-115, 1987.
[YU 95] Y U X. et V ERHEAGEN M., « An Algorithm of Subspace Model Identification for
Descriptor Systems ». In Proc. of the 3rd European Control Conference, p. 417–422,
Rome, Italy, 1995.
[ZEI 74] Z EIGER H. P. et M C E WEN A. J., « Approximate linear realizations of given dimen-
sion via Ho’s algorithm ». IEEE Trans. on Automatic Control, vol. AC-19, page 153, 1974.
32 Technique et science informatiques. Vol. 15- no 6/1996