Vous êtes sur la page 1sur 70

Representation et analyse des syst`emes

multi-variables
Notes de cours
D.Alazard
2
Analyse et representation Page 2/70
3
Contents
Introduction 7
Notations 9
1 Rappels dalg`ebre lineaire 13
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Probl`eme de linversion . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.1 Introduction des moindres carres (LMS) . . . . . . . . . . . . . 13
1.2.2 Methodes numeriques pour resoudre les LMS . . . . . . . . . . . 16
1.2.3 Illustration: probl`eme de lapproximation polynomiale . . . . . 17
1.2.4 Formule dinversion des matrices partitionnees - Lemme dinversion
matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3 Decomposition des matrices . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.1 Decomposition spectrale (help eig) . . . . . . . . . . . . . . . 20
1.3.2 Decomposition de Schur (help schur) . . . . . . . . . . . . . 22
1.3.3 Decomposition de Cholesky (help chol) . . . . . . . . . . . . 23
1.3.4 Decomposition en valeurs singuli`eres -SVD (help svd) . . . . . 24
2 Analyse des syst`emes multi-variables par les valeurs singuli`eres 27
2.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Application des valeurs singuli`eres: marge de module . . . . . . . . . . 28
2.2.1 Rappel mono-variable: insusance des notions de marge de gain
et de phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.2 Marge de module dans le cas multi-variable . . . . . . . . . . . 30
2.2.3 Illustration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3 Exercise sur lanalyse par les valeurs singuli`eres (sous Matlab) . . . . . 33
3 Representation detat des syst`emes multivariables denis par des ma-
trices de transfert 37
Analyse et representation Page 3/70
4 Contents
3.1 Probl`eme general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Rappels: gouvernabilite, observabilite, minimalite . . . . . . . . . . . . 39
3.2.1 Crit`eres generaux . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.2 Crit`eres particuliers . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3 Rappel: passage transfert/etat dans le cas SISO (Single Input Single
Output) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3.1 Formes diagonales . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3.2 Formes compagnes . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3.3 Formes de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4 Cas SIMO (Single Input Multi Output) et MISO (Multi Input Single
output) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.5 Cas MIMO avec des modes simples: methode de Gilbert . . . . . . . 44
3.6 Cas general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.6.1 Diagonalisation dune matrice polynomiale par operations elementaires 45
3.6.2 Calcul algorithmique des invariants . . . . . . . . . . . . . . . . 46
3.6.3 Invariants dune matrice rationnelle . . . . . . . . . . . . . . . . 47
3.6.4 Construction dune realisation minimale . . . . . . . . . . . . . 48
3.7 Calcul dune realisation non-minimale . . . . . . . . . . . . . . . . . . . 49
3.8 Methode du graphe minimal (cas des valeurs propres multiples) . . . . 51
3.9 Exercice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4 Representation detat des syst`emes multivariables denis par un syst`eme
dequations dierentielles 55
4.1 Notations et Probl`ematique . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2 Rappel cas SISO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3 Cas general multivariable . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3.1 Pre-multiplication du syst`eme: triangularisation (superieure) de
L(D) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3.2 Changement de variable (post-multiplication) . . . . . . . . . . 57
4.3.3 Mise sous forme detat . . . . . . . . . . . . . . . . . . . . . . . 57
4.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5 Gouvernabilite et observabilite: analyse pratique par les grammiens 63
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2.1 Grammien de gouvernabilite (help gram) . . . . . . . . . . . . 64
Analyse et representation Page 4/70
Contents 5
5.2.2 Grammien dobservabilite . . . . . . . . . . . . . . . . . . . . . 65
5.3 Representation equilibree (help balreal) . . . . . . . . . . . . . . . . 66
References 69
Analyse et representation Page 5/70
6 Contents
Analyse et representation Page 6/70
7
Introduction
Ces notes de cours regroupent les outils mathematiques et les techniques utilises pour
lanalyse et la representation des syst`emes dynamiques lineaires multi-variables (ou
MIMO: Multi Input Multi Output). On presentent principalement lanalyse par les
valeurs singuli`eres (chapitre 2) apr`es quelques rappels dalg`ebre lineaires (chapitre 1)
et le calcul dune realisation minimale `a partir dune matrice de transfert (chapitre 3)
ou dun syst`eme dequations dierentielles (chapitre 4). Les notions pratiques de gou-
vernabilite et dobservabilite (grammiens) ainsi la realisation equilibree sont abordees
dans le chapitre 5. Les methodes de reduction, bien quelles auraient trouvees leur place
dans ces notes, ne sont pas presentees ici et nous renvoyons le lecteur aux references
[5] et [7] pour plus de details.
Les pre-requis pour la lecture de ces notes sont principalement la theorie des
asservissements lineaires et les notions de base sur la representation detat, la gouvern-
abilte et lobservabilite des syst`emes lineaires [6]. Il sadresse donc tout particuli`erement
aux etudiants de SUPAERO qui ont dej`a suivi les cours de tronc commun en seconde
annee.
Il sagit dune edition provisoire qui sera completee par les rappels dautomatique
necessaires pour rendre ce document autonome. La bibliographie (incompl`ete) est prin-
cipalement constituee de references internes an que les etudiants puissent positionner
ces notes par rapport aux autres documents disponibles.
Analyse et representation Page 7/70
8 Introduction
Analyse et representation Page 8/70
9
Notations
Symboles courants
R ensemble des reels
C ensemble des complexes
R
n
ensemble des vecteurs reels de dimension n
C
n
ensemble des vecteurs complexes de dimension n
R
mn
ensemble des matrices reelles mn
C
mn
ensemble des matrices complexes mn
j index ou j
2
= 1
|.| valeur absolue delements dans R ou C
ln logarithme naturel
log
10
logarithme en base 10
x, x
2
norme Euclidienne de vecteurs dans R
n
ou C
n
Re (x) partie reelle du complexe x dans C
E[x] esperance mathematique de la variable aleatoire x
x conjugue de x dans C
N(m, ) loi gaussienne (normale) de moyenne m et de variance
I
n
matrice identite n n
0
n
ou 0
nm
matrices nulles n n ou n m
M
i,j
i, j element de la matrice M
M
T
transposee de la matrice M
M

conjuguee transposee de M
Herm(M)
1
2
(M +M

)
M
1
inverse de M
M
T
(M
T
)
1
= (M
1
)
T
M

(M

)
1
= (M
1
)

M
+
inverse de Moore-Penrose de M, M
+
= (M

M)
1
M
T

i
(M) i-`eme valeur singuli`ere de M

min
(M) valeur singuli`ere minimale de M

max
(M) valeur singuli`ere maximale de M
Analyse et representation Page 9/70
10 Notations

i
(M) i-`eme valeur propre de M

(M) valeur propre maximale de M


(M) rayon spectral de M, (M) = max
i
|
i
(M)|
(M) conditionnement de M:
max
(M)/
min
(M)
Trace (M) trace de M, trace(M) =

n
i=1
M
i,i
det(M) determinant de M
spec(M) ensemble des valeurs propres de M
ker(M) noyau de M, ker(M) = {x : Mx = 0}
Im(M) espace image de M, Im(M) = {Mx : x C
n
}
dim(V ) dimension de lespace V
rang (M) dim(Im(M))
Notations syst`eme
s variable de Laplace
frequence (rad./ sec.)
_
A B
C D
_
parfois matrice de transfert C(sI A)
1
B +D
, incertitudes parametriques
Acronymes
B.F. Boucle fermee
B.O. Boucle Ouverte
LFT Transformation Lineaire Fractionnaire
LMI Inegalite Matricielle Lineaire
LQG Lineaire Quadratique Gaussien
LTI Lineaire `a Temps Invariant
LTV Lineaire `a Temps Variant
SVD Decomposition en Valeurs Singuli`eres
VSS Valeur Singuli`ere Structuree
Analyse et representation Page 10/70
Notations 11
Propriete denition condition necessaire et susante
Symetrique A = A
T
Hermitienne A = A

Anti-symetrique A = A
T
Anti-hermitienne A = A

Orthogonale AA
T
= A
T
A = I
Unitaire AA

= A

A = I
Idempotente A
2
= A
Nilpotente A
k
= 0 k 2
Positive denie x

Ax > 0 x = 0 toutes les valeurs propres sont > 0


Positive semi-denie x

Ax 0 x = 0 toutes les valeurs propres sont 0


Table 1: Classication des matrices
Analyse et representation Page 11/70
12 Notations
Analyse et representation Page 12/70
13
Chapter 1
Rappels dalg`ebre lineaire
1.1 Introduction
Le but de ce chapitre est de presenter les resultats importants du calcul matriciel, et
plus particuli`erement la decomposition des matrices, qui sont `a la base des principaux
algorithmes utilises dans le domaine de lautomatique (resolution des equations de
Lyapunov, Riccati, LMI
1
, analyse des syst`emes pas les valeurs singuli`eres, ...)
Dans la section 1.2, les principales notions sont presentees autour du probl`eme
general de linversion dune matrice.
Dans la section 1.3, on presente les principales decompositions de matrices et plus
particuli`erement la SVD (Singular Value Decomposition). On rappelle egalement les
macro-fonctions MATLAB associees `a ces operations.
1.2 Probl`eme de linversion
1.2.1 Introduction des moindres carres (LMS)
Considerons un ensemble dequations lineaires algebriques :
_

_
y
1
= a
11
x
1
+a
12
x
2
+ +a
1n
x
n
y
2
= a
21
x
1
+a
22
x
2
+ +a
2n
x
n
.
.
.
y
m
= a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
(1.1)
1
LMI: Linear Matrix Inegality
Analyse et representation Page 13/70
14 1. Rappels dalg
`
ebre lin

eaire
que lon note matriciellement :
y = Ax avec y =
_

_
y
1
y
2
.
.
.
y
m
_

_
, x =
_

_
x
1
x
2
.
.
.
x
n
_

_
et A =
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
a
m1
a
m2
a
mn
_

_
.
A est une matrice de dimension m n. Le probl`eme de linversion consiste `a trouver
x etant donne y et A. Ce probl`eme na pas toujours de solution. 3 cas peuvent se
presenter
2
:
a) autant dequations que dinconnues
m = n = rang (A) une solution unique: x = A
1
y
a) moins dequations que dinconnues
m < n pulsieurs solutions
Introduction dun crit`ere: on choisit la solution de longueur minimale.
Minimiser J =
1
2
x
T
x =
1
2
n

i=1
x
2
i
.
Cest un probl`eme doptimisation sous les contraintes: y = Ax. On applique alors
les principes doptimisation (voir [3] : cours de de M.Llibre et M. Corr
`
ege
Commande optimale) :
Lagrangien: J
a
=
1
2
x
T
x +
T
(y Ax)
( : vecteur des param`etres de Lagrange).
Principe:
J
a
x

x= x
= 0 x A
T
= 0
J
a

= 0 y = A x
y = AA
T
(AA
T
de rang m donc inversible).
= (AA
T
)
1
y x = A
T
(AA
T
)
1
y
Rappel: (calcul de gradiant)
2
Pour distinguer les dierents cas, on compare le nombre dequations m et le nombre dinconnues
n. Il sagit en fait du nombre dequations independantes et du nombre dinconnues minimal an que:
rang(A) =min(m, n).
Analyse et representation Page 14/70
1.2 Probl
`
eme de linversion 15

[x
T
y]
x
= y,
[y
T
x]
x
= y,

[x
T
Mx]
x
= (M +M
T
)x.
a) plus dequations que dinconnues
m > n pas de solution exacte.
On denit lerreur e = y Ax et on cherche la solution au sens de moindres
carres (LMS) :
Minimiser J =
1
2
e
2
=
1
2
e
T
e =
1
2
(y Ax)
T
(y Ax)
=
1
2
(y
T
y x
T
A
T
y yAx +x
T
A
T
Ax) .
J
x

x= x
= 0 2A
T
y + 2A
T
A x = 0
(La derivee sannule `a loptimum et il sagit bien dun minimum car la fonction
est quadratique).
x = (A
T
A)
1
A
T
y
Exemple: approximation polynomiale (macro polyfit sous matlab). Soit m cou-
ples de mesures (t
i
, y
i
). On cherche les coecients x
i
du polynome dordre n 1
passant par les points (t
i
, y
i
); soit :
y
i
= x
1
+x
2
t
i
+x
3
t
2
i
+ x
n
t
n1
i
i = 1, 2, , m
ou encore :
_

_
y
1
y
2
.
.
.
y
m
_

_
=
_

_
1 t
1
t
2
1
t
n1
1
1 t
2
t
2
2
t
n1
2
.
.
.
1 t
m
t
2
m
t
n1
m
_

_
_

_
x
1
x
2
.
.
.
x
n
_

_
(soit: y = Ax)

matrice de Vandermonde
Cette matrice est tr`es mal conditionnee
3
pour m et n grands (avec m > n, voir
exercice 1.2.3 sous Matlab).
3
Le conditionnement dune matrice est le rapport de la plus grande valeur singuli`ere de cette
matrice sur la plus petite: (A) =
max
(A)/
min
(A)
Analyse et representation Page 15/70
16 1. Rappels dalg
`
ebre lin

eaire
1.2.2 Methodes numeriques pour resoudre les LMS
a) Inversion brutale:
x
1
= (A
T
A)
1
A
T
y
probl`emes numeriques si A
T
A est mal conditionnee.
b) Elimination gaussienne: on ecrit
(A
T
A) x
2
= A
T
y .
La solution est obtenue en pre-multipliant cette equation par une sequence de
matrices elementaires (operations sur les lignes et les colonnes) pour mettre A
T
A
sous forme triangulaire superieure. x
2
peut alors etre calcule par substitution
arri`ere.
methode rapide.
c) Factorisation QR: soit A R
mn
de rang n (m n) alors A peut-etre factorisee
sous la forme:
A = QR
avec Q matrice unitaire Q

Q = I
mm
et R =
_
U

_
o` u U est une matrice n n
triangulaire superieure. On a donc :
_
U

_
x
3
= Q

y =
_
Q

1
Q

2
_
U x
3
= Q

1
y, resolue par substitution arri`ere
methode tr`es ecace.
d) Pseudo-inverse de Moore-Penrose ou (SVD) (Singular Value decomposition):
on note
x
4
= A
+
y (pinv(A) en syntaxe Matlab)
solution tr`es stable numeriquement.
Remarque 1.2.1 La solution du probl`eme de linversion (presente section 1.2)
peut-etre exprimee dans les cas m > n, m = n, m < n `a laide de la matrice
pseudo-inverse de Moore-Penrose: x = A
+
y. Le detail du calcul de A
+
est
presente section 1.3.4 sur la SVD mais on retiendra que la pseudo-inverse peut-
etre calculee meme si A nest pas de rang plein (rang < min(m, n)).
Analyse et representation Page 16/70
1.2 Probl
`
eme de linversion 17
1.2.3 Illustration: probl`eme de lapproximation polynomiale
Soit :
[t
i
] = [0, 1, 2, 3, , m1],
x = [1, 1, 1, 1, , 1] (n fois) la valeur vraie vraie du vecteur des coecients du
polynome recherche dordre n-1.
La session Matlab qui suit presente les resultats obtenus par les methodes a), c) et d)
dans le cas m = 20 et n = 8. Nous pouvons constater que linversion directe est tr`es
mauvaise et que les techniques de la pseudo-inverse et par factorisation QR donnent
des resultats satisfaisants.
>>
>> % LMS: probl`eme de lapproximation polynomiale
>>
>>
>> clear all
>> format long e
>> m=20;
>> n=8;
>> t=[0:1:m-1];
>> x=ones(n,1);
>> a=[];
>> for ii=1:n,a=[a t.^ii];end;
>> y=a*x;
>>
>> % Inversion directe:
>> xhat1=inv(a*a)*a*y
Warning: Matrix is close to singular or badly scaled.
Results may be inaccurate. RCOND = 1.315754e-22.
xhat1 =
4.990038871765137e-01
1.020576477050781e+00
1.205293655395508e+00
1.030517876148224e+00
9.941211566329002e-01
1.000405412632972e+00
9.999893351923674e-01
1.000000218589548e+00
>> norm(xhat1-x)/norm(x)
Analyse et representation Page 17/70
18 1. Rappels dalg
`
ebre lin

eaire
ans =
1.918762776683313e-01
>>
>> % Utilisation de la pseudo-inverse:
>> xhat4=pinv(a)*y
xhat4 =
1.000003337860107e+00
9.999985694885254e-01
1.000000953674316e+00
9.999998211860657e-01
1.000000022351742e+00
9.999999990686774e-01
1.000000000014552e+00
1.000000000000227e+00
>> norm(xhat4-x)/norm(x)
ans =
1.328986586111962e-06
>>
>> % Utilisation de la decomposition QR de A:
>> [q,r]=qr(a);
>> u=r(1:n,1:n);
>> qt=q;
>> q1t=qt(1:n,:);
>> xhat3=zeros(n,1);
>> sec=q1t*y;
>> for ii=n:-1:1,
prem=0;
for jj=ii+1:n,
prem=prem+u(ii,jj)*xhat3(jj);
end
xhat3(ii)=1/u(ii,ii)*(sec(ii)-prem);
end
>> xhat3
xhat3 =
Analyse et representation Page 18/70
1.2 Probl
`
eme de linversion 19
9.999995821321698e-01
1.000000000037892e+00
1.000000094150625e+00
9.999999700429867e-01
1.000000004047405e+00
9.999999997290243e-01
1.000000000008738e+00
9.999999999998931e-01
>> norm(xhat3-x)/norm(x)
ans =
1.518188652864724e-07
1.2.4 Formule dinversion des matrices partitionnees - Lemme
dinversion matricielle
Soit lequation lineaire :
y = Ax partitionnee en 2 (A : n n) :
_
y
1
y
2
_
=
_
A
11
A
12
A
21
A
22
_ _
x
1
x
2
_
ou
_
y
1
= A
11
x
1
+A
12
x
2
y
2
= A
21
x
1
+A
22
x
2
.
On peut alors ecrire :
x
1
= A
1
11
y
1
A
1
11
A
12
x
2
y
2
= A
21
A
1
11
y
1
+ (A
22
A
21
A
1
11
A
12
)x
2
Posons: = A
22
A
21
A
1
11
A
12
, alors :
x
2
=
1
y
2

1
A
21
A
1
11
y
1
x
1
= (A
1
11
+A
1
11
A
12

1
A
21
A
1
11
)y
1
A
1
11
A
12

1
y
2
A
1
=
_
A
11
A
12
A
21
A
22
_
1
=
_
A
1
11
+A
1
11
A
12

1
A
21
A
1
11
A
1
11
A
12

1
A
21
A
1
11

1
_
De facon analogue, on peut demontrer :
_
A
11
A
12
A
21
A
22
_
1
=
_

1

1
A
12
A
1
22
A
1
22
A
21

1
A
1
22
+A
1
22
A
21

1
A
12
A
1
22
_
avec = A
11
A
12
A
1
22
A
21
. Do` u le lemme dinversion :
A
1
11
+A
1
11
A
12
(A
22
A
21
A
1
11
A
12
)
1
A
21
A
1
11
= (A
11
A
12
A
1
22
A
21
)
1
Ce lemme est utilise pour les methodes dinversion iteratives (actualisation de la matrice
de covariance en estimation).
Analyse et representation Page 19/70
20 1. Rappels dalg
`
ebre lin

eaire
1.3 Decomposition des matrices
Les methodes de decomposition des matrices jouent un role important dans lanalyse,
lestimation et la commande des syst`emes dynamiques lineaires.
1.3.1 Decomposition spectrale (help eig)
Soit A une matrice carree n n alors :
A = V V
1
avec
matrice diagonale des valeurs propres
i
, i = 1, , n (ou quasi-diagonale dans
le cas de blocs de Jordan),
V matrice des vecteurs propres `a droite (ou des vecteurs propres generalises) :
V = [v
1
, v
2
, , v
n
].
Par denition: Av
i
=
i
v
i
.
Probl`eme des valeurs propres generalisees: soit la paire A, B de dimension nn,
la valeur propre generalisee
i
associee au vecteur propre generalise v
i
est telle que :
Av
i
=
i
Bv
i
.
(Les valeurs propres generalisees sont utiles pour les syst`emes dont la dynamique est
decrite par une equation du type : B x = Ax + .)
Interet de la decomposition spectrale pour lanalyse des syst`emes: Soit le
syst`eme:
_
x = Ax +Bu
y = Cx
avec: dim(A) = n n, dim(B) = n m, dim(C) = p n et on suppose que A est
diagonalisable.
Eectuons le changement de variable :
x = V x avec V matrice des vecteurs propres
alors le syst`eme peut-etre decrit par la nouvelle representation detat :
_

x = x +UBu
y = CV x
avec :
= diag(
i
) = V
1
AV (matrice diagonale),
Analyse et representation Page 20/70
1.3 D

ecomposition des matrices 21


(n)
U
B
(m) (n)
V
C
(n)
(p)
x
y
(n)
Figure 1.1: Representation modale du syst`eme.
U = V
1
matrice des vecteurs propres `a gauche:
U =
_

_
u
1
u
2
.
.
.
u
n
_

_
avec u
i
A =
i
u
i
.
Le syst`eme peut-etre represente de la facon suivante (gure 1.1) :
Reponse autonome: (u = 0) les x
i
(t) evoluent de facon decouplee
x
i
(t) = x
0
i
e

i
t
.
Ce sont les modes du syst`eme. Les sorties y et les etats x du mod`ele ne sont que des
combinaisons lineaires des modes x.
La matrice V decrit linuence des modes x du syst`emes sur les etats x.
La matrice C decrit linuence des etats x du syst`emes sur les sorties y.
La matrice B decrit linuence des commandes u sur les variations des etats x.
La matrice U decrit linuence des variations des etats x sur les variations des modes

x.
La decomposition en elements simples de la matrice de transfert secrit :
Z(s) = C(sI A)
1
B =

n
i=1
Cv
i
u
i
B
s
i
.
Remarque 1.3.1 Pour une valeur propre complexe , on parle de mode du second
ordre qui associe x
i
(
i
) et son conjugue

x
i
(

i
).
Soit n
r
le nombre de modes reels
r
i
i = 1, , n
r
,
soit n
c
le nombre de modes complexes
c
j
et

c
j
j = 1, , n
c
,
Analyse et representation Page 21/70
22 1. Rappels dalg
`
ebre lin

eaire
alors n = n
r
+ 2n
c
et :
Z(s) =
n
r

i=1
Cv
i
u
i
B
s
r
i
+
n
c

j=1
(
Cv
j
u
j
B
s
c
j
+
C v
j
u
j
B
s

c
j
)
=
n
r

i=1
Cv
i
u
i
B
s
r
i
+
n
c

j=1
C(
j
s +
j
)B
s
2
+ 2
j

j
s +
2
j
avec
4
:

j
= |
c
j
| (pulsation en rd/s),

j
= Re(
c
j
)/
j
(amortissement),

j
= 2 Re(v
j
u
j
),

j
= (

c
j
v
j
u
j
+
c
j
v
j
u
j
).
Remarque 1.3.2 Si A est symetrique alors V est orthogonale V
T
= V
1
,
on a suppose que les valeurs propres etaient distinctes. Dans le cas de valeurs
propres multiples, la matrice bloc-diagonale fait apparatre des bloc de Jordan.
On parle alors de matrice de vecteurs propres generalises.
1.3.2 Decomposition de Schur (help schur)
La decomposition de Schur est proche de la decomposition spectrale car elle fait
egalement apparatre les valeurs propres sur la diagonale dune matrice triangulaire
superieure. Soit A une matrice carree n n alors :
A = UTU

avec
U matrice unitaire UU

= I,
T matrice triangulaire superieure :
T =
_

2

.
.
.

3

.
.
.

.
.
.

n
_

_
.
4
|c| designe le module du complexe c, Re(c) sa partie reelle.
Analyse et representation Page 22/70
1.3 D

ecomposition des matrices 23


La decomposition de Schur reelle fait apparatre des blocs 2 2 sur la diagonale qui
correspondent aux valeurs propres complexe
c
i
: :
T =
_

1

.
.
.

.
.
.
Re(
c
i
) Im(
c
i
)
.
.
.
Im(
c
i
) Re(
c
i
)
.
.
.
.
.
.


n
_

_
.
La decomposition de Schur est utilise pour calculer des sous-espaces invariants, cest-
`a-dire des sous-espaces propres de dimensions superieure `a 1. En eet, `a partir de la
decomposition de Schur, on peut ecrire :
AU = UT,
si lon partitionne en 2 cette egalite, on obtient:
A [U
1
, U
2
] = [U
1
, U
2
]
_
T
11
T
12
T
22
_
.
La premi`ere composante de cette egalite secrit:
AU
1
= U
1
T
11
qui traduit que les vecteurs colonnes de U
1
engendrent un sous-espace propre associe
aux valeurs propres: diag(T
11
).
Les decompositions spectrale et de Schur sont utilisees pour resoudre les equations
de Riccati. la decomposition de Schur est reputee etre plus stable numeriquement
pour les equations de taille elevee (n100).
1.3.3 Decomposition de Cholesky (help chol)
Soit A
nn
une matrice denie positive, alors A peut etre dcomposee de la facon suiv-
ante :
A = LL
T
avec L =
_

_
l
11
0 0
l
21
l
22
0
.
.
.
.
.
.
.
.
.
0
l
n1
l
nn
_

_
Cest la generalisation aux matrices de la fonction racine carree. Elle est utilisee pour
parametriser les matrices dont on veut garantir quelles sont denies positives
(ponderations, covariances, ...),
dans le forme square root de lalgorithme dactualisation de la matrice de covari-
ance du ltre de Kalman.
Analyse et representation Page 23/70
24 1. Rappels dalg
`
ebre lin

eaire
1.3.4 Decomposition en valeurs singuli`eres -SVD (help svd)
Les valeurs singuli`eres dune matrice A sont les racines carrees des valeurs propres de
A
T
A. on les note
i
:

i
=
_

i
(A
T
A) .
Alors que les valeurs propres sont liees aux directions invariantes par la transformation
A, les valeurs singul`eres contiennent linformation metrique sur cette transforma-
tion. Limage du cercle unite par A est un ellipsode dont la longueur des demi-axes
principaux correspondent aux valeurs singuli`eres maximale et minimale :

max
= max
u=0
Au
u
et
min
= min
u=0
Au
u
o` u x designe la norme euclidienne de x: x =

x
T
x.
Decomposition en valeurs singuli`eres Soit A une matrice de dimension mn et
de rang r (r < min(m, n)). A peut etre factorisee sous la forme:
A = U
mm

mn
V

nn
= [U
1
, U
2
]
_

1
rr


_ _
V

1
V

2
_
|r n
|r (n r)
avec :
U C
mm
matrice unitaire (UU

= I
mm
),
V C
nn
matrice unitaire (V V

= I
nn
),

1
= diag(
i
), i = 1, , r avec
1
>
2
> >
r
> 0,
U
1
et U
2
de dimension mr et m(mr) respectivement,
V
1
et V
2
de dimension n r et n (n r) respectivement.
U est la matrice des vecteurs singuliers U = [u
1
, u
2
, , u
m
] (voir gure 1.2). V
est la matrice des vecteurs dont les images par A sont les vecteurs singuliers V =
[v
1
, v
2
, , v
n
]. En eet :
Av
i
= UV

v
i
or
V

v
i
=
_

_
0
.
.
.
0
1
0
.
.
.
0
_

_
1
.
.
.
i
.
.
.
n
car V est unitaire
Analyse et representation Page 24/70
1.3 D

ecomposition des matrices 25


cercle unit
u
1
u
2
Figure 1.2: Illustration en dimension 2
Av
i
=
i
u
i
.
Les derni`eres colonnes de V correspondantes aux valeurs singuli`eres nulles engendrent
le noyau de la matrice A, les autres colonnes correspondantes aux valeurs singuli`eres
non-nulles engendrent lespace image de A
Pseudo-inverse de Moore-Penrose
A
+
= V
+
U

= V
1

+
U

1
avec
+
=
_

1
1 rr
0
0 0
_
et
1
1
= diag(
1

1
, ,
1

r
).
A
+
= (A
T
A)
1
A
T
si m > n et r = n (A de rang plein en colonne),
A
+
= A
T
(AA
T
)
1
si m < n et r = m (A de rang plein en ligne).
(Il sagit degalite algebrique, dun point de vue numerique cest totalement dierent).
Proprietes des valeurs singuli`eres

max
(.) est une norme matricielle, on a donc toutes les proprietes des normes:

max
(AB)
max
(A)
max
(B).

max
(A) = max
u /u =0
Au
u
.
Analyse et representation Page 25/70
26 1. Rappels dalg
`
ebre lin

eaire

min
(A
1
) =
1

max
(A)
;
max
(A
1
) =
1

min
(A)
.

max
(V AU) =
max
(A) U, V unitaires.
Si A est symetrique alors
i
(A) = |
i
(A)|.
Propriete de singularite

max
(E) <
min
(A)
min
(A +E) > 0

min
(A) represente la taille minimale de la matrice E telle que A + E soit sin-
guli`ere.
Analyse et representation Page 26/70
27
Chapter 2
Analyse des syst`emes
multi-variables par les valeurs
singuli`eres
2.1 Generalites
Soit un syst`eme multi-variable (n etats, m commandes, p sorties) denit:
par sa matrice de transfert
1
:
Y
U
(s) = G(s),
par une realisation minimale:
_
x
y
_
=
_
A B
C D
_ _
x
u
_
Pour analyser sa reponse frequentielle, on peut :
tracer les p m caracteristiques de Bode (Black ou Nyquist) 2 p m
courbes !! (gain et phase),
tracer les valeurs singuli`eres (surtout la min et la max) de G(j) en fonction de
la pulsation (help sigma).
* Dans le cas mono-variable, le trace de la valeur singuli`ere correspond `a la courbe de
gain de la caracteristique de Bode.
1
La notation
Y
U
(s) est abusive car dans le cas general u est un vecteur.
Analyse et representation Page 27/70
282. Analyse des syst
`
emes multi-variables par les valeurs singuli
`
eres
Frequency (rad/sec)
S
i
n
g
u
l
a
r

V
a
l
u
e
s

(
d
B
)
Singular Values
10
1
10
0
10
1
20
15
10
5
0
5
x 10
16

Figure 2.1: Valeur singuli`ere de
1s
1+s
* Dans le cas multi-variable, le trace des r valeurs singuli`eres (r = min(m, p)) ore
une information plus synthetique, mais la perte de la notion de phase peut-etre
dommageable pour certaines analyses.
Exercice: tracer (
1s
1+s
)

s=j
. La commande Matlab sigma(tf([-1 1],[1 1])) con-
duit alors au diagramme suivant (gure 2.1), cest-`a-dire une valeur singuli`ere unitaire
sur toute la plage de frequence. Esquisser le trace de (1
1s
1+s
)

s=j
.
2.2 Application des valeurs singuli`eres: marge de
module
2.2.1 Rappel mono-variable: insusance des notions de marge
de gain et de phase
Considerons la boucle generale dasservissement presentee gure 2.2. On denit le gain
de boucle: L(s) = G(s)K(s). La gure 2.2.1 rappelle la denition des marges de gain
et de phase dans le plan de Nyquist. Ces notions indiquent leloignement du trace de
G(j)K(j) par rapport au point critique (1, 0). On peut egalement les interpreter
sur les diagrammes de Bode et de Black.
Rappelons quil y a perte de stabilite lorsque ce trace traverse le point critique.
Analyse et representation Page 28/70
2.2 Application des valeurs singuli
`
eres: marge de module 29
+
-
K(s)
G(s)
e
u
y
Figure 2.2: Boucle dasservissement.

c
|| S ||8
1

p



Im(G(j )K(j ))
Re(G(j )K(j ))
G(j )K(j )
marge de gain
(1,0)
marge de
phase
Figure 2.3: Marges de gain, de phase et de module dans le plan de Nyquist.
Analyse et representation Page 29/70
302. Analyse des syst
`
emes multi-variables par les valeurs singuli
`
eres
La marge de gain en dB est:
marge de gain = 20 log
10
|G(j
p
)K(j
p
)| (2.1)
o` u
p
est la pulsation `a laquelle le trace de Nyquist traverse le demi-axe de phase
180

(phase crossover). Elle mesure de combien le gain peut varier `a cet endroit avant
de toucher le point critique. La marge de phase est:
marge de phase = Arg(G(j
c
)K(j
c
)) 180

(2.2)
o` u
c
est la pulsation `a laquelle le trace de Nyquist traverse le cercle unite centre `a
lorigine (pulsation de coupure). Elle mesure de combien la phase peut varier (rotation
du trace autour de lorigine) avant de rencontrer le point critique.
Enn la marge de retard est liee `a la marge de phase exprimee en degre par la
relation :
marge de retard = marge de phase

180
c
(2.3)
Elle mesure la valeur minimale du retard pur introduit dans la boucle qui destabilise
le syst`eme. Cette marge est particuli`erement pertinente lorsque le lieu de Nyquist
traverse plusieurs fois le cercle unite. Cest souvent le cas des structures exibles o` u la
presence de resonances et anti-resonances se traduisent par des boucles sur le lieu de
Nyquist. La marge de retard permet alors de mettre en evidence quune marge de
phase meme confortable peut etre critique si la pulsation
c
correspondante est elevee.
En comparaison, la marge de module represente la plus petite distance de L(j)
au point critique et correspond donc au rayon r du cercle centre sur le point critique
qui tangente le courbe L(j):
r = min

|1 + G(j)K(j)|
La gure 2.7 met en evidence un cas particulier o` u les marges de gain et de phase sont
confortables mais la marge de module trop faible.
2.2.2 Marge de module dans le cas multi-variable
Les valeurs singuli`eres permettent de generaliser directement au cas des syst`emes multi-
variables la notion de marge de module. La plus petite distance du gain de boucle
G(j)K(j) au point critique secrit alors:
r = min

min
(I +G(j)K(j))
soit encore:
r = min

max
(I +G(j)K(j))
1
Analyse et representation Page 30/70
2.2 Application des valeurs singuli
`
eres: marge de module 31
-
K(s) G(s)
e
u y
+
+
Figure 2.4: Boucle dasservissement perturbe (perturbation additive).
1
r
= max

max
(I +G(j)K(j))
1
= S(s)

avec S(s) = (I +G(s)K(s))


1
la fonction de sensibilite en sortie
2
.
On notera egalement que dans le cas multi-variable on peut distinguer :
L(s) = G(s)K(s) qui represente le transfert de boucle lorsque lon coupe au
niveau des sorties y du syst`eme,
L

(s) = K(s)G(s) qui represente le transfert de boucle lorsque lon coupe au


niveau des commandes u du syst`eme.
On peut pour chacun de ces transferts tracer les lieux de Black chane par chane, les
autres chanes etant ouverte et/ou fermee. Cela permet dapprecier les couplages entre
les chanes. On notera toutefois quil faut fermer les autres chanes, pour apprecier
les marges de gain, de phase et de retard relatives `a une chane. La marge de module
(en sortie) permet de determiner la taille de la plus petite perturbation additive
destabilisante selon le schema de la gure 2.4. En eet lapplication directe de la
propriete de singularite des valeurs singuli`eres enoncee page 26 permet decrire :
La boucle fermee est stable si (condition susante)
max
() < min

min
(I+G(j)K(j))
Exercice: `a partir de la plus petite perturbation additive destabilisant la boucle
representee sur la gure 2.4, trouver le gain
G
qui destabilise la boucle presentee sur
la gure 2.5.
2
Comme nous le verrons ulterieurement la norme H

dun transfert T(s) est:


T

= max

max
(T(j))
.
Analyse et representation Page 31/70
322. Analyse des syst
`
emes multi-variables par les valeurs singuli
`
eres
K(s)
G(s)
-
e
u y
G
Figure 2.5: Boucle dasservissement perturbe (perturbation
G
dans la boucle).
2.2.3 Illustration
Considerons la boucle dasservissement presentee gure 2.2 dans le cas SISO. Le trans-
fert de boucle (apr`es developpement) secrit :
L(s) = K(s)G(s) =
2
s 1
+
3s
2
+ 0.01s + 1
2s
2
+ 0.01s + 1
.
Tracer les lieux de Black et de Nyquist.
Verier sur ces lieux la stabilite de la boucle fermee.
Calculer les marges de gain, de phase et de module.
Solution sous Matlab: la sequence Matlab qui suit conduit aux gures 2.6 `a 2.8. On
peut verier dans le plan de Nyquist que le lieu entoure eectivement une fois le point
critique (le lieu complementaire pour les pulsations negatives est automatiquement
trace). Etant donne quil y a un pole instable en boucle ouverte, on peut garantir que
la boucle fermee est stable. Dans le plan de Black, cela se traduit par un depart
du lieu sur laxe au dessus du point critique. Enn, les marges de gain et phase sont
correctes mais la marge de module (ou plutot le minimum de la valeur singuli`ere de
1 + L) permet de deceler la proximite du lieu avec le point critique `a la pulsation de
0.7 rds.
>> L=tf(2,[1 -1])+0.01*tf([3 0.01 1],[2 0.01 1]);
>> black(L)
>> figure,nyquist(L)
>> [Mg,Mp,wc,wp]=margin(L)
Mg =
0.5025
Mp =
60.5275
wc =
0
Analyse et representation Page 32/70
2.3 Exercise sur lanalyse par les valeurs singuli
`
eres (sous Matlab)33
0 45 90 135 180 225 270 315 360
40
35
30
25
20
15
10
5
0
5
10
PHASE
d
B
0
0.7078
2.675
5.553
13.23
26.68
53.78
108.4
Figure 2.6: Lieu de Black de L(s)
wp =
1.7137
>> figure,sigma(1+L)
2.3 Exercise sur lanalyse par les valeurs singuli`eres
(sous Matlab)
Le mod`ele G de vol lateral dun avion rigide est donne par la reprsesentation detat :
_

p
r

n
y
p
r

_
=
_

_
0.080 0.104 0.995 0.045 0 0.016
2.016 0.843 0.280 0 0.342 0.192
1.711 0.179 0.293 0 0.010 0.782
0 1.000 0.104 0 0 0
0.0224 0.0013 0.0015 0 0.0002 0.0023
0 1.0000 0 0 0 0
0 0 1.0000 0 0 0
0 0 0 1.0000 0 0
_

_
_

p
r

dp
dr
_

_
. (2.4)
Une loi de commande par retour statique de sortie a ete synthetisee an de placer
correctement les modes rigides :
K =
_
122. 2.71 0.225 2.71
25.3 0.102 1.88 0.042
_
. (2.5)
Analyse et representation Page 33/70
342. Analyse des syst
`
emes multi-variables par les valeurs singuli
`
eres
Real Axis
I
m
a
g
i
n
a
r
y

A
x
i
s
Nyquist Diagrams
2 1.5 1 0.5 0 0.5
1.5
1
0.5
0
0.5
1
1.5
From: U(1)
T
o
:

Y
(
1
)
Figure 2.7: Lieu de Nyquist de L(s)
Frequency (rad/sec)
S
i
n
g
u
l
a
r

V
a
l
u
e
s

(
d
B
)
Singular Values
10
1
10
0
10
1
8
7
6
5
4
3
2
1
0
1

Figure 2.8: Valeur singuli`ere de 1 + L(s)
Analyse et representation Page 34/70
2.3 Exercise sur lanalyse par les valeurs singuli
`
eres (sous Matlab)35
Analyser la boucle ouverte KG `a laide des outils graphiques monovariables
(rlocus, black, nyquist, margin, ...)
Tracer les valeurs singuli`eres de I +K(j)G() en fonction de . En deduire la
marge de module et la pulsation critique
c
associee `a cette marge.
Determiner par svd la plus petite perturbation additive qui destabilise la
boucle, cest `a dire tel que K G + passe par le point critique. En deduire le
gain de boucle
G
en entree du syst`eme qui destabilise la boucle (cest `a dire tel
que K G
G
passe par le point critique). Commentaires.
Des retards purs de 400 ms sur les entrees de G sont maintenant pris en compte
(approximation de Pade (pade) `a lordre 1). Modiez en consequence le mod`ele
G et reprenez les analyses precedentes.
Analyse et representation Page 35/70
362. Analyse des syst
`
emes multi-variables par les valeurs singuli
`
eres
Analyse et representation Page 36/70
37
Chapter 3
Representation detat des syst`emes
multivariables denis par des
matrices de transfert
3.1 Probl`eme general
Soit un syst`eme `a m entrees et p sorties deni par une matrice de transfert:
Z(s) = [z
ij
(s)]
pm
trouver une representation detat:
_
x
y
_
=
_
A B
C D
_ _
x
u
_
telle que: Z(s) = D + C(sI A)
1
B, cest `a dire une realisation qui soit
equivalente du point de vue du comportement entree-sortie,
qui soit minimale, cest `a dire enti`erement gouvernable et observable car la ma-
trice de transfert initiale ne represente que la partie gouvernable et observable
du syst`eme.
Exemple introductif: si lon prend lexemple trivial de la double integration en
supposant disponible la mesure de position et la mesure derivee (vitesse), soit:
Z(s) =
_
1
s
_
s
2
Analyse et representation Page 37/70
38
3. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par des


matrices de transfert
une realisation detat correcte secrit immediatement en choisissant la position et la
vitesse comme vecteur detat :
_

_
y
y
y
y
_

_
=
_

_
0 1 0
0 0 1
1 0 0
0 1 0
_

_
_
_
y
y
u
_
_
Pourtant, il est facile de se rendre compte que Matlabfournit sur cet exemple une
realisation non-minimale (dordre 3) et donc incorrecte comme le montre la session qui
suit :
>> sys=tf({1;1},{[1 0 0];[1 0]})
Transfer function from input to output...
1
#1: ---
s^2
1
#2: -
s
>> [a,b,c,d]=ssdata(sys)
a =
0 0 0
1 0 0
0 0 0
b =
1
0
1
c =
0 1 0
0 0 1
Analyse et representation Page 38/70
3.2 Rappels: gouvernabilit

e, observabilit

e, minimalit

e 39
d =
0
0
Cela est d u au fait que la fonction tf2ss ne garantit pas la minimalite de la realisation.
Ce probl`eme de minimalite est dilicat `a resoudre dans le cas general comme nous allons
le voir dans les sections qui suivent
1
.
3.2 Rappels: gouvernabilite, observabilite, minimalite
3.2.1 Crit`eres generaux
a) la paire (A
nn
, B
nm
) est gouvernable si la matrice de gouvernabilite C = [B AB A
2
B A
n
B]
est de rang n,
b) les modes ingouvernables de la paire (A, B) sont les valeurs de s pour lesquelles
la matrice [A sI | B] perd son rang,
c) Dualite: Observabilite de la paire (A, C) Gouvernabilite (A
T
, B
T
).
Plus generalement, toute paire (A, B) peut se decomposer par transformation orthog-
onale U
g
(algorithme de Rosenbrock) de la facon suivante (help ctrbf) :
U
T
g
AU
g
=
_
A
11
A
12
0 A
22
_
et U
T
g
B =
_
B
1
0
_
,
avec (A
11
, B
1
) gouvernable. A
22
represente la partie ingouvernable.
Dualement la paire (A, C) peut se decomposer de la facon suivante (help obsvf) :
U
T
o
AU
o
=
_
A

11
A

12
0 A

22
_
et CU
o
= [0 C
2
],
avec (A

22
, C
2
) observable. A

11
represente la partie inobservable.
Le calcul pratique dune realisation minimale utilise ces 2 transformations de facon
sequentielle (help minreal):
premi`ere transformation U
g
: on reduit les lignes et les colonnes du bloc ingou-
vernable A
22
,
deuxi`eme transformation U
o
: on reduit les lignes et les colonnes du bloc inob-
servable A

11
.
1
A noter que Matlab permet de resoudre ce probl`eme en utilisant la macro-fonction minreal
(realisation minimale). Lobjectif netait pas de mettre en defaut Matlab mais de montrer quil
faut etre vigilant lors des passages transfert - etat (tf2ss).
Analyse et representation Page 39/70
40
3. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par des


matrices de transfert
3.2.2 Crit`eres particuliers
Il existe des crit`eres particuliers dans le cas de matrices A compagnes ou sous forme
bloc diagonale de Jordan. Voir polycopie SUPAERO: A.J. Fossard Representation,
observation et commande des syst`emes lineaires dans lespace detat (syst`emes mono-
entre/mono-sortie) (p 90-97).
On retiendra particuli`erement le crit`ere sur les formes de Jordan :Si la matrice
formee des derni`eres lignes des p blocs de la matrice B correspondants aux
p blocs de Jordan de la matrice A associes `a une meme valeur propre nest
pas de rang p alors le syst`eme est ingouvernable.
Ce crit`ere permet darmer que dans le cas mono-variable, la presence de 2 blocs
de Jordan (ou plus) associes `a une meme valeur propre entrane lingouvernabilite du
syst`eme.
Exemple : Considerons un satellite dinertie J
s
autour de son axe de tangage. Pour
controler son attitude
s/i
par rapport au rep`ere inertiel, on applique des couple u
s/r
sur une roue dinertie J
r
reperee par son attitude
r/s
par rapport au satellite.
Le principe daction/reaction nous permet decrire :
J
s

s/i
= u
s/r
J
r
(

r/s
+

s/i
) = u
s/r
do` u la representation detat :
_

s/i

s/i

r/s

r/s
y
_

_
=
_

_
0 1 0 0 0
0 0 0 0 1/J
s
0 0 0 1 0
0 0 0 0 1/J
s
+ 1/J
r
1 0 0 0 0
_

_
_

s/i

s/i

r/s

r/s
u
_

_
On a bien 2 blocs de Jordan dordre 2 associes `a valeur propre 0. Ce syst`eme est
donc ingouvernable. En pratique, on cherche `a contr oler lattitude du satellite mais la
derive de la roue ne pas etre contr olee sans un organe de commande supplementaire
(en loccurrence les jets `a reaction du syst`eme de controle dorbite).
3.3 Rappel: passage transfert/etat dans le cas SISO
(Single Input Single Output)
(voir [4], pages 27 `a 30). Dans le cas SISO, lordre de la representation est directement
le degre du denominateur de la fonction de transfert.
Analyse et representation Page 40/70
3.3 Rappel: passage transfert/

etat dans le cas SISO (Single Input


Single Output) 41
3.3.1 Formes diagonales
Sil ny a que des valeurs propres simples, on peut decomposer Z(s) en elements sim-
ples :
F(s) =
N(s)

n
1
(s +
i
)
=
n

i
s +
i
.
On a alors directement une realisation minimale :
_

_
x
y
_

_
=
_

1

1

2
1
.
.
.
.
.
.

n

n
1
2
1 0
_

_
_

_
x
u
_

_
.
Les elements
i
et 1 sont permutables dans B et C.
3.3.2 Formes compagnes
Soit :
F(s) =
N(s)
D(s)
=
b
m
s
m
+b
m1
s
m1
+b
m2
s
m2
+ +b
1
s +b
0
1s
n
+a
n1
s
n1
+a
n2
s
n2
+ +a
1
s +a
0
Une solution generale consiste alors `a chercher un forme compagne horizontale ou
verticale (on suppose m < n, cest-`a-dire que lon a prealablement isole la transmission
directe du transfer) .
Formes compagnes horizontales
_

_
x
h
y
_

_
=
_

_
0 1 0 0 0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0
.
.
.
0 0 0 1 0
a
0
a
1
a
n1
1
b
0
b
m
0 0
_

_
_

_
x
h
u
_

_
Une formulation plus generale fait intervenir une factorisation du numerateur:
N(s) = C(s)B(s)
Les deux polynomes C(s) et B(s) ou, dans le cas multi-variable, les matrices polyno-
miales colonne C(s) et ligne B(s) (voir section 3.6.4), alimentent les matrices C et B
Analyse et representation Page 41/70
42
3. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par des


matrices de transfert
de la facon suivante :
_

h
=
_

_
0 1 0 0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0
0 0 0 1
a
0
a
1
a
n1
_

_
x

h
+A
1
_

_
.
.
.

B(0)/2!

B(0)/1!
B(0)
_

_
u
y =
_
C(0)

C(0)
1!

C(0)
2!

_
x

h
avec:
A =
_

_
1 0 0
a
n1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
a
1
a
n1
1
_

_
et

N(0) =
N(s)
s

s=0
(N(s) = C(s) ou B(s))
(3.1)
Formes compagnes verticales
_

_
x
v
y
_

_
=
_

_
a
n1
1 0 0
.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
.
1 0 b
m
a
1
0 0 1
.
.
.
a
0
0 0 b
0
1 0 0 0
_

_
_

_
x
v
u
_

_
(3.2)
Comme precedemment, une formulation plus generale fait intervenir une factorisation
du numerateur:
N(s) = C(s)B(s)
Les deux polynomes C(s) et B(s) ou, dans le cas multi-variable, les matrices polyno-
miales colonne C(s) et ligne B(s) (voir section 3.6.4), alimentent les matrices C et B
de la facon suivante :
_

v
=
_

_
a
n1
1 0 0
.
.
. 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0
a
1
0 0 1
a
0
0 0
_

_
x

v
+
_

_
.
.
.

B(0)/2!

B(0)/1!
B(0)
_

_
u
y =
_
C(0)

C(0)
1!

C(0)
2!

_
A
1
x

v
avec A denie par lequation 3.1.
Analyse et representation Page 42/70
3.4 Cas SIMO (Single Input Multi Output) et MISO (Multi Input
Single output) 43
3.3.3 Formes de Jordan
Elles apparaissent en presence de valeurs propres multiples. Soit :
F(s) =
N(s)
(s +)
n
=
C(s)B(s)
(s +)
n
alors :
_

_
x
y
_

_
=
_

_
1 0 0
.
.
.
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0

B()/2!
.
.
.
.
.
.
.
.
.
1

B()/1!
0 0 B()
C()

C()
1!

C()
2!
0
_

_
_

_
x
u
_

_
Cas particuliers: pour les syst`emes SISO on prend souvent: C(s) = 1 et B(s) = N(s)
ou C(s) = N(s) et B(s) = 1.
3.4 Cas SIMO (Single Input Multi Output) et MISO
(Multi Input Single output)
Les methodes precedentes peuvent setendre directement aux matrices de transfert ligne
(cas MISO) ou colonne (cas SIM0). Lordre de la representation est egalement le degre
de (s): denominateur commun de la matrice de transfert sous la forme:
Z(s) =
M(s)
(s)
Comme dans le cas SISO il faut isoler prealablement la transmission directe et normalise
`a 1 le coecient de plus haut degre de (s).
Exemple:
Z(s) =
_
b
m
s
m
+b
m1
s
m1
+b
m2
s
m2
+ +b
1
s +b
0
c
m
s
m
+c
m1
s
m1
+c
m2
s
m2
+ +c
1
s +c
0
_
1s
n
+a
n1
s
n1
+a
n2
s
n2
+ +a
1
s +a
0
+
_
d
1
d
2
_
Analyse et representation Page 43/70
44
3. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par des


matrices de transfert
alors:
_

_
x
y
1
y
2
_

_
=
_

_
0 1 0 0 0
0 0
.
.
.
0
0
.
.
.
1
.
.
.
0 0 0 1 0
a
0
a
1
a
n1
1
b
0
b
m
0 d
1
c
0
c
m
0 d
2
_

_
_

_
x
u
_

_
3.5 Cas MIMO avec des modes simples: methode
de Gilbert
Sil le denominateur (s) na que des racines simples, alors on peut decomposer la
matrice de transfert en elements simples:
Z
pm
(s) =
M(s)
(s +
1
)(s +
2
) (s +
q
)
=
q

i=1
M
i
s +
i
.
Lordre du syst`eme est la somme des rangs des matrices M
i
(de dimension p m):
n =
q

i=1
rang(M
i
) =
q

i=1
r
i
avec r
i
= rang(M
i
)
C
i
(p r
i
), B
i
(r
i
m) / M
i
= C
i
B
i
La representation detat est sous forme diagonale (avec
i
apparaissant r
i
fois), les
matrices B et C sont formees des matrices B
i
et C
i
.
Exemple:
Z(s) =
_
s
2
+ 4s + 1 s
4s 3s + 1
_
s
2
+s
=
_
3s + 1 s
4s 3s + 1
_
s(s + 1)
+
_
1 0
0 0
_
(3.3)
=
_
1 0
0 1
_
s
+
_
2 1
4 2
_
s + 1
+
_
1 0
0 0
_
(3.4)
=
_
1 0
0 1
_
s
+
_
1
2
_
[2 1]
s + 1
+
_
1 0
0 0
_
(3.5)
Les valeurs propres 0 et -1 vont donc apparatre respectivement 2 fois et 1 fois dans la
Analyse et representation Page 44/70
3.6 Cas g

en

eral 45
representation detat qui secrit:
_

_
x
y
_

_
=
_

_
0 1 0
0 0 1
1 2 1
1 0 1 1 0
0 1 2 0 0
_

_
_

_
x
u
_

_
3.6 Cas general
Dans le cas general, la premi`ere question `a se poser est: quel est lordre de la realisation
minimale?. La m

ethode des invariants qui est presentee ci-dessous permet de


repondre `a cette question et permet egalement de trouver une realisation minimale
bloc-diagonale. On supposera dans ce que suit que la matrice de transfert de depart
est strictement propre (tous les polynomes du numerateur sont de degre strictement
inferieur au degre du denominateur commun (s)). Dans le cas contraire, on prendra
soin dextraire prealablement la transmission directe et de la rajouter directement `a la
realisation minimale nalement obtenue. On note:
Z(s)
pm
=
M(s)
pm
(s)
3.6.1 Diagonalisation dune matrice polynomiale par operations
elementaires
Etant donnee une matrice polynomiale M(s) de dimension pm, il est toujours possible
de trouver des matrices polynomiales, mais `a determinant constant (i.e. independant
de s et non nul) V (s) et W(s) de dimensions p p et mm telles que :
M(s) = V (s)(s)W(s)
avec (s) diagonale si m = p ou quasi diagonale si p = m (on compl`ete avec des 0) :
(s) =
_

1
(s)
.
.
.

m
(s)
_

_
cas p = m
(s) =
_

1
(s)
.
.
.

p
(s) 0 0
_

_
cas p < m
Analyse et representation Page 45/70
46
3. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par des


matrices de transfert
(s) =
_

1
(s)
.
.
.

m
(s)
0
.
.
.
0
_

_
cas p > m
Les elements
i
(s) sont appeles les invariants de la matrice M(s). Ils ont la propriete
suivante:
i
divise
i+1
.
On peut ecrire:
V
1
(s)M(s)W
1
(s) = (s)
V
1
(s) et W
1
(s) sont des matrices de pre-multiplication et de post-multiplication
calculees pour diagonaliser M(s).
Exemple:
Z(s) =
1
(s + 2)
2
_
s + 3 3s + 8
1 s + 4
_
M(s)
Diagonalisation de M(s) par pre et post multiplication:
_
1 s 3
0 1
_ _
s + 3 3s + 8
1 s + 4
_
_
0 1
1 0
_ _
0 s
2
4s 4
1 s + 4
_
_
1 s + 4
0 s
2
4s 4
_ _
1 s + 4
0 1
_
..
V
1
(s)=

0 1
1 s 3

_
1 0
0 (s + 2)
2
_
. .
(s)
..
W
1
(s)
V (s) =
_
s + 3 1
1 0
_
W(s) =
_
1 s + 4
0 1
_
Z(s) =
_
s + 3 1
1 0
_ _
1
(s+2)
2
0
0 1
_ _
1 s + 4
0 1
_
(voir aussi les exemples 13,14 et 15 pages 38 et 39 de la reference [4].)
3.6.2 Calcul algorithmique des invariants
En pratique, letape de diagonalisation precedente est assez laborieuse. Lalgorithme
que nous presentons ici permet simplement de calculer les invariants
i
(s) sans calculer
les matrices V (s) et W(s). On peut alors en deduire lordre du syst`eme et la struc-
ture de la matrice dynamique A dans une certaine base. Pour trouver les matrices B
Analyse et representation Page 46/70
3.6 Cas g

en

eral 47
et C correspondantes, il sera preferable, dans certains cas (cas des poles reels multi-
ples), de ne pas chercher les matrices V (s) et W(s) mais dappliquer la methode du
graphe minimal (voir section 3.8) connaissant lordre et la structure de la dynamique
du syst`eme.
Calcul direct des
i
(s): on pose:

0
= 1,

1
= pgcd
2
des elements m
ij
(s) de M(s),

2
= pgcd des mineurs dordre 2 de M(s),
.
.
.

i
= pgcd des mineurs
3
dordre i de M(s) (i = 1, , min(m, p)).
On a alors:
1
=

1

0
,
2
=

2

1
, ,
i
=

i

i1
.
Exemple:
M(s) =
_
s + 3 3s + 8
1 s + 4
_

0
= 1

1
= 1
1
= 1

2
= s
2
+ 7s + 12 3s 8 = (s + 2)
2

2
= (s + 2)
2
3.6.3 Invariants dune matrice rationnelle
M(s) = V (s)(s)W(s) Z(s) = V (s)
_

1
(s)
(s)
.
.
.

i
(s)
(s)
.
.
.
_

_
W(s)
Il faut alors simplier les fractions rationnelles

i
(s)
(s)
autant que se peut:

i
(s)
(s)
=

i
(s)

i
(s)
avec
i
(s) et
i
(s) premiers entre eux.
2
Plus Grand Commun Diviseur
3
Cest-`a-dire toutes les matrices i i que lon peut extraire de M(s).
Analyse et representation Page 47/70
48
3. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par des


matrices de transfert
Il peut y avoir eventuellement simplication totale:

i
(s)
(s)
=
i
.
Z(s) = V (s)
_

1
(s)

1
(s)
0

2
(s)

2
(s)
.
.
.
.
.
.
.
.
.

k
(s)

k
(s)
.
.
.

k+1
.
.
.
.
.
.
.
.
.

p
0
_

_
W(s) (hyp: p < m) .
Lordre du syst`eme est egal `a la somme des degres des denominateurs des
invariants rationnels reduits:
n =

min(m,p)
i=1
degre(
i
(s)).
On peut egalement en deduire le polynome caracteristique de la realisation minimale :
det(sI A) =
min(m,p)
i=1

i
(s) = n =
k
i=1

i
(s).
Exemple:
Z(s) =
_
s + 3 1
1 0
_ _
1
(s+2)
2
0
0 1
_ _
1 s + 4
0 1
_
syst`eme dordre 2 .
3.6.4 Construction dune realisation minimale
Il sut de decomposer la matrice numerateur en matrices elementaires de rang 1 en
utilisant les vecteur colonnes de la matrice V (s) et les vecteurs lignes de la matrice
W(s) (on supposera p < m, sinon cest la plus petite valeur de p ou de m quil faut
considerer) :
Z(s) = [v
1
(s), v
2
(s), , v
p
(s)]
_

1
(s)

1
(s)
0

2
(s)

2
(s)
.
.
.
.
.
.
.
.
.

k
(s)

k
(s)
.
.
.

k+1
.
.
.
.
.
.
.
.
.

p
0
_

_
_

_
w
1
(s)
w
2
(s)
.
.
.
w
m
(s)
_

_
Analyse et representation Page 48/70
3.7 Calcul dune r

ealisation non-minimale 49
Z(s) =
k

i=1
v
i

i
(s)

i
(s)
w
i
+
min(m,p)

i=k+1
v
i

i
w
i
=
k

i=1
Z
i
+
min(m,p)

i=k+1
D
i
Remarque: les invariants constants ou polynomiaux
i
(i k + 1) correspondent
`a des transmissions directes qui compensent eventuellement les transmissions directes
des matrices elementaires Z
i
(s) (cest le cas de lexemple traite ci-dessous). On peut
les ignorer dans la construction de la realisation minimale car on a pris soin disoler
prealablement la transmission directe (Z(s) est strictement propre).
On a donc: Z(s) =

k
i=1
Z
i
(s)
Chaque element Z
i
(s) est represente par des matrices elementaires A
i
, B
i
, C
i
cal-
culees selon le formulaire presente section 3.3. On remarquera que les deux facteurs
polynomiaux C(s) et B(s) de la decomposition du numerateur N(s) = C(s)B(s) pro-
posee dans ce formulaire sont respectivement la matrice ligne v
i
(s) et la matrice colonne
w
i
(s).
Lassemblage des representations elementaires conduit donc `a une realisation
minimale bloc-diagonale.
Exemple:
Z(s) =
_
s + 3
1
_
1
(s + 2)
2
[1 s + 4] +
_
1
0
_
[0 1]
ignore
Do` u la realisation minimale dordre 2 :
_
x
y
_
=
_

_
2 1 0 1
0 2 1 2
1 1 0 0
1 0 0 0
_

_
_
x
u
_
3.7 Calcul dune realisation non-minimale
On peut obtenir directement une realisation (pas forcement minimale) de Z(s)
pm
=
M(s)
(s)
en decomposant la matrice numerateur M(s) en min(m, p) matrices de rang 1.
Lordre de cette realisation sera donc :
n = degre[(s)] min(m, p)
si p m: decomposition en colonne:
Z(s) =
m

i=1
M
i
(s)
(s)
[0 0 1
..
i
ieme
colonne
0 0]
avec: M(s) = [M
1
(s), M
2
(s), , M
m
(s)].
Analyse et representation Page 49/70
50
3. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par des


matrices de transfert
Pour chaque terme M
i
(s), on adoptera une forme compagne horizontale ou une
forme de Jordan (cas des valeurs propres multiples). La realisation nalement
obtenue est bloc-diagonale et gouvernable mais pas necessaire observable.
si p m: decomposition en ligne
Z(s) =
p

i=1
_

_
0
.
.
.
0
1
0
.
.
.
0
_

_
M
i
(s)
(s)
avec M(s) =
_

_
M
1
(s)
M
2
(s)
.
.
.
M
p
(s)
_

_
Pour chaque terme M
i
(s), on adoptera une forme compagne verticale ou une
forme de Jordan (cas des valeurs propres multiples). La realisation nalement
obtenue est bloc-diagonale et observable mais pas necessaire gouvernable.
Exemple:
Z(s) =
1
(s + 2)
2
_
s + 3 3s + 8
1 s + 4
_
=
_
s + 3
1
_
[1 0]
(s + 2)
2
+
_
3s + 8
s + 4
_
[0 1]
(s + 2)
2
_

_
x
1
=
_

_
2 1
0 2
2 1
0 2
_

_
x
1
+
_

_
0 0
1 0
0 0
0 1
_

_
u
y =
_
1 1 2 3
1 0 2 1
_
x
1
On peut constater que la matrice formee des 2 premi`eres colonnes de la matrice C
correspondantes aux 2 blocs de Jordan, soit:
_
1 2
1 2
_
nest pas de rang 2 et traduit
donc linobservabilite de cette realisation dordre 4.
En exprimant les blocs elementaires sous forme compagne horizontale, on obtient
une autre realisation :
_

_
x
2
=
_

_
0 1
4 4
0 1
4 4
_

_
x
2
+
_

_
0 0
1 0
0 0
0 1
_

_
u
y =
_
3 1 8 3
1 0 4 1
_
x
2
Analyse et representation Page 50/70
3.8 M

ethode du graphe minimal (cas des valeurs propres multiples)51


La decomposition en ligne:
Z(s) =
_
1
0
_
[s + 3 3s + 8]
(s + 2)
2
+
_
0
1
_
[1 s + 4]
(s + 2)
2
,
conduit aux deux realisations suivantes :
_

_
x
3
=
_

_
2 1
0 2
2 1
0 2
_

_
x
3
+
_

_
1 3
1 2
0 1
1 2
_

_
u
y =
_
1 0 0 0
0 0 1 0
_
x
3
_

_
x
4
=
_

_
4 1
4 0
4 1
4 0
_

_
x
4
+
_

_
1 3
3 8
0 1
1 4
_

_
u
y =
_
1 0 0 0
0 0 1 0
_
x
4
3.8 Methode du graphe minimal (cas des valeurs
propres multiples)
On decompose Z(s) =
M(s)
(s+)
r
en elements simples :
Z(s) =
M
r
(s +)
r
+
M
r1
(s +)
r1
+
M
1
s +
.
On decompose ensuite Z(s) suivant les sorties (decomposition en ligne). On note :
M
j
=
_

_
M
1
j
.
.
.
M
i
j
.
.
.
M
p
j
_

_
j = 1, , r
Y
1
(s) =
M
1
r
(s+)
r
U +
M
1
r1
(s+)
r1
U + +
M
1
1
s+
U
.
.
.
Y
i
(s) =
M
i
r
(s+)
r
U +
M
i
r1
(s+)
r1
U + +
M
i
1
s+
U
.
.
.
Y
p
(s) =
M
p
r
(s+)
r
U +
M
p
r1
(s+)
r1
U + +
M
p
1
s+
U
Analyse et representation Page 51/70
52
3. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par des


matrices de transfert
+
+
x
r xr-1
y
1 1
x
+
+
Figure 3.1: Graphe minimal associe `a Y
1
.
+
+
+
-
y
1
y
2
1
x
2
x
u [1 2] [1 3]u
Figure 3.2: Graphe minimal associe `a Z(s).
On trace le graphe de la premi`ere mesure i o` u M
i
r
nest pas nul. On obtient le schema
fonctionnel presente Figure 3.1 (avec i = 1). Puis on construit les mesures suivantes
en seorcant de construire dabord le terme de plus haut degre (
M
2
r
(s+)
r
U) en utilisant
les r blocs
1
s+
dej` a construits et ainsi de suite pour les autres mesures.
Exemple:
Z(s) =
1
(s + 2)
2
_
s + 3 3s + 8
1 s + 4
_
=
_
1 2
1 2
_
(s + 2)
2
+
_
1 3
0 1
_
s + 2
_
Y
1
(s) =
[1 2]
(s+2)
2
U +
[1 3]
s+2
U
Y
2
(s) =
[1 2]
(s+2)
2
U +
[0 1]
s+2
U
On obtient le graphe presente gure 3.2. En eet :
Y
2
(s) = Y
1
(s)
[1 2]
s + 2
U .
Do` u la realisation minimale (dordre 2) :
_

_
x
5
=
_
2 1
0 2
_
x
5
+
_
1 3
1 2
_
u
y =
_
1 0
1 1
_
x
5
Analyse et representation Page 52/70
3.9 Exercice 53
3.9 Exercice
On consid`ere le syst`eme `a 2 entrees et 2 sorties deni par la matrice de transfert
suivante :
Z(p) =
_
p
3
+ 3p
2
+ 2p + 1 2p
2
+p + 1
3p
2
+p + 1 3p
2
+p + 1
_
p
2
(p
2
+p + 1)
(3.6)
a) De quel ordre est le syst`eme ?
b) Quelle est sont equation caracteristique? Sous forme bloc diagonale, quelle serait
la structure de la matrice A?
c) Donner une realisation minimale de ce syst`eme.
Analyse et representation Page 53/70
54
3. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par des


matrices de transfert
Analyse et representation Page 54/70
55
Chapter 4
Representation detat des syst`emes
multivariables denis par un
syst`eme dequations dierentielles
4.1 Notations et Probl`ematique
Loperateur derivation est note : D =
d
dt
. On note donc y
(k)
i
= D
k
y
i
.
Exemple :
_
y

1
+ 2y

1
+ 3y
1
+y

2
+y
2
= u

1
+u
2
+u
3
y

1
+y
1
+ 3y

2
+y
2
= u
2
+u

3
+u
3
_
D
3
+ 2D + 3 D + 1
D + 1 3D + 1
_ _
y
1
y
2
_
=
_
D 1 1
0 1 D + 1
_
_
_
u
1
u
2
u
3
_
_
On note le syst`eme dierentiel : L(D)y = M(D)u avec L(D) : p p inversible et
M(D) : p m.
Le probl`eme est de trouver une realisation :
_
x
y
_ _
A B
C D
_ _
x
u
_
equivalente au syst`eme dierentiel donc observable mais pas necessairement gouvern-
able.
On note egalement les decompositions L(D) et M(D) suivant les puissances de D
de la facon suivante :
L(D) = L
s
D
s
+L
s1
D
s1
+ +L
1
D +L
0
M(D) = M
r
D
r
+M
r1
D
r1
+ +M
1
D +M
0
.
Analyse et representation Page 55/70
56
4. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par un
syst
`
eme d

equations diff

erentielles
Hypoth`ese : Comme precedemment et comme dans le cas SISO, on supposera s r
pour que le syst`eme est une signication physique. Si r = s, le syst`eme nest pas
strictement propre et on commencera par isoler la transmission directe. Lattention
est toutefois attiree sur le fait que, contrairement au cas SISO, la condition s > r
nimplique pas que syst`eme soit strictement propre. Il peut meme ne correspondre `a
rien de physique.
4.2 Rappel cas SISO
Dans le cas SISO, lequation dierentielle entree-sortie, apr`es avoir isoler la transmission
directe et apr`es normalisation `a 1 du coecient de la derivee de la sortie y de plus haut
degre, secrit :
1 y
n
+a
n1
y
n1
+ +a
1
y +a
0
y = b
0
u +b
1
u + +b
m1
u
m1
+b
m
u
m
.
On prendra comme representation detat une forme compagne verticale pour ses pro-
prietes dobservabilite (equation 3.2) :
_

_
x
v
y
_

_
=
_

_
a
n1
1 0 0
.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
.
1 0 b
m
a
1
0 0 1
.
.
.
a
0
0 0 b
0
1 0 0 0
_

_
_

_
x
v
u
_

_
4.3 Cas general multivariable
Dune facon analogue aux matrices de transfert, nous allons chercher `a diagonaliser
L(D) par une succession doperations licites (pre-multiplications et post-multiplication
par des notations `a determinant constant; ni nul ni dependant de D).
4.3.1 Pre-multiplication du syst`eme: triangularisation (superieure)
de L(D)
V (D)L(D)y = V (D)M(D)u avec
V (D)L(D) = T(D) =
_

_
L
11
(D) L
1p
(D)
0 L
22
(D)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 L
pp
(D)
_

_
Analyse et representation Page 56/70
4.3 Cas g

en

eral multivariable 57
4.3.2 Changement de variable (post-multiplication)
y = W(D)z avec det(W(D)) = Cste
V (D)L(D)W(D)z = V (D)M(D)u
avec W(D) qui diagonalise la matrice triangulaire T(D).
On note alors V (D)L(D)W(D) = (D) (diagonale) :
(D)z = M

(D)u avec (D) = diag(


i
(D)) i = 1, , p
On a donc p equations dierentielles en parall`ele et lordre du syst`eme est la somme
des degr`es des
i
(D), cest-`a-dire le degre du determinant de L(D).
Ordre du syst`eme L(D)y = M(D)u: n = degre(det (L(D)))
4.3.3 Mise sous forme detat
A partir de la forme triangulaire superieure, si pour chaque colonne le terme de plus
haut degre est sur la diagonale, on peut chercher directement une representation detat
en commencant par le derni`ere mesure (voir exemple 5 page 13 de [4]).
Dans le cas general, on ne cherchera pas `a triangulariser L(D) mais on utilisera la
methode pratique suivante : on decompose L(D) selon les puissances de D :
L(D) = L
s
D
s
+L
s1
D
s1
+ +L
1
D +L
0
.
Deux cas peuvent se presenter selon que L
s
soit inversible ou pas.
Cas 1: L
s
est inversible
Alors on pre-multiplie le syst`eme direntiel L(D)y = M(D)u par L
1
s
et on peut
conclure : n = p s .
On a une representation detat directe par la generalisation du cas mono-variable
(la multiplication par L
1
s
correspond `a la normalisation `a 1 du coecient de plus haut
degre du polynome caracteristique lorsque lon cherche une representation sous forme
compagne dans le cas mono-variable).
_

_
x
y
_

_
=
_

_
L
1
s
L
s1
I
pp
0 0
.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
.
I
pp
0 L
1
s
M
r
L
1
s
L
1
0 0 I
pp
.
.
.
L
1
s
L
0
0 0 L
1
s
M
0
I
pp
0 0 0
_

_
_

_
x
u
_

_
Analyse et representation Page 57/70
58
4. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par un
syst
`
eme d

equations diff

erentielles
Cas 2: L
s
est de rang < p
Par pre-multiplication et post-multiplication, on peut se ramener au cas o` u L(s) =
_
I

p

pp
_
et on decompose le syst`eme en blocs 2 2 :
()
(p )
_
L
11
(D) L
12
(D)
L
21
(D) L
22
(D)
_ _
y
1
y
2
_
=
_
M
1
(D)
M
2
(D)
_
u
() (p )
Premier sous-syst`eme (dordre s):
L
11
(D)y
1
= M
1
(D)u L
12
(D)y
2
On est ramener au cas precedent car L
11s
est inversible. Y
2
est considerer comme une
entree auxiliaire pour ce sous-syst`eme. On obtient alors :
_
x
1
= A
1
x
1
+B
1
u Ky
2
y
1
= C
1
x
1
ou
_
x
1
y
1
_
=
_
A
1
B
1
K
C
1

_
_
_
x
1
u
y
2
_
_
Second sous-syst`eme :
L
22
(D)y
2
= M
2
(D)u L
21
(D)y
1
(4.1)
Le terme L
21
(D)y
1
est compose de termes en :
y
1
= C
1
x
1
,
y
1
= C
1
Ax
1
+C
1
B
1
u C
1
Ky
2
,
y
1
= C
1
A
2
x
1
+C
1
AB
1
u C
1
AKy
2
+C
1
B
1
u C
1
K y
2
,
.
On peut donc reecrire lequation (4.1) de la facon suivante :
L

22
(D)y
2
= M

2
(D)u Sx
1
Remarque : cest dans cette derni`ere equation quapparaissent eventuellement :
des transmissions directes (si s = n),
des equations detats supplementaires (si s < n),
des relations statiques sur x
1
qui permettront de supprimer (reduire) des variables
detats dans le vecteur x
1
(si s > n).
Analyse et representation Page 58/70
4.4 Exemple 59
Dans le cas s < n, on obtient la representation du second sous-syst`eme :
_
x
2
= A
2
x
2
+B
1
u +Tx
1
y
2
= C
2
x
2
ou
_
x
2
y
2
_
=
_
A
2
B
2
T
C
2

_
_
_
x
2
u
x
1
_
_
et la representation globale :
_

_
x
1
x
2
y
1
y
2
_

_
=
_

_
A
1
KC
2
B
1
T A
2
B
2
C
1

C
2

_

_
_

_
x
1
x
2
u
_

_
Remarques :
ne pas oublier de rajouter la transmission directe eventuellement isolee dans le
probl`eme initial (voir hypoth`ese de la section 4.1),
ne pas oublier non plus de tenir compte du changement de variable eventuellement
utilise pour normaliser L
s
sous la forme :
L(s) =
_
I

p

pp
_
4.4 Exemple
Soit le syst`eme dierentiel :
_
D
2
+D + 1 D
2
D
D
2
+ 2D + 1 D
2
+D
_
y =
_
D + 1 D + 2
D + 3 2D + 4
_
u note: (L(D)y = M(D)u)
Ordre du syst`eme
det (L(D)) = D
4
+ 2D
3
+ 2D
2
+D (D
4
+D
3
+ ) = D
3
+
n = 3
Normalisation de L
s
s = 2 ; L
2
=
_
1 1
1 1
_
Analyse et representation Page 59/70
60
4. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par un
syst
`
eme d

equations diff

erentielles
Pre-multiplication:
_
1 0
1 1
_
(Ly = Du)
_
D
2
+D + 1 D
2
D
D 2D
_
y =
_
D + 1 D + 2
2 D + 2
_
u .
Changement de variable: y =
_
1 1
0 1
_
z

_
D
2
+D + 1 2D 1
D D
_
z =
_
D + 1 D + 2
2 D + 2
_
u .
Premier sous-syst`eme:
(D
2
+D + 1)z
1
= [D + 1 D + 2]u + (2D + 1)z
2
_
_
_
x
1
=
_
1 1
1 0
_
x
1
+
_
1 1
1 2
_
u +
_
2
1
_
z
2
z
1
= [ 1 0 ]x
1
Second sous-syst`eme:
Dz
2
= [2 D + 2]u Dz
1
= [2 D + 2]u [1 0] x
1
= [2 D + 2]u [1 1]x
1
[1 1]u 2z
2
(D + 2)z
2
= [1 D + 1]u + [1 1]x
1
Cette derni`ere egalite met en evidence une transmission directe unitaire entre z
2
et u
2
(deuxi`eme composante de u). On pose donc: z
2
= z
2
u
2
= z
2
[0 1]u et on obtient :
(D + 2) z
2
= [1 1]u + [1 1]x
1
,
do` u la representation du second sous-syst`eme :
_
_
_
x
2
= 2x
2
+ [1 1]u + [1 1]x
1
z
2
= x
2
z
2
= x
2
+ [0 1]u
Representation globale
_

_
x
1
x
2
z
1
z
2
_

_
=
_

_
1 1 2 1 3
1 0 1 1 3
1 1 2 1 1
1 0 0 0 0
0 0 1 0 1
_

_
_

_
x
1
x
2
u
_

_
Analyse et representation Page 60/70
4.5 Exercices 61
Soit, compte tenu du changement de variable y =
_
1 1
0 1
_
z :
_

_
x
1
x
2
y
1
y
2
_

_
=
_

_
1 1 2 1 3
1 0 1 1 3
1 1 2 1 1
1 0 1 0 1
0 0 1 0 1
_

_
_

_
x
1
x
2
u
_

_
4.5 Exercices
Exercice 1
On consid`ere le syst`eme deni par les equations :
_
2D
2
+D + 2 D
2
+
2
3
D + 1
D
2
+
1
3
D 2 D
2
1
_ _
y
1
y
2
_
=
_
D + 1 D + 2 1
D 1 1
_
_
_
u
1
u
2
u
3
_
_
a) De quel ordre est ce syst`eme ? (On ne vous demande pas les modes, seulement
lordre. Repondez, en justiant, le plus facilement possible).
b) Donnez-en une representation detat minimale.
c) Comment les etats que vous avez choisi sont-ils lies aux sorties et aux entrees du
syst`eme?
Exercice 2
_
D
2
D D
2
+ 1
D
2
+D D
2
+ 2D 1
_
y =
_
1 2
2 1
_
u
a) De quel ordre est ce syst`eme ?
b) Donnez-en une representation detat minimale.
Analyse et representation Page 61/70
62
4. Repr

esentation d

etat des syst


`
emes multivariables d

efinis par un
syst
`
eme d

equations diff

erentielles
Analyse et representation Page 62/70
63
Chapter 5
Gouvernabilite et observabilite:
analyse pratique par les grammiens
5.1 Introduction
Les notions de gouvernabilite et dobservabilite presentees jusquici donne une infor-
mation binaire sur les proprietes du syst`eme (gouvernable ou pas, observable ou pas).
Les crit`eres theoriques sont dailleurs fondes sur un calcul de rang. En pratique, il
parat necessaire de pouvoir apprecier, de mesurer la gouvernabilite ou lobservabilite
(on parle alors dindice de gouvernabilite ou dobservabilite).
Exemple: Cas de 2 blocs de Jordan associes `a la meme valeur propre dans le cas
monovariable. Que se passe t-il lorsque legalite des valeurs propres nest pas parfaite
? :
_
x
y
_
=
_
_
0 1
0 + 1
1 1 0
_
_
_
x
u
_
avec petit .
Dans le cas des syst`emes asymptotiquement stables, les grammiens de gouvernabilite et
dobservabilite fournissent cette mesure et permettent dapprehender ces probl`emes.
5.2 Denitions
Soit un syst`eme asymptotiquement stable :
_
x
y
_
=
_
A B
C D
_ _
x
u
_
Analyse et representation Page 63/70
64
5. Gouvernabilit

e et observabilit

e: analyse pratique par les


grammiens
5.2.1 Grammien de gouvernabilite (help gram)
X
c
=
_

0
_
e
At
BB
T
e
A
T
t
_
dt
Premi`ere interpretation
La reponse de letat x(t) du syst`eme `a une impulsion sur lentree u secrit : x(t) =
e
At
B, t > 0.
X
c
=
_

0
x(t)x
T
(t)dt
Le grammien de gouvernabilite represente lintegrale du carre de la reponse impulsion-
nelle des etats du syst`eme.
Calcul pratique
X
c
est solution de lequation de Lyapunov (help lyap ) :
AX
c
+X
c
A
T
+BB
T
= 0 (5.1)
Justication:
AX
c
+X
c
A
T
=
_

0
_
Ae
At
BB
T
e
A
T
t
+e
At
BB
T
e
A
T
t
A
T
_
dt
=
_

0
d(e
At
BB
T
e
A
T
t
)
dt
dt =
_
e
At
BB
T
e
A
T
t
_

0
(rappel: Ae
At
= e
At
A).
Or lim
t
(e
At
) = 0 car A est stable. Donc :
AX
c
+X
c
A
T
= BB
T
.
Deuxi`eme interpretation (stochastique)
Rappel: (voir cours de seconde annee sur la representation markovienne des processus
aleatoires)
soit u syst`eme :

x(t) = Ax(t) +b(t) avec b(t): bruit blanc de densite spectrale Q,
soit : E
_
x(t)x
T
(t +)

= P() (P matrice de covariance de letat x en regime


permanent),
alors P verie lequation de Lyapunov: AP +PA
T
+Q = 0.
Le grammien de gouvernabilite represente la matrice de covariance de letat (en regime
permanent) lorsque le vecteur dentree u correspond au vecteur de bruits blancs centres
normalises (E
_
x(t)x
T
(t +)

= I
mm
()).
Analyse et representation Page 64/70
5.2 D

efinitions 65
Proprietes:
X
c
est symetrique positive semi-denie. Sa decomposition en valeurs singuli`eres
(svd) secrit :
X
c
= V
c

2
c
V
T
c
avec
2
c
=
_

1
0 0
0
2
. . .
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0
n
_

_
le syst`eme est gouvernable si X
c
est denie positive (
i
> 0 i).
5.2.2 Grammien dobservabilite
X
o
=
_

0
_
e
A
T
t
C
T
Ce
At
_
dt
Dualite:
_
A B
C
_

_
A
T
C
T
B
T

_
=
_
A B
C
_
T
,
X
o
solution de : A
T
X
o
+X
o
A +C
T
C = 0,
X
o
est symetrique positive semi-denie,
le syst`eme est observable si X
o
est denie positive.
Exemple: reprenons lexemple precedent (avec < 0: condition de stabilite):
_
x
y
_
=
_
_
0 1
0 + 1
1 1 0
_
_
_
x
u
_
Soit: X
c
=
_
x
11
x
12
x
12
x
22
_
alors lequation de Lyapunov devient:
_
0
0 +
_ _
x
11
x
12
x
12
x
22
_
+
_
x
11
x
12
x
12
x
22
_ _
0
0 +
_
+
_
1 1
1 1
_
=
_
0 0
0 0
_
.
X
c
=
_

1
2

1
2+

1
2+

1
2+2
_
(> 0 car < 0)
Rq: X
o
= X
c
(cas particulier) .
Si sannule, X
c
devient singuli`ere et une des deux valeurs singuli`eres de X
c
sannule.
Lanalyse des valeurs singuli`eres de X
c
, comparativement les unes par
rapport aux autres, renseigne donc sur la dimension et le degre dingouvernabilite
du sous espace detat le moins gouvernable.
Analyse et representation Page 65/70
66
5. Gouvernabilit

e et observabilit

e: analyse pratique par les


grammiens
5.3 Representation equilibree (help balreal)
Les grammiens X
c
et X
o
dependent de la base (x) dans laquelle est exprimee la
representation detat.
Eectuons un changement de variable : x = M x, alors :

A = M
1
AM,

B = M
1
B,

C = CM et

X
c
=
_

0
_
e

At

B

B
T
e

A
T
t
_
dt est solution de:

X
c
+

X
c

A
T
+

B

B
T
= 0
M
1
AM

X
c
+

X
c
M
T
A
T
M
T
+M
1
BB
T
M
T
= 0
en pre-multipliant cette equation par M et en post-multipliant par M
T
, on obtient :
AM

X
c
M
T
+M

X
c
M
T
A
T
+BB
T
= 0 (5.2)
Lidentication des equations 5.1 et 5.2 donne: X
c
= M

X
c
M
T
ou encore :

X
c
= M
1
X
c
M
T
.
De facon analogue on peut demontrer :

X
o
= M
T
X
o
M .
Remarque:

X
c

X
o
= M
1
X
c
X
o
M donc les valeurs propres de X
c
X
o
sont invariantes
par le changement de base M.
Representation equilibree:
M /

X
c
=

X
o
=
2
= diag(
i
) i = 1, , n avec :

1
>
2
>
n
(valeurs singuli`eres de Hankel),

i
=
_

i
(X
c
X
o
),
la representation (

A,

B,

C) associee `a ce changement de base M est dite equilibree.
Exemple elementaire: F(s) =
1
s+1
, on propose deux representations :
Analyse et representation Page 66/70
5.3 Repr

esentation

equilibr

ee (help balreal) 67

_
x
y
_
=
_
1 0.01
100 0
_ _
x
u
_
representation non equilibree :
X
c
= 0.005, X
o
= 5000,

_
x
y
_
=
_
1 1
1 0
_ _
x
u
_
representation equilibree :
X
c
= X
o
= 0.5 .
Algorithme de calcul de M pour la representation equilibree:
a) On calcule X
c
et X
o
par les equations de Lyapunov,
b) on fait une decomposition en valeurs singuli`eres (svd) de X
c
et X
o
:
X
c
= V
c

2
c
V
T
c
, X
o
= V
o

2
o
V
T
o
,
c) on pose P =
o
V
T
o
V
c

c
(racine carre du produit X
o
X
c
), et on decompose P
(svd) :
P = U
2
V
T
(rq:
2
=
c

o
car V
T
o
et V
c
unitaires),
d) alors M = V
c

c
V
1
.
Justication:


X
c
= M
1
X
c
M
T
= V
T

1
c
V
T
c
V
c
. .
I

2
c
V
T
c
V
c
. .
I

1
c
V
= V
T
V
. .
I

=
2


X
o
= M
T
X
o
M
=
1
V
T

c
V
T
c
V
o

2
o
V
T
o
V
c

c
. .
P
T
P
V
1
=
1
V
T
V
2
U
T
U
2
V
T
V
1
=
2
Analyse et representation Page 67/70
68
5. Gouvernabilit

e et observabilit

e: analyse pratique par les


grammiens
Analyse et representation Page 68/70
69
References
0 J.L. Junkins et Y. Kim: Introduction to Dynamics and Control of exible struc-
tures (chapitre 1) AIAA, Education series.
1 Robustesse et Commande Optimale: D. Alazard, C. Cumer, P. Apkarian, M.
Gauvrit et G. Ferr`eres - Cepadu`es

Editions,
2 M. Gauvrit et P. Apkarian: Commande robuste des syst`emes lineaires, Polycopie
de cours SUPAERO,
3 M. Llibre: Commande optimale des processus deterministe, Polycopie de cours
SUPAERO,
4 A. J. Fossard: Representation des syst`emes dynamiques continus multidimension-
nels - premi`ere partie, Polycopie de cours SUPAERO.
5 N. Imbert: Reduction de mod`eles, Notes de cours SUPAERO.
6 A. J. Fossard: Representation, observation et commande des syst`emes lineaires
dans lespace detat (syst`emes monoentree-monosortie), polycope SUPAERO
de seconde annee.
7 D. Alazard et J.P. Chretien: Commande Active des Structures Flexibles: applica-
tions spatiales et aeronautiques, Notes de cours SUPAERO.
8 P. Mouyon: Inversion doperateurs et techniques de regularisation, notes de cours
SUPAERO.
Analyse et representation Page 69/70
70 R

ef

erences
Analyse et representation Page 70/70

Vous aimerez peut-être aussi