Vous êtes sur la page 1sur 70

Repr

esentation et analyse des syst`


emes
multi-variables
Notes de cours
D.Alazard

Analyse et representation

Page 2/70

Contents
Introduction

Notations

1 Rappels dalg`
ebre lin
eaire
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Probl`eme de linversion . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Introduction des moindres carres (LMS) . . . . . . . . . . . . .
1.2.2 Methodes numeriques pour resoudre les LMS . . . . . . . . . . .
1.2.3 Illustration: probl`eme de lapproximation polynomiale . . . . .
1.2.4 Formule dinversion des matrices partitionnees - Lemme dinversion
matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Decomposition des matrices . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Decomposition spectrale (help eig) . . . . . . . . . . . . . . .
1.3.2 Decomposition de Schur (help schur) . . . . . . . . . . . . .
1.3.3 Decomposition de Cholesky (help chol) . . . . . . . . . . . .
1.3.4 Decomposition en valeurs singuli`eres -SVD (help svd) . . . . .

13
13
13
13
16
17

2 Analyse des syst`


emes multi-variables par les valeurs singuli`
eres
2.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Application des valeurs singuli`eres: marge de module . . . . . . . . . .
2.2.1 Rappel mono-variable: insuffisance des notions de marge de gain
et de phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2 Marge de module dans le cas multi-variable . . . . . . . . . . .
2.2.3 Illustration . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Exercise sur lanalyse par les valeurs singuli`eres (sous Matlab) . . . . .

27
27
28

19
20
20
22
23
24

28
30
32
33

3 Repr
esentation d
etat des syst`
emes multivariables d
efinis par des matrices de transfert
37
Analyse et representation

Page 3/70

4
3.1
3.2

3.3

3.4
3.5
3.6

3.7
3.8
3.9

Contents
Probl`eme general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Rappels: gouvernabilite, observabilite, minimalite . . . . . . . . . . . . 39
3.2.1 Crit`eres generaux . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.2 Crit`eres particuliers . . . . . . . . . . . . . . . . . . . . . . . . . 40
Rappel: passage transfert/etat dans le cas SISO (Single Input Single
Output) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3.1 Formes diagonales . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3.2 Formes compagnes . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3.3 Formes de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 43
Cas SIMO (Single Input Multi Output) et MISO (Multi Input Single
output) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Cas MIMO avec des modes simples: methode de Gilbert . . . . . . . 44
Cas general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.6.1 Diagonalisation dune matrice polynomiale par operations elementaires 45
3.6.2 Calcul algorithmique des invariants . . . . . . . . . . . . . . . . 46
3.6.3 Invariants dune matrice rationnelle . . . . . . . . . . . . . . . . 47
3.6.4 Construction dune realisation minimale . . . . . . . . . . . . . 48
Calcul dune realisation non-minimale . . . . . . . . . . . . . . . . . . . 49
Methode du graphe minimal (cas des valeurs propres multiples) . . . . 51
Exercice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

4 Repr
esentation d
etat des syst`
emes multivariables d
efinis par un syst`
eme
d
equations diff
erentielles
55
4.1 Notations et Probl`ematique . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2 Rappel cas SISO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3 Cas general multivariable . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3.1 Pre-multiplication du syst`eme: triangularisation (superieure) de
L(D) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3.2 Changement de variable (post-multiplication) . . . . . . . . . . 57
4.3.3 Mise sous forme detat . . . . . . . . . . . . . . . . . . . . . . . 57
4.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5 Gouvernabilit
e et observabilit
e: analyse pratique par
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Definitions . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 Grammien de gouvernabilite (help gram) . . .

Analyse et representation

Page 4/70

les
. .
. .
. .

grammiens
. . . . . . .
. . . . . . .
. . . . . . .

63
63
63
64

Contents

5.3

5.2.2 Grammien dobservabilite . . . . . . . . . . . . . . . . . . . . .


Representation equilibree (help balreal) . . . . . . . . . . . . . . . .

R
ef
erences

Analyse et representation

65
66
69

Page 5/70

Analyse et representation

Contents

Page 6/70

Introduction
Ces notes de cours regroupent les outils mathematiques et les techniques utilises pour
lanalyse et la representation des syst`emes dynamiques lineaires multi-variables (ou
MIMO: Multi Input Multi Output). On presentent principalement lanalyse par les
valeurs singuli`eres (chapitre 2) apr`es quelques rappels dalg`ebre lineaires (chapitre 1)
et le calcul dune realisation minimale `a partir dune matrice de transfert (chapitre 3)
ou dun syst`eme dequations differentielles (chapitre 4). Les notions pratiques de gouvernabilite et dobservabilite (grammiens) ainsi la realisation equilibree sont abordees
dans le chapitre 5. Les methodes de reduction, bien quelles auraient trouvees leur place
dans ces notes, ne sont pas presentees ici et nous renvoyons le lecteur aux references
[5] et [7] pour plus de details.
Les pre-requis pour la lecture de ces notes sont principalement la theorie des
asservissements lineaires et les notions de base sur la representation detat, la gouvernabilte et lobservabilite des syst`emes lineaires [6]. Il sadresse donc tout particuli`erement
aux etudiants de SUPAERO qui ont dej`a suivi les cours de tronc commun en seconde
annee.
Il sagit dune edition provisoire qui sera completee par les rappels dautomatique
necessaires pour rendre ce document autonome. La bibliographie (incompl`ete) est principalement constituee de references internes afin que les etudiants puissent positionner
ces notes par rapport aux autres documents disponibles.

Analyse et representation

Page 7/70

Analyse et representation

Introduction

Page 8/70

Notations
Symboles courants
R
C
Rn
Cn
Rmn
Cmn
j
|.|
ln
log10
kxk, kxk2
Re (x)
E[x]
x
N (m, )
In
0n ou 0nm
Mi,j
MT
M
Herm(M )
M 1
M T
M
M+
i (M )
min (M )
max (M )

ensemble des reels


ensemble des complexes
ensemble des vecteurs reels de dimension n
ensemble des vecteurs complexes de dimension n
ensemble des matrices reelles m n
ensemble des matrices complexes m n
index ou j 2 = 1
valeur absolue delements dans R ou C
logarithme naturel
logarithme en base 10
norme Euclidienne de vecteurs dans Rn ou Cn
partie reelle du complexe x dans C
esperance mathematique de la variable aleatoire x
conjugue de x dans C
loi gaussienne (normale) de moyenne m et de variance
matrice identite n n
matrices nulles n n ou n m
i, j element de la matrice M
transposee de la matrice M
conjuguee transposee de M
1
(M + M )
2
inverse de M
(M T )1 = (M 1 )T
(M )1 = (M 1 )
inverse de Moore-Penrose de M , M + = (M M )1 M T
i-`eme valeur singuli`ere de M
valeur singuli`ere minimale de M
valeur singuli`ere maximale de M

Analyse et representation

Page 9/70

10
i (M )
)
(M
(M )
(M )
Trace (M )
det(M )
spec(M )
ker(M )
Im (M )
dim(V )
rang (M )

Notations
i-`eme valeur propre de M
valeur propre maximale de M
rayon spectral de M , (M ) = maxi |i (M )|
conditionnement de M : max (M )/min (M )
P
trace de M , trace(M ) = ni=1 Mi,i
determinant de M
ensemble des valeurs propres de M
noyau de M , ker(M ) = {x : M x = 0}
espace image de M , Im (M ) = {M x : x Cn }
dimension de lespace V
dim(Im (M ))

Notations syst`
eme
s
variable de Laplace

frequence (rad./ sec.)

A B
parfois matrice de transfert C(sI A)1 B + D
C D
,
incertitudes parametriques
Acronymes
B.F.
B.O.
LFT
LMI
LQG
LTI
LTV
SVD
VSS

Boucle fermee
Boucle Ouverte
Transformation Lineaire Fractionnaire
Inegalite Matricielle Lineaire
Lineaire Quadratique Gaussien
Lineaire `a Temps Invariant
Lineaire `a Temps Variant
Decomposition en Valeurs Singuli`eres
Valeur Singuli`ere Structuree

Analyse et representation

Page 10/70

Notations
Propriete
Symetrique
Hermitienne
Anti-symetrique
Anti-hermitienne
Orthogonale
Unitaire
Idempotente
Nilpotente
Positive definie
Positive semi-definie

11
definition
A = AT
A = A
A = AT
A = A
AAT = AT A = I
AA = A A = I
A2 = A
Ak = 0 k 2
x A x > 0 x 6= 0
x A x 0 x 6= 0

condition necessaire et suffisante

toutes les valeurs propres sont > 0


toutes les valeurs propres sont 0

Table 1: Classification des matrices

Analyse et representation

Page 11/70

12

Analyse et representation

Notations

Page 12/70

13

Chapter 1
Rappels dalg`
ebre lin
eaire
1.1

Introduction

Le but de ce chapitre est de presenter les resultats importants du calcul matriciel, et


plus particuli`erement la decomposition des matrices, qui sont `a la base des principaux
algorithmes utilises dans le domaine de lautomatique (resolution des equations de
Lyapunov, Riccati, LMI 1 , analyse des syst`emes pas les valeurs singuli`eres, ...)
Dans la section 1.2, les principales notions sont presentees autour du probl`eme
general de linversion dune matrice.
Dans la section 1.3, on presente les principales decompositions de matrices et plus
particuli`erement la SVD (Singular Value Decomposition). On rappelle egalement les
macro-fonctions MATLAB associees `a ces operations.

1.2
1.2.1

Probl`
eme de linversion
Introduction des moindres carr
es (LMS)

Considerons un ensemble dequations lineaires algebriques :

y1 = a11 x1 + a12 x2 + + a1n xn

y2 = a21 x1 + a22 x2 + + a2n xn


...

ym = am1 x1 + am2 x2 + + amn xn


1

LMI: Linear Matrix Inegality

Analyse et representation

Page 13/70

(1.1)

`bre line
aire
1. Rappels dalge

14
que lon note matriciellement :

y1
y2

y = Ax avec y = .. ,
.

x=

ym

x1
x2
..
.

et A =

xn

a11
a21
..
.

a12
a22

am1 am2

a1n
a2n

amn

A est une matrice de dimension m n. Le probl`eme de linversion consiste `a trouver


x etant donne y et A. Ce probl`eme na pas toujours de solution. 3 cas peuvent se
presenter 2 :
a) autant d
equations que dinconnues
m = n = rang (A)

une solution unique:

x = A1 y

a) moins d
equations que dinconnues
m<n

pulsieurs solutions

Introduction dun crit`ere: on choisit la solution de longueur minimale.


n
1 T
1 X 2
Minimiser J = x x =
x .
2
2 i=1 i

Cest un probl`eme doptimisation sous les contraintes: y = Ax. On applique alors


`ge
les principes doptimisation (voir [3] : cours de de M.Llibre et M. Corre
Commande optimale) :
Lagrangien: Ja =

1 T
x x + T (y Ax)
2

( : vecteur des param`etres de Lagrange).

a
Principe: J
=0
x x=b
x
Ja

=0

x
b AT = 0
y = Ab
x

y = AAT (AAT de rang m donc inversible).

= (AAT )1 y

x
b = AT (AAT )1 y

Rappel: (calcul de gradiant)


2

Pour distinguer les differents cas, on compare le nombre dequations m et le nombre dinconnues
n. Il sagit en fait du nombre dequations independantes et du nombre dinconnues minimal afin que:
rang(A) =min(m, n).

Analyse et representation

Page 14/70

`me de linversion
1.2 Proble

[xT y]
x

= y,

[xT M x]
x

[y T x]
x

15

= y,

= (M + M T )x.

a) plus d
equations que dinconnues
m>n

pas de solution exacte.

On definit lerreur e = y Ax et on cherche la solution au sens de moindres


carres (LMS) :
Minimiser J =

1
1
1
kek2 = eT e =
(y Ax)T (y Ax)
2
2
2
1 T
=
(y y xT AT y yAx + xT AT Ax) .
2

J
= 0 2AT y + 2AT Ab
x=0
x x=bx

(La derivee sannule `a loptimum et il sagit bien dun minimum car la fonction
est quadratique).
x = (AT A)1 AT y
Exemple: approximation polynomiale (macro polyfit sous matlab). Soit m couples de mesures (ti , yi ). On cherche les coefficients xi du polynome dordre n 1
passant par les points (ti , yi ); soit :
yi = x1 + x2 ti + x3 t2i + xn tn1
i
ou encore :

y1
y2
..
.

ym

i = 1, 2, , m

tn1
x1
1
n1
t 2 x2
..
.
2
n1
1 tm tm tm
xn

matrice de Vandermonde
1 t1
1 t2
..
.

t21
t22

Cette matrice est tr`es mal conditionnee


exercice 1.2.3 sous Matlab).

(soit: y = Ax)

pour m et n grands (avec m > n, voir

Le conditionnement dune matrice est le rapport de la plus grande valeur singuli`ere de cette
matrice sur la plus petite: (A) = max (A)/min (A)

Analyse et representation

Page 15/70

`bre line
aire
1. Rappels dalge

16

1.2.2

M
ethodes num
eriques pour r
esoudre les LMS

a) Inversion brutale:
x
b1 = (AT A)1 AT y
probl`emes numeriques si AT A est mal conditionnee.
b) Elimination gaussienne: on ecrit
(AT A)b
x2 = AT y .
La solution est obtenue en pre-multipliant cette equation par une sequence de
matrices elementaires (operations sur les lignes et les colonnes) pour mettre AT A
sous forme triangulaire superieure. x
b2 peut alors etre calcule par substitution
arri`ere.
methode rapide.
c) Factorisation QR: soit A Rmn de rang n (m n) alors A peut-etre factorisee
sous la forme:
A = QR

avec Q matrice unitaire Q Q = Imm et R =


o`
u U est une matrice n n

triangulaire superieure. On a donc :


U
Q1

x
b3 = Q y =

Q2
Ux
b3 = Q1 y,

resolue par substitution arri`ere

methode tr`es efficace.


d) Pseudo-inverse de Moore-Penrose ou (SVD) (Singular Value decomposition):
on note
x
b4 = A+ y (pinv(A) en syntaxe Matlab)
solution tr`es stable numeriquement.
Remarque 1.2.1 La solution du probl`eme de linversion (presente section 1.2)
peut-etre exprimee dans les cas m > n, m = n, m < n `a laide de la matrice
pseudo-inverse de Moore-Penrose: x
b = A+ y. Le detail du calcul de A+ est
presente section 1.3.4 sur la SVD mais on retiendra que la pseudo-inverse peutetre calculee meme si A nest pas de rang plein (rang < min(m, n)).

Analyse et representation

Page 16/70

`me de linversion
1.2 Proble

1.2.3

17

Illustration: probl`
eme de lapproximation polynomiale

Soit :
[ti ] = [0, 1, 2, 3, , m 1],
x = [1, 1, 1, 1, , 1] (n fois) la valeur vraie vraie du vecteur des coefficients du
polynome recherche dordre n-1.
La session Matlab qui suit presente les resultats obtenus par les methodes a), c) et d)
dans le cas m = 20 et n = 8. Nous pouvons constater que linversion directe est tr`es
mauvaise et que les techniques de la pseudo-inverse et par factorisation QR donnent
des resultats satisfaisants.
>>
>> %
LMS: probl`
eme de lapproximation polynomiale
>>
>>
>> clear all
>> format long e
>> m=20;
>> n=8;
>> t=[0:1:m-1];
>> x=ones(n,1);
>> a=[];
>> for ii=1:n,a=[a t.^ii];end;
>> y=a*x;
>>
>> % Inversion directe:
>> xhat1=inv(a*a)*a*y
Warning: Matrix is close to singular or badly scaled.
Results may be inaccurate. RCOND = 1.315754e-22.
xhat1 =
4.990038871765137e-01
1.020576477050781e+00
1.205293655395508e+00
1.030517876148224e+00
9.941211566329002e-01
1.000405412632972e+00
9.999893351923674e-01
1.000000218589548e+00
>> norm(xhat1-x)/norm(x)

Analyse et representation

Page 17/70

`bre line
aire
1. Rappels dalge

18

ans =
1.918762776683313e-01
>>
>> % Utilisation de la pseudo-inverse:
>> xhat4=pinv(a)*y
xhat4 =
1.000003337860107e+00
9.999985694885254e-01
1.000000953674316e+00
9.999998211860657e-01
1.000000022351742e+00
9.999999990686774e-01
1.000000000014552e+00
1.000000000000227e+00
>> norm(xhat4-x)/norm(x)
ans =
1.328986586111962e-06
>>
>>
>>
>>
>>
>>
>>
>>
>>

% Utilisation de la d
ecomposition QR de A:
[q,r]=qr(a);
u=r(1:n,1:n);
qt=q;
q1t=qt(1:n,:);
xhat3=zeros(n,1);
sec=q1t*y;
for ii=n:-1:1,
prem=0;
for jj=ii+1:n,
prem=prem+u(ii,jj)*xhat3(jj);
end
xhat3(ii)=1/u(ii,ii)*(sec(ii)-prem);
end
>> xhat3
xhat3 =

Analyse et representation

Page 18/70

`me de linversion
1.2 Proble

19

9.999995821321698e-01
1.000000000037892e+00
1.000000094150625e+00
9.999999700429867e-01
1.000000004047405e+00
9.999999997290243e-01
1.000000000008738e+00
9.999999999998931e-01
>> norm(xhat3-x)/norm(x)
ans =
1.518188652864724e-07

1.2.4

Formule dinversion des matrices partitionn


ees - Lemme
dinversion matricielle

Soit lequation lineaire :

y1
=
y2
On peut alors ecrire :

y = Ax partitionnee en 2 (A : n n) :

A11 A12
x1
y1 = A11 x1 + A12 x2
ou
A21 A22
x2
y2 = A21 x1 + A22 x2

1
x1 = A1
11 y1 A11 A12 x2
1
y2 = A21 A1
11 y1 + (A22 A21 A11 A12 )x2
1
Posons: = A22 A21 A11
A12 , alors :

x2 = 1 y2 1 A21 A1
11 y1
1
1
1
1
x1 = (A1
+
A
A

A21 A1
11
11 12
11 )y1 A11 A12 y2

1 1

1
1
1
A11 A12
A11 + A1
A1
1
11 A12 A21 A11
11 A12
A =
=
A21 A22
1 A21 A1
1
11
De facon analogue, on peut demontrer :

1
1 A12 A1
A11 A12
22
=
1
1
1
1
A1
A1
A21 A22
22 A21
22 + A22 A21 A12 A22
avec = A11 A12 A1
u le lemme dinversion :
22 A21 . Do`
1
1
1
1
1
1
A1
11 + A11 A12 (A22 A21 A11 A12 ) A21 A11 = (A11 A12 A22 A21 )

Ce lemme est utilise pour les methodes dinversion iteratives (actualisation de la matrice
de covariance en estimation).
Analyse et representation

Page 19/70

`bre line
aire
1. Rappels dalge

20

1.3

D
ecomposition des matrices

Les methodes de decomposition des matrices jouent un role important dans lanalyse,
lestimation et la commande des syst`emes dynamiques lineaires.

1.3.1

D
ecomposition spectrale (help eig)

Soit A une matrice carree n n alors :


A = V V 1
avec
matrice diagonale des valeurs propres i , i = 1, , n (ou quasi-diagonale dans
le cas de blocs de Jordan),
V matrice des vecteurs propres `a droite (ou des vecteurs propres generalises) :
V = [v1 , v2 , , vn ].
Par definition: Avi = i vi .
Probl`
eme des valeurs propres g
en
eralis
ees: soit la paire A, B de dimension nn,
la valeur propre generalisee i associee au vecteur propre generalise vi est telle que :
Avi = i Bvi .
(Les valeurs propres generalisees sont utiles pour les syst`emes dont la dynamique est
decrite par une equation du type : B x = Ax + .)
Int
er
et de la d
ecomposition spectrale pour lanalyse des syst`
emes: Soit le
syst`eme:

x = Ax + Bu
y = Cx
avec: dim(A) = n n, dim(B) = n m, dim(C) = p n et on suppose que A est
diagonalisable.
Effectuons le changement de variable :
x=Vx
e avec V

matrice des vecteurs propres

alors le syst`eme peut-etre decrit par la nouvelle representation detat :

x
e = e
x + U Bu
y = CV x
e
avec :
= diag(i ) = V 1 AV (matrice diagonale),
Analyse et representation

Page 20/70

composition des matrices


1.3 De

x
C

(p)

21

V
(n)

(n)

B
(n)

(n)

(m)

Figure 1.1: Representation modale du syst`eme.


U = V 1 matrice des vecteurs propres `a gauche:

u1
u2

U = .. avec ui A = i ui .
.
un
Le syst`eme peut-etre represente de la facon suivante (figure 1.1) :
R
eponse autonome: (u = 0) les xei (t) evoluent de facon decouplee
i t
xei (t) = xf
.
0i e

Ce sont les modes du syst`eme. Les sorties y et les etats x du mod`ele ne sont que des
combinaisons lineaires des modes x
e.
La matrice V decrit linfluence des modes x
e du syst`emes sur les etats x.
La matrice C decrit linfluence des etats x du syst`emes sur les sorties y.
La matrice B decrit linfluence des commandes u sur les variations des etats x.

La matrice U decrit linfluence des variations des etats x sur les variations des modes
x
e .
La decomposition en elements simples de la matrice de transfert secrit :
Z(s) = C(sI A)1 B =

Pn
i=1

Cvi ui B
si

Remarque 1.3.1 Pour une valeur propre complexe , on parle de mode du second
i (i ).
ordre qui associe xei (i ) et son conjugue xe

Soit nr le nombre de modes reels ri

soit nc le nombre de modes complexes cj

Analyse et representation

i = 1, , nr ,

Page 21/70

et

cj

j = 1, , nc ,

`bre line
aire
1. Rappels dalge

22
alors n = nr + 2nc et :
Z(s) =
=

nr
X
Cvi ui B
i=1
nr
X
i=1

nc
X
Cvj uj B C vj uj B
+
(
+
)
r
s i
s cj
s cj
j=1
n

c
C(j s + j )B
Cvi ui B X
+
r
2
s i
s + 2j j s + j2
j=1

avec 4 :
j = |cj | (pulsation en rd/s),
j = Re(cj )/j (amortissement),
j = 2 Re(vj uj ),
j = (cj vj uj + cj vj uj ).
Remarque 1.3.2

Si A est symetrique alors V est orthogonale V T = V 1 ,

on a suppose que les valeurs propres etaient distinctes. Dans le cas de valeurs
propres multiples, la matrice bloc-diagonale fait apparatre des bloc de Jordan.
On parle alors de matrice de vecteurs propres generalises.

1.3.2

D
ecomposition de Schur (help schur)

La decomposition de Schur est proche de la decomposition spectrale car elle fait


egalement apparatre les valeurs propres sur la diagonale dune matrice triangulaire
superieure. Soit A une matrice carree n n alors :
A = UT U
avec
U matrice unitaire U U = I,
T matrice triangulaire superieure :

T =
3

Page 22/70

..
.
n

|c| designe le module du complexe c, Re(c) sa partie reelle.

Analyse et representation

..
.
..
.

composition des matrices


1.3 De

23

La decomposition de Schur reelle fait apparatre des


correspondent aux valeurs propres complexe ci : :

...

Re(ci ) Im(ci )

T =

Im(ci ) Re(ci )

blocs 2 2 sur la diagonale qui

..
.
..
.
..
.

..
.
n

La decomposition de Schur est utilise pour calculer des sous-espaces invariants, cest`a-dire des sous-espaces propres de dimensions superieure `a 1. En effet, `a partir de la
decomposition de Schur, on peut ecrire :
AU = U T,
si lon partitionne en 2 cette egalite, on obtient:

T11 T12
A [U1 , U2 ] = [U1 , U2 ]
.
T22
La premi`ere composante de cette egalite secrit:
A U1 = U1 T11
qui traduit que les vecteurs colonnes de U1 engendrent un sous-espace propre associe
aux valeurs propres: diag(T11 ).
Les decompositions spectrale et de Schur sont utilisees pour resoudre les equations
de Riccati. la decomposition de Schur est reputee etre plus stable numeriquement
pour les equations de taille elevee (n100).

1.3.3

D
ecomposition de Cholesky (help chol)

Soit Ann une matrice definie positive, alors A peut etre dcomposee de la facon suivante :

l11 0 0
..

l22 0
.
l
A = L LT avec L = 21

.
.
.. 0
..
ln1 lnn
Cest la generalisation aux matrices de la fonction racine carree. Elle est utilisee pour

parametriser les matrices dont on veut garantir quelles sont definies positives
(ponderations, covariances, ...),
dans le forme square root de lalgorithme dactualisation de la matrice de covariance du filtre de Kalman.

Analyse et representation

Page 23/70

`bre line
aire
1. Rappels dalge

24

1.3.4

D
ecomposition en valeurs singuli`
eres -SVD (help svd)

Les valeurs singuli`eres dune matrice A sont les racines carrees des valeurs propres de
AT A. on les note i :
p
i = i (AT A) .
Alors que les valeurs propres sont liees aux directions invariantes par la transformation
A, les valeurs singul`eres contiennent linformation metrique sur cette transformation. Limage du cercle unite par A est un ellipsode dont la longueur des demi-axes
principaux correspondent aux valeurs singuli`eres maximale et minimale :
max = max
u6=0

kAuk
kuk

et min = min
u6=0

kAuk
kuk

o`
u kxk designe la norme euclidienne de x: kxk = xT x.
D
ecomposition en valeurs singuli`
eres Soit A une matrice de dimension m n et
de rang r (r < min(m, n)). A peut etre factorisee sous la forme:

A = Umm mn Vnn


1rr
V1
|r n
= [U1 , U2 ]

V2
|r (n r)

avec :
U Cmm matrice unitaire (U U = Imm ),
V Cnn matrice unitaire (V V = Inn ),
1 = diag(i ),

i = 1, , r avec 1 > 2 > > r > 0,

U1 et U2 de dimension m r et m (m r) respectivement,
V1 et V2 de dimension n r et n (n r) respectivement.
U est la matrice des vecteurs singuliers U = [u1 , u2 , , um ] (voir figure 1.2). V
est la matrice des vecteurs dont les images par A sont les vecteurs singuliers V =
[v1 , v2 , , vn ]. En effet :
Avi = U V vi or

1
0
.. ..
. .

0

car V est unitaire


V vi =
1 i
0

.. ..
. .
0
Analyse et representation

n
Page 24/70

composition des matrices


1.3 De

u2

25

u1

cercle unit

Figure 1.2: Illustration en dimension 2


A vi = i ui .
Les derni`eres colonnes de V correspondantes aux valeurs singuli`eres nulles engendrent
le noyau de la matrice A, les autres colonnes correspondantes aux valeurs singuli`eres
non-nulles engendrent lespace image de A
Pseudo-inverse de Moore-Penrose
A+ = V + U = V1 + U1

avec =

1
1 rr 0
0
0

1
et 1
1 = diag( 1 , ,

1
).
r

A+ = (AT A)1 AT si m > n et r = n (A de rang plein en colonne),


A+ = AT (AAT )1 si m < n et r = m (A de rang plein en ligne).
(Il sagit degalite algebrique, dun point de vue numerique cest totalement different).
Propri
et
es des valeurs singuli`
eres
max (.) est une norme matricielle, on a donc toutes les proprietes des normes:
max (AB) max (A)max (B).
max (A) = maxu /kuk6=0
Analyse et representation

kAuk
.
kuk

Page 25/70

`bre line
aire
1. Rappels dalge

26
min (A1 ) =

1
;
max (A)

max (A1 ) =

1
.
min (A)

max (V AU ) = max (A) U, V unitaires.


Si A est symetrique alors i (A) = |i (A)|.
Propriete de singularite
max (E) < min (A) min (A + E) > 0
min (A) represente la taille minimale de la matrice E telle que A + E soit singuli`ere.

Analyse et representation

Page 26/70

27

Chapter 2
Analyse des syst`
emes
multi-variables par les valeurs
singuli`
eres
2.1

G
en
eralit
es

Soit un syst`eme multi-variable (n etats, m commandes, p sorties) definit:

par sa matrice de transfert 1 :


Y
(s) = G(s),
U

par une realisation minimale:

x
y

A B
C D

x
u

Pour analyser sa reponse frequentielle, on peut :

tracer les p m caracteristiques de Bode (Black ou Nyquist)


courbes !! (gain et phase),

2pm

tracer les valeurs singuli`eres (surtout la min et la max) de G(j) en fonction de


la pulsation (help sigma).

* Dans le cas mono-variable, le trace de la valeur singuli`ere correspond `a la courbe de


gain de la caracteristique de Bode.
1

La notation

Y
U (s)

est abusive car dans le cas general u est un vecteur.

Analyse et representation

Page 27/70

`mes multi-variables par les valeurs singulie


`res
282. Analyse des syste

Singular Values
16

x 10
5

Singular Values (dB)

10

15

20
1
10

10

10

Frequency (rad/sec)

Figure 2.1: Valeur singuli`ere de

1s
1+s

* Dans le cas multi-variable, le trace des r valeurs singuli`eres (r = min(m, p)) offre
une information plus synthetique, mais la perte de la notion de phase peut-etre
dommageable pour certaines analyses.

)
. La commande Matlab sigma(tf([-1 1],[1 1])) conExercice: tracer ( 1s
1+s s=j
duit alors au diagramme suivant (figure 2.1), cest-`a-dire une valeur
singuli`ere unitaire
1s
sur toute la plage de frequence. Esquisser le trace de (1 1+s ) s=j .

2.2

Application des valeurs singuli`


eres: marge de
module

2.2.1

Rappel mono-variable: insuffisance des notions de marge


de gain et de phase

Considerons la boucle generale dasservissement presentee figure 2.2. On definit le gain


de boucle: L(s) = G(s)K(s). La figure 2.2.1 rappelle la definition des marges de gain
et de phase dans le plan de Nyquist. Ces notions indiquent leloignement du trace de
G(j)K(j) par rapport au point critique (1, 0). On peut egalement les interpreter
sur les diagrammes de Bode et de Black.
Rappelons quil y a perte de stabilite lorsque ce trace traverse le point critique.
Analyse et representation

Page 28/70

`res: marge de module


2.2 Application des valeurs singulie

K(s)

29

G(s)

Figure 2.2: Boucle dasservissement.

Im(G(j )K(j ))

marge de gain
(1,0)
p

Re(G(j )K(j ))

1
|| S ||

marge de
phase

c
G(j )K(j )

Figure 2.3: Marges de gain, de phase et de module dans le plan de Nyquist.

Analyse et representation

Page 29/70

`mes multi-variables par les valeurs singulie


`res
302. Analyse des syste
La marge de gain en dB est:
marge de gain = 20 log10 |G(jp )K(jp )|

(2.1)

o`
u p est la pulsation `a laquelle le trace de Nyquist traverse le demi-axe de phase
180 (phase crossover). Elle mesure de combien le gain peut varier `a cet endroit avant
de toucher le point critique. La marge de phase est:
marge de phase = Arg(G(jc )K(jc )) 180

(2.2)

o`
u c est la pulsation `a laquelle le trace de Nyquist traverse le cercle unite centre `a
lorigine (pulsation de coupure). Elle mesure de combien la phase peut varier (rotation
du trace autour de lorigine) avant de rencontrer le point critique.
Enfin la marge de retard est liee `a la marge de phase exprimee en degre par la
relation :

marge de retard = marge de phase


(2.3)
180c
Elle mesure la valeur minimale du retard pur introduit dans la boucle qui destabilise
le syst`eme. Cette marge est particuli`erement pertinente lorsque le lieu de Nyquist
traverse plusieurs fois le cercle unite. Cest souvent le cas des structures flexibles o`
u la
presence de resonances et anti-resonances se traduisent par des boucles sur le lieu de
Nyquist. La marge de retard permet alors de mettre en evidence quune marge de
phase meme confortable peut etre critique si la pulsation c correspondante est elevee.
En comparaison, la marge de module represente la plus petite distance de L(j)
au point critique et correspond donc au rayon r du cercle centre sur le point critique
qui tangente le courbe L(j):
r = min |1 + G(j)K(j)|

La figure 2.7 met en evidence un cas particulier o`


u les marges de gain et de phase sont
confortables mais la marge de module trop faible.

2.2.2

Marge de module dans le cas multi-variable

Les valeurs singuli`eres permettent de generaliser directement au cas des syst`emes multivariables la notion de marge de module. La plus petite distance du gain de boucle
G(j)K(j) au point critique secrit alors:
r = min min (I + G(j)K(j))

soit encore:
r = min

Analyse et representation

1
max (I + G(j)K(j))1
Page 30/70

`res: marge de module


2.2 Application des valeurs singulie

K(s)

G(s)

31

y+
+

Figure 2.4: Boucle dasservissement perturbe (perturbation additive).


1
= max max (I + G(j)K(j))1 = kS(s)k

r
avec S(s) = (I + G(s)K(s))1 la fonction de sensibilite en sortie 2 .
On notera egalement que dans le cas multi-variable on peut distinguer :

L(s) = G(s)K(s) qui represente le transfert de boucle lorsque lon coupe au


niveau des sorties y du syst`eme,
L (s) = K(s)G(s) qui represente le transfert de boucle lorsque lon coupe au
niveau des commandes u du syst`eme.

On peut pour chacun de ces transferts tracer les lieux de Black chane par chane, les
autres chanes etant ouverte et/ou fermee. Cela permet dapprecier les couplages entre
les chanes. On notera toutefois quil faut fermer les autres chanes, pour apprecier
les marges de gain, de phase et de retard relatives `a une chane. La marge de module
(en sortie) permet de determiner la taille de la plus petite perturbation additive
destabilisante selon le schema de la figure 2.4. En effet lapplication directe de la
propriete de singularite des valeurs singuli`eres enoncee page 26 permet decrire :
La boucle fermee est stable si (condition suffisante) max () < min min (I+G(j)K(j))

Exercice: `a partir de la plus petite perturbation additive destabilisant la boucle


representee sur la figure 2.4, trouver le gain G qui destabilise la boucle presentee sur
la figure 2.5.
2

Comme nous le verrons ulterieurement la norme H dun transfert T (s) est:


kT k = max max (T (j))

Analyse et representation

Page 31/70

`mes multi-variables par les valeurs singulie


`res
322. Analyse des syste

K(s)

G(s)

Figure 2.5: Boucle dasservissement perturbe (perturbation G dans la boucle).

2.2.3

Illustration

Considerons la boucle dasservissement presentee figure 2.2 dans le cas SISO. Le transfert de boucle (apr`es developpement) secrit :
L(s) = K(s)G(s) =

3s2 + 0.01s + 1
2
+ 2
.
s 1 2s + 0.01s + 1

Tracer les lieux de Black et de Nyquist.

Verifier sur ces lieux la stabilite de la boucle fermee.

Calculer les marges de gain, de phase et de module.

Solution sous Matlab: la sequence Matlab qui suit conduit aux figures 2.6 `a 2.8. On
peut verifier dans le plan de Nyquist que le lieu entoure effectivement une fois le point
critique (le lieu complementaire pour les pulsations negatives est automatiquement
trace). Etant donne quil y a un pole instable en boucle ouverte, on peut garantir que
la boucle fermee est stable. Dans le plan de Black, cela se traduit par un depart
du lieu sur laxe au dessus du point critique. Enfin, les marges de gain et phase sont
correctes mais la marge de module (ou plutot le minimum de la valeur singuli`ere de
1 + L) permet de deceler la proximite du lieu avec le point critique `a la pulsation de
0.7 rds.
>>
>>
>>
>>

L=tf(2,[1 -1])+0.01*tf([3 0.01 1],[2 0.01 1]);


black(L)
figure,nyquist(L)
[Mg,Mp,wc,wp]=margin(L)

Mg =
0.5025
Mp =
60.5275
wc =
0

Analyse et representation

Page 32/70

`res (sous Matlab)33


2.3 Exercise sur lanalyse par les valeurs singulie

10
0

0.7078

0
2.675

5
5.553

dB

10

15
13.23

20
26.68

25
53.78

30
108.4

35

40

45

90

135

180
PHASE

225

270

315

360

Figure 2.6: Lieu de Black de L(s)

wp =
1.7137
>> figure,sigma(1+L)

2.3

Exercise sur lanalyse par les valeurs singuli`


eres
(sous Matlab)

Le mod`ele G de vol lateral dun avion rigide est donne par la reprsesentation detat :


0.080 0.104 0.995 0.045

0
0.016

p 2.016 0.843 0.280


0
0.342
0.192



r 1.711 0.179 0.293
0.010
0.782
0

r
0
1.000
0.104
0
0
0

. (2.4)

0
0.0002 0.0023
ny 0.0224 0.0013 0.0015

p
dp
0
1.0000
0
0
0
0

r
dr
0
0
1.0000
0
0
0
0
0
0
1.0000
0
0

Une loi de commande par retour statique de sortie a ete synthetisee afin de placer
correctement les modes rigides :

122. 2.71 0.225 2.71


K=
.
(2.5)
25.3 0.102 1.88 0.042
Analyse et representation

Page 33/70

`mes multi-variables par les valeurs singulie


`res
342. Analyse des syste

Nyquist Diagrams
From: U(1)
1.5

To: Y(1)

Imaginary Axis

0.5

0.5

1.5
2

1.5

0.5

0.5

Real Axis

Figure 2.7: Lieu de Nyquist de L(s)

Singular Values
1

Singular Values (dB)

8
1
10

10

Frequency (rad/sec)

Figure 2.8: Valeur singuli`ere de 1 + L(s)

Analyse et representation

Page 34/70

10

`res (sous Matlab)35


2.3 Exercise sur lanalyse par les valeurs singulie

Analyser la boucle ouverte KG `a laide des outils graphiques monovariables


(rlocus, black, nyquist, margin, ...)
Tracer les valeurs singuli`eres de I + K(j)G() en fonction de . En deduire la
marge de module et la pulsation critique c associee `a cette marge.
Determiner par svd la plus petite perturbation additive qui destabilise la
boucle, cest `a dire tel que K G + passe par le point critique. En deduire le
gain de boucle G en entree du syst`eme qui destabilise la boucle (cest `a dire tel
que K G G passe par le point critique). Commentaires.
Des retards purs de 400 ms sur les entrees de G sont maintenant pris en compte
(approximation de Pade (pade) `a lordre 1). Modifiez en consequence le mod`ele
G et reprenez les analyses precedentes.

Analyse et representation

Page 35/70

`mes multi-variables par les valeurs singulie


`res
362. Analyse des syste

Analyse et representation

Page 36/70

37

Chapter 3
Repr
esentation d
etat des syst`
emes
multivariables d
efinis par des
matrices de transfert
3.1

Probl`
eme g
en
eral

Soit un syst`eme `a m entrees et p sorties defini par une matrice de transfert:


Z(s) = [zij (s)]pm
trouver une representation detat:


x
A B
x
=
y
C D
u

telle que: Z(s) = D + C(sI A)1 B, cest `a dire une realisation qui soit
equivalente du point de vue du comportement entree-sortie,
qui soit minimale, cest `a dire enti`erement gouvernable et observable car la matrice de transfert initiale ne represente que la partie gouvernable et observable
du syst`eme.

Exemple introductif: si lon prend lexemple trivial de la double integration en


supposant disponible la mesure de position et la mesure derivee (vitesse), soit:

1
s
Z(s) =
s2

Analyse et representation

Page 37/70

sentation de
tat des syste
`mes multivariables de
finis par des
3. Repre
38
matrices de transfert
une realisation detat correcte secrit immediatement en choisissant la position et la
vitesse comme vecteur detat :

y
0 1 0
y 0 0 1 y
=

y 1 0 0 y
u
y
0 1 0
Pourtant, il est facile de se rendre compte que Matlabr fournit sur cet exemple une
realisation non-minimale (dordre 3) et donc incorrecte comme le montre la session qui
suit :
>> sys=tf({1;1},{[1 0 0];[1 0]})
Transfer function from input to output...
1
#1: --s^2
1
s

#2:

>> [a,b,c,d]=ssdata(sys)
a =
0
1
0

0
0
0

0
0
0

1
0

0
1

b =
1
0
1

c =
0
0

Analyse et representation

Page 38/70

, observabilite
, minimalite

3.2 Rappels: gouvernabilite

39

d =
0
0

Cela est d
u au fait que la fonction tf2ss ne garantit pas la minimalite de la realisation.
Ce probl`eme de minimalite est dilicat `a resoudre dans le cas general comme nous allons
le voir dans les sections qui suivent 1 .

3.2

Rappels: gouvernabilit
e, observabilit
e, minimalit
e

3.2.1

Crit`
eres g
en
eraux

a) la paire (Ann , Bnm ) est gouvernable si la matrice de gouvernabilite C = [B AB A2 B An B]


est de rang n,
b) les modes ingouvernables de la paire (A, B) sont les valeurs de s pour lesquelles
la matrice [A sI | B] perd son rang,
c) Dualite: Observabilite de la paire (A, C) Gouvernabilite (AT , B T ).
Plus generalement, toute paire (A, B) peut se decomposer par transformation orthogonale Ug (algorithme de Rosenbrock) de la facon suivante (help ctrbf) :

A11 A12
B1
T
T
Ug AUg =
et Ug B =
,
0 A22
0
avec (A11 , B1 ) gouvernable. A22 represente la partie ingouvernable.
Dualement la paire (A, C) peut se decomposer de la facon suivante (help obsvf) :
0

A11 A012
T
Uo AUo =
et CUo = [0 C2 ],
0 A022
avec (A022 , C2 ) observable. A011 represente la partie inobservable.
Le calcul pratique dune realisation minimale utilise ces 2 transformations de facon
sequentielle (help minreal):

premi`ere transformation Ug : on reduit les lignes et les colonnes du bloc ingouvernable A22 ,
deuxi`eme transformation Uo : on reduit les lignes et les colonnes du bloc inobservable A011 .

A noter que Matlabr permet de resoudre ce probl`eme en utilisant la macro-fonction minreal


(realisation minimale). Lobjectif netait pas de mettre en defaut Matlabr mais de montrer quil
faut etre vigilant lors des passages transfert - etat (tf2ss).

Analyse et representation

Page 39/70

sentation de
tat des syste
`mes multivariables de
finis par des
3. Repre
40
matrices de transfert

3.2.2

Crit`
eres particuliers

Il existe des crit`eres particuliers dans le cas de matrices A compagnes ou sous forme
bloc diagonale de Jordan. Voir polycopie SUPAERO: A.J. Fossard Representation,
observation et commande des syst`emes lineaires dans lespace detat (syst`emes monoentre/mono-sortie) (p 90-97).
On retiendra particuli`erement le crit`ere sur les formes de Jordan :Si la matrice
form
ee des derni`
eres lignes des p blocs de la matrice B correspondants aux
p blocs de Jordan de la matrice A associ
es `
a une m
eme valeur propre nest
pas de rang p alors le syst`
eme est ingouvernable.
Ce crit`ere permet daffirmer que dans le cas mono-variable, la presence de 2 blocs
de Jordan (ou plus) associes `a une meme valeur propre entrane lingouvernabilite du
syst`eme.
Exemple : Considerons un satellite dinertie Js autour de son axe de tangage. Pour
controler son attitude s/i par rapport au rep`ere inertiel, on applique des couple us/r
sur une roue dinertie Jr reperee par son attitude r/s par rapport au satellite.
Le principe daction/reaction nous permet decrire :
= us/r
Js s/i
+ s/i
) = us/r
Jr (r/s
do`
u la representation detat :

s/i

s/i

r/s =

r/s
y

0
0
0
0
1

1
0
0
0
0

0
0
0
0
0

0
0
0
1/Js
1
0
0 1/Js + 1/Jr
0
0

s/i

s/i
r/s

r/s
u

On a bien 2 blocs de Jordan dordre 2 associes `a valeur propre 0. Ce syst`eme est


donc ingouvernable. En pratique, on cherche `a controler lattitude du satellite mais la
derive de la roue ne pas etre controlee sans un organe de commande supplementaire
(en loccurrence les jets `a reaction du syst`eme de controle dorbite).

3.3

Rappel: passage transfert/


etat dans le cas SISO
(Single Input Single Output)

(voir [4], pages 27 `a 30). Dans le cas SISO, lordre de la representation est directement
le degre du denominateur de la fonction de transfert.

Analyse et representation

Page 40/70

tat dans le cas SISO (Single Input


3.3 Rappel: passage transfert/e
Single Output)
41

3.3.1

Formes diagonales

Sil ny a que des valeurs propres simples, on peut decomposer Z(s) en elements simples :
n
X
N (s)
i
F (s) = n
=
.
1 (s + i )
s
+

i
1
On a alors directement une realisation minimale :

1
1

2
1

..
...
x .
=

n
n
y
u
1
2 1
0
Les elements i et 1 sont permutables dans B et C.

3.3.2
Soit :

Formes compagnes
N (s)
bm sm + bm1 sm1 + bm2 sm2 + + b1 s + b0
F (s) =
=
D(s)
1sn + an1 sn1 + an2 sn2 + + a1 s + a0

Une solution generale consiste alors `a chercher un forme compagne horizontale ou


verticale (on suppose m < n, cest-`a-dire que lon a prealablement isole la transmission
directe du transfer) .
Formes compagnes horizontales


..
xh ..
.

= .

a0 a1
y
b0

0
0
..
.. ..
.
.
.
..
. 1
0
0
1
an1
bm 0

0
..
.
..
.
0
1
0

xh

Une formulation plus generale fait intervenir une factorisation du numerateur:


N (s) = C(s)B(s)
Les deux polynomes C(s) et B(s) ou, dans le cas multi-variable, les matrices polynomiales colonne C(s) et ligne B(s) (voir section 3.6.4), alimentent les matrices C et B

Analyse et representation

Page 41/70

sentation de
tat des syste
`mes multivariables de
finis par des
3. Repre
42
matrices de transfert
de la facon suivante :

0
1

0
0

..
x0 = ..
h
.
.

0
0

h a0 a

C(0)
y =
C(0) 1!
avec:

0
..
.
...

..
.
...

a
A = n1
...
a1 an1

0
..
.

0
1

0
0

..
.. ..
..

.
.
.

.
0

x + A1 B(0)/2!
..

. 1
h
0

B(0)/1!

0
1
B(0)
an1i

C(0)
2!

x0h

N (s)

et N (0) =
s s=0

(N (s) = C(s) ou B(s))


(3.1)

Formes compagnes verticales

an1 1 0 0

..
.
.
.


.
0 . . . . ..


..
.. . .
xv
. 1 0
.
.

a
0 0 1
1


a0 0 0
y
1
0 0
Comme precedemment, une formulation plus generale
du numerateur:

..

xv

bm

(3.2)

..

b0
u
0
fait intervenir une factorisation

N (s) = C(s)B(s)
Les deux polynomes C(s) et B(s) ou, dans le cas multi-variable, les matrices polynomiales colonne C(s) et ligne B(s) (voir section 3.6.4), alimentent les matrices C et B
de la facon suivante :

an1 1 0 0

..
. . . . ..
..

.
. .
.
0

..
.. . .
x0v +
x0v =

B(0)/2! u
. 1 0

.
.

B(0)/1!

a
0

0
1
1

B(0)

h a0 0 0 i

C(0)
C(0)
y = C(0)
A1 x0v
1!
2!
avec A definie par lequation 3.1.
Analyse et representation

Page 42/70

3.4 Cas SIMO (Single Input Multi Output) et MISO (Multi Input
Single output)
43

3.3.3

Formes de Jordan

Elles apparaissent en presence de valeurs propres multiples. Soit :


N (s)
C(s)B(s)
=
n
(s + )
(s + )n

F (s) =
alors :



x
=


0
..
.
..
.
0

1
..
.
..
.

0
..
.
..
.
..
.

C()

C()
1!

C()
2!

..
0
.

..
..
..

. .
.


..


. 0 B()/2!
x

..

. 1 B()/1!

0 B()

Cas particuliers: pour les syst`emes SISO on prend souvent: C(s) = 1 et B(s) = N (s)
ou C(s) = N (s) et B(s) = 1.

3.4

Cas SIMO (Single Input Multi Output) et MISO


(Multi Input Single output)

Les methodes precedentes peuvent setendre directement aux matrices de transfert ligne
(cas MISO) ou colonne (cas SIM0). Lordre de la representation est egalement le degre
de (s): denominateur commun de la matrice de transfert sous la forme:
Z(s) =

M (s)
(s)

Comme dans le cas SISO il faut isoler prealablement la transmission directe et normalise
`a 1 le coefficient de plus haut degre de (s).
Exemple:

bm sm + bm1 sm1 + bm2 sm2 + + b1 s + b0

cm sm + cm1 sm1 + cm2 sm2 + + c1 s + c0


d1
Z(s) =
+
d2
1sn + an1 sn1 + an2 sn2 + + a1 s + a0

Analyse et representation

Page 43/70

sentation de
tat des syste
`mes multivariables de
finis par des
3. Repre
44
matrices de transfert
alors:

0
x

= 0
0

a a
0
1

y1
b0

y2
c0

3.5

0
0
0
..
.
0
..
...
1
.
0
1
0
an1 1
bm 0

d1
cm 0

d2

Cas MIMO avec des modes simples: m


ethode
de Gilbert

Sil le denominateur (s) na que des racines simples, alors on peut decomposer la
matrice de transfert en elements simples:
q

X Mi
M (s)
Zpm (s) =
=
.
(s + 1 )(s + 2 ) (s + q )
s
+

i
i=1
Lordre du syst`eme est la somme des rangs des matrices Mi (de dimension p m):
n=

q
X

rang(Mi ) =

i=1

Ci (p ri ),

q
X

ri

avec ri = rang(Mi )

i=1

Bi (ri m) / Mi = Ci Bi

La representation detat est sous forme diagonale (avec i apparaissant ri fois), les
matrices B et C sont formees des matrices Bi et Ci .
Exemple:
2

s + 4s + 1
s
3s + 1
s

4s
3s + 1
4s
3s + 1
1 0
Z(s) =
=
+
(3.3)
0 0
s2 + s
s(s + 1)


2 1
1 0

4 2
0 1
1 0
+
+
(3.4)
=
0 0
s
s+1


1 0
1

[2 1]
0 1
2
1 0
=
+
+
(3.5)
0 0
s
s+1
Les valeurs propres 0 et -1 vont donc apparatre respectivement 2 fois et 1 fois dans la
Analyse et representation

Page 44/70

ne
ral
3.6 Cas ge

45

representation detat qui secrit:

x
=

3.6

1
0
0
1 2
1 0 1 1
0 1 2 0

0
1
1
0
0

Cas g
en
eral

Dans le cas general, la premi`ere question `a se poser est: quel est lordre de la realisation
thode des invariants qui est presentee ci-dessous permet de
minimale?. La me
repondre `a cette question et permet egalement de trouver une realisation minimale
bloc-diagonale. On supposera dans ce que suit que la matrice de transfert de depart
est strictement propre (tous les polynomes du numerateur sont de degre strictement
inferieur au degre du denominateur commun (s)). Dans le cas contraire, on prendra
soin dextraire prealablement la transmission directe et de la rajouter directement `a la
realisation minimale finalement obtenue. On note:
Z(s)pm =

3.6.1

M (s)pm
(s)

Diagonalisation dune matrice polynomiale par op


erations

el
ementaires

Etant donnee une matrice polynomiale M (s) de dimension pm, il est toujours possible
de trouver des matrices polynomiales, mais `a determinant constant (i.e. independant
de s et non nul) V (s) et W (s) de dimensions p p et m m telles que :
M (s) = V (s)(s)W (s)
avec (s) diagonale si m = p ou quasi diagonale

1 (s)

..
(s) =
.
m (s)

(s) =

1 (s)

si p 6= m (on compl`ete avec des 0) :

..

.
p (s) 0 0

Analyse et representation

cas p = m

Page 45/70

cas p < m

sentation de
tat des syste
`mes multivariables de
finis par des
3. Repre
46
matrices de transfert

(s) =

1 (s)

..

m (s)

..
.
0

cas p > m

Les elements i (s) sont appeles les invariants de la matrice M (s). Ils ont la propriete
suivante: i divise i+1 .
On peut ecrire:
V 1 (s)M (s)W 1 (s) = (s)
V 1 (s) et W 1 (s) sont des matrices de pre-multiplication et de post-multiplication
calculees pour diagonaliser M (s).
Exemple:

1
s + 3 3s + 8
Z(s) =
1
s + 4 &M (s)
(s + 2)2
Diagonalisation de M (s) par pre et post multiplication:

1 s 3
s + 3 3s + 8
0
1
1
s+4

2
0 1
0 s 4s 4
1 0
s+4
1

1
s+4
1 s+4
0 s2 4s 4
0 1
1
0
|{z}
|{z}
0
(s
+
2)2

W 1 (s)
{z
}
|
0
1

V 1 (s)=
(s)
1 s 3

s+3 1
1 s+4
V (s) =
W (s) =
1
0
0 1

1
0
1
s
+
4
s+3 1
2
(s+2)
Z(s) =
0 1
1
0
0
1
(voir aussi les exemples 13,14 et 15 pages 38 et 39 de la reference [4].)

3.6.2

Calcul algorithmique des invariants

En pratique, letape de diagonalisation precedente est assez laborieuse. Lalgorithme


que nous presentons ici permet simplement de calculer les invariants i (s) sans calculer
les matrices V (s) et W (s). On peut alors en deduire lordre du syst`eme et la structure de la matrice dynamique A dans une certaine base. Pour trouver les matrices B
Analyse et representation

Page 46/70

ne
ral
3.6 Cas ge

47

et C correspondantes, il sera preferable, dans certains cas (cas des poles reels multiples), de ne pas chercher les matrices V (s) et W (s) mais dappliquer la methode du
graphe minimal (voir section 3.8) connaissant lordre et la structure de la dynamique
du syst`eme.
Calcul direct des i (s): on pose:
0 = 1,
1 = pgcd

des elements mij (s) de M (s),

2 = pgcd des mineurs dordre 2 de M (s),


..
.
i = pgcd des mineurs
On a alors: 1 =

1
,
0

2 =

2
,
1

dordre i de M (s) (i = 1, , min(m, p)).


, i =

Exemple:

M (s) =

i
i1

s + 3 3s + 8
1
s+4

0 = 1
1 = 1
1 = 1
2
2
2 = s + 7s + 12 3s 8 = (s + 2)
2 = (s + 2)2

3.6.3

Invariants dune matrice rationnelle

M (s) = V (s)(s)W (s)

Z(s) = V (s)

Il faut alors simplifier les fractions rationnelles


i (s)
i (s)
=
(s)
i (s)
2
3

i (s)
(s)

1 (s)
(s)

..

i (s)
(s)

..

avec i (s) et i (s) premiers entre eux.

Page 47/70

autant que se peut:

Plus Grand Commun Diviseur


Cest-`a-dire toutes les matrices i i que lon peut extraire de M (s).

Analyse et representation

W (s)

sentation de
tat des syste
`mes multivariables de
finis par des
3. Repre
48
matrices de transfert
Il peut y avoir eventuellement simplification totale:

Z(s) = V (s)

i (s)
(s)

1 (s)
1 (s)
2 (s)
2 (s)

..

0
..
.
..
.
..
.
..
.
..
.

.
k (s)
k (s)

k+1

= i .

...

W (s) (hyp: p < m) .

p 0
Lordre du syst`
eme est
egal `
a la somme des degr
es des d
enominateurs des
invariants rationnels r
eduits:
n=

Pmin(m,p)
i=1

degre(i (s)).

On peut egalement en deduire le polynome caracteristique de la realisation minimale :


min(m,p)

det(sI A) = i=1

i (s) = n = ki=1 i (s).

Exemple:

Z(s) =

3.6.4

s+3 1
1
0

1
(s+2)2

0
1

1 s+4
0 1

syst`eme dordre 2 .

Construction dune r
ealisation minimale

Il suffit de decomposer la matrice numerateur en matrices elementaires de rang 1 en


utilisant les vecteur colonnes de la matrice V (s) et les vecteurs lignes de la matrice
W (s) (on supposera p < m, sinon cest la plus petite valeur de p ou de m quil faut
considerer) :

1 (s)
0
1 (s)
..
2 (s)

2 (s)

.
...

.. w1 (s)

w2 (s)

..
k (s)
Z(s) = [v1 (s), v2 (s), , vp (s)]

..
.

k (s)
.

..

k+1
. wm (s)

..
..
.

.
p 0
Analyse et representation

Page 48/70

alisation non-minimale
3.7 Calcul dune re

Z(s) =

k
X
i=1

49

min(m,p)
min(m,p)
k
X
X
X
i (s)
vi
wi +
vi i wi =
Zi +
Di
i (s)
i=1
i=k+1
i=k+1

Remarque: les invariants constants ou polynomiaux i (i k + 1) correspondent


`a des transmissions directes qui compensent eventuellement les transmissions directes
des matrices elementaires Zi (s) (cest le cas de lexemple traite ci-dessous). On peut
les ignorer dans la construction de la realisation minimale car on a pris soin disoler
prealablement la transmission directe (Z(s) est strictement propre).
P
On a donc: Z(s) = ki=1 Zi (s)
Chaque element Zi (s) est represente par des matrices elementaires Ai , Bi , Ci calculees selon le formulaire presente section 3.3. On remarquera que les deux facteurs
polynomiaux C(s) et B(s) de la decomposition du numerateur N (s) = C(s)B(s) proposee dans ce formulaire sont respectivement la matrice ligne vi (s) et la matrice colonne
wi (s).
Lassemblage des representations elementaires conduit donc `a une r
ealisation
minimale bloc-diagonale.
Exemple:

1
s+3
1
Z(s) =
[1 s + 4] +
[0 1]& ignore
1
0
(s + 2)2
Do`
u la realisation minimale dordre 2 :

2
1
0
1


0 2 1 2 x
x

=
y
1
1 0 0 u
1
0 0 0

3.7

Calcul dune r
ealisation non-minimale

On peut obtenir directement une realisation (pas forcement minimale) de Z(s)pm =


M (s)
en decomposant la matrice numerateur M (s) en min(m, p) matrices de rang 1.
(s)
Lordre de cette realisation sera donc :
n = degre[(s)] min(m, p)

si p m: decomposition en colonne:
Z(s) =

m
X
Mi (s)
i=1

(s)

[0 0

avec: M (s) = [M1 (s), M2 (s), , Mm (s)].


Analyse et representation

Page 49/70

0 0]
1
|{z}
iieme colonne

sentation de
tat des syste
`mes multivariables de
finis par des
3. Repre
50
matrices de transfert
Pour chaque terme Mi (s), on adoptera une forme compagne horizontale ou une
forme de Jordan (cas des valeurs propres multiples). La realisation finalement
obtenue est bloc-diagonale et gouvernable mais pas necessaire observable.

si p m: decomposition en ligne

0
..
.

p 0
X
M i (s)
1
Z(s) =
(s)
i=1 0

..
.

avec M (s) =

M 1 (s)
M 2 (s)
..
.

M p (s)

0
Pour chaque terme M i (s), on adoptera une forme compagne verticale ou une
forme de Jordan (cas des valeurs propres multiples). La realisation finalement
obtenue est bloc-diagonale et observable mais pas necessaire gouvernable.
Exemple:

1
Z(s) =
(s + 2)2

s + 3 3s + 8
1
s+4

2 1

0 2

x1 =

y =
1

1
0

s+3

[1 0]
1
+
=
(s + 2)2

1
x +
0
2 1 1
0 2
0
2
3
x1
2
1

3s + 8
[0 1]
s+4
(s + 2)2

0
0
u
0
1

On peut constater que la matrice formee des 2 premi`


eres colonnes de la matrice C
1 2
correspondantes aux 2 blocs de Jordan, soit:
nest pas de rang 2 et traduit
1 2
donc linobservabilite de cette realisation dordre 4.
En exprimant les blocs elementaires sous forme compagne horizontale, on obtient
une autre realisation :

0 0
0
1

4 4

x2 + 1 0 u

x2 =
0 0

0
1
0 1
4 4

3
1 8
3

y =
x2
1
0 4
1
Analyse et representation

Page 50/70

thode du graphe minimal (cas des valeurs propres multiples)51


3.8 Me
La decomposition en ligne:

Z(s) =

1
0

[s + 3 3s + 8]
+

(s + 2)2

0
1

[1 s + 4]
(s + 2)2

conduit aux deux realisations suivantes :

1 3
2 1

0 2

x3 + 1 2 u

x3 =
0 1

2 1
0 2
1 2

1
0 0
0

y =
x3
0
0 1
0

4 1
1 3

4 0
3 8

x4

+
x4 =

0 1 u
4 1
4 0
1 4

1
0 0
0

y =
x4
0
0 1
0

3.8

M
ethode du graphe minimal (cas des valeurs
propres multiples)

On decompose Z(s) =

M (s)
(s+)r

Z(s) =

en elements simples :
Mr
Mr1
M1
+
+
.
r
r1
(s + )
(s + )
s+

On decompose ensuite Z(s) suivant les sorties (decomposition en ligne). On note :

Mj1
..
.

i
Mj =
Mj j = 1, , r
..
.
Mjp
Y1 (s) =
..
.

Mr1
U
(s+)r

1
Mr1
U
(s+)r1

+ +

M11
U
s+

Yi (s) =
..
.

Mri
U
(s+)r

i
Mr1
U
(s+)r1

+ +

M1i
U
s+

Yp (s) =

Mrp
U
(s+)r

p
Mr1
U
(s+)r1

+ +

M1p
U
s+

Analyse et representation

Page 51/70

sentation de
tat des syste
`mes multivariables de
finis par des
3. Repre
52
matrices de transfert

xr

x r-1

+
+

x1

y1

Figure 3.1: Graphe minimal associe `a Y1 .


[1 2]u

[1 3]u
x2

y1

x1

+
+

+
-

y2

Figure 3.2: Graphe minimal associe `a Z(s).

On trace le graphe de la premi`ere mesure i o`


u Mri nest pas nul. On obtient le schema
fonctionnel presente Figure 3.1 (avec i = 1). Puis on construit les mesures suivantes
Mr2
en sefforcant de construire dabord le terme de plus haut degre ( (s+)
r U ) en utilisant
1
les r blocs s+ dej`a construits et ainsi de suite pour les autres mesures.
Exemple:


1 3
1 2

0 1
1 2
1
s + 3 3s + 8
Z(s) =
+
=
2
2
1
s+4
(s + 2)
(s + 2)
s+2
(
[1 2]
[1 3]
Y1 (s) = (s+2)
2 U + s+2 U
[1 2]
[0 1]
Y2 (s) = (s+2)
2 U + s+2 U
On obtient le graphe presente figure 3.2. En effet :
Y2 (s) = Y1 (s)

[1 2]
U.
s+2

Do`
u la realisation minimale (dordre 2) :

2
1
1
3

x5 +
u
x5 =
1 2
0 2
1 0

y =
x5
1 1

Analyse et representation

Page 52/70

3.9 Exercice

3.9

53

Exercice

On consid`ere le syst`eme `a 2 entrees et 2 sorties defini par la matrice de transfert


suivante :

3
p + 3p2 + 2p + 1 2p2 + p + 1
3p2 + p + 1
3p2 + p + 1
Z(p) =
(3.6)
p2 (p2 + p + 1)
a) De quel ordre est le syst`eme ?
b) Quelle est sont equation caracteristique? Sous forme bloc diagonale, quelle serait
la structure de la matrice A?
c) Donner une realisation minimale de ce syst`eme.

Analyse et representation

Page 53/70

sentation de
tat des syste
`mes multivariables de
finis par des
3. Repre
54
matrices de transfert

Analyse et representation

Page 54/70

55

Chapter 4
Repr
esentation d
etat des syst`
emes
multivariables d
efinis par un
syst`
eme d
equations diff
erentielles
4.1

Notations et Probl`
ematique
(k)

Loperateur derivation est note : D = dtd . On note donc yi = Dk yi .


Exemple :

000
0
0
0
y1 + 2y1 + 3y1 + y2 + y2 = u1 + u2 + u3
0
0
0
y1 + y1 + 3y2 + y2 = u2 + u3 + u3

D + 2D + 3 D + 1
D+1
3D + 1

y1
y2

D 1
1
0 1 D+1

u1
u2
u3

On note le syst`eme differentiel : L(D)y = M (D)u avec L(D) : p p inversible et


M (D) : p m.
Le probl`eme est de trouver une realisation :


A B
x
x
y
C D
u
equivalente au syst`eme differentiel donc observable mais pas necessairement gouvernable.
On note egalement les decompositions L(D) et M (D) suivant les puissances de D
de la facon suivante :
L(D) = Ls Ds + Ls1 Ds1 + + L1 D + L0
M (D) = Mr Dr + Mr1 Dr1 + + M1 D + M0 .
Analyse et representation

Page 55/70

sentation de
tat des syste
`mes multivariables de
finis par un
4. Repre
`me de
quations diffe
rentielles
56
syste
Hypoth`
ese : Comme precedemment et comme dans le cas SISO, on supposera s r
pour que le syst`eme est une signification physique. Si r = s, le syst`eme nest pas
strictement propre et on commencera par isoler la transmission directe. Lattention
est toutefois attiree sur le fait que, contrairement au cas SISO, la condition s > r
nimplique pas que syst`eme soit strictement propre. Il peut meme ne correspondre `a
rien de physique.

4.2

Rappel cas SISO

Dans le cas SISO, lequation differentielle entree-sortie, apr`es avoir isoler la transmission
directe et apr`es normalisation `a 1 du coefficient de la derivee de la sortie y de plus haut
degre, secrit :
1 y n + an1 y n1 + + a1 y + a0 y = b0 u + b1 u + + bm1 um1 + bm um .
On prendra comme representation detat
prietes dobservabilite (equation 3.2) :

an1 1

..


.
0


.
..
xv
..
.

a
0
1


a0 0
y
1
0

4.3

une forme compagne verticale pour ses pro0


... ...
...
1

0
..
.
0

0 1
0
0

..

xv

bm

..

b0
u
0

Cas g
en
eral multivariable

Dune facon analogue aux matrices de transfert, nous allons chercher `a diagonaliser
L(D) par une succession doperations licites (pre-multiplications et post-multiplication
par des notations `a determinant constant; ni nul ni dependant de D).

4.3.1

Pr
e-multiplication du syst`
eme: triangularisation (sup
erieure)
de L(D)
V (D)L(D)y = V (D)M (D)u

L11 (D)

0
L22 (D)

V (D)L(D) = T (D) =
.
..
.

.
.
0

Analyse et representation

Page 56/70

avec
L1p (D)
..
...
.
..
..
.
.
0

Lpp (D)

ne
ral multivariable
4.3 Cas ge

4.3.2

57

Changement de variable (post-multiplication)


y = W (D)z

avec det(W (D)) = Cste

V (D)L(D)W (D)z = V (D)M (D)u


avec W (D) qui diagonalise la matrice triangulaire T (D).
On note alors V (D)L(D)W (D) = (D) (diagonale) :
(D)z = M 0 (D)u avec (D) = diag(i (D)) i = 1, , p
On a donc p equations differentielles en parall`ele et lordre du syst`eme est la somme
des degr`es des i (D), cest-`a-dire le degre du determinant de L(D).
Ordre du syst`eme L(D)y = M (D)u: n = degre(det (L(D)))

4.3.3

Mise sous forme d


etat

A partir de la forme triangulaire superieure, si pour chaque colonne le terme de plus


haut degre est sur la diagonale, on peut chercher directement une representation detat
en commencant par le derni`ere mesure (voir exemple 5 page 13 de [4]).
Dans le cas general, on ne cherchera pas `a triangulariser L(D) mais on utilisera la
m
ethode pratique suivante : on decompose L(D) selon les puissances de D :
L(D) = Ls Ds + Ls1 Ds1 + + L1 D + L0 .
Deux cas peuvent se presenter selon que Ls soit inversible ou pas.
Cas 1: Ls est inversible
Alors on pre-multiplie le syst`eme diffrentiel L(D)y = M (D)u par L1
et on peut
s
conclure : n = p s .
On a une representation detat directe par la generalisation du cas mono-variable
a la normalisation `a 1 du coefficient de plus haut
(la multiplication par L1
s correspond `
degre du polynome caracteristique lorsque lon cherche une representation sous forme
compagne dans le cas mono-variable).

0
L1
s Ls1 Ipp
..
... ...
.
0
..
..
...
.
.
Ipp



x
=


1

s L1
L1
Ls L0
y
Ipp
Analyse et representation

0
0
0

Page 57/70

0
..
.
0
Ipp
0
0

..
.


0


x
M
L1
r
s


..

.

1
Ls M0
u
0

sentation de
tat des syste
`mes multivariables de
finis par un
4. Repre
`me de
quations diffe
rentielles
58
syste
Cas 2: Ls est de rang < p
Par pre-multiplication
et post-multiplication, on peut se ramener au cas o`
u L(s) =

I p
et on decompose le syst`eme en blocs 2 2 :
p pp
()
(p )

L11 (D) L12 (D)


L21 (D) L22 (D)
()
(p )

y1
y2

M1 (D)
M2 (D)

Premier sous-syst`eme (dordre s):


L11 (D)y1 = M1 (D)u L12 (D)y2
On est ramener au cas precedent car L11 s est inversible. Y2 est considerer comme une
entree auxiliaire pour ce sous-syst`eme. On obtient alors :


x1

A1 B1 K
x1
x1 = A1 x1 + B1 u Ky2
=
ou
u
y1 = C1 x1
y1
C1

y2
Second sous-syst`eme :
L22 (D)y2 = M2 (D)u L21 (D)y1

(4.1)

Le terme L21 (D)y1 est compose de termes en :


y1 = C1 x1 ,
y1 = C1 Ax1 + C1 B1 u C1 Ky2 ,
y1 = C1 A2 x1 + C1 AB1 u C1 AKy2 + C1 B1 u C1 K y2 ,
.
On peut donc reecrire lequation (4.1) de la facon suivante :
L022 (D)y2 = M20 (D)u Sx1
Remarque : cest dans cette derni`ere equation quapparaissent eventuellement :

des transmissions directes (si s = n),

des equations detats supplementaires (si s < n),

des relations statiques sur x1 qui permettront de supprimer (reduire) des variables
detats dans le vecteur x1 (si s > n).

Analyse et representation

Page 58/70

4.4 Exemple

59

Dans le cas s < n, on obtient la representation du second sous-syst`eme :

x2


x2
A2 B2 T
x2 = A2 x2 + B1 u + T x1
ou
=
u
y2 = C2 x2
y2
C2
x1
et la representation globale :

x1
x2
y1
y2

A1 KC2
T
A2
C1

C2

B1
B2

x1
x
2

Remarques :

4.4

ne pas oublier de rajouter la transmission directe eventuellement isolee dans le


probl`eme initial (voir hypoth`ese de la section 4.1),
ne pas oublier non plus de tenir compte du changement de variable eventuellement
utilise pour normaliser Ls sous la forme :

I p
L(s) =
p pp

Exemple

Soit le syst`eme differentiel :

D2 + D + 1 D2 D
D+1 D+2
y=
u note: (L(D)y = M (D)u)
D2 + 2D + 1 D2 + D
D + 3 2D + 4
Ordre du syst`
eme
det (L(D)) = D4 + 2D3 + 2D2 + D (D4 + D3 + ) = D3 +

n=3

Normalisation de Ls

1 1
s = 2 ; L2 =
1 1

Analyse et representation

Page 59/70

sentation de
tat des syste
`mes multivariables de
finis par un
4. Repre
`me de
quations diffe
rentielles
60
syste
Pre-multiplication:

1 0
D + D + 1 D2 D
D+1 D+2
(Ly = Du)
y=
u.
1 1
D
2D
2
D+2

1 1
Changement de variable: y =
z
0 1

2
D+1 D+2
D + D + 1 2D 1
z=
u.

2
D+2
D
D
Premier sous-syst`
eme:
(D2 + D + 1)z1 = [D + 1 D + 2]u + (2D + 1)z2


1 1
1 1
2

x1 =
x1 +
u+
z2
1 0
1 2
1

z1 = [ 1 0 ]x1
Second sous-syst`
eme:

Dz2 = [2 D + 2]u Dz1


= [2 D + 2]u [1 0]x1
= [2 D + 2]u [1 1]x1 [1 1]u 2z2
(D + 2)z2 = [1 D + 1]u + [1

1]x1

Cette derni`ere egalite met en evidence une transmission directe unitaire entre z2 et u2
(deuxi`eme composante de u). On pose donc: ze2 = z2 u2 = z2 [0 1]u et on obtient :

(D + 2)ze2 = [1

1]u + [1

do`
u la representation du second sous-syst`eme :

x2 = 2x2 + [1 1]u + [1
ze = x2
2
z2 = x2 + [0 1]u

1]x1 ,
1]x1

Repr
esentation globale

x1

x
2

=
z1

z2
Analyse et representation

1 1
2 1 3

1 0
1 1 3
x1

1 1 2 1 1
x2

1
0
0 0 0 u
0
0
1 0 1
Page 60/70

4.5 Exercices

61

Soit, compte tenu du changement de variable y =

x1

x
2
=

y1

y2

4.5

1 1
2
1 0
1
1 1 2
1
0 1
1
0
0

1 1
0 1

z:

1 3

1 3
x1

1 1
x2

0 1 u
0 1

Exercices

Exercice 1
On consid`ere le syst`eme defini par les equations :

2
D
3

2D2 + D + 2 D2 +
+1
D2 1
D2 + 13 D 2

y1
y2

D+1 D+2 1
D
1
1

u1
u2
u3

a) De quel ordre est ce syst`eme ? (On ne vous demande pas les modes, seulement
lordre. Repondez, en justifiant, le plus facilement possible).
b) Donnez-en une representation detat minimale.
c) Comment les etats que vous avez choisi sont-ils lies aux sorties et aux entrees du
syst`eme?
Exercice 2

D2 D
D2 + 1
2
2
D + D D + 2D 1

y=

a) De quel ordre est ce syst`eme ?


b) Donnez-en une representation detat minimale.

Analyse et representation

Page 61/70

1 2
2 1

sentation de
tat des syste
`mes multivariables de
finis par un
4. Repre
`me de
quations diffe
rentielles
62
syste

Analyse et representation

Page 62/70

63

Chapter 5
Gouvernabilit
e et observabilit
e:
analyse pratique par les grammiens
5.1

Introduction

Les notions de gouvernabilite et dobservabilite presentees jusquici donne une information binaire sur les proprietes du syst`eme (gouvernable ou pas, observable ou pas).
Les crit`eres theoriques sont dailleurs fondes sur un calcul de rang. En pratique, il
parat necessaire de pouvoir apprecier, de mesurer la gouvernabilite ou lobservabilite
(on parle alors dindice de gouvernabilite ou dobservabilite).
Exemple: Cas de 2 blocs de Jordan associes `a la meme valeur propre dans le cas
monovariable. Que se passe t-il lorsque legalite des valeurs propres nest pas parfaite
?:

0
1
x
x
= 0 + 1
avec petit .
y
u
1
1
0
Dans le cas des syst`emes asymptotiquement stables, les grammiens de gouvernabilite et
dobservabilite fournissent cette mesure et permettent dapprehender ces probl`emes.

5.2

D
efinitions

Soit un syst`eme asymptotiquement stable :




A B
x
x
=
y
C D
u

Analyse et representation

Page 63/70

et observabilite
: analyse pratique par les
5. Gouvernabilite
grammiens

64

5.2.1

Grammien de gouvernabilit
e (help gram)
Xc =

R At
T AT t
e
BB
e
dt
0

Premi`
ere interpr
etation
La reponse de letat x(t) du syst`eme `a une impulsion sur lentree u secrit : x(t) =
eAt B, t > 0.
Z

Xc =

x(t)xT (t)dt

Le grammien de gouvernabilite represente lintegrale du carre de la reponse impulsionnelle des etats du syst`eme.
Calcul pratique
Xc est solution de lequation de Lyapunov (help lyap ) :
AXc + Xc AT + BB T = 0

(5.1)

Justification:
Z
T

AXc + Xc A

h
i
d(eAt BB T eA t )
At
T AT t
dt = e BB e
dt
0

=
Z

=
0

Tt

AeAt BB T eA

T
+ eAt BB T eA t AT dt

(rappel: AeAt = eAt A).

Or limt (eAt ) = 0 car A est stable. Donc :


AXc + Xc AT = BB T .
Deuxi`
eme interpr
etation (stochastique)
Rappel: (voir cours de seconde annee sur la representation markovienne des processus
aleatoires)

= Ax(t) + b(t) avec b(t): bruit blanc de densite spectrale Q,


soit u syst`eme : x(t)

soit : E x(t)xT (t + ) = P ( ) (P matrice de covariance de letat x en regime


permanent),
alors P verifie lequation de Lyapunov: AP + P AT + Q = 0.

Le grammien de gouvernabilite represente la matrice de covariance de letat (en regime


permanent) lorsque
le vecteur dentree u correspond au vecteur de bruits blancs centres

normalises (E x(t)xT (t + ) = Imm ( )).


Analyse et representation

Page 64/70

finitions
5.2 De

65

Propri
et
es:

Xc est symetrique positive semi-definie. Sa decomposition


(svd) secrit :

1 0

0 ...
Xc = Vc 2c VcT avec 2c = . . 2 .
.. ..
..
0 0

en valeurs singuli`eres

0
..
.

0
n

le syst`eme est gouvernable si Xc est definie positive (i > 0 i).

5.2.2

Grammien dobservabilit
e
Xo =

A B
C

R
0

T
eA t C T CeAt dt

AT C T
BT

A B
C

Dualite:

Xo solution de : AT Xo + Xo A + C T C = 0,

Xo est symetrique positive semi-definie,

le syst`eme est observable si Xo est definie positive.

T
,

Exemple: reprenons lexemple precedent (avec < 0: condition de stabilite):

0
x
x
= 0 + 1
y
u
1
1
0

x11 x12
Soit: Xc =
alors lequation de Lyapunov devient:
x12 x22

0
1 1
0 0
x11 x12

0
x11 x12
+
=
.
+
0 +
1 1
0 0
x12 x22
0 +
x12 x22

1
1
2
2+
Xc =
(> 0 car < 0)
1
1
2+
2+2
Rq: Xo = Xc

(cas particulier) .

Si sannule, Xc devient singuli`ere et une des deux valeurs singuli`eres de Xc sannule.


Lanalyse des valeurs singuli`
eres de Xc , comparativement les unes par
rapport aux autres, renseigne donc sur la dimension et le degr
e dingouvernabilit
e
du sous espace d
etat le moins gouvernable.
Analyse et representation

Page 65/70

66

5.3

et observabilite
: analyse pratique par les
5. Gouvernabilite
grammiens

Repr
esentation
equilibr
ee (help balreal)

Les grammiens Xc et Xo dependent de la base (x) dans laquelle est exprimee la


representation detat.
Effectuons un changement de variable : x = M x
e, alors :
e = M 1 AM, B
e = M 1 B, C
e = CM et
A
Z

e e eT A
eT t
At
f
dt est solution de:
Xc =
e BB e
0

eX
fc + X
fc A
eT + B
eB
eT = 0
A

fc + X
fc M T AT M T + M 1 BB T M T = 0
M 1 AM X

en pre-multipliant cette equation par M et en post-multipliant par M T , on obtient :


fc M T + M X
fc M T AT + BB T = 0
AM X

(5.2)

fc M T ou encore :
Lidentification des equations 5.1 et 5.2 donne: Xc = M X
fc = M 1 Xc M T .
X
De facon analogue on peut demontrer :
fo = M T Xo M .
X
fc X
fo = M 1 Xc Xo M donc les valeurs propres de Xc Xo sont invariantes
Remarque: X
par le changement de base M .

Repr
esentation
equilibr
ee:
fc = X
fo = 2 = diag(i ) i = 1, , n avec :
M /X

1 > 2 > n (valeurs singuli`eres de Hankel),


p
i = i (Xc Xo ),

e B,
e C)
e associee `a ce changement de base M est dite
la representation (A,
equilibr
ee.

Exemple
el
ementaire: F (s) =

Analyse et representation

1
,
s+1

on propose deux representations :

Page 66/70

sentation e
quilibre
e (help balreal)
5.3 Repre

x
y

1 0.01
100 0

x
u

representation non equilibree :


Xc = 0.005,

x
y

1 1
1 0

x
u

67

Xo = 5000,

representation equilibree :
Xc = Xo = 0.5 .

Algorithme de calcul de M pour la repr


esentation
equilibr
ee:
a) On calcule Xc et Xo par les equations de Lyapunov,
b) on fait une decomposition en valeurs singuli`eres (svd) de Xc et Xo :
Xc = Vc 2c VcT ,

Xo = Vo 2o VoT ,

c) on pose P = o VoT Vc c (racine carre du produit Xo Xc ), et on decompose P


(svd) :
P = U 2 V T (rq: 2 = c o car VoT et Vc unitaires),
d) alors M = Vc c V 1 .
Justification:
fc = M 1 Xc M T
X
T
2
T
1
= V T 1
c Vc Vc c Vc Vc c V
| {z }
| {z }
I

= V
| {zV}
I

fo = M T Xo M
X
= 1 V T c VcT Vo 2o VoT Vc c V 1
|
{z
}
PTP

V V U U 2 V T V 1

= 2

Analyse et representation

Page 67/70

68

et observabilite
: analyse pratique par les
5. Gouvernabilite
grammiens

Analyse et representation

Page 68/70

69

R
ef
erences
0 J.L. Junkins et Y. Kim: Introduction to Dynamics and Control of flexible structures (chapitre 1) AIAA, Education series.
1 Robustesse et Commande Optimale: D. Alazard, C. Cumer, P. Apkarian, M.

Gauvrit et G. Ferr`eres - Cepadu`es Editions,


2 M. Gauvrit et P. Apkarian: Commande robuste des syst`emes lineaires, Polycopie
de cours SUPAERO,
3 M. Llibre: Commande optimale des processus deterministe, Polycopie de cours
SUPAERO,
4 A. J. Fossard: Representation des syst`emes dynamiques continus multidimensionnels - premi`ere partie, Polycopie de cours SUPAERO.
5 N. Imbert: Reduction de mod`eles, Notes de cours SUPAERO.
6 A. J. Fossard: Representation, observation et commande des syst`emes lineaires
dans lespace detat (syst`emes monoentree-monosortie), polycope SUPAERO
de seconde annee.
7 D. Alazard et J.P. Chretien: Commande Active des Structures Flexibles: applications spatiales et aeronautiques, Notes de cours SUPAERO.
8 P. Mouyon: Inversion doperateurs et techniques de regularisation, notes de cours
SUPAERO.

Analyse et representation

Page 69/70

fe
rences
Re

70

Analyse et representation

Page 70/70

Vous aimerez peut-être aussi