Vous êtes sur la page 1sur 57

Commande Optimale

Ecole Nationale Sup

erieure de Physique de Strabourg


3
` eme
ann

ee
Option Ing

enierie des Syst


`
emes, Automatique et Vision
Master Images, Robotique et Ing

enierie pour le Vivant


Parcours Automatique et Robotique
Edouard Laroche
laroche@lsiit.u-strasbg.fr
http://eavr.u-strasbg.fr/
~
laroche/student
20092010
Table des mati`eres
1 Introduction 5
2 Commande optimale 6
2.1 Position du probl`eme . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Principe doptimalite de Bellman . . . . . . . . . . . . . . . . 7
2.3 Principe du minimum de Pontriaguine . . . . . . . . . . . . . 8
2.4 Equation dEuler-Lagrange . . . . . . . . . . . . . . . . . . . 10
2.5 Commande bang-bang . . . . . . . . . . . . . . . . . . . . . . 10
3 Commande Lineaire Quadratique 11
3.1 Commande LQ `a horizon ni . . . . . . . . . . . . . . . . . . 11
3.2 Commande LQ `a horizon inni . . . . . . . . . . . . . . . . . 13
3.3 Robustesse de la commande LQ . . . . . . . . . . . . . . . . . 14
3.3.1 Dierence de retour . . . . . . . . . . . . . . . . . . . 14
3.3.2 Marges de stabilite . . . . . . . . . . . . . . . . . . . . 14
3.4 Structure des regulateurs . . . . . . . . . . . . . . . . . . . . . 15
3.5 Choix des ponderations . . . . . . . . . . . . . . . . . . . . . . 17
3.6 Commande LQ `a temps discret . . . . . . . . . . . . . . . . . 17
3.6.1 Commande LQ ` a temps discret `a horizon ni . . . . . . 17
3.6.2 Crit`ere `a horizon inni . . . . . . . . . . . . . . . . . . 20
3.7 Commande predictive . . . . . . . . . . . . . . . . . . . . . . . 20
3.7.1 Suivi de consigne . . . . . . . . . . . . . . . . . . . . . 20
3.7.2 Rejet dune perturbation connue . . . . . . . . . . . . . 21
4 Commande Lineaire Quadratique Gaussienne 27
4.1 Formulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2 Theor`eme de separation . . . . . . . . . . . . . . . . . . . . . 27
4.3 Structure de la commande LQG . . . . . . . . . . . . . . . . 28
4.4 Choix des ponderations . . . . . . . . . . . . . . . . . . . . . . 29
4.4.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . 29
4.4.2 Reglage de lestimateur detat . . . . . . . . . . . . . . 29
4.4.3 Loop Transfert Recovery . . . . . . . . . . . . . . . . . 29
4.5 Commande LQG `a temps discret . . . . . . . . . . . . . . . . 30
5 Commande H
2
31
5.1 Norme H
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.1.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.1.2 Proprietes . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.1.3 Calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2
5.1.4 Formulation LMI . . . . . . . . . . . . . . . . . . . . . 33
5.2 Probl`eme standard . . . . . . . . . . . . . . . . . . . . . . . . 34
5.3 Equivalence H
2
et LQG . . . . . . . . . . . . . . . . . . . . . . 35
6 Forme LQG equivalente 36
6.1 Parametrisation de Youla du correcteur LQG . . . . . . . . . 36
6.2 Calcul des param`etres . . . . . . . . . . . . . . . . . . . . . . 37
6.3 Application ` a linterpolation de correcteurs . . . . . . . . . . . 38
A Optimisation et calcul des variations 41
A.1 Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
A.1.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . 41
A.1.2 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . 41
A.1.3 Optimisation sans contrainte . . . . . . . . . . . . . . . 41
A.1.4 Optimisation avec contrainte . . . . . . . . . . . . . . . 42
A.2 Calcul des variations . . . . . . . . . . . . . . . . . . . . . . . 42
A.2.1 Problematique . . . . . . . . . . . . . . . . . . . . . . . 42
A.2.2

Equation dEuler-Lagrange . . . . . . . . . . . . . . . . 43
A.2.3 Prise en compte des conditions initiales et nales . . . 44
A.2.4 Prise en compte de contraintes . . . . . . . . . . . . . . 44
B Syst`emes lineaires multivariables 47
B.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
B.2 P oles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
B.3 Commandabilite et observabilite . . . . . . . . . . . . . . . . . 47
B.4 Syst`eme lineaire `a temps variant . . . . . . . . . . . . . . . . . 48
B.4.1 Mod`ele LTV . . . . . . . . . . . . . . . . . . . . . . . . 48
B.4.2 Observabilite . . . . . . . . . . . . . . . . . . . . . . . 49
B.4.3 Commandabilite . . . . . . . . . . . . . . . . . . . . . 49
C Analyse des syst`emes asservis multivariables 50
C.1 Position du probl`eme . . . . . . . . . . . . . . . . . . . . . . . 50
C.2 Valeur singuli`ere . . . . . . . . . . . . . . . . . . . . . . . . . 50
C.3 Trace des valeurs singuli`eres . . . . . . . . . . . . . . . . . . . 51
C.4 Stabilite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
C.5 Suivi de consigne . . . . . . . . . . . . . . . . . . . . . . . . . 53
C.6 Rejet de perturbation . . . . . . . . . . . . . . . . . . . . . . . 53
C.7 Robustesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3
D Inegalites matricielles anes 54
D.1 Positivite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
D.2 Inegalite matricielle ane ou lineaire . . . . . . . . . . . . . . 54
D.3 Exemple de LMI . . . . . . . . . . . . . . . . . . . . . . . . . 55
D.4 Resolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4
1 Introduction
Les probl`emes de commande optimale se rencontrent dans la vie de tous
les jours : comment arriver ` a destination le plus rapidement possible, com-
ment minimiser sa consommation... Pour un syst`eme dynamique donne et
dont les equations sont connues, le probl`eme de commande optimale con-
siste alors ` a trouver la commande minimisant un crit`ere donne. Cest sous
cette forme que la commande optimale a ete etudiee d`es le XIX
`eme
si`ecle
avec le calcul des variations. Une des grandes applications de la commande
optimale a ete lapplication au lanceur Apollo dans les annees 1960. Notons
neanmoins que les dicultes soulevees par ce genre de probl`eme sont loin
detre compl`etement resolues comme en temoignent les sessions dediees `a la
commande optimale dans les conferences dautomatique. La commande op-
timale reste donc un sujet de recherche dactualite.
On sinteressera dans une premi`ere partie (2) ` a la commande optimale
telle quelle a ete posee initialement et dans le cas des syst`emes les plus
generaux. Dans une seconde partie (3), on sinteressera plus particuli`erement
aux syst`emes lineaires dans le cas dun crit`ere quadratique, cas connu sous
le nom de commande lineaire quadratique (LQ), et qui sexprime sous la
forme dun retour statique detat. On sinteressera ensuite (4) `a la com-
mande lineaire quadratique gaussienne (LQG) permettant de synthetiser un
correcteur dynamique pour un syst`eme dont letat nest que partiellement
mesure. On verra au 5 comment la commande LQG peut se formaliser
comme la synth`ese dun correcteur minimisant une norme matricielle (norme
H
2
) entre des signaux particuliers. Finalement, on sinteressera ` a la possibilite
dobtenir, pour un correcteur quelconque, une forme LQG equivalente.
5
2 Commande optimale
Plut ot que de presenter de mani`ere approfondie le probl`eme de la com-
mande optimale, cette partie constitue plutot une introduction au sujet. Le
choix a ete fait de presenter un resultat sappuyant sur le principe du max-
imum de Pontriaguine sans rentrer dans la theorie du calcul des variations.
Pour approfondir ce domaine, pour pourrez consulter les ouvrages disponibles
[1, 2, 3]. Dautres cours sont egalement disponibles ; notamment celui de De-
nis Arzelier (http://www.laas.fr/
~
arzelier/cours.html).
2.1 Position du probl`eme
Soit un syst`eme `a temps continu de representation detat :
x = f(x, u, t) (1)
et de condition initiale x(t
0
) = x
0
, o` u t R, u R
m
et x R
n
. Les
signaux u et x sont des fonctions de R vers respectivement R
m
et R
n
. Pour
la condition initiale x
0
et la commande u, lequation detat (1) denit une
trajectoire unique x pour letat sur [t
0
, t
f
]. Celle-ci est fonction de la condition
initiale x
0
et de la commande u sur [t
0
, t
f
].
Soit un crit`ere :
J(x
0
, t
0
, u) = (x
f
, t
f
) +
_
t
f
t
0
(x, u, t)dt (2)
avec x
f
= x(t
f
). Les fonctions et ainsi que les instants t
0
et t
f
etant
donnes, ce crit`ere ne depend que de x
0
et de u sur [t
0
, t
f
]. Lapplication qui
au signal de commande u associe le crit`ere scalaire J(x
0
, t
0
, u) est une fonc-
tionnelle. On peut noter que dierents crit`eres existent dans la litterature :
le probl`eme de Lagrange :
_
t
f
t
0
(x, u, t)dt (3)
le crit`ere de Bolza :
(x
f
) +
_
t
f
t
0
(x, u, t)dt (4)
le crit`ere de Mayer :
(x
f
, t
f
) (5)
6
Eventuellement au moyen dune augmentation detat du syst`eme, il est interessant
de noter quils sont equivalents.
En plus de lequation detat qui lie les trajectoires de u et de x, dautres
contraintes peuvent intervenir (sans pour autant remettre en cause le crit`ere
choisi). Typiquement :
linstant nal peut etre impose ou libre ;
la commande peut appartenir ` a un ensemble u U = R
m
;
des contraintes peuvent exister sur letat nal : x
f
X.
Le probl`eme de la commande optimale consiste alors `a trouver la com-
mande u minimisant J(x
0
, t
0
, u) :
u = min
uU
J(x
0
, t
0
, u) (6)
On notera alors x la trajectoire correspondante de letat et

J(x
0
) = J(x
0
, t
0
, u)
la valeur du crit`ere.
2.2 Principe doptimalite de Bellman
Soit le crit`ere :
J(x
0
, t
0
, u) = (x
f
, t
f
) +
_
t
f
t
0
(x, u, t)dt (7)
La trajectoire optimale sur [t
0
, t
f
] est u et le crit`ere optimal :

J(x
0
, t
0
) = min
u
[t
0
,t
f
]
J(x
0
, t
0
, u). (8)
Soit t
1
[t
0
, t
f
]. Le principe doptimalite de Bellman enonce que la trajectoire
optimale sur [t
0
, t
f
] contient la trajectoire optimale sur [t
1
, t
f
] avec comme
condition initiale x
1
= x(t
1
). Autrement dit :

J(x
0
) = min
u
[t
0
,t
1
]
,x
1
__
t
1
t
0
(x, u, t)dt +

J(x
1
)
_
. (9)
Bien que les developpements suivants ne sappuient pas directement sur
ce principe, mais sur le principe du maximum, ce principe est un resultat clas-
sique de la commande optimale et se trouve souvent utilise dans la litterature.
Il permet dobtenir une solution optimale en decoupant lintervalle et en
resolvant un probl`eme recursif.
7
2.3 Principe du minimum de Pontriaguine
Le principe du minimum de Pontriaguine [4] est ici bri`evement enonce.
On peut se referer `a Sage et White [1] 4.3.1 pour sa demonstration.
Soit le syst`eme dequation detat :
x = f(x, u, t) (10)
et le crit`ere de performance :
J(x
0
, t
0
, u) = (x
f
, t
f
) +
_
t
f
t
0
(x, u, t)dt (11)
On denit lhamiltonien du syst`eme :
H(x, u, p, t) = (x, u, t) + p
T
f(x, u, t) (12)
o` u p est appele etat-adjoint
1
. Le principe du minimum de Pontriaguine
enonce que la trajectoire optimale minimise lhamiltonien du syst`eme. Autrement
dit :
H( x, u, p) H( x, u, p) u U (13)
Le long de la trajectoire optimale, on dispose dun certain nombre dequations
permettant de resoudre le probl`eme de commande optimale. Ces equations
sont generalement etablies en utilisant le calcul des variations. Pour plus
dinformations, se reporter ` a un ouvrage de reference.
Lextremalite de la solution conduit `a un jeu dequations, appelees equations
canoniques de Hamilton, qui regissent les dynamiques de letat dune part et
de letat adjoint dautre part :
etat
H
p
= x
etat adjoint
H
x
= p
Les equations provenant des conditions dites terminales, en t
0
dune part et
en t
f
dautre part sont appelees equations de transversalite :
` a lorigine
_
H(t
0
) +

t
0
_
t
0
+
_
p(t
0
) +

x
0
_
T
x
0
= 0
1. En Anglais : costate vector
8
` a larrivee
_
H(t
f
) +

t
f
_
t
f
+
_
p(t
f
) +

x
f
_
T
x
f
= 0
Enn, selon la nature du probl`eme, on aura encore certaines relations addi-
tionnelles :
si aucune contrainte (de type saturation) nest imposee sur u(t) `a lin-
stant t, on a :
H
u
(t) = 0
si H nest pas une fonction explicite du temps, on a :
dH
dt
=
H
t
= 0
Lien avec le calcul des variations
Il sagit dun probl`eme doptimisation sous contrainte egalite f(x, u, t)
x = 0. En sappuyant sur le calcul des variations, on est amene `a introduire un
multiplicateur de Lagrange p, qui est une fonction du temps, et `a introduire
le Hermicien :
H(x, u, p, t) = (x, u, t) + p
T
f(x, u, t) (14)
Le crit`ere secrit alors :

J = (x
f
, t
f
) +
_
t
f
t
0
((x, u, t) + p
T
(f(x, u, t) x)) dt
= (x
f
, t
f
) +
_
t
f
t
0
(H(x, u, p, t) p
T
x) dt
= (x
f
, t
f
) +
_
t
f
t
0
(H(x, u, p, t) + p
T
x) dt p
T
f
x
f
+ p
T
(t
0
)x
0
=

(x
0
, t
0
, x
f
, t
f
) +
_
t
f
t
0
(H(x, u, p, t) + p
T
x) dt (15)
o` u

(x
0
, t
0
, x
f
, t
f
) = (x
f
, t
f
) p
T
f
x
f
+p
T
0
x
0
. Le calcul des variations permet
de donner des conditions necessaires pour resoudre ce probl`eme (cf. para-
graphe A.2, page 42). On comprends ainsi lapparition de lequation de letat
adjoint
H
x
= p.
9
2.4 Equation dEuler-Lagrange
Cf. [1] 3.5 et [5] 4.1.3.
Lequation dEuler-Lagrange, bien connue en mecanique, peut etre retrouvee
` a partir du principe du minimum. En notant T, lenergie cinetique et U
lenergie potentielle dun syst`eme mecanique, le principe de moindre ac-
tion enonce par Maupertuis postule que le syst`eme evolue en minimisant
lintegrale :
_
t
f
t
0
(T U)dt. (16)
Notons q les cordonnees generalisees du syst`eme. Soit L(q, q) = T(q, q)
U(q) le lagrangien, avec le crit`ere :
J(q
0
, t
0
, q) =
_
t
f
t
0
L(q, q)dt (17)
On consid`ere un syst`eme dont on commande la vitesse, lequation detat du
syst`eme secrivant alors simplement :
q = u (18)
Lhamiltonien secrit alors :
H(q, q) = L(q, q) + p
T
q (19)
et le principe du minimum donne les deux equations suivantes :
H
q
=
L
q
= p (20)
H
q
=
L
q
+ p = 0 (21)
En derivant la seconde equation par rapport au temps puis en remplacant p
gr ace ` a la premi`ere, on obtient lequation dEuler-Lagrange :
d
dt
L
q

L
q
= 0. (22)
2.5 Commande bang-bang
Un type de commande optimal particulier bien connu est la commande
` a temps minimal. Prenons un exemple : vous commandez lacceleration dun
vehicule que vous devez amener dune position initiale darret ` a une posi-
tion nale, egalement ` a larret, dans le temps le plus court possible. Si lon
10
consid`ere un mouvement enn ligne droite, on con coit intuitivement que la
commande optimale est dans ce cas une acceleration maximale jusqu` a un
certain instant ` a partir duquel il faudra freiner au maximum. On parle de
commande bang-bang parce que la commande est toujours saturee, alterna-
tivement `a sa valeur minimale ou ` a sa valeur maximale. Quant ` a la robustesse
de la commande, cest-` a-dire la capacite ` a remplir la mission de mani`ere
precise, lorsque la masse du vehicule est imparfaitement estimee, vous imag-
inez bien que ce genre de commande nest pas tr`es recommandable. Pour un
exemple de ce type de commande, cf. Sage & White [1], 5.3, p. 103.
Un exemple complet de commande en temps minimal sera traite en cours :
celui du double integrateur.
3 Commande Lineaire Quadratique
On parle de commande lineaire quadratique : LQ ou LQR pour linear
quadratic regulator. Le syst`eme est lineaire et la commande est quadratique.
La commande optimale est un retour detat.
3.1 Commande LQ `a horizon ni
Cf. [1] 5.1 et lexemple 5.1-1 (tr`es didactique) ; cf. annexe C de[2].
Soit le probl`eme de commande optimale du syst`eme :
x = A(t)x + B(t)u (23)
avec le crit`ere :
J(x
0
, t
0
, u) =
1
2
x
f
Sx
f
+
_
t
f
t
0
1
2
_
x
T
Q(t)x + u
T
R(t)u
_
dt, (24)
les matrices Q, R et S etant symetriques avec Q et S 0 et R > 0
2
.
Lhamiltonien secrit alors :
H(x, u, p, t) = p
T
A(t)x + p
T
B(t)u +
1
2
(x
T
Q(t)x + u
T
R(t)u). (25)
Lhamiltonien, verie les conditions suivantes :
equation de letat adjoint
p =
L
x
= A
T
(t)p Q(t)x (26)
2. Remarquons que le crit`ere
_
t
f
t
0
1
2
(y
T
Q
y
(t)y + u
T
R(t)u)dt est equivalent avec Q
y
=
C
T
(t)Q(t)C(t).
11
condition de transversalite
p(t
f
) = Sx
f
(27)
absence de contrainte sur la commande
L
u
= B
T
(t)p + R(t)u = 0 (28)
De lequation (28), on deduit :
u = R
1
(t)B
T
(t)p. (29)
Alors lequation dynamique du syst`eme secrit :
x = A(t)x B(t)R
1
(t)B
T
(t)p. (30)
Les equations (26) et (30) peuvent se mettre sous la forme dun syst`eme
matriciel appele syst`eme hamiltonien :
d
dt
_
x
p
_
=
_
A(t) B(t)R
1
(t)B
T
(t)
Q(t) A
T
(t)
_ _
x
p
_
(31)
Ecrivons p = P(t)x, comme nous y incite (27), avec, dapr`es (27), la
condition nale P(t
f
) = S. Lequation (26) secrit alors :
p =
_
A
T
(t)P(t) + Q(t)
_
x. (32)
Avec p =

Px+P x et lequation detat (23) du syst`eme, lequation (32) secrit
(en omettant la reference au temps an dalleger les notation) :
(

P + PA + A
T
P PBR
1
B
T
P + Q)x = 0 (33)
La solution est alors obtenue en resolvant lequation (dierentielle) de Riccati
suivante :

P + PA + A
T
P PBR
1
B
T
P + Q = 0 (34)
avec la condition nale P(t
f
) = S.
On montre que la condition :
x
T
(

P + PA + A
T
P PBR
1
B
T
P + Q)x = 0 (35)
secrit aussi :
d
dt
(x
T
Px) + x
T
Qx + u
T
Ru = 0. (36)
12
Le crit`ere :
J(x
0
, t
0
, u) =
1
2
x
f
Sx
f
+
_
t
f
t
0
1
2
(x
T
Q(t)x + u
T
R(t)u)dt. (37)
secrit alors :
J(x
0
, t
0
, u) =
1
2
_
x
f
Sx
f

_
t
f
t
0
d
dt
(x
T
Px)dt
_
. (38)
soit, avec la condition de transversalite S = P(t
f
) :
J(x
0
, t
0
, u) =
1
2
x
T
0
P(t
0
)x
0
(39)
Le minimum du crit`ere est donc :

J(x
0
) = J
0
(t
0
, x
0
, u) =
1
2
x
T
0
P(t
0
)x
0
. (40)
Il est interessant de noter que la commande optimale obtenue secrit
comme un retour detat u = K(t)x avec :
K = R
1
B
T
P. (41)
Neanmoins, noublions pas que, dans le cas present, K varie en fonction du
temps, meme dans le cas dun syst`eme et dun crit`ere `a temps invariant
(cest-` a-dire si les matrices A, B, Q et R ne dependent pas du temps). En
eet, la matrice P(t) reste dependant du temps dans le cas dun crit`ere ` a
temps ni.
3.2 Commande LQ `a horizon inni
Interessons nous ici au cas du syst`eme LTV precedent o` u :
J(x
0
, t
0
, u) =
_

t
0
1
2
_
x
T
Q(t)x + u
T
R(t)u
_
dt. (42)
On montre que ce crit`ere est ni si le syst`eme est stabilisable `a tout instant t,
(cest-` a-dire qu` a chaque instant, il existe un K(t) tel que les valeurs propres
de A BK soient ` a partie reelle negative). Remarquons par ailleurs que
la partie du crit`ere concernant letat nal nest plus pertinente car, sur un
horizon inni, letat tend vers zero si le syst`eme boucle est stable.
Dans le cas dun probl`eme LTI (lineaire ` a temps invariant), la commande
optimale est un retour detat statique u = Kx o` u K est exprime par
lequation (41) et o` u P verie lequation algebrique de Riccati :
PA + A
T
P PBR
1
B
T
P + Q = 0. (43)
La resolution de lequation algebrique de Riccati (43), disponible dans les
Toolboxes du logiciel Matlab, depasse le cadre de ce cours.
13
3.3 Robustesse de la commande LQ
Cf. [2] pp. 104 & 122, cf. [6]. Sur les proprietes de robustesse de la com-
mande LQ, cf. [7].
3.3.1 Dierence de retour
A partir de lequation de Riccati, faisons apparatre les termes sI A en
ajoutant PsI sIP o` u I est la matrice unite
3
:
P(sI A) + (sI A
T
)P + PBR
1
B
T
P = Q (44)
Multiplions `a droite par (sI A)
1
B et `a gauche par B
T
(sI A
T
)
1
:
B
T
(sI A
T
)
1
PB + B
T
P(sI A)
1
B
+B
T
(sI A
T
)
1
PBR
1
B
T
P(sI A)
1
B
= B
T
(sI A
T
)
1
Q(sI A)
1
B.
(45)
En notant que dapr`es (41), on a B
T
P = RK et PB = K
T
R, on obtient :
B
T
(sI A
T
)
1
K
T
R + RK(sI A)
1
B
+B
T
(sI A
T
)
1
PBR
1
B
T
P(sI A)
1
B
= B
T
(sI A
T
)
1
Q(sI A)
1
B.
(46)
Le premier membre de legalite secrit :
(I + B
T
(sI A
T
)
1
K
T
)R(I + K(sI A)
1
B) R. (47)
On obtient nalement lequation de la dierence de retour :
(I + B
T
(sI A
T
)
1
K
T
)R(I + K(sI A)
1
B)
= R + B
T
(sI A
T
)
1
Q(sI A)
1
B.
(48)
3.3.2 Marges de stabilite
Reprenons lequation de la dierence de retour en frequentiel avec s = j
et en notant H(j) = (jI A)
1
B. On obtient alors pour tout :
(I + KH(j))
H
R(I + KH(j)) = R + H
H
(j)QH(j) (49)
o` u M
H
est le hermitien de M, cest-` a-dire le conjugue transpose. On en deduit
alors linegalite de Kalman :
(I + KH(j))
H
R(I + KH(j)) R. (50)
3. Ces calculs sont repris de [8], II.7 ; voir aussi [2], 5.2.
14
Restreignons nous au cas o` u R = I et factorisons Q en
4
Q = L
T
L.
Legalite (49) secrit alors :
(I + KH(j))
H
(I + KH(j)) = I +
1

(LH(j))
H
(LH(j)) (51)
dont on deduit les valeurs singuli`eres de I + H(j)K :

i
(I + KH(j)) =
_

i
((I + KH(j))
H
(I + KH(j))) (52)
=

i
_
I +
1

(LH(j))
H
(LH(j))
_
(53)
=
_
1 +
1

2
i
(LH(j)) (54)
1 (55)
o` u
i
represente la i
`eme
valeur propre
5
. En monovariable, ce resultat sin-
terpr`ete facilement sur le lieu de Nyquist, comme le fait que la distance au
point 1 est toujours superieure ` a 1. Ainsi, la commande LQ presente la
propriete de robustesse suivante : sa marge de module est egale ` a 1. On en
deduit ainsi les intervalles dans lesquels le gain et la phase peuvent varier :
gain ]0, 5 ; +[,
phase ] 60; 60[
3.4 Structure des regulateurs
Lorsque des signaux de consigne y

sont donnes pour certaines com-


posantes y de x, comment les integrer ` a la loi de commande ? Imaginons
que les consignes concernent les premi`eres composantes de x et decomposons
x et K ainsi :
Kx = [K
y
K
z
]
_
y
z
_
(56)
Alors la loi de commande sera :
u = K
y
(y

y) K
z
z. (57)
Si y est donne par une loi de type equation de sortie, y = Cx, on peut eectuer
un changement detat de sorte que le nouveau vecteur detat contienne y, par
exemple en utilisant la forme canonique dobservabilite.
4. Cest toujours possible puisque Q 0, par exemple avec une factorisation de
Choleski.
5. En utilisant les proprietes
2
i
(M) =
i
(M
H
M) et
i
(I +M) = 1 +
i
(M).
15
La commande LQ est de type proportionnelle. Dans le but dameliorer
les performances en regulation en presence de perturbations constantes, il est
souhaitable dajouter un eet integral. Imaginons, ` a titre dexemple, que la
premi`ere composante x
1
de x doive etre asservie `a x

1
sans erreur statique.
Construisons letat supplementaire :
I
1
=
_
t
0
(x
1
() x

1
())d (58)
avec lequation correspondante :

I
1
= x
1
x

1
(59)
En considerant x

1
comme une perturbation constante et, de ce fait, en ne
lintegrant pas dans le mod`ele, lequation detat du syst`eme augmente de son
nouvel etat I
1
secrit :
x
e
= A
e
(t)x
e
B
e
(t)u (60)
o` u le vecteur detat augmente est :
x
e
=
_
x
I
1
_
(61)
et les matrices detat sont
6
:
A
e
=
_
A O
n1
[1 O
1n1
] 0
_
(62)
B
e
=
_
B
O
1m
_
(63)
Sur ce mod`ele, un regulateur K
e
R
mn+1
de type LQ peut etre synthetise.
Decomposons K
e
selon :
K
e
x
e
= [K K
I
]
_
x
I
1
_
(64)
Le regulateur obtenu, dentrees x et x

1
, et de sortie u est un syst`eme dy-
namique dordre 1 de mod`ele detat :
_

I
1
= x
1
x

1
u = K
I
I
1
Kx
(65)
La consigne x

1
peut aussi etre retranchee ` a x
1
; dautres consignes peuvent
etre integrees de la meme mani`ere en retranchant leur valeur ` a letat corre-
spondant. Si une commande en boucle ouverte (feed-forward) est disponible,
elle peut etre egalement integree ; la commande sera alors la somme de la
commande en boucle fermee et de la commande en boucle ouverte.
6. La matrice O
kl
represente la matrice nulle de dimension k l.
16
3.5 Choix des ponderations
Il est interessant de remarquer dabord que la multiplication des ponderations
Q et R par un meme scalaire laisse inchange le gain K. En eet, soit P so-
lution de (43) et soit le nouveau probl`eme base sur les ponderations

Q = Q
et

R = R. On verie que

P = P est solution de lequation de Riccati
correspondante. En eet :

K =

R
1
B
T

P = RB
T
P = K (66)
Sans restriction, les ponderations peuvent etre choisies symetriques. Elles
sont generalement choisies diagonales. Ainsi, on se ram`ene au choix de n
scalaires pour letat et de p scalaires pour la commande. Voici une methode
simple de choix et de modication des ponderations en vue daboutir ` a un
correcteur satisfaisant.
1. Au depart, on choisit generalement des ponderations egales aux matri-
ces identite.
2. Dans une seconde etape, on accel`ere ou decel`ere globalement le syst`eme
en multipliant la matrice Q par un scalaire (acceleration avec > 1
et deceleration avec < 1), jusqu` a obtenir une dynamique moyenne
adaptee.
3. Dans le cas o` u certains etats auraient des dynamiques trop lentes par
rapport `a dautres, on peut choisir daugmenter la ponderation de Q
correspondant aux premiers.
4. Dans le cas o` u certains actionneurs seraient trop sollicites par rapport
` a dautres, on peut choisir daugmenter la ponderation de R leur cor-
respondant.
Les etapes 2, 3 et 4 peuvent etre reiterees dans lordre souhaite jusqu` a obtenir
un correcteur satisfaisant le cahier des charges.
3.6 Commande LQ `a temps discret
Cf. 9 de [9].
3.6.1 Commande LQ `a temps discret `a horizon ni
Formulation du probl`eme. Soit le syst`eme dynamique `a temps discret
deni par :
x(k + 1) = A(k)x(k) + B(k)u(k) (67)
17
avec la condition initiale x(0) = x
0
et cherchons la commande minimisant le
crit`ere :
J =
1
2
k=n

k=0
x
T
(k)Q(k)x(k) + u
T
(k)R(k)u(k). (68)
Ce probl`eme est plus simple que celui ` a temps continu car il sagit ici dun
probl`eme dont les inconnues sont les n + 1 valeurs de u(k) et non plus une
fonction du temps. Il sagit dune minimisation de (68) sous les contraintes
(67). Le Lagrangien secrit alors :
L =
k=n

k=0
_
1
2
x
T
(k)Q(k)x(k) +
1
2
u
T
(k)R(k)u(k)
+p
T
(k + 1) (x(k + 1) + A(k)x(k) + B(k)u(k))
_
(69)
et la solution optimale verie les equations suivantes :
L
u(k)
= R(k)u(k) + B
T
(k)p(k + 1) = 0 (70)
L
x(k)
= Q(k)x(k) p(k) + A
T
(k)p(k + 1) = 0 (71)
L
p(k + 1)
= x(k + 1) + A(k)x(k) + B(k)u(k) = 0 (72)
Lequation de la commande (70) donne :
u(k) = R
1
(k)B
T
(k)p(k + 1). (73)
La derni`ere commande u(n) na aucun eet sur levolution du syst`eme sur
lhorizon considere ; sa valeur optimale est donc nulle :
u(n) = 0. (74)
On a ainsi dapr`es (70) :
p(n + 1) = 0 (75)
et dapr`es lequation adjointe (71) :
p(n) = Q(n)x(n). (76)
Il sagit dun probl`eme aux deux bouts : une condition initiale est disponible
pour letat alors que cest une condition nale qui est disponible pour letat
adjoint. Ainsi, la resolution du probl`eme doit se faire pour lensemble de la
trajectoire, ce qui peut representer une charge de calcul elevee dans le cas
dun horizon n eleve.
18
Formulation sous forme dequation de Riccati. Les equations prece-
dentes peuvent etre resolues directement en x et p. On peut aussi adopter
la demarche suivante, base sur un changement de variable suivant pour la
variable adjointe :
p(k) = P(k)x(k) (77)
o` u P(k) est une matrice quil faudra determiner ; P(n) = Q(n). La commande
u(k) verie alors :
R(k)u(k) = B
T
(k)P(k + 1)x(k + 1) (78)
= B
T
(k)P(k + 1)(A(k)x(k) + B(k)u(k)) (79)
et peut donc secrire :
u(k) = K(k)x(k) (80)
avec :
K(k) =

R
1
(k)B
T
(k)P(k + 1)A(k) (81)
o` u :

R(k) = R(k) + B
T
(k)P(k + 1)B(k). (82)
Il reste maintenant ` a determiner la matrice P(k). Partant de (71), on obtient :
P(k)x(k) = Q(k)x(k) + A
T
(k)P(k + 1)x(k + 1) (83)
= Q(k)x(k) + A
T
(k)P(k + 1)(A(k)x(k) + B(k)u(k)) (84)
En utilisant (80), lequation ci-dessus se reecrit :
P(k)x(k) =
_
Q(k) + A
T
(k)P(k + 1)(A(k) B(k)K(k))

x(k). (85)
Comme cette equation doit etre veriee pour tout x(k), il est necessaire que :
P(k) = Q(k) + A
T
(k)P(k + 1)(A(k) B(k)K(k)), (86)
ce qui secrit :
P(k) = Q(k) + A
T
(k)M(k + 1)A(k), (87)
avec :
M(k+1) = P(k+1)P(k+1)B(k)(R(k)+B
T
(k)P(k+1)B(k))
1
B
T
(k)P(k+1).
(88)
Cette equation recursive ` a inconnue matricielle est appelee equation de Ric-
cati discr`ete. Sa condition nale est P(n) = Q(n) et sa resolution se fait donc
` a rebours. Dans le cas de syst`emes LTV o` u les matrices A, B dependent ef-
fectivement de k ou bien si cest le cas des matrices de ponderation Q et R,
cela suppose de connatre ` a lavance lensemble des matrices pour k = 0 . . . n.
19
3.6.2 Crit`ere `a horizon inni
Cherchons la commande minimisant le crit`ere :
J =
1
2

k=0
x
T
(k)Qx(k) + u
T
(k)Ru(k). (89)
Il sagit du crit`ere precedent o` u n tend vers linni.
On peut montrer alors que pour un syst`eme LTI le gain du retour detat
est constant. Il secrit :
K = (R + B
T
PB)
1
B
T
PA (90)
o` u P est solution de lequation algebrique de Riccati discr`ete :
P = Q + A
T
(P PB(R + B
T
PB)
1
B
T
P)A. (91)
La resolution de cette equation non lineaire nest pas triviale. Des algorithmes
[10] sont disponibles dans les Toolboxes du logiciel Matlab [11].
3.7 Commande predictive
La commande lineaire quadratique sur un horizon a connu un succ`es par-
ticulier sous le nom de commande predictive. Il sagit dune famille de com-
mande qui se basent sur des predictions de levolution des signaux exterieurs
et des etats internes pour le calcul du signal de commande optimal. La com-
mande LQ, presentee precedemment, permet de faire tendre vers zero letat
interne dun syst`eme. La loi de commande obtenue peut etre utilisee dans
le but de suivre un signal de consigne (on retranchera alors la consigne ` a
letat utilise dans la loi de commande) et pour un rejet de perturbation (les
commande en boucle fermee ont des proprietes naturelles de rejet de per-
turbation). Toutefois, le probl`eme peut etre formule de mani`ere specique
pour chacun de ces probl`emes. On se limitera au cas des syst`emes `a temps
invariant. Ici, nous nous interessons ` a la formulation pour les syst`emes sous
forme de representation detat. Une formulation pour les fonctions de trans-
fert (approche polynomiale) est egalement disponible.
3.7.1 Suivi de consigne
On suppose que la consigne r(k) est connue `a lavance et on cherche la
commande permettant de minimiser le crit`ere :
J =
1
2
k=n

k=0
(x(k) r(k))
T
Q(x(k) r(k)) + u
T
(k)Ru(k) (92)
20
Souvent, on pref`ere considerer le crit`ere suivant :
J =
1
2
k=n

k=0
(x(k) r(k))
T
Q(x(k) r(k)) +
T
u
(k)R
u
(k) (93)
o` u
u
(k) = u(k) u(k 1). Ce crit`ere penalise lamplitude des variations
du signal dentree au lieu de penaliser directement son amplitude. Pour min-
imiser le crit`ere (93), il sut dajouter un integrateur
z
z1
sur chacune des
entrees du syst`eme et de poursuivre avec le crit`ere (92).
3.7.2 Rejet dune perturbation connue
Position du probl`eme. On consid`ere cette fois que le syst`eme est aecte
par une perturbation v(k) dont on est capable de predire levolution :
x(k + 1) = Ax(k) + Bu(k) + v(k) (94)
Le crit`ere ` a minimiser (68) est identique au cas general. La demarche est
identique au cas precedent en tenant compte du nouveau mod`ele.
Le Lagrangien secrit :
L =
k=n

k=0
_
1
2
x
T
(k)Qx(k) +
1
2
u
T
(k)Ru(k)
+p
T
(k + 1) (x(k + 1) + Ax(k) + Bu(k) + v(k))
_
(95)
Dans les equation (70-72), seule la troisi`eme equation est modiee :
L
p(k + 1)
= x(k + 1) + Ax(k) + Bu(k) + v(k) = 0 (96)
Lequation de la commande (73) est inchangee. En remplacant la commande
dans l equation (72) grace `a (73) et en reprenant (71), on obtient un syst`eme
dequations dont les inconnues sont les signaux x(k) et p(k).
Qx(k) p(k) + A
T
p(k + 1) = 0 (97)
x(k + 1) + Ax(k) BR
1
B
T
p(k + 1) + v(k) = 0 (98)
Pour letat, on connait la condition initiale x(0) ; pour letat adjoint, on
connait la condition nale p(n + 1) = 0. Il sagit donc dun probl`eme aux
deux-bouts. La methode de resolution generale consiste ` a ecrire lensemble
des relations et ` a resoudre le syst`eme matriciel ainsi obtenu.
21
Resolution. En considerant (97) pour k = 1, , n, on obtient le syst`eme :
_

_
I A
T
O O
O I A
T
O
.
.
.
.
.
.
.
.
.
O O I A
T
O O I
_

_
_

_
p(1)
.
.
.
p(n)
_

_
+
_

_
Q O
.
.
.
.
.
.
O Q
_

_
_

_
x(1)
.
.
.
x(n)
_

_
=
_

_
O
.
.
.
O
_

_
(99)
En notant S = BR
1
B
T
, lequation (98) donne pour k = 0, , n :
_

_
S O O
O S O
.
.
.
.
.
.
.
.
.
O O S
_

_
_

_
p(1)
.
.
.
p(n)
_

_
+
_

_
I O O
A I O O
O
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
O
O O A I
_

_
_

_
x(1)
.
.
.
x(n)
_

_
=
_

_
v(0) + Ax(0)
v(1)
.
.
.
v(n 1)
_

_
(100)
En notant x =
_

_
x(1)
.
.
.
x(n)
_

_
et p =
_

_
p(1)
.
.
.
p(n)
_

_
, le syst`eme (99-100) se reecrit sous
la forme :
M
11
p + M
12
x = O (101)
M
21
p + M
22
x = B
2
(102)
Les matrices M
11
et M
22
sont inversibles ; il est donc possible deliminer x
dans les equations, an dobtenir :
M
11
p = M
12
M
1
22
B
2
(103)
o` u M
11
= M
11
M
12
M
1
22
M
21
. Si M
11
est inversible, alors,
p = M
1
11
M
12
M
1
22
B
2
(104)
En realite, dapr`es (73), seul p(1) est utile pour calculer u(0). On calcule ainsi
u(0) et on lapplique `a linstant t
0
. A letape suivante (t
1
), au lieu dappliquer
u(1) qui vient detre calcule, on recommance la resolution du probl`eme en
tenant compte des nouvelles mesures.
Reecriture de la loi de commande. En notant :
B
2
= v + Ax(0) (105)
22
avec :
A =
_

_
A
O
.
.
.
O
_

_
, v =
_

_
v(0)
.
.
.
v(n 1)
_

_
,
on peut reecrire le vecteur des etats adjoints :
p = M
1
11
M
12
M
1
22
(Ax(0) v) (106)
Par ailleurs, on a :
p(1) = Cp
avec
C =
_
I O . . . O

.
On peut donc ecrire la commande sous la forme :
u(0) = Kx(0) + Lv (107)
avec L = R
1
B
T
CM
1
11
M
12
M
1
22
et K = LA.
Le calcul que nous venons de faire pour lintant initial k = 0 peut etre
fait pour tout instant k. En notant :
v(k) =
_

_
v(k)
.
.
.
v(k + n)
_

_
,
la loi de commande se reecrit :
u(k) = Kx(k) + Lv(k) (108)
On observe que la commande est un retour detat avec une compensation
de la perturbation. Le calcul de K et L sera fait `a lavance, hors ligne, an
dalleger la charge de calcul ` a eectuer en ligne.
La commande u(k) ` a appliquer `a linstant t
k
est determinee dapr`es la
valeur de letat au meme instant. Pourtant, un temps de calcul non nul est
necessaire pour realiser le calcul de la commande. En pratique, le calcul de
u(k) sera eectue pendant lintervalle [t
k1
, t
k
] en utilisant une prediction de
x(k) : x(k) = Ax(k 1) +Bu(k 1) +v(k 1). La loi de commande secrit
donc nalement :
u(k) = K x(k) + Lv(k) (109)
Des techniques destimation optimale peuvent etre utilisees pour determiner
la trajectoire de letat, notamment si lensemble de letat nest pas mesure.
23
Exemple illustratif. La commande a ete testee sur un syst`eme du second
ordre de fonction de transfert
7
:
H(s) =
1
s
2
+ 2
0
s +
2
0
(110)
avec
0
= 10 rad/s, = 2 et discretise `a T = 0.1 s en considerant en entree
un bloqueur dordre zero, ce qui donne comme representation detat :
_
A B
C D
_
=
_
_
0.7889 0.1465 0.0625
0.1250 0 0
0.0284 0.0662 0
_
_
(111)
Pour le crit`ere, on a choisit R = I et Q = 10
6
C
T
C an de minimiser la
sortie y. Lhorizon de prediction est choisi ` a n = 6. La perturbation est un
signal additif sur la commande, soit v(k) = Bw(k). Dans les simulations qui
suivent, on teste leet dun echelon de perturbation ` a k = 21 en presence de
condition initiale non nulle, soit w(k) = 1 si k 20 et w(k) = 0 si k < 20.
Le correcteur obtenu secrit :
K =
_
12.9867 1.8798

et
L =
_
12.8293 22.9263 2.5736 6.2616 0.1052 0.2258 ...
... 0.0069 0.0176 0.0005 0.0012 0.0000 0.0000

En plus du syst`eme asservi par le GPC avec mod`ele de la perturbation,


ont ete simules le syst`eme en boucle ouverte et le syst`eme asservi par un
retour detat statique K
0
regle par la methode LQR (crit`ere quadratique ` a
horizon inni) avec les memes matrices de ponderation que le GPC :
K
0
=
_
12.9867 1.8798

On remarque que dans le cas present, le correcteur LQR est sensiblement


identique ` a la partie retour detat du correcteur predictif.
Sur la gure 1, on observe que le correcteur predictif permet de mieux
rejeter la perturbation. Lecart de la commande entre les correcteurs GPC
et LQR sobserve sur la gure 2 : on note que la commande du correcteur
predictif commence ` a varier d`es k = 19 alors que le correcteur LQR ne peut
reagir qu` a partir de k > 20.
7. Le code Matlab de cet exemple est disponible sur http://eavr.u-strasbg.fr/
~
laroche/student/#MIRIV.
24
Figure 1 Allure des reponses des syst`emes
Figure 2 Allures de la perturbation et de la commande
Il faut toutefois preciser que ces simulation correspondent ` a une situ-
ation o` u la perturbation est supposee parfaitement connue. En realite, on
sera amene `a realiser une prediction de la perturbation en utilisant les ob-
25
servations passees. Lerreur de prediction entrainera une degradation des
resultats. Toutefois, les resultats devraient rester meilleurs que ceux obtenue
sans utiliser cette prediction. A titre dexemple dapplication, citons la com-
pensation des mouvements physiologiques en robotique chirurgicale. Pour
mieux stabiliser la portion du cur `a operer, un mod`ele de la perturbation
engendree par le battement cardiaque peut etre developpe [12].
26
4 Commande Lineaire Quadratique Gaussi-
enne
Par rapport ` a la commande LQ, la commande LQG presente linteret de
sappliquer ` a des syst`emes dont letat nest pas mesure. Developpee au debut
de la seconde moitie du 20
`eme
si`ecle et appliquee lors du programme spatial
Apollo pour la stabilisation de lanceurs, elle est apparu comme la premi`ere
methode generale pour lasservissement des syst`emes multivariables. De ce
fait, elle a connu un grand succ`es comme en temoigne les nombreuses publi-
cations sur le sujet. Depuis la n du 20
`eme
si`ecle, la commande H

apparat
comme un serieux concurrent pour lasservissement robuste des syst`emes
multivariables. Neanmoins, la commande LQG nen demeure pas moins un
standard industriel.
4.1 Formulation
Soit le syst`eme dynamique stochastique dequation detat :
_
x = Ax + Bu + v
y = Cx + w
(112)
o` u le bruit detat v et le bruit de mesure w sont des bruits blancs centres de
variance E{vv
T
} = V 0 et E{ww
T
} = W > 0. Le probl`eme LQG consiste
en la minimisation du crit`ere :
J(x
0
, t
0
, u) = lim
t
f

E
_
1
t
f
_
t
f
t
0
_
x
T
Qx + u
T
Ru
_
dt
_
, (113)
o` u Q 0 et R > 0. Du fait des entrees de bruit v et w, les grandeurs u
et x sont des grandeurs stochastiques. Comme crit`ere, il est ainsi naturel de
sinteresser `a lesperance dune integrale. Comme pour la commande LQ, il
est possible de considerer des crit`eres ` a temps ni.
4.2 Theor`eme de separation
La solution de ce probl`eme de commande optimale de processus stochas-
tique est bien connue sous le nom de theor`eme de separation
8
. Ce theor`eme
enonce que la solution du probl`eme est composee de deux parties :
un observateur de Kalman permettant de donner lestimee x de x qui
est non biaisee et ` a variance minimale,
8. En Anglais : Seperation Theorem ou Certainty Equivalence Principle.
27
la commande par retour detat u = K x ` a appliquer `a x o` u K est
calcule en considerant le probl`eme LQ correspondant (en enlevant v et
w de lequation detat et E dans le crit`ere).
Ce theor`eme est interessant dans la mesure o` u il donne la solution du probl`eme
complet comme etant la reunion des solutions de deux probl`emes plus sim-
ples et dej` a resolus : celui de la commande LQ et celui de lestimation de
Kalman. Pour une demonstration de ce theor`eme, cf. [2] 8.2 et [13].
4.3 Structure de la commande LQG
Lestimee optimale x est donnee par lobservateur dequation detat :

x = A x + Bu + L(y C x), (114)


o` u le gain de Kalman est :
L = C
T
W
1
, (115)
avec la solution de lequation algebrique de Riccati :
A
T
+ A C
T
W
1
C + V = 0. (116)
La commande etant donnee par u = K x, on peut reecrire les equations
de la commande dentree y et de sortie u :
_

x = (A BK LC) x + Ly
u = K x
(117)
Le suivi dune consigne y

se fera par la loi de commande u = C(s)(y

y)
o` u la fonction de transfert du correcteur est :
C(s) = K(sI A + BK + LC)
1
L. (118)
Ses equations detat sont :
_

x = (A BK LC) x + L
u = K x
(119)
o` u = y

y. Notons que ce correcteur LTI a le meme ordre que le processus.


28
4.4 Choix des ponderations
4.4.1 Generalites
Le reglage du correcteur LQG necessite la donnee de quatre matrices de
ponderation : Q et R pour le retour detat ; V et W pour lestimateur. La
methode de reglage la plus simple repose sur un reglage separe : regler V et W
de sorte que letat soit bien reconstruit et regler Q et R pour avoir un bon
retour detat. Si les dynamiques de la regulation sont relativement lentes
devant celles de lobservation, on peut supposer que letat est parfaitement
connu du point de vue du retour detat et la commande sera robuste (marge
de module egale `a 1). Si cette hypoth`ese nest pas respectee, et ce sera le cas
d`es que vous souhaiterez obtenir un regulateur avec des dynamiques elevees,
la robustesse nest plus assuree. La methode de reglage des ponderations Q
et R du retour detat vue au paragraphe precedent reste valable. Abordons
la question du reglage de lestimateur avant de presenter les methodes de
recouvrement du gain destinees `a rendre robuste la commande LQG.
4.4.2 Reglage de lestimateur detat
Lestimateur detat sappuie sur la commande u et sur la mesure y du
syst`eme pour donner lestimee de letat la plus plausible, compte-tenu des
incertitudes et bruits aectant le mod`ele et la mesure.
Une premi`ere approche du reglage du ltre concerne le cas o` u lhypoth`ese
de depart sur le mod`ele est respectee ; cest-` a-dire que le seul defaut du
mod`ele est detre aecte par des signaux stochastiques blancs. Dans ce cas,
le reglage se fera directement par une evaluation des variances des bruits.
Evaluer le bruit de mesure w en observant y est direct ; ce qui nest pas le cas
du bruit detat v. Ce bruit peut etre attribue ` a la commande u en choisissant
V = BV
u
B
T
, avec V
u
la variance du bruit de mesure.
Cependant, la principale source de bruit detat dun mod`ele provient
generalement des erreurs de modelisation qui sont deterministes et non stochas-
tiques. Neanmoins ces erreurs de modelisation sont generalement mal con-
nues et il nest pas aberrant den tenir compte globalement gr ace ` a un terme
stochastique. La validation du ltre de Kalman peut alors se faire en simu-
lation en introduisant des erreurs sur le mod`ele telles que des variations sur
ses param`etres.
4.4.3 Loop Transfert Recovery
Cf. [2] 8.4, p.236.
29
La presence dun observateur fait que les proprietes de robustesse du cor-
recteur LQ ne sont plus valables [14]. Les methodes de Loop Transfert Recov-
ery (LTR ou en Francais recouvrement du transfert de la boucle) consistent
` a modier les conditions de la synth`ese an de se rapprocher du transfert
qui serait obtenu avec un retour detat LQ. Si ce transfert est obtenu, la
robustesse est alors assuree. Depuis les premiers travaux de Doyle et Stein en
1981 [15], de nombreux travaux ont ete menes sur ce sujet [16, 17, 18]. Cest
cette premi`ere approche qui est presentee ici ; elle est egalement presentee
dans [6]. Elle a linconvenient de ne pas convenir aux syst`emes `a dephasage
non-minimal
9
. Des travaux ulterieurs se sont attaches ` a ce type de syst`eme
[19].
La methode de recouvrement repose sur lecriture de la matrice de co-
variance V de la forme :
V = V
0
+ q
2
BB
T
. (120)
On montre que le gain de la boucle ouverte C(s)G(s) tend vers K(sI A)
1
B,
celui du regulateur LQ, lorsque q tend vers linni. Ainsi, ` a partir dun cor-
recteur initial reposant sur les ponderations V
0
et W, on augmente petit-` a-
petit q jusqu` a obtenir la robustesse susante.
Une approche duale consiste `a retoucher le gain du retour detat en choi-
sissant la matrice de ponderation Q de la forme :
Q = Q
0
+ q
2
C
T
C. (121)
La methode reste la meme : on augmente q jusqu` a obtenir la robustesse
desiree. Dans tous les cas, laugmentation de la robustesse se fait au detriment
des performances et un compromis doit etre trouve.
4.5 Commande LQG `a temps discret
A limage de la commande LQG `a temps continu, la version ` a temps
discret consiste en la combinaison dun ltre de Kalman ` a temps discret et
dun retour detat. La methode LTR sapplique egalement.
9. Il sagit des syst`emes possedant des zeros `a partie reelle positive.
30
5 Commande H
2
Les commandes LQ et LQG peuvent se mettre sous une forme particuli`ere
dite forme standard. Il sagit alors de synthetiser un correcteur minimisant
une norme sur les signaux de transfert.
5.1 Norme H
2
La presentation de la norme H
2
reprend celle de [6], 1.2.
5.1.1 Denition
Soit G(s) le syst`eme LTI multivariable deni par :
_
x
z
_
=
_
A B
C D
_ _
x
v
_
(122)
avec D = O (syst`eme strictement propre
10
). On denit la norme matricielle
H
2
de ce syst`eme par :
||G||
2
=

_
1
2
_

tr [G
H
(j)G(j)] d
_
(123)
5.1.2 Proprietes
Soit g la reponse impulsionnelle du syst`eme. Dans le cas monovariable, le
theor`eme de Parseval donne une forme equivalente
11
:
||G||
2
2
=
_

0
g
T
(t)g(t)dt. (124)
Dans le cas monovariable, la norme H
2
du syst`eme est egale `a lenergie de la
reponse impulsionnelle.
Supposons maintenant que v soit un bruit blanc gaussien veriant
10. Cette restriction est necessaire pour que la norme du syst`eme soit nie.
11. On rappelle que la fonction de transfert est la transformee de Laplace de la reponse
impulsionnelle.
31
E{v(t)v
T
()} = I(t ) et calculons la puissance de sortie :
E{z
T
z} = tr
_
E{zz
T
}

= tr
_
E
__
+

_
+

g(t
1
)v(
1
)v
T
(
2
)g
T
(t
2
)d
1
d
2
__
= tr
__
+

_
+

g(t
1
)E
_
v(
1
)v
T
(
2
)
_
g
T
(t
2
)d
1
d
2
_
= tr
__
+

g(t )g
T
(t )d
_
= tr
__
+

g()g
T
()d
_
=
_
+

tr
_
g
T
()g()

d
=
1
2
_
+

tr
_
G
H
(j)G(j)

d
= ||G||
2
Ainsi, la norme H
2
est la puissance de sortie lorsque le syst`eme est alimente
pas un bruit blanc gaussien unitaire.
5.1.3 Calcul
La norme H
2
peut etre calculee pour tous les syst`emes strictement propres
(D = O) et strictement stables. En eet, elle peut secrire ainsi :
||G||
2
2
=
_

0
tr
_
g
T
(t)g(t)

dt (125)
= tr
_

0
_
B
T
exp(A
T
t)C
T
_
(C exp(At)B) dt (126)
= tr
_
B
T
_

0
exp(A
T
t)C
T
C exp(At)dtB
_
(127)
ou encore :
||G||
2
2
=
_

0
tr
_
g(t)g
T
(t)

dt (128)
= tr
_

0
(C exp(At)B)
_
B
T
exp(A
T
t)C
T
_
dt (129)
= tr
_
C
_

0
exp(At)BB
T
exp(A
T
t)dtC
T
_
(130)
32
soit :
||G||
2
2
= tr
_
B
T
W
o
B

= tr
_
CW
c
C
T

(131)
o` u W
o
et W
c
sont les gramiens de commandabilite et dobservabilite :
W
o
=
_

0
exp(At)BB
T
exp(A
T
t)dt (132)
W
c
=
_

0
exp(A
T
t)C
T
C exp(At)dt (133)
Ils peuvent etre obtenus comme les solutions des equations de Lyapunov
12
suivantes :
AW
c
+ W
c
A
T
+ BB
T
= 0 (134)
A
T
W
o
+ W
o
A + C
T
C = 0 (135)
En eet, partons de :
d
dt
_
exp(At)BB
T
exp(A
T
t)

= Aexp(At)BB
T
exp(A
T
t)+exp(At)BB
T
exp(A
T
t)A
T
.
(136)
En notant que pour un syst`eme stable :
lim
t
exp(At) = 0, (137)
et en integrant sur [0, ], on obtient directement les deux equations de Lya-
punov. Cest cette methode qui est utilisee dans les Toolboxes de Matlab
pour le calcul de la norme H
2
[11].
5.1.4 Formulation LMI
Les inegalites matricielles anes (LMI pour inegalites matricielles lineaires)
sont devenues un outil classique de lautomatique. Ils sont ` a la base de nom-
breuses methodes innovantes et les methodes classiques ont generalement une
formulation LMI. Une introduction sur les LMI est developpee en Annexe B.
Voici la formulation LMI de la norme H
2
[20].
12. Dapr`es la theorie de Lyapunov, lequation AX+X
T
A+Q = 0 dinconnue X, avec Q
symetrique denie positive, a une solution positive si A est Hurwitz (ses poles sont `a partie
reelle strictement negative). Alors une solution symetrique peut etre facilement obtenue
par la resolution dun syst`eme de n(n + 1) equations lineaires `a autant dinconnues (les
composantes de X), o` u n est la dimension de A. La resolution de lequation de Lyapunov
est disponible dans les Toolboxes [11].
33
Soit S
0
la solution de lequation de Lyapunov (134), cest-` a-dire veriant :
AS
0
+ S
0
A
T
+ BB
T
= 0, (138)
avec S
0
= S
T
0
0. Alors toute matrice S veriant :
AS + SA
T
+ BB
T
< 0 (139)
verie aussi S > S
0
.
Le syst`eme G(s) stable avec D = 0 verie ||G||
2
2
< si et seulement si il
existe une matrice symetrique positive, :
S > 0, (140)
veriant (139) et :
tr
_
CSC
T

< . (141)
Lensemble des inegalites (139-141) constitue un syst`eme LMI et peut se
resoudre avec les solveurs disponibles [21, 22].
5.2 Probl`eme standard
Soit le syst`eme dynamique LTI dequations detat :
_
_
x
z
y
_
_
=
_
_
A B
1
B
2
C
1
D
11
D
12
C
2
D
21
D
22
_
_
_
_
x
v
u
_
_
(142)
qui peut aussi secrire sous forme de fonction de transfert :
_
z(s)
y(s)
_
=
_
G
11
(s) G
12
(s)
G
21
(s) G
22
(s)
_ _
v(s)
u(s)
_
(143)
avec :
G
11
(s) = D
11
+ C
1
(sI A)
1
B
1
G
12
(s) = D
12
+ C
1
(sI A)
1
B
2
G
21
(s) = D
21
+ C
2
(sI A)
1
B
1
G
22
(s) = D
22
+ C
2
(sI A)
1
B
2
(144)
On appelle probl`eme standard le probl`eme consistant `a trouver la loi de
commande :
u(s) = K(s)y(s) (145)
tel que le transfert T
zv
entre v et z, du syst`eme boucle, minimise une norme
matricielle donnee.
En considerant la norme H
2
, on parlera de synth`ese H
2
standard. Une
autre technique populaire repose sur la norme H

13
et fait lobjet dun
enseignement specique de la formation.
13. La norme H

dun syst`eme G(s) est le maximum pour [0, ] de la plus grande


des valeurs singuli`eres de G(j).
34
5.3 Equivalence H
2
et LQG
Considerons dabord le cas de la commande LQ avec le crit`ere :
J =
_

0
_
x
T
Qx + u
T
Ru
_
dt. (146)
Ce crit`ere peut secrire :
J =
_

0
z
T
(t)z(t)dt. (147)
avec :
z =
_
Q
1/2
x
R
1/2
u
_
(148)
En utilisant le theor`eme de Parseval , on obtient :
J =
1
2
_

Z
H
(j)Z(j)d. (149)
o` u Z(s) est la transformee de Laplace de z. En boucle fermee et en absence
de signal exog`ene, z ne depend que de la condition initiale et on a Z(s) =
M(s)x
0
. On a alors :
J = tr
_
1
2
_

x
T
0
M
H
(j)M(j)x
0
d
_
(150)
=
x
T
0
x
0
2
_

tr
_
M
H
(j)M(j)

d (151)
= ||M||
2
2
x
2
0
(152)
La commande LQ est alors la commande minimisant la norme H
2
du transfert
entre x
0
et z.
Considerons desormais la commande LQG et posons :
v = L (153)
w = N (154)
o` u et sont des bruits blancs de variance unitaire. On montre alors que le
correcteur LQG est equivalent au correcteur H
2
minimisant le transfert entre
[
T

T
]
T
et z = [x
T
Q
1/2
u
T
R
1/2
]
T
[17].
35
6 Forme LQG equivalente
Un correcteur quelconque de meme ordre que le processus peut se met-
tre sous la forme dun correcteur LQG. Cette possibilite, expliquee dans ce
paragraphe, presente plusieurs interets. Tout dabord, cela signie quun cor-
recteur initial obtenu par une autre methode et que lon voudrait ameliorer
gr ace `a une synth`ese LQG peut servir de point de depart pour le reglage des
ponderations. Ensuite, la methode LQG a comme interet que les etats du cor-
recteur sont les estimees des etats du syst`eme ; ils peuvent donc etre utilises
dans un but de diagnostic ou de supervision. Dans ce cas, il est interessant
dimplanter le correcteur sous forme LQG quelle que soit la methode de
synth`ese. Lobtention de cette forme LQG equivalente repose sur une pro-
priete particuli`ere de cette forme, donnant lieu `a ce quon appelle la parametrisation
de Youla. Des complements sur la forme LQG equivalente peuvent etre
trouves dans les references [23, 24].
6.1 Parametrisation de Youla du correcteur LQG
Considerons le syst`eme complet compose du processus et de sa commande
LQG avec le signal dentree w tel que u = w K
c
x et comme sortie lerreur
destimation de la sortie, egalement appelee innovation,
y
= y y = y C x.
La representation detat de ce syst`eme boucle secrit :
_
_
_
x = Ax BK x + Bw

x = LCx + (A BK LC) x

y
= Cx C x
(155)
En utilisant comme vecteur detat :
_
x

x
_
=
_
x
x x
_
, (156)
le mod`ele secrit :
_
_
_
x = (A BK)x BK
x
+ Bw

x
= (A LC)
x

y
= C
x
(157)
De par sa structure, il apparat que ce syst`eme presente n p oles non observ-
ables (les valeurs propres de ABK qui sont independants du gain dobserva-
tion L) et n p oles non commandables (les valeurs propres de ALC qui sont
independantes du gain de la commande K). Il sagit l`a dune autre expres-
sion du principe de separation : les p oles du syst`eme boucle sont reglables
36
independamment par le gain de la commande et par le gain de lobserva-
teur
14
. Ainsi, aucun mode du syst`eme nest ` a la fois commandable (par
lentree w) et observable (par la sortie
y
). Le transfert entre w et
y
est
donc nul. On peut alors ajouter un transfert N(s) quelconque sans changer
le comportement du syst`eme. Ce parametrage du correcteur par un bouclage
sur un transfert exterieur N(s) est appele parametrisation de Youla .
En notant le mod`ele de N(s) :
_
x
N
= A
N
x
N
+ B
N

y
w = C
N
x
N
+ D
N

y
(158)
on peut alors ecrire les equations du correcteur :
_
_
_

x = (A LC BK BD
N
C) x + BC
N
x
N
+ (L + BD
N
)y
x
N
= B
N
C x + A
N
x
N
+ B
N
y
u = (K + D
N
C) x + C
N
x
N
+ D
N
y
(159)
6.2 Calcul des param`etres
Cherchons sil est possible dobtenir un correcteur LQG (cest-` a-dire les
gains K et L ainsi que le syst`eme N(s)) identique ` a un correcteur {A
K
, B
K
, C
K
, D
K
}
quelconque dordre n. Pour que les correcteurs soient de meme ordre, N(s)
doit etre statique, cest-` a-dire que seul D
N
est non nul parmi les matrices
detat de N(s). Le mod`ele du correcteur LQG secrit alors :
_

x = (A LC BK BD
N
C) x + (L + BD
N
)y
u = (K + D
N
C) x + D
N
y
(160)
Les deux correcteurs sont identiques du point de vue entree/sortie sil existe
un changement detat T :
x
K
= T x (161)
tel que
T
1
A
K
T = A LC BK BD
N
C (162)
T
1
B
K
= L + BD
N
(163)
C
K
T = K D
N
C (164)
D
K
= D
N
(165)
14. An de mieux visualiser ce resultat, le lecteur est invite `a representer graphiquement
le syst`eme dequations (157)
37
ce qui secrit :
D
N
= D
K
(166)
K = C
K
T D
K
C (167)
L = T
1
B
K
BD
K
(168)
0 = TBC
K
T T(A BD
K
C) + A
K
T + B
K
C (169)
La derni`ere equation est une equation algebrique de Riccati non symetrique
(GNARE pour Generalized Non-symetric Algebraic Riccati Equation) et
peut se mettre sous la forme hamiltonienne :
[T I]
_
A + BD
K
C BC
K
B
K
C A
K
_ _
I
T
_
= 0. (170)
Pour la resolution, cf. [24]. Une fois T determine, les matrices K, L et D
N
peuvent etre calculees.
6.3 Application `a linterpolation de correcteurs
Une application de ces techniques est la synth`ese de correcteurs ` a gains
sequences (gain scheduling en anglais) ` a partir dinterpolation de correcteurs
LTI. Imaginez que le comportement du syst`eme ` a asservir varie en fonction
dune variable dite variable de sequencement. Pour dierentes valeurs con-
stantes
k
de , le comportement de votre syst`eme est lineaire et connu
(par des lois de la physique ou par identication). On peut alors synthetiser
une batterie de correcteurs LTI K
k
(s) valables pour les dierents points de
fonctionnement. La question est maintenant de determiner un correcteur val-
able pour toute la plage de fonctionnement par interpolation des correcteurs
K
k
(s). Ce correcteur dependra bien s ur de et on peut le noter K

(s).
La question de linterpolation de deux mod`eles nest pas triviale. Bien en-
tendu, lidee dinterpoler directement les matrices de la representation detat
na pas beaucoup de sens si rien nest fait pour que les variables detat aient
le meme sens physique. En utilisant une representation detat particuli`ere,
la representation equilibree (balanced en anglais), le resultat nest pas non
plus satisfaisant. En eet, on observe que les poles nevoluent pas de mani`ere
reguli`ere entre deux points dinterpolation, meme proches [25].
Une des methodes presentes dans la litterature et qui donne de bons
resultats consiste ` a interpoler les gains dobservation et de commande de
la representation LQG equivalente, etablie ` a partir du mod`ele nominal du
processus. Dans le cas o` u le correcteur est dordre superieur au syst`eme (cest
generalement le cas des commandes H

), on determine tout dabord une


38
representation detat augmentee du mod`ele nominal du processus en ajoutant
des etats non commandables ou non observables an de garder un param`etre
de Youla statique.
39
Annexes
40
A Optimisation et calcul des variations
A.1 Optimisation
A.1.1 Notations
Soit un vecteur x dans R
n
de variables de desision et soit un crit`ere J(x)
` a valeur dans R denie sur E R
n
.
On note
J
(x) =
dJ
dx
(x) le gradient de la fonction de J. Il sagit dune
fonction de R
n
vers R
n
. La k
`eme
composante de
J
(x) secrit
J
x
k
(x).
On note H
J
(x) =
d
2
J
dx
2
(x) le Hessien de la fonction de J. Il sagit dune
fonction de R
n
vers R
nn
. La composante (k, l) de H
J
(x) secrit

2
J
x
k
x
l
(x).
A.1.2 Denitions
Denition 1 (Minimum global)
La fonction J presente un mimimum global en x
0
E si J(x) > J(x
0
) x =
x
0
.
Denition 2 (Minimum local)
La fonction J presente un mimimum local en x
0
E sil existe un voisinage
V de x
0
tel que J(x) > J(x
0
) x V \x = x
0
.
A.1.3 Optimisation sans contrainte
Lemme 1 (Condition du premier ordre dexistence dun extremum)
Si le crit`ere J presente un extremum en x
0
, alors on a
dJ
dx
(x
0
) = 0.
Cette condition du premier ordre nest pas susante car la connaissance
des derivees dordre superieur sont necessaires pour conclure ` a la presence
dun extremum et ` a la determination du type dextremum (minimum ou
maximum).
Lemme 2 (Condition susante dexistence dun extremum)
Si
dJ
dx
(x
0
) = 0 et si
d
2
J
dx
2
(x
0
) > 0
15
, alors le crit`ere J presente un minimum
en x
0
.
Si
dJ
dx
(x
0
) = 0 et si
d
2
J
dx
2
(x
0
) < 0, alors le crit`ere J presente un minimum
en x
0
.
15. Cette inegalite doit etre lue au sens des inegalites matricielles, cest-`a-dire que le
Hessien doit etre deni positif, ce qui revient aussi `a dire que ses valeurs propres sont
toutes strictement positives.
41
Dans lhypoth`ese o` u les conditions precedentes ne seraient pas satisfaites,
il faut etudier les conditions dordre superieures. On est en presence dun
extremum si la premi`ere derivee non nulle est dordre pair
16
.
A.1.4 Optimisation avec contrainte
Interessons nous desormais `a la minimisation de J(x) sous la contrainte
(x) = O
p1
. La recherche du minimum se fait par lintroduction dun vecteur
de R
p
appele Lagrangien et par lintroduction dun crit`ere modie

J(x, ) =
J(x) +
T
(x).
Lemme 3 (Condition du premier ordre dexistence dun extremum)
Pour que x
0
soit solution du probl`eme dextrema sous contrainte ci-dessus, il
faut quil existe un Lagrangien
0
qui satisfasse les conditions suivantes :


J
x
(x
0
,
0
) = O
n1
(171)

(x
0
,
0
) = O
p1
(172)
Exercice 1 (Minimisation sous contrainte)
Pour x R
2
, on consid`ere le crit`ere J(x) = x
T
x et la contrainte px = 1 o` u
p =
_
1 1

. Touvez la solution du probl`eme de minimisation sous contrainte.


A.2 Calcul des variations
A.2.1 Problematique
Le calcul des variations est `a la base des methodes de la commande op-
timale. Dans ce paragraphe, nous nous contentons de donner un exemple
introductif. Dans ce cas, linconnue nest plus un scalaire ni un vecteur, mais
une fonction. Autrement dit, la solution du probl`eme est cherchee dans un
espace de dimension innie.
On cherche une fonction y(x) minimisant une integrale de la forme :
J(y) =
_
b
a
(y(x), y(x), x)dx.
Notant y

(x) la fonction optimale qui doit verier :


J(y) J(y

) y (173)
16. En eet, les fonctions polynomiales x
k
poss`edent un minimum en 0 pour k pair mais
pas pour k impair.
42
Largument de J est une fonction ; on qualie souvent J de fonctionnelle,
cest-` a-dire de fonction de fonction.
En notant y une petite variation de la fonction y, et y la variation de
sa derivee correspondante, on a :
J(y + y)
_
b
a
_
(y, y, x) +

y
(y, y, x)y(x) +

y
(y, y, x) y(x)
_
dx
J(y) +
_
b
a
_

y
(y, y, x)y(x) +

y
(y, y, x) y(x)
_
dx (174)
Pour la trajectoire optimale, il faut que

y
(y, y, x)y(x) +

y
(y, y, x) y(x)
soit nul tout au long de la trajectoire.
A.2.2

Equation dEuler-Lagrange
La condition du premier ordre est donnee par la condition dEuler-Lagrange.
Lemme 4 (

Equation dEuler-Lagrange)
La fonction optimale y(x) verie lequation suivante :

y

d
dx
_

y
_
= 0 (175)
Dans le cas o` u ne depend pas explicitement de x, la formule dEuler-
Lagrange se reformule de la mani`ere suivante :
Lemme 5 (Formule de Beltrami)
La fonction optimale y(x) verie lequation suivante :
y

y
= k (176)
o` u k est une constance.
Demonstration 1
La formule dEuler-Lagrange se reecrit :

y


2

y y
y

2

y
2
y = 0 (177)
En calculant la derivee par rapport `a x de y

y
, on obtient apr`es deux
lignes de calcul :
d
dx
_
y

y
_
= y
_

y
y

2

y y
y

y
2
_
(178)
= 0 (179)
43
A.2.3 Prise en compte des conditions initiales et nales
Les conditions initiales et nales peuvent etre libres o` u imposees. On peut
imposer linstant et/ou la valeurs de la fonction y. Considerons un crit`ere
integrant eventuellement une penalite sur les conditions initiales et nales,
de la forme :
J =
_
b
a
(y(x), y(x), x)dx + (a, b, y(a), y(b)) (180)
Les conditions correspondantes, appelees conditions de transversalite, secrivent :
_

y
(a)

y(a)
_
x(a) +
_
(a)

y
(a) y(a)

a
_
a = 0 (181)
_

y
(b) +

y(b)
_
x(b) +
_
(b)

y
(b) y(b) +

b
_
b = 0 (182)
o` u (a) = (y(a), y(a), a) et (b) = (y(b), y(b), b), pour alleger lecriture.
Exercice 2 (Trajecoire optimale)
Determinez la trajectoire y(x) optimale minimisant le crit`ere
_
b
a
(x y(x) +
y
2
(x))dt avec a = 0, y(a) = 1, y(b) = 5 et b libre.
A.2.4 Prise en compte de contraintes
Considerons le cas dune minimisation du crit`ere (180) avec les contraintes
suivantes :
contrainte integrale
_
b
a
r(y, y, x)dx = 0, r() R
r
contrainte intantanee s(y, y, x) = 0, s() R
s
La resolution se fait en introduisant les multiplieurs de Lagrange R
r
et (x) R
s
et en substituant ` a la fonction le Hamiltonien :
H(y, y, x, , ) = (y, y, x) +
T
r(y, y, x) +
T
(x)s(y, y, x).
Lequation dEuler-Lagrange est inchangee :
H
y

d
dx
_
H
y
_
= 0 (183)
Probl`eme de Didon. Ce probl`eme bien connu
17
est lie ` a la fondation de
Carthage
18
. Didon se trouvait devant le probl`eme de maximiser laire de la
cite entouree par les remparts pour une longueur de rempart donnee.
17. Voir par exemple sur http://serge.mehl.free.fr/anx/cv_didon.html.
18. http://serge.mehl.free.fr/anx/pb_didon.html
44
Figure 3 Probl`eme de Didon
??
Mathematiquement, en partant de la gure 3, on peut se ramener `a
deux variables (x, y) et considerer y comme fonction de x ` a determiner.
Il sagit de maximiser la surface
_
x=b
x=a
y(x)dx tout en gardant le perim`etre
_
x=b
x=a
_
1 + y
2
(x)dx egal ` a L.
On note H(y, y, ) = y +
_
1 + y
2
le Lagrangien. Comme il ne depend
pas explicitement de x, on peut utiliser la formule de Beltrami, ce qui donne
y
_
1 + y
2
+
y
2

1+ y
2
= k. Cette relation se reecrit sous la forme (yk)
2
(1+
y
2
) =
2
. Il sagit desormais de montrer que la courbe est un cercle et de
caracteriser ce cercle. En posant Y = y k et en remplacant y par
dy
dx
, on
obtient 1 +
_
dy
dx
_
2
=

2
Y
2
, ce qui donne
Y

2
Y
2
dY = dx. En primitivant,
on obtient

2
Y
2
= x c o` u c est une constante dintegration ; le signe
positif est necessaire pour que lequation soir denie sur [a, b]. Lequation
secrit alors (yk)
2
+(xc)
2
=
2
, ce qui est lequation dun cercle de centre
dabscisse c et dordonnee k qui peuvent etre obtenus par des considerations
geometriques.
Probl`eme du brachistochrone. Soit un plan vertical de rep`ere (0, x, y)
o` u x est laxe horizontal et y est laxe vertival ascendant. Le probl`eme du
brachistochrone
19
, etudie et nomme par Jean Bernouilli, consiste `a determiner
la trajectoire permettant ` a une bille posee en (0, h) datteindre la position
nale (l, 0) le plus rapidement possible. Linconnue etant la courbe y(x).
Exercice 3 (Brachistochrone)
Pour une trajectoire de la bille (x(t), y(t)) debutant en (0, 0) avec une vitesse
nulle et terminant en un point precis (l, h), on se propose de vous guider
vers lobtention de la trajectoire optimale :
19. Voir http://fr.wikipedia.org/wiki/Courbe_brachistochrone.
45
1. Montrez que le module de la vitesse de la bille en un point (x, y) est
egal `a

2gy.
2. Calculez lexpression de la vitesse de progression selon x en fonction de
laltitude y et de la derivee y

= dy/dx de laltitude.
3. Montrez que le temps
t
mis par la bille pour parcourir lensemble du
trajet secrit :

t
=
_
x=l
x=0

1 + y
2
(x)
2gy(x)
dx (184)
4. A partir de lequation de Beltrami, montrez que la solution optimale
verie une equation dierentielle de la forme :
(1 + y
2
(x)) y(x) = k (185)
5. Par un changement de variable y

(x) = cotan(/2), montrez que la


solution est de la forme :
x() = a + b( sin()) (186)
y() = c + d( cos()) (187)
6. Determinez la constante et tracez lallure de la solution. Vous pourrez
prendre comme application numerique l = 1 et h = 0, 4.
46
B Syst`emes lineaires multivariables
Recapitulons les resultats fondamentaux concernant les syst`emes multi-
variables lineaires, tout dabord `a temps invariant (LTI) puis `a temps variant
(LTV).
B.1 Generalites
Soit le syst`eme LTI deni par :
_
x = Ax + Bu
y = Cx + Du
(188)
o` u A R
nn
, B R
nm
, C R
pn
et D R
pm
. La fonction de transfert
de ce syst`eme secrit :
H(s) = D + C(sI
n
A)
1
B. (189)
o` u H(s) R
pm
. Elle est invariante par changement detat x = Px o` u
P R
nn
est inversible. Le syst`eme sera indieremment represente par sa
fonction de transfert ou par sa representation detat.
B.2 P oles
On appelle p oles du syst`eme les poles de la fonction de transfert qui sont
(par denition) aussi les valeurs propres de A. Ces p oles sont invariants par
changement detat.
Le syst`eme est stable si ses p oles sont ` a parties reelles strictement negatives.
La matrice A dun tel syst`eme est dit Hurwitz.
B.3 Commandabilite et observabilite
Un syst`eme est dit gouvernable sil existe un retour detat qui le stabilise ;
cest-` a-dire quil existe K R
mn
tel que ABK soit Hurwitz. Puisque cette
propriete ne concerne que les matrices A et B, on dit que la paire {A, B} est
gouvernable.
Un syst`eme est dit commandable si on peut imposer arbitrairement les
p oles du syst`eme boucle par un retour detat, cest-` a-dire les p oles de A
BK. La commandabilite est une condition plus forte que la gouvernabilite.
La commandabilite dun syst`eme correspond ` a la stabilisabilite des modes
instables. La paire {A, B} est commandable si la matrice de commandabilite :
_
B AB . . . A
n1
B

(190)
47
est de rang n.
Un syst`eme est dit detectable sil existe un observateur detat stable ; cest-
` a-dire sil existe L R
np
tel que A LC soit Hurwitz. On dit que la paire
{A, C} est detectable.
Un syst`eme est dit observable si on peut imposer arbitrairement les p oles
de son observateur detat, cest-`a-dire les p oles de ALC. Lobservabilite est
une condition plus forte que la detectabilite. La paire {A, C} est observable
si la matrice dobservabilite :
_

_
C
CA
.
.
.
CA
n1
_

_
(191)
est de rang n.
Les proprietes de commandabilite et dobservabilite sont duales. Ainsi,
{A, C} est observable si et seulement si {A
T
, C
T
} est commandable. Il en est
de meme pour la gouvernabilite et la detectabilite.
B.4 Syst`eme lineaire `a temps variant
B.4.1 Mod`ele LTV
Soit le syst`eme LTV deni par :
_
x = A(t)x + B(t)u
y = C(t)x + D(t)u
(192)
Sa matrice de transition (t, t
0
) est denie par :
_
d
dt
(t, t
0
) = A(t)(t, t
0
),
(t
0
, t
0
) = I
n
,
(193)
o` u I
n
est la matrice unite dordre n. La trajectoire de letat secrit alors :
x = (t, t
0
)x
0
+
_
t
t
0

1
(, t)B()u()d (194)
o` u x
0
= x(t
0
). Lecriture de x sous cette forme a le merite de faire ap-
paratre deux termes : lun issu de la condition initiale et lautre du sig-
nal de commande. Dans le cas dun syst`eme LTI, la matrice de transi-
tion secrit (t
0
, t) = exp(A(t t
0
)). Une propriete interessante est que
(t, t
0
) =
1
(t
0
, t).
48
B.4.2 Observabilite
De mani`ere generale, un syst`eme non lineaire est observable si on peut
determiner son etat initial ` a partir de lenregistrement de sa sortie sur un
certain horizon. Une fois connu letat initial, la trajectoire peut alors etre
enti`erement reconstruite `a partir du mod`ele.
Supposons pour simplier les calculs que lentree est nulle (u = 0) ; le
signal de sortie secrit y() = C(, t
0
)x
0
. Multiplions cette relation `a gauche
par
T
(, t
0
)C
T
et integrons sur [t
0
, t
1
], on obtient alors :
_
t
1
t
0

T
(, t
0
)C
T
y()d =
_
t
1
t
0

T
(, t
0
)C
T
C(, t
0
)d
. .
W
o
(t
0
,t
1
)
x
0
. (195)
La condition initiale x
0
est alors obtenue en multipliant ` a gauche par W
o
(t
0
, t
1
)
1
.
Le syst`eme est donc observable si le gramien dobservabilite W
o
(t
0
, t
1
) est
deni
20
(non singulier) [26]. Lobservabilite peut dependre de la trajectoire
de letat, celle-ci dependant du signal dentree ; un signal dentree rendant le
syst`eme observable est dit entree universelle.
B.4.3 Commandabilite
De mani`ere generale, un syst`eme est dit (compl`etement) commandable si,
` a partir dune condition initiale x
0
= x(t
0
), on peut trouver une commande
u permettant datteindre tout etat nal arbitraire x
f
= x(t
f
) avec t
f
> t
0
.
Remarquons que cette notion de commandabilite est equivalente ` a la possi-
bilite de suivre une trajectoire quelconque pour letat, ` a condition toutefois
que cette trajectoire soit susamment reguli`ere.
Le syst`eme LTV (192) est commandable sur lhorizon [t
0
, t
f
] si et seule-
ment si son gramien de commandabilite :
W
c
(t
0
, t
f
) =
_
t
f
t
0

1
(t
0
, )BB
T

T
(t
0
, )d (196)
est deni.
Le caract`ere susant de cette condition se montre en considerant la com-
mande :
u = B
T
(t)
T
(t
0
, t)W
1
c
(t
0
, t
f
)
_
x
f

1
(t
0
, t
f
)x
0
_
(197)
20. Toutes les valeurs propres de W
o
(t
0
, t
1
) sont reelles et positives puisque quelle est
symetrique.
49
C Analyse des syst`emes asservis multivari-
ables
C.1 Position du probl`eme
Considerons un processus lineaire multivariable y = G(s)u asservi par
un correcteur K(s), avec n
u
entrees et n
y
sorties. En tenant compte de la
consigne r et dune perturbation d en entree du processus, les equations
secrivent :
u = K(s)(r y) (198)
y = G(s)(u + d) (199)
En notant S
y
(s) = (I
n
y
+ K(s)G(s))
1
la sensibilite en sortie et S
u
(s) =
(I
n
u
+G(s)K(s))
1
la sensibilite en entree, on obtient les transferts en boucle
fermes suivants :
= S
y
(s)r S
y
(s)G(s)d (200)
u = K(s)S
y
(s)r K(s)S
y
(s)G(s)d (201)
= S
u
(s)K(s)r S
u
(s)K(s)G(s)d (202)
y = S
y
(s)G(s)K(s)r + S
y
(s)G(s)d (203)
(204)
o` u = r y est lerreur de regulation.
Les objectifs de ce schema general dasservissement sont les suivants :
stabilite,
robustesse,
un bon suivi de trajectoire,
un bon rejet des perturbations.
Voici comment les evaluer ` a partir de la representation frequentielle des trans-
ferts en boucle fermee.
Les outils classiques de lautomatique monovariable (lieu de Bode, de
Black et de Nyquist) ne sont pas directement utilisables en multivariable.
Les outils presentes sappuient sur le trace des valeurs singuli`eres, extension
de la notion de gain.
C.2 Valeur singuli`ere
Denition 3 Les valeurs singuli`eres dune matrice complexe M sont les
racines carrees des valeurs propres de M
H
M o` u M
H
est le hermitien (trans-
pose conjugue) de M. On les note
i
(M).
50
Propriete 1 (Proprietes generales)
Les valeurs singuli`eres sont des nombres reels positifs.
Les valeurs singuli`eres non nulles de M sont identiques `a celles de M
H
(invariance par loperation transpose/conjugue)
Les valeurs singuli`eres non nulles sont au plus au nombre de min(n
u
, n
y
),
la plus petite dimension de M.
Propriete 2 (Norme matricielle) La valeur singuli`ere maximale (M)
est une norme matricielle. Les proprietes generales des normes sappliquent
donc.
(M) = ||(M)
(M + N) (M) + (N)
(MN) (M)(N)
Propriete 3 (Inversion de matrice) M est inversible si et seulement si
sa plus petite valeur singuli`ere est non nulle ((M) > 0). Alors, (M) =
1
(M
1
)
et (M) =
1
(M
1
)
.
On en deduit les proprietes suivantes :
Propriete 4 (M) = ||(M)
(M + N) (M) + (N)
(M)(N) (MN)
Propriete 5 (Interpretation) La norme est la norme induite sur les
matrices par la norme euclidienne des vecteurs :
(M) = max
z=0
||Mz||
2
||z||
2

2
(M) = max
z=0
z
H
M
H
Mz
z
H
z
(205)
Ainsi, la norme est lamplication maximale du syst`eme de transfert M.
C.3 Trace des valeurs singuli`eres
Pour un transfert dynamique multivariable M(s), la representation frequentielle
consiste en le trace des valeurs singuli`eres de M(j) en fonction de sur
[0, ]. Lechelle logarithmique est generalement choisie pour les abscisses et
les ordonnees. Ce trace generalise celui du gain aux syst`emes multivariables.
51
Denition 4 (Norme H

) La norme H

de M(s), notee ||M||

est la
borne superieure des valeurs singuli`eres maximales de M(j) lorsque varie
sur [0, ] :
||M||

= sup
[0,]
(M(j)) (206)
Denition 5 (Norme L
2
sur les signaux) Soit z un signal `a valeur reelle
ou complexe sur [0, ] ; on note ||z||
2
sa norme L
2
denie par :
||z||
2
=
_

0
z
H
(t)z(t)dt (207)
Propriete 6 (Interpretation de la norme H

) La norme H

est la norme
induite sur les syst`emes par la norme L
2
sur les signaux :
||M(s)||

= max
z=0
||M(s)z||
2
||z||
2
(208)
Ainsi, la norme ||M(s)||

est lamplication maximale.


Des crit`eres de stabilite, robustesse, qualite du suivi de trajectoire et
qualite du rejet de perturbation peuvent sevaluer ` a partir des representations
frequentielles de certains transferts du syst`eme boucle. Cela fait lobjet des
paragraphes suivants. Pour obtenir les valeurs singuli`eres dun syst`emes dy-
namique, vous pouvez utiliser sous Matlab la fonction sigma de la Control
System Toolbox ou la fonction vsvd de la -Analysis and Synthesis Toolbox.
C.4 Stabilite
La stabilite est evaluable ` a partir du lieu des poles (tous les poles de la
boucle fermee doivent etre `a partie reelle strictement positive), ce qui sevalue
en multivariable de la meme mani`ere quen monovariable. Cependant, on sait
que la stabilite ne sut pas et que des marges sont necessaires. La marge
de module est denie en monovariable comme la distance minimale au point
1 du transfert complexe en boucle ouverte, ce qui secrit avec les notations
utilisees :

M
= min

|1 + K(j)G(j)|. (209)
En notant que :
min

|1 + K(j)G(j)| = max

|(1 + K(j)G(j))
1
|, (210)
on denit en multivariable la marge de module en sortie :

M
=
1
||S
y
(s)||

, (211)
52
et la marge de module en entree :

M
=
1
||S
u
(s)||

. (212)
C.5 Suivi de consigne
An davoir un bon comportement en suivi de consigne, il faut que le
transfert entre la reference et lerreur soit de type coupe-bas (ou passe-haut).
On pourra alors tracer la representation frequentielle de S
y
(s) et relever la
bande passante `a -3 dB ainsi que lattenuation maximale (en continu).
C.6 Rejet de perturbation
An davoir un bon comportement en rejet de perturbation, il faut que le
transfert entre la perturbation et lerreur soit le plus faible possible notam-
ment en basse frequence. Ce transfert est generalement de type passe-bande.
On pourra alors tracer la representation frequentielle de S
y
(s)G(s) et relever
lattenuation maximale (en continu) ainsi que lamplication maximale en
precisant la frequence.
C.7 Robustesse
Les syst`emes dynamiques physiques sont generalement de type passe-
bande et on dont un gain qui diminue en haute frequence. Il en resulte
donc quau-del`a dune certaine bande de frequences, ces dynamiques sont
necessairement mal connues. Ainsi, une des sources classique de manque de
robustesse des syst`emes asservis correspond ` a des amplications de modes
hautes frequence mal connus, entranant ainsi des instabilites. An de palier
ce probl`eme, il convient de sassurer que le gain du correcteur decrot au-
del` a de la bande passante. Une mani`ere detournee de sen assurer consiste ` a
considerer la reponse frequentielle du transfert S
u
(s)K(s) ou K(s)S
y
(s) du
transfert entre r et u.
53
D Inegalites matricielles anes
Les Inegalites Matricielles Anes ou LMI prennent une place de plus
importante dans les methodes modernes de lautomatique. De nombreux
resultats anterieurs trouvent une formulation LMI et ce formaliste permet
aussi de resoudre de nouveaux probl`emes qui navaient pas trouve jusqualors
de solution.
D.1 Positivite
Denition 6 (Matrice positive) Une matrice A R
n
est dite (semi-
denie) positive et on note A 0 si la forme quadratique x
T
Ax est positive
pour tout vecteur x.
Cette denition se transpose evidemment au cas negatif. On peut tou-
jours ecrire une forme quadratique ` a partir dune matrice symetrique. Ainsi,
x
T
Ax =
1
2
x
T
(A
T
+A)x. On ne contentera donc de considerer le cas des matri-
ces symetriques. Ces matrices ont la particularite davoir toutes leurs valeurs
propres reelles.
Propriete 7 (Matrice negative) Une matrice A symetrique est negative
si et seulement toutes ses valeurs propres sont negatives et on note A 0.
On denit aussi la positivite stricte et on dit quune matrice est denie
positive si toutes ses valeurs propres sont strictement positives. Cest equivalent
` a dire que la forme quadratique correspondante x
T
Ax est strictement positive
pour tout x non nul.
Propriete 8 Soit un scalaire, A I > 0
i
(A) > .
P > 0 P < 0 ; on peut donc toujours se ramener `a un probl`eme
de positivite (ou de negativite).
D.2 Inegalite matricielle ane ou lineaire
Denition 7 (Inegalite Matricielle Ane) On appelle inegalite matricielle
ane (ou lineaire et en anglais linear matrix inequality note LMI) le probl`eme
suivant ; etant donnees les matrices reelles, carrees et symetriques M
k
, k =
1..n, trouver les reels x
k
, k = 1...n tels que M(x) = M
0
+x
1
M
1
+...+x
n
M
n
>
0.
Le succ`es des LMI vient du developpement des methodes dites du point
interieur (interior point methods) qui permettent de resoudre de mani`ere
ecace ces probl`emes [21].
54
Propriete 9 Un syst`eme de plusieurs LMI est une LMI. En eet :
_
P(x) > 0
Q(x) > 0

_
P(x) 0
0 Q(x)
_
> 0 (213)
D.3 Exemple de LMI
Les LMI ne se presentent pas directement sous la forme de linegalite
presentee ci-dessus. Prenons un exemple classique de lautomatique ; la sta-
bilite au sens de Lyapunov pour un syst`eme lineaire x = Ax. Il sagit de
trouver une matrice reelle P = P
T
> 0 de meme dimension que A telle que
A
T
P + PA < 0. Considerons ` a titre dexemple, le cas o` u A est une matrice
2 2.
A =
_
a
1
a
2
a
3
a
4
_
(214)
La matrice P depend alors de 3 param`etres x
i
, k = 1..3 et peut secrire :
P =
_
x
1
x
2
x
2
x
3
_
(215)
La condition de positivite de P secrit :
x
1
_
1 0
0 0
_
+ x
2
_
0 1
1 0
_
+ x
3
_
0 0
0 1
_
> 0 (216)
Linegalite de Lyapunov, elle se reecrit :
x
1
_
2a
1
a
2
a
3
0
_
+ x
2
_
a
2
+ a
3
a
1
+ a
4
a
1
+ a
4
a
2
+ a
3
_
+ x
3
_
0 a
2
a
3
2a
4
_
< 0 (217)
D.4 Resolution
An de rendre les solveurs de LMI facilement utilisables pour les probl`emes
de lautomatique, des interfaces ont ete developpees permettant decrire les
probl`eme sous des formes matricielles simples. On peut citer LMI-Tools de El
Ghaoui
21
, la LMI Control Toolbox de MathWorks [22] et linterface SeDuMi
developpe au LAAS par Peaucelle et al. [27]. On pourra egalement utiliser
loutil YALMIP
22
.
Les trois probl`emes classiques que ces outils resolvent sont
la faisabilite (ou existence) : trouver x solution de A(x) < 0,
21. http ://robotics.eecs.berkeley.edu/ elghaoui/
22. http ://control.ee.ethz.ch/ joloef/yalmip.php
55
la minimisation dune fonction lineaire ; trouver x minimisant c
T
x sous
la contrainte A(x) < 0,
le probl`eme de valeur propre generalisee : minimiser sous les con-
traintes A(x) < B(x), B(x) > 0 et C(x) < 0.
References
[1] A. P. Sage and C. C. White, Optimum Systems Control, Prentice Hall,
1977.
[2] B. D. O. Anderson and J. B. Moore, Optimal Control - Linear Quadratic
Methods, Prentice Hall, 1989.
[3] E. Ostertag, Commande et Estimation Multivariables, TechnoSup, El-
lipses, Paris, 2006.
[4] L. Pontriaguine, V. Boltianski, G. Gamkrelidze, and E. Michtchenko,
Theorie Mathematique des Processus Optimaux, Moscou : Mir, 1974.
[5] H. Bourles, Optimisation et Commande Optimale,

Ecole Normale
Superieure de Cachan, 1996.
[6] G. Duc, Robustesse des Syst`emes Lineaires Multivariables,

Ecole
Superieure d

Electricite, 1994.
[7] N. A. Lehtomaki, N. R. Sandell, and M. Athans, Robustness results
in linear quadratic gaussian based multivariable control design, IEEE
Trans. Autom. Control.
[8] E. Ostertag, Filtrage Optimal et Commande Optimale,

Ecole Superieure
de Physique de Strasbourg, 2002.
[9] G. F. Franklin, J. D. Powell, and M. L. Workman, Digital Control of
Dynamic Systems, Addison-Wesley, 1990.
[10] W. F. Arnold and A. J. Laub, Generalized eigenproblem algorithms
and software for algebraic riccati equations, Proceedings of the IEEE,
vol. 72, pp. 17461754, 1984.
[11] The MathWorks Inc., Getting Started with the Control System Toolbox,
2000-2002.
[12] W. Bachta, P. Renaud, E. Laroche, A. Forgiona, and J Ganglo, Mo-
tion prediction for computer-assisted beating heart surgery, IEEE
Transactions on Biomedical Engineering, 2009.
[13] M. H. A. Davis, Linear Estimation and Stochastic Control, Chapman
and Hall, 1977.
56
[14] J. C. Doyle and G. Stein, Robustness with observers, IEEE Trans.
Autom. Control.
[15] J. C. Doyle and G. Stein, Multivariable feedback design : Concepts for
a classical/modern synthesis, IEEE Trans. Autom. Control, vol. 26,
no. 1, 1981.
[16] J. B. Moore and L. Xia, Loop recovery and robust state estimate
feedback design, IEEE Transactions on Automatic Control, vol. 32,
no. 6, 1987.
[17] G. Stein and M. Athans, The LQG/LTR procedure for multivariable
feedback control design, IEEE Trans. Autom. Control, vol. 32, no. 2,
1987.
[18] J. D. Birdwell and A. J. Laub, Balanced singular values for lqg/ltr
design, International Journal of Control, vol. 45, no. 3, 1987.
[19] Z. Zhang and J. Freudenberg, Loop transfert recovery for nonminimal
phase plants, IEEE Transactions on Automatic Control, vol. 35, no. 5,
1990.
[20] C. Scherer, P. Gahinet, and M. Chilali, Multi-objective output-feedback
control via LMI optimization, IEEE Trans. Autom. Control, vol. 42,
no. 7, pp. 896911, 1997.
[21] Y. Nesterov and A. Nemirovski, Interior-point Polynomial Methods in
Convex Programming, SIAM, 1994.
[22] P. Gahinet, A. Nemirovski, A. J. Laub, and M. Chilali, LMI Control
Toolbox, The MathWorks Inc., 1995.
[23] D. Alazard and P. Apkarian, Exact observer-based structures for ar-
bitrary compensators, International Journal of Robust and Nonlinear
Control, vol. 9, pp. 101118, 1999.
[24] D. Alazard, C. Cumer, P. Apkarian, M. Gauvrit, and G. Ferr`eres, Ro-
bustesse et Commande Optimale, Cepadu`es

Editions, 1999.
[25] M. Berriri, Commande LPV dun syst`eme dentranement de bande
flexible, 2004.
[26] G. Bornard, F. Celle-Couenne, and G. Gilles, Observation, Observabilite,
vol. 1, chapter 5, pp. 177221, Masson, Paris, 1993, in A.J. Fossard and
D. Normand-Cyrot, Syst`emes non-lineaires.
[27] D. Peaucelle, D. Henrion, Y. Labit, and K. Taitz,
Users guide for SeDuMi interface, LAAS - CNRS,
http ://www.laas.fr/peaucell/SeDuMiInt.html, 2002.
57

Vous aimerez peut-être aussi