Académique Documents
Professionnel Documents
Culture Documents
ee
Option Ing
J(x
0
, t
0
) = min
u
[t
0
,t
f
]
J(x
0
, t
0
, u). (8)
Soit t
1
[t
0
, t
f
]. Le principe doptimalite de Bellman enonce que la trajectoire
optimale sur [t
0
, t
f
] contient la trajectoire optimale sur [t
1
, t
f
] avec comme
condition initiale x
1
= x(t
1
). Autrement dit :
J(x
0
) = min
u
[t
0
,t
1
]
,x
1
__
t
1
t
0
(x, u, t)dt +
J(x
1
)
_
. (9)
Bien que les developpements suivants ne sappuient pas directement sur
ce principe, mais sur le principe du maximum, ce principe est un resultat clas-
sique de la commande optimale et se trouve souvent utilise dans la litterature.
Il permet dobtenir une solution optimale en decoupant lintervalle et en
resolvant un probl`eme recursif.
7
2.3 Principe du minimum de Pontriaguine
Le principe du minimum de Pontriaguine [4] est ici bri`evement enonce.
On peut se referer `a Sage et White [1] 4.3.1 pour sa demonstration.
Soit le syst`eme dequation detat :
x = f(x, u, t) (10)
et le crit`ere de performance :
J(x
0
, t
0
, u) = (x
f
, t
f
) +
_
t
f
t
0
(x, u, t)dt (11)
On denit lhamiltonien du syst`eme :
H(x, u, p, t) = (x, u, t) + p
T
f(x, u, t) (12)
o` u p est appele etat-adjoint
1
. Le principe du minimum de Pontriaguine
enonce que la trajectoire optimale minimise lhamiltonien du syst`eme. Autrement
dit :
H( x, u, p) H( x, u, p) u U (13)
Le long de la trajectoire optimale, on dispose dun certain nombre dequations
permettant de resoudre le probl`eme de commande optimale. Ces equations
sont generalement etablies en utilisant le calcul des variations. Pour plus
dinformations, se reporter ` a un ouvrage de reference.
Lextremalite de la solution conduit `a un jeu dequations, appelees equations
canoniques de Hamilton, qui regissent les dynamiques de letat dune part et
de letat adjoint dautre part :
etat
H
p
= x
etat adjoint
H
x
= p
Les equations provenant des conditions dites terminales, en t
0
dune part et
en t
f
dautre part sont appelees equations de transversalite :
` a lorigine
_
H(t
0
) +
t
0
_
t
0
+
_
p(t
0
) +
x
0
_
T
x
0
= 0
1. En Anglais : costate vector
8
` a larrivee
_
H(t
f
) +
t
f
_
t
f
+
_
p(t
f
) +
x
f
_
T
x
f
= 0
Enn, selon la nature du probl`eme, on aura encore certaines relations addi-
tionnelles :
si aucune contrainte (de type saturation) nest imposee sur u(t) `a lin-
stant t, on a :
H
u
(t) = 0
si H nest pas une fonction explicite du temps, on a :
dH
dt
=
H
t
= 0
Lien avec le calcul des variations
Il sagit dun probl`eme doptimisation sous contrainte egalite f(x, u, t)
x = 0. En sappuyant sur le calcul des variations, on est amene `a introduire un
multiplicateur de Lagrange p, qui est une fonction du temps, et `a introduire
le Hermicien :
H(x, u, p, t) = (x, u, t) + p
T
f(x, u, t) (14)
Le crit`ere secrit alors :
J = (x
f
, t
f
) +
_
t
f
t
0
((x, u, t) + p
T
(f(x, u, t) x)) dt
= (x
f
, t
f
) +
_
t
f
t
0
(H(x, u, p, t) p
T
x) dt
= (x
f
, t
f
) +
_
t
f
t
0
(H(x, u, p, t) + p
T
x) dt p
T
f
x
f
+ p
T
(t
0
)x
0
=
(x
0
, t
0
, x
f
, t
f
) +
_
t
f
t
0
(H(x, u, p, t) + p
T
x) dt (15)
o` u
(x
0
, t
0
, x
f
, t
f
) = (x
f
, t
f
) p
T
f
x
f
+p
T
0
x
0
. Le calcul des variations permet
de donner des conditions necessaires pour resoudre ce probl`eme (cf. para-
graphe A.2, page 42). On comprends ainsi lapparition de lequation de letat
adjoint
H
x
= p.
9
2.4 Equation dEuler-Lagrange
Cf. [1] 3.5 et [5] 4.1.3.
Lequation dEuler-Lagrange, bien connue en mecanique, peut etre retrouvee
` a partir du principe du minimum. En notant T, lenergie cinetique et U
lenergie potentielle dun syst`eme mecanique, le principe de moindre ac-
tion enonce par Maupertuis postule que le syst`eme evolue en minimisant
lintegrale :
_
t
f
t
0
(T U)dt. (16)
Notons q les cordonnees generalisees du syst`eme. Soit L(q, q) = T(q, q)
U(q) le lagrangien, avec le crit`ere :
J(q
0
, t
0
, q) =
_
t
f
t
0
L(q, q)dt (17)
On consid`ere un syst`eme dont on commande la vitesse, lequation detat du
syst`eme secrivant alors simplement :
q = u (18)
Lhamiltonien secrit alors :
H(q, q) = L(q, q) + p
T
q (19)
et le principe du minimum donne les deux equations suivantes :
H
q
=
L
q
= p (20)
H
q
=
L
q
+ p = 0 (21)
En derivant la seconde equation par rapport au temps puis en remplacant p
gr ace ` a la premi`ere, on obtient lequation dEuler-Lagrange :
d
dt
L
q
L
q
= 0. (22)
2.5 Commande bang-bang
Un type de commande optimal particulier bien connu est la commande
` a temps minimal. Prenons un exemple : vous commandez lacceleration dun
vehicule que vous devez amener dune position initiale darret ` a une posi-
tion nale, egalement ` a larret, dans le temps le plus court possible. Si lon
10
consid`ere un mouvement enn ligne droite, on con coit intuitivement que la
commande optimale est dans ce cas une acceleration maximale jusqu` a un
certain instant ` a partir duquel il faudra freiner au maximum. On parle de
commande bang-bang parce que la commande est toujours saturee, alterna-
tivement `a sa valeur minimale ou ` a sa valeur maximale. Quant ` a la robustesse
de la commande, cest-` a-dire la capacite ` a remplir la mission de mani`ere
precise, lorsque la masse du vehicule est imparfaitement estimee, vous imag-
inez bien que ce genre de commande nest pas tr`es recommandable. Pour un
exemple de ce type de commande, cf. Sage & White [1], 5.3, p. 103.
Un exemple complet de commande en temps minimal sera traite en cours :
celui du double integrateur.
3 Commande Lineaire Quadratique
On parle de commande lineaire quadratique : LQ ou LQR pour linear
quadratic regulator. Le syst`eme est lineaire et la commande est quadratique.
La commande optimale est un retour detat.
3.1 Commande LQ `a horizon ni
Cf. [1] 5.1 et lexemple 5.1-1 (tr`es didactique) ; cf. annexe C de[2].
Soit le probl`eme de commande optimale du syst`eme :
x = A(t)x + B(t)u (23)
avec le crit`ere :
J(x
0
, t
0
, u) =
1
2
x
f
Sx
f
+
_
t
f
t
0
1
2
_
x
T
Q(t)x + u
T
R(t)u
_
dt, (24)
les matrices Q, R et S etant symetriques avec Q et S 0 et R > 0
2
.
Lhamiltonien secrit alors :
H(x, u, p, t) = p
T
A(t)x + p
T
B(t)u +
1
2
(x
T
Q(t)x + u
T
R(t)u). (25)
Lhamiltonien, verie les conditions suivantes :
equation de letat adjoint
p =
L
x
= A
T
(t)p Q(t)x (26)
2. Remarquons que le crit`ere
_
t
f
t
0
1
2
(y
T
Q
y
(t)y + u
T
R(t)u)dt est equivalent avec Q
y
=
C
T
(t)Q(t)C(t).
11
condition de transversalite
p(t
f
) = Sx
f
(27)
absence de contrainte sur la commande
L
u
= B
T
(t)p + R(t)u = 0 (28)
De lequation (28), on deduit :
u = R
1
(t)B
T
(t)p. (29)
Alors lequation dynamique du syst`eme secrit :
x = A(t)x B(t)R
1
(t)B
T
(t)p. (30)
Les equations (26) et (30) peuvent se mettre sous la forme dun syst`eme
matriciel appele syst`eme hamiltonien :
d
dt
_
x
p
_
=
_
A(t) B(t)R
1
(t)B
T
(t)
Q(t) A
T
(t)
_ _
x
p
_
(31)
Ecrivons p = P(t)x, comme nous y incite (27), avec, dapr`es (27), la
condition nale P(t
f
) = S. Lequation (26) secrit alors :
p =
_
A
T
(t)P(t) + Q(t)
_
x. (32)
Avec p =
Px+P x et lequation detat (23) du syst`eme, lequation (32) secrit
(en omettant la reference au temps an dalleger les notation) :
(
P + PA + A
T
P PBR
1
B
T
P + Q)x = 0 (33)
La solution est alors obtenue en resolvant lequation (dierentielle) de Riccati
suivante :
P + PA + A
T
P PBR
1
B
T
P + Q = 0 (34)
avec la condition nale P(t
f
) = S.
On montre que la condition :
x
T
(
P + PA + A
T
P PBR
1
B
T
P + Q)x = 0 (35)
secrit aussi :
d
dt
(x
T
Px) + x
T
Qx + u
T
Ru = 0. (36)
12
Le crit`ere :
J(x
0
, t
0
, u) =
1
2
x
f
Sx
f
+
_
t
f
t
0
1
2
(x
T
Q(t)x + u
T
R(t)u)dt. (37)
secrit alors :
J(x
0
, t
0
, u) =
1
2
_
x
f
Sx
f
_
t
f
t
0
d
dt
(x
T
Px)dt
_
. (38)
soit, avec la condition de transversalite S = P(t
f
) :
J(x
0
, t
0
, u) =
1
2
x
T
0
P(t
0
)x
0
(39)
Le minimum du crit`ere est donc :
J(x
0
) = J
0
(t
0
, x
0
, u) =
1
2
x
T
0
P(t
0
)x
0
. (40)
Il est interessant de noter que la commande optimale obtenue secrit
comme un retour detat u = K(t)x avec :
K = R
1
B
T
P. (41)
Neanmoins, noublions pas que, dans le cas present, K varie en fonction du
temps, meme dans le cas dun syst`eme et dun crit`ere `a temps invariant
(cest-` a-dire si les matrices A, B, Q et R ne dependent pas du temps). En
eet, la matrice P(t) reste dependant du temps dans le cas dun crit`ere ` a
temps ni.
3.2 Commande LQ `a horizon inni
Interessons nous ici au cas du syst`eme LTV precedent o` u :
J(x
0
, t
0
, u) =
_
t
0
1
2
_
x
T
Q(t)x + u
T
R(t)u
_
dt. (42)
On montre que ce crit`ere est ni si le syst`eme est stabilisable `a tout instant t,
(cest-` a-dire qu` a chaque instant, il existe un K(t) tel que les valeurs propres
de A BK soient ` a partie reelle negative). Remarquons par ailleurs que
la partie du crit`ere concernant letat nal nest plus pertinente car, sur un
horizon inni, letat tend vers zero si le syst`eme boucle est stable.
Dans le cas dun probl`eme LTI (lineaire ` a temps invariant), la commande
optimale est un retour detat statique u = Kx o` u K est exprime par
lequation (41) et o` u P verie lequation algebrique de Riccati :
PA + A
T
P PBR
1
B
T
P + Q = 0. (43)
La resolution de lequation algebrique de Riccati (43), disponible dans les
Toolboxes du logiciel Matlab, depasse le cadre de ce cours.
13
3.3 Robustesse de la commande LQ
Cf. [2] pp. 104 & 122, cf. [6]. Sur les proprietes de robustesse de la com-
mande LQ, cf. [7].
3.3.1 Dierence de retour
A partir de lequation de Riccati, faisons apparatre les termes sI A en
ajoutant PsI sIP o` u I est la matrice unite
3
:
P(sI A) + (sI A
T
)P + PBR
1
B
T
P = Q (44)
Multiplions `a droite par (sI A)
1
B et `a gauche par B
T
(sI A
T
)
1
:
B
T
(sI A
T
)
1
PB + B
T
P(sI A)
1
B
+B
T
(sI A
T
)
1
PBR
1
B
T
P(sI A)
1
B
= B
T
(sI A
T
)
1
Q(sI A)
1
B.
(45)
En notant que dapr`es (41), on a B
T
P = RK et PB = K
T
R, on obtient :
B
T
(sI A
T
)
1
K
T
R + RK(sI A)
1
B
+B
T
(sI A
T
)
1
PBR
1
B
T
P(sI A)
1
B
= B
T
(sI A
T
)
1
Q(sI A)
1
B.
(46)
Le premier membre de legalite secrit :
(I + B
T
(sI A
T
)
1
K
T
)R(I + K(sI A)
1
B) R. (47)
On obtient nalement lequation de la dierence de retour :
(I + B
T
(sI A
T
)
1
K
T
)R(I + K(sI A)
1
B)
= R + B
T
(sI A
T
)
1
Q(sI A)
1
B.
(48)
3.3.2 Marges de stabilite
Reprenons lequation de la dierence de retour en frequentiel avec s = j
et en notant H(j) = (jI A)
1
B. On obtient alors pour tout :
(I + KH(j))
H
R(I + KH(j)) = R + H
H
(j)QH(j) (49)
o` u M
H
est le hermitien de M, cest-` a-dire le conjugue transpose. On en deduit
alors linegalite de Kalman :
(I + KH(j))
H
R(I + KH(j)) R. (50)
3. Ces calculs sont repris de [8], II.7 ; voir aussi [2], 5.2.
14
Restreignons nous au cas o` u R = I et factorisons Q en
4
Q = L
T
L.
Legalite (49) secrit alors :
(I + KH(j))
H
(I + KH(j)) = I +
1
(LH(j))
H
(LH(j)) (51)
dont on deduit les valeurs singuli`eres de I + H(j)K :
i
(I + KH(j)) =
_
i
((I + KH(j))
H
(I + KH(j))) (52)
=
i
_
I +
1
(LH(j))
H
(LH(j))
_
(53)
=
_
1 +
1
2
i
(LH(j)) (54)
1 (55)
o` u
i
represente la i
`eme
valeur propre
5
. En monovariable, ce resultat sin-
terpr`ete facilement sur le lieu de Nyquist, comme le fait que la distance au
point 1 est toujours superieure ` a 1. Ainsi, la commande LQ presente la
propriete de robustesse suivante : sa marge de module est egale ` a 1. On en
deduit ainsi les intervalles dans lesquels le gain et la phase peuvent varier :
gain ]0, 5 ; +[,
phase ] 60; 60[
3.4 Structure des regulateurs
Lorsque des signaux de consigne y
y) K
z
z. (57)
Si y est donne par une loi de type equation de sortie, y = Cx, on peut eectuer
un changement detat de sorte que le nouveau vecteur detat contienne y, par
exemple en utilisant la forme canonique dobservabilite.
4. Cest toujours possible puisque Q 0, par exemple avec une factorisation de
Choleski.
5. En utilisant les proprietes
2
i
(M) =
i
(M
H
M) et
i
(I +M) = 1 +
i
(M).
15
La commande LQ est de type proportionnelle. Dans le but dameliorer
les performances en regulation en presence de perturbations constantes, il est
souhaitable dajouter un eet integral. Imaginons, ` a titre dexemple, que la
premi`ere composante x
1
de x doive etre asservie `a x
1
sans erreur statique.
Construisons letat supplementaire :
I
1
=
_
t
0
(x
1
() x
1
())d (58)
avec lequation correspondante :
I
1
= x
1
x
1
(59)
En considerant x
1
comme une perturbation constante et, de ce fait, en ne
lintegrant pas dans le mod`ele, lequation detat du syst`eme augmente de son
nouvel etat I
1
secrit :
x
e
= A
e
(t)x
e
B
e
(t)u (60)
o` u le vecteur detat augmente est :
x
e
=
_
x
I
1
_
(61)
et les matrices detat sont
6
:
A
e
=
_
A O
n1
[1 O
1n1
] 0
_
(62)
B
e
=
_
B
O
1m
_
(63)
Sur ce mod`ele, un regulateur K
e
R
mn+1
de type LQ peut etre synthetise.
Decomposons K
e
selon :
K
e
x
e
= [K K
I
]
_
x
I
1
_
(64)
Le regulateur obtenu, dentrees x et x
1
, et de sortie u est un syst`eme dy-
namique dordre 1 de mod`ele detat :
_
I
1
= x
1
x
1
u = K
I
I
1
Kx
(65)
La consigne x
1
peut aussi etre retranchee ` a x
1
; dautres consignes peuvent
etre integrees de la meme mani`ere en retranchant leur valeur ` a letat corre-
spondant. Si une commande en boucle ouverte (feed-forward) est disponible,
elle peut etre egalement integree ; la commande sera alors la somme de la
commande en boucle fermee et de la commande en boucle ouverte.
6. La matrice O
kl
represente la matrice nulle de dimension k l.
16
3.5 Choix des ponderations
Il est interessant de remarquer dabord que la multiplication des ponderations
Q et R par un meme scalaire laisse inchange le gain K. En eet, soit P so-
lution de (43) et soit le nouveau probl`eme base sur les ponderations
Q = Q
et
R = R. On verie que
P = P est solution de lequation de Riccati
correspondante. En eet :
K =
R
1
B
T
P = RB
T
P = K (66)
Sans restriction, les ponderations peuvent etre choisies symetriques. Elles
sont generalement choisies diagonales. Ainsi, on se ram`ene au choix de n
scalaires pour letat et de p scalaires pour la commande. Voici une methode
simple de choix et de modication des ponderations en vue daboutir ` a un
correcteur satisfaisant.
1. Au depart, on choisit generalement des ponderations egales aux matri-
ces identite.
2. Dans une seconde etape, on accel`ere ou decel`ere globalement le syst`eme
en multipliant la matrice Q par un scalaire (acceleration avec > 1
et deceleration avec < 1), jusqu` a obtenir une dynamique moyenne
adaptee.
3. Dans le cas o` u certains etats auraient des dynamiques trop lentes par
rapport `a dautres, on peut choisir daugmenter la ponderation de Q
correspondant aux premiers.
4. Dans le cas o` u certains actionneurs seraient trop sollicites par rapport
` a dautres, on peut choisir daugmenter la ponderation de R leur cor-
respondant.
Les etapes 2, 3 et 4 peuvent etre reiterees dans lordre souhaite jusqu` a obtenir
un correcteur satisfaisant le cahier des charges.
3.6 Commande LQ `a temps discret
Cf. 9 de [9].
3.6.1 Commande LQ `a temps discret `a horizon ni
Formulation du probl`eme. Soit le syst`eme dynamique `a temps discret
deni par :
x(k + 1) = A(k)x(k) + B(k)u(k) (67)
17
avec la condition initiale x(0) = x
0
et cherchons la commande minimisant le
crit`ere :
J =
1
2
k=n
k=0
x
T
(k)Q(k)x(k) + u
T
(k)R(k)u(k). (68)
Ce probl`eme est plus simple que celui ` a temps continu car il sagit ici dun
probl`eme dont les inconnues sont les n + 1 valeurs de u(k) et non plus une
fonction du temps. Il sagit dune minimisation de (68) sous les contraintes
(67). Le Lagrangien secrit alors :
L =
k=n
k=0
_
1
2
x
T
(k)Q(k)x(k) +
1
2
u
T
(k)R(k)u(k)
+p
T
(k + 1) (x(k + 1) + A(k)x(k) + B(k)u(k))
_
(69)
et la solution optimale verie les equations suivantes :
L
u(k)
= R(k)u(k) + B
T
(k)p(k + 1) = 0 (70)
L
x(k)
= Q(k)x(k) p(k) + A
T
(k)p(k + 1) = 0 (71)
L
p(k + 1)
= x(k + 1) + A(k)x(k) + B(k)u(k) = 0 (72)
Lequation de la commande (70) donne :
u(k) = R
1
(k)B
T
(k)p(k + 1). (73)
La derni`ere commande u(n) na aucun eet sur levolution du syst`eme sur
lhorizon considere ; sa valeur optimale est donc nulle :
u(n) = 0. (74)
On a ainsi dapr`es (70) :
p(n + 1) = 0 (75)
et dapr`es lequation adjointe (71) :
p(n) = Q(n)x(n). (76)
Il sagit dun probl`eme aux deux bouts : une condition initiale est disponible
pour letat alors que cest une condition nale qui est disponible pour letat
adjoint. Ainsi, la resolution du probl`eme doit se faire pour lensemble de la
trajectoire, ce qui peut representer une charge de calcul elevee dans le cas
dun horizon n eleve.
18
Formulation sous forme dequation de Riccati. Les equations prece-
dentes peuvent etre resolues directement en x et p. On peut aussi adopter
la demarche suivante, base sur un changement de variable suivant pour la
variable adjointe :
p(k) = P(k)x(k) (77)
o` u P(k) est une matrice quil faudra determiner ; P(n) = Q(n). La commande
u(k) verie alors :
R(k)u(k) = B
T
(k)P(k + 1)x(k + 1) (78)
= B
T
(k)P(k + 1)(A(k)x(k) + B(k)u(k)) (79)
et peut donc secrire :
u(k) = K(k)x(k) (80)
avec :
K(k) =
R
1
(k)B
T
(k)P(k + 1)A(k) (81)
o` u :
R(k) = R(k) + B
T
(k)P(k + 1)B(k). (82)
Il reste maintenant ` a determiner la matrice P(k). Partant de (71), on obtient :
P(k)x(k) = Q(k)x(k) + A
T
(k)P(k + 1)x(k + 1) (83)
= Q(k)x(k) + A
T
(k)P(k + 1)(A(k)x(k) + B(k)u(k)) (84)
En utilisant (80), lequation ci-dessus se reecrit :
P(k)x(k) =
_
Q(k) + A
T
(k)P(k + 1)(A(k) B(k)K(k))
x(k). (85)
Comme cette equation doit etre veriee pour tout x(k), il est necessaire que :
P(k) = Q(k) + A
T
(k)P(k + 1)(A(k) B(k)K(k)), (86)
ce qui secrit :
P(k) = Q(k) + A
T
(k)M(k + 1)A(k), (87)
avec :
M(k+1) = P(k+1)P(k+1)B(k)(R(k)+B
T
(k)P(k+1)B(k))
1
B
T
(k)P(k+1).
(88)
Cette equation recursive ` a inconnue matricielle est appelee equation de Ric-
cati discr`ete. Sa condition nale est P(n) = Q(n) et sa resolution se fait donc
` a rebours. Dans le cas de syst`emes LTV o` u les matrices A, B dependent ef-
fectivement de k ou bien si cest le cas des matrices de ponderation Q et R,
cela suppose de connatre ` a lavance lensemble des matrices pour k = 0 . . . n.
19
3.6.2 Crit`ere `a horizon inni
Cherchons la commande minimisant le crit`ere :
J =
1
2
k=0
x
T
(k)Qx(k) + u
T
(k)Ru(k). (89)
Il sagit du crit`ere precedent o` u n tend vers linni.
On peut montrer alors que pour un syst`eme LTI le gain du retour detat
est constant. Il secrit :
K = (R + B
T
PB)
1
B
T
PA (90)
o` u P est solution de lequation algebrique de Riccati discr`ete :
P = Q + A
T
(P PB(R + B
T
PB)
1
B
T
P)A. (91)
La resolution de cette equation non lineaire nest pas triviale. Des algorithmes
[10] sont disponibles dans les Toolboxes du logiciel Matlab [11].
3.7 Commande predictive
La commande lineaire quadratique sur un horizon a connu un succ`es par-
ticulier sous le nom de commande predictive. Il sagit dune famille de com-
mande qui se basent sur des predictions de levolution des signaux exterieurs
et des etats internes pour le calcul du signal de commande optimal. La com-
mande LQ, presentee precedemment, permet de faire tendre vers zero letat
interne dun syst`eme. La loi de commande obtenue peut etre utilisee dans
le but de suivre un signal de consigne (on retranchera alors la consigne ` a
letat utilise dans la loi de commande) et pour un rejet de perturbation (les
commande en boucle fermee ont des proprietes naturelles de rejet de per-
turbation). Toutefois, le probl`eme peut etre formule de mani`ere specique
pour chacun de ces probl`emes. On se limitera au cas des syst`emes `a temps
invariant. Ici, nous nous interessons ` a la formulation pour les syst`emes sous
forme de representation detat. Une formulation pour les fonctions de trans-
fert (approche polynomiale) est egalement disponible.
3.7.1 Suivi de consigne
On suppose que la consigne r(k) est connue `a lavance et on cherche la
commande permettant de minimiser le crit`ere :
J =
1
2
k=n
k=0
(x(k) r(k))
T
Q(x(k) r(k)) + u
T
(k)Ru(k) (92)
20
Souvent, on pref`ere considerer le crit`ere suivant :
J =
1
2
k=n
k=0
(x(k) r(k))
T
Q(x(k) r(k)) +
T
u
(k)R
u
(k) (93)
o` u
u
(k) = u(k) u(k 1). Ce crit`ere penalise lamplitude des variations
du signal dentree au lieu de penaliser directement son amplitude. Pour min-
imiser le crit`ere (93), il sut dajouter un integrateur
z
z1
sur chacune des
entrees du syst`eme et de poursuivre avec le crit`ere (92).
3.7.2 Rejet dune perturbation connue
Position du probl`eme. On consid`ere cette fois que le syst`eme est aecte
par une perturbation v(k) dont on est capable de predire levolution :
x(k + 1) = Ax(k) + Bu(k) + v(k) (94)
Le crit`ere ` a minimiser (68) est identique au cas general. La demarche est
identique au cas precedent en tenant compte du nouveau mod`ele.
Le Lagrangien secrit :
L =
k=n
k=0
_
1
2
x
T
(k)Qx(k) +
1
2
u
T
(k)Ru(k)
+p
T
(k + 1) (x(k + 1) + Ax(k) + Bu(k) + v(k))
_
(95)
Dans les equation (70-72), seule la troisi`eme equation est modiee :
L
p(k + 1)
= x(k + 1) + Ax(k) + Bu(k) + v(k) = 0 (96)
Lequation de la commande (73) est inchangee. En remplacant la commande
dans l equation (72) grace `a (73) et en reprenant (71), on obtient un syst`eme
dequations dont les inconnues sont les signaux x(k) et p(k).
Qx(k) p(k) + A
T
p(k + 1) = 0 (97)
x(k + 1) + Ax(k) BR
1
B
T
p(k + 1) + v(k) = 0 (98)
Pour letat, on connait la condition initiale x(0) ; pour letat adjoint, on
connait la condition nale p(n + 1) = 0. Il sagit donc dun probl`eme aux
deux-bouts. La methode de resolution generale consiste ` a ecrire lensemble
des relations et ` a resoudre le syst`eme matriciel ainsi obtenu.
21
Resolution. En considerant (97) pour k = 1, , n, on obtient le syst`eme :
_
_
I A
T
O O
O I A
T
O
.
.
.
.
.
.
.
.
.
O O I A
T
O O I
_
_
_
_
p(1)
.
.
.
p(n)
_
_
+
_
_
Q O
.
.
.
.
.
.
O Q
_
_
_
_
x(1)
.
.
.
x(n)
_
_
=
_
_
O
.
.
.
O
_
_
(99)
En notant S = BR
1
B
T
, lequation (98) donne pour k = 0, , n :
_
_
S O O
O S O
.
.
.
.
.
.
.
.
.
O O S
_
_
_
_
p(1)
.
.
.
p(n)
_
_
+
_
_
I O O
A I O O
O
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
O
O O A I
_
_
_
_
x(1)
.
.
.
x(n)
_
_
=
_
_
v(0) + Ax(0)
v(1)
.
.
.
v(n 1)
_
_
(100)
En notant x =
_
_
x(1)
.
.
.
x(n)
_
_
et p =
_
_
p(1)
.
.
.
p(n)
_
_
, le syst`eme (99-100) se reecrit sous
la forme :
M
11
p + M
12
x = O (101)
M
21
p + M
22
x = B
2
(102)
Les matrices M
11
et M
22
sont inversibles ; il est donc possible deliminer x
dans les equations, an dobtenir :
M
11
p = M
12
M
1
22
B
2
(103)
o` u M
11
= M
11
M
12
M
1
22
M
21
. Si M
11
est inversible, alors,
p = M
1
11
M
12
M
1
22
B
2
(104)
En realite, dapr`es (73), seul p(1) est utile pour calculer u(0). On calcule ainsi
u(0) et on lapplique `a linstant t
0
. A letape suivante (t
1
), au lieu dappliquer
u(1) qui vient detre calcule, on recommance la resolution du probl`eme en
tenant compte des nouvelles mesures.
Reecriture de la loi de commande. En notant :
B
2
= v + Ax(0) (105)
22
avec :
A =
_
_
A
O
.
.
.
O
_
_
, v =
_
_
v(0)
.
.
.
v(n 1)
_
_
,
on peut reecrire le vecteur des etats adjoints :
p = M
1
11
M
12
M
1
22
(Ax(0) v) (106)
Par ailleurs, on a :
p(1) = Cp
avec
C =
_
I O . . . O
.
On peut donc ecrire la commande sous la forme :
u(0) = Kx(0) + Lv (107)
avec L = R
1
B
T
CM
1
11
M
12
M
1
22
et K = LA.
Le calcul que nous venons de faire pour lintant initial k = 0 peut etre
fait pour tout instant k. En notant :
v(k) =
_
_
v(k)
.
.
.
v(k + n)
_
_
,
la loi de commande se reecrit :
u(k) = Kx(k) + Lv(k) (108)
On observe que la commande est un retour detat avec une compensation
de la perturbation. Le calcul de K et L sera fait `a lavance, hors ligne, an
dalleger la charge de calcul ` a eectuer en ligne.
La commande u(k) ` a appliquer `a linstant t
k
est determinee dapr`es la
valeur de letat au meme instant. Pourtant, un temps de calcul non nul est
necessaire pour realiser le calcul de la commande. En pratique, le calcul de
u(k) sera eectue pendant lintervalle [t
k1
, t
k
] en utilisant une prediction de
x(k) : x(k) = Ax(k 1) +Bu(k 1) +v(k 1). La loi de commande secrit
donc nalement :
u(k) = K x(k) + Lv(k) (109)
Des techniques destimation optimale peuvent etre utilisees pour determiner
la trajectoire de letat, notamment si lensemble de letat nest pas mesure.
23
Exemple illustratif. La commande a ete testee sur un syst`eme du second
ordre de fonction de transfert
7
:
H(s) =
1
s
2
+ 2
0
s +
2
0
(110)
avec
0
= 10 rad/s, = 2 et discretise `a T = 0.1 s en considerant en entree
un bloqueur dordre zero, ce qui donne comme representation detat :
_
A B
C D
_
=
_
_
0.7889 0.1465 0.0625
0.1250 0 0
0.0284 0.0662 0
_
_
(111)
Pour le crit`ere, on a choisit R = I et Q = 10
6
C
T
C an de minimiser la
sortie y. Lhorizon de prediction est choisi ` a n = 6. La perturbation est un
signal additif sur la commande, soit v(k) = Bw(k). Dans les simulations qui
suivent, on teste leet dun echelon de perturbation ` a k = 21 en presence de
condition initiale non nulle, soit w(k) = 1 si k 20 et w(k) = 0 si k < 20.
Le correcteur obtenu secrit :
K =
_
12.9867 1.8798
et
L =
_
12.8293 22.9263 2.5736 6.2616 0.1052 0.2258 ...
... 0.0069 0.0176 0.0005 0.0012 0.0000 0.0000
apparat
comme un serieux concurrent pour lasservissement robuste des syst`emes
multivariables. Neanmoins, la commande LQG nen demeure pas moins un
standard industriel.
4.1 Formulation
Soit le syst`eme dynamique stochastique dequation detat :
_
x = Ax + Bu + v
y = Cx + w
(112)
o` u le bruit detat v et le bruit de mesure w sont des bruits blancs centres de
variance E{vv
T
} = V 0 et E{ww
T
} = W > 0. Le probl`eme LQG consiste
en la minimisation du crit`ere :
J(x
0
, t
0
, u) = lim
t
f
E
_
1
t
f
_
t
f
t
0
_
x
T
Qx + u
T
Ru
_
dt
_
, (113)
o` u Q 0 et R > 0. Du fait des entrees de bruit v et w, les grandeurs u
et x sont des grandeurs stochastiques. Comme crit`ere, il est ainsi naturel de
sinteresser `a lesperance dune integrale. Comme pour la commande LQ, il
est possible de considerer des crit`eres ` a temps ni.
4.2 Theor`eme de separation
La solution de ce probl`eme de commande optimale de processus stochas-
tique est bien connue sous le nom de theor`eme de separation
8
. Ce theor`eme
enonce que la solution du probl`eme est composee de deux parties :
un observateur de Kalman permettant de donner lestimee x de x qui
est non biaisee et ` a variance minimale,
8. En Anglais : Seperation Theorem ou Certainty Equivalence Principle.
27
la commande par retour detat u = K x ` a appliquer `a x o` u K est
calcule en considerant le probl`eme LQ correspondant (en enlevant v et
w de lequation detat et E dans le crit`ere).
Ce theor`eme est interessant dans la mesure o` u il donne la solution du probl`eme
complet comme etant la reunion des solutions de deux probl`emes plus sim-
ples et dej` a resolus : celui de la commande LQ et celui de lestimation de
Kalman. Pour une demonstration de ce theor`eme, cf. [2] 8.2 et [13].
4.3 Structure de la commande LQG
Lestimee optimale x est donnee par lobservateur dequation detat :
y)
o` u la fonction de transfert du correcteur est :
C(s) = K(sI A + BK + LC)
1
L. (118)
Ses equations detat sont :
_
x = (A BK LC) x + L
u = K x
(119)
o` u = y
_
1
2
_
tr [G
H
(j)G(j)] d
_
(123)
5.1.2 Proprietes
Soit g la reponse impulsionnelle du syst`eme. Dans le cas monovariable, le
theor`eme de Parseval donne une forme equivalente
11
:
||G||
2
2
=
_
0
g
T
(t)g(t)dt. (124)
Dans le cas monovariable, la norme H
2
du syst`eme est egale `a lenergie de la
reponse impulsionnelle.
Supposons maintenant que v soit un bruit blanc gaussien veriant
10. Cette restriction est necessaire pour que la norme du syst`eme soit nie.
11. On rappelle que la fonction de transfert est la transformee de Laplace de la reponse
impulsionnelle.
31
E{v(t)v
T
()} = I(t ) et calculons la puissance de sortie :
E{z
T
z} = tr
_
E{zz
T
}
= tr
_
E
__
+
_
+
g(t
1
)v(
1
)v
T
(
2
)g
T
(t
2
)d
1
d
2
__
= tr
__
+
_
+
g(t
1
)E
_
v(
1
)v
T
(
2
)
_
g
T
(t
2
)d
1
d
2
_
= tr
__
+
g(t )g
T
(t )d
_
= tr
__
+
g()g
T
()d
_
=
_
+
tr
_
g
T
()g()
d
=
1
2
_
+
tr
_
G
H
(j)G(j)
d
= ||G||
2
Ainsi, la norme H
2
est la puissance de sortie lorsque le syst`eme est alimente
pas un bruit blanc gaussien unitaire.
5.1.3 Calcul
La norme H
2
peut etre calculee pour tous les syst`emes strictement propres
(D = O) et strictement stables. En eet, elle peut secrire ainsi :
||G||
2
2
=
_
0
tr
_
g
T
(t)g(t)
dt (125)
= tr
_
0
_
B
T
exp(A
T
t)C
T
_
(C exp(At)B) dt (126)
= tr
_
B
T
_
0
exp(A
T
t)C
T
C exp(At)dtB
_
(127)
ou encore :
||G||
2
2
=
_
0
tr
_
g(t)g
T
(t)
dt (128)
= tr
_
0
(C exp(At)B)
_
B
T
exp(A
T
t)C
T
_
dt (129)
= tr
_
C
_
0
exp(At)BB
T
exp(A
T
t)dtC
T
_
(130)
32
soit :
||G||
2
2
= tr
_
B
T
W
o
B
= tr
_
CW
c
C
T
(131)
o` u W
o
et W
c
sont les gramiens de commandabilite et dobservabilite :
W
o
=
_
0
exp(At)BB
T
exp(A
T
t)dt (132)
W
c
=
_
0
exp(A
T
t)C
T
C exp(At)dt (133)
Ils peuvent etre obtenus comme les solutions des equations de Lyapunov
12
suivantes :
AW
c
+ W
c
A
T
+ BB
T
= 0 (134)
A
T
W
o
+ W
o
A + C
T
C = 0 (135)
En eet, partons de :
d
dt
_
exp(At)BB
T
exp(A
T
t)
= Aexp(At)BB
T
exp(A
T
t)+exp(At)BB
T
exp(A
T
t)A
T
.
(136)
En notant que pour un syst`eme stable :
lim
t
exp(At) = 0, (137)
et en integrant sur [0, ], on obtient directement les deux equations de Lya-
punov. Cest cette methode qui est utilisee dans les Toolboxes de Matlab
pour le calcul de la norme H
2
[11].
5.1.4 Formulation LMI
Les inegalites matricielles anes (LMI pour inegalites matricielles lineaires)
sont devenues un outil classique de lautomatique. Ils sont ` a la base de nom-
breuses methodes innovantes et les methodes classiques ont generalement une
formulation LMI. Une introduction sur les LMI est developpee en Annexe B.
Voici la formulation LMI de la norme H
2
[20].
12. Dapr`es la theorie de Lyapunov, lequation AX+X
T
A+Q = 0 dinconnue X, avec Q
symetrique denie positive, a une solution positive si A est Hurwitz (ses poles sont `a partie
reelle strictement negative). Alors une solution symetrique peut etre facilement obtenue
par la resolution dun syst`eme de n(n + 1) equations lineaires `a autant dinconnues (les
composantes de X), o` u n est la dimension de A. La resolution de lequation de Lyapunov
est disponible dans les Toolboxes [11].
33
Soit S
0
la solution de lequation de Lyapunov (134), cest-` a-dire veriant :
AS
0
+ S
0
A
T
+ BB
T
= 0, (138)
avec S
0
= S
T
0
0. Alors toute matrice S veriant :
AS + SA
T
+ BB
T
< 0 (139)
verie aussi S > S
0
.
Le syst`eme G(s) stable avec D = 0 verie ||G||
2
2
< si et seulement si il
existe une matrice symetrique positive, :
S > 0, (140)
veriant (139) et :
tr
_
CSC
T
< . (141)
Lensemble des inegalites (139-141) constitue un syst`eme LMI et peut se
resoudre avec les solveurs disponibles [21, 22].
5.2 Probl`eme standard
Soit le syst`eme dynamique LTI dequations detat :
_
_
x
z
y
_
_
=
_
_
A B
1
B
2
C
1
D
11
D
12
C
2
D
21
D
22
_
_
_
_
x
v
u
_
_
(142)
qui peut aussi secrire sous forme de fonction de transfert :
_
z(s)
y(s)
_
=
_
G
11
(s) G
12
(s)
G
21
(s) G
22
(s)
_ _
v(s)
u(s)
_
(143)
avec :
G
11
(s) = D
11
+ C
1
(sI A)
1
B
1
G
12
(s) = D
12
+ C
1
(sI A)
1
B
2
G
21
(s) = D
21
+ C
2
(sI A)
1
B
1
G
22
(s) = D
22
+ C
2
(sI A)
1
B
2
(144)
On appelle probl`eme standard le probl`eme consistant `a trouver la loi de
commande :
u(s) = K(s)y(s) (145)
tel que le transfert T
zv
entre v et z, du syst`eme boucle, minimise une norme
matricielle donnee.
En considerant la norme H
2
, on parlera de synth`ese H
2
standard. Une
autre technique populaire repose sur la norme H
13
et fait lobjet dun
enseignement specique de la formation.
13. La norme H
Z
H
(j)Z(j)d. (149)
o` u Z(s) est la transformee de Laplace de z. En boucle fermee et en absence
de signal exog`ene, z ne depend que de la condition initiale et on a Z(s) =
M(s)x
0
. On a alors :
J = tr
_
1
2
_
x
T
0
M
H
(j)M(j)x
0
d
_
(150)
=
x
T
0
x
0
2
_
tr
_
M
H
(j)M(j)
d (151)
= ||M||
2
2
x
2
0
(152)
La commande LQ est alors la commande minimisant la norme H
2
du transfert
entre x
0
et z.
Considerons desormais la commande LQG et posons :
v = L (153)
w = N (154)
o` u et sont des bruits blancs de variance unitaire. On montre alors que le
correcteur LQG est equivalent au correcteur H
2
minimisant le transfert entre
[
T
T
]
T
et z = [x
T
Q
1/2
u
T
R
1/2
]
T
[17].
35
6 Forme LQG equivalente
Un correcteur quelconque de meme ordre que le processus peut se met-
tre sous la forme dun correcteur LQG. Cette possibilite, expliquee dans ce
paragraphe, presente plusieurs interets. Tout dabord, cela signie quun cor-
recteur initial obtenu par une autre methode et que lon voudrait ameliorer
gr ace `a une synth`ese LQG peut servir de point de depart pour le reglage des
ponderations. Ensuite, la methode LQG a comme interet que les etats du cor-
recteur sont les estimees des etats du syst`eme ; ils peuvent donc etre utilises
dans un but de diagnostic ou de supervision. Dans ce cas, il est interessant
dimplanter le correcteur sous forme LQG quelle que soit la methode de
synth`ese. Lobtention de cette forme LQG equivalente repose sur une pro-
priete particuli`ere de cette forme, donnant lieu `a ce quon appelle la parametrisation
de Youla. Des complements sur la forme LQG equivalente peuvent etre
trouves dans les references [23, 24].
6.1 Parametrisation de Youla du correcteur LQG
Considerons le syst`eme complet compose du processus et de sa commande
LQG avec le signal dentree w tel que u = w K
c
x et comme sortie lerreur
destimation de la sortie, egalement appelee innovation,
y
= y y = y C x.
La representation detat de ce syst`eme boucle secrit :
_
_
_
x = Ax BK x + Bw
x = LCx + (A BK LC) x
y
= Cx C x
(155)
En utilisant comme vecteur detat :
_
x
x
_
=
_
x
x x
_
, (156)
le mod`ele secrit :
_
_
_
x = (A BK)x BK
x
+ Bw
x
= (A LC)
x
y
= C
x
(157)
De par sa structure, il apparat que ce syst`eme presente n p oles non observ-
ables (les valeurs propres de ABK qui sont independants du gain dobserva-
tion L) et n p oles non commandables (les valeurs propres de ALC qui sont
independantes du gain de la commande K). Il sagit l`a dune autre expres-
sion du principe de separation : les p oles du syst`eme boucle sont reglables
36
independamment par le gain de la commande et par le gain de lobserva-
teur
14
. Ainsi, aucun mode du syst`eme nest ` a la fois commandable (par
lentree w) et observable (par la sortie
y
). Le transfert entre w et
y
est
donc nul. On peut alors ajouter un transfert N(s) quelconque sans changer
le comportement du syst`eme. Ce parametrage du correcteur par un bouclage
sur un transfert exterieur N(s) est appele parametrisation de Youla .
En notant le mod`ele de N(s) :
_
x
N
= A
N
x
N
+ B
N
y
w = C
N
x
N
+ D
N
y
(158)
on peut alors ecrire les equations du correcteur :
_
_
_
x = (A LC BK BD
N
C) x + BC
N
x
N
+ (L + BD
N
)y
x
N
= B
N
C x + A
N
x
N
+ B
N
y
u = (K + D
N
C) x + C
N
x
N
+ D
N
y
(159)
6.2 Calcul des param`etres
Cherchons sil est possible dobtenir un correcteur LQG (cest-` a-dire les
gains K et L ainsi que le syst`eme N(s)) identique ` a un correcteur {A
K
, B
K
, C
K
, D
K
}
quelconque dordre n. Pour que les correcteurs soient de meme ordre, N(s)
doit etre statique, cest-` a-dire que seul D
N
est non nul parmi les matrices
detat de N(s). Le mod`ele du correcteur LQG secrit alors :
_
x = (A LC BK BD
N
C) x + (L + BD
N
)y
u = (K + D
N
C) x + D
N
y
(160)
Les deux correcteurs sont identiques du point de vue entree/sortie sil existe
un changement detat T :
x
K
= T x (161)
tel que
T
1
A
K
T = A LC BK BD
N
C (162)
T
1
B
K
= L + BD
N
(163)
C
K
T = K D
N
C (164)
D
K
= D
N
(165)
14. An de mieux visualiser ce resultat, le lecteur est invite `a representer graphiquement
le syst`eme dequations (157)
37
ce qui secrit :
D
N
= D
K
(166)
K = C
K
T D
K
C (167)
L = T
1
B
K
BD
K
(168)
0 = TBC
K
T T(A BD
K
C) + A
K
T + B
K
C (169)
La derni`ere equation est une equation algebrique de Riccati non symetrique
(GNARE pour Generalized Non-symetric Algebraic Riccati Equation) et
peut se mettre sous la forme hamiltonienne :
[T I]
_
A + BD
K
C BC
K
B
K
C A
K
_ _
I
T
_
= 0. (170)
Pour la resolution, cf. [24]. Une fois T determine, les matrices K, L et D
N
peuvent etre calculees.
6.3 Application `a linterpolation de correcteurs
Une application de ces techniques est la synth`ese de correcteurs ` a gains
sequences (gain scheduling en anglais) ` a partir dinterpolation de correcteurs
LTI. Imaginez que le comportement du syst`eme ` a asservir varie en fonction
dune variable dite variable de sequencement. Pour dierentes valeurs con-
stantes
k
de , le comportement de votre syst`eme est lineaire et connu
(par des lois de la physique ou par identication). On peut alors synthetiser
une batterie de correcteurs LTI K
k
(s) valables pour les dierents points de
fonctionnement. La question est maintenant de determiner un correcteur val-
able pour toute la plage de fonctionnement par interpolation des correcteurs
K
k
(s). Ce correcteur dependra bien s ur de et on peut le noter K
(s).
La question de linterpolation de deux mod`eles nest pas triviale. Bien en-
tendu, lidee dinterpoler directement les matrices de la representation detat
na pas beaucoup de sens si rien nest fait pour que les variables detat aient
le meme sens physique. En utilisant une representation detat particuli`ere,
la representation equilibree (balanced en anglais), le resultat nest pas non
plus satisfaisant. En eet, on observe que les poles nevoluent pas de mani`ere
reguli`ere entre deux points dinterpolation, meme proches [25].
Une des methodes presentes dans la litterature et qui donne de bons
resultats consiste ` a interpoler les gains dobservation et de commande de
la representation LQG equivalente, etablie ` a partir du mod`ele nominal du
processus. Dans le cas o` u le correcteur est dordre superieur au syst`eme (cest
generalement le cas des commandes H
J
x
(x
0
,
0
) = O
n1
(171)
(x
0
,
0
) = O
p1
(172)
Exercice 1 (Minimisation sous contrainte)
Pour x R
2
, on consid`ere le crit`ere J(x) = x
T
x et la contrainte px = 1 o` u
p =
_
1 1
) y (173)
16. En eet, les fonctions polynomiales x
k
poss`edent un minimum en 0 pour k pair mais
pas pour k impair.
42
Largument de J est une fonction ; on qualie souvent J de fonctionnelle,
cest-` a-dire de fonction de fonction.
En notant y une petite variation de la fonction y, et y la variation de
sa derivee correspondante, on a :
J(y + y)
_
b
a
_
(y, y, x) +
y
(y, y, x)y(x) +
y
(y, y, x) y(x)
_
dx
J(y) +
_
b
a
_
y
(y, y, x)y(x) +
y
(y, y, x) y(x)
_
dx (174)
Pour la trajectoire optimale, il faut que
y
(y, y, x)y(x) +
y
(y, y, x) y(x)
soit nul tout au long de la trajectoire.
A.2.2
Equation dEuler-Lagrange
La condition du premier ordre est donnee par la condition dEuler-Lagrange.
Lemme 4 (
Equation dEuler-Lagrange)
La fonction optimale y(x) verie lequation suivante :
y
d
dx
_
y
_
= 0 (175)
Dans le cas o` u ne depend pas explicitement de x, la formule dEuler-
Lagrange se reformule de la mani`ere suivante :
Lemme 5 (Formule de Beltrami)
La fonction optimale y(x) verie lequation suivante :
y
y
= k (176)
o` u k est une constance.
Demonstration 1
La formule dEuler-Lagrange se reecrit :
y
2
y y
y
2
y
2
y = 0 (177)
En calculant la derivee par rapport `a x de y
y
, on obtient apr`es deux
lignes de calcul :
d
dx
_
y
y
_
= y
_
y
y
2
y y
y
y
2
_
(178)
= 0 (179)
43
A.2.3 Prise en compte des conditions initiales et nales
Les conditions initiales et nales peuvent etre libres o` u imposees. On peut
imposer linstant et/ou la valeurs de la fonction y. Considerons un crit`ere
integrant eventuellement une penalite sur les conditions initiales et nales,
de la forme :
J =
_
b
a
(y(x), y(x), x)dx + (a, b, y(a), y(b)) (180)
Les conditions correspondantes, appelees conditions de transversalite, secrivent :
_
y
(a)
y(a)
_
x(a) +
_
(a)
y
(a) y(a)
a
_
a = 0 (181)
_
y
(b) +
y(b)
_
x(b) +
_
(b)
y
(b) y(b) +
b
_
b = 0 (182)
o` u (a) = (y(a), y(a), a) et (b) = (y(b), y(b), b), pour alleger lecriture.
Exercice 2 (Trajecoire optimale)
Determinez la trajectoire y(x) optimale minimisant le crit`ere
_
b
a
(x y(x) +
y
2
(x))dt avec a = 0, y(a) = 1, y(b) = 5 et b libre.
A.2.4 Prise en compte de contraintes
Considerons le cas dune minimisation du crit`ere (180) avec les contraintes
suivantes :
contrainte integrale
_
b
a
r(y, y, x)dx = 0, r() R
r
contrainte intantanee s(y, y, x) = 0, s() R
s
La resolution se fait en introduisant les multiplieurs de Lagrange R
r
et (x) R
s
et en substituant ` a la fonction le Hamiltonien :
H(y, y, x, , ) = (y, y, x) +
T
r(y, y, x) +
T
(x)s(y, y, x).
Lequation dEuler-Lagrange est inchangee :
H
y
d
dx
_
H
y
_
= 0 (183)
Probl`eme de Didon. Ce probl`eme bien connu
17
est lie ` a la fondation de
Carthage
18
. Didon se trouvait devant le probl`eme de maximiser laire de la
cite entouree par les remparts pour une longueur de rempart donnee.
17. Voir par exemple sur http://serge.mehl.free.fr/anx/cv_didon.html.
18. http://serge.mehl.free.fr/anx/pb_didon.html
44
Figure 3 Probl`eme de Didon
??
Mathematiquement, en partant de la gure 3, on peut se ramener `a
deux variables (x, y) et considerer y comme fonction de x ` a determiner.
Il sagit de maximiser la surface
_
x=b
x=a
y(x)dx tout en gardant le perim`etre
_
x=b
x=a
_
1 + y
2
(x)dx egal ` a L.
On note H(y, y, ) = y +
_
1 + y
2
le Lagrangien. Comme il ne depend
pas explicitement de x, on peut utiliser la formule de Beltrami, ce qui donne
y
_
1 + y
2
+
y
2
1+ y
2
= k. Cette relation se reecrit sous la forme (yk)
2
(1+
y
2
) =
2
. Il sagit desormais de montrer que la courbe est un cercle et de
caracteriser ce cercle. En posant Y = y k et en remplacant y par
dy
dx
, on
obtient 1 +
_
dy
dx
_
2
=
2
Y
2
, ce qui donne
Y
2
Y
2
dY = dx. En primitivant,
on obtient
2
Y
2
= x c o` u c est une constante dintegration ; le signe
positif est necessaire pour que lequation soir denie sur [a, b]. Lequation
secrit alors (yk)
2
+(xc)
2
=
2
, ce qui est lequation dun cercle de centre
dabscisse c et dordonnee k qui peuvent etre obtenus par des considerations
geometriques.
Probl`eme du brachistochrone. Soit un plan vertical de rep`ere (0, x, y)
o` u x est laxe horizontal et y est laxe vertival ascendant. Le probl`eme du
brachistochrone
19
, etudie et nomme par Jean Bernouilli, consiste `a determiner
la trajectoire permettant ` a une bille posee en (0, h) datteindre la position
nale (l, 0) le plus rapidement possible. Linconnue etant la courbe y(x).
Exercice 3 (Brachistochrone)
Pour une trajectoire de la bille (x(t), y(t)) debutant en (0, 0) avec une vitesse
nulle et terminant en un point precis (l, h), on se propose de vous guider
vers lobtention de la trajectoire optimale :
19. Voir http://fr.wikipedia.org/wiki/Courbe_brachistochrone.
45
1. Montrez que le module de la vitesse de la bille en un point (x, y) est
egal `a
2gy.
2. Calculez lexpression de la vitesse de progression selon x en fonction de
laltitude y et de la derivee y
= dy/dx de laltitude.
3. Montrez que le temps
t
mis par la bille pour parcourir lensemble du
trajet secrit :
t
=
_
x=l
x=0
1 + y
2
(x)
2gy(x)
dx (184)
4. A partir de lequation de Beltrami, montrez que la solution optimale
verie une equation dierentielle de la forme :
(1 + y
2
(x)) y(x) = k (185)
5. Par un changement de variable y
(190)
47
est de rang n.
Un syst`eme est dit detectable sil existe un observateur detat stable ; cest-
` a-dire sil existe L R
np
tel que A LC soit Hurwitz. On dit que la paire
{A, C} est detectable.
Un syst`eme est dit observable si on peut imposer arbitrairement les p oles
de son observateur detat, cest-`a-dire les p oles de ALC. Lobservabilite est
une condition plus forte que la detectabilite. La paire {A, C} est observable
si la matrice dobservabilite :
_
_
C
CA
.
.
.
CA
n1
_
_
(191)
est de rang n.
Les proprietes de commandabilite et dobservabilite sont duales. Ainsi,
{A, C} est observable si et seulement si {A
T
, C
T
} est commandable. Il en est
de meme pour la gouvernabilite et la detectabilite.
B.4 Syst`eme lineaire `a temps variant
B.4.1 Mod`ele LTV
Soit le syst`eme LTV deni par :
_
x = A(t)x + B(t)u
y = C(t)x + D(t)u
(192)
Sa matrice de transition (t, t
0
) est denie par :
_
d
dt
(t, t
0
) = A(t)(t, t
0
),
(t
0
, t
0
) = I
n
,
(193)
o` u I
n
est la matrice unite dordre n. La trajectoire de letat secrit alors :
x = (t, t
0
)x
0
+
_
t
t
0
1
(, t)B()u()d (194)
o` u x
0
= x(t
0
). Lecriture de x sous cette forme a le merite de faire ap-
paratre deux termes : lun issu de la condition initiale et lautre du sig-
nal de commande. Dans le cas dun syst`eme LTI, la matrice de transi-
tion secrit (t
0
, t) = exp(A(t t
0
)). Une propriete interessante est que
(t, t
0
) =
1
(t
0
, t).
48
B.4.2 Observabilite
De mani`ere generale, un syst`eme non lineaire est observable si on peut
determiner son etat initial ` a partir de lenregistrement de sa sortie sur un
certain horizon. Une fois connu letat initial, la trajectoire peut alors etre
enti`erement reconstruite `a partir du mod`ele.
Supposons pour simplier les calculs que lentree est nulle (u = 0) ; le
signal de sortie secrit y() = C(, t
0
)x
0
. Multiplions cette relation `a gauche
par
T
(, t
0
)C
T
et integrons sur [t
0
, t
1
], on obtient alors :
_
t
1
t
0
T
(, t
0
)C
T
y()d =
_
t
1
t
0
T
(, t
0
)C
T
C(, t
0
)d
. .
W
o
(t
0
,t
1
)
x
0
. (195)
La condition initiale x
0
est alors obtenue en multipliant ` a gauche par W
o
(t
0
, t
1
)
1
.
Le syst`eme est donc observable si le gramien dobservabilite W
o
(t
0
, t
1
) est
deni
20
(non singulier) [26]. Lobservabilite peut dependre de la trajectoire
de letat, celle-ci dependant du signal dentree ; un signal dentree rendant le
syst`eme observable est dit entree universelle.
B.4.3 Commandabilite
De mani`ere generale, un syst`eme est dit (compl`etement) commandable si,
` a partir dune condition initiale x
0
= x(t
0
), on peut trouver une commande
u permettant datteindre tout etat nal arbitraire x
f
= x(t
f
) avec t
f
> t
0
.
Remarquons que cette notion de commandabilite est equivalente ` a la possi-
bilite de suivre une trajectoire quelconque pour letat, ` a condition toutefois
que cette trajectoire soit susamment reguli`ere.
Le syst`eme LTV (192) est commandable sur lhorizon [t
0
, t
f
] si et seule-
ment si son gramien de commandabilite :
W
c
(t
0
, t
f
) =
_
t
f
t
0
1
(t
0
, )BB
T
T
(t
0
, )d (196)
est deni.
Le caract`ere susant de cette condition se montre en considerant la com-
mande :
u = B
T
(t)
T
(t
0
, t)W
1
c
(t
0
, t
f
)
_
x
f
1
(t
0
, t
f
)x
0
_
(197)
20. Toutes les valeurs propres de W
o
(t
0
, t
1
) sont reelles et positives puisque quelle est
symetrique.
49
C Analyse des syst`emes asservis multivari-
ables
C.1 Position du probl`eme
Considerons un processus lineaire multivariable y = G(s)u asservi par
un correcteur K(s), avec n
u
entrees et n
y
sorties. En tenant compte de la
consigne r et dune perturbation d en entree du processus, les equations
secrivent :
u = K(s)(r y) (198)
y = G(s)(u + d) (199)
En notant S
y
(s) = (I
n
y
+ K(s)G(s))
1
la sensibilite en sortie et S
u
(s) =
(I
n
u
+G(s)K(s))
1
la sensibilite en entree, on obtient les transferts en boucle
fermes suivants :
= S
y
(s)r S
y
(s)G(s)d (200)
u = K(s)S
y
(s)r K(s)S
y
(s)G(s)d (201)
= S
u
(s)K(s)r S
u
(s)K(s)G(s)d (202)
y = S
y
(s)G(s)K(s)r + S
y
(s)G(s)d (203)
(204)
o` u = r y est lerreur de regulation.
Les objectifs de ce schema general dasservissement sont les suivants :
stabilite,
robustesse,
un bon suivi de trajectoire,
un bon rejet des perturbations.
Voici comment les evaluer ` a partir de la representation frequentielle des trans-
ferts en boucle fermee.
Les outils classiques de lautomatique monovariable (lieu de Bode, de
Black et de Nyquist) ne sont pas directement utilisables en multivariable.
Les outils presentes sappuient sur le trace des valeurs singuli`eres, extension
de la notion de gain.
C.2 Valeur singuli`ere
Denition 3 Les valeurs singuli`eres dune matrice complexe M sont les
racines carrees des valeurs propres de M
H
M o` u M
H
est le hermitien (trans-
pose conjugue) de M. On les note
i
(M).
50
Propriete 1 (Proprietes generales)
Les valeurs singuli`eres sont des nombres reels positifs.
Les valeurs singuli`eres non nulles de M sont identiques `a celles de M
H
(invariance par loperation transpose/conjugue)
Les valeurs singuli`eres non nulles sont au plus au nombre de min(n
u
, n
y
),
la plus petite dimension de M.
Propriete 2 (Norme matricielle) La valeur singuli`ere maximale (M)
est une norme matricielle. Les proprietes generales des normes sappliquent
donc.
(M) = ||(M)
(M + N) (M) + (N)
(MN) (M)(N)
Propriete 3 (Inversion de matrice) M est inversible si et seulement si
sa plus petite valeur singuli`ere est non nulle ((M) > 0). Alors, (M) =
1
(M
1
)
et (M) =
1
(M
1
)
.
On en deduit les proprietes suivantes :
Propriete 4 (M) = ||(M)
(M + N) (M) + (N)
(M)(N) (MN)
Propriete 5 (Interpretation) La norme est la norme induite sur les
matrices par la norme euclidienne des vecteurs :
(M) = max
z=0
||Mz||
2
||z||
2
2
(M) = max
z=0
z
H
M
H
Mz
z
H
z
(205)
Ainsi, la norme est lamplication maximale du syst`eme de transfert M.
C.3 Trace des valeurs singuli`eres
Pour un transfert dynamique multivariable M(s), la representation frequentielle
consiste en le trace des valeurs singuli`eres de M(j) en fonction de sur
[0, ]. Lechelle logarithmique est generalement choisie pour les abscisses et
les ordonnees. Ce trace generalise celui du gain aux syst`emes multivariables.
51
Denition 4 (Norme H
) La norme H
est la
borne superieure des valeurs singuli`eres maximales de M(j) lorsque varie
sur [0, ] :
||M||
= sup
[0,]
(M(j)) (206)
Denition 5 (Norme L
2
sur les signaux) Soit z un signal `a valeur reelle
ou complexe sur [0, ] ; on note ||z||
2
sa norme L
2
denie par :
||z||
2
=
_
0
z
H
(t)z(t)dt (207)
Propriete 6 (Interpretation de la norme H
) La norme H
est la norme
induite sur les syst`emes par la norme L
2
sur les signaux :
||M(s)||
= max
z=0
||M(s)z||
2
||z||
2
(208)
Ainsi, la norme ||M(s)||
M
= min
|1 + K(j)G(j)|. (209)
En notant que :
min
|1 + K(j)G(j)| = max
|(1 + K(j)G(j))
1
|, (210)
on denit en multivariable la marge de module en sortie :
M
=
1
||S
y
(s)||
, (211)
52
et la marge de module en entree :
M
=
1
||S
u
(s)||
. (212)
C.5 Suivi de consigne
An davoir un bon comportement en suivi de consigne, il faut que le
transfert entre la reference et lerreur soit de type coupe-bas (ou passe-haut).
On pourra alors tracer la representation frequentielle de S
y
(s) et relever la
bande passante `a -3 dB ainsi que lattenuation maximale (en continu).
C.6 Rejet de perturbation
An davoir un bon comportement en rejet de perturbation, il faut que le
transfert entre la perturbation et lerreur soit le plus faible possible notam-
ment en basse frequence. Ce transfert est generalement de type passe-bande.
On pourra alors tracer la representation frequentielle de S
y
(s)G(s) et relever
lattenuation maximale (en continu) ainsi que lamplication maximale en
precisant la frequence.
C.7 Robustesse
Les syst`emes dynamiques physiques sont generalement de type passe-
bande et on dont un gain qui diminue en haute frequence. Il en resulte
donc quau-del`a dune certaine bande de frequences, ces dynamiques sont
necessairement mal connues. Ainsi, une des sources classique de manque de
robustesse des syst`emes asservis correspond ` a des amplications de modes
hautes frequence mal connus, entranant ainsi des instabilites. An de palier
ce probl`eme, il convient de sassurer que le gain du correcteur decrot au-
del` a de la bande passante. Une mani`ere detournee de sen assurer consiste ` a
considerer la reponse frequentielle du transfert S
u
(s)K(s) ou K(s)S
y
(s) du
transfert entre r et u.
53
D Inegalites matricielles anes
Les Inegalites Matricielles Anes ou LMI prennent une place de plus
importante dans les methodes modernes de lautomatique. De nombreux
resultats anterieurs trouvent une formulation LMI et ce formaliste permet
aussi de resoudre de nouveaux probl`emes qui navaient pas trouve jusqualors
de solution.
D.1 Positivite
Denition 6 (Matrice positive) Une matrice A R
n
est dite (semi-
denie) positive et on note A 0 si la forme quadratique x
T
Ax est positive
pour tout vecteur x.
Cette denition se transpose evidemment au cas negatif. On peut tou-
jours ecrire une forme quadratique ` a partir dune matrice symetrique. Ainsi,
x
T
Ax =
1
2
x
T
(A
T
+A)x. On ne contentera donc de considerer le cas des matri-
ces symetriques. Ces matrices ont la particularite davoir toutes leurs valeurs
propres reelles.
Propriete 7 (Matrice negative) Une matrice A symetrique est negative
si et seulement toutes ses valeurs propres sont negatives et on note A 0.
On denit aussi la positivite stricte et on dit quune matrice est denie
positive si toutes ses valeurs propres sont strictement positives. Cest equivalent
` a dire que la forme quadratique correspondante x
T
Ax est strictement positive
pour tout x non nul.
Propriete 8 Soit un scalaire, A I > 0
i
(A) > .
P > 0 P < 0 ; on peut donc toujours se ramener `a un probl`eme
de positivite (ou de negativite).
D.2 Inegalite matricielle ane ou lineaire
Denition 7 (Inegalite Matricielle Ane) On appelle inegalite matricielle
ane (ou lineaire et en anglais linear matrix inequality note LMI) le probl`eme
suivant ; etant donnees les matrices reelles, carrees et symetriques M
k
, k =
1..n, trouver les reels x
k
, k = 1...n tels que M(x) = M
0
+x
1
M
1
+...+x
n
M
n
>
0.
Le succ`es des LMI vient du developpement des methodes dites du point
interieur (interior point methods) qui permettent de resoudre de mani`ere
ecace ces probl`emes [21].
54
Propriete 9 Un syst`eme de plusieurs LMI est une LMI. En eet :
_
P(x) > 0
Q(x) > 0
_
P(x) 0
0 Q(x)
_
> 0 (213)
D.3 Exemple de LMI
Les LMI ne se presentent pas directement sous la forme de linegalite
presentee ci-dessus. Prenons un exemple classique de lautomatique ; la sta-
bilite au sens de Lyapunov pour un syst`eme lineaire x = Ax. Il sagit de
trouver une matrice reelle P = P
T
> 0 de meme dimension que A telle que
A
T
P + PA < 0. Considerons ` a titre dexemple, le cas o` u A est une matrice
2 2.
A =
_
a
1
a
2
a
3
a
4
_
(214)
La matrice P depend alors de 3 param`etres x
i
, k = 1..3 et peut secrire :
P =
_
x
1
x
2
x
2
x
3
_
(215)
La condition de positivite de P secrit :
x
1
_
1 0
0 0
_
+ x
2
_
0 1
1 0
_
+ x
3
_
0 0
0 1
_
> 0 (216)
Linegalite de Lyapunov, elle se reecrit :
x
1
_
2a
1
a
2
a
3
0
_
+ x
2
_
a
2
+ a
3
a
1
+ a
4
a
1
+ a
4
a
2
+ a
3
_
+ x
3
_
0 a
2
a
3
2a
4
_
< 0 (217)
D.4 Resolution
An de rendre les solveurs de LMI facilement utilisables pour les probl`emes
de lautomatique, des interfaces ont ete developpees permettant decrire les
probl`eme sous des formes matricielles simples. On peut citer LMI-Tools de El
Ghaoui
21
, la LMI Control Toolbox de MathWorks [22] et linterface SeDuMi
developpe au LAAS par Peaucelle et al. [27]. On pourra egalement utiliser
loutil YALMIP
22
.
Les trois probl`emes classiques que ces outils resolvent sont
la faisabilite (ou existence) : trouver x solution de A(x) < 0,
21. http ://robotics.eecs.berkeley.edu/ elghaoui/
22. http ://control.ee.ethz.ch/ joloef/yalmip.php
55
la minimisation dune fonction lineaire ; trouver x minimisant c
T
x sous
la contrainte A(x) < 0,
le probl`eme de valeur propre generalisee : minimiser sous les con-
traintes A(x) < B(x), B(x) > 0 et C(x) < 0.
References
[1] A. P. Sage and C. C. White, Optimum Systems Control, Prentice Hall,
1977.
[2] B. D. O. Anderson and J. B. Moore, Optimal Control - Linear Quadratic
Methods, Prentice Hall, 1989.
[3] E. Ostertag, Commande et Estimation Multivariables, TechnoSup, El-
lipses, Paris, 2006.
[4] L. Pontriaguine, V. Boltianski, G. Gamkrelidze, and E. Michtchenko,
Theorie Mathematique des Processus Optimaux, Moscou : Mir, 1974.
[5] H. Bourles, Optimisation et Commande Optimale,
Ecole Normale
Superieure de Cachan, 1996.
[6] G. Duc, Robustesse des Syst`emes Lineaires Multivariables,
Ecole
Superieure d
Electricite, 1994.
[7] N. A. Lehtomaki, N. R. Sandell, and M. Athans, Robustness results
in linear quadratic gaussian based multivariable control design, IEEE
Trans. Autom. Control.
[8] E. Ostertag, Filtrage Optimal et Commande Optimale,
Ecole Superieure
de Physique de Strasbourg, 2002.
[9] G. F. Franklin, J. D. Powell, and M. L. Workman, Digital Control of
Dynamic Systems, Addison-Wesley, 1990.
[10] W. F. Arnold and A. J. Laub, Generalized eigenproblem algorithms
and software for algebraic riccati equations, Proceedings of the IEEE,
vol. 72, pp. 17461754, 1984.
[11] The MathWorks Inc., Getting Started with the Control System Toolbox,
2000-2002.
[12] W. Bachta, P. Renaud, E. Laroche, A. Forgiona, and J Ganglo, Mo-
tion prediction for computer-assisted beating heart surgery, IEEE
Transactions on Biomedical Engineering, 2009.
[13] M. H. A. Davis, Linear Estimation and Stochastic Control, Chapman
and Hall, 1977.
56
[14] J. C. Doyle and G. Stein, Robustness with observers, IEEE Trans.
Autom. Control.
[15] J. C. Doyle and G. Stein, Multivariable feedback design : Concepts for
a classical/modern synthesis, IEEE Trans. Autom. Control, vol. 26,
no. 1, 1981.
[16] J. B. Moore and L. Xia, Loop recovery and robust state estimate
feedback design, IEEE Transactions on Automatic Control, vol. 32,
no. 6, 1987.
[17] G. Stein and M. Athans, The LQG/LTR procedure for multivariable
feedback control design, IEEE Trans. Autom. Control, vol. 32, no. 2,
1987.
[18] J. D. Birdwell and A. J. Laub, Balanced singular values for lqg/ltr
design, International Journal of Control, vol. 45, no. 3, 1987.
[19] Z. Zhang and J. Freudenberg, Loop transfert recovery for nonminimal
phase plants, IEEE Transactions on Automatic Control, vol. 35, no. 5,
1990.
[20] C. Scherer, P. Gahinet, and M. Chilali, Multi-objective output-feedback
control via LMI optimization, IEEE Trans. Autom. Control, vol. 42,
no. 7, pp. 896911, 1997.
[21] Y. Nesterov and A. Nemirovski, Interior-point Polynomial Methods in
Convex Programming, SIAM, 1994.
[22] P. Gahinet, A. Nemirovski, A. J. Laub, and M. Chilali, LMI Control
Toolbox, The MathWorks Inc., 1995.
[23] D. Alazard and P. Apkarian, Exact observer-based structures for ar-
bitrary compensators, International Journal of Robust and Nonlinear
Control, vol. 9, pp. 101118, 1999.
[24] D. Alazard, C. Cumer, P. Apkarian, M. Gauvrit, and G. Ferr`eres, Ro-
bustesse et Commande Optimale, Cepadu`es
Editions, 1999.
[25] M. Berriri, Commande LPV dun syst`eme dentranement de bande
flexible, 2004.
[26] G. Bornard, F. Celle-Couenne, and G. Gilles, Observation, Observabilite,
vol. 1, chapter 5, pp. 177221, Masson, Paris, 1993, in A.J. Fossard and
D. Normand-Cyrot, Syst`emes non-lineaires.
[27] D. Peaucelle, D. Henrion, Y. Labit, and K. Taitz,
Users guide for SeDuMi interface, LAAS - CNRS,
http ://www.laas.fr/peaucell/SeDuMiInt.html, 2002.
57