Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Commande Adaptative
par Modèle de Référence
23
Commande avancée
24
Commande avancée
3. Utilisation d’une méthode de synthèse qui permet d’atteindre les performances spé-
cifiées pour le modèle dynamique déduit. La synthèse et le réglage du correcteur
sont faits à partir du modèle obtenu durant la deuxième étape.
Boucle adaptative
Performance
désirée
Ajustement
des
paramètres
Paramètres
correcteur
yc u
Correcteur Système y
ajustable physique
Boucle conventionnelle
25
Commande avancée
Comme en commande conventionnelle, le rôle de cette boucle est de rejeter les perturba-
tions agissants sur les grandeurs intervenant dans le système de commande (perturbation
de commande, de sortie, bruit de mesure).
Elle intervient pour ajuster les paramètres du correcteur quand les paramètres du sys-
tème subissent des perturbations. Cette boucle calcule un indice de performance à partir
de la sortie, des états et de la commande. Cet indice est utilisé pour ajuster les para-
mètres du correcteur pour avoir l’indice de performance désiré. L’action des deux boucles
est décrites dans cet exemple
Cas 1 : Les paramètres du système sont à leur valeur nominale et une perturbation agit
sur la grandeur commandée. La boucle conventionnelle permet le retour de cette
grandeur à sa valeur régulée avec l’amortissement imposé.
26
Commande avancée
Environnement
yc y
Correcteur
Processus
ajustable
Mécanisme Mesures
d’adaptation de
l’environement
Les performances désirées pour le système de commande en boucle fermée sont spécifiées
sous la forme d’un modèle de référence. Le modèle de référence peut être caractérisé par
son temps de réponse, son dépassement son facteur d’amortissement ou sa fréquence
propre. Le but de la commande adaptative directe peut se résumer en deux points :
1. Avoir une erreur nulle entre la sortie du système commandé et le modèle de référence
s’ils partent des mêmes conditions initiales,
2. Avoir une erreur qui converge asymptotiquement vers zéro si les conditions initiales
sont différentes.
Le schéma de principe de la commande adaptative directe est donné sur la figure ci-dessous
27
Commande avancée
Modèle ym
de
référence
Paramètres
du correcteur Mécanisme
yc d’adaptation
u y
Correcteur Processus
28
Commande avancée
Paramètres
du modèle
Synthèse u Modèle
du correcteur estimé
du processus
Paramètres
du correcteur
yc
Correcteur
y
ajustable Processus
u(k) y(k)
Processus
+
q −1
-
Prédicteur
ŷ(k)
y(k − 1) ajustable
u(k)
Algorithme
d’adaptation
29
Commande avancée
Modèle ym
de réference
Mécanisme
d’ajustement
yc Correcteur Processus y
u
Comme il est montré sur la figure 2.6, un schéma de commande adaptative comporte
principalement deux boucles :
30
Commande avancée
Exemple 2.2 (Commande adaptative en boucle ouverte). Soit le système linéaire mono-
variable représenté sur la figure 2.7 [13]
y
θ kG(s)
+ e
yc
-
k0 G(s)
ym
La fonction de transfert du système G(s) est connue mais le gain k est inconnu. L’ob-
jectif est de trouver un correcteur en boucle ouverte pour que système corrigé possède la
fonction de transfert Gm (s) du modèle de réference :
31
Commande avancée
On utilise pour cela un correcteur proportionnel. La commande est alors donnée par
u = θyc (2.7)
Exemple 2.3 (Commande adaptative d’un système du premier ordre). Soit un système
linéaire décrit par un modèle du premier ordre :
dy
= −ay + bu (2.10)
dt
avec a et b deux paramètres inconnus.
On souhaite avoir un comportement en boucle fermée similaire au modèle de référence
du premier ordre également [13]
dym
= −am ym + bm yc (2.11)
dt
32
Commande avancée
Modèle de référence
ym
k0 G(s)
-
Z e
−γ ′ X
+
yc × kG(s)
Processus
u(t) = θ1 yc − θ2 y (2.12)
33
Commande avancée
Ces relation ne peuvent pas êtres utilisées directement car a et b sont inconnus. On utilise
alors une approximation en remarquant que si les paramètres sont proches des paramètres
exacts (θ = θ0 ) on a :
s + a + bθ20 = s + am (2.18)
on pose alors
s + a + bθ2 = s + am (2.19)
On a alors d’après l’algorithme du gradient :
dθ1 ∂e1
dt ∂t
= −γ
.e
dθ2 ∂e2
dt ∂t
soit
dθ1 b
= − γ( yc )e
dt s + am
(2.20)
dθ1 b
=γ( y)e
dt s + am
am
en posant γ = γ ′ · , on obtient la règle d’adaptation
b
dθ1 am
= − γ ′( yc )e
dt s + am
(2.21)
dθ1 am
=γ ′ ( y)e
dt s + am
Le signe de b doit être connu pour avoir un gain γ de signe correct. •
34
Commande avancée
ẋ = f (x, t) (2.25)
∀t0 ≥ 0, ∀ε > 0, ∃δ(ε, t0) : kx(t0 )k < δ(ε, t0) ⇒ kx(t)k < ε, ∀t ≥ t0 . (2.27)
Définition 2.4 (Fonction de classe κ). La fonction α : [0, a) → [0, ∞) est de classe κ
si :
2) α(0) = 0.
1) a = ∞
2) α(r) → ∞
r→∞
35
Commande avancée
lim g(t) = 0
t→∞
Théorème 2.2 (Bornitude et ensemble de convergence). Soit D = { x ∈ Rn | kxk < r}.
Supposons que f (x, t) est Lipschitzienne sur D × [0, ∞). Soit V (x, t) une fonction conti-
nûment différentiable tel que
et
dV ∂V ∂V
= + f (x, t) ≤ −W (x) ≤ 0
dt ∂t ∂x
dV ∂V ∂V
= + f (x, t) ≤ −W (x) ≤ 0, ∀t ≥ 0, ∀x ∈ D
dt ∂t ∂x
avec α1 et α2 des fonction de classe κ définies sur [0, r) et W (x) continue sur D. De plus,
dV
on suppose que est uniformément continue en t, alors les solutions de ẋ = f (x, t)
dt
avec kx(t0 )k < α2 (α1 (r)) sont bornées et vérifient
−1
lim W (x) → 0
t→∞
De plus, si toutes les hypothèses sont vérifiées globalement et que α1 ∈ κ∞ , alors le résultat
est vrai ∀x(t0 ) ∈ Rn .
2
d V dV
Remarque 2.4. Il suffit d’avoir 2
bornée pour avoir uniformément continue [14].
dt dt
•
36
Commande avancée
dV
3. Généralement est seulement semi-définie négative. Il est alors possible d’utiliser
dt
le théorème 2.2 pour démontrer la convergence de l’erreur vers zéro.
Exemple 2.4 (Synthèse MRAC par la méthode de Lyapunov ). Soit le modèle de référence
linéaire à temps invariant du premier ordre [13]
dym
= −am ym + bm yc (2.29)
dt
On souhaite imposer son comportement à un système qui est aussi de premier ordre
dy
= −ay + bu (2.30)
dt
par une commande proportionnelle sur la mesure et la consigne
u = θ1 yc − θ2 y (2.31)
e = y − ym , (2.32)
dy dym
on obtient la dérivée temporelle de de l’erreur en remplaçant les expressions de et
dt dt
de dy dym
= −
dt dt dt
= −ay + bu + am ym − bm yc − ay + b(θ1 yc − θ2 y) + am y − am y + am ym − bm yc
(2.33)
38
Commande avancée
Lyapunov MIT
dθ1
dθ1 am
= −γ ′
= −γ ′ yc e
yc e
dt
dt s + am
dθ2 dθ2
am
= γ ′ ye
= γ′ y e
dt dt s + am
Table 2.1 – Comparaison des méthodes de Lyapunov et MIT.
car V (t) est décroissante, ce qui implique que e, θ1 et θ2 soient bornés et que y = e + ym
soit aussi borné en supposant que le modèle de référence Gm (s) est stable et la consigne
yc bornée. De plus, la dérivée seconde par rapport au temps t de V est donné par
d2 V de
= −2am e = −2am e (−am e − (bθ2 + a + (bθ1 − bm )yc − am )y) (2.40)
d2 t dt
d2 V dV
Comme e, y et yc sont bornés, alors est aussi bornée, donc est uniformément
dt2 dt
continue. Le théorème 2.2 permet de conclure que
lim e(t) = 0
t→∞
Toutefois, ceci n’assure pas la convergence θ1 → θ10 et θ2 → θ20 . Il faut imposet une
condition sur l’excitation. •
dθ
= γϕe (2.41)
dt
avec
θ : vecteur des paramètres,
T
ϕ = [−yc y] : Règle de Lyapunov,
am
ϕ= [−yc y]T : Règle MIT.
s + am
La règle de Lyapunov est plus simple et ne nécessite pas de filtrage.
39
Commande avancée
dx
= Ax + Bu (2.42)
dt
dx
= (A − BL)x + BMyc
dt (2.45)
= Ac (θ)x + Bc (θ)
40
Commande avancée
e = x − xm (2.49)
en posant
Ac (θ0 ) = Am
(2.52)
Bc (θ0 ) = Bm
on obtient
de
= Am e + Ac (θ) − Ac (θ0 ) x + Bc (θ) − Bc (θ0 ) yc
dt (2.53)
= Am e + Ψ(θ − θ0 )
dV
Afin de rendre semi-définie négative, on choisit la règle d’adaptation suivante
dt
dθ
= −γΨT P e (2.57)
dt
ce qui donne
dV γ
= − eT Qe. (2.58)
dt 2
41
Commande avancée
Exemple 2.5 (Commande adaptative en boucle ouverte par approche d’état). Soit le
SLTI modélisé par la fonction de transfert G(s) multiplié par le gain inconnu k [13].
On souhaite poursuivre le modèle de référence décrit par sa fonction de transfert Gm (s)
donnée par
Gm (s) = k0 Gs (2.60)
u = θyc (2.61)
k0
avec θ0 = •
k
Si (A, B) est une réalisation de la fonction de transfert G(s)
dx
= Ax + B(θ − θ0 )yc
dt (2.63)
e = Cx
dx
Si = Ax est asymptotiquement stable, alors
dt
∃P, ∃Q : AT P + P A = −Q (2.64)
en choisissant
1 T
V = γx P x + (θ − θ0 )2 (2.65)
2
on obtient !
dV γ dxT dx dmθ
= P x + xT P + (θ − θ0 ) (2.66)
dt 2 dt dt dt
dx
On remplace l’expression de donnée par l’équation (2.63)
dt
dV γ dθ
= Ax + Byc (θ − θ0 ) P x + cT P Ax + Byc (θ − θ0 ) + (θ − θ0 )
dt 2 dt (2.67)
γ T 0 dθ
= − x Qx + (θ − θ )( + γyc B P x) T
2 dt
42
Commande avancée
Date Application
1960 Commande adaptative d’avions.
1972 Premières applications industrielles du STR.
1973 Expériences en échelle réelle pour le pilotage adaptatif de bateaux.
1974 Commande adaptative de procédés chimiques.
1980 Commercialisation de pilote automatique de bateaux.
Table 2.2 – Quelques dates des applications industrielles de la commande adaptative
dθ
= −γyc B T P x (2.68)
dt
pour avoir
dV γ
= − xT Qx (2.69)
dt 2
Cet ajustement nécessite néanmoins la connaissance de x. Afin d’y remédier on choisit P
tel que
BT P = C (2.70)
Comme C est la matrice de sortie, ceci revient à utiliser un retour de sortie au lieu d’un
retour d’état. Il suffit dans ce cas de connaître la valeur de la sortie. On tire ainsi
B T P x = Cx = e (2.71)
Soit finalement
dθ
= −γyc e (2.72)
dt
43
Commande avancée
La commande de missiles : en plus des paramètres déjà mentionnés pour des avions,
le centre de masse d’un missile change constamment suite à la consommation de son
carburant.
Commande de satellites : Afin d’avoir une durée de service plus longue, les satellites
d’observation doivent êtres rapidement et régulièrement réorientés.
1 Paramètres incertains,
2 Paramètres variables,
3 Retards importants,
44
Commande avancée
45
Commande avancée
46