Vous êtes sur la page 1sur 24

Chapitre 2

Commande Adaptative
par Modèle de Référence

2.1 Bref historique sur la commande adaptative


Les premiers travaux sur la commande adaptative apparurent en 1951 avec Draper
et Li [11]. Ils proposent un système de commande pour l’optimisation des performances
d’un moteur à combustion interne. Le modèle du moteur comporte des incertitudes dans
ces caractéristiques de performance. L’appellation adaptation apparaît quand a elle la
première fois dans la littérature spécialisée en automatique en 1954. Il s’agit des travaux
de Tsien qui décrivent le modèle d’Ashlay du cerveau humain.
En 1955, Benner et Drenick proposent un système de commande avec des caractéris-
tiques adaptatives. Mais le pas majeur dans le domaine de la commande adaptative fut
le travail pionnier de Whitaker et al. Il proposent une commande adaptative pour le pi-
lotage d’un avion en utilisant un modèle de référence. Ce schéma de commande utilise
l’erreur entre le comportement actuel du système et le comportement désiré du modèle de
référence pour adapter les paramètres du correcteurs. Le modèle de l’avion à piloter pré-
sente des incertitudes et des variations dans sa dynamique. Ce travail constitue le début
de la commande adaptative à modèle de référence (Model Reference Adaptive Control :
MRAC).
En 1960, Li et Van der Velde proposent plusieurs types de compensation adaptative
des variations paramétriques du système en introduisant un cycle limite dans la boucle de
commande. Cette technique est connue sous le nom de systèmes adaptatifs auto-oscillants.
En se basant sur l’invariance de la trajectoire du système en fonction de ses paramètres,
Petrov propose en 1963 une technique de commande adaptative pour les systèmes de
commande en tout-ou-rien. Il s’agit généralement des systèmes comportant des des com-
mutateurs ou des relais. C’est le début de la commande à structure variable qui inspirera

23
Commande avancée

par la suite la commande par modes glissants.


Parallèlement, Belleman aux états-unis et Feldman en URSS appliquent la program-
mation dynamique pour la synthèse de systèmes de commande en présence d’incertitudes
stochastiques. Le signal de commande est utilisé dans ce cas de façon duale pour l’iden-
tification et la commande. Cette approche est connue sous le nom de commande duale.
Un autre axe important de la commande adaptative est introduit par Åström et Wit-
tenmark. Il s’agit du régulateur auto-ajustable (Self-Tuned Regulator : STR). L’avantage
du STR est qu’il est conçu de façon algorithmique pour être directement implémentable
numériquement par un calculateur. La baisse des coûts de microprocesseur et microcon-
trôleurs favorise le succès de cette approche dans le milieu industriel. Elle ouvre le champ
à un nombre important d’applications industrielle du STR jusqu’à nos jours.
Sur un plan théorique, Monopoli propose l’approche de l’erreur augmentée en 1974 pour
la synthèse de MRACs. Cette approche permet des avancée théoriques importantes, parti-
culièrement pour la preuve de la stabilité asymptotique globale des contrôleurs adaptatifs.
Des techniques de commande adaptative globalement asymptotiquement stables sont pro-
posées par Narendra, Morse, Goodwin et Agardt avec des contraintes de moins en moins
restrictives sur les conditions de stabilité. Ces approches sont présentés aussi bien en
temps continu qu’en temps discret.
Des travaux ultérieurs permirent d’unir différentes approches de la commande adap-
tative sous le même formalisme et surtout de prover l’équivalence entre le systèmes de
commande adaptatifs à base de MRAC et de STR.

2.2 Définitions sur la commande adaptative

La commande adaptative est un ensemble de techniques qui permettent de fournir une


approche systématique pour l’ajustement des correcteurs en temps réel. Par ajustement,
on fait référence à la mise à jours des paramètres des correcteurs. Le but de la commande
adaptative est d’atteindre et de maintenir le degré de performances désiré pour le sys-
tème de commande quand les paramètres du système sont inconnus ou variables dans le
temps. Si les paramètres sont inconnus mais constant, la commande adaptative permet
le réglage en boucle fermée des paramètres du correcteur. L’effet d’ajustement s’arrête
après le réglage des paramètres. Si les paramètres sont variants dans le temps, de façon
imprévisible, l’adaptation des paramètres agit tout le temps [12].

24
Commande avancée

2.2.1 Commande conventionnelle et commande adaptative


La synthèse d’une commande conventionnelle en boucle fermée passe par les étapes
suivantes :

1. Spécification des performances désirées de la boucle de commande,

2. Obtention du modèle dynamique du système à commander. Le modèle peut être


obtenu par identification à partir de données expérimentales provenant du système
physique en boucle ouverte ou en boucle fermée

3. Utilisation d’une méthode de synthèse qui permet d’atteindre les performances spé-
cifiées pour le modèle dynamique déduit. La synthèse et le réglage du correcteur
sont faits à partir du modèle obtenu durant la deuxième étape.

La commande adaptative est l’implémentation en temps réel de la procédure décrite ci-


dessus .Le réglage du contrôleur se fait à partir de données prélevées en temps réel à
partir du système physique. La figure 2.1 illustre le schéma de principe d’un correcteur
adaptatif.

Boucle adaptative

Performance
désirée
Ajustement
des
paramètres

Paramètres
correcteur

yc u
Correcteur Système y
ajustable physique

Boucle conventionnelle

Figure 2.1 – Commande adaptative.

On distingue deux boucles :


Une boucle de commande classique et une boucle d’ajustement des paramètres.

25
Commande avancée

2.2.1.1 Boucle de commande classique

Comme en commande conventionnelle, le rôle de cette boucle est de rejeter les perturba-
tions agissants sur les grandeurs intervenant dans le système de commande (perturbation
de commande, de sortie, bruit de mesure).

2.2.1.2 Boucle d’ajustement des paramètres

Elle intervient pour ajuster les paramètres du correcteur quand les paramètres du sys-
tème subissent des perturbations. Cette boucle calcule un indice de performance à partir
de la sortie, des états et de la commande. Cet indice est utilisé pour ajuster les para-
mètres du correcteur pour avoir l’indice de performance désiré. L’action des deux boucles
est décrites dans cet exemple

Exemple 2.1 (Réglage de l’amortissement). On souhaite imposer un amortissement


donné au système commandé. On peut distinguer deux cas [12] :

Cas 1 : Les paramètres du système sont à leur valeur nominale et une perturbation agit
sur la grandeur commandée. La boucle conventionnelle permet le retour de cette
grandeur à sa valeur régulée avec l’amortissement imposé.

Cas 2 : Les paramètres du système changent, par conséquent, l’amortissement change


aussi. Le mécanisme d’adaptation agit alors en changeant les paramètres du correc-
teur pour faire revenir l’amortissement à sa valeur désirée.

2.2.2 Commande adaptative en boucle ouverte

La figure 2.2 représente le diagramme d’une commande adaptative en boucle ouverte

26
Commande avancée

Environnement

yc y
Correcteur
Processus
ajustable

Mécanisme Mesures
d’adaptation de
l’environement

Figure 2.2 – Commande adaptative en boucle ouverte

Un exemple de commande adaptative en boucle ouverte est la commande par séquen-


cement de gain (gain-scheduling). Cette technique ajuste les paramètres du correcteur
à partir d’un tableau de correspondance (look-up table) : A un ensemble de mesures
provenant de l’environnement (conditions de fonctionnement) correspond une valeur des
paramètres du correcteur. Cette méthode agit en boucle ouverte car l’effet du changement
des performances du système, suite à un changement des paramètres du correcteur ou du
système n’est pas mesuré. Il n’est pas renvoyé au mécanisme d’adaptation [12].

2.2.3 Commande adaptative directe

Les performances désirées pour le système de commande en boucle fermée sont spécifiées
sous la forme d’un modèle de référence. Le modèle de référence peut être caractérisé par
son temps de réponse, son dépassement son facteur d’amortissement ou sa fréquence
propre. Le but de la commande adaptative directe peut se résumer en deux points :

1. Avoir une erreur nulle entre la sortie du système commandé et le modèle de référence
s’ils partent des mêmes conditions initiales,

2. Avoir une erreur qui converge asymptotiquement vers zéro si les conditions initiales
sont différentes.

Le schéma de principe de la commande adaptative directe est donné sur la figure ci-dessous

27
Commande avancée

Modèle ym
de
référence

Paramètres

du correcteur Mécanisme
yc d’adaptation

u y
Correcteur Processus

Figure 2.3 – Commande adaptative directe.

Selon la figure 2.3, le mécanisme d’adaptation reçoit des informations à partir de la


sortie du système, de la sortie du modèle de référence et de la commande. Il calcule
l’erreur e = y − ym pour mesurer l’indice de performance. Il peut utiliser la commande
u pour prévoir la sortie future du processus. La commande adaptative par modèle de
référence est un commande adaptative directe. Les paramètres du correcteur sont ajustés
de façon directe, à partir des informations recueillies par le mécanisme d’adaptation.

2.2.4 Commande adaptative indirecte


La commande adaptative indirecte est la mise en oeuvre, en temps réel, de la procédure
de synthèse d’un correcteur :

1. Collecte des données à partir du processus,

2. Identification d’un modèle,

3. Utilisation du modèle pour la synthèse du correcteur.

Dans le cas de la commande adaptative indirecte, ce processus se distingue par :

1. Estimation en-ligne (temps réel) des paramètres du modèle du processus,

2. Calcul en-ligne des paramètres du correcteur en fonction du modèle estimé.

Cette procédure est décrite par la figure 2.4

28
Commande avancée

Paramètres
du modèle
Synthèse u Modèle
du correcteur estimé
du processus
Paramètres
du correcteur
yc

Correcteur
y
ajustable Processus

Figure 2.4 – Commande adaptative indirecte.

La commande adaptative indirecte utilise les techniques d’estimation en-ligne du mo-


dèle. L’estimateur en-ligne est un prédicteur ajustable qui utilise la mesure des sorties
passées du processus pour prédire la sortie actuelle. Comme le montre la figure 2.5, l’er-
reur de prédiction entre la sortie du processus et celle du prédicteur est utilisée pour
ajuster les paramètres du prédicteur à travers des algorithmes d’adaptation [12].

u(k) y(k)
Processus

+
q −1
-

Prédicteur
ŷ(k)
y(k − 1) ajustable
u(k)
Algorithme

d’adaptation

Figure 2.5 – Prédicteur dans une commande adaptative indirecte.

29
Commande avancée

2.3 Commande adaptative par modèle de référence


L’objectif de la commande adaptative par modèle de référence est d’avoir un système
commandé en boucle fermée qui se comporte le plus proche possible d’un modèle de
référence.

Modèle ym
de réference
Mécanisme
d’ajustement

yc Correcteur Processus y
u

Figure 2.6 – Commande adaptative par modèle de réference.

Comme il est montré sur la figure 2.6, un schéma de commande adaptative comporte
principalement deux boucles :

1. Une boucle interne qui a la sructure d’une boucle classique de régulation,

2. Une boucle externe qui est la boucle adaptative.

Les paramètres du régulateur adaptatif sont claculés à partir de l’erreur e = y − ym par


la boucle adaptative pour un modèle de réference donné. On peut classer les méthodes
d’ajustement des paramètres du correcteur adaptatif à modèle de réference en deux catè-
gories :

1. Les méthodes du gradient,

2. Les méthodes basées sur la théorie de la stabilité.

2.4 Méthodes du gradient

2.4.1 Régle du MIT


Soit un système en boucle fermée dont le correcteur possède un seul paramètre θ. Soit
ym la sortie du modèle de réference et e = y − ym l’erreur de poursuite du modèle de
réference.

30
Commande avancée

On définit le critère de performances suivant :


1
J(θ) = e2 (2.1)
2
Ce critère doit être minimisé pour réduire l’erreur entre le système commandé et le modèle
de réference. On utilise alors l’algorithme de descente du gradient pour rendre J(θ) plus
petit, lors d’une mise à jour des paramètres
dθ ∂J ∂E
, −γ = −γe (2.2)
dt ∂θ ∂θ
∂J
représente la sensibilité de l’erreur par rapport aux paramètres. Il indique comment
∂θ
l’erreur est influencée par une variation de paramètres.

2.4.2 Autres critères


D’autres critère peuvent êtres utilisés [13] :

J(θ) = |e| (2.3)

Ce qui donne en appliquant l’algorithme du gradient la règle de mise à jour suivante :


dθ ∂e
= −γ sgn (e) (2.4)
dt ∂θ
On utilise aussi une autre règle de mise à jour appelée sign-sign
!
dθ ∂e
= −γ sgn sgn (e) (2.5)
dt ∂θ
Ce dernier algorithme est simple et rapide. Il est utilisé en télécommunications.

Exemple 2.2 (Commande adaptative en boucle ouverte). Soit le système linéaire mono-
variable représenté sur la figure 2.7 [13]
y
θ kG(s)
+ e
yc
-

k0 G(s)
ym

Figure 2.7 – Commande adaptative en boucle ouverte.

La fonction de transfert du système G(s) est connue mais le gain k est inconnu. L’ob-
jectif est de trouver un correcteur en boucle ouverte pour que système corrigé possède la
fonction de transfert Gm (s) du modèle de réference :

Gm (s) = k0 G(s) (2.6)

31
Commande avancée

On utilise pour cela un correcteur proportionnel. La commande est alors donnée par

u = θyc (2.7)

avec θ le paramètre ajustable du correcteur et yc la consigne.


Si le gain k était connu, la poursuite parfaite du modèle de référence est réalisée si (voir
figure 2.7) :
θkG(s) = Gm (s) = k0 G(s)

Ce qui implique la valeur suivante pour le gain θ


k0
θ= (2.8)
k
Mais le gain k est inconnu. On utilise alors la règle MIT pour la mise à jour du paramètre
θ:
dθ ∂e
= −γ e
dt ∂θ
Or
e = y − ym = [kθG(s) − k0 G(s)] · yc

En dérivant par rapport à θ, et en tenant compte du fait que ym = k0 G(s)yc :


∂e k
= kG(s)yc = ym
∂θ k0
d’où
dθ γk
= − ym e = −γ ′ ym e
dt k0
On tire finalement

= −γ ′ ym e (2.9)
dt

Le schéma de la commande est donnée par la figure 2.8

Remarque 2.1. Pour avoir un signe correct de γ ′ , il faut connaître le signe k. •

Exemple 2.3 (Commande adaptative d’un système du premier ordre). Soit un système
linéaire décrit par un modèle du premier ordre :
dy
= −ay + bu (2.10)
dt
avec a et b deux paramètres inconnus.
On souhaite avoir un comportement en boucle fermée similaire au modèle de référence
du premier ordre également [13]
dym
= −am ym + bm yc (2.11)
dt
32
Commande avancée

Modèle de référence

ym
k0 G(s)

-
Z e
−γ ′ X
+

yc × kG(s)

Processus

Figure 2.8 – Commande adaptative proportionnelle en boucle ouverte.

On utilise la commande suivante

u(t) = θ1 yc − θ2 y (2.12)

en remplaçant u(t) dans (2.10) :


dy
= −ay + bθ1 yc − bθ2 y = −(a + bθ2 )y + bθ1 yc (2.13)
dt
qui représente le système en boucle fermée. On aura un comportement similaire au modèle
de référence si :
a + bθ2 = am bθ1 = bm (2.14)
soit
bm
θ1 = = θ10
b (2.15)
am − a
θ2 = = θ20
b
L’ordre du système et du modèle de référence étant le même, il est possible de faire une
poursuite parfaite du modèle de référence.
d
En introduisant l’opérateur de différentiation de Laplace s = , l’équation (2.13) de-
dt
vient :
bθ1
y= yc (2.16)
s + a + bθ2
" #T
∂e ∂e ∂e
on calcule alors = :
∂θ ∂θ1 ∂θ2
∂e b
= ẏc
∂θ1 s + a + bθ2
(2.17)
∂e b2 θ1 b
=− ẏc = − ẏ.
∂θ2 s + a + bθ2 s + a + bθ2

33
Commande avancée

Ces relation ne peuvent pas êtres utilisées directement car a et b sont inconnus. On utilise
alors une approximation en remarquant que si les paramètres sont proches des paramètres
exacts (θ = θ0 ) on a :
s + a + bθ20 = s + am (2.18)
on pose alors
s + a + bθ2 = s + am (2.19)
On a alors d’après l’algorithme du gradient :
   
dθ1 ∂e1
 dt   ∂t 
= −γ 
   
   .e
 dθ2   ∂e2 
dt ∂t
soit
dθ1 b
= − γ( yc )e
dt s + am
(2.20)
dθ1 b
=γ( y)e
dt s + am
am
en posant γ = γ ′ · , on obtient la règle d’adaptation
b
dθ1 am
= − γ ′( yc )e
dt s + am
(2.21)
dθ1 am
=γ ′ ( y)e
dt s + am
Le signe de b doit être connu pour avoir un gain γ de signe correct. •

Remarque 2.2. Même si l’erreur e = y − ym → 0, cela n’implique pas forcémment que


θ → θ0 qui est la vraie valeur des paramètres. •

2.4.3 Normalisation de la régle MIT


Pour l’algorithme de la régle MIT :

= γϕe (2.22)
dt
avec
∂e
ϕ=−
∂θ (2.23)
e =y − ym
Le choix du gain γ dépend du signal de référence yc utilisé. La normalisation de l’algo-
rithme :
dθ ϕe
=γ α>0 (2.24)
dt α + ϕT ϕ
rend l’algorithme moins sensible au signal d’entrée.

34
Commande avancée

2.5 Stabilité des système non linéaires à temps va-


riant
Soit le système non linéaire libre à temps variant

ẋ = f (x, t) (2.25)

On va rappeler les principales définitions relatives à la stabilité.

Définition 2.1 (Point d’équilibre). Le point x0 = 0 est un point d’équilibre du sys-


tème (2.25) si :
f (0, t) = 0, ∀t ≥ 0 (2.26)

Définition 2.2 (Stabilité uniforme). Le point d’équilibre x0 = 0 est stable si

∀t0 ≥ 0, ∀ε > 0, ∃δ(ε, t0) : kx(t0 )k < δ(ε, t0) ⇒ kx(t)k < ε, ∀t ≥ t0 . (2.27)

Si δ(ε, t0 ) = δ(ε) est indépendant de t0 , alors le point d’équilibre est uniformément


stable. 

Définition 2.3 (Stabilité asymptotique). Le point d’équilibre x0 = 0 est asymptotique-


ment stable s’il est stable et qu’en plus :

∃c > 0 : ∀t0 > 0, kx(t0 )k < c ⇒ kx(t)k → 0 (2.28)


t→∞

On introduira maintenant la notion de fonction de classe κ

Définition 2.4 (Fonction de classe κ). La fonction α : [0, a) → [0, ∞) est de classe κ
si :

1) α est strictement croissante.

2) α(0) = 0.

La fonction α est de classe κ∞ si elle est de classe κ et que :

1) a = ∞

2) α(r) → ∞
r→∞

35
Commande avancée

2.5.1 Théorème de Lyapunov pour les systèmes à temps variant


Théorème 2.1 (Stabilité d’un système à temps variant). Soit xe = 0 un point d’équilibre
de ẋ = f (x, t). Soit D = {x ∈ Rn |kxk < r } la boule de rayon r, alors si il existe une
fonction V continument différentiable tel que :
1) α1 (kxk) ≤ V (x, t) ≤ α2 (kxk) , pour t ≥ 0
dV ∂V ∂V
2) V̇ = = · ẋ + ≤ α3 (kxk) , pour t ≥ 0
dt ∂x ∂t
3) Les fonctions α1 , α2 , α3 sont de classe κ,

alors xe = 0 est uniformément asymptotiquement stable. 


Remarque 2.3. En pratique, il faut borner supérieurement V (x, t) par une fonction in-
dépendante de t. •

2.5.2 Lemme de Barbalat


Lemme 2.1 (Lemme de Barbalat).
Z
Soit g : R → R une fonction définie et uniformément
t
continue pour t ≥ 0. Si lim g(τ )dτ existe et qu’elle est finie, alors :
t→∞ 0

lim g(t) = 0
t→∞


Théorème 2.2 (Bornitude et ensemble de convergence). Soit D = { x ∈ Rn | kxk < r}.
Supposons que f (x, t) est Lipschitzienne sur D × [0, ∞). Soit V (x, t) une fonction conti-
nûment différentiable tel que

α1 (kxk) ≤ V (x, t) ≤ α2 (kxk)

et
dV ∂V ∂V
= + f (x, t) ≤ −W (x) ≤ 0
dt ∂t ∂x
dV ∂V ∂V
= + f (x, t) ≤ −W (x) ≤ 0, ∀t ≥ 0, ∀x ∈ D
dt ∂t ∂x
avec α1 et α2 des fonction de classe κ définies sur [0, r) et W (x) continue sur D. De plus,
dV
on suppose que est uniformément continue en t, alors les solutions de ẋ = f (x, t)
dt
avec kx(t0 )k < α2 (α1 (r)) sont bornées et vérifient
−1

lim W (x) → 0
t→∞

De plus, si toutes les hypothèses sont vérifiées globalement et que α1 ∈ κ∞ , alors le résultat
est vrai ∀x(t0 ) ∈ Rn . 
2
d V dV
Remarque 2.4. Il suffit d’avoir 2
bornée pour avoir uniformément continue [14].
dt dt

36
Commande avancée

2.6 Synthèse de MRAC par la théorie de Lyapunov


L’utilisation de la théorie de Lyapunov sur la stabilité des systèmes non stationnaires
pour la synthèse d’une commande adaptative par modèle de référence (MRAC) passe par
les étapes suivantes :

1. Formuler l’équation différentielle de l’erreur de poursuite du modèle de référence


e = y − ym ,

2. Trouver une fonction candidate de Lyapunov et un mécanisme d’adaptation pour


assurer
lim e(t) = 0,
t→∞

dV
3. Généralement est seulement semi-définie négative. Il est alors possible d’utiliser
dt
le théorème 2.2 pour démontrer la convergence de l’erreur vers zéro.

Exemple 2.4 (Synthèse MRAC par la méthode de Lyapunov ). Soit le modèle de référence
linéaire à temps invariant du premier ordre [13]

dym
= −am ym + bm yc (2.29)
dt
On souhaite imposer son comportement à un système qui est aussi de premier ordre
dy
= −ay + bu (2.30)
dt
par une commande proportionnelle sur la mesure et la consigne

u = θ1 yc − θ2 y (2.31)

On rappelle que l’erreur de poursuite est donnée par

e = y − ym , (2.32)

dy dym
on obtient la dérivée temporelle de de l’erreur en remplaçant les expressions de et
dt dt
de dy dym
= −
dt dt dt
= −ay + bu + am ym − bm yc − ay + b(θ1 yc − θ2 y) + am y − am y + am ym − bm yc
(2.33)

ce qui conduit après simplification à l’équation différentielle suivante de l’erreur de pour-


suite
de
= −am e − (bθ2 + a − am )y + (bθ1 − bm )yc (2.34)
dt
37
Commande avancée

Si les paramètres du système à commander étaient connus, alors en posant



bm
θ1 = θ10 =



b (2.35)
am − a
θ2 = θ20 =



b
alors
lim e(t) = 0
t→∞

Comme les paramètres a et b sont inconnus, on construira le mécanisme d’ajustement des


paramètres qui va faire converger θ1 vers θ10 et θ2 vers θ20

lim θ1 = θ10 ; lim θ2 = θ20


t→∞ t→∞

On introduit la fonction quadratique suivante


" #
1 2 1 1
V (e, θ1 , θ2 ) = e + (θ1 − θ10 )2 + (θ2 − θ20 )2
2 γ γ
" # (2.36)
1 2 1 1
= e + (bθ1 − bm ) + (bθ2 + a − am )
2 2
2 bγ γ

avec γ > 0 une constante strictement positive. On remarque que V = 0 si e = 0, θ1 = θ10


et θ2 = θ20 . La dérivée temporelle de la fonction V est donnée par
dV de 1 dθ2 1 dθ2
= e + (bθ1 − bm ) + (bθ2 + a − am )
dt dt bγ dt bγ dt
1 dθ1 1
= e [−am e + (bθ1 − bm )yc − (bθ2 + a − am )y] + (bθ1 − bm ) + (bθ2 + a − am )
bγ dt bγ
1 dθ1 1 dθ 2
= −am e2 + (bθ1 − bm )( + bγyc e) + (bθ2 + a − am )( − bγye)
bγ dt bγ dt
(2.37)

On choisit la mise à jours suivante des paramètres de réglage θ1 et θ2


dθ1



 = −γ ′ yc e
 dt
(2.38)

 dθ2

 = γ ′ ye
dt
dV
Cette mise à jours conduit à l’expression suivante de
dt
dV
= −am e2 , (2.39)
dt
dV dV
On constate que ≤ 0 car si e = 0 et θ1 6= 0 ou θ2 6= 0 on aura = 0. On peut alors
dt dt
déduire que
V (t) ≤ V (0)

38
Commande avancée

Lyapunov MIT
dθ1
  
dθ1 am

= −γ ′


 = −γ ′ yc e 
 yc e

 dt

 dt s + am
dθ2 dθ2
 

 
 am

 = γ ′ ye 

 = γ′ y e
dt dt s + am
Table 2.1 – Comparaison des méthodes de Lyapunov et MIT.

car V (t) est décroissante, ce qui implique que e, θ1 et θ2 soient bornés et que y = e + ym
soit aussi borné en supposant que le modèle de référence Gm (s) est stable et la consigne
yc bornée. De plus, la dérivée seconde par rapport au temps t de V est donné par

d2 V de
= −2am e = −2am e (−am e − (bθ2 + a + (bθ1 − bm )yc − am )y) (2.40)
d2 t dt

d2 V dV
Comme e, y et yc sont bornés, alors est aussi bornée, donc est uniformément
dt2 dt
continue. Le théorème 2.2 permet de conclure que

lim e(t) = 0
t→∞

Toutefois, ceci n’assure pas la convergence θ1 → θ10 et θ2 → θ20 . Il faut imposet une
condition sur l’excitation. •

2.6.1 Comparaison entre les méthodes de Lyapunov et MIT


Le tableau suivant compare les méthodes de synthèse d’un MRAC sur l’exemple du
système du premier ordre pour la poursuite d’un modèle de référence du premier ordre
avec une commande proportionnelle sur la consigne et la sortie
La règle de mise à jours utilisant la méthode MIT peut être obtenue de la règle la 
am
méthode de Lyapunov en remplaçant les signaux yc et y par leur valeur filtrée yc
  s + am
am
et y . Dans les deux cas, la régle d’adaptation peut être écrite comme suit
s + am


= γϕe (2.41)
dt

avec
θ : vecteur des paramètres,
T
ϕ = [−yc y] : Règle de Lyapunov,
am
ϕ= [−yc y]T : Règle MIT.
s + am
La règle de Lyapunov est plus simple et ne nécessite pas de filtrage.

39
Commande avancée

2.7 Synthèse de MRAC dans l’espace d’état


Soit le SLTI décrit par sa représentation d’état [13]

dx
= Ax + Bu (2.42)
dt

On souhaite poursuivre un modèle de référence donné également par sa représentation


d’état
dxm
= Am xm + Bm yc (2.43)
dt
On utilise une commande qui combine un retour d’état linéaire et une action proportion-
nelle sur la consigne
u = Myc − Lx (2.44)

le système en boucle fermée devient

dx
= (A − BL)x + BMyc
dt (2.45)
= Ac (θ)x + Bc (θ)

La paramétrisation de la loi de commande peut se faire de différentes manières. Ceci


revient à choisir les paramètres des matrice M et L.

2.7.1 Condition de compatibilité


Elle exprime le fait qu’il existe des valeurs de paramètres de commande tel que le
système en boucle fermée soit identique au modèle de référence

 Ac (θ0 ) = Am
∃θ :
0
(2.46)
 Bc (θ0 ) = Bm ,

Dans ce cas, on réalise une poursuite parfaite du modèle de référence. On a alors



 A − Am = BL
(2.47)
 Bm = BM,

On peut conclure de l’équation (2.47) que les colonnes de la matrice (A − Am ) sont


une combinaison linéaire des colonnes de B et que les colonnes de Bm sont aussi une
combinaison linéaire des colonnes de B. Si B et Bm sont linéairement indépendantes, on
peut écrire
 −1
L = BT B B T (A − Am )
 −1 (2.48)
M = BT B B T Bm .

40
Commande avancée

2.7.2 Equation différentielle de l’erreur


L’erreur de poursuite du vecteur d’état est définie par

e = x − xm (2.49)

sa dérivée temporelle est alors


de dx dxm
= − = Ax + Bu − Am xm − Bm yc (2.50)
dt dt dt
en rajoutant en soustrayant Am x au second terme de l’équation, on obtient
de
= Am e + (A − Am − BL) x + (BM − Bm ) yc
dt (2.51)
= Am e + (Ac (θ) − Am ) x + (Bc (θ) − Bm ) yc

en posant 
 Ac (θ0 ) = Am
(2.52)
 Bc (θ0 ) = Bm
on obtient
de    
= Am e + Ac (θ) − Ac (θ0 ) x + Bc (θ) − Bc (θ0 ) yc
dt (2.53)
= Am e + Ψ(θ − θ0 )

On choisit la fonction quadratique candidate suivante


1h T i
V (e, θ) = γe P e + (θ − θ0 )T (θ − θ0 ) (2.54)
2
avec P > 0 une matrice définie positive. En supposant que Q est une matrice qui vérifie
l’équation suivante
ATm P + P Am = −Q (2.55)

La dérivée temporelle de V , après calcul, est donnée par


dV γ dθ
= − eT Qe + γ(θ − θ0 )ΨT P e + (θ − θ0 )T
dt 2 ! dt (2.56)
γ dθ
= − eT Qe + (θ − θ0 )T + γΨT P e
2 dt

dV
Afin de rendre semi-définie négative, on choisit la règle d’adaptation suivante
dt

= −γΨT P e (2.57)
dt
ce qui donne
dV γ
= − eT Qe. (2.58)
dt 2
41
Commande avancée

De même qu’avec l’exemple 2.4, en procédant de la même façon et en utilisant le théo-


rème 2.2 et le Lemme de Barbalat, on conclut que

lim e(t) = 0 (2.59)


t→∞

Exemple 2.5 (Commande adaptative en boucle ouverte par approche d’état). Soit le
SLTI modélisé par la fonction de transfert G(s) multiplié par le gain inconnu k [13].
On souhaite poursuivre le modèle de référence décrit par sa fonction de transfert Gm (s)
donnée par
Gm (s) = k0 Gs (2.60)

On applique une commande proportionnelle en boucle ouverte

u = θyc (2.61)

L’erreur de poursuite e du modèle de référence est donnée par

e = y − ym = (kG(s)θ − k0 G(s))uc = kG(s)(θ − θ0 )yc (2.62)

k0
avec θ0 = •
k
Si (A, B) est une réalisation de la fonction de transfert G(s)

dx
= Ax + B(θ − θ0 )yc
dt (2.63)
e = Cx

dx
Si = Ax est asymptotiquement stable, alors
dt
∃P, ∃Q : AT P + P A = −Q (2.64)

en choisissant
1 T 
V = γx P x + (θ − θ0 )2 (2.65)
2
on obtient !
dV γ dxT dx dmθ
= P x + xT P + (θ − θ0 ) (2.66)
dt 2 dt dt dt
dx
On remplace l’expression de donnée par l’équation (2.63)
dt
dV γ    dθ
= Ax + Byc (θ − θ0 ) P x + cT P Ax + Byc (θ − θ0 ) + (θ − θ0 )
dt 2 dt (2.67)
γ T 0 dθ
= − x Qx + (θ − θ )( + γyc B P x) T
2 dt
42
Commande avancée

Date Application
1960 Commande adaptative d’avions.
1972 Premières applications industrielles du STR.
1973 Expériences en échelle réelle pour le pilotage adaptatif de bateaux.
1974 Commande adaptative de procédés chimiques.
1980 Commercialisation de pilote automatique de bateaux.
Table 2.2 – Quelques dates des applications industrielles de la commande adaptative

On choisit la règle de mise à jours suivante des paramètres


= −γyc B T P x (2.68)
dt

pour avoir
dV γ
= − xT Qx (2.69)
dt 2
Cet ajustement nécessite néanmoins la connaissance de x. Afin d’y remédier on choisit P
tel que
BT P = C (2.70)

Comme C est la matrice de sortie, ceci revient à utiliser un retour de sortie au lieu d’un
retour d’état. Il suffit dans ce cas de connaître la valeur de la sortie. On tire ainsi

B T P x = Cx = e (2.71)

Soit finalement

= −γyc e (2.72)
dt

2.8 Applications industrielles de la commande adap-


tative
La commande adaptative est plus efficaces que les techniques de commande convention-
nelle dans plusieurs cas de figure. C’est le cas par exemple pour les systèmes présentant
des incertitudes ou d’importantes variations des paramètres du système ou de son envi-
ronnement. Le tableau suivant donne quelques dates importantes pour les applications
industrielles de la commande adaptative [13]
On cite dans ce qui suit un certain nombre de domaines où la commande adaptative
est appliquée avec succès.

43
Commande avancée

2.8.1 Domaines d’application de la commande adaptative


Les premières applications de la commande adaptative sont faites pour la commande
d’avions. Essentiellement, c’est l’approche de séquencement de gain (gain scheduling)
qui est utilisée pour un correcteur qui s’adapte à son point de fonctionnement. Avec
l’apparition d’autres techniques (STR, Dual Control, ...), la commande adaptative est
appliquée dans divers domaines de l’industrie et de la technologie. On donne ici un aperçu
de l’application de la commande adaptative pour quelques domaines

Commande d’avions : La variation de l’altitude de vol d’un avion et la large plage


de variation de sa vitesse entraîne de grands changements dans les paramètres du
modèle (densité de l’air, viscosité, nombre de Mach). Certains paramètres peuvent
varier de 10 à 50 fois de leur valeur initiale. La commande adaptative permet de
prendre en compte ces larges variations.

La commande de missiles : en plus des paramètres déjà mentionnés pour des avions,
le centre de masse d’un missile change constamment suite à la consommation de son
carburant.

Commande de procédés chimiques : Les changements de la température ambiante


et des flots des produits conduit à des changements importants dans le procédés
chimiques continus.

Actionneurs électriques : La charge entraînée et l’inertie d’un actionneur peut beau-


coup changer au cours du temps. A titre d’exemple, un moteur qui enroule une tôle
ou du papier voit son inertie augmenter au fur et à mesure.

Commande de satellites : Afin d’avoir une durée de service plus longue, les satellites
d’observation doivent êtres rapidement et régulièrement réorientés.

2.8.2 Quand utiliser la commande adaptative ?


Il est possible d’utiliser une commande adaptative dans les situations suivantes pour
un système donné à commander afin de satisfaire un certain cahier des charges

1 Paramètres incertains,

2 Paramètres variables,

3 Retards importants,

4 Perturbations sur les entrées ou les mesures,


44
Commande avancée

5 Changements dans l’environnement du système,


6 Comportement non linéaire,


7 Changement dans l’ordre ou les coefficients de la fonction de transfert du système.


2.8.3 Régulateurs adaptatifs industriels


Une des raisons essentielles du succès de la commande adaptative dans le milieu indus-
triel est l’utilisation intensive de PID par ce dernier. En effet, un grand procédé industriel
peut comporter des milliers de régulateurs PID installés par des ingénieurs et des techni-
ciens. Ces régulateurs ne sont pas forcément réglés de façon optimale. Les méthodes de
réglage empiriques (Zigler-Nichols par exemple) s’avèrent peu robustes et sous-optimale
pour des procédés complexe. L’introduction de PID adaptatifs a permis de résoudre en
partie ce problème. De plus, la baisse des coûts des microprocesseur, microcontrôleurs et
autres dispositifs de commande numérique a encouragé le passage à l’adaptatif.
Le tableau suivant donne un aperçu de quelques régulateurs adaptatifs commerciaux
utilisés en industrie
Compagnie Produit Description
SattControl ECA 40 Auto-tunning par la méthode des relais.
Fisher Control DPR 900 Auto-tunning par la méthode des relais.
Foxboro EXACT Analyse du régime transitoire en boucle fermée.
ABB ABB adaptive controller STR par réponse impulsionnelle.
First Loop First Control Adaptive Controller Estimation réccursive de la fonction de transfert et placement indirects des poles.

Table 2.3 – Quelques régulateurs adaptatifs industriels

45
Commande avancée

46

Vous aimerez peut-être aussi