Vous êtes sur la page 1sur 24

CHAPITRE 2

COMMANDE ADAPTATIVE

2-1 Introduction :

La commande adaptative ajuste en ligne les paramètres du correcteur de


manière à conserver le niveau de performance désirée lorsque les paramètres du
procédé dérivent dans le temps ou sont inconnus.

La commande adaptative prend en compte deux types de problèmes :

- Les paramètres du système constants mais inconnus seront auto-ajustés


- Les paramètres qui dérivent dans le temps seront adaptés.

La loi de variation des paramètres des correcteurs donne un caractère non linéaire
aux commandes adaptatives. La recherche de stabilité et la synthèse reposeront donc
sur des techniques spécifiques à ces systèmes. En particulier, elles mettent en œuvre
les critères de Lyapounov ou de Popov.

Trois techniques de commande sont habituellement utilisées :

2-1-1 Les régulateurs auto-ajustés


Les paramètres du correcteur sont recalculés en fonction de critères de performances
prédéfinies. Cette structure comporte, d’une part, la boucle de régulation classique et
d’autre part, un mécanisme d’estimation en ligne des paramètres.

Calcul du Estimation
régulateur

Paramètres θ du régulateur Perturbations

w
Régulateur Processus
u y

Fig. 2.1 Régulateur auto-ajusté – commande indirecte

Le choix du modèle du processus et du signal de consigne est particulièrement


important.

2-1-2 Les commandes adaptatives avec modèle de référence

Les paramètres du correcteur sont recalculés de manière à minimiser l’erreur


entre la sortie du processus et celle du modèle. Ce dernier correspond au transfert
désiré. Le mécanisme d’adaptation peut être complété par des informations issues
directement du système.
Calcul du
régulateur

Paramètres θ du régulateur Perturbations

Régulateur θ U Processus y

- θ
Modèle de référence
ym

Fig.2.2 Commande adaptative directe avec modèle de référence

2-1-3 Contrôle adaptatif stochastique

Si le caractère inconnu ou fluctuant des paramètres est trop important, il


devient nécessaire d’utiliser une approche intégrant cet aspect stochastique. Un
modèle de perturbations est alors adopté. La stratégie suivie consiste à minimiser
l’espérance mathématique d’une fonction

I =E ¿

De manière à atténuer l’effet de perturbations sur la trajectoire désirée yobjectif .

2-2 Identification en ligne des paramètres. Adaptation paramétrique

L’estimation des paramètres fait appel à des algorithmes d’identification temps réel.
Ils doivent présenter trois caractéristiques :

 Etre simples pour ne pas alourdir le noyau temps réel et rester compatibles
avec la fréquence d’échantillonnage.
 Converger rapidement pour assurer un suivi correct des paramètres.
 Etre insensible aux bruits de mesure.

2-2-1 Algorithme des moindres carrés récursifs


Nous allons décrire cette méthode d’identification dans le cas ou les paramètres sont
constants et inconnus.

Il appartient à la classe des algorithmes récursifs qui réactualisent le vecteur de


paramètres θ^ n à chaque nouvelle mesure :

θ¿n +1=θ¿n + K n+1 . e n+1 avec e n+1= y n +1− y ¿n+1

Supposons le système modélisé par :

y Mh+ a1 y Mh−1+ …+a n y Mh−n=b 0 u k + …+bm uk−m

Ou b0 = 0 car uk n’a pas d’action sur yk dans les systèmes physiques mais, sans nuire à
la validité des résultats, nous conservons ce coefficient :

Le prédicteur correspondant est donné par :

^
y k =−a1 y k−1−…−an y k−n +b 0 uk + …+ b0 uk−m

2-2-2 Algorithme du gradient

L’algorithme du gradient tend à minimiser le critère quadratique :

1 2 1
J n +1=
2
[ e n+1 ] = ¿ ¿
2
¿
Avec e n+1= y n+1−θ n+1 .h n+1 erreur de prédiction a posteriori

Cette fonction cout est une approximation de J= E { e2n }=¿ en2

Pour minimiser ce critère, en partant d’une courbe d’insolveur J ¿ = constante, on se


déplace dans la direction de −∂ J / ∂ θ^ et donc suivant la ligne de plus grande pente.

∂ J n+1
Soit : θ^ ^
n +1= θn =−F
∂ θn +1

Ou F représente une matrice symétrique définie positive.

On prend souvent F = α(I) avec α > 0 et [I] la matrice d’identité.

∂ J n+1
Or =−hTn +1 . e n+1
∂ θn +1

^
θn +1=¿ θ^n + F . h n+1 en +1 ¿
T
Donc :

Or, nous avons :

e n+1= y n+1−h n+1 θ^n +hn +1 θ^n −hn +1 θ^


n +1
= y n+ 1−hn +1 θ^n −hn +1 ¿

= y n+ 1−hn +1 θ^n −hn +1 F hTn+1 en +1

ε n+1= y n +1−hn +1 θ^n Représente l’erreur de prédiction a priori :


−1
e n+1= [ [ I ] +hn +1 F h n+1 ] ε n +1
T
On a :

^ −1
D’où : θn +1=¿ θ^n + F . h n+1 [ [ I ] + hn+ 1 F h n+1 ] ε n +1 ¿
T T

Cet algorithme est stable quel que soit F. Il amène de bons résultats si le nombre de
paramètres est faible. Dans le cas contraire, il peut donner des coefficients fortement
corrélés.

2-2-3 Adaptation paramétrique par utilisation de sorties auxiliaires.

Souvent, l’adaptation d’un coefficient variable se fait par l’intermédiaire d’une boucle
de régulation portant sur une sortie auxiliaire accessible par la mesure et sensible à ces
variables.

Cette grandeur est calculée d’une part en fonction des consignes (flux, glissement …)
et d’autre part en fonction de la mesure des courants, des tensions et de la vitesse de
rotation. L’erreur fonction estimée / fonction mesurée permet l’adaptation du
paramètre.

Consignes F2
Système
Vitesse de rotation n Paramètre nominal

Mécanique - ∆F0 1/sT


+ +

+
courants
Mesure F1
tensions

Vitesse de
rotation
Fig. 2.3 Adaptation paramétrique
dθ s
Dans un repère dq quelconque ( ωl = désigne la vitesse de ce repere par rapport
dt
dθ sl
au stator et ω2 = désigne sa vitesse par rapport au rotor), il introduit une fonction
dt
liée à la puissance réactive ( Q=v ds .i qs −v qs . i ds ¿ obtenue par des mesures .

F 0=
[(( v ds −σ L s
di ds
dt ) ( di
))
i qs − v qs−σ Ls qs i ds +σ Ls ωl (i 2ds +i 2qs)
dt ]
Qui peut s’écrire :

F 0=
Lm
Lr [( d φ dr
dt
. i qs −
d φ qr
dt ds )
. i −ωl (φ dr .i ds +φqr . i qs)
]
Cette dernière expression peut être simplifiée en fonction de la commande.

Lorsque le flux rotorique est orienté sur l’axe q d’un repère lié au flux rotorique, on
a :

φ qr =cste ,φ dr=0 , et ω1=ω2 + pΩ

Et, donc, la fonction F0 devient :

−1 2 2 Lm 2 2 2
F 2= . ω1 ¿) =- φ qr i qs.ω l
Lr Lr

3- Commande Adaptative avec Modèle de Référence

La commande adaptative avec modèle de référence peut être posée de deux manières :

Si les paramètres du système sont accessibles, alors on réalise une adaptation directe
du système, ceci n’est toujours réalisable, car en pratique on a uniquement accès aux
entrées du système. Si les gains du contrôleur sont ajustés, nous réalisons une
adaptation indirecte des paramètres. Si un signal de contrôle est injecté comme un
signal d’entrée de contrôle (ou comme une entrée de contrôle additionnelle), nous
aurons une synthèse de signal à partir de l’adaptation.

xm
Modèle de référence

r Perturbations e

+
Système
+ x
Paramètre d’adaptation

Adaptation à Mécanisme

Partir d’un signal de synthèse D’adaptation

Fig.2.4 Structure d’une commande adaptative à modèle de référence

3-1 Suivi parfait du modèle : PMF : Perfect Model Following

C’est le suivi d’état qui est recommandé, autrement dit, un suivi des sorties ou la
matrice de sortie C du système et celle du modèle Cm sont équivalentes à la matrice
identité :

Le système est défini par :

x́ ( t )= A ( t ) . x ( t ) + B ( t ) .u (t)

y ( t ) =C ( t ) . x (t)

Le modèle à suivre est donné par :

x m ( t )= A m (t ) . x m˙ ( t )+ Bm ( t ) . um (t )

y m ( t ) =Cm ( t ) . x m (t) Cm = I

Trouver une loi de commande u tel que le vecteur erreur :

e(t) = ym(t) – y(t) = xm (t) – x(t) t > t0

est identiquement nul est conditionnée par la satisfaction d’un certain nombre de
conditions appelées « condition d’ERZBERGER ».

Pour le PMF, ces conditions se résument en la recherche de deux matrices G(t) et H(t)
tel que le système suivant ait lieu :

B(t).G(t) = Am – A

B(t). H(t) = Bm

- Suivi parfait du modèle :

Soit le système à contrôler :

x́ ( t )= A ( t ) . x ( t ) + B ( t ) .u (t)

y ( t ) =C ( t ) . x (t)

Et le modèle à suivre est :

x m ( t )= A m (t ) . x m˙ ( t )+ Bm ( t ) . um (t )
y m ( t ) =Cm ( t ) . x m (t)

Le suivi parfait du modèle s’établit si C = Cm = I et l’erreur :

e(t) = ym(t) – y(t) = xm(t) – x(t)

est identiquement nulle pour tout t < t0.

La dérivée de l’erreur dynamique est donnée par ė (t )= ẋ m - ẋ

ė (t )= A m . x m ( t ) + Bm ( t ) . um ( t ) −A ( t ) . x ( t )−B ( t ) .u( t) (1)

Donc si e(t) = ė (t )=0, et le suivi parfait s’établit.

L’équation (1) donne :

Am . x m ( t ) +B m ( t ) .u m ( t )− A ( t ) . x ( t )−B ( t ) . u ( t ) =0

B (t )
=( A m −A ) x m ( t )+ B m . um (t)
u (t)

Un contrôleur de la forme

U(t) = G(t). xm(t)+H(t). um(t)

Peut assurer un suivi parfait si G(t) et H(t) sont sélectionnés de la manière suivante :

B(t).G(t) = Am – A (2)

B(t).H(t) = Bm (3)

Multiplions les équations (2) et (3) par la transposée de B :

BT. B. G = BT (Am – A)

L’expression de G est donnée par :

G= (BT . B)-1 .BT (Am – A) (4)

Multiplions (4) par la matrice B

B. G = B. (BT . B)-1 .BT (Am – A) (5)

Posons : B+ = B(BT. B)-1 . BT

L’expression (5) devient :

B. G = B+ ( Am – A) (6)

La comparaison entre les équations (6) et (2) donne :

(B+ - I)(Am – A) = 0 (7)


Ou I est la matrice identité.

La même démarche est appliquée à l’équation (3), on aura :

(B+ - I).Bm = 0 (8)

Les conditions (7) et (8) constituent les conditions d’ERZBERGER. Ces conditions
prévoient l’existence d’une relation structurelle entre le système et le modèle.

3-2 Méthodes basées sur l’optimisation :

- Approche du gradient :

C’et l’idée fondamentale dans l’étude de la MRAC. La technique d’ajustement des


paramètres est appelée la règle du MIT.

Nous supposons que les paramètres du régulateur varient dans le temps de telle
sorte que l’erreur entre les sorties du système et celles du modèle de référence
tende vers zéro.

Si on note e : l’erreur

Et θ les paramètres, nous introduisons le critère :

1
J ( θ )= e 2
2

Supposons J petit, il est raisonnable de varier les paramètres dans la direction


négative du gradient J, c'est-à-dire :

dθ ∂J ∂e
=−γ =−γ . e .
dt ∂θ ∂θ

γ : Le paramètre qui détermine le taux d’adaptation

∂e
=les dérivées sensitives du systeme :te sensitivity derivative
∂θ

Cette technique de commande adaptative n’est pas basée sur la stabilité, mais
basée sur la sensitivité des fonctions.

Application N°1:

Soit le système du premier ordre :

Modèle de référence
Km xm
1+ sτ
+

r
-

1 xp
1+ sτ
Kp

Fig.2.5 B'
s
Le système est décrit par l’équation

xp x
= p
r 1+sτ

Et le modèle de référence est décrit par l’équation :

xm xm
=
r 1+ sτ

L’erreur e est donnée par e = xm - xp

Solution :

Nous formons la fonction sensitive  suivante :

∂e −∂ x p −r
= =
∂K p ∂ Kp 1+ sτ

∂ e dθ
La règle du MIT est = −γ . e . ∂ K = dt
p

˙ ∂e
K p =−B . e .
∂Kp

La loi adaptative devient :

K p =B˙ . x m . e
'
avec B’=B/Km

Cette technique ne produit pas de système stable pour toutes les entrées et plus
particulièrement pour les entrées sinusoïdales.

La variation des paramètres est supposée faible.

Application N°2 :

dy
Soit le système : ẏ= =−a . y +b . u
dt

dy m
Et le modèle de référence est : =−a m . y m +b m.uc = y˙m
dt
Le suivi parfait du modèle peut être assuré par un contrôleur de la forme :

u ( t )=t 0 . uc ( t )−s 0 . y (t)

bm a −a
Avec t 0= , s 0= m
b b

∂e ∂e
- Calculer les dérivées sensitives : ,
∂ t0 ∂ s0

Solution :

Appliquons la règle du MIT : e = y - ym

dy
= ẏ=−a . y +b . u → p . y +a . y=b . u
dt

→ y ( p+ a )=b . u

p . y+ a . y =b . t 0 . uc ( t )−b . s0 y (t)

b t 0 uc
y ( p+a+ b s 0 )=b t 0 uc → y=
p +a+b s 0

Les dérivées sensitives :

e = y – ym

∂e b
= u
∂ t 0 p +a+b s 0 c

∂e −b2 t 0
= u
∂ s 0 ( p +a+b s 0)2 c

3-2 Méthodes basées sur la stabilité :

Avant de décrire ces méthodes, nous tout d’abord exposer la théorie de stabilité de
Lyapounov.

3-2-1 Théorie de la stabilité de Lyapounov

Le problème de la stabilité se présente d’une manière remarquablement simple dans le


cas des systèmes linéaires, tant en ce qui concerne la définition de la stabilité que les
conditions de stabilité, il n’en est pas de même pour les systèmes non linéaires. La
théorie de Lyapounov, a laquelle l’emploi des variables d’état permet de donner une
forme particulièrement satisfaisante, constitue la seule théorie générale de la stabilité
des systèmes dynamiques.
3-2-1-1 Première méthode de Lyapounov :

Linéarisation autour d’un point de fonctionnement :

Soit l’équation d’état non linéaire :

ẋ=f (x ,u)

L’équation linéarisée autour du point de fonctionnement défini par x0 et u0


s’écrit :

ẋ= A . x+ B . u

Les matrices A et B étant respectivement égales aux valeurs au point de


fonctionnement des jacobiens de f par rapport à x et par rapport à u. Ces jacobiens
sont donnés par :

∂fi
A=Jacobien x f , a ij= x=x 0 ,u=u0
∂ xi

∂fi
B=Jacobien u b ik= x =x 0 , u=u0
∂ uk

L’équation caractéristique du système linéarisé s’écrit :

dét (λI- A) = 0

Trois cas sont alors à distinguer :

a) Si toutes les valeurs propres ont des parties réelles négatives, le système
considéré est stable aux environs du point de fonctionnement considéré, c.a.d
qu’il y revient de lui-même après une perturbation fugitive
b) Si une valeur propre au moins possède une partie réelle positive, le système
est instable.
c) Si une valeur propre au moins est imaginaire pure, on ne peut pas donner de
résultat général, il faut tenir compte des termes d’ordres supérieurs au premier.

3-2-1-2 Introduction à la seconde méthode

Ou méthode directe de Liapounov

Considérons le système mécanique stable de la figure

M
K A

x1

f désignant une force de frottement visqueux. Les origines des déplacements u


et x1 sont supposées telles que u= x1 lorsque le ressort est au repos de sorte que
(u – x1) représente la déformation du ressort. Le diagramme de fluence
développé de la figure est équivalent, pour u = 0 aux équations d’état :

1 K 1/M x2 x1

U=0 -1 -f

x 1=x
˙ 2

−K f
x˙2= x 1− x2
M M

Le système possède une énergie totale «égale à :

1 2 2
V = ( M x 2 + K x1 )>0
2

Les courbes V = cste sont des ellipses intérieures les unes aux autres et
s’éloignent de l’origine quand augmente la constante comme le montre la

figure.
√ M
K
x2 0 < V1 < V2 < V3

V2 V3
V V V
V2 VV2 V1
V2
x1

De plus, le taux de variation de V dans le temps est donné par :

∂V ∂V
V̇ = ẋ + ẋ
∂ x1 1 ∂ x2 2

f
¿ K x1 x 2−M x 2 ¿+ x2 ¿=−f x 22
M
On voit que V̇ <0 et que par suite, les trajectoires traversent les courbes V =
cste de l’extérieur vers l’intérieur et se rapprochent donc à l’origine. Cette idée
se généralise, dans l’espace d’état pour le système autonome défini par :

ẋ=f ( x ) , f ( 0 ) =0

S’il existe une fonction de V(x), appelée Fonction de Liapounov telle que
V(0) = 0 et que les surfaces V= cstes soient fermées intérieures les unes aux
autres et s’éloignent de l’origine quand la constante augmente et si, de plus :

∂V
V̇ =∑ ẋ
∂ xi i

Est négatif, le système est stable.

 Stabilité selon Liapounov :


Avant d’aller plus loin, il nous faut préciser la notion de stabilité qui est loin
d’être aussi simple pour un système non linéaire que pour un système linéaire.
Considérons un système autonome tel que :

ẋ=f ( x ) , f ( 0 ) =0

L’origine est un point singulier et représente donc un état d’équilibre possible.


Pour un système non linéaire, il peut exister plusieurs points singuliers que
l’on prendra successivement comme origine de l’espace d’état.

S(R) I : stable


S(έ)
II :asymptotiquement stable

II : instable

II

III
- Ceci étant, donné par S® l’hyper sphère de centre O et de rayon R. Si, à tout
nombre έ >0, aussi petit soit-il, on peut associer un nombre R tel que, si l’état
initial x(0) se trouve à l’intérieur de S(έ), l’état ultérieur x(t), t >0, ne soit pas
de S®, nous dirons que le système considéré est stable.
- Si, de plus on peut trouver un nombre έ>0, aussi petit soit-il, tel que, à partir
d’un état initial x(0) intérieur à S(έ), l’état du système tende vers l’origine,
nous dirons que ce système est asymptotiquement stable.
- Si έ peut etre choisi arbitrairement grand, le système sera globalement
asymptotiquement stable.
-
 Fonction de Liapounov pour système linéaire
Pour un système linéaire, il est toujours possible de trouver une forme
quadratique constituant une fonction de Liapounov valable. De plus cette
forme quadratique peut ensuite être utilisée pour étudier un système non
linéaire dont le système linéaire constitue un modèle approché.
Considérons le système linéaire autonome décrit par :
ẋ= A . x
Prenons comme fonction de Liapounov :
T
V =x . P . x
P étant une matrice symétrique définie positive. Calculons V̇ :
V̇ =x T . P . ẋ + x˙T . P . x
T T T
¿ x .P. A .x+x . A .P. x
x ( P . A+ A . P ) x
T T

Pour que le système considéré soit stable, il faut que V̇ soit de la forme :
T
V̇ =−x .Q . x
Q étant une matrice symétrique définie positive.
Nous devons donc choisir la matrice P de façon que :
T
−Q=P . A+ A . P
On peut prendre en particulier Q=I .

Application N°1 :
Soit le système définit par :
ẍ + ẋ+ x =0 x=x 1
équivalent au systeme : x˙1=x 2 et ẋ2 =−x1 - x 2

Nous avons aussi : A= [−10 −11 ] , dét A=1, TrA=−1


On a  la matrice P =1/ 2 [ 31 12]
- Calculer la fonction de Liapounov
- Montrer que le système est stable
Solution :
La fonction de Liapounov est :

V = xT.P.x = [ x 1 x 2 ] [31 12][ xx ]=(3 x + x x +2 x )[ xx ]


1

2
1 2 1 2
1

V =1/2 ¿)
1
V̇ = ¿
2
1 1
V̇ = ¿ 3 x 1 x 2 +2 x 2 ¿+ ¿
2 2
2 2
V̇ =−x1 - x 2< 0
Système stable

On peut montrer que P existe toujours pour un système stable et que, de plus,
la condition P > 0 est ici nécessaire et suffisante au demeurant P peut être
exprimée explicitement en fonction de Q et de la matrice de transition Ф(t).
Nous pouvons écrire en premier lieu:


Q=−∫ d (e A .t . Q . e At )
T

Nous avons en effet e AT = Ф(t).et Ф(0)=I ; de plus, si le système est stable ∅ ( ∞ )=0 .

En développant la différentielle, il vient :



−Q=∫ d ( e ) . Q . e AT +e A .t . Q . d (e AT )
T T
A .t


¿∫ A . e
T T
T A .t At A .t At
.Q .e +e . Q. e . A ¿ dt ¿
0
T
¿A ¿

Mais nous avons également


T
−Q=P . A+ A . P

En comparant les deux formesde Q , on obtient :

∞ ∞
P=∫ e .Q . e dt=∫ ∅ ( t ) . Q. ∅ ( t ) . dt
T
A .t At T

0 0

Application :
Soit les matrices :

A=
[−42 −64 ] , Q=[ 10 01 ]
Calcul de la matrice de transition :
ẋ= A . x
px ( p )−x ¿
−1
∅ ( p )=( pI − A ) Matrice résolvante
∅ ( t ) :matrice de transistion
−1 Adj( pI − A)
( pI −A ) =
det ⁡( pI − A)

( pI −A )−1=∅ ( p ) =
1 p +6
( p+2 ) ( p+8) 2 [ 4
p+ 4 ]
2 1
p+6 3 3 2 −2 t 1 −8 t
= + = e + e
( p+ 2 ) ( p +3) p+2 p+8 3 3
1 2
p+ 4 3 3 1 2
= + = e−2 t + e−8 t
( p+ 2 ) ( p +3) p+2 p+8 3 3
1 1
1 6 6 1 −2 t 1 −8 t
= − = e − e
( p+ 2 ) (p +3) p+2 p +8 6 6

∅ (t )=
[
1 2α+β
3 α −β
2α −2 β
α+2 β ]
−2 t −8 t
α =e , β=e
∞ ∞
P=∫ e . Q . e dt=∫ ∅T ( t ) .Q . ∅ ( t ) dt
T
A t At

0 0

T
∅ . ∅= [
1 2α+β
9 2 α−2 β α +2 β α−β][
α −β 2 α + β 2 α −2 β
α +2 β ]
On obtient finalement :

P=
1 7 4
40 4 6[ ]
Vérifions ce résultat en recalculant Q à partir de P

40(PA + ATP)= [ 74 64][−42 −64 ]+[−44 62][ 74 46]=[−400 0


−40 ]
 Méthodes basées sur la stabilité. Approche de Lyapounov

L’approche de Lyapunov offre les propriétés de stabilité globale pour n’importe quelle
restriction, soit sur les conditions initiales des erreurs, soit sur la nature des entrées de
référence utilisées. Cependant, l’inconvénient de cette approche est la nécessite de trouver
une fonction de Lyapunov appropriée. La méthode de Lyapunov est appliquée pour la
synthèse d’une commande adaptative à modèle de référence.

Nous considérons l’exemple de la figure 2.5. La fonction de Lyapounov est donnée par :

2 2
V =e + B . X (2.1)

ou B :est une constante , et X=K m −K p , e= X m− X p

On a donc :
dV
dt
=−2. e . ė +2 B . X . Ẋ−2 e
−e 1
(
+ . r +2. B . X . Ẋ
τ τ ) (2.2)

Si al condition suivante est satisfaite :


−e
B . Ẋ= .r
τ
1
K p= .e.r
τ. B
(2.3)
Alors V̇ est négative et assure une convergence globalement
asymptotique de l’erreur e vers 0 quand t tend vers l’infini.
Les lois adaptatives sont classées comme suit :
- Modification de l’entrée et synthèse de la boucle de retour ‘Input
Modification and Feedback Synthesis’ :
 Modification de l’entrée (Input Modification) :
Pour examiner ces deux méthodes, on est obligé d’établir une
représentation du système et du modèle de référence.
Le système est décrit par l’équation suivante :
ẋ= A . x+ B . u Ou x ∈ Rn et u ∈ R m (2.4)
Le modèle de référence est décrit par :
ẋ m= A m . x m +B m .r ou x m ∈ Rn et r ∈ R m (2.5)
Am est matrice d’Hurwitz.
L’erreur xe = xm – x peut être formulée comme suit :
x e ¿ Am . x e + w (2.6)
Avec w=( A m− A ) . x+ B m . r −B . u
Une forme générale de l’équation (2.1)est donnée par la fonction de
Lyapounov comme suit :
u
V =x e . P . x e+h(∅ , Ψ )
La dérivée de l’équation précédente donne :
u u
V̇ =−x e . Q. e +2. xe . P . w + ḣ
Avec Q=¿) une matrice symétrique définie positive
La modification de l’entrée n’impose pas une variation des paramètres
des matrices ∅ et Ψ tel que h = 0, mais modifie directement u tel que :
u
x e . P . w<0 alors ( A m− A ) ≠ 0 et

x ue . P . w=0 quand A m= A
L’inégalité ne peut être satisfaite, à l’exception du cas spécial dépendant
de la structure du système, si les matrices Ac et A m sont de la forme
canonique suivante :

B=¿ bp > 0
Et u devient un scalaire, alors il existe une solution :
u u
x e . P . w=xe . P n.wn
Avec Pn est la nieme colonne de la matrice P. wn est le dernier élément du
vecteur w. Pour assurer que x Te . P . w est négative, il faut que :
b p . ≥ max [ ( Am −A ) x+ Bm . r ] sign(x Te . Pn)

Avec [ ( A m− A ) x + Bm .r ] est le dernier élément du vecteur

( A m− A ) x +B m . r
Les techniques de modification de l’entrée sont généralement limitées aux
systèmes à paramètres de variation faible. Ainsi les matrices ( A m− A ) et B
sont supposées bien connues.
 Synthèse de la boucle de retour (feed back synthesis)
- Pour la méthode de la synthèse de la boucle de retour (feed back
synthesis) on utilise la forme complète de l’équation de Lyapounov :
n n
h ( F , Ψ )=∑ ∅ . ∅i + ∑ Ψ i . Ψ i
u u
i
i=1 i=1

la dérivée de V sera :
n n
V̇ =¿- x ue . Q . x e −2. x ue . P . w+2 ∑ ∅ ui . ∅i +2 ∑ Ψ ui .Ψ i
i=1 i=1

' '
L objectifde cette technique est d éliminerlestrois derniers temes
u
de cette équation , on obtient : V̇ =−x e . Q . x e

Dans l’adaptation directe, les parametres du système doivent etre ajustés


directement :
w=∅ . x+Ψ r
∅= A m− A , Ψ =B m−B et u=r
u
V̇ =−x e . Q. x e : Cette équation est satisfaite si :
u
∅˙ i=Pi . xe . x i=1 ,n
Ψ̇ i=−P i . x e . r T

3-2-2- Approche de l’Hyperstabilité :


La difficulté de trouver une fonction de Liapounov appropriée pour
l’étude de la stabilité à motivé LANDAU à appliqué une nouvelle approche
du concept de l’hyperstabilité pour la conception et l’étude de la stabilité
dans la MRAC.
Le concept de l’hyperstabilité basé sur les propriétés de la stabilité des
systèmes de contrôle à feedback qui peuvent être représentés sous la
forme standard de deux blocs :

Chaine directe
U Feed forward
V

block
-
Chaine de retour
U1 Feed back
Fig.2.6
Block

 Le bloc feedback peut être linéaire, non linéaire et/ou variable dans le
temps et satisfait la relation d’entrée-sortie (inégalité de POPOV) sous la
forme :
T

∫ V T .U 1 dt ≥−C20 pour tout T≥ 0


0

C0 est une constante indépendante du temps.


 Le bloc feedforward est supposé être linéaire (variant ou invariant dans le
temps) et décrit par les équations suivantes :
ẋ ( t )= A ( t ) . x + B ( t ) .u
y ( t ) =C ( t ) . x+ D ( t ) . u
La fonction de transfert du bloc feedforward G(s) est :
−1
G ( s )=D ( s ) +C ( s ) [ SI − A ( s ) ] B (s )

A partir des résultats de la théorie de l’hyperstabilité, le point d’équilibre


(x =0) est asymptotiquement hyperstable (ou globalement
asymptotiquement stable) si la fonction de transfert G(s) est réelle
strictement positive. Similairement, le point d’équilibre x = 0 est
hyperstable (ou globalement stable) si la fonction de transfert est réelle
positive.
- La procédure pour la conception des systèmes MRAC est donnée par
LANDAU comme suit :
- Etape 1 : Transformer le système MRAC en un système feedback standard
équivalent composé de deux blocs
- Etape 2 : satisfaire l’inégalité de popov
- Etape 3 : représenter le bloc feedforward par sa fonction de transfert
positive ou (strictement positive) pour assurer la stabilité globale ou (la
stabilité asymptotique globale).
- Pour illustrer cette méthode, nous allons considérer la dérivation de la loi
de contrôle adaptative du suivi du modèle :
Le système est décrit par l’équation d’état suivante :
ẋ ( t )= A ( t ) . x + B ( t ) .u
Le modèle de référence est donné par l’équation :
ẋ m ( t )= A m . x m + Bm .r
Considérons la loi de commande linéaire à suivi du modèle LMFC
LMFC : Linear Model Following Control :
u = -Kp.x + Km .xm +Kr.r
si nous définissons l’erreur e comme e = xm – x. l’erreur dynamique
e= ẋ˙m− ẋ
ė= A m . x m +B m .r −A . x−B . u
= Am . x m+ B m . r− A . x−B . K p . x−K m . B . x m−K r . B .r
= Am . x m+ B m . r− A . x−B . K p . x−K m . B . x m−K r . B .r + ¿
( A m−B . K m ) x−( A m−B . K m ) x
= ( A m−B . K m ) . e +¿
L’erreur est asymptotiquement stable si les conditions suivantes sont
satisfaites :
a- La matrice Am −B . M m ¿ est une matrice d(Hurwitz
b- Les matrices Kp, Kr et Km satisfis les conditions suivantes :
+¿( Am− A )¿
K m −K p=B
+¿. B ¿
K r =B
−1
( T
. B) . B ¿
T
Avec B+¿= B
Cependant l’existence des matrices Kp, Kr et Km est assurée si les
conditions du suivi parfait du modèle sont satisfaites (Conditions
d’ERZBERGER).
¿
¿
Cependant, pour la synthèse des matrices K p, Kr et Km , la connaissance des
paramètres du système est exigée, alors dans le cas ou les paramètres
varient lors de la conception il faut que ces matrices doivent être
calculées en fonction de la variation des paramètres. Ceci a motivé Landau
à dériver un contrôleur adaptatif à suivi du modèle (AMFC) : Adaptive
Model Following Control pour corriger les effets de variation des
paramètres du système. Le AMFC consiste à ajouter un signal additionnel
à la stratégie LMFC.
U = u1 + u2
u1=−K p . x + K m . x m + K r . r
u2=K p ( e , t ) x+ K r ( e , t ) r
L’erreur dynamique devient :
ė=( A m−B K m ) e−Bw

Avec w=K p ( e ,t ) x + K r ( e , t ) r
En suivant les étapes de conception décrite auparavant, le compensateur
linéaire Ce est synthétisé suivant le lemme du positif réel.
Ce= BT.P
- Lemma Kalman – Yacubovitch :
Considérons le système : ẋ= A . x+ B . u, y = C. x
La fonction de transfert C [SI − A]−1 est réelle positive si et seulement si il
existe une matrice symétrique P définie positive et une matrice
symétrique Q définie semi-positive telle que :
T
A P+ PA=−Q
T
B P=C
Avec P est la solution de l’équation de Liapounov :
( Am −B K m)T P+ P ( Am −B K m ) =−Q
Si nous identifions le système suivant :
ė=( A m−B K m ) e−Bw
Y= Ce.e
w=K p ( e ,t ) x + K r ( e , t ) r
Le bloc feedforward est représenté par la fonction de transfert réelle
strictement positive C e [ sI− Am + B K m ]−1 . B et le bloc feedback avec
l’entrée y et la sortie w, alors en appliquant le critère de Popov pour ce
système, on obtient les lois d’adaptation suivantes :
1- adaptation intégrale :
t
K p ( e , t )=∫ α . y . x dτ
T

t
K r ( e ,t )=∫ α . y . r dτ
T

2- adaptation proportionnelle et intégrale :


t
K p ( e , t )=∫ α . y . x dτ + β . y . xT
T

t
K r ( e ,t )=∫ α . y . r dτ + β . y . r T
T

α, β : des constantes positives.

Vous aimerez peut-être aussi