Vous êtes sur la page 1sur 16

27/12/2018

Introduction
■ L’adaptation d’un système à son environnement réside dans la possibilité de

de réagir face aux variations que peut subir cet environnement.

■ La commande adaptative est une commande dont le but est de réagir à tout

instant dans le sens désiré (en générale minimisation de l’erreur entre la

consigne et la sortie) face aux variations que subit le système.

■ Dans l’approche non-adaptative, le développement d’algorithme de

commande se fait en considérant un modèle invariant (G(p) fixe  C(p) fixe)

■ Tant que le système ne subit pas de variations, G(p) reste valide et C(p) aussi

M-2ME2S 1 M-2ME2S 3

Plan du cours Introduction


1. Introduction.
2. Historique de la commande adaptative. ■ Cependant, il y a des cas où le système subit des variations en fonction des
3. Exemple introductif.
conditions de fonctionnement
4. Principe de base.
5. Approches de commande adaptatives linéaires ■ Exemple1: Système non linéaire  linéarisé autour du point de
6. Commande adaptative a modèle de référence (MRAC)
fonctionnement G(p)  Gc(p)
■ Origine de la commande MRAC

■ Principe de base ■ Si le point de fonctionnement change, G(p) change  Gc(p) n’est plus valide !

■ Exemple illustratif : Méthode de synthèse


■ Exemple2: Cas des systèmes dont les paramètres sont inconnus
■ Règle d’adaptation du MIT
(aéronautique, robotique, etc. )  le contrôleur doit s’adapter au système.
■ Application à un système d’ordre 1

7. Méthodes de calcul des régulateurs numériques en présence de perturbations


aléatoires
M-2ME2S 2 M-2ME2S 4

1
27/12/2018

Historique Historique
■ Méthode de sensibilité, règle du MIT, analyse de stabilité limitée (les années 60)
■ L’origine de la commande adaptative remonte au début des années 50.
Whitaker, Kalman, Parks, etc.

■ La commande adaptative a été motivée par ces problèmes de l’aéronautique. ■ Méthode basée sur la technique de Lyapunov, de passivité (les années 70)
Morse, Narendra, Landau, etc.
■ La conception d’autopilotes pour une large fourchette d’altitudes et de ■ Preuves de stabilité globales (les années 70-80)

vitesses. Astrom, Morse, Narendra, Landau, Goodwin, Keisselmeier, Anderson, etc.


■ Questions de robustesse, instabilité Début des années 80)
■ Forts changements dans la dynamique quand l’avion change de point de Rohrs, Valavani, Athans, Marino, Tomei, Egard, Ioanno, Anderson, Sastryetc, etc.

fonctionnement. ■ Commande adaptative robuste les années 80)


Ioanno, Sun, Praly, Jiang, Tsakalis, Tao, Datta, Middleton, Basar, etc.
■ Contrôleurs par feedback à gains constant n’était pas capables de garantir ■ Commande adaptative non linéaire (les années 90)

les performances désirées lors du changement de point de fonctionnement. Kokotovic, Ioannou, Narendra, Krstic, Xu, Wang, Anderson, Safonov, Bernstein,
etc.
M-2ME2S 5 M-2ME2S 7

Historique Exemple introductif


■ La commande adaptative, étaient nécessaires pour compenser ces fortes ■ On considère le système représenté par la fonction de transfert :

variations dans la dynamique de l’avion.

■ L’organe de commande pour un tel système est une vanne non linéaire
■ Commande adaptative à modèle de référence a été proposée par Whitaker
■ Sa caractéristique s’écrit : 𝒗 = 𝒇 𝒖 = 𝒖𝟒 , 𝒖 ≥ 𝟎
pour résoudre le problème de commande d’autopilotes

■ La méthode de sensibilité et la règle d’adaptation du MIT ont été largement

utilisées.

■ Méthode de placement de pôles adaptatif basée sur le problème linéaire


■ On souhaite commander la sorite pour suivre une consigne constante
(régulation)
quadratique optimal a été proposée par Kalman.
■ On considère une boucle de commande avec un contrôleur PI classique

M-2ME2S 6 M-2ME2S 8

2
27/12/2018

Exemple introductif Principe de base


■ Quand les paramètres d'un système sont inconnus, varient dans le
■ Le système en boucle fermée : temps ou incertains

■ Besoin d'une loi de commande qui s'adapte dans de telles conditions

■ Estimation en ligne des paramètres

■ On considère l’asservissement pour une consigne : 𝒖𝒄 = 𝟎. 𝟐 ■ Elle n'a pas besoin d’informations préalables sur les limites sur ces paramètres
■ Les gains du contrôleur PI sont calculés : 𝑲 = 𝟎. 𝟏𝟓, 𝑻𝒊 = 𝟏
■ On simule ce système

M-2ME2S 9 M-2ME2S 11

Exemple introductif Approches de commande adaptative linéaire

■ On garde les mêmes gains du contrôleur ■ Deux classes de commande adaptative:


■ On re-simule le système pour différentes valeur de consigne uc = 0.2, 1 et 7.
 Commande adaptative directe (Direct adaptaive control)

𝑢𝑐 = 0.2  Commande adaptative indirecte (Indirect adaptaive control)

■ Quatre types d’approches de commande adaptatives:

𝑢𝑐 = 1  Commande par gain programmé (Gain scheduling)

 Commande adaptative à Modèle de Référence (MRAC)

𝑢𝑐 = 7  Contrôleurs auto-ajustable (Self-Tuning)

 Commande duale (Dual control)


M-2ME2S 10 M-2ME2S 12

■ Cet exemple souligne la nécessité de synthèse de commandes adaptatives

3
27/12/2018

Classes de commande adaptative Approches de commande adaptative


-Commande adaptative à modèle de référence-
■ La commande adaptative à modèle de référence

Commande adaptative directe (MRAC : Model Reference Adaptive Control) est


une des commandes adaptatives les plus connues.
Elle comporte une seule étape, les
paramètres du régulateur sont directement ■ Cette approche de commande a été originalement
estimés en temps réel. proposée pour résoudre un problème dans lequel les
spécification de performances sont données
en termes d’un modèle de référence.

■ Ce modèle de référence donne une indication sur


comment la sortie du système doit idéalement
Commande adaptative indirecte répondre à un signal de commande.
Elle comporte deux étapes, on estime
■ Son principe de base consiste à adapter les
récursivement les paramètres du modèle ensuite
paramètres du contrôleur en fonction de l’erreur
on utilise les estimés pour calculer les paramètres
entre le système et le modèle.
du régulateur.
M-2ME2S 13 M-2ME2S 15

Approches de commande adaptative Approches de commande adaptative


-Commande par gain programmé- Commande auto-ajustable (STR)

■ Dans plusieurs cas, il est possible que les ■ Cette commande fait partie des
variables mesurables ont une corrélation commandes adaptatives indirectes
avec les changement dans la dynamique
du système.
■ Les paramètres du systèmes ont
■ Ces variables peuvent donc être utilisées estimés et utilisés dans le calcul des
pour changer les paramètres du contrôleur paramètres du contrôleur

■ Cette approche est appelée commande par


gain programmé (Gain Schedule)
■ L’architecture de commande contient deux boucles : une boucle interne du contrôleur
■ Peut être vue comme une transformation et une boucle externe d’ajustement de ses paramètres.
de l’espace des paramètres du système à
■ Cette commande est appelée ainsi à cause du fait que le contrôleur ajuste
l’espace des paramètres du contrôleur
automatiquement ses paramètres afin d’obtenir les propriétés désirées en boucle-

M-2ME2S 14 fermée. M-2ME2S 16

4
27/12/2018

Approches de commande adaptative La commande MRAC


-Commande duale- ■ Le système doit être à minimum de phase (stable et causal)
■ Dans les approches précédentes, l’estimation est
paramètres (du contrôleur ou du système) est ■ La synthèse du contrôleur 𝑪(𝜽∗𝒄 ) nécessite la connaissance des coefficients de la
supposée certaine. Les incertitudes sur les fonction de transfert du système G(p)
paramètres ne sont pas considérés dans la
synthèse du contrôleur ■ Si 𝛉∗ est un vecteur contenant les coefficients de 𝐆 𝐩 = 𝐆 𝐩, 𝛉∗ donc le vecteur de
■ Pour cela l’idée consiste à utiliser ‘la théorie de paramètres du contrôleur peut être calculé en résolvant une équation algébrique du type
commande stochastique non linéaire’
𝜽∗𝒄 = 𝑭(𝜽∗ )
■ Ceci conduit à ce qu’on appelle ‘Commande duale’
■ Par conséquent les incertitudes sur les paramètres ■ La solution suppose que le système est à minimum de phase et ses coefficients 𝜽∗sont
estimés sont considérés dans dès lors de la phase
parfaitement connus
de conception du contrôleur
■ Les estimation des paramètres sont supposées ■ Si 𝜽∗ est inconnu, il est impossible de calculer le vecteur des paramètres 𝜽∗𝒄
incertaines, et ces incertitudes sont considérées
stochastiques ■ Dans ce cas, une solution qui pourrait être adoptée, consiste à utiliser une estimation de 𝜽∗𝒄
■ L’approche est tellement compliquée qu’elle n’a pas obtenu en utilisant une approches directe ou indirecte
été appliquée en pratique
■ L’approche résultante est appelée : Commande adaptative à modèle de référence (MRAC:
M-2ME2S 17
Model Reference
M-2ME2S
Adaptive Control) 19

La commande MRAC La commande MRAC


■ La commande adaptative à modèle de référence (MRAC: Model Reference Adaptive ■ La structure de base d’une commande MRAC est représentée par le schéma-bloc

control) est une des commandes adaptatives les plus connues

■ La commande MRAC a été dérivée de la commande à modèle de référence (MRC : Model


Reference Control) utilisée dans les autopilotes

Structure d’une commande MRC

■ La commande doit être choisie de telle sorte que le système en boucle fermée se comporte comme
un modèle de référence 𝑾𝒎 (𝒑)
𝐂𝐆
■ Si G(p) est connue, C doit être choisie telle que : 𝐖𝐦 =
𝟏+𝐂𝐆
■ Dans ce cas, M-2ME2S
la sortie du système converge exponentiellement vers la sortie du modèle18 M-2ME2S 20

5
27/12/2018

La commande MRAC
■ Le modèle de référence est utilisé pour générer la trajectoire de référence 𝐲𝐦
La commande MRAC directe
■ La sortie du système 𝐲𝐩 doit suivre cette trajectoire de référence
■ L’erreur de poursuite 𝒆𝟏 =𝒚𝒑 -𝒚𝒎 représente la déviation de la sortie par rapport à la
référence

■ Le système en boucle fermée est basé sur une loi de commande par feedback
■ La commande comporte un contrôleur 𝐂(𝛉) et un mécanisme d’ajustement

■ Dans la commande MRAC directe le vecteur des paramètres du contrôleur est ajusté
directement par une loi d’adaptation
M-2ME2S 21 M-2ME2S 23

La commande MRAC
■ Le mécanisme d’ajustement génère une estimation des paramètres du contrôleur 𝜽(𝒕)
La commande MRAC indirecte
■ La synthèse du contrôleur comporte la conception de la loi de commande et le
mécanisme d’adaptation

■ L’objectif est que la sortie du système suive celle du modèle de référence


■ Les approches de commande MRAC peuvent être classées en directe ou indirecte
■ Et avec des lois d’adaptation normalisée ou non normalisée

■ Dans la commande MRAC indirecte le vecteur des paramètres du contrôleur est


calculé à chaque instant d’échantillonnage en résolvant une équation algébrique
en fonction des estimés des paramètres du système
M-2ME2S 22 M-2ME2S 24

6
27/12/2018

Exemple illustratif Exemple illustratif


■ On considère le système suivant à un seul état (scalaire) : ■ Pour cela on réécrit l’équation de la dynamique du système comme suit :
𝐱 = 𝐚𝐱 + 𝐮; 𝐱 𝟎 = 𝐱𝟎 a : est une constante inconnue 𝐱 = 𝐚𝐱 − 𝐤 ∗ 𝐱 + 𝐤 ∗ 𝐱 + 𝐮
■ L’objectif de la commande consiste à déterminer une fonction bornée u = f(t;x) tel que
l’état x(t) est borné et converge asymptotiquement vers 0 (stabilisation) quelque soit la ■ D’autre part on a 𝐚 − 𝐤 ∗ = −𝒂𝒎 par conséquent :
condition initiale 𝐱𝟎 𝐱 = −𝒂𝒎 𝐱 + 𝐤 ∗ 𝐱 + 𝐮
■ Soit -𝐚𝐦 le pôle désiré en boucle fermée, où 𝒂𝒎 >0 est choisi par le concepteur ■ On introduisant la transformée de Laplace on en déduit :
■ Si le paramètre a du système était connu, la loi de commande par retour d’état s’écrit :
𝟏
𝒖 = −𝒌∗ 𝒙 𝐱= (𝐤 ∗ 𝐱 + 𝐮)
𝐩+𝐚𝐦

■ Où peut être utilisé pour satisfaire les objectifs de la commande ■ Cette dernière équation est une paramétrisation de la dynamique du système en termes du
𝒌∗ = 𝒂 + 𝒂𝒎 gain 𝐤 ∗ du contrôleur
■ En effet, le système en boucle fermée résultat s’écrit :
■ Etant donné que x, u sont mesurés et que 𝒂𝒎 > 𝟎 est connu, différentes lois
𝐱 = −𝒂𝒎 𝐱
d’adaptation peuvent être utilisées (SPR-Lyapunov, gradient, moindre carrées, etc)
■ Dont le point d’équilibre est exponentiellement stable
■ A titre d’exemple on va considérer la méthode de SPR-Lyapunov
𝐱𝒆 = 𝟎
M-2ME2S 25 M-2ME2S 27

Exemple illustratif Exemple illustratif


■ Etant donné que a est inconnu, 𝒌∗ = 𝒂 + 𝒂𝒎 ne peut être calculé, et la loi de ■ Etant donné que
𝟏
est SPR (Strictly Positive Real transfer function) la méthode SPR-
𝐩+𝐚𝐦
commande ne peut être implémentée
Lyapunov peut être utilisée
■ Une solution qui peut être envisagée consiste à utiliser la même loi de commande
■ L’estimé 𝑥de 𝑥 peut être donné par :
précédente, mais avec un 𝒌∗ remplacé par 𝐤 𝒕 son estimé c.à.d. :
𝟏 𝟏
𝒖 = −𝒌(𝒕)𝒙 (1) 𝐱= 𝐤𝐱 + 𝐮 = 𝟎
𝐩 + 𝐚𝐦 𝐩 + 𝐚𝐦
■ Et chercher une loi d’adaptation pour mettre à jour −𝒌(𝒕) continuellement
■ La dernière égalité est obtenue en remplaçant la commande par 𝐮 = −𝐤𝐱
■ Une telle loi d’adaptation peut être développée en considérant le question comme étant
■ Si l’on choisi 𝐱 𝟎 = 𝟎 on a 𝐱 𝐭 = 𝟎 ∀𝐭 ≥ 𝟎
un problème d’identification en ligne de 𝒌∗
■ Cela veut dire que l’erreur d’estimation 𝛆 = 𝐱 − 𝐱 est égale à l’erreur de régulation
■ Ceci peut être réaliser en considérant une paramétrisation de la dynamique du système
𝛆𝟏 = 𝐱
en termes de 𝒌∗ inconnu et trouver un moyen pour l’identifier en ligne
■ L’équation précédent de l’estimation de n’a pas à être implémentée pour générer 𝒙
M-2ME2S 26 M-2ME2S 28

7
27/12/2018

Exemple illustratif Exemple illustratif


■ En remplaçant 𝒖 = −𝒌 𝒕 𝒙 dans l’équation de paramétrisation on obtient : ■ Pour l’implémentation de la commande proposée, on retient :
𝟏 ⌂ Le système : 𝒙 = 𝒂𝒙 + 𝒖 , 𝒙 𝟎 = 𝒙𝟎
𝜺 = −𝒂𝒎 𝜺𝟏 − 𝒌𝒙 , 𝒌 = 𝒌 − 𝒌∗ 𝐞𝐭 𝜺𝟏 = 𝒙 ou bien 𝜺𝟏 = (−𝒌𝒙)
𝒑+𝒂𝒎 ⌂ La loi de commande : 𝒖 = −𝒌 𝒕 𝒙
■ La première équation ci-dessus est dans une forme convenable au choix d’une fonction de ⌂ La loi d’adaptation : 𝒌 = 𝜸𝝐𝟏𝒙 = 𝒙𝟐 , 𝒌 𝟎 = 𝒌𝟎
Lyapunov pour la synthèse d’une loi d’adaptation pour 𝒌(𝒕) ■ Schéma-bloc d’implémentation :
■ On suppose que la loi d’adaptation est de la forme : 𝒌 = 𝒌 = 𝒇𝟏 (𝜺𝟏 , 𝒙, 𝒖)
où 𝒇𝟏 est une fonction à choisir, et on propose la fonction de Lyapunov suivante :
𝜺𝟏 𝟐 𝒌𝟐
𝑽 𝜺𝟏 , 𝒌 = + ,𝜸 > 𝟎
𝟐 𝟐𝜸
■ La première dérivée de cette fonction par rapport au temps donne :
𝒌𝒇𝟏
𝑽 = −𝑎𝑚 𝜺𝟏 𝟐 − 𝒌𝜺𝟏 𝒙 +
𝜸
■ Si l’on choisi 𝒇𝟏 = 𝜸𝜺𝟏 𝒙 c.à.d. 𝒌 = 𝜸𝜺𝟏 𝒙= 𝜸𝒙𝟐 , 𝒌 𝟎 = 𝒌𝟎 (2)

■ On a 𝑽 = −𝑎𝑚 𝜺𝟏 𝟐 . 𝟎
M-2ME2S 29 M-2ME2S 31

Exemple illustratif Exemple illustratif


■ Etant donné que la fonction de Lyapunov proposée est définie positive et sa première
■ Les paramètre de synthèse du contrôleur sont 𝒌𝟎 et 𝛄 > 𝟎
dérivée est semi-définie négative, alors 𝑉 =∈ 𝐿∞  𝜀1 , 𝑘 ∈ 𝐿∞
■ Pour garantir la bornitude des signaux et la régulation asymptotique de x à
■ D’autre part étant donné que 𝜀1 = 𝑥 donc 𝑥 =∈ 𝐿∞ zéro ces deux paramètres peuvent être choisis arbitrairement
■ Par conséquent tous les signaux du système en boucle fermée sont bornés
■ Il est cependant claire que ces deux paramètres affectent le comportement
■ De plus 𝜺𝟏 = 𝒙 ∈ 𝑳 𝟐 et 𝜺𝟏 = 𝒙 ∈ 𝑳 ∞ transitoire et en régime permanent du système en boucle fermée

■ Ce qui implique : 𝜺𝟏 𝒕 = 𝒙 𝒕  𝟎 quand 𝑡  ∞ ■ Pour de grandes valeurs de 𝛄 la convergence de x vers zéro est plus rapide

■ Etant donné que 𝒙 𝒕  𝟎 et k est borné, donc 𝒌  𝟎 , 𝒖 𝟎 quand 𝒕  ∞ ■ Cependant, si 𝛄 est grand, 𝒌 le sera aussi et l’équation différentielle calculant k
nécessitera un pas d’échantillonnage très petit pour l’implémenter sur un PC
■ donc la loi de commande (1) avec la loi d’adaptation (2) permettent de satisfaire les
objectifs de la commande, c.à.d. elles forcent l’état du système à converger vers zéros tout en ■ Des pas d’échantillonnage très petit rendent l’approche adaptative plus sensible
garantissant la bornitude des signaux au bruit de mesure et aux erreurs de modélisation
M-2ME2S 30 M-2ME2S 32

8
27/12/2018

Exemple illustratif Règle d’adaptation du MIT


■ Remarque : Dans cet exemple, aucun modèle de référence n’a été utilisé pour décrire les ■ Il existe d’autres alternatives de J, à titre d’exemple :
performances désirées en boucle fermée
𝑱 𝜽 = 𝒆
■ Un choix raisonnable d’un modèle de référence aurait pu être :

𝒙 = −𝒂𝒎 𝒙 , 𝒙𝒎 𝟎 = 𝒙𝒎𝟎 ■ Ce qui donne en dérivant :


𝒅𝜽 𝝏𝒆
■ Qui conduira en suivant la même procédure de synthèse précédente à : = −𝜸 𝒔𝒊𝒈𝒏(𝒆)
𝒅𝒕 𝝏𝜽
𝒖 = −𝒌 𝒕 𝒙 𝒌 = 𝜸𝒆𝟏 𝒙 avec 𝒆𝟏 = 𝒙 − 𝒙𝒎

■ Si les conditions initiales ne sont pas nulles, c.à.d. 𝒙𝒎𝟎 ≠ 𝒙𝟎 l’utilisation du modèle de référence ci-
dessus affectera le comportement transitoire de l’erreur de poursuite
𝟏 , 𝒆>𝟎
𝒔𝒊𝒈𝒏 𝒆 = 𝟎 , 𝒆=𝟎
■ Cependant cette utilisation du modèle de référence n’aura pas d’effet sur les propriétés asymptotiques
−𝟏 , 𝒆<𝟎
du système en boucle fermée étant donné que 𝒙𝒎 convergera exponentiellement rapide vers zéro

M-2ME2S 33 M-2ME2S 35

Règle d’adaptation du MIT Application à un système d’ordre 1


■ On considère le système du premier ordre suivant :
■ Soit 𝒆 l’erreur entre la sortie du système et celle du modèle 𝒅𝒚
■ On considère la fonction coût suivante : = −𝒂𝒚 + 𝒃𝒖
𝒅𝒕
𝟏 𝟐
𝒆 𝑱 𝜽 = ■ Soit le modèle de référence :
𝟐
𝒅𝒚𝒎
■ 𝜽: représente le vecteur des paramètres du contrôleur à adapter = −𝒂𝒎 𝒚𝒎 + 𝒃𝒎 𝒖𝒄
𝒅𝒕
■ Pour minimiser J, il est logique de faire varier les paramètres dans la direction ■ Le contrôleur :
négative du gradient de J :
𝒅𝜽 𝝏𝑱 𝝏𝒆 𝒖 𝒕 = 𝜽𝟏 𝒖𝒄 𝒕 − 𝜽𝟐 𝒚(𝒕)
= −𝜸 = −𝜸𝒆
𝒅𝒕 𝝏𝜽 𝝏𝜽 ■ Les paramètres idéaux :
■ C’est la règle dite du MIT 𝒃𝒎
𝜽𝟏 = 𝜽𝟎𝟏 =
𝝏𝒆 𝒃
■ Le terme est crucial et appelé ‘dérivée de sensibilité ’ 𝒂 𝒎−𝒂
𝝏𝜽 𝜽𝟐 = 𝜽𝟎𝟐 =
■ Il est souvent supposé que les paramètres varient moins rapidement que les autres 𝒃
variables dans le système
■ L’erreur de sortie : 𝒆 = 𝒚 − 𝒚𝒎
■ Par conséquent, la dérivée de sensibilité peut être calculée en supposant que 𝜃 est
constant

M-2ME2S 34 M-2ME2S 36

9
27/12/2018

Application à un système d’ordre 1 Application à un système d’ordre 1


■ La sortie s’écrit : ■ Evolution de la sortie et la commande
𝒃𝜽𝟏
𝒚= 𝒖
𝒑 + 𝒂 + 𝒃𝜽𝟐 𝒄
■ La dérivée de l’erreur par rapport aux paramètres donne :

𝝏𝒆 𝒃
= 𝒖
𝝏𝜽𝟏 𝒑 + 𝒂 + 𝒃𝜽𝟐 𝒄

𝝏𝒆 𝒃𝟐 𝜽 𝟏 𝒃 ■ Evolution des paramètres selon différents gains d’adaptation


= 𝒖 = 𝒚
𝝏𝜽𝟐 (𝒑 + 𝒂 + 𝒃𝜽𝟐 )𝟐 𝒄 𝒑 + 𝒂 + 𝒃𝜽𝟐

■ On considère maintenant l’approximation : 𝒑 + 𝒂 + 𝒃𝜽𝟐 ≅ 𝒑 + 𝒂𝒎


■ Par conséquent on a :
𝒅𝜽𝟏 𝒂𝒎
= −𝜸 𝒖 𝒆
𝒅𝒕 𝒑 + 𝒂𝒎 𝒄
𝒅𝜽𝟐 𝒂𝒎
= 𝜸 𝒚 𝒆
𝒅𝒕 𝒑 + 𝒂𝒎

M-2ME2S 37 M-2ME2S 39

Application à un système d’ordre 1


■ Schéma-bloc d’implémentation :

Méthodes de calcul des régulateurs numériques


en présence de perturbations aléatoires

𝒅𝜽𝟏 𝒂𝒎 𝒅𝜽𝟐 𝒂𝒎
= −𝜸 𝒖 𝒆 , = 𝜸 𝒚 𝒆
𝒅𝒕 𝒑 + 𝒂𝒎 𝒄 𝒅𝒕 𝒑 + 𝒂𝒎

M-2ME2S 38 M-2ME2S 40

10
27/12/2018

Description des perturbations Bruit blanc discret gaussien


■ Perturbations déterministes peuvent être décrites comme une impulsion passée par un filtre Il constitue le signal générateur

■ {e(t)} est une séquence de variables aléatoires gaussiennes indépendantes, de

valeur moyenne (v. 𝒎.) nulle et variance 𝝈𝟐 𝟎, 𝝈 , 𝝈 est l’écart type

𝟏 𝑵
v. 𝒎. = 𝑬 𝒆 𝒕 = 𝒍𝒊𝒎 𝒕=𝟏 𝒆 𝒕 =𝟎
𝑵→∞ 𝑵
𝑵
𝟏
𝒗𝒂𝒓 = 𝑬 𝒆𝟐 𝒕 = 𝒍𝒊𝒎 𝒆𝟐 𝒕 = 𝝈𝟐
𝑵→∞ 𝑵
𝒕=𝟏
■ Perturbations aléatoires ne peuvent pas être décrites d’une façon déterministe car elles ne sont pas
reproductibles. ■ Indépendance : La connaissance de e(k) ne permet pas de prédire une
■ La plupart des perturbations aléatoires peuvent être décrites comme un bruit blanc passé par un
filtre. approximation de e(k+1), e(k+2)….
■ Le bruit blanc joue le rôle de l’impulsion de Dirac en stochastique.

M-2ME2S 41 M-2ME2S 43

Processus stochastique (aléatoire) Test d’indépendance


■ Fonction d’autocorrélation (covariance):
Exemple: enregistrement de la sortie 𝑵
𝟏
𝑹(𝒊) = 𝑬 𝒆 𝒕 𝒆(𝒕 − 𝒊) = 𝐥𝐢𝐦 𝒆 𝒕 𝒆(𝒕 − 𝒊)
réglée en régime de régulation sur un 𝑵→∞ 𝑵
𝒕=𝟏

horizon significatif (1 journée) Remarque: 𝑹 𝟎 = 𝒗𝒂𝒓 = 𝝈𝟐


■ Fonction d’autocorrélation (covariance) normalisée:

■ chaque évolution peut être décrite par une fonction f(t) différente (réalisation du 𝑹(𝒊)
processus stochastique) 𝑹𝑵 𝒊 = (𝑹𝑵 𝟎 = 𝟏)
𝑹(𝟎)
■ si on fixe le temps (ex.: 10h) on mesurera sur chaque essai (journée) une autre valeur
(variable aléatoire) ■ Test de blancheur (indépendance): R(i)=RN(i) = 0 i= 1, 2, 3..-1, -2…
■ on peut définir une statistique (valeur moyenne, variance) et des probabilités Bruit blanc
d’apparition des différentes valeurs:
Densité
■ si le processus stochastique est ergodique les statistiques sur un essai sont Autocorrélation
spectrale
significatives normalisée

■ si le processus stochastique est gaussien la connaissance de la valeur moyenne


v.m. et de la var. permet de donner la probabilité d’apparition d’une valeur
M-2ME2S 42 M-2ME2S 44

11
27/12/2018

Processus moyenne mobile (ajustée) – M.A. Processus auto-régressif – A.R.


𝑒 𝑡 𝑦 𝑡
1 + 𝑐1 𝑞 −1 𝑦 𝑡 = 𝑒 𝑡 + 𝑐1 𝑒 𝑡 − 1 = 1 + 𝑐1 𝑞 −1 𝑒 𝑡
𝑒 𝑡 𝑦 𝑡 𝑒 𝑡
1 𝑦 𝑡 = −𝑎1𝑦 𝑡 − 1 + 𝑒 𝑡 = 𝑎1 < 1
1 + 𝑎1 𝑞 −1 1 + 𝑎1 𝑞−1
𝟏 𝑵 𝟏 𝑵 𝟏 𝑵
𝑽. 𝑴. = 𝑬 𝒚(𝒕) =
𝑵 𝒕=𝟏 𝒚(𝒕) = 𝑵 𝒕=𝟏 𝒆 𝒕 + 𝒄𝟏
𝑵 𝒕=𝟏 𝒆 𝒕−𝟏 =𝟎

𝑵
𝟏 −1
𝑡 − 1 + 𝑒 𝑡 −−→ 𝐴 𝑞 𝑦 𝑡 = 𝑒(𝑡)
𝑒 𝑡 𝑦 𝑡 𝑛𝐴
𝑹𝒚 𝟎 = 𝑬 𝒚𝟐 𝒕 = 𝒚𝟐 𝒕 = (𝟏 + 𝒄𝟐𝟏 )𝝈𝟐 1 𝑦 𝑡 =− 𝑖=1 𝑎𝑖 𝑦
𝑵 𝐴(𝑞 −1 )
𝒕=𝟏
𝑵 𝑵 Asymptotiquement stable
𝟏 𝟏
𝑹𝒚 𝟏 = 𝑬 𝒚 𝒕 𝒚 𝒕 − 𝟏 = 𝒚 𝒕 𝒚(𝒕 − 𝟏) = 𝒄 𝒆𝟐 𝒕 = 𝒄𝟏 𝝈𝟐
𝑵 𝑵 𝟏 𝑛𝐴
𝒕=𝟏 𝒕=𝟏 𝐴 𝑞 −1 = 1 + 𝑎𝑖 𝑞 −1 = 1 + 𝑞 −1 𝐴∗ (𝑞−1 )
𝑖=1

𝑹𝒚 𝟐 = 𝑹𝒚 𝟑 = ⋯ = 𝟎 𝒄𝟏 Densité spectrale:
𝟏 + 𝒄𝟐𝟏 1 1
∅𝑦 𝑧 = ∅ 𝑧 ∅𝑦 𝜔 = ∅𝑦 𝑧 |𝑧=𝑒 𝑗𝜔
𝐴(𝑧) 𝐴(𝑧 −1 ) 𝑒

M-2ME2S 45 M-2ME2S 47

Processus moyenne mobile (ajustée) – M.A. Processus A.R.M.A.(auto-régressif à


1 𝑛𝑐
moyenne ajustée)
𝑒 𝑡 𝑦 𝑡
𝐶(𝑞 −1 ) 𝑦 𝑡 =𝑒 𝑡 + 𝑐𝑖 𝑒 𝑡 − 𝑖 = 𝐶(𝑞 −1 )𝑒 𝑡 𝑒 𝑡 𝑦 𝑡 𝑛𝐴 𝑛𝑐
𝐶(𝑞 −1 )
𝑖=1 𝑦 𝑡 =− 𝑎𝑖 𝑦 𝑡 − 𝑖 + 𝑐𝑖 𝑒 𝑡 − 𝑖 + 𝑒(𝑡)
𝑛𝑐 𝐴(𝑞 −1 )
𝑖=1 𝑖=1
𝐶 𝑞−1 = 1 + 𝑐𝑖 𝑞−𝑖 = 1 + 𝑞−1 𝐶 ∗ (𝑞 −1 )
𝑖=1 𝐴 𝑞 −1 𝑦 𝑡 = 𝐶 𝑞 −1 𝑒 𝑡
𝑅 𝑖 =0 𝑖 ≥ 𝑛𝑐 + 1 𝑖 ≥ −(𝑛𝑐 + 1)
Asymptotiquement stable
Densité spectrale:

𝜎 2 𝜎2 ∅𝑒
∅𝑦 𝜔 = 𝐶 𝑒𝑗𝜔 𝐶 𝑒 −𝑗𝜔 = 𝐶 𝑒𝑗𝜔 + Densité spectrale
2𝜋 2𝜋 𝐶(𝑧) 𝐶(𝑧 −1 )
∅𝑦 𝑧 = ∅ 𝑧
𝐴(𝑧) 𝐴(𝑧 −1 ) 𝑒
Relation spectre/fonction de transfert:

∅𝑦 𝑧 = 𝐶 𝑧 𝐶 𝑧 −1 ∅𝑒 𝑧 ; 𝑧 = 𝑒 𝑖𝜔
M-2ME2S 46 M-2ME2S 48

12
27/12/2018

Processus A.R.M.A.X. (A.R.M.A. avec entrée exogène) Prédiction optimale


e(t) 𝐲(𝐭 + 𝟏/𝐭) = Prédiction de 𝒚(𝒕 + 𝟏) basée sur les mesures de 𝒖 et 𝒚 disponibles jusqu’à 𝒕
𝑞 −𝑑 𝐵 𝑞 −1 𝐶 𝑞 −1
𝑦 𝑡 = 𝑢(𝑡) + 𝑒(𝑡)
𝐶(𝑞 −1 ) 𝐴(𝑞 −1 ) 𝐴 𝑞 −1 Erreur de prédiction: 𝜀 𝑡 + 1 = 𝑦 𝑡 + 1 − 𝑦(𝑡 + 1)
𝐴(𝑞 −1 ) perturbations
Objectif: 𝑦 𝑡 + 1/𝑡 = 𝑦 𝑡 + 1 = 𝑓(𝑦 𝑡 , 𝑦 𝑡 − 1 , … , 𝑢 𝑡 , 𝑢 𝑡 − 1 , … ) tel que :
u(t) 𝑞 −𝑑 𝐵(𝑞 −1 ) y(t) 𝐴(𝑞 −1 )𝑦 𝑡 = 𝑞 −𝑑 𝐵 𝑞 −1 𝑢(𝑡) + 𝐶 𝑞 −1 𝑒(𝑡) 𝟐
𝑬 𝒚 𝒕+𝟏 −𝐲 𝒕+𝟏 = 𝒎𝒊𝒏
𝐴(𝑞 −1 )

𝑛𝐴 𝑛𝐵 𝑛𝑐 Exemple:
𝑦 𝑡+1 = − 𝑎𝑖 𝑦 𝑡 + 1 − 𝑖 + 𝑏𝑖 𝑢 𝑡 + 1 − 𝑑 − 𝑖 + 𝑐𝑖 𝑒 𝑡 + 1 − 𝑖 + 𝑒(𝑡 + 1)
𝑖=1 𝑖=1 𝑖=1 𝑦 𝑡 + 1 = −𝑎1 𝑦 𝑡 + 𝑏1 𝑢 𝑡 + 𝑐1 𝑒 𝑡 + 𝑒(𝑡 + 1)

𝑦 𝑡 + 1 = −𝐴∗ 𝑞 −1 𝑦(𝑡)+ 𝐵 ∗ 𝑞 −1 𝑢(𝑡 − 𝑑)+𝐶 𝑞 −1 𝑒(𝑡 + 1) 𝜀 𝑡 + 1 = 𝑦 𝑡 + 1 − 𝑦 𝑡 + 1 = [−𝑎1 𝑦 𝑡 + 𝑏1 𝑢 𝑡 + 𝑐1 𝑒 𝑡 − 𝑦 𝑡 + 1 ] + 𝑒(𝑡 + 1)

2 2
Remarque: en général 𝒏𝑪 = 𝒏𝑨 𝐸 𝑦 𝑡+1 −𝑦 𝑡+1 = 𝐸 −𝑎1 𝑦 𝑡 + 𝑏1 𝑢 𝑡 + 𝑐1 𝑒 𝑡 − 𝑦 𝑡 + 1 + 𝐸 𝑒 2 (𝑡 + 1)
Exemple: 𝑛𝐶 = 𝑛𝐴 = 𝑛𝐵 = 1; 𝑑 = 0
+2𝐸{𝑒(𝑡 + 1)[−𝑎1 𝑦 𝑡 + 𝑏1 𝑢 𝑡 + 𝑐1𝑒 𝑡 ]}
𝑦 𝑡 + 1 = −𝑎1 𝑦 𝑡 + 𝑏1 𝑢 𝑡 + 𝑐1𝑒 𝑡 + 𝑒(𝑡 + 1)
M-2ME2S 49 M-2ME2S =0 51

Généralité du modèle A.R.M.A.X. Prédiction optimale


Condition d’optimalité:

𝟐
𝑦 𝑡 =
𝑞−𝑑 𝐵1 𝑞−1
𝑢 𝑡 +
𝐶2 𝑞 −1
𝑒(𝑡)
𝑬 −𝒂𝟏 𝒚 𝒕 + 𝒃𝟏 𝒖 𝒕 + 𝒄𝟏 𝒆 𝒕 − 𝒚 𝒕 + 𝟏 =0
e(t) 𝐴1 𝑞−1 𝐴2 𝑞−1

𝐶2
𝐴2
𝑦 𝑡 + 1 |𝑜𝑝𝑡 = −𝑎1 𝑦 𝑡 + 𝑏1 𝑢 𝑡 + 𝑐1 𝑒 𝑡
u(t) 𝑞 −𝑑 𝐵1 y(t) 𝑞 −𝑑 𝐵1 𝐴2 𝐶2 𝐴1 𝑞 −𝑑 𝐵 𝐶
𝑦 𝑡 = 𝑢 𝑡 + 𝑒 𝑡 = 𝑢 𝑡 + 𝑒 𝑡
𝐴1 𝐴1 𝐴2 𝐴1 𝐴2 𝐴 𝐴 → 𝜀 𝑡 + 1 |𝑜𝑝𝑡 = 𝑦 𝑡 + 1 − 𝑦 𝑡 + 1 |𝑜𝑝𝑡 = 𝑒(𝑡 + 1)

𝜀 𝑡 = 𝑒 𝑡 → 𝑦 𝑡 + 1 |𝑜𝑝𝑡 = −𝑎1 𝑦 𝑡 + 𝑏1 𝑢 𝑡 + 𝑐1 𝜺 𝒕
𝐴 = 𝐴1 𝐴2 ; 𝐵 = 𝐵1 𝐴2 ; 𝐶 = 𝐶2 𝐴1

M-2ME2S 50 M-2ME2S 52

13
27/12/2018

Poursuite et régulation à variance minimale


Prédiction optimale Procédé + perturbation: 𝑦 𝑡 + 1 = −𝑎1 𝑦 𝑡 + 𝑏1 𝑢 𝑡 + 𝑏2 𝑢 𝑡 − 1 + 𝑐1 𝑒 𝑡 + e(t+1)

A.R.M.A.X: Trajectoire de référence: 𝑦 ∗ (𝑡 + 1)

𝑦 𝑡 + 1 = −𝐴∗ 𝑞 −1 𝑦(𝑡)+𝐵 ∗ 𝑞 −1 𝑢 𝑡 − 𝑑 + 𝐶 𝑞 −1 𝑒(𝑡 + 1) Calcul critère:


𝐸 𝑦 𝑡 + 1 − 𝑦∗ 𝑡 + 1 2
=
Prédicteur optimale (Théorique):
𝐸 −𝑎1𝑦 𝑡 + 𝑏1 𝑢 𝑡 + 𝑏2 𝑢 𝑡 − 1 + 𝑐1 𝑒 𝑡 − 𝑦 ∗ 𝑡 + 1 2
+ 𝐸 𝑒 2 (𝑡 + 1)
𝑦 𝑡 + 1 = −𝐴∗ 𝑞 −1 𝑦(𝑡)+𝐵 ∗ 𝑞 −1 𝑢 𝑡 − 𝑑 + 𝐶 ∗ 𝑞 −1 𝑒(𝑡)

+2𝐸 𝑒 𝑡 + 1 −𝑎1 𝑦 𝑡 + 𝑏1 𝑢 𝑡 + 𝑏2 𝑢 𝑡 − 1 + 𝑐1 𝑒 𝑡 − 𝑦 𝑡 + 1
Erreur de prédiction: =0
𝜀 𝑡 + 1 |𝑜𝑝𝑡 = 𝑦 𝑡 + 1 − 𝑦 𝑡 + 1 = 𝑒 𝑡 + 1
Condition d’optimalité: 𝐸 −𝑎1 𝑦 𝑡 + 𝑏1 𝑢 𝑡 + 𝑏2 𝑢 𝑡 − 1 + 𝑐1 𝑒 𝑡 − 𝑦 ∗ 𝑡 + 1 2
=0
Prédicteur optimale (mis en œuvre):
Loi de commande (théorique):
𝑦 𝑡 + 1 = −𝐴∗ 𝑞 −1 𝑦(𝑡)+𝐵 ∗ 𝑞 −1 𝑢 𝑡 − 𝑑 + 𝐶 ∗ 𝑞 −1 𝜀(𝑡)
𝑦 ∗ 𝑡 + 1 − 𝑐1 𝑒 𝑡 + 𝑎1 𝑦 𝑡
𝑢 𝑡 = → 𝑦 𝑡 + 1 − 𝑦 ∗ 𝑡 + 1 =e(t+1) → 𝑦 𝑡 − 𝑦 ∗ 𝑡 =e(t)
𝑏1 + 𝑏2 𝑞 −1
M-2ME2S 53 M-2ME2S 55

Poursuite et régulation à variance minimale Poursuite et régulation à variance minimale


– perturbations aléatoires Loi de commande (mise en œuvre):
– le modèle échantillonné du procédé a des zéros stables
Objectif: minimiser la variance (écart type) de la sortie
𝑵 1 + 𝑐1 𝑞−1 𝑦 ∗ 𝑡 + 1 − (𝑐1 −𝑎1 )𝑦 𝑡
𝟏 𝑢 𝑡 =
𝑱 𝒖 𝒕 = 𝑬 𝒚 𝒕 − 𝒚∗ (𝒕) 𝟐
≈ 𝒚 𝒕 − 𝒚∗ (𝒕) 𝟐
= 𝒎𝒊𝒏 𝑏1 + 𝑏2 𝑞 −1
𝑵
𝒕=𝟏

𝑇 𝑞−1 𝑦 ∗ 𝑡 + 1 − 𝑅 𝑞−1 𝑦 𝑡
=
𝑆 𝑞−1

Il faut introduire un modèle pour les perturbations


Procédé + perturbation: Modèle ARMAX

M-2ME2S 54 M-2ME2S 56

14
27/12/2018

Pôles de la boucle fermée Poursuite et régulation à variance minimale


e(t)
– cas général
𝐶 𝑇 𝑞 −1 𝑦 ∗ 𝑡 + 1 − 𝑅 𝑞 −1 𝑦 𝑡
Perturbation
𝑢 𝑡 = 𝑇(𝑞 −1 )𝑦 ∗ 𝑡 + 𝑑 + 1 − 𝑅 𝑞 −1 𝑦(𝑡)
u(t) 𝐴 𝑆 𝑞 −1 𝑢 𝑡 =
𝒚∗ (𝒕 + 𝒅 + 𝟏) 𝑆(𝑞 −1 )
y(t)
1 𝑞 −𝑑 𝐵
𝑇 𝑇 𝑞 −1 = 𝐶 𝑞 −1 ; 𝑇 𝑞 −1 = 𝐵 ∗(𝑞 −1 )𝑆 ′(𝑞 −1 )
𝑆 𝐴
𝑇(𝑞 −1 )𝑞 − 𝑑+1 𝐵 ∗(𝑞 −1 )
Procédé
𝐻𝐵𝐹 𝑞 −1
= 𝐴 𝑞 −1 𝑆 ′ 𝑞 −1 + 𝑞 − 𝑑+1
𝐵∗ 𝑞 −1 𝑅 𝑞 −1 = 𝐶(𝑞 −1 )
𝐴 𝑞 −1 𝑆 𝑞 −1 + 𝑞 −1 𝐵∗ 𝑞 −1 𝑅(𝑞 −1 )
R
Erreur de prédiction: 𝑦 𝑡 + 𝑑 + 1 − 𝑦 ∗ 𝑡 + 𝑑 + 1 = 𝑆 ′ 𝑞 −1 𝑒(𝑡 + 𝑑 + 1)
𝐴 𝑞 −1 = 1 + 𝑎1 𝑞 −1; 𝐵 𝑞 −1 = 𝑞 −1 𝐵 ∗ 𝑞 −1 ; 𝐵 ∗ 𝑞 −1 = 𝑏1 + 𝑏2 𝑞 −1 ; 𝑑 = 0
M.A.. d’ordre d
𝑇 𝑞 −1 = 𝐶 𝑞 −1 = 1 + 𝑐1 𝑞 −1; 𝑆 𝑞 −1 = 𝐵 ∗ 𝑞 −1 = 𝑏1 + 𝑏2 𝑞 −1; 𝑅 𝑞 −1 = 𝑟0 = 𝑐1-𝑎1 Test d’optimalité:

𝑇(𝑞 −1 )𝑞 −1 𝑇(𝑞 −1 )𝑞 −1 1 𝑁
𝐻𝐵𝐹 𝑞 −1 = = = 𝑞 −1 𝑅 𝑖 = 𝑡=1 𝑦 𝑡 − 𝑦 ∗ (𝑡) 𝑦 𝑡 − 𝑖 − 𝑦 ∗ (𝑡 − 𝑖) 𝑖 = 0,1,2, …
𝑁
𝐴 𝑞 −1 + 𝑞 −1 𝑅(𝑞 −1 ) 𝐶 𝑞 −1
Le modèle de la perturbation (C q−1 ) définit les pôles de la boucle fermée et donc 𝑅𝑁 𝑖 ≈ 0 𝑖 ≥𝑑+1 𝑅𝑁 𝑖 ≤ 02,17 𝑁 𝑖 ≥ 𝑑 + 1
le comportement en régulation théorique pratique
M-2ME2S 57 M-2ME2S 59

Poursuite et régulation à variance minimale Poursuite et régulation à variance minimale


– cas général - Cas des zéros instables

La poursuite/régulation à variance minimale ne peut pas être appliquée

solutions:

– Utilisation du placement de pôles avec un choix particulier des pôles

– Poursuite/régulation à variance minimale généralisée (critère modifié)

M-2ME2S 58 M-2ME2S 60

15
27/12/2018

Utilisation du placement de pôles


Poursuite et régulation à variance minimale généralisée
𝐵 ∗ 𝑞 −1 = 𝐵 + 𝑞 −1 𝐵 − 𝑞 −1
Partie instable

𝐵 −′ 𝑞 −1 polynôme réciproque (stable) de 𝐵 − 𝑞 −1

(s’obtient par l’inversion de l’ordre des coefficient)

Pôles de la boucle fermée ■ Calcul:


– on calcule un régulateur type poursuite/régulation à variance minimale
−1 + −1 −′ −1 −1
𝑃 𝑞 =𝐵 𝑞 𝐵 𝑞 𝐶 𝑞 en faisant abstraction du caractère instable de B. (Q q−1 = 0)
– on introduit Q q−1 et on cherche 𝛌 > 0 qui stabilise le régulateur et la
= 𝐴 𝑞 −1 𝑆 𝑞 −1 +𝑞 −(𝑑+1) 𝐵 ∗ 𝑞 −1 𝑅 𝑞 −1 boucle fermée.
■ Il n’y a pas toujours une solution surtout s’il y a plusieurs zéros instables

M-2ME2S 61 M-2ME2S 63

Poursuite et régulation à variance minimale généralisée Quelques remarques récapitulatives


Critère:
2 ■ Pour une bonne régulation dans un environnement stochastique il faut disposer d’un
𝑄 𝑞 −1
𝐸 𝑦 𝑡 + 𝑑 + 1 − 𝑦∗ 𝑡 + 𝑑 + 1 + 𝑢(𝑡) = 𝑚𝑖𝑛 modèle stochastique des perturbations.
𝐶 𝑞 −1

𝝀(1 − 𝑞 −1 ) ■ Nombreuses perturbations stochastiques peuvent être modélisées comme un


𝑄 𝑞 −1 =
1 − 𝛼𝑞 −1 bruit blanc discret gaussien passé par un filtre.
Cas particulier 𝛼 = 1 Pondération des variances de la commande
■ La connaissance du filtre (modèle de perturbation) est suffisante.
2
𝝀
𝐸 𝑦 𝑡+𝑑+1 + [𝑢 𝑡 − 𝑢 𝑡 − 1 ] − 𝑦 ∗ 𝑡 + 𝑑 + 1 = 𝑚𝑖𝑛 ■ Le modèle ARMAX est souvent utilisé (procédé + perturbation).
𝐶 𝑞 −1

Régulateur: ■ La poursuite/régulation à variance minimale ne peut s’utiliser que pour des

𝐶 𝑞 −1 ∗
𝑦 𝑡+𝑑+1 +𝑅 𝑞 −1
𝑦(𝑡) modèles discrétisés de procédé à zéros stables.
𝑢 𝑡 =
𝑆 𝑞 −1 + 𝑄 𝑞 −1
■ Pour les modèles de procédé à zéros instable il faut utiliser des approximations
Permet de stabiliser le régulateur et le système
(mais pas toujours!)
de la poursuite/régulation à variance minimale.
M-2ME2S 62 M-2ME2S 64

16

Vous aimerez peut-être aussi