Vous êtes sur la page 1sur 28

Faculté de Technologie

Master 2 Automatique et Informatique


Industrielle

COMPTE RENDU TP N°3 COMMANDE AVANCÉE


Commande adaptative à modèle de référence

Préparé par :

A S S E F Yanis
L A S L A Rayane

Année Universitaire : 2022/2023

Groupe : AII.1

Chargé du module : Mr. LEHOUCHE


Introduction

La Commande Adaptative par modèle de


Reference
Commande adaptative à modèle de référence fait partie d’un ensemble de
techniques destinées à ajuster automatiquement les paramètres de contrôleur des
systèmes de commande. Le comportement dynamique du processus est défini par
un modèle de référence et les paramètres de contrôleur sont ajustés par la boucle
externe de façon à minimiser l’erreur de sortie de processus-modèle

1
Adaptation de gain

Commande adaptative par retour de gain :

Nous avons notre système en boucle ouverte :

𝐾. 𝐺(𝑝)

Avec : 𝐾 = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑟é𝑒𝑙𝑙𝑒 𝑖𝑛𝑐𝑜𝑛𝑛𝑢𝑒 𝐺(𝑝) = 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛 𝑑𝑒 𝑡𝑟𝑎𝑛𝑠𝑓𝑒𝑟𝑡 𝑐𝑜𝑛𝑛𝑢𝑒

On souhaite réaliser le modèle de référence :


𝐺𝑚 (𝑝) = 𝐾0 . 𝐺(𝑝)
En Utilisant un gain 𝜃 en boucle ouverte tel que :
𝑢(𝑡) = 𝜃. 𝑢𝑐 (𝑡)
1)- Rappel de la règle d’adaptation du paramètre en utilisant la règle MIT :
Nous avons :
1 𝑒 = 𝑒𝑟𝑟𝑒𝑢𝑟 𝑞𝑢𝑎𝑑𝑟𝑎𝑡𝑖𝑞𝑢𝑒
𝐽(𝜃) = 𝑒 2
2
𝑦 = 𝐾. 𝐺(𝑝). 𝑢 𝑦𝑚 = 𝐾0 . 𝐺(𝑝). 𝑢𝑐
𝑦 = 𝐾. 𝐺(𝑝). 𝜃. 𝑢𝑐 (𝑡) 𝑦𝑚 = 𝐾0 . 𝐺(𝑝). 𝑢𝑐
L’erreur est donnée par la relation :
𝑒 = 𝑦 − 𝑦𝑚 𝑎𝑣𝑒𝑐 lim 𝑒(𝑡) = 0
𝑡→∞
C’est-à-dire 𝑦 → 𝑦𝑚 à l’infini

𝐾. 𝐺(𝑝). 𝜃 ° = 𝐾0 . 𝐺(𝑝)
𝐾0
𝜃° = 𝑎𝑣𝑒𝑐 𝜃 ° = 𝑣𝑎𝑙𝑒𝑢𝑟 𝑓𝑖𝑛𝑎𝑙𝑒
𝐾

2
Adaptation de gain

L’objectif de la loi d’adaptation est la convergence des paramètres vers des


constantes :
𝑒 = 𝑦 − 𝑦𝑚 = 𝐾. 𝐺(𝑝). 𝜃. 𝑢𝑐 − 𝐾0 . 𝐺(𝑝). 𝑢𝑐
= 𝐺(𝑝). (𝐾𝜃 − 𝐾0 ). 𝑢𝑐
La règle MIT :
𝑑𝜃 𝑑𝐽
= −𝛾 ′ . Signification : La variation de 𝜃 est dans le
𝑑𝑡 𝑑𝜃 sens négatif de la variation de 𝐺 en fonction
1 de ses paramètres.
𝑑𝜃 𝑑( 𝑒 2 )
= −𝛾 ′ 2
𝑑𝑡 𝑑𝜃
1
𝑑( 𝑒 2 ) 1 𝑑(𝑒 2 ) 1 𝑑𝑒 𝑑𝑒 𝑑𝑒
2 = = (𝑒. + . 𝑒) = 𝑒.
𝑑𝜃 2 𝑑𝜃 2 𝑑𝜃 𝑑𝜃 𝑑𝜃
𝑑𝜃 𝑑𝑒
= −𝛾 ′ . 𝑒. … (1)
𝑑𝑡 𝑑𝜃
𝑑𝑒 𝐾 𝐾
= 𝐾. 𝐺(𝑝). 𝑈𝑐 = . 𝐾0 . 𝐺(𝑝). 𝑈𝑐 = . 𝑦 … (2)
𝑑𝜃 𝐾0 𝐾0 𝑚
On remplace l’équation (2) dans (1) ce qui nous donne :
𝑑𝜃 𝐾
= −𝛾 ′ . . 𝑦𝑚 . 𝑒 = −𝛾. 𝑦𝑚 . 𝑒
𝑑𝑡 𝐾0
2)- Implémentation de l’algorithme de commande adaptative avec les données :
1
G(p) = ; 𝐾 = 1 ; 𝐾0 = 2
𝑝+1
𝑢𝑐 = sin(𝑡) ; 𝛾 = 1

3
Adaptation de gain

On va alors crée notre schéma bloc équivalent sur Simulink :

Les oscilloscopes pour une entrée sinusoïdal 𝑢𝑐 = sin(𝑡) :

On remarque que la sortie 𝑦 poursuit


notre sortie de référence 𝑦𝑚 jusqu à
ce qu elle se superpose avec elle.

GRAPHIQUE DE YM ET Y POUR GAMMA=1

4
5
GRAPHIQUE DE TETA 𝜃 POUR GAMMA=1
GRAPHIQUE DE L’ERREUR (Y-Ym) POUR GAMMA=1

La valeur teta se stabilise et tend vers On remarque que l’ erreur diminue


une constante après un certain temps petit à petit et cela est vérifier lorsque
𝐾0 on regarde les graphes de 𝑦𝑚 𝑒𝑡 𝑦 se
notre constante 𝜃° =
𝐾
superposer après un certain temps
Adaptation de gain
Adaptation de gain
Pour des valeurs 𝛾 = 0.5 𝑒𝑡 2 nous aurons :

GRAPHES POUR GAMMA=0.5 GRAPHES POUR GAMMA=2


GRAPHES DES SORTIES Ym & Y
GRAPHES DE L ERREUR
GRAPHES DE TETA 𝜃

6
Adaptation de gain

On remarque que le système réagit de manière plus rapide et plus efficace avec les
valeurs de 𝛾 = 0.5 & 1 qu’avec 𝛾 = 1 on va maintenant comparer l

GRAPHIQUE DE TETA 𝜃 POUR GAMMA=1 & GAMMA=0.5 GRAPHIQUE DE L’ERREUR POUR GAMMA=1 & GAMMA=0.5

ANALYSE

Dans les deux graphes nous avons une poursuite parfaite 𝑒 → 0 𝑦 → 𝑦𝑚 et les courbes sont
très proches l’un de l’autre il n’y a pas une grande différence mise à part que pour 𝛾 = 1 nous
avons des graphes sinusoïdaux et pour 0.5 nous avant des graphes qui se rapproche plus des dents
de scie.
En zoomant et en prenant une plage plus large de valeurs on remarque que la valeur qui
𝐾
atteint le plus rapidement la valeur de 0 est celle pour la quelle 𝛾 = 1
𝐾

FIN ANALYSE

7
1er Ordre MIT

Commande adaptative d’un système de premier ordre :


QQQQ
Nous un système de premier ordre nous avons :
𝑑𝑦
= −𝑎𝑦 + 𝑏𝑢 … (3)
𝑑𝑡
𝑏 𝑦 𝑏
𝑝. 𝑦 = −𝑎𝑦 + 𝑏𝑢 → 𝑦 = 𝑢 → 𝐺(𝑝) = =
𝑝+𝑎 𝑢 𝑝+𝑎
Nous avons notre système de référence :
𝑑𝑦𝑚 𝑏𝑚
= −𝑎𝑚 𝑦𝑚 + 𝑏𝑚 𝑢 → 𝐺𝑚 (𝑝) =
𝑑𝑡 𝑝 + 𝑎𝑚
Et La loi de commande donnée par :
𝑢(𝑡) = 𝜃1 𝑢𝑐 (𝑡) − 𝜃2 𝑦(𝑡) … (4)
1)- Rappel de la règle d’adaptation du paramètre en utilisant la règle MIT pour un
système de premier ordre :
1
𝐽(𝜃) = 𝑒 2
2
Premièrement nous allons définir les valeurs désirées :
𝑏𝑚 𝑎𝑚 −𝑎
A l’infini nous avons : 𝜃1 = 𝜃1 ° = ; 𝜃2 = 𝜃2 ° =
𝑏 𝑏

En remplaçant (3) dans (4) nous aurons :


𝑑𝑦
= −𝑎𝑦 + 𝑏(𝜃1 𝑢𝑐 − 𝜃2 𝑦) = −(𝑎 + 𝑏𝜃2 )𝑦 + 𝑏𝜃1 𝑢𝑐
𝑑𝑡
On peut l’écrire en introduisant l’opérateur différentiel :
𝑝. 𝑦 = −(𝑎 + 𝑏𝜃2 )𝑦 + 𝑏𝜃1 𝑢𝑐
𝑏𝜃1 𝑢𝑐
𝑦= … (5)
𝑝 + 𝑏𝜃2 + 𝑎
L’erreur : 𝑒 = 𝑦 − 𝑦𝑚

8
1er Ordre MIT

La règle MIT :
𝑑𝜃 𝑑𝐽 𝑑𝑒
= −𝛾 ′ . = −𝛾 ′ . . 𝑒 … (𝐼)
𝑑𝑡 𝑑𝜃 𝑑𝜃
Nous allons appliquer cette règle par rapport à 𝜃1 𝑝𝑢𝑖𝑠 𝜃2 :
0 Car il ne dépend pas de 𝜃1
𝑑𝑒 𝑑𝑦 𝑑𝑦𝑚 𝑑𝑦
= − = … (6)
𝑑𝜃1 𝑑𝜃1 𝑑𝜃1 𝑑𝜃1
0 Car il ne dépend pas de 𝜃2
𝑑𝑒 𝑑𝑦 𝑑𝑦𝑚 𝑑𝑦
= − = … (7)
𝑑𝜃2 𝑑𝜃2 𝑑𝜃2 𝑑𝜃2
En remplaçant l’équation (5) dans (6) et (7) :
𝑑𝑒 𝑏
= 𝑢 … (8) 𝑦(𝑡)
𝑑𝜃1 𝑝 + 𝑎 + 𝑏 𝜃2 𝑐
𝑑𝑒 −𝑏 2 𝜃1 −𝑏 𝑏 𝜃1
= 𝑢 = 𝑢
𝑑𝜃2 (𝑝 + 𝑎 + 𝑏 𝜃2 )2 𝑐 (𝑝 + 𝑎 + 𝑏 𝜃2 )(𝑝 + 𝑎 + 𝑏 𝜃2 ) 𝑐
𝑑𝑒 −𝑏
= 𝑦 … (9)
𝑑𝜃2 (𝑝 + 𝑎 + 𝑏 𝜃 2 )
Nous avons à l’infini : 𝑝 + 𝑎 + 𝑏𝜃2 = 𝑝 + 𝑎𝑚
En remplaçant dans (8) et (9) et (𝐼) :
𝑑𝑒 𝑏 𝑑𝑒 −𝑏
= 𝑢 & = 𝑦 𝛾
𝑑𝜃1 𝑝 + 𝑎𝑚 𝑐 𝑑𝜃2 𝑝 + 𝑎𝑚
𝑏 Remarque : on divise et on
𝑑𝜃1 𝑏 𝑎𝑚 . −𝛾 ′ .
== −𝛾 ′ . 𝑢𝑐 . 𝑒 = 𝑎𝑚 multiplie par 𝑎𝑚 pour faire
sortir le 𝑎𝑚 au numérateur et se
𝑑𝑡 𝑝 + 𝑎𝑚 𝑝 + 𝑎𝑚
débarrasser de b et avoir
finalement une seule variable
inconnue dans notre équation
Et finalement nous aurons les équations désirées :

9
1er Ordre MIT

𝑑𝜃1 𝑎𝑚
= −𝛾. 𝑢 .𝑒
𝑑𝑡 𝑝 + 𝑎𝑚 𝑐
𝑑𝜃2 𝑎𝑚
= 𝛾. 𝑦. 𝑒
𝑑𝑡 𝑝 + 𝑎𝑚
2)- Implémentation de l’algorithme de commande adaptative avec les données :
𝑎 = 1 ; 𝑏 = 0.5 ; 𝑎𝑚 = 2 ; 𝑏𝑚 = 2 ; 𝛾 = 1
Et un signal de référence d’amplitude 1 à -1 et de fréquence -20.
On va alors crée notre schéma bloc équivalent sur Simulink :

Pour les valeurs données précédemment nous aurons :

10
1er Ordre MIT

GRAPHIQUE DE L’ENTRÉE DE RÉFERENCE POUR GAMMA=1

GRAPHIQUE DE LA SORTIE Y & DE LA SORTIE DE RÉFERENCE Ym

11
1er Ordre MIT

GRAPHIQUE DE L’ERREUR POUR GAMMA=1

GRAPHIQUE DE 𝜃1 GRAPHIQUE DE 𝜃2

12
1er Ordre MIT

On remarque par le biais des graphiques que la valeur de 𝑦 converge vers celle de
𝑦𝑚 quand 𝑡 → ∞ c-à-d que l’erreur entre eux tend vers 0, On peut le remarquer en
se penchant sur les valeurs 𝜃1 & 𝜃2 qui eux aussi converge vers des constantes à
savoir :
𝑏𝑚 2
lim 𝜃1 = 𝜃1 ° = = =4
𝑡→∞ 𝑏 0.5
𝑎𝑚 − 𝑎 2 − 1
lim 𝜃2 = 𝜃2 ° = = =2
𝑡→∞ 𝑏 0.5
Et tout ceci prouve l’efficacité et fiabilité de la méthode ou règle MIT d’un
système à première ordre.

Afin de mieux comprendre l’influence de 𝛾 sur notre système nous allons prendre
plusieurs valeurs différentes et nous allons simuler en fonction de ses dernières.
Contrairement à la première dans cette partie nous allons simuler les différents
graphiques dans un seul et même plan.

Nous allons fixer nos 𝛾 pour des valeurs supérieurs et inférieurs à 0, Dans notre cas
on va prendre 4 valeurs :
𝛾 = 0.2 , 𝛾 = 0.5 , 𝛾 = 2 & finalement 𝛾 = 3
Après simulation nous aurons :

13
1er Ordre MIT

GRAPHES DE 𝜃1 POUR : 𝛾 = 0.2 𝛾 = 0.5 𝛾 = 2 𝛾 = 3

GRAPHES DE 𝜃2 POUR : 𝛾 = 0.2 𝛾 = 0.5 𝛾 = 2 𝛾 = 3

14
1er Ordre MIT

Pour GRAPHES DES ERREURS POUR : 𝛾 = 0.2 𝛾 = 0.5 𝛾 = 2 𝛾 = 3


test
ANALYSE

On remarque en premier lieu que 𝛾 influe sur la vitesse de convergence des teta & ainsi
aussi sur l’erreur et plus 𝛾 ↗ (𝑔𝑟𝑎𝑛𝑑) → 𝜃1 & 𝜃2 converge plus rapidement et par la suite l’erreur
diminue 𝑒 ↘ .
Pour les deux premiers graphiques on remarque que plus 𝛾 est grand plus nos tetas
𝑏𝑚 𝑎𝑚 −𝑎
convergent plus rapidement vers des valeurs constantes à savoir 𝜃1 = = 4 et 𝜃2 = = 2.
𝑏 𝑏

Donc systématiquement si 𝜃1 & 𝜃2 convergent plus rapidement pour des valeurs constantes
donc l’erreur sera plus petite pour des valeurs grandes de 𝛾 car l’erreur et proportionnelle à la
𝑑𝜃1 𝑎𝑚 𝑑𝜃2 𝑎𝑚
variation des 𝜃 : = −𝛾. 𝑢𝑐 . 𝑒 = 𝛾. 𝑦. 𝑒
𝑑𝑡 𝑝+𝑎𝑚 𝑑𝑡 𝑝+𝑎𝑚

On peut vérifier ça via la dernière figure où on voit le graphique rouge (𝛾 = 0.2) avec l’erreur la
plus importante et le graphique violet (𝛾 = 3) pour l’erreur la plus basse. Et donc vu que l’erreur
est petite pour 𝛾 plus grand donc 𝑦 → 𝑦𝑚

FIN ANALYSE

15
1er Ordre Lyapunov

Commande adaptative d’un système de premier ordre Lyapunov :

Pour la méthode Lyapunov on n’a pas de méthode sur comment la calculer


mais on peut la déduire la fonction de Lyapunov (le choix) à partir des paramètres
à calculer, dans notre cas la fonction de Lyapunov est donnée par :
Notre système premier ordre s’écrit :
𝑑𝑦
= −𝑎𝑦 + 𝑏𝑢
𝑑𝑡
𝑑𝑦𝑚
= −𝑎𝑦𝑚 + 𝑏𝑚 𝑢
𝑑𝑡
𝑢 = 𝜃1 𝑢𝑐 − 𝜃2 𝑦
A l’infini :
𝑎 + 𝑏𝜃2 = 𝑎𝑚
𝑑𝑦
= −𝑎𝑦 + 𝑏. (𝜃1 𝑢𝑐 − 𝜃2 𝑦) = −𝑎𝑚 𝑦 + 𝑏𝜃1 𝑢𝑐 … (10)
𝑑𝑡
𝑑𝑦𝑚
= −𝑎𝑦𝑚 + 𝑏𝑚 . (𝜃1 𝑢𝑐 − 𝜃2 𝑦) =) = −𝑎𝑚 𝑦𝑚 − 𝑏𝑚 𝜃2 𝑦 + 𝑏𝑚 𝜃1 𝑢𝑐 … (11)
𝑑𝑡
1 1 1
𝑉(𝑒, 𝜃1 , 𝜃2 ) = (𝑒 2 + (𝑏𝜃2 + 𝑎 − 𝑎𝑚 )2 + (𝑏𝜃1 − 𝑏𝑚 2 ))
2 𝑏𝛾 𝑏𝛾
𝑑𝑉 𝑑𝑉 𝑑𝑉
𝑉̇ = 𝑒̇ + 𝜃1̇ + 𝜃̇
𝑑𝑒 𝑑𝜃1 𝑑𝜃2 2
𝑑𝑒 𝑑𝑦 𝑑𝑦𝑚
𝑒 = 𝑦 − 𝑦𝑚 → 𝑒̇ = = −
𝑑𝑡 𝑑𝑡 𝑑𝑡
A partir du cours et des équations (10) et (11) :
𝑒̇ = −𝑎𝑚 𝑒 − (𝑏𝜃2 + 𝑎 − 𝑎𝑚)𝑦 + (𝑏𝜃1 − 𝑏𝑚 )𝑢𝑐

16
1er Ordre Lyapunov
1 𝑑𝜃1
𝑉̇ = 𝑒(−𝑎𝑚 𝑒 − (𝑏𝜃2 + 𝑎 − 𝑎𝑚)𝑦𝑒 + (𝑏𝜃1 − 𝑏𝑚 )𝑢𝑐 ) + (𝑏𝜃1 − 𝑏𝑚 )
𝛾 𝑑𝑡
1 𝑑𝜃2
+ (𝑏𝜃2 − 𝑎 − 𝑎𝑚 ) )
𝛾 𝑑𝑡
1 𝑑𝜃1 1 𝑑𝜃1
𝑉̇ = −𝑎𝑚 𝑒 2 + (𝑏𝜃1 − 𝑏𝑚 ) (𝑢𝑐 𝑒 + ) + (𝑏𝜃2 − 𝑎 − 𝑎𝑚 )( − 𝑦. 𝑒)
𝛾 𝑑𝑡 𝛾 𝑑𝑡
Pour calculer les lois d’adaptation on met :
1 𝑑𝜃1 𝑑𝜃1
(𝑢𝑐 𝑒 + )=0→ = −𝛾. 𝑢𝑐 . 𝑒
𝛾 𝑑𝑡 𝑑𝑡
1 𝑑𝜃1 𝑑𝜃2
( − 𝑦. 𝑒) = 0 → = 𝛾. 𝑦. 𝑒
𝛾 𝑑𝑡 𝑑𝑡
𝑉̇ = −𝑎𝑚 𝑒 2 ≤ 0
Il est semi définie.
On peut alors utiliser le théorème de borgnitude :
𝑉̈ = 𝑏𝑜𝑟𝑛é𝑒 Et tous nos signaux sont bornés (𝑦𝑐 , 𝑒 … ) et 𝑉̇ est uniformément
continue (définie sur chaque 𝐷𝑓 ) donc notre signal d’erreur convergera vers 0.

2)- Implémentation de l’algorithme de commande adaptative avec les données :


𝑎 = 1 ; 𝑏 = 0.5 ; 𝑎𝑚 = 2 ; 𝑏𝑚 = 2 ; 𝛾 = 1
Et un signal de référence d’amplitude 1 à -1 et de fréquence -20

On peut alors vérifier ça en simulant tout ça sur Simulink ce qui nous donnera le
schéma bloc suivant :

17
1er Ordre Lyapunov

Les oscilloscopes nous donneront les résultats suivants :

GRAPHIQUE DE L’ENTRÉE DE RÉFERENCE POUR GAMMA=1

18
1er Ordre Lyapunov

GRAPHIQUE DE LA SORTIE Y & DE LA SORTIE DE RÉFERENCE Ym

GRAPHIQUE DE L’ERREUR POUR GAMMA=1

19
1er Ordre Lyapunov

GRAPHIQUE DE 𝜃1 GRAPHIQUE DE 𝜃2

On remarque à partir du graph de l’erreur que la valeur de l’erreur 𝑒 → 0 quand


𝑡 → ∞, Donc 𝑦 → 𝑦𝑚 (on peut voir que c’est le cas à partir du graphe de 𝑦 𝑒𝑡 𝑦𝑚 .
On constate aussi que les valeurs des 𝜃 convergent respectivement vers leurs
𝑏𝑚 2
𝜃1 ° = = =4
𝑏 0.5
𝑎𝑚 − 𝑎 2 − 1
𝜃2 ° = = =2
𝑏 0.5
Et tout ceci prouve l’efficacité et fiabilité de la méthode de Lyapunov sur système
à première ordre.
3)- L’influence du paramètre en provenant des valeurs inférieures et supérieurs à 1:
Nous allons prendre nos valeurs de base à savoir :
𝑎 = 1 ; 𝑏 = 0.5 ; 𝑎𝑚 = 2 ; 𝑏𝑚 = 2 ; 𝛾 = 1

20
1er Ordre Lyapunov

Et nous allons les comparer à des valeurs différente et 𝑎 𝑒𝑡 𝑏 : (nous allons prendre
pour 𝒂 = 𝟐 𝑒𝑡 𝒂 = 𝟎. 𝟓 puis pour 𝒃 = 𝟐)

COMMENTAIRESE

𝜃1
On remarque que plus 𝑎 ↗ plus
notre 𝜃1 prendre des valeurs
grandes donc : 𝑒 ↘ mais sans
affecté la rapidité de convergence.
Pour notre 𝜃2 plus 𝑎 ↘ plus il
prend des valeurs plus grandes et
cela est vérifier par l’équation :
𝑎𝑚 − 𝑎
𝜃2 ° =
𝑏
Tandis que plus 𝑏 ↗ plus notre
système convergera rapidement
vers une valeur cste et donc plus
l’erreur diminuera 𝑒 ↘ rapidement
pour mais elle ne sera pas très
stable plus le temps passe nous

𝜃2
aurons pour 𝑡 → ∞ les valeurs des
b inférieures seront plus apte à
devenir plus stable même s’ils
atteignent lentement la valeur de
la stabilité. Alors pour remédier à
ce problème on prendra un 𝑎 plus
grand.
𝑏𝑚
𝜃1 ° =
𝑏

21
1er Ordre Lyapunov

4)- Visualisation de la variation de 𝛾:

Nous allons fixer : 𝑎 = 1 ; 𝑏 = 0.5 ; 𝑎𝑚 = 2 ; 𝑏𝑚 = 2


Et on va prendre : 𝜸 = 𝟎. 𝟐 , 𝜸 = 𝟎. 𝟓 , 𝜸 = 𝟏 , 𝜸 = 𝟐

GRAPHIQUE DE L’ERREUR POUR 𝛾 = 0.2 0.5 1 2

On remarque que plus 𝛾 est grand plus l’erreur entre la sortie et la sortie de
référence diminue.

22
1er Ordre Lyapunov

GRAPHIQUE DE 𝜃1 POUR 𝛾 = 0.2 0.5 1 2 GRAPHIQUE DE 𝜃2 POUR 𝛾 = 0.2 0.5 1 2

On remarque que l’influence du 𝛾 est le même que pour le cas de la commande


MIT pour un système de premier ordre. (Cliquez ici pour voir)
On remarque en premier lieu que 𝛾 influe sur la vitesse de convergence des teta &
ainsi aussi sur l’erreur et plus 𝛾 ↗ (𝑔𝑟𝑎𝑛𝑑) → 𝜃1 & 𝜃2 converge plus rapidement et
par la suite l’erreur diminue 𝑒 ↘ .
Et c’est vérifié car quand on se penche vers l’équation de la variation des
𝑑𝜃1
= −𝛾. 𝑢𝑐 . 𝑒
𝑑𝑡
𝑑𝜃1
La variation de 𝜃1 et proportionnelle à (-𝑒) donc plus la variation est petite
𝑑𝑡
(𝜃1 𝑐𝑜𝑛𝑣𝑒𝑟𝑔𝑒𝑟𝑎 𝑣𝑒𝑟𝑠 𝑠𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑓𝑖𝑛𝑎𝑙𝑒) plus 𝑒 sera petit.
𝑑𝜃2
= 𝛾. 𝑦. 𝑒
𝑑𝑡
𝑑𝜃2
La variation de 𝜃2 et proportionnelle à (𝑒) donc plus la variation est petite
𝑑𝑡
(𝜃2 𝑐𝑜𝑛𝑣𝑒𝑟𝑔𝑒𝑟𝑎 𝑣𝑒𝑟𝑠 𝑠𝑎 𝑣𝑎𝑙𝑒𝑢𝑟 𝑓𝑖𝑛𝑎𝑙𝑒) plus 𝑒 sera petit.

23
1er Ordre Lyapunov
4)- Comparaison avec :
En remarque à première vue que les graphes de la méthode de Lyapunov et celle de
la méthode (règle) MIT sont les mêmes pour s’assurer du résultat nous allons
associer les 2 schéma bloc sur un seul et même schéma et nous allons simuler :

MIT Visualisation de l’erreur

Visualisation de 𝜃1

Visualisation de 𝜃2

LYAPUNOV

24
1er Ordre Lyapunov

GRAPHIQUE DE L’ERREUR AVEC LYAPUNOV ET MIT POUR 𝑎 = 1 𝑏 = 0.5 𝛾 = 1

GRAPHIQUE DE 𝜃1 AVEC LYAPUNOV ET MIT POUR 𝑎 = 1 𝑏 = 0.5 𝛾 = 1

25
1er Ordre Lyapunov

GRAPHIQUE DE 𝜃2 AVEC LYAPUNOV ET MIT POUR 𝑎 = 1 𝑏 = 0.5 𝛾 = 1

On remarque à partir des schémas que l’erreur est légèrement plus grande
pour la méthode de Lyapunov et cela peut être vérifier en analysant le graphe des 𝜃
on remarque que les pics (variation de 𝜃) de Lyapunov sont beaucoup plus
brusques que celle de la MIT.
On remarque aussi que les courbes des 𝜃 MIT sont au-dessus de ceux de
Lyapunov donc on peut alors dire l’erreur pour la méthode de Lyapunov est plus
conséquente.
Donc on finalement dire que les deux méthodes suivent le modèle de
référence (presque parfaitement) avec une meilleure fiabilité pour la méthode MIT.

26
Conclusion

CONCLUSION
Durant ce TP nous avons eu l’occasion
de vérifier le fonctionnement de plusieurs
méthodes à savoir l’adaptation de gain et la
méthode MIT et Lyapunovpour les équations de
premier ordre Nous avons aussi vu pu
implémenter les différentes méthode et
visualiser les graphiques afin d’avoir une
meilleure vue de ses dernières et nous avons pu
comparer les résultats entre elles et nous avons
conclu que le modèle MIT était légèrement plus
favorable.

27

Vous aimerez peut-être aussi