Académique Documents
Professionnel Documents
Culture Documents
l'espace d'état
IV.1. Introduction :
Dans le chapitre précédent, nous avons vu comment obtenir la représentation d'état des
systèmes. Dans ce chapitre, nous allons voir comment obtenir la solution des équations d'état
des systèmes linéaires. Ensuite, nous allons voir comment se fait l'analyse de la stabilité des
systèmes représentés dans l'espace d'état et nous allons introduire les concepts de
commandabilité et d'observabilité des systèmes.
Nous allons commencer par la résolution des équations d'état représentant des systèmes
linéaires invariants dans le temps. Ensuite, nous traiterons le cas des systèmes variables dans
le temps.
𝒙 𝑡 = 𝑨𝒙 𝑡 + 𝑩𝒖(𝑡)
(IV-1)
𝒚 𝑡 = 𝑪𝒙 𝑡 + 𝑫𝒖(𝑡)
Pour développer la solution nous allons pré-multiplier les deux termes de la première équation
du système (IV-1) par 𝑒 −𝑨𝑡 :
𝑑 −𝑨𝑡
𝑒 −𝑨𝑡 𝒙 𝑡 − 𝑒 −𝑨𝑡 𝑨𝒙 𝑡 = 𝑒 −𝑨𝑡 𝑩𝒖 𝑡 ⇒ 𝑒 𝒙𝑡 = 𝑒 −𝑨𝑡 𝑩𝒖(𝑡)
𝑑𝑡
L'intégration de 0 à 𝑡 de cette équation donne :
𝑡
𝑡
𝑒 −𝑨𝝉 𝒙 𝜏 𝜏=0
= 𝑒 −𝑨𝑡 𝒙 𝑡 − 𝑒 𝟎 𝒙(0) = 𝑒 −𝑨𝜏 𝑩𝒖(𝜏)𝑑𝜏
0
Ce qui donne :
𝑡 𝑨(𝑡−𝜏)
𝒙 𝑡 = 𝑒 𝑨𝑡 𝒙 0 + 0
𝑒 𝑩𝒖(𝜏)𝑑𝜏 (IV-3)
-1-
L'équation (IV-3) obtenue est la solution de l'équation d'état donnée par la première équation
du système (IV-1). Pour démontrer ceci, on doit montrer que cette équation vérifie l'équation
(IV-1) ainsi que la condition initiale 𝑥 𝑡 = 𝑥 0 𝑝𝑜𝑢𝑟 𝑡 = 0.
Il est clair que l'équation (IV-3) vérifie la condition initiale. Maintenant, pour montrer qu'elle
vérifie aussi l'équation (IV-1), nous allons utiliser la propriété suivante :
𝜕 𝑡 𝜕 𝑧 𝜕 𝑑
𝑓 𝑡, 𝜏 𝑑𝜏 = 𝑓 𝑡, 𝜏 𝑑𝜏 = 𝐹 𝑡, 𝑧 𝑧=𝑡 = 𝐹 𝑡, 𝑧 𝑡
𝜕𝑡 𝑡0 𝜕𝑡 𝑡0 𝜕𝑡 𝑑𝑡 𝑧=𝑡
𝑧=𝑡
𝜕 𝜕 𝜕𝑧
= 𝐹 𝑡, 𝑧 𝑡 + 𝐹 𝑡, 𝑧 𝑡
𝜕𝑡 𝜕𝑧 𝜕𝑡 𝑧=𝑡
𝑧 𝑧
𝜕 𝜕
= 𝑓 𝑡, 𝜏 𝑑𝜏 + 𝑓 𝑡, 𝜏 𝑑𝜏
𝑡 0 𝜕𝑡 𝜕𝑧 𝑡0 𝑧=𝑡
𝑡 𝜕 𝜕
= 𝑓 𝑡, 𝜏 𝑑𝜏 + 𝐹 𝑡, 𝑧 − 𝐹(𝑡, 𝑡0 )
𝑡0 𝜕𝑡 𝜕𝑧 𝑧=𝑡
𝑡 𝑡
𝜕 𝜕
= 𝑓 𝑡, 𝜏 𝑑𝜏 + 𝑓 𝑡, 𝑧 − 0 𝑧=𝑡 = 𝑓 𝑡, 𝜏 𝑑𝜏 + 𝑓(𝑡, 𝑡)
𝑡0 𝜕𝑡 𝑡0 𝜕𝑡
𝑡
= 𝑨 𝑒 𝑨𝑡 𝒙 0 + 𝑒 𝑨(𝑡−𝜏)𝑩𝒖(𝜏)𝑑𝜏 + 𝑩𝒖 𝜏 = 𝑨𝒙 𝑡 + 𝑩𝒖(𝑡)
0
=𝑥(𝑡)
Pour le calcul de la sortie, nous allons remplacer l'équation (IV-3) dans la deuxième équation
du système (IV-1), ce qui donne :
𝑡 𝑨 𝑡−𝜏
𝒚 𝑡 = 𝑪𝑒 𝑨𝑡 𝒙 0 + 𝑪 0
𝑒 𝑩𝒖 𝜏 𝑑𝜏 + 𝑫𝒖(𝑡) (IV-4)
Cette solution ainsi que celle de l'équation (IV-3) sont calculées directement dans le domaine
temporel. Nous pouvons aussi calculer ces solutions en utilisant la transformée de Laplace :
𝒙 𝑠 = 𝑠𝑰 − 𝑨 −1 𝒙 0 + 𝑩𝒖(𝑠)
(IV-5)
𝒚 𝑠 = 𝑪 𝑠𝑰 − 𝑨 −1 𝒙 0 + 𝑩𝒖(𝑠) + 𝑫𝒖(𝑠)
Maintenant, nous allons donner un résumé de quelques méthodes utilisées pour calculer 𝑒 𝑨𝑡 :
-2-
1. Utilisation du théorème de Hamilton (Toute matrice vérifie son polynôme caractéristique)
ce qui implique que : Pour toute fonction de matrice 𝑓(𝐴), ∃ un polynôme 𝑝(𝜆) de degré
𝑛 − 1 où 𝑛 = dim 𝐴 tel que 𝑓 𝐴 = 𝑝 𝐴 . Ce polynôme vérifie aussi 𝑓 𝜆𝑖 = 𝑝 𝜆𝑖
avec 𝜆𝑖 ∈ 𝑒𝑖𝑔 𝐴 . En premier lieu, on calcul les valeurs propres de A. Ensuite, on trouve
un polynôme (𝜆) de degré (𝑛 − 1) qui est égale à 𝑒 𝜆𝑡 pour 𝜆 appartenant à l'ensemble
des valeurs propres de A; Alors :
1 𝜆1 𝜆1 2 ⋯ 𝜆1 𝑛−1 𝛼0 𝑒 𝜆1 𝑡
1 𝜆2 𝜆2 2 ⋯ 𝜆2 𝑛−1 𝛼1 𝑒 𝜆2 𝑡
⋮ =
⋮ ⋮ ⋮ ⋱ ⋮ ⋮
𝑛−1 𝛼𝑛−1
1 𝜆𝑛 𝜆𝑛 2 ⋯ 𝜆𝑛 𝑒 𝜆𝑛 𝑡
1. Prendre l'inverse de 𝑠𝑰 − 𝑨 .
2. En utilisant le théorème sur le calcul de fonctions d'une matrice : Si on veut calculer la
fonction 𝑓(𝑨) on calcul les polynômes de l'expression : 𝑓 𝜆 = 𝑞 𝜆 Δ(𝜆) + (𝜆), avec
ici 𝑓 𝜆 = 𝑠 − 𝜆 −1 (car la fonction est 𝑓 𝑨 = 𝑠𝑰 − 𝑨 −1 ; Δ(𝜆)est le polynôme
caractéristique de 𝑨alorsΔ 𝑨 = 0.𝑞 𝜆 le quotient qui est sans intérêt ici, et (𝜆) est le
reste de la division qui est un polynôme de degré (𝑛 − 1). Pour calculer les coefficients
-3-
de (𝜆), on évalue 𝑓 𝜆𝑖 ; 𝑖 = 1, … , 𝑛 pour les n valeurs propres de A. Ensuite, on résout
le système d'équation pour les coefficients de (𝜆). Alors 𝑠𝑰 − 𝑨 −1 = (𝑨).
−1 −1
3. En utilisant : 𝑠𝑰 − 𝑨 = 𝑸 𝑠𝑰 − 𝑨 𝑸−1 avec 𝑨forme de Jordan de A.
−1 ∞ 𝑨 𝑘
4. En utilisant la série de puissance 𝑠𝑰 − 𝑨 = 𝑠 −1 𝑘=0 𝑠 .
Nous allons maintenant examiner la forme de la solution de l'équation d'état pour une entrée
nulle (réponse du aux conditions ou à l'état initial). Si la matrice du système 𝐴 à la forme de
Jordan suivante :
𝜆1 1 0 0 0 𝑡 2 𝑒 𝜆1 𝑡
𝑒 𝜆1 𝑡 𝑡𝑒 𝜆1 𝑡 0 0
0 𝜆1 1 0 0 2
𝑨=𝑸 0 0 𝜆1 0 0 𝑸−1 ⇒ : 𝑒 𝑨𝑡 = 𝑸 0 𝑒 𝜆1 𝑡 𝑡𝑒 𝜆1 𝑡 0 0 𝑸−1
0 0 0 𝜆1 0 0 0 𝑒 𝜆1 𝑡 0 0
0 0 0 0 𝜆2 0 0 0 𝑒 𝜆1 𝑡 0
0 0 0 0 𝑒 𝜆2 𝑡
On remarque que toutes les composantes de la matrice 𝑒 𝑨𝑡 et par conséquent la réponse aux
conditions initiales (entrée nulle) est donnée par la combinaison linéaires des termes
𝑒 𝜆1 𝑡 , 𝑡𝑒 𝜆1 𝑡 , 𝑡 2 𝑒 𝜆1 𝑡 ; 𝑒 𝜆2 𝑡 . Ces termes sont dictés par les valeurs propres et leurs indices. Ils
sont tous analytiques dans le sens où ils sont infiniment différentiables et peuvent être
développés en séries de Taylor pour chaque t.
Si chaque valeur propre (simple ou répétée) de Aa une partie réelle négative alors chaque
réponse aux conditions initiales tend vers zéro quant t tend vers l'infini. Si Aa une valeur
propre simple ou répétée avec partie réelle positive, alors la pluparts des réponses aux
conditions initiales tendent vers l'infini quant t tend vers l'infini. Si Aa des valeurs propres
simples (non répétées) sur l'axe imaginaire alors aucune réponse aux conditions initiales
n'augmente de façon infinie. Par contre, si A a des valeurs propres répétées à partie réelle
nulle, alors la réponse à certaines conditions initiales augmente de façon infinie.
𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 + 𝑩 𝑡 𝒖(𝑡) (IV-6)
𝒚 𝑡 = 𝑪 𝑡 𝒙 𝑡 + 𝑫 𝑡 𝒖(𝑡) (IV-7)
On supposera que pour chaque condition initiale 𝒙(𝑡0 ) et chaque entrée 𝒖(𝑡), l'équation d'état
à une solution unique. Une condition suffisante pour une telle supposition est que chaque
composante de la matrice 𝑨(𝑡) est une fonction continue de t.
Nous allons commencer par la réponse due aux conditions initiales seules (entrée
identiquement nulle). Considérons :
-4-
𝒙 𝑡 =𝑨 𝑡 𝒙 𝑡 (IV-8)
Avec 𝑨 𝑡 une matrice de dimension 𝑛 × 𝑛 avec des fonctions continues comme composantes
de cette matrice. Alors pour chaque vecteur 𝒙𝑖 (𝑡0 ) de conditions initiales, il existe une
solution unique 𝒙𝑖 (𝑡), avec 𝑖 = 1,2, … , 𝑛. On peut arranger ces solutions dans les colonnes
d'une matrice carrée d'ordre n :
𝑿 = 𝒙1 𝒙2 ⋯ 𝒙𝑛 (IV-9)
𝑿 𝑡 = 𝑨 𝑡 𝑿(𝑡) (IV-10)
Une propriété importante de la matrice fondamentale est que 𝑿(𝑡) est non singulière ∀ 𝑡.
Définition (IV.1):
Soit 𝑿(𝑡) une matrice fondamentale quelconque de 𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 . Alors :
Vu que 𝑿(𝑡) est non singulière pour tout t, alors son inverse est bien définie. L'équation (IV -
12) résulte de l'équation (IV-10). La matrice de transition vérifie les propriétés suivantes. Pour
tout 𝑡, 𝑡0 , 𝑡1 :
∂
𝚽 𝑡, 𝑡0 = 𝐀(t)𝚽 𝑡, 𝑡0
∂t
1. La matrice de transition vérifie (démo utilisant (IV-11)) : ∂ .
𝚽 𝑡, 𝑡0 = −𝚽 𝑡, 𝑡0 𝐀(t0 )
∂t 0
2. 𝚽 𝑡, 𝑡 = 𝑰; 𝚽 𝑡1 , 𝑡0 = 𝜃 𝑡1 𝜃 −1 (𝑡
0 ), propriété de séparation
3. −𝟏
𝚽 𝑡, 𝑡0 = 𝑿 𝑡 𝑿 𝑡0 −1 −𝟏 −1
= 𝑿 𝑡0 𝑿 𝑡 = 𝚽 𝑡0 , 𝑡
4. 𝚽 𝑡, 𝑡0 = 𝚽 𝑡, 𝑡1 𝚽 𝑡1 , 𝑡0
5. L'équation homogène (IV-8) avec condition initiale 𝒙 𝑡0 = 𝒙0 a comme solution :
𝒙 𝑡 = 𝚽 𝑡, 𝑡0 𝒙0 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑡.
𝑡1
6. La matrice de transition 𝚽 𝑡, 𝑡0 est non singulière. det 𝜱 𝑡1 , 𝑡0 =𝑒 𝑡 0 𝑡𝑟𝑎𝑐𝑒 𝐴 𝜏 𝑑𝜏 .
-5-
7. La matrice de transition peut être exprimée sous forme de séries : 𝚽 𝑡, 𝑡0 = 𝑰 +
𝑡 𝑡 𝜏
𝑡0
𝑨 𝜏 𝑑𝜏 + 𝑡 𝑡 1 𝑨 𝜏1 𝑨 𝜏2 𝑑𝜏2 𝑑𝜏1 + ⋯ +
0 0
𝑡 𝜏1 𝜏 𝑘 −1
𝑡0 𝑡0
… 𝑡0
𝑨 𝜏 1 𝑨 𝜏2 ⋯ 𝑨 𝜏𝑘 𝑑𝜏𝑘 ⋯ 𝑑𝜏2 𝑑𝜏1 +⋯
Théorème (IV.2) :
La solution de l'équation d'état (IV-6) : 𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 + 𝑩 𝑡 𝒖 𝑡 𝑝𝑜𝑢𝑟 𝒙 𝑡0 = 𝒙0 est
donnée par :
𝑡
𝒙 𝑡 = 𝝍 𝑡; 𝒙0 , 𝑡0 , 𝒖 = 𝚽 𝑡, 𝑡0 𝒙0 + 𝑡0
𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 = 𝚽 𝑡, 𝑡0 𝒙0 +
𝑡
𝑡0
𝚽 𝑡0 , 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 (IV-13)
Nous allons démontrer que cette solution vérifie la condition initiale ainsi que l'équation
d'état. Pour la condition initiale :
𝑡0
𝒙 𝑡0 = 𝝍 𝑡0 ; 𝒙0 , 𝑡0 , 𝒖 = 𝚽 𝑡0 , 𝑡0 𝒙0 + 𝚽 𝑡0 , 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 = 𝐈𝒙0 + 𝟎 = 𝒙𝟎
𝑡0
Pour l'équation d'état nous avons :
𝑑 𝜕 𝜕 𝑡
𝒙 𝑡 = 𝚽 𝑡, 𝑡0 𝒙0 + 𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏
𝑑𝑡 𝜕𝑡 𝜕𝑡 𝑡0
𝑡
𝜕
= 𝑨 𝑡 𝚽 𝑡, 𝑡0 𝒙0 + 𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 + 𝚽 𝑡, 𝑡 𝑩 𝑡 𝒖 𝑡
𝑡0 𝜕𝑡
𝑡
=𝑨 𝑡 𝚽 𝑡, 𝑡0 𝒙0 + 𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 + 𝑩 𝑡 𝒖 𝑡 = 𝒙(𝑡)
𝑡0
𝐱(t)
Pour obtenir l'expression de la sortie, on substitut (IV-13) dans (IV-7).
-6-
𝑡
𝒚 𝒕 =𝑪 𝑡 𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 + 𝑫 𝑡 𝒖 𝑡
𝑡0
𝑡 𝑡
= 𝑪 𝑡 𝚽 𝑡, 𝜏 𝑩 𝜏 + 𝑫 𝑡 𝛿 𝑡 − 𝜏 𝒖 𝜏 𝑑𝜏 = 𝑮(𝑡, 𝜏)𝒖 𝜏 𝑑𝜏
𝑡0 𝑮 𝑡 ,𝜏 𝑡0
Ces deux termes sont connus par différents noms tels que : (Solution homogène et
solution particulière), (Solution libre et solution forcée), (Réponse à entrée nulle et
réponse à état initial nul).
3. Linéarité de la réponse avec état initial nul (réponse forcée): pour tout 𝑡, 𝑡0 , 𝒖𝟏 . ,
𝒖𝟐 . , 𝛼1 , 𝛼2
𝝍 𝑡; 𝟎, 𝑡0 , 𝛼1 𝒖1𝑡 0 ,𝑡 + 𝛼2 𝒖2𝑡 0 ,𝑡 = 𝛼1 𝝍 𝑡; 𝟎, 𝑡0 , 𝒖1𝑡 0 ,𝑡 + 𝛼2 𝝍 𝑡; 𝟎, 𝑡0 , 𝒖2𝑡 0 ,𝑡
4. Linéarité de la réponse avec entrée identiquement nulle (réponse due à l'état initial) :
pour tout 𝑡, 𝑡0 , 𝒙10 , 𝒙20 , 𝛼1 , 𝛼2 :
𝝍 𝑡; 𝛼1 𝒙10 + 𝛼2 𝒙20 , 𝑡0 , 𝟎 = 𝛼1 𝝍 𝑡; 𝒙10 , 𝑡0 , 𝟎 + 𝛼2 𝝍 𝑡; 𝒙20 , 𝑡0 , 𝟎
Tout système linéaire variable dans le temps peut être décrit par la relation entrée/sortie
suivante :
𝑡
𝒚 𝑡 = 𝑡0
𝑮 𝑡, 𝜏 𝒖 𝜏 𝑑𝜏 (IV-17)
Et si le système et à paramètre non distribués (localisés ou non réparties), les équations d'état
(IV-6) et (IV-7) peuvent aussi être utilisées.
Si l'équation d'état est disponible la matrice de réponse impulsionnelle peut être calculée par :
𝑮 𝑡, 𝜏 = 𝑪 𝑡 𝚽 𝑡, 𝜏 𝑩 𝜏 + 𝑫 𝑡 𝛿 𝑡 − 𝜏 = 𝑪 𝑡 𝐗 t 𝐗−1 𝜏 𝑩 𝜏 + 𝑫 𝑡 𝛿 𝑡 −
𝜏 𝑝𝑜𝑢𝑟 𝑡 ≥ 𝜏 (IV-18)
Le problème inverse est de trouver une équation d'état à partir d'une matrice de réponse
impulsionnelle donnée. Une matrice de réponse impulsionnelle est dite réalisable s'il existe
[𝑨 𝑡 , 𝑩 𝑡 , 𝑪 𝑡 , 𝑫(𝑡)] qui vérifient (IV-18).
-7-
Théorème (IV-4) :
Une matrice de réponse impulsionnelle 𝑮(𝑡, 𝜏) de dimension (𝑞 × 𝑝) est dite réalisable si et
seulement si 𝑮(𝑡, 𝜏) peut être décomposée comme :
𝑮 𝑡, 𝜏 = 𝑴 𝑡 𝑵 𝜏 + 𝑫 𝑡 𝛿(𝑡 − 𝜏) (IV-19)
Démonstration :
Nécessité : Si 𝑮(𝑡, 𝜏) est réalisable, alors à partir de (IV-18) on identifie 𝑴 𝑡 = 𝑪 𝑡 𝐗 t et
𝑵 𝜏 = 𝐗 −1 𝜏 𝑩 𝜏 ce qui établie la nécessité.
𝒙 𝑡 )=𝑵 𝑡 𝒖 𝑡
(IV-20)
𝒚 𝑡 = 𝑴 𝑡 𝒙 𝑡 + 𝑫 𝑡 𝒖(𝑡)
Est une réalisation de 𝑮(𝑡, 𝜏). En effet, une matrice fondamentale du système 𝒙 𝑡 =
𝟎𝒙 𝑡 est 𝑿 𝑡 = 𝑰. Par suite la matrice de la réponse impulsionnelle de (IV-20) est :
𝑮 𝑡, 𝜏 = 𝑴 𝑡 𝑰. 𝑰−𝟏 𝑵 𝜏 + 𝑫 𝑡 𝛿(𝑡 − 𝜏)
IV.5. Stabilité :
Dans cette section, nous allons étudier la stabilité des systèmes linéaires. La réponse d'un
système linéaire peut toujours être décomposée en la réponse pour état initial nul (due à l'effet
de l'entrée seulement) et la réponse pour entrée nulle (due à l'effet de l'état initial seul). Nous
allons étudier la stabilité de ces deux réponses de façon séparée. Nous commençons par les
systèmes invariants dans le temps, ensuite nous examinons les systèmes variables dans le
temps.
Avec 𝑔(𝑡) la réponse impulsionnelle. Notons que pour être décrit par l'équation (IV-21), le
système doit être linéaire invariant dans le temps et causal. En plus, le système doit être
initialement relaxé (c'est-à-dire l'état initial est nul 𝑥 0 = 0).
La stabilité que nous considérons ici est la stabilité entrée bornée/sortie bornée EBSB, c'est-à-
dire que la sortie excitée par une entrée qui est bornée doit être bornée.
Théorème (IV-5) :
Un système à une seule entrée et une seule sortie décrit par (IV-21) est EBSB stable si et
seulement si sa réponse impulsionnelle est absolument intégrable dans 0, ∞) où :
-8-
∞
0
𝑔 𝑡 𝑑𝑡 ≤ 𝑀 < ∞, 𝑝𝑜𝑢𝑟 𝑢𝑛𝑒 𝑐𝑒𝑟𝑡𝑎𝑖𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑀 (IV-22)
Il faut noter qu'une fonction qui est absolument intégrable peut ne pas être bornée et ne pas
tendre vers zéro quand 𝑡 → ∞.
Théorème (IV-6) :
Si un système de réponse impulsionnelle 𝑔(𝑡)et de fonction de transfert 𝐺(𝑠)est EBSB stable,
alors quand 𝑡 → ∞ :
Théorème (IV-7) :
Un système à une seule entrée et une seule sortie avec une fonction de transfert rationnelle
propre 𝐺(𝑠) est EBSB stable si est seulement si chaque pôle de 𝐺(𝑠) à une partie réelle
négative ou de façon équivalente situé à l'intérieur du demi-plan de gauche.
Théorème (IV-8) :
Un système multi-variable avec matrice de réponse impulsionnelle 𝑮 𝑡 = 𝑔𝑖𝑗 (𝑡) est EBSB
stable si et seulement si 𝑔𝑖𝑗 (𝑡) est absolument intégrable dans [0, ∞).
Théorème (IV-9) :
Un système multi-variable avec une matrice de transfert rationnelle propre 𝑮 𝑠 = 𝑔𝑖𝑗 (𝑠)
est EBSB stable si et seulement si chaque pôle de 𝑔𝑖𝑗 (𝑠) a une partie réelle négative.
Maintenant, nous allons discuter la stabilité des systèmes représentés par les équations d'état
(IV-6,7). La matrice de transfert de tels systèmes est donnée par :
−𝟏 𝑩
𝑮 𝑠 = 𝑪 𝑠𝑰 − 𝑨 +𝑫 (IV-23)
La réponse pour état initial nul (due seulement à l'entrée) du système (IV-6,7) est EBSB stable
si et seulement si chaque pôle de 𝑮 𝑠 a une partie réelle négative. Rappelons que chaque
pôle de chaque composante de 𝑮 𝑠 est appelé pôle de 𝑮 𝑠 .
Nous discutons maintenant la relation entre les pôles de 𝑮 𝑠 et les valeurs propres de la
matrice A. Vu que :
1
𝑮 𝑠 = 𝑪 𝐴𝑑𝑗(𝑠𝑰 − 𝑨) 𝑩 + 𝑫 (IV-24)
det 𝑠𝑰−𝑨
Chaque pôle de 𝑮 𝑠 est une valeur propre de A. Par contre certaines valeurs propres de A ne
sont pas des pôles de 𝑮 𝑠 . Ainsi si chaque valeur propre de Aa une partie réelle négative,
alors chaque pôle de 𝑮 𝑠 à une partie réelle négative est le système est EBSB stable. Par
-9-
contre si certaines valeurs propres de A ont des parties réelles positives, alors, le système peut
être quand même stable.
𝒙 𝑡 = 𝑨𝒙 𝑡 (IV-25)
Quand il est excité par un état initial non nul 𝒙0 . La solution de (IV-25) est :
𝒙 𝑡 = 𝑒 𝑨𝑡 𝒙0 (IV-26)
Définition (IV-10) :
La réponse avec entrée nulle du système (IV-6,7) ou de l'équation 𝒙 𝑡 = 𝑨𝒙 𝑡 est
marginalement stable ou stable dans le sens de Lyapunov si chaque état initial fini 𝒙0 excite
une réponse bornée. Cette réponse est asymptotiquement stable si chaque état initial fini
excite une réponse bornée qui en plus tend vers 0quand 𝑡 → ∞.
Il faut mentionner que cette définition est applicable seulement aux systèmes linéaires.
Théorème (IV-11) :
1. L'équation 𝒙 𝑡 = 𝑨𝒙 𝑡 est marginalement stable si et seulement si toutes les valeurs
propres de A ont une partie réelle négative ou nulle et que les valeurs propres avec
partie réelle nulle sont des racines simples du polynôme minimal de A(un polynôme
minimal d'une matrice est le polynôme de plus petit degré qui accepte cette matrice
comme racine).
2. L'équation 𝒙 𝑡 = 𝑨𝒙 𝑡 est asymptotiquement stable si et seulement si toutes les
valeurs propres de A ont une partie réelle négative.
Pour une valeur propre 𝜆𝑖 de 𝐴 de multiplicité 𝑛𝑖 , on définie l’indice de 𝜆𝑖 dénoté par 𝑛𝑖 qui
est définit comme étant le plus grand ordre de tous les blocks de Jordan associés à 𝜆𝑖 . Le
polynôme minimal de 𝐴 peut être exprimé par : 𝜓 𝜆 = 𝑖 𝜆 − 𝜆𝑖 𝑛 𝑖 . Notez que 𝑛 = 𝑖 𝑛𝑖 ≤
𝑛 = dim(𝐴)
Il faut mentionner, ici, que les transformations de similarité ne changent pas la stabilité.
𝑨∗ 𝑴 + 𝑴𝑨 = −𝑵 (IV-27)
- 10 -
Ce théorème est parfois énoncé comme suit (C'est la version la plus utile) : L'origine du
système 𝑥 = 𝐴𝑥 est asymptotiquement stable si et seulement si étant donné une matrice
définie positive 𝑄 > 0 l'équation de Lyapunov 𝐴𝑇 𝑃 + 𝑃𝐴 = −𝑄 a une solution 𝑃 > 0.
Nécessité : Si le système est asymptotiquement stable et 𝑄 > 0 alors par le théorème (IV-14)
∞ 𝑨∗ 𝑡
𝑃= 0
𝑒 𝑸𝑒 𝑨𝑡 𝑑𝑡.
Corollaire (IV-13) :
Toutes les valeurs propres d'une matrice 𝑛 × 𝑛 A ont des parties réelles négatives (A de
Hurwitz) si et seulement si pour toute matrice 𝑪 de dimension 𝑚 × 𝑛, 𝑎𝑣𝑒𝑐 𝑚 < 𝑛 et avec la
propriété :
𝑪
𝑟𝑎𝑛𝑘 Γ𝑂 = 𝑟𝑎𝑛𝑘 𝑪𝑨 = 𝑛 (à 𝑟𝑎𝑛𝑔 𝑝𝑙𝑒𝑖𝑛 𝑝𝑜𝑢𝑟 𝑙𝑒𝑠 𝑐𝑜𝑙𝑜𝑛𝑛𝑒𝑠) (IV-28)
⋮
𝑪𝑨𝒏−𝟏
Avec Γ𝑂 une matrice de dimension (𝑛𝑚 × 𝑛), l'équation de Lyapunov :
𝑨∗ 𝑴 + 𝑴𝑨 = −𝑪∗ 𝑪 (IV-29)
A une solution symétrique unique 𝑴est cette solution est définie positive.
Théorème (IV-14) :
Si toutes les valeurs propres de A ont des parties réelles négatives, alors l'équation de
Lyapunov :
𝑨∗ 𝑴 + 𝑴𝑨 = −𝑵 (IV-30)
A une solution unique pour toute N, et la solution peut être exprimée par :
∞ ∗
𝑴= 0
𝑒 𝑨 𝑡 𝑵𝑒 𝑨𝑡 𝑑𝑡 (IV-31)
Le système est dit EBSB stable si chaque entrée bornée excite une sortie bornée. La condition
pour que (IV-32) soit EBSB stable est qu'il existe un nombre M fini tel que :
𝑡
𝑡0
𝑔 𝑡, 𝜏 𝑑𝜏 ≤ 𝑀 < ∞ Pour tout t et 𝑡0 avec 𝑡 ≥ 𝑡0 (IV-33)
- 11 -
𝑡
𝒚 𝑡 = 𝑡0
𝑮 𝑡, 𝜏 𝒖 𝜏 𝑑𝜏 (IV-34)
La condition pour (IV-34) d'être EBSB stable est que chaque composante de 𝑮 𝑡, 𝜏 vérifie la
condition dans (IV-33). Pour les systèmes multi-variables, on peut aussi exprimer la condition
en termes de norme. Tous les normes peuvent être utilisées, cependant la norme infinie :
𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 + 𝑩 𝑡 𝒖(𝑡) (IV-36)
𝒚 𝑡 = 𝑪 𝑡 𝒙 𝑡 + 𝑫 𝑡 𝒖(𝑡)
Est :
𝑮 𝑡, 𝜏 = 𝑪 𝑡 𝚽 𝑡, 𝜏 𝑩 𝜏 + 𝑫 𝑡 𝛿(𝑡 − 𝜏) (IV-37)
Ainsi, le système (IV-36) ou plus précisément la réponse à état initial nul de (IV-36) est
EBSB stable si et seulement s'ils existent deux constantes 𝑀1 𝑒𝑡 𝑀2 tels que :
𝑡
𝑫(𝑡) ≤ 𝑀1 < ∞ 𝑒𝑡 𝑡0
𝑮 𝑡, 𝜏 𝑑𝜏 ≤ 𝑀2 < ∞ 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑡, 𝑡0 𝑡𝑞 𝑡 ≥ 𝑡0 (IV-39)
Dans ce qui suit, nous examinons la stabilité de la réponse à entrée nulle (c'est-à-dire due
seulement à l'effet de la condition initiale). La réponse à entrée nulle de (IV-36) ou l'équation
𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 est marginalement stable si chaque état initial fini excite une réponse
bornée. Vue que la réponse est gouvernée par :
𝐱 t = 𝚽 𝑡, 𝑡0 𝒙(𝑡0 ) (IV-40a)
On conclu que la réponse est marginalement stable si et seulement s'il existe une constante
M telle que :
- 12 -
𝚽 𝑡, 𝑡0 → 𝟎 𝑞𝑢𝑎𝑛𝑑 𝑡 → ∞ (IV-41)
Remarques (IV-15) :
Ici il faut noter que pour les systèmes variables dans le temps, la stabilité asymptotique est la
stabilité marginale ne sont pas préservées par tout transformation de similarité. Seule la
stabilité EBSB est préservée ici parce que la matrice de réponse impulsionnelle est préservée.
Il faut aussi noter que dans le cas invariant dans le temps la stabilité asymptotique avec entrée
nulle implique toujours la stabilité EBSB de la réponse avec état initial nul. Ceci n'est pas
nécessairement le cas pour les systèmes variables dans le temps.
Théorème (IV-16) :
La stabilité marginale et la stabilité asymptotique sont préservées sous toute transformation de
Lyapunov.
IV.6. Contrôlabilité :
Définition (IV-17) :
L'équation d'état (IV-1) ou la paire (𝐴, 𝐵) est dite être contrôlable si pour tout état initial
𝑥 0 = 𝑥0 et tout état final 𝑥1 , il existe une entrée 𝑢(. ) qui déplace 𝑥0 à 𝑥1 en un temps fini.
Autrement (IV-1) ou la paire (𝐴, 𝐵) est dite être incontrôlable.
Cette définition exige seulement que l'entrée soit capable de déplacer tout état dans l'espace
d'état à n'importe quel état en un temps fini. La trajectoire que l'état doit suivre pour faire ce
déplacement n'est pas spécifié. En plus, il n y a aucune contrainte sur la commande 𝑢(. ).
Théorème (IV-18) :
Les propositions suivantes sont équivalentes :
Est définie positive (le faite qu'elle soit non singulière suffit).
- 13 -
+∞ 𝑇
𝑊𝑐 = 0
𝑒 𝐴𝜏 𝐵𝐵𝑇 𝑒 𝐴 𝜏 𝑑𝜏 (IV-44)
Mis à part le premier élément de la colonne 𝑖 + 1 qui doit être calculé, les autres éléments
sont obtenue en décalant les éléments de la colonne précédente d'une position vers le bas. La
première colonne est la matrice 𝐵𝐶2 . Ainsi :
1 ∗ ∗ ⋯ ∗
0 1 ∗ ⋯ ∗
Γ𝐶2 = 𝐵 𝐴𝐵 𝐴2 𝐵 ⋯ 𝑛−1
𝐴 𝐵 = 0 0 1 ⋯ ⋮ (IV-46a)
⋮ ⋱ ⋱ ⋱ ∗
0 ⋯ 0 0 1
Ceci implique que det Γ𝐶2 = 1. En procédant la même façon on peut établir que det Γ𝑂2 =
1. Pour la forme canonique contrôlable, on peut de la même manière démontrer que Γ𝐶1 est
sous la forme :
0 0 0 ⋯ 1
⋮ ⋮ ⋮ ⋰ ∗ 𝑛 𝑛−1
𝑠𝑖 𝑝𝑎𝑖𝑟𝑒 𝑜ù 2 𝑠𝑖 𝑖𝑚𝑝𝑎𝑖𝑟𝑒
Γ𝐶1 = 0 0 1 ⋰ ⋮ ; 𝑎𝑖𝑛𝑠𝑖 det Γ𝐶1 = det Γ𝑂1 = −1 2 (IV-
0 1 ∗ ⋯ ∗
1 ∗ ∗ ⋯ ∗
46b)
- 14 -
dépendantes de B et les entrées correspondantes n'affecte pas la commande du système. Ainsi
il est raisonnable de supposer que B a un rang plein pour les colonnes.
Si la paire (𝐴, 𝐵) est contrôlable, alors sa matrice de contrôlabilité Γ𝐶 aura un rang égale à n
et, par conséquent, n colonnes linéairement indépendantes. Notons que Γ𝐶 à 𝑛𝑝colonnes; par
conséquent il est possible de trouver plusieurs combinaisons de n colonnes linéairement
indépendantes. Dans ce qui suit, nous allons discuter la façon la plus importante de chercher
ces colonnes; cette méthode est aussi la plus naturelle. Soit 𝑏𝑖 la 𝑖è𝑚𝑒 colonne de B. Alors Γ𝐶
peut être écrite sous la forme :
𝑏𝑚 , 𝐴𝑏𝑚 , 𝐴2 𝑏𝑚 , … , 𝐴𝜇 𝑚 −1 𝑏𝑚 (IV-48)
𝜇1 + 𝜇2 + ⋯ + 𝜇𝑝 = 𝑛 (IV-49)
𝜇 = max( 𝜇1 , 𝜇2 , … , 𝜇𝑝 ) (IV-50)
Est appelé indice de contrôlabilité de la paire (𝐴, 𝐵). Ou de façon équivalente, si (𝐴, 𝐵) est
contrôlable, l'indice de contrôlabilité et le plus petit entier tel que :
Corollaire (IV-19) :
La paire 𝐴, 𝐵 de dimension n est contrôlable si et seulement si la matrice :
- 15 -
Théorème (IV-20) :
La propriété de contrôlabilité est invariante sous toute transformation de similarité.
Théorème (IV-21) :
L'ensemble des indices de contrôlabilité est invariant sous toute transformation de similarité et
tout changement d'ordre des colonnes de B.
IV.7. Observabilité :
Le concept d'observabilité est dual à celui de contrôlabilité. Grossièrement parlant, la
contrôlabilité étudie la possibilité de gouverner les états à partir des entrées; l'observabilité
étudie la possibilité d'estimer les états à partir des sorties. Ces deux concepts sont définis sous
la supposition que toutes les matrices A, B, C, et D de l'équation d'état sont connues.
𝑥 = 𝐴𝑥 + 𝐵𝑢
(IV-54)
𝑦 = 𝐶𝑥 + 𝐷𝑢
Définition (IV-22):
L'équation d'état (IV-54) est dite être observable si pour tout état initial inconnu 𝑥(0),
∃ 𝑡1 > 0 tel que la connaissance de l'entrée et de la sortie sur l'intervalle [0, 𝑡1 ] suffit pour
déterminer de façon unique l'état initial 𝑥(0). Autrement l'équation est dite être non
observable.
La sortie de (IV-54) excitée par l'état initial 𝑥(0) et l’entrée 𝑢(𝑡) est dérivée dans (IV-4)
comme :
𝑡 𝑨 𝑡−𝜏
𝒚 𝑡 = 𝑪𝑒 𝑨𝑡 𝒙 0 + 𝑪 0
𝑒 𝑩𝒖 𝜏 𝑑𝜏 + 𝑫𝒖(𝑡) (IV-55)
Dans l'étude de l'observabilité, l'entrée 𝑢(𝑡) et la sortie 𝑦(𝑡) sont supposées connues; l'état
initial et le seul inconnu. Ainsi on peut écrire (IV-55) sous la forme :
𝑡 𝑨 𝑡−𝜏
𝑪𝑒 𝑨𝑡 𝒙 0 = 𝒚 𝑡 𝑎𝑣𝑒𝑐 𝒚 𝑡 = 𝒚 𝑡 − 𝑪 0
𝑒 𝑩𝒖 𝜏 𝑑𝜏 − 𝑫𝒖(𝑡)(IV-56)
𝒚 𝑡 est une fonction connue. Le problème d'observabilité se réduit à tirer 𝑥(0) à partir de
l'équation (IV-56). Si 𝑢 ∙ = 0, 𝒚 𝑡 sera réduit à la réponse à entrée nulle 𝑪𝑒 𝑨𝑡 𝒙 0 . Ainsi,
la définition (IV-22) peut être modifiée à : L'équation (IV-54) est observable si et seulement si
l'état initial 𝑥(0) peut être déterminé uniquement de sa réponse à entrée nulle à travers un
intervalle de temps finie.
Dans ce qui suit, nous discutons comment résoudre l'équation (IV-56) pour 𝑥(0). Pour un t
fixe, 𝐶𝑒 𝐴𝑡 est une matrice constante de dimension 𝑞 × 𝑛 et 𝒚 𝑡 est un vecteur constant de
dimension 𝑞 × 1.Ainsi, l'équation (IV-56) est un système d'équations algébriques linéaires à n
- 16 -
inconnus. Vue la façon avec laquelle ce système d'équation est développé, pour chaque t fixe,
𝒚 𝑡 est dans l'ensemble image de 𝐶𝑒 𝐴𝑡 et des solutions existent toujours pour l'équation (IV-
56). La seule question est si la solution est unique. Si 𝑞 < 𝑛, comme c'est le cas en général, la
matrice 𝐶𝑒 𝐴𝑡 a un rang au plus égal à q, et par conséquent à une nullité de 𝑛 − 𝑞 ou plus.
Ainsi les solutions ne sont pas uniques. En conclusion on ne peut pas trouver un 𝑥(0) unique
pour un t isolé. Afin de déterminer de façon unique 𝑥(0) pour (IV-56), on doit utiliser les
informations sur 𝑢(𝑡) et 𝑦(𝑡) sur un intervalle non nul de temps comme sera énoncer dans le
théorème suivant :
Théorème (IV-23) :
L'équation d'état (IV-56) est observable si et seulement si la matrice de dimension 𝑛 × 𝑛 :
𝑡 𝐴𝑇 𝜏 𝑇
𝑊𝑜 𝑡 = 0
𝑒 𝐶 𝐶𝑒 𝐴𝜏 𝑑𝜏 (IV-57)
𝑇
Si on pré-multiplie l'équation (IV-56) par 𝑒 𝐴 𝑡 𝐶 𝑇 et qu'on l'intègre sur l'intervalle [0, 𝑡1 ] on
obtient :
𝑡 1 𝐴𝑇 𝑡 𝑇 𝑡 1 𝐴𝑇 𝑡 𝑇
0
𝑒 𝐶 𝐶𝑒 𝐴𝑡 𝑑𝑡 𝑥 0 = 0
𝑒 𝐶 𝑦(𝑡)𝑑𝑡 (IV-58)
On voit que l'observabilité dépend seulement de la paire (𝐴, 𝐶) et elle est indépendante de
𝐵 𝑒𝑡 𝐷. Comme pour la contrôlabilité, si 𝑊𝑜 (𝑡) est non singulière pour t donné, alors elle est
non singulière pour tout t et l'état initial peut être calculé à partir de (IV-59) en utilisant
n'import quel intervalle non nul.
- 17 -
Maintenant, nous allons donner l'énoncé du théorème dual au théorème (IV-18) qui peut être
prouvé par dualité.
Théorème (IV-25) :
Les propositions suivantes sont équivalentes :
Si (𝐴, 𝐶) est observable, sa matrice d'observabilitéΓ𝑂 à un rang n et, par conséquent, n lignes
linéairement indépendantes. Soit 𝑐𝑖 la ième ligne de C. Cherchons les lignes linéairement
indépendant de Γ𝑂 dans l'ordre de haut vers le bas. De façon duale à la contrôlabilité, si une
ligne associée à 𝑐𝑚 devient linéairement dépendante sur les lignes supérieures, alors toutes les
lignes suivantes associées avec 𝑐𝑚 seront aussi linéairement dépendantes. Soit 𝑣𝑚 le nombre
de lignes linéairement indépendantes associées avec 𝑐𝑚 . Il est clair que si Γ𝑂 a un rang n, alors
:
𝑣1 + 𝑣2 + ⋯ + 𝑣𝑞 = 𝑛 (VI-63)
- 18 -
𝑣 = max( 𝑣1 , 𝑣2 , ⋯ , 𝑣𝑛 ) (VI-64)
Est appelé indice d'observabilité de 𝐴, 𝐶 . Si (𝐴, 𝐶) est observable, c'est le plus petit entier tel
que :
𝐶
𝐶𝐴
𝑟𝑎𝑛𝑔 Γ𝑂𝑣 = 𝐶𝐴2 = 𝑛 (VI-65)
⋮
𝐶𝐴𝑣−1
De façon duale à la partie de contrôlabilité, nous avons :
𝑛
≤ 𝑣 ≤ min( 𝑛, 𝑛 − 𝑞 + 1 ) (VI-66)
𝑞
Corollaire (VI-26) :
La paire (𝐴, 𝐶) de dimension n est observable si et seulement si la matrice :
𝐶
𝐶𝐴
Γ𝑂𝑛−𝑞 +1 = 𝐶𝐴2 (IV-67)
⋮
𝐶𝐴𝑛−𝑞
(avec C de rang q), à un rang égal à n, ou la matrice Γ𝑂𝑇𝑛 −𝑞+1 ∗ Γ𝑂𝑛−𝑞 +1 est non singulière.
Théorème (IV-27) :
La propriété d'observabilité est invariante sous toute transformation de similarité.
Théorème (IV-28) :
L'ensemble des indices d'observabilité de la paire (𝐴, 𝐶) est invariant sous toute
transformation de similarité et sous toute changement d'ordre des lignes de C.
Avant de conclure cette section, nous donnons une méthode pour résoudre l'équation (IV-56).
En prenant la dérivée de (IV-56) de façon répétée et en fixant 𝑡 = 0, nous pouvons obtenir :
𝐶 𝑦(0)
𝐶𝐴 𝑦(0)
2
𝐶𝐴 𝑥 0 = 𝑦(0) ; 𝑜𝑢 Γ𝑂𝑣 𝑥 0 = 𝑌 (0) (IV-68)
⋮ ⋮
𝐶𝐴𝑛−𝑞 𝑦 (𝑣−1)(0)
𝑇 𝑇
Où 𝑦 (𝑖) (0) est la ième dérivée de 𝑦 (𝑡), et 𝑌 0 = 𝑦 𝑇 0 𝑦𝑇 0 ⋯ 𝑦 𝑣−1 0 .
L'équation (IV-68) est un ensemble d'équations algébriques linéaires. Selon la façon dont il
est développé, 𝑦 (0) doit se trouver dans l'espace image de Γ𝑂𝑣 . Ainsi une solution 𝑥(0) existe
- 19 -
dans (IV-68) . Si (𝐴, 𝐶) est observable, alors Γ𝑂𝑣 a un rang plein pour les colonnes et la
solution est alors unique. Et la solution est donnée par :
−1 𝑇
𝑥 0 = Γ𝑂𝑇𝑣 Γ𝑂𝑣 Γ𝑂𝑣 𝑌 (0) (IV-69)
On doit mentionner que pour obtenir 𝑦 0 , 𝑦 0 , ⋯ nous avons besoin de connaître 𝑦 (𝑡) dans
le voisinage de 𝑡 = 0. Ceci est consistant avec l'assertion (affirmation) qu'on a besoin de
connaître 𝑦 (𝑡) sur un intervalle de temps non nul pour déterminer 𝑥(0) de façon unique à
partir de (IV-56). Vue que la différentiation amplifie le bruit contenue dans le signal 𝑦(𝑡),
l'utilisation de l'expression (IV-56) pour déterminer 𝑥(0) est préférable à l'utilisation de (IV-
68,69).
𝑥 = 𝐴𝑥 + 𝐵𝑢
(IV-70)
𝑦 = 𝐶𝑥 + 𝐷𝑢
𝑥 = 𝐴𝑥 + 𝐵 𝑢
(IV-71)
𝑦 = 𝐶 𝑥 + 𝐷𝑢
Γ𝐶 = 𝑇 −1 Γ𝐶 ; Γ𝑂 = Γ𝑂 𝑇 (IV-72)
Théorème (VI-29) :
Considérons l'équation d'état (IV-70) de dimension n avec :
𝑇 = 𝑞1 ⋯ 𝑞𝑛 1 ⋯ 𝑞𝑛 (IV-74)
- 20 -
𝑥𝑐 𝐴 𝐴12 𝑥𝑐
= 𝑐 + 𝐵𝑐 𝑢
𝑥𝑐 0 𝐴𝑐 𝑥𝑐 0 (IV-75)
𝑥𝑐
𝑦 = 𝐶𝑐 𝐶𝑐 𝑥𝑐 + 𝐷𝑢
𝑥𝑐 = 𝐴𝑐 𝑥𝑐 + 𝐵𝑐 𝑢
(IV-76)
𝑦 = 𝐶𝑐 𝑥𝑐 + 𝐷𝑢
Pour les équations d'état non observables, nous avons le théorème dual à celui des systèmes
non contrôlables suivant.
Théorème (IV-30) :
Considérons le système de dimension n de l'équation (IV-70) avec :
𝐶
𝐶𝐴
𝑟𝑎𝑛𝑘 Γ𝑂 = 𝑟𝑎𝑛𝑘 = 𝑛2 < 𝑛 (VI-77)
⋮
𝐶𝐴𝑛−1
Où les premiers 𝑛2 lignes peuvent être choisis parmi les combinaisons de 𝑛2 lignes
linéairement indépendantes de Γ𝑂 et les lignes qui restent peuvent être arbitrairement choisies
pourvu que 𝑇 −1 soit non singulière. Ainsi la transformation d'équivalence 𝑥 = 𝑇 −1 𝑥
transformera (IV-70) en :
- 21 -
𝑥𝑜 𝐴 0 𝑥𝑜 𝐵
= 𝑜 + 𝑜 𝑢
𝑥𝑜 𝐴21 𝐴𝑜 𝑥𝑜 𝐵𝑜 (IV-79)
𝑥
𝑦 = 𝐶𝑜 0 𝑥𝑜 + 𝐷𝑢
𝑜
𝑥𝑜 = 𝐴 𝑜 𝑥𝑜 + 𝐵𝑜 𝑢
(IV-80)
𝑦 = 𝐶𝑜 𝑥𝑜 + 𝐷𝑢
Théorème (IV-31) :
Toute équation d'état peut être transformée par une transformation d'équivalence vers une
équation de la forme canonique suivante :
Avec 𝑥𝑐𝑜 est contrôlable et observable, 𝑥𝑐𝑜 contrôlable et non observable, 𝑥𝑐 𝑜 non contrôlable
et observable et enfin 𝑥𝑐 𝑜 qui n'est ni contrôlable ni observable. En plus, l'équation d'état a la
même réponse à état initial nul (fonction de transfert) que le système réduit suivant :
Et a la matrice de transfert
−1 𝐵
𝐺 𝑠 = 𝐶𝑐𝑜 𝑠𝐼 − 𝐴 𝑐𝑜 𝑐𝑜 +𝐷 (IV-83)
- 22 -
+ 𝑦(𝑡)
𝑢(𝑡) 𝑪𝑶 𝑪𝑶
+
𝑶 𝑪𝑶 𝑪𝑶
𝑪
Figure (IV-1) Block diagramme de la forme canonique de Kalman. (Les sous-systèmes
non contrôlables ne sont pas connectés ni de façon directe ni de façon indirecte à
l'entrée. Les sous systèmes non observables n'ont pas d'effet direct ou indirect sur la
sortie). Les sous systèmes contrôlables ont une connexion directe aux entrée. Enfin, les
sous systèmes observables ont une connexion directe aux sorties.
Une façon d'obtenir cette décomposition est de décomposer l'équation d'état, en premier lieu,
en une partie contrôlable est une partie non contrôlable, ensuite décomposer chacun des deux
sous systèmes selon l'observabilité en un sous système observable et un sous système non
observable.
𝑥 = 𝐽𝑥 + 𝐵𝑢
(IV-84)
𝑦 = 𝐶𝑥
Ou 𝐽 est dans la forme de Jordan. Pour simplifier la discussion, nous supposons que 𝐽 a
seulement deux valeurs propres distinctes 𝜆1 , 𝜆2 et peut être écrite sous la forme :
𝐽 = 𝑑𝑖𝑎𝑔(𝐽1 , 𝐽2 ) (IV-85)
Où 𝐽1 consiste en tous les blocks de Jordan associés avec 𝜆1 et 𝐽2 consiste en tous les blocks
de Jordan associés avec 𝜆2 . Aussi pour simplifier la discussion nous supposons que 𝐽1 à trois
blocks de Jordan et 𝐽2a deux blocks de Jordan :
Les lignes de 𝐵 correspondant aux dernières lignes des 𝐽𝑖𝑗 sont dénotées 𝑏𝒅𝑖𝑗 et les colonnes
de C correspondants aux premières colonnes de 𝐽𝑖𝑗 sont dénotées 𝑐𝒑𝑖𝑗 .
- 23 -
Théorème (IV-32) :
1. L'équation d'état dans (IV-84) est contrôlable si et seulement si les trois vecteurs
lignes {𝑏𝑑11 , 𝑏𝑑12 , 𝑏𝑑13 } sont linéairement indépendants et les deux vecteurs
lignes{𝑏𝑑21 , 𝑏𝑑22 } sont linéairement indépendants.
2. L'équation d'état dans (IV-84) est observable si et seulement si les trois vecteurs
colonnes {𝑐𝑝11 , 𝑐𝑝12 , 𝑐𝑝13 }sont linéairement indépendants et les deux vecteurs
colonnes {𝑐𝑝21 , 𝑐𝑝22 } sont linéairement indépendants.
Nous discutons maintenant l'implication de ce théorème. Si une équation d'état est dans la
forme de Jordan, alors la contrôlabilité des variables d'état associées avec une valeur propre
peut être testée indépendamment de celle des variables d'état associées avec les autres valeurs
propres. La contrôlabilité des variables d'état associées avec la même valeur propre dépend
seulement des lignes de B correspondants aux dernièreslignes des blocks de Jordan associés
avec la valeur propre. Les autres lignes de B n'ont aucun rôle dans la détermination de la
contrôlabilité. Des remarques similaires s'appliquent à la détermination de l'observabilité, à
l'exception que cette fois-ci, c'est les colonnes de C correspondants aux premièrescolonnes
des blocks de Jordan (associés à la valeur propre) qui seront utilisées pour déterminer
l'observabilité.
Maintenant, considérons une équation d'état de dimension n donnée sous la forme de Jordan
et ayant 𝑝 entrées et 𝑞 sorties. S'il y a m (avec 𝑚 > 𝑝) blocks de Jordan associés avec la
même valeur propre, alors un ensemble de m lignes (de B) de dimension (1 × 𝑝) ne peuvent
jamais être linéairement indépendants et l'équation d'état ne peut jamais être contrôlable.
Alors une condition nécessaire pour que l'équation d'état soit contrôlable est que 𝒎 ≤ 𝒑. De
façon similaire, une condition nécessaire pour l'équation d'état soit observable est que 𝒎 ≤ 𝒒.
Pour le cas à une seule entrée et une seule sortie, nous avons le corolaire suivant :
Corolaire (IV-33) :
Une équation d'état à une seule entrée dans la forme de Jordan est contrôlable si et seulement
si il y a un seul block de Jordan associé avec chaque valeur propre distincte et chaque élément
de B correspondant à la dernière ligne de chaque block de Jordan est différent de zéro.
Corolaire (IV-34) :
Une équation d'état à une seule sortie dans la forme de Jordan est observable si et seulement si
il y a seulement un seul block de Jordan associé avec chaque valeur propre distincte et chaque
élément de C correspondant à la première colonne de chaque block de Jordan est différent de
zéro.
- 24 -
𝑥 = 𝐴 𝑡 𝑥+𝐵 𝑡 𝑢
(IV-87)
𝑦=𝐶 𝑡 𝑥
L'équation d'état est dite contrôlable à 𝑡0 , s'il existe un temps fini 𝑡1 > 𝑡0 tel que pour tout
𝑥 𝑡0 = 𝑥0 et tout 𝑥1 il existe un signal de commande 𝑢(. ) qui déplace l'état de 𝑥0 à 𝑥1 à
l'instant 𝑡1 . Autrement, l'équation d'état est incontrôlable à 𝑡0 . Dans le cas invariant dans le
temps, si une équation d'état est contrôlable, alors, elle est contrôlable à tout 𝑡0 et pour tout
𝑡1 > 𝑡0 . Ainsi, il n'est pas nécessaire de spécifier 𝑡0 et 𝑡1 . Dans le cas variable dans le temps,
la spécification de 𝑡0 et de 𝑡1 est cruciale.
Théorème (IV-35) :
La paire (𝐴 𝑡 , 𝐵 𝑡 ) de dimension 𝑛 est contrôlable à l'instant 𝑡0 si et seulement s'il existe un
𝑡1 fini 𝑡1 > 𝑡0 tel que la matrice de dimension (𝑛 × 𝑛) suivante :
𝑡1
𝑊𝑐 𝑡0 , 𝑡1 = 𝑡0
Φ 𝑡1 , 𝜏 𝐵 𝜏 𝐵𝑇 𝜏 Φ𝑇 𝑡1 , 𝜏 𝑑𝜏 (IV-88)
𝑑
𝑀𝑚 +1 𝑡 ≔ −𝐴 𝑡 𝑀𝑚 𝑡 + 𝑀 𝑡 𝑝𝑜𝑢𝑟 𝑚 = 0,1, … , (𝑛 − 1)
𝑑𝑡 𝑚
Il est clair que nous avons :
Φ 𝑡2 , 𝑡 𝐵 𝑡 = Φ 𝑡2 , 𝑡 𝑀0 𝑡
∂
Φ 𝑡2 , 𝑡 = −Φ 𝑡2 , 𝑡 𝐴 𝑡
∂t
On calcul :
- 25 -
∂ ∂ 𝑑
Φ 𝑡2 , 𝑡 𝐵(𝑡) = Φ 𝑡2 , 𝑡 𝐵 𝑡 + Φ 𝑡2 , 𝑡 𝐵 𝑡
∂t ∂t 𝑑𝑡
𝑑
= Φ 𝑡2 , 𝑡 −𝐴 𝑡 𝑀0 𝑡 + 𝑀0 (𝑡) = Φ 𝑡2 , 𝑡 𝑀1 (𝑡)
𝑑𝑡
En procédant de la même façon :
∂m
Φ 𝑡2 , 𝑡 𝐵(𝑡) = Φ 𝑡2 , 𝑡 𝑀𝑚 𝑡 ; 𝑝𝑜𝑢𝑟 𝑚 = 0,1,2, … (IV-89)
∂t m
Le théorème suivant donne une condition suffisante mais pas nécessaire pour que le système
(IV-87) soit contrôlable.
Théorème (IV-36) :
Supposons que 𝐴(𝑡) et 𝐵(𝑡) soient (𝑛 − 1) continuellement différentiables. Alors, la paire
𝐴 𝑡 , 𝐵(𝑡) de dimension n est contrôlable à 𝑡0 s'il existe un temps fini 𝑡1 > 𝑡0 tel que :
𝑉𝐼 − 87 𝑒𝑠𝑡 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑏𝑙𝑒 à 𝑡0
⇔ ∃ 𝑡1 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑢 . 𝑡 0 ,𝑡 1 , 𝑦 . 𝑡 0 ,𝑡 1 𝑠𝑢𝑓𝑓𝑖𝑠𝑒𝑛𝑡 𝑝𝑜𝑢𝑟 𝑑é𝑡𝑒𝑟𝑚𝑖𝑛𝑒𝑟 𝑑𝑒 𝑓𝑎ç𝑜𝑛 𝑢𝑛𝑖𝑞𝑢𝑒 𝑥 𝑡0
= 𝑥0
Théorème (IV-37) :
La paire 𝐴 𝑡 , 𝐶 𝑡 est observable à 𝑡0 si et seulement s'il existe un temps fini 𝑡1 > 𝑡0 telle
que la matrice (𝑛 × 𝑛) suivante :
𝑡1 T
𝑊0 𝑡0 , 𝑡1 = 𝑡0
Φ τ, t0 C T τ C τ Φ τ, t0 dτ (IV-91)
Théorème (IV-38) :
Supposons que 𝐴(𝑡) et 𝐶(𝑡) soient (𝑛 − 1) fois continuellement différentiables. Alors la paire
de dimension n 𝐴 𝑡 , 𝐶 𝑡 est observable à 𝑡0 s'il existe un temps fini 𝑡1 > 𝑡0 tel que :
𝑁0 𝑡1
𝑁1 (𝑡1 )
𝑟𝑎𝑛𝑔 =𝑛 (IV-92)
⋮
𝑁𝑛−1 (𝑡1 )
Avec :
- 26 -
𝑑
𝑁𝑚 +1 𝑡 = 𝑁𝑚 𝑡 𝐴 𝑡 + 𝑁𝑚 𝑡 ; 𝑚 = 0,1, … , 𝑛 − 1 ; 𝑎𝑣𝑒𝑐 𝑁0 = 𝐶(𝑡)(IV-93)
𝑑𝑡
Il faut mentionner ici que le théorème de dualité pour les systèmes invariants dans le temps
n'est pas applicable pour les systèmes variables dans le temps et doit être modifié.
1. La condition nécessaire et suffisante pour qu'un état 𝑥0 soit contrôlable est que
𝑥0 ∈ 𝐼𝑚(Γ𝐶 ). Le sous espace des états contrôlables d'une équation d'état est A
invariant { 𝑥 ∈ 𝑖𝑚𝑎𝑔𝑒 Γ𝐶 ⇒ 𝐴𝑥 ∈ 𝑖𝑚𝑎𝑔𝑒 Γ𝐶 }.
2. Le sous espace des états non-observables d'une réalisation est égal à 𝑘𝑒𝑟(Γ𝑂 ). Ce sous
espace est invariant par la matrice du système 𝐴. En plus, pour tout état initial
𝑥0 ∈ 𝑘𝑒𝑟 Γ𝑂 le signal 𝜂 𝑡 = 𝐶𝑒 𝐴𝑡 𝑥0 = 0. Ceci vient du faite que pour tout 𝑥0 ∈
𝐶
𝐶𝐴 𝐴𝑡 𝑖
𝑘𝑒𝑟 Γ𝑂 , on a 𝑥0 = 0 et 𝑒 𝐴𝑡 = ∞ 𝑖=0 𝑖! , et 𝑦 𝑡0 = 𝐶𝑒 𝐴𝑡 𝑥0 =
⋮
𝐶𝐴𝑛−1
∞ 𝑡𝑖
𝑖=0 𝐶𝐴𝑖 𝑥0 = 0 pour tout 𝑡 𝑒𝑡 𝑥0 du sous espace non observable.
𝑖!
- 27 -
car les 𝑣𝑖 sont linéairement indépendants et 𝐴𝑣𝑖 = 𝜆𝑖 𝑣𝑖 :
𝜉𝑖 𝑡 = 𝜆𝑖 𝜉𝑖 𝑡 + 𝛽𝑖 𝑡 ; 𝑖 = 1, … , 𝑛 (VI-95)
𝜉𝑖 𝑡 = 𝜉𝑖 𝑡 𝜆𝑖 + 𝜉𝑖+1 𝑡 + 𝛽𝑖 𝑡 (IV-96)
Pour une meilleur illustration, nous considérons le cas de la solution homogène 𝑥 𝑡 = 𝐴𝑥(𝑡)
avec une matrice 𝐴 qui a une forme de Jordan 𝐽𝐴 = 𝑇 −1 𝐴𝑇 purement diagonale 𝜉 = 𝑇 −1 𝑥(𝑡) :
La matrice 𝐽𝐴 (forme de Jordan) est purement diagonale (mais pas dans tous les cas) :
𝜆1 0 ⋯ 0 𝜉1 𝜆1 𝜉1
0 𝜆2 ⋱ ⋮ 𝜉2 = 𝜆2 𝜉2
𝐽𝐴 = ; (IV-98)
⋮ ⋱ ⋱ 0 ⋮ ⋮
0 ⋯ 0 𝜆𝑛 𝜉𝑛 𝜆𝑛 𝜉𝑛
A partir de cette équation le vecteur d'état 𝑥 𝑡 = 𝑇𝜉(𝑡) et l'équation (VI-95) peut s'écrire
sous la forme :
𝜆1 𝜉1
𝜆2 𝜉2 𝑛
𝑥 𝑡 = 𝑇𝜉 𝑡 = 𝑣1 ⋯ 𝑣𝑛 = 𝑖=1 𝜆𝑖 𝜉𝑖 𝑡 𝑣𝑖 (IV-99)
⋮
𝜆𝑛 𝜉𝑛
𝑛
∴ 𝑥𝑡 = 𝑖=1 𝒆𝝀𝒊 𝒕 𝒗𝒊 𝑞𝑖𝑇 𝑥 0 (IV-96)
Avec 𝑞𝑖𝑇 est la ligne 𝑖 𝑑𝑒 𝑇 −1. On remarque que 𝑥 𝑡 est une combinaison linéaire de 𝑒 𝜆𝑖 𝑡 𝑣𝑖
qui décrivent les n modes dynamiques du système. Ainsi la forme d'un mode est décrite par
- 28 -
son vecteur propre associé et son évolution dans le temps est décrite par la valeur propre
associée.
Même quand la forme de Jordan 𝐽𝐴 n'est pas diagonale, la forme modale reste très utile vue
qu'elle donne un aperçu sur les propriétés intrinsèques du système. La contrôlabilité, et
l'observabilité sont plus facilement évaluées et comprises la stabilité est clairement révélée.
En retenant seulement les modes dominant, un système d'ordre élevé peut être approximé
avec succès par un autre d'ordre inférieur.
- 29 -