Vous êtes sur la page 1sur 29

CHAP IV : Analyse des systèmes dans

l'espace d'état
IV.1. Introduction :
Dans le chapitre précédent, nous avons vu comment obtenir la représentation d'état des
systèmes. Dans ce chapitre, nous allons voir comment obtenir la solution des équations d'état
des systèmes linéaires. Ensuite, nous allons voir comment se fait l'analyse de la stabilité des
systèmes représentés dans l'espace d'état et nous allons introduire les concepts de
commandabilité et d'observabilité des systèmes.

Nous allons commencer par la résolution des équations d'état représentant des systèmes
linéaires invariants dans le temps. Ensuite, nous traiterons le cas des systèmes variables dans
le temps.

IV.2. Solution des équations d'état de systèmes linéaires invariants


dans le temps :
Considérons l'équation d'état linéaire invariante dans le temps :

𝒙 𝑡 = 𝑨𝒙 𝑡 + 𝑩𝒖(𝑡)
(IV-1)
𝒚 𝑡 = 𝑪𝒙 𝑡 + 𝑫𝒖(𝑡)

Avec 𝐴, 𝐵, 𝐶 𝑒𝑡 𝐷 des matrices constantes de dimensions respectives 𝑛 × 𝑛, 𝑛 × 𝑝, 𝑛 ×


𝑞 𝑒𝑡 𝑞 × 𝑝. Le problème est de trouver la solution excitée par l'état initial 𝒙(0) et par l'entrée
𝒖(𝑡). La solution tourne autour de la fonction exponentielle de matrices 𝑨. On a besoin de la
propriété suivante :
𝑑
𝑒 𝑨𝑡 = 𝑨𝑒 𝑨𝑡 = 𝑒 𝑨𝑡 𝑨 (IV-2)
𝑑𝑡

Pour développer la solution nous allons pré-multiplier les deux termes de la première équation
du système (IV-1) par 𝑒 −𝑨𝑡 :

𝑑 −𝑨𝑡
𝑒 −𝑨𝑡 𝒙 𝑡 − 𝑒 −𝑨𝑡 𝑨𝒙 𝑡 = 𝑒 −𝑨𝑡 𝑩𝒖 𝑡 ⇒ 𝑒 𝒙𝑡 = 𝑒 −𝑨𝑡 𝑩𝒖(𝑡)
𝑑𝑡
L'intégration de 0 à 𝑡 de cette équation donne :
𝑡
𝑡
𝑒 −𝑨𝝉 𝒙 𝜏 𝜏=0
= 𝑒 −𝑨𝑡 𝒙 𝑡 − 𝑒 𝟎 𝒙(0) = 𝑒 −𝑨𝜏 𝑩𝒖(𝜏)𝑑𝜏
0

Ce qui donne :
𝑡 𝑨(𝑡−𝜏)
𝒙 𝑡 = 𝑒 𝑨𝑡 𝒙 0 + 0
𝑒 𝑩𝒖(𝜏)𝑑𝜏 (IV-3)

-1-
L'équation (IV-3) obtenue est la solution de l'équation d'état donnée par la première équation
du système (IV-1). Pour démontrer ceci, on doit montrer que cette équation vérifie l'équation
(IV-1) ainsi que la condition initiale 𝑥 𝑡 = 𝑥 0 𝑝𝑜𝑢𝑟 𝑡 = 0.

Il est clair que l'équation (IV-3) vérifie la condition initiale. Maintenant, pour montrer qu'elle
vérifie aussi l'équation (IV-1), nous allons utiliser la propriété suivante :

𝜕 𝑡 𝜕 𝑧 𝜕 𝑑
𝑓 𝑡, 𝜏 𝑑𝜏 = 𝑓 𝑡, 𝜏 𝑑𝜏 = 𝐹 𝑡, 𝑧 𝑧=𝑡 = 𝐹 𝑡, 𝑧 𝑡
𝜕𝑡 𝑡0 𝜕𝑡 𝑡0 𝜕𝑡 𝑑𝑡 𝑧=𝑡
𝑧=𝑡
𝜕 𝜕 𝜕𝑧
= 𝐹 𝑡, 𝑧 𝑡 + 𝐹 𝑡, 𝑧 𝑡
𝜕𝑡 𝜕𝑧 𝜕𝑡 𝑧=𝑡
𝑧 𝑧
𝜕 𝜕
= 𝑓 𝑡, 𝜏 𝑑𝜏 + 𝑓 𝑡, 𝜏 𝑑𝜏
𝑡 0 𝜕𝑡 𝜕𝑧 𝑡0 𝑧=𝑡
𝑡 𝜕 𝜕
= 𝑓 𝑡, 𝜏 𝑑𝜏 + 𝐹 𝑡, 𝑧 − 𝐹(𝑡, 𝑡0 )
𝑡0 𝜕𝑡 𝜕𝑧 𝑧=𝑡
𝑡 𝑡
𝜕 𝜕
= 𝑓 𝑡, 𝜏 𝑑𝜏 + 𝑓 𝑡, 𝑧 − 0 𝑧=𝑡 = 𝑓 𝑡, 𝜏 𝑑𝜏 + 𝑓(𝑡, 𝑡)
𝑡0 𝜕𝑡 𝑡0 𝜕𝑡

La différentiation de l'équation (IV-3) donne :


𝑡 𝑡
𝑑 𝑨𝑡 𝜕
𝒙 𝑡 = 𝑒 𝒙0 + 𝑒 𝑨(𝑡−𝜏)𝑩𝒖(𝜏)𝑑𝜏 = 𝑨𝑒𝑨𝑡 𝒙 0 + 𝑒 𝑨(𝑡−𝜏)𝑩𝒖(𝜏)𝑑𝜏
𝑑𝑡 0 𝜕𝑡 0
𝑡
= 𝑨𝑒 𝑨𝑡 𝒙 0 + 𝑨𝑒 𝑨(𝑡−𝜏)𝑩𝒖(𝜏)𝑑𝜏 + 𝑒 𝑨 𝑡−𝜏 𝑩𝒖 𝜏
0 𝜏=𝑡

𝑡
= 𝑨 𝑒 𝑨𝑡 𝒙 0 + 𝑒 𝑨(𝑡−𝜏)𝑩𝒖(𝜏)𝑑𝜏 + 𝑩𝒖 𝜏 = 𝑨𝒙 𝑡 + 𝑩𝒖(𝑡)
0
=𝑥(𝑡)

Pour le calcul de la sortie, nous allons remplacer l'équation (IV-3) dans la deuxième équation
du système (IV-1), ce qui donne :
𝑡 𝑨 𝑡−𝜏
𝒚 𝑡 = 𝑪𝑒 𝑨𝑡 𝒙 0 + 𝑪 0
𝑒 𝑩𝒖 𝜏 𝑑𝜏 + 𝑫𝒖(𝑡) (IV-4)

Cette solution ainsi que celle de l'équation (IV-3) sont calculées directement dans le domaine
temporel. Nous pouvons aussi calculer ces solutions en utilisant la transformée de Laplace :

𝒙 𝑠 = 𝑠𝑰 − 𝑨 −1 𝒙 0 + 𝑩𝒖(𝑠)
(IV-5)
𝒚 𝑠 = 𝑪 𝑠𝑰 − 𝑨 −1 𝒙 0 + 𝑩𝒖(𝑠) + 𝑫𝒖(𝑠)

Une fois 𝒙 𝑠 et 𝒚 𝑠 sont calculées algébriquement, leurs transformées de Laplace inverses


donnent les solutions dans le domaine temporelle.

Maintenant, nous allons donner un résumé de quelques méthodes utilisées pour calculer 𝑒 𝑨𝑡 :

-2-
1. Utilisation du théorème de Hamilton (Toute matrice vérifie son polynôme caractéristique)
ce qui implique que : Pour toute fonction de matrice 𝑓(𝐴), ∃ un polynôme 𝑝(𝜆) de degré
𝑛 − 1 où 𝑛 = dim 𝐴 tel que 𝑓 𝐴 = 𝑝 𝐴 . Ce polynôme vérifie aussi 𝑓 𝜆𝑖 = 𝑝 𝜆𝑖
avec 𝜆𝑖 ∈ 𝑒𝑖𝑔 𝐴 . En premier lieu, on calcul les valeurs propres de A. Ensuite, on trouve
un polynôme 𝑕(𝜆) de degré (𝑛 − 1) qui est égale à 𝑒 𝜆𝑡 pour 𝜆 appartenant à l'ensemble
des valeurs propres de A; Alors :

𝑒 𝑨𝑡 = 𝑕 𝑨 = 𝛼0 𝐼 + 𝛼1 𝐴 + 𝛼2 𝐴2 + ⋯ + 𝛼𝑛−1 𝐴𝑛−1 . Les n coefficients 𝛼𝑘 , 𝑘 =


0,1, … , 𝑛 − 1 sont calculés à partir des n équations : 𝑒 𝝀𝒊𝑡 = 𝛼0 (𝑡) + 𝛼1 (𝑡)𝝀𝒊 + 𝛼2 (𝑡)𝝀𝒊 2 +
⋯ + 𝛼𝑛−1 (𝑡)𝜆𝑖 𝑛−1 , 𝑖 = 1,2, … , 𝑛. Notez que les 𝛼𝑖 (𝑡) sont fonction de t. Si certaines
valeurs propres sont répétées, utiliser les dérivées de cette équation par rapport à 𝜆𝑖 pour
obtenir les équations qui manquent. Ainsi, il faut résoudre pour 𝛼𝑖 l'équation :

1 𝜆1 𝜆1 2 ⋯ 𝜆1 𝑛−1 𝛼0 𝑒 𝜆1 𝑡
1 𝜆2 𝜆2 2 ⋯ 𝜆2 𝑛−1 𝛼1 𝑒 𝜆2 𝑡
⋮ =
⋮ ⋮ ⋮ ⋱ ⋮ ⋮
𝑛−1 𝛼𝑛−1
1 𝜆𝑛 𝜆𝑛 2 ⋯ 𝜆𝑛 𝑒 𝜆𝑛 𝑡

2. En utilisant la forme de Jordan de A : Soit 𝑨 = 𝑸𝑱𝑨 𝑸−1 ; 𝑒 𝑨𝑡 = 𝑸𝑒 𝑱𝑨 𝑡 𝑸−𝟏, où 𝑱𝑨est dans


la forme de Jordan par conséquent 𝑒 𝑱𝑨 𝑡 peut être facilement calculée. Notez que pour un
block de Jordan J de taille n, nous avons :
𝑡 2 𝜆𝑡 𝑡 3 𝜆𝑡 𝑡 𝑛−1
𝑒 𝜆𝑡 𝑡𝑒 𝜆𝑡 𝑒 𝑒 ⋯ 𝑒 𝜆𝑡
2! 3! (𝑛 − 1)!
𝑡 2 𝑡 𝑛−2
𝜆 1 0 ⋯ 0 𝜆𝑡 𝜆𝑡 𝜆𝑡
0 𝑒 𝑡𝑒 𝑒 ⋯ 𝑒 𝜆𝑡
0 𝜆 1 ⋱ ⋮ 2! (𝑛 − 2)!
𝐽 = ⋮ ⋱ ⋱ ⋱ 0 ; 𝑒 𝐽𝑡 = 𝑡 𝑛−3
0 0 0 𝜆 1 0 0 𝑒 𝜆𝑡 𝑡𝑒 𝜆𝑡 ⋱ 𝑒 𝜆𝑡
(𝑛 − 3)!
0 0 0 0 𝜆
⋮ ⋮ ⋮ ⋱ ⋱ ⋮
0 0 0 ⋯ 𝑒 𝜆𝑡 𝑡𝑒 𝜆𝑡
0 0 0 ⋯ 0 𝑒 𝜆𝑡
∞ 𝑨𝑘 𝑘
3. En utilisant la série de puissance correspondant à 𝑒 𝑨𝑡 = 𝑘=0 𝑘! 𝑡 : Cette technique ne
donne pas une expression littérale pour la solution mais elle est utile pour le calcul par
ordinateur.
4. Utilisation de la transformée de Laplace inverse : 𝑒 𝑨𝑡 = 𝑇𝐿−1 𝑠𝑰 − 𝑨 −1 .

Pour calculer l'inverse de 𝑠𝑰 − 𝑨 , on peut utiliser différentes méthodes :

1. Prendre l'inverse de 𝑠𝑰 − 𝑨 .
2. En utilisant le théorème sur le calcul de fonctions d'une matrice : Si on veut calculer la
fonction 𝑓(𝑨) on calcul les polynômes de l'expression : 𝑓 𝜆 = 𝑞 𝜆 Δ(𝜆) + 𝑕(𝜆), avec
ici 𝑓 𝜆 = 𝑠 − 𝜆 −1 (car la fonction est 𝑓 𝑨 = 𝑠𝑰 − 𝑨 −1 ; Δ(𝜆)est le polynôme
caractéristique de 𝑨alorsΔ 𝑨 = 0.𝑞 𝜆 le quotient qui est sans intérêt ici, et 𝑕(𝜆) est le
reste de la division qui est un polynôme de degré (𝑛 − 1). Pour calculer les coefficients

-3-
de 𝑕(𝜆), on évalue 𝑓 𝜆𝑖 ; 𝑖 = 1, … , 𝑛 pour les n valeurs propres de A. Ensuite, on résout
le système d'équation pour les coefficients de 𝑕(𝜆). Alors 𝑠𝑰 − 𝑨 −1 = 𝑕(𝑨).
−1 −1
3. En utilisant : 𝑠𝑰 − 𝑨 = 𝑸 𝑠𝑰 − 𝑨 𝑸−1 avec 𝑨forme de Jordan de A.
−1 ∞ 𝑨 𝑘
4. En utilisant la série de puissance 𝑠𝑰 − 𝑨 = 𝑠 −1 𝑘=0 𝑠 .

Nous allons maintenant examiner la forme de la solution de l'équation d'état pour une entrée
nulle (réponse du aux conditions ou à l'état initial). Si la matrice du système 𝐴 à la forme de
Jordan suivante :

𝜆1 1 0 0 0 𝑡 2 𝑒 𝜆1 𝑡
𝑒 𝜆1 𝑡 𝑡𝑒 𝜆1 𝑡 0 0
0 𝜆1 1 0 0 2
𝑨=𝑸 0 0 𝜆1 0 0 𝑸−1 ⇒ : 𝑒 𝑨𝑡 = 𝑸 0 𝑒 𝜆1 𝑡 𝑡𝑒 𝜆1 𝑡 0 0 𝑸−1
0 0 0 𝜆1 0 0 0 𝑒 𝜆1 𝑡 0 0
0 0 0 0 𝜆2 0 0 0 𝑒 𝜆1 𝑡 0
0 0 0 0 𝑒 𝜆2 𝑡

On remarque que toutes les composantes de la matrice 𝑒 𝑨𝑡 et par conséquent la réponse aux
conditions initiales (entrée nulle) est donnée par la combinaison linéaires des termes
𝑒 𝜆1 𝑡 , 𝑡𝑒 𝜆1 𝑡 , 𝑡 2 𝑒 𝜆1 𝑡 ; 𝑒 𝜆2 𝑡 . Ces termes sont dictés par les valeurs propres et leurs indices. Ils
sont tous analytiques dans le sens où ils sont infiniment différentiables et peuvent être
développés en séries de Taylor pour chaque t.

Si chaque valeur propre (simple ou répétée) de Aa une partie réelle négative alors chaque
réponse aux conditions initiales tend vers zéro quant t tend vers l'infini. Si Aa une valeur
propre simple ou répétée avec partie réelle positive, alors la pluparts des réponses aux
conditions initiales tendent vers l'infini quant t tend vers l'infini. Si Aa des valeurs propres
simples (non répétées) sur l'axe imaginaire alors aucune réponse aux conditions initiales
n'augmente de façon infinie. Par contre, si A a des valeurs propres répétées à partie réelle
nulle, alors la réponse à certaines conditions initiales augmente de façon infinie.

IV.3. Solution des équations d'état des systèmes linéaires variables


dans le temps :
Considérons le système linéaire variable dans le temps :

𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 + 𝑩 𝑡 𝒖(𝑡) (IV-6)

𝒚 𝑡 = 𝑪 𝑡 𝒙 𝑡 + 𝑫 𝑡 𝒖(𝑡) (IV-7)

On supposera que pour chaque condition initiale 𝒙(𝑡0 ) et chaque entrée 𝒖(𝑡), l'équation d'état
à une solution unique. Une condition suffisante pour une telle supposition est que chaque
composante de la matrice 𝑨(𝑡) est une fonction continue de t.

Nous allons commencer par la réponse due aux conditions initiales seules (entrée
identiquement nulle). Considérons :

-4-
𝒙 𝑡 =𝑨 𝑡 𝒙 𝑡 (IV-8)

Avec 𝑨 𝑡 une matrice de dimension 𝑛 × 𝑛 avec des fonctions continues comme composantes
de cette matrice. Alors pour chaque vecteur 𝒙𝑖 (𝑡0 ) de conditions initiales, il existe une
solution unique 𝒙𝑖 (𝑡), avec 𝑖 = 1,2, … , 𝑛. On peut arranger ces solutions dans les colonnes
d'une matrice carrée d'ordre n :

𝑿 = 𝒙1 𝒙2 ⋯ 𝒙𝑛 (IV-9)

Vu que chaque 𝒙𝑖 (𝑡) satisfait l'équation (IV-8) alors on peut écrire :

𝑿 𝑡 = 𝑨 𝑡 𝑿(𝑡) (IV-10)

Si 𝑿(𝑡0 ) est non singulière (c'est-à-dire les vecteurs 𝒙𝑖 𝑡0 , 𝑖 = 1, … , 𝑛 sont linéairement


indépendants), alors 𝑿(𝑡) est appelée une matrice fondamentale de (IV-8). Vu que les
conditions initiales peuvent être arbitrairement choisies, pourvu qu'ils soient linéairement
indépendants, alors la matrice fondamentale n'est pas unique.

Une propriété importante de la matrice fondamentale est que 𝑿(𝑡) est non singulière ∀ 𝑡.

Définition (IV.1):
Soit 𝑿(𝑡) une matrice fondamentale quelconque de 𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 . Alors :

𝚽 𝑡, 𝑡0 = 𝑿 𝑡 𝑿−1 (𝑡0 ) (IV-11)

Est appelée la matrice de transition d'état du système 𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 . La matrice de


transition d'état et aussi la solution unique de :

𝚽 𝑡, 𝑡0 = 𝐀(t)𝚽 𝑡, 𝑡0 (IV-12)
∂t

Avec la condition initiale 𝚽 𝑡0 , 𝑡0 = 𝑰

Vu que 𝑿(𝑡) est non singulière pour tout t, alors son inverse est bien définie. L'équation (IV -
12) résulte de l'équation (IV-10). La matrice de transition vérifie les propriétés suivantes. Pour
tout 𝑡, 𝑡0 , 𝑡1 :

𝚽 𝑡, 𝑡0 = 𝐀(t)𝚽 𝑡, 𝑡0
∂t
1. La matrice de transition vérifie (démo utilisant (IV-11)) : ∂ .
𝚽 𝑡, 𝑡0 = −𝚽 𝑡, 𝑡0 𝐀(t0 )
∂t 0
2. 𝚽 𝑡, 𝑡 = 𝑰; 𝚽 𝑡1 , 𝑡0 = 𝜃 𝑡1 𝜃 −1 (𝑡
0 ), propriété de séparation
3. −𝟏
𝚽 𝑡, 𝑡0 = 𝑿 𝑡 𝑿 𝑡0 −1 −𝟏 −1
= 𝑿 𝑡0 𝑿 𝑡 = 𝚽 𝑡0 , 𝑡
4. 𝚽 𝑡, 𝑡0 = 𝚽 𝑡, 𝑡1 𝚽 𝑡1 , 𝑡0
5. L'équation homogène (IV-8) avec condition initiale 𝒙 𝑡0 = 𝒙0 a comme solution :
𝒙 𝑡 = 𝚽 𝑡, 𝑡0 𝒙0 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑡.
𝑡1
6. La matrice de transition 𝚽 𝑡, 𝑡0 est non singulière. det 𝜱 𝑡1 , 𝑡0 =𝑒 𝑡 0 𝑡𝑟𝑎𝑐𝑒 𝐴 𝜏 𝑑𝜏 .

-5-
7. La matrice de transition peut être exprimée sous forme de séries : 𝚽 𝑡, 𝑡0 = 𝑰 +
𝑡 𝑡 𝜏
𝑡0
𝑨 𝜏 𝑑𝜏 + 𝑡 𝑡 1 𝑨 𝜏1 𝑨 𝜏2 𝑑𝜏2 𝑑𝜏1 + ⋯ +
0 0
𝑡 𝜏1 𝜏 𝑘 −1
𝑡0 𝑡0
… 𝑡0
𝑨 𝜏 1 𝑨 𝜏2 ⋯ 𝑨 𝜏𝑘 𝑑𝜏𝑘 ⋯ 𝑑𝜏2 𝑑𝜏1 +⋯

Théorème (IV.2) :
La solution de l'équation d'état (IV-6) : 𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 + 𝑩 𝑡 𝒖 𝑡 𝑝𝑜𝑢𝑟 𝒙 𝑡0 = 𝒙0 est
donnée par :
𝑡
𝒙 𝑡 = 𝝍 𝑡; 𝒙0 , 𝑡0 , 𝒖 = 𝚽 𝑡, 𝑡0 𝒙0 + 𝑡0
𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 = 𝚽 𝑡, 𝑡0 𝒙0 +
𝑡
𝑡0
𝚽 𝑡0 , 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 (IV-13)

Avec 𝚽 𝑡, 𝜏 la matrice de transition du système satisfaisant les propriétés 1 à 7 précédentes.


La sortie du système est donnée par :
𝑡
𝒚 𝑡 = 𝑪 𝑡 𝚽 𝑡, 𝑡0 𝒙0 + 𝑪 𝑡 𝑡0
𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 + 𝑫(𝑡)𝒖 𝑡 (IV-14)

Nous allons démontrer que cette solution vérifie la condition initiale ainsi que l'équation
d'état. Pour la condition initiale :
𝑡0
𝒙 𝑡0 = 𝝍 𝑡0 ; 𝒙0 , 𝑡0 , 𝒖 = 𝚽 𝑡0 , 𝑡0 𝒙0 + 𝚽 𝑡0 , 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 = 𝐈𝒙0 + 𝟎 = 𝒙𝟎
𝑡0
Pour l'équation d'état nous avons :
𝑑 𝜕 𝜕 𝑡
𝒙 𝑡 = 𝚽 𝑡, 𝑡0 𝒙0 + 𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏
𝑑𝑡 𝜕𝑡 𝜕𝑡 𝑡0
𝑡
𝜕
= 𝑨 𝑡 𝚽 𝑡, 𝑡0 𝒙0 + 𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 + 𝚽 𝑡, 𝑡 𝑩 𝑡 𝒖 𝑡
𝑡0 𝜕𝑡
𝑡
=𝑨 𝑡 𝚽 𝑡, 𝑡0 𝒙0 + 𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 + 𝑩 𝑡 𝒖 𝑡 = 𝒙(𝑡)
𝑡0
𝐱(t)
Pour obtenir l'expression de la sortie, on substitut (IV-13) dans (IV-7).

Remarque (IV-3) : (Propriétés de la solution de l'équation d'état de systèmes LVT)

1. La solution de l'équation d'état consiste en deux termes. Le premier terme exprime la


solution à l'équation homogène (avec 𝒖 𝑡 = 𝟎) pour tout 𝑡 ≥ 𝑡0 comme :
𝝍 𝑡; 𝒙0 , 𝑡0 , 𝟎 = 𝚽 𝑡, 𝑡0 𝒙0 (IV-15)
Et représente l'effet de l'état initial 𝒙0 sur l'état à l'instant t. Le deuxième terme exprime la
solution de l'équation d'état (IV-6) pour le cas où l'état initial 𝒙0 = 𝟎 comme :
𝑡
𝝍 𝑡; 𝟎, 𝑡0 , 𝒖 = 𝑡0
𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 (IV-16)
Et représente l'effet de l'entrée 𝒖 𝑡 0 ,𝑡 sur l'état à l'instant t. La sortie causée par ce terme peut
être exprimée par :

-6-
𝑡
𝒚 𝒕 =𝑪 𝑡 𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 + 𝑫 𝑡 𝒖 𝑡
𝑡0
𝑡 𝑡
= 𝑪 𝑡 𝚽 𝑡, 𝜏 𝑩 𝜏 + 𝑫 𝑡 𝛿 𝑡 − 𝜏 𝒖 𝜏 𝑑𝜏 = 𝑮(𝑡, 𝜏)𝒖 𝜏 𝑑𝜏
𝑡0 𝑮 𝑡 ,𝜏 𝑡0

Avec 𝑮(𝑡, 𝜏) la matrice de la réponse impulsionnelle.

2. Propriétés de décomposition : pour tout 𝑡, 𝑡0 , 𝒙0 , 𝑒𝑡 𝒖:


𝝍 𝑡; 𝒙0 , 𝑡0 , 𝒖 𝑡 0 ,𝑡 = 𝝍 𝑡; 𝒙0 , 𝑡0 , 𝟎 + 𝝍 𝑡; 𝟎, 𝑡0 , 𝒖 𝑡 0 ,𝑡
𝑃𝑎𝑟𝑡𝑖𝑒 𝑑𝑢𝑒 à𝒙0 𝑃𝑎𝑟𝑡𝑖𝑒 𝑑𝑢𝑒 à𝒖 𝑡 0 ,𝑡

Ces deux termes sont connus par différents noms tels que : (Solution homogène et
solution particulière), (Solution libre et solution forcée), (Réponse à entrée nulle et
réponse à état initial nul).
3. Linéarité de la réponse avec état initial nul (réponse forcée): pour tout 𝑡, 𝑡0 , 𝒖𝟏 . ,
𝒖𝟐 . , 𝛼1 , 𝛼2
𝝍 𝑡; 𝟎, 𝑡0 , 𝛼1 𝒖1𝑡 0 ,𝑡 + 𝛼2 𝒖2𝑡 0 ,𝑡 = 𝛼1 𝝍 𝑡; 𝟎, 𝑡0 , 𝒖1𝑡 0 ,𝑡 + 𝛼2 𝝍 𝑡; 𝟎, 𝑡0 , 𝒖2𝑡 0 ,𝑡
4. Linéarité de la réponse avec entrée identiquement nulle (réponse due à l'état initial) :
pour tout 𝑡, 𝑡0 , 𝒙10 , 𝒙20 , 𝛼1 , 𝛼2 :
𝝍 𝑡; 𝛼1 𝒙10 + 𝛼2 𝒙20 , 𝑡0 , 𝟎 = 𝛼1 𝝍 𝑡; 𝒙10 , 𝑡0 , 𝟎 + 𝛼2 𝝍 𝑡; 𝒙20 , 𝑡0 , 𝟎

IV.4. Réalisations des systèmes variables dans le temps :


Nous avons déjà exposé le problème de réalisation des systèmes invariants dans le temps,
nous avons dit que la condition nécessaire et suffisante est que la matrice de transfert soit
propre. Maintenant, nous allons examiner ce problème pour les systèmes variables dans le
temps. La transformée de Laplace ne peut être appliquée pour ce type de systèmes. Par
conséquent, nous allons étudier ce problème directement dans le domaine temporel.

Tout système linéaire variable dans le temps peut être décrit par la relation entrée/sortie
suivante :
𝑡
𝒚 𝑡 = 𝑡0
𝑮 𝑡, 𝜏 𝒖 𝜏 𝑑𝜏 (IV-17)

Et si le système et à paramètre non distribués (localisés ou non réparties), les équations d'état
(IV-6) et (IV-7) peuvent aussi être utilisées.

Si l'équation d'état est disponible la matrice de réponse impulsionnelle peut être calculée par :

𝑮 𝑡, 𝜏 = 𝑪 𝑡 𝚽 𝑡, 𝜏 𝑩 𝜏 + 𝑫 𝑡 𝛿 𝑡 − 𝜏 = 𝑪 𝑡 𝐗 t 𝐗−1 𝜏 𝑩 𝜏 + 𝑫 𝑡 𝛿 𝑡 −
𝜏 𝑝𝑜𝑢𝑟 𝑡 ≥ 𝜏 (IV-18)

Avec 𝑿(𝑡) la matrice fondamentale du système 𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 .

Le problème inverse est de trouver une équation d'état à partir d'une matrice de réponse
impulsionnelle donnée. Une matrice de réponse impulsionnelle est dite réalisable s'il existe
[𝑨 𝑡 , 𝑩 𝑡 , 𝑪 𝑡 , 𝑫(𝑡)] qui vérifient (IV-18).

-7-
Théorème (IV-4) :
Une matrice de réponse impulsionnelle 𝑮(𝑡, 𝜏) de dimension (𝑞 × 𝑝) est dite réalisable si et
seulement si 𝑮(𝑡, 𝜏) peut être décomposée comme :

𝑮 𝑡, 𝜏 = 𝑴 𝑡 𝑵 𝜏 + 𝑫 𝑡 𝛿(𝑡 − 𝜏) (IV-19)

Pour tout 𝑡 ≥ 𝜏, avec 𝑴, 𝑵, 𝑫 sont respectivement de dimension 𝑞 × 𝑛 , 𝑛 × 𝑝 , (𝑞 × 𝑝)


pour un entier n.

Démonstration :
Nécessité : Si 𝑮(𝑡, 𝜏) est réalisable, alors à partir de (IV-18) on identifie 𝑴 𝑡 = 𝑪 𝑡 𝐗 t et
𝑵 𝜏 = 𝐗 −1 𝜏 𝑩 𝜏 ce qui établie la nécessité.

Suffisance : Si la matrice de réponse impulsionnelle peut s'écrire sous la forme


𝑮 𝑡, 𝜏 = 𝑴 𝑡 𝑵 𝜏 + 𝑫 𝑡 𝛿(𝑡 − 𝜏), alors la représentation d'état de dimension n :

𝒙 𝑡 )=𝑵 𝑡 𝒖 𝑡
(IV-20)
𝒚 𝑡 = 𝑴 𝑡 𝒙 𝑡 + 𝑫 𝑡 𝒖(𝑡)

Est une réalisation de 𝑮(𝑡, 𝜏). En effet, une matrice fondamentale du système 𝒙 𝑡 =
𝟎𝒙 𝑡 est 𝑿 𝑡 = 𝑰. Par suite la matrice de la réponse impulsionnelle de (IV-20) est :

𝑮 𝑡, 𝜏 = 𝑴 𝑡 𝑰. 𝑰−𝟏 𝑵 𝜏 + 𝑫 𝑡 𝛿(𝑡 − 𝜏)

IV.5. Stabilité :
Dans cette section, nous allons étudier la stabilité des systèmes linéaires. La réponse d'un
système linéaire peut toujours être décomposée en la réponse pour état initial nul (due à l'effet
de l'entrée seulement) et la réponse pour entrée nulle (due à l'effet de l'état initial seul). Nous
allons étudier la stabilité de ces deux réponses de façon séparée. Nous commençons par les
systèmes invariants dans le temps, ensuite nous examinons les systèmes variables dans le
temps.

IV.5.1. Stabilité entrée/sortie des systèmes LTI :


Considérons le système à une seule entrée et une seule sortie décrit par :
𝑡 𝑡
𝑦 𝑡 = 0
𝑔 𝑡 − 𝜏 𝑢 𝜏 𝑑𝜏 = 0
𝑔 𝜏 𝑢 𝑡 − 𝜏 𝑑𝜏 (IV-21)

Avec 𝑔(𝑡) la réponse impulsionnelle. Notons que pour être décrit par l'équation (IV-21), le
système doit être linéaire invariant dans le temps et causal. En plus, le système doit être
initialement relaxé (c'est-à-dire l'état initial est nul 𝑥 0 = 0).

La stabilité que nous considérons ici est la stabilité entrée bornée/sortie bornée EBSB, c'est-à-
dire que la sortie excitée par une entrée qui est bornée doit être bornée.

Théorème (IV-5) :
Un système à une seule entrée et une seule sortie décrit par (IV-21) est EBSB stable si et
seulement si sa réponse impulsionnelle est absolument intégrable dans 0, ∞) où :

-8-

0
𝑔 𝑡 𝑑𝑡 ≤ 𝑀 < ∞, 𝑝𝑜𝑢𝑟 𝑢𝑛𝑒 𝑐𝑒𝑟𝑡𝑎𝑖𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑀 (IV-22)

Il faut noter qu'une fonction qui est absolument intégrable peut ne pas être bornée et ne pas
tendre vers zéro quand 𝑡 → ∞.

Théorème (IV-6) :
Si un système de réponse impulsionnelle 𝑔(𝑡)et de fonction de transfert 𝐺(𝑠)est EBSB stable,
alors quand 𝑡 → ∞ :

1. La sortie excitée par 𝑢 𝑡 = 𝑎, 𝑝𝑜𝑢𝑟 𝑡 ≥ 0 approche 𝐺 0 . 𝑎


2. La sortie excitée par 𝑢 𝑡 = sin 𝜔0 𝑡 , 𝑝𝑜𝑢𝑟 𝑡 ≥ 0approche 𝐺(𝑗𝜔0 ) sin⁡(𝜔0 𝑡 +
∠𝐺 𝑗𝜔0 ).

Ici 𝐺(𝑠) est la transformée de Laplace de 𝑔(𝑡)ou 𝐺 𝑠 = 0
𝑔 𝜏 𝑒 −𝜏𝑠 𝑑𝜏.

Théorème (IV-7) :
Un système à une seule entrée et une seule sortie avec une fonction de transfert rationnelle
propre 𝐺(𝑠) est EBSB stable si est seulement si chaque pôle de 𝐺(𝑠) à une partie réelle
négative ou de façon équivalente situé à l'intérieur du demi-plan de gauche.

Théorème (IV-8) :
Un système multi-variable avec matrice de réponse impulsionnelle 𝑮 𝑡 = 𝑔𝑖𝑗 (𝑡) est EBSB
stable si et seulement si 𝑔𝑖𝑗 (𝑡) est absolument intégrable dans [0, ∞).

Théorème (IV-9) :
Un système multi-variable avec une matrice de transfert rationnelle propre 𝑮 𝑠 = 𝑔𝑖𝑗 (𝑠)
est EBSB stable si et seulement si chaque pôle de 𝑔𝑖𝑗 (𝑠) a une partie réelle négative.

Maintenant, nous allons discuter la stabilité des systèmes représentés par les équations d'état
(IV-6,7). La matrice de transfert de tels systèmes est donnée par :
−𝟏 𝑩
𝑮 𝑠 = 𝑪 𝑠𝑰 − 𝑨 +𝑫 (IV-23)

La réponse pour état initial nul (due seulement à l'entrée) du système (IV-6,7) est EBSB stable
si et seulement si chaque pôle de 𝑮 𝑠 a une partie réelle négative. Rappelons que chaque
pôle de chaque composante de 𝑮 𝑠 est appelé pôle de 𝑮 𝑠 .

Nous discutons maintenant la relation entre les pôles de 𝑮 𝑠 et les valeurs propres de la
matrice A. Vu que :
1
𝑮 𝑠 = 𝑪 𝐴𝑑𝑗(𝑠𝑰 − 𝑨) 𝑩 + 𝑫 (IV-24)
det 𝑠𝑰−𝑨

Chaque pôle de 𝑮 𝑠 est une valeur propre de A. Par contre certaines valeurs propres de A ne
sont pas des pôles de 𝑮 𝑠 . Ainsi si chaque valeur propre de Aa une partie réelle négative,
alors chaque pôle de 𝑮 𝑠 à une partie réelle négative est le système est EBSB stable. Par

-9-
contre si certaines valeurs propres de A ont des parties réelles positives, alors, le système peut
être quand même stable.

IV.5.2. Stabilité interne :


La stabilité EBSB a été définie pour la réponse à état initial nul (réponse due seulement à
l'effet de l'entrée). Maintenant, nous examinons la stabilité de la réponse avec entrée nulle
(réponse due seulement à l'état initial) qui est la réponse du système :

𝒙 𝑡 = 𝑨𝒙 𝑡 (IV-25)

Quand il est excité par un état initial non nul 𝒙0 . La solution de (IV-25) est :

𝒙 𝑡 = 𝑒 𝑨𝑡 𝒙0 (IV-26)

Définition (IV-10) :
La réponse avec entrée nulle du système (IV-6,7) ou de l'équation 𝒙 𝑡 = 𝑨𝒙 𝑡 est
marginalement stable ou stable dans le sens de Lyapunov si chaque état initial fini 𝒙0 excite
une réponse bornée. Cette réponse est asymptotiquement stable si chaque état initial fini
excite une réponse bornée qui en plus tend vers 0quand 𝑡 → ∞.

Il faut mentionner que cette définition est applicable seulement aux systèmes linéaires.

Théorème (IV-11) :
1. L'équation 𝒙 𝑡 = 𝑨𝒙 𝑡 est marginalement stable si et seulement si toutes les valeurs
propres de A ont une partie réelle négative ou nulle et que les valeurs propres avec
partie réelle nulle sont des racines simples du polynôme minimal de A(un polynôme
minimal d'une matrice est le polynôme de plus petit degré qui accepte cette matrice
comme racine).
2. L'équation 𝒙 𝑡 = 𝑨𝒙 𝑡 est asymptotiquement stable si et seulement si toutes les
valeurs propres de A ont une partie réelle négative.

Pour une valeur propre 𝜆𝑖 de 𝐴 de multiplicité 𝑛𝑖 , on définie l’indice de 𝜆𝑖 dénoté par 𝑛𝑖 qui
est définit comme étant le plus grand ordre de tous les blocks de Jordan associés à 𝜆𝑖 . Le
polynôme minimal de 𝐴 peut être exprimé par : 𝜓 𝜆 = 𝑖 𝜆 − 𝜆𝑖 𝑛 𝑖 . Notez que 𝑛 = 𝑖 𝑛𝑖 ≤
𝑛 = dim⁡(𝐴)

Il faut mentionner, ici, que les transformations de similarité ne changent pas la stabilité.

Théorème de Lyapunov (IV-12) :


Toutes les valeurs propres de A ont une partie réelle négative si et seulement si pour tout
matrice symétrique définie positive 𝑵, l'équation de Lyapunov :

𝑨∗ 𝑴 + 𝑴𝑨 = −𝑵 (IV-27)

A une solution symétrique unique 𝑴 et cette solution est définie positive.

- 10 -
Ce théorème est parfois énoncé comme suit (C'est la version la plus utile) : L'origine du
système 𝑥 = 𝐴𝑥 est asymptotiquement stable si et seulement si étant donné une matrice
définie positive 𝑄 > 0 l'équation de Lyapunov 𝐴𝑇 𝑃 + 𝑃𝐴 = −𝑄 a une solution 𝑃 > 0.

(voir instruction "lyap" de MATLAB)

Démo : Suffisance : Si 𝑃 et 𝑄 sont définies positives alors 𝑥 𝑇 𝑃𝑥 est une fonction de


Lyapunov.

Nécessité : Si le système est asymptotiquement stable et 𝑄 > 0 alors par le théorème (IV-14)
∞ 𝑨∗ 𝑡
𝑃= 0
𝑒 𝑸𝑒 𝑨𝑡 𝑑𝑡.

Corollaire (IV-13) :
Toutes les valeurs propres d'une matrice 𝑛 × 𝑛 A ont des parties réelles négatives (A de
Hurwitz) si et seulement si pour toute matrice 𝑪 de dimension 𝑚 × 𝑛, 𝑎𝑣𝑒𝑐 𝑚 < 𝑛 et avec la
propriété :

𝑪
𝑟𝑎𝑛𝑘 Γ𝑂 = 𝑟𝑎𝑛𝑘 𝑪𝑨 = 𝑛 (à 𝑟𝑎𝑛𝑔 𝑝𝑙𝑒𝑖𝑛 𝑝𝑜𝑢𝑟 𝑙𝑒𝑠 𝑐𝑜𝑙𝑜𝑛𝑛𝑒𝑠) (IV-28)

𝑪𝑨𝒏−𝟏
Avec Γ𝑂 une matrice de dimension (𝑛𝑚 × 𝑛), l'équation de Lyapunov :

𝑨∗ 𝑴 + 𝑴𝑨 = −𝑪∗ 𝑪 (IV-29)

A une solution symétrique unique 𝑴est cette solution est définie positive.

Théorème (IV-14) :
Si toutes les valeurs propres de A ont des parties réelles négatives, alors l'équation de
Lyapunov :

𝑨∗ 𝑴 + 𝑴𝑨 = −𝑵 (IV-30)

A une solution unique pour toute N, et la solution peut être exprimée par :
∞ ∗
𝑴= 0
𝑒 𝑨 𝑡 𝑵𝑒 𝑨𝑡 𝑑𝑡 (IV-31)

IV.5.3. Stabilité des systèmes linéaires variables dans le temps LTV :


Considérons un système à une seule entrée et une seule sortie décrit par :
𝑡
𝑦 𝑡 = 𝑡0
𝑔 𝑡, 𝜏 𝑢 𝜏 𝑑𝜏 (IV-32)

Le système est dit EBSB stable si chaque entrée bornée excite une sortie bornée. La condition
pour que (IV-32) soit EBSB stable est qu'il existe un nombre M fini tel que :
𝑡
𝑡0
𝑔 𝑡, 𝜏 𝑑𝜏 ≤ 𝑀 < ∞ Pour tout t et 𝑡0 avec 𝑡 ≥ 𝑡0 (IV-33)

Pour un système multi-variable l'équation (IV-32) devient :

- 11 -
𝑡
𝒚 𝑡 = 𝑡0
𝑮 𝑡, 𝜏 𝒖 𝜏 𝑑𝜏 (IV-34)

La condition pour (IV-34) d'être EBSB stable est que chaque composante de 𝑮 𝑡, 𝜏 vérifie la
condition dans (IV-33). Pour les systèmes multi-variables, on peut aussi exprimer la condition
en termes de norme. Tous les normes peuvent être utilisées, cependant la norme infinie :

𝒖(𝒕) ∞ = 𝑚𝑎𝑥 𝑢𝑖 ; 𝑮(𝒕, 𝝉) ∞ = 𝑙𝑎 𝑝𝑙𝑢𝑠 𝑔𝑟𝑎𝑛𝑑𝑒 𝑠𝑜𝑚𝑚𝑒 𝑑′ é𝑙é𝑚𝑒𝑛𝑡𝑠 𝑑′𝑢𝑛𝑒 𝑙𝑖𝑔𝑛𝑒


𝑖

Est probablement la plus appropriée pour l'étude de la stabilité. La condition nécessaire et


suffisante pour que (IV-34) soit EBSB stable est qu'il existe un nombre fini 𝑴tel que :
𝑡
𝑡0
𝑮 𝑡, 𝜏 𝑑𝜏 ≤ 𝑀 < ∞ 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑡 𝑒𝑡 𝑡0 𝑎𝑣𝑒𝑐 𝑡 ≥ 𝑡0 (IV-35)

La matrice de réponse impulsionnelle du système (à une seule entrée) :

𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 + 𝑩 𝑡 𝒖(𝑡) (IV-36)

𝒚 𝑡 = 𝑪 𝑡 𝒙 𝑡 + 𝑫 𝑡 𝒖(𝑡)

Est :

𝑮 𝑡, 𝜏 = 𝑪 𝑡 𝚽 𝑡, 𝜏 𝑩 𝜏 + 𝑫 𝑡 𝛿(𝑡 − 𝜏) (IV-37)

Et la réponse à état initial nul est donnée par :


𝑡
𝒚 𝑡 = 𝑡0
𝑪 𝑡 𝚽 𝑡, 𝜏 𝑩 𝜏 𝒖 𝜏 𝑑𝜏 + 𝑫 𝑡 𝒖(𝑡) (IV-38)

Ainsi, le système (IV-36) ou plus précisément la réponse à état initial nul de (IV-36) est
EBSB stable si et seulement s'ils existent deux constantes 𝑀1 𝑒𝑡 𝑀2 tels que :
𝑡
𝑫(𝑡) ≤ 𝑀1 < ∞ 𝑒𝑡 𝑡0
𝑮 𝑡, 𝜏 𝑑𝜏 ≤ 𝑀2 < ∞ 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑡, 𝑡0 𝑡𝑞 𝑡 ≥ 𝑡0 (IV-39)

Dans ce qui suit, nous examinons la stabilité de la réponse à entrée nulle (c'est-à-dire due
seulement à l'effet de la condition initiale). La réponse à entrée nulle de (IV-36) ou l'équation
𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 est marginalement stable si chaque état initial fini excite une réponse
bornée. Vue que la réponse est gouvernée par :

𝐱 t = 𝚽 𝑡, 𝑡0 𝒙(𝑡0 ) (IV-40a)

On conclu que la réponse est marginalement stable si et seulement s'il existe une constante
M telle que :

𝚽 𝑡, 𝑡0 ≤ 𝑴 < ∞ 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑡0 𝑒𝑡 𝑡 ≥ 𝑡0 (IV-40b)

L'équation 𝒙 𝑡 = 𝑨 𝑡 𝒙 𝑡 est asymptotiquement stable si la réponse excitée par tout état


initial fini est bornée et tend vers zéro quand 𝑡 → ∞. Les conditions de stabilité asymptotique
sont les conditions (IV-40) et :

- 12 -
𝚽 𝑡, 𝑡0 → 𝟎 𝑞𝑢𝑎𝑛𝑑 𝑡 → ∞ (IV-41)

Remarques (IV-15) :
Ici il faut noter que pour les systèmes variables dans le temps, la stabilité asymptotique est la
stabilité marginale ne sont pas préservées par tout transformation de similarité. Seule la
stabilité EBSB est préservée ici parce que la matrice de réponse impulsionnelle est préservée.

Il faut aussi noter que dans le cas invariant dans le temps la stabilité asymptotique avec entrée
nulle implique toujours la stabilité EBSB de la réponse avec état initial nul. Ceci n'est pas
nécessairement le cas pour les systèmes variables dans le temps.

Théorème (IV-16) :
La stabilité marginale et la stabilité asymptotique sont préservées sous toute transformation de
Lyapunov.

IV.6. Contrôlabilité :
Définition (IV-17) :
L'équation d'état (IV-1) ou la paire (𝐴, 𝐵) est dite être contrôlable si pour tout état initial
𝑥 0 = 𝑥0 et tout état final 𝑥1 , il existe une entrée 𝑢(. ) qui déplace 𝑥0 à 𝑥1 en un temps fini.
Autrement (IV-1) ou la paire (𝐴, 𝐵) est dite être incontrôlable.

Cette définition exige seulement que l'entrée soit capable de déplacer tout état dans l'espace
d'état à n'importe quel état en un temps fini. La trajectoire que l'état doit suivre pour faire ce
déplacement n'est pas spécifié. En plus, il n y a aucune contrainte sur la commande 𝑢(. ).

Théorème (IV-18) :
Les propositions suivantes sont équivalentes :

1. La paire (𝐴, 𝐵) de dimension n est contrôlable.


2. La matrice de dimension (𝑛 × 𝑛)
𝑡 𝐴𝜏 𝑇 𝑡 𝐴 𝑡−𝜏 𝑇 𝑡−𝜏
𝑊𝑐 𝑡 = 0
𝑒 𝐵𝐵𝑇 𝑒 𝐴 𝜏 𝑑𝜏 = 0
𝑒 𝐵𝐵𝑇 𝑒 𝐴 𝑑𝜏 > 0 (IV-42)

Est définie positive (le faite qu'elle soit non singulière suffit).

3. La matrice de contrôlabilité de dimension (𝑛 × 𝑛𝑝) :


Γ𝐶 = 𝐵 𝐴𝐵 𝐴2 𝐵 ⋯ 𝐴𝑛−1 𝐵 a un rang plein (rang=n).
1. La matrice 𝐴 − 𝜆𝑖 𝐼 𝐵 a un rang plein (égal au nombre de ses lignes) pour toutes les
valeurs propres 𝜆𝑖 de A. Ou de façon équivalente pour tout vecteur propre gauche 𝑤𝑖
de 𝐴 associé à 𝜆𝑖 (𝑤𝑖𝐻 𝐴 = 𝜆𝑖 𝑤𝑖𝐻 ) : 𝑤𝑖𝐻 𝐵 ≠ 0, i=1,...,n.
4. Si en plus toutes les valeurs propres de la matrice A ont des parties réelles négatives,
alors la solution unique de l'équation de Lyapunov suivante :
𝐴𝑊𝑐 + 𝑊𝑐 𝐴𝑇 = −𝐵𝐵𝑇 (IV-43)
Est définie positive. Cette solution est appelée le gramian de contrôlabilité et peut être
exprimé par :

- 13 -
+∞ 𝑇
𝑊𝑐 = 0
𝑒 𝐴𝜏 𝐵𝐵𝑇 𝑒 𝐴 𝜏 𝑑𝜏 (IV-44)

Pouwr tout 𝑥 𝑡0 = 𝑥0 et tout 𝑥 𝑡1 = 𝑥1 la commande suivante :


𝑇 𝑡 −𝑡
𝑢 𝑡 = −𝐵𝑇 𝑒 𝐴 1 𝑊𝑐−1 (𝑡1 ) 𝑒 𝐴𝑡 1 𝑥0 − 𝑥1 (IV-45a)

va déplacer 𝑥0 à 𝑥1 au temps 𝑡1 . Cette commande est appelée la commande à énergie


minimale dans le sens où pour toute autre commande 𝑢′ (. ) qui accomplie le même objectif on
a:
𝑡 1 ′𝑇 𝑡1 𝑇
𝑡0
𝑢 𝑡 𝑢′ 𝑡 𝑑𝑡 ≥ 𝑡0
𝑢 𝑡 𝑢 𝑡 𝑑𝑡 (IV-45b)

Pour les réalisations sous forme canonique du contrôleur on a Γ𝐶2 = 𝛾1 𝛾2 ⋯ 𝛾𝑛 tel


que 𝛾𝑖+1 = 𝐴𝛾𝑖 et vue la structure de 𝐴 :
𝛾1, 𝑖+1 −𝛼𝑛−1 −𝛼𝑛−2 −𝛼𝑛−3 ⋯ −𝛼0 𝛾1, 𝑖 ∗
𝛾2, 𝑖+1 1 0 0 ⋯ 0 𝛾2, 𝑖 𝛾1, 𝑖
𝛾𝑖 +1 𝛾
= 3, 𝑖+1 = 0 1 0 ⋯ 0 𝛾3, 𝑖 = 𝛾2, 𝑖
⋮ ⋮ ⋱ ⋱ ⋱ ⋮ ⋮ ⋮
𝛾𝑛 , 𝑖+1 0 ⋯ 0 1 0 𝛾𝑛 , 𝑖 𝛾𝑛−1, 𝑖

Mis à part le premier élément de la colonne 𝑖 + 1 qui doit être calculé, les autres éléments
sont obtenue en décalant les éléments de la colonne précédente d'une position vers le bas. La
première colonne est la matrice 𝐵𝐶2 . Ainsi :

1 ∗ ∗ ⋯ ∗
0 1 ∗ ⋯ ∗
Γ𝐶2 = 𝐵 𝐴𝐵 𝐴2 𝐵 ⋯ 𝑛−1
𝐴 𝐵 = 0 0 1 ⋯ ⋮ (IV-46a)
⋮ ⋱ ⋱ ⋱ ∗
0 ⋯ 0 0 1

Ceci implique que det Γ𝐶2 = 1. En procédant la même façon on peut établir que det Γ𝑂2 =
1. Pour la forme canonique contrôlable, on peut de la même manière démontrer que Γ𝐶1 est
sous la forme :

0 0 0 ⋯ 1
⋮ ⋮ ⋮ ⋰ ∗ 𝑛 𝑛−1
𝑠𝑖 𝑝𝑎𝑖𝑟𝑒 𝑜ù 2 𝑠𝑖 𝑖𝑚𝑝𝑎𝑖𝑟𝑒
Γ𝐶1 = 0 0 1 ⋰ ⋮ ; 𝑎𝑖𝑛𝑠𝑖 det Γ𝐶1 = det Γ𝑂1 = −1 2 (IV-
0 1 ∗ ⋯ ∗
1 ∗ ∗ ⋯ ∗
46b)

IV.6.1. Indices de contrôlabilité :


Soit A et B deux matrices constantes de dimensions respectives 𝑛 × 𝑛, 𝑛 × 𝑝. On suppose que
B à un rang plein (c'est-à-dire de rang p). Si B n'a pas un rang plein, il y a une redondance
dans les entrées. Par exemple, si la seconde colonne de B est égale à la première colonne de
B, alors l'effet sur le système de la deuxième entrée peut être généré à partir de la première
entrée. Alors la deuxième entrée est redondante. En conclusion, la suppression des colonnes

- 14 -
dépendantes de B et les entrées correspondantes n'affecte pas la commande du système. Ainsi
il est raisonnable de supposer que B a un rang plein pour les colonnes.

Si la paire (𝐴, 𝐵) est contrôlable, alors sa matrice de contrôlabilité Γ𝐶 aura un rang égale à n
et, par conséquent, n colonnes linéairement indépendantes. Notons que Γ𝐶 à 𝑛𝑝colonnes; par
conséquent il est possible de trouver plusieurs combinaisons de n colonnes linéairement
indépendantes. Dans ce qui suit, nous allons discuter la façon la plus importante de chercher
ces colonnes; cette méthode est aussi la plus naturelle. Soit 𝑏𝑖 la 𝑖è𝑚𝑒 colonne de B. Alors Γ𝐶
peut être écrite sous la forme :

Γ𝐶 = 𝑏1 ⋯ 𝑏𝑝 𝐴𝑏1 ⋯ 𝐴𝑏𝑝 𝐴𝑛−1 𝑏1 ⋯ 𝐴𝑛−1 𝑏𝑝 (IV-47)

Nous allons rechercher les colonnes linéairement indépendantes de Γ𝐶 de la gauche vers la


droite. A cause de la structure de Γ𝐶 , si 𝐴𝑙 𝑏𝑚 dépend des colonnes qui sont à sa gauche, alors
𝐴𝑙+1 𝑏𝑚 va aussi dépendre des colonnes qui sont à sa gauche. Ceci signifie qu’une fois une
colonne associée avec 𝑏𝑚 devient linéairement dépendante, alors toutes les colonnes associées
à 𝑏𝑚 par la suite sont linéairement dépendantes. Soit 𝜇𝑚 le nombre de colonnes linéairement
indépendantes associées avec 𝑏𝑚 dans Γ𝐶 . C'est-à-dire les colonnes :

𝑏𝑚 , 𝐴𝑏𝑚 , 𝐴2 𝑏𝑚 , … , 𝐴𝜇 𝑚 −1 𝑏𝑚 (IV-48)

Sont linéairement indépendantes dansΓ𝐶 et 𝐴𝜇 𝑚 𝑏𝑚 sont linéairement dépendantes pour


𝑖 = 0,1 … Il est clair que si Γ𝐶 a un rang n, alors :

𝜇1 + 𝜇2 + ⋯ + 𝜇𝑝 = 𝑛 (IV-49)

L'ensemble 𝜇1 , 𝜇2 , … , 𝜇𝑝 est appelé les indices de contrôlabilité. Et :

𝜇 = max⁡( 𝜇1 , 𝜇2 , … , 𝜇𝑝 ) (IV-50)

Est appelé indice de contrôlabilité de la paire (𝐴, 𝐵). Ou de façon équivalente, si (𝐴, 𝐵) est
contrôlable, l'indice de contrôlabilité et le plus petit entier tel que :

𝑟𝑎𝑛𝑔 𝐶𝜇 = 𝑟𝑎𝑛𝑔 𝐵 𝐴𝐵 ⋯ 𝐴𝜇 −1 𝐵 =𝑛 (IV-51)

L'indice de contrôlabilité vérifie l'inégalité suivante :


𝑛
≤ 𝜇 ≤ min⁡({𝑛, 𝑛 − 𝑝 + 1}) (IV-52)
𝑝

Avec 𝑝 = 𝑟𝑎𝑛𝑔 𝐵 et 𝑛 le degré du polynôme minimal de A (c'est-à-dire ∃𝛼𝑖 tels que


𝐴𝑛 = 𝛼𝑛 −1 𝐴𝑛 −1 + 𝛼𝑛 −2 𝐴𝑛 −2 + ⋯ + 𝛼𝑛 𝐼).

Corollaire (IV-19) :
La paire 𝐴, 𝐵 de dimension n est contrôlable si et seulement si la matrice :

Γ𝐶(𝑛−𝑝+1) = 𝐵 𝐴𝐵 ⋯ 𝐴𝜇 −𝑝 𝐵 𝑎𝑣𝑒𝑐 𝑝 = 𝑟𝑎𝑛𝑔(𝐵) (IV-53)

a un rang n, ou que la matrice Γ𝐶 (𝑛−𝑝+1)Γ𝐶𝑇 𝑛−𝑝+1 est non singulière.

- 15 -
Théorème (IV-20) :
La propriété de contrôlabilité est invariante sous toute transformation de similarité.

Théorème (IV-21) :
L'ensemble des indices de contrôlabilité est invariant sous toute transformation de similarité et
tout changement d'ordre des colonnes de B.

IV.7. Observabilité :
Le concept d'observabilité est dual à celui de contrôlabilité. Grossièrement parlant, la
contrôlabilité étudie la possibilité de gouverner les états à partir des entrées; l'observabilité
étudie la possibilité d'estimer les états à partir des sorties. Ces deux concepts sont définis sous
la supposition que toutes les matrices A, B, C, et D de l'équation d'état sont connues.

Considérons l'équation d'état de dimension n avec p entrées et q sorties suivante :

𝑥 = 𝐴𝑥 + 𝐵𝑢
(IV-54)
𝑦 = 𝐶𝑥 + 𝐷𝑢

Avec A, B, C et D sont des matrices constantes de dimensions respectives 𝑛 × 𝑛, 𝑛 × 𝑝, 𝑞 ×


𝑛 𝑒𝑡 𝑞 × 𝑝.

Définition (IV-22):
L'équation d'état (IV-54) est dite être observable si pour tout état initial inconnu 𝑥(0),
∃ 𝑡1 > 0 tel que la connaissance de l'entrée et de la sortie sur l'intervalle [0, 𝑡1 ] suffit pour
déterminer de façon unique l'état initial 𝑥(0). Autrement l'équation est dite être non
observable.

La sortie de (IV-54) excitée par l'état initial 𝑥(0) et l’entrée 𝑢(𝑡) est dérivée dans (IV-4)
comme :
𝑡 𝑨 𝑡−𝜏
𝒚 𝑡 = 𝑪𝑒 𝑨𝑡 𝒙 0 + 𝑪 0
𝑒 𝑩𝒖 𝜏 𝑑𝜏 + 𝑫𝒖(𝑡) (IV-55)

Dans l'étude de l'observabilité, l'entrée 𝑢(𝑡) et la sortie 𝑦(𝑡) sont supposées connues; l'état
initial et le seul inconnu. Ainsi on peut écrire (IV-55) sous la forme :
𝑡 𝑨 𝑡−𝜏
𝑪𝑒 𝑨𝑡 𝒙 0 = 𝒚 𝑡 𝑎𝑣𝑒𝑐 𝒚 𝑡 = 𝒚 𝑡 − 𝑪 0
𝑒 𝑩𝒖 𝜏 𝑑𝜏 − 𝑫𝒖(𝑡)(IV-56)

𝒚 𝑡 est une fonction connue. Le problème d'observabilité se réduit à tirer 𝑥(0) à partir de
l'équation (IV-56). Si 𝑢 ∙ = 0, 𝒚 𝑡 sera réduit à la réponse à entrée nulle 𝑪𝑒 𝑨𝑡 𝒙 0 . Ainsi,
la définition (IV-22) peut être modifiée à : L'équation (IV-54) est observable si et seulement si
l'état initial 𝑥(0) peut être déterminé uniquement de sa réponse à entrée nulle à travers un
intervalle de temps finie.

Dans ce qui suit, nous discutons comment résoudre l'équation (IV-56) pour 𝑥(0). Pour un t
fixe, 𝐶𝑒 𝐴𝑡 est une matrice constante de dimension 𝑞 × 𝑛 et 𝒚 𝑡 est un vecteur constant de
dimension 𝑞 × 1.Ainsi, l'équation (IV-56) est un système d'équations algébriques linéaires à n

- 16 -
inconnus. Vue la façon avec laquelle ce système d'équation est développé, pour chaque t fixe,
𝒚 𝑡 est dans l'ensemble image de 𝐶𝑒 𝐴𝑡 et des solutions existent toujours pour l'équation (IV-
56). La seule question est si la solution est unique. Si 𝑞 < 𝑛, comme c'est le cas en général, la
matrice 𝐶𝑒 𝐴𝑡 a un rang au plus égal à q, et par conséquent à une nullité de 𝑛 − 𝑞 ou plus.
Ainsi les solutions ne sont pas uniques. En conclusion on ne peut pas trouver un 𝑥(0) unique
pour un t isolé. Afin de déterminer de façon unique 𝑥(0) pour (IV-56), on doit utiliser les
informations sur 𝑢(𝑡) et 𝑦(𝑡) sur un intervalle non nul de temps comme sera énoncer dans le
théorème suivant :

Théorème (IV-23) :
L'équation d'état (IV-56) est observable si et seulement si la matrice de dimension 𝑛 × 𝑛 :
𝑡 𝐴𝑇 𝜏 𝑇
𝑊𝑜 𝑡 = 0
𝑒 𝐶 𝐶𝑒 𝐴𝜏 𝑑𝜏 (IV-57)

Est non singulière pour tout 𝑡 > 0.

𝑇
Si on pré-multiplie l'équation (IV-56) par 𝑒 𝐴 𝑡 𝐶 𝑇 et qu'on l'intègre sur l'intervalle [0, 𝑡1 ] on
obtient :
𝑡 1 𝐴𝑇 𝑡 𝑇 𝑡 1 𝐴𝑇 𝑡 𝑇
0
𝑒 𝐶 𝐶𝑒 𝐴𝑡 𝑑𝑡 𝑥 0 = 0
𝑒 𝐶 𝑦(𝑡)𝑑𝑡 (IV-58)

Si 𝑊𝑜 𝑡 est non singulier, alors :


𝑡 1 𝐴𝑇 𝑡 𝑇
𝑥 0 = 𝑊𝑜−1 𝑡1 0
𝑒 𝐶 𝑦(𝑡)𝑑𝑡 (IV-59)

Ceci donne une solution 𝑥(0) unique.

On voit que l'observabilité dépend seulement de la paire (𝐴, 𝐶) et elle est indépendante de
𝐵 𝑒𝑡 𝐷. Comme pour la contrôlabilité, si 𝑊𝑜 (𝑡) est non singulière pour t donné, alors elle est
non singulière pour tout t et l'état initial peut être calculé à partir de (IV-59) en utilisant
n'import quel intervalle non nul.

Théorème de dualité (IV-24) :


La paire (𝐴, 𝐵) est contrôlable si et seulement si la paire (𝐴𝑇 , 𝐵𝑇 ) est observable.

La démonstration est simple :


𝑡
𝑇
𝐴, 𝐵 𝑒𝑠𝑡 𝑐𝑜𝑛𝑡𝑟ô𝑙𝑎𝑏𝑙𝑒 ⇔ 𝑊𝑐 𝑡 = 𝑒 𝐴𝑡 𝐵𝐵𝑇 𝑒 𝐴 𝑡 𝑑𝑡 𝑒𝑠𝑡 𝑑é𝑓𝑖𝑛𝑖 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑒
0
𝑡
𝑇
𝐴𝑇 , 𝐵𝑇 𝑒𝑠𝑡 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑏𝑙𝑒 ⇔ 𝑊𝑜 𝑡 = 𝑒 𝐴𝑡 𝐵𝐵𝑇 𝑒 𝐴 𝑡 𝑑𝑡 𝑒𝑠𝑡 𝑑é𝑓𝑖𝑛𝑖 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑒
0

Ces deux conditions sont identiques.

- 17 -
Maintenant, nous allons donner l'énoncé du théorème dual au théorème (IV-18) qui peut être
prouvé par dualité.

Théorème (IV-25) :
Les propositions suivantes sont équivalentes :

2. La paire (𝐴, 𝐶) de dimension n est observable.


𝑡 𝐴𝑇 𝑡 𝑇
3. La matrice de dimension 𝑛 × 𝑛𝑊𝑜 𝑡 = 0
𝑒 𝐶 𝐶𝑒 𝐴𝑡 𝑑𝑡 est non singulière pour tout
𝑡 > 0.
4. La matrice d'observabilité de dimension 𝑛𝑞 × 𝑛 :
𝐶
𝐶𝐴
Γ𝑂 = (VI-60)

𝐴𝑛−1
est a rang égale à n (rang plein pour les colonnes).
𝐴 − 𝜆𝑖 𝐼
5. La matrice de dimension (𝑛 + 𝑞) × 𝑞 : a un rang plein pour les colonnes
𝐶
(rang n) pour tout valeur propre 𝜆𝑖 de A. Ou de façon équivalente pour tout vecteur
propre droit de 𝐴 associé à 𝜆𝑖 (𝐴𝑣𝑖 = 𝜆𝑖 𝑣𝑖 ) : 𝐶𝑣𝑖 ≠ 0, i=1,...,n.
6. Si en plus, toutes les valeurs propres de 𝐴 ont une partie réelle négative, alors la
solution unique de l'équation de Lyapunov
𝐴𝑇 𝑊𝑜 + 𝑊𝑜 𝐴 = −𝐶 𝑇 𝐶 (VI-61)
est définie positive. La solution est appelée le gramian d'observabilité est elle peut être
exprimée comme :
+∞ 𝐴 𝑇 𝑡 𝑇
𝑊𝑜 = 0
𝑒 𝐶 𝐶𝑒 𝐴𝑡 𝑑𝑡 (VI-62)

IV.7.1. Indices d'observabilité :


Soit A et C deux matrices de dimension respectives 𝑛 × 𝑛et 𝑞 × 𝑛. Nous supposons que C a
un rang égale à 𝑞 (rang plein pour les lignes). Si C n'a pas un rang plein pour les lignes, alors,
la sortie à une terminale de sortie peut être exprimée comme une combinaison linéaire d'autres
sorties. Ainsi la sortie, n'offre aucune nouvelle information concernant le système et ce
terminal peut être éliminé en supprimant la ligne qui lui correspond. La matrice C réduite doit,
alors, avoir un rang plein pour les lignes.

Si (𝐴, 𝐶) est observable, sa matrice d'observabilitéΓ𝑂 à un rang n et, par conséquent, n lignes
linéairement indépendantes. Soit 𝑐𝑖 la ième ligne de C. Cherchons les lignes linéairement
indépendant de Γ𝑂 dans l'ordre de haut vers le bas. De façon duale à la contrôlabilité, si une
ligne associée à 𝑐𝑚 devient linéairement dépendante sur les lignes supérieures, alors toutes les
lignes suivantes associées avec 𝑐𝑚 seront aussi linéairement dépendantes. Soit 𝑣𝑚 le nombre
de lignes linéairement indépendantes associées avec 𝑐𝑚 . Il est clair que si Γ𝑂 a un rang n, alors
:

𝑣1 + 𝑣2 + ⋯ + 𝑣𝑞 = 𝑛 (VI-63)

L'ensemble 𝑣1 , 𝑣2 , ⋯ , 𝑣𝑛 est appelé les indices d'observabilité et :

- 18 -
𝑣 = max⁡( 𝑣1 , 𝑣2 , ⋯ , 𝑣𝑛 ) (VI-64)

Est appelé indice d'observabilité de 𝐴, 𝐶 . Si (𝐴, 𝐶) est observable, c'est le plus petit entier tel
que :

𝐶
𝐶𝐴
𝑟𝑎𝑛𝑔 Γ𝑂𝑣 = 𝐶𝐴2 = 𝑛 (VI-65)

𝐶𝐴𝑣−1
De façon duale à la partie de contrôlabilité, nous avons :
𝑛
≤ 𝑣 ≤ min⁡( 𝑛, 𝑛 − 𝑞 + 1 ) (VI-66)
𝑞

Où q est le rang de la matrice C et 𝑛 est le degré du polynôme minimal de la matrice A.

Corollaire (VI-26) :
La paire (𝐴, 𝐶) de dimension n est observable si et seulement si la matrice :

𝐶
𝐶𝐴
Γ𝑂𝑛−𝑞 +1 = 𝐶𝐴2 (IV-67)

𝐶𝐴𝑛−𝑞

(avec C de rang q), à un rang égal à n, ou la matrice Γ𝑂𝑇𝑛 −𝑞+1 ∗ Γ𝑂𝑛−𝑞 +1 est non singulière.

Théorème (IV-27) :
La propriété d'observabilité est invariante sous toute transformation de similarité.

Théorème (IV-28) :
L'ensemble des indices d'observabilité de la paire (𝐴, 𝐶) est invariant sous toute
transformation de similarité et sous toute changement d'ordre des lignes de C.

Avant de conclure cette section, nous donnons une méthode pour résoudre l'équation (IV-56).
En prenant la dérivée de (IV-56) de façon répétée et en fixant 𝑡 = 0, nous pouvons obtenir :

𝐶 𝑦(0)
𝐶𝐴 𝑦(0)
2
𝐶𝐴 𝑥 0 = 𝑦(0) ; 𝑜𝑢 Γ𝑂𝑣 𝑥 0 = 𝑌 (0) (IV-68)
⋮ ⋮
𝐶𝐴𝑛−𝑞 𝑦 (𝑣−1)(0)

𝑇 𝑇
Où 𝑦 (𝑖) (0) est la ième dérivée de 𝑦 (𝑡), et 𝑌 0 = 𝑦 𝑇 0 𝑦𝑇 0 ⋯ 𝑦 𝑣−1 0 .

L'équation (IV-68) est un ensemble d'équations algébriques linéaires. Selon la façon dont il
est développé, 𝑦 (0) doit se trouver dans l'espace image de Γ𝑂𝑣 . Ainsi une solution 𝑥(0) existe

- 19 -
dans (IV-68) . Si (𝐴, 𝐶) est observable, alors Γ𝑂𝑣 a un rang plein pour les colonnes et la
solution est alors unique. Et la solution est donnée par :
−1 𝑇
𝑥 0 = Γ𝑂𝑇𝑣 Γ𝑂𝑣 Γ𝑂𝑣 𝑌 (0) (IV-69)

On doit mentionner que pour obtenir 𝑦 0 , 𝑦 0 , ⋯ nous avons besoin de connaître 𝑦 (𝑡) dans
le voisinage de 𝑡 = 0. Ceci est consistant avec l'assertion (affirmation) qu'on a besoin de
connaître 𝑦 (𝑡) sur un intervalle de temps non nul pour déterminer 𝑥(0) de façon unique à
partir de (IV-56). Vue que la différentiation amplifie le bruit contenue dans le signal 𝑦(𝑡),
l'utilisation de l'expression (IV-56) pour déterminer 𝑥(0) est préférable à l'utilisation de (IV-
68,69).

IV.8. Décomposition canonique :


Dans cette section nous allons discuter la décomposition canonique des équations d'état. Ce
résultat fondamental sera utilisé pour établir la relation entre la description de l'équation d'état
et la matrice de transfert. Considérons :

𝑥 = 𝐴𝑥 + 𝐵𝑢
(IV-70)
𝑦 = 𝐶𝑥 + 𝐷𝑢

Soit 𝑥 = 𝑇 −1 𝑥, où T est une matrice non singulière. Alors l'équation d'état :

𝑥 = 𝐴𝑥 + 𝐵 𝑢
(IV-71)
𝑦 = 𝐶 𝑥 + 𝐷𝑢

Avec 𝐴 = 𝑇 −1 𝐴𝑇, 𝐵 = 𝑇 −1 𝐵, 𝐶 = 𝐶𝑇, and 𝐷 = 𝐷 est équivalente à (IV-70). Toutes les


propriétés de (IV-70) sont conservées dans (IV-71) y compris la stabilité, la contrôlabilité,
l'observabilité. Nous avons aussi :

Γ𝐶 = 𝑇 −1 Γ𝐶 ; Γ𝑂 = Γ𝑂 𝑇 (IV-72)

Théorème (VI-29) :
Considérons l'équation d'état (IV-70) de dimension n avec :

𝑟𝑎𝑛𝑔 Γ𝐶 = 𝑛1 < 𝑛 (IV-73)

Nous formons la matrice 𝑛 × 𝑛 :

𝑇 = 𝑞1 ⋯ 𝑞𝑛 1 ⋯ 𝑞𝑛 (IV-74)

Où les premiers 𝑛1 colonnes sont toutes 𝑛1 colonnes linéairement indépendantes de Γ𝐶 , et les


colonnes qui restent peuvent être arbitrairement choisies pourvu que P soit non singulière.
Alors la transformation de similarité 𝑥 = 𝑇 −1 𝑥 transformera (IV-70) en :

- 20 -
𝑥𝑐 𝐴 𝐴12 𝑥𝑐
= 𝑐 + 𝐵𝑐 𝑢
𝑥𝑐 0 𝐴𝑐 𝑥𝑐 0 (IV-75)
𝑥𝑐
𝑦 = 𝐶𝑐 𝐶𝑐 𝑥𝑐 + 𝐷𝑢

Où 𝐴𝑐 est de dimension𝑛1 × 𝑛1 et 𝐴𝑐 est de dimension 𝑛 − 𝑛1 × (𝑛 − 𝑛1 ) et la sous


équation de dimension 𝑛1 de (IV-75) :

𝑥𝑐 = 𝐴𝑐 𝑥𝑐 + 𝐵𝑐 𝑢
(IV-76)
𝑦 = 𝐶𝑐 𝑥𝑐 + 𝐷𝑢

Est contrôlable et a la même fonction de transfert que (IV-70).

Dans la transformation de similarité 𝑥 = 𝑇 −1 𝑥, l'espace d'état de dimension n est divisée en


deux sous espaces. L'un est le sous espace de dimension 𝑛1 qui consiste en tous les vecteurs
𝑥
de la forme 𝑐 ; L'autre est le sous espace de dimension 𝑛 − 𝑛1 qui consiste en tous les
0
0
vecteurs de la forme . Vue que (IV-76) est contrôlable, l'entrée u peut déplacer 𝑥𝑐 de
𝑥𝑐
n'importe quel état à n'importe quel autre état. Cependant, l'entrée u ne peut pas contrôler 𝑥𝑐
parce que comme nous pouvons le voir à partir de (IV-75) u n'affecte pas 𝑥𝑐 directement, ni à
travers l'état 𝑥𝑐 . Par la troncature du vecteur d'état incontrôlable, nous obtenons une équation
d'état contrôlable qui est de dimension inférieure à l'équation originelle et qui à la même
fonction de transfert.

Pour les équations d'état non observables, nous avons le théorème dual à celui des systèmes
non contrôlables suivant.

Théorème (IV-30) :
Considérons le système de dimension n de l'équation (IV-70) avec :

𝐶
𝐶𝐴
𝑟𝑎𝑛𝑘 Γ𝑂 = 𝑟𝑎𝑛𝑘 = 𝑛2 < 𝑛 (VI-77)

𝐶𝐴𝑛−1

Nous formons la matrice de dimension (𝑛 × 𝑛) :


𝑝1

−1 𝑝
𝑇 = 𝑛2 (VI-78)

𝑝𝑛

Où les premiers 𝑛2 lignes peuvent être choisis parmi les combinaisons de 𝑛2 lignes
linéairement indépendantes de Γ𝑂 et les lignes qui restent peuvent être arbitrairement choisies
pourvu que 𝑇 −1 soit non singulière. Ainsi la transformation d'équivalence 𝑥 = 𝑇 −1 𝑥
transformera (IV-70) en :

- 21 -
𝑥𝑜 𝐴 0 𝑥𝑜 𝐵
= 𝑜 + 𝑜 𝑢
𝑥𝑜 𝐴21 𝐴𝑜 𝑥𝑜 𝐵𝑜 (IV-79)
𝑥
𝑦 = 𝐶𝑜 0 𝑥𝑜 + 𝐷𝑢
𝑜

Où 𝐴𝑜 est de dimension 𝑛2 × 𝑛2 et 𝐴𝑜 est de dimension 𝑛 − 𝑛2 × (𝑛 − 𝑛2 ) et la sous


équation de dimension 𝑛2 de (IV-75) :

𝑥𝑜 = 𝐴 𝑜 𝑥𝑜 + 𝐵𝑜 𝑢
(IV-80)
𝑦 = 𝐶𝑜 𝑥𝑜 + 𝐷𝑢

Est observable et a la même fonction de transfert que (IV-70).

Dans la transformation de similarité 𝑥 = 𝑇 −1 𝑥, l'espace d'état de dimension n est divisé en


deux sous espaces. Un sous espace de dimension 𝑛2 qui consiste en tous les états de la forme
𝑥𝑜
. L'autre est un sous espace de dimension 𝑛 − 𝑛2 et consiste en tous les états de la
0
0
forme . L'état 𝑥𝑜 peut être détecté à partir de la sortie. Cependant, 𝑥𝑜 ne peut pas être
𝑥𝑜
détecté à partir de la sortie, parce que comme nous pouvons le constater à partir de (IV-79), il
n'est pas connecté à la sortie ni directement ni à travers l'état 𝑥𝑜 . En tronquant le vecteur d'état
non observable, nous obtenons une équation d'état observable mais de dimension inférieure à
celle du système originel. En combinant le théorème (IV-29,30) nous obtenons la
décomposition de Kalman.

Théorème (IV-31) :
Toute équation d'état peut être transformée par une transformation d'équivalence vers une
équation de la forme canonique suivante :

𝑥𝑐𝑜 𝐴𝑐𝑜 0 𝐴13 0 𝑥𝑐𝑜 𝐵𝑐𝑜


𝑥𝑐𝑜 𝐴 𝐴𝑐𝑜 𝐴23 𝐴24 𝑥𝑐𝑜
= 21 + 𝐵𝑐𝑜 𝑢
𝑥𝑐 𝑜 0 0 𝐴𝑐 𝑜 0 𝑥𝑐 𝑜 0 (IV-81)
𝑥𝑐 𝑜 0 0 𝐴43 𝐴𝑐 𝑜 𝑥𝑐 𝑜 0
𝑦 = 𝐶𝑐𝑜 0 𝐶𝑐 𝑜 0 𝑥 + 𝐷𝑢

Avec 𝑥𝑐𝑜 est contrôlable et observable, 𝑥𝑐𝑜 contrôlable et non observable, 𝑥𝑐 𝑜 non contrôlable
et observable et enfin 𝑥𝑐 𝑜 qui n'est ni contrôlable ni observable. En plus, l'équation d'état a la
même réponse à état initial nul (fonction de transfert) que le système réduit suivant :

𝑥𝑐𝑜 = 𝐴𝑐𝑜 𝑥𝑐𝑜 + 𝐵𝑐𝑜 𝑢


(IV-82)
𝑦 = 𝐶𝑐𝑜 𝑥𝑐𝑜 + 𝐷𝑢

Et a la matrice de transfert
−1 𝐵
𝐺 𝑠 = 𝐶𝑐𝑜 𝑠𝐼 − 𝐴 𝑐𝑜 𝑐𝑜 +𝐷 (IV-83)

Ce théorème peut être illustré comme montré par la figure suivante :

- 22 -
+ 𝑦(𝑡)
𝑢(𝑡) 𝑪𝑶 𝑪𝑶
+

𝑶 𝑪𝑶 𝑪𝑶

𝑪
Figure (IV-1) Block diagramme de la forme canonique de Kalman. (Les sous-systèmes
non contrôlables ne sont pas connectés ni de façon directe ni de façon indirecte à
l'entrée. Les sous systèmes non observables n'ont pas d'effet direct ou indirect sur la
sortie). Les sous systèmes contrôlables ont une connexion directe aux entrée. Enfin, les
sous systèmes observables ont une connexion directe aux sorties.

Une façon d'obtenir cette décomposition est de décomposer l'équation d'état, en premier lieu,
en une partie contrôlable est une partie non contrôlable, ensuite décomposer chacun des deux
sous systèmes selon l'observabilité en un sous système observable et un sous système non
observable.

IV.9. Conditions de contrôlabilité et d'observabilité pour une équation


d'état dans la forme de Jordan :
La contrôlabilité et l'observabilité sont invariantes sous toutes transformations de similarité. Si
une équation d'état est transformée en une forme de Jordan, alors les conditions de
contrôlabilité et d'observabilité deviennent simples et peuvent souvent être testées par
inspection. Considérons l'équation d'état :

𝑥 = 𝐽𝑥 + 𝐵𝑢
(IV-84)
𝑦 = 𝐶𝑥

Ou 𝐽 est dans la forme de Jordan. Pour simplifier la discussion, nous supposons que 𝐽 a
seulement deux valeurs propres distinctes 𝜆1 , 𝜆2 et peut être écrite sous la forme :

𝐽 = 𝑑𝑖𝑎𝑔(𝐽1 , 𝐽2 ) (IV-85)

Où 𝐽1 consiste en tous les blocks de Jordan associés avec 𝜆1 et 𝐽2 consiste en tous les blocks
de Jordan associés avec 𝜆2 . Aussi pour simplifier la discussion nous supposons que 𝐽1 à trois
blocks de Jordan et 𝐽2a deux blocks de Jordan :

𝐽1 = 𝑑𝑖𝑎𝑔 𝐽11 , 𝐽12 , 𝐽13 ; 𝐽2 = 𝑑𝑖𝑎𝑔(𝐽21 , 𝐽22 ) (IV-86)

Les lignes de 𝐵 correspondant aux dernières lignes des 𝐽𝑖𝑗 sont dénotées 𝑏𝒅𝑖𝑗 et les colonnes
de C correspondants aux premières colonnes de 𝐽𝑖𝑗 sont dénotées 𝑐𝒑𝑖𝑗 .

- 23 -
Théorème (IV-32) :
1. L'équation d'état dans (IV-84) est contrôlable si et seulement si les trois vecteurs
lignes {𝑏𝑑11 , 𝑏𝑑12 , 𝑏𝑑13 } sont linéairement indépendants et les deux vecteurs
lignes{𝑏𝑑21 , 𝑏𝑑22 } sont linéairement indépendants.
2. L'équation d'état dans (IV-84) est observable si et seulement si les trois vecteurs
colonnes {𝑐𝑝11 , 𝑐𝑝12 , 𝑐𝑝13 }sont linéairement indépendants et les deux vecteurs
colonnes {𝑐𝑝21 , 𝑐𝑝22 } sont linéairement indépendants.

Nous discutons maintenant l'implication de ce théorème. Si une équation d'état est dans la
forme de Jordan, alors la contrôlabilité des variables d'état associées avec une valeur propre
peut être testée indépendamment de celle des variables d'état associées avec les autres valeurs
propres. La contrôlabilité des variables d'état associées avec la même valeur propre dépend
seulement des lignes de B correspondants aux dernièreslignes des blocks de Jordan associés
avec la valeur propre. Les autres lignes de B n'ont aucun rôle dans la détermination de la
contrôlabilité. Des remarques similaires s'appliquent à la détermination de l'observabilité, à
l'exception que cette fois-ci, c'est les colonnes de C correspondants aux premièrescolonnes
des blocks de Jordan (associés à la valeur propre) qui seront utilisées pour déterminer
l'observabilité.

Maintenant, considérons une équation d'état de dimension n donnée sous la forme de Jordan
et ayant 𝑝 entrées et 𝑞 sorties. S'il y a m (avec 𝑚 > 𝑝) blocks de Jordan associés avec la
même valeur propre, alors un ensemble de m lignes (de B) de dimension (1 × 𝑝) ne peuvent
jamais être linéairement indépendants et l'équation d'état ne peut jamais être contrôlable.
Alors une condition nécessaire pour que l'équation d'état soit contrôlable est que 𝒎 ≤ 𝒑. De
façon similaire, une condition nécessaire pour l'équation d'état soit observable est que 𝒎 ≤ 𝒒.
Pour le cas à une seule entrée et une seule sortie, nous avons le corolaire suivant :

Corolaire (IV-33) :
Une équation d'état à une seule entrée dans la forme de Jordan est contrôlable si et seulement
si il y a un seul block de Jordan associé avec chaque valeur propre distincte et chaque élément
de B correspondant à la dernière ligne de chaque block de Jordan est différent de zéro.

Corolaire (IV-34) :
Une équation d'état à une seule sortie dans la forme de Jordan est observable si et seulement si
il y a seulement un seul block de Jordan associé avec chaque valeur propre distincte et chaque
élément de C correspondant à la première colonne de chaque block de Jordan est différent de
zéro.

IV.10. Contrôlabilité et observabilité des équations d'état variables


dans le temps :

IV.10.1. Contrôlabilité des équations d'état LTV :


Considérons l'équation d'état de dimension 𝑛 à 𝑝 entrée et 𝑞 sortie :

- 24 -
𝑥 = 𝐴 𝑡 𝑥+𝐵 𝑡 𝑢
(IV-87)
𝑦=𝐶 𝑡 𝑥

L'équation d'état est dite contrôlable à 𝑡0 , s'il existe un temps fini 𝑡1 > 𝑡0 tel que pour tout
𝑥 𝑡0 = 𝑥0 et tout 𝑥1 il existe un signal de commande 𝑢(. ) qui déplace l'état de 𝑥0 à 𝑥1 à
l'instant 𝑡1 . Autrement, l'équation d'état est incontrôlable à 𝑡0 . Dans le cas invariant dans le
temps, si une équation d'état est contrôlable, alors, elle est contrôlable à tout 𝑡0 et pour tout
𝑡1 > 𝑡0 . Ainsi, il n'est pas nécessaire de spécifier 𝑡0 et 𝑡1 . Dans le cas variable dans le temps,
la spécification de 𝑡0 et de 𝑡1 est cruciale.

𝑉𝐼 − 87 𝑐𝑜𝑛𝑡𝑟ô𝑙𝑙𝑎𝑏𝑙𝑒 à 𝑡0 ⇔ ∀ 𝑥0 = 𝑥 𝑡0 , 𝑥1 , ∃ 𝑡1 , 𝑢 . 𝑡 0 ,𝑡 1 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑥 𝑡1 = 𝑥1

Théorème (IV-35) :
La paire (𝐴 𝑡 , 𝐵 𝑡 ) de dimension 𝑛 est contrôlable à l'instant 𝑡0 si et seulement s'il existe un
𝑡1 fini 𝑡1 > 𝑡0 tel que la matrice de dimension (𝑛 × 𝑛) suivante :
𝑡1
𝑊𝑐 𝑡0 , 𝑡1 = 𝑡0
Φ 𝑡1 , 𝜏 𝐵 𝜏 𝐵𝑇 𝜏 Φ𝑇 𝑡1 , 𝜏 𝑑𝜏 (IV-88)

Où Φ 𝑡, 𝜏 est la matrice de transition d'état du système 𝑥 = 𝐴 𝑡 𝑥 est non singulière.

Pour appliquer le théorème (IV-35), on doit connaître la matrice de transition d'état Φ 𝑡, 𝜏


qui peut être disponible. Par conséquent, il est souhaitable d'avoir une condition de
contrôlabilité sans impliquer la matrice de transition d'état Φ 𝑡, 𝜏 . Ceci est possible si nous
avons des conditions supplémentaires sur les matrices 𝐴(𝑡)et 𝐵(𝑡). Rappelons que nous avons
supposer que 𝐴(𝑡) et 𝐵(𝑡) sont continues. Maintenant, on exige qu'elles soient (𝑛 − 1) fois
continuellement différentiables.

On défini 𝑀0 𝑡 = 𝐵(𝑡), ensuite, on défini récursivement une séquence de matrice 𝑀𝑚 (𝑡) de


dimension (𝑛 × 𝑝) comme suit :

𝑑
𝑀𝑚 +1 𝑡 ≔ −𝐴 𝑡 𝑀𝑚 𝑡 + 𝑀 𝑡 𝑝𝑜𝑢𝑟 𝑚 = 0,1, … , (𝑛 − 1)
𝑑𝑡 𝑚
Il est clair que nous avons :

Φ 𝑡2 , 𝑡 𝐵 𝑡 = Φ 𝑡2 , 𝑡 𝑀0 𝑡

Pour tout 𝑡2 fixe. En utilisant :


Φ 𝑡2 , 𝑡 = −Φ 𝑡2 , 𝑡 𝐴 𝑡
∂t
On calcul :

- 25 -
∂ ∂ 𝑑
Φ 𝑡2 , 𝑡 𝐵(𝑡) = Φ 𝑡2 , 𝑡 𝐵 𝑡 + Φ 𝑡2 , 𝑡 𝐵 𝑡
∂t ∂t 𝑑𝑡
𝑑
= Φ 𝑡2 , 𝑡 −𝐴 𝑡 𝑀0 𝑡 + 𝑀0 (𝑡) = Φ 𝑡2 , 𝑡 𝑀1 (𝑡)
𝑑𝑡
En procédant de la même façon :
∂m
Φ 𝑡2 , 𝑡 𝐵(𝑡) = Φ 𝑡2 , 𝑡 𝑀𝑚 𝑡 ; 𝑝𝑜𝑢𝑟 𝑚 = 0,1,2, … (IV-89)
∂t m

Le théorème suivant donne une condition suffisante mais pas nécessaire pour que le système
(IV-87) soit contrôlable.

Théorème (IV-36) :
Supposons que 𝐴(𝑡) et 𝐵(𝑡) soient (𝑛 − 1) continuellement différentiables. Alors, la paire
𝐴 𝑡 , 𝐵(𝑡) de dimension n est contrôlable à 𝑡0 s'il existe un temps fini 𝑡1 > 𝑡0 tel que :

𝑟𝑎𝑛𝑔 𝑀0 (𝑡1 ) 𝑀1 (𝑡1 ) ⋯ 𝑀𝑛−1 (𝑡1 ) = 𝑛 (IV-90)

IV.10.2. Observabilité des équations d'état LTV :


Maintenant, nous discutons l'observabilité. Le système linéaire variable dans le temps (IV-87)
est observable à 𝑡0 , s'il existe un temps fini 𝑡1 tel que pour tout état 𝑥 𝑡0 = 𝑥0 , la
connaissance de l'entrée et de la sortie sur l'intervalle [𝑡0 , 𝑡1 ] suffisent pour déterminer de
façon unique l'état initial 𝑥0 . Autrement l'équation d'état est dite être non observable à 𝑡0 .

𝑉𝐼 − 87 𝑒𝑠𝑡 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑏𝑙𝑒 à 𝑡0
⇔ ∃ 𝑡1 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑢 . 𝑡 0 ,𝑡 1 , 𝑦 . 𝑡 0 ,𝑡 1 𝑠𝑢𝑓𝑓𝑖𝑠𝑒𝑛𝑡 𝑝𝑜𝑢𝑟 𝑑é𝑡𝑒𝑟𝑚𝑖𝑛𝑒𝑟 𝑑𝑒 𝑓𝑎ç𝑜𝑛 𝑢𝑛𝑖𝑞𝑢𝑒 𝑥 𝑡0
= 𝑥0

Théorème (IV-37) :
La paire 𝐴 𝑡 , 𝐶 𝑡 est observable à 𝑡0 si et seulement s'il existe un temps fini 𝑡1 > 𝑡0 telle
que la matrice (𝑛 × 𝑛) suivante :
𝑡1 T
𝑊0 𝑡0 , 𝑡1 = 𝑡0
Φ τ, t0 C T τ C τ Φ τ, t0 dτ (IV-91)

Avec Φ τ, t0 la matrice de transition d'état du système 𝑥 = 𝐴 𝑡 𝑥 est non singulière.

Théorème (IV-38) :
Supposons que 𝐴(𝑡) et 𝐶(𝑡) soient (𝑛 − 1) fois continuellement différentiables. Alors la paire
de dimension n 𝐴 𝑡 , 𝐶 𝑡 est observable à 𝑡0 s'il existe un temps fini 𝑡1 > 𝑡0 tel que :

𝑁0 𝑡1
𝑁1 (𝑡1 )
𝑟𝑎𝑛𝑔 =𝑛 (IV-92)

𝑁𝑛−1 (𝑡1 )

Avec :

- 26 -
𝑑
𝑁𝑚 +1 𝑡 = 𝑁𝑚 𝑡 𝐴 𝑡 + 𝑁𝑚 𝑡 ; 𝑚 = 0,1, … , 𝑛 − 1 ; 𝑎𝑣𝑒𝑐 𝑁0 = 𝐶(𝑡)(IV-93)
𝑑𝑡

Il faut mentionner ici que le théorème de dualité pour les systèmes invariants dans le temps
n'est pas applicable pour les systèmes variables dans le temps et doit être modifié.

IV. 11. Sous espaces invariants d'une réalisation :


Dans un espace vectoriel 𝑉, un sous espace invariant par une transformation linéaire 𝑇 est
défini comme étant le sous espace Σtel que pour tout vecteur 𝑥 ∈ Σ, 𝑇𝑥 ∈ Σ. Pour une
équation d'état, si on considère la matrice du système 𝐴, alors les ensembles suivants forment
des sous espaces invariants de la matrice 𝐴 :

1. La condition nécessaire et suffisante pour qu'un état 𝑥0 soit contrôlable est que
𝑥0 ∈ 𝐼𝑚(Γ𝐶 ). Le sous espace des états contrôlables d'une équation d'état est A
invariant { 𝑥 ∈ 𝑖𝑚𝑎𝑔𝑒 Γ𝐶 ⇒ 𝐴𝑥 ∈ 𝑖𝑚𝑎𝑔𝑒 Γ𝐶 }.
2. Le sous espace des états non-observables d'une réalisation est égal à 𝑘𝑒𝑟(Γ𝑂 ). Ce sous
espace est invariant par la matrice du système 𝐴. En plus, pour tout état initial
𝑥0 ∈ 𝑘𝑒𝑟 Γ𝑂 le signal 𝜂 𝑡 = 𝐶𝑒 𝐴𝑡 𝑥0 = 0. Ceci vient du faite que pour tout 𝑥0 ∈
𝐶
𝐶𝐴 𝐴𝑡 𝑖
𝑘𝑒𝑟 Γ𝑂 , on a 𝑥0 = 0 et 𝑒 𝐴𝑡 = ∞ 𝑖=0 𝑖! , et 𝑦 𝑡0 = 𝐶𝑒 𝐴𝑡 𝑥0 =

𝐶𝐴𝑛−1
∞ 𝑡𝑖
𝑖=0 𝐶𝐴𝑖 𝑥0 = 0 pour tout 𝑡 𝑒𝑡 𝑥0 du sous espace non observable.
𝑖!

IV.11. Forme modale de l'équation d'état :


Nous avons parlé dans le chapitre précédent de la forme de Jordan de l'équation d'état. Nous
allons maintenant voir les avantages qu'elle offre.

Supposons que la matrice 𝐴 de la réalisation d'état peut s'écrire sous la forme 𝐴 = 𝑇 −1 𝐽𝐴 𝑇


avec 𝑇 = 𝑣1 𝑣2 ⋯ 𝑣𝑛 les 𝑣𝑖 sont les vecteurs propres et les vecteurs propres
généralisés. Dénotons le nouveau vecteur d'état par 𝜉 𝑡 = 𝑇 −1 𝑥(𝑡), alors vue que les 𝑣𝑖 sont
linéairement indépendant est forme une base de l'espace auquel appartient les états 𝑥(𝑡) et le
vecteur 𝐵𝑢(𝑡), alors ces deux vecteurs peuvent s'écrire sous la forme :
𝑛
𝑥 𝑡 = 𝑖=1 𝜉𝑖 𝑡 𝑣𝑖
𝑛 (IV-94)
𝐵𝑢 𝑡 = 𝑖=1 𝛽𝑖 𝑡 𝑣𝑖

L'équation d'état devient alors :


𝑛 𝑛 𝑛 𝑛 𝑛
𝑥 𝑡 = 𝜉𝑖 𝑡 𝑣𝑖 = 𝐴 𝜉𝑖 𝑡 𝑣𝑖 + 𝛽𝑖 𝑡 𝑣𝑖 = 𝜉𝑖 𝑡 𝜆𝑖 𝑣𝑖 + 𝛽𝑖 𝑡 𝑣𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

ce qui implique que


𝑛
𝜉𝑖 𝑡 − 𝜆𝑖 𝜉𝑖 𝑡 − 𝛽𝑖 𝑡 𝑣𝑖 = 0 ∴ 𝜉𝑖 𝑡 − 𝜆𝑖 𝜉𝑖 𝑡 − 𝛽𝑖 𝑡 = 0; 𝑖 = 1, … , 𝑛
𝑖=1

- 27 -
car les 𝑣𝑖 sont linéairement indépendants et 𝐴𝑣𝑖 = 𝜆𝑖 𝑣𝑖 :

𝜉𝑖 𝑡 = 𝜆𝑖 𝜉𝑖 𝑡 + 𝛽𝑖 𝑡 ; 𝑖 = 1, … , 𝑛 (VI-95)

Cette dernière équation constitue un ensemble de n équations différentielles indépendantes


d'ordre 1. Dans le cas où parmi les 𝑣𝑖 il y a des vecteurs propres généralisés, cette dernière
équation garde la même forme pour les vecteurs propres et prend la suivante pour les vecteurs
propres généralisés :

𝜉𝑖 𝑡 = 𝜉𝑖 𝑡 𝜆𝑖 + 𝜉𝑖+1 𝑡 + 𝛽𝑖 𝑡 (IV-96)

Il doit y avoir un total de 𝑛− 𝑗 𝑞𝑖 de telle équations, avec les 𝑞𝑖 les multiplicités


géométriques des valeur propres. Les termes 𝜉𝑖 𝑡 𝑣𝑖 = 𝑒 𝜆𝑖 𝑡 𝑣𝑖 sont appelés modes et
l'équation (IV-95) est la décomposition modale de la solution 𝑥(𝑡) de l'équation d'état.

Pour une meilleur illustration, nous considérons le cas de la solution homogène 𝑥 𝑡 = 𝐴𝑥(𝑡)
avec une matrice 𝐴 qui a une forme de Jordan 𝐽𝐴 = 𝑇 −1 𝐴𝑇 purement diagonale 𝜉 = 𝑇 −1 𝑥(𝑡) :

𝜉 𝑡 = 𝑇 −1 𝑥 𝑡 = 𝑇 −1 𝐴𝑇𝜉 𝑡 + 𝐵𝑢 𝑡 ∴ 𝜉 𝑡 = 𝐽𝐴𝜉 𝑡 (IV-97)

La matrice 𝐽𝐴 (forme de Jordan) est purement diagonale (mais pas dans tous les cas) :

𝜆1 0 ⋯ 0 𝜉1 𝜆1 𝜉1
0 𝜆2 ⋱ ⋮ 𝜉2 = 𝜆2 𝜉2
𝐽𝐴 = ; (IV-98)
⋮ ⋱ ⋱ 0 ⋮ ⋮
0 ⋯ 0 𝜆𝑛 𝜉𝑛 𝜆𝑛 𝜉𝑛

A partir de cette équation le vecteur d'état 𝑥 𝑡 = 𝑇𝜉(𝑡) et l'équation (VI-95) peut s'écrire
sous la forme :

𝜆1 𝜉1
𝜆2 𝜉2 𝑛
𝑥 𝑡 = 𝑇𝜉 𝑡 = 𝑣1 ⋯ 𝑣𝑛 = 𝑖=1 𝜆𝑖 𝜉𝑖 𝑡 𝑣𝑖 (IV-99)

𝜆𝑛 𝜉𝑛

L'équation d'état est alors découplée en 𝑛 équations différentielles indépendantes de premiers


ordre 𝜉𝑖 (𝑡) = 𝜆𝑖 𝜉𝑖 (𝑡) dont la solution homogène (pour 𝑢 = 0) est 𝜉𝑖 𝑡 = 𝑒 𝜆𝑖 𝑡 𝜉𝑖 0 , 𝑖 =
1, … , 𝑛 et vue que :
𝑛 𝑛
𝑥 𝑡 = 𝑇𝜉(𝑡) 𝑥 𝑡 = 𝑣𝑖 𝜉𝑖 (𝑡) = 𝑣𝑖 𝜉𝑖 0 𝑒 𝜆𝑖 𝑡
∴ 𝑖=1 𝑖=1
𝑥 0 = 𝑇𝜉 0
𝜉 0 = 𝑇 −1 𝑥 0

𝑛
∴ 𝑥𝑡 = 𝑖=1 𝒆𝝀𝒊 𝒕 𝒗𝒊 𝑞𝑖𝑇 𝑥 0 (IV-96)

Avec 𝑞𝑖𝑇 est la ligne 𝑖 𝑑𝑒 𝑇 −1. On remarque que 𝑥 𝑡 est une combinaison linéaire de 𝑒 𝜆𝑖 𝑡 𝑣𝑖
qui décrivent les n modes dynamiques du système. Ainsi la forme d'un mode est décrite par

- 28 -
son vecteur propre associé et son évolution dans le temps est décrite par la valeur propre
associée.

Même quand la forme de Jordan 𝐽𝐴 n'est pas diagonale, la forme modale reste très utile vue
qu'elle donne un aperçu sur les propriétés intrinsèques du système. La contrôlabilité, et
l'observabilité sont plus facilement évaluées et comprises la stabilité est clairement révélée.
En retenant seulement les modes dominant, un système d'ordre élevé peut être approximé
avec succès par un autre d'ordre inférieur.

- 29 -

Vous aimerez peut-être aussi