Vous êtes sur la page 1sur 15

Chapitre 3: Solution de l’équation d’état des systèmes linéaires

continus

10 novembre 2018
1.1 Objectif

Soit le système linéaire suivant :


 ẋ(t) = A(t)x(t) + B(t)u(t)
, x(t0 ) = 0 (1.1)
 y(t) = C(t)x(t) + D(t)u(t)

— Calculer x(t) et y(t) pour un état initial x0 et une entrée u(t) donnés.
— la connaissance de x(t) permet de déterminer y(t).

1.2 Système autonome

Dans ce cas l’entrée du système u(t) = 0, l’équation d’état 1.1 devient homogène :


 ẋ(t) = A(t)x(t)
, ⇒ Problème de Cauchy (1.2)
 x(t ) = x
0 0

Pour une condition initiale donnée, l’équation ẋ(t) = A(t)x(t) possède une seule solution.

Soient :
- x10 une première condition initiale → la solution est ψ1 (n × 1)
- x20 une deuxième condition initiale → la solution est ψ2 (n × 1)
.
- ..
- x∞
0 une ∞ condition initiale → la solution est ψ∞ (n × 1)

La dimension de la solution est (n × 1), tel que n est le nombre de variables d’état. Pour une
infinité de conditions initiales, on aura une infinité de solution ψ1 , ψ2 , ψ3 , . . . , ψ∞ , qui sont des
vecteurs de dimension n × 1. Parmi cette infinité de solution on peut sélectionner que n vecteurs
qui linéairement indépendant, on les note ψ1 , . . . , ψn . Les ψj , j = 1, . . . , n forment une base
d’un espace vectoriel qu’on appelle Espace d’état. Toute solution pour une condition initiale
donnée peut être exprimée par une combinaison linéaire de cette base. On définie la matrice
ψ(n × n) comme suit :
ψ(t) = [ψ1 (t), ψ2 (t), . . . , ψn (t)] (1.3)

On appelle la matrice ψ la matrice fondamentale

Exemple : Considérons l’équation homogène suivante :

1
 
0 0
ẋ(t) =   x(t) (1.4)
t 0

On a ẋ1 (t) = 0 et ẋ2 (t) = tx1 (t)

La solution de l’équation ẋ1 (t) = 0 pour t0 = 0 est x1 (t) = x1 (0) ; la solution de l’équation
ẋ2 (t) = tx1 (t) = tx1 (0) est

Z t
x2 (t) = τ x1 (0)dτ + x2 (0) = 0.5t2 x1 (0) + x2 (0)
0

Pour une première condition initiale x(0) = [x1 (0) x2 (0)]T = [1 0]T , nous obtenons la
solution suivante :

     
x1 (0) 1 1
x(0) =  =  ⇒ ψ1 (t) =   (1.5)
x2 (0) 0 0.5t2

Pour une première condition initiale x(0) = [x1 (0) x2 (0)]T = [1 2]T , nous obtenons la
solution suivante :

     
x1 (0) 1 1
x(0) =  =  ⇒ ψ2 (t) =   (1.6)
x2 (0) 2 0.5t2 + 2

Nous remarquons que les deux solutions sont linéairement indépendantes, la matrice fonda-
mentale est donc :

   
ψ1 (t) 1 1
ψ(t) =  =  (1.7)
ψ2 (t) 0.5t2 0.5t2 + 2

Une propriété très importante de la matrice fondamentale est que ψ(t) n’est pas singulière 1
pour tous t. Dans l’exemple précédent ψ(t) a un déterminant égale à 0.5t2 + 2 − 0.5t2 = 2. Le
déterminant ne dépend pas de t, par conséquence ψ(t) n’est jamais singulière.

1.2.1 Propriété de la matrice fondamentale :

La matrice fondamentale ψ(t) a les propriétés suivantes :

1. ψ(t) solution de l’équation d’état.


1. On dit qu’une matrice est singulière si son déterminant égale à zéro.

2
2. ψ −1 (t) existe.
dψ(t)
3. = A(t)ψ(t).
dt
4. ψ(t) n’est pas unique, toutes les ψ(t) sont liées par un changement de base. En effet si :

ψ̂(t) = ψ(t).P

telle que P est la matrice de changement de base, et elle est inversible. Alors ψ̂(t) est
aussi une matrice fondamentale.

5. ψ̂ −1 (t) = P −1 ψ −1 ⇒ existe.
dψ̂(t) d dψ(t)
6. = (ψ(t).P ) = .P = A(t) ψ(t).P (t) = A(t).ψ̂(t)
dt dt dt | {z }
ψ̂

1.2.2 Matrice de transition :

Définition : Soit ψ(t) une matrice fondamentale de système ẋ(t) = A(t)x(t). Alors la matrice

φ(t, t0 ) = ψ(t)ψ −1 (t0 ) (1.8)

est appelée matrice de transition du système ẋ(t) = A(t)x(t). Et elle est la solution unique de

d
φ(t, t0 ) = A(t)φ(t, t0 ) (1.9)
dt
avec la condition initiale φ(t0 , t0 ) = I

Propriétés de la matrice de transition :

1. φ(t, t) = In .

2. φ−1 (t, t0 ) = φ(t0 , t).

3. φ(t2 , t0 ) = φ(t2 , t1 ).φ(t1 , t0 ).


d
4. φ(t, t0 ) = A(t).φ(t, t0 ).
dt

Exemple 2 : Considérons le système de l’exemple 1. La matrice fondamentale déjà calculée


est :

 
1 1
ψ(t) =   (1.10)
0.5t2 0.5t2 + 2

son inverse est :

3
 
0.25t2 + 1 −0.5
ψ −1 (t) =   (1.11)
−0.5t2 0.5

Alors la matrice de transition est

    
1 1 0.25t20 + 1 −0.5 1 0
φ(t) =   =  (1.12)
0.5t2 0.5t2 +2 −0.25t20 0.5 0.5(t2 − t20 ) 1

1.2.3 Solution de l’équation homogène

La solution de l’équation homogène ẋ(t) = A(t)x(t) avec x(t0 ) = x0 est donnée par :

x(t) = φ(t, t0 )x0 (1.13)

Démonstration : Nous montrons que l’équation (1.13) satisfait la condition initiale x0 et


l’équation d’état ẋ(t) = A(t)x(t).

On a x(t0 ) = φ(t0 , t0 ) x0 = x0
| {z }
I
et
dx(t) d
= (φ(t, t0 )x0 ) = A(t) φ(t, t0 )x0 = A(t)x(t)
dt dt | {z }
x(t)

Pour calculer la solution de l’équation homogène il faut calculer la matrice de transition


φ(t, t0 ). Dans le cas général, le calcul de φ est très complexe. Par contre pour certains cas
particulier on peut déterminer φ.

1. Si A(t) est diagonale :


   R 
a11 (t) 0 ... 0 exp a11 (t)dt 0 ... 0
   R 
0 a22 ... 0 0 exp a22 (t)dt ... 0
   
   
A(t) =   ⇒ φ(t, t0 ) = 
.. ..

 ..   .. 
 . .   . . 
   
R
0 0 ... ann (t) 0 0 ... exp ann (t)dt
(1.14)
R
2. Si A(t) et A(τ )dτ commute, alors :
Z t
φ(t, t0 ) = exp[ A(τ )dτ ]
t0
R R R
On dit que A(t) et A(τ )dτ commutent si A(t) A(τ )dτ = A(τ )dτ A(t).
R
3. Si la matrice A est constante : Dans ce cas la matrice A et Adτ commutent. on a
Rt Rt
A t0 Adτ = A2 (t − t0 ) et ( t0 Adτ )A = A2 (t − t0 ) ⇒ φ(t, t0 ) = exp[ Adτ ]
R

4
1.3 Système forcé (solution de l’équation complète) :

Soit l’équation d’état du système complet


 ẋ(t) = A(t)x(t) + B(t)u(t)
(1.15)
 x(t ) = x
0 0

On peut montrer que la solution de cette équation est donnée sous la forme suivante :

Zt Zt
 

x(t) = φ(t, t0 )x0 + φ(t, τ )B(τ )u(τ )dτ = φ(t, t0 ) x0 + φ(t0 , τ )B(τ )u(τ )dτ  (1.16)
t0 t0

Démonstration : Nous montrons que la solution de l’équation d’état complète (1.16) satisfait
la condition initiale et l’équation d’état complète. On a :
Zt0
x(t0 ) = φ(t0 , t0 ) x0 + φ(t0 , τ )B(τ )u(τ )dτ = Ix0 + 0 = x0 .
| {z }
=I t0
| {z }
=0
Donc la condition initiale est vérifiée.

Rappel :
Zt0 Zt0
d d
F (t, τ )dτ = F (t, τ )|t=τ + F (t, τ )dτ (1.17)
dt dt
t0 t0

On dérive l’équation 1.16, ce qui donne :

 t 
Z
dx(t) d d
= [φ(t, t0 )x0 ] +  φ(t, τ )B(τ )u(τ )dτ  (1.18)
dt dt dt
t0

En appliquant l’équation (1.17), on trouve :


Zt
dx(t)
= A(t)φ(t, t0 )x0 + B(t)u(t) + A(t)φ(t, τ )B(τ )u(τ )dτ (1.19)
dt
t0

ce qui donne :
Zt
 
dx(t)
= A(t) φ(t, t0 )x0 + φ(t, τ )B(τ )u(τ )dτ  +B(t)u(t) = A(t)x(t) + B(t)u(t) (1.20)
dt
t0
| {z }
x(t)

Donc l’équation d’état est aussi vérifiée.

5
1.3.1 Calcul de la sortie :

On a : y(t) = C(t)x(t) + D(t)u(t)


( )
Rt
y(t) = C(t)φ(t, t0 )x0 + C(t) φ(t, t0 )B(τ )u(τ )dτ + D(t)u(t)
t0

Propriété :
Rt
δ(t − τ )u(τ )dτ = u(t)
t0

Rt
Donc le terme D(t)u(t) = D(t)δ(t − τ )u(τ )dτ
t0

Rt
d’où : y(t) = C(t)φ(t, t0 )x0 + {C(t)φ(t, τ )B(τ ) + D(t)δ(t − τ )} u(τ )dτ
t0 | {z }
G(t,τ )

Sachant que le terme G(t, τ ) = C(t)φ(t, τ )B(τ ) + D(t)δ(t − τ ) représente la matrice réponse
impulsionnelle

1.4 Étude de cas stationnaire



 ẋ = Ax(t) + Bu(t), x(t0 ) = x0
 y(t) = Cx(t)

- Matrice fondamentale est : ψ(t) = eAt


- Matrice de transition est : φ(t, t0 ) = ψ(t)ψ(t0 )−1 = eA(t−t0 )
Rt
- La solution est : x(t) = eA(t−t0 ) x0 + eA(t−t0 ) B u(τ )dτ
t0
Rt 
- La sortie est : y(t) = CeA(t−t0 ) x0 + CeA(t−t0 ) B + Dδ(t − τ ) u(τ )dτ
t0
- La matrice réponse impulsionnelle est : G(t, τ ) = CeA(t−τ ) B + Dδ(t − τ ) où bien pour
τ = 0,

G(t) = CeAt B + Dδ(t) (1.21)

- La matrice fonction de transfert est donc :

G(s) = L{G(t)} = CL{eAt } B + D (1.22)

On avait montré que :


G(s) = C(sI − A)−1 B + D (1.23)

par identification entre 1.22 et 1.23, on en déduit :

L{eAt } = (sI − A)−1 (1.24)

6
1.5 Méthode de calcul de eAt :

Méthode 1 :
L{eAt } = (sI − A)−1 ⇒ eAt = L−1 {(sI − A)−1 }

Exemple :

   
1 0 s−1 0
A=  ⇒ [sI − A] =  
−2 −5 2 s+5
   
1 t
0 e 0
⇒ (sI − A)−1 =  s−1  ⇒ eAt =  
−2 1 1 −5t 1 t −5t
(s+1)(s+5) s+5 2e − 2e e

Méthode 2 : (Fonction de Matrice)


Soit λ1 , λ2 , ..., λr , r valeurs propres de A de multiplicité respectivement r1 , r2 , ..., rr , tel que :
r1 + r2 + ... + rr = n. Soit f (λ) une fonction de λ et g(λ) un polynôme de λ de degré (n − 1).
Alors si :

f (l) (λi ) = g (l) (λi ), l = 0, 1, ..., ri − 1, i = 1, 2, ..., r.


dl f
f (l) (λi ) = dλl λ=λ
i

Alors f (A) = g(A)

Ce résultat provient du théorème de cayley-Hamilton qui dit que la matrice A est solution
de sa propre équation caractéristique.

L’équation caractéristique de A :

det(λI − A) = an λn + an−1 λn−1 + ... + a0 = 0

alors : an An + an−1 An−1 + ... + a0 In = 0

Exemple :  
0 0 −2
 
A = 0 1 0 
 
 
1 0 3

Calculons les valeurs propres :



 λ1 = 1, r1 = 2
∆(λ) = (λ − 1)2 (λ − 2) = 0 ⇒
 λ = 2, r = 1
2 2

L’objectif est de calculer de eAt :

7
Soit f (λ) = eλt et soit un polynôme de degré 2, alors :
g(λ) = α0 + α1 λ + α2 λ2

Écrivons les relations entre f (λ) et g(λ).

- pour λ = λ1 = 1 :
on a f (λ1 ) = eλ1 t = et
et
f 0 (λ1 ) = tet
et on a : g 0 (λ1 ) = α1 + 2α2 λ1 = α1 + 2α2

donc on a :

f (λ1 ) = g(λ1 ) ⇒ et = α0 + α1 + α2 (1.25)

f 0 (λ1 ) = g 0 (λ1 ) ⇒ tet = α1 + 2α2 (1.26)

1. λ = λ2 :

f (λ2 ) = g(λ2 ) ⇒ e2t = α0 + 2α1 + 4α2 (1.27)

α0 = −2tet + e2t
⇒ α1 = 3tet + 2et − 2e2t
α2 = e2t − et − tet
f (A) = eAt = g(A) = α0 I3 + α1 A + α2 A2
 
2et − e2t 0 2et − 2e2t
 
At
⇒e =
 t 
0 e 0 
 
−t t
e + 2e 0 2e − e 2t t

Méthode 3 : (Décomposition modale où diagonalisation)


On dit que les deux matrices A et Λ sont similaires ou semblables si :

A = QΛQ−1 (1.28)

dans ce cas on peut écrire :


−1 t
eAt = eQΛQ = QeΛ Q−1 (1.29)

8
Si on choisit Q comme la matrice des vecteurs propres de A, alors : Λ va être une matrice
diagonale ( du moins dans beaucoup de cas) de type :
 
λ1 0 ... 0
.. .. .. 
 
0 . . . 

Λ=
 .. .. ..


. . . 0
 
0 ... 0 λn

Où λi , i = 1, ..., n sont les valeurs propres de A, alors :


 
eλ1 t 0 ... 0
.. .. .. 
 
 0 . . . 

eΛt =
 .. .. ..


 . . . 0 
 
0 ... 0 eλn t

Cas 1 : (Les valeurs propres de A sont distinctes)


Soit A une matrice (n × n), les valeurs propres λi , i = 1, ..., n sont les racines de l’équation
caractéristique.
∆(λ) = λn + α1 λn−1 + ... + αn = det(λI − A) = 0
à une valeur propre λi va correspondre un vecteur propre Vi défini par :

AVi = λi Vi

ou bien
(A − λi I)Vi = 0

Rappel :
Soit A une matrice m × n :

y = Ax
x ∈ Rn −−−−−−−−−−−−−−→ y = Ax
∈ Rm
| {z }
Espace de départ
| {z }
Espace image

Le nombre de solution de cette équation est égal au rang de la matrice A. Si rang(A) = n


alors j’aurais n solutions linéairement indépendants.

Rang(A) = ϕ(A) (1.30)

9
Le noyau de A est l’ensemble des solutions x linéairement indépendantes de Ax = 0. La
dimension de ce noyau égale au nombre de solution linéairement indépendantes, est définie comme
étant la nullité de A.
ν(A) = dim{Ker(A)} (1.31)

Ker : kernel (or the null space).

Et on admet que :
ϕ(A) + ν(A) = n (1.32)

Comme λi est une valeur propre de A, alors det(A − λi I) = 0


⇒ ϕ(A − λi I) < n ⇒ ν(A − λi I) ≥ 1
Dans ce cas, à chaque valeur propre λi , i = 1, n . je peux trouver un vecteur propre associe ; soit
alors :
V = [V1 , V2 , ..., Vn ]

La matrice des vecteurs propre (qui sont LI)


 
λ1 0 ... 0
.. .. .. 
 
0 . . .

AV = V Λ où Λ = 
 .. .. ..


. . . 0
 
0 ... 0 λi

⇒ Λ = V −1 AV où bien A = V ΛV −1 Alors :
 
e λ1 t 0 . . . 0
.. .. .. 
 
 0 . . .  −1

At
e =V  .
. .
V
 .. .. .. 
 0 
0 ... 0 e λn t

Cas 2 : Cas de valeurs propres multiples


Dans ce cas, la matrice A n’est pas toujours diagonalisable.
Exemple 1 :  
1 0 −1
 
A = 0 1 0  ⇒ ∆(λ) = det(λI − A) = (λ − 1)2 (λ − 2)
 
 
0 0 2
On a deux valeurs propres λ1 = 2 simple, λ2 = 1 double.
Pour λ1 = 2 je peux trouver le vecteur propre associé solution de (A − λ1 I)V1 = 0
 
−1
 
⇒ V1 =  0 
 
 
1

10
. Pour λ2 = 1 .Alors les vecteurs propres associés àλ2 sont solution de (A − λ2 I)V23 = 0
     
1 0 −1 1 0 0 0 0 −1
     
A − λ2 I = 0 1 0  − 0 1 0 = 0 0 0 
     
     
0 0 2 0 0 1 0 0 1

⇒ ϕ(A − λ2 I) = 1 ⇒ ν(A − λ2 I) = 3 − 1 = 2.
Donc l’équation (A − λ2 I)V23 = 0 admet deux solutions linéairement indépendantes.
   
1 0
   
V2 = 0 et V3 = 1
   
   
0 0
 
−1 1 0
 
soit V = [V1 , V2 , V3 ] =  0 0 1, alors :
 
 
1 0 0
 
2 0 0
 
Λ = V −1 AV = 0 1 0 ⇒ A = V ΛV −1
 
 
0 0 1
donc on obtient :

   
e2t 0 0 et 0 et − e2t
   
eAt = V  0 et 0  V −1 =  0 et
   
0 
   
0 0 et 0 0 e2t

Exemple 2 :

 
1 1 2
 
A = 0 1 3
 
 
0 0 2

∆(λ) = (λ − 1)2 (λ − 2), λ1 = 2 simple et λ2 = 1 double.

1. Pour λ1 = 2
le vecteur propre associé est solution de l’équation
 
5
 
(A − λ1 I)V1 = 0 ⇒ V1 = 3
 
 
1

11
2. Pour λ2 = 1,
les vecteurs propres associés sont solution de (A − λ2 I)V2 = 0, avec :
 
0 1 2
 
A − λ2 I = 0 0 3
 
 
0 0 1

Dans ce cas ϕ(A − λ2 I) = 2 ⇒ ν(A − λ2 I) = 1 ⇒ L’équation (A − λ2 I)V2 = 0 ne possède qu’une


seule solution
⇒ Dans ce cas la matrice A n’est pas diagonalisable. Donc, on ne peut pas trouver une forme
diagonale à la matrice A, cependant on peut trouver une forme pseudo diagonale (bloc diagonal)
appelé forme de Jordan. Et ceci ou moyen des vecteurs propres généralisés.

Définition :
Un vecteur propre V est dit vecteur propre généralisé d’ordre k de la matrice A, associé à la
valeur propre λ si et ssi :
(A − λI)k V = 0
(A − λI)k−1 V 6= 0 , k > 1

Exemple : (exercice N 5 de la série de TD N 1)


soit la matrice  
1 1 2
 
A = 0 1 3
 
 
0 0 2
Donc on aura :  
1−λ 1 2
 
(A − λI) =  0 1−λ
 
3 
 
0 0 2−λ
Le polynôme caractéristique est donc :
∆(λ) = det(A − λI) = (1 − λ)2 (2 − λ) ⇒ Deux valeurs propres.
λ1 = 2 → valeur propre simple.
λ2 = 1 → valeur propre double.
Calculons maintenant les vecteurs propres associés aux valeurs propres.

1. Pour λ1 = 2 :  
V11
 
on a AV1 = λ1 V1 où (A − λ1 I)V1 = 0, soit V1 = V12 
 
 
V13

12
    
−1 1 2 V 0
   11   
⇒ (A − λ1 I)V1 = 0 ⇒  0 −1 3 V12  = 0
    
    
0 0 0 V13 0
on obtient :

 
 5
 −V11 + V12 + 2V13 = 0  
⇒ V1 = 3
 
 −V + 3V = 0  
12 12
1

2. Pour λ2 = 1 :
on a :  
0 1 2
 
(A − λ2 I) = 0 0 3
 
 
0 0 1

rang(A − λ2 I) = 2 ⇒ ν(A − λ2 I) = 1
Alors l’équation (A − λ2 I)V = 0 possède qu’une seule solution . Et on a besoin de deux
solutions car λ2 = 1 est une valeur propre double. Donc on a :
    
0 0 5 V 0 
   21     rang(A − λ2 I) = 1
(A − λ2 I)2 = 0 0 3 V22  = 0
    
       ν(A − λ I) = 2
2
0 0 1 V23 0

⇒ On peut avoir deux solutions pour l’équation (A − λ2 I)2 V = 0.

    
0 0 5 V 0
   21   
(A − λ2 I)2 V = 0 ⇒ 0 0 3 V22  = 0
     
    
0 0 1 V23 0
On obtient alors : 


 5V23 = 0

3V23 = 0 ⇒ V23 = 0



 V =0
23

Pour V21 et V22 on les choisit comme suit :


on a deux solution V2 et V3

   
1 0
   
V2 = 0 , V3 = 1
   
   
0 0

13
Se sont deux vecteurs propres généralisés donc la matrice des vecteurs propres est :
   
5 1 0 1 1 0
   
V = [V1 , V2 , V3 ] = 3 0 1 et J = V −1 AV = 0 1
   
0
   
1 0 0 0 0 2

Les vecteurs V1 , V2 et V3 sont linéairement indépendants.


⇒ V −1 existe.
Λ = J = V −1 AV

On trouve :  
1 1 0
 
J = V −1 AV = 0 1 0
 
 
0 0 2
C’est une forme de bloc diagonales, appelée forme de Jordan, formée de bloc de Jordan.
−1 AV
⇒ eJt = eV t = V −1 eAt V

14

Vous aimerez peut-être aussi