Académique Documents
Professionnel Documents
Culture Documents
continus
10 novembre 2018
1.1 Objectif
ẋ(t) = A(t)x(t) + B(t)u(t)
, x(t0 ) = 0 (1.1)
y(t) = C(t)x(t) + D(t)u(t)
— Calculer x(t) et y(t) pour un état initial x0 et une entrée u(t) donnés.
— la connaissance de x(t) permet de déterminer y(t).
Dans ce cas l’entrée du système u(t) = 0, l’équation d’état 1.1 devient homogène :
ẋ(t) = A(t)x(t)
, ⇒ Problème de Cauchy (1.2)
x(t ) = x
0 0
Pour une condition initiale donnée, l’équation ẋ(t) = A(t)x(t) possède une seule solution.
Soient :
- x10 une première condition initiale → la solution est ψ1 (n × 1)
- x20 une deuxième condition initiale → la solution est ψ2 (n × 1)
.
- ..
- x∞
0 une ∞ condition initiale → la solution est ψ∞ (n × 1)
La dimension de la solution est (n × 1), tel que n est le nombre de variables d’état. Pour une
infinité de conditions initiales, on aura une infinité de solution ψ1 , ψ2 , ψ3 , . . . , ψ∞ , qui sont des
vecteurs de dimension n × 1. Parmi cette infinité de solution on peut sélectionner que n vecteurs
qui linéairement indépendant, on les note ψ1 , . . . , ψn . Les ψj , j = 1, . . . , n forment une base
d’un espace vectoriel qu’on appelle Espace d’état. Toute solution pour une condition initiale
donnée peut être exprimée par une combinaison linéaire de cette base. On définie la matrice
ψ(n × n) comme suit :
ψ(t) = [ψ1 (t), ψ2 (t), . . . , ψn (t)] (1.3)
1
0 0
ẋ(t) = x(t) (1.4)
t 0
La solution de l’équation ẋ1 (t) = 0 pour t0 = 0 est x1 (t) = x1 (0) ; la solution de l’équation
ẋ2 (t) = tx1 (t) = tx1 (0) est
Z t
x2 (t) = τ x1 (0)dτ + x2 (0) = 0.5t2 x1 (0) + x2 (0)
0
Pour une première condition initiale x(0) = [x1 (0) x2 (0)]T = [1 0]T , nous obtenons la
solution suivante :
x1 (0) 1 1
x(0) = = ⇒ ψ1 (t) = (1.5)
x2 (0) 0 0.5t2
Pour une première condition initiale x(0) = [x1 (0) x2 (0)]T = [1 2]T , nous obtenons la
solution suivante :
x1 (0) 1 1
x(0) = = ⇒ ψ2 (t) = (1.6)
x2 (0) 2 0.5t2 + 2
Nous remarquons que les deux solutions sont linéairement indépendantes, la matrice fonda-
mentale est donc :
ψ1 (t) 1 1
ψ(t) = = (1.7)
ψ2 (t) 0.5t2 0.5t2 + 2
Une propriété très importante de la matrice fondamentale est que ψ(t) n’est pas singulière 1
pour tous t. Dans l’exemple précédent ψ(t) a un déterminant égale à 0.5t2 + 2 − 0.5t2 = 2. Le
déterminant ne dépend pas de t, par conséquence ψ(t) n’est jamais singulière.
2
2. ψ −1 (t) existe.
dψ(t)
3. = A(t)ψ(t).
dt
4. ψ(t) n’est pas unique, toutes les ψ(t) sont liées par un changement de base. En effet si :
ψ̂(t) = ψ(t).P
telle que P est la matrice de changement de base, et elle est inversible. Alors ψ̂(t) est
aussi une matrice fondamentale.
5. ψ̂ −1 (t) = P −1 ψ −1 ⇒ existe.
dψ̂(t) d dψ(t)
6. = (ψ(t).P ) = .P = A(t) ψ(t).P (t) = A(t).ψ̂(t)
dt dt dt | {z }
ψ̂
Définition : Soit ψ(t) une matrice fondamentale de système ẋ(t) = A(t)x(t). Alors la matrice
est appelée matrice de transition du système ẋ(t) = A(t)x(t). Et elle est la solution unique de
d
φ(t, t0 ) = A(t)φ(t, t0 ) (1.9)
dt
avec la condition initiale φ(t0 , t0 ) = I
1. φ(t, t) = In .
1 1
ψ(t) = (1.10)
0.5t2 0.5t2 + 2
3
0.25t2 + 1 −0.5
ψ −1 (t) = (1.11)
−0.5t2 0.5
1 1 0.25t20 + 1 −0.5 1 0
φ(t) = = (1.12)
0.5t2 0.5t2 +2 −0.25t20 0.5 0.5(t2 − t20 ) 1
La solution de l’équation homogène ẋ(t) = A(t)x(t) avec x(t0 ) = x0 est donnée par :
On a x(t0 ) = φ(t0 , t0 ) x0 = x0
| {z }
I
et
dx(t) d
= (φ(t, t0 )x0 ) = A(t) φ(t, t0 )x0 = A(t)x(t)
dt dt | {z }
x(t)
4
1.3 Système forcé (solution de l’équation complète) :
ẋ(t) = A(t)x(t) + B(t)u(t)
(1.15)
x(t ) = x
0 0
On peut montrer que la solution de cette équation est donnée sous la forme suivante :
Zt Zt
x(t) = φ(t, t0 )x0 + φ(t, τ )B(τ )u(τ )dτ = φ(t, t0 ) x0 + φ(t0 , τ )B(τ )u(τ )dτ (1.16)
t0 t0
Démonstration : Nous montrons que la solution de l’équation d’état complète (1.16) satisfait
la condition initiale et l’équation d’état complète. On a :
Zt0
x(t0 ) = φ(t0 , t0 ) x0 + φ(t0 , τ )B(τ )u(τ )dτ = Ix0 + 0 = x0 .
| {z }
=I t0
| {z }
=0
Donc la condition initiale est vérifiée.
Rappel :
Zt0 Zt0
d d
F (t, τ )dτ = F (t, τ )|t=τ + F (t, τ )dτ (1.17)
dt dt
t0 t0
t
Z
dx(t) d d
= [φ(t, t0 )x0 ] + φ(t, τ )B(τ )u(τ )dτ (1.18)
dt dt dt
t0
ce qui donne :
Zt
dx(t)
= A(t) φ(t, t0 )x0 + φ(t, τ )B(τ )u(τ )dτ +B(t)u(t) = A(t)x(t) + B(t)u(t) (1.20)
dt
t0
| {z }
x(t)
5
1.3.1 Calcul de la sortie :
Propriété :
Rt
δ(t − τ )u(τ )dτ = u(t)
t0
Rt
Donc le terme D(t)u(t) = D(t)δ(t − τ )u(τ )dτ
t0
Rt
d’où : y(t) = C(t)φ(t, t0 )x0 + {C(t)φ(t, τ )B(τ ) + D(t)δ(t − τ )} u(τ )dτ
t0 | {z }
G(t,τ )
Sachant que le terme G(t, τ ) = C(t)φ(t, τ )B(τ ) + D(t)δ(t − τ ) représente la matrice réponse
impulsionnelle
6
1.5 Méthode de calcul de eAt :
Méthode 1 :
L{eAt } = (sI − A)−1 ⇒ eAt = L−1 {(sI − A)−1 }
Exemple :
1 0 s−1 0
A= ⇒ [sI − A] =
−2 −5 2 s+5
1 t
0 e 0
⇒ (sI − A)−1 = s−1 ⇒ eAt =
−2 1 1 −5t 1 t −5t
(s+1)(s+5) s+5 2e − 2e e
où
dl f
f (l) (λi ) = dλl λ=λ
i
Ce résultat provient du théorème de cayley-Hamilton qui dit que la matrice A est solution
de sa propre équation caractéristique.
L’équation caractéristique de A :
Exemple :
0 0 −2
A = 0 1 0
1 0 3
7
Soit f (λ) = eλt et soit un polynôme de degré 2, alors :
g(λ) = α0 + α1 λ + α2 λ2
- pour λ = λ1 = 1 :
on a f (λ1 ) = eλ1 t = et
et
f 0 (λ1 ) = tet
et on a : g 0 (λ1 ) = α1 + 2α2 λ1 = α1 + 2α2
donc on a :
1. λ = λ2 :
α0 = −2tet + e2t
⇒ α1 = 3tet + 2et − 2e2t
α2 = e2t − et − tet
f (A) = eAt = g(A) = α0 I3 + α1 A + α2 A2
2et − e2t 0 2et − 2e2t
At
⇒e =
t
0 e 0
−t t
e + 2e 0 2e − e 2t t
A = QΛQ−1 (1.28)
8
Si on choisit Q comme la matrice des vecteurs propres de A, alors : Λ va être une matrice
diagonale ( du moins dans beaucoup de cas) de type :
λ1 0 ... 0
.. .. ..
0 . . .
Λ=
.. .. ..
. . . 0
0 ... 0 λn
AVi = λi Vi
ou bien
(A − λi I)Vi = 0
Rappel :
Soit A une matrice m × n :
y = Ax
x ∈ Rn −−−−−−−−−−−−−−→ y = Ax
∈ Rm
| {z }
Espace de départ
| {z }
Espace image
9
Le noyau de A est l’ensemble des solutions x linéairement indépendantes de Ax = 0. La
dimension de ce noyau égale au nombre de solution linéairement indépendantes, est définie comme
étant la nullité de A.
ν(A) = dim{Ker(A)} (1.31)
Et on admet que :
ϕ(A) + ν(A) = n (1.32)
⇒ Λ = V −1 AV où bien A = V ΛV −1 Alors :
e λ1 t 0 . . . 0
.. .. ..
0 . . . −1
At
e =V .
. .
V
.. .. ..
0
0 ... 0 e λn t
10
. Pour λ2 = 1 .Alors les vecteurs propres associés àλ2 sont solution de (A − λ2 I)V23 = 0
1 0 −1 1 0 0 0 0 −1
A − λ2 I = 0 1 0 − 0 1 0 = 0 0 0
0 0 2 0 0 1 0 0 1
⇒ ϕ(A − λ2 I) = 1 ⇒ ν(A − λ2 I) = 3 − 1 = 2.
Donc l’équation (A − λ2 I)V23 = 0 admet deux solutions linéairement indépendantes.
1 0
V2 = 0 et V3 = 1
0 0
−1 1 0
soit V = [V1 , V2 , V3 ] = 0 0 1, alors :
1 0 0
2 0 0
Λ = V −1 AV = 0 1 0 ⇒ A = V ΛV −1
0 0 1
donc on obtient :
e2t 0 0 et 0 et − e2t
eAt = V 0 et 0 V −1 = 0 et
0
0 0 et 0 0 e2t
Exemple 2 :
1 1 2
A = 0 1 3
0 0 2
1. Pour λ1 = 2
le vecteur propre associé est solution de l’équation
5
(A − λ1 I)V1 = 0 ⇒ V1 = 3
1
11
2. Pour λ2 = 1,
les vecteurs propres associés sont solution de (A − λ2 I)V2 = 0, avec :
0 1 2
A − λ2 I = 0 0 3
0 0 1
Définition :
Un vecteur propre V est dit vecteur propre généralisé d’ordre k de la matrice A, associé à la
valeur propre λ si et ssi :
(A − λI)k V = 0
(A − λI)k−1 V 6= 0 , k > 1
1. Pour λ1 = 2 :
V11
on a AV1 = λ1 V1 où (A − λ1 I)V1 = 0, soit V1 = V12
V13
12
−1 1 2 V 0
11
⇒ (A − λ1 I)V1 = 0 ⇒ 0 −1 3 V12 = 0
0 0 0 V13 0
on obtient :
5
−V11 + V12 + 2V13 = 0
⇒ V1 = 3
−V + 3V = 0
12 12
1
2. Pour λ2 = 1 :
on a :
0 1 2
(A − λ2 I) = 0 0 3
0 0 1
rang(A − λ2 I) = 2 ⇒ ν(A − λ2 I) = 1
Alors l’équation (A − λ2 I)V = 0 possède qu’une seule solution . Et on a besoin de deux
solutions car λ2 = 1 est une valeur propre double. Donc on a :
0 0 5 V 0
21 rang(A − λ2 I) = 1
(A − λ2 I)2 = 0 0 3 V22 = 0
ν(A − λ I) = 2
2
0 0 1 V23 0
0 0 5 V 0
21
(A − λ2 I)2 V = 0 ⇒ 0 0 3 V22 = 0
0 0 1 V23 0
On obtient alors :
5V23 = 0
3V23 = 0 ⇒ V23 = 0
V =0
23
1 0
V2 = 0 , V3 = 1
0 0
13
Se sont deux vecteurs propres généralisés donc la matrice des vecteurs propres est :
5 1 0 1 1 0
V = [V1 , V2 , V3 ] = 3 0 1 et J = V −1 AV = 0 1
0
1 0 0 0 0 2
On trouve :
1 1 0
J = V −1 AV = 0 1 0
0 0 2
C’est une forme de bloc diagonales, appelée forme de Jordan, formée de bloc de Jordan.
−1 AV
⇒ eJt = eV t = V −1 eAt V
14