Vous êtes sur la page 1sur 62

Ministère de l'Enseignement ‫وزارة التعليم العالي والبحث العلمي‬

Supérieur et de la Recherche
Scientifique ‫جامـــعة بشــار‬
Université de Bechar ‫كلية العلوم والتكنولوجيا‬

Faculté des Sciences et Technologie


‫قســــم التكنولوجيا‬
Département de Technologie

Commande multivariable
Par

Mr : Dehini Rachid

Maître de Conférences Classe B

Spécialité: Génie Electrique

Année Universitaire : 2013/2014


Algèbre linéaire 2013

S o m m a i re

Sommaire…………………………………………………………...………………………….. 1

1. Introduction …………………………………………..……………...……………………….. 2

2. Calcul matriciel………………..…………… …………………………………………………… 2

3. Matrices et applications linéaires…………...………………….…………………………..… 5

4. Déterminants…………………..…………………………………………..............…………………. 9

5. Polynôme caractéristique…………………………………………………………...………………………….. 13

6. Normes………………………………….……………………….…………………………...………………………….. 14

7. La décomposition en valeurs singulières……….…………………………...………………………….. 16

8. Références bibliographie……………………….…………………………...……………………………….. 20

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 1
Algèbre linéaire 2013

1.1 Introduction.
L'apprentissage des outils de l'algèbre linéaire est essentiel avant de commencer le cours de la
commande multivariable. Nous présentons dans ce qui suit, les notions élémentaires de
l'algèbre linéaire.

1.2 Calcul matriciel


1.2.1Définitions

 Matrices
Une matrice à n lignes et p colonnes sur un corps K est un tableau d'éléments de K
comportant n lignes et p colonnes.
On note ai j l'élément d'une matrice A situé sur la ligne i et la colonne j. La matrice A s'écrit :

𝑎11 . . 𝑎1𝑝
. . . .
. . . . ou 𝑎𝑖𝑗 1≤𝑖≤𝑛 ou 𝑎𝑖𝑗 (1-1)
. . . . 1≤𝑗 ≤𝑝
𝑎𝑛1 . . 𝑎𝑛𝑝

On dit que A est de format (n,p), ou de type (n,p), ou de taille (n,p).L'ensemble des matrices à
n lignes et p colonnes, à coefficients dans K, est noté Mn,p(K).
Si p = 1, A est une matrice colonne que l'on peut assimiler à un vecteur de Kn.
Si n = 1, A est une matrice ligne que l'on peut assimiler à une forme linéaire appartenant à
(Kp)*
Si n = p, A est une matrice carrée d'ordre n. Mn,n(K) se note Mn(K). Les éléments a11,. . . ,ann
forment la diagonale principale de A.
Deux matrices A et B sont égales si elles sont de même format, et si ai j = bi j pour tout i ∈
{1, . . ., n} et pour tout j ∈ {1, . . ., p}.
 Matrices particulières
Soit A = (ai j ) une matrice carrée d'ordre n.
– A est triangulaire supérieure si ai j = 0 pour i > j.
– A est triangulaire inférieure si ai j = 0 pour i < j.
– A est diagonale si ai j = 0 pour i ≠j.On peut alors la noter : A = diag(a11,. . . ,ann).
– A est scalaire si A = a In.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 2
Algèbre linéaire 2013

1.2.2Opérations sur les matrices

 Espace vectoriel ℳ𝑛 ,𝑝 (𝕂)


Soit λ ∈ 𝕂, et A = (ai j) et B = (bi j) deux matrices de ℳ𝑛 ,𝑝 (𝕂).
On définit :
λ A = (λ ai j ) et A + B = (ai j + bi j ) . (1-2)

Pour ces deux lois, ℳ𝑛 ,𝑝 (𝕂) est un espace vectoriel.


Pour i ∈ {1, . . ., n} et j ∈ {1, . . ., p} fixés, on note Ei j la matrice dont le coefficient situé sur
la ligne i et la colonne j est égal à 1, et dont les autres coefficients sont égaux à 0. 𝐸𝑖𝑗 1≤𝑖≤𝑛
1≤𝑗 ≤𝑝

est la base canonique de 𝑛,𝑝 (𝕂), qui est donc de dimension n p.

 Produit de matrices
Si A est de format (n,p) et B de format (p,q), on définit la matrice C = AB, de format (n,q),
par :
𝑝
∀ 𝑖 ∈ 1, … . . , 𝑛 ∀ 𝑗 ∈ 1, … . . , 𝑞 𝑐𝑖𝑗 = 𝑘=1 𝑎𝑖𝑘 𝑏𝑘𝑗 (1-3)

NB :
-La condition d'existence de AB : nombre de colonnes de A = nombre de lignes de B.
-Ce produit est associatif et non commutatif.

Exemple1.1

2 3
1 −2 3 3 2 0 2
Soit les matrices 𝐴 = ;𝐵 = ;𝐶 = 0 1
4 5 −6 7 1 8 1
2 −1

Calculer 2A-3B ;AC et CB

Solution

1 −2 3 3 2 0
2𝐴 − 3𝐵 = 2 −3
4 5 −6 7 1 8

2 −4 6 9 6 0 −27 −10 6
2𝐴 − 3𝐵 = − =
8 10 −12 −21 3 24 29 7 −36

2 3
1 −2 3 2 7 −7
𝐴𝐶 = 0 1 = 2 2
4 5 −6 1 5 17
2 −1

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 3
Algèbre linéaire 2013

2 3 −9 11 12
2 3 2 0 2 2
𝐴𝐶 = 0 1 = −7 1 8
1 7 1 8 17
2 −1 2 0 −8

1.2.3 Matrices carrées d'ordre n

 Formule du binôme de Newton

Si AB = BA, alors :
𝑚 𝑚 𝑚
∀𝑚 ∈ ℕ 𝐴+𝐵 = 𝑘=0 𝐴𝑘 𝐵𝑚−𝑘 (1-4)
𝑘

 Matrices inversibles

Une matrice 𝐴 ∈ ℳ𝑛 ,𝑝 (𝕂) est inversible s'il existe 𝐵 ∈ ℳ𝑛 ,𝑝 (𝕂) telle que :

AB = BA = In. (1-5)

Si B existe, elle est unique et on la note A−1.


Les éléments inversibles de ℳ𝑛 (𝕂) forment un groupe 𝕂(𝐺𝐿𝑛 ), isomorphe au groupe
linéaire 𝐺𝐿(𝕂𝑛 ). On a en particulier :

(A B)−1 = B−1 A−1. (1-6)

Si A est inversible, alors l'endomorphisme f de E, muni d'une base B, qui lui est associé est
inversible ; et A−1 est la matrice de f −1.
Dans ℳ𝑛 (𝕂) , pour que A soit inversible, il suffit qu'elle soit inversible à droite, ou à gauche.

1.2.4 Transposition

 Définition
La transposée d'une matrice A de format (n,p), est la matrice de format (p,n), notée A t, de
terme général bi j :
∀ 𝑖 ∈ 1, … . . , 𝑝 ∀ 𝑗 ∈ 1, … . . , 𝑛 𝑏𝑖𝑗 = 𝑎𝑖𝑗 (1-7)

Elle est donc obtenue à partir de A en échangeant les lignes et les colonnes.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 4
Algèbre linéaire 2013

 Propriétés

(𝐴𝑡 )𝑡 = 𝐴 ; (𝜆𝐴)𝑡 = 𝜆𝐴𝑡 ; (𝐴 + 𝐵)𝑡 = 𝐴𝑡 + 𝐵𝑡 ; (𝐴𝐵)𝑡 = 𝐵𝑡 𝐴𝑡 ; (𝐴−1 )𝑡 = (𝐴𝑡 )−1

 Matrices symétriques, antisymétriques

Une matrice carrée A est symétrique si 𝐴𝑡 = 𝐴, antisymétrique si 𝐴𝑡 = −𝐴.


Les matrices symétriques et les matrices antisymétriques constituent des sous-espaces
vectoriels supplémentaires de ℳ𝑛 (𝕂) .
Exemple1.2

Déterminer la transposée des matrices suivantes

1 −2 3 −1 1 0 1
𝐴 = 2 −1 2 2 ; 𝐵 = 3 2 4
3 1 2 3 1 1 1
𝑡
Calculer 𝐴 × 𝐴 et 𝐵 × 𝑡 𝐵

Solution
1 2 3 1 3 1
𝑡
𝐴 = −2 −1 1 ; 𝑡
𝐵= 0 2 1
3 2 2 1 4 1
−1 2 3
1 2 3 1 −2 3 −1 14 −1 13 12
𝑡
𝐴×𝐴= −2 −1 1 2 −1 2 2 = −1 4 −6 3
3 2 2 3 1 2 3 13 −6 17 7
−1 2 3 12 3 7 14
1 0 1 1 3 1 2 7 2
𝑡
𝐵× 𝐵= 3 2 4 0 2 1 = 7 29 9
1 1 1 1 4 1 2 9 3

1.3. Matrices et applications linéaires


1.3. 1 Écritures matricielles

 Matrice d'une application linéaire de E dans F

Soit E et F des espaces vectoriels de dimensions p et n, munis de bases respectives


B = (e1,. . . ,ep) et C = ( f1,. . . , fn) .
Soit f une application linéaire de E dans F. Elle est déterminée par la donnée des vecteurs :

𝑛
𝑓 𝑒𝑗 = 𝑖=1 𝑎𝑖𝑗 𝑓𝑖 pour 1 ≤ 𝑗 ≤ 𝑝 , (1-8)

c'est-à-dire par la matrice A = (aij ) dont les vecteurs colonnes sont les composantes de f (ej )
dans la base de F qui a été choisie.
Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 5
Algèbre linéaire 2013

On dit que A est la matrice de f dans les bases B et C.


NB :
A dépend à la fois de l'application linéaire qu'elle représente et des bases choisies dans les
espaces vectoriels de départ et d'arrivée.

Si E est de dimension n, dans toute base l'identité de E est représentée par la matrice carrée In
qui comporte des 1 sur sa diagonale principale et des 0 ailleurs.

 Traduction matricielle de l'égalité vectorielle y = f (x)


Soit E et F deux espaces vectoriels de dimensions finies munis de bases respectives B et C, et
f une application linéaire de E dans F.
Soit x ∈ E et y ∈ F. Notons X la matrice colonne des composantes de x dans B,Y la matrice
colonne des composantes de y dans C, M la matrice de f dans les bases B et C.
L'égalité vectorielle y = f (x) est équivalente à l'égalité matricielle :

Y = MX. (1-9)

1.3. 2 Changement de bases


 Matrice de passage

/ /
Soit 𝐵 = (𝑒1 , … … . , 𝑒𝑝 ) et 𝐵/ = (𝑒1 … … … . 𝑒𝑝 ) deux bases d'un espace vectoriel E de
dimension p. On appelle matrice de passage de la base B à la base B/, la matrice P dont les
/
colonnes Cj sont les composantes des vecteurs 𝑒𝑗 dans la base B.

P est la matrice de l'identité de E muni de 𝐵/ , dans E muni de B. Si 𝑃 / est la matrice de


passage de 𝐵/ à B, on a 𝑃𝑃/ = 𝑃/ 𝑃 = 𝐼𝑝 . Toute matrice de passage est donc inversible.
Réciproquement, toute matrice inversible peut être considérée comme une matrice de passage.

 Effet d'un changement de bases

Sur les coordonnées d'un vecteur


Si X est la matrice colonne des composantes de x dans B, X/ la matrice colonne des
composantes de x dans B/ et P la matrice de passage de B à B/, on a :

X = PX/ ou encore X/ = P−1X. (1-10)

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 6
Algèbre linéaire 2013

Sur l'expression d'une forme linéaire


Si une forme linéaire sur E est représentée par une matrice ligne U = (α1, . . ., αn) dans une
base B, par U/ dans une base B/ et si P est la matrice de passage de B à B/, on a f (x) = UX =
U/X/ , soit :
U/ = U P. (1-11)

 Matrices équivalentes, matrices semblables

Soit f une application linéaire de E dans F, B et B/ deux bases de E, C et C/deux bases de F.


Notons P la matrice de passage de B à B/,
Q la matrice de passage de C à C/,
A la matrice de f dans les bases B et C,
A/ la matrice de f dans les bases B/ et C/ .
On a alors :
A/ = Q−1A P. (1-12)

Les matrices A et A/ sont dites équivalentes. Elles représentent la même application linéaire
dans des bases différentes.
Si E = F avec B = C et B/= C/, alors P = Q, soit A/ = P−1A P.
Les matrices A et A_ sont dites semblables.

1.3. 3 Rang d'une matrice

 Définition
Soit A une matrice de format (n,p), E un espace vectoriel de dimension p, F un espace
vectoriel de dimension n.
Quelles que soient les bases B et C choisies dans E et F, le rang de l'application linéaire f
associée à A est toujours le même. Ce rang est appelé rang de A.
C'est aussi le rang de vectrices colonnes de A, c'est-à-dire la dimension du sous-espace
vectoriel qu'ils engendrent.
Une matrice carrée d'ordre n est donc inversible si, et seulement si, son rang est égal à n.

 Rang de la transposée
A et A t ont même rang. On peut donc définir le rang de A à partir de ses lignes.

 Calcul du rang
Les opérations élémentaires sur les lignes, ou les colonnes, d'une matrice ne modifient pas le
rang. On les utilise pour se ramener à une matrice de rang connu.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 7
Algèbre linéaire 2013

1.3. 4 Trace

 Trace d'une matrice


La trace d'une matrice A = (ai j ) , carrée d'ordre n, est la somme de ses éléments diagonaux,
soit :
𝑛
𝑡𝑟𝐴 = 𝑖=1 𝑎𝑖𝑖 ∈𝕂 (1-13)

Elle vérifie les propriétés :

𝑡𝑟 𝐴 + 𝐵 = 𝑡𝑟𝐴 + 𝑡𝑟𝐵 ; 𝑡𝑟 𝜆𝐴 = 𝜆 𝑡𝑟𝐴 , 𝑡𝑟 𝐴𝐵 = 𝑡𝑟 𝐵𝐴 ,

𝑡𝑟 𝑃𝑀𝑃−1 = 𝑡𝑟 𝑀 .

 Trace d'un endomorphisme


Si f est un endomorphisme d'un espace vectoriel E de dimension finie, toutes les matrices qui
le représentent sont semblables et ont la même trace. Cette trace commune est la trace de
l'endomorphisme f.
Exemple1.3

Soit l’application linéaire 𝑓: ℝ3 → ℝ4

𝑥, 𝑦, 𝑧 ↦ 𝑥, 𝑥 + 𝑦, 𝑦 − 𝑧, 2𝑧

- Déterminer la matrice A de f dans les bases canoniques B et C de ℝ3 et ℝ4


respectivement
- Soient 𝐵 = 𝑒1′ 1,1,1 , 𝑒2′ 0,1,1 , 𝑒1′ 0,0,1 une base de ℝ3 ,

𝐶 = 𝑓1′ 1,1,1,1 , 𝑓2′ 0,1,1,1 , 𝑓3′ 0,0,1,1 , 𝑓4′ 0,0,0,1 une base de ℝ4 .

 Déterminer la matrice de passage P et Q de B à 𝐵 et de C à 𝐶 respectivement.


 En déduire la matrice 𝐴 de f dans les bases 𝐵 et 𝐶 .
 Déterminer les rangs de A et 𝐴

Solution
1) La matrice A dans 𝐵 = 𝑒1 , 𝑒2 , 𝑒3 , 𝐶 = 𝑓1 , 𝑓2 , 𝑓3 , 𝑓4

𝑓 𝑒1 = 1,1,0,0 = 𝑓1 +𝑓2

1 0 0
𝑓 𝑒2 = 0,1,1,0 = 𝑓2 + 𝑓3 𝐴= 1 1 0
0 1 −1
0 0 2
𝑓 𝑒3 = 0,0, −1,2 = −𝑓3 +2𝑓4

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 8
Algèbre linéaire 2013

2) La matrice P de B à 𝐵

𝑒1′ = 𝑒1 + 𝑒2 + 𝑒3

1 0 0
𝑒2′ = 𝑒2 + 𝑒3 ⇒𝑃= 1 1 0
1 1 1
𝑒3′ = 𝑒3

𝑓1′ = 𝑓1 + 𝑓2 + 𝑓3 + 𝑓4

1 0 0 0
𝑓2′ = 𝑓2 + 𝑓3 + 𝑓4 ⇒𝑄= 1 1 0 0
1 1 1 0
1 1 1 1
𝑓3′ = 𝑓3 + 𝑓4

𝑓4′ = 𝑓4

1 0 0 0
−1 1 0 0
𝑄 −1 =
0 −1 1 0
0 0 0 1
1 0 0

𝐴 =𝑄 −1
𝐴. 𝑃 = 1 1 0
−2 −1 −1
2 2 2

rangs de A et 𝐴

1 1 0
Vecteurs lignes 𝑉1 = 0 , 𝑉2 = 1 , 𝑉3 = 1 sont linéairement indépendant dans ℝ3
0 0 −1
donc rang(A)=3 𝐴 ⟶ 𝑙4 = −2𝑙1 +2𝑙2 −2𝑙3

de même pour 𝐴′ 𝐴′ ⟶ 𝑙4 = −2𝑙3 −2𝑙1

1.4. Déterminants

.
1 4.1Formes multilinéaires alternées
 Définitions
Soit E un K-espace vectoriel. Une application f, de En dans K, est une forme n linéaire si
chacune de ses applications partielles

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 9
Algèbre linéaire 2013

𝑥𝑖 ⟼ 𝑓(𝑥1 … … . . 𝑥𝑖 … … … . 𝑥𝑛 ) est linéaire.

On dit de plus que f est alternée si 𝑓 𝑥1 … … . . 𝑥𝑖 … … … . 𝑥𝑛 = 0 dès que deux vecteurs, au


moins, sont égaux.
f étant une forme n-linéaire alternée, σ une permutation appartenant à Sn, de signature ε(σ), on
a:
𝑓 𝑥𝜎 (1) … … . . 𝑥𝜎(𝑛) = 𝑓 𝑥1 … … . . 𝑥𝑛 𝜀 𝜎 .

 Cas où dim E = n
Soit E un 𝕂 − espace vectoriel de dimension n. Pour toute base (e1,. . . ,en) de E et tout 𝜆 ∈
𝕂, il existe une forme n-linéaire alternée unique f telle que
𝑓 𝑒1 … … . . 𝑒𝑛 = 𝜆 .

f étant une forme n-linéaire alternée non nulle, on a :

𝑥1 … … . . 𝑥𝑛 famille liée de 𝐸 ⟺ 𝑓 𝑥1 … … . . 𝑥𝑛 = 0

1.4.2Déterminants

 Déterminant de n vecteurs
Soit E un 𝕂 − espace vectoriel de dimension n, et 𝐵 = 𝑒1 … … . . 𝑒𝑛 une base de E.On
appelle déterminant de n vecteurs x1,. . . ,xn de E, relativement à la base B de E, la valeur notée
detB(x1,. . . ,xn) de l'unique forme n-linéaire alternée detB telle que detB(e1,. . . ,en) = 1 .
𝑛
Si pour tout 𝑖 ∈ 1, … … … , 𝑛 , on décompose 𝑥𝑖 = 𝑗 =1 𝑎𝑖𝑗 𝑒𝑗 , alors :

𝑑𝑒𝑡𝐵 𝑥1 … … . . 𝑥𝑛 = 𝜎𝜖 𝑆𝑛 𝜀(𝜎) × 𝑎1,𝜎(1) × … … … × 𝑎𝑛,𝜎(𝑛) . (1-14)

 Déterminant d'une matrice carrée

Soit 𝐴 = (𝑎𝑖𝑗 ) une matrice carrée d'ordre n.


On appelle déterminant de A le déterminant de ses n vecteurs colonnes, considérés comme
éléments de 𝕂𝑛 rapporté à sa base canonique.

 Déterminant d'un endomorphisme

Après avoir montré que deux matrices semblables ont le même déterminant, on appelle
déterminant d'un endomorphisme f, le déterminant commun à ses matrices représentatives
1.4.3 Propriétés des déterminants

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 10
Algèbre linéaire 2013

 Transposée
det 𝐴 = det 𝐴𝑡

Les propriétés relatives aux colonnes sont valables pour les lignes.

 Propriétés d'une forme multilinéaire alternée

– On ne change pas la valeur d'un déterminant en ajoutant à une de ses lignes (colonnes) une
combinaison linéaire des autres lignes (colonnes). Cette propriété est très utilisée pour faire
apparaître des 0 sur une colonne (ligne).
– Multiplier une ligne (ou une colonne) d'un déterminant par un scalaire, c'est multiplier le
déterminant par ce scalaire.
Si 𝐴 𝜖 ℳ𝑛 (𝕂) , on a donc det 𝜆𝐴 = 𝜆𝑛 det 𝐴 puisqu'on peut mettre λ en facteur dans
chacune des n colonnes de A.
– Toute transposition sur les lignes (ou les colonnes) transforme det 𝐴 en −det 𝜆𝐴 .

 Produit
det 𝐴𝐵 = det 𝐴 × det 𝐵 . (1-15)

 Développement suivant une rangée

Définitions
On appelle mineur de l'élément ai j de Δ, déterminant d'ordre n, le déterminant d'ordre n − 1
obtenu en supprimant la i-ième ligne et la j-ième colonne de Δ, sans changer l'ordre des autres
rangées.
Notation : Di j.
On appelle cofacteur de l'élément ai j, le nombre Ai j = (−1)i+j Di j .

Théorème
Un déterminant est égal à la somme des produits deux à deux des éléments d'une rangée (ligne
ou colonne) par leurs cofacteurs.
On utilise ce résultat après avoir fait apparaître sur une même rangée le plus possible de zéros.
NB :
Ce mode de calcul peut aussi servir de définition par récurrence d'un déterminant après avoir
démontré que le résultat du développement est indépendant de la ligne, ou de la colonne,
considérée.
C'est une définition plus accessible pour tous ceux que rebute un trop grand formalisme
mathématique.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 11
Algèbre linéaire 2013

Application
Le déterminant d'une matrice triangulaire est égal au produit des éléments diagonaux.

 Calcul par blocs

𝐴 𝐶
Soit M une matrice carrée de la forme 𝑀 =
0 𝐷

Où A et D sont des matrices carrées. On a: det 𝑀 = det 𝐴 × det 𝐷

 Matrice carrée inversible

𝐴 𝑖𝑛𝑣𝑒𝑟𝑠𝑖𝑏𝑙𝑒 ⟺ det 𝐴 ≠ 0.

On a alors det( 𝐴−1 ) = (det 𝐴)−1

Exemple1.4

Calculer le déterminant des matrices suivantes

1 0 2 1 2 3
2 5
𝐴= ; 𝐵 = 2 −1 3 ;𝐶 = 2 4 0
1 3
4 1 8 1 2 −1

Est-c les matrices que A, B et C sont inversible, si oui calculer leurs inverse.

Solution
𝑑é𝑡 𝐴 = 6 − 5 = 1

−1 3 2 −1
𝑑é𝑡 𝐵 = 1 × 𝑑é𝑡 + 2 × 𝑑é𝑡 = −11 + 2 × −2 = −15
1 8 4 1
2 4 1 2
𝑑é𝑡 𝐶 = 3 × 𝑑é𝑡 − 1 × 𝑑é𝑡 = 0+0 = 0
1 2 2 4
A et B sont deux matrices inversibles et C n’est pas inversible.

1 3 −1
𝐴−1 = . 𝑡 𝑐𝑜𝑚(𝐴) , avec 𝑐𝑜𝑚 𝐴 =
𝑑é𝑡 𝐴 −5 2
1 3 −5 3 −5
Donc 𝐴−1 = 1 . =
−1 2 −1 2
−11 −4 6
−1 1 𝑡
𝐵 = 𝑑é𝑡 . 𝑐𝑜𝑚(𝐵) , avec 𝑐𝑜𝑚 𝐵 = 2 0 −1 ,
𝐵
−2 1 −1
−11 2 −2
𝑡
donc 𝑐𝑜𝑚(𝐵) = −4 0 1
6 −1 −1

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 12
Algèbre linéaire 2013

11 −2 2
15 15 15
𝐵 −1
= 4 0 −1
15 15
−6 1 1
15 15 15

1.5 Polynôme caractéristique


Soient toujours E un 𝕂 − 𝑒𝑠𝑝𝑎𝑐𝑒 vectoriel de dimension finie n, f : E —► E un
endomorphisme de E, B une base de E et A = M(f,B,B) = (aij).

 Valeur propre.
On appelle valeur propre de f tout élément 𝜆 de 𝕂 tel que 𝑑é𝑡 𝑓 − 𝜆𝐼 = 0, autrement dit tel
que 𝑓 − 𝜆𝐼 ne soit pas injective.
On appelle valeur propre de A tout élément 𝜆 de 𝕂 tel que 𝑑é𝑡 𝐴 − 𝜆𝐼 = 0autrement dit
tel que 𝐴 − 𝜆𝐼 ne soit pas inversible.

 Vecteur propre.
On appelle vecteur propre de f (ou de A) associé à la valeur propre 𝜆 tout vecteur non nul de
ker⁡
(𝑓 − 𝜆𝐼), c'est-à-dire tout vecteur v non nul de E tel que 𝑓 𝑣 = 𝜆𝑣 ou 𝐴𝑉 = 𝜆𝑉 si V est
la matrice de v dans la base B.
Si f est diagonalisable, alors E admet une base formée de vecteurs propres de f. Le spectre
d'un endomorphisme f ou d'une matrice A est l'ensemble de ses vecteurs propres. On les note
spec( f ) ou spec(A).

 Espace propre.
On appelle espace propre de f associé à la valeur propre 𝜆 le sous-espace vectoriel ker⁡(𝑓 −
𝜆𝐼) de E, c'est-à-dire le sous-espace formé par les vecteurs v de E tels que 𝑓 𝑣 = 𝜆𝑣.

 Polynôme caractéristique.
On appelle polynôme caractéristique de f ou de A, le polynôme
𝜒 𝑓 = 𝑑é𝑡 𝑓 − 𝜆𝐼 = 𝜒 𝐴 = 𝑑é𝑡 𝐴 − 𝜆𝐼
C'est un polynôme de degré n en 𝜆.
Deux matrices semblables ont même polynôme caractéristique,
Exemple1.5

Déterminer les valeurs propres des matrices suivantes :

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 13
Algèbre linéaire 2013

14 −1 13 12
1 2 1
𝑎 𝑏
𝐴= ; 𝐵 = −2 −1 0 ; 𝐶 = −1 4 −6 3
𝑏 𝑎 13 −6 17 7
1 3 −1 12 3 7 14
Où a,b,c et d ∈ ℝ

Solution
𝑎 𝑏 2
𝐴= ; 𝑑é𝑡 𝐴 − 𝜆𝐼2 = 𝑎 − 𝜆 − 𝑏2
𝑏 𝑎
𝜆 = 𝑎 + 1, 𝜆 = 𝑎 − 𝑏 ,d’ordre 1

1 2 1
𝐵 = −2 −1 0 , 𝑑é𝑡 𝐵 − 𝜆𝐼3 = 𝜆 + 2 (−𝜆2 + 𝜆 − 4)
1 3 −1

𝜆 = −2, d’ordre 1

14 −1 13 12
𝐶= −1 4 −6 3 ; 𝑑é𝑡 𝐶 − 𝜆𝐼 = 𝜆2 𝜆 − 2𝑎 2
4
13 −6 17 7
12 3 7 14

𝜆 = 0, 𝜆 = 2𝑎 deux valeurs propres d’ordre 2

1.6 Normes
Pour calculer les longueurs des vecteurs dans un espace vectoriel nous avons besoin de la
norme. Une norme d’un espace vectoriel F sur le champ de nombres réels R ou des nombres
complexes C est définie comme une fonction qui associe les vecteurs x avec des nombres
réels non négatifs 𝑥 , et qui satisfait les propriétés suivantes :

1- Positivité : 𝑥 > 0 𝑝𝑜𝑢𝑟 𝑥 ≠ 0


2- homogénéité : 𝛼𝑥 = 𝛼 𝑥 pour tout scalaire 𝛼
3- 𝑥+𝑦 ≤ 𝑥 + 𝑦
 Norme d’un vecteur.

L’une des normes les plus importantes pour les vecteurs est p-norme. Elle est défini par :

1
𝑝 𝑝
𝑥 𝑝 = 𝑖 𝑎𝑖 𝑝≥1 (1-16)

Pour 𝑝 = 1 nous avons 1-norme ou une somme-norme de i.e. 𝑥 1 = 𝑖 𝑎𝑖

1
2 2
Pour 𝑝 = 2 nous avons 2-norme ou la norme euclidienne i.e. 𝑥 2 = 𝑖 𝑎𝑖

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 14
Algèbre linéaire 2013

Pour 𝑝 → ∞ nous avons ∞-norme ou le max norme i.e. 𝑥 ∞ = max𝑖 𝑎𝑖

 Normes des Fonctions réelles

L’espace des fonctions continues sur l’intervalle [0,1] forme un espace vectoriel. Une norme
définie sur cet espace est le 1-norme :

𝑓(𝑡) ∞ = sup𝑡∈ 0,1 𝑓(𝑡) (1-17)

elle permet de mesurer la valeur crête de la fonction dans l’intervalle [0,1].


Une autre norme est la 2-norme défini comme suit :

1
1 2 2
𝑓(𝑡) 2 = 0
𝑓(𝑡) 𝑑𝑡 (1-18)

 Normes des Matrices

Nous pouvons étendre la notion de norme des vecteurs aux matrices.


Considérons A comme une matrice de n × n

-La somme-norme pour les matrices est donnée par :

𝐴 𝑠𝑜𝑚 = 𝑖,𝑗 𝑎𝑖𝑗 (1-19)

-Norme de Frobenius (extension de 2-norme de vecteurs) est donnée par :

1
2 2
𝐴 𝐹 = 𝑖,𝑗 𝑎𝑖𝑗 (1-20)

-Norme élément Max (extension de max norme de vecteurs) est donnée par :

𝐴 𝑚𝑎𝑥 = max𝑖,𝑗 𝑎𝑖𝑗 (1-21)

Une norme d’une matrice est appelée matrice norme si elle satisfait la condition suivante :

𝐴𝐵 ≤ 𝐴 . 𝐵 (1-22)

Une matrice complexe de m×n peut être considéré comme un opérateur sur (dimension finie)
espace vectoriel normé Cn qui forme un vecteur de l’espace vectoriel Cn sur l’espace vectoriel
Cm. La induite-norme de A est définie :

𝐴 𝑖𝑝 = max 𝑥 𝑝 =1 𝐴𝑥 𝑝 (1-23)

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 15
Algèbre linéaire 2013

Où . 𝑝 est toute norme de vecteur.

De cette définition, il s’ensuit que la norme induite mesure la quantité de l’amplification de la


matrice A et fournit des vecteurs sur la sphère unité en Cn, c’est à dire qu’elle mesure le gain
de la matrice.

Si nous mettons p = 1, nous avons donc :

𝐴 𝑖𝑙 = max 𝑥 𝑙 =1 𝐴𝑥 1 = max𝑗 𝑖 𝑎𝑖𝑗 Somme maximale de la colonne. (1-24)

Pour 𝑝 → ∞ nous avons :

𝐴 𝑖∞ = max 𝑥 ∞ =1 𝐴𝑥 ∞ = max𝑗 𝑖 𝑎𝑖𝑗 Somme maximale de ligne. (1-25)

Matrices unitaires

Une matrice U ∈ Cn×n est unitaire si UHU= I où UH désigne le Conjugué de la transposée de la


matrice U, qui est aussi appelée la hermitienne transposée ou transposée conjuguée.
Une matrice U ∈ Rn×n est orthogonale si UT U= I, où UT désigne la transposée.

Propriété :
Si U est unitaire, alors 𝑈𝑥 2 = 𝑥 2.

1.7 La décomposition en valeurs singulières


Théorème1.2
Si une matrice A de mxn a r valeurs singulières non nulles,𝜎1 ≥ 𝜎2 ≥ ⋯ 𝜎𝑟 > 0
avec 𝜎𝑟+1 = … … … . . = 𝜎𝑛 = 0, alors rang de A = r.

La décomposition de A nécessite une matrice Σ "diagonale" de (m×n) sous la forme :

𝐷 0
Σ= (1-26)
0 0

Où D est une matrice diagonale de r×r pour r ne dépassant pas la plus petite de m et n. (Si r
est égal à n et/ou m, toutes ou une partie des matrices nulles n'apparaîtra pas.)

Théorème1.2
Soit A une matrice mxn de rang r. Alors, il existe une matrice Σ mxn comme (1-26) où, les
éléments diagonaux de D sont les premières r valeurs singulières de A, et il existe deux
matrices orthogonales U mxm et V nxn de telle sorte que

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 16
Algèbre linéaire 2013

A = UΣV T (1-27)

Toute factorisation A = UΣVT , avec U et V sont orthogonales et Σ comme (1-11), est appelée
la décomposition en valeur singulière (SVD) de A. Les matrices U et V ne sont pas uniques,
mais les éléments diagonaux de Σ sont nécessairement les valeurs singulières de A.
Les colonnes de U dans une telle décomposition sont appelées vecteurs singuliers à gauche de
A, et les colonnes de V sont appelées vecteurs singuliers à droit de A.

Soit {𝑣1 … . . . , 𝑣𝑛 } une base orthonormée de Rn des vecteurs propres de (ATA), ordonnées de
telles sortes que les valeurs propres correspondantes de (ATA) respecter la condition suivante
𝜆1 ≥ 𝜆2 ≥ ⋯ ≥ 𝜆𝑛 .

Alors 𝜎𝑖 = 𝜆𝑖 = 𝐴𝑣𝑖 > 0 pour 1 ≤ 𝑖 ≤ 𝑟 et {𝐴𝑣1 … . . . , 𝐴𝑣𝑟 } est une base orthogonale
de col A. pour 1 ≤ 𝑖 ≤ 𝑟

1 1
𝑢𝑖 = 𝐴𝑣𝑖 = 𝜎 𝐴𝑣𝑖 (1-28)
𝐴𝑣𝑖 𝑖

Tel que

𝐴𝑣𝑖 = 𝜎𝑖 𝑢𝑖 (1 ≤ 𝑖 ≤ 𝑟) (1-29)

Alors {𝑢1 … . . . , 𝑢𝑛 } est une base orthonormée de Col A. Étendre cet ensemble à une base
orthonormée {𝑢1 … . . . , 𝑢𝑚 } de Rm, et soit

𝑈 = 𝑢1 𝑢2 … . . . , 𝑢𝑚 et 𝑉 = 𝑣1 𝑣2 … . . . , 𝑣𝑛

Ensuite, U et V sont des matrices orthogonales.


En outre, à partir de (1-14),
𝐴𝑉 = 𝐴𝑣1 𝐴𝑣2 … . . . , 𝐴𝑣𝑟 0 … … … 0 = 𝜎1 𝑢1 𝜎2 𝑢2 … . . . , 𝜎𝑟 𝑢𝑟 0 … … … . .0
Soit D la matrice diagonale avec des entrées diagonales𝜎1 , 𝜎2 , … 𝜎𝑟 , et soit Σ comme dans (1-
26) ci-dessus. Alors

𝜎1 0
𝜎2 0
𝑈Σ = 𝑢1 𝑢2 … . . . , 𝑢𝑚
.
0 . 𝜎2
0 0

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 17
Algèbre linéaire 2013

= 𝜎1 𝑢1 𝜎2 𝑢2 … . . . , 𝜎𝑟 𝑢𝑟 0 … … … . .0 = 𝐴𝑉

Comme V est une matrice orthogonale,

UΣV T = AVV T =A

Exemple1.6

4 11 14
Trouver la décomposition en valeurs singulières de la matrice A : 𝐴 =
8 7 −2
Solution

4 8 80 100 40
4 11 14
𝐴𝑇 𝐴 = 11 7 = 100 170 140
8 7 −2
14 −2 40 140 200
Les valeurs propres de 𝐴𝑇 𝐴

𝜆1 = 360, 𝜆2 = 90, 𝜆3 = 0

Vecteurs propres unitaires correspondants

80 100 40 𝑥1 𝑥1
𝐴𝑇 𝐴𝑉1 = 𝜆1 𝑉1 ⟹ 100 170 140 𝑥2 = 360 𝑥2
40 140 200 𝑥3 𝑥3
Avec 𝑉1 2 =1

On déduire

1 −2 2
3 3 3
𝑉1 = 2 3 , 𝑉2 = −1
3 , 𝑉3 =
−2
3
2 2 1
3 3 3
1
3
4 11 14 2 18
𝐴𝑉1 = 3 = 6 on a 𝐴𝑣𝑖 = 𝜎𝑖 = 𝜆1 = 360 = 6 10
8 7 −2
2
3
−2
3
4 11 14 −1 3
𝐴𝑉2 = 3 =
8 7 −2 −9
2
3
3
1 1 18 10
𝑢1 = 𝐴𝑉1 = =
𝜎1 6 10 6 1
10

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 18
Algèbre linéaire 2013

1
1 1 3 10
𝑢2 = 𝜎 𝐴𝑉2 = 3 =
2 10 −9 −3
10

Donc {𝑢1 , 𝑢2 } est une base pour R2. Soit 𝑈 = 𝑢1 , 𝑢2 , 𝑉 = 𝑉1 , 𝑉2 , 𝑉3 et

6 10 0
𝐷= , Σ = 6 10 0 0
0 3 10 0 3 10 0

1 2 2
3 1 3 3 3
10 10 6 10 0 0 −2 −1 2
𝐴= 3 3 3
1 −3 0 3 10 0
10 10 2 −2 1
3 3 3
A= U Σ VT

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 19
Algèbre linéaire 2013

1-7Références bibliographie

1- Pierre FLORENT, Michelle LAUTON,Gérard LAUTON ‹‹ Algèbre linéaire outils


et modèles mathématiques›› Livre ,LIBRAIRIE VUIBERT 63, boulevard Saint-Germain
1977.
2- Michel Demazure, ‹‹Cours d'algèbre›› Livre, Cassini, Paris, 2008

3- Jean-Pierre Escofier ‹‹TOUTE L'ALGÈBRE DE LA LICENCE Cours et exercices


corrigés ›› livre ,2e édition, Dunod, Paris, 2006, ISBN 2 10 048976 3

5- J. QUERRÉ ‹‹COURS D'ALGÈBRE ››Livre, MASSON Paris New York Barcelone


Milan 1976

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 20
Introduction au contrôle multivariable 2013

S o m m a i re

Sommaire…………………………………………………………...………………………….. 21

1. Introduction …………………………………………..……………...……………………….. 22

2. Connexions multivariables.…………… …………………………………………………… 22

3. Pôles multivariables ……………...………………………………………………..……………… 25

4. Zéros multivariables…………………………………………………..............…………………. 28

5. La forme de Smith d'une matrice polynomiale …………………………...………………………….. 36

6. La forme de Smith-McMillan ……………………….…………………………...………………………….. 38

7. Références bibliographie……………………….…………………………...……………………………….. 43

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 21
Introduction au contrôle multivariable 2013

2.1 Introduction.
Les processus avec une seule sortie étant contrôlée par une seule variable manipulée sont
classés comme des systèmes à sortie unique et entrée unique (SISO). Cependant, de
nombreux processus ne vérifient pas une telle configuration de contrôle simple. Par exemple,
dans le processus industriel, n’importe quelle unité de traitement capable de fabriquer ou de
raffiner un produit ne peut pas le faire avec une boucle de régulation uniquement. En effet,
généralement chaque opération unitaire nécessite un contrôle avec au moins deux variables,
par exemple le taux de production et la qualité du produit. Par conséquent, Il ya au moins
deux boucles de régulation pour satisfaire ayant une telle opération. Les systèmes ayant plus
d'une boucle de contrôle sont connus comme plusieurs-sorties et plusieurs-entrée (MIMO) ou
les systèmes multivariables.Ce chapitre examine certains aspects importants des systèmes
multivariables. (MIMO) interconnexions, pôles et des zéros dans le système (MIMO), forme
Smith pour matrice polynomiale, Smith forme McMillan (SMM) forme.

2.2 Connexions multivariables


Considérons un système MIMO avec (m) entrées et (l) sorties, dont la fonction de transfert du
modèle est :

𝑌 𝑠 = 𝐺 𝑠 . 𝑈(𝑠) (2-1)

𝑦1 𝑠 𝑢1 𝑠
𝑦2 𝑠 𝑢2 𝑠
𝑌 𝑠 = .. , , 𝑈 𝑠 = ..
. .
𝑦𝑙 𝑠 𝑢𝑚 𝑠

𝑔11 𝑠 𝑔12 𝑠 ⋯ ⋯ 𝑔1𝑚 𝑠


𝐺 𝑠 = 𝑔21 𝑠 𝑔22 𝑠 ⋯ ⋯ 𝑔2𝑚 𝑠 (2-2)
⋮ ⋮ ⋮
𝑔𝑙1 𝑠 𝑔𝑙2 𝑠 𝑔𝑙𝑚 𝑠

Avec y(s) : vecteurs de l×1

U(s) : vecteurs de m×1

G(s) : est la matrice de transfert l×m

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 22
Introduction au contrôle multivariable 2013
Exemple2.1

Considérons le système montré par la figure suivante :

𝑢1 𝑠 𝑔11 𝑠 𝑦1 𝑠

𝑔21 𝑠

Interconnexion

𝑔12 𝑠

𝑢2 𝑠 𝑔22 𝑠 𝑦2 𝑠

Figure.2.1 Plan multivaribles à deux entrées et deux sorties

𝑌 𝑠 = 𝐺 𝑠 . 𝑈(𝑠)

𝑦1 𝑠 = 𝑔11 𝑠 𝑢1 𝑠 + 𝑔12 𝑠 𝑢2 𝑠 𝑔11 𝑠 𝑔12 𝑠


, 𝐺 𝑠 = (2-3)
𝑦2 𝑠 = 𝑔21 𝑠 𝑢1 𝑠 + 𝑔22 𝑠 𝑢2 𝑠 𝑔21 𝑠 𝑔22 𝑠

La figure suivant montre l’interconnexion en cascade (série) des matrices de transfert.

𝑢1 𝑠 𝑔1 𝑠 𝑔2 𝑠 𝑦1 𝑠

Figure.1.2 l’interconnexion cascade (série)

La matrice de transfert de l'ensemble du système est le suivant:

𝑦 𝑠 = 𝐺 𝑠 . 𝑢(𝑠) = 𝑔2 𝑠 ∙ 𝑔1 𝑠 ∙ 𝑢 𝑠 (2-4)

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 23
Introduction au contrôle multivariable 2013
Notez que les matrices de transfert doivent avoir des dimensions appropriées.

L’nterconnexion parallèle des matrices de transfert est illustrée à la figure 2-3

𝑔1 𝑠

𝑢 𝑠 𝑦 𝑠
𝑔2 𝑠

Figure.2.3 l’interconnexion cascade (série)

La matrice de transfert de l'ensemble du système est le suivant:

𝑦 𝑠 = 𝐺 𝑠 . 𝑢 𝑠 = (𝑔2 𝑠 + 𝑔1 𝑠 ) ∙ 𝑢 𝑠 (2-5)

Notez que les matrices de transfert doivent avoir des dimensions appropriées.

L’interconnexion d’une boucle de retour des matrices de transfert est illustrée à la figure 2-4.

𝑢1 𝑠 𝑔1 𝑠 𝑔2 𝑠 𝑦1 𝑠
(a)

𝑦1 𝑠 (b)
𝑢1 𝑠 𝑔1 𝑠

𝑔2 𝑠

Figure.2.4 L’interconnexion d’une boucle de retour

Les matrices de transfert de l'ensemble de deux systèmes sont:


−1
(a) 𝑦 𝑠 = 𝐺 𝑠 . 𝑢(𝑠) = 𝐼 + 𝑔2 𝑠 ∙ 𝑔1 𝑠 ∙ 𝑔2 𝑠 ∙ 𝑔1 𝑠 𝑢 𝑠 (2-6)
−1
(b) 𝑦 𝑠 = 𝐺 𝑠 . 𝑢(𝑠) = 𝐼 + 𝑔2 𝑠 ∙ 𝑔1 𝑠 ∙ 𝑔1 𝑠 𝑢 𝑠 (2-7)

Notez que les matrices de transfert doivent avoir des dimensions appropriées.

Une relation utile dans le multivariables est la règle Push-through.


−1 −1
𝐼 + 𝑔2 𝑠 ∙ 𝑔1 𝑠 ∙ 𝑔2 𝑠 = 𝑔2 𝑠 ∙ 𝐼 + 𝑔1 𝑠 ∙ 𝑔2 𝑠 (2-8)

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 24
Introduction au contrôle multivariable 2013
La règle MIMO :

Pour tirer la sortie d'un système, commencer à partir de la sortie et écrire tous les blocs que
vous rencontrer lors du déplacement vers l'arrière (contre l’écoulement du signal) jusqu’à
l'entrée. Si vous quittez une boucle fermée alors incluez le terme (𝐼 − 𝐿)−1 ou (𝐼 + 𝐿)−1
selon le signe de la boucle où L est la fonction de transfert autour de cette boucle (évaluée
contre l’écoulement du signal à partir du point de sortie de la boucle). Les branches parallèles
doivent être traitées indépendamment et leurs contributions s'additionnent.

Exemple.2.2

Déterminer la fonction de transfert du système suivant.

𝑃22

𝑃21 K 𝑃12

W Z
𝑃11

Comme il y a deux voies parallèles à partir de l’entrée vers la sortie par le règle MIMO la
fonction de transfert est:

−1
𝑍 = 𝑃11 + 𝑃12 𝐾 𝐼 − 𝑃22 ∙ 𝐾 ∙ 𝑃21 𝑊

2-3 Pôles multivariables


Les pôles d'un système peuvent être déterminés à partir de la réalisation de l’espace d’état et
les fonctions de transfert.

1-3-1 Pôles déterminés par la réalisation de l’espace d’état

Nous définissons les pôles d'un système en termes de valeurs propres de la matrice de l'espace
d'état.

Définition 2.1:

Les pôles Pi d'un système avec représentation d’espace- état (A, B, C, D) sont les valeurs
propres λ i (A) = 1, 2, ...,n de la matrice A. Le polynôme des pôles ou le polynôme

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 25
Introduction au contrôle multivariable 2013
caractéristique φ (s) est défini comme φ (s) = det (sI - A). Ainsi, les pôles du système sont les
racines du polynôme caractéristique.

𝜑 𝑠 = det⁡
(𝑠𝐼 − 𝐴) (2-9)

Notez que si A ne correspond pas à une réalisation minimale alors les pôles de cette définition
seront inclus, les pôles (valeurs propres) correspondant à des états incontrôlables et / ou non
observables.

Exemple2.3

Considérons le système déterminé à partir de la réalisation de l’espace d’état suivant.


𝑥 = 𝐴𝑥 + 𝐵𝑢
𝑦 = 𝐶𝑥 + 𝐷𝑢

1 0 −3 0
𝐴= 0 0 0 ,𝐵 = 0 ,𝐶 = 1 2 1 ,𝐷=0
0 2 −2 1

On détermine les pôles de ce système.

Les pôles de ce système sont les racines du polynôme caractéristique 𝜑 𝑠 = det⁡


(𝑠𝐼 − 𝐴)

𝑠−1 0 3
𝑑𝑒𝑡 𝑠𝐼 − 𝐴 = 0 𝑠 0 = ⁡s(𝑠 − 1)(𝑠 + 2)
0 −2 𝑠+2

donc le système a trois pôles s=0,s=1,s=-2

2-3-2 Pôles déterminés par les fonctions de transfert

Les pôles de G (s) peuvent être un peu vaguement définis comme des valeurs finies s= p où
G (p) a une singularité (est infinie).

Le théorème suivant de MacFarlane et Karcanias permet d'obtenir les pôles directement à


partir de la matrice des fonctions de transfert G (s) comme il est également utile pour les
calculs manuels. Il a aussi l'avantage d'obtenir que les pôles correspondant à une réalisation
minimale du système.

Théorème2.1
Le polynôme des pôles φ (s) correspondant à une réalisation minimale d'un système avec la
fonction de transfert G (s) est le plus petit dénominateur commun de tous les mineurs non
identiquement nuls de tous les ordres de G (s). Un mineur d'une matrice est le déterminant de
la matrice carrée obtenue en supprimant certains lignes et / ou colonnes de la matrice.
Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 26
Introduction au contrôle multivariable 2013

Exemple2.3

Considérons la matrice carrée d’une fonction de transfert.

1 s−3 s
G s = .
0,5. s + 3 (s + 1) −8 s−1
Les mineurs d’ordre 1 sont les quatre éléments qui sont tous [(s+1) (s+3)] inclus dans le
dénominateur.

Le mineur d'ordre 2 est le déterminant

s − 3 s − 1 + 8s
det(G s ) =
0,5. s + 3 (s + 1) 2
Note l’élimination (pôle-zéro) lors de l’évaluation de déterminant. Le plus petit dénominateur
commun de tous les mineurs est alors

𝜑 𝑠 =⁡
(𝑠 + 3)(𝑠 + 1)

Donc une réalisation minimale du système a deux pôles une à s = -3 et l'autre à s = -1.

Exemple2.4

Considérons le système suivant avec 3 entrées et 2 sorties.

1 s − 2 (s + 2) s − 2 (s + 2) − s + 2 (s + 3)
G s = .
s + 2 (s + 3) s − 2 s−2 2 0 s − 2 (s + 3)

Les mineurs d'ordre 1 sont les éléments de G (s), ils sont donc

1 1 −1 s−2 1
, , , ,
s+3 s+3 s−2 s + 2 (s + 3) s + 2

Les mineurs d'ordre 2 correspondant à la suppression des différentes colonnes sont

− s−2 1 2
2
, ,
s + 2 (s + 3) s + 2 (s + 3) s + 2 (s + 3)

En tenant compte de tous les mineurs, on trouve leur plus petit dénominateur commun

𝜑 𝑠 = ⁡s + 2 (𝑠 − 2)(s + 3)2

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 27
Introduction au contrôle multivariable 2013
Le système a donc quatre pôles deux à s = -3,un à s = -2 et un à s = 2 et.A partir des exemples
ci-dessus, nous voyons que les pôles multivariables sont essentiellement les pôles des
éléments. Toutefois, en regardant uniquement les éléments, il est impossible de déterminer la
variété des pôles.

2-4 Zéros multivariables


Les zéros d'un système apparaissent lorsque des effets concurrents internes au système sont
tels que la sortie est nulle même si les entrées et les États ne sont pas eux-mêmes
identiquement nuls.

2-4-1 Zéros déterminés par la réalisation de l’espace d’état

Les zéros sont généralement calculés à partir de la réalisation de l’espace d’état du système.
Notons d'abord que les équations de l'espace étatiques d'un système peuvent être rédigées
comme

𝑥 𝑜 𝑠𝐼 − 𝐴 −𝐵
𝑃 𝑠 = 𝑦 , 𝑃 𝑠 = (2-10)
𝑢 𝐶 𝐷

Les zéros sont alors les valeurs de s = z pour lesquelles la matrice du système polynôme P (s)
perd rang résultant de la sortie de zéro pour une certaine entrée non nulle. Numériquement les
zéros sont trouvés comme des solutions signifiant au problème suivant

𝑥𝑧
𝑧𝐼𝑔 − 𝑀 𝑢𝑧 = 0 (2-11)

𝐴 𝐵 𝐼 0
Où 𝑀= , 𝐼𝑔 = .
𝐶 𝐷 0 0
Ceci est résolu comme un problème aux valeurs propres généralisé. (Dans le problème de
valeur propre conventionnelle nous avons𝐼𝑔 = 𝐼).

Les zéros résultant d'une réalisation minimale sont parfois appelés les zéros de transmission. Si nous
n'avons pas une réalisation minimale, les calculs numériques peuvent donner des invariants zéros
supplémentaires. Ces zéros invariants ainsi que les zéros de transmission sont parfois appelés les zéros
du système. Les zéros invariants peuvent être subdivisés en entrée et zéros de découplage de sortie.
Ces pôles cancel associés à des états incontrôlables ou inobservables et donc ont une signification
pratique limitée.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 28
Introduction au contrôle multivariable 2013
Si les sorties du système contiennent des informations directes sur chacun des états et pas de
connexion directe de l'entrée, alors il n'y a pas de zéros de transmission. Ce serait le cas si C=I
et D=0 , par exemple.

Pour les systèmes carrés avec (m =p) entrées et sorties et n Etats, les limites sur le nombre de
zéros de transmission sont:

D≠0 : au plus n-m+rang(D) zéros.


D=0 : au plus n-2m+rang(CB) zéros. (2-12)
D=0 et rang (CB)=m : exactement (n-m) zéros.

Exemple1.5 :

Considérons la réalisation de l’espace d’état suivant

𝑥 = 𝐴𝑥 + 𝐵𝑢
𝑦 = 𝐶𝑥 + 𝐷𝑢

1 0 −3 0
𝐴= 0 0 0 ,𝐵 = 0 ,𝐶 = 1 2 0 ,𝐷=0
0 2 −2 1

Déterminer les zéros du système.

Solution:

D'abord, nous tirons le nombre de zéros de transmission selon l'équation 2-10.


Le produit de la CB est

0
𝐶𝐵 = 1 2 0. 0 =0
1

Donc, puisque D = 0 selon l'équation 2-10 le système possède au plus ( n −2m+rang (CB)= 3
− 2 = 1) zéros.

Pour trouver la valeur de zéro, nous construisons M et I g comme suit :

1 0 −3 0 1 1 0 0
𝐴 𝐵 0 0 0 0 𝐼 0 0 1 0 0
𝑀= = , 𝐼𝑔 = =
𝐶 𝐷 0 2 −2 1 0 0 0 0 1 0
1 2 0 0 0 0 0 0

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 29
Introduction au contrôle multivariable 2013
𝑠−1 0 3 0
𝑧𝐼𝑔 − 𝑀 = 0 𝑠 0 0
0 −2 𝑠 + 2 −1
−1 −2 0 0
𝑠−1 0 3
𝑑𝑒𝑡 𝑧𝐼𝑔 − 𝑀 = −1 −1 0 𝑠 0 = 3(𝑠)
−1 −2 0
Par l'utilisation du problème des valeurs propres généralisées, on peut déduire les zéros.
Donc le système a un zéro en s = 0.

Exemple2.6 :

Considérons la réalisation de l’espace d’état suivant

𝑥 = 𝐴𝑥 + 𝐵𝑢
𝑦 = 𝐶𝑥 + 𝐷𝑢

1 0 0 0
𝐴= 0 0 2 ,𝐵 = 1 ,𝐶 = 3 2 0 ,𝐷=0
−2 0 −3 0

Déterminer les zéros du système.

Solution:

D'abord, nous tirons le nombre de zéros de transmission selon l'équation 2-10.


Le produit de la CB est

0
𝐶𝐵 = 4 1 0. 0 =0
1

Pour trouver la valeur de zéro, nous construisons M et I g comme suit :

1 0 0 0 1 1 0 0
𝐴 𝐵 0 0 2 1 𝐼 0
𝑀= = , 𝐼𝑔 = = 0 1 0 0
𝐶 𝐷 −2 0 −3 0 0 0 0 0 1 0
3 2 0 0 0 0 0 0
Par l'utilisation du problème des valeurs propres généralisée,

𝑠−1 0 0 0
𝐴 𝐵 0 𝑠 −2 − 1
𝑠𝐼𝑔 − 𝑀 = =
𝐶 𝐷 2 0 𝑠+3 0
−3 −2 0 0

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 30
Introduction au contrôle multivariable 2013
𝑠 −2 −1
det 𝑠𝐼𝑔 − 𝑀 = 𝑠 − 1 . 0 𝑠 + 3 0
−2 0 0

0 𝑠+3
det 𝑠𝐼𝑔 − 𝑀 = − 𝑠 − 1 . = −2 𝑠 − 1 (𝑠 + 3)
−2 0

On peut déduire les zéros.


Donc le système a deux zéros en s= -3 et s=1.

Théorème1.2

𝑥 = 𝐴𝑥 + 𝐵𝑢
Soit le système
𝑦 = 𝐶𝑥

A est de dimension n×n

B est de dimension n×m

C est de dimension m×n


−1
Soit 𝐻 𝑠 = 𝐶 𝑠𝐼 − 𝐴 𝐵 sa matrice de transfert (carrée , de dimension m×m) alors
𝜓(𝑝)
𝑑𝑒𝑡 𝐻 𝑧 = 𝜙 (𝑝) .

Où 𝜙(𝑠) = 𝑑𝑒𝑡 𝑠𝐼 − 𝐴 et 𝜓(𝑝) est un polynôme de degré n-m, ou moins

Exemple2.7 :

Considérons la réalisation de l’espace d’état suivant

𝑥 = 𝐴𝑥 + 𝐵𝑢
𝑦 = 𝐶𝑥 + 𝐷𝑢

0 1 0 0
𝐴= 0 0 1 ,𝐵 = 0 ,𝐶 = 4 1 0 ,𝐷=0
0 −6 −5 1

Déterminer les zéros du ce système.


𝑠 −1 0
𝑠𝐼 − 𝐴 = 0 𝑠 −1
0 6 𝑠+5
𝑠 −1
𝑑𝑒𝑡 𝑠𝐼 − 𝐴 = 𝑠 = 𝑠 2 𝑠 + 5 + 6𝑠
6 𝑠+5

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 31
Introduction au contrôle multivariable 2013
𝑠 0 0
𝑡 𝑡
𝑠𝐼 − 𝐴 = −1 𝑠 6 , 𝐹 = 𝑐𝑜𝑚 𝑠𝐼 − 𝐴
0 −1 𝑠+5
𝑠 6 −1 6 −1 𝑠
𝐹11 = = 𝑠 𝑠 + 5 + 6 , 𝐹12 = −1 = 𝑠 + 5 , 𝐹13 = =1
−1 𝑠+5 0 𝑠+5 0 −1

0 0 𝑠 0 𝑠 0
𝐹21 = −1 = 0 , 𝐹22 = = 𝑠 𝑠 + 5 , 𝐹23 = −1 = 𝑠,
−1 𝑠+5 0 𝑠+5 0 −1
0 0 𝑠 0 𝑠 0
𝐹31 = = 0 , 𝐹32 = −1 = −6𝑠 , 𝐹33 = = 𝑠2 .
𝑠 −6 −1 6 −1 𝑠

1 𝑠 𝑠+5 +6 𝑠+5 1
−1
𝑠𝐼 − 𝐴 = 2 0 𝑠 𝑠+5 𝑠
𝑠 𝑠 + 5 + 6𝑠
0 −6𝑠 𝑠2

−1
(4 + 𝑠)
𝐶 𝑠𝐼 − 𝐴 𝐵=
𝑠 2 𝑠 + 5 + 6𝑠

Le système a un seul zéro s=-4

Exemple2.8 :

Considérons la réalisation de l’espace d’état suivant

𝑥 = 𝐴𝑥 + 𝐵𝑢
𝑦 = 𝐶𝑥 + 𝐷𝑢

1 0 0 0
𝐴= 0 0 2 ,𝐵 = 1 ,𝐶 = 3 2 0 ,𝐷=0
−2 0 −3 0

Déterminer les zéros du système.


𝑠−1 0 0
𝑠𝐼 − 𝐴 = 0 𝑠 −2
2 0 𝑠+3
𝑠 −2
𝑑𝑒𝑡 𝑠𝐼 − 𝐴 = (𝑠 − 1) = 𝑠−1 𝑠+3 𝑠
0 𝑠+3
𝑠−1 0 2
𝑡 𝑡
𝑠𝐼 − 𝐴 = 0 𝑠 0 , 𝐹 = 𝑐𝑜𝑚 𝑠𝐼 − 𝐴
0 −2 𝑠+3
𝑠 0
𝐹11 = = 𝑠 𝑠 − 3 , 𝐹12 = 0 , 𝐹13 = 0
−2 𝑠+3

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 32
Introduction au contrôle multivariable 2013
0 2 𝑠−1 2
𝐹21 = −1 = −4 , 𝐹22 = = (𝑠 − 1) 𝑠 + 3 ,
−2 𝑠+3 0 𝑠+3
𝑠−1 0 0 2
𝐹23 = −1 = 2(𝑠 − 1), 𝐹31 = = −2𝑠 , 𝐹32 = 0 ,
0 −2 𝑠 0
𝑠−1 0
𝐹33 = = 𝑠(𝑠 − 1).
0 𝑠

1 𝑠 𝑠+3 0 0
−1
𝑠𝐼 − 𝐴 = −4 (𝑠 − 1) 𝑠 + 3 2(𝑠 − 1)
𝑠 𝑠−1 𝑠+3
−2𝑠 0 𝑠(𝑠 − 1)

−1
1
𝐶 𝑠𝐼 − 𝐴 = 3𝑠 𝑠 + 3 − 8 2 𝑠 − 1 𝑠 + 3 4 𝑠−1
𝑠 𝑠−1 𝑠+3

−1
2 𝑠−1 𝑠+3
𝐶 𝑠𝐼 − 𝐴 𝐵=
𝑠 𝑠−1 𝑠+3

Le système a deux zéros s=-3 et s=1.

Le système a trois pôles s=-3, s=0 et s=1.

2-4-2 Les zéros déterminés par les fonctions de transfert

Pour un système SISO les zéros zi sont les solutions de G (zi) = 0. En général, on peut
affirmer que les zéros sont les valeurs de s au cas ou G(s) perd rang. C'est la base pour la
définition suivante de zéros d'un système multivarié (MacFarlane et Karcanias).

Définition 2.2

zi est un zéro de G (s) si le rang de G (z i) est inférieur au rang de G (s).


𝑛𝑧
Le polynôme des zéro est définie comme 𝑧 𝑠 = 𝑖=1 𝑠 − 𝑧𝑖 Où n z est le nombre fini de
zéros de G (s).

Nous ne considérons pas les zéros à l'infini. Nous exigeons que zi est fini.
Rappelons que le rang normal de G (s) est le rang de G (s) à toutes les valeurs de s, sauf au
nombre fini de singularités (qui sont les zéros). Notons que cette définition des zéros est basée
sur la matrice de fonction de transfert correspondant à une réalisation minimale d'un système.
Ces zéros sont parfois appelés zéros de transmission, mais nous allons simplement les appeler
les zéros. Nous pouvons parfois utiliser le terme zéros de multivariables afin de les distinguer
des zéros des éléments de la matrice de fonction de transfert.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 33
Introduction au contrôle multivariable 2013
Le théorème suivant de MacFarlane et Karcanias est utile pour calculer manuellement les
zéros d'une matrice de fonction de transfert G (s) à la main.

Théorème2.3
Le polynôme des zéros z(s) correspondant à une réalisation minimale du système est le plus
grand diviseur commun de tous les numérateurs de tous les mineurs ordre-r de G (s) où r est
le rang normal de G (s) à condition que ces mineurs aient été ajustées de telle manière à avoir
le polynomiale polaire φ(s) comme leurs dénominateurs.

Exemple2.9 :

Considérons la matrice de fonction de transfert :

1 9 −2(s − 2)
G s = .
(s + 1) s − 2 −2
Le rang de G (s) est 2 et le mineur d'ordre 2 est le déterminant de G (s)

2
−18 + 2 s − 2 s−5
det G s = =2
s+1 2 s+1

D'après le théorème 1-1 le polynôme de pôle est φ(s)=s+1 et par conséquent, le polynôme de
zéro est z (s) = s - 5. Ainsi G (s) possède un seul RHP-zéro en s = 5.En général, cela montre
que, les zéros multivariables n'ont aucune relation avec les zéros de la fonction de transfer des
éléments. Ceci est également illustré par l'exemple suivant avec un système sans zéros.

Exemple2.10 :

Considérons le système suivant

1 s−3 s
G s = .
0,5. s + 3 (s + 1) −8 s−1
Selon l'exemple 1.3 le polynôme de pôle:

𝜑 𝑠 =⁡
(𝑠 + 3)(𝑠 + 1)

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 34
Introduction au contrôle multivariable 2013

Le rang normal de G (s) est de 2 et le mineur d'ordre 2 est le déterminant de G (s), où


𝑑𝑒𝑡⁡
(G s ) avec 𝜑 s comme son dénominateur est :

𝑠 − 3 𝑠 − 1 + 8𝑠 1
det 𝐺 𝑠 = =
(0.5 𝑠 + 3 𝑠 + 1 )2 0.52 𝑠 + 3 𝑠 + 1

Ainsi, le polynôme de zéro est donné par le numérateur qui est 1, et nous trouvons que le
système n’a pas de zéros multivariables.

Exemple2.10 :

Considérons le système
𝑠−2 𝑠−3
𝐺 𝑠 =
𝑠+2 𝑠+3

Le rang normal de G (s) est de 1 et puisqu'il n'y a pas de valeur de s pour lequel les deux
éléments deviennent zéro, G (s) n'a pas de zéros.
En général, les systèmes non carrés sont moins susceptibles d'avoir des zéros par rapport aux
systèmes carrés. Ce qui suit est un exemple d'un système de non-carrée qui a un zéro.

Exemple2.10 :
Considérons le système suivant

1 s − 2 (s + 2) s − 2 (s + 2) − s + 2 (s + 3)
G s = .
s + 2 (s + 3) s − 2 s−2 2 0 s − 2 (s + 3)

Selon l'exemple 1-4 le polynôme de pôle est:

𝜑 𝑠 = ⁡s + 2 (𝑠 − 2)(s + 3)2

Les mineurs d'ordre 2 avec φ s coTapez une équation ici.mme leurs dénominateurs sont

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 35
Introduction au contrôle multivariable 2013
− s−2 2 (𝑠 − 2)(s + 3) 2 s + 3 (𝑠 − 2)
2
, ,
s + 2 (𝑠 − 2)(s + 3) s + 2 (𝑠 − 2)(s + 3) s + 2 (𝑠 − 2)(s + 3)2
2

Le plus grand diviseur commun de tous les numérateurs de tous les mineurs ordre 2 est z (s) =
s -2. Ainsi, le système a un RHP-zéro unique situé à s = 2.
D’après cet exemple on peut constater qu'une réalisation minimale d'un système MIMO peut
avoir des pôles et les zéros ont la même valeur de s à condition que leurs directions soient
différentes.

2-5La forme de Smith d'une matrice polynomiale

Supposons que Π (s) est une matrice polynomiale. La forme Smith de Π (s) est désignée par
Πs(s), et elle est une pseudo diagonal dans la forme ci-dessous

𝑠 = 𝑑𝑠 (𝑠) 0
𝑠
0 0

𝑑𝑠 (𝑠) est une matrice diagonale carrée dans la forme ci-dessous

𝑑𝑠 (𝑠)=diag 𝜀1 𝑠 , 𝜀2 𝑠 , … … … … … . 𝜀𝑟 𝑠 (2-13)

En outre, 𝜀𝑖 𝑠 est un facteur de 𝜀𝑖+1 𝑠 .


𝜒𝑖
𝜀𝑖 𝑠 est dérivé à partir des mineurs de Π (s) comme 𝜀𝑖 𝑠 =
𝜒 𝑖−1

Où 𝜒𝑖 dérivé par:

𝜒0 = 1
𝜒1 = 𝑔𝑐𝑑 tous les mineurs unitaires de degré 1
𝜒2 = 𝑔𝑐𝑑 tous les mineurs unitaires de degré 2

.
. (2-14)
.
𝜒𝑟 = 𝑔𝑐𝑑 tous les mineurs unitaire de degré r

(gcd) signifie le plus grand diviseur commun et l’unitaire est un polynôme où le coefficient de
son plus haut degré est un.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 36
Introduction au contrôle multivariable 2013
Pour la matrice polynomiale, Les trois opérations élémentaires sont utilisées pour retrouver la
forme Smith.

• multipliant une ligne ou une colonne par une constante;


• échangeant deux lignes ou deux colonnes; et
• Ajout d'un multiple polynôme d'une ligne ou d'une colonne à une autre ligne ou colonne.

Ces opérations sont effectuées sur une matrice de transfert Π (s) soit par pré-multiplication ou
post-multiplication par des matrices de polynômes unimodulaires appelées matrices
élémentaires. Une matrice polynômiale est unimodulaire si son inverse est également une
matrice polynomiale. Les Pré-multiplication de Π (s) par un matrice élémentaire produit
l'opération de ligne correspondant, tandis que la post-multiplication produit une opération de
colonne.

Πs(s) est Smith forme de Π (s) et on dit qu’ils sont équivalents, indiqué par Πs (s)~Π(s) s'il
existe un ensemble de matrices élémentaires Li et Ri tels que

𝛱𝑠 𝑠 = 𝐿𝑛2 𝑠 … … . 𝐿2 (𝑠)𝐿1 (𝑠)𝛱(𝑠)𝑅1 (𝑠)𝑅2 (𝑠) … … . 𝑅𝑛1 𝑠 (2-15)

Exemple2.11 :
Considérons la matrice polynomiale suivante

−(s + 2) 1
Π s =
−2 2(s + 2)

Donc nous avons 𝜒0 = 1 ,𝜒1 = 𝑔𝑐𝑑 s + 2,1,1, s + 2 = 1


,𝜒2 = 𝑔𝑐𝑑 𝑠 2 + 4𝑠 + 3 = (𝑠 + 1)(𝑠 + 3)

Et maintenant 𝜀𝑖 𝑠 sont les suivants:

𝜒 𝜒
𝜀1 𝑠 = 𝜒 1 = 1 et 𝜀2 𝑠 = 𝜒 2 = (𝑠 + 1)(𝑠 + 3)
0 1

La forme Smith de Π (s) est:

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 37
Introduction au contrôle multivariable 2013
1 0
Πs s =
0 (𝑠 + 1)(𝑠 + 3)

Exemple2.12 :
Considérons la matrice polynomiale suivante

2 −(𝑠 − 2) −1
Π 𝑠 = 2 2
𝑠 − 2𝑠 − 3 2𝑠 − 𝑠 − 3 (𝑠 + 1)

Donc nous avons 𝜒0 = 1 ,𝜒1 = 𝑔𝑐𝑑 1, 𝑠 − 2 , 1, 𝑠 2 − 2𝑠 − 3, 𝑠 2 − 0.5𝑠 − 1.5, 𝑠 + 1 = 1


et 𝜒2 = 𝑔𝑐𝑑 𝑠(𝑠 2 − 1), 𝑠 2 − 1, (𝑠 2 − 1) = (𝑠 2 − 1)

et maintenant 𝜀𝑖 𝑠 sont les suivants:

𝜒 𝜒
𝜀1 𝑠 = 𝜒 1 = 1 et 𝜀2 𝑠 = 𝜒 2 = (𝑠2 − 1)
0 1

La forme Smith de Π (s) est:

1 0 0
Πs s = 0 (𝑠2 − 1) 0

2-6La forme de Smith-McMillan

La forme de Smith-McMillan est utilisée pour déterminer les pôles et les zéros des matrices
de transfert des systèmes à plusieurs entrées et / ou sorties. La matrice de transfert est une
matrice de fonctions de transfert entre les différentes entrées et sorties du système. Les pôles
et les zéros qui sont d'intérêt sont les pôles et les zéros de la matrice de transfert elle-même, et
non pas les pôles et les zéros des différents éléments de la matrice. Sont disponibles par
l'inspection des fonctions de transfert individuelles, mais le nombre total des pôles et leur
multiplicité n'est pas. L'emplacement des zéros d’un système, ou même leur existence, ne sont
pas disponibles en consultant les éléments individuels de la matrice de transfert.
La matrice de transfert sera notée G (s). Le nombre de lignes de G (s) est égal au nombre de
sorties du système; qui sera désigné par m. Le nombre de colonnes dans G (s) est égal au
nombre d'entrées du système, qui sera désigné par p. Ainsi, G (s) est une matrice p × m de
fonction transfert. Le rang normal de G (s) est r, où r ≤ min {p, m}.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 38
Introduction au contrôle multivariable 2013
Le théorème suivant donne une forme diagonale pour une matrice rationnelle de fonction
transfert:

Théorème 1-4 (Smith-McMillan formulaire)

Soit 𝐺 𝑠 = [𝑔𝑖𝑗 (𝑠)] une matrice de fonction de transfert de m × p, où 𝑔𝑖𝑗 (𝑠) sont les
fonctions de transfert scalaire et rationnel, 𝐺 𝑠 peut être représenté par:

Π(𝑠)
𝐺 𝑠 =𝐷 (2-16)
𝐺 (𝑠)

Où Π(s) est une polynômiale matrice m×p de rang r et DG(s) est le plus petit commun
multiple des dénominateurs de tous les éléments de G (s).

Alors, 𝐺 (𝑠) est la forme de Smith McMillan de G (s) et peut être obtenu directement par

Π (𝑠) 1 Π𝑑𝑠 (𝑠) 0 𝑀(𝑠) 0


𝐺 𝑠 = 𝐷 s (𝑠) = 𝐷 = (2-17)
𝐺 𝐺 (𝑠) 0 0 0 0

Où M (s) est:

𝜀 1 (𝑠) 𝜀 2 (𝑠) 𝜀 (𝑠)


𝑀 𝑠 = 𝑑𝑖𝑎𝑔 ,𝛿 , … … … … … . , 𝛿𝑟 (2-18)
𝛿1 𝑠 2 𝑠 𝑟 𝑠

Où 𝜀𝑖 𝑠 , 𝛿𝑖 𝑠 est une paire de polynômes unitaires et premiers pour i =1, 2, ..., r.


En outre, 𝜀𝑖 𝑠 est un facteur de 𝜀𝑖+1 𝑠 et 𝛿𝑖+1 𝑠 est un facteur de 𝛿𝑖 𝑠 .
Les éléments de la matrice M (s) peuvent être définis par:

𝜀 (𝑠) 𝜀 (𝑠)
𝑚𝑖𝑖 (𝑠) = 𝐷 𝑖 = 𝛿𝑖 (2-19)
𝐺 𝑠 𝑖 𝑠

Où 𝜀𝑖 (𝑠) sont des éléments diagonaux de Π s (s) (la forme de Smith of Π (s)) en tant que

𝑑𝑠 (𝑠)=𝑑𝑖𝑎𝑔 𝜀1 𝑠 , 𝜀2 𝑠 , … … … … … . 𝜀𝑟 𝑠 (2-20)

Nous rappelons qu'une matrice G (s), et sa forme Smith-McMillan 𝐺 𝑠 sont des matrices
équivalentes. Ainsi, il existe deux matrices unimodulaires, L (s) et R (s), de telle sorte que

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 39
Introduction au contrôle multivariable 2013

𝐺 𝑠 = 𝐿 𝑠 𝐺 𝑠 𝑅(𝑠) (2-21)

L (s) et R (s) sont les matrices unimodulaires qui convertissent Π (s) à sa forme Smith Πs(s).
Ensuite, il exister deux matrices 𝐿 𝑠 et 𝑅 𝑠 R, tels que

𝐺 𝑠 = 𝐿 𝑠 𝐺 𝑠 𝑅 (𝑠) (2-22)

Où 𝐿 𝑠 et 𝑅 (𝑠) sont également unimodulaire et:

𝐿 𝑠 = 𝐿−1 (𝑠) 𝑅 𝑠 = 𝑅 −1 (𝑠) (2-23)

Les pôles et les zéros de la matrice de transfert G (s) peuvent être trouvés à partir des
éléments de M (s).
Le pôle polynôme est défini comme étant

𝑟
∅ 𝑠 = 𝑖=1 𝛿𝑖 𝑠 = 𝛿1 𝑠 𝛿2 𝑠 … … … . . 𝛿𝑟 (𝑠) (2-24)

Les pôles répétés peuvent aussi être identifiés par l'inspection de ∅ 𝑠 . Le nombre total de
pôles dans le système est donné par le deg⁡
(∅ 𝑠 ), qui est connu comme le degré de
McMillan. Il est de la dimension d’une représentation d’espace-état minimale de G (s).
La représentation d'espace d'états de G (s) peut être de l'ordre supérieur au degré de
McMillan, indiquant une annulation des pôles-zéros dans le système.

De la même façon, le polynôme zéro est définies comme

𝑟
𝑧 𝑠 = 𝑖=1 𝜀𝑖 𝑠 = 𝜀1 𝑠 𝜀2 𝑠 … … … . . 𝜀𝑟 (𝑠) (2-25)

Les racines de z(s) = 0 sont connus comme les zéros de transmission de G (s). On voit que
tout zéro de transmission du système doit être un facteur d'au moins l'un des
polynômes𝜀𝑖 𝑠 . Le rang normal de M (s) et G (s) est r. Il est clair que le cas échéant 𝜀𝑖 𝑠 est
nul, alors le rang de M (s) est diminué en dessous de r. Par conséquent, comme les rangs de M
(s) et G (s) sont toujours égaux, alors G (s) perd rang.Nous illustrons la forme Smith-
McMillan par un exemple simple.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 40
Introduction au contrôle multivariable 2013

Exemple2.12 :
Considérons la matrice polynomiale suivante

−1 1
(𝑠 + 1) (𝑠 + 1)(𝑠 + 2)
𝐺 𝑠 =
−2 2
(𝑠 + 1)(𝑠 + 2) (𝑠 + 1)

On peut alors exprimer G (s) sous la forme:

Π(𝑠) −(s + 2) 1
𝐺 𝑠 = , Π s = , 𝐷𝐺 𝑠 = (𝑠 + 1)(𝑠 + 2)
𝐷𝐺 (𝑠) −2 2(s + 2)

Selon l’exemple 1-11 la forme de Smith de Π (s) est:

1 0
Πs 𝑠 =
0 (𝑠 + 1)(𝑠 + 3)

Donc, la forme de Smith McMillan de G (s) est:

1
0
Πs (𝑠) (𝑠 + 1)(𝑠 + 2)
𝐺 𝑠 = = (𝑠 + 3)
𝐷𝐺 (𝑠)
0
(𝑠 + 2)

De toute évidence le polynôme de pôle et le polynôme de zéro sont:

𝜙 𝑠 = (𝑠 + 1)(𝑠 + 2)2 , 𝑧 𝑠 = (𝑠 + 3).

Exemple2.13 :
Prenons l'exemple suivant d'un système avec m = 3 sorties et p = 2 entrées. La matrice de
transfert est indiquée ci-dessous;

2 −(𝑠 − 2) −1
(𝑠 + 1)(𝑠 + 2) (𝑠 + 1)(𝑠 + 2) (𝑠 + 1)(𝑠 + 2)
G 𝑠 =
𝑠 2 − 2𝑠 − 3 2𝑠 2 − 𝑠 − 3 1
(𝑠 + 1)(𝑠 + 2) (𝑠 + 1)(𝑠 + 2) (𝑠 + 2)

On peut alors exprimer G (s) sous la forme:

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 41
Introduction au contrôle multivariable 2013

Π(𝑠) 2 −(𝑠 − 2) −1
𝐺 𝑠 =𝐷 ,Π 𝑠 = 2 ,
𝐺 (𝑠) 𝑠 − 2𝑠 − 3 2𝑠2 − 𝑠 − 3 (𝑠 + 1)

𝐷𝐺 𝑠 = (𝑠 + 1)(𝑠 + 2)

Selon l’exemple 1-12 la forme Smith de Π (s) est:

1 0 0
Πs 𝑠 = 0 (𝑠2 − 1) 0

Donc, la forme de Smith McMillan G (s) est:

1
0 0
Πs (𝑠) (𝑠 + 1)(𝑠 + 2)
𝐺 𝑠 = =
(𝑠 − 1)
𝐷𝐺 (𝑠)
0 0
(𝑠 + 2)

Clairement le polynôme de pôle et polynôme de zéro sont:

𝜙 𝑠 = (𝑠 + 2)2 (𝑠 + 1) , 𝑧 𝑠 = (𝑠 − 1)

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 42
Introduction au contrôle multivariable 2013

2-7Références bibliographie

1-Ali Karimpour ‹‹ Lectures on Multivariable Feedback Control›› book,Department of


Electrical Engineering, Faculty of Engineering, Ferdowsi University of Mashhad (September
2009).

2-Sigurd Skogestad, Ian Postleth ‹‹ MULTIVARIABLE FEEDBACK CONTROL


Analysis and design›› book,JOHN WILEY AND SONS.

3-P.Albertos and A.sala ‹‹ MultivariableControl Systems An Engineering Approach ››


book,British Library Cataloguing in Publication ,Springer-Verlag London Limited2004.

4-Efim N. Rosenwasser and Bernhard P. Lampe‹‹ Multivariable Computer-controlled


Systems›› book,British Library Cataloguing in Publication ,Springer-Verlag London
Limited2006.

5- Eric Ostertag ‹‹ Mono- and Multivariable Control and Estimation›› book, Library of
Congress Control Number: 2010936361 , Springer-Verlag Berlin Heidelberg 2011.

6-Y. Zhu ‹‹Multivariable System Identification for Process Control›› book, Publisher:
October 2001Elsevier Science & Technology Books.

7- Graham C. Goodwin, Stefan F. Graebe , Mario E. Salgado ‹‹CONTROL SYSTEM


DESIGN›› book,Valparaiso, January 2000.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 43
Stabilité des systèmes multivariables 2013

S o m m a i re

Sommaire…………………………………………………………...………………………….. 44

1. Introduction …………………………………………..……………...……………………….. 45

2. Le bien posé de boucle de retour d’état ….……………………………………………….… 45

3. Stabilité interne………………………………………………………………..……………… 47

4. Factorisations co-premier sur les fonctions de transfert stable……..............…………………. 53

5. Contrôleurs de stabilisation ……………………...…………………………...………………………….. 56

6. Références bibliographie……………………….…………………………...……………………………….. 61

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 44
Stabilité des systèmes multivariables 2013

3.1 Introduction.
Ce chapitre présente la structure de retour d’état et discute ses propriétés de stabilité.
L’arrangement de ce chapitre est la suivante: Section 3-1 présente la structure de retour d’état
et décrit la configuration de retour d’état générale et le bien posé de la boucle de retour d’état
est défini. Ensuite, la notion de stabilité interne est introduite et la relation est établie entre la
caractérisation de l'espace d'état de la stabilité interne et la caractérisation de la matrice de
transfert de la stabilité interne dans la section 3-2. Les factorisations premières stables des
matrices rationnelles sont également introduites dans la section 3-3. Section 3-4 traite
comment réaliser un contrôleur de stabilisation. Enfin, la section 4-5 introduit la stabilisation
forte et simultanée.

3-2 le bien posé de la boucle de retour d’état

Nous allons examiner la configuration de retour d’état standard présenté dans la figure 3-1. Il
se compose d’un plan interconnecté P et un contrôleur K forcé par commande r, capteur de
bruit n, l'entrée du plan de perturbation di et la sortie du plan de perturbation d. En général,
tous les signaux sont supposés être multivariables, et toutes les matrices de transfert sont
supposées avoir des dimensions appropriées.

𝒅𝒊
𝒅
𝒚
r u 𝒖𝒑
K P

Figure 3-1. Configuration de retour d’état standard

Supposons que le plan P et le contrôleur K dans la figure 3-1 sont des matrices de transfert
réel rationnelle fixés. Alors la première question que l'on peut se poser est de savoir si
l'interconnexion de retour d’état est physiquement réalisable. Pour être plus précis,
considérons un exemple simple où

𝑠−1
𝑃 = − 𝑠+2 , 𝐾 = 1

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 45
Stabilité des systèmes multivariables 2013
Sont deux fonctions de transfert approprié. Cependant, i.e., les fonctions de transfert à partir
des signaux externes r, n, d et di vers u ne sont pas appropriées.

𝑠+2 𝑠−1
𝑢= 𝑟−𝑛−𝑑 + 𝑑𝑖
3 3

Par conséquent, le système de retour d’état n'est pas physiquement réalisable!

Définition 3-1

Un système de retour d’état est dit être bien posé si toutes les matrices de transfert en boucle
fermée sont bien définîtes et appropriées.

Supposons maintenant que tous les signaux externes r, n, d et di sont spécifiés et que les
matrices de transfert de la boucle fermée à partir de ces signaux vers u sont respectivement
bien définies et appropriées.

Donc, y et tous les autres signaux sont également bien définis et les matrices de transfert liées
sont propres. En outre, comme les matrices de transfert à partir de d et n à u sont identiques et
diffèrent de la matrice de transfert à partir de r à u seulement par un signe, le système est bien
posé si et seulement si la matrice de transfert à partir de di et d à u existe et est approprié.

Théorème 3-1

Le système de retour d’état à la figure 3-1 est bien posé si et seulement si

𝐼 + 𝐾 ∞ 𝑃(∞) est réversible. (3-1)

Preuve. Comme nous l'expliquons, le système est bien posé si et seulement si la matrice de
transfert de di et d à u existe et est approprié. La matrice de transfert à partir de di-et d à u est:

𝑑
𝑢 = −(𝐼 + 𝐾𝑃)−1 𝐾 𝐾𝑃 𝑑
𝑖

Ainsi, bien posé est équivaut à la condition que (𝐼 + 𝐾𝑃)−1 existe et est appropriée. Mais ceci
équivalent à la condition que le terme constant de la matrice de transfert 𝐼 + 𝐾 ∞ 𝑃(∞) est

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 46
Stabilité des systèmes multivariables 2013
inversible. Il est facile de montrer que (3-1) est équivalente à l'une des deux conditions
suivantes:

𝐼 𝐾∞
est inversible
−𝑃 ∞ 𝐼
(3-2)
𝐼+𝐾 ∞ 𝑃 ∞ est inversible

La condition bien posée est simple à énoncer en termes de réalisations de l’espace d’état.
Introduire les réalisations de P et de K:

𝐴 𝐵
𝑃≅
𝐶 𝐷
(3-3)

𝐾≅ 𝐴 𝐵
𝐶 𝐷

Alors P (∞) = D et K (∞) = D. Par exemple, bien posé dans (3-2) est équivalent à la condition
que

𝐼 𝐷 est inversible (3-4)


−𝐷 𝐼

Heureusement, dans la plupart des cas pratiques, nous aurons D = 0, et donc bien posé pour
les systèmes les plus pratiques à contrôle sont garantis.

3-3 stabilité interne

Considérons un système décrit par le schéma standard dans la figure 3-1 et supposons que le
système est bien posé. En outre, supposons que les réalisations de P (s) et K (s) donnée dans
l'équation (3-3) sont aptes d’être stables et détectables.
Soit 𝒙 et 𝒙 désignant respectivement les vecteurs d'état pour P et K écrivons les équations
d'état en Figure 3-1 avec r, d, di et n mis à zéro:

𝑥 = 𝐴𝑥 + 𝐵𝑢
𝑦 = 𝐶𝑥 + 𝐷𝑢
(3-5)
𝑥 = 𝐴𝑥 − 𝐵 𝑦
𝑢 = 𝐶 𝑥 − 𝐷𝑦

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 47
Stabilité des systèmes multivariables 2013

Définition 3-2
Le système de la figure 3-1 est dit stable intérieurement si l'origine 𝒙, 𝒙 = (𝟎, 𝟎) est
asymptotiquement stable, c'est à dire, les états 𝒙, 𝒙 reviennent à zéro de tous les états
initiaux lorsque r = 0, d = 0, di = 0 et n = 0.

Notez que la stabilité interne est une notation de l'espace d’état. Pour obtenir une
caractérisation concrète de la stabilité interne, résoudre les équations (3-5) pour y et u:

𝑢 −1
𝐼 𝐷 0 𝐶 𝑥
𝑦 = −𝐷 𝐼 𝐶 0 𝑥
(3-6)

Notez que l'existence de l'inverse est garantie par la condition bien posée. Maintenant
substituons ceci dans (3-5) pour obtenir

−1
𝑥 𝐴 0 𝐵 0 𝐼 𝐷 0 𝐶 𝑥 𝑥
= + =𝐴 (3-7)
𝑥 0 𝐴 0 −𝐵 −𝐷 𝐼 𝐶 0 𝑥 𝑥

−1
𝐴 0 𝐵 0 𝐼 𝐷 0 𝐶
𝐴= + (3-8)
0 𝐴 0 −𝐵 −𝐷 𝐼 𝐶 0

Ainsi, la stabilité interne est équivalente à la condition que 𝐴 a toutes ses valeurs propres dans
le demi-plan gauche ouvert. En fait, cela peut être considéré comme une définition de la
stabilité interne.

Théorème 3-2

Le système de la figure 3-1 avec stabilité donnée et réalisations détectables P et K est


intérieurement stable si et seulement si 𝐴 est une matrice de Hurwitz (toutes les valeurs
propres sont dans le demi-plan gauche ouvert). C’est la routine pour vérifier que la définition
ci-dessus pour la stabilité interne ne dépend que de P et K, pas sur des réalisations spécifiques
tant que les réalisations de P et K sont toutes les deux stabilisables et détectables, c'est à dire,
pas de modes instables supplémentaires introduites par les réalisations.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 48
Stabilité des systèmes multivariables 2013
La notion ci-dessus de la stabilité interne est définie en termes de réalisations d’espace d'états
P et K. Il est également important et utile de caractériser la stabilité interne à partir du point de
vue de la matrice de transfert. Notez que le système de rétroaction dans la figure 3-1 est décrit
en terme de la matrices de transfert, par

𝐼 𝐾 𝑢𝑝 𝑑
= 𝑖 (3-9)
−𝑃 𝐼 −𝑒 −𝑟

Notons que nous ignorons d et n comme entrées car ils produisent des matrices de transfert
similaires que l'équation 3-9.
Maintenant, il est intuitivement évident que si le système à la figure 3-1 est stable
intérieurement. Alors, pour toutes les entrées limitées (di,-r), les sorties (up, - e) sont
également limitées. Le théorème suivant montre que cette idée conduit à la caractérisation
d'une matrice de transfert de la stabilité interne.

Théorème 3-3
Le système de la figure 3-1 est stable intérieurement, si et seulement si la matrice de transfert

𝐼 𝐾 −1 𝐼 − 𝐾(𝐼 + 𝑃𝐾)−1 𝑃 −𝐾(𝐼 + 𝑃𝐾)−1


= (3-10)
−𝑃 𝐼 (𝐼 + 𝑃𝐾)−1 𝑃 (𝐼 + 𝑃𝐾)−1

À partir de (di, -r) à (up, - e) une matrice de transfert appropriée et stable.

Preuve. Considérons les réalisations stabilisables et détectables de P et de K définies comme


3-3. Ensuite, nous avons l’équation de l'espace d'état du système dans la figure 3-1

𝑥 𝐴 0 𝑥 𝐵 0 𝑢𝑝
= +
𝑥 0 𝐴 𝑥 0 −𝐵 −𝑒

𝑦 𝐶 0 𝑥 𝐷 0 𝑢𝑝
= +
𝑢 0 𝐶 𝑥 0 𝐷 𝑒

𝑢𝑝 0 𝐼 𝑦 𝑑
= + 𝑖
−𝑒 𝐼 0 𝑢 −𝑟
𝑦
La suppression de à partir des deux dernières équations, nous pouvons réécrire
𝑢

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 49
Stabilité des systèmes multivariables 2013
−1 −1
𝐼 𝐷 𝑢𝑝 = 0 𝐶 𝑥 + 𝑑𝑖 ⟹ 𝑢 𝑝 = 𝐼 𝐷 0 𝐶 𝑥 + 𝐼 𝐷 𝑑𝑖
−𝐷 𝐼 −𝑒 𝐶 0 𝑥 −𝑟 −𝑒 −𝐷 𝐼 𝐶 0 𝑥 −𝐷 𝐼 −𝑟

En substituant ceci dans l'équation de l'espace d’état, nous avons

−1 −1
𝑥 𝐴 0 𝐵 0 𝐼 𝐷 0 𝐶 𝑥 𝐵 0 𝐼 𝐷 𝑑𝑖
= + +
𝑥 0 𝐴 0 −𝐵 −𝐷 𝐼 𝐶 0 𝑥 0 −𝐵 −𝐷 𝐼 −𝑟

−1 −1
𝑢𝑝 𝑥 𝑑𝑖
= 𝐼 𝐷 0 𝐶
+ 𝐼 𝐷
−𝑒 −𝐷 𝐼 𝐶 0 𝑥 −𝐷 𝐼 −𝑟

Supposons maintenant que ce système est stable intérieurement. Donc, les valeurs propres de

−1
𝐴 0 𝐵 0 𝐼 𝐷 0 𝐶
𝐴= +
0 𝐴 0 −𝐵 −𝐷 𝐼 𝐶 0

Sont dans le demi-plan gauche ouvert, il s'ensuit que la matrice de transfert à partir de (di,-r) à
(up,- e) donnée dans (3-10) est stable.
Inversement, supposons que (𝐼 + 𝑃𝐾) est inversible et la matrice de transfert (3-10) est stable.
Puis, en particulier (𝐼 + 𝑃𝐾)−1 est bon ce qui implique que 𝐼 + 𝐾 ∞ 𝑃 ∞ = (𝐼 + 𝐷𝐷 )
est réversible.

Par conséquent,

𝐼 𝐷
−𝐷 𝐼

est inversible. Maintenant des calculs de routine donnent la matrice de transfert à partir de
(di,-r) vers (up,- e) en ce qui concerne les réalisations de l'espace d'état:

−1
𝐼 𝐷 + 0 −𝐶 (𝑠𝐼 − 𝐴)−1 𝐵 0 𝐼 𝐷
−𝐷 𝐼 −𝐶 0 0 −𝐵 −𝐷 𝐼

Comme la matrice de transfert ci-dessus est stable, il s'ensuit que

0 −𝐶 (𝑠𝐼 − 𝐴)−1 𝐵 0
−𝐶 0 0 𝐵

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 50
Stabilité des systèmes multivariables 2013
Est une matrice de transfert stable. Enfin, puisque (𝐴, 𝐵, 𝐶) et (𝐴, 𝐵, 𝐶 ) sont stabilisables et
détectables,

𝐵 0 0 𝐶 )
(𝐴, ,
0 𝐵 𝐶 0

Est stabilisable et détectable. Il s'ensuit que les valeurs propres de 𝐴 sont dans le demi-plan
gauche ouvert.
Notez que pour vérifier la stabilité interne, il est nécessaire (et suffisante) pour tester si
chacune des quatre matrices de transfert dans (3-10) est stable. La stabilité ne peut être
conclue même si trois des quatre matrices de transfert dans (3.10) sont stables. Par exemple,
imaginons une fonction de transfert du système interconnecté par

𝑠−1 1
𝑃 = 𝑠+1 , 𝐾 = 𝑠−1

Ensuite, il est facile de calculer

𝑠+1 𝑠+1
𝑢𝑝 𝑠 + 2 (𝑠 − 1)(𝑠 + 2) 𝑑𝑖
=
−𝑒 𝑠−1 𝑠+1 −𝑟
𝑠+2 𝑠+2
Ce qui montre que le système n'est pas stable intérieurement, bien que trois des quatre
fonctions de transfert sont stables. Cela peut aussi être vu par le calcul de la matrice A de la
boucle fermée avec toutes les réalisations P et K stabilisables et détectables.

Remarque: Il convient de noter que la stabilité interne est une condition de base pour un
système pratique de retour d’état. C'est parce que tous les systèmes interconnectés peuvent
être inévitablement soumises à une certaine condition initiales non nulle et certaines erreurs
(peut-être petites) et, il ne peut être toléré dans la pratique que de telles erreurs à certains
endroits mèneront à des signaux non bornés à quelques autres endroits dans le système de
boucle fermée. La stabilité interne Garantit que tous les signaux dans un système sont limités
à condition que le signaux injectés (à tous les endroits) sont bornés. Cependant, il ya certains
cas spéciaux particuliers dans lequel la détermination de la stabilité du système est simple.

Théorème 3-4

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 51
Stabilité des systèmes multivariables 2013
Supposons que K est stable. Ensuite, le système dans la figure 3-1est intérieurement stable si
et seulement si (𝐼 + 𝑃𝐾)−1 𝑃 est stable.
Preuve. La nécessité est évidente. Pour prouver la suffisance, il suffit de montrer que si
𝑄 = (𝐼 + 𝑃𝐾)−1 𝑃 est stable, donc les trois autres matrices de transfert sont également
stables:

𝐼 − 𝐾(𝐼 + 𝑃𝐾)−1 𝑃 = 𝐼 − 𝐾𝑄
−𝐾(𝐼 + 𝑃𝐾)−1 = −𝐾(𝐼 − 𝑄𝐾)
(𝐼 + 𝑃𝐾)−1 = 𝐼 + (𝐼 + 𝑃𝐾)−1 − 𝐼 = 𝐼 − (𝐼 + 𝑃𝐾)−1 𝑃𝐾 = 𝐼 − 𝑄𝐾

Ce théorème est en fait la base de la théorie du contrôle classique où la stabilité n’est vérifiée
que pour une fonction de transfert en boucle fermée avec l'hypothèse implicite que le
contrôleur lui-même est stable.

Théorème 3-5
Supposons que P est stable. Ensuite, le système à la figure 3-1 est stable intérieurement si et
seulement si 𝐾(𝐼 + 𝑃𝐾)−1 est stable.
Preuve. La nécessité est évidente. Pour prouver la suffisance, il suffit de montrer que si
𝑄 = 𝐾(𝐼 + 𝑃𝐾)−1 est stable, donc les trois autres matrices de transfert sont également
stables:

𝐼 − 𝐾(𝐼 + 𝑃𝐾)−1 𝑃 = 𝐼 − 𝑄𝑃
(𝐼 + 𝑃𝐾)−1 𝑃 = (𝐼 − 𝑃𝑄)𝑃
(𝐼 + 𝑃𝐾)−1 = 𝐼 + (𝐼 + 𝑃𝐾)−1 − 𝐼 = 𝐼 − 𝑃𝐾(𝐼 + 𝑃𝐾)−1 = 𝐼 − 𝑃𝑄

Théorème 3-6
Supposons que P et K sont à la fois stable. Ensuite, le système à la figure 3-1 est stable
intérieurement si et seulement si (𝐼 + 𝑃𝐾)−1 est stable.

Preuve. La nécessité est évidente. Pour prouver la suffisance, il suffit de montrer que si
𝑄 = (𝐼 + 𝑃𝐾)−1 est stable, donc les trois autres matrices de transfert sont également
stables:

𝐼 − 𝐾(𝐼 + 𝑃𝐾)−1 𝑃 = 𝐼 − 𝐾𝑄𝑃

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 52
Stabilité des systèmes multivariables 2013

(𝐼 + 𝑃𝐾)−1 𝑃 = 𝑄𝑃
𝐾(𝐼 + 𝑃𝐾)−1 = 𝐾𝑄

3-4 Factorisations co-premier sur les fonctions de transfert stable


Rappelons que les deux polynômes m (s) et n (s), avec des coefficients réels, sont censés être
co-premier si leur plus grand diviseur commun est 1 (équivalent, ils n'ont pas de zéros
communs). Il s'ensuit à partir de l'algorithme d'Euclide que deux polynômes m (s) et n (S)
sont premiers entre eux s'il existe polynômes x (s) et y (s) de telle sorte que :
x (s) m (s) + y (S) N (s) = 1; Une telle équation est appelé une identité de Bezout. De même,
les deux fonctions de transfert m (s) et N (s) dans l'ensemble de fonctions de transfert stables
dits premiers entre eux sur les fonctions de transfert stable s'il existe x (s) et y (s) dans
l'ensemble de fonctions de transfert stables tels que

x (s) m (s) + y (s) n (s) =1 (3-16)

Plus généralement, nous avons la définition suivante pour les systèmes MIMO.

Définition 3.4
Deux matrices M et N dans l'ensemble des matrices de transfert stables sont premiers entre
elles à droite sur l'ensemble des matrices de transfert stables si elles ont le même nombre de
colonnes et si il existe deux matrices Xr et Yr dans l'ensemble des matrices de transfert stables
tels que

𝑋𝑟 𝑌𝑟 𝑀 = 𝑋𝑟 𝑀 + 𝑌𝑟 𝑁 = 𝐼 (3-17)
𝑁

De la même façon, deux matrices 𝑀 et 𝑁 dans l'ensemble des matrices de transfert stables
sont premiers entre eux à gauche sur l'ensemble des matrices de transfert stables si elles ont le
même nombre de lignes et s'il existe deux matrices Xl et Y l dans l'ensemble des matrices de
transfert stables tel que

𝑋𝑙
𝑀 𝑁 = 𝑀𝑋𝑙 + 𝑁𝑌𝑙 = 𝐼 (3-18)
𝑌𝑙
𝑀
Notez que ces deux définitions sont équivalentes à dire que la matrice est inversible à
𝑁
gauche dans l'ensemble des matrices de transfert stables et que la matrice 𝑀 𝑁 est

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 53
Stabilité des systèmes multivariables 2013
inversible à droite dans l'ensemble des matrices de transfert stables. Les équations 3-17 et 3-
18 sont souvent appelés identités de Bezout.

Maintenant, soit P une matrice réelle rationnelle appropriée. Une factorisation à droit co-
premier RCF (right-comprime factorisation) de P est un factorisation P = NM -1, où N et M
sont premiers entre eux à droite dans l'ensemble des matrices de transfert stables.
De la même façon,, une factorisation à gauche co-premier LCF (left-comprime factorisation)
de P est un factorisation 𝑃 = 𝑀 −1 𝑁 , où 𝑁 et 𝑀 sont premiers entre eux à gauche dans
l'ensemble des matrices de transfert stables.Une matrice P (s) dans l'ensemble des matrices de
transfert appropriés rationnelle est dite avoir double factorisation co-premier s'il existe une
factorisation à droite co-premier RCF P = NM -1 ,et une factorisation à gauche co-premier
LCF 𝑃 = 𝑀−1 𝑁 et Xr, Yr, Xl et Yl dans l'ensemble des matrices de transfert stables de telle
sorte que

𝑋𝑟 𝑌𝑟 𝑀 −𝑌𝑙
=𝐼 (3-19)
−𝑁 𝑀 𝑁 𝑋𝑙

Bien sûr contenu implicitement dans ces définitions est l'exigence que les deux M et 𝑀 être
des matrices carrées et inversibles.

Théorème 3-9
Supposons P (s) est une matrice réelle rationnelle et appropriée

𝑃 𝑠 =
𝐴 𝐵
𝐶 𝐷

P (s) est une réalisation stable et détectable. Soient F et L tels que A + BF et A + LC sont à la
fois stable, et définir

𝑀 −𝑌𝑙 𝐴 + 𝐵𝐹 𝐵 −𝐿
≅ 𝐹 𝐼 0 (3-20)
𝑁 𝑋𝑙
𝐶 + 𝐷𝐹 𝐷 𝐼

𝑋𝑟 𝑌𝑟 𝐴 + 𝐿𝐶 −(𝐵 + 𝐿𝐷) 𝐿
≅ 𝐹 𝐼 0 (3-21)
−𝑁 𝑀 𝐶 −𝐷 𝐼

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 54
Stabilité des systèmes multivariables 2013

𝒚
v u 𝒙 𝒙
B ʃ C

Figure 4-6 représentations de boucle fermée d’une factorisation co-première à droit

Alors P = NM -1 et 𝑃 = 𝑀−1 𝑁 sont RCF et LCF, respectivement.

La factorisation co-premier d'une matrice de transfert peut donnée une interprétation de la


boucle fermée de contrôle. Par exemple, factorisation à droite co-premier sort naturellement à
partir de la modification du variable de contrôle par un retour d'état. Considérer les équations
d'espace d'état pour un système P dans la Figure 4-6:

𝑥 = 𝐴𝑥 + 𝐵𝑢
𝑦 = 𝐶𝑥 + 𝐷𝑢
(3-22)

Ensuite, mettre un retour d'état en modifiant la variable

𝑢 = 𝑣 + 𝐹𝑥 (3-23)

Tel que (A + BF) est stable. Alors nous obtenons

𝑥 = 𝐴 + 𝐵𝐹 𝑥 + 𝐵𝑣
𝑢 = 𝐹𝑥 + 𝑣 (3-24)
𝑦 = (𝐶 + 𝐷𝐹)𝑥 + 𝐷𝑣

Evidemment à partir de ces équations, la matrice de transfert de v à u est

𝐴 + 𝐵𝐹 𝐵
𝑀 𝑠 ≅ (3-25)
𝐹 𝐼

Et la matrice de transfert de v à u est

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 55
Stabilité des systèmes multivariables 2013
𝐴 + 𝐵𝐹 𝐵
𝑁 𝑠 ≅ (3-26)
𝐶 + 𝐷𝐹 𝐷

En conséquence 𝑢 𝑠 = 𝑀 𝑠 𝑣 𝑠 et 𝑦 𝑠 = 𝑁 𝑠 𝑣 𝑠 donc

𝑦 𝑠 = 𝑁 𝑠 𝑣 𝑠 = 𝑁 𝑠 𝑀−1 𝑠 𝑢 𝑠 = 𝑃 𝑠 𝑢 𝑠 ⟹ 𝑃 𝑠 = 𝑁 𝑠 𝑀−1 𝑠

3-5 Contrôleurs de stabilisation


Dans cette section, nous introduisons un paramétrage connu sous le nom de Q-paramétrage ou
Youla-paramétrage, pour tous les contrôleurs de stabilisation d’un plant. Par tous les
contrôleurs de stabilisation, nous voulons dire tous les contrôleurs qui donnent une stabilité
interne du système en boucle fermée.
Nous considérons d'abord les plans stables dont le paramétrage est déduit facilement et puis
les plans instables où nous utilisons la factorisation co-première.
Le théorème suivant constitue la base pour le paramétrage de tous les contrôleurs de
stabilisation pour les plans stables.

Théorème 3-10
Supposons que P est stable. Ensuite, l'ensemble des contrôleurs de stabilisation dans la figure
3-1 peut être décrit comme

𝐾 = 𝑄(𝐼 − 𝑃𝑄)−1 (3-27)

Pour tout Q appartient l'ensemble des matrices de transfert stables et 𝐼 − 𝑃 ∞ 𝑄(∞) est non
singulière (inversible).

Preuve. D'abord, nous savons que si 𝐾 = 𝑄(𝐼 − 𝑃𝑄)−1 existe alors

inversible ⟹ 𝐾(𝐼 − 𝑃𝑄) = 𝑄 ⟹ 𝑄 = 𝐾(𝐼 − 𝑃𝐾)−1

Puisque Q est stable donc 𝐾(𝐼 − 𝑃𝐾)−1 est stable et selon le théorème 3-5 le système de la
figure 3-1 est stable.

Nous devons montrer que chaque contrôleur de stabilisation peut être représenté comme 3-27.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 56
Stabilité des systèmes multivariables 2013
Considérons que le système dans la figure 3-1 est stable, puisque P est également stable, donc
selon le théorème 3-5 𝐾(𝐼 − 𝑃𝐾)−1 est stable. Définir 𝑄 = 𝐾(𝐼 − 𝑃𝐾)−1 = (𝐼 − 𝐾𝑃)−1 𝐾 nous
avons donc 𝑄 + 𝐾𝑃𝑄 = 𝐾. Il est clair que puisque 𝐼 − 𝑃 ∞ 𝑄(∞) est inversible K est
définie par

𝐾 = 𝑄(𝐼 − 𝑃𝑄)−1

Exemple 3-2
Pour le plant
1
𝑃 𝑠 =
𝑠 + 1 (𝑠 + 2)

Supposons que l'on désire trouver un contrôleur stable intérieurement de telle sorte que y suit
asymptotiquement une entrée de rampe.

Solution:
comme la plan est stable l'ensemble de tout contrôleur de stabilisation est dérivé à partir de
𝐾 = 𝑄(𝐼 − 𝑃𝑄)−1 , pour tout Q stable tel que, 𝐼 − 𝑃 ∞ 𝑄(∞) est inversible.

Soit
𝑎𝑠 + 𝑏
𝑄=
𝑠+3

Nous devons définir les variables a et b tels que y suit asymptotiquement une entrée de la
rampe, de sorte que la fonction de transfert de la sensibilité S doit avoir deux zéros à l'origine
(L doit être un système du type à deux).

𝑎𝑠 + 𝑏
𝑆 = 1 − 𝑇 = 1 − 𝑃𝐾(𝐼 − 𝑃𝐾)−1 = 1 − 𝑃𝑄 = 1 −
𝑠 + 1 𝑠 + 2 (𝑠 + 3)
𝑠 + 1 𝑠 + 2 𝑠 + 3 − (𝑎𝑠 + 𝑏)
=
𝑠 + 1 𝑠 + 2 (𝑠 + 3)

Donc, nous devrions prendre a = 11, b = 6. Cela donne

11𝑠 + 6
𝑄=
𝑠+3

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 57
Stabilité des systèmes multivariables 2013

11 𝑠 + 1 𝑠 + 2 (𝑠 + 12 22)
𝐾=
𝑠2 (𝑠 + 6)

Toutefois, si P (s) n'est pas stable, le paramétrage est beaucoup plus compliqué. Le résultat
peut être plus commodément indiqué en utilisant les représentations d’espace-état. Le
théorème suivant montre qu’un plan-rationnel approprié réel peut être stabilisé quel que soit
l'emplacement de ses RHP-pôles et RHP-zéros, à condition que le plan ne contienne pas de
modes cachés instables.

Théorème 3-11
Soit P une matrice réelle rationnelle appropriée et 𝑃 = 𝑁𝑀 −1 = 𝑀 −1 𝑁 être correspondant rcf
et lcf sur l'ensemble des matrices de transfert stables. Alors il existe un contrôleur de
stabilisation 𝐾 = 𝑌𝑙 𝑋𝑙−1 = 𝑋𝑟−1 𝑌𝑟 avec 𝑋𝑟 ,𝑌𝑟 ,𝑋𝑙 et 𝑌𝑟 dans l'ensemble des matrices de
transfert stables ( 𝑋𝑟 𝑀 + 𝑌𝑟 𝑁 = 𝐼 , 𝑁 𝑌𝑙 + 𝑀 𝑋𝑙 = 𝐼 ).

En outre, supposons

𝐴 𝐵
𝑃(𝑠) ≅
𝐶 𝐷

est une réalisation stabilisable et détectable de P et soit F et L tels que A + BF et A + LC sont


stable. Ensuite, un ensemble particulier des réalisations d’espace d'état spatiales de ces
matrices peut être donnée par 3-20 et 3-21.
Le théorème suivant constitue la base pour le paramétrage de tous les contrôleurs de
stabilisation pour une matrice réelle rationnelle appropriée.

Théorème 3-12
Soit P une matrice réelle rationnelle appropriée et 𝑃 = 𝑁𝑀 −1 = 𝑀 −1 𝑁 être correspondant rcf
et lcf sur l'ensemble des matrices de transfert stables. Ensuite, l'ensemble des contrôleurs de
stabilisation dans la figure 3-1 peut être décrit comme

−1
𝐾 = 𝑋𝑟 − 𝑄𝑟 𝑁 (𝑌𝑟 + 𝑄𝑟 𝑀 ) 3-28
ou
𝐾 = (𝑌𝑙 + 𝑀𝑄𝑙 )(𝑋𝑙 − 𝑁𝑄𝑙 )−1 3-29

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 58
Stabilité des systèmes multivariables 2013
où 𝑄𝑟 est toute matrice de transfert stable et 𝑋𝑟 (∞) − 𝑄𝑟 (∞)𝑁(∞) est non singulière ou 𝑄𝑙
est toute matrice de transfert stable et 𝑋𝑙 (∞) − 𝑁(∞)𝑄𝑙 (∞) est aussi non singulière.

Exemple 3-3:

Pour le plan
1
𝑃 𝑠 =
𝑠 + 1 (𝑠 + 2)

Trouvez un contrôleur stabilisant.

Solution: Tout d'abord, il est clair que


0 1 0
𝑃 𝑠 ≅ −2 3 1
1 0 0

est une réalisation stabilisable et détectable.


Maintenant, nous allons F= [1 -5] et L= [-7 -23]T clairement A + BF et A + LC sont stables.
Comme la plante est instable, nous utilisons le théorème 3-11 pour dériver les paramètres de
factorisation (premières entre eux).

0 1 0
𝐴 + 𝐵𝐹 𝐵 1
𝑁 𝑠 ≅ = −1 −2 1 𝑁 𝑠 =
𝐶 + 𝐷𝐹 𝐷 𝑠+1 2
1 0 0

0 1 0
𝐴 + 𝐵𝐹 𝐵 𝑠−2 𝑠−1
𝑀 𝑠 ≅ = −1 −2 1 𝑀 𝑠 =
𝐹 𝐼 𝑠+1 2
1 −5 1

0 1 7
𝐴 + 𝐵𝐹 −𝐿 108𝑠−72
𝑌𝑙 𝑠 ≅ = −1 −2 23 𝑌𝑙 𝑠 =
𝐹 0 𝑠+1 2
1 −5 0

0 1 7
𝐴 + 𝐵𝐹 −𝐿 𝑠 2 +9𝑠+38
𝑋𝑙 𝑠 ≅ = −1 −2 23 𝑋𝑙 𝑠 =
𝐶 + 𝐷𝐹 𝐼 𝑠+1 2
1 0 1

1 𝑠−2 𝑠−1 108𝑠−72


𝑁 𝑠 = ,𝑀 𝑠 = , 𝑌𝑟 𝑠 = ,
𝑠+2 2 𝑠+2 2 𝑠+2 2
𝑠 2 + 9𝑠 + 38
𝑋𝑟 𝑠 =
𝑠+2 2

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 59
Stabilité des systèmes multivariables 2013
Maintenant, soit 𝑄𝑟 = 𝑄𝑙 alors conformément à le théorème 3-12 un des contrôleurs de
stabilisation est:

108𝑠 − 72
𝐾 = 𝑌𝑙 𝑋𝑙−1 = 𝑋𝑟−1 𝑌𝑟 =
𝑠2 + 9𝑠 + 38

3-7Références bibliographie

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 60
Stabilité des systèmes multivariables 2013
1-Ali Karimpour ‹‹ Lectures on Multivariable Feedback Control›› Department of
Electrical Engineering, Faculty of Engineering, Ferdowsi University of Mashhad (September
2009)

2-Sigurd Skogestad, Ian Postleth ‹‹ MULTIVARIABLE FEEDBACK CONTROL


Analysis and design›› JOHN WILEY AND SONS

3-P.Albertos and A.sala ‹‹ MultivariableControl Systems An Engineering Approach ››


book,British Library Cataloguing in Publication ,Springer-Verlag London Limited2004.

4-Efim N. Rosenwasser and Bernhard P. Lampe‹‹ Multivariable Computer-controlled


Systems›› book,British Library Cataloguing in Publication ,Springer-Verlag London
Limited2006.

5- Eric Ostertag ‹‹ Mono- and Multivariable Control and Estimation›› book, Library of
Congress Control Number: 2010936361 , Springer-Verlag Berlin Heidelberg 2011.

6-Y. Zhu ‹‹Multivariable System Identification for Process Control›› book, Publisher:
October 2001Elsevier Science & Technology Books.

7- Graham C. Goodwin, Stefan F. Graebe , Mario E. Salgado ‹‹CONTROL SYSTEM


DESIGN›› book,Valparaiso, January 2000.

Dr. Dehini Rachid,Université de Béchar, Faculté des Sciences et Technologie, Année 2013/2014. Page 61

Vous aimerez peut-être aussi