Vous êtes sur la page 1sur 118

ENSIP, parcours MEE

2e` me annee

Cours dAutomatique

Representations
detat
lineaires
`
des systemes
monovariables

Olivier BACHELIER
Courriel : Olivier.Bachelier@univ-poitiers.fr
Tel : 05-49-45-36-79 ; Fax : 05-49-45-40-34

Table des mati`eres


1

Introduction
1.1 Notion de syst`eme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Notion de mod`ele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Grandes lignes du cours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1
1
2
3

Rappel sur la fonction de transfert

2.1 Equations
preliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Linearite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Mod`ele entree/sortie : lequation differentielle . . . . . . . . . . . . . . . . .
2.1.3 Transformee de Laplace : de lequation differentielle a` la fonction de transfert
2.2 Fonction de transfert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Comment obtenir la fonction de transfert ? . . . . . . . . . . . . . . . . . . .
2.2.2 Interet de la fonction de transfert . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

5
5
5
6
6
8
8
8

La representation detat
3.1 Principe general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 De la non-linearite a` la linearite . . . . . . . . . . . . . . . . . . . . . .
3.3 Historique de la representation detat . . . . . . . . . . . . . . . . . . .
3.4 Comment obtenir un mod`ele detat ? . . . . . . . . . . . . . . . . . . .
3.4.1 Par le jeu dequations . . . . . . . . . . . . . . . . . . . . . . .
3.4.2 Par lequation differentielle unique . . . . . . . . . . . . . . . .
3.5 De la fonction de transfert a` la representation detat . . . . . . . . . . .
3.5.1 Cas dune fonction de transfert strictement propre (m < n) . . .
3.5.1.1 Realisation diagonale ou quasi diagonale de Jordan .
3.5.1.2 Realisation de forme compagne . . . . . . . . . . . .
3.5.2 Cas dune fonction de transfert non strictement propre (m = n)
3.6 De la representation detat a` la fonction de transfert . . . . . . . . . . .
3.7 Dune realisation a` lautre . . . . . . . . . . . . . . . . . . . . . . . .
3.7.1 Changement de base . . . . . . . . . . . . . . . . . . . . . . .
3.7.2 Obtention dune forme compagne (horizontale) . . . . . . . . .
3.7.3 Obtention dune forme de Jordan . . . . . . . . . . . . . . . .
3.7.3.1 Les valeurs propres i de A sont distinctes . . . . . .
3.7.3.2 Les valeurs propres i de A sont multiples . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

11
11
12
15
15
16
16
17
17
17
19
20
21
21
21
22
22
23
23

Reponse dun mod`ele detat


4.1 Solution du syst`eme autonome . . . . . .
4.1.1 Matrice de transition detat . . . .
4.1.2 Solution de lequation homog`ene
4.2 Solution de lequation detat compl`ete . .
4.3 Calcul de eAt . . . . . . . . . . . . . . .
4.3.1 Methode des series . . . . . . . .
4.3.2 Par la transformation de Laplace .
4.3.3 Methodes des modes . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

25
25
25
26
26
27
27
28
29

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
iii

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

`
TABLE DES MATIERES

4.4
4.5
4.6
4.7
5

Regime transitoire : influence des modes


Reponse impulsionnelle . . . . . . . . .
Reponse indicielle . . . . . . . . . . . .
Reponse harmonique . . . . . . . . . .

`
TABLE DES MATIERES

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

30
31
32
33

Stabilite des mod`eles detat


5.1 Une approche quasi intuitive : la stabilite BIBO . .
5.2 Stabilite dun e tat dequilibre . . . . . . . . . . . .
5.2.1 Definition et recherche dun e tat dequilibre
5.2.2 Stabilite . . . . . . . . . . . . . . . . . . .
5.3 Crit`eres de stabilite . . . . . . . . . . . . . . . . .
5.3.1 Crit`ere des racines . . . . . . . . . . . . .
5.3.1.1 rang(A) = n . . . . . . . . . . .
5.3.1.2 rang(A) < n . . . . . . . . . . .
5.3.1.3 En resume . . . . . . . . . . . .
5.3.1.4 Stabilite interne et stabilite BIBO
5.3.1.5 Les marges de stabilite . . . . .
5.3.2 Crit`ere de Routh/Hurwitz . . . . . . . . . .
5.3.3 Methode de Lyapunov . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

35
35
36
36
36
36
37
37
38
38
39
39
40
40

Commandabilite et observabilite
6.1 Definitions . . . . . . . . . . . . . . . . . . . . .
6.1.1 Commandabilite ou gouvernabilite . . . .
6.1.2 Observabilite . . . . . . . . . . . . . . .
6.2 Crit`ere de Kalman . . . . . . . . . . . . . . . . .
6.2.1 Commandabilite . . . . . . . . . . . . .
6.2.2 Observabilite . . . . . . . . . . . . . . .
6.2.3 Dualite des deux concepts . . . . . . . .
6.3 Crit`eres sappliquant aux formes de Jordan . . . .
6.3.1 A diagonalisable . . . . . . . . . . . . .
6.3.2 A non diagonalisable . . . . . . . . . . .
6.4 Grammiens de commandabilite et dobservabilite
6.4.1 Definition des grammiens . . . . . . . .
6.4.2 Interpretation des grammiens . . . . . . .
6.4.3 Calcul des grammiens . . . . . . . . . .
6.5 Mod`eles et structures . . . . . . . . . . . . . . .
6.5.1 Difference entre les mod`eles . . . . . . .
6.5.2 Syst`emes composites . . . . . . . . . . .
6.6 Realisation minimale . . . . . . . . . . . . . . .
6.6.1 Definition . . . . . . . . . . . . . . . . .
6.6.2 Realisation minimale et notion de poles .
6.6.3 Realisation minimale et stabilite . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

43
43
43
43
44
44
44
46
47
47
47
48
48
48
49
49
49
51
53
53
53
54

Commande par retour detat


7.1 Notion de retour detat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Retour detat et performances transitoires : le placement de poles . . . . . . . . . . .
7.2.1 Commandabilite et placement de poles . . . . . . . . . . . . . . . . . . . .
7.2.2 Placement de poles sur une realisation canonique . . . . . . . . . . . . . . .
7.2.3 Placement de poles sur une realisation quelconque . . . . . . . . . . . . . .
7.2.3.1 Obtention de la forme canonique a` partir de la fonction de transfert
7.2.3.2 Obtention de la forme canonique a` partir dune autre realisation . .
7.2.3.3 Algorithme de placement de poles . . . . . . . . . . . . . . . . .
7.3 Performances statiques et retour detat : la precommande . . . . . . . . . . . . . . .
7.4 Rejet de perturbation et retour detat : adjonction dintegrateurs . . . . . . . . . . . .
7.4.1 Premi`ere approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

55
55
56
57
57
58
58
58
58
60
61
61

iv

.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

`
TABLE DES MATIERES

7.4.2
8

`
TABLE DES MATIERES

Seconde approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Commande par retour de sortie : les observateurs


8.1 Notions preliminaires . . . . . . . . . . . . . .
8.1.1 Motivation . . . . . . . . . . . . . . .
8.1.2 Principe de lobservation . . . . . . . .
8.1.3 Propriete dun observateur . . . . . . .
8.1.4 Condition dexistence dun observateur
` propos de la transmission directe . .
8.1.5 A
8.2 Synth`ese dun observateur dordre minimal . .
8.2.1 Observateur dordre minimal . . . . . .
8.2.2 Procedure de Luenberger . . . . . . . .
8.3 Synth`ese dun observateur dordre plein . . . .
8.3.1 Observateur dordre plein . . . . . . .
8.3.2 Procedure de synth`ese . . . . . . . . .
8.4 Commande par retour detat observe . . . . . .

64

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

69
69
69
70
70
71
71
71
71
72
74
75
76
77

Introduction a` la representation detat discr`ete


9.1 Rappels sur les signaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.1.1 Signaux continus, discrets, quantifies, non quantifies . . . . . . . . . . .
9.1.2 Transformation de signaux . . . . . . . . . . . . . . . . . . . . . . . . .

9.1.2.1 Echantillonnage
. . . . . . . . . . . . . . . . . . . . . . . . .
9.1.2.2 Quantification . . . . . . . . . . . . . . . . . . . . . . . . . .
9.1.2.3 Blocage . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2 Syst`emes discrets lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.2 Mod`eles externes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9.2.2.1 Equation
recurrente . . . . . . . . . . . . . . . . . . . . . . .
9.2.2.2 Transformation en z . . . . . . . . . . . . . . . . . . . . . . .
9.2.2.3 Fonction de transfert en z . . . . . . . . . . . . . . . . . . . .
9.2.3 Representation detat . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.4 Lien entre les mod`eles . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.4.1 Dune realisation a` lautre . . . . . . . . . . . . . . . . . . . .
9.2.4.2 De lequation detat a` la fonction de transfert en z . . . . . . .
9.2.4.3 De la fonction de transfert en z a` lequation detat . . . . . . .
9.3 Syst`emes e chantillonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3.1 Pourquoi e tudier les mod`eles discrets ? (notion de syst`eme e chantillonne)
9.3.2 La commande numerique . . . . . . . . . . . . . . . . . . . . . . . . . .

9.3.3 Echantillonnage
et theor`eme de Shannon . . . . . . . . . . . . . . . . .
9.3.4 Obtention dun mod`ele e chantillonne . . . . . . . . . . . . . . . . . . .
9.3.4.1 Calcul de G(z) . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3.4.2 Mod`ele detat . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4 Reponse dun syst`eme discret . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.1 Reponse du mod`ele detat . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.1.1 Reponse par resolution de lequation detat . . . . . . . . . . .
9.4.1.2 Calcul de Ak . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.1.3 Reponse dun syst`eme e chantillonne. . . . . . . . . . . . . . .
9.4.2 Analyse de la reponse : e tude des modes . . . . . . . . . . . . . . . . . .
9.5 Stabilite dun syst`eme discret . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.5.1 Stabilite BIBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.5.2 Stabilite interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.5.2.1 Definition et recherche dun e tat dequilibre . . . . . . . . . .
9.5.2.2 Stabilite . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.5.3 Crit`ere des racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.5.3.1 Resultat general . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

81
81
81
83
83
83
83
84
85
85
85
85
86
86
87
87
87
88
88
88
88
89
90
90
91
92
92
92
93
94
94
95
95
96
96
96
96
96

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

`
TABLE DES MATIERES

9.6

9.7

9.8

`
TABLE DES MATIERES

9.5.3.2 Stabilite interne et stabilite BIBO . . . . . .


9.5.3.3 Marge de stabilite . . . . . . . . . . . . . .
9.5.4 Crit`ere de Jury . . . . . . . . . . . . . . . . . . . . .
9.5.5 Methode de Lyapunov . . . . . . . . . . . . . . . . .
9.5.6 Stabilite dun syst`eme e chantillonne . . . . . . . . . .

dune boucle ouverte . . . .


9.5.6.1 Echantilonnage
9.5.6.2 Bouclage dun syst`eme e chantillonne . . . .
Commandabilite/observabilite dun mod`ele discret . . . . . .
9.6.1 Definitions . . . . . . . . . . . . . . . . . . . . . . .
9.6.1.1 Commandabilite . . . . . . . . . . . . . . .
9.6.1.2 Observabilite . . . . . . . . . . . . . . . . .
9.6.2 Crit`ere de Kalman . . . . . . . . . . . . . . . . . . .
9.6.2.1 Commandabilite . . . . . . . . . . . . . . .
9.6.2.2 Observabilite . . . . . . . . . . . . . . . . .
9.6.2.3 Dualite des deux concepts . . . . . . . . . .
9.6.3 Crit`eres sappliquant aux formes de Jordan . . . . . .
9.6.4 Grammiens . . . . . . . . . . . . . . . . . . . . . . .
9.6.4.1 Definition des grammiens . . . . . . . . . .
9.6.4.2 Interpretation des grammiens . . . . . . . .
9.6.4.3 Calcul des grammiens . . . . . . . . . . . .
9.6.5 Mod`eles et structures . . . . . . . . . . . . . . . . . .
9.6.6 Realisation minimale . . . . . . . . . . . . . . . . . .
Commande par retour detat . . . . . . . . . . . . . . . . . .
9.7.1 Les differentes approches de la commande numerique
9.7.2 Retour detat discret . . . . . . . . . . . . . . . . . .
9.7.3 Placement de poles par retour detat . . . . . . . . . .
9.7.3.1 Commandabilite et placement de poles . . .
9.7.3.2 Technique de placement de poles . . . . . .
Commande par retour de sortie . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

97
97
97
98
99
99
99
99
100
100
100
100
100
100
101
101
101
101
102
102
102
102
103
103
103
104
104
104
105

10 Conclusion
107
10.1 Resume du cours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
10.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Annexes

109

A Rappels dalg`ebre et danalyse


` propos des matrices . . . . . . . . . . . . . . . . . . . . . . . . .
A.1 A
A.1.1 Transposition et conjugaison . . . . . . . . . . . . . . . . .
A.1.2 Matrices carrees . . . . . . . . . . . . . . . . . . . . . . .
A.1.3 Operations sur les matrices . . . . . . . . . . . . . . . . . .
A.1.3.1 Addition de matrices . . . . . . . . . . . . . . . .
A.1.3.2 Multiplication de matrices . . . . . . . . . . . . .
A.1.4 Determinant dune matrice carree . . . . . . . . . . . . . .
A.1.4.1 Determinant dune matrice carree dordre 2 . . .
A.1.4.2 Determinant dune matrice carre dordre 3 ou plus
A.1.4.3 Quelques proprietes du determinant . . . . . . . .
A.1.5 Cofacteurs et matrice adjointe . . . . . . . . . . . . . . . .
A.1.6 Polynome caracteristique dune matrice carree . . . . . . .
A.1.7 Rang dune matrice . . . . . . . . . . . . . . . . . . . . . .
A.1.8 Matrices inverses . . . . . . . . . . . . . . . . . . . . . . .
A.1.8.1 Definition et calcul . . . . . . . . . . . . . . . .
A.1.8.2 Proprietes des inverses . . . . . . . . . . . . . . .
A.1.9 Valeurs propres dune matrice . . . . . . . . . . . . . . . .
A.1.9.1 Structure propre dune matrice . . . . . . . . . .
vi

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

111
111
111
111
112
112
112
113
114
114
115
115
115
115
115
115
116
116
116

`
TABLE DES MATIERES

`
TABLE DES MATIERES

A.1.9.2 Proprietes des valeurs propres . . . . . . . . . .


A.1.9.3 Proprietes des vecteurs propres . . . . . . . . .
A.1.10 Rang dune matrice carree, determinant et valeurs propres
A.1.11 Trace dune matrice . . . . . . . . . . . . . . . . . . . .
` propos de la definition positive . . . . . . . . . . . . . . . . . .
A.2 A
A.2.1 Fonction definie positive . . . . . . . . . . . . . . . . . .
A.2.2 Matrices Hermitiennes definies en signe . . . . . . . . . .
` propos du regime transitoire
B A
B.1 Influence du spectre de la matrice detat . . . . . . . .
B.2 Influence des vecteurs propres de A . . . . . . . . . .
B.2.1 Couplage modes/sortie . . . . . . . . . . . . .
B.2.2 couplage modes/commandes en boucle fermee
B.2.3 Couplage modes/consigne en boucle fermee . .
B.2.4 En resume sur les vecteurs propres . . . . . . .
B.3 Influence des zeros . . . . . . . . . . . . . . . . . . .
B.3.1 Les zeros dun mod`ele detat . . . . . . . . . .
B.3.2 Contribution des zeros . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

117
117
118
118
118
118
119

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

121
121
122
122
123
123
124
124
124
124

C Formule dAckermann pour le placement de poles par retour detat


127
C.1 Rappel du probl`eme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
C.2 Resolution selon Ackermann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
` propos de Z
D A
129
D.1 Proprietes de Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
D.2 Tableau de transformees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
E Lyapunov et les syst`emes lineaires
E.1 Le cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
E.2 Le cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
E.3 Le cas e chantillonne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

131
131
132
132

` propos des grammiens


F A
135
F.1 Signification des grammiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
F.2 Invariance des valeurs propres de Wc Wo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
G M ATLAB et la representation detat
G.1 Fonctions mathematiques de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
G.2 Fonctions liees au mod`ele detat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
G.3 Fonctions liees aux mod`eles discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

139
139
143
150

H Biographies
153
H.1 Alexandr Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
H.2 Rudolf Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
References bibliographiques

159

vii

Chapitre 1

Introduction
LAutomatique est une discipline scientifique qui vise a` conferer a` un dispositif donne, appele syst`eme, des proprietes souhaitees et ce, sans necessite dune intervention humaine. Une telle discipline requiert dattribuer un
mod`ele au comportement du dit syst`eme (phase de modelisation) et de lutiliser afin, dune part, de mieux comprendre ce comportement (phase danalyse) et dautre part, dagir sur le syst`eme dans le but dameliorer ses proprietes (phase de commande).
Sans revenir trop longuement dans cette introduction sur des concepts e tudies lors des cours relatifs a` lapproche
dite frequentielle, il convient de rappeler quelques notions de base.

1.1 Notion de syst`eme


Un syst`eme est une combinaison de composants interconnectes pour atteindre un objectif, rendre un service a` un ou
plusieurs operateurs humains. Le composant est un organe fonctionnel qui ne se limite pas a` un objet physique
mais peut correspondre a` un objet plus abstrait de telle sorte quun syst`eme peut e tre e conomique, financier,
demographique meme si, dans le cadre de cet enseignement, seront plutot rencontres des syst`emes physiques,
cest-`a-dire mecaniques, e lectriques, e lectroniques, hydrauliques, pneumatiques, chimiques, mecatroniques voire
biologiques.
Parmi les grandeurs, e ventuellement physiques, mises en jeu dans le fonctionnement dun syst`eme, lon peut distinguer celles qui, generees par lenvironnement exterieur au syst`eme, agissent sur ce dernier. Ce sont les entrees
parmi lesquelles figurent celles dont lhomme a la matrise (les entrees de commande ou simplement entrees) et
celles qui e chappent a` son controle (les perturbations). Lon distingue aussi les grandeurs par lesquelles le syst`eme
agit sur lenvironnement exterieur, a` savoir les sorties. Lon note souvent par les lettres u, d et y, respectivement
les entrees, les perturbations et les sorties, de sorte quun syst`eme peut-etre represente par le schema de la figure
1.1.
d1

dr
...

y1

u1
u2
.
.
.
um

Syst`eme

y2
.
.
.
yp

F IGURE 1.1 Syst`eme comportant m entrees, p sorties et r perturbations

Dans le cadre de ce cours, seuls seront e tudies les syst`emes monovariables pour lesquels m = p = 1, cest-`a-dire
ne comportant quune seule entree et une seule sortie.

Notion de mod`ele

Il est rappele que lautomaticien est souvent amene a` reintroduire linformation presente au niveau de la sortie
sur lentree afin de modifier les performances du syst`eme. Ce dernier est alors dit boucle. La notion de boucle e tant
dej`a connue des e tudiants, elle nest pas detaillee dans cette introduction. Une partie de ce cours consacree a` la
commande y reviendra. Il va de soi que les performances attendues sont les memes que celles envisagees lors de
letude de lapproche frequentielle, a` savoir la stabilite, la forme des regimes transitoires, la precision et le rejet de
perturbations.

1.2 Notion de mod`ele


Comme le sous-entend le preambule de cette introduction, lanalyse dun syst`eme et a fortiori sa commande font
appel a` un mod`ele du comportement du syst`eme. De cette description mathematique du comportement peuvent
natre des outils danalyse et de commande qui sont utilises par la suite. Lon distingue plusieurs automatiques
selon la nature des signaux et des mod`eles consideres.
Ainsi les signaux continus peuvent prendre toutes les valeurs dans un intervalle donne alors que dautres signaux sont susceptibles de prendre uniquement certaines valeurs bien determinees. Sur la base de cette difference,
lon distingue lautomatique des syst`emes a` e venements continus de lautomatique des syst`emes a` e venements
discrets. Seul le cas des e venements continus sera envisage dans ce cours.
Une autre distinction tout aussi fondamentale se fait sur le temps. En effet, les signaux peuvent e tre definis a`
tout instant du temps ou simplement connus a` des instants donnes (lon parle de signaux discrets, discretises, ou
e chantillonnes). Les signaux de sortie sont ainsi mesures, et donc connus, uniquement a` certains instants, et la
sequence des e chantillons est obtenue sous forme numerique en sortie dun convertisseur analogique numerique.
Elle est transmise a` un calculateur qui en deduit une sequence de signaux de commande. Celle-ci est transformee
par un convertisseur numerique analogique qui restitue un signal a` temps continu sur lentree du syst`eme. Pour le
calculateur, lensemble constitue du syst`eme et des convertisseurs est vu comme un syst`eme a` temps discret (ou,
de mani`ere plus generale, syst`eme discret ). Dans ce cours, sera essentiellement consideree lautomatique des
syst`emes a` temps continu (ou simplement des syst`emes continus ). Seul le dernier chapitre traitera traitera de
lautomatique des syst`emes discrets.
Il existe dautres distinctions qui reposent sur le mod`ele mathematique utilise pour decrire le comportement
du syst`eme. Ce mod`ele est obtenu soit par identification (lon fait correspondre un mod`ele de structure donnee
au comportement entrees/sorties du syst`eme) ou, et ce sera le cas ici, par une utilisation judicieuse des e quations
correspondant aux lois de la physique regissant le comportement du syst`eme. La plupart de ces e quations sont
differentielles et non lineaires. Cependant, il est souvent recommande de travailler dans une gamme de valeurs
autour dun point de fonctionnement de telle sorte que les e quations sont raisonnablement remplacables par des
e quations differentielles dites lineaires a` coefficients constants. Cette approximation permet donc de passer dun
mod`ele non lineaire a` un mod`ele lineaire. Bien que moins fid`ele a` la realite, ce dernier facilite lanalyse et la commande du syst`eme, notamment grace a` un principe fondamental, celui de superposition (ou de separation), resume
sur la figure 1.2.
a 1 u1

+ Syst`eme

a 2 u2

+ lineaire

y= a 1 y1 + a 2 y2

F IGURE 1.2 Principe de separation


Si lentree u1 entrane la sortie y1 et si lentree u2 entrane la sortie y2 alors une entree a1 u1 + a2 u2 entrane une
sortie y = a1 y1 + a2 y2 . Ce cours est restreint a` letude des syst`emes lineaires.
Enfin, comme il a dej`a e te mentionne, une derni`ere distinction est essentielle pour ce cours. Les syst`emes sont
soient monovariables (une seule entree, une seule sortie) soit multivariables (plusieurs entrees, plusieurs sorties).
Seuls les syst`emes monovariables seront e tudies.
2

Grandes lignes du cours

En resume, ce cours concerne les syst`emes lineaires monovariables (continus et discrets), cest-`a-dire ceux qui
peuvent e tre decrits par une fonction de transfert.

1.3 Grandes lignes du cours


Compte tenu des connaissances prealables des e tudiants, ce cours est organise comme suit. Apr`es un rappel sur la
fonction de transfert, son origine, son interet, un nouveau mod`ele alternatif est presente : la representation detat
lineaire. Ses proprietes sont explicitees, en particulier le lien existant avec la fonction de transfert. Une fois ce
mod`ele introduit, lon sinteresse a` la mani`ere de determiner la reponse des syst`emes lineaires monovariables. Ensuite, il sera montre comment analyser la stabilite dun tel mod`ele detat. Bien moins famili`eres seront les notions
de commandabilite et dobservabilite dune representation detat. La commande de tels mod`eles sera abordee vers
la fin du cours avant de consacrer une chapitre au mod`ele detat discret et de conclure sur les perspectives detude
en automatique.

Chapitre

Rappel sur la fonction de transfert


Dans ce chapitre, lon revient bri`evement sur la notion a priori famili`ere de fonction de transfert. Do`u vient-elle ?
Comment lobtenir ? Pourquoi est-elle utilisee ?

2.1 Equations
preliminaires
Il faut dabord noter que le syst`eme e voluant avec le temps, les grandeurs impliquees peuvent e tre assimilees a` des
signaux temporels, cest-`a-dire, mathematiquement, des fonctions du temps. Lors de la phase de modelisation, lon
essaie generalement de decrire le comportement du syst`eme par un jeu dequations, de relations mathematiques
entre les signaux, qui parat correspondre fid`element a` ce quest le syst`eme. Dans le cas dun syst`eme physique,
lon sappuie sur les lois de la physique (electricite, mecanique, etc...) pour determiner plusieurs e quations reliant
les differentes grandeurs en jeu, en essayant de prendre en compte tous les phenom`enes afin de decrire lintegralite
du syst`eme. Tr`es souvent, ce dernier fait apparatre un comportement dynamique (et pas seulement statique) de
sorte que les e quations obtenues sont non seulement algebriques mais aussi differentielles.
Prenons comme exemple un circuit RLC comme celui de la figure 2.1
i(t)

+
C

u(t)

y(t)

F IGURE 2.1 Circuit RLC


Les e quations issues des lois de lelectricite qui regissent le comportement du circuit RLC sont les suivantes :

di(t)

u(t) = Ri(t) + L
+ y(t)
dt
Z t
1
dy(t)
1

y(t) =
i( )d
= i(t).
C 0
dt
C

(2.1)

2.1.1 Linearite
La premi`ere constatation souvent facheuse est que ces e quations algebro-differentielles ne sont pas lineaires en
fonction des grandeurs impliquees ou de leurs derivees successives. Or, les mod`eles non lineaires sont par essence
difficiles a` manipuler. Cela signifie en pratique quils rendent ardues lanalyse du comportement du syst`eme et,
5


Equations
preliminaires

plus encore, sa commande. Par consequent, meme si cest une entorse au principe de description fid`ele de la dynamique du syst`eme, lon decide bien souvent de travailler dans une gamme de valeurs des grandeurs se situant
autour de valeurs centrales constituant ce quil est convenu dappeler un point de fonctionnement. Sous reserve
de ne pas trop seloigner de ce point de fonctionnement, lon peut approcher les e quations non lineaires par des
e quations certes approximatives mais lineaires. Sans revenir sur ces notions connues, lon peut utiliser pour ce faire
des developpements limites ou de Taylor au premier ordre de certaines fonctions mathematiques en jeu. Lon parle
alors du syst`eme non lineaire et de son linearise tangent qui est lineaire. Lon sarrange e galement pour que
les coefficients intervenant dans les e quations soient independants du temps. Lon parle alors de mod`ele lineaire
invariant dans le temps.
Dans le cas des e quations (2.1), elles sont dej`a lineaires a` coefficients constants donc il est inutile de recourir
a` une approximation.

2.1.2 Mod`ele entree/sortie : lequation differentielle


Pour simplifier le mod`ele lineaire obtenu, pour le rendre plus compact, une tendance habituelle consiste a` regrouper
toutes les e quations en une seule. Il sagit deliminer du jeu dequations toutes les grandeurs internes au syst`eme
qui ne sont ni lentree, ni la sortie. Lon obtient alors une unique e quation differentielle ne faisant apparatre que
lentree u, la sortie y et, e ventuellement, leurs derivees successives. Une telle e quation a lallure suivante :

an

dn y(t)
dn1 y(t)
dm u(t)
dm1 u(t)
+ an1
+ ... + a1 y(t)

+ a0 y(t) = bm
+ bm1
+ ... + b1 u(t)

+ b0 u(t). (2.2)
n
n1
m
dt
dt
dt
dtm1

(NB : le point sur une lettre designant un signal correspond a` la derivation par rapport au temps ; exemple : y(t)

signifie dy(t)
.)
dt
Il sagit l`a dun mod`ele de comportement entree/sortie, cest-`a-dire qui traduit levolution de la sortie en fonction de celle de lentree et ce, en e ludant la dynamique interne du syst`eme.
Physiquement, il est inconcevable que m soit strictement superieur a` n. Lon peut toujours imaginer un mod`ele
mathematique correspondant a` ce cas mais en pratique, cela signifierait que la sortie du syst`eme a` un instant donne
depend de la valeur de lentree a` un instant ulterieur. Cest pourquoi, lon suppose que m n. Un tel syst`eme est
dit causal.
Si lon revient a` lexemple du circuit RLC, en regroupant les deux e quations donnees en (2.1), lon obtient, par
e limination de i(t) :
u(t) = LC

d2 y(t)
+ RC y(t)
+ y(t).
dt2

(2.3)

Cette e quation differentielle unique constitue bien un mod`ele du lien existant entre lentree u(t) et la sortie y(t).
En outre, il est clair que des valeurs e levees de m et n rendent difficile la determination analytique de lexpression du signal y(t). En dautres termes, il est fastidieux, sinon impossible, de resoudre une e quation differentielle
dordre e leve. Aussi a-t-on ressenti le besoin dintroduire un nouvel outil de modelisation, plus aise a` manipuler, et
plus a` meme daider lautomaticien dans les phases danalyse et de commande : il sagit de la fonction de transfert.

2.1.3 Transformee de Laplace : de lequation differentielle a` la fonction de transfert


Pour e viter davoir a` manipuler une e quation differentielle pas toujours simple, les e lectroniciens et a` leur suite,
les automaticiens, ont decide dexploiter un outil mathematique bien connu, la transformee de Laplace.


Equations
preliminaires

Chaque signal temporel f (t) causal , cest-`a-dire pour lequel f (t) = 0, t < 0, peut subir une transformation
dite de Laplace , notee L et ainsi definie :
Z
L
f (t) 7 F (p) =
f (t)ept dt.
0

F (p), si elle existe, cest-`a-dire si lintegrale est calculable, est appelee transformee de Laplace de f (t) et la variable complexe p = + j (notee s dans les ouvrages de culture anglo-saxonne) est connue sous le nom de variable
de Laplace. Cet operateur poss`ede les proprietes suivantes :
1. linearite :
L

f1 (t) + kf2 (t) 7 F1 (p) + kF2 (p)


2. theor`eme de la derivation :
L

f(t) 7 pF (p) f (0)


L

f(t) 7 p2 F (p) pf (0) f(0)

df l1 (0)
dl f (t) L l
7 p F (p) pl1 f (0) pl2 f(0) ...
l
dt
dtl

p correspond donc, en presence de conditions initiales nulles, a` une derivation dans le domaine de Laplace.
3. theor`eme de lintegration :

R t0
0

f ( )d 7

F (p)
p

1/p est donc loperateur dintegration dans le domaine de Laplace.


4. theor`eme du retard :
L

f (t ) 7 ep F (p)
5. theor`eme du decalage frequentiel :
L

f (t)et 7 F (p + )
6. theor`eme de la valeur initiale :
lim f (t) = lim pF (p)
t0

(sous reserve dexistence des deux limites)


7. theor`eme de la valeur finale :
lim f (t) = lim pF (p)
t

p0

(sous reserve dexistence des deux limites)


Comme il est parfois fastidieux de calculer la transformee de Laplace dune fonction temporelle compliquee (de
meme que la transformee inverse notee L 1 ), en pratique, les automaticiens disposent de tableaux de transformees.
7

Fonction de transfert

En appliquant la transformee de Laplace a` lequation (2.1), il vient :


U (p) = LC(p2 Y (p) py(0) y(0))

+ RC(pY (p) y(0)) + Y (p).

(2.4)

Lequation (2.4) constitue un lien entre la transformee de Laplace du signal dentree et celle du signal de sortie.

2.2 Fonction de transfert


2.2.1 Comment obtenir la fonction de transfert ?
La fonction de transfert est un mod`ele de comportement entree/sortie qui sobtient a` partir de lequation differentielle
lineaire a` coefficients constants. Plutot que de chercher a` obtenir y(t) en fonction de u(t), lon cherche a` obtenir
Y (p) = L (y(t)) en fonction de U (p) = L (u(t)). Comme il sagit de determiner un mod`ele qui soit independant
des conditions initiales, ces derni`eres sont considerees nulles et lon applique tout simplement la transformee de
Laplace a` lequation differentielle (2.2), ce qui conduit a` lexpression suivante :

N (p)
bm pm + bm1 pm1 + . . . + b1 p + b0
Y (p)
.
= G(p) =
=
U (p)
D(p)
an pn + an1 pn1 + . . . + a1 p + a0

(2.5)

G(p) est une fraction rationnelle dependant de la variable de Laplace, de numerateur N (p) et de denominateur
D(p). Elle est appelee fonction de transfert et se rev`ele tr`es utile pour letude des syst`emes lineaires monovariables.
G(p) est dite dordre n et selon la r`egle de causalite, lon aura generalement m n.
Lon note que les racines de N (p) sont appelees zeros du syst`eme et celles de D(p) sont appelees poles du syst`eme.
Bien que les zeros aient une influence difficile a` estimer sur le comportement du syst`eme, il convient surtout de
se souvenir que les poles ont une influence encore plus grande en termes de stabilite et de regime transitoire de
la reponse du syst`eme. Cette influence des poles est beaucoup plus facile a` prevoir (voir cours sur la fonction de
transfert).
Dans le cas du circuit RLC, lapplication de L conduit a` :
Y (p) =

Y (p) =

1
LCp2 + RCp + 1
N (p)
D(p)
| {z }
G(p)

U (p) +

LCpy(0) + LC y(0)

+ RCy(0)
LCp2 + RCp + 1

U (p) +

I(p)
.
D(p)

(2.6)

G(p) permet de determiner le terme de Y (p) dependant seulement de U (p) et non des conditions initiales, ici
presentes au niveau du numerateur I(p).

2.2.2 Interet de la fonction de transfert


Meme dans le cas dun mod`ele dordre e leve, la reponse du syst`eme a` une excitation u(t) est plus facile a`
determiner si lon utilise la fonction de transfert. En effet, lorsque u(t) est une impulsion de Dirac (reponse impulsionnelle), ou un e chelon unitaire (reponse indicielle), alors Y (p) = G(p)U (p) peut e tre decompose en e lements
simples faisant intervenir les poles du syst`eme. Ainsi chaque e lement simple gen`ere un terme de la reponse y(t)
par application de L 1 . Cest ainsi que lon voit linfluence des poles. De ce fait, connatre la fonction de transfert,
cest connatre ses poles donc prevoir en partie le comportement du syst`eme.
8

Fonction de transfert

Dans le cas o`u u(t) est un signal sinusodal (reponse harmonique), lon peut tracer, par exemple, le diagramme
de Bode du mod`ele grace a` G(p) (voir cours sur la fonction de transfert). Ce diagramme est particuli`erement utile
pour comprendre la reaction du syst`eme a` des signaux et ce, selon la frequence de ces signaux. La fonction de
transfert permet donc une analyse frequentielle du comportement du syst`eme par lintermediaire du diagramme de
Bode.
En outre, de G(p), lon deduit facilement des lois de commande (par exemple de type regulateur PID), basees
sur lobtention de certaines marges de gain ou marges de phase, determinables grace au diagramme de Bode. De
meme, G(p) peut-etre utilisee pour calculer une loi de commande placant les poles du syst`eme en boucle fermee.
Dans les deux cas, cest la manipulation de G(p) qui conduit a` letablissement de la loi de commande, ce qui
demontre la pertinence dun tel outil.
Concernant le circuit RLC, lon peut par exemple calculer les racines de D(p) pour savoir si le signal y(t) comportera une forte oscillation ou pas. Lon peut aussi e crire G(p) sous la forme dite canonique de deuxi`eme ordre
(voir cours sur la fonction de transfert)
G(p) =

1
,
1 2
2m
p+
p
1+
0
0

la valeur de m, le coefficient damortissement, renseignant sur le niveau doscillation.

Chapitre 3

La representation detat
Devant la complexite croissante des syst`emes, la fonction de transfert peut parfois sembler ne pas e tre le mod`ele le
plus approprie pour decrire les comportements consideres. La recherche de performances toujours plus fines peut
conduire a` la meme conclusion. Ceci est particuli`erement vrai si lon sort du cadre ce ce cours et si lon envisage
letude de syst`emes multivariables. Pour cette raison, dautres mod`eles sont utilises et apparaissent comme une
alternative a` la fonction de transfert. Le plus cel`ebre dentre eux est la representation detat ou e quation detat
ou encore mod`ele detat. Il fut popularise dans les annees 1960 meme si son origine est plus lointaine. Il sagit
dun mod`ele qui prend en compte la dynamique interne du syst`eme et ne se limite pas a` la description dun
comportement de type entree/sortie. Ce chapitre presente les principes de base dun tel mod`ele en se restreignant
neanmoins, comme pour la fonction de transfert, au cas lineaire monovariable continu.

3.1 Principe general


Comme precise dans le preambule ci-avant, il sagit de decrire un syst`eme en considerant sa dynamique interne et
pas seulement une relation entre son entree et sa sortie. Ainsi, il convient de redonner de limportance a` des
grandeurs qui ne sont ni lentree, ni la sortie, tout en prenant en compte lensemble des phenom`enes dynamiques
et statiques qui conf`ere au syst`eme son comportement. Une telle preoccupation conduit aux definitions suivantes :
: letat dun syst`eme dynamique est le plus petit ensemble de variables, de grandeurs, tel que la connaisEtat
sance de cet ensemble a` linstant t = t0 , ainsi que celle du signal dentree pour t t0 , suffit a` determiner
compl`etement le comportement du syst`eme pour t t0 .
Levolution de letat a` partir de linstant t0 nest donc pas determinee par son e volution avant linstant t0 . Seuls
importent letat a` t0 et lentree a` partir de t0 , comme lillustre la figure 3.1. o`u plusieurs trajectoires de x(t) avant
linstant t0 aboutissant en x(t0 ) sont compatibles avec la meme trajectoire de x(t) apr`es t0 .
Variables detat : ce sont les variables, grandeurs qui constituent letat du syst`eme.
Lon consid`ere traditionnellement que ces variables sont au nombre de n et notees x1 , x2 , ..., xn . Cette valeur
de n est lordre du mod`ele. Chacune de ses variables est associee a` un signal temporel. Lensemble {x1 , ..., xn }
constitue letat. Les grandeurs xi ne sont pas necessairement des grandeurs physiques.
Vecteur detat : de mani`ere plus mathematique, lon represente letat par une concatenation de lensemble
des variables detat en un vecteur, a priori reel, de dimension n, que lon note x = [x1 , . . . , xn ] .
Il va de soi que les expressions e tat et vecteur detat sont frequemment utilisees lune pour lautre sans que cela
nalt`ere fondamentalement le propos.
Espace detat : Il sagit tout simplement de lespace vectoriel dans lequel le vecteur detat x est susceptible
devoluer, chaque instance de x e tant associe a` un point de cet espace. Cet espace est donc IRn .
11

De la non-linearite a` la linearite

x1 (t)
xi (t)
xn (t)

t0

F IGURE 3.1 Levolution des composantes de x(t) apr`es t0 (trait plein) est independante de leur e volution avant
t0 (pointilles)

Lon dit souvent de la representation detat que cest une modelisation dans lespace detat.
Pour un syst`eme dynamique, le vecteur detat nest pas unique. Plusieurs choix sont possibles. Mais pour que
x soit effectivement vecteur detat, il importe que chacune des variables detat apparaissent, de mani`ere explicite
ou implicite, sous forme derivee dans le jeu dequations decrivant le syst`eme. Dans le cas contraire, il sera difficile de se servir de cette variable pour prevoir levolution du syst`eme. Cette constatation conduit a` un syst`eme
dequations differentielles auquel sajoute une e quation algebrique :

x 1 (t)
f1 (x(t), u(t), t)

..
..

=
x(t)
= f (x(t), u(t), t) =

.
.
x n (t)
fn (x(t), u(t), t)

y(t) = g(x(t), u(t), t).


(3.1)
o`u f et g sont des fonctions susceptibles de prendre presque nimporte quelles formes. Cependant, lon ne parle de
representation detat que si la fonction vectorielle f de IRn IR IR dans IRn est Lipschitzienne en x, continue en
u et continue par morceaux en t.
Le syst`eme differentiel apparaissant dans (3.1) est appele e quation dynamique ou e quation devolution alors que
lequation algebrique est dite e quation de mesure ou e quation de sortie.

3.2 De la non-linearite a` la linearite


Bien entendu, f et g sont des fonctions e ventuellement tr`es complexes, generalement non lineaires et il convient,
dans le cadre de ce cours, de recourir a` une approximation lineaire. Pour ce faire, lon consid`ere souvent que
letat du syst`eme ainsi que son entree e voluent au voisinage dun point dequilibre, ou point de fonctionnement
12

De la non-linearite a` la linearite

et lon fait lhypoth`ese que toutes les variations autour de ce point sont faibles. Ainsi, en supposant que ce point
dequilibre est caracterise par les valeurs xe et ue , lon peut considerer la variation detat (t) = x(t) xe , celle
dentree v(t) = u(t) ue et celle de sortie z(t) = y(t) g(xe , ue , t). Si les valeurs de v(t) et des composantes
i (t) de (t) restent faibles (donc assimilables aux differentielles correspondantes), lon peut calculer les matrices
jacobiennes suivantes

f1
f1
f1
(xe , ue , t) . . .
(xe , ue , t)
(x
,
u
,
t)

u e e

x1
xn

.
.
.
.

..
..
..
..
A(t) =
; B(t) =

f
fn
n
n
(xe , ue , t) . . .
(xe , ue , t)
(xe , ue , t)
x1
xn
u


g
g
g
; D(t) =
(xe , ue , t).
C(t) =
(xe , ue , t) . . .
(xe , ue , t)
u
x1
xn

;
(3.2)

Ainsi, si lon consid`ere que (t) et v(t) sont respectivement le nouveau vecteur detat et la nouvelle entree du
mod`ele linearise tangent autour du point dequilibre, il vient :


= A(t)(t) + B(t)v(t)
(t)
z(t) = C(t)(t) + D(t)v(t).

(3.3)

Lapproximation lineaire au premier ordre consiste donc a` supposer que (t) et v(t) restent faibles et a` decrire le
comportement du syst`eme par (3.3). Comme x(t), u(t) et y(t) sont les notations habituelles de letat, de lentree
et de la sortie, lon e crira plutot

x(t)

= A(t)x(t) + B(t)u(t)
(3.4)
y(t) = C(t)x(t) + D(t)u(t),
dautant plus quil nest pas rare que lorigine soit le point dequilibre ( = x), que lon sinteresse au syst`eme
autonome, voire que le mod`ele soit obtenu directement sous forme lineaire, sans avoir a` recourir a` une approximation. Par ailleurs, les signaux u(t), y(t) et xi (t) sont de toute e vidence des signaux temporels. De plus, il est assez
frequent, comme il a dej`a e te mentionne, que les fonctions non-lineaires f et g ne dependent pas explicitement
du temps. Lon peut alors tr`es souvent omettre la dependance en t de mani`ere a` obtenir la representation detat
suivante, qui correspond a` un syst`eme differentiel lineaire a` coefficients constants :

x = Ax + Bu
y = Cx + Du.

(3.5)

Les relations donnees en (3.5) constituent une representation detat lineaire invariante dans le temps dun syst`eme.
Par abus de langage, lon parle souvent de syst`eme LTI (acronyme anglais pour Linear Time-Ivariant, cest-`a-dire
lineaire invariant dans le temps). Cest ce type de mod`ele qui fait lobjet de ce cours.
La matrice A est appelee matrice detat ou devolution. On la nomme aussi parfois matrice dynamique. B est
appelee vecteur dentree ou de commande (d`ou une ambigute avec le vecteur u). C est le vecteur de sortie, dobservation ou de mesure (d`ou une ambigute avec le vecteur y). Quant a` D, cest un scalaire dit de transmission
directe, qui est nul sil nexiste aucun lien statique direct entre le signal dentree et celui de sortie.
Remarque 3.1 Dans le cas o`u f et g dependent explicitement de t, alors A, B, C et D sont des fonctions de t et le
mod`ele est dit lineaire variant dans le temps. Il est souhaitable, si possible de recourir aussi a` une approximation
pour considerer ces matrices comme constantes. Lon retrouve alors un mod`ele LTI.
La representation detat peut-etre associee au schema-bloc donne par la figure 3.2.
13

De la non-linearite a` la linearite

+ + x

F IGURE 3.2 Schema-bloc dune representation detat

F IGURE 3.3 Pendule en mouvement libre

Exemple :
Lon consid`ere le mouvement du pendule autonome represente sur la figure 3.3.

Lapplication de la relation fondamentale de la dynamique et le choix dun vecteur detat x tel que x = [ ]
conduit a` instancier lequation (3.1) ainsi :

= f1 (x1 , x2 )

x 1 = x2

g
k
sin(x1 ) x2 = f2 (x1 , x2 ).
l
m
o`u g est la constante gravitionnelle, l la longueur du pendule, m sa masse et k sa raideur. Le syst`eme e tant autonome, les fonctions f1 et f2 ne dependent pas dune entree u. Le point de fonctionnement considere est le seul
des deux points dequilibre (c.-`a-d. x = 0) physiquement atteignable, a` savoir xe = [0 0], lautre e tant xe = [ 0].
Il vient :
f1
f1
(xe ) = 0
;
(xe ) = 1
;
x1
x2

x 2

g
f2
(xe ) = cos(xe1 )
x1
l

k
f2
(xe ) =
x2
m

Cette approximation conduit a` la representation LTI du syst`eme autonome


#
"
0
1
x
x = Ax =
k
g
.

l
m
14

Comment obtenir un mod`ele detat ?

3.3 Historique de la representation detat


Bien que la fonction de transfert fut popularisee dans les annees 30 et 40 alors que la representation le fut dans les
annees 1960, il nest pourtant pas exact de dire que cette derni`ere est ulterieure. En realite, la notion detat e tait
definie depuis le XIX`eme si`ecle et apparaissait par exemple en Mecanique (la formulation de la loi de Newton par
W. R. Hamilton utilise implicitement la notion detat) et en Thermodynamique au travers des contributions de H.
Poincare). Elle est particuli`erement presente dans les travaux dAlexandr Lyapunov (mathematicien et physicien
russe (1857-1918)) relatifs a` la stabilite du mouvement en mecanique (1892). Ces travaux eurent dimportantes
repercutions, entre autres dans la perception de certains mod`eles dastronomie mais aussi dans bien dautres domaines. Cependant, malgre deux traductions francaises en 1902 et 1907 puis une anglaise en 1949, ils ne rest`erent
un centre dinteret que dans les milieux scientifiques sovietiques.
Pendant ce temps, en occident, ces methodes dites temporelles (parce que basees sur des mod`eles faisant intervenir
des derivees par rapport au temps) furent supplantees par lapproche dite frequentielle. En effet, le formalisme
de la contre-reaction et les theories connexes furent progressivement developpees dans les annees 1930 et 1940
par des e lectroniciens (Black, Bode aides tout de meme de mathematiciens tel Nyquist) qui virent les syst`emes
dabord comme des filtres et privilegi`erent donc letude du comportement dun syst`eme en fonction de la frequence
du signal dentree. Par ailleurs, certains outils mathematiques disponibles depuis longtemps (travaux de Fourier,
Laplace, Routh, Hurwitz) semblaient convenir parfaitement a` leurs besoins ce qui conduisit tout naturellement
a` une pree minence de la fonction de transfert en tant que mod`ele de syst`eme lineaire. En outre, les progr`es de
lelectronique et les necessites daccentuer le developpement de technologies usant dAutomatique en temps de
guerre aid`erent a` la popularisation de cet outil, particuli`erement aux USA. La France fut partie prenante de cette
e volution, surtout apr`es la guerre. De fait, il est vrai que la fonction de transfert savera un outil tr`es utile.
Neanmoins, pendant ce temps, les Sovietiques continu`erent daccorder une grande importance a` la notion detat et
aux travaux de Lyapunov, grace, entre autres, a` Chetayev et Lure qui sinteressaient a` des probl`emes aeronautiques
et/ou militaires. Loccident ne preta pas forcement beaucoup dattention a` ce clivage scientifique jusquen 1957 ou
le premier satellite artificiel, Spoutnik, fut mis en orbite par les scientifiques de lest. Il apparut donc clairement
que si lapproche frequentielle e tait utile, il y avait aussi a` gagner a` developper lapproche temporelle, en particulier dans le domaine spatial. Cest pourquoi le professeur Salomon Lefschetz organisa une e quipe de recherche,
aux USA, chargee de promouvoir en occident la theorie de Lyapunov. Parmi ces chercheurs figuraient entre autres
La Salle, Bertram et surtout Kalman. Ce dernier fut le grand initiateur de la representation detat lineaire et sut
mettre en e vidence linteret de cette derni`ere au regard des outils de lalg`ebre lineaire. Il introduisit les notions de
commandabilite et dobservabilite et, grace a` ses travaux, la theorie de Lyapunov fit un retour significatif dans la
communaute des automaticiens occidentaux. Des projets a` caract`ere spatial tels quApollo ou Polaris benefic`erent
directement de ce regain dinteret.
Il est a` noter, enfin, que, sans remplacer la fonction de transfert qui continue detre utilisee efficacement pour
de nombreuses applications, la representation detat se prete particuli`erement bien a` letude des syst`emes multivariables (plusieurs entrees et/ou plusieurs sorties) frequemment rencontres dans le domaine aerospatial. Selon
certaines nomenclatures anglo-saxonnes, la branche de lautomatique basee sur le concept de representation detat
est qualifiee de moderne, par opposition a` la branche frequentielle parfois qualifiee de classique. De fait, lapproche
temporelle ou interne basee sur les travaux de Kalman est celle qui procure le plus doutils novateurs de nos jours.
Les notions de base de cette approche e tant cependant maintenant bien connus, le qualificatif de moderne nest
pas toujours considere comme approprie ou tout du moins communement admis.

3.4 Comment obtenir un mod`ele detat ?


Lon peut obtenir une representation detat lineaire en manipulant le jeu dequations preliminaires ou en operant a`
partir de lequation differentielle unique.
15

Comment obtenir un mod`ele detat ?

3.4.1 Par le jeu dequations


Lon suppose ici que les e quations manipulees sont dej`a lineaires. Par souci de simplicite, lon consid`ere lexemple
du circuit RLC modelise par les e quations (2.1). Les deux grandeurs dont la derivee intervient sont i et y (`a partir
de maintenant, la dependance en le temps est omise pour alleger les notations). Soient donc les deux variables
detat x1 = i et x2 = y. Les e quations de (2.1) peuvent se recrire

1
1
R

x 1 = L x1 L x2 + L u

x = 1 x .
2
1
C

ce qui conduit au mod`ele (3.5) avec :

A =

R
L

1
C

1
L

B= L

C=

D = 0.

(3.6)

3.4.2 Par lequation differentielle unique


La technique consiste a` considerer lequation differentielle globale (2.2). Lon suppose dabord que m = 0. Lon
suppose e galement, sans perte de generalite, que an = 1 et lon pose, sans se soucier de la signification du vecteur
detat, les variables detat suivantes :
x1 = y

x2 = y

x3 = y ;

...

xn =

dn1 y
.
dtn1

Lon peut alors montrer que :

A=

0
0
..
.

1
0
..
.

0
1
..
.

...
...
..
.

0
a0

0
a1

0
a2

0
0
..
.

...
1
. . . an1

0
0
..
.

B=

0
b0

C=

0 0

... 0

D = 0.

(3.7)

La technique ci-dessus appliquee a` lequation (2.3) conduit a` recrire cette derni`ere ainsi :
y +

R
1
1
y +
y=
u.
L
LC
LC

Lon obtient alors

A=

B=

C=

1 0

; D = 0.
(3.8)
1
R
1

LC
LC
L
qui est un quadruplet de matrices different de celui trouve precedemment et donne en (3.6). Ceci permet de constater que le mod`ele detat obtenu depend du choix des variables detat. Il nest donc pas unique, contrairement
a` la fonction de transfert. En effet, cette derni`ere est un mod`ele externe et non interne, cest-`a-dire un mod`ele
entree/sortie. Or, la sortie et lentree e tant uniques, il nexiste quune fonction de transfert.

Dans le cas o`u m 6= 0, la procedure est un peu plus complexe mais repond au meme principe. Lon suppose
que m = n sans perte de generalite (il suffit de considerer bj = 0 j | m < j n). Le coefficient an est toujours
suppose e gal a` 1. Lon definit :
16

De la fonction de transfert a` la representation detat

n = b n ,

j1

anj+k nk

=
b

nj
nj

j {1, . . . , n}.

k=0

Les variables detat peuvent alors e tre ainsi choisies :

x1 = y n u

x2 = x 1 n1 u
x3 = x 2 n2 u

xn = x n1 1 u

Il vient

A=

0
0
..
.

1
0
..
.

0
1
..
.

0
a0

0
a1

0
a2

...
...
..
.

0
0
..
.

...
1
. . . an1

B=

n1
n2
..
.
1
0

C=

1 0

... 0

D = n ,

(3.9)

Pour le circuit RLC, on retrouve les quatre matrices donnees en (3.8).

3.5 De la fonction de transfert a` la representation detat


Comme il vient detre vu, sil existe une seule et unique fonction de transfert decrivant un syst`eme lineaire, il peut
en revanche exister plusieurs representations detat dites realisations du syst`eme. Dans cette partie, il est montre
comment passer de la fonction de transfert a` plusieurs formes de realisations.
Dans un premier temps, il est suppose que n > m, cest-`a-dire quil nexiste pas de transmission directe (D = 0).
Il existe alors des methodes pour determiner des realisations diagonales, de Jordan, ou encore dites compagnes.
Ensuite, le cas m = n est envisage. Il est alors montre que lon peut neanmoins beneficier des resultats obtenus
dans le cas o`u n > m.

3.5.1 Cas dune fonction de transfert strictement propre (m < n)


3.5.1.1 Realisation diagonale ou quasi diagonale de Jordan
Lon suppose sans perte de generalite que an = 1 de sorte que la fonction de transfert G(p) peut secrire :
G(p) =

N (p)
N (p)
N (p)
= n
= n
.
n1
Y
D(p)
p + an1 p
+ . . . + a1 p + a0
(p i )
i=1

Lexpression ci-dessus fait apparatre les poles du syst`eme, cest-`a-dire les racines du denominateur D(p).

Poles
distincts
Dans le cas ou tous les poles i , i = 1, ..., n sont distincts, il est facile de realiser la decomposition en e lements
simples de Y (p) = G(p)U (p) et il vient :


n
X
i
U (p) .
Y (p) =
p i
i=1
|
{z
}
Xi (p)
17

De la fonction de transfert a` la representation detat

Si lon focalise son intention sur chaque terme Xi (p), lon deduit que
pXi (p) = i U (p) + i Xi (p),
ce qui se traduit dans le domaine temporel, par application de L 1 , par
x i = i u + i xi .


En choisissant le vecteur detat x = x1 . . . xn , il vient aisement la realisation suivante, dite diagonale :

1
1 0 . . . 0

2
0 2 . . . 0

x + . u

x = ..
.
..
.
.
.
.

.
.
.
.
.
(3.10)

0
.
.
.
.
.
.

n
n




1 1 . . . 1 x,
y =
laquelle peut e galement e tre modifiee en remplacant B par C et C par B . De mani`ere plus generale, dans une
realisation diagonale, B = [1 . . . n ] et C = [1 . . . n ] doivent e tre telles que i i = i , i {1, ..., n}. Une
realisation de la forme (3.10) est dite diagonale car la matrice devolution A est diagonale.

Par exemple, la fonction de transfert


G(p) =

1
1
1
1
= +
+
p(p + 1)(p 1)
p 2(p + 1) 2(p 1)

peut conduire a` la realisation

Poles
multiples

0
0
0


0 0
1 0 x
0 1

1 1

1
+ 1/2 u
1/4

x.

Dans le cas o`u G(p) poss`ede un pole dordre de multiplicite superieur a` 1, la diagonalisation de A nest pas
forcement possible. Pour comprendre ce qui peut e tre envisage dans cette situation, lon peut tout simplement
considerer une fonction de transfert G(p) ne possedant quun seul pole de multiplicite n. Lon a alors :
Y (p) = G(p)U (p)

n
X
i=1

Lon voit bien sur cette expression que le premier terme est tel que
Xn (p) =

U (p)
.
(p )i
| {z }
Xn+1i (p)

U (p) L 1
x n = xn + u.
p

Quant aux autres termes, ils sont tels que


Xj1 (p) =

Xj (p) L 1
U (p)
x j1 = xj1 + xj , j {2, ..., n}.
=
(p )j
p

Ceci conduit a` la realisation suivante :


18

De la fonction de transfert a` la representation detat

... ... 0
.
0
..
.. . .
.
..
.
. ..
.
.
0 . . . .. 1
0 ... ...

0
..
.
0
0

n1

n1

. . . 2

0
1

0
0
..
.

(3.11)

x.

Dans la realisation ci-dessus, lon constate que la matrice devolution A est quasi diagonale c.-`a-d. constitue un
bloc de Jordan.
Pour le cas o`u G(p) contient des poles dordre de multiplicite divers, il suffit dassocier les deux cas repertories
precedemment comme le montre lexemple ci-apr`es :
G(p) =

1
1
1
2p2 + 4p + 1
= +
.
+
p(p + 1)2
p p + 1 (p + 1)2

Il apparat un pole simple nul et un pole double de Jordan e gal a` -1. Ceci conduit a` la realisation suivante :

0
= 0
0


0
0
1
1 x +
0 1
1 1

1
0 u
1

x.

Remarque 3.2 Il est clair que ces formes de Jordan font apparatre les poles de G(p) sur la diagonale de A.
Ainsi, ces poles sont aussi les valeurs propres de A. Lorsque les poles sont multiples, la matrice peut ne peut e tre
diagonale, mais ce nest pas systematique. En effet, il est possible quune matrice carree ayant des valeurs propres
multiples puissent e tre diagonalisee (voir cours de mathematiques).

3.5.1.2 Realisation de forme compagne


Il existe plusieurs realisations de forme compagne qui peuvent e tre facilement obtenues a` partir de la fonction de
transfert. Ce paragraphe est restreint aux formes compagnes les plus classiques. Pour ce faire, G(p) est suppose de
la forme (2.5) avec an = 1. Les deux formes dites compagnes les plus communement rencontrees sont :
Forme compagne horizontale :

x =

Forme compagne verticale :

0
..
.

0
..
.

0
a0

0
a1

b0

b1

... ...
0
..
.
0
..
..
..
.
.
.
..
.
1
...
. . . . . . an1

. . . bm

0 ... 0

19

x.

0
0
..
.

0
1

(3.12)

De la fonction de transfert a` la representation detat

an1

an2

..
=
.

a1
a0

1 ... ... 0

.
0
0 ..

. x
.. . .
..
.
. ..
.

..
. 1
0 ...
0 ... ... 0

0
..
.

u
+

bm
.
..
b0

(3.13)



1 0 . . . . . . . . . 0 x.
y =
Aucune justification rigoureuse nest apportee ici mais lon peut comprendre que ces formes compagnes sont liees
aux formes issues de lequation differentielle.
Reprenant le dernier exemple de fonction de transfert, il vient
G(p) =

2p2 + 4p + 1
2p2 + 4p + 1
= 3
,
2
p(p + 1)
p + 2p2 + p

qui peut correspondre a` la forme compagne horizontale suivante :

0
1
0
0

x = 0
0
1 x + 0 u

0 1 2
1




1 4 2 x.
y =

(3.14)

3.5.2 Cas dune fonction de transfert non strictement propre (m = n)

Dans le cas o`u m = n, il est impossible dappliquer directement les techniques presentees ci-avant pour obtenir
une realisation du syst`eme. Cependant, lon peut se ramener au cas dune fonction de transfert strictement propre
en operant une division polynomiale de la facon suivante :
G(p) =

N (p)
b0 + b1 p + . . . + bn p n
R(p)
b 0 + b 1 p + . . . + b n pn
=
=
+ Q = Gpr (p) + Q =
+ Q. (3.15)
D(p)
D(p)
D(p)
D(p)

Comme m = n, le quotient Q est une constante et le reste R(p) est un polynome de degre strictement inferieur a`
celui du diviseur D(p). Ainsi, Gpr (p) est une fonction de transfert strictement propre.
Les coefficients du numerateur N (p) de la fonction de transfert globale G(p) sont notes bi pour les distinguer des
coefficients bi du numerateur R(p) du transfert strictement propre Gpr (p) extrait de G(p).
Par ailleurs, lon a Y (p) = G(p)U (p) = Gpr U (p) + QU (p) = Ypr (p) + QU (p). Donc, si lon prend ypr
comme sortie, la fonction de transfert associee au syst`eme obtenu est Gpr dont on peut determiner une realisation
(A, B, C). Il vient alors :

x
= Ax + Bu
ypr = Cx.

En posant D = Q et en realisant le changement de variable inverse (dans le domaine temporel cette fois-ci)
y = ypr + Du, il vient :

x = Ax + Bu
y = Cx + Du.
Par exemple, soit la fonction de transfert :
G(p) =

(p3 + 2p2 + p) + (2p2 + 4p + 1)


2p2 + 4p + 1
p3 + 4p2 + 5p + 1
=
=
+ 1 = Gpr (p) + 1.
p3 + 2p2 + p
p3 + 2p2 + p
p3 + 2p2 + 1

Gpr (p) correspond a` la fonction de transfert du dernier cas traite. Il suffit donc de conserver les matrices A, B et
C donnees en (3.14) en y ajoutant la transmission directe D = 1.
20

Dune realisation a` lautre

3.6 De la representation detat a` la fonction de transfert


Sil existe plusieurs mani`eres dobtenir une realisation a` partir de la fonction de transfert, cette derni`ere e tant
unique, il nexiste quune facon de lobtenir a` partir dune e quation detat. Pour cela, il faut noter que L est un
operateur lineaire qui peut donc sappliquer aux matrices. Partant de lequation (3.5), il vient

pX(p) = AX(p) + BU (p) X(p) = (pI A)1 BU (p)
Y (p) = CX(p) + DU (p),
les conditions initiales e tant considerees nulles puisquil sagit de determiner G(p). De toute e vidence, ceci am`ene :

G(p) = C(pI A)1 B + D.

(3.16)

Le denominateur D(p) de la fonction de transfert est souvent appele polynome caracteristique. Il est facile de
voir quil est, dans lexpression ci-dessus, engendre par linversion matricielle et e gal a` (cf. A.1.5 et A.1.8.1 en
annexe A) :

D(p) = det(pI A).

(3.17)

3.7 Dune realisation a` lautre


Il a e te vu quune fonction de transfert pouvait correspondre a` plusieurs realisations. En realite, elle en admet meme
une infinite comme le montre le paragraphe qui suit.

3.7.1 Changement de base


Lon peut passer dune realisation a` une autre tout simplement par un changement de base dans lespace detat IRn .
En effet, si lon consid`ere lequation detat (3.5), lon peut appliquer au vecteur detat un changement de rep`ere de
sorte a` obtenir un nouveau vecteur detat x
. Ainsi, soit le changement de base x = M x
o`u M est une matrice de
rang plein, il vient :

x
=

1
|M {zAM} x
A
CM

|{z} x
C

+
+

1
|M {z B} u

B
Du.

(3.18)

B,
C,
D)
= (M 1 AM, M 1 B, CM, D). Comme il existe une
Le quadruplet de matrices obtenu est donc (A,
infinite de matrices de passage M utilisables, il existe aussi une infinite de realisations e quivalentes qui correspondent toutes a` la meme fonction de transfert. En effet,

G(p)
= CM (pIM 1 AM )1 M 1 B+D = CM (M 1 (pIA)M )1 M 1 B+D = C(pIA)1 B+D = G(p).
21

Dune realisation a` lautre

En outre, puisque M 1 AM est semblable a` A, les valeurs propres de A sont les memes quelle que soit la realisation
consideree. De ce fait, ce sont toujours les poles de G(p) cest-`a-dire les racines du polynome caracteristique
(meme si lon sera plus tard amene a` porter une nuance a` ce propos).
Les racines du polynome caracteristique D(p), cest-`a-dire les poles du syst`eme, sont valeurs propres de la
matrice detat A quelle que soit la realisation choisie.
Il est possible de passer dune realisation a` une autre ce qui peut se reveler utile quand la seconde a une forme
particuli`ere. Le principe est de determiner la matrice de passage.

3.7.2 Obtention dune forme compagne (horizontale)


Soit un quadruplet de matrices (A, B, C, D) constituant une representation detat dun syst`eme. Il sagit alors de
B,
C,
D)
= (M 1 AM, M 1 B, CM, D) qui
determiner M , une matrice de passage a` une autre realisation (A,
soit compagne horizontale.
Lon sattache dabord a` exprimer les colonnes de M :
Lon note que A est de la forme (3.12) o`u les composantes ai sont les coefficients du polynome caracteristique
P () qui peut e tre calcule :
P () = det(I A) = n +

n1
X

(ai i ).

i=0

Si lon decompose la matrice M en M = [m1 , ..., mn ], alors legalite AM = M A


Ceci permet dobtenir A.
conduit a` e crire

Am1
= a0 mn
colonne 1

Am
=
v

a
m
colonne
2

2
1
1 n

..
..
.
.

Am
=
m

a
m
colonne
n1

n1
n2
n2
n

Amn
= mn1 an1 mn
colonne n.

mn1 = (A + an1 I)mn

mn2 = (A2 + an1 A + an2 I)mn

(3.19)
..

m1
= (An1 + an1 An2 + . . . + a2 A + a1 I)mn
Lon constate que M est fonction de mn . Comment determiner mn ?
Compte tenu de Am1 = a0 mn , il vient :

(An + an1 An1 + . . . + a2 A2 + a1 A + a0 I)mn = 0.


Dapr`es le theor`eme de Cayley-Hamilton, toute matrice A verifie son propre polynome caracteristique, c.-`a-d.
P (A) = det(A A) = An + an1 An1 + . . . + a2 A2 + a1 A + a0 I = 0,

(3.20)

ce qui signifie que legalite precedente est verifiee quelle que soit A et quel que soit mn .
Procedure pratique :
Il est donc possible de fixer arbitrairement mn 6= 0 et de determiner la matrice de changement de base M grace
a` (3.19).

3.7.3 Obtention dune forme de Jordan


Le probl`eme est le meme que celui du paragraphe precedent mais la matrice M doit e tre telle que A est diagonale
ou de Jordan.
22

Dune realisation a` lautre

3.7.3.1 Les valeurs propres i de A sont distinctes


Il suffit de determiner n vecteurs non nuls lineairement independants vi tels que
Avi = i vi .
Les vecteurs vi sont appeles vecteurs propres. Lon a alors M = V = [v1 , ..., vn ]. La matrice = V 1 AV est
diagonale et sa diagonale contient les valeurs propres de A.
3.7.3.2 Les valeurs propres i de A sont multiples
Dans ce cas, A peut ne pas e tre diagonalisable mais lon peut lui associer une matrice de Jordan. Pour simplifier,
lon suppose ici que A na quune valeur propre , dordre de multiplicite n. Il convient de determiner le nombre
de blocs de Jordan dans J = V 1 AV . Ce nombre est donne par
q = n rang(I A).
Pour comprendre comment determiner les vecteurs propres generalises, il est plus facile denvisager les deux cas
extremes, q = 1 (un seul bloc de Jordan) et q = n (matrice J diagonale). Les cas intermediaires ne correspondent
qu`a une association de ces deux cas comme il est explique par la suite.
q =1:
La relation

0
..
.

AV = A[v1 , . . . , vn ] = V J = [v1 , . . . , vn ]

0
0

conduit aux e galites suivantes (une e galite par colonne) :

Av1
=

Av
=

..
.

Av
=

p1

Avp
=

..
.

0
1
..
.

...
...
..
.

0
0

...
...

0
0
..
.

v1
v1 + v2
vp2 + vp1
vp1 + vp .

Il faut donc proceder a` une resolution sequentielle de toutes ces e quations lineaires en sassurant toujours que les
vi sont bien lineairement independants.

q =n:
Dans ce cas, lon determine simplement n vecteurs vi lineairement independants tels que
Avi = vi

i {1, ..., n}

q 6= n et q 6= 1 :
Dans ce cas l`a, il y a plusieurs blocs de Jordan et il convient dassocier les deux techniques expliquees ci-avant.
Remarque 3.3 Il peut exister une ambigute sur la taille des blocs de Jordan ; si cela se produit, lon peut envisager tous les cas possibles sachant quun seul conduira a` une solution. Ainsi, la premi`ere solution rencontree est
recevable.
Dans le cas o`u il y a plusieurs valeurs propres multiples, il faut proceder comme ci-dessus, mais ce, pour chaque
valeur propre.
Exemple :
23

Dune realisation a` lautre

Soit la matrice detat

1 0
A = 1 1
1 0

Lon a :

1
0
1 1
P () = det
1
0

0
1 .
0

0
1 = ( 1)2

1 = 0 est une valeur propre simple. En resolvant Av1 = 1 v1 , lon peut voir que v1 = [0 1 1] est une solution.
2 = 1 est valeur propre double. Or, q = n rang(I A) = 3 1 = 2 donc lon saitque A est diagonalisable. En resolvant Av = v, lon trouve

1
0
v = 0 a + 1 b
1
0
o`u a et b sont deux degres de liberte. En choisissant [a b] = [0 1] et [a b] =
vecteurs propres et

0
0 0
1
0 = V 1 AV = 0
V = 1 1
1 0 1
0

[1 0], lon obtient les deux derniers


0
1
0

0
0 .
1

Remarque 3.4 Dans lexemple ci-avant, la matrice A est diagonalisable malgre la presence dune valeur propre
multiple, a` savoir 1. Il sagit l`a dune distinction entre multiplicite algebrique et multiplicite geometrique (voir
cours de mathematiques).

24

Chapitre 4

Reponse dun mod`ele detat


Dans ce chapitre, il sagit dutiliser un mod`ele detat pour determiner la reponse dun syst`eme lineaire a` une
excitation classique (impulsion, e chelon, sinusode). Par reponse, lon entend la forme (ou lexpression) de la
sortie y(t) du syst`eme delivree sous leffet dune excitation u(t).

4.1 Solution du syst`eme autonome


Avant denvisager une solution a` lequation detat compl`ete, lon peut sattarder un peu sur la reponse du syst`eme
autonome. Un tel syst`eme se decrit ainsi :
x = Ax,

x(t0 ) = x0 .

(4.1)

Le vecteur x0 constitue lensemble des conditions initiales a` linstant t0 . Il sagit ici de voir comment le syst`eme
reagit librement, en labsence dentree, a` cette condition initiale.

4.1.1 Matrice de transition detat


Lon recherche la solution sous la forme suivante :
x(t) = (t, t0 )x0 .
La matrice (t, t0 ) est dite matrice de transition detat puisquelle permet de passer de letat x0 a` letat x(t). En
derivant x par rapport au temps, lon obtient
t0 )x0 = A(t, t0 )x0 ,
x = Ax = (t,
ce qui conduit aux e quations suivantes :


t0 ) = A(t, t0 )
(t,
(t0 , t0 ) = I.

(4.2)

Les proprietes de cette matrice sont notables. En effet,


x(t2 )
x(t3 )
x(t3 )

= (t2 , t1 )x(t1 )
= (t3 , t2 )x(t2 )
(t3 , t1 ) = (t3 , t2 )(t2 , t1 ) {t1 ; t2 ; t3 } IR3

= (t3 , t1 )x(t1 )

x(t1 ) =
x(t1 ) =

(t1 , t2 )x(t2 )
1 (t2 , t1 )x(t2 )

1 (t2 , t1 ) = (t1 , t2 )

25

{t1 ; t2 ; } IR2 .

(4.3)

(4.4)

Solution de lequation detat compl`ete

4.1.2 Solution de lequation homog`ene


La solution dun tel syst`eme matriciel (c.-`a-d. (4.2)) est analogue a` celle obtenue dans le cas scalaire donc il vient :
(t, t0 ) = eA(tt0 ) .
Pour sen convaincre, lon peut rappeler quune exponentielle de matrice peut se calculer grace au developpement
en serie :
A2 (t t0 )2
A3 (t t0 )3
+
+ ...
2!
3!
Si lon derive lexpression ci-dessus par rapport au temps, lon obtient
eA(tt0 ) = I + A(t t0 ) +

(4.5)

A3 (t t0 )2
d(eA(tt0 ) )
= A + A2 (t t0 ) +
+ ...
dt
2!

d(eA(tt0 ) )
A2 (t t0 )2
A3 (t t0 )3
= A(I + A(t t0 ) +
+
+ . . .) = AeA(tt0 ) ,
dt
2!
3!

ce qui montre bien que eA(tt0 ) est solution de (4.2). La reponse du syst`eme autonome a` une condition initiale x0
est donc :

x(t) = eA(tt0 ) x0 .

(4.6)

4.2 Solution de lequation detat compl`ete


Lon recherche maintenant une solution en x puis y a` lequation (3.5). Lon suppose que cette solution est de la
forme :
x(t) = (t, t0 )z(t) avec z(t0 ) = x0 .
Il vient alors :
t0 )z(t) + (t, t0 )z(t)
x(t)

= (t,

= A(t, t0 )z(t) + (t, t0 )z(t)


= Ax(t) + Bu(t).
Par identification des deux membres de la derni`ere e galite, lon a
z(t)
= 1 (t, t0 )Bu(t)
qui, compte tenu de la propriete (4.4), devient
z(t)
= (t0 , t)Bu(t).
En integrant, lon exprime z(t) :
z(t) = x0 +

(t0 , )Bu( )d
t0

x(t) = (t, t0 )x0 + (t, t0 )

t0

26

(t0 , )Bu( )d

Calcul de eAt

x(t) = (t, t0 )x0 +

(t, )Bu( )d.

t0

Compte tenu de lexpression de la matrice , il vient

x(t) = eA(tt0 ) x0 +

eA(t ) Bu( )d.

(4.7)

t0

Bien entendu, lexpression de x(t) depend ensuite de celle u(t). Si lon donne la solution en y de lequation detat,
legalite (4.7) am`ene :

y(t) = CeA(tt0 ) x0 + C

Z

eA(t ) Bu( )d

t0

+ Du(t).

(4.8)

Dans legalite ci-dessus, lon peut faire une distinction utile (dej`a e tudie dans le cours sur lapproche frequentielle)
dans le membre de droite et faire apparatre deux regimes dans la reponse :
Le regime libre : il correspond au premier terme et ne depend que du mod`ele du syst`eme et de la condition
initiale. Il ne depend pas de laction de lenvironnement exterieur pendant la reponse.
Le regime force : il est associe aux deux derniers termes et correspond en fait a` la reaction du syst`eme a` lexcitation u(t). Il depend du mod`ele du syst`eme mais aussi de la nature du signal u(t).
En outre, lorsque la reponse tend asymptotiquement vers une valeur constante de y(t) ou vers un comportement
periodique de ce signal, lon peut distinguer
Le regime transitoire qui est le temps durant lequel y(t) subit une e volution avant de se rapprocher dune valeur
constante ou dun comportement periodique. La duree du regime transitoire correspond a` un temps appele temps
de reponse et note tr .
Le regime permanent qui succ`ede au regime transitoire, qui commence donc a` tr et qui correspond a` lintervalle
de temps durant lequel y(t) est considere comme restant toujours proche de sa valeur finale (generalement a`
moins de 5% de la variation totale de y(t)) ou comme ayant un comportement periodique.

4.3 Calcul de eAt


Pour calculer x(t) ou y(t), il est necessaire de savoir calculer une exponentielle de matrice. Plusieurs methodes
sont ici presentees.

4.3.1 Methode des series


Il suffit pour cette methode dutiliser le developpement en serie donnee en (4.5). Lorsque le calcul est effectue
manuellement, cette methode nest envisageable que pour des matrices nilpotentes cest-`a-dire des matrices pour
lesquelles il existe un k fini tel que Al = 0 quel que soit l superieur a` k.
En revanche, il est tout a` fait raisonnable dutiliser cette technique lorsque le calcul est effectue numeriquement, le
developpement convergeant de mani`ere absolue.
Le theor`eme de Cayley-Hamilton peut e tre utilise pour calculer plus facilement les differentes puissances de A
a` partir de An . En effet, ce theor`eme stipule que la matrice A verifie son propre polynome caracteristique (cf.
e quation (3.20)). Il vient donc :
27

Calcul de eAt

P (A) =

n
X

ai Ai = 0 avec

an = 1

i=1

An =

n1
X

ai Ai

i=1

An+k =

n+k1
X

aik Ai .

i=1+k

Exemple :
Soit la matrice
A=

0
1
2 3

Son polynome caracteristique est


P () = 2 + 3 + 2.
Le theor`eme de Cayley-Hamilton conduit a` :
A2 + 3A + 2I = 0 A2 = 3A 2I.
Ceci permet donc de deduire A2 plus aisement, mais aussi
A3 = A2 .A = 3A2 2A = 7A 2I
ainsi que les puissances successives de A.

4.3.2 Par la transformation de Laplace


Soit le syst`eme autonome (4.1) avec t0 = 0. La solution dun tel syst`eme pour une condition initiale x(0) = x0 est
donnee par x(t) = eAt x0 . Or, si lon applique L a` (4.1), lon a
pX(p) x0 = AX(p) X(p) = (pI A)1 x0
x(t) = L 1 [(pI A)1 ]x0 .
Lexponentielle de matrice peut donc secrire :
eAt = L 1 [(pI A)1 ].
Prenons comme exemple la matrice suivante :



0
1
A=
2 3


p
1
pI A =
.
2 p+3
Linversion de la matrice ci-dessus am`ene a`
(pI A)1 =

1
2
p + 3p + 2

Une decomposition en e lements simples conduit a`


28

p+3 1
2 p

Calcul de eAt

(pI A)

2
1

p+1 p+2

2
2
+
p+1 p+2

1
1

p+1 p+2

1
2

+
p+1 p+2

qui, par application de L 1 , donne


eAt =

2et e2t
2et + 2e2t

et e2t
et + 2e2t

4.3.3 Methodes des modes


Il est bien connu que si J est une forme de Jordan semblable a` A telle que A = M JM 1 alors
Ak = M J k M 1

k 0.

Ceci sapplique a` chaque terme du developpement (4.5) de sorte que


eAt = M eJt M 1 .
Dans le cas o`u

1
..
J == .
0

... 0
..
..
.
.
. . . n

est une forme strictement diagonale alors il est facile de voir que

eAt

...
0
.. M 1 .
..
.
.
. . . en t

e1 t
..
=M .
0

Si lon reprend lexemple du paragraphe precedent, la matrice de passage a` la forme diagonale est




1 1
2 1
M=
M 1 =
1
2
1 1
ce qui permet de retrouver la meme expression de eAt .
Dans le cas o`u J est une forme de Jordan non strictement diagonale et comportant p blocs de Jordan,

J = blocdiag{J1 ; . . . ; Jp }

avec Jk =

0
..
.

k
..
.

0
0

0
0

lexponentielle de matrice secrit


29

... ... 0
..
.
0
..
..
..
.
.
.
..
. 1
...
. . . . . . k

, k {1, ..., p},

Regime transitoire : influence des modes

eAt = M eJt M 1 = M blocdiag{eJk t }M 1

avec eJk t

k t
=e

t2
2!

...

tnk 1
(nk 1)!

tnk
nk !

nk 2

nk 1

...

t
(nk 2)!

t
(nk 1)!

...

tnk 3
(nk 3)!

tnk 2
(nk 2)!

..
.
0
0

..
.
0
0

..
.
0
0

..

..
.
1
0

..
.
t
1

.
...
...

Il existe e galement une quatri`eme methode dite de Cayley-Hamilton qui nest pas detaillee ici.

4.4 Regime transitoire : influence des modes


Lon suppose que lon sinteresse a` la reponse du mod`ele (3.5) pour lequel la transmission directe D est consideree
nulle par souci de simplicite des expressions. Les conditions initiales sur les variables detat sont concatenees dans
un vecteur x0 = x(0). La reponse dun tel syst`eme est donne par la relation
Z t
y(t) = CeAt x0 + C
eA(t ) Bu( )d
(4.9)
0

o`u le premier terme constitue le regime libre de la reponse ne dependant que des conditions initiales et o`u le
second terme est le regime force dependant du signal dentree u(t). Ces deux termes font tous deux apparatre eAt .
Cette exponentielle de matrice est donc fondamentale pour comprendre lallure de la reponse du syst`eme. Elle peut
secrire, sous lhypoth`ese de n valeurs propres distinctes
eAt =

n
X

Ni ei t

i=1

o`u les scalaires i sont les valeurs propres de A et o`u Ni = wi vi , les vecteurs vi et wi e tant respectivement la
ie` me colonne de la matrice de passage diagonalisante M et la ie` me ligne de son inverse M 1 . Si les coefficients
Ni ont bien entendu une influence sur la forme de y(t), ce sont surtout les facteurs ei t qui en determinent les
caracteristiques principales.
Remarque 4.1 On appelle mode dun syst`eme un terme de son regime libre. Chaque mode est donc lie a` une
valeur propre. Aussi, par abus de langage, parle-t-on parfois du mode i .
Ainsi, lorsquune valeur de i est a` partie reelle strictement negative, le terme correspondant est e vanescent et
disparat asymptotiquement. Si tous les i sont ainsi, et si u(t) converge vers une valeur finie avec le temps, alors
la reponse de y(t) converge elle aussi vers une valeur finie. Il est alors possible de mesurer tr , le temps de reponse,
et de distinguer clairement le regime transitoire et le regime permanent.
Lorsque i nest pas a` partie reelle strictement negative, il est impossible que lexponentielle correspondante
disparaisse. Elle peut meme crotre avec le temps si la partie reelle de i est strictement positive. Il est alors impossible que y(t) converge vers une valeur finie, meme si u(t) est fini. y(t) peut meme diverger infiniment. Dans
ce dernier cas, il est impropre de parler de regime permanent.
Par ailleurs, si i et j sont des valeurs propres complexes conjuguees non reelles, leurs parties imaginaires
vont engendrer des termes sinusodaux dans lexpression de y(t) ce qui est susceptible de generer des oscillations
dans la reponse.
Lorsque les termes exponentiels sont convergents (Re(i ) < 0), la convergence est dautant plus rapide que
|Re(i )| est grande, ce qui correspond donc a` une diminution du temps de reponse tr .

30

Reponse impulsionnelle

En resume :
Cest le plus ou moins grand ratio entre partie imaginaire et partie reelle dun pole qui caracterise
le comportement oscillatoire lie a` ce pole ;
Ce sont les poles dominants (ceux dont la partie reelle est la plus grande au sens algebrique) qui
ont le plus dinfluence sur la forme de la reponse.
Linfluence des valeurs propres de A sur le regime libre de y(t) est illustree sur la figure 4.1.

Im(p)

Re(p)

F IGURE 4.1 Influence des valeurs propres i de A sur le regime libre


Les comportements indiques sur la figure 4.1 se retrouvent aussi en presence de u(t), cest-`a-dire sur le regime
force de la reponse. Meme si les poles sont preponderants pour analyser ou prevoir le comportement dun syst`eme
(comme il apparatra dailleurs davantage au chapitre suivant), il existe bien sur dautres e lements qui peuvent
influencer ce regime transitoire et cest pourquoi lon revient sur ces diverses influences dans lannexe B.

4.5 Reponse impulsionnelle


Sans detailler ce type de reponse, il est rappele quil sagit de la reponse a` une impulsion de Dirac u(t) = (t). Le
calcul aboutit, en labsence de transmission directe (D = 0), a` :

y(t) = CeAt (x0 + B).

(4.10)

Cest dans ce cas-ci que linfluence des valeurs propres de A apparat clairement telle quelle est illustree par la
figure 4.1.
31

Reponse indicielle

4.6 Reponse indicielle


Dans ce cas de figure, lentree est un e chelon unitaire (u(t) = (t)) e galement appele fonction de Heavyside.
Lexpression de y(t) est alors

y(t) = CeAt (x0 + A1 B) CA1 B

(4.11)

ce qui suppose ici que A est inversible. Cest le cas si la reponse est convergente (Re(i ) < 0 i {1, ..., n}).
Lon voit clairement que le regime permanent est e gal a` CA1 B. Ceci est coherent avec la definition du gain
statique dune fonction de transfert :
G(0) = C(0 I A)1 B (+D) = CA1 B (+D).
Soit lexemple du circuit RC de la figure 4.2.

i(t)

R
C

u(t)

y(t)

F IGURE 4.2 Circuit RC

Les e quations qui regissent le comportement de ce syst`eme RC sont :

Z t
dy(t)
i(t)

y(t) =
i( )d
=
,
dt
C
0

u(t) = Ri(t) + y(t).

En prenant lunique variable detat x = y, lon obtient

x =

1
x
RC

1
u
RC

x.

Lapplication de (4.11) pour un syst`eme initialement au repos conduit a` lequation bien connue :
y(t) = 1 et/RC .
Les resultats obtenus sont e videmment les memes que ceux issus de lapproche frequentielle et le lecteur est invite
a` se reporter aux formes de reponses des syst`emes de premier et deuxi`eme ordre donnees dans le cours sur la
fonction de transfert.
32

Reponse harmonique

4.7 Reponse harmonique


Il sagit l`a de la reponse a` une excitation sinusodale u(t) = Um sin(t). Lon peut dabord noter que u(t) =
Im(Um ejt ). Lexpression de y(t) est alors
R

t
y(t) = CeAt x0 + Im 0 CeA(t ) BUm ej d
R

t
y(t) = CeAt x0 + Im 0 CeAt e(jIA) BUm d

t 
y(t) = CeAt x0 + Im CeAt e(jIA) (jI A)1 BUm 0

y(t) = CeAt x0 + Im CeAt (e(jIA)t I)(jI
A)1 BUm


y(t) = CeAt x0 Im (jI A)1 BUm + Im C(jI A)1 BUm ejt .

Cest le regime permanent qui importe dans une reponse harmonique. Or si Re(i ) < 0 i {1, ..., n}, alors
le premier terme de lexpression de y(t) ci-dessus tend asymptotiquement vers zero et constitue le regime transitoire. Le second terme correspond alors a` ce quil est convenu dappeler le regime permanent et est ici note y (t).

En observant lexpression de y (t), lon constate quil est possible de lecrire


y (t) = Im(G(j)Um ejt )
o`u G(p) designe bien sur la fonction de transfert du syst`eme.
Lon definit :
Le gain harmonique :
() = |G(j)|;
Le dephasage harmonique : () = (G(j)).

(4.12)

Le regime permanent apparat alors comme un signal sinusodal. En effet,


y (t) = Im(()ej() Um ejt )
y (t) = Im(()Um ej(t+()) )
y (t) = ()Um sin(t + ()).

(4.13)

Ce signal sinusodal conserve la meme pulsation que le signal dentree mais poss`ede une amplitude et un dephasage
qui sont fonctions de cette pulsation. Ils peuvent e tre determines grace a` la fonction de transfert.
Comme il est impossible de representer toutes les reponses (cest-`a-dire y (t) pour toutes les valeurs de ),
lon pref`ere donner une representation graphique de levolution de () et de () en fonction de . Il existe
plusieurs facons de representer cette dependance. Les plus cel`ebres sont le lieu de Nyquist, celui de Black, ainsi
que les diagrammes de Bode. Tous les resultats bien connus de lapproche frequentielle sont donc ici retrouves par
resolution de lequation detat.

33

Chapitre 5

Stabilite des mod`eles detat


Ce chapitre traite de la stabilite des representations detat lineaires. De ce fait, certaines notions sont communes
avec les enseignements relatifs a` lapproche frequentielle.
La notion de stabilite est bien entendu fondamentale dans letude des syst`emes et, a` quelques rares exceptions
pr`es, les syst`emes ne verifiant pas cette qualite sont inutilisables voire dangereux. Si la notion de stabilite peut
sembler assez intuitive, il nest pourtant pas trivial den donner une definition mathematique uniforme pour tous
les syst`emes aussi existe-t-il de nombreuses stabilites differentes. Une approche intuitive conduit a` la notion
de stabilite externe ou celle de stabilite BIBO qui est succinctement presentee et qui decoule naturellement de lapproche frequentielle. Dans lespace detat il faut avoir une approche interne de la stabilite et cest cette approche
qui est privilegiee au cours du chapitre.

5.1 Une approche quasi intuitive : la stabilite BIBO


Comme il est dit en preambule de ce chapitre, la stabilite dun syst`eme est une notion qui peut sembler assez
intuitive. Lon comprend que si un syst`eme est excite par une entree, loperateur utilisant ce syst`eme a sans doute
peu envie de voir sa sortie diverger brutalement. Cette facon assez simple denvisager la stabilite donne naissance
a` une definition plus rigoureuse qui est celle de la stabilite BIBO (de lacronyme anglais Bounded input bounded
output, entree bornee, sortie bornee).
Un syst`eme est stable au sens BIBO (ou encore au sens entree/sortie) si et seulement si, quelle que soit
letat inital x0 = x(0), pour toute entree u bornee, la sortie y lest aussi.
Une autre definition de la BIBO-stabilite, plus mathematique et philosophiquement quelque peu differente,
peut e tre donnee : en notant y (t) la reponse impulsionnelle du mod`ele, ce dernier est BIBO-stable si et seulement
sil existe un scalaire k verifiant 0 < k < et
Z
|y ( )|d k.
0

Un mod`ele BIBO-stable peut donc e tre interpete, dans cette seconde definition, comme un mod`ele dont la reponse
impulsionnelle est un signal denergie finie. Il nest pas facile dexploiter directement cette derni`ere formulation.
Aussi a-t-on recours, en particulier dans lespace detat, a` letude de stabilite dun syst`eme au travers de la notion
de stabilite des e tats dequilibre.
Remarque 5.1 La stabilite BIBO est une mani`ere denvisager la stabilite dun syst`eme au sens de son comportement entree/sortie cest-`a-dire dans ses interactions avec lenvironnement exterieur. Lon parle donc de stabilite
externe. Dans les developpements qui suivent, la stabilite est e tudiee au travers du mod`ele interne que constitue la
representation detat. La stabilite est-elle alors qualifiee dinterne.
Exemple : un moteur a` courant continu est excite par une tension dentree u(t). La sortie consideree est la vitesse
angulaire de larbre du moteur. Si lon impose un signal borne sur linduit du moteur, lon sait que la vitesse reste
35

Crit`eres de stabilite

bornee donc le moteur est BIBO-stable au sens de la premi`ere definition. De meme, toute impulsion au niveau ce
cette tension dinduit entrane une e volution de la vitesse telle que celle-ci augmente transitoirement pour sannuler
ensuite, son integrale e tant ainsi finie. Le moteur est donc BIBO-stable au sens de la definition alternative.
Lon suppose maintenant que la sortie est la position angulaire de larbre. Un e chelon applique sur linduit du
moteur engendre, en regime permanent, une vitesse constante, donc la position angulaire augmente indefiniment.
Le moteur (associe a` cette nouvelle sortie) est alors BIBO-instable. Si une impulsion intervient sur linduit, larbre
va tourner et ne reviendra pas a` sa position angulaire initiale donc lintegrale de la position dans ce cas nest pas
finie. Le moteur est BIBO-instable.

5.2 Stabilite dun e tat dequilibre


Pour envisager rigoureusement detudier la stabilite dun syst`eme, il faut donc dabord definir la notion detat
dequilibre et celle de stabilite dun e tat dequilibre.

5.2.1 Definition et recherche dun e tat dequilibre


Un syst`eme se trouve dans un e tat dequilibre (par e tat, lon entend un point de lespace detat c.-`a-d. une
instance du vecteur detat) si cet e tat nest pas modifie lorsque le syst`eme est abandonne a` lui-meme.
Un tel e tat dequilibre se determine en posant a` la fois u = 0 ( livre a` lui-meme ) et x = 0 ( pas modifie ). La
recherche des e tats dequilibre possibles dun syst`eme modelise par la representation (3.5) revient donc a` resoudre
Ax = 0.

(5.1)

De cette e quation, lon comprend quil peut exister un seul ou plusieurs e tats dequilibre selon le rang de A. Soit
rang(A) = n det(A) 6= 0 (ceci signifie que A na pas de valeur propre nulle) et le seul point dequilibre est
lorigine xe = 0. Soit rang(A) < n det(A) = 0 (ceci implique lexistence dau moins une valeur propre nulle
de A) alors il existe une infinite detats dequilibre.
Remarque 5.2 Meme sil est plus rigoureux de parler de stabilite dun e tat dequilibre, il sav`ere que, quel que
soit letat dequilibre dun syst`eme lineaire, sa stabilite depend de la matrice A. Ainsi parle-t-on toujours de la
stabilite du syst`eme.

5.2.2 Stabilite
Un e tat dequilibre est dit asymptotiquement stable si, lorsque le syst`eme est e carte de cet e tat sous leffet
dune perturbation, il y revient (en un temps infini).
Letat dequilibre est dit instable, si apr`es perturbation, le syst`eme sen e loigne davantage.
Letat dequilibre est dit simplement stable si apr`es perturbation, le syst`eme reste dans un voisinage du
point dequilibre.
Pour illustrer ces trois cas, lon proc`ede tr`es souvent a` une analogie mecanique. Cette derni`ere consiste a` decrire
letat dequilibre dune bille dans trois positions differentes comme le montre la figure 5.1.

5.3 Crit`eres de stabilite


Analyser la stabilite dun syst`eme revient donc a` rechercher ses e tats dequilibre et a` determiner leur stabilite. Pour
ce faire, il faut disposer de crit`eres de stabilite. La presentation de certains de ces crit`eres fait lobjet de cette partie.
36

Crit`eres de stabilite

Equilibre
asymptotiquement stable

Equilibre instable

Equilibre simplement stable

F IGURE 5.1 Les trois e tats dequilibre possibles dune bille

5.3.1 Crit`ere des racines


Lon rappelle que la reponse du syst`eme autonome est x(t) = eAt x0 . Si lon decompose la matrice de passage M
qui diagonalise ou Jordanise A et son inverse M 1 de la facon suivante

w1



; M 1 = ... ,
M = v1 . . . vn
wn
alors on peut exprimer x(t) de deux facons, selon lordre de multiplicite des valeurs propres de A.

Les valeurs propres de A sont distinctes

x(t) =

n
X
i=1

Les valeurs propres de A sont multiples

n
X
Ni ei t )x0 .
vi wi x0 ei t = (
i=1

Lon a alors, en supposant que J fait apparatre r valeurs propres differentes et p r blocs de Jordan :

2
nk 1
tnk
1 t t2! . . . (nt k 1)!
nk !

tnk 1
0 1 t . . . tnk 2
(nk 2)!
(nk 1)!

Jt
Jk t
Jk t
k t
tnk 2
tnk 3
e = blocdiag{e } avec e
= e 0 0 1 . . . (nk 3)! (nk 2)! , k.

..
..
.. .. .. . .

. . .
.
.
.

0 0 0 ...
1
t
0 0 0 ...
0
1

(5.2)

Ceci conduit a` deduire que x(t) repond a` la formulation suivante :

r
X
Ni (t)ei t )x0
x(t) = M eJt M 1 = (

(5.3)

i=1

5.3.1.1 rang(A) = n
Dans ce cas, il nexiste quun point dequilibre : lorigine de lespace detat. Lon parle donc indifferemment de
stabilite de lorigine ou de stabilite du syst`eme. En analysant les formes (5.2) et (5.3), lon deduit que trois cas se
37

Crit`eres de stabilite

presentent.
Re(i ) < 0 i : le syst`eme est asymptotiquement stable ;
j | Re(j ) > 0 : le syst`eme est instable ;
j | Re(j ) = 0 et Re(i ) 0 i :
j = 0 (impossible par hypoth`ese) ;
j,l = j comportement oscillatoire damplitude constante syst`eme simplement stable.

5.3.1.2 rang(A) < n


Dans ce cas, il existe plusieurs e tats dequilibre dont lorigine. Comme au moins une valeur propre est nulle, la
stabilite asymptotique est impossible. Toujours en analysant (5.2) et (5.3), lon deduit que deux cas se presentent.
j | Re(j ) > 0 : le syst`eme est instable ;
/ j | Re(j ) > 0 :
Les blocs de Jordan relatifs aux e ventuelles valeurs propres nulles sont tous scalaires (la multiplicite geometrique
de ces valeurs propres nulles est e gale a` leur multiplicte algebrique) le syst`eme est simplement stable ;
Il existe un bloc de Jordan non scalaire associe a` une valeur propre nulle (la multiplicite geometrique de cette
valeur propre nulle est strictement inferieure a` sa multiplicite algebrique) le syst`eme est instable
5.3.1.3 En resume

j | Re(j ) > 0 : le syst`eme est instable ;


/ j | Re(j ) > 0 :
Re(i ) < 0 i : le syst`eme est asymptotiquement stable ;
La multiplicite geometrique des valeurs propres nulles est e gale a` leur multiplicte algebrique le
syst`eme est simplement stable ;
La multiplicite geometrique dune valeur propre nulle est strictement inferieure a` sa multiplicite
algebrique le syst`eme est instable.

En realite, la propriete souvent recherchee est la stabilite asymptotique. La condition necessaire et suffisante de
stabilite asymptotique dun syst`eme et les proprietes associees se resument a` ceci :

Soit le syst`eme modelise par (3.5). Ce dernier est dit asymptotiquement stable si et seulement si le syst`eme
autonome associe x = Ax est asymptotiquement stable, cest-`a-dire si et seulement si toutes les valeurs
propres de A sont a` partie reelle strictement negative.

38

Crit`eres de stabilite

5.3.1.4 Stabilite interne et stabilite BIBO


Lon peut deduire, par exemple grace a` lequation (4.8), la relation existant entre la stabilite interne et la stabilite
BIBO.
Si A poss`ede une valeur propre a` partie reelle strictement positive et si lon suppose que lentree u(t) est nulle,
tout e tat initial x0 conduit a` un e tat non borne (et donc potentiellement a` une sortie non bornee).
Au contraire, si A ne poss`ede que des valeurs propres negatives, d`es lors que u(t) est un signal borne, tous les
termes de la reponse x(t), et a fortiori ceux de y(t), convergent vers une valeur finie.
Le syst`eme decrit par une representation (3.5) dordre n et de fonction de transfert G(p) dordre n est
BIBO-stable s il est asymptotiquement stable.
Il est BIBO instable sil est instable de mni`ere interne.
` chosir entre les deux
Dans la proposition ci-avant, lequivalence entre les deux stabilites nest pas mentionnee. A
proprietes, cest la stabilite interne qui doit e tre privilegiee. Elle assure de la stabilite BIB0. Il faut noter que deux
hypoth`eses sont implicites dans cette assertion. La premi`ere est la linearite du mod`ele. Une telle proposition ne
peut e tre formulee pour un mod`ele non lineaire. La seconde est la dimension commune du mod`ele interne et du
mod`ele externe, a` savoir n. Il sagit l`a dune difference entre lapproche interne temporelle et lapproche externe
frequentielle sur laquelle il sera revenu au chapitre 6.
Remarque 5.3 A` propos de la non-equivalence des instabilites interne et externe : un integrateur 1/p est-il instable ? On lentend souvent dire mais est-ce exact ? La reponse est oui et non. Si lon applique le crit`ere des
racines detaille ci-avant, un integrateur est un mod`ele (interne ou externe) dordre 1 ayant un pole nul unique
donc le bloc de Jordan associe est scalaire. Le syst`eme est donc simplement stable mais non asymptotiquement
stable. En revanche il est BIBO-instable puisquil repond a` un e chelon par une rampe ce qui est logique puisque
la BIBO-stabilite est e quivalente a` la stabilie asymptotique. En resume :
Un integrateur est stable au sens de la stabilite interne et instable au sens de la stabilite externe.
Lon peut noter en revanche quun double integrateur 1/p2 est instable de mani`ere interne comme de mani`ere
externe.
5.3.1.5 Les marges de stabilite
Par analogie avec les syst`emes de second ordre qui poss`edent soit deux poles reels soient deux poles complexes
conjugues, lon peut definir une marge de stabilite absolue et une marge de stabilite relative.
Soit un syst`eme asymptotiquement stable dont le comportement est decrit par (3.5). Les valeurs propres de A
sont toutes a` partie reelle strictement negative. Les marges absolue et relative sont ainsi definies :

Marge de stabilite absolue : distance minimale, dans le plan complexe, entre un point dont laffixe est une
valeur propre de A et laxe imaginaire. Mathematiquement, elle sexprime
= min |Re(i )|.
i

(5.4)

Marge de stabilite relative : angle minimal, dans le plan complexe, forme par laxe imaginaire et par laxe
reliant lorigine et un point dont laffixe est une valeur propre de A. Mathematiquement, elle sexprime



Re(i )


.
(5.5)
= min Atan
i
Im(i )
La marge absolue quantifie la stabilite asymptotique alors que la marge relative est liee aux poles complexes donc
permet de quantifier le caract`ere plus ou moins oscillatoire induit par les poles et est, a` ce titre, reliee au coefficient
damortissement. Ces marges sont illustrees sur la figure 5.2.
39

Crit`eres de stabilite

Im(p)

Re(p)

F IGURE 5.2 Marges de stabilite absolue et relative

5.3.2 Crit`ere de Routh/Hurwitz


Le crit`ere de Routh-Hurwitz permet dattester ou non de la stabilite asymptotique dun mod`ele grace au polynome
caracteristique D(p). Ce crit`ere algebrique est plutot utilise lorsquune approche frequentielle est privilegiee
puisque D(p) est le denominateur de la fonction de transfert. Cependant, il convient de rappeler que D(p) sexprime aussi D(p) = det(pI A) et quil peut, de ce fait, e tre deduit de A. En outre, si A est de forme compagne,
les coefficients de D(p) sont directement lisibles sur la derni`ere ligne ou la premi`ere colonne de A ce qui permet
de dresser directement la table de Routh et dappliquer ainsi le crit`ere.
Toutefois, ce crit`ere nest pas rappele ici. Il a dej`a e te e tudie lors des enseignements relatifs a` lapproche frequentielle.

5.3.3 Methode de Lyapunov


Comme il a e te dit precedemment, la popularisation de la representation detat est nee dune volonte de certains
chercheurs de promouvoir la theorie de Lyapunov. Lyapunov sinteressait a` la stabilite dun syst`eme mecanique en
mouvement. Son e tude se rev`ele neanmoins fort utile pour letude de la stabilite de nimporte quel syst`eme.
La theorie de Lyapunov est tr`es compl`ete et parfois assez sophistiquee. Il nest pas utile, dans le cadre de ce cours,
de la detailler. Il faudrait de toute facon beaucoup de temps et defforts pour y parvenir. Cependant, lon peut en
extraire des resultats interessants. Ils sont empruntes a` ce quil est convenu dappeler seconde methode (ou
m
ethode directe ) de Lyapunov. En voici, de mani`ere resumee, la teneur.
Soit le mod`ele non lineaire suivant :

x i = fi (x1 , ..., xn ) i {1, ..., n}
fi (0, ..., 0) = 0 i {1, ..., n} x = 0 e tat dequilibre.
Il sagit l`a dun mod`ele de syst`eme autonome qui poss`ede lorigine pour e tat dequilibre. Lyapunov propose une
condition suffisante pour verifier la stabilite de cet e tat dequilibre. Sil existe une fonction V telle que V (x) >
0 x IRn , 0 , (V (0) = 0) et telle que
V =

n
n
X
V dxi X V
fi (x) < 0 x , x 6= 0
=
xi dt
xi
i=1
i=1

alors le mod`ele detat non lineaire est asymptotiquement stable pour des conditions initiales dans un voisinage
de 0.
Si lon sinteresse a` la stabilite asymptotique dun syst`eme lineaire autonome
x = Ax,
la seconde methode permet de voir quun tel syst`eme est asymptotiquement stable si et seulement s il existe une
fonction de Lyapunov (quadratique) V = x P x > 0 ( P = P > 0) telle que V (x) < 0, x 6= 0
x (A P + P A)x < 0 x IRn , x 6= 0
40

Crit`eres de stabilite

A P + P A < 0

(5.6)

Q = Q < 0 et P = P > 0 | A P + P A = Q.

(5.7)

Plusieurs points sont notables dans ce resultat. En premier lieu, il nest plus question de faire reference a` lorigine de IRn qui est de toute facon lunique point dequilibre. En deuxi`eme lieu, la condition devient necessaire et
suffisante. En troisi`eme lieu, il nest pas restrictif de supposer que V (x) est une fonction quadratique de x ce qui
permet daboutir, soit a` une inegalite matricielle donnee en (5.6), soit a` une e galite matricielle donnee en (5.7),
dont linconnue est, dans les deux cas, une matrice symetrique strictement definie positive.
Resoudre une inegalite matricielle lineaire telle que (5.6) est possible depuis le debut des annees 1990 grace a`
des outils numeriques. Toutefois, lon pref`ere, lorsquaucun outil numerique sophistique nest disponible, manipuler legalite (5.7). La difficulte peut sembler a priori de choisir Q = Q < 0 pour que la solution P = P existe
et soit definie positive. En fait, en 1974, E. I. Jury et S. M. Ahn prouv`erent quun choix arbitraire de la matrice Q
e tait possible. Lon peut donc resumer lapplication de la theorie de Lyapunov a` ceci :
Un mod`ele detat lineaire (3.5) est asymptotiquement stable si et seulement si, quelle que soit la matrice
symetrique definie negative Q, lunique solution de lequation
A P + P A = Q

(5.8)

est definie positive.


Lhabitude consiste a` choisir Q = I pour effectuer le test.
Lorsque le syst`eme (3.5) est le linearise tangent dun syst`eme non lineaire, le test ci-dessus peut permettre daffirmer que le mod`ele initial non lineaire est aussi asymptotiquement stable dans un voisinage autour du point de
fonctionnement (le point dequilibre du mod`ele lineaire est alors lorigine et celui du mod`ele non lineaire est le
point de fonctionnement). En effet, sans detailler ces concepts, lorque le linearise tangent est tel que rang(A) = n,
alors le point de fonctionnement est qualifie de point dequilibre hyperbolique. Pour ce genre de points dequilibre,
il y a e quivalence topologique entre le mod`ele non lineaire et son linearise tangent. De ce fait, la stabilite du
linearise tangent est celle du non lineaire dans un voisinage du point de fonctionnement. Or, tout mod`ele lineaire
asymptotiquement stable correspond a` un point dequilibre hyperbolique pour le mod`ele non lineaire original qui
est donc lui aussi asymptotiquement stable dans un voisinage du point de fonctionnement.
En revanche, si le mod`ele non lineaire fait apparatre un point dequilibre non hyperbolique alors on ne peut deduire
la stabilite du mod`ele non lineaire a` partir de son linearise tangent.
Lannexe E reprend quelques aspects e voques ci-avant.

En conclusion, il faut noter que tous ces crit`eres de stabilite ne font intervenir que A. Ainsi, seule la
matrice devolution determine la stabilite du syst`eme.

41

Chapitre 6

Commandabilite et observabilite
Ce chapitre introduit des concepts necessaires pour e tablir des lois de commande telles que celles qui seront
e tudiees dans les chapitres suivants. Ces concepts sont ceux de commandabilite et dobservabilite. Il furent introduits par Kalman.

6.1 Definitions
6.1.1 Commandabilite ou gouvernabilite
Soit le mod`ele detat (3.5) dun syst`eme lineaire dont letat initial est a` une valeur quelconque x0 = x(t0 ). Lon
peut supposer sans restriction que la transmission directe est nulle (D = 0).

Le mod`ele est commandable ou gouvernable si pour toute instance x1 du vecteur detat, il existe un signal
dentree u(t) denergie finie qui permet au syst`eme de passer de letat x0 a` letat x1 en un temps fini.
Il est possible que, si la commandabilite nest pas verifiee sur tout le vecteur detat, elle puisse neanmoins letre sur
une partie de ses composantes. Lon dit alors des variables detat concernees que ce sont les e tats commandables
du syst`eme.
La commandabilite peut e tre vue comme la possibilite de modifier les dynamiques dun mod`ele en agissant sur ses
` ce titre cette propriete ne se ref`ere qu`a letat et a` lentree du syst`eme. Il est donc clair quelle ne depend
entrees. A
que des matrices A et B.

6.1.2 Observabilite
Lon sinteresse toujours au meme mod`ele que dans la partie precedente.

Le mod`ele est observable si, quel que soit t0 , il existe un intervalle de temps fini [t0 , t1 ] tel que la connaissance de lentree u(t) et de la sortie y(t) sur cet intervalle permet de reconstituer x(t0 ).
Encore une fois, il est possible que cette propriete ne se verifie que pour une partie du vecteur detat que constituent
alors les e tats observables du syst`eme.
La definition de lobservabilite ne fait pas dhypoth`ese particuli`ere sur la nature de lentree. Cette propriete peut
e tre interpretee comme la capacite dun syst`eme a` reveler lhistorique de son vecteur detat au travers de celui de
ses sorties. Elle ne depend en fait que des matrices A et C.
43

Crit`ere de Kalman

6.2 Crit`ere de Kalman


En plus dintroduire les concepts de commandabilite et dobservabilite, R. E. Kalman est aussi lauteur dun crit`ere
e ponyme.

6.2.1 Commandabilite
La paire de matrices (A, B) (ou le syst`eme (3.5)) est commandable si et seulement si
rang(Qc ) = n

o`u Qc =

La matrice Qc est dite matrice de commandabilite.

AB

. . . An1 B

(6.1)

Ce resultat est base sur linterpolation de Sylvester qui permet daffirmer que eA peut secrire ainsi :
eA =

n1
X

k ( )Ak

o`u k ( ) IR.

(6.2)

k=1

En effet, si lon revient a` la definition de la commandabilite, lon peut, sans perte de generalite, considerer que x1
est lorigine de IRn et que t0 est nul. D`es lors, la solution de lequation detat secrit
Z t
At
x(t) = e x0 +
eA(t )Bu( )d
0

et conduit a`
x1 = x(t1 ) = 0 = eAt1 x0 +

t1

eA(t1 ) Bu( )d x0 =

t1

eA Bu( )d.

Compte tenu de (6.2), il vient


x0 =

n1
X

Ak B

k =

t1

k ( )u( )d.

(6.3)

k=1

En posant

t1

k ( )u( )d,

lon peut recrire (6.3) de la facon suivante :

x0 = Qc

0
1
..
.
n1

(6.4)

Le syst`eme est commandable si et seulement si le syst`eme (6.4) peut e tre resolu quel que soit x0 cest-`a-dire si et
seulement si rang(Qc ) = n.

6.2.2 Observabilite
Lon sinteresse maintenant a` lobservabilite du syst`eme (3.5) qui se resume a` lobservabilite de
x = Ax, y = Cx.

(6.5)

En effet, si lon regarde la solution compl`ete de lequation detat (4.7), connaissant A, B, C, D ainsi que u(t), les
deux derniers termes du membre de droite sont connus et peuvent e tre soustraits de la valeur mesuree de y(t), ce
qui revient a` considerer le syst`eme (6.5). La sortie secrit alors
44

Crit`ere de Kalman

y(t) = CeAt x0
ce qui, en tenant compte de (6.2), donne

y(t) =

n1
X
k=1

C
CA
..
.

k (t)CAk x0 = blocdiag{k I}

CAn1

x0 .

Lon voit clairement que la determination de x0 en fonction de y(t) ne sera possible que si le syst`eme dequations
ci-dessus ne presente pas de deficience de rang ce qui conduit au crit`ere dobservabilite de Kalman :
La paire de matrices (A, C) (ou le syst`eme (3.5)) est observable si et seulement si

C
CA

rang(Qo ) = n o`u Qo =
.
..

(6.6)

CAn1

La matrice Qo est dite matrice dobservabilite.


Exemple 1 :
Soit le syst`eme :

x
La matrice de commandabilite est

=
=

Qc =

0
2

1
3

0 1

0 1
1 3

0 1
2 3

0
1

x.


AB

Elle est de rang 2 donc le syst`eme est commandable.

La matrice dobservabilite est


Qo =

C
CA

Elle est de rang 2 donc le syst`eme est observable.


Exemple 2 :
Soit le syst`eme e lectronique represente par le schema de la figure 6.1. Le vecteur detat choisi est x = [x1 x2 ] =
[vs1 (vs2 Vref )]. Lentree est la tension u = v1 et la sortie est la tension y = vs . Ce choix, ainsi que lapplication
des r`egles delectronique, en considerant les amplificateurs operationnels de puissance comme parfaits, conduisent
a` la representation detat suivante :

R
C
1 1

R C

x + 1 1 u
x =

1
(6.7)
0
0

R
C

2
2




1 1 x.
y =
45

Crit`ere de Kalman

R1
v1

C1

2R +
R

vs1

vs

R2
vref

C2

vs2

F IGURE 6.1 Circuit e lectronique

La matrice de commandabilite de Kalman est


1
R1 C1
Qc =

1
(R1 C1 )2

et comme elle est de rang 1, le syst`eme nest pas compl`etement commandable. Ceci traduit le fait que, dans ce
montage e lectronique, v1 ne peut influer sur vs2 .
La matrice dobservabilite de Kalman est

1
1

Qo =

1
1
R1 C1 R2 C2
Elle est de rang plein donc le syst`eme est observable.
Si lon decide de considerer vs1 comme la sortie du syst`eme, alors la matrice de mesure devient C = [1 0] et celle
dobservabilite devient :

1
0

Qo =
.
1

0
R1 C1
Elle est de rang 1 et le syst`eme nest donc plus observable. Ceci traduit le fait que lon ne peut deduire vs2 de vs1
car vs2 nagit en rien sur vs1 .

6.2.3 Dualite des deux concepts


Il est important de noter lanalogie entre les structures de Qc et Qo . Elle permettent de comprendre que la commandabilite et lobservabilite sont deux notions duales comme le soulignent les propositions suivantes :
Dualite :
La paire (A, B) est commandable si et seulement si la paire (A , B ) est observable.
La paire (A, C) est observable si et seulement si la paire (A , C ) est commandable.
46

Crit`eres sappliquant aux formes de Jordan

Les crit`eres de Kalman ont un grand interet theorique et permettent de comprendre un peu mieux ces notions
fondamentales de commandabilite et dobservabilite. Cependant, lorsquils ne sont pas satisfaits (rang(Qc ) < n
ou rang(Qo ) < n), ils ne donnent aucune information sur les composantes du vecteur detat qui sont commandables
et/ou observables.

6.3 Crit`eres sappliquant aux formes de Jordan


Comme toujours, il faut distinguer deux cas selon la multiplicite geometrique des valeurs propres de A.

6.3.1 A diagonalisable
Dans ce cas, il existe une matrice de passage M

x = ..
.

c1
y =

qui permet de changer de base et dobtenir la realisation

b1
0 ... 0
b2
2 . . . 0

.. x + .. u
.. . .
.
.
.
.
0

. . . n

c2

. . . cn

bn

Du.

Dans ce cas, lon peut assimiler la commandabilite dun mode i a` celle de la composante xi du vecteur detat
associe. Il en est de meme pour lobservabilite. Clairement, sur cette forme diagonale simple, lon voit que lon
peut agir sur xi lorsque la composante bi est non nulle de meme que lon peut constater une e volution de xi si la
composante ci est non nulle.
Le mode i est commandable (respectivement observable) si et seulement si bi 6= 0 (resp. ci 6= 0 par
dualite).

6.3.2 A non diagonalisable


Pour simplifier, lon consid`ere uniquement le sous-syst`eme associe a` la valeur propre multiple . Une realisation
de Jordan est :

1 ... ... 0

b1

0 ..
b2

.
.
.

+ ... u
.. .. . . . . . . .. x
x =

bn1
..

. 1

0 0 ...

bn

0
0
.
.
.
.
.
.




c1 c2 c3 . . . cn1 cn x +
Du.
y =
Le mode associe a` un unique bloc de Jordan est commandable (respectivement observable) si et seulement
si bn 6= 0 (resp. c1 6= 0). Dans le cas o`u plusieurs blocs de Jordan lui sont associes, il ne peut e tre ni
commandable, ni observable.

If faut noter que la derni`ere affirmation concernant les modes multiples associes a` plusieurs blocs de Jordan nest
pas forcement vraie pour un syst`eme multivariable.
Exemple :
Lon reconsid`ere lexemple e lectronique de la figure 6.1. La representation detat en est donnee en (6.7). Elle
47

Chapitre 9

Introduction a` la representation detat


discr`ete
Dans ce chapitre, une premi`ere approche de la version discr`ete des representations detat lineaires est proposee. Il
` cette fin, des
ne peut en aucun cas sagir dun cours sur les syst`emes discrets, mais plutot dun apercu rapide. A
rappels sur les signaux sont neanmoins necessaires, avant dintroduire le mod`ele detat discret. La relation entre ce
mod`ele et la fonction de transfert en z est resumee. Les concepts de reponse temporelle, stabilite, commande sont
e galement tr`es bri`evement abordes.

9.1 Rappels sur les signaux


9.1.1 Signaux continus, discrets, quantifies, non quantifies
Un signal peut e tre vu comme une quantite, notee f , qui varie dans le temps, de sorte que f (t) est une fonction ou
une distribution du temps. Plus simplement, un signal se caracterise par une amplitude f (generalement associee
a` une grandeur physique) qui e volue en fonction du temps t. Lon peut distinguer differentes classes de signaux
selon les valeurs que peuvent prendre f et t. Ainsi lon peut faire une premi`ere distinction sur le temps t :
les signaux a` temps continu ou simplement signaux continus : ceux-ci sont tels que lamplitude f est
definie quel que soit le temps t (cas (a) et (b) de la figure 9.1) ;
les signaux a` temps discret ou simplement signaux discrets : ceux-l`a sont tels que lamplitude f est
definie a` des instants precis du temps (le temps est alors discretise : cas (c) a` (f) de la figure 9.1).
Par ailleurs, lon fait une autre disctinction sur lamplitude f :
les signaux non quantifies pour lesquels f peut prendre nimporte quelle valeur dans un intervalle continu
(cas (a-c-e) de la figure 9.1) ;
les signaux quantifies pour lesquels f est un nombre quantique cest-`a-dire quil ne peut prendre que des
valeurs discr`etes bien definies (lamplitude est alors discr`ete : cas (b), (d) et (f) de la figure 9.1).
Un signal continu et non-quantifie est appele analogique (analog signal an anglais) tel que celui dessine sur la figure 9.1, cas (a). Dans les ouvrages sur le sujet, il arrive que lon ne distingue pas signaux continus et analogiques
sans que cela ne soit necessairement problematique. Toutefois, ces deux vocables ne sont pas synonymes et la
classe des signaux analogiques constitue un sous-ensemble des signaux continus.
De meme, un signal discret et quantifie est qualifie de numerique (digital signal en anglais) tels que ceux dessines
sur la figure 9.1, cas (d) et (f). L`a encore, il arrive tr`es souvent que lon confonde signal discret et signal numerique
bien que les signaux numeriques consituent un sous-ensemble des signaux discrets.
Il se peut que pour un signal discret (numerique ou pas), les instants du temps pour lesquels lamplitude f est
81

Rappels sur les signaux

definie soient reguli`erement espaces, faisant apparatre une periode, comme dans les cas (e) et (f) de la figure 9.1.
Par ailleurs, lon peut noter quun signal quantifie est tel quil existe toujours un intervalle minimal entre deux
valeurs admissibles de lamplitude f . Cet intervalle minimal est appele quantum.
Remarque 9.1 En toute rigueur, cette acception du mot numerique nest pas tout a` fait conforme au sens
habituel que lon en a. Un signal numerique est plus souvent vu comme un signal certes discret, mais pour lequel
les valeurs definies de f sont reguli`erement espacees dans le temps. De plus, son amplitude peut e tre codee de
facon binaire et est alors manipulable par un calculateur. De ce fait, un signal numerique au sens pratique du
terme ne peut avoir une amplitude rigoureusement reelle.
Lobjet de ce chapitre est de sinteresser aux signaux discrets et aux syst`emes associes. Si les signaux continus
sont bien modelises par des fonctions mathematiques, les signaux discrets le seraient plutot par des distributions.
Cependant, il est plus facile de saffranchir du temps en definissant un signal discret par une suite de valeurs
successives que lon indice. Ainsi les valeurs f (t0 ), f (t1 ), etc., en supposant que t0 est lorigine du temps, sont
notees f0 , f1 et appelees e chantillons (voir figure 9.1.(e)). La sequence dechantillons caracterisant le signal discret
est notee {fk }. Lindice k est alors un entier relatif qui peut, si on le souhaite, faire reference au temps.
Remarque 9.2 Un mod`ele de signal discret sous forme dune sequence dechantillons est en realite plus general
quun mod`ele de signal un temps discret puisque la reference au temps nest plus necessaire. Il est donc possible
de faire une nuance entre signaux discrets et signaux a` temps discret meme si cette nuance ne sera pas vraiment
utile dans la suite de ce document.
f (t)

f (t)

t
f (t)

(a)

00
11
1
0
0
0 1
1
0
1
00
11
0
1
0
1
0
1
0
1
0
1
00
11
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
0
1
0 1
01
1
01
1
0
(c)
f (t)
1
0
00
11
1
1
0
0
0
1
0
1
00
11
1
0
1
0
0
1
0
1
0
1
0
1
f00
11
11
00
0
1
0
1
0
1
0
0
1
0
1
1
0
0
1
0
1
0
1
0
1
0
1
1
0
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
0
1
0
01
1
0
1
0
0 1
01
0
1
01
01
1
01
1

f (t)

(b)

0
1
1
0
0
1
11
00
11111111
00000000
0
1
11111
00000
11111
00000
11
00
0
1
00
11
0
1
0
1
1111
0000
11111
00000
00
11
0
1
0
1
0
1
0
1
0
1
0
1
111
0
0
1
0
1
0
1
111111
000000
1111
0000
00
0
1
0
1
0
1
0
1
0
1
00
11
0
1
0
1
0
1
0
1
11111111
00000000
1
0
0
1
0
1
0
1
0
1
0
1
0 t
1
0
0
0 1
1
01
1

f (t)

(d)

0
1
11
00
000000000
111111111
0
1
00
11
00
11
0
1
1
1
0
0
0
1
00
11
00
11
1
0
111111111
000000000
0
1
0
1
0
1
0
1
111111111
000000000
0
1
11
0
1
0
11
0
0
0
1
0
1
0
0
1
0
1
0
1
0
1
0
1
0
1
111111111
000000000
0
1
11
00
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
1
0
0
1
0
1
0
0
1
0
1
0
1
01
1
0
1
0
1
0
1
0
1
0
0
0
01
0 1
1
01
0 1
01
1
0 t
1
01
1

f1

(e)

(f)

F IGURE 9.1 Signaux continus et discrets

82

Rappels sur les signaux

9.1.2 Transformation de signaux

9.1.2.1 Echantillonnage
Il est possible de transformer un signal continu en un signal discret. Ce processus est appele e chantillonnage
ou discretisation. Il est represente sur la figure 9.2. Le signal est dit discretise ou e chantilonne. Les instants
dechantillonnage ne sont pas necessairement reguli`erement espaces dans le temps. Toutefois, generalement, les
e chantillons sont preleves a` intervalles reguliers. La duree entre deux instants dechantillonnage, notee T sur
la figure 9.2, est appelee periode dechantillonnage.
f (t)

0
11
0
11
00
0
1
0
1
0
1
0
1 1
0
0
1
0
1
0
1
0
1
0
1
00
11
1
0
0
1
00
11
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
111
000
T

fk

0
11
00 1
0
1
0
1
0
1

1
0
Echantillonnage
0
1
0
1
1
0
0
0 1
1
0
1
0
1
0
1
0
1
1111
0000
11
00
0
0 1
1
0
1
00
11
0
1
0
1
0
1
0
1
0
0 1
1
0
1
0
1
t
0
0 1
0
1
0 1
1

(a)

0
1
0
1
0
1
0
1
0
1
0
1
t
0
1

(b)

F IGURE 9.2 Processus dechantillonnage

9.1.2.2 Quantification
Lon peut aussi envisager le passage dun signal non quantifie a` un signal quantifie. Il sagit de la quantification.
Ceci consiste, par exemple, a` forcer les valeurs non admissibles de f (t) aux valeurs quantiques admissibles les
plus proches. Ce processus est illustre pour un signal continu par la figure 9.3 (Lon peut aussi quantifier un signal
discret).
fq (t)

f (t)

Quantification

0000
1111
0
1
t
0
1

11
00

(a)

(b)

F IGURE 9.3 Processus de quantification

Les valeurs admissibles dun signal quantifie ne sont pas necessairement reguli`erement espacees. Toutefois, elles
le sont generalement et lecart entre deux valeurs, note q sur le figure 9.3, est un donc un quantum appele quantum
de conversion.
Il est possible de recourir a` lechantillonnage et a` la quantification a` la fois. Lon parle alors de numerisation.
9.1.2.3 Blocage
Il est possible de definir la transformation dun signal discret en un signal continu. Le principe consiste a` faire en
sorte quentre deux e chantillons, lamplitude du signal f reste bloquee sur les valeurs dune fonction mathematique.
Cette transformation est ici appelee blocage. La technique de blocage la plus classique consiste, entre deux
e chantillons fk et fk+1 , a` bloquer la valeur du signal a` fk . Lon parle alors de bloqueur dordre zero. Leffet
dun tel bloqueur est illustre par la figure 9.4 o`u lon voit que le signal continu est alors un signal en escalier .
83

Syst`emes discrets lineaires

fb (t)

fk

00
11
0
01
1
0 1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
01
1
0
1
0
01
0
01
1
0
1
0
1
0
1
0
1
0
0 1
1
0
1
0
1
0
1
0
1
111
000

0
1
0
1
0
1
0
1
11
000
1
0
1
0
1
0
1
1
0
0
01
1
0
1
0
1
0
01
1
0 t
01
1

B0 (p)

Blocage dordre zero

0
1
11
00
0
1
0
1
0
00 1
11
0
1
00
11
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1

011
1
0
1
00
0
1
0
1
1
0
0
01
1
0
1
00
0
1
0 11
0
1
01
1
0
1
0
1
0
1
1
0
0
1
1
0
0
1
0
1
01
1
0
0
1
0
1
0
1
0
1
01
1
t
0
1
00
1

F IGURE 9.4 Blocage dordre zero

Si lon interprete le bloqueur dordre zero comme un mod`ele continu associe a` la fonction de transfert de B0 (p),
lon peut determiner cette fonction de transfert B0 (p) en analysant la reponse impulsionelle de ce bloc (cf. figure 9.5).
(t)
1

1
B0 (p)

0
0

F IGURE 9.5 Reponse impulsionelle du bloqueur dordre zero

La reponse dun bloqueur dordre zero a` une impulsion de Dirac (t) est la somme de deux e chelons unitaires :
y(t) = (t) (t T ).
((t) represente la fonction de Heaviside). Lapplication de L permet de deduire B0 (p) :

B0 (p) =

1 eT p
1 eT p

=
.
p
p
p

(9.1)

Il est aussi possible denvisager dautres types de blocage tels que le blocage dordre 1 pour lequel le bloqueur utilise lechantillon courant ainsi que le precedent pour bloquer lamplitude f sur la droite definis par ces
deux points. Lon peut aussi considerer toutes sortes dinterpolations plus ou moins sophistiquees a` partir des
e chantillons. Ces cas de figure ne sont pas detailles ici.

9.2 Syst`emes discrets lineaires


Dans cette partie, un rappel est effectue sur la notion de syst`eme discret lineaire. Apr`es une br`eve definition, deux
types de mod`eles sont proposes : les mod`eles externes de transfert, cest-`a-dire lequation recurrente et la fonction
de transfert en z, puis le mod`ele interne, a` savoir la representation detat. Un lien entre ces mod`eles est e tabli.
84

Syst`emes discrets lineaires

9.2.1 Definition
Un syst`eme discret est un syst`eme qui transforme une sequence dechantillons dentree {uk } en une sequence
dechantillons de sortie {yk }, comme le montre la figure 9.6.
{uk }

{yk }
Syst`eme

F IGURE 9.6 Syst`eme discret

Un syst`eme discret lineaire est un syst`eme discret qui respecte le principe de superposition cest-`a-dire, a` linstar
des mod`eles continus (cf. 1.2), qui verifie

{uk }i {yk }i

i {uk } =

n
n
X
X
(i {yk }i ),
(i {uk }i ) {yk } =

{i } IRn .

(9.2)

i=1

i=1

9.2.2 Mod`eles externes


Dans ce paragraphe sont presentes deux mod`eles dits externes , cest-`a-dire deux mod`eles de transfert qui
proposent un lien direct entre la sequence dentree {uk } et la sequence de sortie {yk } sans prejuger des relations
internes au syst`eme. Le premier mod`ele est lequation recurrente. Le second est la fonction de transfert en z. Le
lien entre ces deux mod`eles est obtenu grace a` la transformation en z.

recurrente
9.2.2.1 Equation
De meme que le comportement dun syst`eme continu peut-etre caracterise par une equation differentielle telle que
(2.2), un syst`eme discret peut e tre modelise par une e quation recurrente impliquant lentree u et la sortie y, et qui
prend la forme suivante :

an yk+n + an1 yk+n1 + ... + a1 yk+1 + a0 yk = bm uk+m + bm1 yk+m1 + ... + b1 yk+1 + b0 uk .

(9.3)

Cette e quation recurrente est lineaire a` coefficients constants. Lon peut donc parler de syst`emes discrets LTI.
Si lon precise les conditions initiales sur {uk } et {yk } (`a savoir y0 , y1 , . . ., yn1 , u0 , u1 , . . ., um1 ), le syst`eme
est alors compl`etement defini.
Lequation recurrente est un mod`ele particuli`erement indique pour une loi de commande car, d`es lors que le
syst`eme est causal (m n), elle constitue un algorithme tr`es facilement implantable dans un processeur. En
effet, si lon connat enti`erement {uk } ainsi que les conditions initiales, il est facile de faire reconstruire {yk } par
un calculateur.
9.2.2.2 Transformation en z
Soit une sequence {fk }kIN (k est defini toujours positif ou nul (signal causal)). La transformation en z (operateur
symbolise par Z ) de {fk } est definie par la serie enti`ere :

85

Syst`emes discrets lineaires

F (z) = Z [{fk }] =

fk z k .

(9.4)

k=0

Limage F (z) de {fk } est appelee transformee en z de {fk }. Les proprietes de loperateur Z sont donnees en
annexe D.
Loperateur Z est donc pour les signaux discrets ce quest loperateur L pour les signaux continus. De meme, la
variable z Cl represente pour les signaux discrets ce que la variable de Laplace p represente pour les signaux
continus, quoique linterpretation frequentielle de z soit plus difficile a` apprehender.
Comme pour la transformation de Laplace, il est possible de calculer la transformee en z de fonctions usuelles. Un
tableau de transformees est disponible en annexe D.
9.2.2.3 Fonction de transfert en z
De meme que pour les signaux continus, lon peut raisonner dans le domaine de Laplace, pour les signaux discrets,
lon peut raisonner dans le plan en z. Il sagit alors dappliquer Z a` lequation recurrente (9.3). Compte tenu des
proprietes de Z (cf. annexe D), il vient :
(a0 + a1 z + . . . + an1 z n1 + an z n )Y (z)
(a1 z + . . . + an1 z n1 + an z n )y0 . . . an zyn1 =
(b0 + b1 z + . . . + bm1 z m1 + bm z m )U (z)
(b1 z + . . . + bm1 z m1 + bm z m )u0 . . . bn zum1 ,

ce qui permet decrire lexpression de la transformee en z de {yk } ainsi :


Y (z) =

N (z)
U (z) +
D(z)
| {z }
G(z)

I(z)
D(z)

et, sachant que le polynome I(z) regroupe les conditions initiales, de definir la fonction de transfert en z :

G(z) =

N (z)
b0 + b1 z + . . . + bm1 z m1 + bm z m
.
=
G(z)
a0 + a1 z + . . . + an1 z n1 + an z z

(9.5)

G(z) est donc un mod`ele de comportement entree/sortie qui caracterise le syst`eme independamment des conditions
initiales (voir figure 9.7).
Comme dans le cas dune fonction de transfert en p, le denominateur D(z) est appele polynome caracteristisque
et ses racines sont les poles du syst`eme discret. De meme, les racines de N (z) sont les zeros du syst`eme discret.

9.2.3 Representation detat


Il sagit dexprimer le lien entre {uk } et {yk } en faisant intervenir des vecteur intermedaires internes au syst`eme
discret represente par la figure 9.6. Ces variables internes constituent le vecteur detat xk IRn qui obeit a`
lequation recurrente matricielle (evidemment lineaire) :

86

Syst`emes discrets lineaires

{uk }

Equation
recurrente

{yk }

G(z)
U (z)

Y (z)

F IGURE 9.7 Modelisation dans le plan en z

xk+1
yk

=
=

Axk
Cxk

+
+

Buk
Duk

(9.6)

Il sagit dune representation detat du syst`eme discret qui est donc une mod`ele interne du syst`eme. Les matrices A, B, C et D portent le meme nom que pour une representation detat continue et jouent le meme role (cf. 3.2).
La representation detat dun syst`eme discret nest pas unique. Il suffit de changer la vecteur detat xk pour obtenir
un autre mod`ele. Chaque choix correspond, comme en continu, a` ce que lon appelle une realisation.

9.2.4 Lien entre les mod`eles


9.2.4.1 Dune realisation a` lautre
Tout dabord, il faut noter quil possible de passer dune realisation a` une autre en utilisant une transformation de
similarite, cest-`a-dire en operant un changement de base dans lespace detat. Les r`egles sont les memes que pour
les syst`emes continus (cf. 3.7) et lon peut ainsi obtenir des realisations compagnes ou diagonales.
9.2.4.2 De lequation detat a` la fonction de transfert en z
Le procede mathematique est le meme quen continu si ce nest que lon utilise loperateur Z plutot que L (cf.
3.6). Ainsi, la premi`ere e quation recurrente de (9.6), par application de Z , devient :
zX(z) = AX(X) + BU (Z) (zIn A)X(z) = BU (z).
Sous reserve dinversibilite de (zIn A), en prenant en compte lequation de sortie, il vient :
G(z) = C(zIn A)1 B + D.

(9.7)

G(z) est definie pour toute valeur de z assurant linversibilite de (zIn A). En realite cette matrice est inversible
pour tout z verifiant
D(z) = det(zIn A) 6= 0.
En effet, le polynome caracteristique D(z), comme en continu, se deduit de A.
Les valeurs propres de A sont les poles de G(z).

87

Syst`emes e chantillonnes

9.2.4.3 De la fonction de transfert en z a` lequation detat


Il existe bien sur differentes facons de proceder puisque la representation detat nest pas unique. Lon peut obtenir,
a` partir de G(z), des formes compagnes ou diagonales. Les methodes de passages sont exactement les memes que
pour les syst`emes continus (cf. 3.5).

9.3 Syst`emes e chantillonnes


9.3.1 Pourquoi e tudier les mod`eles discrets ? (notion de syst`eme e chantillonne)
Il sagit dans cette partie de justifier lintroduction dun mod`ele discret pour des probl`emes pratiques dAutomatique. En realite, les procedes a` commander sont tr`es rarement discrets mais plutot continus. Alors pourquoi e tudier
un mod`ele discret ? Il existe plusieurs raisons mais la principale est que les progr`es en informatique ont permis limplantation, sur des calculateurs, de lois de commande de plus en plus sophistiquees. Toutefois, cette implantation
se fait au format numerique ce qui suppose que le processus de commande (qui sera ici appele controleur meme
sil sagit dun anglicisme) manipule des signaux numeriques (donc discrets). Si le procede est un syst`eme continu et le controleur un syst`eme discret, il convient de prevoir une interface entre les deux, comme precise sur la
figure 9.8.

Controleur
discret

{uk }

Bloqueur

u(t)

Procede
continu

y(t)

{yk }

Echantillonneur
Organe de commande complet

Syst`eme e chantillonne

F IGURE 9.8 Syst`eme continu discretise boucle


Sur cette figure, les signaux u(t) et y(t) sont continus (eventuellement analogique pour u(t) ; forcement analogique
pour y(t) si le procede est lineaire) ; les signaux {uk } et {yk } sont discrets (eventuellement numeriques). Bien que
ce formalisme ne lexige pas necessairement, les signaux discrets sont ici supposes faire apparatre une periode
dechantillonnage T .
Un syst`eme continu precede dun bloqueur et suivi dun e chantillonneur est un syst`eme discret particulier
que lon appelle syst`eme e chantillonne.
Remarque 9.3 A` propos des syst`emes e chantillonnes et des syst`emes boucles, il est important de noter quun
syst`eme e chantillonne puis boucle nest pas e quivalent au meme syst`eme boucle puis e chantillone.

9.3.2 La commande numerique


En pratique, le controleur discret est un organe informatique (processeur) qui ne manipule, par essence, que des
signaux numeriques. Lorsque quun procede est asservi par un tel organe, lon parle de commande numerique. Le
principe en est resume par la figure 9.9.
Dans ce cas, les signaux {uk } et {yk } sont numeriques. Le signal y(t) est continu et meme analogique si le procede
est lineaire. Quant au signal u(t), il est continu mais quantifie (donc pas analogique).
Sur la figure apparat un CAN (Converstisseur Analogioque Numerique). Il joue le role dechantillonneur mais
aussi de quantificateur. Cette quantification est inherente au codage des valeurs du signal y en binaire, codage
queffectue le CAN. Ce dernier peut aussi parfois integrer le capteur de mesure. De plus, le CNA (Convertisseur Numerique Analogique), qui porte mal son nom, intervient en fait comme bloqueur dun signal numerique en
88

Syst`emes e chantillonnes

Processeur

{yk }

{uk }

u(t)

CNA

Procede
continu

y(t)

CAN

Commande numerique
F IGURE 9.9 Schema de principe de la commande numerique

un signal continu (non analogique !). Ce blocage est inherent au decodage des valeurs binaires de {uk } par le CNA.
Le processeur e xecutant lalgorithme de commande est un controleur discret et meme numerique car il recoit
un signal numerique {yk } et restitue un signal numerique {uk }.
Il faut noter que puisquun processeur est cadence a` une certaine frequence, les signaux numeriques font apparatre
une periode dechantillonnage T qui depend de la frequence dutilisation du processeur mais aussi des converstisseurs. En outre, le CAN implique un quantum de conversion q dont leffet est sans doute parfois perceptible bien
quil ne soit que tr`es rarement considere dans les cours sur les syst`emes e chantillonnes.
Quoi quil en soit, cette commande numerique nest quun cas particulier de la commande discr`ete schematisee sur
la figure 9.8. Cest pourquoi letude des mod`eles discrets, leur analyse et leur commande se rev`elent utiles.

et theor`eme de Shannon
9.3.3 Echantillonnage
Lon sinteresse ici a` leffet de la conversion analogique numerique. Comme souvent dans letude des syst`emes
e chantillonnees, leffet de la quantification est negligee de sorte que la conversion se resume a` lechantillonnage.
Cette prise dechantillons est assimilable a` la modulation du signal continu de sortie y(t) par un un peigne de
Dirac, cest-`a-dire un train dimpulsions unitaires. Ainsi, lon construit un signal decrit par
y (t) = y(t)

(t kT ),

k=0

o`u T est toujours la periode dechantillonnage et (.) represente limpulsion de Dirac. Il vient :
y (t) =

yk (t kT ),

k=0

o`u lon voit apparatre les e lements yk de la sequence {yk }.


Il est absolument essentiel, pour que la commande numerique soit efficace, que la boucle ram`ene une information pertinente sur la dynamique du syst`eme. En dautres termes, il est capital que le signal y (t) capture convenablement la dynamique de y(t) qui nest autre que la dynamique du procede continu lui-meme.
Ainsi, pour que les echantillons yk soient representatifs de cette dynamique, il convient de faire un choix judicieux
de T . Une e tude plus approfondie des signaux e chantillonnes a conduit Shannon a` affirmer :
Theor`eme de Shannon strict. La frequence dechantillonnage doit e tre deux fois superieure a` la plus
grande frequence contenue dans le spectre de y(t).
Cette assertion est e tablie sur la base darguments theoriques rigoureux mais nest pas facilement applicable en
pratique. Pour des cas concrets, lon consid`ere souvent une frequence dechantillonnage dix fois superieure a` la
plus grande frequence de cassure du mod`ele continu du procede.
89

Syst`emes e chantillonnes

Theor`eme de Shannon pratique. La frequence dechantillonnage doit e tre au moins dix fois superieure a`
la plus grande frequence de cassure du mod`ele du procede.
Il est bien sur tentant dechantillonner le plus rapidement possible pour que le mod`ele e chantillonne se rev`ele le
plus proche possible du mod`ele continu. Idealement, une periode nulle (T = 0) ne trahit en rien la dynamique
du syst`eme. Mais ceci est utopique. Il subsiste toujours un temps dechantillonnage. Bien que ce dernier soit
modelise selon une modulation par un peigne de Dirac, chaque e chantillon nest pas obtenu instantanement. Le
CAN presente toujours un temps de conversion. Par ailleurs, il est necessaire que le processeur dispose de temps
pour e xecuter lalgorithme et actualiser la commande uk a` chaque periode. Il faut aussi que le CNA ait le temps de
bloquer uk . Cest pourquoi, malgre les progr`es realises dans le domaine des circuits microelectroniques permettant
des e chantillonnages toujours plus rapides, il reste utile de formaliser un mod`ele e chantillonne.

9.3.4 Obtention dun mod`ele e chantillonne


Dans ce paragraphe, un mod`ele de syst`eme e chantillonne est propose. Lhypoth`ese dun bloqueur dordre zero est
retenue de sorte que le syst`eme e chantillonne est celui represente sur la figure 9.10.

T
u (t)

u(t)

B0 (p)

Gc (p)

y(t)

y (t)

F IGURE 9.10 Syst`eme e chantillonne a` laide dun bloqueur dordre zero


Une premi`ere partie rappelle bri`evement un resultat concernant la fonction de transfert discr`ete G(z) dun tel
syst`eme. Une seconde partie detaille un peu plus lobtention du mod`ele detat.
9.3.4.1 Calcul de G(z)
Puisque le bloqueur dordre zero peut e tre vu comme un mod`ele continu dont la fonction de transfert B0 (p) est
donnee en (9.1), il toujours possible dappliquer la formule :

G(z) = Z [L 1 (B0 (p)Gc (p))]. (9.8)

Cependant, il existe aussi un resultat obtenu par letude des proprietes de la transformee en z (voir cours sur les
signaux e chantillonnes) :

G(z) = (1 z

)Z




Gc (p)
Gc (p)
z1
Z
=
.
p
z
p

Exemple :
Soit la fonction de transfert continue :
90

(9.9)

Syst`emes e chantillonnes

Gc (p) =

1
p(p + 2)

(9.10)

La fonction de transfert en z de ce procede e chantillonne a` T = 1s se calcule par






1 ep
z1
1
1
G(z) = Z
=
Z
p p(p + 2)
z
p2 (p + 2)


0, 25
0, 5 0, 25
z1
,

Z
+
G(z) =
z
p2
p
p+2
soit, en utilisant les tableaux donnes en annexe D,


z1
0, 5z
0, 25z
0, 25z
G(z) =

+
z
(z 1)2
z1
z 0, 1353
0, 2838z + 0, 1485
.
(z 1)(z 0, 1353)

G(z) =

(9.11)

9.3.4.2 Mod`ele detat


Lon suppose que le procede continu de fonction de transfert Gc (p) apparaissant sur la figure 9.10 est represente
par lequation detat :

= Ac x(t) + Bc u(t)
x(t)
(9.12)

y(t) = Cc x(t) + Dc u(t)

Pour une condition initiale x0 sur letat, la solution de lequation ci-dessus se deduit de la relation (4.7). En outre, si
lon applique cette relation sur lhorizon [kT ; (k + 1)T ], alors le bloqueur dordre zero maintient le signal dentree
a` u(t) = uk , x0 devient xk et letat final est xk+1 . Lon obtient :
xk+1 = e

Ac T

xk +

(k+1)T

eAc ((k+1)T ) Bc uk d,

kT

ce qui, en operant le changement de variable dintegration = (k + 1)T , devient


!
Z
T

xk+1 = eAc T xk +

eAc d Bc uk .

(9.13)

De plus, lequation de sortie est verifiee a` tout instant, donc en particulier lorsque t = kT . De fait il vient
yk = Cc xk + Dc uk .

(9.14)

(Ceci traduit simplement le fait que Z est un operateur lineaire). Lidentification de (9.13) et (9.14) dune part,
avec (9.6) dautre part, permet de deduire les formules de dechantillonages suivantes :

A = e Ac T

; B=

eAc Bc d ;

C = Cc

(9.15)

D = Dc .

Remarque 9.4 Si la matrice dynamique Ac est non singuli`ere, il est possible de calculer la matrice B en utilisant
une relation plus simple :
Ac T
B = A1
I)Bc .
c (e

91

(9.16)

Reponse dun syst`eme discret

Il est important de noter que la relation unissant Ac a` A se verifie aussi sur les valeurs propres de ces derni`eres.
i valeurs propres de Ac , i = 1, ..., n
m
i = ei T valeurs propres de A, i = 1, ..., n
Exemple :
Lon reprend lexemple du paragraphe 9.3.4.1. Une realisation compagne verticale est donnee par



 
0
1
0

x +
u
x = Ac x + Bc u =
0 2
1




1 0 x.
y = Cc x

Il sagit de determiner une realisation pour le syst`eme e chantillonne associe. En utilisant (9.15), il est facile de voir
que C = Cc et D = 0. Pour une periode T , (9.15) conduit a`


1 21 (1 e2T )
A = e Ac T =
0
e2T

et
B=

1
0

1
2 (1

e2 )
e2T

!

1
0

"

1
2


 #
2T
T + e 2 1
.
1
2T
)
2 (1 e

Si lon prend T = 1s, il vient :




A
C

B
D

1
= 0
1

0, 4323
0, 1353
0

0, 2838
0, 4323 .
0

En appliquant la formule (9.7), lon retrouve lexpression de G(z) donnee en (9.11).

9.4 Reponse dun syst`eme discret


Cette partie sinteresse a` la reponse des syst`emes discrets. Bien que cette reponse puisse e tre obtenue en partant
dun mod`ele externe (equation recurrente ou fonction de transfert en z), ce document se focalise sur le mod`ele
interne, a` savoir lequation detat.
Trois sous parties sont considerees. La premi`ere e tablit la reponse temporelle dun syst`eme discret, dans sa forme
generale, en resolvant lequation detat. La second se concentre sur le cas specifique des syst`emes e chantillonnes.
Une troisi`eme partie introduit la notion de modes dun syst`eme discret.

9.4.1 Reponse du mod`ele detat


9.4.1.1 Reponse par resolution de lequation detat
Il est facile de voir, pour un e tat initial x0 , que application (9.6) conduit a`
x1 = Ax0 + Bu0 ,
puis
x2 = Ax1 + Bu1 = A(Ax0 + Bu0 ) + Bu1 = A2 x0 + ABu0 + Bu1 .
La logique de cette recurrence conduit a` e crire
92

Reponse dun syst`eme discret

xk = Ak x0 +

k1
X

Akj1 Buj .

(9.17)

j=0

En utilisant lequation de sortie, la reponse dun mod`ele discret est donnee par

yk = CAk x0 +

k1
X

(Akj1 Buj ) + Duk .

(9.18)

j=0

Lon voit clairement que, dans cette reponse, la matrice A est e levee a` differentes puissances. Il est donc essentiel
de pouvoir calculer Ak .
9.4.1.2 Calcul de Ak
Trois methodes sont ici proposees :
Calcul direct : il sagit tout simplement denchaner de facon recurrente de calcul de A0 = I, A, A2 = A.A,
A3 = A2 .A, etc., jusqu`a Ak = Ak1 .A. Pour simplifier ce calcul, il est possible de saider du theor`eme de
Cayley-Hamilton, comme il est explique au paragraphe 4.3.1.
Methode modale : il sagit de passer par la forme canonique de Jordan. Ainsi, si M est telle que A = M JM 1 ,
o`u J est une matrice de Jordan, il est facile de verifer que Ak = M J k M . Une fois M determinee, il faut calculer
J k et deduire M . Pour un bloc diagonal de J, lon a

h
..
.
0

k k
h
...
0
.. = ..
..
.
.
.
0
. . . h+l

Pour un bloc de Jordan de dimension m, lon a

h
0
..
.
..
.
0

1
h
..
.
..
.
0

0
1
..
.
..
.
0

...
...
..
.

0
0
..
.
..
..
.
.
. . . h

kh
0
..
.
..
.
0

Cn2 hk1
kh
..
.
..
.
0

...
0
.. .
..
.
.
. . . kh+l
Cn2 hk2
Cn2 hk1
..
.
..
.
0

...
Cnm km+1
h
. . . Cnm1 km+2
h
..
..
.
.
..
..
.
.
...
kh

o`u les scalaires Cij sont les coefficients de la formule du binome de Newton correspondant aux combinaisons :
Cij =

i
.
(i j)!j!

Utilisation de Z : la transformee en z de lequation du syst`eme autonome xk+1 = Axk secrit


zX(z) zx0 = AX(z) X(z) = (zI A)1 zx0 ,
sous reserve dinversibilite de (zI A). Comme la solution du syst`eme autonome est xk = Ak x0 , par identification, lon deduit
Ak = Z 1 [(zI A)1 z].
93

Reponse dun syst`eme discret

9.4.1.3 Reponse dun syst`eme e chantillonne.


Dans ce paragraphe, un probl`eme essentiel est aborde. Sans entrer dans le detail, des precautions a` prendre dans
letude dun syst`eme e chantillonne sont exposees. Si lon se reporte a` la figure 9.10, lon peut noter que la sortie
{yk } du mod`ele discret nest que la version e chantillonnee de la veritable sortie du procede, c.-`a-d. y(t). Or cest
cette derni`ere qui constitue la grandeur pertinente. Une fois le mod`ele discret e tabli, il est possible, comme le
montrent les paragraphes precedents, de determiner {yk } a` partir de {uk }. Cependant, y(t) nest pas reconstituee
pour autant. Il faut alors distinguer deux cas :

Etude
en boucle ouverte : ce cas ne pose generalement pas trop de probl`eme. Lapplication pratique du
theor`eme de Shannon (cf. 9.3.3) dans le choix de T permet souvent dobtenir un signal discret {yk } qui rend
bien compte des dynamiques contenues dans le signal continu y(t). Une interpolation des e chantillons yk doit
donner une bonne idee de la forme de y(t) ;

Etude
en boucle fermee : Malgre un choix pertinent de T en boucle ouverte, la commande numerique peut
introduire des dynamiques plus rapides dans le syst`eme de sorte que T devient inappropriee en boucle fermee.
Il faut alors envisager deux options :
recourir a` un outil de calcul numerique pour reconstituer y(t), la sortie du mod`ele continu excite par une
commande discr`ete ;
diminuer T pour rendre lechantillonnage de y(t) representatif de sa forme.

9.4.2 Analyse de la reponse : e tude des modes


` linstar de lanalyse faite du regime transitoire des mod`eles detat continus (cf. 4.4), et conformement a` la
A
propriete de Ak et de sa forme modale, lon peut constater que les valeurs propres i de A ont une influence
preponderante sur la forme de {yk }.
Pour simplifier, en supposant que A ne poss`ede que des valeurs propres disctinctes i , i = 1, . . . , n, lon a :

diag ki = V 1 Ak V,
i=1,...,n

avec la matrice modale V qui verifie

V =

v1

. . . vn

et V 1

Si lon definit les matrices Ni de rang 1 par


Ni = vi wi

w1

= ... .
wn

i {1, . . . , n},

lexpression (9.17) se recrit


xk =

n
X
i=1

Ni ki x0 +

k1
X
j=0

(kj1
Buj ) .
i

Une telle reponse fait apparatre n termes impliquant des puissances de i . Chaque terme associe a` une valeur
propre i est appele mode du syst`eme discret. Par abus de langage, lon appelle parfois i mode, assimilant ainsi
mode, pole et valeur propre.
Bien que les matrices Ni , qui sont de mani`ere non triviale liees aux zeros du syst`eme, aient une influence certaine sur la forme de {xk } (donc {yk }), ce sont surtout les valeurs propres i elles-meme qui determinent lallure
du mode associe. Les differents cas possibles peuvent se resumer par le tableau 9.1.
94

Stabilite dun syst`eme discret

Valeur propre

Comportement du mode associe

|i | > 1
|i | < 1
|i | = 1
Im(i ) 6= 0
Re(i ) < 0
Im(i ) = 0 et Re(i ) 0

Mode divergent
Mode convergent
Mode entretenu
Oscillation du mode
Changement de signe a` chaque e chantillon
Pas doscillation du mode

TABLE 9.1 Differents comportements des modes


Im(z)

Re(z)

F IGURE 9.11 Allure des modes en fonction de la localisation de i dans le plan en z

Tous les comportements des differents modes sont repartis sur {xk } et sur {yk } par les matrices Ni , B et C. Quoi
quil en soit, les comportement possibles sont resumes sur la figure 9.11.
Il existe deux sources doscillation dun syst`eme discret :
la presence de modes complexes (qui peut e tre liee a` un mode complexe du procede continu si lon a
affaire a` un syst`eme e chantillonne) ;
la presence de modes a` partie reelle negative (cette oscillation est due uniquement a` la discretisation dans
le cas dun syst`eme e chantillonne).

9.5 Stabilite dun syst`eme discret


Il sagit dans cette partie de reprendre les e lements du chapitre 5 sur la stabilite des mod`eles continus et de donner
des e quivalences pour le cas discret. Le lecteur est donc fortement incite a` se reporter au chapitre 5.

9.5.1 Stabilite BIBO


Il ny a pas de difference fondamentale avec le cas continu ce qui conduit tout naturellement a` la defintion suivante :
Un syst`eme discret est stable au sens BIBO (ou encore au sens entree/sortie) si et seulement si, quelle que
soit letat inital x0 = x(0), pour toute entree {uk } bornee, la sortie {yk } lest aussi.
L`a aussi, il est difficile dexploiter cette definition. La notion de stabilite des e tats dequilibre est donc privilegiee.
95

Stabilite dun syst`eme discret

9.5.2 Stabilite interne


9.5.2.1 Definition et recherche dun e tat dequilibre
Un syst`eme se trouve dans un e tat dequilibre (par e tat, lon entend un point de lespace detat c.-`a-d. une
instance du vecteur detat) si cet e tat nest pas modifie lorsque le syst`eme est abandonne a` lui-meme.
Un syst`eme livre a` lui-meme est qualifie dautonome (uk = 0, k IN). Un point dequilibre xe est une solution
en xk de lequation :
xk+1 = Axk (A I)xk = 0.

(9.19)

Deux cas se presentent alors. Soit la matrice (A I) est reguli`ere et seule lorgine de lespace detat (xe = 0)
est un point dequilibre. Soit (A I) est singuli`ere et il faut resoudre (9.19) pour determiner linfinite des points
dequilibre.
9.5.2.2 Stabilite
Le stabilite dun point dequilibre se definit, comme dans le cas des mod`eles continus, de la facon suivante :
Un e tat dequilibre est dit asymptotiquement stable si, lorsque le syst`eme est e carte de cet e tat sous leffet
dune perturbation, il y revient (en un temps infini).
Letat dequilibre est dit instable, si apr`es perturbation, le syst`eme sen e loigne davantage.
Letat dequilibre est dit simplement stable si apr`es perturbation, le syst`eme reste dans un voisinage du point
dequilibre.
Comme pour les mod`eles continus, quel que soit le point dequilibre xe considere, la stabilite de ce dernier depend
de A donc il est logique dassocier la stabilite du syst`eme autonome lui-meme a` la stabilite de son ou ses points
dequilibre.

9.5.3 Crit`ere des racines


9.5.3.1 Resultat general
Comme dans le cas continu, lon se ref`ere a` lequation du regime libre, a` savoir
xk = Ak x0 .

(9.20)

Une e tude tout a` fait similaire a` celle qui est realisee en continu, sappuyant sur les valeurs propres de A (cf.
5.3.1), consiste a` e tudier la convergence des modes libres de xk (voir 9.4.2), et conduit au resultat suivant :

j | |j | > 1 : le syst`eme est instable ;


/ j | |j | > 1 :
[i | < 1 i : le syst`eme est asymptotiquement stable ;
Les blocs de Jordan relatifs aux e ventuelles valeurs propres h telle que |h | = 1 sont tous scalaires
le syst`eme est simplement stable ;
Il existe un bloc de Jordan non scalaire associe a` une valeur propre h telle que |h | = 1 le syst`eme
est instable.

96

Stabilite dun syst`eme discret

Par ailleurs, lon peut e crire :


Soit le syst`eme modelise par (9.6). Ce dernier est dit asymptotiquement stable si et seulement si le syst`eme
autonome associe xk+1 = Axk est asymptotiquement stable, cest-`a-dire si et seulement si toutes les
valeurs propres de A sont a` partie reelle strictement negative.
Il faut donc en conclure que la region de stabilite asymptotique a change par rapport au cas continu.

x = Ax asymptotiquement stable

A stable au sens dHurwitz

Spectre de A dans le demi-plan gauche ouvert.

xk+1 = Axk asymptotiquement stable

A stable au sens de Schur

Spectre de A dans le disque unitaire ouvert

9.5.3.2 Stabilite interne et stabilite BIBO


` linstar de ce qui a e te affirme pour les mod`eles a` temps continu (cf. 5.3.1.4), lon peut affirmer, par letude de
A
lequation (9.18) :
Le syst`eme decrit par une representation (9.6) dordre n et de fonction de transfert G(z) dordre n est
BIBO-stable s il est asymptotiquement stable.
Il est BIBO-instable sil est instable de mani`ere interne.
9.5.3.3 Marge de stabilite
Lon peut definir, comme pour les syst`emes continus, la marge de stabilite dun syst`eme discret asymptotiquement
stable :
Marge de stabilite absolue : distance minimale, dans le plan complexe, entre un point dont laffixe est une
valeur propre de A et le cercle unitaire. Mathematiquement, elle sexprime
= min(1 |i |).
i

(9.21)

En revanche, lon ne definit pas (en tout cas de facon triviale) la marge de stabilite relative.

9.5.4 Crit`ere de Jury


De meme que pour les mod`eles continus, lon peut determiner le polynome caracteristique D(p) = det(pI A)
et analyser le signe de la partie reelle de ses racines par le crit`ere de Routh-Hurwitz, en discret, il est possible
de determiner le polynome caracteristique D(z) = det(zI A) et detudier le module de ses racines gace au
crit`ere de Jury. Le crit`ere nest pas detaille dans ce document. Il est deduit du crit`ere de Routh-Hurwitz par une
tansformation bilineaire qui permet de passer du demi-plan gauche au disque unitaire.
97

Stabilite dun syst`eme discret

9.5.5 Methode de Lyapunov


Ce paragraphe se ref`ere au paragraphe 5.3.3. Voici resumee la version discr`ete de la seconde methode de Lyapunov.
Soit le mod`ele non lineaire suivant :

xk+1 = f (xk )
f (0, ..., 0) = 0

i {1, ..., n} xe = 0 e tat dequilibre.

Il sagit l`a dun mod`ele de syst`eme autonome qui poss`ede lorigine pour e tat dequilibre. f est une fonction
vectorielle non lineaire a` plusieurs variables. Ladaptation de la seconde methode de Lyapunov induit une condition
suffisante pour verifier la stabilite de cet e tat dequilibre. Plutot que de considerer la decroissance dune fonction
e nergetique au travers de sa derivee, lon sinteresse a` un decrement de cette fonction e nergetique. Sil existe une
fonction V telle que V (xk ) > 0 xk IRn , 0 , (V (0) = 0) et telle que
V (xk ) = V (xk+1 ) V (xk ) < 0 xk , xk 6= 0
alors le mod`ele detat discret non lineaire est asymptotiquement stable pour des conditions initiales dans un voisinage de 0.
Si lon sinteresse a` la stabilite asymptotique dun syst`eme lineaire autonome
xk+1 = Ax,
la seconde methode permet de voir quun tel syst`eme est asymptotiquement stable si et seulement s il existe une
fonction de Lyapunov (quadratique) V (xk ) = xk P xk > 0 ( P = P > 0) telle que (xk ) < 0, xk 6= 0
xk (A P A P )xk < 0 xk IRn , x 6= 0
A P A P < 0

(9.22)

Q = Q < 0 et P = P > 0 | A P A P = Q

(9.23)

L`a encore, il nest plus question de faire reference a` lorigine de IR qui est de toute facon lunique point dequilibre.
La condition devient necessaire et suffisante. Enfin, il nest pas restrictif de supposer que V (xk ) est une fonction
quadratique de xk ce qui permet daboutir, soit a` une inegalite matricielle donnee en (9.22), soit a` une e galite
matricielle donnee en (9.23), dont linconnue est, dans les deux cas, une matrice symetrique strictement definie
positive. Ce sont, comme dans le cas continu, E. I. Jury et S. M. Ahn qui prouv`erent quun choix arbitraire de la
matrice Q e tait possible. Lon peut donc resumer lapplication de la theorie de Lyapunov aux mod`eles lineaires
discrets a` ceci :
Un mod`ele detat discret lineaire (9.6) est asymptotiquement stable si et seulement si, quelle que soit la
matrice symetrique definie negative Q, lunique solution de lequation
P + A P A = Q

(9.24)

est definie positive.


Lhabitude consiste a` choisir Q = I pour effectuer le test.
Lannexe E reprend quelques aspects e voques ci-avant.

En conclusion, il faut noter que tous ces crit`eres de stabilite ne font intervenir que A. Ainsi, seule la
matrice devolution determine la stabilite du syst`eme.

98

Commandabilite/observabilite dun mod`ele discret

9.5.6 Stabilite dun syst`eme e chantillonne


Lon sinteresse ici au rapport entre la stabilite dun procedde continu et la stabilite du syst`eme discret obtenu par
e chantillonnage de ce procede continu.

dune boucle ouverte


9.5.6.1 Echantilonnage
Lon consid`ere le schema de la figure 9.10. Le procede continu admet la realisation (9.12). La matrice devolution A
du syst`eme e chantillonne se deduit donc de la matrice devolution Ac du procede continu par la relation A = eAc T .
Si lon note i , i = 1, . . . , n, les valeurs propres de Ac et i , i = 1, . . . , n, les valeurs propres de A, lon a vu
quelles e taient liees par la relation (cf. 9.3.4.2) :
i = ei T ,

i {1, . . . , n},

do`u lon deduit lequivalence :


Re(i ) < 0 |i | < 1 i {1, . . . , n}.
La stabilite asymptotique dun procede lineaire continu est e quivalente a` la stabilite asymptotique du
syst`eme discret obtenu par e chantillonnage de ce procede.
Il est possible de verifier cette assertion en utilisant la theorie de Lyapunov. Lon constate alors que toute matrice
de Lyapunov P obtenue pour le procede continu est aussi matrice de Lyapunov pour le mod`ele e chantillonne et
reciproquement (cf. annexe E).
9.5.6.2 Bouclage dun syst`eme e chantillonne
Lon consid`ere toujours un syst`eme e chantillonne mais qui est ensuite boucle comme le montre la figure 9.12.
{uk }
y ck

u(t)
B0 (p)

y(t)
Gc (p)

{yk }
T

F IGURE 9.12 Syst`eme e chantillonne abec bouclage unitaire


Compte tenu de la realisation continue (9.12) et des formules dechantillonnage (9.15), le bouclage conduit, pour
ce syst`eme discret boucle, a` la representation detat suivante :

!
!
Z T
Z T

eAc T Bc d (1 D)1 Cxk +


e Ac T +
eAc T Bc d (1 D)1 yc
xk+1 =
k

yk

(1 + D(1 D)1 )Cxk

D(1 D)1 yck

sous reserve que D 6= 1. Lon constate que la matrice dynamique en boucle fermee est grandement dependante de
T et a` ce titre, T a une grande influence sur la stabilite de ce syst`eme discret boucle. Il nest donc pas question
dassocier cette stabilite e ventuelle a` la stabilite e ventuelle dun quelconque syst`eme continu. Ceci rejoint lidee
formulee dans la remarque 9.3.

9.6 Commandabilite/observabilite dun mod`ele discret


Cette partie propose, de facon resumee, un e quivalent du chapitre 6 pour le cas des syst`emes discrets. Le lecteur
est invite a` se referer au chapitre 6.
99

Commandabilite/observabilite dun mod`ele discret

9.6.1 Definitions
9.6.1.1 Commandabilite
Soit le mod`ele detat (9.6) dun syst`eme lineaire dont letat initial est a` une valeur quelconque x0 .

Le mod`ele est commandable si pour toute instance xf du vecteur detat, il existe une sequence finie
dechantillons dentree uk (k < ) denergie bornee qui permet au syst`eme de passer de letat x0 a`
letat xf .
9.6.1.2 Observabilite
Lon sinteresse toujours au meme mod`ele que dans la partie precedente.
Le mod`ele est observable si, quel que soit letat initial x0 , il existe dune sequence finie dechantillons de
sortie yk (et e ventuellement des e chantillons dentree correspondants uk ) qui permet de retrouver x0 .

9.6.2 Crit`ere de Kalman


9.6.2.1 Commandabilite
Le resultat est comp`etement similaire a` celui e tabli pour les mod`eles continus :
La paire de matrices (A, B) (ou le syst`eme (9.6)) est commandable si et seulement si
rang(Qc ) = n

o`u Qc =

AB

. . . An1 B

(9.25)

La matrice Qc est dite matrice de commandabilite.


Demonstration : soit la reponse de letat donnee par (9.17). Lon note que si Qc est de rang plein, son image
concide avec IRn . De ce fait, nimporte quel xf IRn admet un antecedent dans lensemble des commandes
{u0 ; u1 ; . . . ; un1 }. Il est donc possible datteindre xf et la condition de Kalman est suffisante.
De plus, se pose la question de la necessite. Qc est supposee de rang inferieur a` n. Soit la matrice Qi definie par
Qi =

A AB . . . Ai1 B

est-il possible quil existe une valeur de i telle que limage de Qi concide avec IRn . Le theor`eme de Cayley
Hamilton montre que, quel que soit i, la matrice Ai B peut sexprimer comme une combinaison lineaire de B, AB,
. . ., An1 B. Ainsi le rang de Qi ne peut exceder celui de Qc et donc il existe des vecteurs dans IRn qui ne peuvent
e tre atteints. QED
Remarque 9.5 Tout e tat xf peut e tre atteint en partant de x0 grace a` une sequence dentree dau plus n
e chantillons.
9.6.2.2 Observabilite
La paire de matrices (A, C) (ou le syst`eme (9.6)) est observable si et seulement si

C
CA

rang(Qo ) = n o`u Qo =
...
CAn1
100

(9.26)

Commandabilite/observabilite dun mod`ele discret

La matrice Qo est dite matrice dobservabilite.


Demonstration : si lon sinteresse au syst`eme autonome, la reponse en yk de ce syst`eme est
yk = CAk x0 .
Puisque yk est de dimension 1 et x0 de dimension n, il est necessaire davoir n valeurs successives de yk pour
esperer retrouver x0 a` partir des e chantillons yk . Ceci conduit a` e crire

y0
y1
..
.
yn1

= Qo x0 .

Le syst`eme peut se resoudre en x0 (unique) si et seulement si rang(Qo ) = n. QED


9.6.2.3 Dualite des deux concepts
Il est important de noter, comme ne continu, lanalogie entre les structures de Qc et Qo .
Dualite :
La paire (A, B) est commandable si et seulement si la paire (A , B ) est observable.
La paire (A, C) est observable si et seulement si la paire (A , C ) est commandable.

9.6.3 Crit`eres sappliquant aux formes de Jordan


Le principe e tant rigoureusement le meme que pour les mod`eles continus, le lecteur est invite a` se reporter au
paragraphe 6.3. Les resultats qui y sont mentionnes sont valables pour les mod`eles discrets.

9.6.4 Grammiens
Il sagit ici dapporter une analogie discr`ete aux notions presentees au paragraphe 6.4. Soit le mod`ele LTI discret
donne en (9.6) et suppose asymptotiquement stable. Lon se propose ici de presenter un crit`ere de commandabilite
et dobservabilite qui repose sur les notions de grammiens.
9.6.4.1 Definition des grammiens
Le grammien de commandabilite Wc et le grammien dobservabilite Wo , e galement appeles matrices grammiennes, sont respectivement definies par

Wc = lim Ak BB (A )k ,

(9.27)

Wo = lim (A )k C CAk ,

(9.28)

do`u lon retrouve bien que les deux proprietes sont duales lune de lautre.
101

Commandabilite/observabilite dun mod`ele discret

9.6.4.2 Interpretation des grammiens


Le grammien de commandabilite Wc est lie a` lenergie minimale du signal de commande u(t) necessaire pour
amener letat dune condition initiale a` une condition finale en un temps infini. La justification en est renvoyee en
annexe F.
La paire (A, B) (respectivement la paire (A, C)) est commandable (resp. observable) si et seulement si le
grammien de commndabilite Wc (resp. dobservabilite Wo ) est strictement defini positif.
Comme en continu, les grammiens fournissent des conditions necessaires et suffisantes dobservabilite ou de commandabilite et ils indiquent le nombre de variables detat non commandables et non observables. En outre, ils
permettent de quantifier cette propriete pour chaque variable detat mais se limitent a` letude des mod`eles asymptotiquement stables.
Remarque 9.6 Lon peut demontrer que, quelle que soit la base de lespace detat consideree, le produit Wc Wo
conserve le meme spectre (voir annexe F).
9.6.4.3 Calcul des grammiens
Les sommes definies en (9.27) et (9.28) sont difficilement utilisables pour le calcul des grammiens. Il est facile, a`
linstar de ce qui se fait en continu (cf. 6.4.3), daffirmer :
Soit la realisation (9.6), supposee asymptotiquement stable. Le grammien de commandabilite Wc et celui
dobservabilite Wo sont les solutions respectives des e quations de Lyapunov
Wc + AWc A = BB ,

(9.29)

Wo + A Wc A = C C.

(9.30)

9.6.5 Mod`eles et structures


Il ny a pas de difference majeure avec le cas continu et le lecteur peut se referer au paragraphe 6.5 pour y retrouver
les principales notions. Lon retient juste :
Lequation recurrente ne represente que la partie observable du syst`eme discret.
La fonction de transfert en z ne represente que la partie commandable et observable du syst`eme
discret.

9.6.6 Realisation minimale


L`a encore, il est inutile de reprendre toute letude pour le cas discret et, en se referant au cas continu, lon peut
e crire :
On appelle realisation minimale ou irreductible dun syst`eme LTI discret toute representation detat ne
decrivant que la partie commandable et observable du syst`eme.
De ceci, lon deduit que les poles de la fonction de transfert en z dun syst`eme discret sont e gaux aux valeurs
propres de toute realisation minimale du syst`eme. Ainsi, il est possible quune fonction de transfert dun syst`eme
soit stable au sens de Schur mais quune realisation non minimale de ce meme syst`eme fasse apparatre une
instabilite. Ceci correspond a` une valeur propre instable qui nest pas commandable et/ou pas observable.
102

A NNEXES

Dans ces annexes, sont presentes quelques concepts qui permettent soit dapprehender un peu mieux le contenu du
cours, soit dobtenir quelques complements dinformation de nature scientifique ou culturelle.

109

Annexe A

Rappels dalg`ebre et danalyse


Quelques notions dalg`ebre lineaire et danalyse sont ici bri`evement rappelees. Il ne sagit pas de presenter un petit
cours de mathematiques mais simplement de rafrachir la memoire du lecteur sil en est besoin.

A.1

` propos des matrices


A

Lon donne ici quelques definitions et proprietes des matrices. Une matrice M Cl mn peut e tre vue comme un
tableau de m n scalaires complexes mij a
` m lignes et n colonnes o`u mij est lelement situe en ie` me ligne et
`
e
me
en j
colonne. Une telle matrice est en realite une representation dune application lineaire de Cl n dans Cl m .
Exemple :
M=

m11
m21

m12
m22

m13
m23

=M =

1
4

2 + 3i
6
7
5+i

A.1.1 Transposition et conjugaison


Soit la matrice M = [mij ] Cl mn .
Soit aussi la matrice N = [nij ] Cl nm .
N est la transposee de M si et seulement si nij = mji , {i; j} (les lignes de M sont les colonnes de N et
reciproquement). Lon note alors N = M T .
N est la transposee conjuguee de M si et seulement si nij = m
ji , {i; j} (les lignes de M sont les colonnes
conjuguees de N et reciproquement). Lon note alors N = M .
Exemple :



1
3
6

M =

2 4 + 5i 7

1
2
M = 3 4 + 5i



6
7
1
3
6

M =
2 4 5i 7

Dans le cas de matrices reelles (M IRmn ), les deux operateurs peuvent e tre confondus.

A.1.2 Matrices carrees


Une matrice est dite carree si elle comporte le meme nombre de lignes et de colonnes. Ce nombre est parfois
appele ordre de la matrice. Cette derni`ere represente une application de IRn (ou Cl n ) vers IRn (resp. Cl n ) qui est
111

A` propos des matrices

donc susceptible detre automorphique.


Parmi les matrices carrees, certaines sont particuli`eres, telles la matrice nulle, notee 0, dont toutes les composantes
sont nulles (mij = 0, {i; j}) et la matrice identite, notee I, dont toutes les composantes sont nulles a` lexception
de celles de sa diagonale principale qui sont e gales a` 1 (mii = 1 i et mij = 0 {i, j 6= i}). 0 est lelement neutre
de laddition des matrices de meme dimension et lelement absorbant de la multiplication. I est lelement neutre
de la multiplication 1 (voir ci-apr`es).
Une matrice triangulaire superieure na que des composantes nulles en dessous de sa diagonale principale (mij =
0 {i, j < i}). Une matrice triangulaire inferieure na que des composantes nulles au dessus de sa diagonale
principale (mij = 0 {i, j > i}). Une matrice triangulaire inferieure et superieure est dite diagonale (mij =
0, {i, j 6= i}).
La matrice carree complexe M est dite Hermitienne quand M = M . Dans le cas o`u M est reelle, on a M =
M T = M et lon dit alors de la matrice quelle est symetrique.

A.1.3 Operations sur les matrices


A.1.3.1 Addition de matrices
Soient deux matrices M = [mij ] Cl mn et N = [nij ] Cl mn de memes dimensions alors leur somme
S = [sij ] Cl mn est definie par

sij = mij + nij

{i; j}.

Lon note S = A + B. Les proprietes de laddition matricielle sont les suivantes :

A + B = B + A (commutativite) ;
A + (B + C) = (A + B) + C (associativite) ;
s(A + B) = sA + sB, s Cl ;
C | A + C = B et C est notee C = A B (difference) ;
A + 0 = A (element neutre) ;
(A + B)T = AT + B T (transposition de la somme) ;
(A + B) = A + B (transposition-conjugaison de la somme).

Exemple :


1 1 2
3
2 4

1 3 2
3 4
0

2 2 0
6 6 4

A.1.3.2 Multiplication de matrices


Soient le vecteur v = [v1 . . . vn ]T et le vecteur w = [w1 . . . wn ]T de meme taille. Lon definit le produit scalaire
de v et w par

< v, w >=

n
X
i=1

1. sous reserve de compatibilite des dimensions

112

vi wi .

A` propos des matrices

` partir de ce produit scalaire de deux vecteurs, lon peut definir le produit de deux matrices. Si lon suppose que
A
M Cl mn et N Cl nq sont respectivement la concatenation en colonne de m vecteurs lignes v [i] , i = 1, ..., m
et la concatenation en ligne de q vecteur colonnes w[j] , j = 1, ..., q,

v [1]

M = ...
v [m]

et N =

w[1]

. . . w[q]

alors le produit P = [pij ] = M N = M N Cl mq est defini par

pij =< v [i] , w[j] >=

n
X

[i]

[j]

{i; j} {1, ..., m} {1, ..., q}.

vk wk

k=1

Exemple :


1 1 2
3
2 4


1 1
3

2 =
0
1
1
0

3
7

Lon note que la multiplication deux matrices M et N nest definie que si le nombre de colonnes de M est e gal au
nombre de lignes de N .
Le produit de deux matrices correspond a` la composition de deux applications lineaires.
Les proprietes de la multiplication de matrices sont :

A(B + C) = AB + AC (distributivite a` droite) ;


(A + B)C = AC + BC (distributivite a` gauche) ;
A(BC) = (AB)C (associativite) ;
AB 6= BA (non-commutativite) ;
A I = A (element neutre) ;
A 0 = 0 (element absorbant) ;
AB = 0 nimplique pas toujours A = 0 ou B = 0 ;
AB = AC nimplique pas toujours B = C ;
(AB)T = B T AT (transposition du produit) ;
(AB) = B A (transposition-conjugaison du produit).

Remarque A.1 Une matrice A carree peut e tre e levee a` une puissance k en definissant Ak = Ak1 A et A0 = I.
Une matrice qui devient nulle pour une valeur de k est qualifiee de nilpotente.

A.1.4 Determinant dune matrice carree


La definition du determinant dune matrice est un peu formelle pour nos besoins. Elle repose sur la notion permutation et pour des raisons de concision, elle nest pas rappelee ici. Lon se contente de rappeler les r`egles de calcul
pour des matrices carrees dordre 2 ou 3.
Lon note dabord que le determinant dune matrice est un scalaire qui se deduit par calcul des compsantes de
la matrices.
113

A` propos des matrices

A.1.4.1 Determinant dune matrice carree dordre 2


Soit la matrice carree A ainsi composee :
A =

a11
a21

a12
a22

Le determinant de A est ainsi calcule :

det(A) = a11 a22 a12 a21 .

Exemple :
det



2
4

1
3



= 1 4 (2) 3 = 10

A.1.4.2 Determinant dune matrice carre dordre 3 ou plus


Soit A une matrice carree dordre n = 3. Lon affecte un signe a` chacune de ses composantes, en quinconce, de la
facon suivante :

a+
11
A = a
21
a+
31

a+
13
.
a
23
a+
33

a
12
a+
22
a
23

Chaque signe est note sign(i, j).


Lon note det(A) le determinant de la matrice 22 issue de A par e limination de la ie` me ligne et de la j e` me colonne.
ij

Il suffit alors de raisonner par rapport a` la ligne (ou la colonne) k. Lon calcule :
det(A) =

n
X

sign(k, j)akj det(A) =


kj

j=1

n
X

sign(j, k)ajk det(A).


jk

j=1

En notant que sign(i, j) = (1)(i+j) , il vient

det(A) =

n
X
j=1

(1)(k+j) akj det(A) =


kj

n
X

(1)(j+k) ajk det(A).

j=1

jk

(A.1)

Exemple :
Lon raisonne, dans lexemple ci-apr`es, par rapport a` la premi`ere ligne :

2+

det
1
2+

3
0+
1







5+
0 1
1 1
1 0

= 2 det
3 det
+ 5 det
=9
1
1 0
2 0
2 1
0+

La technique de calcul presentee ci-avant peut setendre a` des matrices de dimension plus e levee cest-`a-dire que
la formule (A.1) est valable pour n > 3.
114

A` propos des matrices

A.1.4.3 Quelques proprietes du determinant

Une ligne ou une colonne nulle det(A) = 0.


det(AT ) = det(A).

det(A ) = (det(A)).
Ligne ou colonne multipliee par s Cl det(A) multpliplie par s.
Si B est obtenue a` partie de A en ajoutant a` la ie` me ligne (colonne) le produit dun scalaire par une autre ligne
(colonne) alors det(B) = det(A).
det(Im + M N ) = det(In + N M ) (Attention aux dimensions de M et N : M N et N M doivent e tre carrees).

A.1.5 Cofacteurs et matrice adjointe


Lon definit les cofacteurs dune matrice carree A = [aij ] par
ij = (1)i+j det(A).
ij

Lon remarque que le determinant de A sexprime alors


det(A) =

n
X

akj kj =

j=1

n
X

ajk jk .

j=1

En outre, la matrice adjointe de A, notee adj(A), est definie par la transposee des cofacteurs, a` savoir
A = [aij ] adj(A) = [ji ].

A.1.6 Polynome caracteristique dune matrice carree


Le polynome caracteristique dune matrice carree A est le polynome en defini par

P () = det(I A).

Par ailleurs, P (A) = 0 (theor`eme de Cayley-Hamilton : toute matrice carree verifie son propre polynome caracteristique).

A.1.7 Rang dune matrice


Lon definit le rang r dune matrice M Cl mn par le nombre maximal de lignes ou de colonnes lineairement
independantes de cette matrice. Elle est de rang plein si et seulement si min(m, n) = r. Si ce nest le cas, lon dit
que la matrice est deficiente en rang ou presente une deficience de rang.
Une matrice carree A de rang plein est dite reguli`ere. Dans ce cas, il vient det(A) 6= 0. Par opposition, une matrice
deficiente en rang est dite singuli`ere et il vient alors det(A) = 0. Bien souvent, le qualificatif non-singuli`ere est
prefere a` reguli`ere .

A.1.8 Matrices inverses


A.1.8.1 Definition et calcul
Une matrice carree A Cl nn admet une inverse de meme dimension notee A1 si et seulement si
AA1 = A1 A = I.

115

A` propos des matrices

Une condition dexistence de A1 est la non-singularite de A.


Pour calculer une inverse, lon doit donc dabord savoir si elle existe cest-`a-dire savoir si A est de rang plein,
en montrant par exemple que det(A) 6= 0. Puis les deux techniques de calcul les plus classiques sont :
on resoud le syst`eme lineaire a` n e quations et n inconnues (fastidieux meme pour un ordre faible) ;
on applique la formule :
A1 =

1
adj(A).
det(A)

Exemple :


a
c

b
d

1

1
=
ad bc

d
c

b
a

A.1.8.2 Proprietes des inverses


Sous reserve de compatibilite des dimensions et dexistence des diverses inverses :

(AB)1 = B 1 A1 (inverse du produit) ;


(AT )1 = (A1 )T (inverse de la transposee) ;
(A )1 = (A1 ) (inverse de la transposee-conjuguee) ;
(A + BCD)1 = A1 A1 B(C 1 + DA1 B)1 DA1 (lemme dinversion des matrices) ;
(I + A)1 = I (A1 + I)1 (lemme dinversion des matrices simplifie).

A.1.9 Valeurs propres dune matrice


A.1.9.1 Structure propre dune matrice
Cl est valeur propre de A Cl nn si et seulement si :

P () = det(In A) = 0

(A.2)

Une matrice de dimension n a necessairement n valeurs propres i , i = 1, ..., n. Pour simplifier, lon supposera
que celles-ci sont distinctes. Lorsque A est reelle, les valeurs propres constituent un ensemble auto-conjugue.
Autrement dit, si est valeur propre de A, sa quantite conjuguee lest aussi. Tous ces scalaires constituent un
ensemble de cardinal n appele spectre de A et parfois note (A).
Il existe n vecteurs vi Cl n , i = 1, ...n non nuls, appeles vecteurs propres a` droite, tels que :

i {1, ..., n}

Avi = i vi

(A.3)

Ces vecteurs propres sont tous definis a` un facteur pr`es.


Si lon definit V , matrice modale, par :
V = [v1 , , vn ]
alors, il vient la relation :

116

(A.4)

A` propos des matrices

= V 1 AV

(A.5)

o`u est une matrice diagonale definie par :


= diag{1 , , n }

(A.6)

La determination de passe par celle de V . Lon parle de diagonalisation de matrice. Cette diagonalisation nest
pas toujours possible lorsque les valeurs propres ne sont pas distinctes. Des formes canoniques de Jordan peuvent
neanmoins e tre calculees mais ceci nest pas explicite ici.
Lon peut aussi definir les vecteurs propres a` gauche ui (egalement definis a` un facteur multiplicatif pr`es) par
la relation

ui A = i ui

i {1, ..., n}.

(A.7)

En definissant la matrice U par la concatenation


U = [u1 , , un ],

(A.8)

il apparat, entre les matrices U et V , pour des choix de ui et vi convenablement mis a` lechelle, la condition
dorthogonalite :
U V = I.

(A.9)

Lensemble constitue des valeurs propres et des vecteurs propres a` gauche et a` droite est appele structure propre.
A.1.9.2 Proprietes des valeurs propres
Il est a` noter que les valeurs propres dune matrice carree A verifient les proprietes suivantes :

(A) = (AT ) ;
i (A) i (A) ;
i (A )
i (A)
i (A) ki (Ak ) ;
i (A) s + i (sI + A), s Cl ;
les e lements diagonaux dune matrice triangulaire sont ses valeurs propres.
Les valeurs propres dune matrice symetrique ou Hermitienne sont reelles.

A.1.9.3 Proprietes des vecteurs propres


Il est a` noter que les vecteurs propres dune matrice carree A verifient les proprietes suivantes :
ils doivent e tre lineairement independants et constituent donc une base de Cl n ;
ils sont orthogonaux pour une matrice Hermitienne diagonalisable (c.-`a-d. < vi , vj >= 0, {i; j 6= i}) et
constituent donc une base orthogonale (et meme orthonormale puisquils peuvent e tre normalises). Lon peut
alors e crire
A=

n
X

i vi vi .

i=1

Ces proprietes sont aussi vraies pour les vecteurs propres a` gauche.
117

A` propos de la definition positive

A.1.10 Rang dune matrice carree, determinant et valeurs propres


Dans le cas dune matrice carree, lon peut lier la notion de rang a` celle de valeurs propres et de determinant. En
effet, le rang dune matrice est e gal a` son ordre moins le nombre de ces valeurs propres nulles :
Les quatre propositions suivantes sont e quivalentes :
(i) La matrice A est inversible.
(ii) La matrice A est non-singuli`ere (de rang plein).
(iii) 0
/ (A).
(iv) det(A) 6= 0.

A.1.11 Trace dune matrice


Lon definit la trace dune matrice carree A Cl nn par :

trace(A) =

n
X

aii

i=1

La trace de A est donc la somme de ses e lements diagonaux. Lon peut par ailleurs montrer que cest la somme de
ses valeurs propres c.-`a-d. :
trace(A) =

n
X

i=1

De ce fait, toutes les matrices semblables ont la meme trace. La trace est un scalaire complexe, e galement reel si A
est reelle ou si A est complexe mais Hermitienne. En outre, sous reserve de compatibilite des dimensions, lon a :

A.2

trace(AB) = trace(BA)

(A.10)

trace(A + B) = trace(B + A) = trace(A) + trace(B)

(A.11)

` propos de la definition positive


A

A.2.1 Fonction definie positive


Une fonction V (x, t) de Cl n IR+ vers IR est dite localement definie (respectivement semi-definie) positive sil
existe une boule B incluant lorigine de Cl n telle que :
(i) V (0, t) = 0, t IR+ ;
(ii) V (x, t) > 0 (resp. V (x, t) 0), {x; t} B IR+ .
Lorsque la boule B peut setendre a` lespace vectoriel Cl n , lon dit simplement que la fonction V est definie (resp.
semi-definie) positive.
Si V est (localement) definie (resp. semi-definie) positive alors la fonction V est dite (localement) definie (resp.
semi-definie) negative.
Un cas particulier est dun grand interet. Il sagit de celui o`u la fonction V est une forme quadratique cest-`adire repond a` la formulation V (x) = x P x o`u P est une matrice Hermitienne. Ce cas particulier conduit a` la
notion de definition positive dune matrice (voir paragraphe suivant).
118

A` propos de la definition positive

A.2.2 Matrices Hermitiennes definies en signe


Une matrice Hermitienne P est definie (resp. semi-definie) positive si et seulement si

x P x > 0 (resp.) x P x 0,

x 6= 0

Si la propriete est verifiee, alors la matrice Hermitienne P est definie (resp. semi-definie) negative.
La definition en signe dune matrice Hermitienne est par definition e quivalente a` celle de la forme quadratique
associee.
Quelques proprietes :

P
P
P
P
P
P

= P
= P
= P
= P
= P
= P

> 0 (P ) IR+ ;
0 0 (P ) {IR+ 0} ;
> 0 P 1 = (P 1 ) > 0 ;
> 0 det(P ) 6= 0 ;
0 det(P ) = 0 ;
> 0 P admet une racine carree notee P 1/2 telle que

P = (P 1/2 )2 ;
P 1/2 > 0 ;

((P 1/2 )1 )2 = P 1 ;

M Cl nn et det(M ) 6= 0 P = M M > 0 ;
M Cl nn et det(M ) = 0 P = M M 0 ;
P > 0 (resp. 0) P admet une decomposition dite de Cholesky : P = S S avec det(S) 6= 0 (resp.
det(S) = 0).

119

Annexe B

` propos du regime transitoire


A
Dans cette annexe, lon revient quelque peu sur la notion de regime transitoire ou, plus exactement, sur les e lements
qui influent sur le regime transitoire de la reponse dun mod`ele LTI. Parmi ces e lements, lon peut bien sur citer
les poles dont linfluence a e te e tablie dans le corps de ce document, mais aussi les vecteurs propres et les zeros du
syst`eme.
Pour simplifier, la matrice A est toujours supposee diagonalisable dans ce qui suit.

B.1 Influence du spectre de la matrice detat


Lon suppose que le syst`eme est en regime libre et est soumis a` une perturbation instantanee (impulsionnelle)
representee par une condition initiale x0 = x(t0 ). Lon sinteresse alors a` la reponse du syst`eme autonome x = Ax
qui est la solution dun syst`eme dequations differentielles de premier ordre et est donne par
x(t) = eAt x0 .
Si lon introduit la structure propre (cf. paragraphe A.1.9.1) de A dans cette expression, lon obtient :
x(t) =

n
X

vi ei t ui x0 .

(B.1)

i=1

Or, la decomposition de x0 dans la base constituee par les vecteurs propres a` droite de A peut sexprimer par la
combinaison lineaire suivante :
x0 =

n
X

j vj .

j=1

Do`u lon obtient


x(t) =

n
X
i=1

n
X
j vj .
vi ei t ui
j=1

Compte tenu de la condition (A.9) qui am`ene ui vj = 0, {i, j 6= 0} {1, ..., n}2 et ui vi = 1, i {1, ..., n},
lon a
x(t) =

n
X

i ei t vi .

i=1

121

(B.2)

Influence des vecteurs propres de A

Lon appelle mode reel la quantite ei t vi lorsque i est reel et mode complexe la quantite (ei t vi + ej t vj ) IR
lorque i = j {Cl IR}. Cette expression est essentielle car lon constate que tous les termes de la reponse
convergent vers zero (donc le syst`eme est BIBO-stable) si et seulement si toutes les valeurs propres de A (parfois
e galement appelees abusivement modes ) sont a` partie reelle negative. Plus precisement, lon voit bien que le
syst`eme retrouve dautant plus vite sa position dequilibre a` lorigine que les parties reelles des valeurs propres de
A sont tr`es negatives (lon parle de modes lents ou dominants et de modes rapides ou domines). La rapidite de la
reponse depend de toute e vidence des modes les plus lents. Bien entendu, la valeur de letat initial x0 conditionne
aussi la forme de la reponse par le biais de {i , i {1, ..., n}}.
De plus, lon remarque que lexistence de valeurs propres complexes conjuguees induit un comportement oscillatoire dans la reponse du syst`eme. En effet, un mode complexe fait apparatre un sinus dans cette reponse. Le
caract`ere oscillatoire dun mode complexe est dautant plus marque que le rapport (en valeur absolue) entre la
partie imaginaire et la partie reelle des valeurs propres correspondantes est e leve. Pour des syst`emes de deuxi`eme
ordre (n = 2), ces considerations sont prises en compte pour definir un coefficient damortissement et une
pulsation propre non amortie e
galement definis dans le cadre du cours sur lapproche frequentielle. Selon les
valeurs de ces indicateurs, la nature de la reponse peut varier dune absence doscillation a` une tr`es forte oscillation en passant par un leger depassement. Lon se ref`ere souvent a` ces indicateurs pour caracteriser la dynamique
dominante dun syst`eme dordre plus e leve (n > 2) et donc ses performances en termes de temps de reponse,
depassement maximal, etc. Neanmoins, il importe de savoir que linfluence de chaque mode nest pas toujours
simplement dictee par la position de la (ou des) valeur(s) propre(s) associee(s).
Ce quil convient de retenir est que la localisation des valeurs propres de A dans le plan complexe (en particulier
les modes dominants) est extremement utile pour caracteriser le comportement dun syst`eme ou pour specifier les
performances souhaitees dun procede a` commander. Le spectre de A revet donc une importance capitale dans le
comportement du syst`eme. Les vecteurs propres associes ont e galement une influence puisquils apparaissent dans
(B.2). Leur influence est un peu mieux explicitee dans le paragraphe suivant.

B.2 Influence des vecteurs propres de A


B.2.1

Couplage modes/sortie

Dans la reponse du syst`eme en regime libre (B.2), lon voit clairement apparatre les vecteurs propres a` droite de
A. Cette relation peut e tre ainsi detaillee :

x1 (t)
v11
vn1

..
.
.
t
t

= 1 e 1 .. + . . . + n e n .. .
.
xn (t)
v1n
vnn

(B.3)

Lon constate en examinant la relation (B.3) que la composante vij distribue leffet du mode i sur letat xj . Ainsi,
annuler vij revient a` e liminer linfluence de i sur xj . Lon en deduit que :
Les vecteurs propres a` droite sont significatifs du couplage entre existant entre le spectre de A et le vecteur
detat.
Lorsque lon sinteresse a` la sortie y, la matrice C exprime alors le couplage entre x et y donc plutot que les vecteurs
propres, ce sont les scalaires Cvi quil convient detudier. Lon peut alors analyser le decouplage modes/sortie.
Les scalaires Cvi sont significatifs du couplage entre le spectre de A et la sortie y.
Cette assertion est vraie pour un syst`eme en boucle ouverte (il faut alors regarder les vecteurs propres a` droite de
la matrice A) mais aussi pour un syst`eme boucle (il faut alors e tudier les vecteurs propres a` droite de la matrice
Af = A + BK).
Remarque B.1 Lorsquun scalaire Cvi est nul, cest-`a-dire lorsque la sortie nest pas affectee par le mode i ,
ceci signifie que ce mode devient non observable.

122

Influence des vecteurs propres de A

B.2.2

couplage modes/commandes en boucle fermee

Lon rappelle quune loi de commande de type retour detat est de la forme
u(t) = Kx(t).
Pour les besoins de lexplication, le terme de precommande est omis cest-`a-dire que le syst`eme boucle est considere en regime libre. Compte tenu de lexpresson de x(t), il vient

u(t) =

n
X

i Kvi =

i=1

n X
n
X

i ei t kj vij .

(B.4)

i=1 j=1

La relation (B.4) pemet de comprendre comment les vecteurs propres interviennent dans la repartition de leffet
des modes sur la commande du syst`eme boucle 1 . Il va de soi quen cas de bouclage comme ci-dessus, les scalaires
i designent les valeurs propres de Af et les vi designent leurs vecteurs propres a` droite associes.
Dans le cas dun mod`ele LTI boucle par retour detat u(t) = Kx(t), les vecteurs Kvi sont significatifs du
couplage entre existant entre le spectre de A et la commande u.

B.2.3

Couplage modes/consigne en boucle fermee

Cette fois-ci, la precommande est presente de sorte que le syst`eme nest pas en regime libre et la loi de commande
est :
u(t) = Kx(t) + Hyc (t).
La reponse du syst`eme au niveau de son vecteur detat est
x(t) =

eAf (t ) BHyc ( )d

x(t) = V

e(t ) U BHyc ( )d.

x(t) =

n
X
i

vi

ei (t ) ui BHyc ( )d =

n X
n
X
i

j=1

vi

ei (t ) uij bj Hyc ( )d.

(B.5)

Grace a` (B.5), lon comprend que le produit ui B est significatif de linteraction entre le signal de consigne et
le mode i . Ainsi, si ce produit est nul (ui et B sont alors orthogonaux), le mode i de la matrice dynamique
Af = A + BK nest pas excite par la consigne.
Les vecteurs propres a` gauche ont une influence preponderante sur la repartition de lexcitation en consigne
sur les modes.

Remarque B.2 Lorsque le scalaire ui B est nul et quainsi le signal de consigne nexcite pas le mode i , alors le
mode i est non commandable.
1. et non pas sur la consigne du syst`eme boucle

123

Influence des zeros

B.2.4

En resume sur les vecteurs propres

Il apparat que leffet du monde exterieur sur la dynamique interne dun syst`eme LTI est decrit par la
structure propre a` gauche alors que la repartition de cette dynamique sur les sorties est essentiellement
decrite par la structure propre a` droite.

B.3 Influence des zeros


B.3.1

Les zeros dun mod`ele detat

Il est possible de definir les zeros dun syst`eme dans lespace detat. Dans le cadre des syst`emes multivariables,
les definitions sont multiples et conduisent a` quatre, voire cinq types de zeros dont les caracterisations ne sont pas
e quivalentes. En monovariable, de mani`ere un peu simpliste, lon peut definir les zeros dun syst`eme comme les
valeurs de z Cl telles que la matrice


zI A B
M (z) =
C
D
presente une deficience de rang. Lon note quil nest pas aise de determiner les zeros dune realisation mais cette
definition a lavantage dutiliser une representation detat.
Si la realisation est minimale (enti`erement commandable et observable) alors, les zeros sont les racines du polynome
N (p), le numerateur de la fonction de transfert G(p). Dans le cas dune realisation non minimale, il peut exister
des valeurs des zeros de la realisation qui ne sont pas racines de N (p). Ceci resulte dune compensation dans G(p)
du facteur (p z) de N (p) avec un facteur (p z) du denominateur D(p) (compensation pole/zero caracteristique
des mod`eles non-commandables ou non observables (cf. paragraphe 6.5)).
Les zeros a` partie reelle negative sont qualifies de stables et ceux a` partie reelle positive sont qualifies dinstables.

B.3.2

Contribution des zeros

Meme si les zeros ne determinent pas la stabilite du syst`eme LTI, il va de soi quils ont une influence sur le
comportment transitoire du syst`eme. En effet, si lon e crit la fonction de transfert

G(p) =

m
Y

(p zj )

j=1
n
Y

(p i )

i=1

alors une decomposition en e lements simples conduit a`


G(p) =

n
X
i=1

ri
.
(p i )

(B.6)

Lon comprend en appliquant la transformee de Laplace inverse sur (B.6) et par une comparaison avec (B.1) (qui
nest pas detaillee ici) que les residus ri , qui sont dependants de la valeur des zeros zi , sont e troitement lies mais
` ce titre, ils ont donc une importance sur le comportement
de mani`ere non triviale, aux vecteurs propres vi et ui . A
transitoire du syst`eme. De meme par comparaison avec (B.5).
Mais il est assez difficile et souvent peu rigoureux dapprecier correctement leffet dun zero sur le regime transitoire. Pour resumer tr`es grossi`erement cet effet :
les zeros compenses par des poles non commandables et non observables nont aucun effet sur le regime transitoire dune reponse sur la sortie y ;
124

Influence des zeros

les zeros proches dun pole dans le plan complexe sont faiblement influents ;
les zeros instables ont tendance a` generer un depassement de la reponse indicielle vers le bas alors que les zeros
stables contribuent a` leventuel depassement vers le haut.

125

Annexe C

Formule dAckermann pour le placement


de poles par retour detat
Lon se propose, dans cette annexe, de resoudre le probl`eme du placement de poles par retour detat en utilisant la
formule dite dAckermann . Cette formule est justifiee par le raisonnement ci-dessous.

C.1

Rappel du probl`eme

Soit le syst`eme differentiel lineaire de premier ordre :


x = Ax + Bu,

x IRn ,

u IR.

(C.1)

Lon rappelle que le probl`eme du placement de poles consiste a` trouver un vecteur K, associee a` la loi de commande
u = Kx, de sorte que
det(pI Af ) = Dd (p) =

n
Y

(p i ).

i=1

La matrice Af = A + BK est la matrice dynamique du syst`eme boucle


x = Af x.

(C.2)

Le polynome Dd (p) est le polynome caracteristique desire pour ce syst`eme boucle. Les scalaires i , i = 1, ..., n,
sont les racines de ce polynome, cest-`a-dire les poles desires. La paire de matrices (A, B) est supposee commandable.

C.2

Resolution selon Ackermann

Lon peut e crire le polynome Dd (p) de la facon suivante :


Dd (p) = pn + n1 pn1 + . . . + 1 p + 0 .
Or, dapr`es le theor`eme de Cayley-Hamilton, toute matrice carree verifie son propre polynome caracteristique et
lon a
Dd (Af ) = 0.
Les differentes puissances de Af jusqu`a lordre n peuvent e tre ainsi exprimees :
127

(C.3)

Resolution selon Ackermann

0
Af

A1f

A3f
Af

A4f

n
Af

=
=
=
=
=

I
A + BK
A1f (A + BK)
A2f (A + BK)
A3f (A + BK)

Afn1 (A + BK) =

=
=
=

A2 + ABK + BKAf
A3 + A2 BK + ABKAf + BKAf
A4 + A3 BK + A2 BKAf + ABKA2f + BKA3f
..
.
An + An1 BK + An2 BKAf + . . . + ABKAfn2 + BKAfn1

Lequation (C.3) peut alors se recrire


Dd (Af ) = 0 I + 1 A1f + 2 A2f + . . . + n1 Afn1 + n Anf = 0.
= 0 I + 1 A1 + 2 A2 + . . . + n1 An1 + n An
+B(1 K + 2 KAf + 3 KA2f + . . . + KAfn1 )
+AB(2 K + 3 KAf + 4 KA2f + . . . + KAfn2 )
..
.
+An1 BK
= 0

1 K + 2 KAf + 3 KA2f + . . . + KAfn1


n2
2

2 K + 3 KAf + 4 KAf + . . . + KAf
AB . . . An1 B
..

.
K

Dd (Af )

Dd (A) +

Lon reconnat, dans legalite ci-dessus, la matrice de commandabilite de Kalman


Qc =

AB

. . . An1 B

=0

qui est inversible puisque la paire (A, B) est supposee commandable. Ainsi, par inversion de Qc , lon obtient

1 K + 2 KAf + 3 KA2f + . . . + KAfn1


2 K + 3 KAf + 4 KA2 + . . . + KAn2
f
f

.
..

Pour obtenir K, il suffit dextraire la derni`ere ligne de cette e quation :

K=

... 0 1

Cette formule est appelee formule dAckermann.

128

= Q1
c Dd (A).

Q1
c Dd (A).

(C.4)

Annexe D

` propos de Z
A
D.1 Proprietes de Z
Linearite
Z[

n
X

(i {fk }i )] =

(i Z [{fk }])

i=1

i=1

Multiplication par k

n
X

Z [k {fk })] = F (1 z)
Multiplication par ekT
Z [ekT {fk })] = F (zeT )
(Ici, T designe la periode dechantillonnage si elle est definie).
Produit de convolution
Z [{f g}k ] = F (z)G(z)
o`u loperateur symbolise le produit de convolution {f }k {gk } = {hk } defini par
hk =

fl gkl =

l=

Theor`eme du retard

fkl gl

k IN.

l=

Z [{fkl }] = z l Z [{fk }] = z l F (z)

Theor`eme de lavance
Z [{fk+l }] = z l

Z [{fk }]

l1
X

fi z i

i=0

Theor`eme de la valeur initiale

= zl

F (z)

f0 = lim F (z)
z

Theor`eme de la valeur finale


lim fk = lim

sous reserve que les poles de (1 z

k
1

zto1


(1 z 1 )F (z) ,

)F (z) soient dans le disque unitaire.

129

l1
X
i=0

fi z i

Tableau de transformees

D.2 Tableau de transformees


Voici quelques transformees pour des signaux usuels :

Signal continu
f (t), t 0

Transformee de Laplace
F (p)

Signal e chantillonne
fk , k IN

Transformee en z
F (z)

Impulsion de Dirac (t)

f0 = 1, fk = 0, k 6= 0

Echelon
damplitude E c.-`a-d. E(t)

E
p

fk = E

Ez
z1

Rampe de pente b c.-`a-d. bt

b
p2

fk = bT

bT z
(z 1)2

eat

1
p+a

fk = eakT

z
z eaT

teat

1
(p + a)2

fk = kT eakT

T zeaT
(z eaT )2

sin(t)

p2 + 2

z sin(T )
z 2 2z cos(T ) + 1

cos(t)

p
p2 + 2

z(z cos(T ))
z 2 2z cos(T ) + 1

1 eaT

a
p(p + a)

z(1 eaT )
(z 1)(z eaT )

Retard pur c.-`a-d. g(t hT )

ehT p G(p)

De nombreux ouvrages permettent de completer ce tableau.

130

ak

z
za

fk = gkh

z h G(z)

Annexe E

Lyapunov et les syst`emes lineaires


Cette annexe a pour but de montrer que les inegalites de Lyapunov peuvent e tre obtenues independamment de la
seonde methode et de son theor`eme fondamental.

E.1 Le cas continu


Theor`eme. La matrice A est stable au sens au sens de Hurwitz si et seulement sil existe une matrice P
symetrique definie positive (dite matrice de Lyapunov), solution de
Mc = A P + P A < 0.

(E.1)

La demonstration (simplifiee) est en fait assez aisee.


Suffisance : (E.1) est supposee verifiee. Pour toute valeur propre i de A, il existe un vecteur non nul vi tel que
Avi = i vi . Ainsi,
vi Mc vi = (i + i )vi P vi < 0.
Puisque P > 0, alors vi P vi > 0, ce qui implique
i + i < 0,
qui nest autre que lequation dappartenance de i au demi-plan gauche ouvert.
Necessite : pour simplifier, lon suppose que A a des valeurs propres distinctes mais ce raisonnement peut sadapter
au cas des valeurs propres multiples. Si ces valeurs propres sont supposees dans le demi-plan gauche ouvert, lon a
i + i < 0,

i {1, . . . , n}

M = + < 0,
o`u
= diag {i }.
i=1,...,n

Soit V la matrice modale de A telle que = V 1 AV , il vient


M = (V 1 ) A V + V AV 1 < 0
V M V = A V V + V V A < 0,
qui nest autre que (E.1) avec le choix P = V V . QED
131

(E.2)

Le cas e chantillonne

E.2 Le cas discret


Theor`eme. La matrice A est stable au sens au sens de Schur si et seulement sil existe une matrice P
symetrique definie positive (dite matrice de Lyapunov), solution de
Md = P + A P A < 0.

(E.3)

La demonstration (simplifiee) est l`a encore assez aisee.


Suffisance : (E.3) est supposee verifiee. Pour toute valeur propre i de A, il existe un vecteur non nul vi tel que
Avi = i vi . Ainsi,
vi Md vi = (1 + i i )vi P vi < 0.
Puisque P > 0, alors vi P vi > 0, ce qui implique
1 + i i < 0,
qui nest autre que lequation dappartenance de i au disque unitaire ouvert.
Necessite : pour simplifier, lon suppose que A a des valeurs propres distinctes mais ce raisonnement peut sadapter
au cas des valeurs propres multiples. Si ces valeurs propres sont supposees dans le disque unitaire ouvert, lon a
1 + i i < 0,

i {1, . . . , n}

M = In + + < 0,
avec (E.2). Soit V la matrice modale de A, il vient
M = In + (V 1 ) A V V AV 1 < 0
V M V = V V + A V V A < 0,
qui nest autre que (E.3) avec le choix P = V V . QED

E.3 Le cas e chantillonne


Ici, il est montre que toute matrice de Lyapunov dun mod`ele lineaire continu est aussi matrice de Lyapunov du
mod`ele e chantillonne associe (la reciproque est fausse !).
Soit P = P > 0, la matrice de Lyapunov assurant de la stabilite au sens de Hurwitz de Ac . Il vient donc
Mc = Ac P + P Ac < 0,

(E.4)

et par consequent, si lon consid`ere la fonction de Lyapunov quadratique V (x(t)) = x (t)P x(t), sa derivee temporelle V (x(t)) = x (t)(A P + P A)x(t) est strictement negative. Ainsi, V (x(t)) est strictement decroissante par
rapport au temps et lon a donc, pour deux instants dechantillonnage successifs kT et (k +1)T (o`u T est la periode
dechantillonnage),
V (x(k + 1)T ) < V (x(kT )),
qui se recrit

x ((k + 1)T )P x((k + 1)T ) = x(kT )eAc T P eAc T x(kT ) < x (kT )P x(kT ).
Puisque A = eAc T , de cette derni`ere inegalite lon deduit
132

Le cas e chantillonne

Md = P + A P A < 0,

(E.5)

qui am`ene la conclusion suivante :

Toute matrice de Lyapunov du mod`ele lineaire continu dun procede est aussi matrice de Lyapunov du
mod`ele discret lineaire du syst`eme e chantillonne associe.

Remarque E.1 Pour demontrer que lon peut choisir arbitrairement Q < 0 telle que Mc = Q (respectivement
Md = Q) admette une solution unique P > 0, la technique consiste a` montrer que resoudre cette e quation revient
a` resoudre un syst`eme lineaire dequations scalaires possedant une unique solution. Cet aspect nest cependant
pas detaille ici car toute la subtilite est de montrer que le syst`eme est bien pose.

133

Le cas e chantillonne

134

Annexe F

` propos des grammiens


A
Dans cette annexe, quelques explications sur linterpretation des grammiens et leur proprietes sont apportees.

F.1 Signification des grammiens


Apr`es avoir defini les grammiens au paragraphe 6.4, lon se propose ici de setendre sur le sujet en donnant une
signification physique aux grammiens dans le cadre des syst`emes discrets. Lon proc`ede ensuite bri`evement par
analogie pour traiter le cas des syst`emes continus.
Soit le syst`eme discret suivant :

xk+1

yk

Axk

Cxk

Buk

Lon atteste ou non de la commandabilite de ce syst`eme selon le rang de la matrice de commandabilite (voir
9.6.2) :
Qc

[B AB ... An1 B]

Lon rappelle que letat final souhaite peut e tre atteint en n coups ou plus (cf. Remarque 9.5). Il faut aussi noter
que, partant de lorigine :
xf

An1 Bu0 + An2 Bu1 + ... + ABun2 + Bun1

xf

Qc Un

o`u
Un

[un1

... ,

u0 ].

La solution Un de la commande necessaire pour atteindre letat xf , du point de vue de la norme minimale est
(resolution dun probl`eme doptimisation classique) :
Un

Qc (Qc Qc )1 xf .

Ceci veut dire que, pour atteindre letat final xf a` partir de x0 = 0, il faut une e nergie minimale de commande :
n1
X

uk uk

xf (Qc Qc )1 xf

k=0

On appelle grammien transitoire de commandabilite la matrice :


135

Invariance des valeurs propres de Wc Wo

Wc (n)

Qc QTc

n1
X

Ak BB T (Ak )T .

(F.1)

k=0

Wc (n) est une matrice definie positive, donc il existe une transformation de matrice U unitaire telle que
Wc (n)

U DU .

avec la matrice diagonale ordonnee D = diag (di ) o`u di 0, i{1, . . . , n}.


i=1,...,n

Soit la transformation xk = U xk (qui preserve la norme de x). Dans la nouvelle base, lenergie minimale de
commande necessaire pour atteindre ei = [0, ..., 0, 1, 0, ..., 0] est donnee par di1 . Si di est nul, la ie` me composante de letat nest pas commandable (energie infinie) en n coups. D apparat donc, dans la nouvelle base,
comme la matrice de ponderation dun crit`ere denergie de commande (en partant de zero).
Si lon ne sinteresse pas a` la commande en n coups mais en un nombre infini de coups, lon peut definir :
Wc = lim Wc (n)

(F.2)

qui est dit grammien de commandabilite.


Or,
Wc (n + 1) = AWc (n)A + BB ,
ce qui donne, a` linfini, lequation de Lyapunov :
Wc = AWc A + BB
Dans le cas des syst`emes continus, lon ne peut donner de signification physique aussi claire a` la matrice de
commandabilite mais Wc (n) a pour e quivalent le grammien transitoire de commandabilite sur un horizon :
Z
T
eAt BB T eA t dt
Wc ( ) =
0

Sur un horizon de temps infini, lon obtient le grammien de commandabilite Wc (6.8) verifiant (6.10).
Remarque F.1 Rappel : pour traiter le grammien dobservabilite, lon raisonne par dualite.

F.2 Invariance des valeurs propres de Wc Wo


Lon donne ici, dans le cas discret, la demonstration de lassertion formulee a` la remarque 6.2 selon laquelle les
valeurs propres de Wc Wo , le produit des deux grammiens, sont invariantes par changement de base.
Soit une realisation R = {A, B, C} soumise au changement de variable z = T 1 x, alors :
R = {A, B, C}

T 1

RT = {T 1AT , T 1 B , CT }

et, si lon definit respectivement Qc et Qo comme les matrices de commandabilite et dobservabilite sur un
horizon de temps ou dechantillons infini, c.-`a-d.,



Qc = lim B AB . . . Ak1 B
k 

Qo = lim C A C . . . (A )k1 C ,
k

alors il vient

Qc

T 1

T 1 Qc

et Qo

136

T 1

Qo T.

Invariance des valeurs propres de Wc Wo

Par suite, compte tenu de (F.1) et (F.2), et par dualite :


T 1

T 1 Wc T T

Wc
Wo

T 1

T T Wo T.

Finalement :
Wc Wo

T 1

Wc Wo

(T 1 Wc T T )(T T Wo T )
T 1

T 1 Wc Wo T

Le produit des grammiens est transforme en une matrice semblable, donc ses valeurs propres sont conservees. QED.
La demonstration dans le cas continu est quelque peu differente. Soit toujours la matrice de changement de base
T . Il vient :
Z

T 1
T 1 eA T T 1BB (T )1 T eA (T )1 d = T 1 Wc (T )1 .
7
Wc
0

et
Wo

T 1

T eA (T )1 T C CT T 1eA T d = T Wo T.

La fin de la demonstration est alors identique a` celle du cas discret. QED

137

Annexe G

M ATLAB et la representation detat


Le logiciel M ATLAB de la societe T HE M ATH W ORKS I NC . est originellement un logiciel de calcul matriciel. Il
sest specialise dans differentes disciplines au cours des annees en fonction de la client`ele interessee. Comme de
nombreux automaticiens utilisaient M ATLAB, il sest e toffe, entre autres, en fonctions dediees a` lautomatique, tant
pour lapproche frequentielle que pour lapproche temporelle. Outre le logiciel de base, lon peut faire lacquisition
de quelques botes-`a-outils et certaines dentre elles sont specifiques aux probl`emes dAutomatique, en particulier
la C ONTROL T OOLBOX ..
Initialement plutot utilise par des chercheurs, M ATLAB est aujourdhui tr`es repandu dans le monde universitaire
mais aussi dans le monde industriel.
Il sagit ici de presenter quelques fonctions du logiciel accessibles dans la version de base ou dans la bote-`a-outils
C ONTROL. Ne sont donnees que des fonctions basiques ou liees a` la representation detat, reprenant quelques
notions de ce cours. Le logiciel est expose dans sa version 6 .

G.1 Fonctions mathematiques de base


Comme M ATLAB est un logiciel de calcul matriciel, lentite de base est une matrice. Aussi, les vecteurs et les
scalaires ne sont vus que commes des matrices particuli`eres. Dans ce qui suit, lon consid`ere uniquement des instructions tapees directement dans lenvironnement de travail de M ATLAB.
Ainsi lon peut definir, par exemple, un vecteur ligne v de trois composantes de la facon suivante :
>> v=[1 2 3]
v =
1

Le premi`ere ligne avec le prompt >> correspond a` linstruction et les autres correspondent au resultat affiche
par M ATLAB. La variables v est alors enregistree dans lenvironnement et disponible a` tout moment. La liste des
variables actives est donnee par linstruction who.
Un vecteur colonne peut e tre genere de deux facons :
>> v=[1;2;3]
v =
1
2
3
139

Fonctions mathematiques de base

>> v=[1 2 3];


La premi`ere instruction fait apparatre un point virgule entre les composantes pour indiquer un changement de
ligne dans une matrice. Lautre utilise loperateur de transposition conjugaison sur lequel lon reviendra plus loin.
Le second resultat (identique au premier) nest pas affiche par M ATLAB comme le stipule le point virgule en fin
dinstruction.
Les composantes dun vecteur ou dune matrices peuvent e tre complexes. Ainsi les variables i ou j sont-elles
predefinies dans M ATLAB et e gales a` lunite imaginaire. Il importe donc de ne pas les e craser en redefinissant des
variables avec le meme identificateur. Lon dispose dun operateur de conjugaison
>> v=[1 1+i];
>> conj(v)
ans =
1.0000

1.0000 - 1.0000i

et de loperateur de transposition conjugaison


>> v
ans =
1.0000
1.0000 - 1.0000i
Le caract`ere entrane donc la conjugaison des e ventuelles composantes complexes et une simple transposition
doit se faire en associant conj et . Pour les matrices reelles, il ny a pas de difference entre loperateur et la
transposition simple. Voici comment saisir une matrice reelle et la transposer :
>> M=[1 2;3 4]
M =
1
3

2
4

1
2

3
4

>> M
ans =

Certaines matrices particuli`eres peuvent e tre saisies par des fonctions speciale telles que
>> I2=eye(2)
I2 =
1
0

0
1

>> zeros(3,2)
140

Fonctions mathematiques de base

ans =
0
0

0
0

0
0

>> ones(3,2)
ans =
1
1

1
1

1
1

eye permet de construire une matrice identite, zeros une matrice nulle et ones une matrice emplie de composantes unitaires.
De meme, il est facile dextraire des sous-matrices :
>> I2(:,2)
ans =
0
1
>> I2(2,2)
ans =
1
>> M(1:2,2)
ans =
2
4
Entre parenth`eses apparaissent les lignes et les colonnes conservees. Les deux points seuls indiquent que toutes les
lignes ou toutes le colonnes de la matrice sont prises en compte. x:y correspond aux lignes ou colonnes de x a` y.
M ATLAB propose e videmment quantite de fonctions danalyse matricielle parmi lesquelles rank et det qui
permettent de calculer le rang ou le determinant dune matrice :
>> rank(M)
ans =
2
>> det(M)
ans =
-2
141

Fonctions mathematiques de base

Lon peut bien sur calculer la somme de deux matrices (ou plus) ou meme le produit :
>> M+M
ans =
2
6

4
8

>> M*M
ans =
7
15

10
22

ce qui conduit a` la possibilite de definir les puissances de matrices :


>> M=M2
ans =
7
15

10
22

Lexposant qui suit loperateur peut e tre non entier de sorte que (1/2) correspond a` la racine carree matricielle.
Il existe aussi la fonction exp qui calcule lexponentielle dune matrice.
Pour calculer linverse dune matrice, lon utilise la fonction inv :
>> inv(M)
ans =
-2.0000
1.5000

1.0000
-0.5000

Les valeurs propres sont disponibles ainsi :


>> L=eig(M)
L =
-0.3723
5.3723
Mais lon peut aussi obtenir une matrice modale :
>> [V,L]=eig(M)
V =

142

Fonctions liees au mod`ele detat

-0.8246
0.5658

-0.4160
-0.9094

-0.3723
0

0
5.3723

L =

Enfin, pour tester le definition en signe dune matrice Hermitienne, lon peut tester le signe de ses valeurs propres :
>> Z=M*M;
>> eig(Z)
ans =
0.1339
29.8661

Dans le cas de Z, elles sont positives donc la matrice est definie positive, ce qui est e vident e tant donnee la mani`ere
dont Z est construite.
Remarque G.1 A` toute fonction M ATLAB est associee une aide en ligne obtenue grace a` linstruction help.
Exemple :
>> help lsim

G.2 Fonctions liees au mod`ele detat


Dans cette partie, quelques fonctions M ATLAB relatives a` lutilisation du mod`ele detat sont presentees.
Lon constitue dabord un syst`eme :
>>
>>
>>
>>

A=[-9 -10;5 5];


B=[1;1];
C=[1 0];
D=0;

Le spectre de la matrice detat de ce mod`ele dordre 2 est donne par


>> eig(A)
ans =
-2.0000 + 1.0000i
-2.0000 - 1.0000i
Lon peut regrouper des quatres matrices en une seule car M ATLAB propose des variables de type
LTI .
sys=ss(A,B,C,D);
La fonction inverse qui permet de recuperer les matrices a` partir de la variable sys est :
[A,B,C,D]=ssdata(sys);
143

syst`eme

Fonctions liees au mod`ele detat

Ensuite, lon peut tout faire a` laide de cette variable sys. Ainsi, lon peut obtenir la fonction de transfert :
>> [Num,Den]=tfdata(sys)
Num =
[1x3 double]

Den =
[1x3 double]
Un syst`eme e tant e ventuellement multivariable, il est possible quil existe plusieurs numerateurs et denominateurs
pour une ce qui est alors une matrice de transfert. Cest pouquoi M ATLAB fournit une cellule de numerateurs
et une cellule de denominateurs. Dans le cas monovariable ci-dessus, les cellules ne contiennent quun e lement
que lon peut extraire.
>> Num{1}
ans =
0

1.0000

-15.0000

4.0000

5.0000

>> Den{1}
ans =
1.0000

Les vecteurs obtenus contiennent les coefficients du numerateur N (p) et du denominateur D(p) de la fonction de
transfert G(p) dans lordre des puissances decroissantes cest-`a-dire que lon obtient en fait :
G(p) =

p2

p 15
.
+ 4p + 5

Lon peut aussi appliquer linstruction


>> [Num,Den]=ss2tf(A,B,C,D);
si la fonction sys na pas e te utilisee au pealable.
Le passage inverse est possible :
>> [A,B,C,D]=tf2ss(N{1},D{1})
A =
-4.0000
1.0000

-5.0000
0

B =
1
0

144

Fonctions liees au mod`ele detat

C =
1.0000

-15.0000

D =
0
et la realisation fournie est de type compagne. Les instructions
>> roots(Num{1})
ans =
15.0000
>> roots(Den{1})
ans =
-2.0000 + 1.0000i
-2.0000 - 1.0000i
permettent respectivement de calculer les racines de N (p) et D(p), cest-`a-dire les zeros et les poles de la fonction
de transfert. Le syst`eme est donc asymptotiquement stable et lon peut le verifier par resolution de lequation de
Lyapunov avec Q = I2 :
>> Q=eye(2);
>> P=lyap(A,Q)
P =
0.7500
-0.5000

-0.5000
0.5500

>> eig(P)
ans =
0.1401
1.1599
La derni`ere instruction permet de verifier que les valeurs propres de la matrice de Lyapunov P sont positives et
donc que cette matrice est definie positive.
Les reponses impulsionnelles se tracent grace aux fonctions impulse et step :
>> impulse(sys)
>> step(sys)
Les resultats sont donnes par les figures G.1 et G.2
Il est possible dajouter une grille a` une figure avec la fonction grid, de modifier les e chelles grace a` la fonction
axis, de tracer plusieurs courbes sur une meme figure grace a` hold on et hold off. Lediteur de figures
permet de nombreuses modifications de legendes, etc et lon peut cliquer sur toute courbe pour connatre les coordonnees du point indique.
145

Fonctions liees au mod`ele detat

Impulse Response
1

0.5

Amplitude

0.5

1.5

2.5

0.5

1.5

2.5

Time (sec)

F IGURE G.1 Reponse impulsionnelle a` conditions initiales nulles


Step Response
0.5

0.5

Amplitude

1.5

2.5

3.5

0.5

1.5

2.5

Time (sec)

F IGURE G.2 Reponse indicielles a` conditions initiales nulles


Il est e galement possible de tracer une reponse a` une condition initiale (xinitial) ou encore la reponse a` nimporte quelle entree construite sous forme de vecteur (lsim).
La reponse harmonique est e galement tracable dans ses representations graphiques classiques :
>>
>>
>>
>>
>>
>>

bode(sys)
grid
nyquist(sys)
grid
nichols(sys)
grid
Bode Diagram
10

Magnitude (dB)

10

20

30

40
180

Phase (deg)

135
90
45
0
45
90
1

10

10

10

10

Frequency (rad/sec)

F IGURE G.3 Diagramme de Bode


Lon note que le diagramme de Black, dont la paternite est parfois aussi attribuee a` Nichols est correspond a` la
fonction nichols sous M ATLAB.
Il est par ailleurs possible de connatre les marges de gain, de phase, et les pulsations associees :
>> [Gm,Pm,Wcg,Wcp] = margin(sys)
146

Fonctions liees au mod`ele detat

Nyquist Diagram
0 dB

2 dB

2 dB

1.5

4 dB

4 dB

1
6 dB

6 dB

Imaginary Axis

0.5

10 dB

10 dB

20 dB

20 dB

0.5

1.5

2.5

1.5

0.5

0.5

Real Axis

F IGURE G.4 Lieu de Nyquist


Nichols Chart
40
0 dB
30

0.25 dB
0.5 dB

20

10

1 dB

1 dB

3 dB
3 dB

OpenLoop Gain (dB)

6 dB

6 dB

10

12 dB

20

20 dB

30

40 dB

40

50

60
180

60 dB
135

90

45

45

90

135

180

OpenLoop Phase (deg)

F IGURE G.5 Diagramme de Black


Warning: The closed-loop system is unstable.
Gm =
0.3333

Pm =
-129.4032

Wcg =
0

Wcp =
3.4438
Dans lodre, sont obtenus la marge de gain, celle de phase et les pulsations auxquelles elles peuvent respectivement
e tre mesurees. Des marges infinies ou des syst`emes instables en boucle fermee (comme celui-ci) peuvent generer
des messages davertissement.
Si lon sinteresse a` la commandabilite et a` lobservabilite du syst`eme, lon peut tester ces derni`eres a` laide
des crit`eres de Kalman :
>> Qc=ctrb(sys)
147

Fonctions liees au mod`ele detat

Qc =
1
1

-19
10

>> rank(Qc)
ans =
2
>> Qo=obsv(sys)
Qo =
1
-9

0
-10

>> rank(Qo)
ans =
2
Les matrices de commandabilite et dobservabilite Qc et Qo sont construites ci-dessus et lon verifie quelles sont
de rang plein pour attester des proprietes. Lon peut aussi passer par les grammiens de commandabilite Wc et
dobservabilite Wo si le syst`eme est asymptotiquement stable. Ces derniers sont les solutions dune e quation de
Lyapunov mais plutot que dutiliser lyap, lon peut utiliser directement la fonction gram :
>> Wc=gram(sys,c)
Wc =
5.7500
-5.1250

-5.1250
5.0250

>> eig(Wc)
ans =
0.2497
10.5253
>> Wo=gram(sys,o)
Wo =
0.7500
1.2500

1.2500
2.5000

>> eig(Wo)
ans =
148

Fonctions liees au mod`ele detat

0.0992
3.1508
Il convient ensuite de verifier le signe des valeurs propres de ces deux grammiens. Ils sont ici definis positifs donc
le syst`eme est commandable et observable.
Remarque G.2 La fonction minreal permet de reduire une realisation a` une forme minimale cest-`a-dire
compl`etement commandable et observable (au cas o`u elle ne le serait dej`a).
Il existe au moins deux possibilites pour placer les poles du syst`eme. La fonction place est une fonction e crite
pour les syst`emes multivariables pour lesquels la solution du probl`eme de placement de poles nest pas unique. Elle
a des avantages quil nest pas facile dexpliquer ici mais pour le cas monovariable elle presente linconvenient de
ne placer que des poles disctincts. Ainsi peut-on sen servir pour placer les poles 5 et 4 et verifier a posteriori
que le placement est effectue :
>> K=place(A,B,[-5 -4])
K =
5.0000

15.0000

>> Af=A-B*K;
>> eig(Af)
ans =
-5.0000
-4.0000
En revanche la fonction Acker qui repose sur la formule dAckerman (cf. Annexe C), meme si elle ne presente
pas les memes avantages en multivariable, permet de lever lhypoth`ese des poles distincts.
>> K=acker(A,B,[-5 -5])
K =
6.0000

20.0000

>> Af=A-B*K;
>> eig(Af)
ans =
-5
-5
Remarque G.3 Attention ! les fonctions place et acker envisagent une loi de commande u(t) = Kx(t),
cest pourquoi, dans les instructions ci-avant, lon verifie le spectre de Af = A BK.
Remarque G.4 Il est a` noter que M ATLAB propose un outil de simulation avec interface graphique appele
S IMULINK qui permet entre autres de construire des schema-blocs et de simuler le comportement des mod`eles
associes, M ATLAB restant le noyau de calcul.

149

Fonctions liees aux mod`eles discrets

G.3 Fonctions liees aux mod`eles discrets


Un certain nombre de fonctions M ATLAB peuvent sadapter aussi bien aux mod`eles detat discrets quaux mod`eles
detat continus. Cependant, il existe des instructions specifiques pour manipuler les mod`eles discrets. Par exemple,
la fonction c2d permet dechantillonner un syst`eme continu a` une frequence desiree. Si lon reprend lexemple du
paragraphe 9.3.4.2, lon peut executer la suite dinstructions suivante :
>> Ac=[0 1;0 -2];Bc=[0;1];Cc=[1 0];Dc=0;
>> sysc=ss(Ac,Bc,Cc,Dc);
>> sys=c2d(sysc,1,zoh)
a =
x1
1
0

x1
x2

x2
0.4323
0.1353

b =
x1
x2

u1
0.2838
0.4323

c =
y1

x1
1

x2
0

d =
y1

u1
0

Sampling time: 1
Discrete-time model.
La variable sys contient les informations sur le syst`eme obtenu a` partir du syst`eme continu sysc par e chantillonnage
a` T = 1s. Largument zoh (Zero-order hold) stipule quun bloqueur dordre zero est considere. Par defaut, en
labsence de cet arguement, cest loption zoh qui est retenue. Toutefois, il existe dautres possibilites.
Les matrices de la realisation calculee peuvent e tre recuperees comme en continu.
>> [A,B,C,D]=ssdata(sys)
A =
1.0000
0

0.4323
0.1353

B =
0.2838
0.4323

C =
150

Fonctions liees aux mod`eles discrets

D =
0

De plus, il est possible dutiliser la fonction reciproque d2c pour retrouver le mod`ele continu :
>> sysc=d2c(sys)
a =
x1
x2

x1
0
0

x1
x2

u1
0
1

y1

x1
1

y1

u1
0

x2
1
-2

b =

c =
x2
0

d =

En ce qui concerne le trace des reponses, linstruction dimpulse permet de tracer la reponse impulsionnelle du
syst`eme discret. Ainsi lexecution de
>> dimpulse(A,B,C,D)
conduit, pour le syst`eme construit plus haut, a` la figure G.6, mais cette meme reponse est aussi obtenue par
>> impulse(sys)
En effet, la variable sys contient linformation selon laquelle il sagit dun mod`ele discret.
Lon peut noter que la reponse est en escalier mais il est possible de faire apparatre plus clairement les
e chantillons grace a` (voir figure G.7) :
>> impulse(sys,.)
De meme lon peut utiliser indifferemment
>> dstep(A,B,C,D)
ou
>> step(sys)
151

Fonctions liees aux mod`eles discrets

Impulse Response
0.7

0.6

0.5

Amplitude

0.4

0.3

0.2

0.1

10

15

20

25

30

35

40

45

50

Time (sec)

F IGURE G.6 Reponse impulsionnelle discr`ete en escalier


Impulse Response
0.7

0.6

0.5

Amplitude

0.4

0.3

0.2

0.1

10

15

20

25

30

35

40

45

50

Time (sec)

F IGURE G.7 Reponse impulsionnelle discr`ete sans effet descalier


pour obtenir la reponse indicielle du syst`eme (figure G.8).
Lon peut voir que la reponse indicielle diverge puisque le mod`ele continu contient un integrateur. Les instructions
dinitial, initial, dlsim, lsim permettent de tracer des reponses a` des conditions intiales ou a` des
signaux de commande specifies par lutilisateur.
Enfin, il existe les fonctions dlyap et dgram qui permettent respectivement de resoudre une e quation de Lyapunov discr`ete et de calculer un grammien discret, a` lexemple de ce qui peut se faire en continu.

Step Response
25

20

Amplitude

15

10

10

15

20

25

30

35

40

45

50

Time (sec)

F IGURE G.8 Reponse indicielle discr`ete


152

Annexe H

Biographies
Sont presentees ici de br`eves biographies de deux scientifiques dont les travaux apparaissent comme essentiels aux
developpements de lapproche temporelle de type espace detat en Automatique.
Le premier, Alexandr Lyapunov, na pas a` proprement parler contribue a` lelaboration des representations detat
mais son travail a` la charni`ere des XIXe` me et XXe` me si`ecles fut un reservoir extra-ordinaire pour les multiples
developpements dans lespace detat. Ce reservoir nest sans doute pas encore e puise aujourdhui.
Le second, Rudolf Kalman, est quant a` lui celui qui peut sans doute e tre considere comme le p`ere de la representation
detat lineaire. Il a su non seulement jete les idees fondamentales mais aussi contribue de mani`ere intensive aux
developpements relatifs aux syst`emes lineaires.

H.1 Alexandr Lyapunov


Dapr`es un article de P. C. Parks, du Royal Military College of Science (Cranfield, Royaume Uni).

Sa vie
Alexandr Mikhalovich Lyapunov nat a` Iaroslav (Empire russe) le 6 juin 1857 o`u son p`ere dirige un lycee.
Ce dernier dec`ede en 1868 ce qui contraint, en 1870, Madame Lyapunov-M`ere, accompagnee de ses trois enfants, a` demenager vers Nizhny-Novgorod (anciennment Gorki). Cest dans cette ville quAlexandr suit sa scolarite pour obtenir brillamment lequivalent du baccalureat (on lui attribue une medaille dor). Il e tudie alors les
153

Alexandr Lyapunov

mathematiques a` luniversite de Saint-Petersbourg o`u il simpr`egne des cours du Professeur P. L. Chebyshev.


diplome en 1880, empochant au passage une nouvelle medaille dor, il pousuit des e tudes a` la faculte de Mecanique.
Il y soutient, en 1884, sa th`ese sur la stabilie des formes ellipsodales detats dequilibre des fluides en rotation
(traduite en Francais en 1904).
Lannee 1885 est marquee deux e venements : il se marie avec sa cousine au premier degre, Natalia Rafailovna
Sechenova et est nomme privat-dozent au departement de Mecanique de lUniversite de Kharkov. Si de 1885 a`
1888, Lyapunov consacre surtout son temps a` lelaboration de ses enseignements, de 1888 a` 1892, il travaille sur
son sujet de predilection : la stabilite du mouvement. Ce travail aboutit en 1892 a` sa cel`ebre th`ese 1 : Probl`eme
general de la stabilite du mouvement. Il defend ainsi, a` Moscou, son point de vue en presence de N. E. Joukowski,
considere comme le p`ere de laviation russe, ce qui lui vaut un poste de professeur a` Kharkov. Cette fameuse th`ese
fut traduite en Francais (en 1907 a` Universite de Toulouse puis en 1949) mais seulement un si`ecle plus tard (1992)
en Anglais.
Parall`element a` ses activites principales, Lyapunov sinteresse a` la theorie des potentiels, aux probabilites (theor`eme
central-limite de Laplace) et il devient membre de la Societe Mathematique de Kharkov.
Suite a` la mort de Chebyshev en 1894, Lyapunov lui succ`ede en 1902 en tant qu Academicien a` lUniversite de Saint-Petersbourg. Il e tudie alors le probl`eme des formes dequilibre des corps constitues de particules
de fluide en rotation sous leffet dune attraction gravitationnelle newtonienne mutuelle. Il demontre par exemple
que pour les fluides dits en forme de poire , les e tats dequilibre sont instables, contredisant ainsi une theorie
dastronomie en vogue a` lepoque, en particulier un mod`ele de H. G. Darwin, fils du cel`ebre naturaliste.
En juin 1917, la famille Lyapunov demenage a` Odessa, pour raisons de sante. La femme de Lyapunov est tuberculeuse et lui-meme craint la cecite. Le 31 octobre 1918, son e pouse dec`ede. Tr`es affecte par ce drame mais
aussi par lincendie, declenche par les revolutionnaires bolcheviques, qui ravage la biblioth`eque familiale que son
grand-p`ere puis son p`ere avaient constituee sur les bords de la Volga, Lyapunov, depressif, se suicide le jour-meme
a` laide dun pistolet. Il ne meurt que le 3 juin 1918.

Linfluence de son oeuvre


Parmi les contributions significatives de Lyapunov, lon retient surtout sa th`ese. Lon peut citer trois points importants de ce travail : les exposants de Lyapunov, le premi`ere methode de Lyapunov et la seconde methode (egalement
dite methode directe) de Lyapunov. En automatique, cest surtout la seconde methode qui tient le haut du pave.
Lapplication de cette methode au cas des syst`emes lineaires est presentee au paragraphe 5.3.3. Cest a` Lyapunov
que lon doit un principe fondamental : un syst`eme peut-etre instable par rapport a` une mesure et stable par rapport
a` lautre. Cette idee peut paratre anodine dans le formalisme des mod`eles LTI monovariables mais elle clarifie
beaucoup didees a` la fin du XIXe` me si`ecle. Parmi les travaux de Lyapunov, lon peut aussi noter quil exprime la
stabilite dans le plan de phase (espace detat) ouvrant ainsi des perspectives a` lapproche temporelle, ou encore
quil reformule des resultats du mathematicien francais Liouville (1809-1882) relatifs aux syst`emes hamiltoniens.
Comme il a e te mentionne ci-avant, le point clef des travaux de Lyapunov pour un automaticien est la seconde
methode. Elle sinspire des contributions de Laplace, Lagrange, Dirichlet et Liouville ou encore de probl`emes
dastronomie (le maintien en orbite consiste ne un syst`eme simplement stable). Elle donne une interpretation
e nergetique de la stabilite en ce sens que la fonction V (cf. paragraphe 5.3.3), dite de Lyapunov, est une e nergie (au
sens mathematique donc general) qui doit decrotre pour assurer la stabilite. Elle permet de comprendre quil nest
pas toujours necessaire, meme dans une approche temporelle, de resoudre le syst`eme differentiel pour conclure
quant a` la stabilite.
Les consequences scientifiques de la seconde methode sont importantes tant en nombre quen qualite scientifique.
En URSS, elles interviennent surtout avant 1960. Si Lyapunov ne propose que tr`es peu dexemple pratiques, I. G.
Malkin et N. G. Chetayev comprennent que la seconde methode peut e tre appliquee dans un cadre aeronautique
et/ou militaire. Ils obtiennent, vers 1930, des resultats leur permettant de stabiliser la position angulaire dune fusee
1. Il semblerait que cette th`ese soit plus a` comparer a` ce qui e tait appele, auparavant en France, une th`ese detat

154

Rudolf Kalman

ou dun obus, resultats qui ne sont pas sans consequence. De meme, A. I. Lure et A. M. Letov montrent, respectivment en 1957 et 1961, lapplicabilite de la methode directe a` certains probl`emes de commande des mod`eles non
lineaires.
Comme il a e te mentionne dans le paragraphe 3.3, Les Russes parviennent a` mettre Spoutnik en orbite en 1957, les
travaux de Lyapunov, Chetayev, Malkin et autres netant pas e trangers a` cette reussite (cest un euphemisme). Cest
pourquoi le professeur Solomon Lefschetz decide de creer au USA un groupe de recherche charge de promouvoir
en occident la theorie de Lyapunov, groupe parmi lequel figurent J.-P. La Salle, R. E. Kalman et J. E. Bertram. D`es
lors, lapproche temporelle connat un regain dinteret.
En juin 1960, au premier congr`es IFAC de Moscou, Kalman et Bertram font sensation et tout le monde (... ou
presque) souhaite la bienvenue aux representations detat lineaires. Au debut, lon pense quelles napprtent rien
de plus que de simples e quations differentielles mais lutilisation des outils de lalg`ebre lineaire va montrer la
pertinence de loutil et engendrer l automatique moderne . Cest a` partir de ce moment que lon sinteresse a`
nouveau au plan de phase (espace detat) donc aux travaux de Lyapunov.
En 1964, P. C. Parks retrouve, dans lespace detat, les resultats de Routh-Hurwitz. Lon applique la seconde
methode de Lyapunov aux syst`emes lineaires a` temps continu donnant naissance a` ce que lon appelle lequation
de Lyapunov (A P + P A = Q) et son e quivalent en temps discret (P + A P A = Q) dej`a determinee par
Stein en 1952. Elle permet aussi letablissement de crit`eres de stabilite (meme en non lineaire) tels celui de Popov
ou celui du cercle (contributions de Popov, Kalman, Brockett).
Les autres developpements consequents de la seconde methode sont nombreux : e tude des syst`emes dissipatifs,
commande optimale et tous les probl`emes de type Riccati (commande H2 , H , optimisation mixte), probl`eme
dencloisonnement des poles (equations de Lyapunov generalisees (A. G. Mazko en 1980, S. Gutman et E. I. Jury
en 1979 et 1981), un pan entier de la commane robuste, certaines approches detude des syst`emes non-lineaires
(techniques de mode de glissement), syst`emes a` param`etres repartis ou reseaux de neurones, etc.
Encore de nos jous, des conferences sont integralement dediees aux applications des travaux de Lyapunov (exemple : Irkoutsk, 1995) et susceptibles dinteresser les mathematiciens, les physiciens, les mecaniciens, les automaticiens et tant dautres.

H.2 Rudolf Kalman


Dapr`es le Centre Historique de IEEE (Institute of Electrical & Electronics Engineers).

Rudolf E. Kalman est ne a` Budapest le 19 mai 1930. Il decide de suivre les traces de son p`ere, ingenieur e lectricien.
Il e migre aux USA puis obtient son baccalaureat. Il recoit du MIT (Massachusetts Institute of Technology) son master en genie e lectrique en 1954. Il quitte le MIT pour continuer ses e tudes a` lUniversite de Colombia o`u il acc`ede
au doctorat es sciences en 1957, sous la direction du professeur John R. Ragazzini.
155

Rudolf Kalman

Ses e tudes au MIT et a` Colombia demontrent tr`es tot son interet pour la theorie des syst`emes et lAutomatique.
Ses premi`eres recherches sur la notion de variable detat sont a` la fois tr`es avancees sur le plan mathematique mais
e galement motivees par un vrai souci de resoudre des probl`emes pratiques.
En 1957 et 1958, Kalman est employe comme ingenieur dans un laboratoire de recherche dIBM a` Poughkeepsie,
e tat de New York. Pendant cette periode, il contribue activement a` la recherche dans la conception de lois de commande pour les syst`emes e chantillones, par lutilisation de crit`eres quadratiques caracterisant les performances de
ces derniers. Il exploite aussi la theorie de Lyapunov pour lanalyse et la commande des syst`emes en general. Il
comprend d`es cette e poque la pertinence de loutil numerique pour la commande des syst`emes a` large e chelle.
En 1958, Kalman rejoint le RIAS (Research Institute for Advanced Study), e quipe de recherche cree par le professeur Solomon Lefschetz (1884-1972) avec comme but, entre autres, de promouvoir davantage la theotie de
Lyapunov en occident. Il y debute en tant que chercheur en mathematiques et est vite promu Directeur Associe
de Recherche. Cest durant cette periode (1958-1964) quil realise ses contributions les plus significatives pour
lautomatique moderne. Ses conferences et publications sont symptomatiques de son incroyable creativite et de
sa volonte detablir une theorie unifiee de lautomatique. Larticle co-ecrit avec J. E. Bertram ou la representation
detat lineaire est rigoureusement introduite fait sensation lors de sa presentation au premier congr`es IFAC (International Federation of Automatic Control) a` Moscou en 1960. Sa recherche concernant des concepts aujourdhui
essentiels tels que la commandabilite et lobservabilite permet de consolider les bases theoriques de lingenierie
des syst`emes. Il unifie les outils danalyse et de conception de lois commande des syst`emes minimisant un crit`ere
quadratique et ce, en temps continu comme en temps discret. Il realise un travail crucial pour lexploitation des
resultats du mathematicien Constantin Caratheodory (1873-1950) en commande optimale, pour la clarification
des connexions entre le principe du maximum de Semenovich Pontryagin (1908-1988) et lequation dHamiltonJacobi-Bellman, de meme que pour le calcul variationnel en general. Non seulement sa recherche met laccent sur
les aspects de mathematiques generales mais elle inclut aussi des aspects tr`es pratiques comme la prise en compte
dun ordinateur comme partie integrante du syst`eme pour implanter la loi de commande.
Cest aussi au cours de son sejour au sein du RIAS que Kalman developpe ce qui est peut-etre sa contribution la
plus cel`ebre, le filtre de Kalman (grossi`erement, ce filtre permet de reconstruire letat du syst`eme en presence
de bruit). Il obtient des resultats relatifs a` la version discr`ete de ce probl`eme vers la fin de 1958 et au debut de 1959.
Sa solution au probl`eme discret lam`ene naturellement a` une solution en temps continu quil developpe en 1960-61
en collaboration avec Richard S. Bucy, inventant ainsi le filtre de Kalman-Bucy . Il transpose les travaux fondamentaux en filtrage de Norbert Wiener (1894-1964), Andrey N. Kolmogorov (1903-1987), Hendrick W. Bode
(1905-1982), Claude E. Shannon (1916-2001), V. S. Pugachev ( ?) et bien dautres dans lespace detat.
Le filtre de Kalman et ses extensions aux probl`emes non lineaires constituent peut-etre loutil le plus applique
de lautomatique moderne. Il est en effet utilise en navigation spatiale (par exemple, sur les engins Apollo ),
sur les radars, pour la commande de divers procedes et meme sur des mod`eles socio-economiques. Sa popularite
est due a` la prise en compte des aspects numeriques tant dans la conception que dans limplantation elle meme.
Dun point de vue strictement theorique, ce filtre e tablit un lien entre filtrage et commande et met en lumi`ere la
dualite des deux probl`emes.
En 1964, Kalman vient travailler au Departement de Genie Electrique, Mecanique et Recherche Operationnelle
de lUniversite de Stanford. Il sy interesse a` la theorie des realisations et la theorie algebrique des syst`emes. Une
fois encore, sa contribution est significative et il ouvre de nouvelles perspectives de recherche.
En 1971, Kalman est nomme graduate research professor de lUniversite de Floride a` Gainsville. Il devient directeur du centre de Theorie Mathematique des Syst`emes. Ses activites de recherche et denseignement sont liees
aux departements de genie e lectrique, de mathematiques et dingenierie pour lindustrie. Il intervient aussi comme
consultant en recherche pour lEcole des Mines de Paris.
Kalman ne modifie pas seulement la vision scientifique de lautomatique moderne mais il contribue aussi fortement
a` promouvoir lapplication des theories associees. Sa personnalite charismatique et ses nombreux cours, exposes,

156

Rudolf Kalman

tant a` lUniversite que dans le monde industriel, attirent un nombre incalculable de chercheurs qui sont grandement
influences par sa conception de lAutomatique. Il agit comme un catalyseur pour un e change international didees.
Kalman publie plus de cinquante articles techniques en revues de haut niveau. En 1962, il est e lu jeune e minent
chercheur de lannee par lAcademie des Sciences du Maryland. Il devient membre IEEE en 1964 et est par
ailleurs membre de plusieurs autres associations professionnelles ou savantes. Il est co-auteur de louvrage Topic
in Mathematical System Theory, Mc Graw-Hill, 1969. Il recoit la medaille dhonneur IEEE en 1974 pour ses
travaux pioniers sur les m
ethodes modernes en theorie des syst`emes, incluant les concepts de commandabilite,
observabilite, filtrage et structures algebriques .

157

Bibliographie
[1] K. Ogata. Modern control engineering - Fourth edition. Prentice Hall International Editions, 2001.
[2] K. Ogata. System dynamics - Third edition. Prentice Hall International Editions, 1994.
[3] K. Ogata. Discrete-time control systems- Second edition. Prentice Hall International Editions, 1995.
[4] B. Pradin. Polycopie de cours dAutomatique :
Toulouse, 3`eme annee specialite AEI. 1992

Automatique : Notes de cours - Exercices . INSA de

[5] B. Pradin. Polycopie de cours dAutomatique : Automatique lineaire - Syst`emes a` temps discret . INSA
de Toulouse, 4`eme annee specialite AEI. Edition 1995.
[6] B. Pradin. Polycopie de cours dAutomatique : Automatique lineaire . INSA de Toulouse. Departement
de Genie Electrique. Edition 2005.
[7] Ph. de Larminat. Automatique : Commande des syst`emes lineaires. Editions Hermes, 1993.
[8] A. Rachid and D. Mehdi. Realisation, reduction et commande des syst`emes lineaires. ScientifikA, 1993.
[9] G. F. Franklin, J. D. Powell and A. Emami-Naeini. Feedback Control of Dynamic Systems. Addison-Wesly
Publishing Company, Inc., New York 1994.
[10] E. I. Jury et S. M. Ahn. Remarks on the root-clustering of a polynomial in a certain region in the complex
plane. Quaterly of Applied Mathematics, pages 203-205, juillet 1974.
[11] J. L. Howland. Matrix equations and the separation of matrix eigenvalues. Journal of Mathematical Analysis
and Applications, Vol. 33, pages 683-691, 1971.
[12] M ATLAB users guide : Getting started with M ATLAB. The Math Works Inc.. Version 6.
http : //www.mathworks.com, 2000
[13] P. C. Parks. A. M. Lyapunovs stability theory - 100 years on. IMA journal of Mathematical Control and
Information, 1992, vol. 9, p 275-303.
[14] IEEE Center History - Legacies Rudolf E. Kalman.
http : //www.ieee.org/organizations/history center/legacies/kalman.html.

159