Vous êtes sur la page 1sur 43

Systèmes dynamiques - Commande et Observation

Claude Iung
Table des matières

1 Les systèmes dynamiques 1

1.1 Les Systèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1


1.2 Exemple de systèmes admettant une représentation d’état . . . . . . . . . . . . . 2
1.2.1 Systèmes différentiels : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Systèmes à temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 Régulation numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.4 Systèmes à événements discrets . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.5 Systèmes Dynamiques Hybrides . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Définitions axiomatiques des systèmes dynamiques . . . . . . . . . . . . . . . . . 6
1.4 Quelques classes de systèmes dynamiques . . . . . . . . . . . . . . . . . . . . . . 7
1.4.1 Système dynamique invariant (stationnaire) . . . . . . . . . . . . . . . . . 7
1.4.2 Système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Les systèmes LTI 9


2.1 Linéarisation des équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Représentation d’état des LTI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.1 Forme canonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.2 Représentations équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Représentation sous forme transfert . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.1 Notion de transfert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.2 Opérateur de transfert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.3 Association des opérateurs de transfert . . . . . . . . . . . . . . . . . . . . 14
2.3.4 Passage fonction de transfert → Etat . . . . . . . . . . . . . . . . . . . . . 15
2.4 Solution de l’équation d’état . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.1 Opérateur résolvant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.2 Commande numérique - système discret . . . . . . . . . . . . . . . . . . . 21

3 Stabilité 22
3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2 Cas des systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

4 Commandabilité 24
4.1 Critère de commandabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.1.2 Critère . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

i
TABLE DES MATIÈRES ii

4.2 Décomposition canonique de l’espace d’état . . . . . . . . . . . . . . . . . . . . . 26


4.3 Régulation par retour d’état . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.4 Choix des valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.4.1 Valeur propre réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.4.2 Valeurs propres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

5 Observabilité 33
5.1 Critère d’observabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.1.2 Critère . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.2 Dualité - Décomposition canonique . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.3 Construction d’un observateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

6 Commande par retour d’état avec observateur 37


6.1 Le théorème de séparation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.2 Application au cas mono-entrée/mono-sortie . . . . . . . . . . . . . . . . . . . . . 39
6.2.1 Réalisation minimale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.2.2 Structure R.S.T. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Chapitre 1

Les systèmes dynamiques

1.1 Les Systèmes


Les systèmes que nous envisageons en Automatique sont des ensembles (physiques, chi-
miques, technologiques, biologiques, informatiques,. . . )(1.1) qui évoluent en fonction du temps.
Ces systèmes sont connectés au monde extérieur par deux types de grandeurs :
- Les entrées : ce sont des variables qui ‘agissent’ sur le système. On distingue :
a) les entrées de commande : on supposera que l’on est capable de fabriquer ces va-
riables, elles prennent leurs valeurs dans un ensemble U : ensemble des valeurs de commande.
Elles appartiennent à un ensemble Ω d’applications qui à un temps t d’un ensemble T font
correspondre une valeur dans U.
Ω = {ω : T → U }
C’est l’ensemble des commandes admissibles.
b) les entrées de perturbation : elles agissent sur le système mais on ne peut contrôler
leur évolution, on les décrira par un modèle de perturbation.
- Les sorties : ce sont les grandeurs que l’on peut mesurer. Elles prennent leurs valeurs
dans l’ensemble des valeurs de sortie Y.
Certains systèmes sont complètement définis par la connaissance d’un nombre fini de va-
riables. Les valeurs de ces variables à un instant donné t0 et les entrées du système pour t > t0
déterminent complètement l’évolution du système après t0 .
Ces variables constituent l’état du système. Ce sont les variables d’état.

1
1.2. EXEMPLE DE SYSTÈMES ADMETTANT UNE REPRÉSENTATION D’ÉTAT 2

perturbations

commandes sorties

SYSTEME

Fig. 1.1 — Un système et ses liaisons avec l’extérieur

1.2 Exemple de systèmes admettant une représentation d’état


1.2.1 Systèmes différentiels :
L’évolution des systèmes décrits par une équation différentielle est complètement définie par
un nombre de variables égal à l’ordre de l’équation différentielle. On dit que la solution dépend
de n constantes d’intégration.
Exemple : circuit électrique

is

R L
C
Ve Vs

Fig. 1.2 — Filtre R.L.C.

On considère le filtre alimenté par une tension V e et débitant sur une charge telle que le
courant is soit négligeable. On s’intéresse à la tension de sortie V s de ce filtre. Classons les
diférentes variables suivant leurs natures :
T = R+
V e est l’entrée
V s est la sortie
is peut être considéré comme une perturbation s’il n’est plus négligeable
1.2. EXEMPLE DE SYSTÈMES ADMETTANT UNE REPRÉSENTATION D’ÉTAT 3

Le système d’équations qui représente ce filtre peut être écrit en utilisant les variables i et q

V e = Ri + Ldi/dt + V s (1.1)
V s = q/C (1.2)

Avec q, la charge du condensateur.

dq/dt = i − is (1.3)

Les équations s’écrivent avec les deux variables d’état : i et V s/

R Vs Ve
di/dt = − i + + (1.4a)
L L L
i is
dV s/dt = − (1.4b)
C C
On peut calculer i(t) et V s(t) pour toute valeur de t > t0 si l’on connaît is(t0 ), V s(t0 )
l’entrée V e(t) et la perturbation is(t).par intégration du système différentiel (1.4a, 1.4b)
Remarquons que c’est un système LTI
autres exemples : cf. tous les exemples traités dans le cours sur les bond-graph.

1.2.2 Systèmes à temps discret


Considérons un compte d’épargne. On supposera que la période de calcul est la quinzaine et
que le taux de rapport par quinzaine est fixe soit a

Mn = Mn−1 (1 + a) + sn (1.5)
A la quinzaine numéro n, on est donc capable de calculer le montant disponible sur le compte
(Mn ), si on connaît la somme initiale(M0 ), à la quinzaine 0 et la suite des sommes déposées,
s1 , s2 , . . . , sn .
T = N c’est le numéro de la quinzaine.
si sont les valeurs de l’entrée U = Z.
Ω est l’ensemble des suites s : N → Z.
On voit sur l’équation (1.5) que pour calculer la valeur du compte à une date donnée il
faut connaitre cette valeur à la quinzaine précédente. Cette valeur est nécessaire et suffisante.
L’espace d’état est de dimension 1 X = Z.
Le système est un système LTI à temps discret.

1.2.3 Régulation numérique


Lorsque la commande d’un système est réalisée par ordinateur, les commandes élaborées
par un algorihme sont appliquées par l’intermédiaire d’un convertisseur numérique-analogique
et sont maintenues constantes pendant la période d’échantillonnage T . Les fonctions u(t) ont
une forme particulière : fonctions en escalier, constantes sur l’intervalle d’échantillonnage.
u(t) = uk ; ∀t ∈ [kT, (k + 1)T ]
1.2. EXEMPLE DE SYSTÈMES ADMETTANT UNE REPRÉSENTATION D’ÉTAT 4

Convertisseur
ALGORITHME un Numérique- u(t) SYSTEME
analogique

sn=s(nT) Convertisseur Sorties s(t)


Analogique-
numérique
Consignes

Fig. 1.3 — Schéma d’une régulation numérique

L’état du système et les sorties sont des variables continues, mais on niveau de l’algorithme
on ne manipule que des suites. On utilisera alors une équation d’état discrète faisant intervenir
les valeurs de l’état aux instants d’échantillonnage xn = x(nT ). Elle prendra la forme (1.6)
xn+1 = f (xn , un ) (1.6)

1.2.4 Systèmes à événements discrets


Pour contrôler le patinage d’une roue ou pour commander le mécanisme d’entraînement
d’une bande magnétique il est indispensable de connaître le sens du mouvement. Ceci se réalise
de manière très simple de la façon suivante : : un disque dont une moitié est opaque est solidaire
de l’arbre du moteur d’entraînement et tourne devant deux cellules photoélectriques c1 et c2 .
Ces cellules seront éclairées ou non selon qu’elles sont devant la partie transparente ou la partie
opaque du disque.

c1

c2

Fig. 1.4 — détecteur de sens de rotation

Il est évident que la seule connaissance des états des deux cellules, éclairées ou non, ne suffit
pas à déterminer le sens de rotation. La séquence des signaux intervient.
T =R
entrées : c1 et c2 , ces variables sont binaires elles ne prennent que deux valeurs : éclairées ou
non-éclairées
1.2. EXEMPLE DE SYSTÈMES ADMETTANT UNE REPRÉSENTATION D’ÉTAT 5

Ω = {R → [0; 1]2 }
La sortie est le sens de rotation
On ne pourra savoir le nombre de variables d’état qu’après avoir fait la synthèse de l’automate
qui détermine le sens de rotation.

1.2.5 Systèmes Dynamiques Hybrides

de

Nh niveau haut

h
Nb niveau bas
ds

Fig. 1.5 —

La description du fonctionnement de certains systèmes nécessite l’utilisation de variables


continues et de variables booléennes. Ces systèmes sont appelés systèmes dynamiques hybrides.
On les rencontre dans tous les secteurs industriels. Donnons un exemple élémentaire.

On considère la commande du remplisage d’un réservoir (1.5). Le débit d’entrée de est com-
mandé par la vanne V de type tout ou rien.
Le débit de sortie ds est inconnu, il dépend des utilisateurs, on supposera : ds < de .
La commande se fait de la manière suivante :
- la vanne V est fermée lorsque la hauteur d’eau dans le réservoir atteint le niveau haut N h
- la vanne est ouverte lorsque le niveau atteind son niveau bas N b
On a deux types d’équations :
1) les équations de la partie continue :

dh
S = V de − ds (1.7)
dt

où V = 0 si la vanne est fermée


V = 1 si la vanne est ouverte
2) les équations de la partie discrète

V + = Cb + C̄hV (1.8)
1.3. DÉFINITIONS AXIOMATIQUES DES SYSTÈMES DYNAMIQUES 6

avec
Cb = 1 si h ≤ N b Ch = 1 si h ≥ N h (1.9)
C’est l’ensemble des équations (1.7, 1.8) et des conditions de transition des variables Cb
et Ch (1.9) qui définit le fonctionnement du système et permet de simuler son évolution.
T =R
La sortie est h.
Les entrées sont de entrée réelle de commande, ds entrée réelle de perturbation.
L’état contient des variables binaires : Cb et Ch, et une variable réelle : h.

1.3 Définitions axiomatiques des systèmes dynamiques


Les notions que nous allons définir sont très générales et elles peuvent s’appliquer à des
types de systèmes extrêmement différents. Il est intéressant de savoir que l’on peut avoir une
caractérisation commune pour un ensemble très vaste de systèmes car ceci permet de mieux
comprendre pourquoi on retrouve les mêmes concepts dans des domaines aussi différents que les
équations différentielles et les systèmes séquentiels.
Une formalisation mathématique est donnée par la notion de « systèmes dynamiques ».

Définition 1.1 Un système dynamique Σ est un objet mathématique défini par les axiomes et
les ensembles suivants :

a) ensembles
un ensemble de temps T
un espace d’états X
un ensemble de valeurs d’entrées U
un ensemble de fonctions d’entrées Ω : T → U
un ensemble de valeurs de sorties Y
un ensemble de fonctions de sorties Γ : T → Y
b) axiomes
— T est un ensemble ordonné de réels
— Ω 6= ∅
— Ω vérifie l’axiome de concaténation :
On note u[t1 ,t2 ] la restriction de u ∈ Ω à [t1 , t2 ] ∩ T
si u, u0 ∈ Ω pour t1 < t2 < t3 ; alors u” tel que u00[t1 ,t2 ] = u[t1 ,t2 ] et u00[t2 ,t3 ] = u0[t2 ,t3 ] appartient
àΩ
— il existe une fonction de transition d’état (équation d’état)
ϕ:T ×T ×X ×Ω→X
ϕ(t, t0 , x0 , u) : état au temps t du système qui avait l’état initial x0 à l’instant t0 sous
l’action de l’entrée u
ϕ a les propriétés suivantes.
— définie pour t > t0
— consistance : ϕ(t, t, x, u) = x, ∀x ∈ X, t ∈ T, u ∈ Ω
— composition : pour tout t1 < t2 < t3 ϕ(t3 , t1 , x, u) = ϕ(t3 , t2 , ϕ(t2 , t1 , x, u), u), ∀x ∈
X, u ∈ Ω
— causalité : si u et u0 appartiennent à Ω et sont telles que u[t1 ,t2 ] = u0[t1 ,t2 ] alors ϕ(t, t1 , x, u) =
ϕ(t, t1 , x, u0 ), ∀t ∈ [t1 , t2 ] , x ∈ X, u ∈ Ω
1.4. QUELQUES CLASSES DE SYSTÈMES DYNAMIQUES 7

— il existe une fonction de sortie :


γ ∈ Γ : T × X → Y ; y(t) = γ(t, x(t))

1.4 Quelques classes de systèmes dynamiques


Exemples d’ensembles selon les systèmes
Ensembles Systèmes différentiels Systèmes séquentiels Systèmes échantillonnés
T R N N
X Rn {0, 1}n Rn
U Rm {0, 1}m Rm
Ω R→R m N → {0, 1}m suites : N → Rm
Y Rq {0, 1}q Rq
Γ R×R →Rn q N × {0, 1}n → {0, 1}q N × Rn → Rq

quelques définitions de systèmes dynamiques :


à temps continu T =R
à temps discret T =N
de dimension finie X est un espace de dimension finie
d’états finis X est fini
système fini X, U, Y , sont des ensembles finis
ϕ, ou son graphe, s’appelle trajectoire ou solution
Σ est dit libre si Ω a un seul élément.

1.4.1 Système dynamique invariant (stationnaire)


Un système est dit invariant, ou invariant par translation dans le temps, ou stationnaire si
et seulement si
a) T est un groupe additif (addition des réels)
b) Ω est fermé pour l’opérateur de translation Zτ défini par
Zτ : U → U ; Zτ (u)(t) = u(t + τ )
c) ϕ(t, t0 , x, u) = ϕ(t + τ , t0 + τ , x, Zτ (u))
d) Γ est indépendant du temps.

1.4.2 Système linéaire


a) X, U, Ω, Y et T sont des espaces vectoriels
b) l’application ϕ(t, τ , ., .) X × Ω → X est linéaire pour tout t,
c) l’application γ(t, .) Ω → X est linéaire pour tout t.
Ces propriétés sont souvent appelées : principe de superposition.
Définition :Σ est « lisse »
a) T =R
b) X et Ω sont des espaces topologiques
c) ϕ est continûment différentiable en t

Théorème 1.2 Si Σ est lisse, alors ϕ satisfait une équation différentielle.


1.4. QUELQUES CLASSES DE SYSTÈMES DYNAMIQUES 8

Définition 1.3 Σ est dit linéaire, invariant par translation dans le temps.s’il possède les deux
propriétés. On note habituellement ces systèmes par le sigle LTI
Chapitre 2

Les systèmes LTI

2.1 Linéarisation des équations


Forme explicite

On écrit l’équation d’état sous la forme

dx
= f (x, u) (2.1a)
dt

où x ∈ Rn , u ∈ Rm
avec une équation de sortie :
y = g (x, u) (2.1b)

y ∈ Rp
Si f vérifie quelques hypothèses, on peut assurer que (2.1a) admet une solution et que cette
solution est unique pour un état initial donné.
Dans le cas général, la résolution de l’équation différentielle ne peut se faire que de ma-
nière numérique et relativement peu de propriétés communes peuvent être mises en évidence.
En revanche, les systèmes linéaires (régis par une équation différentielle linéaire en x et u), pré-
sentent des caractéristiques communes. S’ils ne recouvrent pas, bien sûr, l’ensemble des systèmes
physiques, leur étude est fondamentale car elle permet de dégager des notions de structure qui
s’appliqueront à d’autres systèmes non linéaires. De plus, sauf en cas de non linéarité forte, on
peut toujours décrire avec une précision plus ou moins bonne, le comportement d’un système
autour d’un point de fonctionnement ou d’une trajectoire par une équation linéaire (2.2a).
soit une trajectoire définie par t → x̄(t) pour une entrée ū
dx̄
telle que f (x̄(t), ū(t)) = (t)
dt

9
2.2. REPRÉSENTATION D’ÉTAT DES LTI 10

ȳ = g (x̄, ū)
si on envisage une trajectoire voisine, soit u(t) = ū(t) + δu(t), la solution x(t) = x̄(t) + δx(t)
vérifie
·
:
x̄ + δ ẋ = f (x̄ + δx, ū + δu) = f (x̄, ū) + Fx (x̄, ū)δx + Fu (x̄, ū)δu + o(δx, δu)
ou au premier ordre
δ ẋ = Fx (x̄, ū)δx + Fu (x̄, ū(t))δu (2.2a)
La sortie y(t) peut aussi s’écrire : y(t) = ȳ(t) + δy(t) et la linéarisation de (2.1b) donne au
premier ordre

δy = Gx (x̄, ū)δx + Gu (x̄, ū)δu (2.2b)


Fx est la matrice des dérivées premières de f par rapport à chacune des composantes de x.
Cette équation de “variations” est fondamentale puisqu’elle décrit le comportement du sys-
tème lorsqu’il se trouve écarté de sa trajectoire prévue x̄(t). Elle décrit le modèle linéarisé autour
d’une trajectoire. Son étude est la base de la commande optimale.
La linéarisation autour d’un point d’équilibre est largement employée pour concevoir des
régulateurs et pour étudier les propriétés locales de stabilité.
Considérons le cas où u(t) = u0 valeur constante.

ẋ = f (x, u0 ) (2.3)

Définition 2.1 (point d’équilibre) x0 sera un point d’équilibre pour (2.3) si f (x0 , u0 ) = 0

Forme implicite
Les équations différentielles peuvent aussi être données sous forme implicite :

f (ẋ, x, u) = 0 (2.4)

En procédant comme précédemment pour écrire le modèle linéarisé autour d’une trajectoire
nominale, on obtient
· · ·
Fẋ (x̄, x̄, ū)δ ẋ + Fx (x̄, x̄, ū)δx + Fu (x̄, x̄, ū)δu = 0 (2.5)
·
Si Fẋ (x̄, x̄, ū) est inversible on retrouve la forme explicite (2.2a), sinon on a un système
singulier.

2.2 Représentation d’état des LTI


Les systèmes dont le fonctionnement est décrit par des équations différentielles ou des équa-
tions de récurrence linéaires à coefficients constants sont appelés communément :"systèmes
LTI". : systèmes linéaires à temps invariant ou Linear Time Invariant Systems. Nous prendrons
les formes explicites utilisées pour écrire leurs équations.
2.2. REPRÉSENTATION D’ÉTAT DES LTI 11

2.2.1 Forme canonique


Définition 2.2 Forme canonique

On supposera x ∈ Rn , y ∈ Rp , u ∈ Rm
cas continu
L’équation d’état d’un système LTI sous forme canonique s’écrit(2.6)

ẋ = Ax + Bu (2.6)
y = Cx + Du

cas discret
Dans le cas discret on utilisera les mêmes notations : matrices A, B, C, D . La forme canonique
est (2.7)

xk+1 = Axk + Buk (2.7a)


yk = Cxk + Duk (2.7b)

Dans les deux cas, continu et discret, on parlera du système (A, B, C, D)


avec x ∈ Rn , y ∈ Rp , u ∈ Rm et où :
A [n × n] est la matrice d’état
B [n × m] est la matrice d’entrée
C [p × n] est la matrice de sortie
D [p × m] est le transfert direct entrée/sortie.

2.2.2 Représentations équivalentes


Changement de base :
A partir de la représentation il est possible d’obtenir d’autres formes d’état en effectuant un
changement de base dans X = Rn
Soit P une matrice régulière (P de rang n), x = P z définit un changement de base dans Rn .
Les équations deviennent :(2.8)

ż = A1 z + B1 u (2.8a)
y = C1 z + D1 u (2.8b)

avec

A1 = P −1 AP (2.9a)
−1
B1 = P B (2.9b)
C1 = CP (2.9c)
D1 = D (2.9d)

Définition 2.3 (Représentations équivalentes) Deux systèmes (A, B, C, D) et (A1 , B1 , C1 , D1 )


sont dites équivalents, s’il existe une matrice P inversible telle que les équations(2.9) soient vé-
rifiées
2.3. REPRÉSENTATION SOUS FORME TRANSFERT 12

Remarque 2.4 Les matrices A, B, C sont respectivement transformées :


- comme la matrice représentant un endomorphisme linéaire de Rn par le changement de base
P
- comme la matrice représentant un opérateur linéaire de Rm → Rn avec un changement de
base dans l’espace de Rn ,
- comme la matrice représentant un opérateur linéaire de Rn → Rp avec un changement de
base dans l’espace de Rn .

On pourra donc considérer ces matrices comme les matrices représentant ces trois endo-
morphismes. Ces endomorphismes sont les éléments invariants du système, indépendants des
bases choisies dans les différents espaces vectoriels. Cette remarque sera utile pour les formes
canoniques et pour étudier les réalisations minimales.

2.3 Représentation sous forme transfert


2.3.1 Notion de transfert
La représentation d’état est une vue interne des systèmes. La matrice d’état A représente les
échanges d’énergie entre les différents constituants du système. La matrice d’entrée B représente
l’action des entrées sur le système. C indique où sont les capteurs qui définiront les sorties. (Cf
Bond-graph).
Il existe de nombreux cas où cette représentation est impossible à obtenir (trop complexe)
et où les seules informations dont on dispose sont des relations entre les entrées et les sorties.
On dit que l’on a une représentation de type transfert.
Exemple : tension −→ vitesse du moteur
entrée −→ sortie
on ne s’intéresse pas au courant.
Comme la représentation de type transfert donne moins d’information que la représentation
d’état, on doit pouvoir la trouver sans problème à partir de la représentation d’état.
Le problème inverse est évidemment plus difficile : à partir d’une représentation de type
transfert est-il possible de trouver une représentation d’état (une seule ou la plus simple pos-
sible ?) Ces problèmes sont regroupés sous le vocable : problème de réalisation.
Dans le cas LTI, la représentation de type transfert se fait en utilisant le calcul symbolique
et les fonctions de transfert ou de manière plus générale les matrices de transfert.

2.3.2 Opérateur de transfert


Cas continu
d
En appliquant les régles du calcul symbolique ( dt x → px) et en les appliquant à la représen-
tation d’état on obtiendra le transfert u −→ y
d
La linéarité de l’opérateur permet de retrouver la distributivité de la multiplication par
dt
rapport à l’addition :
d d d
(αf (t) + βg(t)) = α f (t) + β g(t) ↔ p(αf + βg) = αpf + βpg ∀α, β ∈ R
dt dt dt
d2 f d d d d
2
= ( f ) = ( ◦ )f ↔ p(pf ) = p · pf = p2 f
dt dt dt dt dt
2.3. REPRÉSENTATION SOUS FORME TRANSFERT 13

On pourra donc utiliser l’algèbre des fractions rationnelles en p pour représenter les équations
différentielles linéaires à coefficients constants
ẋ = Ax + Bu
y = Cx + Du
Traduisons ces équations en calcul symbolique

px = Ax + Bu ou (pI − A)x = Bu (2.10)


£ ¤
soit y = C(pI − A)−1 B + D u

£ ¤
Définition 2.5 (matrice de transfert) G(p) = C(pI − A)−1 B + D s’appelle la matrice
de transfert du système.

Définition 2.6 (fonction de transfert) Si u ∈ R, y ∈ R, G(p) est une fraction rationnelle


et s’appelle la fonction de transfert.

Proposition 2.7 Les pôles de la fonction de transfert sont les valeurs propres de la
matrice d’état.

Il suffit de remarquer que le dénominateur de G et égal au det(pI − A)


£ ¤
Définition 2.8 (réalisation) Tout quadruplet (A, B, C, D) qui vérifie G(p) = C(pI − A)−1 B + D
est une réalisation de G.

Définition 2.9 (Réalisation minimale) On dira qu’une réalisation (A, B, C, D) avec dimen-
sion(A)=n est minimale s’il n’existe pas de réalisation de G de dimension inférieure.

Cas discret
Nous pouvons appliquer au système discret la même procédure de calcul symbolique qu’aux
systèmes continus :
l’opérateur q appliqué à la suite s fait comprendre la suite
q(s) = qs telle que qsk = sk+1
l’opérateur q est linéaire et la composition est évidente :
q 2 s = q(qs) q 2 sk = sk+2
On peut donc appliquer les règles du calcul symbolique sur les équations

xk+1 = Axk + Buk (2.11)


yk = Cxk + Duk (2.12)

et on aura l’opération de transfert entre les suites u et y


y = (C(qI − A)−1 B + D)u
2.3. REPRÉSENTATION SOUS FORME TRANSFERT 14

2.3.3 Association des opérateurs de transfert


-Association parallèle
Si deux systèmes S1 (A1 , B1 , C1 , D) et S2 (A2 , B2 , C2 , D) ont le même nombre d’entrées et le
même nombre de sorties, on peut faire une association parallèle pour construire le système S tel
que y = y1 + y2 avec la même entrée u (fig.2.1)

y1
S1

u +
y
+
S2
y2

Fig. 2.1 — association parallèle

ẋ1 = A1 x1 + B1 u
y1 = C1 x1 + D1 u
ẋ2 = A2 x2 + B2 u
y2 = C2 x2 + D2 u
alors le nouveau système a pour transfert : G(p) = G1 (p) + G2 (p)
car son équation d’état est :

∙ ¸ ∙ ¸∙ ¸ ∙ ¸
ẋ1 A1 0 x1 B1
= + u = Ax + Bu (2.13a)
ẋ2 0 A2 x2 B2
∙ ¸
x1
y = y1 + y2 = [C1 C2 ] + (D1 D2 ) u (2.13b)
x2

et le partitionnement de la matrice A conduit au résultat

- Association cascade
Si deux systèmes S1 et S2 sont tels que dimension y1 =dimension u2
alors on peut les associer en cascade (fig.2.2) et la fonction de transfert du système obtenu
est : G(p) = G2 (p)G1 (p)

u = u1 y1 = u2 y = y2
S1 S2

Fig. 2.2 — association cascade


2.3. REPRÉSENTATION SOUS FORME TRANSFERT 15

Ce produit n’est en général pas commutatif, il le devient quand G1 et G2 sont des fonctions
de transfert.
ẋ1 = A1 x1 + B1 u
y1 = C1 x1 + D1 u
ẋ2 = A2 x2 + B2 y1
y = C2 x2 + D2 y1
soit
∙ ¸ ∙ ¸∙ ¸ ∙ ¸
ẋ1 A1 0 x1 B1
= + u (2.14a)
ẋ2 B2 C1 A2 x2 B2 D1
∙ ¸
x1
y = [D2 C1 C2 ] + D2 D1 U (2.14b)
x2
en utilisant le fait que
∙ ¸−1 ∙ ¸
X1 0 X1−1 0
= −1 −1 (2.15)
X3 X2 −X2 X3 X2 X2−1
On vérifie l’identité des expressions.

2.3.4 Passage fonction de transfert → Etat


Supposons le système décrit par la fonction de transfert
b0 + b1 p + · · · + bq pq
G(p) = (2.16)
a0 + a1 p + a2 p2 + · · ·pn

ou, ce qui est équivalent, par l’équation différentielle


· ·· ··
a0 y + a1 y + a2 y + · · ·y (n) = b0 u + b1 u + · · · + bq u(q) (2.17)

variables de phase
Etudions d’abord le cas q = 0 et b0 = 1 On utilise alors les variables de phase :
x1 = y
dy
x2 = = y (1)
dt
dn−1 y
xn = n−1 = y (n−1)
dt
On obtient alors :

⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
x1 0 1 0 . 0 x1 0
⎢ x2 ⎥ ⎢ 0 0 1 . 0 ⎥⎢ x2 ⎥ ⎢ 0 ⎥
d ⎢⎢
⎥ ⎢
⎥=⎢ .
⎥⎢
⎥⎢
⎥ ⎢
⎥+⎢

⎥u
. . . . . . . (2.18a)
dt ⎢

⎥ ⎢
⎦ ⎣ 0
⎥⎢
⎦⎣
⎥ ⎢
⎦ ⎣


. 0 0 . 1 . 0
xn −a0 −a1 −a2 . −an−1 xn 1
£ ¤
y= 1 0 . 0 x (2.18b)
2.3. REPRÉSENTATION SOUS FORME TRANSFERT 16

Définition 2.10 (forme compagne) Cette forme particulière (2.18a)de la matrice A s’appelle
la forme compagne.

Une de ses propriétés remarquables est de faire apparaître les coefficients du polynôme
caractéristique (det(A−λI)) sur la dernière ligne. Nous verrons ultérieurement l’importance
de cette remarque pour la commande.
On représente cette structure par le schéma classique de la simulation analogique :

schéma de Kelvin y(n) = −a0 y − a1 ẏ − a2 ÿ − ... − an−1 y(n−1) + u


peut se résoudre en n’utilisant que des intégrateurs de la manière suivante (fig.2.3) :

+ 1 xn 1 xn-1 x2 1 x1
u dxn/dt
p p p

an-1

an-2

a0

Fig. 2.3 — schéma de Kelvin partiel

Forme canonique de commandabilité : Pour passer maintenant au cas général : b0 quel-


conque et q 6= 0, il suffit de remarquer que si x1 vérifie l’équation différentielle (2.19)
(n) (n−1)
x1 + an−1 x1 + ... + a11 ẋ1 + a0 x1 = u (2.19)
alors x2 = ẋ1 vérifie l’équation (2.20)

(n) (n−1) du
x2 + an−1 x2 + ... + a1 ẋ2 + a0 x2 = (2.20)
dt

(n−1)
et xn = x1 vérifie l’équation (2.21)

x(n) (n−1)
n + an−1 xn + ... + a1 ẋn + a0 xn = u(n−1) (2.21)
2.3. REPRÉSENTATION SOUS FORME TRANSFERT 17

donc y solution de (2.22) :

y(n) + an−1 y(n−1) + ...an ẏ + a0 y = b0 u + ... + bq u(q) (2.22)


est obtenue par combinaison linéaire des équations précédentes :

y = b0 x1 + b1 x2 + ... + bq xq (2.23)
Cette construction est illustrée par le schéma de Kelvin complété (fig.2.4) :

b1

+ y

b0

+ 1 xn 1 xn-1 x2 1 x1
u dxn/dt
p p p

an-1

an-2

a0

Fig. 2.4 — schéma de Kelvin

Le calcul symbolique donne ce résultat de manière immédiate :


P
n
Si x1 vérifie ( an−i pi )x1 = u , alors comme xk= pk−1 x1 on a :
0
P
n
b0 ( an−i pi )x1 = b0 u
0
Pn
b1 ( an−i pi )x2 = b1 pu
0
.............
Pn
bi−1 ( an−i pi )xi = bi−1 pi u et donc
0
P
n P
q+1 P
q
( an−i pi ) bl−1 xl = ( bl pl )u
0 1 0
P
q+1 P
n P
q
soit y = bl−1 xl vérifie ( an−i pi )y = ( bl pl )u c’est bien l’équation (2.22)
1 0 0
2.3. REPRÉSENTATION SOUS FORME TRANSFERT 18

Il est toujours possible, par un changement de base dans l’espace d’état, de passer à une
autre forme de la matrice A
x = Pz
· ·
x = P z = AP z + Bu

·
z = P −1 AP z + Bu (2.24)
y = CP z + Du (2.25)

Lorsque A est diagonalisable, on peut obtenir une matrice diagonale constituée des valeurs
propres de A en prenant pour matrice de changement de base P , la matrice des vecteurs propres
de A, sinon il est toujours possible d’arriver à une forme triangulaire ou à la forme de Jordan.
Ces formulations s’avèrent très utiles pour certains types de calculs. Il est aussi possible de les
obtenir directement quand le système est décrit par une fonction de transfert
Cette méthode suppose que G(p) est décomposé en une somme de fractions rationnelles :
i=n
b(p) X ci
G(p) = = (2.26)
a(p) p − pi
i=1

On peut alors écrire :

Xn
ci
y=( )u (2.27)
1
p − pi
n
X
1
En posant xi = u soit ẋi (t) = pi xi (t) + u(t) et y = ci xi
p − pi
1
on obtient :

⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
x1 p1 0 . 0 x1 1
d ⎢ ⎥ ⎢
⎢ x2 ⎥ = ⎢ 0 p2 . 0 ⎥ ⎢
⎥⎢ x2 ⎥ ⎢ 1
⎥+⎢

⎥u (2.28a)
dt ⎣ ⎦ ⎣ . . . . ⎦⎣ . ⎦ ⎣ . ⎦
xn 0 0 pn xn 1
£ ¤
y = c1 c2 . cn (2.28b)

Soit :
·
x = Λx + Bu, y = Cx

On remarque que la matrice ∧ est une matrice diagonale dont les éléments sont les pôles de
la fonction de transfert.
Suivant la nature des pi , plusieurs cas peuvent se présenter :
- si les pi sont réels, la forme précédente s’applique immédiatement ;
- si les pi comprennent des paires complexes conjuguées, les valeurs propres sont complexes
ainsi que les expressions de xi et de ci .
Ceci peut être gênant ; on évite alors d’utiliser la forme canonique.
2.3. REPRÉSENTATION SOUS FORME TRANSFERT 19

Forme de Jordan
si a(p) a des racines multiples, la matrice n’est plus forcément diagonalisable mais elle peut
être mise sous la forme de Jordan
a(p) est de la forme :
a(p) = (p − p1 )ki (p − p2 )k2 ...(p − pr )kr
n = k1 + k2 + ... + kr

La forme canonique de Jordan est alors :


⎡ ⎤
Jk1 (p1 ) 0 . 0
⎢ 0 Jk2 (p2 ) . 0 ⎥
∧=⎢ ⎣

⎦ (2.29)
. . . .
0 0 . Jkr (pr )
où les Jki (ρi ) sont des matrices carrées ki xki dont la diagonale principale est occupée par
des pi
⎡ ⎤
pi 1 0 0
⎢ 0 pi 1 0 ⎥
⎢ ⎥ = Jki (pi ) (2.30)
⎣ . . . . ⎦
. . . pi

Exemple :

(p + 3)(p + 2) c1 c2 c3 c4
H(p) = = + + + (2.31)
(p + 1)3 (p + 4) (p + 1)3 (p + 1)2 (p + 1) (p + 4)

En calculant les résidus ci par les méthodes classiques, on trouve :


c1 = 2/3; c2 = 7/9; c3 = 2/27; c4 = −2/27
On pose alors :

c1 u c2 u c3 u c4 u
y = 3
+ 2
+ + (2.32a)
(p + 1) (p + 1) p+1 p+4
u x3 u x2 u u
x3 = , x2 = = 2
, x1 = = 3
, x4 = (2.32b)
p+1 p+1 (p + 1) (p + 1) (p + 1) p+4
y = c1 x1 + c2 x2 + c3 x3 + c4 x4 (2.32c)

d’où
ẋ1 = −x1 + x2
·
ẋ2 = −x2 + x3 soit x = Jx + Bu
ẋ3 = −x3 + u et y = Cx
ẋ4 = −4x4 + u ⎡ ⎤ ⎡ ⎤
−1 +1 0 0 ∙ ¸ 0
⎢ 0 −1 +1 0 ⎥ J (−1) 0 ⎢ 0 ⎥ £ ¤
J =⎢
⎣ 0
⎥=

3
,B = ⎢

⎥ C = 2, 7, 2 , − 2
⎦ 3 9 27 27
0 −1 0 0 −4 1
0 0 0 −4 1
2.4. SOLUTION DE L’ÉQUATION D’ÉTAT 20

2.4 Solution de l’équation d’état


2.4.1 Opérateur résolvant
La solution générale de l’équation

ẋ = A(t)x + B(t)u (2.33)

est donnée par la théorie des équations différentielle


Z t
x(t) = Φ(t, to)x(to) + Φ(t, s)B(s)u(s)ds (2.34)
to

Définition 2.11 (opérateur résolvant) l’opérateur Φ s’appelle l’opérateur résolvant du sys-


tème différentiel , il possède les propriétés suivantes :

— ∀t, to; x → Φ(t, to)x est linéaire bijective


— ∀to; Φ(to, to) = I
— ∀t; s, to; Φ(t, to) = Φ(t, s)Φ(s, to) d’où Φ(t, to)−1 = Φ(to, t)
d
— t → Φ(t, to) est l’unique solution de T → L(Rn , Rn ) telle que dt Φ(t, to) = AΦ(t, to) et
Φ(to, to) = I
— lorsque A est constant

Φ(t, to) = exp .(A(t − to)) = exp(At) exp(−Ato) (2.35)

Définition 2.12 (matrice de transition) L’opérateur exp(At) est souvent appelé matrice de
transition du système linéaire.

Rappelons que
A2 t2 An tn
exp(At) = I + At + + ..... + + ... (2.36)
2! n!
.
Pour calculer exp(At) explicitement on diagonalise A,soit Λ = P −1 AP où P est la matrice
des vecteurs propres.
Alors exp(At) = P exp(Λt)P −1

⎡ ⎤
eλ1 t 0 0
et exp(Λt) =⎣ 0 eλ2 t 0 ⎦ où les λi sont les valeurs propres de A.
0 0 e ntλ

Cette méthode n’est possible que lorsque A est diagonalisable.

Si A n’est pas diagonalisable il est nécessaire de l’amener par changement de base à une
forme Λ + N avec ΛN = N Λ
où Λ est une matrice diagonale et N est une matrice nilpotente ; ce qui est toujours possible.
si ΛN = N Λ alors exp(Λ + N )t) = exp(Λt) exp(N t)
N 2 t2 N n tn
et exp(N t) = (I + N t + + .... + ) ici on a un polynôme car N i = 0 pour i ≥ n
2! n!
Une forme triangulaire par blocs ou la forme de Jordan conviennent.
2.4. SOLUTION DE L’ÉQUATION D’ÉTAT 21

2.4.2 Commande numérique - système discret

L’équation d’état discrète


Lorsque la commande d’un système est réalisée par ordinateur, les commandes élaborées
par un algorihme sont appliquées au système par l’intermédiaire d’un convertisseur numérique-
analogique et sont maintenues constantes pendant la période d’échantillonnage T . Les fonctions
u(t) ont une forme particulière : fonctions en escalier, constantes sur l’intervalle d’échantillon-
nage.
u(t) = uk ; ∀t ∈ [kT, (k + 1)T ] Rt
alors, x(tk+1 ) = exp .(A(tk+1 − tk ))x(tk ) + tkk+1 exp(A(tk+1 − s))Buk ds
Z (k+1)T
x(tk+1 ) = exp(AT )x(tk ) + exp [A((k + 1)T − s)] Buk ds (2.37)
kT
lorsque A est régulière

x(tk+1 ) = exp(AT )x(tk ) + A−1 [exp(AT ) − I] Buk (2.38)


Dans tous les cas, on obtient une relation de la forme

xk+1 = Axk + Buk (2.39)


C’est l’équation d’état d’un système discret.

solution de l’équation d’état discrète Soit le système

xk+1 = Axk + Buk (2.40)


Il suffit d’écrire les premières valeurs de x pour découvrir la forme générale de la solution
x1 = Ax0 + Bu0
x2 = Ax1 + Bu1 = A2 x0 + ABu0 + Bu1
k
X
k
xk = A x0 + Ai−1 Buk−i (2.41)
i=1
Chapitre 3

Stabilité

3.1 Définitions

Définition 3.1 (Point d’équilibre) Soit le système ẋ = f (x), on dit que xe est un point
d’équilibre si f (xe ) = 0

Il est évident qu’au point d’équilibre, comme la dérivée est nulle, le système ne bouge pas.
Une trajectoire ayant comme origine un point d’équilibre est réduite à ce point.
On sait parfaitement que cette propriété peut être physiquement complètement illusoire :
une pyramide en équilibre sur la pointe a peu de chance d’y rester longtemps. La vraie question
est de savoir si le système a tendance à rester à proximité du point d’équilibre, à se diriger vers
lui ou à s’en éloigner. Ces notions s’appellent respectivement ; stabilité, stabilité asymptotique,
instabilité.
Donnons les définitions mathématiques précises de ces notions. On notera ϕ(t, x)la fonction
de transition d’état du système (ces variables suffisent puisque f ne dépend pas de t et u ;on
peut toujours poser t0 = 0).

Définition 3.2 (équilibre stable) xe est dit stable si pour tout voisinage U de xe il existe un
voisinage V de xe tel que ϕ(t, x) ∈ U ; ∀x ∈ V, ∀t ≥ 0

Définition 3.3 (équilibre instable) xe est dit instable dans le cas contraire

Définition 3.4 (équilibre asymptotiquement stable) xe est dit asymptotiquement stable


si pour tout voisinage U de xe , il existe un voisinage V de xe tel que ϕ(t, x) → xe quand
t → ∞ , ∀x ∈ V

Définition 3.5 (équilibre globalement asymptotiquement stable ) xe est dit globalement


asymptotiquement stable si ϕ(t, x) → xe quand t → ∞ , ∀x ∈ X

22
3.2. CAS DES SYSTÈMES LINÉAIRES 23

stable asymptotiquement stable globalement


asymptotiquement
stable

Fig. 3.1 —

3.2 Cas des systèmes linéaires

Dans le cas des systèmes LTI, comme on dispose de la solution explicite, les résultats sont
immédiats.
- cas continu
ẋ = Ax
x(t) = exp(At)x0

Proposition 3.6 Stabilité

Un système linéaire continu est stable si les valeurs propres de la matrice d’état sont à parties
réelles négatives

Proposition 3.7 Stabilité asymptotique

Un système linéaire continu est asymptotiquement stable si les valeurs propres de la matrice
d’état sont à parties réelles strictement négatives

Proposition 3.8 Un systéme LTI asymptotiquement stable est globalement asymptotiquement


stable

- cas discret
xk+1 = Axk
xx = Ak x0

Proposition 3.9 Stabilité

Le système linéaire discret est stable si les valeurs propres de la matrice d’état ont un module
inférieur ou égal à un.

Proposition 3.10 Stabilité asymptotique

Le système linéaire discret est asymptotiquement stable si les valeurs propres de la matrice
d’état ont un module strictement inférieur à un.
Chapitre 4

Commandabilité

Cette propriété garantit que quels que soient l’état initial donné et l’état final désiré, il existe
au moins une commande qui amène le système d’un état vers l’autre.
Remarquons que cette propriété est très exigeante : avec les entrées, on veut pouvoir modifier
toutes les variables d’état, et pas uniquement les sorties. Est-il évident, par exemple, que l’on
puisse arriver à imposer une configuration arbitraire des courants et des tensions dans un circuit
électrique un peu complexe lorsqu’on dispose d’une seule source de tension ?
Cette propriété est très importante car si elle n’est pas vérifiée sur le système à commander,
on peut être incapable, d’arriver même à stabiliser le système ; et ceci quelle que soit l’habileté de
l’automaticien ! C’est la structure du système qui est à modifier avant de pouvoir entreprendre
son contrôle.
Heureusement, la vérification de cette propriété est immédiat dans le cas mono-entrée, elle
ne présente de difficulté que dans le cas multivariable.
Afin d’alléger la partie démonstrative, nous ne démontrerons certains résultats que dans le
cas des systèmes récurrents pour lesquels les démonstrations font appel à des notions mathéma-
tiques simples et nous donnerons les principaux résultats relatifs aux systèmes différentiels sans
démonstration.
Nous utiliserons les résultats sur les systèmes discrets, en particulier
le modèle :

xk+1 = Axk + Buk (4.1a)


yk = Cxk + Duk (4.1b)

et la solution :
k
X
k
xk = A x0 + Ai−1 Buk−i (4.2)
i=1

24
4.1. CRITÈRE DE COMMANDABILITÉ 25

Les systèmes continus seront écrits sous la forme canonique habituelle :

ẋ = Ax + Bu (4.3a)
y = Cx + Du (4.3b)
On utilisera l’appellation "système (A, B)" pour désigner indifféremment les systèmes conti-
nus et discrets.

4.1 Critère de commandabilité


4.1.1 Définitions
Définition 4.1 Système commandable

- cas discret Un système est commandable si : ∀ x0 l’état initial et ∀ xf l’état final désiré,
il est possible de trouver une suite finie de commandes u0 , u1 ...... uk−1 telle que xk = xf .

- cas continu Un système est commandable si : ∀ x0 l’état initial et ∀ xf l’état final désiré
il est possible de trouver une commande u et un temps tf < +∞ tels que x(tf ) = xf .

Définition 4.2 Sous espace commandable

L’ensemble des états qui peuvent être atteints à partir de l’initial x(0) = 0 par une suite
finie de commandes (une commande en temps fini) est un sous espace vectoriel de l’espace d’état
appelé sous espace commandable (S.E.C.)
La forme de la solution permet de vérifier qu’il s’agit bien d’un sous espace vectoriel.

4.1.2 Critère
Théorème 4.3 (continu£ et dicret) Le sous¤ espace-commandable est engendré par les colonnes
de la matrice C(A, B) = B, AB, ..., An−1 B où n est la dimension de X

Démonstration. (cas discret) D’après (4.2) il est clair que tout élément du SEC peut s’écrire
comme combinaison linéaire des vecteurs colonnes extraits des matrices Am B. Le théorème de
Cayley-Hamilton montre qu’il suffit de s’arrêter à m = n-1 puisque pour m ≥ n − 1, Am est
combinaison linéaire des Ai pour i de 0 à n-1.
Propriétés du SEC
- Le sous-espace commandable est stable (invariant) par A.
En effet, si x ∈ SEC, x est combinaison linéaire des colonnes de C(A, B), Ax aussi puisque,
toujours d’après le théorème de Cayley-Hamilton, An B est fonction linéaire des Ai Bi ≤ n − 1.
- Le sous-espace commandable est le plus petit sous espace vectoriel de Rn stable par A et
contenant l’image de B
- Tout point x1 du sous-espace commandable peut être transféré en un autre point x2 du
sous-espace commandable.
En effet, soit la suite de commandes ci qui permet d’aller de x0 = 0 à xf = x2 − An x1 ( cette
suite existe puisque le SEC est stable par A donc x2 − An x1 ∈ A) ; cette suite ci transfère x1 en
x2 .
4.2. DÉCOMPOSITION CANONIQUE DE L’ESPACE D’ÉTAT 26

Théorème 4.4 critère de commandabilité (continu et discret)


£ ¤
Un système (A, B) est commandable si et seulement si la matrice C(A, B) = B, AB, ....An−1 B
est de rang n.
Cette matrice est appelée matrice de commandabilité du système.
Ce théorème est évident compte tenu de ce qui précède.
- On peut remarquer que , lorsque le système est mono-entrée, la matrice C(A, B) est carrée
nxn, il faut que le déterminant de cette matrice soit non nul pour que le système soit comman-
dable.
Lorsque le système est multi-entrées (m) la matrice C(A, B) contient n lignes et nxm co-
lonnes, il suffit alors de trouver un déterminant nxn non nul pour que la commandabilité soit
assurée.
D’après l’équation d’évolution (4.2), si le système est commandable, il faudra au plus n
commandes pour le faire évoluer d’un état initial quelconque x0 à un état final quelconque xf .
Plus le nombre d’entrées (m) est grand, "plus on a de chance” d’extraire un déterminant
n × n non nul, donc moins il faudra de commandes pour acheminer le système d’un endroit à
un autre.

4.2 Décomposition canonique de l’espace d’état


La notion de commandabilité pourrait apparaître comme une “clause de style” car elle se
traduit par une condition qui semble toujours pouvoir être réalisée det C(A, B) 6= 0 ou rang
C(A, B) = n. En effet, on peut imaginer que si det C(A, B) = 0, il suffit de modifier légèrement
n’importe quel coefficient de la matrice pour quelle devienne régulière. En réalité, sauf “cas
d’école”, il n’en n’est rien, la non commandabilité d’un système est structurelle, elle est due au
fait que les entrées n’agissent pas sur tel ou tel état du système. Ceci n’apparaît pas de manière
évidente sur A et B qui peuvent être des matrices pleines, mais dont les coefficients peuvent être
liés. On voit apparaître cet aspect structurel en effectuant un changement de base dans l’espace
d’état qui mettra en évidence les composantes non accessibles, c’est l’objet de la décomposition
canonique.
Supposons le système non complètement commandable. C(A, B) est de rang m < n.
On cherche dans X une base fournie de la manière suivante :
e1 , e2 .......... em une base du SEC
em+1 .......... en une base supplémentaire
En utisant la propriété d’invariance du SEC par A et le fait que la ieme colonne d’une matrice
est formée des composantes du ieme vecteur de base sur la base choisie, on en déduit que les
images de e1 , e2 .......... em n’auront pas de composantes sur em+1 .......... en de même que les
colonnes de B puisque B ∈ SEC
Les équations d’état dans cette base prennent donc la forme suivante :
∙ ¸ ∙ ¸∙ ¸ ∙ ¸
d z1 A11 A12 z1 B1
= + u (4.4)
dt z2 0 A22 z2 0
∙ ¸
£ ¤ z1
y = C1 C2 + Du (4.5)
z2
On voit de manière évidente que z2 ne peut être influencé par la commande, il évolue uni-
quement sur le mode libre : z2 (t) = exp(A22 t)z2 (0)
4.3. RÉGULATION PAR RETOUR D’ÉTAT 27

Ceci n’est pas obligatoirement grave si ces variables ne nous intéressent pas particulièrement
et si elles sont stables.
Si par contre la matrice A22 est instable, le système finira par sortir du domaine de linéarité
sans qu’aucune action ne soit possible.

4.3 Régulation par retour d’état


Théorème 4.5 Retour d’état

Si le système (A, B) est commandable, il est possible, par le choix d’une matrice K , de placer
arbitrairement les valeurs propres du système en boucle fermée par retour d’état : u = −Kx.

ref uk yk
+
L xk +1 = Axk + Buk y k = Cxk
-
Système

xk
K

Retour d’état

Fig. 4.1 —

C’est le résultat le plus important. Ce théorème assure que l’on pourra stabiliser tout système
commandable (si on accède à l’état) on pourra modifier ses performances dynamiques par le choix
des valeurs propres.
Pour démontrer ce théorème, il faut déjà prouver que lorsqu’un système est commandable,
on peut le mettre sous la forme canonique compagne (démonstration non donnée).
Soit donc le système écrit sous forme compagne (mono-entrée)
⎡ ⎤ ⎡ ⎤
0 1 . 0 0
⎢ . . . . ⎥ ⎢ 0 ⎥
xk+1= ⎢
⎣ .
⎥x + ⎢ ⎥u (4.6)
. 0 1 ⎦ k ⎣ . ⎦ k
−a0 −a1 . −an−1 1

en boucle fermée
uk = K(xref − xk ) (4.7)
£ ¤
K = k1 k2 . . kn
on a alors xk+1 = (A − BK)xk + BK xref
4.4. CHOIX DES VALEURS PROPRES 28

⎡ ⎤
0 1 0 0
⎢ . . . . ⎥
A − BK = ⎢


⎦ (4.8)
. . 0 1
−a0 − k1 −a1 − k2 −an−1 − kn
La matrice d’état du système commandé est aussi sous forme compagne. On sait que la
dernière ligne de la matrice contient alors les coefficients de son polynôme caractéristique. Il est
évident que l’on peut déterminer arbitrairement ces coefficients, donc les valeurs propres, par
un choix convenable des ki .

4.4 Choix des valeurs propres


D’après la forme de la solution générale des équations LTI on voit que le comportement
transitoire des variables d’état et donc des sorties seront fonction du comportement des fonctions
exponentielles eλt ou des fonctions tα eλt lorsque la matrice A n’est pas diagonalisable.
Bien sûr les valeurs des matrices C et B influeront sur le nombre de fonctions exponentielles
et leurs coefficients respectifs dans la somme donnant les sorties. Ce point sera étudié plus en
détail dans le cours relatif aux systèmes SISO.

Pour avoir une idée des comportements transitoires il est donc important de connaitre les
formes des fonctions exponentielles, deux cas sont à envisager :

4.4.1 Valeur propre réelle


Nous écrirons λ = − T1 (T > 0 système stable)
t
la solution est donc e− T T est homogène à t et se nomme constante de temps.
réponse caractéristique (fig.4.2)

4.4.2 Valeurs propres complexes


2
elles sont racines d’un polynome ωλ2 + 2a ωλ + 1 = 0
P (λ) = λ2 + 2aλω
√ +ω =0
2 a<1
λ = −aω ± iω 1 − a 2

a est le coefficient d’amortissement


ω est la pulsation propre

réponses caractéristiques
On donne les réponses libres (fig.4.3) correspondant à différentes valeurs du coefficient
d’amortissement a
L’axe des abscisses est gradué en temps réduit ωt

De manière plus générale, la place des pôles dans le plan complexe donne des informations
sur la nature des comportements transitoires : rapides ou lents, peu ou beaucoup amorti. La
figure (fig.4.4) illustre les tendances.
Les pôles situés sur des demi-droites issues de l’origine ont le même coefficient d’amortisse-
ment
4.4. CHOIX DES VALEURS PROPRES 29

0.9

0.8
63%
0.7

0.6

0.5
95%
0.4

0.3

0.2

0.1

0
0 1 2 3 4 5 6 7 8 9 10

Fig. 4.2 — Système du premier ordre


4.4. CHOIX DES VALEURS PROPRES 30

0.8

0.6

0.4

0.2

a=0.9
0
a=0.7

a=0.5
-0.2

a=0.3 wt
-0.4
0 1 2 3 4 5 6 7 8 9 10

Fig. 4.3 — système du second ordre


4.4. CHOIX DES VALEURS PROPRES 31

amortissement
ω (1 − a 2 )
θ
+

+RAPIDE

−aω
+LENT

Fig. 4.4 —
4.4. CHOIX DES VALEURS PROPRES 32

a = sin θ (4.9)
Chapitre 5

Observabilité

La question posée est duale de la commandabilité. On cherche la valeur de l’état avec la seule
connaissance des sorties.
Cette propriété peut sembler naturelle ; c’est loin d’être évident car on cherche toutes les
variables d’état avec la seule connaissance des sorties. Cette recherche est faite dans deux appli-
cations très différentes :
- la commande : le retour d’état y joue un rôle très important, mais il ne peut être réalisé
que si on connait effectivement l’état.
- le diagnostic : un moyen de vérifier la cohérence des informations données par un ensemble
de q capteurs est de n’en utiliser que q − 1 et de comparer l’estimation de la kième valeur avec
sa mesure.
Afin d’alléger la partie démonstrative, nous ne démontrerons certains résultats que dans le
cas des systèmes récurrents pour lesquels les démonstrations font appel à des notions mathéma-
tiques simples et nous donnerons les principaux résultats relatifs aux systèmes différentiels sans
démonstration.
Nous utiliserons les résultats sur les systèmes discrets, en particulier
le modèle :
xk+1 = Axk + uk (5.1)
yk = Cxk + Duk (5.2)
et la solution :
k
X
k
xk = A x0 + Ai−1 Buk−i (5.3)
i=1
Les systèmes continus seront écrits sous la forme canonique habituelle :

ẋ = Ax + Bu (5.4)
y = Cx + Du (5.5)

33
5.1. CRITÈRE D’OBSERVABILITÉ 34

Nous utiliserons :"système(A, C)” pour désigner indifféremment les deux types de système.
En général, le nombre de sorties dont on dispose (variables sur lesquelles on a mis des
capteurs) est inférieur au nombre de variables d’état. La matrice C : y = C x est de rang
p < m il n’est donc pas possible de l’inverser pour trouver x. Il est par contre souvent possible
de reconstituer la valeur de x0 en observant une séquence plus ou moins longue de sorties Y :
y1 .........yk , ou en observant l’évolution de la sortie y sur un intervalle de temps [t0 , t1 ] c’est la
notion d’observabilité.

5.1 Critère d’observabilité


5.1.1 Définitions
Définition 5.1 Système observable

- cas discret
Un système est observable si ∀ x il existe un nombre i fini tel que la connaissance de Y
={y1 ......yi } permette le calcul de x.
- cas continu
Un système est observable si ∀ x0 il existe un temps fini tf tel que connaissance de y sur
[t0 , tf ] permette le calcul de x0

Définition 5.2 Sous-espace non observable (SENO)


L’ensemble des états qui procurent une sortie nulle est un sous espace vectoriel de X appelé
sous-espace non observable ou non reconstructible

Théorème 5.3 Le sous espaceh non observable est le noyau


i de la matrice d’observabilité :
T T T T T n−1 T
O(A, C) telle que O(A, C) = C A C . . (A ) C

Démonstration. (cas discret)


y0 = Cx0
y1 = Cx1 = CAx0 + CBu1
Xn
yi = Cxi = CAi x0 + CAi−1 Bui
i=1
Les entrées ne jouent pas de rôle dans ce problème. Elles sont connues et peuvent être
supposées nulles sans perte de généralité. On peut donc considérer le système autonome :
y0 = Cx0
y1 = CAx0
yi = CAi x0

y0 = y1 = ..... = yn = 0 ⇒ Cx0 = 0, CAx0 = 0, ..., CAi x0 = 0 ∀i donc O(A, C)x0 = 0


Le théorème de Cayley-Hamilton montre qu’il suffit de s’arrêter à m = n − 1 puisque pour
m ≥ n − 1, Am est combinaison linéaire des Ai pour i de 0 à n-1.
5.2. DUALITÉ - DÉCOMPOSITION CANONIQUE 35

Propriétés du SENO
- Le sous-espace non observable est stable (invariant) par A.
En effet, si x ∈ SENO, x est tel que CAi x = 0; i = 1, n donc Ax aussi puisque, toujours
d’après le théorème de Cayley-Hamilton, An est fonction linéaire des Ai ; i ≤ n − 1.
- Le sous-espace non observable est le plus grand sous espace vectoriel de Rn stable par A et
inclu dans le noyau de C.

5.1.2 Critère
Théorème 5.4 critère d’observabilité (continu et dicret) h Un système (A, C) est observable
i
T
si et seulement si la matrice O(A, C) telle que O(A, C) = C T AT C T . . (AT )n−1 C T est
de rang n.

Cette matrice est appelée matrice d’observabilité du système.

En effet le système
y0 = Cx0
y1 = CAx0
yn−1 = CAn−1 x0
admet une solution unique x0 ssi la matrice O(A, C) est de rang n, son noyau est réduit à
zéro
On peut remarquer que, lorsque le système est mono-sortie, la matrice O(A, C)est carrée
nxn, il faut que le déterminant de cette matrice soit non nul pour que le système soit observable

5.2 Dualité - Décomposition canonique


Les résultats obtenus sur la commandabilité et l’observabilité prouvent que ces deux pro-
priétés sont duales :
l’observabilité du système ẋ = Ax; y = Cx et équivalente à la commandabilité du système
ẋ = AT x + C T u
On en déduit la décomposition canonique lorsque le système n’est pas totalement observable
(rangO(A, C) < n). On choisit un changement de base qui met en évidence la structure parti-
culière. Il suffit de choisir une base contenant les vecteurs du noyau de O(A, C). On arrive alors
aux équations suivantes :
∙ ¸ ∙ ¸∙ ¸ ∙ ¸
ż1 A11 0 z1 B1
= + u
ż2 A21 A22 z2 B2
∙ ¸
£ ¤ z1
y = C1 0
z2
z2 n’agit pas sur les sorties ni directement, ni indirectement par l’intermédiaire de z1 , il sera
donc impossible de reconstituer z2 en observant les sorties.
5.3. CONSTRUCTION D’UN OBSERVATEUR 36

5.3 Construction d’un observateur


Pour obtenir une estimation du vecteur d’état à un instant, on construit un système qui “si-
mule” le procédé. Cette simulation ne peut être réalisée de manière parfaite puisque d’une part
on ne sait pas initialiser le vecteur d’état du simulateur, d’autre part on aurait une structure de
type boucle ouverte qui ne prendrait pas en compte les erreurs de modélisation et les perturba-
tions. Il faut donc utiliser l’information dont on dispose sur le fonctionnement du système (les
sorties) pour réaliser cet “observateur”.
On ajoutera à l’équation de simulation un retour sur la différence entre l’état courant et
l’état observé
- cas discret
Soit donc le système de vecteur d’état x̂k
x̂k+1 = Ax̂k + Buk + G(yk − ŷk )
ŷk = C x̂k

qui doit observer le système :


xk+1 = Axk + Buk
yk = Cxk
Pour que l’observation ait lieu il faut que x̂k tende vers xk quand k devient grand ou que εk =
x̂k − xk tende vers zéro indépendamment des commandes et des conditions initiales (puisqu’on
ne sait pas les déterminer). Si on fait la différence des deux équations d’évolution, on obtient :

ek+1 = x̂k+1 − xk+1 = (A − GC)ek


- cas continu
en procédant comme pour le cas discret on construit l’obervateur par
dx̂
= Ax̂ + Bu + G(y − ŷ)
dt
ŷ = C x̂

l’équation de l’écart e = x̂ − x est ė = (A − GC)e


Si A − GC est stable, alors e → 0 quand t → ∞ nous avons ici un résultat analogue à
celui obtenu pour la commande par retour d’état.

Théorème 5.5 observateur Si le système (A, C) est observable, il est possible de déterminer la
matrice de gain G de manière à placer arbitrairement les valeurs propres de A - GC.

Démonstration. Ce résultat est très simple à démontrer si l’on remarque la dualité qui existe
entre les notions de commandabilité et d’observabilité.
Si le système ẋ = Ax + Bu ; y = Cx est observable
Alors le système ż = AT z + C T u est commandable
Chapitre 6

Commande par retour d’état avec observateur

6.1 Le théorème de séparation


Lorsque l’état x n’est pas accessible à la mesure on peut maintenant envisager de réaliser la
commande par retour d’état en utilisant l’information x̂ donnée par un observateur,

u = K(xref − x̂)
Il reste à voir si cette construction est cohérente et quel est son rapport avec ce que l’on
aurait obtenu si on avait pu réaliser un véritable retour d’état,
Ecrivons les équations de l’ensemble
dx
= Ax + BK(xref − x̂) (6.1)
dt
dx̂
= Ax̂ + BK(xref − x̂) + G(y − ŷ) (6.2)
dt
y = Cx, ŷ = C x̂ (6.3)

On voit que la dimension du vecteur d’état a doublé puisque l’on a le système et son obser-
vateur.
Ces équations sont beaucoup plus simples si on utilise la variable ε = x̂ − x. En effet, elles
deviennent :

dx
= (A − BK)x − BKε + BKxref
dt

= (A − GC)ε
dt
ou encore

37
6.1. LE THÉORÈME DE SÉPARATION 38

∙ ¸ ∙ ¸∙ ¸ ∙ ¸
d x A − BK −BK x BK
= + xref (6.4a)
dt ε 0 A − GC ε 0
∙ ¸
£ ¤ x
y= C 0 (6.4b)
ε

Théorème 6.1 (retour d’état avec observateur) Si le système (A,B,C) est commandable
et observable, la réalisation d’une commande par retour sur l’état observé donne un système
dont l’ensemble de valeurs propres comprend les valeurs propres de A-BK (retour d’état) et
celles de l’observateur A-GC. Il est possible de placer arbitrairement ces valeurs propres dans le
plan complexe par le choix des matrices K et G.

Démonstration. La forme partitionnée de la matrice d’état du système bouclé conduit immé-


diatement au fait que le polynôme caractéristique du système commandé est égal au produit du
polyôme caractéristique de A − BK par celui de A − GC, d’où le résultat.

Remarque 6.2 On peut aussi noter que, pour la même raison, l’observateur disparaît dans le
transfert entre xref et t

Le schéma complet de cette commande est illustré par la figure (fig6.1)

dx
= Ax + Bu y = Cx
dt
yk
Système
ref uk
+ +
L
- G
-

dxˆ yˆ = Cxˆ
= Axˆ + Bu
dt

OBSERVATEUR

K x̂

RETOUR sur l’ETAT OBSERVE

Fig. 6.1 — retour d’état avec observateur


6.2. APPLICATION AU CAS MONO-ENTRÉE/MONO-SORTIE 39

6.2 Application au cas mono-entrée/mono-sortie


Dans le cas mono-entrée/mono-sortie, certains résultats généraux évoqués dans les chapitres
précédents s’expriment simplement avec les fonctions de transfert. Ils donnent une vision inté-
ressante de contraintes à respecter dans la conception des correcteurs.

6.2.1 Réalisation minimale


b(p)
Théorème 6.3 Soit G(p) = a(p) une fonction de transfert. On notera Rd = (A, B, C, D) toute
réalisation de G telle que dimension de A = degré dénominateur de G (G(p) = C(pI −
A)−1 B + D)
Les propositions suivantes sont équivalentes :
- G(p) est irréductible
- Toute réalisation Rd est observable et commandable
- Les réalisation Rd sont équivalentes (il existe un changement de base qui permet de passer
de l’une à l’autre).

Démonstration. Admis
Ce théorème mérite quelques commentaires.
- Il prouve que G(p) définit une classe d’équivalence dans l’ensemble des représentations
d’état
- Les fonctions de transfert irréductibles ne représentent que la partie observable et comman-
dable des systèmes.
-Lorsqu’une fonction de transfert n’est pas irréductible (pôle et zéro identiques) la question
de savoir si les réalisations Rd sont observables ou commandables et sans objet : on peut toujours
à partir d’une fonction de transfert, irréductible ou non, construire une réalisation Rd observable
ou commandable (cf le shéma de Kelvin qui conduit à une réalisation commandable).
Les deux propriétés ne seront vérifiées en même temps que si G est irréductible.
- Une conséquence importante de ces résultats est qu’il ne faudra jamais composer un pôle
ou un zéro instable (partie réelle positive ou module supérieur à un). En effet la partie instable
disparaitrait bien de la fonction de transfert par simplification, mais ceci n’empêcherait pas
l’existence d’un mode instable et donc conduirait à une instabilité interne du dispositif.

6.2.2 Structure R.S.T.


Appliquons le schéma de commande, retour d’état avec observateur, avec une légère modifi-
cation
u = −K x̂ + r au lieu de u = K(xref − x̂)
Ceci ne change rien aux matrices d’état et de sortie et ne modifie que la matrice d’entrée,
donc ne modifie pas le théorème (6.1)
Les variables r, u et y sont des variables scalaires, toutes les équations sont LTI, il existe
donc des fonctions de transfert, HD (p) transfert direct, et, HR (p) transfert de retour, telles que
u = HD (p)r − HR (p)y
On sait d’après le théorème (6.1) que cette structure permet de placer les valeurs propres
du système en boucle fermée, elle permettra donc de placer les pôles de la fonction de transfert
HBF (p) = y2 .
6.2. APPLICATION AU CAS MONO-ENTRÉE/MONO-SORTIE 40

La recherche directe des fonctions de transfert HD et HR conduit à une méthode largement


utilisée dans la conception des régulateurs numériques
u = HD (q)r − HR (q)y = NH D (q) NHR (q)
DHD (q) r − DHR (q) y
ou en réduisant au même dénominateur
u = T (q)r−S(q)y
R(q)
où R(α), S(q) et T (q) sont des polynomes en q que l’on peut rechercher directement à partir
des spécifications d’un cahier des charges.

Vous aimerez peut-être aussi