Vous êtes sur la page 1sur 71

ROYAUME DU MAROC ‫المملكة المغربية‬

Ministère de l’Education Nationale, de la


Formation Professionnelle, de l’Enseignement
‫وزارة التربية الوطنية والتكوين المهني‬
Supérieur et de la Recherche Scientifique ‫والتعليم العالي والبحث العلمي‬
‫جامعة سيدي محمد بن عبد هللا‬
Université Sidi Mohamed Ben Abdellah
Faculté des Sciences Dhar El Mahraz - Fès ‫كلية العلوم ظهر المهراز ف اس‬

El Houssaine Tissir
Département de Physique

Licence Fondamentale

Filière: Sciences de la Matière Physique (SMP)

Semestre 6

Année Universitaire 2022-2023


Sommaire

Chapitre 1: Notions de base sur les asservissements

I. Définitions
II. Transformation de Laplace
II.1. Quelques propriétés de la transformée de Laplace
II.2.Transformée de Laplace inverse
II.3. Calcul de la transformée de Laplace inverse
II.3.1. Utilisation du théorème des résidus
II.3.2. Décomposition en éléments simples
III. Représentation externe (fonction de transfert)
III.1. Définition
III.2. Propriétés de la fonction de transfert
III.3. Forme standard d'une fonction de transfert
IV. Algèbre des schémas fonctionnels
IV.1. Notions fondamentales des schémas fonctionnels
IV.2. Représentation d’un système
IV.3. Forme canonique d'un système asservi
IV.4. Simplification des schémas fonctionnels
V. Systèmes de commande
V.1. Commande d’un système en boucle ouverte
V.2. Commande d’un système en boucle fermée
VI. Classification des systèmes asservis
VI.1. Classification selon le type de l'entrée de référence
VI.2. Classification selon le type du régulateur

Chapitre 2: Réponses temporelles des systèmes dynamiques

I. Systèmes de premier ordre


I.1. Processus à constante de temps
I.2. Processus intégrateur pur
II. Systèmes du second ordre
III. Réponse indicielle (réponse à un échelon unité)
III.1. Cas d’un système de premier ordre à constante de temps
III.2. Cas d’un processus intégrateur
III.3. Cas d’un système de second ordre
IV. Réponse impulsionnelle
IV.1. Cas d’un système de premier ordre à constante de temps
IV.2. Cas d’un processus intégrateur
IV.3. Cas d’un système de second ordre
V. Réponse à une rampe : u(t)=at
V.1. Cas d’un système de premier ordre à constante de temps
V.2. Cas d’un système de second ordre

1
Chapitre 3: Représentation des systèmes dans l’espace d’état

I. Représentation d'état des Systèmes continus


I.1. Définitions
I.2. Quelques méthodes d’obtention de la représentation d’état
I.2.1. A partir de l’équation différentielle entrée sortie
I.2.2. A partir du diagramme de simulation
I.2.3. A partir de la représentation externe
I.2.4. Représentation d’état des systèmes variants
I.3. Pluralité de représentation d’état
I.4. Intégration des équations d’état
II. Représentation d'état des systèmes discrets
II.1. A partir de l'équation aux différences entrée sortie
II.2. A partir du diagramme de simulation
II.3. Pluralité de représentation
II.4. Intégration des équations d’état
III. Commandabilité et observabilité
III.1. Définitions
III.2. Critères de commandabilité et d'observabilité
III.2.1. Systèmes invariants
III.2.2. Systèmes variants
IV. Commande par retours d'état
V. Commande par reconstruction d’état.

Annexe: Table des transformées de Laplace des signaux usuels

2
Chapitre 1: Notions de base sur les asservissements

I. Définitions

Définition de l'Automatique : L'automatique est un ensemble de théories mathématiques et


une technique de raisonnement qui concernent la prise de décision et la commande du système.

L'automatique est indispensable quand il s'agit de traiter avec précision et en toute sécurité des
systèmes rapides ou peu stable.

Système: Un système est un ensemble de constituants reliés les uns aux autres de façon à former
une entité.
On peut avoir un système simple, formé d’un seul élément comme par exemple une balle, ou
un système composée, formé de plusieurs éléments.

 Un système monovariable est caractérisé par une grandeur de sortie et une grandeur
d'entrée. Il est représenté par le schéma suivant:

L'entrée e(t) agit sur le système et permet de le piloter vers un état spécifié, la sortie s(t)
représente les effets de la grandeur d'entrée que l'on peut observer généralement au moyen des
capteurs. Les perturbations est une variable aléatoire dont on ne connaît pas l'origine.

 Un système multivariable (plusieurs grandeurs de sortie et d'entrée), est représenté par :

3
Les grandeurs de sortie et d'entrée peuvent être rassemblées dans des vecteurs s(t) et e(t)
respectivement.

Système Automatique: Un système est dit automatique lorsqu'il accomplit une tache bien
déterminée sans intervention humaine

Système dynamique ou à mémoire : Un système dynamique est un système dont la réponse


à une excitation dépend à la fois de celle-ci et de ce qui s’est passé avant. La relation
mathématique liant l’entrée et la sortie est plus complexe : la sortie dépend d’elle même (de
ses dérivées) et de l’entrée.

Système linéaire :: Un système est dit linéaire si la fonction qui décrit son fonctionnement est
linéaire. Elle vérifie le principe de proportionnalité et de superposition.

Proportionnalité : si y(t) est la réponse du système à l’entrée u(t), alors λy(t) est la réponse à
l’entrée λu(t).

Superposition : si y1(t) est la réponse du système à l’entrée u1(t) et y2(t) est la réponse du
système à l’entrée u2(t), alors y1(t)+y2(t) est la réponse à l’entrée u1(t)+u2(t).

On peut aussi définir un système dynamique linéaire comme un système qui peut être décrit
par une équation différentielle linéaire.

Système stationnaire : Un système est dit invariant (ou invariant) si on suppose que les
caractéristiques du système (masse, dimensions, résistance, impédance,…..) ne varient pas au
cours du temps.
Dans ce cas, si y(t) est la réponse à l’entrée u(t) alors y(𝑡 − 𝜏) est la réponse à u(𝑡 − 𝜏)

4
On peut dire qu’un système est stationnaire lorsqu’il peut être décrit par une équation
différentielle linéaire à coefficient constants.

Système causal : Un système est dit causal si la valeur de la sortie y(t) à un instant to ne dépend
que des valeurs de l'entrée u(t) pour tto.
Cette définition montre que le système est causal si la valeur de la sortie à un instant donné ne
dépendra pas des valeurs futures de son entrée.
Notons que tous les systèmes physiques sont causaux.

II. Transformation de Laplace


C'est un outil mathématique possédant l'avantage de transformer des équations différentielles
en équations algébriques

Définition 1. : Soit f(t) une fonction réelle de la variable réelle t, définie pour t>0 et soit s une
  o t
variable complexe définie pour s    j . S'il existe un réel  0 tel que 0 f(t) e dt  ,
alors f(t) admet une transformée de Laplace pour Re(s)     0 donnée par,

 st
Lf ( t )  F( s )  0 f ( t )e dt

Exemple 1. : Calculer la transformée de Laplace de la fonction échelon unitaire


0 pour t0
(t) .
1 pour t0

Réponse :

   st  1   1  1
U ( s)  L[(t )]   (t )e st dt  e dt   e st   lim  e st  
0 0  s  0 t   s  s

1
Pour que l'intégrale converge, on doit avoir >0 et donc 0  0 . Donc U( s )  L( t )  pour
s
tout s telle que Re(s)>0.

Remarque: Une fonction est dite causale si elle est identiquement nulle pour t<0.

5
II.1. Quelques propriétés de la transformée de Laplace
1-Unicité de la solution : Si deux fonctions f(t) et g(t) possèdent la même image H(s)
(H(s)=L[f(t)]=L[g(t)]) alors ces deux fonctions sont identiquement égales.

2-Linéarité : La transformée de Laplace est linéaire, c à d que si f1 et f2 ont une transformée de


Laplace et si λ1, λ2 sont deux nombres réelles λ1.f1 + λ2.f2 a aussi une transformée de Laplace et
que L(λ1.f1 + λ2.f2) = λ1.L(f1) + λ2.L(f2) (à conditions que L(f1) et L(f2) existent

pour tout s > 0).

Exemple 2 :
6
f1 (t) = t 3 Transformée de Laplace F1 (s) = 4
{ s
(t) −5t → {
1
f2 = e
F2 (s) =
s+5

18 4
f ( t )  3f1( t )  4f 2 ( t )  F(s)  3F1(s)  4F2 (s)  
s 4 s  5

3-Théorème de la valeur initiale : f ( 0 )  lim f ( t )  lim sF( s )


t 0 s
9s  3
Exemple 3: F(s) 
13s 2  7s  4
 2 
sF(s)  lim  92s  3s   9
s  13s  7s  4  13

4-Théorème de la valeur finale : f (  )  lim f ( t )  lim sF( s )


t  s 0 
9s  3
Exemple 4: F(s) 
13s 2  7s  4
 9s  3 
f ()  lim sF(s)  lim s 0
s0 s0 13s 2  7s  4 

Remarque :
i) Le théorème de la valeur initiale ne s’applique pas si le degré du numérateur de F(s) est égale
ou supérieur au degré de son dénominateur car f(t) contient alors une impulsion.

ii) le théorème de la valeur finale ne s’applique que si tous les pôles de F(s) sont à partie réelle
négative. On tolère un pôle simple nul. Si ces conditions ne sont pas respectées, f(t) est une
fonction qui croit constamment avec le temps, d’où l’impossibilité d’utiliser ce théorème.

iii) Si la différence entre le degré du dénominateur de F(s) et le degré de son numérateur est
supérieur ou égale à 2 alors f(0+)=0.

6
iv) Si la différence entre le degré du dénominateur de F(s) et le degré de son numérateur est
égale à 1, alors f(0+) est le quotient des coefficients de plus haut degré du numérateur et du
dénominateur.

5-Dérivation :

Proposition: Soit f localement sommable, nulle pour t < 0, possédant sur R∗+ une dérivée
continue (ou continue par morceaux), localement sommable. De plus on suppose que pour t
assez grand
|f(t)| ≤ Aeat , (A, a)ϵR∗+ × R

Alors,

L   sF(s)  f (0  ) , Re(s)>a


df
 dt 

Preuve,

En utilisant la définition de la transformée de Laplace :


+∞
𝑑𝑓(𝑡) 𝑑𝑓(𝑡) −𝑠𝑡
𝐿{ }=∫ [ ] 𝑒 𝑑𝑡
𝑑𝑡 0+ 𝑑𝑡

On intègre par partie. Soit 𝑢 = 𝑒 −𝑠𝑡 et dv(t)=df(t), on obtient,


+∞
𝑑𝑓(𝑡)
𝐿{ } = 𝑒 −𝑠𝑡 𝑓(𝑡)|+∞
0+ − ∫ 𝑓(𝑡)(−𝑠𝑒 −𝑠𝑡 ) 𝑑𝑡
𝑑𝑡 0+

+∞
= −𝑓(0+ ) + 𝑠 ∫ 𝑓(𝑡)𝑒 −𝑠𝑡 𝑑𝑡
0+

= sF(s) − f(0+ )

On peut utiliser le même processus pour démontrer la transformée de Laplace pour des
dérivées d'ordre supérieur. On obtient alors :

 dn  d d n 1
L f ( t )  s n F(s)  s n 1f (0  )  s n  2 f (0  )  ...  f (0  )
n 1
 dt 
n dt dt
n 1
 s n F( s )   sn 1k f ( k )( 0 ); f ( 0 )( 0 )  f ( 0 )
k 0


On note que pour une fonction causale : f ( k )( 0 )  0 pour tout k  L f ( n )( t )  sn F( s ) 
Remarque: On doit distinguer la dérivée en t de celle en s : L t n f (t )  (1) n   d n F ( s)
ds n

7
d  2 
Exemple 5. Lsin(2t )    Lt. sin(2t )   
2 4s
 
2
s 4 ds  s 2  4 
s 2  42
 
6- Intégration : L  f ( t )dt 
F(s)
s

7-Théorème du retard : si F(s)=L[f(t)] alors Lf t     e s F(s) , pour t>.


En termes plus simples, retarder une fonction de  dans le temps, revient à multiplier sa
transformée de Laplace par e-s


8-Théorème du déplacement : si F(s)=L[f(t)] alors L eat f ( t )  F( s  a ) 
1 s
9- Théorème de changement d’échelle : si F(s)=L[f(t)] alors L[f(at)] = a F (a) , ∀a > 0

Exemple 6.
1 1 1 3
L[sin(t)] = ⇒ L[sin (3t)] = =
s2 + 1 3 s 2 s2 + 9
(3) + 1

II.2.Transformée de Laplace inverse


Définition 2. : Soit F(s) la transformée de Laplace de la fonction f(t), t>0, alors,
L1 F(s)  f ( t )
s'appelle la transformée de Laplace inverse de F(s).

En pratique, pour obtenir la transformée de Laplace inverse, les trois cas suivants se
présentent.

 La transformée inverse de F(s) est directement dans la table

 Il faut d’abord exprimer ou décomposer F(s) en une somme de termes dont les
transformées inverses sont dans la table.

 Il faut utiliser la table conjointement avec une ou plusieurs propriétés.

II.3. Calcul de la transformée de Laplace inverse


Dans le cas général, les transformées de Laplace se présentent sous forme d'un quotient
N( s )
F( s )  .
D( s )

8
Pour chercher la transformée de Laplace inverse de F(s), on envisage les cas suivants:

 Dans le cas où deg(N(s))>deg(D(s), on doit procéder à une division euclidienne et écrire


F(s) sous forme

 Dans le cas où deg(N(s))=deg(D(s), on doit procéder à une division euclidienne et écrire


F(s) sous forme

On cherchera ainsi les transformées de Laplace inverse de P(s) ou  et de la fraction

 Dans le cas où deg(N(s))<deg(D(s), On peut adopter les deux méthodes suivantes:

II.3.1. Utilisation du théorème des résidus


La transformée de Laplace inverse peut être calculée de la manière suivante :

f ( t )  L1F(s)   résidusF(s)est 
o
et le résidu d'une fonction g(s) en un pôle a d'ordre p s'obtient par :

d p 1
Rés g , a  
1
( p  1)! ds p 1
 
s  a p g( s )
sa
7
Exemple 7: F(s)  , F(s) possède un pôle (-2) multiple d’ordre 3
(s  2)3

f ( t )  résiduF(s)est ,2
 
1 d2 
 s  23 F(s)est 
(3  1)! ds 2   s  2

1 d 2  st 
 7e
2 ds 2   s  2

1 d  st 
 7 te
2 ds  
s  2

9
1  2 st 
 7t e
2  
s  2

 t 2e  2 t
7
2

II.3.2. Décomposition en éléments simples


N( s )
La méthode consiste à décomposer la fraction F( s )  , avec deg(N(s))deg(D(s)), en
D( s )
éléments dont l'image est connue (utilisation des tables). Les cas suivants peuvent se présenter:

Premier cas : Pôles simples: Si D(s) présente des racines simples, on peut écrire :

N ( s)
F (s)  avec si  s j si i  j
s  s1 s  s 2 ...s  s n 
La décomposition de F(s) peut toujours s’écrire sous la forme :

A1 A2 An
F(s)    ... 
s  s1 s  s 2 s  sn

Les coefficients Ai sont appelés les résidus de leurs pôles respectifs. On en déduit :

f (t )  A1e s1t  A2 e s 2 t  ...  An e s n t

Exemple 8:
1 1
F(s)   ; F(s) possède deux pôles simples: -1 et -2.
s 2  3s  2 (s  1)(s  2)

1 1
F(s)  
s 1 s  2
 
d ' où : f(t)  e  t  e  2 t ( t )

Deuxième cas : pôles multiples ; Si D(s) présente des racines multiples par exemple s0 :

N ( s)
F ( s)  avec   1

s  s0  s  s1 ...s  sn  
on écrie F(s) sous la forme :

10
D’où :

Exemple 9:
3s 3s 3 6
F(s)    
s 2  4s  4 s  22 s  2 (s  2) 2
D’où
 
f ( t )  3e  2 t  6 te  2 t ( t )

Troisième cas : pôles complexes : Si D(s) possède des racines complexes, ces racines viennent
de termes quadratiques de la forme as 2  bs  c avec b 2  4ac  0 ,
s  
Dans ce cas, dans l'expression de F(s) intervient des termes de type qu'on écrit sous
as  bs  c 2

la forme
s  d 
. Le terme correspondant de f(t) est : 
d   2  2 e  t sint  
s   2  2 2
  
avec   arctg .
d

4
Exemple 10: Retrouver l'original de H(s) 

s  1 s 2  4s  7 
Cette transformée ne figure pas dans la table. Utilisons la méthode de décomposition, on
écrie:

 s  
H (s)  
s  1 s 2  4s  7

Identifions les deux expressions :

 s   (  )s 2  (4     )s  7   4

s  1 s 2  4s  7


(s  1) s 2  4s  7


s  1 s 2  4s  7  
    0

On doit donc avoir 4      0
7    4

11
  1

La résolution de ce système d’équations donne   -1
  -3

Donc,

1 s3
H (s)  
s  1 s  4s  7
2

Qu’on peut écrire sous la forme

1 s3
H (s)  
s  1 s  2 2  3 2  
De la table des transformées on tire :

h(t)  e  t 
2 3 - 2t
e sin( 3 t  ), t 0
3

Avec   arctg  3.

III. Représentation externe (fonction de transfert)


III.1. Définition
Considérons un système linéaire monovariable et stationnaire décrit par l'équation
différentielle

d n y( t ) dy( t ) d mu( t ) du( t )


an
n
 ...  a1  a 0 y( t )  b m m
 ...  b1  b0u( t )
dt dt dt dt

où a 0 , a1,...,a n , b0 , b1,..., bm sont des constantes. On note que l'équation ne contient pas de terme
constant. En fait il est possible d'éliminer ce terme par un changement de variable.

La réalisation physique impose d'avoir m  n , n s'appelle ordre du système.

On admet que le système est initialement au repos (ou en régime permanent, établi depuis
suffisamment longtemps), toutes les dérivées sont donc nulles à l'instant t=0. L'application de
la transformée de Laplace donne,

a n s n Y( s )  ...  a1sY( s )  a 0Y( s )  b ms m U( s )  ...  b1sU( s )  b0 U( s )

avec Y(s) et U(s) sont les transformées de Laplace de y(t) et u(t) respectivement. Alors, on
déduit :

Y(s) bms m ... b1s  b0


 H(s)
U(s) a s n ...a s a
n 1 0

12
H(s) est appelée fonction de transfert ou transmittance du système. Elle ne dépend ni de la
sortie ni de l'entrée ni des valeurs ou conditions initiales mais seulement de la constitution
physique du système.

III.2. Propriétés de la fonction de transfert


1. La fonction de transfert d'un système est la transformée de Laplace de sa réponse à
l'impulsion.
Si on écrit Y(s)=H(s)U(s), en prenant la transformée inverse de Laplace, on trouve,

t t
y( t )  h( t ) * u( t )   h(  )u( t   )d   h( t   )u(  )d
0 0

où '*' désigne l'opérateur de convolution et h(t) est l'original de H(s). C’est le théorème
de convolution.
h(t) s'appelle réponse impulsionnelle du système car pour une impulsion u( t )  ( t )
(U(s)=1), on a y(t)=h(t).

2. La fonction de transfert est obtenue à partir de l'équation différentielle en prenant la


transformée de Laplace et en laissant de côté tous les termes dépendant des conditions
initiales.
3. On peut obtenir l'équation différentielle du système à partir de la fonction de transfert
en remplaçant la variable s par l'opérateur différentiel D=d/dt.

Exemple 11: donner l'équation différentielle du système dont la fonction de transfert


K
est donnée par: F(s) 
1  Ts
Soit y(t) la sortie du système et e(t) son entrée. On peut écrire,

 1  Ts Y(s)  KE(s)
K Y(s)
F(s)  
1  Ts E(s)

On passe au domaine temporel en remplaçant s par l'opérateur différentiel, on aura:

 d d
1  T  y(t)  Ke( t )  T y(t)  y(t)  Ke( t )
 dt  dt

4. Les valeurs de s annulant le numérateur de la fonction de transfert sont appelées zéros


du système et celles annulant le dénominateur sont appelées ses pôles. On peut donc
définir à une constante près, la fonction de transfert du système par la donnée de ses
pôles et de ses zéros.
5. Du fait de la causalité du système, le degré du numérateur de la fonction de transfert est
inférieur ou égale au degré de son dénominateur m  n

III.3. Forme standard d'une fonction de transfert


Pour le calcul des organes de commande, il est intéressant de faire apparaître dans les
transmittances le gain statique, le nombre d'intégrateurs, les pôles et les zéros. On peut toujours
écrire H(s) sous la forme:

13
Ke  s P(s)
H(s) 
s  Q(s)

P( 0 )
où P(s) et Q(s) sont tels que  1 , K est le gain statique du système,  est égal au nombre
Q( 0 )
d'intégrateurs et  représente le retard pur du système.

Par définition K  lim s H( s ) . K fournit la relation statique entre l'entrée et la sortie.


s 0

IV. Algèbre des schémas fonctionnels

IV.1. Notions fondamentales des schémas fonctionnels

Un schéma fonctionnel consiste en une représentation graphique abrégée des relations entre les
signaux d'entrée et de sortie d'un système physique. C'est un moyen à la fois utile et aisé de
caractériser les relations existant entre les différents organes d'un système de commande.

● Le schéma fonctionnel le plus simple est constitué d’un seul élément:

Les flèches indiquent le sens dans lequel l'information ou le signal se transmettent.

● On représente les opérations d'addition ou de soustraction par un petit cercle marqué d'une
croix appelé comparateur où aboutissent les flèches portant le signe + ou – selon les cas. On
peut faire aboutir au même comparateur un nombre quelconque de signaux d'entrée.

● Lorsqu'on a besoin d'introduire le même signal ou la même variable en plus d'un élément ou
en plus d'un comparateur, on utilise un point de dérivation (ou de branchement).

14
IV.2.Représentation d’un système

On représente un système par le schéma fonctionnel suivant :

La grandeur e(t) est appelée 'entrée principale, elle correspond à une action extérieure s'exerçant
sur le système et permet de le piloter vers un état spécifié. La sortie s(t) caractérise l'état du
système et représente les effets de la grandeur d'entrée que l'on peut observer généralement au
moyen des capteurs. Par exemple, on peut représenter un potentiomètre sous la forme

L'application des lois de la physique au système conduit à l'établissement d'une certaine relation
entre s(t) et e(t).
Les autres grandeurs qui possèdent une action sur le système et qui sont susceptibles par
conséquent de modifier la relation existant entre s(t) et e(t) sont appelées entrées parasites ou
perturbations. Un exemple réel est celui d'un véhicule:

Le schéma fonctionnel de base d'un système asservi peut être donné par :

15
Pour étudier le système asservi, on inscrit à l’intérieur de chaque rectangle la fonction de
transfert de l’élément correspondant ou bien l’opérateur qui va agir sur son entrée.

Exemple 12: Soit l’équation différentielle

dx ( t )
y( t )     x ( t ) ; (y=sortie, x=entrée)
dt

 Dans le domaine temporel, on peut faire la représentation suivante :

 Dans le domaine fréquentiel, on peut calculer : Y(s)  sX(s)  X(s) , d’où la


représentation :

Remarque:

 Dans le domaine temporel, la sortie y(t) est le produit de convolution de la réponse


impulsionnelle h(t) et l’entrée e(t) : y(t)=h(t)*e(t).
 Dans le domaine fréquentielle, la sortie Y(s) est le produit de la fonction de transfert
H(s) et de l’entrée E(s) : Y(s)=H(s)E(s).

16
La figure suivante montre les différentes relations et correspondance entre le domaine
temporel et celui fréquentiel.

IV.3. Forme canonique d'un système asservi


La forme canonique est donnée par le schéma fonctionnel suivant :

H1 : fonction de transfert directe

= fonction de transfert d'action.

H 2 : fonction de transfert de retour.

H1H 2 : fonction de transfert en boucle ouverte.

Calcul de la fonction de transfert en boucle fermée :

Y(s)  H1 (s)(s) avec (s)  E(s)  H 2 (s)Y(s)

ce qui donne :

Y(s)  H1 (s)E(s)  H1 (s)H 2 (s)Y(s)

H1 (s)E(s)
 Y(s) =
1 ∓ H1 (s)H2 (s)

d'où la fonction de transfert en boucle fermée :

17
Y(s) H1 (s)
=
𝐸(𝑠) 1 ∓ H1 (s)H2 (s)

Remarque : Si H2=1, on a un retour unitaire.

IV.4. Simplification des schémas fonctionnels


Le schéma fonctionnel d'un système asservi réel est souvent assez compliqué. Il peut
comprendre plusieurs boucles de retour ou d'action, et plusieurs signaux d'entrée. On peut
toujours ramener un système à boucles multiples à la forme canonique. L'effet des entrées
secondaires est ramené à l'entrée et la réduction des boucles est réalisée en considérant en
premier les boucles internes. La simplification des schémas fonctionnels peut être réalisée en
utilisant des transformations faciles à manipuler. Ces transformations obéissent à des règles
dont le principe est le suivant: Deux schémas blocs sont mathématiquement équivalents si leurs
fonctions de transferts globales sont égales.

Règle 1: Eléments en cascade (série):

Y  G1G2 X

Remarque :

Pour déterminer les fonctions de transferts individuelles des étages en cascade, on doit
éventuellement tenir compte des effets de couplage (interaction entre un système et son voisin).
On peut opérer sans précaution particulière avec des amplificateurs opérationnels du fait de leur
grande impédance d'entrée.

Considérons par exemple le circuit suivant,

La fonction de transfert est,

Y  1 avec   L
U 1 s R

Maintenant, considérons le circuit suivant,

18
Ce circuit est formée de deux étages LR en
cascade, sa fonction de transfert est donnée
par,

Y R2  1  1
U R 3RLs  L s 13s  s 1 s 2
2 2 2 2 2

Le 2ème circuit LR charge la premier

Règle 2: Eléments en parallèle :

Règle 3: Elimination d'une boucle de retour

Règle 4 déplacement d'un comparateur en mont d'un élément

𝑌
𝑍 = 𝐺𝑋 ∓ 𝑌 = 𝐺 (𝑋 ∓ 𝐺 )

19
Règle 5 déplacements d'un comparateur en aval d'un élément

Z=G(X∓𝑌)=GX∓𝐺𝑌

Règle 6 élimination d'un comparateur

On peut remplacer des comparateurs en cascade par un comparateur équivalent

𝑍 = 𝑋1 − 𝑋2 ± 𝑌 = (𝑋1 ± 𝑌) − 𝑋2 = 𝑋1 − (𝑋2 ∓ 𝑌) = (𝑋1 − 𝑋2 ) ± 𝑌

Règle 7: transformation d’un comparateur en sommateur

Règle 8 Permutation de comparateurs

On peut permuter des comparateurs en cascade, cette propriété découle de la commutativité


de l’addition.

20
Remarque :

Pour bien comprendre la règle de permutation des comparateurs, je recommande de voir la


vidéo sur le lien : https://youtu.be/BEvBq8ozXdI . Dans cette vidéo, nous avons expliqué en
premier une règle qui est très utile : cette règle consiste à transférer le signe (-) d’une entrée d’un
comparateur aux entrées du comparateur qui le précède. Ensuite, nous avons expliqué et détaillé
les étapes d’obtention du résultat de la permutation pour quatre situations qui sont souvent
rencontrées dans les problèmes de réduction des schémas fonctionnels.

Règle 9 Permutation de capteurs

Règle 10 déplacement d’un élément en amont d’un nœud

Z=GX et Y  X  1 GX
G

Règle 11 déplacement d’un élément en aval d’un nœud

21
Remarque

Il faut souligner que deux schémas ne sont équivalents que s’ils obéissent à la même loi. Il est
donc intéressant de vérifier que le schéma réduit obéit bien à la même équation entrée-sortie,
donc à la même fonction de transfert.

Remarque

Les règles de transformations servent aussi à mettre en évidence le rôle d’un paramètre
important du système. Ceci est réalisé en isolant cet élément et par suite simplifier l’étude de
l’influence des variations de ce paramètre sur le comportement du système. Par exemple, soit
le système décrit par le schéma fonctionnel suivant,

On désir simplifier ce schéma en isolant le paramètre K.

En appliquant la permutation de deux comparateurs, on aura,

22
En appliquant deux transformations ;

 Deux éléments en parallèles


 Deux éléments en cascade

On aura le schéma équivalent suivant,

Avec ce schéma on peut voir que la fonction de transfert en boucle ouverte est,

1 + s + F(s)

s 2 (s + 1)

Donc, on peut chercher les performances du système (sans K), c’est-à-dire de fonction de
transfert en boucle ouverte donnée par,

1 + s + F(s)
G1 (s) =
s 2 (s + 1)

Et étudier l’influence du paramètre K sur ce système, ainsi on peut choisir la valeur de K qui
améliore ces performances et par suite obtenir les meilleurs performances.

V. Systèmes de commande
Définition 5.1: un système de commande est un assemblage de constituants physiques branchés
ou reliés les uns aux autres de telle sorte qu'il puisse se commander, se diriger, ou se régler lui-
même, ou bien commander, diriger, ou régler un autre système.

Les systèmes de commande entrent dans deux catégories générales: les systèmes en boucle
ouverte et les systèmes en boucle fermée

V.1. Commande d’un système en boucle ouverte


Définition 5.2: Un système de commande en boucle ouverte est un système où le signal de
commande est indépendant du signal de sortie.

23
avec :
le système à commander est le système sujet à la commande (four, moteur ,réacteur ...)

Sortie (appelée grandeur réglée) : c'est la grandeur physique que l'on désire contrôler. Elle
donne son nom à la régulation. Par exemple : régulation de température.

Consigne : ordres, c'est la valeur désirée que doit avoir la grandeur réglée; exemple fixer une
température à 37 °c ou fixer une trajectoire d’un avion.

Action de commande (ou grandeur réglante) : Action susceptible de changer l’état du


système à commander. Elle est élaborée en fonction des ordres.

Exemple 13: régulation de niveau d'eau dans un réservoir

C'est une commande en boucle ouverte qui ne permet pas de régler avec précision le niveau de
sortie et corriger l'effet des perturbations.

Remarque: les deux caractéristiques essentielles des systèmes en boucle ouverte sont les
suivantes:
1. leur aptitude à fonctionner avec précision est déterminée par leur calibre. Calibrer
signifie établir ou réétablir la relation entre entrée et sortie de façon à obtenir du système
la précision voulue.
2. Le phénomène d'instabilité n'est en général pas gênant.

V.2. Commande d’un système en boucle fermée

24
Définition 5.3: Un système de commande en boucle fermée est un système où le signal de
commande dépend d'une façon ou d'une autre du signal de sortie. Ce système est appelé aussi
système bouclé ou système asservi ou asservissement.
Le schéma général d’un asservissement analogique est donné par la figure suivante:

Un système asservi comporte une chaîne d'action avec amplification de puissance appelé aussi
chaîne de puissance, une chaîne de retour ou de contre-réaction (de faible puissance) et un outil
de comparaison.
 le processus est soumis aux excitations constituées par l'entrée de référence et des
perturbations.
 Le capteur donne une image utilisable (de nature le plus souvent électrique) de la grandeur
réglée. Un capteur doit donner une image fidèle de la grandeur réglée. Sa sensibilité impose
donc les limites de précision de l'asservissement.
 Le régulateur est composé de deux parties :
- Le comparateur qui reçoit l'information de référence et la grandeur mesurée dont il fait la
différence  appelée écart ou erreur.
- Le correcteur dont le rôle sera d'éliminer cet écart quelles que soient les perturbations, et
d'amener le processus à réagir rapidement, quelles que soient les variations de l'entrée de
référence ou des perturbations. Donc, il a pour but d'assurer le bon fonctionnement du
processus et en particulier sa sécurité.
 L'actionneur reçoit du régulateur la grandeur réglante et l'amplifie en puissance, c'est le
"muscle" de la chaîne qui va piloter l'évolution du processus (par exemple : moteur, vérin,
vanne, …)

Exemple 14: Régulation de température d’eau dans un bassin

Le schéma de la régulation automatique de température d'eau dans un bassin est donné par la
figure suivante :

25
 Le débit d’eau chaude est réglé par une vanne motorisée; il est proportionnel à l'angle
d'ouverture de la vanne  v (rd).
 Le débit d’eau froide peut être réglé manuellement.

Le thermocouple mesure la température T d’eau dans le bassin et délivre une tension VT


proportionnelle à T. cette tension est envoyée à la borne négative d’un amplificateur
opérationnel qui va la comparer à la tension de référence Vref (proportionnelle à la température
de référence). L'amplificateur opérationnel de gain A1 délivre une tension u=A1 (Vref-VT).
Lorsque l’écart = Vref-VT est non nul (u0), le moteur va faire tourner son arbre dans un sens
pour régler l’angle d’ouverture de la vanne par l’intermédiaire d’un réducteur. Lorsque la
température T du bassin devient égale à la température de référence Tref, on a Vref = VT et donc
u=0, le moteur s’immobilise dans une position assurant un débit d’eau chaude d’équilibre.
A partir de cette position d’équilibre correspondant à l’ouverture veq de la vanne, supposons
qu’une perturbation vient modifier la température T du bassin (exemple, l’ouverture de la vanne
d’eau froide change). Supposons que T diminue, il en résulte que la tension délivrée par le
thermocouple VT diminue. Comme conséquence, la tension u=A1 (Vref-VT) augmente entrainant
la rotation du moteur dans le sens d’ouverture de la vanne, et donc v augmente, ce qui permet
d’augmenter le débit d’eau chaude et par suite la température du bassin.
Maintenant, Supposons que T augmente, il en résulte que la tension délivrée par le
thermocouple VT augmente. Comme conséquence, la tension u=A1 (Vref-VT) diminue entrainant
la rotation du moteur dans le sens de fermeture de la vanne, et donc v diminue, ce qui permet
de diminuer le débit d’eau chaude et par suite la température du bassin.
Donc quelle que soit la cause du changement de température du bassin, le système réagit de
manière à s’opposer à ce changement. C’est dans ce sens qu’il y a asservissement d’une
grandeur de sortie sur une grandeur d’entrée.

On remarque que ce montage met en évidence l’opération de bouclage. Le rôle du bouclage est
d’ajuster en permanence le débit qec de l’eau chaude de telle sorte que la grandeur réglée
(température d’eau dans le bassin) soit égale à la consigne (Température de référence Tref) en
dépit des perturbations (par exemple échange de chaleur avec l’environnement, changement du
débit d’eau froide).

26
V. Classification des systèmes asservis
Dans tout système asservi, la sortie doit recopier le mieux possible la consigne.

V.1. Classification selon le type de l'entrée de référence


 Poursuite : l'asservissement a une entrée de référence qui évolue au cours du temps
(exemple : radar de poursuite, un missile qui poursuit une cible, une machine qui doit usiner
une pièce selon un profit donné). Cette évolution de l'entrée fait évoluer le point de
fonctionnement du processus et la sortie doit suivre le mieux possible cette évolution en
dépit des perturbations. On dit que le système fonctionne en suiveur ou en poursuite.
 Régulation : dans ce cas, la consigne est constante ou évolue en paliers et le système doit
compenser l’effet des perturbations. A titre d’exemple : le réglage de la température dans
un four, de la pression dans un réacteur, du niveau d’eau dans un réservoir.
 Servomécanisme : on appelle servomécanisme, un système asservi dont le rôle consiste à
amplifier la puissance et dont la grandeur réglée représente la position mécanique ou l'une
de ses dérivées par rapport au temps comme la vitesse ou l'accélération.

V.2. Classification selon le type du régulateur


 Système asservi linéaire continu : le régulateur utilisé est analogique (réalisé avec des
composants analogiques, essentiellement des amplificateurs opérationnels) dont le signal
de sortie évolue de manière continue dans le temps.
 Système asservi linéaire échantillonné : le régulateur utilisé est numérique
(microprocesseur par exemple) et son signal de sortie est numérique (c'est le résultat d'un
algorithme de calcul).

27
Chapitre 2: Réponses temporelles des systèmes
dynamiques

Généralement, pour analyser un système afin de déterminer ses performances ou comparer le


fonctionnement de plusieurs systèmes, On introduit des signaux de référence d'entrée appelés
aussi signaux de test. Un signal de test doit être :

 Simple : pour faciliter la résolution de l’équation différentielle et reconstituer un autre signal


plus complexe.
 Défini : afin d’effectuer des comparaisons entre les performances des différents systèmes
 Capable d’exciter le régime d’exploitation le plus difficile (exemple: un four, un réacteur)

Les signaux de test utilisés sont de deux types : signaux de test sinusoïdaux et signaux de test
non sinusoïdaux. Les signaux de test sinusoïdaux sont utilisés en analyse fréquentielle et les
signaux de test non sinusoïdaux généralement utilisés dans l’analyse temporelle sont les
suivants:

* Un échelon: la réponse du système est appelé réponse indicielle


* Une impulsion: la réponse du système est appelé réponse impulsionnelle
* Une rampe: la réponse du système est appelé réponse à une rampe

I. Systèmes de premier ordre


I.1. Processus à constante de temps
On appelle un élément du premier ordre ou élément apériodique un système décrit par
l’équation différentielle du premier ordre :

d
a0 y( t )  a1 y( t )  bu ( t )
dt

Qu'on peut écrire sous forme réduite:

ẏ + y = Ku (1)

 est la constante de temps du système, K est le gain statique.


Par application de la transformation de Laplace à l'équation (1) on trouve la fonction de
transfert du système :

K
H(s) 
1  s

28
Exemple : Four électrique

L'entrée de commande est la puissance


électrique P(t). La sortie observée est la
température du four (t)

Bilan énergétique de l'installation pendant un temps dt :


- l'énergie absorbée par le système est P(t)dt
- l'énergie perdue par rayonnement est proportionnelle à la température : (t)dt
- la différence est stockée dans la capacité calorifique C du four dont elle élève la
température de d.
On a donc :
Cd  Pdt  dt
soit,
d d
C  P    C    P
dt dt
1
s 
   (gain statique K=1/ et constante de temps =C/)
P(s) C
1 s

I.2. Processus intégrateur pur


Un système est dit intégrateur pur si la sortie y(t) est proportionnelle à l'intégrale du signal de
Y (s ) K
l'entrée u(t) : y(t )  K  u()d . Sa fonction de transfert est donnée par H (s)   .
U (s) s

Beaucoup d'amplificateurs opérationnels sont conçus pour se comporter comme des


intégrateurs.

Exemple : Système hydraulique

Soit A la section de la cuve et V le volume


d'eau dans la cuve.

dV dh
 qe  A
dt dt

 AsH (s)  Qe(s)


H(s) 1
 Ge  
Qe(s) As

II. Systèmes du second ordre


un système linéaire est dit du deuxième ordre lorsque l’équation différentielle qui régit
son comportement est linéaire de type :

29
d 2 y( t ) dy(t )
a2  a1  a o y( t )  bu ( t )
2 dt
dt

En pratique on présente l’équation sous forme réduite :

d 2 y( t ) dy ( t )
 2w o  w o2 y( t )  Kw o2 u ( t )
dt 2 dt
où,
ao
w o =pulsation propre non amortie ou pulsation naturelle (s'exprime en rd/s) 
a2
a1
 =coefficient d'amortissement
2 a oa 2
b
K =gain statique
ao
Y(s) Kw o2
Fonction de transfert : H(s)  
U(s) s 2  2w o s  w o2

Exemple : Système mécanique (Arbre de rotation)

On tient compte du coefficient d'élasticité Ke, du frottement f et du moment d’inertie J des


masses en mouvement. Cm : couple moteur (entrée), s : angle de rotation (sortie).

d 2s ( t ) ds ( t )
J  Cm K es ( t )f
dt 2 dt

1
 s (s) J
H(s)  
Ke f 1 C m (s) f Ke
wo  ,  et K  s2  s 
J 2 JKe Ke J J

Place des pôles de la fonction de transfert dans le plan complexe


Les pôles de H(s) sont obtenus par la résolution de l'équation s2  2w 0s  w 02  0 . Le
 
discriminant réduit est donné par ' w 02 2 1 . Il y a donc trois cas à envisager.
a)   1  '  0 : le système est sous amorti, et le dénominateur de la fonction de transfert
possède deux pôles complexes conjugués :

s1  w o    j 1 2 ; s2  w o    j 1 2 
   

30
Ils possèdent les propriétés suivantes :
 s1  s 2  w o indépendants de ; s1s2  w o2 .
 Si   0 alors s1  jw o et s 2   jw o : les deux pôles sont imaginaires purs.
 Si   0 les deux pôles sont à gauche de l'axe imaginaire, cela correspond à un
amortissement réel.
 Si   0 les deux pôles sont à droite de l'axe imaginaire, cela correspond à une
amplification.
b)   1  '  0 : le système est amorti, et le dénominateur de la fonction de transfert
possède deux pôles réels négatifs si   0 et positifs si   0.

s1   w o     2  1 ; s 2   w o     2  1 
   
c)   1  '  0 : amortissement critique, racine double s1,2   w o

III. Réponse indicielle


Lorsqu'un système est excité par un échelon, sa sortie est appelée réponse indicielle.
Définition d’un échelon :

 E pour t  0
( t )  
0 pour t  0 (causalté)

 (t) n'est pas définie à l'origine (t=0) ce que l'on transcrit par (0 )  0 et (0 )  E . On a
l'échelon unité si E=1. La représentation réelle de ce signal est l'application d'une tension à un
système par l'intermédiaire d'un interrupteur. C'est le signal de test le plus simple à réaliser,
convient aux systèmes d’une grande inertie

III.1. Cas d’un système de premier ordre à constante de temps


La transformée de Laplace de la
1
fonction échelon unité est donc
s

 
K 1 1 
Y(s)   K  
s(1  s)  s s  1 
 

par conséquent,

31
  
t
y( t )  K 1  e  ( t )

 
 

Le régime transitoire est caractérisé par les paramètres suivants :


 Le temps de réponse tr : temps au bout duquel le système atteint son régime définitif à 5%
près. On peut montrer que tr=3.
 Le temps de monté tm : c'est le temps que met la réponse indicielle pour aller de 10% à 90%
de la valeur finale. On montre que t m   ln(9)  2.2

Le régime transitoire encore appelé régime libre (pas d'excitation) caractérise le comportement
dynamique du système (rapidité et oscillations), et le régime permanent ou régime forcé
caractérise son comportement statique. La dynamique du système est conditionnée par les pôles
de la fonction de transfert et donc par les coefficients de l'équation différentielle.
Plus  est petit plus tr est petit et plus le système est rapide.

Remarque: pour un système asservi à retour unitaire de premier ordre:

K
H(s)  ;
1  s
H(s) K
Y(s)  Yc (s)  Yc (s)
1  H(s) 1  K  s

K1 K 
Y(s)  Yc (s) avec K1  et 1 
1  1s 1 K 1 K

Lorsque l’entrée de consigne est un


échelon unitaire,
  
t
y( t )  K1 1  e 1  ( t )
 
On définit l’erreur de position par :

 ( t )  y c ( t )  y( t )
Et l’erreur statique est définie par :

()  lim ( t ) 


t 

Dans notre cas : ()  lim ( t )   1 


K 1

t  K 1 K 1

Cette erreur est d’autant plus petite que K est grand. Elle est nulle pour K= ce qui n’est pas
réalisable physiquement du fait des limitations pratiques.

32
On note que l’erreur statique peut être déterminée en utilisant le théorème de la valeur finale :

()  lim s(s) 


s 0

D’autre part, plus K est grand, plus 1  est petit, donc tr est petit et par suite le système
1 K
est rapide.

III.2. Cas d’un processus intégrateur

Eo KEo
E(s)   Y(s) 
s s2

 y( t )  KEot

III.3. Cas d’un système de second ordre

1 Kw o2 Kw o2
U(s)   Y(s)  
s 
s s 2  2w o s  w o2 
ss  s1 s  s 2 

a)   1 : racines réelles distinctes

s1   w o     2  1 ; s 2   w o     2  1  et s1  s 2  2 w o  2  1
   
La décomposition en éléments simples de Y(s) donne,
  s s 
Y (s)  K  1  1  2  1 
 s s1  s 2  s  s1 s  s 2 
En prenant la transformée de Laplace inverse on trouve :

y( t )  K 1 
1


s 2 e s1 t  s1e s 2 t (t)
 s1 s 2 
L'évolution de y(t) et de sa dérivée, qui n'est autre que la réponse impulsionnelle,

y( t )  K
s1s 2
s1  s 2
 
e s1t  e s 2 t ( t )

dépendent des valeurs des racines s1 et s2 .

Remarquons que es1t et es 2 t convergent à 0 si s1 et s 2 sont négatifs (racines réelles) ou


Res1  0 et Res 2  0 (racines complexes) ce qui correspond à   0 . Dans le cas où   0 , il
y a divergence de la réponse (instabilité). Nous ne considérons par la suite que les valeurs de
0 .

33
La tangente à l'origine est horizontale,
pour t, y(t )  K . Le temps t i auquel
la courbe s'infléchit est donné par :

ÿ = 0  s1 es1 ti = s2 es2 ti

 ti  1 ln s 2  (les deux racines


s1  s 2  s1 
sont de même signe)

On remarque qu'après t i , le système se comporte comme un système de premier ordre. En effet,


deux systèmes de premier ordre en cascade forment un système de deuxième ordre avec des
racines réelles.

b)   1 : racine double
Kw o2  wo 
s1  s 2   w o , dans ce cas, Y(s)   K 1  1   , soit,
ss  w o 2  s s  w o s  w o  
2

 
y(t )  K 1  1  w o t e  w o t (t )

La réponse a même allure que la précédente. Dans ces deux cas, le régime est apériodique. En
pratique, ce régime ne présente pas d'intérêt car il est lent à s'établir.

c)   1 : racines complexes conjuguées

s1   w o    j 1   2 ; s 2   w o    j 1   2  et s1  s 2  2 jw o 1  2 alors,
   
 1  2 2 
y( t )  K 1   s 2 e  w o t e  jw o 1  t  s1e  w o t e  jw o 1  t 
 2 jw 1   2  
 o
    jw o 1  2 t 2    jw o 1  2 t 2  
  w o t   e  e  jw o 1  t  e  e  jw o 1  t  
y( t )  K 1  e     
  1  2  2j   2  
      

 e  w o t 
y( t )  K 1    sin w 1   2 t   1   2 cos w 1   2 t  
 1  2   o   o  

2
On remarque que  2   1   2   1 donc on peut poser sin()  1  2 et cos()   et
 
la solution devient :

34
 e  w o t 
y( t )  K 1  sin w o 1   2 t   
 1  2  

 e  w o t   e  w o t 
y(t) évolue entre K  1   et 1 
K .
 2
1   

2
1  
Si   0 l'enveloppe croit vers l'infini; divergence (instabilité), et si   0 l'enveloppe converge
vers K; oscillations amorties.

Graphe :

figure: réponse indicielle pour 0   1

Paramètres de performances
2
 pseudo période : Tp = avec w p = w o 1  2 =pseudo pulsation
wp
2 To
Tp   ; To  période propre
w o 1  2 1  2
 Dépassements :
- Le premier dépassement D1 % : C'est le pourcentage de dépassement par rapport à la
y  y ( )
valeur finale stabilisée D1 %  max .100 ; y max est obtenue en calculant
y ( )
dy ( t ) n
 0 ce qui aboutit à t  (n=1,2,3,…). Pour n=1 on a le premier
dt wp


 1  2
dépassement : t pic   D1 %  100e .
wp
3

2
- Pour n=3 on a le deuxième dépassement D 2 % 100e 1
 Le temps de réponse t r : c'est le temps requis pour atteindre le régime définitif à 5%.
 Le temps de monté t m : c'est l'intervalle de temps séparant les instants auxquels la
réponse indicielle vaut 10% et 90% de la valeur finale.

35
IV. Réponse impulsionnelle
La réponse impulsionnelle d’un système est sa réponse à une entrée en impulsion

Définition : L'impulsion de Dirac appelée aussi delta de Dirac ou distribution de Dirac


possède les propriétés suivantes :


 (t )dt  1 ; ( t )  0 pour tout t  0 (1)
et ( t ) n'est pas définie en t=0.

L'impulsion de Dirac peut être générée à partir d'une fonction ( t , ) possédant les mêmes
propriétés (1) par passage à la limite de  tendant vers zéros.


0 pour t  0

1
 ( t , )   pour 0  t  

0 pour t  


De la définition de cette fonction ( t , ) nous avons :



 (t, )dt  1   0
Par définition on pose : ( t )  lim ( t, )
0

Nous pouvons remarquer que  (t )dt  1 puisque la propriété est vraie   0 .
Réalisation physique : Fermeture brève d’un interrupteur. La durée de l’impulsion ne doit pas
être assez grande pour ne pas ressembler à l’échelon ni trop brève pour pouvoir exciter le
système.

Domaine d’utilisation : Système ne pouvant pas être excité pendant un temps assez important.
Lorsqu'un système est excité par une impulsion, sa sortie est appelée réponse impulsionnelle.

IV.1. Cas d’un système de premier ordre à constante de temps


u(t )  (t )  U(s) 1 , alors,
K K 1
Y(s)   .
1  s  s  1

t
K 
 y( t )  e  ( t ) avec  ( t ) est la fonction

échelon unité.

36
K t 
Equation de la tangente : y( t )  1  
  
IV.2. Cas d’un processus intégrateur
K
U(s)=1  Y(s) 
s

 y( t )  K( t )

IV.3. Cas d’un système de second ordre


Kw o2
U (s)  1  Y (s) 
s  s1 s  s 2 
pour 0   1 , la décomposition en éléments simples de Y(s) donne,

1  1 1 
Y(s)  K02   
s1  s 2  s  s1 s  s 2
Ce qui donne :

e s t  e s t ( t )
02
y( t )  K 1 2
s1  s 2
En remplaçant s1 et s2 par leurs expressions :
 2 2 
w o e  w o t  e  jw o 1  t  e  jw o 1  t 
y( t )  K  
1  2  2j 
 
soit,
w o e  w o t
y( t )  K sin w o 1   2 t 
1  2  

Courbe :

Réponse impulsionnelle pour 0   1

Remarque: Un système est dit stable si sa réponse à l'impulsion de Dirac tend vers zéro quand
t tend vers l'infini.

37
V. Réponse à une rampe : u(t)=at

Définition d’une rampe :


 tg.t pour t  0
r(t)  
0 pour t  0 (causalité)


Si tg  1    rd  on a une rampe unité.
 4 

La pente de la droite ( tg ) exprime la vitesse de variation de r(t). C'est pour cela qu'on
appelle souvent la rampe échelon de vitesse.

Réalisation physique : Intégration d’un échelon


Domaine d’utilisation : Système suiveur (missile).

V.1. Cas d’un système de premier ordre à constante de temps


a Ka
U(s)  et donc Y(s)  . La
s2 s 2 1  s 
décomposition en éléments simples donne :
 
1   
Y(s)  Ka     . Il vient alors,
2 s 1
 s s 
 
  
t
y( t )  Ka  t    e    ( t )
 
 

Pour t>>, c'est à dire en régime permanent : y(t )  Ka  t   .

V.2. Cas d’un système de second ordre


aKw o2
U(s)  a et Y(s) 
s2 
s 2 s 2  2w os  w o2 
 Cas où les pôles sont réels :
 s s s 22 s12 1 
Y(s)  aK  1  1 2 1  1 
2 s1s 2 s s1s 2 s 2 s1  s s1 s1s 2 s 2 s1  s s 2
 s 

 2
 y( t )  aK t 
w
 1
o w o s 2 s1 
2

s12es 2 t s 22es1t 
 

 2 
On peut voir que : lim y( t )  aK  t  .
t   wo 

38
 Cas où les pôles sont complexes :

 2
s  4  2
 1
 
 s 

w o 42 1  

 2 wo  2 2 2
 
 
Y (s)  aK  1     aK 1  
s
2 w os
s 2  2w os  w o2   s 2 w os w o s  w o 2  w o2 1 2 
   
 
  w o t   2 1  2 
2
 y( t )  aK  t   e sin w o 1 2 t    avec   arctg 
 w o w 1 2    2 2  1 
 o   

 2 
Il est clair que : lim y( t )  aK  t  
t   wo 

Courbes de réponse

Réponse dans le cas   1 Réponse dans le cas   1

On peut remarquer que les oscillations n'apparaissent que pour 0    1 .

Remarque
Les différentes relations entre différentes réponses sont expliquées en détail sur le lien
https://youtu.be/vos3CoMfd0E . Les réponses considérées correspondent à des entrées souvent
utilisées pour étudier les performances d’un système ou comparer les performances de
différents systèmes, ces signaux d’entrée sont appelés des signaux de test. Dans cette étude,
nous avons considéré les réponses aux entrées suivantes : impulsion, échelon, rampe et
accélération. La compréhension de ces relations permet de passer d’une réponse à une autre
sans refaire de calcul.

39
Chapitre 3: Représentation des systèmes dans l’espace d’état

La représentation d’état s’appelle aussi représentation interne. Son importance réside dans le
fait qu'on transforme une équation différentielle d'ordre n (généralement difficile à manipuler)
en n équations différentielles de premier ordre (ce qui simplifie l'étude).
La représentation interne est mieux adaptée pour l'étude des systèmes multi-variables. Elle
permet de déterminer l'évolution du système en connaissant :

 le signal d'excitation
 l'état présent du système

I. Représentation d'état des Systèmes continus


I.1. Définitions
On définit l’état d’un système à l’instant t0 comme l’information sur le passé nécessaire et
suffisante pour déterminer l’évolution ultérieure du système quand on connaît, pour t > t0, les
signaux d’entrée et les équations du système.

Définition: Un vecteur d’état est un ensemble minimal de variables d’état, c’est-à-dire de


grandeurs temporelles nécessaires et suffisantes pour déterminer l’évolution future d’un
système quant on connaît les équations qui décrivent le fonctionnement du système et les
entrées de ce système.
Dans ce qui suit, un vecteur d’état sera noté,

𝑥1
𝑥2
𝑥=[ ⋮ ]
𝑥𝑛

Le nombre n de composantes correspond au degré de complexité du système. Il définit l’ordre


du système.

Remarques
 Le vecteur d’état n’est pas unique : il y a même une infinité de choix possibles. On
passe d’un vecteur d’état à un autre par simple changement de base.
 Les variables d’état sont généralement choisies pour leur signification physique et/ou
leur simplicité dans les équations d’évolution qui leur sont associées.

Les équations d’état


D’une manière générale, à tout système linéaire, causal et continu peuvent être associées les
équations matricielles suivantes :

 dx ( t )
 dt  A( t ) x ( t )  B( t )u ( t ) : équation d' état

 (1)
 y( t )  C(t)x(t)  D(t)u(t) : équation de sortie

40
 A(t) est appelée matrice d’état du système.
 x(t) est appelée vecteur d’état du système.
 u(t) est appelée vecteur d’entrée du système.
 y(t) est appelée vecteur de sortie du système.

Dans le cas d’un système invariant, les matrices A, B, C et D sont indépendantes du temps, il
vient :
 dx  Ax ( t )  Bu ( t )
 dt

 (2)
 y( t )  Cx(t)  Du(t)


Exemple : Circuit RLC

Pour ce système on va considérer :


Entrée : u(t)
Sortie : y(t) = i(t)
Posons x(t)=V(t), la variable d’état.

Modélisation du circuit RC
𝑢(𝑡) = 𝑅𝑖(𝑡) + 𝑉(𝑡)
{ 𝑢(𝑡) − 𝑉(𝑡)
𝑖(𝑡) =
𝑅
Utilisant le fait que i(t)=Cdv(t)/dt, on obtient :
dV(t)
u(t) = Rc + V(t)
{ dt
u(t) − V(t)
i(t) =
R
Utilisant les variables de sortie et d’état on a,
𝑢(𝑡) = 𝑅𝑐𝑥̇ (𝑡) + 𝑥(𝑡)
{ 1 1
𝑦(𝑡) = − 𝑥(𝑡) + 𝑢(𝑡)
𝑅 𝑅
On déduit,
1 1
𝑥̇ (𝑡) = −
𝑥(𝑡) + 𝑢(𝑡)
{ 𝑅𝐶 𝑅𝐶
1 1
𝑦(𝑡) = − 𝑥(𝑡) + 𝑢(𝑡)
𝑅 𝑅
De la forme,

𝑥̇ (𝑡) = 𝑎 𝑥(𝑡) + 𝑏 𝑢(𝑡) (1)


{
𝑦(𝑡) = 𝑐 𝑥(𝑡) + 𝑑 𝑢(𝑡) (2)

41
Remarque
* La connaissance de x(t) (et donc de y(t)) sur l'intervalle de temps [t0, t] ne dépend que
de la condition initiale x(t0) et des équations (1) et (2)
* Si à l'instant t1, on applique un nouveau signal d'entrée u1(t), l'évolution de x (t) et y (t)
dans l'intervalle [t1, t] ne dépendra que de x(t1) et de u1(t)

I.2. Quelques méthodes d’obtention de la représentation d’état


I.2.1. A partir de l’équation différentielle entrée sortie
Le comportement d'un système linéaire continu mono-variable est représenté par une équation
différentielle à coefficients constants :

d n y( t ) d n 1 y( t ) dy ( t )
n
 a n 1 n 1
 ...  a 1  a 0 y( t )  u ( t )
dt dt dt

Pour trouver l’équation d’état on procède comme suit :


On pose :
x1  y ,
𝑥̇ 1 = 𝑦̇ = 𝑥2
𝑥̇ 2 = 𝑦̈ = 𝑥3 ,

𝑥̇ 𝑛−1 = 𝑦 (𝑛−1) = 𝑥𝑛
𝑥̇ 𝑛 = 𝑦 (𝑛) = −𝑎𝑛−1 𝑥𝑛 − 𝑎𝑛−2 𝑥𝑛−1 − ⋯ − 𝑎1 𝑥2 − 𝑎0 𝑥1 + 𝑢(𝑡)

Que l’on peut écrire sous forme matricielle,


ẋ (t) = Ax(t) + Bu(t)
{
y(t) = Cx(t)
Avec, x(t) = [x1 (t) x2 (t) … xn (t)]T ϵRn, u(t) et y(t) sont des scalaires,

0 1 0 … 0 0 0
0 0 1 … 0 0 0
A= ⋮ ⋮ ⋱ … ⋮ ⋮ ; B = ⋮ , et C = [1 0 … 0]
0 0 0 … 0 1 0
−a
( 0 −a1 −a2 … −an−2 −an−1 ) (1)

A est appelée matrice compagnon. Son polynôme caractéristique est donné par:
P(s)  s n  a n 1s n 1  ...  a1s  a 0

Remarque : pour une matrice A  R n  n , le polynôme caractéristique est donné par


P(s)  detsI  A . Les racines de P(s) sont les valeurs propres de A.

I.2.2. A partir du diagramme de simulation


Soit l’équation différentielle suivante :

42
d n y( t ) d n 1 y( t ) dy ( t ) d n u(t) d n 1u ( t ) du ( t )
 a n 1  ...  a1  a 0 y( t )  b n  b n 1  ...  b1  b 0 u(t)
dt n dt n 1 dt dt n
dt n 1 dt
Soit D l’opérateur dérivé alors on peut écrire,
Dn  a n 1Dn 1  ...  a1D  a 0 y(t)  bn Dn  bn 1Dn 1  ...  b1D  b0 u(t)
On intègre n fois en notant par (1/D) l’opérateur inverse de la dérivée (intégrateur) :

b b b b  a a a a 
y( t )  b n u ( t )   n 1  n  2  ...  1  0 u ( t )   n 1  n  2  ...  1  0  y( t )
2 n 1 
 D D D Dn   D D 2
D n 1
Dn 

 b n u(t) 
1
b n 1u  a n 1y   12 b n 2 u  a n 2 y   ...  n11 b1u  a1y   1n b 0 u  a 0 y 
D D D D

D’où le diagramme de simulation :

On définit les variables x i comme sorties des intégrateurs. On obtient donc d’après le
diagramme :
ẋ 1 = x2 + bn−1 u(t) − an−1 y(t)
ẋ 2 = x3 + bn−2 u(t) − an−2 y(t)
⋮ n équations d′état
ẋ n−1 = xn + b1 u(t) − a1 y(t)
ẋ n = b0 u(t) − a0 y(t) }
{ y(t) = x1 + bn u(t): équation de sortie

On remplace y(t) par son expression dans les n équations d’état, on trouve:

43
ẋ 1 (t) = −an−1 x1 (t) + x2 (t) + (bn−1 − an−1 bn )u(t)
ẋ 2 (t) = −an−2 x1 (t) + x3 (t) + (bn−2 − an−2bn )u(t)

ẋ n−1 (t) = −a1 x1 (t) + xn (t) + (b1 − a1 bn )u(t)
{ ẋ n (t) = −a0 x1 (t) + (b0 − a0 bn )u(t)

Sous forme matricielle:

−an−1 1 0 … 0 bn−1 − an−1 bn


−an−2 0 1 … 0 bn−2 − an−2 bn
(
ẋ t) = ⋮ ⋮ ⋮ ⋱ ⋮ x(t) + ⋮ u(t),
−a1 0 0 … 1 b1 − a1 bn
( −a 0 0 0 … 0) ( b0 − a 0 bn )

y(t) = [1 0 … 0]x(t) + bn u(t)

Exemple
Soit le système décrit par l’équation différentielle suivante:

d5 d4 d2 d d3 d
5
y(t) − 2 4
y(t) + 6 2
y(t) − 5 y(t) + 3y(t) = 7 3
u(t) + u(t) + 4u(t)
dt dt dt dt dt dt

Déterminer sa représentation d’état.

Réponse
Utilisant le diagramme de simulation, soit D l’opérateur dérivé,

[𝐷 5 − 2𝐷 4 + 6𝐷 2 − 5D + 3]y(t) = [7𝐷 3 + D + 4]u(t)

Intégrons cinq fois,

2 6 5 3 7 1 4
(1 − + 3 − 4 + 5 ) 𝑦(𝑡) = ( 2 + 4 + 5 ) 𝑢(𝑡)
𝐷 𝐷 𝐷 𝐷 𝐷 𝐷 𝐷
Ce qui donne,

2 7 6 1 1
𝑦(𝑡) = 𝑦(𝑡) + 2 𝑢(𝑡) − 3 𝑦(𝑡) + 4 [𝑢(𝑡) + 5𝑦(𝑡)] + 5 [4𝑢(𝑡) − 3𝑦(𝑡)]
𝐷 𝐷 𝐷 𝐷 𝐷

1 1 1 1 1
= {2𝑦(𝑡) + {7𝑢(𝑡) + {−6𝑦(𝑡) + {𝑢(𝑡) + 5𝑦(𝑡) + {4𝑢(𝑡) − 3𝑦(𝑡)}}}}}
𝐷 𝐷 𝐷 𝐷 𝐷

D’où le diagramme suivant :

44
on choisit les sorties des intégrateurs comme variables d’état. A partir du diagramme on écrie
les équations suivantes,

ẋ 1 (t) = x2 (t) + 2y(t)


ẋ 2 (t) = x3 (t) + 7u(t)
ẋ 3 (t) = x4 (t) − 6y(t)
ẋ 4 (t) = x5 (t) + u(t) + 5y(t)
ẋ 5 (t) = 4u(t) − 3y(t)
{ y(t) = x1 (t)

On remplace y(t) par x1(t),

ẋ 1 (t) = 2x1 (t) + x2 (t)


ẋ 2 (t) = x3 (t) + 7u(t)
ẋ 3 (t) = −6x1 (t) + x4 (t)
ẋ 4 (t) = 5x1 (t) + x5 (t) + u(t)
ẋ 5 (t) = −3x1 (t) + 4u(t)
{ y(t) = x1 (t)

x1
x2
Sous forme matricielle, on pose, x = x3 , Alors, on écrit,
x4
(x 5 )
2 1 0 0 0 0
0 0 1 0 0 7
ẋ (t) = −6 0 0 1 0 x(t) + 0 u(t)
5 0 0 0 1 1
(−3 0 0 0 0) (4)
y(t) = [1 0 0 0 0]x(t)

I.2.3. A partir de la représentation externe


La fonction de transfert du système est considérée sous la forme :

45
b s m  ...  b1s  b 0
H(s)  m
s n  ...  a1s  a 0

n est le nombre de pôles de la fonction de transfert qui est égale à l’ordre du système aussi égale
au nombre de variables d’état. On divise par sn le numérateur et le dénominateur.

b m s m  n  ...  b1s1 n  b 0s n
H(s) 
1  a n 1s 1  ...  a1s  n 1  a 0s  n

On introduit G(s) de façon à écrire:


Y (s)  b m s m  n  ...  b1s1 n  b 0s  n G (s)  (3)


U(s)  1  a n 1s 1  ...  a1s n 1  a 0s n G(s)  (4)

On introduit les n variables d’état de la façon suivante:

X1 (s) = s −n G(s) ẋ 1 (t) = x2 (t)


−n+1 ẋ 2 (t) = x3 (t)
X2 (s) = s G(s) = sX1 (s)
X3 (s) = s −n+2
G(s) = sX2 (s)  ⋮
⋮ ẋ n−1 (t) = xn (t)
−1 { ẋ n (t) = g(t)
{Xn (s) = s G(s) = sX n−1 (s)

Alors les équations (3) et (4) entraînent:

y( t )  b 0 x1 ( t )  b1x 2 ( t )  ...  b m x m 1 ( t )

u ( t )  a 0 x1 ( t )  a1x 2 ( t )  ...  a n 1x n ( t )  g( t )

 ẋ n (t) = g(t) = u(t) − a0 x1 (t) − a1 x2 (t) − ⋯ − an−1 xn (t)

Il en résulte,

0 1 0 … 0 0
0 0 1 … 0 0
A= ⋮ ⋮ ⋮ … ⋮ ,B = ⋮ , C = [b0 b1 … bm 0 … 0],
0 0 0 … 1 0
−a
( 0 −a1 −a2 … −an−1 ) (1)
D=[0].

La représentation obtenue est dite compagnon pour la commande.

46
Schéma analogique

Exemple
Soit le système décrit par l’équation différentielle suivante:

d5 d4 d2 d d3 d
5
y(t) − 2 4
y(t) + 6 2
y(t) − 5 y(t) + 3y(t) = 7 3
u(t) + u(t) + 4u(t)
dt dt dt dt dt dt

Déterminer sa représentation d’état.

Réponse
La transformée de Laplace donne,

[s 5 − 2s4 + 6s 2 − 5s + 3]Y(s) = [7s3 + s + 4]U(s)

On déduit la fonction de transfert du système est donnée par,


7s3 + s + 4
H(s) = 5
s − 2s 4 + 6s2 − 5s + 3
On écrit,
7s3 + s + 4 𝑠 −5
H(s) = 5 ×
s − 2s 4 + 6s2 − 5s + 3 𝑠 −5

7s −2 + 𝑠 −4 + 4𝑠 −5
=
1 − 2s −1 + 6s−3 − 5𝑠 −4 + 3𝑠 −5

On introduit une fonction G(s) telle que,

Y(s)=[7s−2 + 𝑠 −4 + 4𝑠 −5 ]G(s)

U(s) = [1 − 2s−1 + 6s−3 − 5𝑠 −4 + 3𝑠 −5 ]G(s)

On introduit les cinq variables d’état de la façon suivante,

X1 (s) = s−5 G(s)


X2 (s) = s−4 G(s) = sX1 (s)
X3 (s) = s −3 G(s) = sX2 (s)
X4 (s) = s −2 G(s) = sX3 (s)
X5 (s) = s −1 G(s) = sX4 (s)

47
On déduit,
sX1 (s) = X2 (s)
sX2 (s) = X3 (s)
sX3 (s) = X4 (s)
sX4 (s) = X5 (s)
{ 𝑠X5 (s) = 𝐺(𝑠)
Ce qui implique,
ẋ 1 (t) = x2 (t)
ẋ 2 (t) = x3 (t)
ẋ 3 (t) = x4 (t)
ẋ 4 (t) = x5 (t)
{ ẋ 5 (t) = g(t)

D’autre part, on a,

Y(s)=[7s−2 + 𝑠 −4 + 4𝑠 −5 ]G(s)

𝑌(𝑠) = 4𝑠 −5 𝐺(𝑠) + 𝑠 −4 𝐺(𝑠) + 7s −2 𝐺(𝑠)

= 4X1 (s) + X2 (s) + 7X4 (s)

On déduit,
y(t) = 4𝑥1 (𝑡) + 𝑥2 (𝑡) + 7𝑥4 (t)
de même,
U(s) = [1 − 2s −1 + 6s −3 − 5𝑠 −4 + 3𝑠 −5 ]G(s)

U(s) = 3s −5 G(s) − 5s −4 G(s) + 6s−3 G(s) − 2s−1 G(s) + G(s)

= 3X1 (s) − 5X2 (s) + 6X3 (s) − 2X5 (s) + G(s)

Ce qui donne,
𝑢(𝑡) = 3𝑥1 (𝑡) − 5𝑥2 (𝑡) + 6𝑥3 (𝑡) − 2𝑥5 (𝑡) + 𝑔(𝑡)

g(𝑡) = −3𝑥1 (𝑡) + 5𝑥2 (𝑡) − 6𝑥3 (𝑡) + 2𝑥5 (𝑡) + 𝑢(𝑡)

ẋ 5 (t) = −3𝑥1 (𝑡) + 5𝑥2 (𝑡) − 6𝑥3 (𝑡) + 2𝑥5 (𝑡) + 𝑢(𝑡)

Finalement nous avons les équations suivantes,

ẋ 1 (t) = x2 (t)
ẋ 2 (t) = x3 (t)
ẋ 3 (t) = x4 (t)
ẋ 4 (t) = x5 (t)
{ẋ 5 (t) = −3𝑥1 (𝑡) + 5𝑥2 (𝑡) − 6𝑥3 (𝑡) + 2𝑥5 (𝑡) + 𝑢(𝑡)

y(t) = 4𝑥1 (𝑡) + 𝑥2 (𝑡) + 7𝑥4 (t)

Sous forme matricielle, la représentation d’état est donnée par,

48
 dx  Ax ( t )  Bu ( t )
 dt


 y( t )  Cx(t)  Du(t)

Avec,

x1 (t) 0 1 0 0 0 0
x2 (t) 0 0 1 0 0 0
x(t) = x3 (t) , A= 0 0 0 1 0 , B = 0 , C = [4 1 0 7 0], D=0
x4 (t) 0 0 0 0 1 0
(x5 (t)) (−3 5 −6 0 2) (1)

I.2.4. Représentation d'état des systèmes variants

n n 1 n n 1
d y( t ) d y( t ) dy( t ) d u(t) d u(t) du ( t )
 a1 ( t )  ...  a n 1 ( t )  a n ( t ) y( t )  b 0 ( t )  b1 ( t )  ...  b n 1 ( t )  b n ( t )u ( t )
n n 1 dt n n 1 dt
dt dt dt dt

la représentation d'état est de la forme:

1 (t)
0 1 0 … 0 0 2 (t)
0 0 1 … 0 0
⋮ ⋮ ⋱ … ⋮ ⋮ 3 (t)
ẋ (t) = x(t) + u(t)
0 0 0 … 0 1 ⋮
−an−1 (t) −an−2 (t) … n−1 (t)
(−an (t) −a2 (t) −a1 (t))
( n (t) )

y(t) = [1 0 … 0]x(t) + 0 (t)u(t)

Détermination de  0 ( t ), 1 ( t ),...,  n ( t )

y(t) = x1 (t) + 0 (t)u(t)

ẏ (t) = ẋ 1 (t) + ̇ 0 (t)u(t) + 0 (t)u̇ (t)

=x2 (t) + 1 (t)u(t) + ̇ 0 (t)u(t) + 0 (t)u̇ (t)

=x2 (t) + (1 (t) + ̇ 0 (t)) u(t) + 0 (t)u̇ (t)

ÿ (t) = ẋ 2 (t) + (̇ 1 (t) + γ̈ 0 (t)) u(t) + (1 (t) + ̇ 0 (t)) u̇ (t) + ̇ 0 (t)u̇ (t) + 0 (t)ü (t)

49
=x3 (t) + (̇ 1 (t) + γ̈ 0 (t) + γ2 (t))u(t) + (1 (t) + 2̇ 0 (t)) u̇ (t) + 0 (t)ü (t)


d n y( t )
On calcule , puis par identification on trouve:
dt n

  0 (t)  b 0 (t)
 i 1 i  r m
 i ( t )  b i ( t )    C n  i a i  r  m ( t ) d  r ( t ), i  1,..., n
 n  m i
 r  0m  0 dt m

avec C n  i  n  m  i ! et a ( t )  1
 n  m -i (n  i)!m!
0

I.3. Pluralité de représentations d’état


Du fait de la linéarité des équations d’état, on peut définir d’autres variables d’état par une
transformation linéaire T. On obtient donc une autre représentation.
On pose: 𝑥(𝑡) = 𝑇𝑥̃(𝑡)  𝑥̇ (𝑡) = 𝑇𝑥̃̇(𝑡) 𝑎𝑣𝑒𝑐 𝑑𝑒𝑡(𝑇) ≠ 0.
Remplaçons dans (2) on trouve :

Tx̃̇(t) = ATx̃(t) + Bu(t) x̃̇(t) = T −1 ATx̃(t) + T −1 Bu(t)


{  {
y(t) = CTx̃(t) + Du(t) y(t) = CTx̃(t) + Du(t)

Qu’on peut écrire :

̃x̃(t) + B
x̃̇(t) = A ̃ u(t)
{
y(t) = C̃x̃(t) + D̃ u(t)

~ ~ ~ ~
Avec A  T 1AT , B  T -1B, C  CT, et D  D .

Puisque il existe une infinité de matrices inversibles T, il existe évidemment une infinité de
représentation d’état. Donc on choisit celle qui convient à notre système. Une transformation
spéciale peut être cherchée telle qu'elle donne une forme diagonale:
T 1AT    diag 1 ,  2 , ...,  n 
Si une telle matrice existe, on doit avoir: AT=T, les colonnes de T doivent satisfaire:
At i   i t i , i  1,..., n . Ceci implique que  i est une valeur propre de A et t i est le vecteur
propre correspondant.

Remarque :
Pour les systèmes variant de type (1), on pose :
x(t) = T(t)x̃(t)  ẋ (t) = Ṫ(t)x̃(t) + T(t)x̃̇(t) avec det(T(t)) ≠ 0
 x̃̇(t) = [T −1 (t)A(t)T(t) − T −1 (t)Ṫ(t)]x̃(t) + T −1 (t)B(t)u(t)

I.4. Intégration des équations d’état


La solution de l’équation (1) peut s’exprimer sous la forme :

50
t
x(t)  (t, t 0 )x(t 0 )   (t, )B()u()d
t0
t
 t A()d
avec (t, t 0 )  e 0 = matrice de transition.

Une fois le vecteur d'état déterminé on peut obtenir le vecteur de sortie:

y(t)  C(t)x(t)  D(t)u(t)


t
 C(t) (t, t 0 )x(t 0 )   C(t)(t, )B()u()d  D( t )u ( t )
t0

Cas particulier: systèmes invariants de la forme (2)

t
 t Ad 
La matrice de transition est donnée par: (t, t 0 )  e 0  e A( t  t 0 )
e A(t - ) Bu( )d
t
La solution est donnée par: x(t)  e A(t - t 0 ) x(t 0 ) 
t0 
Calcul de la matrice de transition eAt
L’opération la plus délicate dans la résolution des équations d’état, consiste à calculer la matrice
de transition. La matrice de transition peut être déterminée par plusieurs méthodes. Les plus
classiques sont les suivantes :
 Méthode 1 : La méthode de diagonalisation
 Méthode 2 : La méthode de la transformée de Laplace
 Méthode 3 : la méthode de Sylvester
 Méthode 4 : La méthode de Cayley-Hamilton
 Méthode 5 : La méthode de calcul direct (développement de Tylor)
Dans ce cours, nous allons voir les trois premières méthodes

a) Calcul au moyen de la diagonalisation

pour le système décrit par : ẋ (t) = Ax(t), La solution est donnée par :. x ( t )  e At x (0)

Supposons que la matrice A possède n valeurs propres distincts, 1 ,  2 , ... ,  n auxquelles


correspondent n vecteurs propres indépendants V1 , V2 , ... , Vn . La matrice modale est donnée
par: T  V1 V2 ... Vn  est telle que:

  T 1AT  diag 1 ,  2 , ... ,  n 


Maintenant, en posant x ( t )  T~
x ( t ) , on obtient le système suivant : x̃̇(t) = x̃(t)

La solution est donnée par, ~x ( t )  e t ~


x (0) , ce qui implique que x ( t )  Te t T 1x (0) . Alors,
du fait que,
e 1 t 0 … 0
2 t
et = ( 0 e … 0 )
0 0 ⋱ 0
… e nt 
0 0

51
Et par identification, il vient,
e 1 t 0 … 0
e At t −1
= Te T = T( 0 e 2 t … 0 ) T −1
0 0 ⋱ 0
0 0 … e n t
−2 −2
Exemple : A = ( )
−1 −3

𝜆+2 2
𝑑𝑒𝑡(𝜆𝐼 − 𝐴) = | |
1 𝜆+3

= (𝜆 + 2)(𝜆 + 3) − 2

= 𝜆2 + 5𝜆+4

= (𝜆 + 1)(𝜆 + 4)

Donc, les valeurs propres sont: 𝜆1 = −1, 𝜆2 = −4

−2 1
Les vecteurs propres correspondant sont, 𝑉1 = ( ) , 𝑉2 = ( )
1 1

La matrice T est donnée par,


1 1

−2 1
𝑇=( )  𝑇 −1 =( 3 3)
1 1 1 2
3 3

−1 0 −𝑡
𝑇 −1 𝐴𝑇 = 𝛬 = ( )  𝑒 𝛬𝑡 = (𝑒 0
−4𝑡 )
0 −4 0 𝑒
Donc ,
1 1
−𝑡 −
−2 1 𝑒 0 )( 3 3)
𝑒 𝐴𝑡 = 𝑇𝑒 𝛬𝑡 𝑇 −1 = ( )(
1 1 0 𝑒 −4𝑡 1 2
3 3
2 −𝑡 1 −4𝑡 2 2
𝑒 + 𝑒 − 𝑒 −𝑡 + 𝑒 −4𝑡
=( 3 3 3 3 )
1 −𝑡 1 −4𝑡 1 −𝑡 2 −4𝑡
− 𝑒 + 𝑒 𝑒 + 𝑒
3 3 3 3

b) Calcul au moyen de la transformée de Laplace


ẋ (t) = Ax(t) + 𝐵𝑢(𝑡)

La transformée de Laplace donne :


sX(s)  x (0)  AX (s)  BU(s)  X(s)  sI - A 1x (0)  BU(s)
X(s)   (s) x (0)   (s)BU(s) , avec  (s)  sI - A 1
Or, la solution de (2) est donnée par,

52
x(t)  e At x(0)   e A(t - ) Bu( )d
t
0
Par identification il vient:

 
 (s)  sI  A 1  L e At  e At  L1 sI  A 1  
Exemple :

eAt = ℒ −1 ((𝑠𝐼 − 𝐴)−1 )

1 𝑠 2 − 3𝑠 + 3 𝑠 − 3 1
(𝑠𝐼 − 𝐴) −1
= [ 1 𝑠 2 − 3𝑠 𝑠]
(𝑠 − 1)3
𝑠 1 − 3𝑠 𝑠2

Pour le premier élément :

𝑠 2 − 3𝑠 + 3 1 1 1
= − +
(𝑠 − 1)3 𝑠 − 1 (𝑠 − 1)2 (𝑠 − 1)3

La transformée de Laplace inverse donne,


1
et − tet + 2 t 2 et
On répète cette opération pour tous les autres éléments, on trouve

1 1 2 t
et − tet + t 2 et tet − t 2 et t e
2 2
1 2 t 1
eAt = t e et − tet − t 2 et tet + t 2 et
2 2
t
1 2 t 1
[ te + t e −3tet − t 2 et et + 2tet + t 2 et ]
2 2

c) Calcul par la méthode de Sylvester

Première formule de Sylvester

Si la matrice A possède n valeurs propres distinctes  i alors,

 
 n A I
n
e At   e  i t  
j 
 i   j 
i 1  jj 1i 
 
Deuxième formule de Sylvester

53
La matrice A est de dimension n, et possède des valeurs propres multiples, alors,
n−1
At
e = ∑ αi (t)Ai
i=0

Les i(t), i=0,…,n-1 sont des fonctions à calculer

Calcul des fonctions i(t)


 Premier Cas
On suppose que la matrice carrée A d'ordre n, admet n valeurs propres distinctes λ j , j = 1, …,n
Les fonctions i(t), i=1,…,n sont obtenues par la résolution du système d’équation suivant :

e1 t = α0 (t) + 1 α1 (t) + ⋯ + 1n−1 αn−1 (t)


e2 t = α0 (t) + 2 α1 (t) + ⋯ + n−1
2 αn−1 (t)

{en t = α0 (t) + n α1 (t) + ⋯ + n−1


n αn−1 (t)

On associe une équation à chaque valeur propre.

Exemple
2 3
A=( )
−1 6

Les valeurs propres de A sont : 1=3, 2=5. La dimension de A est n=2, alors on résous les
équations suivantes:

e1 t = α0 (t) + 1 α1 (t) e3t = α0 (t) + 3α1 (t) (1)


{ {
e2 t = α0 (t) + 2 α1 (t) e5t = α0 (t) + 5α1 (t) (2)

Retranchant (1) de (2) nous permet d’écrire,

e5t − e3t
α1 (t) =
2
Et par suit,

5𝑒 3𝑡 − 3𝑒 5𝑡
α0 (t) =
2
On déduit,

3e3t − e5t 3 5t
(e − e3t )
eAt = α0 (t)I2 + α1 (t)A = 2 2
e3t − e5t 3e5t − e3t
( 2 2 )

54
 Deuxième Cas: La matrice A a des valeurs propres multiples

Soit λj une valeur propre simple. On lui associe l'équation

ej t = α0 (t) + j α1 (t) + ⋯ + 𝑗𝑛−1 α𝑛−1 (t)

Soit λm une valeur propre multiple, d'ordre de multiplicité r. On lui associe les équations
suivantes,

em t = α0 (t) + m α1 (t) + ⋯ + 𝑛−1


𝑚 α𝑛−1 (t)

𝑑em t 𝑑
= (α (t) + m α1 (t) + ⋯ + 𝑛−1
𝑚 α𝑛−1 (t))
𝑑m 𝑑m 0

𝑑 𝑟−1 em t 𝑑𝑟−1


𝑟−1 = 𝑟−1 (α0
(t) + m α1 (t) + ⋯ + 𝑛−1
𝑚 α𝑛−1 (t))
{ 𝑑m 𝑑m

On associe r équations à la valeur propre multiple d’ordre r.

Exemple
−4 2
A=( )
−2 0

A possède une valeur propre double : 1=-2. On écrit les équations suivantes,

e1 t = α0 (t) + 1 α1 (t)


{de1 t d
= [α (t) + 1 α1 (t)]
d1 d1 0
Ce qui donne,
e1 t = α0 (t) + 1 α1 (t)
{
t𝑒 1 𝑡 = α1 (t)
C’est-à-dire,
e−2t = α0 (t) − 2α1 (t)
{
t𝑒 −2𝑡 = α1 (t)
D’où les valeurs des paramètres α0 (t) et α1 (t),

α0 (t) = 2t𝑒 −2𝑡 + e−2t


{
α1 (t) = t𝑒 −2𝑡
On déduit,
−2t −2t
eAt = α0 (t)I2 + α1 (t)A = (6te +−2t
e 2te−2t )
−2te 2te−2t + e−2t

Remarque
Pour le système (libre) : ẋ (t) = Ax(t)

55
La solution est donnée par: x(t) = eA(t−t0 ) x(t 0 )

Le système est dit stable si x(t)  0 quand t + .

lim x(t) = lim eA(t−t0 ) x(t 0 ) = 0,  x(t 0 )  lim eA(t−t0) = 0


t→+∞ t→+∞ t→+∞

Comme,
eA(t−t0 ) = T𝑒 𝛬(𝑡−𝑡0 ) 𝑇 −1

𝑒 𝜆1 (𝑡−𝑡0 ) ⋯ 0
= 𝑇( ⋮ ⋱ ⋮ ) 𝑇 −1
0 ⋯ 𝑒 𝜆𝑛 (𝑡−𝑡0 )

Alors lim eA(t−t0 )=0 est vérifiée si eλi t 0 quand t, i=1,…,n
𝑡→+∞
Cette condition est satisfaite si toutes les valeurs propres λi sont à partie réelle strictement
négative. D’où le résultat suivant

Théorème
Un système linéaire invariant est asymptotiquement stable si toutes les valeurs propres de la
matrice d'état A sont à partie réelle strictement négative

II. Représentation d'état des systèmes discrets


Un système linéaire discret peut être décrit par la représentation d'état suivante:
 x (k  1)  A(k ) x (k )  B(k )u (k ) équation d' état

 y(k)  C(k)x(k)  D(k)u(k) équation de sortie
Et si le système est supposé invariant, on a:
 x (k  1)  Ax (k )  Bu (k )

 y(k)  Cx(k)  Du(k)
La représentation d'état peut être obtenue par différentes méthodes.

II.1. A partir de l'équation aux différences entrée sortie


y(k  n )  a n 1y(k  n  1)  ...  a1y(k  1)  a 0 y(k )  u (k )
On définit les variables d'état:

x1 (k) = y(k)
x1 (k + 1) = y(k + 1) = x2 (k)
x2 (k + 1) = y(k + 2) = x3 (k)

xn−1 (k + 1) = y(k + n − 1) = xn (k)
xn (k + 1) = y(k + n) = u(k) − a0 x1 (k) − a1 x2 (k) − ⋯ − an−1 xn (k)

Sous forme matricielle:

56
0 1 0 … 0 0 0
0 0 1 … 0 0 0
x(k + 1) = ⋮ ⋮ ⋱ … ⋮ ⋮ x(k) + ⋮ u(k) ;
0 0 0 … 0 1 0
−a
( 0 −a 1 −a 2 … −an−2 −an−1 ) (1)
y(k) = [1 0 … 0]x(k)

II.2. A partir du diagramme de simulation


y(k  n )  a n 1y(k  n  1)  ...  a1y(k  1)  a 0 y(k )  b 0 u (k )  b1u (k  1)  ...  b n u (k  n )

Soit E l'opérateur avance,


Ey(k )  y(k  1)  y(k  n)  E n y(k )
L'application de cet opérateur donne,

E  
 a n 1E n 1  ...  a1E  a 0 y(k)  b 0  b1E  ...  b n E n u(k)
n

On divise par En (appliquer l’opérateur retard n fois),
y(k )  b n u (k )  b n 1u (k )  a n 1 y(k )   b n  2 u (k )  a n  2 y(k ) 
1 1
E E2
 ... 
1
b u (k )  a1y(k )  1n b 0 u (k )  a 0 y(k )
n 1 1
E E

1
où R  désigne l'opérateur retard. On définit comme variables d'état les sorties des
E
opérateurs retard. Donc on peut écrire l'équation d'état à partir du diagramme,

x1 (k + 1) = x2 + bn−1 u(k) − an−1 y(k)


x2 (k + 1) = x3 + bn−2 u(k) − an−2 y(k)
⋮ n équations d′état
xn−1 (k + 1) = xn + b1 u(k) − a1 y(k)
xn (k + 1) = b0 u(k) − a0 y(k) }
{ y(k) = x1 + bn u(k): équation de sortie

Sous forme matricielle,

57
−an−1 1 0 … 0 bn−1 − an−1 bn
−an−2 0 1 … 0 bn−2 − an−2 bn
x(k + 1) = ⋮ ⋮ ⋮ ⋱ ⋮ x(k) + ⋮ u(k),
−a1 0 0 … 1 b1 − a1 bn
( −a 0 0 0 … 0) ( b 0 − a 0 bn )

y(k) = [1 0 … 0]x(k) + bn u(k)

II.3. Pluralité de représentations


Comme pour le cas continu, on peut obtenir une infinité de représentations par application de
transformations linéaires.
~ ~
 x (k  1)  Ax (k )  Bu (k ) Transformation linéaire ~x (k  1)  A~x (k )  Bu (k )
           ~~ ~
y(k)  Cx(k)  Du(k) x(k)  T~
x(k) y(k)  Cx(k)  Du(k)

II.4. Intégration des équations d'état


x (k  1)  A (k ) x (k )  B(k )u (k )

 y ( k )  C( k ) x ( k )  D ( k ) u ( k )

Si on prend l'instant k0 comme origine,

La solution peut s’exprimer sous la forme :

k 1
x (k )  k, k 0 x k 0    k, j  1B( j)u( j)
j k 0
k 1
Avec: k, k 0   A(k  1)A(k  2)...A(k 0  1)A(k 0 )   A( j) , appelée matrice de transition.
j k 0

Cas particulier: systèmes invariants


x (k  1)  Ax (k )  Bu (k )

 y(k )  Cx (k )  Du (k )
La matrice de transition est donnée par:
k 1
k, k 0    A  Ak k 0
j k 0
Donc on a:
k 1
x (k )  A k  k 0 x (k 0 )   A k  j1Bu ( j)
j k 0
k 1
y(k )  CA k  k 0 x (k 0 )   CA k  j1Bu ( j)  Du (k )
j k 0

58

On peut montrer que Ak est obtenue en calculant la transformée en Z inverse de zI  A 1 z 

A k  Z 1 zI  A 1 z 
La réponse impulsionnelle est donnée dans ce cas par:
h (k )  CA k 1B  D

III. Commandabilité et observabilité

III.1. Définitions

Définition 1: un système est commandable sur l’intervalle [t 0 , t1 ] si pour tout vecteur d’état
initial x0 à l’instant t 0 et tout vecteur d’état désiré x1 à l’instant t1 , il existe une entrée u(t)
définie sur [t 0 , t1 ] telle que x(t1 ) = x1 .

Si ce ci est valable quel que soit [t 0 , t1 ], on dit que le système est complètement
commandable.

Définition 2: On dit qu'un système linéaire est observable sur [t 0 , t1 ], si tout vecteur d’état
initial x0 à l’instant t 0 peut être déterminé à partir de la connaissance de la réponse y(t) et de
l’entrée u(t) entre les instants t 0 et t1.

Si ce ci est valable quel que soit [t 0 , t1 ], on dit que le système est complètement observable.

Exemple : Soit le système décrit par:

Qui s’écrit aussi sous la forme

59
Dans le domaine fréquentiel
Le système est représenté par,

dx(t)
= Ax(t) + Bu(t)
{ dt
y(t) = Cx(t) + Du(t)

En prenant la transformée de Laplace, en supposant que le système est initialement au repos,

sX(s) = AX(s) + BU(s)


{
Y(s) = CX(s) + DU(s)

Ce qui implique,

(sI − A)X(s) = BU(s)


{
Y(s) = CX(s) + DU(s)

Ou encore,

X(s) = (sI − A)−1 BU(s)


{
Y(s) = CX(s) + DU(s)

Dans notre exemple, on a,

60
Ce qui donne,

Le diagramme de simulation est donné par,

Où les notations "C" et "O" sont utilisées pour indiquer "commandable" et "observable"
respectivement ; "NO" et "NO" désignent "non commandable" et "non observable"
respectivement.

X(s)  sI  A 1 BU(s)





Y(s)  CX (s)  DU(s)

Utilisant la relation

X(s) = (sI − A)−1 BU(s)


{
Y(s) = CX(s) + DU(s)

On aura,
Y(s) = [C(sI − A)−1 B + D]U(s).

On déduit la matrice de transfert,

61
Y(s)
H(s) = = C(sI − A)−1 B + D
U(s)

Utilisant les structures de matrices A, B , C et D, on obtient,

H(s) = c2 (s − a22 )−1 b2

On conclut: La matrice de transfert ne contient que la partie commandable et


observable du système

Exemple : soit le système suivant

Physiquement, il est clair que le niveau du bac 2 ( h2 ), ne peut être modifié par la commande
u: système non commandable.

III.2. Critères de commandabilité et d'observabilité

III.2.1. Systèmes invariants

ẋ (t) = Ax(t) + Bu(t)


{ ; x  Rn ; u  Rm ; y  R
y(t) = Cx(t) + Du(t)

a) Les valeurs propres de A sont distinctes

Il existe T  1 ,  2 ,...,  n   R n  n tel que:

̃x̃(t) + B
x̃̇(t) = A ̃ u(t) ~ ~ ~ ~
{ ; A  T 1AT ; B  T -1B; C  CT; D  D
y(t) = C̃x̃(t) + D̃ u(t)

A  diagi , i  1,..., n, Ai   i i .


~

1er critère de commandabilité: Le système est complètement commandable si et seulement


~
si les lignes de la matrice B  T 1B ne sont pas nulles.
~
Les lignes nulles de B correspondent à des variables d'état non commandables.

62
1er critère d'observabilité: Le système est complètement observable si et seulement si les
~
colonnes de la matrice C  CT ne sont pas nulles.

Si certaines colonnes sont nulles alors elles correspondent à des variables d'état non observables
et par conséquent le système entier est non observable.

b) Les valeurs propres de A sont quelconques


2ème critère de commandabilité: le système est complètement commandable si et seulement
si:

rang G   rang B AB A 2 B ... A n -1B  n 
G est appelée matrice de commandabilité.

2ème critère d'observabilité: le système est complètement observable si et seulement si la


 T T 
matrice: H  C T A T C T A 2 C T ... A n -1 C T  est de rang n.
 
H est appelée matrice d'observabilité.

III.2.2. Systèmes variants


ẋ (t) = A(t)x(t) + B(t)u(t)
{ ; x  Rn ; u  Rm ; y  R
y(t) = C(t)x(t) + D(t)u(t)
En notant par  la matrice de transition, la solution à un instant t1 est donnée par:
x t1   t1 , t 0 x t 0    1 t1 , B()u ()d
t
0 t
3ème critère de commandabilité: le système est complètement commandable sur t 0 , t1  si et
seulement si l'une des conditions équivalentes suivantes est vérifiée:
a- la matrice G t1 , t 0  est définie positive
b- 0 n'est pas une valeur propre de G t1 , t 0 
c- det Gt1 , t 0   0

Avec Gt1 , t 0    1 t1 , B()BT () T t1 , d


t
t 0
N.B. Une matrice est définie positive si ses valeurs propres sont positives.

3ème critère d'observabilité: le système est complètement observable sur t 0 , t1  si et


seulement si l'une des conditions équivalentes suivantes est vérifiée:
d- la matrice Ht1 , t 0  est définie positive
e- 0 n'est pas une valeur propre de Ht1 , t 0 
f- det Ht1 , t 0   0

Avec Ht1, t 0    1 T , t 0 C T ()C(), t 0 d


t
t0

63
Remarque : critères de commandabilité et d’observabilité des systèmes à temps discret
a) systèmes invariants

x (k  1)  Ax (k )  Bu (k )

 y(k )  Cx (k )  Du (k )

Les 1ers et 2èmes critères de commandabilité et d’observabilité sont valables.

b) systèmes variants

x (k  1)  A (k ) x (k )  B(k )u (k )

 y ( k )  C( k ) x ( k )  D ( k ) u ( k )

3ème critère de commandabilité: Le système est complètement commandable s’il existe N


fini tel que l’une des trois conditions équivalentes suivantes est vérifiée:
a- G(N,0) est définie positive
b- 0 n’est pas une valeur propre de G(N,0)
c- G( N ,0  0
N
avec: G( N,0)   ( N, k)B(K)BT (k)T ( N, k)
k 0

3ème critère d’observabilité: le système est complètement observable s’il existe N fini tel que
lune des trois conditions équivalentes est vérifiée:
d- H(N,0) est définie positive
e- 0 n’est pas une valeur propre de H(N,0)
f- H ( N ,0  0
N
avec: H( N,0)   T (k,0)CT (k)C(k)(k,0)
k 0

IV. Commande par retours d'état


La commande par retour d’état consiste à considérer le modèle du processus sous la forme
d’une représentation d’état :

 dx  Ax ( t )  Bu ( t )

 dt
 y( t )  Cx(t)

où u(t) est le vecteur de commande de dimension m, x(t), le vecteur d’état, de dimension n, et


y(t) le vecteur de sortie de dimension l et faire un bouclage de la forme :

64
u ( t )  Fr ( t )  Kx ( t ) , où F et K sont des matrices constantes de dimensions convenables et r(t)
est la consigne de référence de dimension m.
Le but est de déterminer les matrices F et K de façon à satisfaire un placement des valeurs
propres en boucle fermée.

Calcul de la matrice F
La matrice F est calculée telle que pour une référence en échelon,
lim y( t )  G r , G est un gain statique qu’on impose.
t 
Les équations d’état et de sortie en régime statique s’écrivent :

0  A  BK x ( t )  BFr ( t ) 1
x ( t )  A  BK  BFr ( t )

  
 y( t )  Cx ( t ) 1
 y( t )  CA  BK  BFr ( t )

ce qui donne par identification:


F  CBK  A 1 B 1G
Calcul de la matrice K
On suppose que le système est commandable. La matrice de régulation K est choisie de façon
à imposer les pôles du système bouclé, c'est-à-dire de la matrice A-BK. Ce problème est
équivalent à imposer le polynôme caractéristique du système.
Soit Pd (s)  s  1 s   2 ...s   n  le polynôme désiré, où 1,  2 , ... ,  n  sont les pôles
que l’on veut imposer. Il nous faut résoudre l’équation polynomiale

det sI  A  BK   Pd (s) ,

dite équation de placement de pôles.

Exemple : On considère l’équation d’état avec les matrices suivantes :

0 1 0 0
A=( 0 0 1 ), B = (0)
−1 −5 −6 1

Calculer la matrice K de retour d’état telle que la matrice A-BK ait comme valeurs propres :

65
s1,2 = −2 ± 4j, s3 = −10
Réponse,
Pour déterminer K, on calcule A-BK et résout l’équation de placement de pôles. Puisque le
vecteur d’état est de dimension 3 et la commande est de dimension 1, on pose,

K = [k1 k2 k3 ]

0 1 0
A − BK = ( 0 0 1 )
−1 − 𝑘1 −5 − 𝑘2 −6 − 𝑘3
Alors,
det(sI − A + BK) = s3 + (6 + k 3 )s 2 + (5 + k 2 )s + 1 + k1

Le polynôme désiré,

Pd (s) = (s + 2 − 4j)(s + 2 + 4j)(s + 10) = s 3 + 14s2 + 60s + 200

Par identification on trouve,


1 + k1 = 200 k1 = 199
{ 5 + k 2 = 60  { k 2 = 55
6 + k 3 = 14 k3 = 8

V. Commande par reconstruction d’état.


La commande par retour d’état nécessite la connaissance de cet état. Si l’état n’est pas connu,
on cherche à l’estimer. Ceci est réalisé, à partir des mesures accessibles sur les entrées et les
sorties, par un observateur qui est un système dont la fonction consiste à reconstruire cet état.
Soit le système linéaire suivant:

ẋ (t) = Ax(t) + Bu(t)


{
y(t) = Cx(t)
n
Où x  R est le vecteur d’état du système (non mesuré).
Un observateur dynamique a la forme suivante:

𝑥̂̇(t) = Ax̂(t) + Bu(t) + L(𝑦(𝑡) − 𝑦̂(𝑡))


{
ŷ(t) = Cx̂(t)

n
Où x̂  R est le vecteur d’état de l’observateur.

On peut réécrire l'observateur de la manière suivante: 𝑥̂̇(t) = (A − LC)x̂(t) + Bu(t) + Ly(t)

L'erreur de reconstruction d’état est donnée par ~


x  x  x̂ Ce qui implique,

𝑥̃̇(t) = (A − LC)𝑥̃(t) .

66
Commande par retour d'état reconstruit
En réalisant le bouclage suivant :

La loi de commande est donnée par : u(t )  Kx̂(t )  r(t )


La dynamique du système bouclé s'écrit alors,

ẋ (t) = Ax(t) − BKx̂(t) + Br(t) = (A − BK)x(t) + BKx̃(t) + Br(t)


{
x̃̇ = (A − LC)x̃(t)

En écrivant le nouveau système augmenté, constitué de l'état et de l'erreur de reconstruction,


on obtient :

ẋ (t) A − BK BK x(t) B
( ̇ )=( )( ) + ( ) r(t)
x̃(t) 0 A − LC x̃(t) 0

Les valeurs propres du système bouclé sont les valeurs propres de (A -BK), i.e. celles relatives
à la commande du système plus les valeurs propres de (A -LC), i.e. celles de l’observateur. La
matrice L doit être choisie de manière à ce que l'erreur sur l'état converge exponentiellement
vers 0. Pour cela, il suffit de choisir L telle que les valeurs propres de la matrice (A-LC) soient
à parties réelles négatives.

Remarque : Le schéma précédent de Commande par retour d'état reconstruit peut être
restructuré de la manière suivante :

67
Remarque: pour le cas des systèmes discrets, on suit pratiquement le même raisonnement. La
matrice L dans ce cas est choisie telle que les valeurs propres de la matrice A-LC possèdent un
module inférieur à 1.

68
Annexe: Table des transformées de Laplace des signaux usuels

x(t), t>0 X(s)


( t ) Impulsion de Dirac 1
( t  ) Impulsion retardée
e  s
e  at 1
sa
t n 1e  at , n=1,2,3,….
1 1
n  1! s  a n
1   at
 e  bt  , a≠b
1
e
ba  s  a s  b 
1   at
 be  bt  , a≠b
s
 ae
ba  s  a s  b 
1   at  c  b e  bt  sc
 c  a e 
ba   s  a s  b 
e  at e  bt e  ct 1
 
b  a c  a  c  b a  b  a  c b  c  s  a s  b s  c
d  a e  at  d  b e  bt  d  c e  ct sd
b  a c  a  c  b a  b  a  c b  c  s  a s  b s  c
  1
n  ea i t 
 i 1s  a i 
  , a j  ai n



i 1  j i a j  a i  


sint 
s 2  2
s
cost 
s 2  2
sa
a 2  2  
sint  ,   arctg  s 2  2
2 a
s sin()   cos()
sint  
s 2  2

e  at sint  
s  a 2  2
e  at cost  sa
s  a 2  2
sb
b  a 2  2 e  at sint  ,   
  arctg  s  a 2  2
2 b-a 

69
x(t), t>0 X(s)
1  0 t
p
e  
sin p t , p  0 1   2
1
s 2  20 s   2
0
 ( t ) , échelon unité 1
s
( t  ) , échelon retardé 1  s
e
s
 ( t ) - ( t  ) , créneau rectangulaire 1  s 
1  e 
s 
1  at  1
1  e 
a  ss  a 
  1
 
ss  a s  b 
1  be  at ae  bt 
1   
ab  ba ba 
 
 
  sc
 
ss  a s  b 
1  bc  a e  at a c  b e  bt 
c   
ab  ba ba 
 
 
1
1  cost  1
2 s s 2   2 
 
sa
a 2  2  
cost  ,   arctg 
a

2 4 a s s 2   2 
   
1

1
 
e  0 t sin p t   , p  0 1   2 ,   cos-1  
1
 2
0 0  p s s 2  20s  2 
 0
1   at  ate  at  1
1  e 
a 2   ss  a 2
1   at  a a  b te  at  sb
 b  be 
a2   ss  a 2
t rampe 1
s2
1   at  1
 at  1  e 
a2   s 2 s  a 
t n 1 1
, n=1,2,…
, 0!=1
n  1! sn

70

Vous aimerez peut-être aussi