Vous êtes sur la page 1sur 51

Université Sidi Mohammed Ben Abdellah

om
Faculté Des Sciences Dhar El Mahraz Fès
Département De Physique

c
ro.
ri-p
ka

Licence Fondamentale
b
3a

Filière: Sciences de la Matière Physique (SMP)


al

Semestre 6
w.
ww

Réalisé par: Prof. El Houssaine Tissir

1
Sommaire

om
Chapitre 1: Notions de base sur les asservissements

I. Définitions

c
II. Transformation de Laplace
II.1. Quelques propriétés de la transformée de Laplace

ro.
II.2.Transformée de Laplace inverse
II.3. Calcul de la transformée de Laplace inverse
II.3.1. Utilisation du théorème des résidus
II.3.2. Décomposition en éléments simples
III. Représentation externe (fonction de transfert)
III.1. Définition
ri-p
III.2. Propriétés de la fonction de transfert
III.3. Forme standard d'une fonction de transfert
IV. Algèbre des schémas fonctionnels
IV.1. Notions fondamentales des schémas fonctionnels
IV.2. Représentation d’un système
IV.3. Forme canonique d'un système asservi
ka
IV.4. Simplification des schémas fonctionnels
V. Systèmes de commande
V.1. Commande d’un système en boucle ouverte
V.2. Commande d’un système en boucle fermée
VI. Classification des systèmes asservis
b

VI.1. Classification selon le type de l'entrée de référence


VI.2. Classification selon le type du régulateur
3a

Chapitre 2: Réponses temporelles des systèmes dynamiques

I. Systèmes de premier ordre


I.1. Processus à constante de temps
al

I.2. Processus intégrateur pur


II. Systèmes du second ordre
III. Réponse indicielle (réponse à un échelon unité)
III.1. Cas d’un système de premier ordre à constante de temps
w.

III.2. Cas d’un processus intégrateur


III.3. Cas d’un système de second ordre
IV. Réponse impulsionnelle
IV.1. Cas d’un système de premier ordre à constante de temps
ww

IV.2. Cas d’un processus intégrateur


IV.3. Cas d’un système de second ordre
V. Réponse à une rampe : u(t)=at
V.1. Cas d’un système de premier ordre à constante de temps
V.2. Cas d’un système de second ordre

2
Chapitre 3: Représentation des systèmes dans l’espace d’état

om
I. Représentation d'état des Systèmes continus
I.1. Définitions
I.2. Quelques méthodes d’obtention de la représentation d’état
I.2.1. A partir de l’équation différentielle entrée sortie
I.2.2. A partir du diagramme de simulation
I.2.3. A partir de la représentation externe

c
I.2.4. Représentation d’état des systèmes variants
I.3. Pluralité de représentation d’état

ro.
I.4. Intégration des équations d’état
II. Représentation d'état des systèmes discrets
II.1. A partir de l'équation aux différences entrée sortie
II.2. A partir du diagramme de simulation
II.3. Pluralité de représentation

III. Commandabilité et observabilité


III.1. Définitions
ri-p
II.4. Intégration des équation d’état

III.2. Critères de commandabilité et d'observabilité


III.2.1. Systèmes invariants
III.2.2. Systèmes variants
ka
IV. Commande par retours d'état
V. Commande par reconstruction d’état.

Annexe: Table des transformées de Laplace des signaux usuels


b
al 3a
w.
ww

3
Chapitre 1: Notions de base sur les asservissements

om
I. Définitions

c
Définition de l'Automatique : L'automatique est un ensemble de théories mathématiques et
une technique de raisonnement qui concernent la prise de décision et la commande du

ro.
système.

L'automatique est indispensable quand il s'agit de traiter avec précision et en toute sécurité des
systèmes rapides ou peu stable.

ri-p
Système: Un système est un ensemble de constituants reliés les uns aux autres de façon à
former une entité.

Système Automatique: Un système est dit automatique lorsqu'il accomplit une tache bien
déterminée sans intervention humaine
ka
Système dynamique ou à mémoire : Un système dynamique est un système dont la réponse
à une excitation dépend à la fois de celle ci et de ce qui s’est passé avant. La relation
mathématique liant l’entrée et la sortie est plus complexe: la sortie dépend d’elle même (de
ses dérivées) et de l’entrée.
b

Système linéaire : Un système dynamique linéaire est un système qui peut être décrit par une
équation différentielle linéaire.
3a

Système stationnaire : Un système est dit stationnaire (ou invariant) s'il peut être décrit par
une équation différentielle linéaire à coefficient constants.

Système causal : Un système est dit causal si la valeur de la sortie y(t) à un instant to ne
al

dépend que des valeurs de l'entrée u(t) pour tto. Notons que tous les systèmes physiques sont
causaux.
w.

II. Transformation de Laplace


C'est un outil mathématique possédant l'avantage de transformer des équations différentielles
en équations algébriques
ww

Définition 1. : Soit f(t) une fonction réelle de la variable réelle t, définie pour t>0 et soit s une
  o t
variable complexe définie pour s    j . S'il existe un réel  0 tel que 0 f(t) e dt  ,
alors f(t) admet une transformée de Laplace pour Re(s)     0 donnée par :

Lf ( t )  F( s )    f ( t )est dt
0

4
Exemple 1. : Calculer la transformée de Laplace de la fonction échelon unitaire
0 pour t0
(t) .

om
1 pour t0
Réponse :

  st  st  1 st   1  1
 
U ( s)  L[(t )]   (t )e dt   e dt   e   lim  e st  
0 0  s  0 t   s  s

c
1
Pour que l'intégrale converge, on doit avoir >0 et donc 0  0 . Donc U( s )  L( t ) 
s

ro.
pour tout s telle que Re(s)>0.

Remarque: Une fonction est dite causale si elle est identiquement nulle pour t<0.

II.1. Quelques propriétés de la transformée de Laplace


1-Unicité de la solution : Si deux fonctions f(t) et g(t) possèdent la même image H(s)
ri-p
(H(s)=L[f(t)]=L[g(t)]) alors ces deux fonctions sont identiquement égales.

2-Linéarité : La transformée de Laplace est linéaire, c à d que si f1 et f2 ont une transformée


de Laplace et si λ1, λ2 sont deux nombres réelles λ1.f1 + λ2.f2 a aussi une transformée de
Laplace et que L(λ1.f1 + λ2.f2) = λ1.L(f1) + λ2.L(f2) (à conditions que L(f1) et L(f2) existent
ka
pour tout s > 0).

3-Théorème de la valeur initiale : f ( 0 )  lim f ( t )  lim sF( s )


t 0 s
b

4-Théorème de la valeur finale : f (  )  lim f ( t )  lim sF( s )


t  s0
Remarque :
3a

i) Le théorème de la valeur initiale ne s’applique pas si le degré du numérateur de F(s) est


égale ou supérieur au degré de son dénominateur car f(t) contient alors une impulsion.

ii) le théorème de la valeur finale ne s’applique que si tous les pôles de F(s) sont à partie réelle
négative. On tolère un pôle simple nul. Si ces conditions ne sont pas respectées, f(t) est une
al

fonction qui croit constamment avec le temps, d’où l’impossibilité d’utiliser ce théorème.

iii) Si la différence entre le degré du dénominateur de F(s) et le degré de son numérateur est
supérieur ou égale à 2 alors f(0+)=0.
w.

iv) Si la différence entre le degré du dénominateur de F(s) et le degré de son numérateur est
égale à 1, alors f(0+) est le quotient des coefficients de plus haut degré du numérateur et du
dénominateur.
ww

5-Dérivation : Soit f dans une fonction de classe C(n) sur l’ensemble t > 0 et dont les dérivées
f(1)… f(n) vérifient f ( t )  A 0 e at , f (1) (t )  A1e at , ..., f (n) (t )  An e at pour t>t0.

Alors f(t), f(1)(t),…, f(n)(t), ont une limite lorsque t décroît vers 0 et on a pour Re(s)>a:

5
 dn  d n 1

om
d
L f ( t )  s n F(s)  s n 1f (0  )  s n  2 f (0  )  ...  f (0  )

 dt n
 dt dt n 1

n 1
 s n F( s )   sn 1k f ( k )( 0 ); f ( 0 )( 0 )  f ( 0 )
k 0

c
* cas particuliers : n=1 : L    sF(s)  f (0  )
df
 dt 

ro.
d2  d
n=2 : L  f (t )  s 2 F ( s)  sf (0  )  f (0  )
2
 dt  dt

* Pour une fonction causale : f ( k )( 0 )  0 pour tout k  L f ( n )( t )  sn F( s ) 
Remarque: On doit distinguer la dérivée en t de celle en s : Lt
ri-p f (t )  (1)
n
n n d F ( s)
n
ds
d  2 
Exemple 2. Lsin(2t )    Lt. sin(2t )   
2 4s
 
2
s 4 ds  s 2  4 
s 2  42
ka

6- Intégration : L  f ( t )dt   F(s)
s

8-Théorème du retard : si F(s)=L[f(t)] alors Lf t    e s F(s) , pour t>.
En termes plus simples, retarder une fonction de  dans le temps, revient à multiplier sa
b

transformée de Laplace par e-s


3a


9-Théorème du déplacement : si F(s)=L[f(t)] alors L eat f ( t )  F( s  a ) 
II.2.Transformée de Laplace inverse
al

Définition 2. : Soit F(s) la transformée de Laplace de la fonction f(t), t>0, alors,


L1F(s)  f ( t )
s'appelle la transformée de Laplace inverse de F(s).
w.
ww

En pratique, pour obtenir la transformée de Laplace inverse, les trois cas suivants se
présentent.

6
 La transformée inverse de F(s) est directement dans la table

 Il faut d’abord exprimer ou décomposer F(s) en une somme de termes dont les

om
transformées inverses sont dans la table.

 Il faut utiliser la table conjointement avec une ou plusieurs propriétés.

II.3. Calcul de la transformée de Laplace inverse


Dans le cas général, les transformées de Laplace se présentent sous forme d'un quotient

c
N( s )
F( s )  .
D( s )

ro.
II.3.1. Utilisation du théorème des résidus
La transformée de Laplace inverse peut être calculée de la manière suivante :

f ( t )  L1F(s)   résidusF(s)est 
o
ri-p
et le résidu d'une fonction g(s) en un pôle a d'ordre p s'obtient par :

d p 1
Résg, a  
1
( p  1)! ds p 1
 
s  a p g( s )
sa
II.3.2. Décomposition en éléments simples
ka
N( s )
La méthode consiste à décomposer la fraction F( s )  , avec deg(N(s))deg(D(s)), en
D( s )
éléments dont l'image est connue (utilisation des tables). Les cas suivants peuvent se
présenter:
b

Premier cas : Pôles simples: Si D(s) présente des racines simples, on peut écrire :
3a

N ( s)
F ( s)  avec si  s j si i  j
s  s1 s  s2 ...s  sn 
La décomposition de F(s) peut toujours s’écrire sous la forme :
A1 A2 An
F(s)    ... 
s  s1 s  s 2 s  sn
al

Les coefficients Ai sont appelés les résidus de leurs pôles respectifs. On en déduit :
f (t )  A1e s1t  A2e s2t  ...  An e sn t
w.

Exemple 3:
1 1
F(s)   ; F(s) possède deux pôles simples: -1 et -2.
s  3s  2 (s  1)(s  2)
2
ww

1 1
F(s)  
s 1 s  2
 
d' où : f(t)  e  t  e  2t ( t )

7
Deuxième cas : pôles multiples ; Si D(s) présente des racines multiples par exemple s 0 :
N ( s)
F ( s)  avec   1

om

s  s0  s  s1 ...s  sn  
on écrie F(s) sous la forme :

A1 A2 A B1 B2 Bn 
F(s)    ...     ... 
s  s 0 s  s 0 2
s  s  ss
1
s  s2
n
s  s 

0 

c
décomposition par rapport au pôle multiple décomposition par rapport aux autres pôles
D’où :

ro.
A   1 s 0 t
f ( t )  A1e s 0 t  A 2 tes 0 t  ...  t e  B1e s1t  B 2 e s 2 t  ...  B n   e s n  t ; t>0

  1!
Contribution du pôle multiple

Exemple 4:
F(s) 

D’où
3s

3s
s  4s  4 s  2
2 2

3

6
s  2 (s  2) 2
ri-p
 
f ( t )  3e  2t  6te 2t (t )
ka
Troisième cas : pôles complexes : Si D(s) possède des racines complexes, ces racines viennent
de termes quadratiques de la forme as 2  bs  c avec b 2  4ac  0 ,
s  
Dans ce cas, dans l'expression de F(s) intervient des termes de type qu'on écrit
as  bs  c
2

s  d 
b

sous la forme . Le terme correspondant de f(t) est :


s     
2 2
3a


d   2  2   
e  t sin t   avec   arctg .
2 d

4
Exemple 5: Retrouver l'original de H(s) 

s  1 s 2  4s  7 
al

Cette transformée ne figure pas dans la table. Utilisons la méthode de décomposition, on


écrie:
w.

 s  
H(s)  
s  1 s 2  4s  7
Identifions les deux expressions :
ww

 s   (  )s 2  (4     )s  7   4

s  1 s 2  4s  7


(s  1) s 2  4s  7

 
s  1 s 2  4s  7 

8
    0

On doit donc avoir 4      0

om
7    4

  1

La résolution de ce système d’équations donne   -1
  -3

c
Donc,

ro.
1 s3
H(s)  
s  1 s  4s  7
2
Qu’on peut écrire sous la forme

1 s3
H(s)  
s  1 s  22  3 2ri-p
 
www.CoursUniversitaire.com
De la table des transformées on tire :

h(t )  e  t 
2 3 - 2t
e sin( 3 t  ), t0
ka
3

Avec   arctg 3 . 
b

III. Représentation externe (fonction de transfert)


III.1. Définition
Considérons un système linéaire monovariable et stationnaire décrit par l'équation
3a

différentielle

d n y( t ) dy( t ) d mu( t ) du( t )


an n
 ...  a1  a 0 y( t )  bm m
 ...  b1  b0u( t )
dt dt dt dt
al

où a 0 , a1,...,a n , b0 , b1,...,bm sont des constantes. On note que l'équation ne contient pas de
terme constant. En fait il est possible d'éliminer ce terme par un changement de variable.
w.

La réalisation physique impose d'avoir m  n , n s'appelle ordre du système.

On admet que le système est initialement au repos (ou en régime permanent, établi depuis
suffisamment longtemps), toutes les dérivées sont donc nulles à l'instant t=0. L'application de
ww

la transformée de Laplace donne,

a nsn Y( s )  ...  a1sY( s )  a 0Y( s )  bmsmU( s )  ...  b1sU( s )  b0U( s )

avec Y(s) et U(s) sont les transformées de Laplace de y(t) et u(t) respectivement. Alors, on
déduit :

9
Y(s) b ms m ... b1s  b0
 H(s)

om
U(s) a s n ...a s a
n 1 0

H(s) est appelée fonction de transfert ou transmittance du système. Elle ne dépend ni de la


sortie ni de l'entrée ni des valeurs ou conditions initiales mais seulement de la constitution
physique du système.

c
III.2. Propriétés de la fonction de transfert
1. La fonction de transfert d'un système est la transformée de Laplace de sa réponse à

ro.
l'impulsion.
Si on écrit Y(s)=H(s)U(s), en prenant la transformée inverse de Laplace, on trouve,

t t
y( t )  h( t ) * u( t )   h( )u( t  )d   h( t   )u( )d
0 0

ri-p
où '*' désigne l'opérateur de convolution et h(t) est l'original de H(s). h(t) s'appelle
réponse impulsionnelle du système car pour une impulsion u( t )  ( t ) (U(s)=1), on a
y(t)=h(t).

2. La fonction de transfert est obtenue à partir de l'équation différentielle en prenant la


transformée de Laplace et en laissant de côté tous les termes dépendant des conditions
ka
initiales.
3. On peut obtenir l'équation différentielle du système à partir de la fonction de transfert
en remplaçant la variable s par l'opérateur différentiel D=d/dt.
4. Les valeurs de s annulant le numérateur de la fonction de transfert sont appelées zéros
du système et celles annulant le dénominateur sont appelées ses pôles. On peut donc
b

définir à une constante près, la fonction de transfert du système par la donnée de ses
pôles et de ses zéros. Cette constante généralement notée K s'appelle gain du système.
5. Du fait de la causalité du système, le degré du numérateur de la fonction de transfert
3a

est inférieur ou égale au degré de son dénominateur m  n

III.3. Forme standard d'une fonction de transfert


Pour le calcul des organes de commande, il est intéressant de faire apparaître dans les
transmittances le gain statique, le nombre d'intégrateurs, les pôles et les zéros. On peut
al

toujours écrire H(s) sous la forme:

Ke  s P(s)
H(s) 
w.

s  Q(s)

P( 0 )
où P(s) et Q(s) sont tels que  1 , K est le gain statique du système,  est égal au nombre
Q( 0 )
ww

d'intégrateurs et  représente le retard pur du système.

Par définition K  lim s H( s ) . K fournit la relation statique entre l'entrée et la sortie.


s 0

IV. Algèbre des schémas fonctionnels

10
IV.1. Notions fondamentales des schémas fonctionnels

Un schéma fonctionnel consiste en une représentation graphique abrégée des relations entre

om
les signaux d'entrée et de sortie d'un système physique. C'est un moyen à la fois utile et aisé
de caractériser les relations existant entre les différents organes d'un système de commande.

● Le schéma fonctionnel le plus simple est constitué d'un seul élément:

c
ro.
Les flèches indiquent le sens dans lequel l'information ou le signal se transmettent.

● On représente les opérations d'addition ou de soustraction par un petit cercle marqué d'une
ri-p
croix appelé comparateur où aboutissent les flèches portant le signe + ou – selon les cas. On
peut faire aboutir au même comparateur un nombre quelconque de signaux d'entrée.
ka

● Lorsqu'on a besoin d'introduire le même signal ou la même variable en plus d'un élément ou
b

en plus d'un comparateur, on utilise un point de dérivation (ou de branchement).


al 3a
w.

IV.2.Représentation d’un système

On représente un système par le schéma fonctionnel suivant :


ww

11
La grandeur e(t) est appelée 'entrée principale, elle correspond à une action extérieure

om
s'exerçant sur le système et permet de le piloter vers un état spécifié. La sortie s(t) caractérise
l'état du système et représente les effets de la grandeur d'entrée que l'on peut observer
généralement au moyen des capteurs.
L'application des lois de la physique au système conduit à l'établissement d'une certaine
relation entre s(t) et e(t).
Les autres grandeurs qui possèdent une action sur le système et qui sont susceptibles par

c
conséquent de modifier la relation existant entre s(t) et e(t) sont appelées entrées parasites ou
perturbations.

ro.
Exemples :

ri-p
b ka

Le schéma fonctionnel de base d'un système asservi peut être donné par :
al 3a
w.

Pour étudier le système asservi, on inscrit à l’intérieur de chaque rectangle la fonction de


transfert de l’élément correspondant ou bien l’opérateur qui va agir sur son entrée.

Exemple : soit l’équation différentielle


ww

dx ( t )
y( t )    x ( t ) ; (y=sortie, x=entrée)
dt

 Dans le domaine temporel , on peut faire la représentation suivante :

12
c om
Dans le domaine fréquentiel, on peut calculer : Y(s)  s  X(s) , d’où la

ro.

représentation :

Remarque:
ri-p
b ka
3a

IV.3. Forme canonique d'un système asservi


al

La forme canonique est donnée par le schéma fonctionnel suivant :


w.

H1 : fonction de transfert directe

= fonction de transfert d'action.


ww

H 2 : fonction de transfert de retour.

H1H 2 : fonction de transfert en boucle ouverte.

13
Calcul de la fonction de transfert en boucle fermée :

om
Y(s)  H1 (s)(s) avec (s)  E(s)  H 2 (s)Y(s)

ce qui donne :

Y(s)  H1 (s)E(s)  H1 (s)H 2 (s)Y(s)

c
H1 (s)E(s)
 Y(s) 

ro.
1  H1 (s)H 2 (s)

d'où la fonction de transfert en boucle fermée :

ri-p
Y(s)

H1 (s)
E(s) 1  H1 (s)H 2 (s)

Remarque : Si H2=1, on a un retour unitaire.


ka
IV.4. Simplification des schémas fonctionnels
Le schéma fonctionnel d'un système asservi réel est souvent assez compliqué. Il peut
comprendre plusieurs boucles de retour ou d'action, et plusieurs signaux d'entrée. On peut
toujours ramener un système à boucles multiples à la forme canonique. L'effet des entrées
b

secondaires est ramené à l'entrée et la réduction des boucles est réalisée en considérant en
premier les boucles internes. La simplification des schémas fonctionnels peut être réalisée en
utilisant des transformations faciles à manipuler. Ces transformations obéissent à des règles
3a

dont le principe est le suivant: Deux schémas blocs sont mathématiquement équivalents si
leurs fonctions de transferts globales sont égales.

Règle 1: Eléments en cascade (série):


al
w.

Y  G1G2 X

Règle 2: Eléments en parallèle :


ww

14
c om
Règle 3: Elimination d'une boucle de retour

ro.
ri-p
ka

Règle 4 déplacement d'un comparateur en mont d'un élément


b
3a

 Y
Z  GX  Y  G X  
al

 G
w.

Règle 5 déplacement d'un comparateur en aval d'un élément


ww

Z  G X  Y   GX  GY

15
Règle 6 élimination d'un comparateur

om
On peut remplacer des comparateurs en cascade par un comparateur équivalent

c
ro.
Z  X1  X 2  Y  X1  Y  X 2  X1  X 2  Y  X1  X 2   Y

ri-p
Règle 7: transformation d’un comparateur en sommateur
b ka
3a

Règle 8 Permutation de comparateurs

On peut permuter des comparateurs en cascade, cette propriété découle de la commutativité


de l’addition.
al
w.
ww

Règle 9 Permutation de capteurs

16
om
Règle 10 déplacement d’un élément en amont d’un nœud

c
ro.
Z=GX et Y X  1 GX
G
ri-p
Règle 11 déplacement d’un élément en aval d’un nœud
b ka
3a

V. Systèmes de commande
Définition 5.1: un système de commande est un assemblage de constituants physiques
branchés ou reliés les uns aux autres de telle sorte qu'il puisse se commander, se diriger, ou se
al

régler lui-même, ou bien commander, diriger, ou régler un autre système.

Les systèmes de commande entrent dans deux catégories générales: les systèmes en boucle
w.

ouverte et les systèmes en boucle fermée

V.1. Commande d’un système en boucle ouverte


Définition 5.2: Un système de commande en boucle ouverte est un système où le signal de
ww

commande est indépendant du signal de sortie.

17
avec :
le système à commander est le système sujet à la commande (four, moteur ,réacteur ...)

om
Sortie (appelée grandeur réglée) : c'est la grandeur physique que l'on désire contrôler. Elle
donne son nom à la régulation. Par exemple : régulation de température.
Consigne : ordres, c'est la valeur désirée que doit avoir la grandeur réglée; exemple fixer une
température à 37 °c ou fixer une trajectoire d’un avion.
Action de commande (ou grandeur réglante) : Action susceptible de changer l’état du

c
système à commander. Elle est élaborée en fonction des ordres.

ro.
ri-p
Exemple 5.1: régulation de niveau d'eau dans un réservoir
b ka
3a

C'est une commande en boucle ouverte qui ne permet pas de régler avec précision le niveau
de sortie et corriger l'effet des perturbations.
al

Remarque: les deux caractéristiques essentielles des systèmes en boucle ouverte sont les
suivantes:
w.

1. leur aptitude à fonctionner avec précision est déterminée par leur calibre. Calibrer
signifie établir ou réétablir la relation entre entrée et sortie de façon à obtenir du
système la précision voulue.
2. Le phénomène d'instabilité n'est en général pas gênant.
ww

V.2. Commande d’un système en boucle fermée


Définition 5.3: Un système de commande en boucle fermée est un système où le signal de
commande dépend d'une façon ou d'une autre du signal de sortie. Ce système est appelé aussi
système bouclé ou système asservi ou asservissement.

18
Le schéma général d’un asservissement analogique est donné par la figure suivante:

c om
ro.
Un système asservi comporte une chaîne d'action avec amplification de puissance appelé aussi
chaîne de puissance, une chaîne de retour ou de contre-réaction (de faible puissance) et un
outil de comparaison.
 le processus est soumis aux excitations constituées par l'entrée de référence et des


perturbations.
ri-p
Le capteur donne une image utilisable (de nature le plus souvent électrique) de la grandeur
réglée. Un capteur doit donner une image fidèle de la grandeur réglée. Sa sensibilité
impose donc les limites de précision de l'asservissement.
 Le régulateur est composé de deux parties :
- Le comparateur qui reçoit l'information de référence et la grandeur mesurée dont il fait la
ka
différence  appelée écart ou erreur.
- Le correcteur dont le rôle sera d'éliminer cet écart quelles que soient les perturbations, et
d'amener le processus à réagir rapidement, quelles que soient les variations de l'entrée de
référence ou des perturbations. Donc, il a pour but d'assurer le bon fonctionnement du
b

processus et en particulier sa sécurité.


 L'actionneur reçoit du régulateur la grandeur réglante et l'amplifie en puissance , c'est le
3a

"muscle" de la chaîne qui va piloter l'évolution du processus (par exemple : moteur, vérin,
vanne, …)

Exemple: régulation de température d’eau dans un bassin


al

Le schéma de la régulation automatique de température d'eau dans un bassin est donné par la
figure suivante :
w.
ww

19
c om
ro.

ri-p
Le débit d’eau chaude est réglé par une vanne motorisée; il est proportionnel à l'angle
d'ouverture de la vanne  v (rd).
 Le moteur est alimenté par l'induit sous la tension u crée par l'amplificateur opérationnel
de gain A1 ; la position angulaire de l'arbre du moteur est m . Ce moteur va ouvrir ou
fermer la vanne par l'intermédiaire d'un réducteur.
ka
 Le thermocouple mesure la température T d’eau dans le bassin et délivre une tension
proportionnelle à T. cette tension est envoyée à la borne négative d’un amplificateur
opérationnel qui va la comparer à la tension de référence Vref (proportionnelle à la
température de référence).
b

On remarque que ce montage met en évidence l’opération de bouclage. Le rôle du bouclage


3a

est d’ajuster en permanence le débit qec de l’eau chaude de telle sorte que la grandeur réglée
(température d’eau dans la cuve) soit égale à la consigne (Température de référence Tref) en
dépit des perturbations (par exemple échange de chaleur avec l’environnement).

V. Classification des systèmes asservis


al

Dans tout système asservi, la sortie doit recopier le mieux possible la consigne.
V.1. Classification selon le type de l'entrée de référence

w.

Poursuite : l'asservissement a une entrée de référence qui évolue au cours du temps


(exemple : radar de poursuite, un missile qui poursuit une cible, une machine qui doit
usiner une pièce selon un profit donné). Cette évolution de l'entrée fait évoluer le point de
fonctionnement du processus et la sortie doit suivre le mieux possible cette évolution en
dépit des perturbations. On dit que le système fonctionne en suiveur ou en poursuite.
ww

 Régulation : dans ce cas, la consigne est constante ou évolue en paliers et le système doit
compenser l’effet des perturbations. A titre d’exemple : le réglage de la température dans
un four, de la pression dans un réacteur, du niveau d’eau dans un réservoir.

20
 Servomécanisme : on appelle servomécanisme, un système asservi dont le rôle consiste à
amplifier la puissance et dont la grandeur réglée représente la position mécanique ou l'une

om
de ses dérivées par rapport au temps comme la vitesse ou l'accélération.
V.2. Classification selon le type du régulateur
 Système asservi linéaire continu : le régulateur utilisé est analogique (réalisé avec des
composants analogiques, essentiellement des amplificateurs opérationnels) dont le signal
de sortie évolue de manière continue dans le temps.
 Système asservi linéaire échantillonné : le régulateur utilisé est numérique

c
(microprocesseur par exemple) et son signal de sortie est numérique (c'est le résultat d'un
algorithme de calcul).

ro.
ri-p
b ka
al 3a
w.
ww

21
Chapitre 2: Réponses temporelles des systèmes

om
dynamiques

Généralement, pour analyser un système afin de déterminer ses performances ou comparer le


fonctionnement de plusieurs systèmes, On introduit des signaux de référence d'entrée appelés
aussi signaux de test. Un signal de test doit être :

c
 Simple : pour faciliter la résolution de l’équation différentielle et reconstituer un autre
signal plus complexe.
 Défini : afin d’effectuer des comparaisons entre les performances des différents systèmes

ro.
 Capable d’exciter le régime d’exploitation le plus difficile (exemple: un four, un réacteur)
Les signaux de test utilisés sont de deux types : signaux de test sinusoïdaux et signaux de test
non sinusoïdaux. Les signaux de test sinusoïdaux sont utilisés en analyse fréquentielle et les
signaux de test non sinusoïdaux généralement utilisés dans l’analyse temporelle sont les
suivants:
ri-p
* Un échelon: la réponse du système est appelé réponse indicielle
* Une impulsion: la réponse du système est appelé réponse impulsionnelle
* Une rampe: la réponse du système est appelé réponse à une rampe

I. Systèmes de premier ordre


ka
I.1. Processus à constante de temps
On appelle un élément du premier ordre ou élément apériodique un système décrit par
l’équation différentielle du premier ordre :

d
b

a0 y( t )  a1y( t )  bu ( t )
dt
3a

Qu'on peut écrire sous forme réduite:


al

y  y  Ku (1)

 est la constante de temps du système, K est le gain statique.


w.

Par application de la transformation de Laplace à l'équation (1) on trouve la fonction de


transfert du système :
K
H(s) 
1  s
ww

Exemple : Four électrique

22
L'entrée de commande est la puissance

om
électrique P(t). La sortie observée est la
température du four (t)

Bilant énergétique de l'installation pendant un temps dt :


- l'énergie absorbée par le système est P(t)dt
- l'énergie perdue par rayonnement est proportionnelle à la température : (t)dt
- la différence est stockée dans la capacité calorifique C du four dont elle élève la

c
température de d.
On a donc :

ro.
Cd  Pdt  dt
soit,
d d
C  P    C    P
dt dt
1

s 
P(s)
 
1 s
C

ri-p
(gain statique K=1/ et constante de temps =C/)

I.2. Processus intégrateur pur


Un système est dit intégrateur pur si la sortie y(t) est proportionnelle à l'intégrale du signal de
ka
Y(s) K
l'entrée u(t) : y(t )  K  u()d . Sa fonction de transfert est donnée par H(s)   .
U(s) s

Beaucoup d'amplificateurs opérationnels sont conçus pour se comporter comme des


b

intégrateurs.
3a

Exemple : Système hydraulique

Soit A la section de la cuve et V le volume


d'eau dans la cuve.
al

dV dh
 qe  A
dt dt

 AsH(s)  Qe(s)
w.

H(s) 1
 Ge  
Qe(s) As
ww

II. Systèmes du second ordre


un système linéaire est dit du deuxième ordre lorsque l’équation différentielle qui régit
son comportement est linéaire de type :

23
d 2 y( t ) dy( t )
a2  a1  a o y( t )  bu ( t )
dt 2 dt

om
En pratique on présente l’équation sous forme réduite :
d 2 y( t ) dy( t )
 2w o  w o2 y( t )  Kw o2 u ( t )
dt 2 dt

c
où,
ao
w o =pulsation propre non amortie ou pulsation naturelle (s'exprime en rd/s) 

ro.
a2
a1
 =coefficient d'amortissement
2 a oa 2
b
K =gain statique
ao

Fonction de transfert : H(s) 


Y(s)

Kw o2
ri-p
U(s) s 2  2w o s  w o2

Exemple : Système mécanique (Arbre de rotation)


ka
On tient compte du coefficient d'élasticité Ke, du frottement f et du moment d’inertie J des
masses en mouvement. Cm : couple moteur (entrée), s : angle de rotation (sortie).

d 2s ( t ) ds ( t )
b

J  Cm K es ( t ) f
dt 2 dt
3a

1
www.CoursUniversitaire.com  s (s) J
H(s)  
Ke f 1 C m (s) f Ke
wo  ,  et K  s2  s 
J 2 JKe Ke J J
al

Place des pôles de la fonction de transfert dans le plan complexe


w.

Les pôles de H(s) sont obtenus par la résolution de l'équation s2  2w 0s  w 02  0 . Le


 
discriminant réduit est donné par ' w 02 2 1 . Il y a donc trois cas à envisager.
a)   1  '  0 : le système est sous amorti, et le dénominateur de la fonction de transfert
ww

possède deux pôles complexes conjugués :

s1   w o    j 1 2 ; s2   w o    j 1 2 
   
Ils possèdent les propriétés suivantes :

24
 s1  s2  w o indépendants de ; s1s2  w o2 .
 Si   0 alors s1  jw o et s2   jw o : les deux pôles sont imaginaires purs.

om
 Si   0 les deux pôles sont à gauche de l'axe imaginaire, cela correspond à un
amortissement réel.
 Si   0 les deux pôles sont à droite de l'axe imaginaire, cela correspond à une
amplification.

c
b)   1  '  0 : le système est amorti, et le dénominateur de la fonction de transfert
possède deux pôles réels négatifs si   0 et positifs si   0.

ro.
s1  w o     2  1 ; s 2  w o     2  1 
   
c)   1  '  0 : amortissement critique, racine double s1,2  w o

III. Réponse indicielle ri-p


Lorsqu'un système est excité par un échelon, sa sortie est appelée réponse indicielle.
Définition d’un échelon :

 E pour t  0
ka
( t )  
0 pour t  0 (causalté)
b

 (t) n'est pas définie à l'origine (t=0) ce que l'on transcrit par (0 )  0 et (0 )  E . On a
l'échelon unité si E=1. La représentation réelle de ce signal est l'application d'une tension à un
3a

système par l'intermédiaire d'un interrupteur. C'est le signal de test le plus simple à réaliser,
convient aux systèmes d’une grande inertie

III.1. Cas d’un système de premier ordre à constante de temps


La transformée de Laplace de la
al

1
fonction échelon unité est donc
s
w.

 
K 1 1 
Y(s)   K  
s(1  s)  s s  1 
 
ww

par conséquent,

25
  
t
y( t )  K 1  e  ( t )

 

om
 

Le régime transitoire est caractérisé par les paramètres suivants :


 Le temps de réponse tr : temps au bout duquel le système atteint son régime définitif à 5%
près. On peut montrer que tr=3.
 Le temps de monté tm : c'est le temps que met la réponse indicielle pour aller de 10% à

c
90% de la valeur finale. On montre que t m   ln(9)  2.2

ro.
Le régime transitoire encore appelé régime libre (pas d'excitation) caractérise le
comportement dynamique du système (rapidité et oscillations), et le régime permanent ou
régime forcé caractérise son comportement statique. La dynamique du système est
conditionnée par les pôles de la fonction de transfert et donc par les coefficients de l'équation
différentielle.
ri-p
Plus  est petit plus tr est petit et plus le système est rapide.

Remarque: pour un système asservi à retour unitaire de premier ordre:


K
H(s)  ;
1  s
H(s) K
Y(s)  Yc (s)  Yc (s)
ka
1  H(s) 1  K  s

K1 K 
Y(s)  Yc (s) avec K1  et 1 
1  1s 1 K 1 K
b

Lorsque l’entrée de consigne est un


échelon unitaire,
  
3a

t

y( t )  K1 1  e 1 
 ( t )
 
On défini l’erreur de position par :
al

(t )  y c (t )  y(t )
Et l’erreur statique est définie par :
w.

()  lim ( t ) 


t 

Dans notre cas : ()  lim ( t )   1 


K 1

t  K 1 K 1
Cette erreur est d’autant plus petite que K est grand. Elle est nulle pour K= ce qui n’est pas
ww

réalisable physiquement du fait des limitations pratiques.


On note que l’erreur statique peut être déterminée en utilisant le théorème de la valeur finale :
()  lim s(s) 
s 0

26

D’autre part, plus K est grand, plus 1  est petit, donc tr est petit et par suite le
1 K

om
système est rapide.

III.2. Cas d’un processus intégrateur

Eo KEo
E(s)   Y(s) 
s s2

c
 y(t )  KEot

ro.
III.3. Cas d’un système de second ordre

1 Kw o2 Kw o2
U(s)   Y(s)  
s 
s s 2  2w o s  w o2 
ss  s1 s  s 2 

a)   1 : racines réelles distinctes ri-p


s1  w o     2  1 ; s 2  w o     2  1  et s1  s2  2w o 2  1
   
La décomposition en éléments simples de Y(s) donne,
  s s 
ka
Y(s)  K 1  1  2  1 
 s s1  s 2  s  s1 s  s 2 
En prenant la transformée de Laplace inverse on trouve :

y( t )  K 1 
1

s 2 e s1t  s1e s 2 t (t)
b

 s1  s 2 
L'évolution de y(t) et de sa dérivée, qui n'est autre que la réponse impulsionnelle,
3a

y( t )  K
s1s 2
s1  s 2
 
e s1t  e s 2 t ( t )

dépendent des valeurs des racines s1 et s2 .


al

Remarquons que es1t et es 2 t convergent à 0 si s1 et s 2 sont négatifs (racines réelles) ou


Res1  0 et Res 2  0 (racines complexes) ce qui correspond à   0 . Dans le cas où   0 , il
y a divergence de la réponse (instabilité). Nous ne considérons par la suite que les valeurs de
w.

0 .
ww

27
La tangente à l'origine est horizontale,
pour t, y(t )  K . Le temps t i auquel

om
la courbe s'infléchit est donné par :

y  0  s1es1t i  s2es 2t i

 ti  1 ln  s 2  (les deux racines


s1  s 2  s1 

c
sont de même signe)

ro.
On remarque qu'après t i , le système se comporte comme un système de premier ordre. En
effet, deux systèmes de premier ordre en cascade forment un système de deuxième ordre
avec des racines réelles.

ri-p
b)   1 : racine double
 wo 
ka
Kw o2
s1  s2  w o , dans ce cas, Y(s)   K 1  1   , soit,
ss  w o 2  s s  w o s  w o  
2

 
y(t )  K 1  1  w o t e  w o t (t )
b

la réponse a même allure que la précédente. Dans ces deux cas, le régime est apériodique. En
pratique, ce régime ne présente pas d'intérêt car il est lent à s'établir.
3a

c)   1 : racines complexes conjuguées

s1  w o    j 1   2 ; s 2  w o    j 1   2  et s1  s2  2 jw o 1 2 alors,
   
al

 1  2 2 
y( t )  K 1   s 2 e  w o t e  jw o 1  t  s1e  w o t e  jw o 1  t 
 2 jw 1   2  
 o
w.

    jw o 1  2 t 2    jw o 1  2 t 2  
  w o t   e  e  jw o 1  t  e  e  jw o 1  t  
y( t )  K 1  e     
  1  2  2j   2  
      
www.CoursUniversitaire.com
ww

 e  w o t 
y( t )  K 1    sin w 1   2 t   1   2 cos w 1   2 t  
 1  2   o   o  

28
2
On remarque que 2   1  2   1 donc on peut poser sin()  1  2 et cos()   et
 

om
la solution devient :
 e  w o t 
y( t )  K 1  sin w o 1   2 t   
 1  2  

 e  w o t   e  w o t 
y(t) évolue entre K 1   et K 1  .
 2  2

c
1    1  
Si   0 l'enveloppe croit vers l'infini; divergence (instabilité), et si   0 l'enveloppe

ro.
converge vers K; oscillations amorties.

Graphe :

ri-p
ka

figure: réponse indicielle pour 0   1


Paramètres de performances
b

2
 pseudo période : Tp = avec w p = w o 1  2 =pseudo pulsation
wp
3a

2 To
Tp   ; To  période propre
w o 1  2 1  2
 Dépassements :
- Le premier dépassement D1 % : C'est le pourcentage de dépassement par rapport à la
al

y  y(  )
valeur finale stabilisée D1 %  max .100 ; ymax est obtenue en calculant
y ( )
dy( t ) n
 0 ce qui aboutit à t 
w.

(n=1,2,3,…). Pour n=1 on a le premier


dt wp


 1  2
dépassement : t pic   D1 %  100e .
wp
ww

3

1 2
- Pour n=3 on a le deuxième dépassement D 2 % 100e
 Le temps de réponse t r : c'est le temps requis pour atteindre le régime définitif à 5%.

29
 Le temps de monté t m : c'est l'intervalle de temps séparant les instants auxquels la
réponse indicielle vaut 10% et 90% de la valeur finale.

om
IV. Réponse impulsionnelle
La réponse impulsionnelle d’un système est sa réponse à une entrée en impulsion

Définition : L'impulsion de Dirac appelée aussi delta de Dirac ou distribution de Dirac


possède les propriétés suivantes :

c

 (t )dt  1 ; (t )  0 pour tout t  0 (1)

ro.
et ( t ) n'est pas définie en t=0.

L'impulsion de Dirac peut être générée à partir d'une fonction ( t, ) possédant les mêmes
propriétés (1) par passage à la limite de  tendant vers zéros.

ri-p 
0 pour t  0

1
( t , )   pour 0  t  

0 pour t  

ka

De la définition de cette fonction ( t, ) nous avons :



 (t, )dt  1   0
b

Par définition on pose : ( t )  lim ( t, )


0

Nous pouvons remarquer que  (t)dt  1 puisque la propriété est vraie   0 .
3a

Réalisation physique : Fermeture brève d’un interrupteur. La durée de l’impulsion ne doit


pas être assez grande pour ne pas ressembler à l’échelon ni trop brève pour pouvoir exciter le
système.
al

Domaine d’utilisation : Système ne pouvant pas être excité pendant un temps assez
important.
w.

Lorsqu'un système est excité par une impulsion, sa sortie est appelée réponse impulsionnelle.

IV.1. Cas d’un système de premier ordre à constante de temps


ww

30
u(t )  (t )  U(s) 1 , alors,
K K 1
Y(s)   .

om
1  s  s  1

t
K 
 y( t )  e  ( t ) avec ( t ) est la fonction

échelon unité.

c
K t 
Equation de la tangente : y( t )  1  
  

ro.
IV.2. Cas d’un processus intégrateur
K
U(s)=1  Y(s) 
s

 y(t )  K(t )
ri-p
IV.3. Cas d’un système de second ordre
Kw o2
U(s)  1  Y(s) 
s  s1 s  s 2 
ka

pour 0   1 , la décomposition en éléments simples de Y(s) donne,

1  1 1 
Y(s)  K02   
s1  s 2  s  s1 s  s 2 
b

Ce qui donne :

e s t  e s t ( t )
3a

y( t )  K
02
s1  s 2
 1 2

En remplaçant s1 et s2 par leurs expressions :


 2 2 
w o e  w o t  e  jw o 1  t  e  jw o 1  t 
al

y( t )  K  
1  2  2 j 
 
soit,
w.

w o e  w o t
y( t )  K sin w o 1   2 t 
1  2  

Courbe :
ww

31
c om
réponse impulsionnelle pour 0   1

ro.
Remarque: Un système est dit stable si sa réponse à l'impulsion de Dirac tend vers zéro
quand t tend vers l'infini.

V. Réponse à une rampe : u(t)=at

Définition d’une rampe :


ri-p  tg.t pour t  0
r(t )  
0 pour t  0 (causalité )


Si tg  1    rd  on a une rampe unité.
 4 
ka

La pente de la droite ( tg ) exprime la vitesse de variation de r(t). C'est pour cela qu'on
appelle souvent la rampe échelon de vitesse.
b

Réalisation physique : Intégration d’un échelon


Domaine d’utilisation : Système suiveur (missile).
3a

V.1. Cas d’un système de premier ordre à constante de temps


a Ka
U(s)  et donc Y(s)  . La
s2 s 2 1  s 
décomposition en éléments simples donne :
al

 
1   
Y(s)  Ka     . Il vient alors,
2 s 1
 s s 
w.

 
  
t
y( t )  Ka  t    e   ( t )
 
 
ww

Pour t>>, c'est à dire en régime permanent : y(t )  Ka t   .

V.2. Cas d’un système de second ordre

32
aKw o2
U(s)  a et Y(s) 
s2 
s 2 s 2  2w os  w o2 

om
 Cas où les pôles sont réels :
 s s s 22 s12 1 
Y(s)  aK  1  1 2 1  1 
2 s1s 2 s s1s 2 s 2 s1  s s1 s1s 2 s 2 s1  s s 2
 s 

 2
 

c
 y( t )  aK  t   1 s12es 2 t s 22es1t 
w o w 2 s s 
 o 2 1 

ro.
 2 
On peut voir que : lim y( t )  aK t  .
t   wo 
 Cas où les pôles sont complexes :
 2   w o 42 1  

Y(s)  aK  1 
s

2
2 w os

2
wo
s  4 2
 1 
2
s  2w os  w o 




ri-p
 aK  1 
2 2

s 
2
 
 s w os w o s  w o   w o2 1 2
2 2





 w o t   2 1  2 
2  

 y( t )  aK t   e sin w o 1  t    avec   arctg
2  
 w o w 1  2    22  1 
 
ka
 o 

 2 
Il est clair que : lim y( t )  aK t  
t   wo 
Courbes de réponse
b
al 3a
w.

Réponse dans le cas   1 Réponse dans le cas   1

On peut remarquer que les oscillations n'apparaissent que pour 0    1 .


ww

33
Chapitre 3: Représentation des systèmes dans l’espace d’état

om
La représentation d’état s’appelle aussi représentation interne. Son importance réside dans le
fait qu'on transforme une équation différentielle d'ordre n (généralement difficile à manipuler)
en n équations différentielles de premier ordre (ce qui simplifie l'étude).
La représentation interne est mieux adaptée pour l'étude des systèmes multivariables. Elle

c
permet de déterminer l'évolution du système en connaissant:

ro.
 le signal d'excitation
 l'état présent du système

I. Représentation d'état des Systèmes continus


I.1. Définitions
On définit l’état d’un système à l’instant t0 comme l’information sur le passé nécessaire et
ri-p
suffisante pour déterminer l’évolution ultérieure du système quand on connaît, pour t > t0, les
signaux d’entrée et les équations du système.

Définition: Un vecteur d’état est un ensemble minimal de variables d’état, c’est-à-dire de


grandeurs temporelles nécessaires et suffisantes pour déterminer l’évolution future d’un
système quant on connaît les équations qui décrivent le fonctionnement du système et les
ka
entrées de ce système.
Dans ce qui suit, un vecteur d’état sera noté :
 x1 
x 
x   2
  
b

 
x n 
3a

Le nombre n de composantes correspond au degré de complexité du système. Il définit l’ordre


du système.

Remarques
 Le vecteur d’état n’est pas unique : il y a même une infinité de choix possibles On
al

passe d’un vecteur d’état à un autre par simple changement de base.


 Les variables d’état sont généralement choisies pour leur signification physique et/ou
leur simplicité dans les équations d’évolution qui leur sont associées.
w.

Les équations d’état


D’une manière générale, à tout système linéaire, causal et continu peuvent être associées les
équations matricielles suivantes :
 dx ( t )
ww

 dt  A( t ) x ( t )  B( t )u ( t ) : équation d' état



 (1)
 y( t )  C(t)x(t)  D(t)u(t) : équation de sortie

34
 A(t) est appelée matrice d’état du système.
 x(t) est appelée vecteur d’état du système.

om
u(t) est appelée vecteur d’entrée du système.
 y(t) est appelée vecteur de sortie du système.

Dans le cas d’un système invariant, les matrices A, B, C et D sont indépendantes du temps, il
vient :
 dx  Ax( t )  Bu ( t )
 dt

c

 (2)
 y( t )  Cx(t)  Du(t)

ro.


I.2. Quelques méthodes d’obtention de la représentation d’état


I.2.1. A partir de l’équation différentielle entrée sortie
Le comportement d'un système linéaire continu monovariable est représenté par une équation
différentielle à coefficients constants :

d n y( t )
dt n
 a n 1
d n 1 y( t )
dt n 1
 ...  a 1
ri-p
dy( t )
dt
 a 0 y( t )  u ( t )

Pour trouver l’équation d’état on procède comme suit :


On pose :
ka
x1  y ,
x 1  y  x 2 ,
x 2  y  x 3 , …,
x n 1  y (n 1)  x n
b

x n  y n   a n 1x n  a n  2 x n 1  ...  a1x 2  a 0 x1  u(t )


Que l’on peut écrire sous forme matricielle,
3a

x ( t )  Ax( t )  Bu( t )



 y( t )  Cx ( t )
Avec, x(t )  x1 (t ) x 2 (t )  x n (t )T  R n , u(t) et y(t) sont des scalaires,
 0  0   0
al

1 0 0
   
 0 0 1  0 0   0
   
A ; B    ; et C  1 0  0
w.

        
 0 0 0  0 1   0
   
 a      1
 0 a 1 a 2  a n 2 a n 1   
A est appelée matrice compagnon. Son polynôme caractéristique est donné par:
ww

P(s)  s n  a n 1s n 1  ...  a1s  a 0

Remarque : pour une matrice A  R n  n , le polynôme caractéristique est donné par


P(s)  det sI  A . Les racines de P(s) sont les valeurs propres de A.

35
I.2.2. A partir du diagramme de simulation
Soit l’équation différentielle suivante :

om
d n y( t ) d n 1 y( t ) dy( t ) d n u(t ) d n 1u ( t ) du ( t )
 a n 1  ...  a1  a 0 y( t )  b n  b n 1  ...  b1  b 0 u(t )
dt n dt n 1 dt dt n dt n 1 dt

Soit D l’opérateur dérivé alors on peut écrire,


Dn  a n 1Dn 1  ...  a1D  a 0 y(t)  bn Dn  bn 1Dn 1  ...  b1D  b0 u(t)

c
On intègre n fois en notant par (1/D) l’opérateur inverse de la dérivée (intégrateur) :

ro.
b b b b  a a a a 
y( t )  b n u ( t )   n 1  n  2  ...  1  0 u ( t )   n 1  n  2  ...  1  0  y( t
2 n 1 n 2 n 1
 D D D D   D D D Dn 

 b n u(t ) 
1
b n 1u  a n 1y  12 b n 2 u  a n 2 y  ...  n11 b1u  a1y  1n b 0 u  a 0 y
D

D’où le diagramme de simulation :


D
ri-p D D
b ka
al 3a

On définit les variables x i comme sorties des intégrateurs. On obtient donc d’après le
diagramme :
w.

 x 1 ( t )  x 2  b n 1u ( t )  a n 1 y( t ) 
 
x 2 ( t )  x 3  b n  2 u ( t )  a n  2 y( t )
 
  n equations d' état
 
 x n 1 ( t )  x n  b1u ( t )  a1 y( t ) 
ww



x n ( t )  b 0 u ( t )  a 0 y( t ) 
 y ( t )  x 1 ( t )  b n u ( t ) : Equation de sortie

On remplace y(t) par son expression dans les n équations d’état, on trouve:

36
 x 1 ( t )  a n 1x1 ( t )  x 2 ( t )  b n 1  a n 1b n u ( t )
x ( t )  a
n  2 x1 ( t )  x 3 ( t )  b n  2  a n  2 b n u ( t )

om
 2
 
 x ( t )  a x ( t )  x ( t )  b  a b u ( t )
 1 1 1 n 1 1 n
 x n ( t )  a 0 x1 ( t )  b 0  a 0 b n u ( t )

c
Sous forme matricielle:
  a n 1
1 0  0  b n 1  a n 1b n 
   

ro.
  a n 2
0 1  0  bn 2  a n 2bn 
x ( t )        x(t )    u ( t )
   
  a1 0 0  1  b1  a1b n 
 a 0 0  0   b a b 
 0  0 0 n 
y(t )  1 0  0x(t )  b n u(t )

I.2.3. A partir de la représentation externe


ri-p
La fonction de transfert du système est considérée sous la forme :

b s m  ...  b1s  b 0
H(s)  m
s n  ...  a1s  a 0
ka
n est le nombre de pôles de la fonction de transfert qui est égale à l’ordre du système aussi
égale au nombre de variables d’état. On divise par sn le numérateur et le dénominateur.
b m s m  n  ...  b1s1 n  b 0 s n
H(s) 
1  a n 1s 1  ...  a1s  n 1  a 0 s  n
b

 
On introduit G(s) de façon à écrire:
3a

Y(s)  b ms m  n  ...  b1s1 n  b 0s  n G(s) (3)



U(s)  1  a n 1s 1  ...  a1s n 1  a 0s n G(s)  (4)
On introduit les n variables d’état de la façon suivante:
al

 X1 (s)  s  n G (s)  x 1 ( t )  x 2 ( t )
  n 1  x ( t )  x ( t )
 X 2 (s)  s G (s)  sX1 (s)  2 3
 n 2
X 3 (s)  s G (s)  sX 2 (s)   
w.

 x ( t )  x ( t )
   n -1 n

 X n (s)  s G (s)  sX n 1 (s)
1  x n ( t )  g( t )
Alors les équations (3) et (4) entraînent:
y(t )  b 0 x1 (t )  b1x 2 (t )  ...  b m x m 1 (t )
ww

u(t )  a 0 x1 (t )  a1x 2 (t )  ...  a n 1x n (t )  g(t )


 x n (t )  u(t )  a 0 x1 (t )  a1x 2 (t )  ...  a n 1x n (t )

Il en résulte:

37
 0 1 0  0   0
   
 0 0 1  0   0

om
A       ; B    ; C  b 0 b1  b m 0  0; D  [0]
   
 0 0 0  1   0
 a  1
 0  a1  a 2   a n 1   
La représentation obtenue est dite compagnon pour la commande.

c
Schéma analogique

ro.
ri-p
ka
I.2.4. Représentation d'état des systèmes variants
n n 1 n n 1
d y( t ) d y( t ) dy( t ) d u(t) d u(t) du ( t )
 a1 ( t )  ...  a n 1 ( t )  a n ( t ) y( t )  b 0 ( t )  b1 ( t )  ...  b n 1 ( t )  b n ( t )u ( t )
n n 1 dt n n 1 dt
dt dt dt dt
b

la représentation d'état est de la forme:


3a

 0 1 0  0  0  1 ( t ) 
   
 0 0 1  0  0   2 (t) 
    (t) 
 
X X( t )   3 u ( t )
          
 0 1   
al

 0 0  0  n 1 ( t ) 
  a (t)  a   a 2 ( t )  a1 ( t )    (t) 
 n n 1 ( t )  a n  2 ( t )  n 

y(t )  1 0  0X(t )   0 (t )u(t )


w.

Détermination de  0 (t ), 1 (t ),...,  n (t )
ww

y(t )  X1 (t )   0 (t )u(t )

 ( t )   ( t )u ( t )   ( t )u ( t )
y ( t )  X 1 0 0
 X 2 ( t )  1 ( t )u ( t )   0 ( t )u ( t )   0 ( t )u ( t )
 X 2 ( t )  1 ( t )   0 ( t )u ( t )   0 ( t )u ( t )

38
 ( t )   ( t )   ( t )u ( t )   ( t )  2 ( t )u ( t )   ( t )u( t )
y( t )  X 2 1 0 1 0 0
 X 3 ( t )   1 ( t )  0 ( t )   2 ( t )u ( t )  1 ( t )  2 0 ( t )u ( t )   0 ( t )u( t )

om

d n y( t )
On calcule , puis par identification on trouve:
dt n

  0 (t)  b 0 (t)

c
 i 1 i  r m
 i ( t )  b i ( t )    C n  i a i  r  m ( t ) d  r ( t ), i  1,..., n
 n  m i

ro.
 r  0m  0 dt m

avec C n  i  n  m  i ! et a ( t )  1
 n  m -i (n  i)!m!
0

I.3. Pluralité de représentations d’état ri-p


Du fait de la linéarité des équations d’état, on peut définir d’autres variables d’état par une
transformation linéaire T. On obtient donc une autre représentation.
On pose: x(t )  T~ x (t ) avec det T  0 .
x (t )  x (t )  T~
Remplaçons dans (2) on trouve :
ka
T~x ( t )  AT~
x ( t )  Bu( t ) 
~x ( t )  T 1AT~x ( t )  T 1Bu( t )
 ~  
 y( t )  CTx ( t )  Du( t )  ~
 y( t )  CTx ( t )  Du( t )

Qu’on peut écrire :


b

~ ~
~x ( t )  A~x ( t )  Bu ( t )
 ~~ ~
 y( t )  Cx ( t )  Du ( t )
3a

~ ~ ~ ~
Avec A  T 1AT, B  T -1B, C  CT, et D  D .
Puisque il existe une infinité de matrices inversibles T, il existe évidemment une infinité de
représentation d’état. Donc on choisi celle qui convient à notre système. Une transformation
spéciale peut être cherchée telle qu'elle donne une forme diagonale:
al

T 1AT    diag 1 ,  2 , ...,  n 


Si une telle matrice existe, on doit avoir: AT=T, les colonnes de T doivent satisfaire:
Ati   i t i , i  1,..., n . Ce ci implique que  i est une valeur propre de A et t i est le vecteur
w.

propre correspondant.

Remarque :
Pour les systèmes variant de type (1), on pose :
x(t )  T(t ) ~  (t ) ~
x(t )  x (t )  T x (t ) avec det T(t)  0
x (t )  T(t ) ~
ww

I.4. Intégration des équations d’état


La solution de l’équation (1) peut s’exprimer sous la forme :
t
x(t)  (t, t 0 )x(t 0 )   (t, )B()u()d
t0

39
t
 t A()d
avec (t, t 0 )  e 0 = matrice de transition.

om
Une fois le vecteur d'état déterminé on peut obtenir le vecteur de sortie:

y(t)  C(t)x(t)  D(t)u(t)


t
 C(t) (t, t 0 )x(t 0 )   C(t)(t, )B()u()d  D( t )u ( t )
t0

c
Cas particulier: systèmes invariants de la forme (2)

ro.
t
 t Ad
La matrice de transition est donnée par: (t, t 0 )  e 0  e A( t  t 0 )
e A(t - ) Bu()d
t
La solution est donnée par: x(t)  e A(t - t 0 ) x(t 0 )  
t0

Calcul de la matrice de transition eAt ri-p


La matrice de transition eAt peut être déterminée par plusieurs méthodes.

a) Calcul au moyen de la diagonalisation

pour le système décrit par : x (t )  Ax(t ) , La solution est donnée par :. x ( t )  e At x (0)
ka

Supposons que la matrice A possède n valeurs propres distincts, 1 ,  2 , ... ,  n auxquelles


correspondent n vecteurs propres indépendants V1 , V2 , ... , Vn . La matrice modale est donnée
par: T  V1 V2 ... Vn  est telle que:
b

  T 1AT  diag 1 ,  2 , ... ,  n 


3a

Maintenant, en posant x(t )  T~ x ( t )  ~


x (t ) , on obtient le système suivant : ~ x(t)

La solution est donnée par, ~ x ( t )  e t ~


x (0) , ce qui implique que x(t )  Tet T 1x(0) . Alors,
du fait que:
al

 e 1 t 0  0 

 0 e 2 t  0 
e t   
 0 0   
w.

 0  e  n t 
 0
Et par identification, il vient,
 e 1 t  0 
 0
 0 e 2 t  0  1
ww

e At  Tet T 1  T T
 0 0   
 0  e  n t 
 0

b) Calcul au moyen de la transformée de Laplace

40
x (t )  Ax(t )  Bu(t )

om
La transformée de Laplace donne :
sX(s)  x(0)  AX(s)  BU(s)  X(s)  sI - A1x(0)  BU(s)
X(s)  (s)x(0)  (s)BU(s) , avec (s)  sI - A1
Or, la solution de (2) est donnée par,
x(t)  e At x(0)   e A(t - ) Bu()d
t
0

c
Par identification il vient:
 
(s)  sI  A1  L e At  e At  L1 sI  A1  

ro.
c) Calcul par la méthode de Sylvester

Si la matrice A possède n valeurs propres distinctes  i alors,

i 1

 n A I
e At   e  i t  

 jj 1i
ri-p
j 

i   j 

 

Dans la cas où A possède des valeurs propres multiples, il faut appliquer une autre formule
ka
de Sylvester, beaucoup plus compliquée.

II. Représentation d'état des systèmes discrets


Un système linéaire discret peut être décrit par la représentation d'état suivante:
 x (k  1)  A(k ) x (k )  B(k )u (k ) équation d' état
b


y(k)  C(k)x(k)  D(k)u(k) équation de sortie
Et si le système est supposé invariant, on a:
3a

 x (k  1)  Ax(k )  Bu(k )

y(k)  Cx(k)  Du(k)
La représentation d'état peut être obtenue par différentes méthodes.

II.1. A partir de l'équation aux différences entrée sortie


al

y(k  n)  a n 1y(k  n  1)  ...  a1y(k  1)  a 0 y(k)  u(k)


On défini les variables d'état:
x 1 ( k )  y( k )
w.

x1 (k  1)  y(k  1)  x 2 (k )
x 2 (k  1)  y(k  2)  x 3 (k )

x n 1 (k  1)  y(k  n  1)  x n (k )
ww

x n (k  1)  y(k  n )  u (k )  a 0 x1 (k )  a1x 2 (k )  ...  a n 1x n (k )


Sous forme matricielle:

41
 0 1 0  0   0
   
 0 0 1  0   0

om

x k  1        x (k )    u (k )
   
 0 0 0  1   0
 a  1
 0  a1  a 2   a n 1   
y(k)  1 0  0x(k)

c
II.2. A partir du diagramme de simulation
y(k  n)  a n 1y(k  n  1)  ...  a1y(k  1)  a 0 y(k)  b 0 u(k)  b1u(k  1)  ...  b n u(k  n)

ro.
Soit E l'opérateur avance:
Ey(k)  y(k  1)  y(k  n)  E n y(k)
L'application de cet opérateur donne:

E  ri-p
 a n 1E n 1  ...  a1E  a 0 y(k)  b 0  b1E  ...  b n E n u(k)
n

y(k )  b n u (k )  b n 1u (k )  a n 1 y(k )   b n  2 u (k )  a n  2 y(k )
1 1
E E2
 ... 
1
 b1u (k )  a1 y(k )  
1
b 0 u (k )  a 0 y(k )
E n 1 En
b ka
al 3a

1
où R 
w.

désigne l'opérateur retard. On définit comme variables d'état les sorties des
E
opérateurs retard. Donc on peut écrire l'équation d'état à partir du diagramme:

 x1 (k  1)  x 2 (k )  b n 1u (k )  a n 1 y(k ) 
 
ww

x 2 (k  1)  x 3 (k )  b n  2 u (k )  a n  2 y(k )
 
  équations d' état
 
 x n 1 (k  1)  x n (k )  b1u (k )  a1 y(k ) 
 x (k  1)  b u (k )  a y(k ) 
 n 0 0
 y( k )  x 1 ( k )  b n u ( k ) équation de sortie

42
Sous forme matricielle:
  a n 1 1 0  0   b n 1  a n 1b n 

om
   
  a n 2 0 1  0  bn 2  a n 2bn 
x (k  1)        x(t )    u (k )
   
  a1 0 0  1  b1  a1b n 
 a 0 0  0   b a b 
 0  0 0 n 
y(k)  1 0  0x(k)  b n u(k)

c
ro.
II.3. Pluralité de représentations
Comme pour le cas continu, on peut obtenir une infinité de représentations par application de
transformations linéaires.
~ ~
 x (k  1)  Ax(k )  Bu(k ) Transformation linéaire ~x (k  1)  A~x (k )  Bu (k )
          ~~ ~
y(k)  Cx(k)  Du(k) x(k)  T~
x(k) y(k)  Cx(k)  Du(k)

II.4. Intégration des équations d'état


x (k  1)  A(k ) x (k )  B(k )u (k )

ri-p
 y(k )  C(k ) x (k )  D(k )u (k )

Si on prend l'instant k0 comme origine:


ka
La solution peut s’exprimer sous la forme :

k 1
x (k )  k, k 0 x k 0    k, j  1B( j)u( j)
b

j k 0
k 1
3a

Avec: k, k 0   A(k  1)A(k  2)...A(k 0  1)A(k 0 )   A( j) , appelée matrice de


j k 0
transition.

Cas particulier: systèmes invariants


al

x (k  1)  Ax(k )  Bu(k )

 y(k )  Cx (k )  Du(k )
La matrice de transition est donnée par:
w.

k 1
k, k 0    A  Ak k0
j k 0
Donc on a:
ww

k 1
k k0
x (k )  A x (k 0 )   A k  j1Bu( j)
j k 0
k 1
k k0
y(k )  CA x (k 0 )   CA k  j1Bu( j)  Du(k)
j k 0

43

On peut montrer que Ak est obtenue en calculant la transformée en Z inverse de zI  A 1 z 

A k  Z 1 zI  A 1 z 

om
La réponse impulsionnelle est donnée dans ce cas par:
h(k)  CA k 1B  D

III. Commandabilité et observabilité

c
III.1. Définitions

Définition 1: un système est commandable à l'instant t0 s’il existe une commande u(t) définie

ro.
dans l'intervalle [t0,t1], telle qu'on peut l'amener de l'état X(t0) à l'état X(t1) en un temps fini
t1-t0.

Si ce ci est valable quelque soit t0 , X(t0), on dit que le système est complètement
commandable.
ri-p
Définition 2: On dit qu'un système linéaire est observable à un instant t0 si à partir de
l'observation de la sortie y entre les instant t0 et t1 fini on peut déduire l'état du système à
l'instant t0: X(t0).

Si ce ci est valable quelque soit t0 et X(t0), on dit que le système est complètement observable.
ka
III.2. Critères de commandabilité et d'observabilité

III.2.1. Systèmes invariants


b

x ( t )  Ax( t )  Bu( t )


 ; x  R n ; u  R m ; y  R
y( t )  Cx ( t )  Du( t )
3a

a) Les valeurs propres de A sont distinctes

Il existe T  1 ,  2 ,...,  n   R n  n tel que:


al

~ ~
~
 x ( t )  A~x ( t )  Bu ( t ) ~ ~ ~ ~
 ~~ ~ ; A  T 1AT; B  T -1B; C  CT; D  D

 y( t )  Cx ( t )  Du ( t )
w.

A  diag i , i  1,..., n, Ai   i i .


~

1er critère de commandabilité: Le système est complètement commandable si et seulement


~
si les lignes de la matrice B  T 1B ne sont pas nulles.
ww

~
Les lignes nulles de B correspondent à des variables d'état non commandables.

1er critère d'observabilité: Le système est complètement observable si et seulement si les


~
colonnes de la matrice C  CT ne sont pas nulles.

44
Si certaines colonnes sont nulles alors elles correspondent à des variables d'état non
observables et par conséquent le système entier est non observable.

om
b) Les valeurs propres de A sont quelconques
2ème critère de commandabilité: le système est complètement commandable si et seulement
si:

rangG   rang B AB A 2 B ... A n -1B  n 

c
G est appelée matrice de commandabilité.

2ème critère d'observabilité: le système est complètement observable si et seulement si la

ro.
 T T 
matrice: H  C T A T C T A 2 C T ... A n -1 C T  est de rang n.
 
H est appelée matrice d'observabilité.

III.2.2. Systèmes variants


x ( t )  A( t ) x ( t )  B( t )u ( t )

y( t )  C( t ) x ( t )  D( t )u ( t )
ri-p
; x  R n ; u  R m ; y  R

En notant par  la matrice de transition, la solution à un instant t1 est donnée par:


xt1   t1 , t 0 xt 0    1 t1 , B()u ()d
t
ka
t
0
3ème
critère de commandabilité: le système est complètement commandable dans t 0 , t1  si
l'une des conditions équivalentes suivantes est vérifiée:
a- la matrice Gt1 , t 0  est définie positive
b

b- 0 n'est pas une valeur propre de Gt1 , t 0 


c- det Gt1 , t 0   0
3a

Avec Gt1 , t 0    1 t1 , B()BT () T t1 , d


t
t 0
N.B. Une matrice est définie positive si ses valeurs propres sont positives.
3ème critère d'observabilité: le système est complètement observable dans t 0 , t1  si l'une
al

des conditions équivalentes suivantes est vérifiée:


d- la matrice Ht1 , t 0  est définie positive
e- 0 n'est pas une valeur propre de Ht1 , t 0 
w.

f- det Ht1 , t 0   0

Avec Ht1, t 0    1 T , t 0 C T ()C(), t 0 d


t
t 0
ww

Remarque : critères de commandabilité et d’observabilité des systèmes à temps discret


a) systèmes invariants
x (k  1)  Ax(k )  Bu(k )

y(k )  Cx (k )  Du(k )

45
Les 1ers et 2èmes critères de commandabilité et d’observabilité sont valables.
b) systèmes variants

om
x (k  1)  A(k ) x (k )  B(k )u (k )

y(k )  C(k ) x (k )  D(k )u (k )
3ème critère de commandabilité: Le système est complètement commandable s’il existe N
fini tel que l’une des trois conditions équivalentes suivantes est vérifiée:
a- G(N,0) est définie positive
0 n’est pas une valeur propre de G(N,0)

c
b-
c- G( N ,0  0

ro.
N
avec: G ( N,0)   ( N, k)B(K)BT (k)T ( N, k)
k 0
ème
3 critère d’observabilité: le système est complètement observable à k=0 s’il existe N fini
tel que lune des trois conditions équivalentes est vérifiée:
d-
e-
f-
H(N,0) est définie positive ri-p
0 n’est pas une valeur propre de H(N,0)
H ( N ,0  0
N
avec: H( N,0)   T (k,0)CT (k)C(k)(k,0)
k 0
ka

IV. Commande par retours d'état


La commande par retour d’état consiste à considérer le modèle du processus sous la forme
d’une équation d’état :
b

 dx  Ax( t )  Bu ( t )

 dt
3a

 y( t )  Cx(t)
où u(t) est le vecteur de commande de dimension m, x(t), le vecteur d’état, de dimension n, et
y(t) le vecteur de sortie de dimension m et faire un bouclage de la forme :
al
w.

u(t )  Fr(t )  Kx(t ) , où F et K sont des matrices constantes de dimensions convenables et r(t)
ww

est la consigne de référence de dimension m.


Le but est de déterminer les matrices F et K de façon à satisfaire un placement des valeurs
propres en boucle fermée.

46
Calcul de la matrice F
La matrice F est calculé telle que pour une référence en échelon,
lim y( t )  G r , G est un gain statique qu’on impose.

om
t 
Les équations d’état et de sortie en régime statique s’écrivent :
1
0  A  BK x ( t )  BFr( t ) x ( t )  A  BK  BFr( t )

  
y( t )  Cx ( t ) 1
y( t )  CA  BK  BFr( t )

c
ce qui donne par identification:


F  CBK  A 1 B 1G

ro.
Calcul de la matrice K
On suppose que le système est commandable. La matrice de régulation K est choisie de façon
à imposer les pôles du système bouclé, c'est-à-dire de la matrice A-BK. Ce problème est

ri-p
équivalent à imposer le polynôme caractéristique du système.
Soit Pd (s)  s  1 s   2 ...s   n  le polynôme désiré, où 1,  2 , ... ,  n  sont les pôles
que l’on veut imposer. Il nous faut résoudre l’équation polynomiale

det sI  A  BK   Pd (s)


dite de placement de pôles.
ka
V. Commande par reconstruction d’état.
La commande par retour d’état nécessite la connaissance de cet état. Si l’état n’est pas connu,
on cherche à l’estimer. Ceci est réalisé, à partir des mesures accessibles sur les entrées et les
b

sorties, par un observateur qui est un système dont la fonction consiste à reconstruire cet état.
x  Ax  Bu
Soit le système linéaire suivant: 
3a

 y  Cx
n
Où x  R est le vecteur d’état du système (non mesuré).
x̂  Ax̂  Bu  L( y  ŷ)
Un observateur dynamique a la forme suivante: 
ŷ  Cx̂
al

n
Où x̂  R est le vecteur d’état de l’observateur.
w.

On peut réécrire l'observateur de la manière suivante: x̂  (A  LC)x̂  Bu  Ly

L'erreur de reconstruction d’état est donnée par ~


x  x  x̂ Ce qui implique ~x  (A  LC)~x .
ww

Commande par retour d'état reconstruit


En réalisant le bouclage suivant :

47
c om
ro.
La loi de commande est donnée par : u(t )  Kx̂(t )  r(t )
La dynamique du système bouclé s'écrit alors:
x  Ax  BK x̂  Br ( t )  (A  BK ) x  BK ~
x  Br ( t )
~ ~
x  (A  LC) x
ri-p
En écrivant le nouveau système augmenté, constitué de l'état et de l'erreur de reconstruction,
on obtient :
 x   A  BK BK  x   B 
 ~        r ( t )
x  0 A  LC  ~
x  0 
ka
Les valeurs propres du système bouclé sont les valeurs propres de (A -BK), i.e. celles
relatives à la commande du système plus les valeurs propres de (A -LC), i.e. celles de
l’observateur. La matrice L doit être choisie de manière à ce que l'erreur sur l'état converge
b

exponentiellement vers 0. Pour cela, il suffit de choisir L telle que les valeurs propres de la
matrice (A-LC) soient à parties réelles négatives.
3a

Remarque: pour le cas des systèmes discrets, on suit pratiquement le même raisonnement. La
matrice L dans ce cas est choisie telle que les valeurs propres de la matrice A-LC possèdent
un module inférieur à 1.
al
w.
ww

48
Annexe: Table des transformées de Laplace des signaux usuels

x(t), t>0 X(s)

om
( t ) Impulsion de Dirac 1
( t  ) Impulsion retardée e  s
e  at 1
sa
t n 1e  at , n=1,2,3,….
1 1

c
n  1! s  a n
1   at
 e  bt  , a≠b
1

ro.
e
ba  s  a s  b 
1   at
 be  bt  , a≠b
s
 ae
ba  s  a s  b 
1   at  c  b e  bt  sc
 c  a e 
ba
e  at


e  bt

ri-p

e  ct
b  a c  a  c  ba  b a  cb  c
s  a s  b 
1
s  a s  bs  c
d  a e  at  d  be  bt  d  ce  ct sd
b  a c  a  c  ba  b a  cb  c s  a s  bs  c
ka
n   1
ea i t 
 i 1s  a i 
  , a j  ai n



i 1  j i a j  a i  


b

sin t 
s 2  2
3a

s
cost 
s 2  2
sa
a 2  2  
sin t  ,   arctg 
al

a s 2  2
2
s sin()   cos()
sin t  
s 2  2
w.

e  at sin t  
s  a 2  2
e  at cost  sa
ww

s  a 2  2
sb
b  a 2  2 e  at sint  ,   
  arctg  s  a 2  2
2 b-a

49
x(t), t>0 X(s)

om
1  0 t
p
e  
sin p t , p  0 1   2
1
s 2  2 0s  02
( t ) , échelon unité 1
s
(t  ) , échelon retardé 1  s

c
e
s
( t ) - (t  ) , créneau rectangulaire 1  s 

ro.
1  e 
s 
1  at  1
1  e 
a  ss  a 
  1
 
ss  a s  b 
1  be  at ae  bt
1 
ab 

ba

ba
ri-p 



 
  sc
 
ss  a s  b 
1  bc  a e  at a c  b e  bt 
ka
c   
ab  ba ba 
 
 
1
1  cost  1
b

2 s s 2  2 
 
sa
3a

a 2  2  
cos t  ,   arctg 
a

a s s 2  2 
2 4  
1

1
 
e  0 t sin p t   , p  0 1   2 ,   cos -1 
1
 2
0 0  p s s 2  2 0s  2 
al

 0
1   at  ate  at  1
1  e 
a2   ss  a 2
w.

1   at  a a  b te at  sb
 b  be 
a 2   ss  a 2
t rampe 1
s2
ww

1   at  1
 at  1  e 
a 2   s 2 s  a 
t n 1 1
, n=1,2,…
, 0!=1
n  1! sn

50
ww
w.
al 3a
b

51
ka
ri-p
ro.
c om

Vous aimerez peut-être aussi