Académique Documents
Professionnel Documents
Culture Documents
Automatique Avancee PDF
Automatique Avancee PDF
( TIN)
Filière Génie électrique
Filière Informatique technique
Automatique avancée
( AAV)
1èrepartie
in s t i t u t d '
Automatisation
in d u s t r i e l l e
Yverdon-les-Bains
HEIG-VD Automatique avancée ( AAV)
2 Contrôle robuste 73
2.1 Fonction de sensibilité ([4], 3.4) . . . . . . . . . . . . . . . . . . . 74
2.1.1 Application : spécication de performance ([4], 3.4) . . . . 76
2.2 Stabilité robuste [4] . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.2.1 Incertitude sur la fonction de transfert du système à régler
[[4], p.46-47] . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.2.2 Théorème de la stabilité robuste [[4], p.53] . . . . . . . . . 86
2.2.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Objectifs :
A l'issue de cette unité d’enseignement, l'étudiant-e sera capable de :
appliquer la représentation des systèmes multi variables LTI dans l'espace d'état;
définir et interpréter le gain d'un système multi variables LTI;
comprendre le concept d'un observateur;
appliquer à bon escient les techniques d’identification paramétrique et non paramétrique des systèmes
dynamiques linéaires;
décrire les apports et les limites des techniques d’identification;
définir les cas où la mise en œuvre d’un régulateur RST améliorerait significativement les performances
d’asservissement;
synthétiser un régulateur RST selon un cahier des charges;
décrire les éléments non linéaires parasites et utiles;
calculer la période des oscillations dans les systèmes avec non-linéarités;
mettre en œuvre le régulateur tout ou rien;
expliquer les phénomènes inexistants en systèmes linéaires, tels frottement-relaxation (stick-slip), oscillations
autoentretenues, dépendances des conditions initiales.
A l'issue des travaux pratiques en laboratoire, l’étudiant-e sera en outre capable de :
appliquer les représentations de systèmes multi variables sur des systèmes réels;
synthétiser un régulateur RST pour un processus et des spécifications données, le tester en simulation et sur un
système réel;
mettre en œuvre des algorithmes d’identification paramétrique et non paramétrique sur des processus classiques;
appliquer la méthode de premier harmonique pour analyser les systèmes non linéaires;
tester les performances des systèmes avec des non-linéarités.
Contenu :
Exposés et exercices : 50 périodes Nb. périodes approx.
Modèle d'état pour les systèmes linéaires : définition, utilité, propriétés, et exemples 6
Diagramme de Bode pour les systèmes à plusieurs entrées et sorties (MIMO) : valeurs singulières de la 6
matrice de transfert. Application : critère de Nyquist pour les systèmes à faible gain
Régulateur basé sur la contre-réaction des variables d'état, calcul des gains par placement des pôles 4
Introduction aux régulateurs basés sur observateur 4
Identification non paramétrique, estimateurs de réponses temporelle et fréquentielle (ETFE) 4
Structures de modèles ARX et ARMAX. Identification paramétrique, méthode des moindres carrés 6
Régulateur RST : principe, spécifications, synthèse avec compensateur de perturbation 4
Description des systèmes dynamiques non linéaires 2
Différence entre les systèmes linéaires et non linéaires 2
Non linéarités utiles et parasites rencontrées dans les applications techniques avec les courbes statiques 2
Linéarisation par la contre-réaction 2
Méthode du 1ier harmonique 4
Méthode de plan de phase 4
Chapitre 1
Identication des systèmes
dynamiques linéaires
v ( t ) n ( t )
" v 1 r a i "
S
u ( t ) y ( t )
s y s st è m e
f _ 0 8 _ 0 4 . e p s
Fig. 1.1 On n'a pas accès au signal de sortie du "vrai" système, celui-ci étant
perturbé par v(t) subissant l'inuence des bruits n(t) (chier source).
v ( k )
1
G ( z ) S
u ( k ) y ( k )
0
s
f _ 0 5 _ 0 5 . e p s
solus :
on doit s'assurer autant que possible que la durée d'acquisition corresponde
à un nombre entier de périodes du signal de sortie du système. Cela est ré-
solu en tenant compte des indications données dès le 1.1.2, où l'on s'arrange
pour que les signaux acquis puissent être considérés comme périodiques ;
la minimisation de l'eet du bruit (y compris perturbations). Cela se fait
en augmentant la durée d'aquisition (nombre N de points), en traitant le
spectre des signaux (par exemple par moyennage) ou en choisissant judi-
cieusement le signal d'excitation u(k).
Il vaut ici la peine de remarquer que l'on ne cherche pas à identier un modèle
analogique, par exemple une fonction de transfert Ga (s), mais directement le
modèle échantillonné G0 (z). Analytiquement, ces 2 fonctions de transfert sont
liées par la relation ( ?? page ? ?) :
Y (z) −1
−1 Ga (s)
G0 (z) = = 1−z ·Z L
U (z) s
Le signal d'entrée u(k), que l'on peut en principe imposer lors des travaux dédiés
à l'identication, est plutôt de nature déterministe alors que la perturbation v(k)
est de nature stochastique. On admet que ses paramètres statistiques sont
µ = E [v(k)] = 0, i.e. la moyenne de v(k) est nulle ;
où
1
|RN (ω)| ∝ √
N
et VN (ω) est la transformée Fourier de vN (k). On observe d'emblée que l'esti-
mation ĜN (ej·ω ) de G0 (ej·ω ) est d'autant meilleure que le nombre N est élevé,
puisque |RN (ω)| ∝ √1N .
Cas particulier : u(k) périodique On peut montrer que si u(k) est périodique
de période égale à un multiple de N ·h, i.e. si uN (k) est une période ou un nombre
entier de périodes de u(k), alors RN (ω) = 0 pour ω = 2·π h
· i · N1 , i = 0 . . . N − 1,
i.e. aux fréquences auxquelles la TFD est dénie. Dans le but d'annuler RN (ω),
il y a donc intérêt à ce que le signal u(k) soit périodique de période N · h.
C'est ce qui est fait avec le logiciel AcqBode (actuellement RTPWatch) créé par
le Prof. F.Mudry dans le but d'identier les systèmes dynamiques linéaires :
on calcule la transformée de Fourier discrète de deux signaux correspondant à
l'excitation et à la réponse du système étudié. Le signal d'excitation u(k) prend
la forme d'une suite binaire pseudo aléatoire (SBPA) de N points, répétée R = 2
Signaux (v(k)=0)
1
0.8
u(k), uN(k)
0.6
0.4
0.2
0
0 0.05 0.1 0.15 0.2 0.25
0.2
0.15
y(k)|v=0, yN(k)|v=0
0.1
0.05
0
0 0.05 0.1 0.15 0.2 0.25
t [s]
f_fft_03_01_2.eps
Fig. 1.3 Signal d'excitation u(k) = uN (k) et réponse y(k) = yN (k). yN (k) ne
constitue à l'évidence pas un nombre entier de périodes de y(k), comme requis
selon la relation (1.2) pour que le terme R N (ω)
UN (ω)
s'annule. L'estimation de la réponse
harmonique ĜN (ej·ω·h ) est donnée sur la gure 1.4 page ci-contre (chier source).
Exemple
Pour illustrer l'importance du signal d'excitation u(k), on eectue les 3 tests
suivants, avec v(k) = 0, i.e. sans bruit an séparer les problèmes. De ce fait, la
relation (1.2) devient
0
z }| {
R N (ω) VN (ω) RN (ω)
ĜN (ej·ω ) = G0 (ej·ω ) + + = G0 (ej·ω ) +
UN (ω) UN (ω) UN (ω)
jω h
Diagrammes de Bode de G0(e ) et YN(ω)/UN(ω) (pour v(k)=0)
40
20
−20
−40
−60
−80
−100
0 1 2 3
10 10 10 10
200
100
−100
G0(ejω h)
YN(ω)/UN(ω)|v=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_01_4.eps
répété R = 2 fois, ce qui dans le cas particulier met y(k) dans un état de
régime quasi permament périodique pour k > N (gure 1.5 page suivante).
La dernière période de y(k) est donc extrayable telle quelle pour eectuer
l'analyse selon (1.1) et les résultats (gure 1.6 page suivante) sont meilleurs
que précédemment (gure 1.4).
Signaux (v(k)=0)
1
0.5
u(k), uN(k)
0
−0.5
−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
0.25
0.2
y(k)|v=0, yN(k)|v=0
0.15
0.1
0.05
−0.05
−0.1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]
f_fft_03_02_2.eps
Fig. 1.5 Signal d'excitation u(k) et réponse y(k). u(k) est constitué de R = 2
périodes. On observe que les transitoires sont amorties dès la n de la première
période. De ce fait, le signal y(k) peut être admis périodique de période N · h
pour k ≥ N . Si l'on avait généré u(k) avec une période de plus (R = 3), on au-
rait simplement obtenu une 3ème période. L'estimation de la réponse harmonique
ĜN (ej·ω·h ) est donnée sur la gure 1.6 (chier source).
jω h
Diagrammes de Bode de G0(e ) et YN(ω)/UN(ω) (pour v(k)=0)
40
20
−20
−40
−60
−80
−100
0 1 2 3
10 10 10 10
200
100
−100
G0(ejω h)
YN(ω)/UN(ω)|v=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_02_4.eps
Signaux (v(k)=0)
1
0.5
u(k), uN(k)
0
−0.5
−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
1.5
y(k)|v=0, yN(k)|v=0
0.5
−0.5
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]
f_fft_03_03_2.eps
Fig. 1.7 Signal d'excitation u(k) et réponse y(k). On ne prélève que les N der-
niers échantillons, ce qui correspond à une période du signal y(k) admis périodique
pour k ≥ N (les N premiers échantillons correspondant au régime transitoire).
L'estimation de la réponse harmonique ĜN (ej·ω·h ) est donnée sur la gure 1.8
page suivante (chier source).
3. uN (k) est cette fois une SBPA (gure 1.7), répétée également R = 2 fois.
Les résultats (gure 1.8 page suivante) sont équivalents au cas précédent
(gure 1.6 page ci-contre).
jω h
Diagrammes de Bode de G0(e ) et YN(ω)/UN(ω) (pour v(k)=0)
40
20
−20
−40
−60
−80
−100
0 1 2 3
10 10 10 10
200
100
−100
G0(ejω h)
YN(ω)/UN(ω)|v=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_03_4.eps
Moyenne
L'espérance mathématique de ĜN (ej·ω·h ) doit montrer si l'estimateur ĜN (ej·ω·h )
tend bel et bien vers G0 (ej·ω·h ). On a [[1], 6.3, p.148] :
h i RN (ω) VN (ω)
E ĜN (e j·ω·h
) = E G0 (e j·ω·h
) +E + E
| {z } UN (ω) UN (ω)
G0 (ej·ω·h )
| {z } | {z }
RN (ω) 0 car
UN (ω) E [VN (ω)] =
F {E [v(k)]} = 0
On voit que
ĜN (ej·ω·h ) −→ G0 (ej·ω·h ) pour N −→ ∞
puisque limN →∞ RN (ω) = 0 et E [v(k)] = 0. ĜN (ej·ω·h ) est ainsi un estimateur
non biaisé de G0 (ej·ω·h ).
Variance
La variance dehl'estimateur
i ĜN (e
j·ω·h
) montre comment uctue celui-ci autour
de sa moyenne E ĜN (ej·ω·h ) = G0 (ej·ω·h ). On montre que [[1], 6.3, p.149] :
2 Φv (ω)
E ĜN (ej·ω·h
) − G0 (ej·ω·h
) −→ pour N −→ ∞
|UN (ω)|2
où Φv (ω) est la densité spectrale de puissance ("spectre", 1.D.11 page 69) de
l'entrée stochastique v(k) et UN (ω) est la transformée de Fourier de uN (k). On
voit que la variance de l'estimateur ne tend pas vers 0, même pour un grand
nombre N d'échantillons, mais vers
Φv (ω)
|UN (ω)|2
La variance de ĜN (ej·ω·h ) est donc dépendante du spectre (plus pécisément de
la densité spectrale de puissance) Φv (ω) du bruit v(k). Si Φv (ω) est donnée, la
variance ne peut être réduite qu'en choisissant |UN (ω)| de manière à diminuer le
rapport |UΦv(ω)|
(ω)
2 . On conçoit dès lors que le choix d'un signal d'excitation spec-
N
tralement très riche est un avantage. La conséquence de ce fait est que souvent,
le graphe de la réponse harmonique est très uctuant lorsque le rapport signal
sur bruit n'est pas satisfaisant (gures 1.9 page suivante, 1.13 page 21 et 1.15
page 22, la gure 1.15 page 22 montrant l'amélioration obtenue en augmentant
la densité spectracle de uN (k)).
−60
−70
−80
−90
−100
−110
−120
1 2 3 4
10 10 10 10
200
100
−100
YN(ω)/UN(ω)|
−200
1 2 3 4
10 10 10 10
ω [rad/s]
f_lse_m_03_9.eps
Fig. 1.9 Même dans de bonnes conditions d'expériences (ici un cas réel d'iden-
tication d'un système mécanique comportant une élasticité, schéma technolo-
gique de la gure 1.10 page suivante), l'ETFE ĜN (ej·ω·h ) fournit une réponse très
uctuante, principalement à cause du bruit v(k). Cela est la conséquence de la
variance de ĜN (ej·ω·h ), laquelle est dépendante du spectre de v(k) et tend vers
Φv (ω)
|U (ω)|2
. A v(k) donné, on ne peut donc réduire la variance qu'en choisissant un
N
signal d'excitation uN (k) tel que |UN (ω)|2 soit élevé (chier source).
c o e f f i c i e n t d e
f r o t t e m e n t v i s q u e u x :
d e s p a l i e r s
R f
[ N m s / r a d ]
T e m
( t ) q 1
( t ) q 2
( t )
R f
R f
r i g i d i t é d e l 'a r b r e
d e t r a n s m i s s i o n :
k [ N m / r a d ]
i n e r t i e d u r o t o r : i n e r t i e d e l a c h a r g e : f _ 0 8 _ 0 6 . e p s
J 1
J 2
1
u (k)
0
N
−1
−2
−3
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
x 10
−3 Réponse du système à la SBPA
3
1
y (k)
0
N
−1
−2
−3
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
t [s]
f_lse_m_03_1.eps
Fig. 1.11 Signal d'excitation et réponse du système représenté sur la gure 1.10
(chier source).
Signaux
1
0.5
u(k), uN(k)
0
−0.5
−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
0.3
v≠0
0.2
, y (k)|
N
0.1
v=0
y (k)|
0
N
−0.1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
0.04
0.02
v(k)
−0.02
−0.04
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]
f_fft_03_04_1.eps
Fig. 1.12 Signal d'excitation uN (k), réponse yN (k) et bruit v(k). L'estimation
de la réponse harmonique ĜN (ej·ω·h ) est donnée sur la gure 1.13 page ci-contre
(chier source).
Exemple
On considère maintenant le même système que le premier exemple traité
( 1.1.2 page 12), désormais perturbé par un bruit v(k) √ de moyenne µ nulle
et de variance λ = 0.0001, soit une valeur ecace σ = λ = 0.01.
Dans un premier temps, le système excité un signal uN (k) formé à nouveau
par la répétition périodique (R = 2 fois) de deux impulsions unité discrètes
de signes opposés (selon gure 1.5 page 14). Ce signal est également donné
sur la gure 1.12, avec le signal de sortie yN (k), bruité par la perturbation
v(k) également gurée.
le système est ensuite maintenant excité par une SBPA (gure 1.14 page 22).
Les résultats sont donnés à la gure 1.15 page 22 qui montre une améliora-
tion substantielle par rapport à ceux de la gure 1.13.
jω h
Diagrammes de Bode de G0(e ), YN(ω)/UN(ω) (pour v(k)=0) et YN(ω)/UN(ω) avec bruit v(k) de variance λ=0.0001
40
20
−20
−40
−60
−80
−100
0 1 2 3
10 10 10 10
200
100
G0(ejω h)
−100
YN(ω)/UN(ω)|v=0
YN(ω)/UN(ω)|v ≠=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_04_6.eps
Signaux
1
0.5
u(k), uN(k)
−0.5
−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
2
yN(k)|v=0, yN(k)|v ≠ 0
−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
0.04
0.02
v(k)
−0.02
−0.04
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]
f_fft_03_05_1.eps
Fig. 1.14 Signal d'excitation uN (k), réponse yN (k) et bruit v(k). L'estimation
de la réponse harmonique ĜN (ej·ω·h ) est donnée sur la gure 1.15 (chier source).
Diagrammes de Bode de G0(ejω h), YN(ω)/UN(ω) (pour v(k)=0) et YN(ω)/UN(ω) avec bruit v(k) de variance λ=0.0001
40
20
−20
−40
−60
−80
−100
0 1 2 3
10 10 10 10
200
100
G0(ejω h)
−100
YN(ω)/UN(ω)|v=0
YN(ω)/UN(ω)|v ≠=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_05_6.eps
Φv (ω)
|UN (ω)|2
de ĜN (ej·ω·h ) a été diminuée en choisissant un signal d'excitation ayant |UN (ω)|
élevé.
Néanmoins, la comparaison de l'estimateur ETFE avec la vraie réponse har-
monique montre, même dans le cas de la gure 1.15 page suivante, toute la
diculté qu'il y a à identier la réponse fréquentielle de systèmes dynamiques.
En guise de conclusion de cet exemple, on choisit maintenant un signal d'exci-
tation uN (k) constitué d'une somme de sinus d'amplitude 1, de fréquences variant
de ∆fN
e
à N2 · ∆f
N
e
et de phase aléatoire à distribution uniforme (µ = 0, σ = 1).
Ce signal a pour propriété d'avoir une densité spectrale de puissance encore plus
élevée que la SBPA, i.e. d'être plus puissant pour chaque composante spectrale.
Répété R = 2 fois, ce signal est donné sur la gure 1.16 page 23 et la réponse
harmonique de l'estimateur se trouve sur la gure 1.17 page 24.
Signaux
40
20
u(k), uN(k)
−20
−40
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
15
yN(k)|v=0, yN(k)|v ≠ 0
10
−5
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
0.04
0.02
v(k)
−0.02
−0.04
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]
f_fft_03_06_1.eps
Fig. 1.16 Signal d'excitation uN (k), réponse yN (k) et bruit v(k). L'estimation
de la réponse harmonique ĜN (ej·ω·h ) est donnée sur la gure 1.17 page suivante
(chier source).
Diagrammes de Bode de G0(ejω h), YN(ω)/UN(ω) (pour v(k)=0) et YN(ω)/UN(ω) avec bruit v(k) de variance λ=0.0001
40
20
−20
−40
−60
−80
−100
0 1 2 3
10 10 10 10
200
100
G0(ejω h)
−100
Y (ω)/U (ω)|
N N v=0
YN(ω)/UN(ω)|v ≠=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_06_6.eps
L'inconvénient de cette manière de faire est évidemment que la durée des essais est
prolongée d'un facteur R, puisqu'il faut acquérir R · N mesures. Une alternative
[[7], 8.5, p.212] consiste à partager un ensemble existant de N mesures en R sous-
ensembles de M points et à calculer ĜM (ej·ω·h ) pour chacun des sous-ensembles
avant de sommer. On a :
R
j·ω·h 1 X
ĜN (e )= · ĜM (ej·ω·h )
R l=1
fe fe fe
∆f = =R· =R·
M R · M}
| {z N
N
La résolution fréquentielle est ainsi R fois plus grossière. Cette dernière manière
de faire porte le nom de méthode de Welch.
Une méthode d'amélioration de la variance de l'estimation ĜN (ej·ω·h ) consiste
à lisser la réponse harmonique obtenue à l'aide d'un ltre (ce que font sans autre
nos propres yeux !). C'est la méthode de Blackman-Tukey, décrite dans [[1],6.4]
et [[7], 8.5].
d'un système dynamique linéaire discret. U (z) et Y (z) sont respectivement les
transformées en z des signaux temporels discrets d'entrée u(k) et de sortie y(k).
k ∈ Z est l'instant d'échantillonnage, i.e. un entier relatif tel que t [s] = k · h
où h est la période (constante) d'échantillonnage en [s]. Les signaux discrets u(k)
et y(k) que l'on considère sont admis nuls pour k < 0, ce qui revient à dire :
a1 a2 ... an b1 b2 ... bn
La qualité des estimations doit pouvoir être chirée, typiquement par l'intermé-
diaire de la moyenne et de la variance de chaque paramètre estimé.
e ( k )
H ( z )
v ( k )
1
G ( z ) S
u ( k ) y ( k )
s
f _ 0 5 _ 0 1 . e p s
Structure ARX
Dans le cas de la structure ARX (AR="AutoRegressive", X="eXogeneous"
ou "eXtra" variable), le bruit e(k) perturbe la sortie brute de la fonction de
transfert G(z) du système via la dynamique
1
H(z) =
A(z)
e ( k )
A ( z )
v ( k )
B 1 ( z )
S
u ( k ) y ( k )
A s
( z ) f _ 0 5 _ 0 2 . e p s
On a donc :
B(z) 1
Y (z) = ·U (z) + ·E(z)
A(z) A(z)
| {z } | {z }
G(z) H(z)
L'inconvénient de cette structure est qu'elle impose par A(z) une dynamique
commune pour la propagation du signal d'entrée u(k) et du bruit e(k). On conçoit
que ce modèle ne puisse convenir pour certaines applications. Une conséquence
en est que l'identication des paramètres par la méthode des moindre carrés
présentée au 1.2.2 page 31 a tendance à favoriser une bonne identication du
système G(z) = B(z)A(z)
aux hautes fréquences, au détriment des basses fréquences
([[1], 8.5 p.228 et relation (8.68)]).
e ( k )
C ( z )
A ( z )
v ( k )
B 1 ( z )
S
u ( k ) y ( k )
A s
( z )
f _ 0 8 _ 0 3 . e p s
C(z)
z }| {
−1 −2 −nc +1 −nc
V (z) 1 + c1 · z + c2 · z + . . . + cnc −1 · z + cnc · z C(z)
H(z) = = −1 −na +1 −na =
E(z) 1 + a1 · z + . . . + ana −1 · z + ana · z A(z)
| {z }
A(z)
Grâce à C(z), on peut avoir des dynamiques très diérentes entre u(k) (signal
déterministe, contrôlé) et y(k) et entre e(k) (bruit blanc à µ = 0 et σ 2 connu) et
y(k), ce qui compense en partie les lacunes de la structure ARX.
On a
B(z) C(z)
Y (z) = ·U (z) + ·E(z)
A(z) A(z)
| {z } | {z }
G(z) H(z)
avec
B(z)
z }| {
b1 · z −1 + b2 · z −2 + . . . + bnb −1 · z −nb +1 + bnb · z −nb B(z)
G(z) = −1 −na +1 −na =
1 + a1 · z + . . . + ana −1 · z + ana · z A(z)
| {z }
A(z)
e ( k )
H ( z )
v ( k )
1
G ( z ) S
u ( k ) y ( k )
s
f _ 0 5 _ 0 1 . e p s
p.56]
G(z) 1
Ŷ (z) = · U (z) + 1 − · Y (z) (1.5)
H(z) H(z)
L'établissement de ce prédicteur dans le cas particulier de la structure ARX est
fait dans le 1.2.3 page 34.
La méthode PEM a donc pour objectif trouver les paramètres des fonctions
de transfert G(z) et H(z) de telle façon que l'erreur de prédiction
Dans ce cas, on indique dans le 1.2.3 page 34 qu'il existe même une solution
→
−
analytique pour θ N .
−60
−70
−80
−90
−100
−110
−120
−1 0 1 2 3
10 10 10 10 10
200
100
−100
G(ejω h)
YN(ω)/UN(ω)|
−200
−1 0 1 2 3
10 10 10 10 10
f [Hz]
f_lse_m_03_8.eps
Exemple
Reprenant l'exemple du système mécanique traité aux gures 1.10, 1.11 et
1.9, on présente ci-dessous (gure 1.22) les résultats de l'identication paramé-
trique par l'intermédiaire de la réponse harmonique Ĝ(ej·ω·h ) de l'estimateur Ĝ(z)
du modèle G(z) dont les paramètres ont été identiés. Le modèle choisi a une
structure ARMAX. La comparaison l'estimation non-paramétrique (ETFE) de la
réponse harmonique montre une très bonne concordance. Fait remarquable, alors
que l'achage de l'ETFE tel qu'il est présenté sur la gure nécessite 1024 infor-
mations, celui de Ĝ(ej·ω·h ) n'en nécessite que 9, correspondant aux paramètres
estimés b0 . . . b5 et a1 . . . a5 de Ĝ(z), d'où un facteur de compression d'information
important.
La fonction de transfert obtenue est
b0 · z 5 + b 1 · z 4 + b 2 · z 3 + b 3 · z 2 + b 4 · z + b 5
Ĝ(z) =
z 5 + a1 · z 4 + a2 · z 3 + a3 · z 2 + a5 · z + a5
3.917 · 10−5 · z 5 + 3.469 · 10−5 · z 4 − 10.46 · 10−5 · z 3 + 1.353 · 10−5 · z 2 + 4.631 · 10−5 · z
=
z 5 − 1.286 · z 4 + 0.6549 · z 3 + 0.1233 · z 2 − 0.5827 · z + 0.11
→
−
En réunissant dans le vecteur-colonne θ l'ensemble des 2 · n paramètres à iden-
tier
a1
a2
. . .
→
− an
θ = b1
b2
. . .
bn
et on considérant un modèle de type ARX,
B(z) 1
Y (z) = · U (z) + · E(z)
A(z) A(z)
on a, dans le domaine temporel :
Il s'agit d'un problème standard en statistique, dont, une fois n'est pas coutume,
la solution existe sous forme analytique ! On a :
n − → o
θ̂N = arg min VN θ , yN (k), uN (k)
" N −1
#−1 N −1
1 X− → →
− T 1 X− →
= · ϕ (k) · ϕ (k) · · ϕ (k) · y(k)
N k=0 N k=0 (1.7)
N −1
−1 1 X→ −
= RN · · ϕ (k) · y(k)
N k=0
Exemple
On considère le système analogique d'ordre 1
Y (s) K 1
Ga (s) = = =
U (s) 1+s·T 1 + s · 0.01
uN(k)
0
−5
−10
0 0.01 0.02 0.03 0.04 0.05 0.06
10
yN(k)|v=0, yN(k)|v ≠ 0 5
−5
−10
0 0.01 0.02 0.03 0.04 0.05 0.06
0.1
0.05
v(k)
−0.05
−0.1
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]
f_lse_01_1.eps
Fig. 1.23 Signal d'excitation, réponses (avec et sans bruit) et bruit (chier source).
Réponses du système réel et du modèle, avec et sans bruit. a1=−0.90484 b1=0.095163 a1est=−0.90511 b1est=0.095
8
4
yG(z), yG (z)|v=0, yG (z)|v≠ 0
2
est
0
est
−2
−4
−6 G(z)
Gest(z)v≠0
Gest(z)v=0
−8
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]
f_lse_01_2.eps
Fig. 1.24 Réponse du vrai système G(z), de son modèle identié Ĝ(z) avec et
sans bruit (chier source).
Résidus ε(k)
0.1
0.05
0
ε(k)
−0.05
−0.1
−0.15
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]
0.5
−0.5
−1
0 5 10 15 20 25
lag
Cross corr. function between input 1 and residuals from out put 1
0.15
0.1
0.05
−0.05
−0.1
−0.15
−0.2
−25 −20 −15 −10 −5 0 5 10 15 20 25
lag
qui devrait tendre vers 0 dès que k 6= 0 si (k) est eectivement un bruit aléatoire.
La gure 1.26 montre que c'est bien le cas. De plus, les résidus devraient être
indépendants de l'entrée uN (k), ce qui se vérie en examinant la fonction de
covariance croisée
N −1
N 1 X
Ru (k) = · (l) · u(l + k)
N l=0
→
−
y(k) = −
→
ϕ (k)T · θ 0 + v0 (k)
N −1
1 X→ −
RN = · ϕ (k) · −
→
ϕ (k)T
N k=0
on a :
N −1
−̂
→ −1 1 X− →
θ N = RN · · ϕ (k) · y(k)
N k=0
N −1
1 X→ − −
→
ϕ (k) · −→
−1
= RN · · ϕ (k)T · θ 0 + v0 (k)
N k=0
N −1
→
− −1 1 X− →
= θ 0 + RN · · ϕ (k) · v0 (k)
N k=0
| {z }
→0 pour v0 (k)−
→
ϕ (k)
On voit d'ores et déjà que si le niveau des perturbations v0 (k) est faible par rap-
port aux composantes de − →ϕ (k) et que RN est non singulière, i.e. inversible, alors
→
− →
− →
−
θ N sera proche de θ 0 . L'estimateur θ N a donc un biais nul, i.e. les paramètres
a1 , a2 , . . . an−1 , an , b1 , b2 , . . . , bn−1 , bn du système sont estimés sans biais.
→
−
La variance de θ N indique comment les valeurs estimées des mêmes para-
mètres uctuent autour de leur moyenne. En eet, les estimations de
a1 , a2 , . . . an−1 , an , b1 , b2 , . . . , bn−1 , bn sont inuencées par le signal stochastique
v(k) et sont de ce fait également des variables stochastiques. On peut montrer
qu'une estimation de cette variance est donnée par
" N −1
#−1
−
→ 1 1 X→ − →
−̂ →T
− →
−̂
cov θ N = · λ̂N · · ψ (k, θ N ) · ψ (k, θ N )
N N k=0
avec
N −1
1 X
λ̂N = · (k)2
N k=0
et
−
→ →
−̂ d
ψ (k, θ N ) = ŷ(k)
→
−̂
dθN
→
−
cov θ N est la matrice de covariance des paramètres estimés. Les variances re-
→
−
cherchées se trouvent la diagonale de cov θ N .
→
−
L'expression cov θ N montre en premier lieu qu'un moyen très ecace de
diminuer la dispersion des paramètres estimés consiste à augmenter N .
→
−
La fonction ψ(k, θ N ) indique comment varie le signal de sortie y(k) en fonc-
tion du paramètre a1 , a2 , . . . an−1 , an , b1 , b2 , . . . , bn−1 , bn pour lequel la dérivation
→ ŷ(k) est eectuée. On voit donc que si la sensibilité de y(k) est grande par
d
−̂
dθN
rapport au paramètre considéré, alors la variance de la distribution de celui-ci
sera d'autant plus faible ! Il y a donc intérêt à choisir un signal d'entrée u(k)
provoquant un signal de sortie y(k) très sensible au paramètre à identier.
Réponses du système réel et du modèle, avec et sans bruit. a1=−0.90484 b1=0.095163 a1est=−0.89686 b1est=0.096904
0.8
0.6
0.4
G (z) v≠ 0
0.2
|
est
,y
G (z) v=0
0
|
est
,y
−0.2
G(z)
y
−0.4
−0.6 G(z)
Gest(z)v≠0
Gest(z)v=0
−0.8
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]
f_lse_02_2.eps
Fig. 1.27 Réponse du modèle lorsque le rapport signal sur bruit est médiocre
(comparer avec les résultats présentés sur la gure 1.24 page 37) (chier source).
Exemple
Reprenant l'exemple du 1.2.3 page 35, on se place cette fois dans la situation
où l'amplitude du signal d'excitation u(k) est divisée par 10. Le rapport signal
sur bruit est alors dégradé et l'on peut observer sur la gure 1.27 que l'estimation
des 2 paramètres est moins bonne.
Si dans le premier exemple, on avait
cov b̂1 ≈ 0.0005
cov â1 ≈ 0.001
on a maintenant :
cov b̂1 ≈ 0.005
cov â1 ≈ 0.01
L'eet du caractère stochastique des estimations est illustré sur les gures
1.28 et 1.29 où les paramètres des 2 modèles identiés sont perturbés selon leurs
Output number 1
10
−2
−4
−6
−8
10 20 30 40 50 60
Output number 1
1
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
10 20 30 40 50 60
Les gures 1.30 et 1.31 montrent les résultats obtenus. Malgré un rapport signal
sur bruit médiocre comme dans le dernier cas traité, les résultats sont nettement
meilleurs, comme les variances en témoignent :
Réponses du système réel et du modèle, avec et sans bruit. a1=−0.90484 b1=0.095163 a1est=−0.90586 b1est=0.094001
2
1.8
1.6
1.4
(z) v≠ 0
|
1.2
est
, yG
(z) v=0
1
|
est
yG(z), yG
0.8
0.6
0.4
G(z)
Gest(z)v≠0
0.2
Gest(z)v=0
0
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]
Fig. 1.30 Réponse du modèle obtenu avec rapport signal sur bruit médiocre
mais une excitation adaptée aux paramètres à identier (chier source).
Output number 1
1.5
0.5
10 20 30 40 50 60
HEIG-VD
Pour eectuer (1.7), avec
N −1
1 X→ −
RN = · ϕ (k) · −
→
ϕ (k)T
N k=0
on doit donc eectuer le produit matriciel
−
→
ϕ (k) · −
→
ϕ (k)T =
−y(k − 1)
−y(k − 2)
...
−y(k − n)
· −y(k − 1) −y(k − 2) . . . −y(k − n) u(k − 1) u(k − 2) . . . u(k − n)
u(k − 1)
u(k − 2)
44
...
u(k − n)
→
−
ϕ (k) · −
→
ϕ (k)T est le produit d'un vecteur-colonne et d'un vecteur-ligne. Le résultat est une matrice carrée, de dimension
n×n :
Automatique avancée (
−
→
ϕ (k) · −
→
ϕ (k)T =
y(k − 1) · y(k − 1) y(k − 1) · y(k − 2) . . . y(k − 1) · y(k − n) −y(k − 1) · u(k − 1) −y(k − 1) · u(k − 2) . . . −y(k − 1) · u(k − n)
y(k − 2) · y(k − 1) y(k − 2) · y(k − 2) . . . y(k − 2) · y(k − n) −y(k − 2) · u(k − 1) −y(k − 2) · u(k − 2) . . . −y(k − 2) · u(k − n)
... ... ... ... ... ... ... ...
y(k − n) · y(k − 1) y(k − n) · y(k − 2) . . . y(k − n) · y(k − n) −y(k − n) · u(k − 1) −y(k − n) · u(k − 2) . . . −y(k − n) · u(k − n)
MEE \cours_aav.tex
=
1er septembre 2007
−u(k − 1) · y(k − 1) −u(k − 1) · y(k − 2) . . . −u(k − 1) · y(k − n) u(k − 1) · u(k − 1) u(k − 1) · u(k − 2) . . . u(k − 1) · u(k − n)
−u(k − 2) · y(k − 1) −u(k − 2) · y(k − 2) . . . −u(k − 2) · y(k − n) u(k − 2) · u(k − 1) u(k − 2) · u(k − 2) . . . u(k − 2) · u(k − n)
... ... ... ... ... ... ... ...
AAV)
−u(k − n) · y(k − 1) −u(k − n) · y(k − 2) . . . u(k − n) · y(k − n) u(k − n) · u(k − 1) u(k − n) · u(k − 2) . . . u(k − n) · u(k − n)
HEIG-VD Automatique avancée ( AAV)
qui doit être inversible, i.e. non singulière, pour que (1.7) puisse être calculée. A
ce stade, il vaut la peine de remarquer que les éléments de la matrice RN ne sont
autres que des termes du type
N −1
1 X
[RN ]ij = · y(k − i) · y(k − j)
N k=0
i.e. chaque élément est une estimation des fonctions de covariance de u(k) et de
y(k).
1.A Exercices
1.A.1 Identication non-paramétrique et paramétrique des
systèmes A, B et D du laboratoire
Appliquer la théorie vue au cours pour identier les systèmes A, B et D du
laboratoire, dont les réponses temporelles ont été pré-enregistrées et se trouvent
sur le site
http ://iai.eivd.ch/users/mee/
th = arx([y,u],[na,nb,nk])
e ( k )
C ( z )
A ( z )
v ( k )
B 1 ( z )
S
u ( k ) y ( k )
A s
( z )
f _ 0 8 _ 0 3 . e p s
→
−
(k) = y(k) − ŷ(k, θ )
La diculté réside dans le fait contrairement au cas de la structure ARX, les pa-
ramètres minimisant l'erreur de prédiction (k) ne peuvent se calculer simplement
par une régression linéaire de type (1.6), mais doivent être obtenus itérativement,
par exemple par la méthode du gradient ( 1.B.3 page 51).
où d ∈ N est un entier naturel. La fonction réalisée par cet opérateur est identique
à z −1 , l'avantage résidant dans le fait qu'il s'applique directement aux signaux
temporels et non pas à leurs transformées en z . On a alors :
L'équation aux diérences (1.4) peut alors être réécrite sous la forme :
Estimation de y(k)
On peut montrer qu'un estimateur ŷ(k, θ) correspondant à une structure quel-
conque est donné par [[1], (3.20) p.56, (4.6) p.70] :
G(q) 1
ŷ(k, θ) = · u(k) + 1 − · y(k)
H(q) H(q)
La meilleure prédiction de v̂(k) de v(k) ne peut s'appuyer que sur les valeurs
passées de e(k) et v(k) :
C(q)
v̂(k) = · e(k − 1)
A(q)
C(q)
= v(k) − · e(k)
A(q)
A(q)
= v(k) − · v(k)
C(q)
A(q)
= 1− · v(k)
C(q)
On en déduit :
B(q)
ŷ(k) = · u(k) + v̂(k)
A(q)
B(q) A(q)
= · u(k) + 1 − · v(k)
A(q) C(q)
B(q) A(q) B(q)
= · u(k) + 1 − · y(k) − · u(k)
A(q) C(q) A(q)
B(q) A(q) A(q) B(q)
= · u(k) + 1 − · y(k) − 1 − · · u(k)
A(q) C(q) C(q) A(q)
d'où :
B(q) A(q)
ŷ(k, θ) = · u(k) + 1 − · y(k) (1.8)
C(q) C(q)
des vecteurs
−y(k − 1)
−y(k − 2)
...
−y(k − na )
u(k − 1)
→
− u(k − 2)
ϕ (k, θ) =
...
u(k − nb )
(k − 1, θ)
(k − 2, θ)
...
(k − nc , θ)
et
a1
a2
. . .
ana
b1
→
− b2
θ =
. . .
bn
b
c1
c2
. . .
cnc
on a :
ŷ(k, θ) = −
→
ϕ (k, θ)T · θ
Il ne s'agit malheureusement pas d'une régression linéaire (on parle de régression
pseudo-linéaire) et en conséquence, une solution analytique visant à trouver le
→
−
jeu de paramètre θ minimisant
− N −1
→ 1 X1
VN θ , yN (k), uN (k) = · · (k)2
N k=0 2
2
N −1
1 1 −
→
· y(k) − −
→
X
= · ϕ (k, θ)T · θ (1.10)
N k=0
2 | {z }
(k)
n'existe pas. Il faut alors recourir a une solution numérique. On propose d'étudier
ci-après la méthode dite de descente de gradient.
puis nalement :
→
−
∂ ŷ(k, θ ) 1
=− · y(k − j)
∂aj C(q)
→
−
∂ ŷ(k, θ ) 1
= · u(k − j)
∂bj C(q)
→
−
∂ ŷ(k, θ ) 1 →
− 1 1 →
−
=− · q −j · ŷ(k, θ ) + · y(k − j) = · (k − j, θ )
∂cj C(q) C(q) C(q)
L'évaluation de
∂VN
∂aj
∂VN
∂bj
∂VN
∂cj
donne :
→
−
2·(k, θ ) −1
N −1 N −1
z }| { z}|{
∂VN ∂VN ∂ ∂ ŷ 1 X ∂ ŷ 1 X 1 →
−
= · · =− · = · · y(k − j) · (k, θ )
∂aj ∂ ∂ ŷ ∂aj N k=0 ∂aj N k=0 C(q)
N −1 N −1
∂VN ∂VN ∂ ∂ ŷ 1 X ∂ ŷ 1 X 1 →
−
= · · =− · =− · · u(k − j) · (k, θ )
∂bj ∂ ∂ ŷ ∂bj N k=0 ∂bj N k=0 C(q)
N −1 N −1
∂VN ∂VN ∂ ∂ ŷ 1 X ∂ ŷ 1 X 1 →
− →
−
= · · =− · =− · · (k − j, θ ) · (k, θ )
∂cj ∂ ∂ ŷ ∂cj N k=0 ∂cj N k=0 C(q)
En introduisant
−y(k − 1)
−y(k − 2)
...
−y(k − na )
u(k − 1)
→
− →
− u(k − 2)
ϕ (k, θ ) =
. . .
u(k − nb )
(k − 1)
(k − 2)
...
(k − nc )
ainsi que
∂ ŷ
∂a1
∂ ŷ
∂a2
...
∂ ŷ
∂ana
∂ ŷ
∂b
∂ ŷ1
→
−
∂b2
ψ(k, θ ) =
...
∂ ŷ
∂bnb
∂ ŷ
∂c1
∂ ŷ
∂c
2
...
∂ ŷ
∂cnc
−̂ (i+1) −̂
→ →(i) (i) −1 →(i)
−̂
θ N = θ N − µN · RN · VN0 ( θ N ) (1.12)
avec
N −1
→
− 1 X →
− →
−
VN0 ( θ ) = − · ψ(k, θ ) · (k, θ ) (1.13)
N k=0
→
−̂ →
−
avec VN ( θ N ) selon (1.10) et ψ(k, θ ) selon (1.11).
(i)
RN est une matrice de dimension na + nb + nc modiant la direction de
recherche et choisie dans un premier temps égale à la matrice identité, faisant de
(1.12) une méthode de descente de gradient.
→
−̂
Si l'on prend en compte la double dérivée de VN ( θ N ), i.e. le hessien de
→
−̂
VN ( θ N ), on peut aner la direction de recherche en tenant compte de l'évo-
→
−
lution du gradient VN0 ( θ ) [[1], éq. (10.44)] :
N −1 N −1
−
→ 1 X →
− →T
− 1 X 0 − → →
−
VN00 ( θ ) = · ψ(k, θ ) · ψ(k, θ ) − · ψ (k, θ ) · (k, θ ) (1.14)
N k=0 N k=0
Avec
(i) →
−
RN = VN00 ( θ )
→
−
(1.12) est une méthode Newton. Lorsque l'on est proche du minimum de VN0 ( θ ),
on peut admettre [[1], éq. (10.46)] que
N −1
→
− 1 X →
− →
−
VN00 ( θ ) ≈ · ψ(k, θ ) · ψ(k, θ )T (1.15)
N k=0
epsilon = y yhat ;
%Somme des carres de l ' erreur de prediction
−
Les résultats sont sur les gures 1.33 page suivante et 1.34 page 57.
Evolution du gradient
4.5
3.5
2.5
1.5
0.5
0
0 10 20 30 40 50 60 70 80 90 100
No itération
f_test_armax_01_1.eps
6
y
yest
4
y(k), yest(k)
−2
−4
0 10 20 30 40 50 60
20
10
u(k)
−10
−20
0 10 20 30 40 50 60
k
f_test_armax_01_2.eps
Des formes bien connues de densités de probabilité sont les distributions [[2],
14.4]
uniforme :
1
p(x) = · ((x + a) − (x − b))
b−a
(b−a)2
avec µx = 12 · (b + a) et σx2 = 12
gaussienne :
" #
1 (x − µx )2
p(x) = √ · exp −
2 · π · σx 2 · σx2
Pour µx = 0, on a Rx (τ ) = Cx (τ ).
La fonction d'intercorrélation statistique peut également être dénie :
E [f (x)] = f (x(t))
Son évaluation expérimentale ne peut bien sûr s'eectuer que pour une durée T
nie, typiquement en échantillonnant le signal x(t) considéré :
N −1
1 X
RxN (k) = · x(l + k) · x(l)
N l=0
Z+∞
Xa (j · ω) = F{xa (t)} = xa (t) · e−j·ω·t · dt
−∞
ce qui montre qu'elle est une simple adaptation à la nature discrète de x(k).
La transformée de Fourier inverse s'écrit :
+ ω2e
Z
−1
x (k) = F {X (j · ω)} = X (j · ω) · e+j·ω·k·h · dω
− ω2e
x(k) = xa (t)|t=k·h
xN (k) = x(k) · ((k − k0 ) − (k − k0 − N )) = x(k) · rect (k − k0 , N )
0.5
u(t)
−0.5
−1
0 1 2 3 4 5 6 7 8 9 10
t [s]
2.5
2
|U(jω)|
1.5
0.5
0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
f [Hz]
f_fourier_carre_03_1.eps
0.5
u(t)
0
−0.5
−1
0 1 2 3 4 5 6 7 8 9 10
t [s]
2.5
2
|U(jω)|
1.5
0.5
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8
f [Hz]
f_fourier_carre_01_1.eps
Fig. 1.36 Module de la transformée de Fourier d'une période d'un signal carré
discret, évaluée pour un grand nombre de valeurs de ω . Du fait de la périodicité
de période fe de X (j · ω) et de la parité de |X (j · ω)|, l'achage du spectre
d'amplitude peut être limité à la zone de fréquences 0 . . . f2e (chier source).
1.D.3 Propriétés
Comme la gure 1.35 page ci-contre le laisse présager, X (j · ω) = F{x (k)}
est une fonction périodique de période ωe = 2·π
h
, puisqu'en eet
+∞
X
X (j · (ω + ωe )) = x (k) · e−j·(ω+ωe )·k·h
k=−∞
+∞
X
= x (k) · e−j·ω·k·h · e|−j·ωe ·k·h
{z } =X (j · ω)
k=−∞ 1
2.5
2
|U(jf)| et |U (n)|
N
1.5
0.5
0
−0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8
f [Hz]
f_fourier_carre_04_2.eps
Fig. 1.37 Module de la transformée de Fourier d'une période d'un signal carré
discret et sa version échantillonnée dans le domaine des fréquences : ici, on limite
la représentation du spectre d'amplitude a P = 64 points répartis entre − f2e et
+ f2e − fPe (chier source).
Dans un tel cas de gure, une période de xp (k) coïncide parfaitement avec
xN (k) prélevé précédemment sur xa (t) et aucune information n'est perdue. En
d'autres termes, calculer la TFD de xp (k) ou celle de xN (k) donne le même
résultat.
En pratique, on échantillonne donc la période ωe de XN (j ·ω) au moins autant
de fois que l'on a prélevé d'échantillons sur xa (t) an d'obtenir N nombres XN (n)
(gure 1.38 page suivante) avec
2.5
2
|U(jf)| et |U (n)|
N
1.5
0.5
0
−0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8
f [Hz]
f_fourier_carre_05_2.eps
ωe
∆ω =
N
Sachant que XN (j·ω) est périodique de période ωe et que l'on peut en conséquence
limiter son achage à la plage − ω2e , . . . + ω2e , les N valeurs de ω sont :
N N
− · ∆ω, . . . , −∆ω, 0, +∆ω, +2 · ∆ω, . . . + − 1 · ∆ω
2 2
Le simple fait de songer à la TFD de xN (k) suppose donc que le signal xN (k)
est périodique de période N · h ! On pouvait d'ailleurs le pressentir en relevant
notamment que le module |XN (j · ω)| de XN (n) n'est pas sans rappeler le spectre
de raies d'un signal analogique périodique (gure 1.39 page ci-contre).
La conséquence évidemment importante est qu'avec un outil tel que la TFD,
seuls des signaux périodiques de période N · h et ses sous-multiples peuvent
être transformés sans erreur. Pour les signaux non périodiques, les techniques de
fenêtrage (Hamming, Hanning, etc) permettent de limiter les inexactitudes [[3],
3.7].
0.5
u(t)
−0.5
−1
0 1 2 3 4 5 6 7 8 9 10
t [s]
2.5
2
|U(jω)|
1.5
0.5
0
−0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8
f [Hz]
f_fourier_carre_02_1.eps
+N
2
−1
X
xp (k) = F −1 {XN (n)} = XN (n) · e+j·n·2·π·k (1.17)
n=− N
2
1.D.10 Périodogramme
On appelle périodogramme d'un signal x(k) l'expression
1
ΦN (ω) = · |XN (ω)|2
N
Le périodogramme permet de mesurer les contributions des diérentes fréquences
à l'énergie du signal.
Notons que pour les signaux déterministes à énergie nie, i.e. les signaux tels que
∞
X
Wx = x(k)2 < ∞
k=0
on préfère utiliser la notion de densité spectrale d'énergie [[7], 3.8, p.66] (aussi
appelée spectre !), dont il est facile de démontrer qu'elle a pour expression :
Φx (ω) = |X(ω)|2
Donc :
1
Φx (ω) = F{Rx (k)} = lim · |XN (ω)|2 (1.18)
N →∞ N
et
1
ΦN · |XN (ω)|2
N
x (ω) = F Rx (k) =
N
On voit que la densité spectrale de puissance ΦN
x (ω) coïncide avec le périodo-
gramme déni au 1.D.10 page 68.
La densité spectrale de puissance d'un signal aléatoire x(k) peut alors être calculée
de manière analogue à ce qui a été fait pour les signaux déterministes et l'on peut
montrer que
1 2
Φx (ω) = F{Rx (k)} = lim E · |XN (ω)| (1.19)
N →∞ N
Si seules N valeurs sont à disposition, on a également :
ΦN
N
x (ω) = F Rx (k)
E ΦN
x (ω) = Φx (ω) + RN
où RN ∝ √1 .
N
et
Φyu (ω) = G(ej·ω ) · Φu (ω)
La dernière égalité provient du fait que u(k) et v(k) sont non corrélés. En consé-
quence, E [u(k) · v(k + l)] = 0 et donc Φuv (ω) = 0.
Chapitre 2
Contrôle robuste
v ( t )
u ( t ) -
w ( t ) e ( t ) y ( t )
1 1
S G c
( s ) S G a
( s )
s s
-
y ( t )
f _ 0 7 _ 7 8 _ 0 3 . e p s
dGw (s)
Gw (s)
S(s) = dGa (s)
Ga (s)
On a :
Go (s)
dGw (s) d 1+G o (s)
=
dGa (s) dGa (s)
Gc (s)·Ga (s)
d 1+G c (s)·Ga (s)
=
dGa (s)
Gc (s) · (1 + Gc (s) · Ga (s)) − Gc (s) · Ga (s) · Gc (s)
=
(1 + Gc (s) · Ga (s))2
Gc (s)
=
(1 + Gc (s) · Ga (s))2
d'où :
Gc (s)
dGw (s) = · dGa (s)
(1 + Gc (s) · Ga (s))2
Gc (s)
dGw (s) (1+Gc (s)·Ga (s))2
· dGa (s)
=
Gw (s) Gw (s)
Gc (s)
(1+Gc (s)·Ga (s))2
· dGa (s)
= Gc (s)·Ga (s)
1+Gc (s)·Ga (s)
1 dGa (s)
= ·
1 + Gc (s) · Ga (s) Ga (s)
dGw (s)
Gw (s) 1
S(s) = dGa (s)
=
1 + Go (s)
Ga (s)
On constate que, sous réserve d'un maintien de la stabilité en boucle fermée, plus
le gain de boucle Go (s) est élevé, moins les variations des paramètres du système
à régler Ga (s) n'ont d'inuence sur les performances en boucle fermée, i.e. les
paramètres de la fonction de transfert Gw (s). Cette observation concorde avec les
propriétés de linéarisation oertes par la contre-réaction.
On note également que cette expression est identique à celle que l'on obtient
si l'on calcule la fonction de transfert liant la consigne w(t) à l'erreur e(t) :
E(s) 1
Gew (s) = =
W (s) 1 + Go (s)
La réponse harmonique de S(j ·ω) a une allure tout à fait typique (gure 2.2 page
suivante) : son module est faible à basse fréquences (peu de sensibilité, i.e. bonne
performance en précision) et tend vers l'unité (grande sensibilité) aux hautes
fréquences.
Une propriété tout à fait remarquable ([4], 4.2) de la fonction de sensibilité
est que le maximum du module de sa réponse harmonique
Réponses harmoniques
40
|Go( j ⋅ ω)|
20
|Gw( j ⋅ ω)|
0
Phase (deg); Magnitude (dB)
|S( j ⋅ ω)|
−20
−40
50
−50
−100
−150
−2 −1 0 1
10 10 10 10
Frequency (rad/sec)
Fig. 2.2 Diagrammes de Bode de Go (j ·ω), Gw (j ·ω) et S(j ·ω) : allures typiques.
Il s'agit donc d'une mesure plus ne de la distance entre le lieu de Nyquist et le
point critique que celle donnée classiquement par les marges de phase ϕm et de
gain Am .
E(s) 1
Gew (s) = = = S(s)
W (s) 1 + Go (s)
- 1
0
1 + G o
( j w ) G o
( j w )
I m
G o
( j w )
w = 0 [ r a d / s ]
1 w = ¥ [ r a d / s ]
- 1
R e
1 + G o
( j w ) G o
( j w )
f _ 0 7 _ 0 8 _ 0 1 . e p s
A ( w ) |
| W 1
( j w ) |
[ d B ]
0 [ d B ]
w [ r a d / s ]
| W
- 1
( j w ) | w c o
1
| S ( j w ) |
f _ 0 7 _ 2 3 . e p s
A ( w ) |
| W 1
( j w ) |
[ d B ]
0 [ d B ]
| W ( j w ) S ( j w ) | w [ r a d / s ]
1 w c o
| S ( j w ) |
f _ 0 7 _ 2 4 . e p s
I m
G o
( j w )
| W 1
|
w = 0 [ r a d / s ]
w = ¥ [ r a d / s ]
- 1 R e
f _ 0 7 _ 2 5 . e p s
v ( t )
u ( t ) -
w ( t ) e ( t ) y ( t )
1
S G c
( s ) S G a 0
( s )
s
-
y ( t )
f _ r o b u s t e _ 0 2 . e p s
Fig. 2.7 Système asservi dont les paramètres du système à régler Ga (s) sont
susceptibles de varier (chier source).
que l'on appelle prol d'incertitude. On voit que |W2 (j · ω)| représente une
borne supérieure sur l'incertitude relative aectant le modèle nominal Ga0 (s).
Le modèle d'incertitude utilisé ici est non-structuré, ce qui signie grosso modo
que l'on ne prend pas en compte les variations individuelles des paramètres (par
exemple, pour l'asservissement de vitesse d'un moteur DC, on aurait J = J0 ±∆J
pour l'inertie en charge et/ou Ramin ≤ Ra0 ≤ Ramax pour la résistance de l'induit)
du modèle nominal Ga0 (s), mais que |W2 (j · ω)| traduit plutôt leur eet global
en fonction de la fréquence.
Notons qu'aucune hypothèse n'a été posée sur |W2 (j · ω)|, qui peut être une
fonction quelconque, notamment une fonction non-linéaire avec la fréquence.
Disque d'incertitude
L'inégalité de la dénition de |W2 (j · ω)| indique que |W2 (j · ω)| est la borne
supérieure de la variation relative du modèle. A une pulsation ωp donnée, le
module de la variation relative maximale de Ga (j · ωp ) par rapport à Ga0 (j · ωp )
n'est autre que |W2 (j · ω)| et peut être
d'amplitude comprise comprise entre 0 et |W2 (j · ωp )|
d'une phase quelconque, comprise entre 0 et 360 [◦ ]
Ce que l'on décrit ici n'est autre qu'un disque, appelé disque d'incertitude, centré
en Ga0 (j · ωp ) et de rayon |W2 (j · ωp ) · Ga0 (j · ωp )| (gure 2.8 page suivante). Pour
une fréquence donnée ωp , l'évolution de l'amplitude dans tout le disque ainsi que
la variation de phase (gure 2.9 page suivante) est intégrée au prol d'incertitude
|W2 (j · ω)| en écrivant que
Ga (s) − Ga0 (s)
= ∆(s) · W2 (s) (2.5)
Ga0 (s)
où ∆(s) est une fonction de transfert stable telle que
Il est clair que le modèle d'incertitude non-structuré choisi ici est conservateur,
puisqu'il constitue une sorte de cas le plus défavorable : il est en eet peu probable
I m
G a
( j w )
0 R e
| W 2
G a 0
|
G a 0
f _ r o b u s t e _ 0 7 . e p s
Fig. 2.8 Le disque d'incertitude dénit, pour une pulsation ωp donnée, la zone
dans laquelle la fonction de transfert Ga (j · ω) peut se trouver. |W2 (j · ωp )| corres-
pond à la limite du disque, soit à la variation maximale par rapport à la fonction
de transfert nominale Ga0 (j · ω) (chier source).
I m
G a
( j w )
0 R e
G a
G a 0
D W 2
G a 0
| W 2
G a 0
|
f _ r o b u s t e _ 0 8 . e p s
Fig. 2.9 C'est ∆(s) qui fait évoluer la fonction de transfert Ga (s) dans tout le
disque d'incertitude (chier source).
A ( w ) |
[ d B ]
0 [ d B ]
w [ r a d / s ]
| W 2
( j w ) |
w c o
f _ r o b u s t e _ 0 3 . e p s
Fig. 2.10 Allure typique du prol d'incertitude |W2 (j · ω)| (chier source).
L'allure typique de |W2 (j · ω)| est une fonction croissant avec la fréquence
(gure 2.10), puisqu'il est d'autant plus dicile de modéliser et identier les
modes rapides, i.e. la dynamique à fréquences élevées.
Il faut remarquer que le niveau d'incertitude peut se révéler très élevé, en
particulier lorsque le gain du système à régler Ga (j · ω) est faible. En eet, si le
gain nominal |Ga0 (j · ωp )| à une pulsation ωp donnée est par exemple de l'ordre
de 0.01, soit de −40 [dB], une bande d'incertitude de ±20 [dB] tracée autour du
gain nominal paraît tout à fait réaliste dans le diagramme de Bode au vu de la
diculté à identier précisément le système à cause du mauvais rapport signal-
sur-bruit [[8], chap.8]. Or, cela correspond à rien moins qu'une incertitude relative
maximale de
+20 [ ] dB
d'incerti-
tude !
z}|{
Ga (j · ωp ) − Ga0 (j · ωp ) 0.01 · 10 −0.01
|W2 (j · ωp )| = ≈ = 900% !
Ga0 (j · ωp ) 0.01
(2.7)
Ce phénomène est particulièrement marqué lorsque le système à régler, comme
celui du schéma technologique de la gure ?? page ? ?, possède une anti-résonance
(gure 2.11 page ci-contre).
−60
−80
−100
−120
−1 0 1 2 3
10 10 10 10 10
200
100
−100
−200 G(ejω h)
YN(ω)/UN(ω)|
−300
−1 0 1 2 3
10 10 10 10 10
f [Hz]
f_lse_m_04_mes_id_2004_05_08_2_8.eps
A ( w ) |
[ d B ]
| W 2
( j w ) |
| G w 0
( j w ) |
0 [ d B ]
w [ r a d / s ]
| W ( j w ) G ( j w ) | w c o
2 w 0
f _ r o b u s t e _ 0 4 . e p s
I m
G o
( j w )
- 1 + j 0 w = 0 [ r a d / s ]
w = ¥ [ r a d / s ]
G
R e
o
1 +
Go
|W
2
G
o
|
f _ r o b u s t e _ 2 4 . e p s
est telle que le point critique est laissé sur la gauche du lieu de Nyquist
(gure 2.13 page précédente). Cette distance peut être considérée comme
un sorte de "réserve". La perte intégrale de cette distance amènerait le lieu
de Nyquist sur le point critique, ce qui est à éviter absolument !
La variation de distance potentielle |W2 (j · ω) · Go0 (j · ω)| doit donc être
inférieure à la distance nominale |1 + Go0 (j · ω)| :
Donc
|W2 (j · ω) · Gw0 (j · ω)| < 1 (2.12)
I m
G o
( j w )
w = 0 [ r a d / s ]
w = ¥ [ r a d / s ]
- 1 R e
| W 2
G o 0
|
f _ r o b u s t e _ 0 5 . e p s
Interprétation graphique
de centre Go0 (j · ω)
de rayon |W2 (j · ω) · Go0 (j · ω)|
Step Response
1.2
0.8
Amplitude
0.6
0.4
0.2
0
0 150 300 450 600 750 900
Time (sec.)
Fig. 2.15 Réponse indicielle en boucle fermée, cas nominal (chier source).
2.2.3 Exemple
On considère un système à régler de fonction de transfert nominale
Y (s) 1
Ga0 (s) = = Ka · (2.13)
U (s) (1 + s · 11124) · (1 + s · 2) · (1 + s · 2)
20
15
10
5
W2(ω)
−5
−10
−15
−20
−3 −2 −1 0
10 10 10 10
ω [rad/s]
Fig. 2.16 Prol d'incertitude : −6 [dB] = 50% à basse fréquence, −10 [dB] =
33% aux fréquences intermédiaires et augmentation aux hautes fréquences. On
remarque que la fonction W2 (j · ω) peut être quelconque (mais doit être stable),
en particulier discontinue. Ce n'est donc pas forcément une fonction de transfert
(chier source).
10
−10
−20
A(ω)
−30
−40
W2
−50 Gw
W2Gw
−60
−3 −2 −1 0
10 10 10 10
ω [rad/s]
Fig. 2.17 Test de la condition de stabilité robuste : on voit que ce test est
satisfait puisque la courbe kW2 (j · ω) · Gw0 (j · ω)k∞ est inférieure à 1 = 0 [dB]
(chier source).
Notons qu'en principe, c'est plutôt la démarche inverse qui est suivie : ayant
déni le prol d'incertitude |W2 (j · ω)|, on en déduit les performances possibles
de Gw0 (s) et par suite le régulateur Gc (s) : c'est l'objet de la synthèse robuste.
On peut alors faire le test de la stabilité robuste, en traçant ici le diagramme
de Bode du gain kW2 (j · ω) · Gw0 (j · ω)k∞ < 1 (gure 2.17).
On observe que la condition de stabilité robuste est satisfaite.
Chapitre 3
Régulateur RST polynômial
v[k]
S(z) Σ
n[k]
v[k]
w[k] T (z) z δR
u[k] B(z) y[k]
z δR Σ R(z) Σ A(z)
-
S(z)
z δR Σ
n[k]
Régulation de correspondance
T (z) B(z) T (z) B(z)
Y (z) ·
R(z) A(z)
·
R(z) A(z) B(z) · T (z) Bm (z)
Gw (z) = = = S(z)·B(z)
= =
W (z) 1 + Go (z) 1 + R(z)·A(z) A(z) · R(z) + B(z) · S(z) Am (z)
(3.3)
Régulation de maintien
B(z) B(z)
Y (z) A(z) A(z) B(z) · R(z)
Gv (z) = = = S(z)·B(z)
=
V (z) 1 + Go (z) 1 + R(z)·A(z) A(z) · R(z) + B(z) · S(z)
(3.4)
Réjection des perturbations (bruit n[k])
S(z) B(z)
Y (z) ·
R(z) A(z) B(z) · S(z)
Gn (z) = = S(z)·B(z)
= (3.5)
N (z) 1 + R(z)·A(z) A(z) · R(z) + B(z) · S(z)
Le polynôme B(z) détermine les zéros du système à régler. Il est dans le cas
général envisageable de les compenser, à condition toutefois que l'on se limite aux
zéros de B(z) situés dans le disque unité (voir ?? page ? ?). Des conditions plus
drastiques d'amortissement absolu et relatif peuvent également être imposées.
En désignant par B + (z) le polynôme monique facteur de B(z) dont les racines
répondent à cette condition, on peut alors écrire B(z) comme
Le polynôme Bm (z) devra ainsi contenir le terme B − (z) an de s'assurer qu'aucun
zéro hors du disque unité, voire hors d'une zone plus restrictive spéciée par des
conditions d'amortissement absolue et relative, n'ait été compensé :
Bm (z) = B − (z) · Bm
0
(z) (3.9)
Si le polynôme B + (z) est compensé, la seule possibilité est qu'il le soit par des
zéros de R(z) puisque A(z) et B(z) n'ont par hypothèse pas de facteurs communs :
S(z) B(z) S(z) B + (z) · B − (z) S(z) · B − (z)
Go (z) = · = + · =
R(z) A(z) B (z) · R0 (z) A(z) R0 (z) · A(z)
On en déduit que
R(z) = B + (z) · R0 (z) (3.10)
En réécrivant la fonction de transfert en boucle fermée, régulation de correspon-
dance, on a :
Y (z) B(z) · T (z)
Hm (z) = =
W (z) A(z) · R(z) + B(z) · S(z)
B − (z) · B + (z) · T (z)
=
A(z) · B + (z) · R0 (z) + B + (z) · B − (z) · S(z)
B − (z) · T (z)
=
A(z) · R0 (z) + B − (z) · S(z)
D'autre part, selon (3.3) et (3.9) :
Bm (z) B − (z) · Bm
0
(z)
Hm (z) = =
Am (z) Am (z)
On en déduit :
B − (z) · T (z) B − (z) · Bm
0
(z) B − (z) · Bm
0
(z) Ao (z)
0 −
= = ·
A(z) · R (z) + B (z) · S(z) Am (z) Am (z) Ao (z)
où A(z), X(z), B(z), Y (z) et C(z) sont des polynômes. A(z), B(z) et C(z) sont
connus, X(z) et Y (z) sont les polynômes à déterminer. Il est clair qu'une telle
équation possède une innité de solutions. Cependant, on peut démontrer que
l'équation (3.14) a des solutions uniques si (la notation δX signie "degré du
polynôme X ")
δY < δA (3.15)
δR ≥ δS (3.17)
δR ≥ δT (3.18)
δA > δB (3.19)
δAm − δBm ≥ δA − δB (3.20)
δR + δA > δB + δS
Ainsi :
δR + δA = δB + + δAo + δAm
d'où
δR = δB + + δAo + δAm − δA (3.21)
0
T (z) = Ao (z) · Bm (z)
on peut écrire
0
δT = δAo + δBm
Degré du polynôme Am (z) On peut alors écrire, sachant que selon (3.18)
δR ≥ δT :
0
δB + + δAo + δAm − δA ≥ δAo + δBm
| {z } | {z }
δR δT
et nalement :
0
δAm ≥ δBm − δB + + δA (3.22)
Degré des polynômes S(z) et Ao (z) Il reste à déterminer les degrés des
polynômes S(z) et Ao (z). Pour S(z), on prendra simplement, selon l'équation
(3.15) :
δS = δA − 1 (3.23)
Pour Ao (z), la prise en compte des équations (3.17), (3.21) et (3.23) permet de
calculer :
δR ≥ δS
δB + + δAo + δAm − δA ≥ δA −1
| {z } | {z }
δR δS
d'où :
δAo ≥ 2 · δA − δAm − δB + − 1 (3.24)
Résumé
En résumé, pour la synthèse du régulateur RST, on s'arrangera pour respecter,
dans l'ordre, les conditions suivantes :
Choisir Bm
0
(z) selon les contraintes en poursuite de consigne
0
δAm ≥ δBm − δB + + δA
δAo ≥ 2 · δA − δAm − δB + − 1
δR = δB + + δAo + δAm − δA
δS = δA − 1
0
δT = δAo + δBm
Ces contraintes étant respectées, une solution unique causale (i.e. réalisable) peut
être trouvée en résolvant l'équation de Diophantine. Celle-ci aura alors la forme :
On trouvera les coecients des polynômes R0 (z) et S(z) d'une manière aisée si
l'on construit la matrice de Sylvester, comme indiqué au 3.1.5 page suivante.
Il faut remarquer qu'on a imposé que les zéros stables et bien amortis de B ,
soit ceux du ploynômes B + (z) soient compensés par R(z), qui a alors la forme
générale :
R(z) = B + (z) · R0 (z)
HEIG-VD
Les polynômes R(z), S(z), A(z), B(z) et C(z) = B + (z) · Ao (z) · Am (z) ont pour formes :
En écrivant :
C(z)
z }| {
A(z) · R(z) + B(z) · S(z) = B + (z) · Ao (z) · Am (z)
Automatique avancée (
on a dans le détail :
MEE \cours_aav.tex
1er septembre 2007
AAV)
= z δC + c1 · z δC−1 + c2 · z δC−2 + . . . + cδC−1 · z + cδC
Régulateur RST
HEIG-VD
En identiant terme à terme (de mêmes degrés), on peut montrer que l'on aboutit à un système d'équations linéaires
représentable par la matrice de Sylvester :
1 0 ... 0 0 0 ... 0
.. .. .. .. .. .. r1 c1 − a1
. . . . . .
a1 1 r c −a
.. ..
2 2 2
. .
a2 a1 0 b0 0 0 .. ..
. . .. .. . .
.. ..
. .
a2 1 b1 b0 r
c − a
. .. .. .. δR−1 δA−1 δA−1
..
. . a1 b2 b1 . 0 · rδR cδA − aδA
.. .. .. .. s0 =
. . cδA+1
. .
aδA−1 a2 b2 b0
. .. .. ..
s1 c
δA aδA−1 . .
δA+2
. . .
. .
a bδB b1
.. ..
.. .. ..
. .
0 aδA . 0 bδB b2
sδS−1
cδR+δS−1
.. .. . .. .. .. .. ..
.. .
101
. . . . . . sδS cδR+δS
0 0 ... aδA 0 0 . . . bδB
Automatique avancée (
MEE \cours_aav.tex
1er septembre 2007
AAV)
HEIG-VD Automatique avancée ( AAV)
Exemple
On considère le système à régler de fonction de transfert :
Y (s) 1 1
Ga (s) = = · (3.25)
U (s) s 1 + s · 0.1
2. des performances en poursuite de consigne telles que l'on puisse suivre une
consigne constante sans erreur. On en déduit que Hm (1) = 1. Sachant que
Bm (z) B − · Bm
0
(z)
Hm (z) = =
Am (z) Am (z)
on en déduit que
0 Am (1) 0
Bm (1) = −
= Bm (z)
B (1)
En décidant pour cette synthèse qu'aucun zéro du système à régler ne doit être
compensé, ceci implique que B + (z) = 1 et donc que B − (z) = b0 · (z − z1 ). On
Y (z) Bm (z) B − · Bm
0
(z)
Hm (z) = = =
W (z) Am (z) Am (z)
Am (1)
b0 · (z − z1 ) · B − (1)
=
z δAm −2 · (z − p1 ) · (z − p2 )
(1 − p1 ) · (1 − p2 ) b0 · (z − z1 )
= ·
b0 · (1 − z1 ) (z − p1 ) · (z − p2 )
(1 − 0.9) · (1 − 0.4) 4.9834 · 106 · (z + 0.9967)
= ·
4.9834 · 106 · (1 − 0.9967) z δAm −2 · (z − 0.9) · (z − 0.4)
(3.27)
(3.28)
0 +
δAm ≥ δBm − δB + δA → δAm = 0 − 0 + 2 = 2
δAo ≥ 2 · δA − δAm − δB + − 1 → δAo = 2 · 2 − 2 − 0 − 1 = 1
δR = δB + + δAo + δAm − δA → δR = 0 + 1 + 2 − 2 = 1
δS = δA − 1 → δS = 2 − 1 = 1
0
δT = δAo + δBm → δT = 1 + 0 = 1
Les polynômes R(z), S(z), A(z), B(z) et C(z) = B + (z) · Ao (z) · Am (z) ont alors
pour formes :
R(z) = (z + r1 ) (3.29)
S(z) = (s0 · z + s1 ) (3.30)
Ao (z) = z (3.31)
Am (z) = (z 2 − (p1 + p2 ) · z + p1 · p2 ) (3.32)
C(z) = 1 · (z 2 − (p1 + p2 ) · z + p1 · p2 ) · z (3.33)
B(z) = (b0 · z + b1 ) (3.34)
B + (z) = 1 (3.35)
A(z) = (z 2 + a1 · z + a2 ) (3.36)
En écrivant :
C(z)
z }| {
A(z) · R(z) + B(z) · S(z) = B + (z) · Ao (z) · Am (z) (3.37)
on a dans le détail :
(z 2 + a1 · z + a2 ) · (z + r1 ) + (b0 · z + b1 ) · (s0 · z + s1 )
= 1 · (z 2 − (p1 + p2 ) · z + p1 · p2 ) · z (3.38)
L'identication terme à terme prend la forme :
z3 : 1=1
z2 : r1 + a1 + b0 · s0 = −p1 − p2
z1 : a1 · r 1 + a2 + b 0 · s 1 + b 1 · s 0 = p 1 · p 2
z0 : a2 · r 1 + b 1 · s 1 = 0
soit encore
r1 +b0 · s0 = −p1 − p2 − a1
a1 ·r1 +b1 · s0 + b0 · s1 = p 1 · p 2 − a2
a2 ·r1 + b 1 · s1 =0
Ce système peut être écrit sous forme matricielle, faisant intervenir la matrice de
Sylvester :
1 b0 0 r1 −p1 − p2 − a1
a1 b1 b0 · s0 = p1 · p2 − a2
a2 0 b 1 s1 0
Avec p1 = 0.9 et p2 = 0.1, on a :
−1
r1 1 b0 0 −p1 − p2 − a1
s0 = a1 b1 b0 · p1 · p2 − a2
s1 a2 0 b 1 0
−1
0.4983 · 10−5
1 0 −0.9 − 0.1 − (−1.99)
= −1.99 0.4967 · 10−5 0.4983 · 10−5 · 0.9 · 0.1 − 0.99
0.99 0 0.4967 · 10−5 0
0.4741
= 1.0354 · 10−5
−9.4497 · 10−4
On a donc pour R(z) et S(z) :
R(z) = z + r1 = z + 0.4741
S(z) = s0 · z + s1 = 1.0354 · 10−5 · z − 9.4497 · 10−4
0.9
0.8
0.7
0.6
m
H
,y
0.5
w
G
y
0.4
0.3
0.2
0.1
0
0 10 20 30 40 50 60
k
f_rst_exemple_1_1.eps
0 (1 − p1 ) · (1 − p2 ) (1 − 0.9) · (1 − 0.1)
T (z) = Bm (z)·Ao (z) = ·z = ·z = 9.0451·103 ·z
b0 · (1 − z1 ) 0.4983 · 10−5 · (1 − 0.9967)
La gure 3.3 montre le résultat obtenu (réponse indicielle en boucle fermée, ré-
gulation de correspondance).
T (z) S(z)
U (z) = · W (z) − · Y (z)
R(z) R(z)
A(z) Bm (z) S(z) Bm (z)
= · · W (z) + · · W (z) − Y (z) (3.39)
B(z) Am (z) R(z) Am (z)
A(z)
B(z)
Chapitre 4
Modélisation des systèmes
dynamiques dans l'espace d'état
R L
i ( t )
u ( t ) u ( t )
e C s
f _ 0 2 _ 0 2 _ 0 1 . e p s
Notant que :
dq dus
=C·
i (t) = (4.2)
dt dt
q(t) étant la charge instantanée du condensateur, et que
Zt
1
us (t) = · i (τ ) · dτ (4.3)
C
−∞
2
d u R d u 1
+ × + × u ( t )
s s
u ( t ) = u ( t ) u ( t ) = y ( t )
× C
2 s
d t L d t L
e s
1
= × u ( t )
× C
e
L
f _ 0 2 _ 0 2 _ 1 2 . e p s
Fig. 4.2 Description du circuit de la gure 4.1 page ci-contre par un modèle de
connaissance prenant la forme d'une équation diérentielle d'ordre 2. Le modèle
indique le lien entre l'entrée ue (t) et la sortie us (t) : il s'agit d'un modèle entrée
sortie (chier source).
l'entrée ue (t)
et
la sortie us (t)
du système.
Dans le cas de conditions initiales nulles, on peut extraire la fonction de
transfert :
Us (s) 1
G (s) = = (4.6)
Ue (s) 1 + s · R · C + s2 · L · C
Il s'agit là à nouveau d'une relation
entrée-sortie
où aucune des grandeurs internes du circuit n'intervient, bien que leur connais-
sance puisse être importante ; on pense notamment
au courant i(t) ;
au ux totalisé Ψ(t) = L · i(t) ;
à la charge instantanée du condensateur q(t) ;
au champ électrique E(t) entre les armatures du condensateur.
Un courant i(t) trop élevé peut provoquer une saturation magnétique se ma-
nifestant directement sur le ux totalisé Ψ(t), alors qu'une charge exagérée du
condensateur peut engendrer un champ électrique E supérieur au champ disrup-
tif. Dans un cas comme dans l'autre, les hypothèses de linéarité sont démenties,
mais aucune de ces grandeurs n'apparaît dans l'un ou l'autre des modèles entrée-
sortie (équation diérentielle d'ordre 2 et fonction de transfert) obtenus.
Modèle d'état
La représentation dans l'espace d'état (State space model) ore une alternative
au modèle entrée-sortie en proposant un modèle liant non seulement les signaux
G ( s )
U e
( s ) U s
( s )
U ( s ) Y ( s )
f _ 0 2 _ 0 2 _ 1 3 . e p s
Fig. 4.3 Description du circuit de la gure 4.1 page 108 par un modèle de
connaissance prenant la forme d'une fonction de transfert d'ordre 2. Comme le
modèle de la gure 4.2 page précédente, il s'agit également d'un modèle entrée
sortie (chier source).
d'entrée et de sortie d'un système dynamique tout en gardant "à l'oeil" certaines
grandeurs internes essentielles, les variables d'état.
Pour l'obtenir, il sut de décrire le système dynamique par n équations
diérentielles d'ordre 1 en lieu et place d'une seule équation diérentielle
d'ordre n. Pour le circuit électrique considéré, on pourrait écrire :
di
+ C1 · q (t)
ue (t) = R · i (t) + L · dt
dq (4.7)
i (t) = dt
Ces deux équations, mises ainsi sous forme canonique, modélisent le comporte-
ment dynamique du circuit. Elles sont les équations d'état du système. L'ex-
pression de la tension de sortie us (t) est alors simplement
1
us (t) = · q (t) (4.9)
C
qui est appelée équation d'observation.
En protant de la notation matricielle, on peut présenter les trois dernières
équations sous forme compacte :
R 1
1
d i − L − L·C i
dt
= · + L · ue
q 1 0 q 0
(4.10)
1
i
us = 0 C ·
q
4.1.2 Dénition
La représentation d'état d'un système dynamique linéaire est un modèle par
lequel non seulement la relation entrée-sortie entre u(t) et y(t) est déterminée,
comme c'est déjà le cas avec
l'équation diérentielle d'ordre n,
dn y dn−1 y dy dm u dm−1 u du
n
+a n−1 · n−1
+. . .+a 1 · +a 0 ·y = b m · m
+b m−1 · m−1
+. . .+b1 · +b0 ·u
dt dt dt dt dt dt
(4.18)
G ( s )
U ( s ) Y ( s )
u ( t ) y ( t )
f _ 0 2 _ 0 1 _ 2 7 . e p s
n n - 1
d y d y d y
+ a × + K + a × + a × y
y ( t )
n n - 1 n - 1 1 0
d t d t d t
u ( t ) m m - 1
d u d u d u
= b × + b × + K + b × + b × u
m m m - 1 m - 1 1 0
d t d t d t
f _ 0 2 _ 0 1 _ 1 9 . e p s
Fig. 4.5 Représentation d'un système dynamique linéaire par une équation
diérentielle d'ordre n (chier source).
G ( s )
U ( s ) Y ( s )
u ( t ) y ( t )
f _ 0 2 _ 0 1 _ 2 8 . e p s
y = c1 · x1 + c2 · x2 + . . . + cn · xn + d · u (4.20)
Exemple : moteur DC
On considère un moteur DC à excitation séparée dont tous les paramètres
sont supposés constants :
R L
a l i e r s
a a
w ( t ) q ( t )
p
u a
( t ) M
C o e f f i c i e n t
J
i a d e f r o t t e m e n t
v i s q u e u x
R f f _ 0 2 _ 0 2 _ 0 9 . e p s
Les signaux d'entrée u(t) et de sortie y(t) sont ici la tension ua (t) appliquée
aux bornes de l'induit ainsi que la position angulaire θ(t) respectivement. La mise
en équations donne :
dia
ua (t) = Ra · ia (t) + La · + KE · ω(t) (4.21)
dt
Tem (t) = KT · ia (t) (4.22)
dω
J· = Tem (t) − Rf · ω(t) (4.23)
dt
dϑ
= ω(t) (4.24)
dt
Par simple mise en forme, on peut en déduire les équations d'état, en choi-
sissant ia , ω et θ comme variables d'état :
dia Ra KE 1
=− · ia − ·ω+ · ua (4.25)
dt La La La
dω KT Rf
= · ia − ·ω (4.26)
dt J J
dϑ
=ω (4.27)
dt
La connaissance de ces trois équations est nécessaire et susante pour décrire
le comportement dynamique du système considéré, lequel est donc d'ordre n = 3.
La sortie y du système est donnée par l'équation d'observation et coïncide
dans cet exemple avec l'un des états :
y=θ (4.28)
d~x
= A · ~x + B · u (4.29)
dt
y = C · ~x + D · u (4.30)
le vecteur
x1
~x = ... (4.31)
xn
est le vecteur d'état ; c'est un vecteur colonne de dimension n × 1. Ses
composantes sont les n états du système.
la matrice
a11 a12 . . . aan
a21 a22 . . . a2n
A= .. .. .. .. (4.32)
. . . .
an1 an2 . . . ann
Exemple : moteur DC
On reprend l'exemple du moteur DC à excitation séparée précédemment
traité. Sous forme matricielle, ses équations d'état s'écrivent :
− La − KLEa 0
Ra 1
ia ia La
d
ω = KT − Rf 0 · ω + 0 ·ua
dt J J
θ 0 1 0 θ 0
| {z } | {z } | {z } | {z }
~
x A ~
x B (4.38)
i a
θ = 0 0 1 · ω + [0] · ua
|{z} |{z} |{z}
y
| {z
C
} θ D u
| {z }
~
x
x2=omega
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
x3=teta
0 x1=ia
−0.1
0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.1
t [s]
Exemple : moteur DC
Les équations d'état du moteur DC peuvent être représentées sous forme gra-
phique. Un schéma fonctionnel possible celui des gures 4.10 page 119 et 4.11
page 122 où les seuls élément dynamiques intervenant sont des intégrateurs.
L'avantage de ces schémas est que l'on peut voir au premier coup d'oeil la struc-
ture interne du système, notamment les relations existant entre les diérentes
grandeurs.
r
d x
r
d t x
u ( t ) B ò C y ( t )
S S
A
f _ 0 2 _ 0 1 _ 2 9 . e p s
Fig. 4.9 Schéma fonctionnel (ou structurel) associé à une représentation par un
modèle d'état. On observe que la matrice d'état A détermine les contre-réactions
des états du système (chier source).
d i R K 1 d w K R d J
= - × i - × w + × u = × i - × w = w
a a E T f
a a a
d t L L L d t J J d t
T
a a a
i w
e m
a
1 1 1
u K
1 1
a S
L
S
s
T
J
S
s s
q
a
-
R
R f
a
L J
a
e m
K E
f _ 0 2 _ 0 2 _ 1 6 . e p s
s1
s2
dc (s) = |s · I − A| = 0 ⇒ .. (4.47)
.
s
n
Exemple : moteur DC
La fonction de transfert G (s) = YU (s)
(s)
= UΘ(s)
a (s)
est obtenue en procédant par
étapes :
− La − KLEa 0
Ra
1 0 0
(s · I − A) = s · 0 1 0 − KJT − RJf 0
0 0 1 0 1 0
Ra KE
s + La + La 0
= − KT s + Rf 0
J J
0 −1 s
[cof (s · I − A)]T
(s · I − A)−1 =
|s · I − A|
R
s · s + Jf s · KJT KT
J
cof (s · I − A) = − La · s KT
s · s + La Ra Ra
s + La
R KT ·KE
0 0 s+ R La
a
· s + J
f
+ J·La
R
s · s + Jf −s · KLaT 0
T
[cof (s · I − A)] = KT
·s s · s + La Ra
0
J
KT Ra Ra Rf KT ·KE
J
s + La
s + La
· s + J
+ J·La
Ra Rf KT · KE
|s · I − A| = s · s+ · s+ +
L J J · La
a
2 R a · J + R f · La KT · KE + R a · R f
=s· s + ·s+
La · J La · J
Rf
s· s+ J −s · KLaT 0
KT
·s s· s+ R a
0
J La
KT Ra Ra Rf KT ·KE
J
s + La s + La · s + J + J·La
C · (s · I − A)−1 = 0 0 1 ·
R ·J+R ·L K ·K +R ·R
s · s2 + a La ·Jf a · s + T LEa ·J a f
h i
KT Ra Ra Rf KT ·KE
J
s + La
s + La
· s + J
+ J·La
=
R ·J+R ·L K ·K +R ·R
s · s2 + a La ·Jf a · s + T LEa ·J a f
(4.48)
d'où nalement :
T K
Y (s) −1 La ·J
G (s) = = C·(s · I − A) ·B+|{z}
D =
U (s) R ·J+R ·L
s · s2 + a La ·Jf a · s +
KT ·KE +Ra ·Rf
0 La ·J
(4.50)
Le calcul symbolique ci-dessus est fastidieux et pourrait être aisément réalisé
au moyen de logiciels de calcul symbolique comme Mathematica, Maple, Mathcad
(qui comprend quelques primitives de calcul de Maple) ou MATLAB et sa boîte
à outil Symbolic (à nouveau un extrait de Maple). Ce long calcul peut aussi être
évité si l'on se contente d'une solution numérique, laquelle est aisément obtenue
avec MATLAB au moyen de ss2tf ("State Space to Transfer Function")
Combiné avec printsys(numG,denG), le résultat est :
>> [numG,denG]=ss2tf(A,B,C,D);
>> printsys(numG,denG)
num/den =
-5.457e-012 s + 1.277e+004
------------------------------
s^3 + 162.4 s^2 + 1.533e+004 s
>> eig(A)
ans =
0
-81.1766 +93.4977i
-81.1766 -93.4977i
1
i
u
1 a
a S
L s
a
-
R
a
e
d i R K 1
L
a
= - × i - × w + × u
a a E
a a m
d t L L L
K
a a a
1 w
S
s
d w K R R
= × i - × w
T f f
a
d t J J J
T e m
1
K T
J
d J 1 q
= w
d t s
f _ 0 2 _ 0 2 _ 1 7 . e p s
soit encore :
d (∆~x)
= A|Q · ∆~x + B|Q · ∆u (4.57)
dt
Pour l'équation d'observation, on a simplement :
D
d / d t ( D x )
u
D x
u
B 1 / s
C y
S S S S
- Q
A Q
p o i n t d e
f o n c t i o n n e m e n T
u 0
x 0
f _ 0 2 _ 0 2 _ 0 2 . e p s
Exemple
On considère un moteur DC à excitation séparée constante (gure 4.13 page
ci-contre), pour lequel l'inertie de la charge Jch est dépendante de la position
angulaire θ selon la loi
R L
a l i e r s
a a
w ( t )
p
u a
( t ) M
J
i a C o e f f i c i e n t I n e r t i e v a r i a b l e
d e f r o t t e m e n t e n f o n c t i o n d e
v i s q u e u x l a p o s i t i o n
R
f _ 0 2 _ 0 2 _ 0 6 . e p s
dx1 dia Ra KE 1
= =− · ia − ·ω+ · ua
dt dt La La La
= f1 (x1 , x2 , x3 ) + g1 (u)
dx2 dω KT Rf KT Rf
= = · ia − ·ω = · ia − ·ω
dt dt Jt Jt JN · (α + sin (ϑ)) JN · (α + sin (ϑ))
= f2 (x1 , x2 , x3 ) + g2 (u)
dx3 dϑ
= =ω
dt dt
= f3 (x1 , x2 , x3 ) + g3 (u)
(4.60)
Ces mêmes équations, linéarisées autour du point de fonctionnement Q(ua0 , [ia0 , ω0 , θ0 ]),
0.012
0.01
Inertie [kgm^2]
0.008
0.006
0.004
0.002
0
0 1 2 3 4 5 6 7
teta [rad]
q ( t )
1
i a
( t ) T e m
( t )
1
R 1 1
u ( t ) S K S w ( t )
a
( a s i n ( J ) )
a L
T J × + s
+ s ×
a
1 N
-
R a
R f
K E
f _ 0 2 _ 0 2 _ 0 7 . e p s
Fig. 4.15 Schéma fonctionnel d'un moteur DC entraînant une inertie variable
en fonction de la position angulaire θ (chier source).
=0
(4.63)
On peut alors en déduire, selon les besoins, les pôles, les constantes de temps
ou la fonction de transfert liant l'entrée ∆ua et la sortie de son choix.
∆Ω(s)
Pour obtenir la fonction de transfert Ga (s) = ∆U a (s)
, on élimine le courant
∆ia des équations ci-dessus en l'extrayant de la première équation :
Ra KE 1
s+ · ∆Ia (s) = − · ∆Ω (s) + · ∆Ua (s)
La La La
− KLEa 1 (4.64)
La
∆Ia (s) = · ∆Ω (s) + · ∆Ua (s)
s+ R La
a
s+ R a
La
T K 1
La ·JN
· (α+sin(ϑ
0 ))
=
Rf
Rf ·Ra +KT ·KE
(4.66)
R 1 1
s2 + s · L a + (α+sin(ϑ )) · J + (α+sin(ϑ · La ·JN
a 0 N 0 ))
KT 1
= ·
Rf
Rf · Ra + KT · KE Ra
+ 1 ·
La (α+sin(ϑ0 )) JN
1 + ·s+ 1 · s2
Rf ·Ra +KT ·KE Rf ·Ra +KT ·KE
1 · 1 ·
(α+sin(ϑ0 )) La ·JN (α+sin(ϑ0 )) La ·JN
rad
Q(u0 , [ia0 , ω0 , θ0 ] = Q 1 [V], 0 [A], 0 ◦
, θ0 = 0 . . . 330 [ ] (4.67)
s
2.5
240
2
vitesse angulaire [rad/s]
300
0
1.5 210
270
30
180
1 60
150 120 90
0.5 330
0
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]
4.A Exercices
4.A.1 Modèles d'état
1. Donner le modèle d'état du double intégrateur (analogique) et en obtenir
la fonction de transfert à partir de ce modèle.
2. Donner le modèle d'état du système dynamique linéaire ayant pour fonction
de transfert (intégrateur et constante de temps) :
Y (s) K 1
G(s) = = ·
U (s) s (1 + s · T )
c o e f f i c i e n t d e
f r o t t e m e n t v i s q u e u x :
d e s p a l i e r s
R f
[ N m s / r a d ]
T e m
( t ) q 1
( t ) q 2
( t )
R f
R f
r i g i d i t é d e l 'a r b r e
d e t r a n s m i s s i o n :
k [ N m / r a d ]
i n e r t i e d u r o t o r : i n e r t i e d e l a c h a r g e :
J 1
J 2 f _ 0 7 _ 0 1 . e p s
Fig. 4.17
Paramètres :
N·m
k = 1740
rad
Bibliographie
[1] Lennart Ljung. System Identication, Theory for the User. Prentice-Hall
information and system sciences series, Thomas Kailath Editor, 1987. Bi-
bliothèque HEIG-VD No 40.162-27/02.
[2] F. de Coulon. Traité d'electricité. In Théorie et traitement des signaux,
volume 6. Presses Polytechniques Romandes, Lausanne, 1984. bibliothèque
HEIG-VD No 32.100-23.