Vous êtes sur la page 1sur 62

eivd Régulation numérique

Chapitre 8

Identification des systèmes


dynamiques linéaires

8.1 Identification non-paramétrique de systèmes


dynamiques linéaires
L’identification non-paramétrique de systèmes dynamiques consiste à en ob-
tenir, i.e. à en estimer, les réponses temporelle (e.g. indicielle, impulsionnelle)
et fréquentielle sous forme expérimentale, sans en rechercher directement les pa-
ramètres ou la fonction de transfert (celle-ci n’existant par ailleurs que dans le
cas linéaire). Le problème de l’identification non-paramétrique est de définir les
conditions d’expérience à satisfaire pour que les réponses mesurées reflètent le
comportement effectif (celui que le régulateur verra) du système que l’on étudie
et d’en chiffrer le degré de concordance.
Il faut en effet réaliser qu’à cause des bruits et autres perturbations, l’on n’a
pas accès au signal de sortie du "vrai" système (figure 8.1).

v ( t ) n ( t )

" v 1 r a i "
S
u ( t ) y ( t )

s y s st è m e
f _ 0 8 _ 0 4 . e p s

Fig. 8.1 – On n’a pas accès au signal de sortie du "vrai" système, celui-ci étant
perturbé par v(t) subissant l’influence des bruits n(t) (fichier source).

Lorsque l’on souhaite déterminer expérimentalement le comportement fré-

Chapitre 8 : Identification, v.1.8 273 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

quentiel de systèmes dynamiques linéaires, deux problèmes clés doivent être ré-
solus :
– on doit s’assurer autant que possible que la durée d’acquisition corresponde
à un nombre entier de périodes du signal de sortie du système. Cela est ré-
solu en tenant compte des indications données dès le §8.1.2, où l’on s’arrange
pour que les signaux acquis puissent être considérés comme périodiques ;
– la minimisation de l’effet du bruit (y compris perturbations). Cela se fait
en augmentant la durée d’aquisition (nombre N de points), en traitant le
spectre des signaux (par exemple par moyennage) ou en choisissant judi-
cieusement le signal d’excitation u(k).

8.1.1 Estimation de réponse harmonique : ETFE [12]


On considère un système dynamique linéaire de "vraie" fonction de transfert
G0 (z), ayant u(k) pour entrée et dont la sortie est perturbée par un bruit v(k)
(figure 8.2). On a :

X
y(k) = g0 (l) · u(k − l) + v(k) = g0 (k) ∗ u(k) + v(k)
l=0

v ( k )

1
G ( z ) S
u ( k ) y ( k )
0
s
f _ 0 5 _ 0 5 . e p s

Fig. 8.2 – Représentation du problème : la vraie fonction de transfert est G0 (z)


et l’ensemble des signaux perturbateurs, i.e. non-corrélés avec u(k), est représenté
par v(k) (fichier source).

Il vaut ici la peine de remarquer que l’on ne cherche pas à identifier un modèle
analogique, par exemple une fonction de transfert Ga (s), mais directement le
modèle échantillonné G0 (z). Analytiquement, ces 2 fonctions de transfert sont
liées par la relation (§ 5.5.2 page 153) :
  
Y (z) −1
 −1 Ga (s)
G0 (z) = = 1−z ·Z L
U (z) s
Le signal d’entrée u(k), que l’on peut en principe imposer lors des travaux dédiés
à l’identification, est plutôt de nature déterministe alors que la perturbation v(k)
est de nature stochastique. On admet que ses paramètres statistiques sont

Chapitre 8 : Identification, v.1.8 274 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

– µ = E [v(k)] = 0, i.e. la moyenne de v(k) est nulle ;


– σ = E (v(k) − µ)2 = λ, i.e. la variance de v(k) est égale à λ. Notons que
2


σ = λ représente ici la (vraie) valeur efficace du bruit v(k).
Un bref rappel des notions relatives aux signaux aléatoires est donné à l’an-
nexe 8.B page 319.
Le problème posé est de déterminer une estimation Ĝ(ej·ω·h ) de la réponse
harmonique G0 (ej·ω·h ) de G0 (z), sachant qu’expérimentalement, seuls N échan-
tillons ont été prélevés sur les signaux u(k) et y(k) : on a donc a disposition
uN (k), yN (k) ainsi que les paramètres µ et λ du bruit v(k).
En allant droit au but, il est clair qu’une estimation de G0 (ej·ω·h ), d’une qua-
lité à définir, peut être obtenue en calculant les transformées de Fourier discrètes
(ci-après TFD, voir § 8.C page 322) UN (ω) et YN (ω) de uN (k) et de yN (k) res-
pectivement puis en évaluant :
PN −1 −j·ω·k·h
j·ω YN (ω) F{yN (k)} k=0 yN (k) · e
ĜN (e )= = = PN −1 (8.1)
UN (ω) F{uN (k)} k=0 uN (k) · e
−j·ω·k·h

Cette estimation porte le nom de ETFE (empirical transfer function estimate).

8.1.2 Propriétés de l’ETFE


On peut montrer [[12], §6.3, p.147] que

YN (ω) RN (ω) VN (ω)


ĜN (ej·ω ) = = G0 (ej·ω ) + + (8.2)
UN (ω) UN (ω) UN (ω)


1
|RN (ω)| ∝ √
N
et VN (ω) est la transformée Fourier de vN (k). On observe d’emblée que l’esti-
mation ĜN (ej·ω ) de G0 (ej·ω ) est d’autant meilleure que le nombre N est élevé,
puisque |RN (ω)| ∝ √1N .

Cas particulier : u(k) périodique On peut montrer que si u(k) est périodique
de période égale à un multiple de N ·h, i.e. si uN (k) est une période ou un nombre
entier de périodes de u(k), alors RN (ω) = 0 pour ω = 2·π h
· i · N1 , i = 0 . . . N − 1,
i.e. aux fréquences auxquelles la TFD est définie. Dans le but d’annuler RN (ω),
il y a donc intérêt à ce que le signal u(k) soit périodique de période N · h.
C’est ce qui est fait avec le logiciel AcqBode (actuellement RTPWatch) créé par
le Prof. F.Mudry dans le but d’identifier les systèmes dynamiques linéaires :
on calcule la transformée de Fourier discrète de deux signaux correspondant à
l’excitation et à la réponse du système étudié. Le signal d’excitation u(k) prend

Chapitre 8 : Identification, v.1.8 275 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Signaux (v(k)=0)
1

0.8

u(k), uN(k)
0.6

0.4

0.2

0
0 0.05 0.1 0.15 0.2 0.25

0.2

0.15
y(k)|v=0, yN(k)|v=0

0.1

0.05

0
0 0.05 0.1 0.15 0.2 0.25
t [s]

f_fft_03_01_2.eps

Fig. 8.3 – Signal d’excitation u(k) = uN (k) et réponse y(k) = yN (k). yN (k) ne
constitue à l’évidence pas un nombre entier de périodes de y(k), comme requis
selon la relation (8.2) pour que le terme R N (ω)
UN (ω)
s’annule. L’estimation de la réponse
harmonique ĜN (ej·ω·h ) est donnée sur la figure 8.4 page suivante (fichier source).

la forme d’une suite binaire pseudo aléatoire (SBPA) de N points, répétée R = 2


fois afin de mettre la sortie y(k) du système en régime permanent périodique.
Les N derniers points seuls, i.e. la dernière période seule, sont alors prélevés
et leurs TFD calculée. Si les termes transitoires ont effectivement disparu, on
calcule effectivement la TFD d’un signal périodique et le terme RN (ω) est nul
aux fréquences auxquelles ĜN (ej·ω·h ) est évaluée.

Exemple
Pour illustrer l’importance du signal d’excitation u(k), on effectue les 3 tests
suivants, avec v(k) = 0, i.e. sans bruit afin séparer les problèmes. De ce fait, la
relation (8.2) devient
0
z }| {
R N (ω) VN (ω) RN (ω)
ĜN (ej·ω ) = G0 (ej·ω ) + + = G0 (ej·ω ) +
UN (ω) UN (ω) UN (ω)
On examine les cas suivants :
1. u(k) = ∆(k) : c’est un signal qui est spectralement très riche, mais qui ne
met pas le système G0 (z) dans un état de régime permament périodique. La
figure 8.3 montre les signaux uN (k) et yN (k) et la figure 8.4 page suivante
le diagramme de Bode de ĜN (ej·ω·h ) correspondant.
2. uN (k) constitué de deux impulsions unité discrètes, la première en k = 0
et la seconde, avec une polarité inversée, en k = N2 . Ce signal de base est

Chapitre 8 : Identification, v.1.8 276 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

jω h
Diagrammes de Bode de G0(e ) et YN(ω)/UN(ω) (pour v(k)=0)
40

20

−20

−40

−60

−80

−100
0 1 2 3
10 10 10 10

200

100

−100
G0(ejω h)
YN(ω)/UN(ω)|v=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_01_4.eps

Fig. 8.4 – Comparaison de la vraie réponse harmomique G0 (ej·ω·h ) et de son


estimation ĜN (ej·ω·h ), avec uN (k) et yN (k) selon figure 8.3 page précédente. Le
mauvais résultat s’explique par le fait que le terme R N (ω)
UN (ω)
de la relation (8.2) est
non-nul, yN (k) n’étant manifestement pas une période de y(k) (fichier source).

répété R = 2 fois, ce qui dans le cas particulier met y(k) dans un état de
régime quasi permament périodique pour k > N (figure 8.5 page suivante).
La dernière période de y(k) est donc extrayable telle quelle pour effectuer
l’analyse selon (8.1 ) et les résultats (figure 8.6 page suivante) sont meilleurs
que précédemment (figure 8.4).

Chapitre 8 : Identification, v.1.8 277 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Signaux (v(k)=0)
1

0.5

u(k), uN(k)
0

−0.5

−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5

0.25

0.2
y(k)|v=0, yN(k)|v=0

0.15

0.1

0.05

−0.05

−0.1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]

f_fft_03_02_2.eps

Fig. 8.5 – Signal d’excitation u(k) et réponse y(k). u(k) est constitué de R = 2
périodes. On observe que les transitoires sont amorties dès la fin de la première
période. De ce fait, le signal y(k) peut être admis périodique de période N · h
pour k ≥ N . Si l’on avait généré u(k) avec une période de plus (R = 3), on au-
rait simplement obtenu une 3ème période. L’estimation de la réponse harmonique
ĜN (ej·ω·h ) est donnée sur la figure 8.6 (fichier source).

jω h
Diagrammes de Bode de G0(e ) et YN(ω)/UN(ω) (pour v(k)=0)
40

20

−20

−40

−60

−80

−100
0 1 2 3
10 10 10 10

200

100

−100
G0(ejω h)
YN(ω)/UN(ω)|v=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_02_4.eps

Fig. 8.6 – Comparaison de la vraie réponse harmomique G0 (ej·ω·h ) et de son


estimation ĜN (ej·ω·h ), avec uN (k) et yN (k) selon figure 8.5. La légère discordance
apparaissant aux fréquences élevées est due au fait que le signal prélevé yN (k)
comporte encore des termes transitoires. Un signal d’excitation u(k) comportant
une période de plus résoudrait le problème (fichier source).

Chapitre 8 : Identification, v.1.8 278 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Signaux (v(k)=0)
1

0.5

u(k), uN(k)
0

−0.5

−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5

1.5
y(k)|v=0, yN(k)|v=0

0.5

−0.5
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]

f_fft_03_03_2.eps

Fig. 8.7 – Signal d’excitation u(k) et réponse y(k). On ne prélève que les N der-
niers échantillons, ce qui correspond à une période du signal y(k) admis périodique
pour k ≥ N (les N premiers échantillons correspondant au régime transitoire).
L’estimation de la réponse harmonique ĜN (ej·ω·h ) est donnée sur la figure 8.8
(fichier source).

3. uN (k) est cette fois une SBPA (figure 8.7), répétée également R = 2 fois.
Les résultats (figure 8.8) sont équivalents au cas précédent (figure 8.6 page
précédente).

jω h
Diagrammes de Bode de G0(e ) et YN(ω)/UN(ω) (pour v(k)=0)
40

20

−20

−40

−60

−80

−100
0 1 2 3
10 10 10 10

200

100

−100
G0(ejω h)
YN(ω)/UN(ω)|v=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_03_4.eps

Fig. 8.8 – Comparaison de la vraie réponse harmomique G0 (ej·ω·h ) et de son


estimation ĜN (ej·ω·h ), avec uN (k) et yN (k) selon figure 8.7 (fichier source).

Chapitre 8 : Identification, v.1.8 279 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

8.1.3 Propriétés statistiques de l’ETFE


Les propriétés statistiques (notamment la moyenne et la variance) de ĜN (ej·ω·h )
relativement à l’entrée stochastique v(k) permettent de chiffrer la qualité de l’es-
timation.

Moyenne
L’espérance mathématique de ĜN (ej·ω·h ) doit montrer si l’estimateur ĜN (ej·ω·h )
tend bel et bien vers G0 (ej·ω·h ). On a [[12], §6.3, p.148] :
   
h
j·ω·h
i  j·ω·h
 RN (ω) VN (ω)
E ĜN (e ) = E G0 (e ) +E + E
| {z } UN (ω) UN (ω)
G0 (ej·ω·h )
| {z } | {z }
RN (ω) 0 car
UN (ω) E [VN (ω)] =
F {E [v(k)]} = 0

On voit que
ĜN (ej·ω·h ) −→ G0 (ej·ω·h ) pour N −→ ∞
puisque limN →∞ RN (ω) = 0 et E [v(k)] = 0. ĜN (ej·ω·h ) est ainsi un estimateur
non biaisé de G0 (ej·ω·h ).

Variance
j·ω·h
La variance dehl’estimateur i ĜN (e ) montre comment fluctue celui-ci autour
de sa moyenne E ĜN (ej·ω·h ) = G0 (ej·ω·h ). On montre que [[12], §6.3, p.149] :
 2 
j·ω·h j·ω·h Φv (ω)
E ĜN (e ) − G0 (e ) −→ pour N −→ ∞
|UN (ω)|2
où Φv (ω) est la densité spectrale de puissance ("spectre", § 8.C.12 page 329) de
l’entrée stochastique v(k) et UN (ω) est la transformée de Fourier de uN (k). On
voit que la variance de l’estimateur ne tend pas vers 0, même pour un grand
nombre N d’échantillons, mais vers
Φv (ω)
|UN (ω)|2
La variance de ĜN (ej·ω·h ) est donc dépendante du spectre (plus pécisément de
la densité spectrale de puissance) Φv (ω) du bruit v(k). Si Φv (ω) est donnée, la
variance ne peut être réduite qu’en choisissant |UN (ω)| de manière à diminuer le
rapport |UΦv(ω)|
(ω)
2 . On conçoit dès lors que le choix d’un signal d’excitation spec-
N
tralement très riche est un avantage. La conséquence de ce fait est que souvent,
le graphe de la réponse harmonique est très fluctuant lorsque le rapport signal
sur bruit n’est pas satisfaisant (figures 8.9 page suivante, 8.13 page 284 et 8.15
page 285, la figure 8.15 page 285 montrant l’amélioration obtenue en augmentant
la densité spectracle de uN (k)).

Chapitre 8 : Identification, v.1.8 280 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Diagramme de Bode de YN(ω)/UN(ω)


−50

−60

−70

−80

−90

−100

−110

−120
1 2 3 4
10 10 10 10

200

100

−100

YN(ω)/UN(ω)|
−200
1 2 3 4
10 10 10 10
ω [rad/s]
f_lse_m_03_9.eps

Fig. 8.9 – Même dans de bonnes conditions d’expériences (ici un cas réel d’iden-
tification d’un système mécanique comportant une élasticité, schéma technolo-
gique de la figure 8.10 page suivante), l’ETFE ĜN (ej·ω·h ) fournit une réponse très
fluctuante, principalement à cause du bruit v(k). Cela est la conséquence de la
variance de ĜN (ej·ω·h ), laquelle est dépendante du spectre de v(k) et tend vers
Φv (ω)
|U (ω)|2
. A v(k) donné, on ne peut donc réduire la variance qu’en choisissant un
N

signal d’excitation uN (k) tel que |UN (ω)|2 soit élevé (fichier source).

Chapitre 8 : Identification, v.1.8 281 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

c o e f f i c i e n t d e

f r o t t e m e n t v i s q u e u x :

d e s p a l i e r s

R f
[ N m s / r a d ]
T e m
( t ) q 1
( t ) q 2
( t )

R f
R f

r i g i d i t é d e l 'a r b r e

d e t r a n s m i s s i o n :

k [ N m / r a d ]

i n e r t i e d u r o t o r : i n e r t i e d e l a c h a r g e : f _ 0 8 _ 0 6 . e p s

J 1
J 2

Fig. 8.10 – Schéma technologique d’un système mécanique (supposé linéaire),


possédant un arbre élastique (i.e. non infiniment rigide). La consigne de couple
moteur u(k) = Temc (k) a été imposée (SBPA) et la vitesse (y(k) = ω(k)) de celui-
ci a été mesurée avant de calcul l’ETFE. Les résultats de l’ETFE sont indiqués
sur la figure 8.9 page précédente et les signaux sont visibles sur la figure 8.11
(fichier source).

Signal d’entrée : SBPA de 1024 points


3

1
u (k)

0
N

−1

−2

−3
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

x 10
−3 Réponse du système à la SBPA
3

1
y (k)

0
N

−1

−2

−3
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
t [s]

f_lse_m_03_1.eps

Fig. 8.11 – Signal d’excitation et réponse du système représenté sur la figure 8.10
(fichier source).

Chapitre 8 : Identification, v.1.8 282 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Signaux
1

0.5

u(k), uN(k)
0

−0.5

−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5

0.3

v≠0 0.2
, y (k)|
N

0.1
v=0
y (k)|

0
N

−0.1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5

0.04

0.02
v(k)

−0.02

−0.04
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]

f_fft_03_04_1.eps

Fig. 8.12 – Signal d’excitation uN (k), réponse yN (k) et bruit v(k). L’estimation
de la réponse harmonique ĜN (ej·ω·h ) est donnée sur la figure 8.13 page suivante
(fichier source).

Corrélation entre deux fréquences voisines


Les estimations fournies par ĜN (ej·ω·h ) à deux fréquences différentes f1 et f2
ne sont asymptotiquement pas corrélées ! On montre que [[12], §6.3, p.149]
h   i
j·ω1 ·h j·ω1 ·h j·ω2 ·h j·ω2 ·h
E ĜN (e ) − G0 (e ) · ĜN (e ) − G0 (e )
−→ 0 pour N −→ ∞

Cela signifie par exemple que l’estimateur ne voit pas de dépendance forte entre
le gain de la fonction de transfert à deux fréquences voisines l’une de l’autre.
Or, cela contredit l’expérience, puisque l’on sait que la réponse harmonique d’un
système linéaire ne varie que de manière "douce".

Exemple
On considère maintenant le même système que le premier exemple traité
(§ 8.1.2 page 276), désormais perturbé par un bruit √ v(k) de moyenne µ nulle
et de variance λ = 0.0001, soit une valeur efficace σ = λ = 0.01.
– Dans un premier temps, le système excité un signal uN (k) formé à nouveau
par la répétition périodique (R = 2 fois) de deux impulsions unité discrètes
de signes opposés (selon figure 8.5 page 278). Ce signal est également donné
sur la figure 8.12, avec le signal de sortie yN (k), bruité par la perturbation
v(k) également figurée.
– le système est ensuite maintenant excité par une SBPA (figure 8.14 page
suivante). Les résultats sont donnés à la figure 8.15 page 285 qui montre

Chapitre 8 : Identification, v.1.8 283 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

jω h
Diagrammes de Bode de G0(e ), YN(ω)/UN(ω) (pour v(k)=0) et YN(ω)/UN(ω) avec bruit v(k) de variance λ=0.0001
40

20

−20

−40

−60

−80

−100
0 1 2 3
10 10 10 10

200

100

G (ejω h)
0
−100
YN(ω)/UN(ω)|v=0
YN(ω)/UN(ω)|v ≠=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_04_6.eps

Fig. 8.13 – Comparaison de la vraie réponse harmomique G0 (ej·ω·h ) et de son


estimation ĜN (ej·ω·h ), avec uN (k) et yN (k) selon figure 8.12 page précédente. Les
résultats de l’estimateur sans bruit sont également donnés (fichier source).

une amélioration substantielle par rapport à ceux de la figure 8.13 page


suivante.
Cet exemple met en évidence l’importance du signal d’excitation. Dans le dernier
cas, les résultats obtenus sont meilleurs car la variance asymptotique

Φv (ω)
|UN (ω)|2

de ĜN (ej·ω·h ) a été diminuée en choisissant un signal d’excitation ayant |UN (ω)|
élevé.
Néanmoins, la comparaison de l’estimateur ETFE avec la vraie réponse har-
monique montre, même dans le cas de la figure 8.15, toute la difficulté qu’il y a
à identifier la réponse fréquentielle de systèmes dynamiques.
En guise de conclusion de cet exemple, on choisit maintenant un signal d’exci-
tation uN (k) constitué d’une somme de sinus d’amplitude 1, de fréquences variant
de ∆fN
e
à N2 · ∆f
N
e
et de phase aléatoire à distribution uniforme (µ = 0, σ = 1).
Ce signal a pour propriété d’avoir une densité spectrale de puissance encore plus
élevée que la SBPA, i.e. d’être plus puissant pour chaque composante spectrale.
Répété R = 2 fois, ce signal est donné sur la figure 8.16 page suivante et la
réponse harmonique de l’estimateur se trouve sur la figure 8.17 page 287.

Chapitre 8 : Identification, v.1.8 284 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Signaux
1

0.5

u(k), uN(k) 0

−0.5

−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5

2
yN(k)|v=0, yN(k)|v ≠ 0

−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5

0.04

0.02
v(k)

−0.02

−0.04
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]

f_fft_03_05_1.eps

Fig. 8.14 – Signal d’excitation uN (k), réponse yN (k) et bruit v(k). L’estimation
de la réponse harmonique ĜN (ej·ω·h ) est donnée sur la figure 8.15 page ci-contre
(fichier source).

Diagrammes de Bode de G0(ejω h), YN(ω)/UN(ω) (pour v(k)=0) et YN(ω)/UN(ω) avec bruit v(k) de variance λ=0.0001
40

20

−20

−40

−60

−80

−100
0 1 2 3
10 10 10 10

200

100

G0(ejω h)
−100
YN(ω)/UN(ω)|v=0
YN(ω)/UN(ω)|v ≠=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_05_6.eps

Fig. 8.15 – Comparaison de la vraie réponse harmomique G0 (ej·ω·h ) et de son


estimation ĜN (ej·ω·h ), avec uN (k) et yN (k) selon figure 8.14 page ci-contre. Les
résultats de l’estimateur sans bruit sont également donnés (fichier source).

Chapitre 8 : Identification, v.1.8 285 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Signaux
40

20
u(k), uN(k)

−20

−40
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5

15
yN(k)|v=0, yN(k)|v ≠ 0

10

−5
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5

0.04

0.02
v(k)

−0.02

−0.04
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]

f_fft_03_06_1.eps

Fig. 8.16 – Signal d’excitation uN (k), réponse yN (k) et bruit v(k). L’estimation
de la réponse harmonique ĜN (ej·ω·h ) est donnée sur la figure 8.17 page suivante
(fichier source).

Chapitre 8 : Identification, v.1.8 286 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Diagrammes de Bode de G0(ejω h), YN(ω)/UN(ω) (pour v(k)=0) et YN(ω)/UN(ω) avec bruit v(k) de variance λ=0.0001
40

20

−20

−40

−60

−80

−100
0 1 2 3
10 10 10 10

200

100

G0(ejω h)
−100
Y (ω)/U (ω)|
N N v=0
YN(ω)/UN(ω)|v ≠=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_06_6.eps

Fig. 8.17 – Comparaison de la vraie réponse harmomique G0 (ej·ω·h ) et de son


estimation ĜN (ej·ω·h ), avec uN (k) et yN (k) selon figure 8.16 page précédente. Les
résultats de l’estimateur sans bruit sont également donnés (fichier source).

Chapitre 8 : Identification, v.1.8 287 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

8.1.4 Amélioration de la variance de l’ETFE : moyennage


et lissage
Pour diminuer la variance de l’estimation ĜN (ej·ω·h ), on peut prendre en
compte le fait que la valeur moyenne du bruit v(k) est nulle. En répétant l’expé-
rience plusieurs fois (disons R fois N points, soit un nombre total de M = R · N
points) et en sommant les réponses fréquentielles estimées, on diminue la variance
du facteur R. On a :
R
j·ω·h 1 X
ĜM (e )= · ĜN (ej·ω·h )
R l=1

L’inconvénient de cette manière de faire est évidemment que la durée des essais est
prolongée d’un facteur R, puisqu’il faut acquérir R · N mesures. Une alternative
[[13], §8.5, p.212] consiste à partager un ensemble existant de N mesures en
R sous-ensembles de M points et à calculer ĜM (ej·ω·h ) pour chacun des sous-
ensembles avant de sommer. On a :
R
1 X
ĜN (ej·ω·h ) = · ĜM (ej·ω·h )
R l=1

La variance est également divisée par R mais en revanche la résolution fréquen-


tielle (§ 8.C.9 page 326) est dégradée, puisque l’on aura

fe fe fe
∆f = =R· =R·
M R · M}
| {z N
N

La résolution fréquentielle est ainsi R fois plus grossière. Cette dernière manière
de faire porte le nom de méthode de Welch.
Une méthode d’amélioration de la variance de l’estimation ĜN (ej·ω·h ) consiste
à lisser la réponse harmonique obtenue à l’aide d’un filtre (ce que font sans autre
nos propres yeux !). C’est la méthode de Blackman-Tukey, décrite dans [[12],§6.4]
et [[13], §8.5].

Chapitre 8 : Identification, v.1.8 288 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

8.2 Identification paramétrique


L’identification paramétrique a pour objectif d’estimer chacun des paramètres
de la fonction de transfert supposée

Y (z) b1 · z −1 + b2 · z −2 + . . . + bn−1 · z −n+1 + bn · z −n B(z)


G(z) = = =
U (z) 1 + a1 · z −1 + . . . + an−1 · z −n+1 + an · z −n A(z)

d’un système dynamique linéaire discret. U (z) et Y (z) sont respectivement les
transformées en z des signaux temporels discrets d’entrée u(k) et de sortie y(k).
k ∈ Z est l’instant d’échantillonnage, i.e. un entier relatif tel que t [s] = k · h
où h est la période (constante) d’échantillonnage en [s]. Les signaux discrets u(k)
et y(k) que l’on considère sont admis nuls pour k < 0, ce qui revient à dire :

u(k) = 0 pour k<0


y(k) = 0 pour k<0

La théorie de la transformation en z permet facilement de retrouver l’équation


aux différences décrivant le comportement du système dans le domaine temporel ;
on a en effet, sachant que l’opérateur z −1 correspond à un retard d’une période
d’échantillonnage h :

y(k) + a1 · y(k − 1) + . . . + an−1 · y(k − n + 1) + an · y(k − n)


= b1 · u(k − 1) + . . . + bn−1 · u(k − n + 1) + bn · u(k − n) (8.3)

Les méthodes d’identification paramétrique se doivent donc de délivrer les esti-


mations (les notations utilisées normalement pour désigner une estimation, i.e.
âi et b̂j , sont abandonnées pour alléger la notation) :

a1 a2 ... an b1 b2 ... bn

La qualité des estimations doit pouvoir être chiffrée, typiquement par l’intermé-
diaire de la moyenne et de la variance de chaque paramètre estimé.

8.2.1 Structures de modèles


On présente dans ce paragraphe 2 structures permettant de représenter des
systèmes physiques linéaires ayant une entrée (déterministe) u(k), une entrée
stochastique v(k) et une sortie y(k). Ces structures ont pour caractéristique re-
marquable de modéliser, avec une dynamique appropriée, l’influence du bruit/des
perturbations agissant sur le système.
L’ensemble des effets des bruits et perturbations sont représentées par le si-
gnal stochastique v(k), lui-même étant généré avec une dynamique H(z) par le
signal également stochastique e(k), de type bruit blanc, de distribution normale

Chapitre 8 : Identification, v.1.8 289 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

e ( k )

H ( z )

v ( k )

1
G ( z ) S
u ( k ) y ( k )

s
f _ 0 5 _ 0 1 . e p s

Fig. 8.18 – Modèle de structure générale, prenant en compte les perturbations


v(k) en filtrant un bruit blanc e(k) avec la dynamique H(z) (fichier source).

(Gauss), à moyenne µ nulle et à variance σ 2 = λ. e(k) étant externe au sys-


tème et indépendant, on dénomme e(k) "variable exogène", la lettre x expliquant
l’adjonction de X aux modèles standards AR et ARMA connus en traitement de
signal et devenant ainsi ARX (p.290) et ARMAX (p.292).
La structure générale est représentée par la figure 8.18, et l’on peut écrire :

Y (z) = G(z) · U (z) + H(z) · E(z)

On se limite ici à la présentation de 2 structures particulières, ARX et AR-


MAX. On se référera à [[12], §4.2] pour un traitement détaillé.

Structure ARX
Dans le cas de la structure ARX (AR="AutoRegressive", X="eXogeneous"
ou "eXtra" variable), le bruit e(k) perturbe la sortie brute de la fonction de
transfert G(z) du système via la dynamique

1
H(z) =
A(z)

alors que le système lui-même est représenté par


B(z)
z }| {
−1 −2 −n+1 −n
B(z) b1 · z + b2 · z + . . . + bn−1 · z + bn · z
G(z) = = −1 −n+1
A(z) 1 + a1 · z + . . . + an−1 · z + an · z −n
| {z }
A(z)

Chapitre 8 : Identification, v.1.8 290 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

e ( k )

A ( z )

v ( k )

B 1 ( z )
S
u ( k ) y ( k )

A s
( z ) f _ 0 5 _ 0 2 . e p s

Fig. 8.19 – Modèle de structure ARX (fichier source).

On a donc :
B(z) 1
Y (z) = ·U (z) + ·E(z)
A(z) A(z)
| {z } | {z }
G(z) H(z)

et l’équation aux différences associée à cette structure est donc :

y(k) + a1 · y(k − 1) + . . . + an−1 · y(k − n + 1) + an · y(k − n)


= b1 · u(k − 1) + . . . + bn−1 · u(k − n + 1) + bn · u(k − n)
+ e(k)

L’inconvénient de cette structure est qu’elle impose par A(z) une dynamique
commune pour la propagation du signal d’entrée u(k) et du bruit e(k). On conçoit
que ce modèle ne puisse convenir pour certaines applications. Une conséquence
en est que l’identification des paramètres par la méthode des moindre carrés
présentée au § 8.2.2 page 294 a tendance à favoriser une bonne identification du
système G(z) = B(z)A(z)
aux hautes fréquences, au détriment des basses fréquences
([[12], §8.5 p.228 et relation (8.68)]).

Chapitre 8 : Identification, v.1.8 291 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Modèle de structure ARMAX


Avec la structure ARMAX (AR = "auto-regressive, "MA="moving average",
X=eXogeneous, figure 8.20), on offre comparativement à la structure ARX un
degré de liberté supplémentaire pour modéliser la dynamique des perturbations
e(k) en les faisant intervenir sur le système avec la fonction de transfert
C(z)
z }| {
−1 −2 −nc +1 −nc
V (z) 1 + c1 · z + c2 · z + . . . + cnc −1 · z + cnc · z C(z)
H(z) = = −1 −na +1 −na =
E(z) 1 + a1 · z + . . . + ana −1 · z + ana · z A(z)
| {z }
A(z)

Grâce à C(z), on peut avoir des dynamiques très différentes entre u(k) (signal
déterministe, contrôlé) et y(k) et entre e(k) (bruit blanc à µ = 0 et σ 2 connu) et
y(k), ce qui compense en partie les lacunes de la structure ARX.

e ( k )

C ( z )

A ( z )

v ( k )

B 1 ( z )
S
u ( k ) y ( k )

A s
( z )
f _ 0 8 _ 0 3 . e p s

Fig. 8.20 – Modèle de structure ARMAX (fichier source).

On a
B(z) C(z)
Y (z) = ·U (z) + ·E(z)
A(z) A(z)
| {z } | {z }
G(z) H(z)

avec
B(z)
z }| {
−1 −2 −nb +1 −nb
b1 · z + b2 · z + . . . + bnb −1 · z + bnb · z B(z)
G(z) = −1 −na +1 −na =
1 + a1 · z + . . . + ana −1 · z + ana · z A(z)
| {z }
A(z)

Chapitre 8 : Identification, v.1.8 292 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

L’équation aux différences correspondante est :

y(k) + a1 · y(k − 1) + . . . + ana −1 · y(k − na + 1) + ana · y(k − na )


= b1 · u(k − 1) + . . . + bnb −1 · u(k − nb + 1) + bnb · u(k − nb ) (8.4)
+e(k) + c1 · e(k − 1) + . . . + cnc −1 · e(k − nc + 1) + cnc · e(k − nc )

Chapitre 8 : Identification, v.1.8 293 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

8.2.2 Méthode PEM


Lorsque l’on a sélectionné une structure de modèle (ARX, ARMAX, etc,
§ 8.2.1 page 289) potentiellement capable de représenter le système dynamique
linéaire que l’on souhaite identifier ainsi que la nature des perturbations v(k)
l’affectant, il reste à déterminer les valeurs numériques de ses paramètres, i.e. à
effectuer une identification paramétrique.

e ( k )

H ( z )

v ( k )

1
G ( z ) S
u ( k ) y ( k )

s
f _ 0 5 _ 0 1 . e p s

Fig. 8.21 – Modèle de structure générale, prenant en compte les perturbations


v(k) en filtrant un bruit blanc e(k) avec la dynamique H(z) (fichier source).

Si l’on se replace dans le contexte de l’identification de la réponse fréquentielle


vu au § 8.1 page 273, où l’estimateur ETFE ĜN (ej·ω ) fournissait le gain et la phase
(estimés) d’une fonction de transfert G0 (z) en plusieurs fréquences (et non pas la
fonction de transfert elle-même), on cherche ici directement un estimateur pour
chacun des paramètres de la même fonction de transfert G0 (z).
On présente ici la méthode PEM ("prediction-error identification method"),
une technique permettant d’obtenir les valeurs numériques des paramètres des
fonctions de transfert G(z) et H(z) d’un modèle de structure générale (figure 8.21).
Une alternative à la méthode PEM est celle des variables instrumentales, non
traitée ici.
La méthode PEM se base sur la comparaison du signal de sortie y(k) du vrai
système et de celui d’un prédicteur ŷ(k) de cette même sortie. Comme son nom le
sous-entend, ledit prédicteur ŷ(k) est conçu de façon à ce qu’il soit en mesure de
prédire au mieux le signal de sortie y(k) à l’instant présent en ne se basant que
que sur les informations disponibles jusqu’à l’instant précédent, i.e. à l’instant
k − 1.
On peut montrer que le prédicteur ŷ(k) prend la forme générale [[12], §3.3,

Chapitre 8 : Identification, v.1.8 294 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

p.56]  
G(z) 1
Ŷ (z) = · U (z) + 1 − · Y (z) (8.5)
H(z) H(z)
L’établissement de ce prédicteur dans le cas particulier de la structure ARX est
fait dans le § 8.2.3 page 297.
La méthode PEM a donc pour objectif trouver les paramètres des fonctions
de transfert G(z) et H(z) de telle façon que l’erreur de prédiction
(k) = y(k) − ŷ(k)
soit minimisée.
B(z)
Dans le cas d’une structure ARX (§ 8.2.1 page 290), on a G(z) = A(z)
et
1 B(z) C(z)
H(z) = A(z) , alors que G(z) = et H(z) =
A(z) A(z)
pour une structure ARMAX
(§ 8.2.1 page 292).
Partant d’un ensemble de N mesures yN (k) correspondant aux entrées uN (k),


on réunit les paramètres de G(z) et H(z) à identifier dans le vecteur-colonne θ ,
lequel prend dans le cas de la structure ARX la forme
→ 
− T
θ = a1 a2 . . . a n b 1 b 2 . . . b n

−̂ →

et l’on utilise la méthode PEM pour fournir une estimation θ N de θ minimisant
la fonction
− N −1
→  1 X
VN θ , yN (k), uN (k) = · `((k))
N k=0
où (k) correspond donc à l’erreur de prédiction y(k) − ŷ(k). On obtient :

− n − → o
θ N = arg min VN θ , yN (k), uN (k)
−
→ 
à comprendre comme "θ̂N est la valeur de l’argument θ de la fonction VN θ , yN (k), uN (k)
minimisant VN ".

− −
→ 
L’estimateur θ N recherché doit donc minimiser la fonction VN θ , yN (k), uN (k)
à partir des signaux d’entrée uN (k) et de sortie yN (k), où N correspond au nombre
d’échantillons prélevés.
Un cas particulier très important est celui où la fonction `((k)) est quadra-
tique :
 2
− N −1 N −1
→  1 X1  1 X1
VN θ , yN (k), uN (k) = · · y(k) − ŷ(k) = · · (k)2 (8.6)

N k=0 2 | {z } N k=0 2
(k)

Dans ce cas, on indique dans le § 8.2.3 page 297 qu’il existe même une solution


analytique pour θ N .

Chapitre 8 : Identification, v.1.8 295 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Exemple
Reprenant l’exemple du système mécanique traité aux figures 8.10, 8.11 et
8.9, on présente ci-dessous (figure 8.22) les résultats de l’identification paramé-
trique par l’intermédiaire de la réponse harmonique Ĝ(ej·ω·h ) de l’estimateur Ĝ(z)
du modèle G(z) dont les paramètres ont été identifiés. Le modèle choisi a une
structure ARMAX. La comparaison l’estimation non-paramétrique (ETFE) de la
réponse harmonique montre une très bonne concordance. Fait remarquable, alors
que l’affichage de l’ETFE tel qu’il est présenté sur la figure nécessite 1024 infor-
mations, celui de Ĝ(ej·ω·h ) n’en nécessite que 9, correspondant aux paramètres
estimés b0 . . . b5 et a1 . . . a5 de Ĝ(z), d’où un facteur de compression d’information
important.

Diagrammes de Bode de GARMAX(ejω h), YN(ω)/UN(ω)


−50

−60

−70

−80

−90

−100

−110

−120
−1 0 1 2 3
10 10 10 10 10

200

100

−100
G(ejω h)
YN(ω)/UN(ω)|
−200
−1 0 1 2 3
10 10 10 10 10
f [Hz]
f_lse_m_03_8.eps

Fig. 8.22 – L’identification paramétrique du système mécanique conduit à une


très bonne concordance avec l’identification de la réponse fréquentielle. On ob-
serve un effet de lissage de l’ETFE. En cela, le procédé pourrait être vu comme
une alternative aux méthodes discutées au § 8.1.4 page 288. Mais l’identifica-
tion paramétrique apporte bien plus puisqu’elle offre directement la fonction de
transfert estimée Ĝ(z) du système linéaire étudié (fichier source).

La fonction de transfert obtenue est

b 0 · z 5 + b1 · z 4 + b 2 · z 3 + b3 · z 2 + b 4 · z + b 5
Ĝ(z) =
z 5 + a1 · z 4 + a2 · z 3 + a3 · z 2 + a5 · z + a5
3.917 · 10−5 · z 5 + 3.469 · 10−5 · z 4 − 10.46 · 10−5 · z 3 + 1.353 · 10−5 · z 2 + 4.631 · 10−5 · z
=
z 5 − 1.286 · z 4 + 0.6549 · z 3 + 0.1233 · z 2 − 0.5827 · z + 0.11

Chapitre 8 : Identification, v.1.8 296 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

avec h = 500 [µs].

8.2.3 Cas particulier : modèle de structure ARX, méthode


des moindres carrés
Soit la fonction de transfert G(z)
B(z) b0 · z m + b1 · z m−1 + . . . + bm−1 · z + bm
G(z) = =
A(z) z n + a1 · z n−1 + . . . + an−1 · z + an
De façon à simplifier la notation, G(z) est tout d’abord présentée sous une forme
légèrement remaniée, avec m = n − 1 (la fonction de transfert de tout système
physiquement réalisable est toujours strictement propre, i.e. n > m) :
B(z)
z }| {
B(z) b1 · z n−1 + b2 · z n−2 + . . . + bn−1 · z + bn
G(z) = =
A(z) z n + a1 · z n−1 + . . . + an−1 · z + an
| {z }
A(z)



En réunissant dans le vecteur-colonne θ l’ensemble des 2 · n paramètres à iden-
tifier  
a1
 a2 
 
. . .
 
→ 
− an 
θ = b1 

 
 b2 
 
. . .
bn
et on considérant un modèle de type ARX,
B(z) 1
Y (z) = · U (z) + · E(z)
A(z) A(z)
on a, dans le domaine temporel :

y(k) + a1 · y(k − 1) + . . . + an−1 · y(k − n + 1) + an · y(k − n)


= b1 · u(k − 1) + . . . + bn−1 · u(k − n + 1) + bn · u(k − n)
+ e(k)
L’estimation ŷ(k) "naturelle" (qui correspond à l’expression générale (8.5) donnée
au § 8.2.2 page 294) de la sortie du système considéré est fournie par

ŷ(k) = −a1 · y(k − 1) − . . . − an−1 · y(k − n − 1) − an · y(k − n)


+ b1 · u(k − 1) + . . . + bn−1 · u(k − n + 1) + bn · u(k − n)

Chapitre 8 : Identification, v.1.8 297 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

avec toutefois l’erreur de prédiction (due à une modélisation inexacte et à la


présence de bruit)
(k) = y(k) − ŷ(k)
En définissant le vecteur −

ϕ (k) comme suit
 
−y(k − 1)
 −y(k − 2) 
 

 ... 


− −y(k − n)
ϕ (k) = 
 u(k − 1) 

 
 u(k − 2) 
 
 ... 
u(k − n)
on a


ŷ(k) = −

ϕ (k)T · θ
et l’erreur de prédiction peut s’écrire


(k) = y(k) − −

ϕ (k)T · θ


La méthode des moindres carrés consiste à trouver θ minimisant la fonction
coût :
 2
− N −1 N −1
→ 1 X1 1 X1  →

· y(k) − −


VN θ , yN (k), uN (k) = · · (k)2 = · ϕ (k)T · θ 
N 2k=0
N 2 |
k=0
{z }
(k)

Il s’agit d’un problème standard en statistique, dont, une fois n’est pas coutume,
la solution existe sous forme analytique ! On a :
n − → o
θ̂N = arg min VN θ , yN (k), uN (k)
#−1
(8.7)
" N −1 N −1
1 X→ − →
− T 1 X− →
= · ϕ (k) · ϕ (k) · · ϕ (k) · y(k)
N k=0 N k=0

Exemple
On considère le système analogique d’ordre 1
Y (s) K 1
Ga (s) = = =
U (s) 1+s·T 1 + s · 0.01
dont le modèle échantillonné est
Y (z) b1
G(z) = =
U (z) z + a1

Chapitre 8 : Identification, v.1.8 298 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

avec

h 0.001
a1 = −e− T = −e− 0.01 = −0.9048
b1 = K · (1 + a1 ) = 1 · (1 + (−0.9048)) = 0.0952

où h est la période d’échantillonnage et vaut 0.001 [s].


L’objectif de l’identification paramétrique est d’obtenir les valeurs numériques
des paramètres a1 et b1 à partir des signaux uN (k) et yN (k).
Dans ce but, on excite le système avec un premier signal u(k) de type carré,
choisi ainsi volontairement riche compte tenu de l’expérience acquise lors de
l’identification de réponses fréquentielles (§ 8.1 page 273). Les signaux sont don-
nés sur la figure 8.23, où l’on observe le bruit v(k) dont la variance est λ =
0.001 = σ 2 ≈ 0.032 .

Signaux, σu=10.0593 σy=4.271 σv=0.035737 SNRdB=σy/σv=41.5483


10

5
uN(k)

−5

−10
0 0.01 0.02 0.03 0.04 0.05 0.06

10
yN(k)|v=0, yN(k)|v ≠ 0

−5

−10
0 0.01 0.02 0.03 0.04 0.05 0.06

0.1

0.05
v(k)

−0.05

−0.1
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]

f_lse_01_1.eps

Fig. 8.23 – Signal d’excitation, réponses (avec et sans bruit) et bruit (fichier source).

Les résultats de l’identification sont donnés sur la figure 8.24 page suivante.

Chapitre 8 : Identification, v.1.8 299 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Réponses du système réel et du modèle, avec et sans bruit. a1=−0.90484 b1=0.095163 a1est=−0.90511 b1est=0.095
8

yG(z), yG (z)|v=0, yG (z)|v≠ 0


2

est

0
est

−2

−4

−6 G(z)
Gest(z)v≠0
Gest(z)v=0
−8
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]

f_lse_01_2.eps

Fig. 8.24 – Réponse du vrai système G(z), de son modèle identifié Ĝ(z) avec et
sans bruit (fichier source).

La figure 8.24 montre l’excellent modèle obtenu, le modèle Ĝ(z) étant visi-
blement capable de reproduire le comportement du système G(z). Les valeurs
numériques des paramètres estimés coïncident avec les valeurs effectives.
Résidus ε(k)
0.1

0.05

0
ε(k)

−0.05

−0.1

−0.15
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]

Fig. 8.25 – Erreur de prédiction (k) (fichier source).

Pour valider le modèle ainsi identifié, on peut également visualiser les résidus
(k) (figure 8.25) qui devraient alors être un bruit aléatoire, avant de visualiser

Chapitre 8 : Identification, v.1.8 300 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

leur fonction d’autocovariance

N −1
1 X
RN (k) = · (l) · (l + k)
N l=0

qui devrait tendre vers 0 dès que k 6= 0 si (k) est effectivement un bruit aléatoire.
La figure 8.26 montre que c’est bien le cas. De plus, les résidus devraient être
indépendants de l’entrée uN (k), ce qui se vérifie en examinant la fonction de
covariance croisée
N −1
N 1 X
Ru (k) = · (l) · u(l + k)
N l=0

laquelle est également représentée sur la figure 8.26.

Correlation function of residuals. Output # 1


1

0.5

−0.5

−1
0 5 10 15 20 25
lag

Cross corr. function between input 1 and residuals from out put 1
0.15

0.1

0.05

−0.05

−0.1

−0.15

−0.2
−25 −20 −15 −10 −5 0 5 10 15 20 25
lag

Fig. 8.26 – Fonctions d’autocovariance de (k) et d’intercovariance (covariance


croisée) de (k) et u(k) (fichier source).

8.2.4 Biais et variance de la méthode des moindres carrés


Si les données uN (k) et yN (k) acquises l’on été par le vrai système, dont les


paramètres sont réunis dans le vecteur-colonne θ 0 , on a :



y(k) = −

ϕ (k)T · θ 0 + v0 (k)

Chapitre 8 : Identification, v.1.8 301 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Alors, selon (8.7) :


N −1
−̂
→ −1 1 X− →
θ N = RN · · ϕ (k) · y(k)
N k=0
N −1
1 X→ − →
− T →

 
−1
= RN · · ϕ (k) · ϕ (k) · θ 0 + v0 (k)
N k=0
N −1

→ −1 1 X− →
= θ 0 + RN · · ϕ (k) · v0 (k)
N k=0
| {z }
→0 pour v0 (k)−

ϕ (k)

avec
N −1
1 X→ −
RN = · ϕ (k) · −

ϕ (k)T
N k=0

On voit d’ores et déjà que si le niveau des perturbations v0 (k) est faible par rap-
port aux composantes de − →ϕ (k) et que RN est non singulière, i.e. inversible, alors

− →
− →

θ N sera proche de θ 0 . L’estimateur θ N a donc un biais nul, i.e. les paramètres
a1 , a2 , . . . an−1 , an , b1 , b2 , . . . , bn−1 , bn du système sont estimés sans biais.


La variance de θ N indique comment les valeurs estimées des mêmes para-
mètres fluctuent autour de leur moyenne. En effet, les estimations de
a1 , a2 , . . . an−1 , an , b1 , b2 , . . . , bn−1 , bn sont influencées par le signal stochastique
v(k) et sont de ce fait également des variables stochastiques. On peut montrer
qu’une estimation de cette variance est donnée par
" N −1
#−1

→ 1 1 X→ − →
−̂ →T
− →
−̂
cov θ N = · λ̂N · · ψ (k, θ N ) · ψ (k, θ N )
N N k=0

avec
N −1
1 X
λ̂N = · (k)2
N k=0
et

→ →
−̂ d
ψ (k, θ N ) = ŷ(k)

−̂
dθN


cov θ N est la matrice de covariance des paramètres estimés. Les variances re-


cherchées se trouvent la diagonale de cov θ N .


L’expression cov θ N montre en premier lieu qu’un moyen très efficace de
diminuer la dispersion des paramètres estimés consiste à augmenter N .


La fonction ψ(k, θ N ) indique comment varie le signal de sortie y(k) en fonc-
tion du paramètre a1 , a2 , . . . an−1 , an , b1 , b2 , . . . , bn−1 , bn pour lequel la dérivation

Chapitre 8 : Identification, v.1.8 302 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

d
→ ŷ(k)
−̂ est effectuée. On voit donc que si la sensibilité de y(k) est grande par
dθN
rapport au paramètre considéré, alors la variance de la distribution de celui-ci
sera d’autant plus faible ! Il y a donc intérêt à choisir un signal d’entrée u(k)
provoquant un signal de sortie y(k) très sensible au paramètre à identifier.
Cette dernière observation met en évidence toute l’importance du choix du
signal d’excitation u(k). Il vaut la peine que le spectre Φu (ω) soit dense dans les
fréquences où la sensibilité de la fonction de transfert par rapport aux paramètres
à identifier est élevée [[12], §14.3, p.371]. Cela sera illustré dans l’exemple du
paragraphe 8.2.4.
Ces résultats, présentés ici dans le cas particulier d’un modèle de type ARX,
sont généralisables aux paramètres correspondant à d’autres structures [[12],
§9.2].

Exemple
Reprenant l’exemple du § 8.2.3 page 298, on se place cette fois dans la situation
où l’amplitude du signal d’excitation u(k) est divisée par 10. Le rapport signal
sur bruit est alors dégradé et l’on peut observer sur la figure 8.27 que l’estimation
des 2 paramètres est moins bonne.

Réponses du système réel et du modèle, avec et sans bruit. a1=−0.90484 b1=0.095163 a1est=−0.89686 b1est=0.096904
0.8

0.6

0.4
G (z) v≠ 0

0.2
|
est
,y
G (z) v=0

0
|
est
,y

−0.2
G(z)
y

−0.4

−0.6 G(z)
Gest(z)v≠0
Gest(z)v=0
−0.8
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]

f_lse_02_2.eps

Fig. 8.27 – Réponse du modèle lorsque le rapport signal sur bruit est médiocre
(comparer avec les résultats présentés sur la figure 8.24 page 300) (fichier source).

Si dans le premier exemple, on avait

cov b̂1 ≈ 0.0005


cov â1 ≈ 0.001

Chapitre 8 : Identification, v.1.8 303 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

on a maintenant :

cov b̂1 ≈ 0.005


cov â1 ≈ 0.01

L’effet du caractère stochastique des estimations est illustré sur les figures
8.28 et 8.29 où les paramètres des 2 modèles identifiés sont perturbés selon leurs
variances respectives. Les réponses correspondantes sont tracées et donnent une
idée de la dispersion des paramètres de chacun des 2 modèles.

Output number 1

10

−2

−4

−6

−8

10 20 30 40 50 60

Fig. 8.28 – Illustration de la dispersion des paramètres du premier modèle, selon


§ 8.2.3 page 298 (fichier source).

Chapitre 8 : Identification, v.1.8 304 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Output number 1
1

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

10 20 30 40 50 60

Fig. 8.29 – Illustration de la dispersion des paramètres du modèle obtenu avec


un rapport signal sur bruit médiocre (fichier source).

Finalement, on peut encore tenir compte de l’observation faite à la fin du


§8.2.4 et former d’un signal u(k) dont le spectre Φu (ω) est riche aux fréquences
où la sensibilité de la fonction de transfert aux variations des paramètres est
élevée. Dans le cas de l’exemple, et en raisonnant dans le domaine ananlogique,
supposant que le système est d’ordre 1 fondamental (un gain K et une constante
de temps T ), la sensibilité de la fonction de transfert
– au paramètre K sera maximale en régime permanent constant, car
    
d 1 rad
arg max =0
dK 1 + j · ω · T s

– au paramètre T sera maximale à la pulsation ω = T1 , valeur obtenue résol-


vant   
d K
arg max
dT 1 + j · ω · T
Comme les identifications précédentes ont montré que
 
1 1 1 1 rad
= − · log (−a1 ) ≈ − · log (−â1 ) = − · log (0.9) ≈ 105
T h h 0.001 s

 rad introduire dans u(k) une composante périodique de pulsation ω =


on peut
105 s .

Chapitre 8 : Identification, v.1.8 305 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Les figures 8.30 et 8.31 montrent les résultats obtenus. Malgré un rapport signal
sur bruit médiocre comme dans le dernier cas traité, les résultats sont nettement
meilleurs, comme les variances en témoignent :

cov b̂1 ≈ 0.006


cov â1 ≈ 0.007

Réponses du système réel et du modèle, avec et sans bruit. a1=−0.90484 b1=0.095163 a1est=−0.90586 b1est=0.094001
2

1.8

1.6

1.4
(z) v≠ 0
|

1.2
est
, yG
(z) v=0

1
|
est
yG(z), yG

0.8

0.6

0.4
G(z)
Gest(z)v≠0
0.2
Gest(z)v=0
0
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]

Fig. 8.30 – Réponse du modèle obtenu avec rapport signal sur bruit médiocre
mais une excitation adaptée aux paramètres à identifier (fichier source).

Chapitre 8 : Identification, v.1.8 306 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Output number 1

1.5

0.5

10 20 30 40 50 60

Fig. 8.31 – Illustration de la dispersion des paramètres du modèle obtenu avec


un rapport signal sur bruit médiocre (comme pour le cas des figures 8.27 page 303
et 8.29 page 305) mais avec un signal d’entrée u(k) excitant les fréquences où la
fonction de transfert est le plus sensible aux variations des paramètres (fichier source).

8.2.5 Inversibilité de la matrice RN


Le produit matriciel


ϕ (k) · −

ϕ (k)T
est le produit d’un vecteur colonne et d’un vecteur ligne. Le résultat est une
matrice carrée, de dimension n × n. Il en est par conséquent de même de la
somme " N −1
#
1 X− →
RN = · ϕ (k) · −

ϕ (k)T
N k=0
qui doit être inversible, i.e. non singulière. A ce stade, il vaut la peine de remarquer
que les éléments de la matrice RN ne sont autres que des termes du type
N −1
1 X
[RN ]ij = · y(k − i) · y(k − j)
N k=0

i.e. chaque élément est une estimation des fonctions de covariance de u(k) et de
y(k).

Chapitre 8 : Identification, v.1.8 307 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

8.A Structure ARMAX


8.A.1 Préambule
Dans ce paragraphe, on s’intéresse à l’identification des paramètres d’un mo-
dèle de structure ARMAX : un système dynamique linéaire discret de fonction de
transfert G(z), régi par une équation aux différences (8.3), est soumis à 2 entrées
– u(k), déterministe, contrôlée (imposable par l’utilisateur)
– e(k), stochastique, traduisant le fait que la sortie brute du système dyna-
mique linéaire discret G(z) = B(z)
A(z)
, dont on recherche les paramètres, est
affectée d’un bruit filtré v(k)
et une sortie y(k). u(k) influence y(k) par le biais d’une dynamique condensée
dans la fonction de transfert G(z) = B(z)
A(z)
et e(k) par le bruit filtré v(k) via la
C(z)
fonction de transfert H(z) = A(z)
(figure 8.32).

e ( k )

C ( z )

A ( z )

v ( k )

B 1 ( z )
S
u ( k ) y ( k )

A s
( z )
f _ 0 8 _ 0 3 . e p s

Fig. 8.32 – Modèle de structure ARMAX (fichier source).

Il s’agit, connaissant N points de l’entrée contrôlée u(k − 1) . . . u(k − N ) et de




la sortie mesurée y(k −1) . . . y(k −N ) de trouver les paramètres θ des polynômes
A(z), B(z) et C(z) minimisant l’erreur de prédiction


(k) = y(k) − ŷ(k, θ )

La difficulté réside dans le fait contrairement au cas de la structure ARX, les pa-
ramètres minimisant l’erreur de prédiction (k) ne peuvent se calculer simplement
par une régression linéaire de type (8.6), mais doivent être obtenus itérativement,
par exemple par la méthode du gradient (§ 8.A.3 page 312).

Chapitre 8 : Identification, v.1.8 308 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

8.A.2 Recherche des paramètres d’un modèle ARMAX


L’opérateur q −1

Afin d’alléger la notation et faciliter les calculs, on fait usage de l’opérateur


de décalage
q

défini comme suit [1]


q −d · x(k) = x(k − d)

où d ∈ N est un entier naturel. La fonction réalisée par cet opérateur est identique
à z −1 , l’avantage résidant dans le fait qu’il s’applique directement aux signaux
temporels et non pas à leurs transformées en z. On a alors :

A(q) = 1 + a1 · q −1 + a2 · q −2 + · · · + ana · q −na


B(q) = b1 · q −1 + b2 · q −2 + · · · + bnb · q −nb
C(q) = 1 + c1 · q −1 + c2 · q −2 + · · · + cnc · q −nc

L’équation aux différences (8.4) peut alors être réécrite sous la forme :

A(q) · y(k) = B(q) · u(k) + C(q) · e(k)

Estimation de y(k)

On peut montrer qu’un estimateur ŷ(k, θ) correspondant à une structure quel-


conque est donné par [[12], (3.20) p.56, (4.6) p.70] :
 
G(q) 1
ŷ(k, θ) = · u(k) + 1 − · y(k)
H(q) H(q)

Dans le cas de la structure ARMAX (figure 8.32 page précédente), on démontre


ci-dessous ce résultat. On a ([[12], pp.73-74]) :

C(q) 1 + c1 · q −1 + c2 · q −2 + · · · + cnc · q −nc


v(k) = · e(k) = · e(k)
A(q) 1 + a1 · q −1 + a2 · q −2 + · · · + ana · q −na

qui correspond à l’équation aux différences :

v(k) + a1 · v(k − 1) + . . . + ana −1 · v(k − na + 1) + ana · v(k − na )


= e(k) + c1 · e(k − 1) + . . . + cnc −1 · e(k − nc + 1) + cnc · e(k − nc )

Chapitre 8 : Identification, v.1.8 309 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

La meilleure prédiction de v̂(k) de v(k) ne peut s’appuyer que sur les valeurs
passées de e(k) et v(k) :

C(q)
v̂(k) = · e(k − 1)
A(q)
C(q)
= v(k) − · e(k)
A(q)
A(q)
= v(k) − · v(k)
C(q)
 
A(q)
= 1− · v(k)
C(q)

On en déduit :

B(q)
ŷ(k) = · u(k) + v̂(k)
A(q)
 
B(q) A(q)
= · u(k) + 1 − · v(k)
A(q) C(q)
   
B(q) A(q) B(q)
= · u(k) + 1 − · y(k) − · u(k)
A(q) C(q) A(q)
   
B(q) A(q) A(q) B(q)
= · u(k) + 1 − · y(k) − 1 − · · u(k)
A(q) C(q) C(q) A(q)

d’où :
 
B(q) A(q)
ŷ(k, θ) = · u(k) + 1 − · y(k) (8.8)
C(q) C(q)

Pseudo régression linéaire

On peut présenter (8.8) sous la forme :

C(q) · ŷ(k, θ) = B(q) · u(k) + [C(q) − A(q)] · y(k) (8.9)

En additionnant [1 − C(q)] · ŷ(k, θ) aux 2 membres de cette expression, on a :

ŷ(k, θ) = B(q) · u(k) + [1 − A(q)] · y(k) + [C(q) − 1] · [y(k) − ŷ(k, θ)]

Avec l’introduction de l’erreur de prédiction

(k, θ) = y(k) − ŷ(k, θ)

Chapitre 8 : Identification, v.1.8 310 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

des vecteurs  
−y(k − 1)
 −y(k − 2) 
 

 . . . 

−y(k − na )
 
 u(k − 1) 
 

−  u(k − 2) 
ϕ (k, θ) = 
 
 . . . 

 u(k − nb ) 
 
 (k − 1, θ) 
 
 (k − 2, θ) 
 
 ... 
(k − nc , θ)
et  
a1
 a2 
 
. . .
 
ana 
 
 b1 
 
→ 
− b2 
θ = 
. . .
 
 bn 
 b
 c1 
 
 c2 
 
. . .
cnc
on a :
ŷ(k, θ) = −

ϕ (k, θ)T · θ
Il ne s’agit malheureusement pas d’une régression linéaire (on parle de régression
pseudo-linéaire) et en conséquence, une solution analytique visant à trouver le


jeu de paramètre θ minimisant

− N −1
→  1 X1
VN θ , yN (k), uN (k) = · · (k)2
N k=0 2
 2
N −1
1 1  −

· y(k) − −

X
= · ϕ (k, θ)T · θ  (8.10)
N k=0
2 | {z }
(k)

n’existe pas. Il faut alors recourir a une solution numérique. On propose d’étudier
ci-après la méthode dite de descente de gradient.

Chapitre 8 : Identification, v.1.8 311 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

8.A.3 Descente de gradient


La descente de gradient consiste à évaluer, partant d’un jeu de paramètres


initial θ 0 , le gradient de la fonction (8.10) par rapport aux paramètres du vecteur


θ :
∂VN
∂aj
∂VN
∂bj
∂VN
∂cj

− →

On construit ensuite le point de travail suivant θ 1 retranchant à θ 0 la quantité
 ∂VN 
∂aj
· ∆a j
 ∂VN · ∆b 
 ∂bj j
∂VN
∂cj
· ∆cj
et en répétant la procédure p fois de façon à ce que
−→ 
VN θ p , yN (k), uN (k)
soit minimum.
Dans le cas d’une structure ARMAX décrite par (8.9), on peut tout d’abord
écrire :


∂ ŷ(k, θ )
C(q) · = −y(k − j)
∂aj


∂ ŷ(k, θ )
C(q) · = u(k − j)
∂bj


∂ ŷ(k, θ ) ∂C(q) →
− ∂C(q)
C(q) · + ·ŷ(k, θ ) = ·y(k)
∂cj ∂cj ∂cj
| {z } | {z }
q −j q −j
| {z }
y(k−j)

puis finalement :


∂ ŷ(k, θ ) 1
=− · y(k − j)
∂aj C(q)


∂ ŷ(k, θ ) 1
= · u(k − j)
∂bj C(q)


∂ ŷ(k, θ ) 1 →
− 1 1 →

=− · q −j · ŷ(k, θ ) + · y(k − j) = · (k − j, θ )
∂cj C(q) C(q) C(q)

Chapitre 8 : Identification, v.1.8 312 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

L’évaluation de

∂VN
∂aj
∂VN
∂bj
∂VN
∂cj

donne :



2·(k, θ ) −1
N −1 N −1
z }| { z}|{
∂VN ∂VN ∂ ∂ ŷ 1 X ∂ ŷ 1 X 1 →

= · · =− · = · · y(k − j) · (k, θ )
∂aj ∂ ∂ ŷ ∂aj N k=0 ∂aj N k=0 C(q)
N −1 N −1
∂VN ∂VN ∂ ∂ ŷ 1 X ∂ ŷ 1 X 1 →

= · · =− · =− · · u(k − j) · (k, θ )
∂bj ∂ ∂ ŷ ∂bj N k=0 ∂bj N k=0 C(q)
N −1 N −1
∂VN ∂VN ∂ ∂ ŷ 1 X ∂ ŷ 1 X 1 →
− →

= · · =− · =− · · (k − j, θ ) · (k, θ )
∂cj ∂ ∂ ŷ ∂cj N k=0 ∂cj N k=0 C(q)

En introduisant

 
−y(k − 1)
 −y(k − 2) 
 

 . . . 

−y(k − na )
 
 u(k − 1) 
 

− →
−  u(k − 2) 
ϕ (k, θ ) =  

 ... 

 u(k − nb ) 
 
 (k − 1) 
 
 (k − 2) 
 
 ... 
(k − nc )

Chapitre 8 : Identification, v.1.8 313 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

ainsi que
∂ ŷ
 
∂a1
 ∂ ŷ

 ∂a2

 ... 
 
 ∂ ŷ 
 ∂ana 
 ∂ ŷ 
 ∂b 
 ∂ ŷ1 

− 
∂b2 

ψ(k, θ ) = 
 ... 
 
 ∂ ŷ 
 ∂bnb 
 ∂ ŷ 
 ∂c1 
 ∂ ŷ 
 ∂c 
 2
 ... 
∂ ŷ
∂cnc

on peut encore écrire :



− 1 →

ψ(k, θ ) = ·→

ϕ (k, θ ) (8.11)
C(q)

− →

Un algorithme de recherche des paramètres θ minimisant VN ( θ ) est le sui-
vant [[12], eq. (10.41)] :

−̂ (i+1) −̂
→ →(i) (i) −1 →(i)
0 −̂
θ N = θ N − µN · RN · VN ( θ N ) (8.12)

avec
N −1

− 1 X →
− →

VN0 ( θ ) =− · ψ(k, θ ) · (k, θ ) (8.13)
N k=0

−̂ →

avec VN ( θ N ) selon (8.10) et ψ(k, θ ) selon (8.11).
(i)
RN est une matrice de dimension na + nb + nc modifiant la direction de
recherche et choisie dans un premier temps égale à la matrice identité, faisant de
(8.12) une méthode de descente de gradient.

−̂
Si l’on prend en compte la double dérivée de VN ( θ N ), i.e. le hessien de
−̂

VN ( θ N ), on peut affiner la direction de recherche en tenant compte de l’évo-


lution du gradient VN0 ( θ ) [[12], éq. (10.44)] :
N −1 N −1

− 1 X →
− →T
− 1 X 0 − → →

VN00 ( θ ) = · ψ(k, θ ) · ψ(k, θ ) − · ψ (k, θ ) · (k, θ ) (8.14)
N k=0 N k=0

Avec
(i) →

RN = VN00 ( θ )

Chapitre 8 : Identification, v.1.8 314 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique



(8.12) est une méthode Newton. Lorsque l’on est proche du minimum de VN0 ( θ ),
on peut admettre [[12], éq. (10.46)] que
N −1

− 1 X →
− →

VN00 ( θ ) ≈ · ψ(k, θ ) · ψ(k, θ )T (8.15)
N k=0

Implantation en langage MATLAB


%−−−−−−−−−−−−−−−Mesures
load u s c 1 _ i s 1 . dat
mesures = usc1_is1 ;

%Troncage des mesures


ind = find ( m e s u r e s ( : , 4 ) < 0 ) ;
ind = max( ind ) ;

m e s u r e s = m e s u r e s ( 1 : ind , : ) ;
t = mesures ( : , 1 ) ; %i n s t a n t s d ’ e c h a n t i l l o n n a g e
u = mesures ( : , 4 ) ; %s i g n a l d ’ e n t r e e ( d e t e r m i n i s t e )
y = mesures ( : , 5 ) ; %s i g n a l de s o r t i e
y = y − y (1); %e n l e v e o f f s e t
N = length ( y ) ; %longueur e c h a n t i l l o n de mesures

t o l 2 = 1 e −3; %t o l e r a n c e a p a r t i r de l a q u e l l e on t r a v a i l l e avec le Hessien


NBITER = 1 0 0 ; %nb d ’ i t e r a t i o n s

%Nb de parametres a e s t i m e r pour l e s polynomes A( q ) , B( q ) e t C( q )


na = 2 ;
nb = na ;
nc = na ;
nk = 1 ; %r e t a r d pur e n t r e e s o r t i e
n = max( [ na , nb , nc ] ) ;
t h e t a = zeros ( na+nb+nc , 1 ) ; %v e c t e u r des parametres a e s t i m e r

%I n s e r t i o n de u(−n ) . . . u(−1) e t y(−n ) . . . u(−1) dans u( k ) e t y ( k )


u = [ zeros ( n , 1 ) ; u ] ;
y = [ zeros ( n , 1 ) ; y ] ;

y e s t = [ zeros ( n , 1 ) ; zeros ( N , 1 ) ] ; %e s t i m a t i o n de y
t = [ 0 : length ( y e s t )−1] ’ ; ␣ ␣ ␣ ␣ ␣ ␣ ␣ ␣ % v e c t e u r ␣ temps

%Parametre de l a r o u t i n e de r e c h e r c h e du minimum s e l o n ( 6 )
VN = zeros ( NBITER , 1 ) ; %1/N∗somme du carre de 0 . 5 ∗ e r r e u r de p r e d i c t i o n
VN( 1 ) = 1 e5 ; %Valeur i n i t i a l e mise a l ’ i n f i n i ou presque
RN = eye ( na+nb+nc ) ; %d i r e c t i o n de r e c h e r c h e , i n i t i a l i s a t i o n pour methode de d e s c e n t e de g r a d i e n t
muN = 0 . 0 1 ; %pas de c a l c u l i n i t i a l pour l a r e c h e r c h e

%t e s t avec ARMAX MATLAB ( ce que l ’ on a i m e r a i t reussir a faire nous−memes avec ce fichier ...)
th_armax = armax ( [ y , u ] , [ na , nb , nc , nk ] )

%Conditions i n i t i a l e s : modele ARX, dont l a s o l u t i o n a n a l y t i q u e e x i s t e , donc


%i m p l a n t a b l e par nous . . .
th_arx = arx ( [ y , u ] , [ na , nb , nk ] ) ;
A = th_arx . A;
B = rem_zero ( th_arx . B) ;
C = [ 1 , zeros ( 1 , nc ) ] ; %C e s t i n i t i a l i s e a q^(−nc )
%backup des polynomes e s t i m e s
A_1 = A;
B_1 = B;
C_1 = C;

%Autre c o n d i t i o n i n i t i a l e possibles ( plus quelconques )


A = [ 1 , zeros ( 1 , na ) ] ;
B = o n e s ( 1 , nb ) ∗ 0 . 0 1 ;
%A = [ 1 , − 1 . 5 , 0 . 7 6 ] ;
%B = [ 0 . 0 0 9 7 , − 0 . 0 0 5 7 ] ;
%C = [ 1 , − 1 . 2 , 0 . 6 5 ] ;

%Formation du v e c t e u r de parametre initial


t h e t a = [ A( 2 : na +1), B, C(2:1+ nc ) ] ’ ;
p = 2; %compteur d ’ i t e r a t i o n

while ( ( p<NBITER) )
VNp = zeros ( na+nb+nc , 1 ) ; %i n i t i a l i s a t i o n du g r a d i e n t de VN
VNpp = zeros ( na+nb+nc ) ; %i n i t i a l i s a t i o n du Hessien de VN

%Ca l c ul de l ’ e s t i m a t i o n avec l e s parametre t h e t a a c t u e l s s e l o n ( 2 )


yhat ( n+1: n+N) = d l s i m ( B, C, u ( n+1: n+N) ) + d l s i m ( C−A, C, y ( n+1: n+N) ) ;
%Residus ( e r r e u r de p r e d i c t i o n )
e p s i l o n = y − yhat ;

Chapitre 8 315
VNIdentification, v.1.8 mee \cours_rn.tex\12 avril 2005
eivd Régulation numérique

%Somme des c a r r e s de l ’ e r r e u r de p r e d i c t i o n
VN( p ) = 1 / N∗sum( 0 . 5 ∗ e p s i l o n . ^ 2 ) ; %s e l o n ( 4 )
[ p , VN( p ) − VN( p −1)]

%Si l a somme des c a r r e s c r o i t au l i e u de d e c r o i t r e , on r e s t a u r e l e s


%parametres p r e c e d e n t s e t l ’ on change muN ( comment ? )
i f ( ( VN( p ) − VN( p −1))>0)
A = A_1;
B = B_1;
C = C_1;
t h e t a = [ A( 2 : na +1), B, C(2:1+ nc ) ] ’ ;
muN = 0 . 0 0 1 ;
yhat ( n+1: n+N) = d l s i m ( B, C, u ( n+1: n+N) ) + d l s i m ( C−A, C, y ( n+1: n+N) ) ;
e p s i l o n = y − yhat ;
VN( p ) = 1 / N∗sum( 0 . 5 ∗ e p s i l o n . ^ 2 ) ;
end
%C al c ul de phi , p s i , du g r a d i e n t e t du Hessien avec l e jeu de
%parametres a c t u e l
f o r k=n+1: n+N
phi = [− y ( k −1:−1: k−na ) ’ , u ( k −1:−1: k−nb ) ’ , e p s i l o n ( k −1:−1: k−nc ) ’ ] ’ ;
p s i = d l s i m ( [ 1 , zeros ( 1 , nc ) ] , C, phi ) ; %s e l o n ( 5 )
VNp = VNp − p s i ∗ e p s i l o n ( k )/ N; %s e l o n ( 7 )
VNpp = VNpp + p s i ∗ p s i ’ / N; %s e l o n ( 9 )
end

%Passage au Hessien s i l ’ on e s t t r e s proche du minimum e t si la


%v a r i a t i o n de VN e s t n e g a t i v e
i f ( ( − ( VN( p ) − VN( p−1))< t o l 2 )&(( VN( p ) − VN( p −1))<0))
RN = VNpp;
% muN = 0 . 0 1 ;
disp ( ’ H e s s i e n ’ )
else
RN = eye ( na+nb+nc ) ; %methode de d e s c e n t e de g r a d i e n t
end
%C al c ul des parametres correspondant a l ’ i t e r a t i o n
t h e t a = t h e t a − muN∗ inv (RN)∗ VNp %s e l o n ( 6 )
%backup des parametre p r e c e d e n t s
A_1 = A;
B_1 = B;
C_1 = C;
%Formation des polynomes A, B, C
A = [ 1 , t h e t a ( 1 : na ) ’ ] ;
B = t h e t a ( na +1: na+nb ) ’ ;
C = [ 1 , t h e t a ( na+nb +1: na+nb+nc ) ’ ] ;
p = p + 1; %v a r i a b l e d ’ i t e r a t i o n
end

figure
plot (VN( 2 : NBITER) , ’ o ’ )
t i t l e ( ’ E v o l u t i o n ␣ du␣ g r a d i e n t ’ )

Les résultats sont sur les figures 8.33 page ci-contre et 8.34 page 318.

Chapitre 8 : Identification, v.1.8 316 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Evolution du gradient
4.5

3.5

2.5

1.5

0.5

0
0 10 20 30 40 50 60 70 80 90 100
No itération

f_test_armax_01_1.eps

Fig. 8.33 – Evolution de la descente du gradient, pour NBITER=100 itérations


(fichier source).

Chapitre 8 : Identification, v.1.8 317 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

6
y
yest
4
y(k), yest(k)

−2

−4
0 10 20 30 40 50 60

20

10
u(k)

−10

−20
0 10 20 30 40 50 60
k

f_test_armax_01_2.eps

Fig. 8.34 – En haut : mesure y(k) et estimation ŷ(k), après p = 100 itérations.
En bas : signal d’entrée u(k) (fichier source).

Chapitre 8 : Identification, v.1.8 318 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

8.B Rappel de théorie des probabilités [9]


8.B.1 Processus, signaux et variables aléatoires
Un processus aléatoire, ou stochastique, est une famille de signaux {x(t)} de
natures aléatoires [[9], §5.1.1]. Un signal x(t) est aléatoire s’il dépend des lois du
hasard.
Une variable aléatoire est la valeur prise par un signal aléatoire à un instant
ti ; on la désigne par xi [[9], §5.1.4].

8.B.2 Fonction de répartition et densité de probabilité [[9],


§14.2]
Le comportement statistique de la variable aléatoire xi est défini par sa densité
de probabilité p(x) et/ou sa fonction de répartition F (x).
La fonction de répartition F (x) associée à une variable aléatoire xi est la
fonction permettant de calculer la probablité que xi soit inférieure ou égale à une
certaine valeur x :
F (x) = Prob [xi ≤ x]
La densité de probabilité p(x) n’est autre que la dérivée de F (x) par rapport à
x. On a : Z x2
Prob [x1 ≤ xi ≤ x2 ] = p(xi ) · dxi
x1

Des formes bien connues de densités de probabilité sont les distributions [[9],
§14.4]
– uniforme :
1
p(x) = · ((x + a) − (x − b))
b−a
(b−a)2
avec µx = 21 · (b + a) et σx2 = 12
– gaussienne : " #
1 (x − µx )2
p(x) = √ · exp −
2 · π · σx 2 · σx2

8.B.3 Espérance mathématique, moyenne et variance


La valeur moyenne statistique de la variable aléatoire xi est donnée par l’es-
pérance mathématique E [xi ] de xi [[9], §14.3] :
Z +∞
µx = E [xi ] = xi · p(xi ) · dxi
−∞

Chapitre 8 : Identification, v.1.8 319 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

La mesure de la dispersion de xi autour de sa valeur moyenne µx est la variance :


Z +∞
2
2
(xi − µx )2 · p(xi ) · dxi

σx = E (xi − µx ) =
−∞

8.B.4 Fonctions d’autocorrélation et d’autocovariance [[9],


§5.2]
La fonction d’autocorrélation du processus stochastique {x(t)} est donnée par
l’espérance du produit de 2 variables aléatoires obtenues par exemple aux instants
t et t + τ :
Rx (τ ) = E [x(t) · x(t + τ )]
La fonction d’autocovariance se définit de la même manière, seuls les écarts entre
les variables aléatoires x(t) et x(t + τ ) et leur moyenne µx étant toutefois pris en
compte :

Cx (τ ) = E [(x(t) − µx ) · (x(t + τ ) − µx )] = Rx (τ ) − µ2x

Pour µx = 0, on a Rx (τ ) = Cx (τ ).
La fonction d’intercorrélation statistique peut également être définie :

Rxy (τ ) = E [x(t) · y(t + τ )]

Si x(t) et y(t) ne sont pas corrélés, alors Rxy (τ ) = 0.

8.B.5 Stationnarité et ergodisme [[9], §5.1.11 et §5.1.13]


Un processus stochastique est stationnnaire si ses propriétés statistiques (par
exemple µx et σx ) sont invariantes dans le temps. On admet pour la suite que
les processus aléatoires considérés sont stationnaires. De plus, on admet qu’ils
sont ergodiques, ce qui signifie que les espérances mathématiques (ou moyennes
statistiques) de type
Z +∞
E [f (x)] = f (x) · p(x) · dx
−∞

peuvent être identifiées à des moyennes temporelles telles que


Z +T /2
1
f (x(t)) = lim · f (x(t)) · dt
T →∞ T −T /2

Donc, avec l’hypothèse d’ergodicité, on a :

E [f (x)] = f (x(t))

Chapitre 8 : Identification, v.1.8 320 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

La fonction d’autocorrélation d’un processus stochastique ergodique peut ainsi


se calculer comme suit :
Z +T /2
1
Rx (τ ) = E [x(t) · x(t + τ )] = x(t) · x(t + τ ) = lim · x(t) · x(t + τ ) · dt
T →∞ T −T /2

Son évaluation expérimentale ne peut bien sûr s’effectuer que pour une durée T
finie, typiquement en échantillonnant le signal x(t) considéré :
N −1
1 X
RxN (k) = · x(l + k) · x(l)
N l=0

Chapitre 8 : Identification, v.1.8 321 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

8.C Transformée de Fourier de signaux discrets


[[9] et [16]]
8.C.1 Transformée de Fourier d’un signal discret
8.C.2 Définition
Par définition, la transformée de Fourier d’un signal discret x(k) est donnée
par :
+∞
X
X (j · ω) = F{x (k)} = x (k) · e−j·ω·k·h (8.16)
k=−∞

Elle est à mettre en regard de la transformée de Fourier de signaux analogiques,


Z+∞
Xa (j · ω) = F{xa (t)} = xa (t) · e−j·ω·t · dt
−∞

ce qui montre qu’elle est une simple adaptation à la nature discrète de x(k).
La transformée de Fourier inverse s’écrit :
+ ω2e
Z
−1
x (k) = F {X (j · ω)} = X (j · ω) · e+j·ω·k·h · dω
− ω2e

8.C.3 Transformée de Fourier d’un signal de durée finie


Dans le cas expérimental, le signal discret transformé selon (8.16) est forcé-
ment un signal de durée finie xN (k), provenant par exemple de l’échantillonnage
régulier du signal analogique xa (t) entre les instants k0 · h et (k0 + N − 1) · h. On
a:

x(k) = xa (t)|t=k·h
xN (k) = x(k) · ((k − k0 ) − (k − k0 − N )) = x(k) · rect (k − k0 , N )

Du fait du nombre fini N d’échantillons, la transformée de Fourier peut s’écrire :


+N −1
k0 X
XN (j · ω) = F{xN (k)} = xN (k) · e−j·ω·k·h
k=k0

On note que F{xN (k)} = XN (j · ω) est à ce stade une fonction continue de la


variable ω, laquelle peut ainsi varier de manière continue. La figure 8.35 page
ci-contre le montre le résultat de la transformée d’une période d’un signal carré,
évaluée selon (8.16) pour un grand nombre de valeurs de ω.

Chapitre 8 : Identification, v.1.8 322 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

fsignal=0.1[Hz], fe=1.6[Hz], Nf=512, ∆f=fe/Nf=0.003125[Hz]


1

0.5

u(t)
0

−0.5

−1
0 1 2 3 4 5 6 7 8 9 10
t [s]

2.5

2
|U(jω)|

1.5

0.5

0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
f [Hz]

f_fourier_carre_03_1.eps

Fig. 8.35 – Module de la transformée de Fourier, i.e. spectre d’amplitude d’une


période d’un signal carré discret, évalué pour un grand nombre de valeurs de
ω
f = 2·π . On note la périodicité (période fe = h1 = 1.6 [Hz]) du spectre d’amplitude
(fichier source).

8.C.4 Propriétés
Comme la figure 8.35 le laisse présager, X (j · ω) = F{x (k)} est une fonction
périodique de période ωe = 2·π
h
, puisqu’en effet

+∞
X
X (j · (ω + ωe )) = x (k) · e−j·(ω+ωe )·k·h
k=−∞
+∞
X
= x (k) · e−j·ω·k·h · e|−j·ωe ·k·h
{z } =X (j · ω)
k=−∞ 1

ce qui signifie qu’on peut se contenter de l’évaluer et de la représenter sur une


période ωe . D’autre part, le module |X (j · ω)| de X(j · ω) est une fonction paire,
car

|X (−j · ω)| = |X ((j · ω)∗ )| = |X ∗ (j · ω)| = |X (j · ω)|


pour autant que le signal x(k) soit réel. En conséquence, il est suffisant de repré-
senter |X (j · ω)| dans la gamme de pulsations 0 rad < ω2e (figure 8.36 page
 
s
< ω
suivante).

Chapitre 8 : Identification, v.1.8 323 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

fsignal=0.1[Hz], fe=1.6[Hz], Nf=512, ∆f=fe/Nf=0.003125[Hz]


1

0.5

u(t)
0

−0.5

−1
0 1 2 3 4 5 6 7 8 9 10
t [s]

2.5

2
|U(jω)|

1.5

0.5

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8
f [Hz]

f_fourier_carre_01_1.eps

Fig. 8.36 – Module de la transformée de Fourier d’une période d’un signal carré
discret, évaluée pour un grand nombre de valeurs de ω. Du fait de la périodicité
de période fe de X (j · ω) et de la parité de |X (j · ω)|, l’affichage du spectre
d’amplitude peut être limité à la zone de fréquences 0 . . . f2e (fichier source).

8.C.5 Transformée de Fourier discrète (TFD)


8.C.6 Discrétisation de l’axe des fréquences
Reprenant la définition de la transformée de Fourier d’un signal de durée finie
xN (k), on note que bien que le signal original xN (k) soit de nature discrète, sa
transformée de Fourier XN (j · ω) = F{xN (k)} est une fonction de la variable
continue ω. L’évaluation la transformée de Fourier est donc possible pour tout
ω. Pour des raisons pratiques [[16], §3.2.2], on doit toutefois se contenter d’une
version échantillonnée de la fonction XN (j · ω), laquelle est obtenue en discré-
tisant l’axe des pulsations. On n’évalue et/ou on ne dispose donc de XN (j · ω)
qu’à intervalles réguliers ∆ω plutôt que de manière continue (figure 8.37 page
suivante).

8.C.7 Définition de la TFD


L’échantillonnage de la fonction XN (j · ω) sur une période complète entre − ω2e
et + ω2e produit ainsi P = ∆ω
ωe
nombres XN (n) :

XN (j · n · ∆ω)|− P ≤n<+ P = XN (n)|− P ≤n<+ P


2 2 2 2

Chapitre 8 : Identification, v.1.8 324 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

fsignal=0.1[Hz], fe=1.6[Hz], Nf=512, ∆f=fe/Nf=0.003125[Hz], P=64


3

2.5

2
|U(jf)| et |U (n)|
N

1.5

0.5

0
−0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8
f [Hz]

f_fourier_carre_04_2.eps

Fig. 8.37 – Module de la transformée de Fourier d’une période d’un signal carré
discret et sa version échantillonnée dans le domaine des fréquences : ici, on limite
la représentation du spectre d’amplitude a P = 64 points répartis entre − f2e et
+ f2e − fPe (fichier source).

La suite de P nombres XN (n) représente la transformée de Fourier discrète


de xN (k), abrégée ci-après TFD.

8.C.8 Conséquence de la discrétisation de la transformée


de Fourier
Il va sans dire que la discrétisation de la transformée de Fourier n’est pas sans
conséquence puisque XN (j · n · ∆ω) ne représente que partiellement XN (j · ω).
Pour évaluer l’éventuelle perte d’information qui en résulte, on peut calculer la
transformée de Fourier inverse xp (k) de XN (n) selon la relation (8.17) et comparer
avec le signal original xN (k). Sans entrer dans les détails de calcul (voir [[16],
§3.2.10]), le résultat que l’on obtient en s’appuyant sur (8.17) est le suivant :
+∞
X
−1
xp (k) = F {XN (n)} = . . . = xN (k + l · P )
l=−∞

Alors que XN (j · ω) est la transformée de Fourier (exacte) de xN (k), la TFD


XN (n) de xN (k) est la transformée de Fourier exacte d’un signal périodique xp (k)
de période P · h formé de la superposition de xN (k) tous les P échantillons.

Chapitre 8 : Identification, v.1.8 325 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Si P ≥ N , la superposition ne crée aucun recouvrement et la somme xp (k) =


+∞
P
x (k + l · P ) revient à juxtaposer le signal xN (k) tous les P échantillons.
l=−∞

8.C.9 Echantillonnage minimal de la transformée de Fou-


rier
ωe
On peut en déduire le nombre P = ∆ω d’échantillons à prélever sur la trans-
formée de Fourier XN (j · ω) pour former la TFD XN (n). En se rappelant que
x(k) est de longueur N , on voit qu’il est indispensable que P ≥ N , le cas limite
P = N étant suffisant. En le choisissant, l’expression de la TFD est ainsi
+N −1
k0 X
XN (n)|− N ≤n<+ N = XN (j · n · ∆ω)|− N ≤n<+ N = x (k) · e−j·n·∆ω·k·h
2 2 2 2
k=k0

Dans un tel cas de figure, une période de xp (k) coïncide parfaitement avec
xN (k) prélevé précédemment sur xa (t) et aucune information n’est perdue. En
d’autres termes, calculer la TFD de xp (k) ou celle de xN (k) donne le même
résultat.
fsignal=0.1[Hz], fe=1.6[Hz], ∆f=fe/N=0.1[Hz], P=N=16
3

2.5

2
|U(jf)| et |UN(n)|

1.5

0.5

0
−0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8
f [Hz]

f_fourier_carre_05_2.eps

Fig. 8.38 – Echantillonnage de la transformée de Fourier d’une période d’un


signal carré (N = 16 échantillons). La TFD est également échantillonnée avec
N = 16, soit le cas limite pour éviter le recouvrement (fichier source).

En pratique, on échantillonne donc la période ωe de XN (j ·ω) au moins autant


de fois que l’on a prélevé d’échantillons sur xa (t) afin d’obtenir N nombres XN (n)

Chapitre 8 : Identification, v.1.8 326 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

(figure 8.38 page ci-contre) avec

XN (n) = XN (j · n · ∆ω) pour − N/2 ≤ n < +N/2.

La résolution ∆ω de l’axe des pulsations s’en déduit immédiatement :


ωe
∆ω =
N
Sachant que XN (j·ω) est périodique de période ωe et que l’on peut en conséquence
limiter son affichage à la plage − ω2e , . . . + ω2e , les N valeurs de ω sont :
 
N N
− · ∆ω, . . . , −∆ω, 0, +∆ω, +2 · ∆ω, . . . + − 1 · ∆ω
2 2
Le simple fait de songer à la TFD de xN (k) suppose donc que le signal xN (k)
est périodique de période N · h ! On pouvait d’ailleurs le pressentir en relevant
notamment que le module |XN (j · ω)| de XN (n) n’est pas sans rappeler le spectre
de raies d’un signal analogique périodique (figure 8.39).

fsignal=0.1[Hz], fe=1.6[Hz], N=16, ∆f=fe/N=0.1[Hz]


1

0.5
u(t)

−0.5

−1
0 1 2 3 4 5 6 7 8 9 10
t [s]

2.5

2
|U(jω)|

1.5

0.5

0
−0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8
f [Hz]

f_fourier_carre_02_1.eps

Fig. 8.39 – Transformée de Fourier d’une période d’un signal carré (N = 16


échantillons). La TFD est également échantillonnée avec N = 16, soit le cas
limite pour éviter le recouvrement. L’affichage est limité à la zone de fréquences
− f2e . . . f2e − fNe (fichier source).

La conséquence évidemment importante est qu’avec un outil tel que la TFD,


seuls des signaux périodiques de période N · h et ses sous-multiples peuvent

Chapitre 8 : Identification, v.1.8 327 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

être transformés sans erreur. Pour les signaux non périodiques, les techniques de
fenêtrage (Hamming, Hanning, etc) permettent de limiter les inexactitudes [[16],
§3.7].

8.C.10 Inversion de la TFD


Partant de la TFD XN (n), la formule d’inversion est :

+N
2
−1
X
xp (k) = F −1 {XN (n)} = XN (n) · e+j·n·2·π·k (8.17)
n=− N
2

Notons que par suite de la discrétisation de la fréquence inhérente à la TFD, on


n’a pas d’égalité parfaite entre xp (k) et xN (k) puisque l’on a mentionné que
+∞
X
−1
xp (k) = F {XN (n)} = . . . = xN (k + l · P )
l=−∞

8.C.11 Périodogramme
On appelle périodogramme d’un signal x(k) l’expression
1
ΦN (ω) = · |XN (ω)|2
N
Le périodogramme permet de mesurer les contributions des différentes fréquences
à l’énergie du signal.

Chapitre 8 : Identification, v.1.8 328 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

8.C.12 Densité spectrale de puissance Φ(ω) ("spectre")


Dans l’optique de pouvoir traiter les signaux déterministes et les signaux
aléatoires avec un outil commun [[12], §2.3], on définit ici la densité spectrale de
puissance du signal x(k), appelée couramment spectre, et dénotée Φx (ω).
On appelle densité spectrale de puissance la fonction Φx (ω) telle que l’intégrale
Z ω2
Φx (ω) · dω
ω1

fournisse la puissance du signal x(k) correspondant aux pulsations comprises


entre ω1 et ω2 ([[13], §3.8 p.65]).
La densité spectrale de puissance s’applique aux signaux déterministes et aléa-
toires à puissance moyenne finie, i.e. aux signaux tels que
N
1 X
Px = lim · x(k)2 < ∞
N →∞ N
k=0

Notons que pour les signaux déterministes à énergie finie, i.e. les signaux tels que

X
Wx = x(k)2 < ∞
k=0

on préfère utiliser la notion de densité spectrale d’énergie [[13], §3.8, p.66] (aussi
appelée spectre !), dont il est facile de démontrer qu’elle a pour expression :
Φx (ω) = |X(ω)|2

8.C.13 Calcul de la densité spectrale de puissance de si-


gnaux déterministes
On peut montrer d’une part que

X
Φx (ω) = F{Rx (k)} = Rx (k) · e−j·ω·k·h
k=0

i.e., la densité spectrale de puissance est égale à la transformée de Fourier de la


fonction d’autocorrélation
X∞
Rx (k) = x(l + k) · x(l)
l=0

de x(k), et d’autre part que


2


N
1 X 1
x(k) · e−j·ω·k·h = lim · |XN (ω)|2

Φx (ω) = lim ·
N →∞ N N →∞ N
|k=0

{z }
X (ω)

N

Chapitre 8 : Identification, v.1.8 329 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Donc :
1
Φx (ω) = F{Rx (k)} = lim · |XN (ω)|2 (8.18)
N →∞ N

Lorsque la durée d’acquisition est limitée à N · h, on a :


N −1
1 X
RxN (k) = · x(l + k) · x(l)
N l=0

et
1
ΦN · |XN (ω)|2
 N
x (ω) = F Rx (k) =
N
On voit que la densité spectrale de puissance ΦN
x (ω) coïncide avec le périodo-
gramme défini au § 8.C.11 page 328.

8.C.14 Calcul de la densité spectrale de puissance de si-


gnaux aléatoires
Pour les signaux aléatoires, l’évaluation de la fonction d’autocorrélation ne
peut se faire qu’en termes statistiques :

Rx (k) = E [x(l + k) · x(l)]

Sous l’hypothèse d’ergodicité (i.e. en admettant que les moyennes statistiques


coïncident avec les moyennes temporelles, § 8.B.5 page 320), on peut cependant
écrire :
N −1
1 X
Rx (k) = E [x(l + k) · x(l)] = Rx (k)) = lim · x(l + k) · x(l)
N →∞ N
l=0

La densité spectrale de puissance d’un signal aléatoire x(k) peut alors être calculée
de manière analogue à ce qui a été fait pour les signaux déterministes et l’on peut
montrer que  
1 2
Φx (ω) = F{Rx (k)} = lim E · |XN (ω)| (8.19)
N →∞ N
Si seules N valeurs sont à disposition, on a également :

ΦN
 N
x (ω) = F Rx (k)

Ces expressions mettent en lumière le parfait parallélisme entre les expressions


de la densité spectrale de puissance pour des signaux déterministes (8.18) et
aléatoires (8.19).
Pour ces derniers, la densité spectrale de puissance sera plutôt évaluée en
mesurant x(k), en calculant RxN (k) avant d’obtenir ΦNx (ω). Quant aux signaux

Chapitre 8 : Identification, v.1.8 330 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

déterministes, la même démarche est potentiellement appliquable, mais il est clair


que le calcul de ΦN
x (ω) s’effectuera plus directement sur la base de la description
analytique de x(k).  N
Relevons finalement que l’on peut montrer que ΦN x (ω) = F Rx (k) est un
estimateur non biaisé de Φx (ω) puisque [[13], §8.5, p.211]

E ΦN
 
x (ω) = Φx (ω) + RN

où RN ∝ 1/ N .

8.C.15 Transformation du spectre par des systèmes dyna-


miques linéaires
On considère le système dynamique linéaire [[12], §2.3 p.32]

Y (z) = G(z) · U (z) + H(z) · V (z)

dont la formulation dans le temps est



X ∞
X
y(k) = g(l) · u(k − l) + h(l) · v(k − l) = g(k) ∗ u(k) + h(k) ∗ v(k)
l=0 l=0

où u(k) est un signal déterministe et v(k) un signal aléatoire de moyenne µv = 0


et de variance σv2 = λ. Alors
2 2
Φy (ω) = G(ej·ω ) · Φu (ω) + λ · H(ej·ω )

et
Φyu (ω) = G(ej·ω ) · Φu (ω)
La dernière égalité provient du fait que u(k) et v(k) sont non corrélés. En consé-
quence, E [u(k) · v(k + l)] = 0 et donc Φuv (ω) = 0.

Chapitre 8 : Identification, v.1.8 331 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Chapitre 8 : Identification, v.1.8 332 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

Bibliographie

[1] Computer controlled systems, K. Åstrom, B.Wittenmark, 1990, Prentice-


Hall, bibliothèque eivd 40.122-03
[2] Digital Control of Dynamic Systems, G.Franklin, J.Powell, M.Workman,
1990, Addison-Wesley, bibliothèque eivd 40.122-19
[3] Réglages échantillonnés, vol.1, Traitement par la transformation en z, Hans-
ruedi Bühler, 1986, Presses Polytechniques Romandes, bibliothèque eivd
40.120-08
[4] Commande numérique de systèmes dynamiques, R.Longchamp, 1995,
Presses Polytechniques Romandes, bibliothèque eivd 40.120-11
[5] Régulation automatique, L.Maret, 1987, Presses Polytechniques Romandes,
bibliothèque eivd 40.110-11
[6] Réglages échantillonnés, vol.2, Traitement dans l’espace d’état, Hansruedi
Bühler, 1983, Presses Polytechniques Romandes, bibliothèque eivd 40.120-
09
[7] Linear systems, Th.Kailath, 1980, Prentice-Hall, bibliothèque eivd 32.100-36
[8] Régulation automatique 3, L.Maret, cours polycopié EINEV
[9] Théorie et traitement des signaux, Traité d’Electricité, vol.VI, F.de Coulon,
1984, Presses Polytechniques Romandes, bibliothèque eivd 32.100-23
[10] Einführung in die Regelungstechnik, W.Leonhard, Vieweg & Sohn, Braun-
schweig/Wiesbaden, 1985
[11] Feedback control theory, Doyle, Francis, Tannenbaum, Maxwell Macmillan
international editions, 1992, bibliothèque eivd 40.112-04
[12] System Identification, Theory for the User, Lennart Ljung, Prentice-Hall
information and system sciences series, Thomas Kailath Editor, 1987, bi-
bliothèque eivd 40.162-27/02
[13] Modeling of Dynamic Systems, Lennart Ljung & Torkel Glad, Prentice-Hall
information and system sciences series, Thomas Kailath Editor, 1994, biblio-
thèque eivd 40.162-32
[14] Identifikation dynamischer Systeme, Rolf Iserman, Band I & II, Springer-
Verlag, 1988, bibliothèque eivd 40.162-25/01 et 40.162-26/01

Bibliographie 333 mee \cours_rn.tex\12 avril 2005


eivd Régulation numérique

[15] Introduction au traitement de signal, cours polycopié, F.Mudry, 1992, EI-


NEV
[16] Traitement numérique des signaux, Traité d’Electricité, vol.XX, M.Kunt,
1984, Presses Polytechniques Romandes
[17] Entraînements réglés, Michel Etique, cours polycopié de l’école d’ingénieurs
du canton de Vaud (eivd ), 2002, http://iai.eivd.ch/users/mee/
[18] Régulation automatique, Michel Etique, cours polycopié de l’école d’ingé-
nieurs du canton de Vaud (eivd ), 2003, http://iai.eivd.ch/users/mee/
[19] Atlas Copco Controls S.A., Socapel SAM, A Smart Axis Manager, About
the PAM & SAM, Ordering Number : 025.8012.D, Rev. February 20, 1998

Bibliographie 334 mee \cours_rn.tex\12 avril 2005