Académique Documents
Professionnel Documents
Culture Documents
Identification
47
48 CHAPITRE 3. IDENTIFICATION
Δy
Ks = (3.2)
Δu
et la constante de temps τ qui est le temps de montée à 63 % (en effet,
1 − exp(−1) = 0.631).
Y (s) Ks
= (3.3)
U(s) 1 2
ω02
s + ω2ξ0 s + 1
On détermine le gain par la même expression (3.2) à partir des amplitudes des
variations de l’entrée et de la sortie. L’amortissement ξ est déterminé à partir
du dépassement en inversant l’expression (2.32), ce qui donne :
1
ξ= 2 (3.4)
−π
1+ ln(D)
permet de déterminer ω0 .
Tc
1. Le temps qui s’écoule entre deux instants t consécutifs vérifiants y(t) = y(∞) est 2 .
3.1. APPROCHE TEMPORELLE 49
−t tk
y(t) = Ks Δu 1 − exp (3.7)
τ k!τ k
k=0
Sa dérivée est :
Ks Δu −t tn−1
ẏ(t) = exp (3.8)
τn τ (n − 1)!
et sa dérivée seconde :
Ks Δu −t tn−2 t
ÿ(t) = exp n−1− (3.9)
τn τ (n − 1)! τ
50 CHAPITRE 3. IDENTIFICATION
On observe que la dérivée seconde s’annule une seule fois pour t > 0 en
t1 = τ (n − 1), ce qui signifie que la courbe y(t) présente un point d’inflexion en
(t1 , y(t1 )). La tangente à la courbe y(t) en ce point coupe l’axe des abscisses
en t = Tu et atteint la valeur y(∞) en t = Tu + Ta . Les valeurs de Tu /τ , Ta /τ
et Tu /Ta sont données dans le tableau 3.1 pour les ordres 2 à 10.
n Tu /τ Ta /τ Tu /Ta
2 0.2817 2.718 0.1036
3 0.8055 3.695 0.2180
4 1.425 4.464 0.3194
5 2.102 5.112 0.4103
6 2.811 5.699 0.4933
7 3.549 6.226 0.5700
8 4.307 6.711 0.6417
9 5.081 7.164 0.7092
10 5.869 7.590 0.7732
Tu = 0.3194 × Ta = 1.4054
0.5e−0.1s
G(s) =
(1 + 0.1s)4
⎧
⎪
⎪ −t1
⎪
⎨ 1 − exp = 0.28
τ
⎪
⎪ t2
⎪
⎩ 1 − exp − = 0.4
τ
0.28 × Δy = 0.28
0.4 × Δy = 0.4
t1 = 2.6s et t2 = 3.2s
0.5e−1.52s
G(s) =
1 + 3.3s
La réponse indicielle est donc une droite de la forme y = at, d’où une variation
d’amplitude de la sortie Δy = tan α = a. Le gain statique est alors déterminé
par :
Δy a
Ks = = (3.15)
Δu Δu
Ks
G(s) = (3.16)
s (1 + τ s)n
Ks Δu
Y (s) = G(s)U(s) = n (3.17)
s (1 + τ s) s
3.1. APPROCHE TEMPORELLE 55
Soit :
y1 − y(0) −n n−1 n−2 1
=e 1+ +n +···+ nn−2
(3.22)
y1 − y(0) 1! 2! (n − 1)!
n 1 2 3 4 5
y1 − y(0)
0.368 0.271 0.224 0.195 0.175
y2 − y(0)
Ks e−tr s
G(s) = (3.23)
s(1 + τ s)n
Il existe une autre méthode plus rapide, mais moins précise, pour l’identi-
fication d’un système intégrateur du nième ordre. Elle consiste à admettre que
ce système peut être assimilé à un système intégrateur affecté d’un retard pur,
soit :
Ks Ks e−tr s
G(s) = ≈ (3.24)
s(1 + τ s)n s
avec tr = t1 .
Kr K s
F (0) = (3.27)
1 + Kr Ks
K r Ks
y(∞) = y(0) + a = y(0) + (a − b) (3.28)
1 + Kr Ks
a−b
Ks = (3.29)
bKr
Méthode de Strejc
Ks e−tr s
G(s) =
(1 + τ s)n
Ko n Ko n Ko n
∞ 2 4.90 3.6 1.69 9.5
232 2.1 4.39 3.8 1.60 10
72 2.2 4 4 1.51 12
38 2.3 3.31 4.5 1.42 14
25 2.4 2.89 5 1.36 16
18.83 2.5 2.58 5.5 1.31 18
14.81 2.6 2.37 6 1.28 20
12.19 2.7 2.20 6.5 1.21 25
10.36 2.8 2.07 7 1.17 30
9.02 2.9 1.97 7.5 1.13 40
8 3 1.88 8 1.10 50
6.55 3.2 1.81 8.5 1.05 100
5.59 3.4 1.75 9 - -
Ks e−tr s
G(s) =
s(1 + τ s)n
3.1. APPROCHE TEMPORELLE 59
Ko
2 1.7 1.59 1.54 1.44 1.37 1.32 1.28 1.25 1.23
ωo
Méthode de Broı̈da
To 2
τ= Ko − 1 (3.35)
2π
Ks e−tr s
G(s) =
s(1 + τ s)
To 2
τ= Ko − 1 (3.37)
2π
On cherche à transformer :
1 e−tr s
G1 (s) = → G 2 (s) =
(1 + τ1 s)n 1 + τ2 s
e−tr s
1 + τs
Ks
G(jω) = (3.39)
1 + jτ ω
Ks
|G(jω)| = (3.40)
1 + (τ ω)2
−π
arg(G(jω)) = − arctan(τ ω) ∈ ,0 car τ ω > 0 (3.41)
2
— Phase :
ω → 0, arg (G(jω)) → 0
ω → ∞, arg (G(jω)) → −π 2
−π
ω = 1/τ , arg (G(jω)) = 4
√
• Si ξ < 2/2 (système faiblement amorti), alors la dérivée du dénominateur
de |G(jω)| s’annule pour ωm = ω0 1 − 2ξ 2, d’où la valeur maxi-
male :
Ks
GdB (ωm ) = 20 log
2ξ 1 − ξ 2
√
• Si ξ > 2/2 (système fortement amorti), il n’y a pas de dépassement
et le modèle peut se mettre sous la forme :
Ks
G(jω) =
(1 + jτ1 ω)(1 + jτ2 ω)
La fonction de transfert est la multiplication de deux premiers ordres
d’où :
GdB = 20 log Ks − 20 log (|1 + jτ1 ω|) − 20 log (|1 + jτ2 ω|)
Première pente à -20dB/dec Seconde pente à -20dB/dec
— Phase :
ω → 0, arg (G(jω)) → 0
ω → ∞, arg (G(jω)) → −π
B(z −1 )
y(k) = u(k) + β(k) (3.48)
A(z −1 )
Alors :
y = Ψ
. θ
+
e (3.50)
dim (N −n) dim (N −n)×(n+m+1) dim (n+m+1) dim (N −n)
Le critère J est :
J= e2 = eT e
avec e = y − Ψθ les résidus d’estimation. Donc :
J = (y − Ψθ)T (y − Ψθ) = y T y − θT ΨT y − y T Ψθ + θT ΨT Ψθ
Remarque :
L’estimateur est non biaisé si :
E[θ̂] = θ
k 1 2 3 4
u(k) 2 1 4 5
y(k) 0 2 2 5
Pour estimer les paramètres θ̂T = [a, b] par la méthode des moindres carrés,
on utilise :
! "−1 ! T "
θ̂ = ΨT Ψ Ψ y
⎡ ⎤
2
0 −2 −2 ⎢ ⎥ −14
(ΨT y) = ⎣ 2⎦ =
2 1 4 23
5
d’où :
a 1 21 10 −14 −0.5
θ̂ = = =
b 68 10 8 23 1
Le modèle du système est identifié et s’écrit :
k 1 2 3 4
u(k) 2 1 4 3
y(k) 2 2 5 5.5
avec :
ψN +1 yN +1
ΨN +1 = , YN +1 =
ΨN YN
# $
où ψN +1 = −yN −yN −1 · · · yN −n+1 uN +1 · · · uN −m+1
on obtient :
θ̂N +1 =
% &−1
(ΨTN ΨN )−1 − (ΨTN ΨN )−1 ψN
T
+1 1 + ψN +1 (Ψ T
Ψ
N N ) −1 T
ψN +1 ψN +1 (Ψ T
Ψ
N N ) −1
! T "
× ΨN YN + ψN T
+1 yN +1 (3.55)
! "−1 T
En posant α = 1 + ψN +1 ΨTN ΨN ψN +1 et en développant les calcules, on
obtient finalement une formule de récurrence :
! T "−1 T
−1
θ̂N +1 = θ̂N + ΨN ΨN ψN +1 α yN +1 − ψN +1 θ̂N (3.56)
Le terme yN +1 − ψN +1 θ̂N représente l’erreur d’estimation à l’aide des pa-
ramètres précédents. La nouvelle estimation est alors l’ancienne estimation
corrigée par un terme proportionnel à l’erreur d’estimation précédente, que
l’on peut réécrire sous la forme :
θ̂N +1 = θ̂N + KN +1 yN +1 − ψN +1 θ̂N (3.57)
tels que :
T
! T
"−1
KN +1 = PN ψN +1 I + ψN +1 PN ψN +1 (3.58)
PN +1 = PN − KN +1 ψN +1 PN (3.59)
PN +1 = (I − KN +1 ψN +1 )PN (I − KN +1 ψN +1 )T + KN +1 KNT +1
θ̂N +1 = θ̂N + KN +1 yN +1 − ψN +1 θ̂N (3.60)
T
! T
"−1
KN +1 = PN ψN +1 λI + ψN +1 PN ψN +1 (3.61)
1
PN +1 = (PN − KN +1 ψN +1 PN ) (3.62)
λ
Cette méthode présente les mêmes avantages que les moindres carrés non
récursifs, mais aussi le même inconvénient : l’estimateur est biaisé. Aussi on
lui préfère généralement d’autres méthodes telle que la méthode de la variable
72 CHAPITRE 3. IDENTIFICATION
D’autres algorithmes existent et sont basés à peu près sur le même prin-
cipe. La différence se résume à l’expression de réglage du gain ; un réglage des
paramètres pour annuler une erreur d’équation ou de sortie selon la méthode.
La valeur du gain influe, comme sur n’importe quel système, sur la stabilité
(convergence de la méthode) et sur la rapidité. Moduler le gain revient donc à
moduler la rapidité de convergence ; si l’on a affaire à un système dont il faut
poursuivre les paramètres, qui varient effectivement dans le temps, on aura
intérêt à avoir un gain fort, si par contre le système est fortement bruité, on a
intérêt à avoir un gain faible, sinon la sortie du modèle va poursuivre le bruit
en faisant varier les paramètres à chaque période d’échantillonnage, ce qui n’a
pas de sens physique. Un bon réglage du gain demande plusieurs essais.
4◦ ) Sachant que :
! "−1
(A + BCD)−1 = A−1 − A−1 B C −1 + DA−1 B DA−1
Montrez que :
θ̂N +1 =
% &−1
(ΨTN ΨN )−1 − (ΨTN ΨN )−1 ψN
T
+1 1 + ψN +1 (Ψ T
N Ψ N ) −1 T
ψN +1 ψ N +1 (Ψ T
N Ψ N ) −1
! T "
× ΨN YN + ψN T
+1 y N +1
! "−1 T
5◦ ) En posant α = 1 + ψN +1 ΨTN ΨN ψN +1 , montrez que :
! T "−1 T
−1
θ̂N +1 = θ̂N + ΨN ΨN ψN +1 α yN +1 − ψN +1 θ̂N (3.67)
◦
6 ) Que représente le terme yN +1 − ψN +1 θ̂N , interprétez alors l’équation
(3.67).
3.4.1 Principe
'
x(k + 1) = Ax(k) + Bu(k) + Gζ(k)
(3.68)
y(k) = Cx(k) + β(k)
L’état initial du système x0 est lui aussi inconnu, mais on en dispose de quelques
connaissances sous forme de valeur moyenne (prédite) x̄0 et de matrice de co-
variance P0 ; x0 ∼ (x̄0 , P0 ). On suppose que x0 est indépendant de β et de ζ,
c’est-à-dire E[xT β] = E[xT ζ] = 0.
Pour voir jusqu’à quel point l’estimation x̂(k|k) est précise, l’erreur de
covariance postérieure P (k|k) peut être calculée par :
! "−1
P (k|k) = P (k|k − 1) − P (k|k − 1)C T CP (k|k − 1)C T + R CP (k|k − 1)
(3.79)
pour obtenir les estimations optimales P (k|k) et x̂(k|k). K(k) est appelé
le gain de Kalman.
Faire k = k + 1 et retourner à l’étape 1.
Cette expression est appelée équation algébrique de Ricatti, dont la solution est
P . Alors, le gain de Kalman au régime permanent est une matrice constante :
! "
K = P C T CP C T + R −1 (3.81)
>> K = dlqe(A, G, C, Q, R)