Académique Documents
Professionnel Documents
Culture Documents
Chapitre VI PDF
Chapitre VI PDF
Méthodes d’identification
Version 1/12.11.2002
S 2 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + A( q −1 ) w(t ) S 4 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + [1 / C ( q −1 )]e(t )
e(t)
w(t)
u(t) y(t) 1
q-d B +
+ CA
A
u(t) y(t)
q-d B +
Variable instrumentale…(VIMA) A +
Perturbation
u(t) y(t)
PROCEDE
Structure: q
-1 + εο(t))
A.A.P.
-
>
PREDICTEUR y(t)
AJUSTABLE φ ( t - 1)
>
θ (t )
[
θˆ (t )T = aˆ1 (t ), bˆ1 (t ), cˆ1 (t ) ] ; φ (t ) T = [− y (t ), u(t ), ε (t )]
Re H < 0 Re H > 0
discret
Im z
Im H
+ j z jω
jω H (e )
z =e
-1 1 Re H
Re z
- j jω
z =e Re H < 0 Re H > 0
- asymptotyquement stable
- Re H (e jω ) > 0 pour tout e jω = 1, (0 < ω < π ) (cas discret)
I.D. Landau, Commande des systèmes, Chapitre 6 8
Maximum de vraisemblance récursif (MVR)
Idée: La même que pour MCE + filtrage de Φ(t) par C(q-1)
(pour éliminer la condition SPR et pour une décorrélation plus
rapide de Φ et ε)
Procédé + perturbation (ARMAX):
y (t + 1) = −a1 y (t ) + b1u (t ) + c1e(t ) + e(t + 1)
Prédicteur ajustable (paramètres inconnus):
yˆ o (t + 1) = −aˆ1 (t ) y (t ) + bˆ1 (t )u (t ) + cˆ1 (t )ε (t ) = θˆ(t )T φ (t ) (à priori)
[
θˆ (t )T = aˆ1 (t ), bˆ1 (t ), cˆ1 (t ) ] ; φ (t ) T = [− y (t ), u(t ), ε (t )]
[
θˆ(t )T = aˆ1 (t ), bˆ1 (t ), cˆ1 (t ) ] ; Φ(t ) = φ (t )T = [− yˆ (t ), u (t ), ε (t )]
Au lieu de y(t) dans les MCE
Erreur de prédiction (a priori): ε o (t + 1) = y (t + 1) − yˆ o (t + 1)
Cas général:
[
θˆ(t ) T = aˆ1 (t )...aˆ n A (t ), bˆ1 (t )...bˆnB (t ), hˆ1 (t )...hˆnC (t ) ]
Φ(t ) T = [− yˆ (t )... − yˆ (t − n A + 1), u (t − d )...u (t − d − n B + 1), ε (t )...ε (t − nC + 1)]
[
θˆ (t ) T = aˆ1 (t ), bˆ1 (t ), cˆ1 (t ) ] ; φ (t ) T = [− y (t ), u (t ),−α (t ) ]
Estimation de α(t) : α (t ) = Aˆ (t , q −1 ) y (t ) − q −d Bˆ (t , q −1 )u(t )
= (1 + aˆ (t )q −1 ) y (t ) − bˆ (t )u(t − 1)
1 1
Propriétés:
• e(t) tend asymptotyquement vers un bruit blanc (donc estimation paramétrique
non biaisée en présence d’une excitation riche)
C ( z −1 ) − λ2 ; 2 > λ ≥ max λ (t )
• Condition suffisante de convergence: 2 2
2
fonction de transfert strictement réelle positive
Principe:
Si la structure « procédé + perturbation » est correcte:
−1 −1
• structure perturbation: (e(t ), C (q ) e(t ), ou e(t ) / C ( q )
• degrés des polynômes: A(q −1 ), B( q −1 ), C ( q −1 ), retard d
alors ε(t) bruit blanc ( E{ε (t )ε (t − i )} = 0; i ≠ 0 )
asympt.
Méthode de validation:
1) Constitution d’un fichier E/S pour le modèle identifié
(avec la même entrée que pour le procédé réel)
∑
1 R (0 )
R(0) = ε 2 (t ) ; RN ( 0) = =1
N t =1
R (0 )
1 N R (i )
R (i) = ∑ ε (t )ε (t − i) ; RN (i) = ; i = 1,2,3...imax ; imax = max( n A , n B + d )
N t =1 R (0)
Valeurs théoriques: RN(0) =1; RN(i) =0; i > 0 (voir aussi Chapitre 4)
• Nombre fini de données
Situation réelle: • Erreurs résiduelles de structure ( ordre, nonlinéarités, bruits)
• Objectif: obtenir des « bons » modèles simples
Critère de validation (N = nombre de données):
2,17
RN (0) = 1 ; RN (i) ≤ ; i ≥1
N
I.D. Landau, Commande des systèmes, Chapitre 6 18
Test de « blancheur »
Remarques:
• Critère de validation « trop bon » simplification possible du modèle
• A « compléxité » égale on choisit le modèle qui conduit aux plus petits RN (i )
+ ε (t) ε (t )
+
y(t-1) - 1 A.A.P.
>
A.A.P.
q y(t-1) - 1 -
- q
>
>
y°(t) y°(t)
Prédicteur Prédicteur
ajustable ajustable
Procédé + perturbation:
A( q − 1 ) y (t ) = q − d B (q −1 )u (t ) + w′(t + 1) où: w′(t + 1) = A(q − 1 ) w(t )
[ ]
θˆ(t )T = aˆ1 (t ), bˆ1 (t ) ; Φ(t )T = φ (t )T = [− yˆ (t ), u (t ) ]
ε o (t + 1) = y (t + 1) − yˆ o (t + 1) ; ε (t + 1) = y (t + 1) − yˆ (t + 1)
ν (t + 1) = D(q −1 )ε (t + 1) ; ν o (t + 1) = ε o (t + 1) + ∑ d ε (t + 1 − i )
i =1
i
−1 −1 −nD
D( q ) = 1 + d1q + ... + d nD q
AAP: On utilise l’algorithme donné transparent 4 avec : ε°(t) = ν°(t)
Propriétés:
• Identification sans biais des paramètres du modèle du procédé sans
identifier le modèle de la perturbation (utile pour bruits non gaussiens)
D ( z −1 ) λ2
• Condition suffisante de convergence:
A( z −1 ) − 2 ; 2 > λ2 ≥ max λ2 (t )
1
Φ(t ) = φ f (t ) = φ (t )
ˆA( q −1 )
AAP: On utilise l’algorithme donné transparent 4 avec : Φ (t ) = φ f (t )
Aˆ ( z −1 ) λ2
• Condition suffisante de convergence:
A( z −1 ) − 2 ; 2 > λ2 ≥ max λ2 (t )
fonction de transfert strictement réelle positive
I.D. Landau, Commande des systèmes, Chapitre 6 26
Erreur de sortie avec filtrage adaptatif des observations (ESFAO)
Méthode de validation:
1) Constitution d’un fichier E/S pour le modèle identifié
(avec la même entrée que pour le procédé réel)
∑
1 ; imax = max(n A , n B + d )
R (i ) = ε (t ) yˆ (t − i ) ; i = 0,1,2,..., imax
N t =1
R (i )
RN (i) = 1/ 2
; i = 0,1,2,..., imax
1 N N
∑ ∑
1
yˆ (t )
2
ε (t )
2
N t =1 N
t =1
Remarque: RN (0) ≠ 1
Remarque:
Il est souvent utile de comparer les résultats obtenus avec ceux donnés
par les MCR
y (t ) M − y (t − 1) u(t − 1)
rang y (t − 1) M − y (t − 2) u (t − 2) = 3 ( rang plein)
(*)
y (t − 2) M − y (t − 3) u (t − 3)
↑ ↑
Y (t ) R(1) = R (nˆ )
y(t ) M − y(t − 1) − y (t − 2 ) u (t − 1) u (t − 2 )
y (t − 1) M − y(t − 2) − y (t − 3) u (t − 2 ) u (t − 3)
y (t − 2 ) M − y (t − 3) − y (t − 4 ) u (t − 3) u (t − 4 ) = [Y (t ) R ( 2)]
y(t − 3) M − y(t − 4) − y (t − 5 ) u (t − 4 ) u (t − 5 )
y (t − 4 ) M − y (t − 5 ) − y (t − 6 ) u (t − 5 ) u (t − 6 ) Rang < 5 (c’est 4)
↑ ↑ car Y(t) est une
R(2 ) = R (nˆ )
combinaison linéaire
Y (t )
des colonnes 2, 3, 4, 5
I.D. Landau, Commande des systèmes, Chapitre 6 33
Estimation de la complexité d’un modèle (sans bruit)
Idée: rechercher le nombre de colonnes à rajouter afin d’exprimer Y(t) comme
une combinaison linéaire des autres colonnes
n n
Modèle : y (t ) = − ∑ a y (t − i ) + ∑ b u (t − i )
i =1
i
i =1
i
n=?
− y (t − 1) L − y (t − nˆ ) u (t − 1) L u (t − nˆ )
− y (t − 2 ) φ (t − 1)
T
− y (t − nˆ − 1) u (t − 2) L u (t − nˆ − 1)
= φ (t − 2) T
L
R (nˆ ) =
M M M M M M M
− y (t − N )
L − y(t − nˆ − N + 1) u (t − N ) L u (t − nˆ − N + 1) φ (t − N ) T
Mais ce critère n’est rien d’autre que le critère des moindres carrés car
il peut s’exprimer en tenant compte de (**) et (***):
∑[ ] [ ]
t
J MC (nˆ ) == min
1 2 ˆ T = aˆ ,K , aˆ , bˆ ,..., bˆ
y (i) − θˆnTˆ (t )φ (i − 1) ; θ nˆ 1 nˆ 1 nˆ
θˆ N
i =t − N +1
bruit blanc
0
n
Il faut donc mettre en oeuvre un algorithme qui donne une estimation non biaisée
minimum
CJ IV ( nˆ )