Vous êtes sur la page 1sur 38

Chapitre VI

Méthodes d’identification

Version 1/12.11.2002

I.D. Landau, Commande des systèmes, Chapitre 6 1


Chapitre 6. Méthodes d'identification
6.1 Méthodes d'identification basées sur le blanchissement de l'erreur de prédiction (type I)
6.1.1 Moindres carrés récursifs (M.C.R.)
6.1.2 Moindres carrés étendus (M.C.E.)
6.1.3 Maximum de vraisemblance récursif (M.V.R.)
6.1.4 Erreur de sortie avec modèle de prédiction étendu (E.S.M.P.E.)
6.1.5 Moindres carrés généralisés (M.C.G.)
6.2 Validation des modèles identifiés avec les méthodes de type I
6.3 Méthodes d'identification basées sur la décorrélation du vecteur
des observations et de l'erreur de prédiction (type II)
6.3.1 Variable instrumentale à modèle auxiliaire (VIMA)
6.3.2 Erreur de sortie à compensateur fixe (ESCF)
6.3.3 Erreur de sortie avec filtrage (adaptif) des observations (ESF(A)O)
6.4 Validation des modèles identifiés avec les méthodes de type II
6.5 Estimation de la complexité d’un modèle
6.5.1 Un exemple
6.5.2 Cas idéal (sans bruit
6.5.3 Cas avec bruit6.5.4 Critère d’estimation de complexité
6.6 Conclusion
6.7 Notes et indications bibliographiques

I.D. Landau, Commande des systèmes, Chapitre 6 2


Structures « procédé + perturbation » et méthodes d’identification
S1 : A(q −1 ) y (t ) = q − d B ( q −1 )u (t ) + e(t ) S 3 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + C ( q −1 )e(t )
e(t)
e(t)
C
1
A A
u(t) y(t)
u(t)
q-d B
+ y(t) q-d B +
+ A +
A

Moindres carrés récursifs (MCR) Moindres carrés étendus (MCE)


ES avec modèle de prédiction étendu (ESMPE)
Maximum de vraisemblance récursif (MVR)

S 2 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + A( q −1 ) w(t ) S 4 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + [1 / C ( q −1 )]e(t )
e(t)
w(t)
u(t) y(t) 1
q-d B +
+ CA
A
u(t) y(t)
q-d B +

Variable instrumentale…(VIMA) A +

Erreur de sortie (ESCF, ESFO, ESFAO)


Moindres carrés généralisés (MCG)
I.D. Landau, Commande des systèmes, Chapitre 6 3
Méthodes d’identification récursive

Perturbation
u(t) y(t)
PROCEDE

Structure: q
-1 + εο(t))
A.A.P.
-

>
PREDICTEUR y(t)
AJUSTABLE φ ( t - 1)

>
θ (t )

Algorithme θˆ(t + 1) = θˆ(t ) + F (t )Φ(t )ε (t + 1)


Commun à toutes
d’adaptation −1
F (t + 1) = λ1 (t ) F (t ) + λ2 Φ(t )Φ(t ) T
les méthodes
paramétrique 0 < λ1 (t ) ≤ 1 ; 0 ≤ λ2 (t ) < 2 ; F (0) > 0
(AAP) ε 0 (t + 1)
ε (t + 1) =
1 + Φ (t ) T F (t )Φ (t )

I.D. Landau, Commande des systèmes, Chapitre 6 4


Méthodes d’identification basées sur le blanchissement de
l’erreur de prédiction (type I)

- Moindres carrés récursifs (MCR) (voir chapitre 5, transp.15 à 19)


- Moindres carrés étendus (MCE)
- Maximum de vraisemblance récursif (MVR)
- Erreur de sortie avec modèle de prédiction étendu (ESMPE)
- Moindres carrés généralisés (MCG)

I.D. Landau, Commande des systèmes, Chapitre 6 5


Moindres carrés étendus (MCE)

Idée : Identification du modèle du procédé et de la perturbation


(ARMAX) pour pouvoir obtenir une erreur de prédiction blanche
Procédé + perturbation (ARMAX):
y (t + 1) = −a1 y (t ) + b1u (t ) + c1e(t ) + e(t + 1)
Prédicteur optimal (paramètres connus) – voir Chapitre 4
yˆ (t + 1) = − a1 y (t ) + b1u(t ) + c1e(t ) On remplace e(t) par ε(t)

Erreur de prédiction (paramètres connus) : ε (t + 1) = y (t + 1) − yˆ (t + 1) = e(t + 1)


Prédicteur ajustable (paramètres inconnus):
yˆ o (t + 1) = −aˆ1 (t ) y (t ) + bˆ1 (t )u (t ) + cˆ1 (t )ε (t ) = θˆ(t )T φ (t ) (à priori)

[
θˆ (t )T = aˆ1 (t ), bˆ1 (t ), cˆ1 (t ) ] ; φ (t ) T = [− y (t ), u(t ), ε (t )]

yˆ (t + 1) = −aˆ1 (t + 1) y (t ) + bˆ1 (t + 1)u(t) + cˆ1 (t + 1)ε (t ) = θˆ(t + 1)T φ (t ) T (à posteriori)

I.D. Landau, Commande des systèmes, Chapitre 6 6


Moindres carrés étendus (MCE)
Erreur de pédiction (paramètres inconnus)
;
ε o (t + 1) = y (t + 1) − yˆ o (t + 1) ε (t + 1) = y (t + 1) − yˆ (t + 1)
AAP: On utilise l’algorithme donné transparent 4
Rem.: La taille de θˆ et Φ augmente par rapport au moindres carrés
Cas général :
[
θˆ (t ) T = aˆ1 (t )...aˆ nA , bˆ1 (t )...bˆnB (t ), cˆ1 (t )...cˆnC (t ) ]
Φ (t ) T = [− y (t )... − y (t − n A + 1), u (t − d )...u (t − d − n B + 1), ε (t )...ε (t − n C + 1) ]
Propriétés:
• e(t) tend asymptotyquement vers un bruit blanc (donc estimation paramétrique
non biaisée en présence d’une excitation riche)
 1 λ2 
• Condition suffisante de convergence:  −1
−  ; 2 > λ2 ≥ max λ2 (t )
Peut expliquer la non-convergence  C( z ) 2 
pour certains bruits fonction de transfert strictement réelle positive
Voir fonction: rels.sci(.m) sur le site web du livre
I.D. Landau, Commande des systèmes, Chapitre 6 7
Fonction de transfert strictement réelle positive (SRP)
continu
jω Im H
s s =jω H (j ω )
Re H
σ

Re H < 0 Re H > 0

discret
Im z
Im H
+ j z jω
jω H (e )
z =e
-1 1 Re H
Re z
- j jω
z =e Re H < 0 Re H > 0
- asymptotyquement stable
- Re H (e jω ) > 0 pour tout e jω = 1, (0 < ω < π ) (cas discret)
I.D. Landau, Commande des systèmes, Chapitre 6 8
Maximum de vraisemblance récursif (MVR)
Idée: La même que pour MCE + filtrage de Φ(t) par C(q-1)
(pour éliminer la condition SPR et pour une décorrélation plus
rapide de Φ et ε)
Procédé + perturbation (ARMAX):
y (t + 1) = −a1 y (t ) + b1u (t ) + c1e(t ) + e(t + 1)
Prédicteur ajustable (paramètres inconnus):
yˆ o (t + 1) = −aˆ1 (t ) y (t ) + bˆ1 (t )u (t ) + cˆ1 (t )ε (t ) = θˆ(t )T φ (t ) (à priori)

[
θˆ (t )T = aˆ1 (t ), bˆ1 (t ), cˆ1 (t ) ] ; φ (t ) T = [− y (t ), u(t ), ε (t )]

Erreur de prédiction (a priori): ε o (t + 1) = y (t + 1) − yˆ o (t + 1)


Estimation de C(q-1) à t : Cˆ (t, q −1 ) = 1 + cˆ1 (t ) q −1
1  − y (t ) u (t ) ε (t ) 
Φ (t ) = φ f (t ) =
T T
−1
[− y (t ), u(t ), ε (t )] =  −1
, −1
, −1 
ˆ
C (t , q )  ˆ
C ( t , q ) ˆ
C ( t , q ) ˆ
C ( t , q )
AAP: On utilise l’algorithme donné transparent 4
I.D. Landau, Commande des systèmes, Chapitre 6 9
Maximum de vraisemblance récursif (MVR)

• Le filtrage des observations, ne peut se faire que pourCˆ (t , q −1 ) stable. Un test de


stabilité doit être incorporé (existe dans WinPIM et dans les routines du site web)

• L’initialisation se fait par les MCE (pour obtenir une estimation de C)


Horizon d’initialisation : (5 à 8) x nb. des paramétres

• Transition graduelle de MCE vers MVR en utilisant un « facteur de contraction »


(force les racines à l’intérieur du cercle unité)
Cˆ (t , q −1 ) = 1 + cˆ1 (t ) q −1 → Cˆ (t , q −1 ) = 1 + αcˆ1 (t )q −1 ; 0 ≤ α ≤ 1
Facteur de contraction variable: α (t ) = α 0α (t − 1) + 1 − α 0 ; lim α (t ) = 1
t →∞
Choix WinPIM: 0 .5 ≤ α 0 = α ( 0) ≤ 0.9
• Cas général:
[
θˆ(t )T = aˆ1 (t )...aˆn A (t ), bˆ1 (t )...bˆnB (t ), cˆ1 (t )...cˆnC (t ) ]
Φ (t )T =
1
−1
[− y(t )... − y(t − nA + 1), u(t − d )...u(t − d − nB + 1), ε (t )...ε (t − nC + 1)]
Cˆ (t , q )
I.D. Landau, Commande des systèmes, Chapitre 6 10
Erreur de sortie avec modèle de prédiction étendu (ESMPE)
Origine: Extension des méthodes d’erreur de sortie.
C’est une variante des MCE
Procédé + perturbation (ARMAX):
y (t + 1) = −a1 y (t ) + b1u (t ) + c1e(t ) + e(t + 1)
Prédicteur ajustable des MCE:
yˆ o (t + 1) = − aˆ1 (t ) y (t ) + bˆ1 (t )u (t ) + cˆ1 (t )ε (t ) ± aˆ1 (t ) yˆ (t )
Prédicteur ajustable de ESMPE:
yˆ o (t + 1) = −aˆ1 (t ) y (t ) + bˆ1 (t )u (t ) + hˆ1 (t )ε (t ) = θˆ (t )T φ (t ) ; hˆ1 (t ) = cˆ1 (t ) − aˆ1 (t )

[
θˆ(t )T = aˆ1 (t ), bˆ1 (t ), cˆ1 (t ) ] ; Φ(t ) = φ (t )T = [− yˆ (t ), u (t ), ε (t )]
Au lieu de y(t) dans les MCE
Erreur de prédiction (a priori): ε o (t + 1) = y (t + 1) − yˆ o (t + 1)

AAP: On utilise l’algorithme donné transparent 4


I.D. Landau, Commande des systèmes, Chapitre 6 11
Erreur de sortie avec modèle de prédiction étendu (ESMPE)

Cas général:
[
θˆ(t ) T = aˆ1 (t )...aˆ n A (t ), bˆ1 (t )...bˆnB (t ), hˆ1 (t )...hˆnC (t ) ]
Φ(t ) T = [− yˆ (t )... − yˆ (t − n A + 1), u (t − d )...u (t − d − n B + 1), ε (t )...ε (t − nC + 1)]

• Même propriétés asymptotiques que les MCE


• Performances meilleures que les MCE (en général) pour fichiers
E/S avec un nombre limité de données (rejet plus rapide du biais)

Voir fonction: xoloe.sci(.m) sur le site web du livre

I.D. Landau, Commande des systèmes, Chapitre 6 12


Moindres carrés généralisés (MCG)
Idée: Obtenir une erreur de prédiction « blanche » pour une
[
perturbation 1 / C (q −1) e(t ) ]
Procédé + perturbation (ARARX):
e(t + 1)
y (t + 1) = − a1 y (t ) + b1u(t ) +
1 + c1q −1
e(t + 1)
−1
α (t + 1) = (1 + a1q ) y (t + 1) − b1u(t ) = (1 + c1q −1 )α (t + 1) = e(t + 1)
1 + c1q −1
Prédicteur optimal (paramètres connus)
yˆ (t + 1) = −a1 y (t ) + b1u(t ) − c1α (t )

Erreur de prédiction (paramètres connus) : ε (t + 1) = y (t + 1) − yˆ (t + 1) = e(t + 1)

I.D. Landau, Commande des systèmes, Chapitre 6 13


Moindres carrés généralisés (MCG)
Prédicteur ajustable (paramètres inconnus):
yˆ o (t + 1) = − aˆ (t ) y (t ) + bˆ (t )u (t ) − cˆ (t )α (t ) = θˆ(t ) T φ (t )
1 1 1

[
θˆ (t ) T = aˆ1 (t ), bˆ1 (t ), cˆ1 (t ) ] ; φ (t ) T = [− y (t ), u (t ),−α (t ) ]
Estimation de α(t) : α (t ) = Aˆ (t , q −1 ) y (t ) − q −d Bˆ (t , q −1 )u(t )
= (1 + aˆ (t )q −1 ) y (t ) − bˆ (t )u(t − 1)
1 1

Erreur de prédiction (a priori): ε o (t + 1) = y (t + 1) − yˆ o (t + 1)

AAP: On utilise l’algorithme donné transparent 4 avec : Φ (t ) = φ (t )


Cas général:
[
θˆ(t )T = aˆ1(t )...aˆnA (t), bˆ1(t )...bˆnB (t), cˆ1(t )...cˆnC (t ) ]
Φ(t)T = [− y(t)...− y(t − nA +1),u(t − d )...u(t − d − nB +1),−α (t)...− α (t − nC +1)]

I.D. Landau, Commande des systèmes, Chapitre 6 14


Moindres carrés généralisés (MCG)

Propriétés:
• e(t) tend asymptotyquement vers un bruit blanc (donc estimation paramétrique
non biaisée en présence d’une excitation riche)
 C ( z −1 ) − λ2  ; 2 > λ ≥ max λ (t )
• Condition suffisante de convergence:   2 2
 2
fonction de transfert strictement réelle positive

Cette méthode s’utilise dans le cas des perturbations ayant un


spectre fréquentiel étroit (ex.: perturbation presque harmonique).
(la modélisation ARARX requiert dans ce cas moins de paramètres dans C(q-1)
que la modélisation ARMAX)

I.D. Landau, Commande des systèmes, Chapitre 6 15


Validation des modèles identifiés avec les méthodes de type I
Méthodes d’identification basées sur le blanchissement de l’erreur de prédiction
- Moindres carrés récursifs (MCR)
- Moindres carrés étendus (MCE)
Les méthodes: - Maximum de vraisemblance récursif (MVR)
- Erreur de sortie avec modèle de prédiction étendu (ESMPE)
- Moindres carrés généralisés (MCG)

Principe:
Si la structure « procédé + perturbation » est correcte:
−1 −1
• structure perturbation: (e(t ), C (q ) e(t ), ou e(t ) / C ( q )
• degrés des polynômes: A(q −1 ), B( q −1 ), C ( q −1 ), retard d
alors ε(t) bruit blanc ( E{ε (t )ε (t − i )} = 0; i ≠ 0 )
asympt.

I.D. Landau, Commande des systèmes, Chapitre 6 16


Validation des modèles identifiés avec les méthodes de type I

Méthode de validation:
1) Constitution d’un fichier E/S pour le modèle identifié
(avec la même entrée que pour le procédé réel)

2) Constitution d’un fichier des erreurs de prédiction

3) Test de « blancheur » sur la séquence d’erreur de prédiction


résiduelle

I.D. Landau, Commande des systèmes, Chapitre 6 17


Test de « blancheur »
{ε(t)} : séquence centrée des erreurs de prédiction résiduelles
(centré = valeurs mesurées – valeur moyenne)
On calcule:
N


1 R (0 )
R(0) = ε 2 (t ) ; RN ( 0) = =1
N t =1
R (0 )
1 N R (i )
R (i) = ∑ ε (t )ε (t − i) ; RN (i) = ; i = 1,2,3...imax ; imax = max( n A , n B + d )
N t =1 R (0)

Valeurs théoriques: RN(0) =1; RN(i) =0; i > 0 (voir aussi Chapitre 4)
• Nombre fini de données
Situation réelle: • Erreurs résiduelles de structure ( ordre, nonlinéarités, bruits)
• Objectif: obtenir des « bons » modèles simples
Critère de validation (N = nombre de données):
2,17
RN (0) = 1 ; RN (i) ≤ ; i ≥1
N
I.D. Landau, Commande des systèmes, Chapitre 6 18
Test de « blancheur »

• Le critère de validation a été défini en tenant compte du test de blancheur


pour une séquence bruit blanc gaussien de longueur N et en considérant
un intervalle de confiance de 3%
• Quelques valeurs: N = 128, RN (i) ≤ 0.192; N = 256, RN (i) ≤ 0.136
• Testé extensivement en pratique
• D’autres intervalles de confiance peuvent être considérés
(voir tableau 6.2.1 du livre)
• Test pratique: RN (i ) ≤ 0.15 i = 1,...,imax

Remarques:
• Critère de validation « trop bon » simplification possible du modèle
• A « compléxité » égale on choisit le modèle qui conduit aux plus petits RN (i )

I.D. Landau, Commande des systèmes, Chapitre 6 19


Méthodes d’identification basées sur la décorrélation du vecteur
des observations et de l’erreur de prédiction (type II)

-Variable instrumentale à modèle auxiliaire (VIMA)


- Erreur de sortie à compensateur fixe (ESCF)
- Erreur de sortie avec filtrage des observations (ESFO)
- Erreur de sortie avec filtrage adaptatif des observations (ESFAO)

I.D. Landau, Commande des systèmes, Chapitre 6 20


Variable instrumentale à modèle auxiliaire (VIMA)
Idée: Créer un nouveau vecteur des observations qui soit corrélé
avec les variables non bruitées mais non corrélé avec le bruit
Procédé + perturbation:
A( q − 1 ) y (t ) = q − d B (q −1 )u (t ) + w′(t + 1) où: w′(t + 1) = A(q −1 ) w(t )
w(t)
u(t) y(t)
q-d B + w(t) = perturbation quelquonque, indépendante
A + de u(t) et variance finie

Prédicteur ajustable (MCR):


yˆ 0 (t + 1) = −aˆ1 (t ) y (t ) + bˆ1 (t )u (t ) = θˆ (t )T φ (t )
[
θˆ (t ) T = aˆ (t ), bˆ (t )
1 1 ] ; φ (t ) T = [− y (t ), u (t )]

Erreur de prédiction (a priori): ε o (t + 1) = y (t + 1) − yˆ o (t + 1)

I.D. Landau, Commande des systèmes, Chapitre 6 21


Variable instrumentale à modèle auxiliaire (VIMA)
Modèle de prédiction auxiliaire (générateur de la variable instrumentale):
y IV (t ) = −aˆ1 (t ) y IV (t − 1) + bˆ1 (t )u(t − 1)
La sortie prédite dépend des prédictions précédentes et non pas des mesures
précédentes comme dans le prédicteur des MCR
Nouveau vecteur des observations (instrumental):
Φ(t ) T = φ IV (t ) T = [− y IV (t ), u(t ) ]
AAP: On utilise l’algorithme donné transparent 4
Cas général :
[ ]
θˆ(t )T = aˆ1 (t )...aˆ nA (t ), bˆ1 (t )...bˆnB (t )
Φ (t ) T = φ IV (t ) T = [− y IV (t ),− y IV (t − 1),...,u(t − d ), u(t − d − 1),...]
−1 −d −1
y est engendré par: Aˆ (t, q ) y (t ) = q Bˆ (t , q )u(t )
IV IV

• Identification sans biais des paramètres du modèle du procédé sans


identifier le modèle de la perturbation (utile pour bruits non gaussien)
• Nécessite l’initialisation par les MCR.
Horizon d’initialisation: (5 à 8) x nb. des paramètres
I.D. Landau, Commande des systèmes, Chapitre 6 22
Erreur de sortie à compensateur fixe (ESCF)
Idée: Remplacer dans le prédicteur des MCR, y(t) (qui est bruité) par
la prédiction yˆ (t ) (qui dépendra asymptotiquement que de l’entrée)
PERTURBATION PERTURBATION
u(t) u(t) y(t)
y(t)
Procédé o
Procédé o

+ ε (t) ε (t )
+
y(t-1) - 1 A.A.P.

>
A.A.P.
q y(t-1) - 1 -
- q

>
>

y°(t) y°(t)
Prédicteur Prédicteur

ajustable ajustable

Moindres Carrés Récursifs (M.C.R.) Erreur de Sortie ( E.S.)

Procédé + perturbation:
A( q − 1 ) y (t ) = q − d B (q −1 )u (t ) + w′(t + 1) où: w′(t + 1) = A(q − 1 ) w(t )

w(t) = perturbation quelquonque, indépendante de u(t) et variance finie

I.D. Landau, Commande des systèmes, Chapitre 6 23


Erreur de sortie à compensateur fixe (ESCF)
Prédicteur ajustable (Erreur de sortie):
yˆ o (t + 1) = aˆ (t ) yˆ (t ) + bˆ (t )u(t ) = θˆ (t ) T φ (t )
1 1
au lieu de y(t) (MCR)

[ ]
θˆ(t )T = aˆ1 (t ), bˆ1 (t ) ; Φ(t )T = φ (t )T = [− yˆ (t ), u (t ) ]

yˆ (t + 1) = θˆ(t + 1)T φ (t ) ⇒ yˆ (t ) = θˆ(t ) T φ (t − 1)


Erreur de pédiction

ε o (t + 1) = y (t + 1) − yˆ o (t + 1) ; ε (t + 1) = y (t + 1) − yˆ (t + 1)

AAP: On utilise l’algorithme donné transparent 4 avec : Φ (t ) = φ (t )


Cas général:
[
θˆ(t )T = aˆ1 (t )...aˆ nA (t ), bˆ1 (t )...bˆnB (t ) ]
Φ(t) = φ (t )T = [− yˆ (t),− yˆ (t −1),...,− yˆ (t − nA + 1),u(t − d ),...,u(t − d − nB + 1)]
Voir fonction: oloe.sci(.m)sur le site web du livre
I.D. Landau, Commande des systèmes, Chapitre 6 24
Erreur de sortie à compensateur fixe (ESCF)
Erreur d’adaptation (optionnel): nD

ν (t + 1) = D(q −1 )ε (t + 1) ; ν o (t + 1) = ε o (t + 1) + ∑ d ε (t + 1 − i )
i =1
i
−1 −1 −nD
D( q ) = 1 + d1q + ... + d nD q
AAP: On utilise l’algorithme donné transparent 4 avec : ε°(t) = ν°(t)
Propriétés:
• Identification sans biais des paramètres du modèle du procédé sans
identifier le modèle de la perturbation (utile pour bruits non gaussiens)
 D ( z −1 ) λ2 
• Condition suffisante de convergence:  
 A( z −1 ) − 2  ; 2 > λ2 ≥ max λ2 (t )
 

fonction de transfert strictement réelle positive


• Pour n A ≤ 2 et gain d’adaptation décroissant le compensateur D(q -1) n’est
pas nécessaire

• Degré du compensateur D(q -1): nD ≤ nA − 1 ou n A

I.D. Landau, Commande des systèmes, Chapitre 6 25


Erreur de sortie avec filtrage des observations (ESFO)
Prédicteur ajustable (Erreur de sortie):
yˆ o (t + 1) = aˆ (t ) yˆ (t ) + bˆ (t )u(t ) = θˆ (t ) T φ (t )
1 1
Voir fonction: foloe.sci(.m)
[ ]
θˆ(t )T = aˆ1 (t ), bˆ1 (t ) ; φ (t )T = [− yˆ (t ), u (t )] sur le site web du livre
yˆ (t + 1) = θˆ(t + 1)T φ (t ) ⇒ yˆ (t ) = θˆ(t ) T φ (t − 1)
Erreur de pédiction:
ε o (t + 1) = y (t + 1) − yˆ o (t + 1) ; ε (t + 1) = y (t + 1) − yˆ (t + 1)
Filtrage des observations:
Estimation du polynôme A(q-1)
Filtre: L (q ) = Aˆ (q −1 )
−1

1
Φ(t ) = φ f (t ) = φ (t )
ˆA( q −1 )
AAP: On utilise l’algorithme donné transparent 4 avec : Φ (t ) = φ f (t )
 Aˆ ( z −1 ) λ2 
• Condition suffisante de convergence:  
 A( z −1 ) − 2  ; 2 > λ2 ≥ max λ2 (t )
 
fonction de transfert strictement réelle positive
I.D. Landau, Commande des systèmes, Chapitre 6 26
Erreur de sortie avec filtrage adaptatif des observations (ESFAO)

Utilise un filtre adaptatif des observations au lieu d’un filtre fixe


(prend avantage de l’amélioration de l’estimation de A(q-1) au cours du temps)

Filtrage des observations:


−1 −1 Estimation du polynôme A(q-1) fournie
Filtre: L (t , q ) = Aˆ (t , q ) par l’algorithme
1
Φ (t ) = φ f (t ) = φ (t )
ˆA(t , q −1 ) Voir fonction: afoloe.sci(.m)
sur le site web du livre
Initialisation:
Aˆ (0, q −1 ) = Aˆ 0 ( q −1 ) (fourni par un autre algorithme)
ou:
Aˆ (0, q −1 ) = 1 (plus simple et efficace)

Cette variante élimine en général les problèmes éventuels liés à la


condition SPR de convergence des autres algorithmes (ESCF, ESFO)

I.D. Landau, Commande des systèmes, Chapitre 6 27


Validation des modèles identifiés avec les méthodes de type II
Méthodes d’identification basées sur la décorrélation du vecteur des
observations et de l’erreur de prédiction
-Variable instrumentale à modèle auxiliaire (VIMA)
Les méthodes: - Erreur de sortie à compensateur fixe (ESCF)
- Erreur de sortie avec filtrage des observations (ESFO)
- Erreur de sortie avec filtrage adaptatif des observations (ESFAO)
Principe:
• Si la perturbation est indépendante de l’entrée
• Si la structure du modèle du procédé est sorrecte
(degrés des polynômes: A(q −1 ), B( q −1 ), retard d )
N
Alors: E{ε (t ) yˆ (t − i )} ≈ ∑
1
ε (t ) yˆ (t − i ) = 0 ; i = 1,2,3,...
N t =1
avec yˆ (t ) donné par (prédicteur erreur de sortie):
Aˆ (q −1) yˆ (t ) = q −d Bˆ (q −1)u(t )
I.D. Landau, Commande des systèmes, Chapitre 6 28
Validation des modèles identifiés avec les méthodes de type II

Méthode de validation:
1) Constitution d’un fichier E/S pour le modèle identifié
(avec la même entrée que pour le procédé réel)

2) Constitution des fichiers: {y(t )}, {yˆ (t )}, {ε (t )}


3) Test de « décorrélation » entre la séquence d’erreur de prédiction
résiduelle et la séquence des sorties prédites

I.D. Landau, Commande des systèmes, Chapitre 6 29


Test de « décorrélation »
{ε(t)} : séquence centrée des erreurs de prédiction résiduelles
On calcule:
N


1 ; imax = max(n A , n B + d )
R (i ) = ε (t ) yˆ (t − i ) ; i = 0,1,2,..., imax
N t =1
R (i )
RN (i) = 1/ 2
; i = 0,1,2,..., imax
 1 N   N 
∑ ∑
1
 yˆ (t ) 
2
ε (t )  
2
 N t =1  N
 t =1

 Remarque: RN (0) ≠ 1

Valeurs théoriques: RN(i) =0; i = 0, 1, 2…i max


• Nombre fini de données
Situation réelle: • Erreurs résiduelles de structure ( ordre, non linéarités, bruits)
• Objectif: obtenir des « bons » modèles simples
Critère de validation (N = nombre de données):
2,17
RN (0) = 1 ; RN (i) ≤ ; i ≥1 ou: RN(i) ≤ 0.15 ; i = 1,...,imax
N
I.D. Landau, Commande des systèmes, Chapitre 6 30
Validation comparative des modèles identifiés

• Comparaison entre modèles identifiés par les méthodes de type I :


Test de blancheur

• Comparaison entre modèles identifiés par les méthodes de type II :


Test de décorrélation

• Comparaison entre modèles identifiés par des méthodes de type I et


modèles identifiés par des méthodes de type II:
1)Utilisation du prédicteur d’erreur de sortie pour engendrer{yˆ (t )}
2)Test de décorrélation

Remarque:
Il est souvent utile de comparer les résultats obtenus avec ceux donnés
par les MCR

I.D. Landau, Commande des systèmes, Chapitre 6 31


Estimation de la complexité d’un modèle
Exemple 1
Modèle (hypothèse) :
y (t ) = − a1 y (t − 1) + b1u(t − 1) Ordre: n = max(nA, nB +d) =1

Construisons la matrice suivante:


 y (t ) M − y (t − 1) u (t − 1) 
 y (t − 1) M − y (t − 2) u(t − 2)  = [Y (t ) R(1)] (*)

 y (t − 2 ) M − y (t − 3) u(t − 3) 
↑ ↑
)
Y (t ) R(1) = R(n )

 − a1 y(t − 1) + b1u(t − 1) M − y(t − 1) u (t − 1)


rang[Y (t ) R(1)] = rang− a1 y(t − 2 ) + b1u(t − 2 ) M − y(t − 2) u(t − 2) = 2 (< 3)
 − a1 y(t − 3) + b1u(t − 3) M − y (t − 3) u(t − 3)

Si l’ordre du modèle est 1 alors (*) n’est pas de rang plein

I.D. Landau, Commande des systèmes, Chapitre 6 32


Estimation de la complexité d’un modèle
Exemple 2 2 2
Modèle (hypothèse): y (t ) = − ∑ a y(t − i ) + ∑ b u(t − i )
i =1
i
i =1
i (Ordre = 2)

 y (t ) M − y (t − 1) u(t − 1) 
rang  y (t − 1) M − y (t − 2) u (t − 2)  = 3 ( rang plein)
 (*)
 y (t − 2) M − y (t − 3) u (t − 3) 
↑ ↑
Y (t ) R(1) = R (nˆ )

 y(t ) M − y(t − 1) − y (t − 2 ) u (t − 1) u (t − 2 )
 y (t − 1) M − y(t − 2) − y (t − 3) u (t − 2 ) u (t − 3)
 
 y (t − 2 ) M − y (t − 3) − y (t − 4 ) u (t − 3) u (t − 4 ) = [Y (t ) R ( 2)]
 y(t − 3) M − y(t − 4) − y (t − 5 ) u (t − 4 ) u (t − 5 )

 y (t − 4 ) M − y (t − 5 ) − y (t − 6 ) u (t − 5 ) u (t − 6 ) Rang < 5 (c’est 4)
↑ ↑ car Y(t) est une
R(2 ) = R (nˆ )
combinaison linéaire
Y (t )
des colonnes 2, 3, 4, 5
I.D. Landau, Commande des systèmes, Chapitre 6 33
Estimation de la complexité d’un modèle (sans bruit)
Idée: rechercher le nombre de colonnes à rajouter afin d’exprimer Y(t) comme
une combinaison linéaire des autres colonnes
n n
Modèle : y (t ) = − ∑ a y (t − i ) + ∑ b u (t − i )
i =1
i
i =1
i
n=?

 − y (t − 1) L − y (t − nˆ ) u (t − 1) L u (t − nˆ )   
 − y (t − 2 )   φ (t − 1) 
T
− y (t − nˆ − 1) u (t − 2) L u (t − nˆ − 1)
 =  φ (t − 2) T 
L
R (nˆ ) = 
 M M M M M M   M

 − y (t − N )   
 L − y(t − nˆ − N + 1) u (t − N ) L u (t − nˆ − N + 1) φ (t − N ) T 
 

φ (t − j ) T = [− y(t − j ),..,− y (t − nˆ − j + 1), u (t − j ),.., u (t − nˆ − j + 1) ] ; j = 1,..., N (**)


Y (t ) T = [ y (t ), y (t − 1),..., y(t − N + 1)] (***)

On teste le rang de : [Y (t ) M R(nˆ )]


• si nˆ < n , [Y (t ) M R(nˆ )] = rang plein ( 2nˆ + 1)
• si nˆ ≥ n , [Y (t ) M R(nˆ )] = n’est pas de rang plein ( 2n au lieu de 2nˆ + 1)
I.D. Landau, Commande des systèmes, Chapitre 6 34
Estimation de la complexité d’un modèle (avec bruit)
n n
Modèle: y (t ) = − ∑ a y(t − i) + ∑ b u(t − i) + w(t )
i =1
i
i =1
i n=?

Cas: w(t) = bruit blanc


Rem.: Le test de rang s’apparente à la recherche d’un vecteur qui permet d’exprimer
Y(t) comme une combinaison linéaire des colonnes de R(n), c’est à dire on cherche:

J MC (nˆ ) = min Y (t ) − R(nˆ )θˆnˆ


1 2
(♦)
θˆ N

Mais ce critère n’est rien d’autre que le critère des moindres carrés car
il peut s’exprimer en tenant compte de (**) et (***):

∑[ ] [ ]
t
J MC (nˆ ) == min
1 2 ˆ T = aˆ ,K , aˆ , bˆ ,..., bˆ
y (i) − θˆnTˆ (t )φ (i − 1) ; θ nˆ 1 nˆ 1 nˆ
θˆ N
i =t − N +1

Le critère devient nul en absence de bruit


nˆ ≥ n Prend une valeur constante si w(t) est un bruit blanc
I.D. Landau, Commande des systèmes, Chapitre 6 35
Estimation de la complexité d’un modèle (avec bruit)
Cas : w(t) = bruit non blanc
La décroissance (♦) ne tend pas franchement à zéro. Surestimation de l’ordre.
J MC ( nˆ )

bruit blanc

bruit non blanc


sans bruit

0
n

Il faut donc mettre en oeuvre un algorithme qui donne une estimation non biaisée

Solution: technique des « variables instrumentales » Voir détails pg.329-330 du livre


(remplacement des sorties bruitées par des entrées retardées)
J IV (nˆ ) = min YIV (t ) − RIV (nˆ )θ
1 2
Nouvelle quantité de test: ˆ (♦♦ )
θ N
ˆ

I.D. Landau, Commande des systèmes, Chapitre 6 36


Critère d’estimation de complexité
Objectif: estimer des modèles d’ordre réduit
Idée: rajouter dans(♦♦ ) un terme qui pénalise la complexité
2 nˆ log (N )
Critère: CJ IV (nˆ ) = J IV (nˆ ) + S (nˆ , N ) avec: S (nˆ, N ) =
N

L’estimation de l’ordre sera donnée par: nˆ = min CJ IV (nˆ )


minimum
CJ IV ( nˆ )

S (nˆ , N) Après l’estimation de n on peut


appliquer une procédure similaire
pour estimer nA, nB, d
J IV ( nˆ )
0

Voir les fonctions: estorderls.sci(.m), estorderiv.sci(.m) sur le site web du livre.

Le logiciel WinPIM(Adaptech ) utilise ce critère pour l’estimation de l’ordre.


I.D. Landau, Commande des systèmes, Chapitre 6 37
Quelques remarques récapitulatives

- Algorithmes d’estimation paramétrique récursifs ou non récursifs


- Deux types de méthodes d’estimation paramétrique basées sur:
1. Blanchissement de l’erreur de prédiction
2. Décorrélation : vecteur d’observation/erreur de prédiction
- Deux techniques de validation statistique des modèles:
1. Test de « blancheur » sur l’erreur de prédiction résiduelle
2. Test de « décorrélation » entre sortie prédite et erreur de prédiction
-Valeur du seuil de validation pour les tests: 2.17 (N –nb. de données)
(valeur typique) N

-L’ordre des modèles à identifier peut être estimé à partir des


données E/S

- Programmes des algorithmes téléchargeables à partir du site web

I.D. Landau, Commande des systèmes, Chapitre 6 38

Vous aimerez peut-être aussi