Vous êtes sur la page 1sur 38

Chapitre V

Identification des modèles de procédés : les bases

Version 1/10.11.2002

I.D. Landau Commande des systèmes, Chapitre 5 1


Chapitre 5. Identification des modèles de procédés : les bases

5.1 Principes de l'identification des modèles de procédés


5.2 Algorithmes pour l’estimation paramétrique
5.2.1 Introduction
5.2.2 Algorithme du gradient
5.2.3 Algorithme des moindres carrés
5.2.4 Choix du gain d'adaptation
5.3 Choix de la séquence d'entrée pour l'identification
5.3.1 Le problème
5.3.2 Séquences binaires pseudo-aléatoires (S.B.P.A.)
5.4 Effets des perturbations aléatoires sur l'identification
5.5 Structure des méthodes d'identification récursives
5.6 Conclusion
5.7 Notes et indications bibliographiques

I.D. Landau Commande des systèmes, Chapitre 5 2


Conception et calcul d’un régulateur

SPECIFICATION CALCUL MODELE


DES DU DU
PERFORMANCES REGULATEUR PROCEDE

REGULATEUR PROCEDE
+
-

Pour concevoir et ajuster un « bon » régulateur if faut :


1) Spécifier les performances
2) Connaître le modèle du procédé (modèle de commande)
3) Disposer d’un méthode appropriée de calcul

Identification = opération de détermination du modèle dynamique


(de commande) d’un procédé à partir de donnée expérimentales
I.D. Landau Commande des systèmes, Chapitre 5 3
Modélisation des procédés

Modèles de connaissance
Utilisation: simulation et conception de procédés

Modèles dynamiques de commande (entrée-sortie)


Utilisation : conception et calcul des régulateurs
non paramétriques
(ex: réponses fréquentielles ou temporelles)
Modèles dynamiques
paramétriques
(ex:fonction de transfert)
Modèles paramétriques
continus échantillonnés
On s’intéresse par la suite à l’identification des modèles paramétriques échantillonnés
I.D. Landau Commande des systèmes, Chapitre 5 4
Méthodologie de l’identification

Acquisition de données E/S


sous protocole
prétraitement de données

Estimation dela compléxité


du Modèle (ou Choix)

Choix du modèle de bruit


Estimation Paramétrique

Validation du Modèle

Non Oui Calcul


Régulateur

Il faut voir l’identification comme une procédure itérative dont


l’objectif est l’obtention d’un modèle qui « valide »
I.D. Landau Commande des systèmes, Chapitre 5 5
Identification par calculateur numérique

1)Acquisition
entrée: séquence binaire pseudo aléatoire de faible amplitude

2)Estimation de la complexité du modèle (algorithmes)


3)Estimation des paramètres du modèle (estimation récursive)
PROCEDE DISCRETISE

u(t) y(t)
C.N.A.
+ PROCEDE C.A.N.
B.O.Z. +
ε(t)

modèle
y(t) -
échantillonné
ajustable

paramètres
du modèle algorithme
d'adaptation
paramétrique

4) Validation du modèle identifié


Tests statistiques sur ε(t) et ^y(t)
I.D. Landau Commande des systèmes, Chapitre 5 6
Caractéristiques de l’identification par calculateur numérique

• Signaux de tests de faible amplitude


• Excellente précision d’identification
• Critère objectifs de validation
• Possibilité de suivre les variations des paramètres du procédé
• Identification des modèles des perturbations

Autres applications (liste non exhaustive)


• Modélisation des bruits « capteurs » (en vue de suppression)
• Détection et mesure des modes de vibrations
(fréquence et amortissement)
• Analyse spectrale des signaux
• Détection préventive des pannes

I.D. Landau Commande des systèmes, Chapitre 5 7


Identification (estimation) paramétrique récursive
Algorithme d’adaptation paramétrique (AAP)

Vecteur des paramètres = contient l’ensemble des paramètres à identifier

 Nouvelle estimation Estimation précédente


 des paramètres  =  des paramètres  +
   
 (vecteur)   (vecteur) 
 Gain   Fonction   Fonction 
d' adaptation × des mesures × de l' erreur de prédiction
     
 (matrice)   (vecteur)   (scalaire) 

Vecteur des
observations

I.D. Landau Commande des systèmes, Chapitre 5 8


Identification (estimation) paramétrique

Estimation paramétrique non récursive:


Traitement des entrées/sorties par paquets obtenus sur un horizon de temps.
Pas d’estimation des paramètres pendant l’acquisition ou la lecture du fichier
Estimation paramétrique non récursive:
Traitement d’une paire d’entrées/sorties à chaque pas d’échantillonnage.
(pendant l’acquisitione (temps réel )ou lors de la lecture d’un fichier de données).
Estimation des paramètres a chaque pas d’échantillonnage

Avantages de l’estimation paramétrique récursive


• Obtention d’une estimation du modèle à fur et à mesure que le procédé évolue
• Compression importante des données
• Nécessite moins de puissance de calcul et de mémoire
• Mise en œuvre facile sur microprocesseurs
• Identification temps réel si nécessaire
• Possibilité de poursuite des paramètres variables dans le temps

I.D. Landau Commande des systèmes, Chapitre 5 9


Algorithmes pour l’estimation paramétrique
Modèle discrétisé du procédé (paramètres inconnus)
y (t + 1) = −a1 y(t ) + b1 (t )u(t ) = θ T φ (t ) Vecteur des mesures

θ T = [a1 , b1 ] Vecteur des paramètres ; φ (t) T = [− y (t), u(t )]


Modèle ajustable de prédiction (à priori)
yˆ o (t + 1) = yˆ (t + 1θˆ(t )) = −aˆ (t ) y (t ) + bˆ (t )u (t ) = θˆ(t ) T φ (t )
1 1

θ (t ) T = [aˆ1 (t ), bˆ1 (t )] Vecteur des paramètres ajustables

Erreur de prédiction (à priori)


ε o (t + 1) = y (t + 1) − yˆ o (t + 1) = ε o (t + 1,θˆ(t ))
Critère à minimiser (objectif):
[
J (t + 1) = ε o (t + 1) ] = [ε
2 o
(t + 1,θˆ(t )) ] 2
?
Algorithme d’adaptation paramétrique
(
θˆ (t + 1) = θˆ (t ) + ∆θˆ(t + 1) = θˆ(t ) + f θˆ (t ),φ (t ), ε o (t + 1) )
I.D. Landau Commande des systèmes, Chapitre 5 10
AAP – Algorithme du gradient

Critère à minimiser (objectif):


θˆ (t )
[
min J (t + 1) = ε (t + 1)
o
] 2
gradient
du critère
J(aˆ 1 , bˆ 1 ) ∂J (t + 1)
θ (t + 1) = θ (t ) − F
ˆ ˆ
∂θˆ(t )
b̂1
F = αI (α > 0) (I = matrice unité)

1 ∂J (t + 1) ∂ε o (t + 1) o
gradient

sens de = ε (t + 1)
b1 l’adaptation 2 ∂θ (t )
ˆ ∂θ (t )
ˆ
â1
a1 courbe (surface)
iso-critère
∂ε o (t + 1)
ε o (t + 1) = y (t + 1) − yˆ o (t + 1) = y (t + 1) − θˆ (t )T φ (t ) = −φ (t )
∂θ (t )
ˆ

θˆ (t + 1) = θˆ(t ) + Fφ (t )ε o (t + 1)

I.D. Landau Commande des systèmes, Chapitre 5 11


AAP – Algorithme du gradient

F = αI (α > 0)
θˆ(t + 1) = θˆ (t ) + Fφ (t )ε o (t + 1) { F > 0 Matrice définie positive

Gain d’adaptation

φ (t )
>
Interprétation o
θ (t+1) Fφ (t ) ε (t+1) ; F = α Ι

>
géométrique θ (t+1)
o
> Fφ (t ) ε (t+1) ; F > o
θ (t)

Attention: Risques d’instabilité si F (α) est grand !!


(voir livre pg. 266 – 267 pour les détails)

I.D. Landau Commande des systèmes, Chapitre 5 12


AAP – Algorithme du gradient amélioré
Sortie à posteriori du prédicteur ajustable
yˆ (t + 1) = yˆ (t + 1θˆ(t + 1)) = −aˆ1 (t + 1) y (t ) + bˆ1 (t + 1)u (t ) = θˆ (t + 1)T φ (t )
Erreur de prédiction (à posteriori): ε (t + 1) = y (t + 1) − yˆ (t + 1)

Critère à minimiser (objectif): min J (t + 1) = [ε (t + 1) ]2


θˆ (t +1)
∂J (t + 1)
Technique du gradient: θˆ (t + 1) = θˆ (t ) − F
∂θˆ(t )
1 ∂J (t + 1) ∂ε (t + 1)
= ε (t + 1)
2 ∂θ (t + 1) ∂θ (t + 1)
ˆ ˆ
∂ε (t + 1)
ε (t + 1) = y (t + 1) − yˆ (t + 1) = y (t + 1) − θˆ(t + 1) T φ (t ) = −φ (t )
∂θ (t + 1)
ˆ
θˆ (t + 1) = θˆ(t ) + Fφ (t )ε (t + 1)
Pour la mise en œuvre il faut exprimer: ε (t + 1) = f (θˆ(t ), φ (t ), ε 0 (t + 1))

I.D. Landau Commande des systèmes, Chapitre 5 13


AAP – Algorithme du gradient amélioré

[ T
]
ε (t + 1) = y (t + 1) − θˆ (t )T φ (t ) − θˆ(t + 1) − θˆ(t ) φ (t )

{
ε 0 (t + 1)

θˆ (t + 1) = θˆ(t ) + Fφ (t )ε (t + 1) θˆ(t + 1) − θˆ(t ) = Fφ (t )ε (t + 1)

ε o (t + 1)
ε (t + 1) = ε (t + 1) − φ (t ) Fφ (t )ε (t + 1)
0
ε (t + 1) =
1 + φ (t ) T Fφ (t )
Fφ (t )ε o (t + 1)
θˆ (t + 1) = θˆ(t ) + Stable quel que soit F > 0
1 + φ (t ) Fφ (t )
T

Mise en œuvre:
1. Avant t+1 on dispose de : u (t ), u (t − 1),..y (t ), y (t − 1), φ (t ),θˆ(t ), F
2. Avant t+1 on calcule : Fφ (t ) /(1 + φ (t ) T Fφ (t )), yˆ 0 (t + 1)
3. A t+1 on fait l’acquisition de y(t+1) et en envoie u(t+1)
4. On met en œuvre l’algorithme d’adaptation paramétrique
(calcul de : ε (t + 1),θˆ (t + 1) )
0

I.D. Landau Commande des systèmes, Chapitre 5 14


Algorithmes des moindres carrés

La minimisation à chaque pas de ε 2 (t + 1) n’entraîne pas nécessairement


la minimisation de ∑ ε 2 (i + 1) sur un horizon de t pas.
b̂1
Pour un bon résultat il faudrait (intuitivement):
• grand gain d’adaptation au début
• petit gain d’adaptation à la fin
L’algorithme des moindres carrés a ces
propriétés.
â 1

Modèle discrétisé du procédé (paramètres inconnus)


y (t + 1) = −a1 y (t ) + b1 (t )u (t ) = θ T φ (t ) Vecteur des mesures

θ T = [a1 , b1 ] Vecteur des paramètres φ (t )T = [− y (t ), u(t)]


Prédicteur ajustable à priori
yˆ o (t + 1) = yˆ (t + 1θˆ(t )) = −aˆ1 (t ) y (t ) + bˆ1 (t )u (t ) = θˆ(t ) T φ (t )
θ (t ) T = [aˆ1 (t ), bˆ1 (t )] Vecteur des paramètres ajustables
I.D. Landau Commande des systèmes, Chapitre 5 15
Algorithmes des moindres carrés
Critère des moindres carrés (objectif) :

∑ [y(i) − θˆ(t) ] ∑ ( )
t t
1 2 1
min J (t ) = T
φ (i − 1) = ε 2 i,θˆ(t )
θˆ ( t ) t t
i =1 i =1

θˆ(t )T φ (i − 1) = − aˆ1 (t ) y (i − 1) + bˆ1 (t )u (i − 1) = yˆ (iθˆ (t ) )

Prédiction de la sortie à l’instant i (i ≤ t) basée


1 i t sur l’estimation des paramètres à l’instant t
∂J (t )
Solution: =0 (voir détails livre pg.270-271)
∂θ (t )
ˆ
t


t
θˆ(t ) = F (t ) ∑ y(i )φ (i − 1) F (t ) −1 = φ (i − 1)φ (i − 1) T
i =1 i =1

Algorithme non récursif !


Voir fonction: nrls.sci(.m) sur le site web du livre
I.D. Landau Commande des systèmes, Chapitre 5 16
Moindres carrés récursifs
θˆ(t ) → θˆ(t + 1) sans refaire tous les calculs
t


t
θˆ(t ) = F (t ) ∑ y(i )φ (i − 1) ; F (t ) −1 = φ (i − 1)φ (i − 1) T
i =1
i =1
t +1 ?
θˆ(t + 1) = F (t + 1) ∑ y (i )φ (i − 1) = θˆ(t ) + ∆θˆ (t + 1)
i =1
t +1
F (t + 1) −1 = ∑ φ (i − 1)φ (i − 1)T =F (t ) −1 + φ (t )φ (t )T (*)
i =1
Calcul (pg.271-273)

θˆ (t + 1) = θˆ (t ) + F (t + 1)φ (t )ε o (t + 1) (**)

Version I F (t )φ (t )φ (t ) T F (t ) (***)
F (t + 1) = F (t ) −
1 + φ (t )T F (t )φ (t )

ε o (t + 1) = y(t + 1) − θˆ(t ) T φ (t )

Le passage de (*) à (***) se fait à l’aide du « Lemme d’inversion matricielle »


Voir fonction: rls.sci(.m) sur le site web du livre
I.D. Landau Commande des systèmes, Chapitre 5 17
Moindres carrés récursifs

En remplaçant F(t+1) dans (**) par (***) on obtient:

ε o (t + 1)
F (t + 1)φ (t )ε (t + 1) = F (t )φ (t )
o
1 + φ (t )T F (t )φ (t )
Et d’autre part :
ε o
(t + 1)
ε (t + 1) = y (t + 1) − θˆ(t + 1)φ (t ) =
1 + φ (t )T F (t )φ (t )

θˆ (t + 1) = θˆ (t ) + F (t )φ (t )ε (t + 1)

Version II F (t + 1) −1 = F (t ) −1 + φ (t )φ (t ) T
(pour l’analyse)
F (t )φ (t )φ (t ) T F (t )
F (t + 1) = F (t ) −
1 + φ (t )T F (t )φ (t )
y (t + 1) − θˆ(t )T φ (t ) ε 0 (t + 1)
ε (t + 1) = =
1 + φ (t ) F (t )φ (t ) 1 + φ (t )T F (t )φ (t )
T

I.D. Landau Commande des systèmes, Chapitre 5 18


Moindres carrés récursifs
1
Gain d’adaptation initial: F (0) = I = (GI ) I ; 0 < δ << 1
δ
Valeur typique: GI = 1000 Algorithme stable quel que soit F(0)

C’est un algorithme à gain décroissant !!


Considérons le cas d’un seul paramètre. F et φ sont des scalaires.
Dans ce cas:

F (t )
F (t + 1) = ≤ F (t )
1 + φ (t ) F (t )
2

Rem.: ne peut pas suivre les variations des paramètres

I.D. Landau Commande des systèmes, Chapitre 5 19


Moindres carrés récursifs
L’algorithme se généralise pour n’importe quelle dimension.
Modèle à identifier:
q − d B (q − 1 ) A(q −1 ) = 1 + a1q −1 + ... + a nA q − nA
y (t ) = u (t )
−1
A(q ) B (q −1 ) = b1q −1 + ... + bnB q −nB
nA nB
y (t + 1) = − ∑ ai y(t + 1 − i ) + ∑ bi u(t − d − i + 1) = θ T φ (t )
i =1 i =1
[ ]
θ T = a1 ,...anA , b1 ,..., bnB ; φ (t ) = [− y(t )... − y (t − n A + 1), u(t − d )...u(t − d − n B + 1) ]
T

Prédicteur ajustable à priori:


nA nB
yˆ (t + 1) = − ∑ aˆi (t ) y (t + 1 − i) + ∑ bˆi (t )u(t − d − i + 1) = θˆ(t ) T φ (t )
o
i =1 i=1
[
θˆ (t ) T = aˆ1 (t ),...aˆ nA (t ), bˆ1 (t ),..., bˆnB (t ) ]
Erreur de prédiction à priori:
ε o (t + 1) = y (t + 1) − yˆ o (t + 1) = y (t + 1) − θˆ(t ) T φ (t )
On utilise l’agorithme MCR donné transparent 17
I.D. Landau Commande des systèmes, Chapitre 5 20
Choix du gain d’adaptation F(t)
F (t + 1) −1 = λ1 (t ) F (t ) −1 + λ 2 (t )φ (t )φ (t ) T
Forme générale:
0 < λ1 (t ) ≤ 1 ; 0 ≤ λ2 (t ) < 2 ; F (0) > 0
 
1  F (t )φ (t )φ (t ) T F (t ) 
F (t + 1) =  F (t ) − 
λ1 (t )  λ1 (t ) 
 + φ (t )T F (t )φ (t ) 
 λ 2 (t ) 
A.1 Gain décroissant (MCR): λ1 (t ) = λ1 = 1 ; λ2 (t ) = 1 t F(t)-1 F(t)

Identification des systèmes stationnaires (paramètres constants)


Facteur d’oubli
A.2 Facteur d’oubli fixe: λ1 (t ) = λ1 ; 0 < λ1 < 1 ; λ 2 (t ) = λ2 = 1
Valeurs typiques pour λ1: λ1 = 0.95,...,0.99
[ ]
t 2
Critère minimisé: J (t ) = ∑ i =1
λ1(t −i ) y (i) − θˆ(t )T φ (i − 1)

Identification des systèmes lentement variables


I.D. Landau Commande des systèmes, Chapitre 5 21
Choix du gain d’adaptation

A.3 Facteur d’oubli variable: λ1 (t ) = λ0 λ1 (t − 1) + 1 − λ0 ; 0 < λ0 < 1


λ2 (t ) = λ 2 = 1
Valeurs typiques: λ1 (0) = 0.95,...,0.99 ; λ0 = 0.95,...,0.99

[ ]
2
t  t −1 
Critère minimisé: J (t ) = ∑  ∏ λ1 ( j − i ) y (i) − θˆ(t )T φ (i − 1)
i=1 j =1 
Comme λ1(t) tend vers 1 pour i grand, on oublie que les données initiales

Recommandé pour l’identification des systèmes stationnaires.


Offre en général des meilleures performances que A.1

I.D. Landau Commande des systèmes, Chapitre 5 22


Choix du gain d’adaptation

A.4 Trace constante: trF (t + 1) = trF (t ) = trF ( 0) = nGI


GI 0
 
F (0) = 
.  n = nombre de paramètres
 . 
  GI = (0.01)0.1 à 4
0 GI 

1  F (t )φ (t )φ (t )T F (t ) 
trF (t + 1) = tr  F (t ) −  = trF (t )
λ1 (t )  α (t ) + φ (t ) F (t )φ (t ) 
T

On calcule: λ1 (t ), pour α (t ) = λ1 (t ) / λ 2 (t ) fixé

Identification des systèmes à paramètres variables dans le temps


A.5 Gain décroissant + trace constante

On commute de A.1 à A.4 quand: trF (t ) ≤ nG ; G = (0.01) 0.1 à 4

Identification des systèmes à paramètres variables dans le temps en absence


d’information initiale sur les paramètres
I.D. Landau Commande des systèmes, Chapitre 5 23
Choix du gain d’adaptation
A.6 Facteur d’oubli variable + trace constante
On commute de A.1 à A.4 quand: trF (t ) ≤ nG ; G = (0.01)0.1 à 4
Identification des systèmes à paramètres variables dans le temps en absence
d’information initiale sur les paramètres

A.7 Gain constant (algorithme du gradient amélioré)


λ1 (t ) = λ1 = 1 ; λ2 (t ) = λ 2 = 0 F (t + 1) = F (t ) = F (0)

Identification des systèmes à peu de paramètres (≤ 3) et niveau de bruit réduit.


Mise en œuvre simple mais performances inférieures à A.1, A.2, A.3, A.4

I.D. Landau Commande des systèmes, Chapitre 5 24


Choix du gain d’adaptation initial F(0)
1
F (0) =
I = (GI ) I
δ
Le gain d’adaptation peut être interprété comme une mesure de
l’erreur paramétrique (précision d’estimation).

Pas d’information initiales sur les paramètres : GI = 1000 ; θˆ(0) = 0

Estimation initiale des paramètres disponible : GI =<< 1 ; θˆ(0) = θˆ0

La trace de la matrice de gains est une mesure de la « valeur » du gain d’adaptation

Remarque:
Si la trace de F(t) ne décroît pas d’une façon significative l’estimation
paramétrique est en général mauvaise
(peut se produire quand les signaux d’excitation ne sont pas appropriés)

I.D. Landau Commande des systèmes, Chapitre 5 25


Choix de la séquence d’entrée pour l’identification

« erreur de prédiction nulle » n’implique pas dans tous les cas


« estimation des vrais paramètres »!!
Modèle procédé: y (t + 1) = −a1 y(t ) + b1u(t )

Modèle estimé: yˆ (t + 1) = −aˆ1 y (t ) + bˆ1u(t )

u (t ) = const. b1 bˆ1 Les deux modèles ont le même


= gain statique mais aˆ1 ≠ a1 ; bˆ1 ≠ b1
1 + a1 1 + aˆ1
b1 bˆ1
y (t + 1) = y (t ) = u et yˆ (t + 1) = yˆ (t ) = u
1 + a1 1 + aˆ1
ε (t + 1) = y(t + 1) − yˆ (t + 1) = 0 pour u (t ) = const ; aˆ1 ≠ a1 ; bˆ1 ≠ b1

G
procédé Si on veut distinguer les deux modèles
il faut appliquer: u (t ) = sin(ωt ) ; ω ≠ 0
modèle
estimé
ω
I.D. Landau Commande des systèmes, Chapitre 5 26
Analyse
[ ]
ε (t + 1) = y (t + 1) − yˆ (t + 1) = −[a1 − aˆ1 ] y (t ) + b1 − bˆ1 u (t ) = 0
b1q −1
y (t ) = u (t )
−1
1 + a1q
[ ( )(
ε (t + 1) = (aˆ1 − a1 )b1q −1 + b1 − bˆ1 1 + a1q −1 ) ] u(t) = 0
ε (t + 1) = [ (b1 − bˆ1 ) + q −1 (b1aˆ1 − a1bˆ1 ) ] u(t) = (α 0 + α1q −1 )u(t ) = 0 (*)

Solution équation récurrente: u(t ) = z t = e sTe t

(α0 + z −1α1 ) z t = 0 z =−
α1
α0
= eσTe ; σ = réel u (t ) = eσTet
b1 bˆ1
u(t ) = const ⇒ σ = 0 ⇒ z = 1 ⇒ −α1 = α 0 ⇒ b1 − b1 = a1b1 − b1aˆ1 ⇒
ˆ ˆ =
1 + a1 1 + aˆ1
Problème : trouver u(t) tel que: ε = 0 ⇒ aˆ1 = a1 ; bˆ1 = b1
Réponse: u(t) ne doit pas être une solution (*).

Pour l’exemple : u (t ) = e jωTet ou e − jωTe t ou sin ωTet , ω ≠ 0


I.D. Landau Commande des systèmes, Chapitre 5 27
Cas général – choix du signal d’excitation
Structure du modèle à identifier:
nA nB
y (t ) = − ∑ ai y (t − i) + ∑ bi u(t − d − i)
i =1 i =1
Nombre de paramètres à identifier: = n A + nB
p
u (t ) = − ∑ sin ω i Te t
i =1
Il faut choisir p tel que u(t) ne puisse pas être une solution de l’équation récurrente
de ε et faisant intervenir les écarts paramétriques.
n A + nB 
nA + nB = pair p≥ 
2
n A + nB + 1
nA + nB = impair p ≥ 
2 
Pour bien identifier il faut appliquer une entrée « riche » en fréquences.

Solution standard: Séquence Binaire Pseudo-Aléatoires (SBPA)


I.D. Landau Commande des systèmes, Chapitre 5 28
Séquences binaires pseudo-aléatoires (SBPA)
Succession d’impulsions rectangulaires modulées en largeur
(très riches en fréquences – spectre uniforme de presque 0 à 0.5fe)
Génération: à l’aide de registres à décalage bouclés
Exemple : génération d’une SBPA de longueur 31=2 5-1
B1 B2 B3 B4 B5

+
( addition modulo 2 )

Longueur de séquence : donne la périodicité.


Variation aléatoire de la largeur des impulsions à l’intérieur d’une longueur de séquence
Eléments caractéristiques:
• nombres de cellules (N)
• durée maximale d’une impulsion ( tim=Nte )
• longueur de la séquence ( L=2 N-1 )

Programme pour la génération des SBPA: voir Annexe A.7 (pg. 533-536)
I.D. Landau Commande des systèmes, Chapitre 5 29
Dimensionnement de la SBPA
Pour bien identifier le gain statique:
Approche 1 (choix de N)
t im = T e .N > t M NTe

tM
Mais d’autre part : ( 2 N − 1)Te = L < durée de l'essai
N → NTe ≥ t M ; ( 2 N − 1)Te ≤ duréede l ' éssai

Approche 2 (choix de N et de la fréquence d’horloge fSBPA)


fe
f SBPA = ; p = 1,2,3,...
p
N , p → pNTe > t M ; p( 2 N − 1)Te ≤ duréede l ' éssai

L’approche 2 permet d’obtenir une valeur plus grande de l’impulsion de durée


maximale pour la même durée de l’essai (ex : prendre N+1 et respectivement p=2 et N)

I.D. Landau Commande des systèmes, Chapitre 5 30


Densité spectrale de la SBPA

p=1

p=2

p=3

L’utilisation d’un diviseur de fréquence pour fSBPA augmente la densité spectrale


en basses fréquences et la réduit en hautes fréquences.

I.D. Landau Commande des systèmes, Chapitre 5 31


Choix de l’amplitude de la SBPA

• Amplitude faible, mais supérieure au niveau du bruit résiduel


• Rapport signal/bruit faible requiert l’allongement de l’essai
• L’augmentation excessive de l’amplitude n’est pas souhaitable
(des phénomènes non-linéaires liés au procédé peuvent apparaître)

Valeurs typiques :
0.5% à 10% de la valeur de la commande statique (point de fonctionnement)

I.D. Landau Commande des systèmes, Chapitre 5 32


Effets des perturbations aléatoires sur l’estimation des paramètres

La sortie mesurée des procédés est en général bruitée (perturbations, bruits de mesure)
Voir Chapitre IV pour la modélisation des perturbations aléatoires
Effet des perturbations aléatoires sur les « moindres carrés »
Sortie du modèle du procédé en présence de bruit: y (t + 1) = θ T φ (t ) + w(t )
w(t) représente l’effet du bruit (stationnaire, moyenne nulle, variance finie, indép. de u(t))
−1
N T 
N 
Solution des moindres carrés: θ ( N ) =  ∑ φ (t − 1)φ (t − 1)   ∑ φ (t − 1) y (t )
ˆ
t =1  t =1 
−1
N T 
N 
θ ( N ) = θ +  ∑ φ (t − 1)φ (t − 1)   ∑ φ (t − 1)w(t )
ˆ
division et t =1  t =1  Erreur (biais)
multiplication −1
1 N T 1
N 
par N θ ( N ) = θ +  ∑ φ (t − 1)φ (t − 1)   ∑ φ (t − 1)w(t ) 
ˆ
 N t =1   N t =1 
1 N −1 
Condition d’estimation
asymptotiquement non biaisée
lim 
N →∞  N

∑i =1
φ (t − 1) w(t ) = E{φ (t − 1) w(t )} = 0

(*)

I.D. Landau Commande des systèmes, Chapitre 5 33


Estimation non biaisée en présence de bruit
Il faut que φ(t-1) et w(t) soient non corrélés
Pour les « moindres carrés » ceci implique w(t) = e(t) (bruit blanc).
Dans tous les autres cas : estimation biaisée (voir détails, livre pg. 290)
Supposons :θˆ = θ et on souhaite que l’algorithme laisse cette valetur inchangée

yˆ (t + 1θ ) = θ T φ (t ) ε (t + 1θ ) = y (t + 1) − yˆ (t + 1θ ) = w(t + 1)

Condition nécessaire à satisfaire pour l’estimation non biaisée:


 1 N −1 
(*) lim 
N →∞  N
 i=1

φ (t − 1, θ )ε (t ,θ ) = E{φ (t − 1,θ )ε (t ,θ )} = 0


Pour éliminer le biais: E{φ (t )ε (t + 1)} = 0 pour θˆ ≡ θ

Modification de l’algorithme d’estimation pour obtenir:


ε(t+1) est un bruit blanc pour θˆ = θ
ou:
φ(t) et ε(t+1) sont non corrélés (ou indépendants) pour θˆ = θ
I.D. Landau Commande des systèmes, Chapitre 5 34
Structure des méthodes d’identification récursives
Perturbation
u(t) y(t)
PROCEDE θˆ(t + 1) = θˆ(t ) + F (t )Φ(t )ε (t + 1)
+ εο(t))
F −1 (t + 1) = λ1 (t ) F (t ) + λ2 Φ(t )Φ(t )T
-1
q
A.A.P.
- 0 < λ1 (t ) ≤ 1 ; 0 ≤ λ2 (t ) < 2 ; F (0) > 0

>
PREDICTEUR y(t)
AJUSTABLE φ ( t- 1) ε 0 (t + 1)
ε (t + 1) =
1 + Φ (t ) T F (t )Φ (t )
>

θ (t )

Éléments caractéristiques:
• structure du prédicteur
• nature des composantes du vecteur d’observations (F)
• dimension des vecteurs des paramètres ajustables et de Φ ˆ
θ
• génération de l’erreur de prédiction (ε)
• même structure pour l’algorithme d’adaptation paramétrique

Types de méthodes d’identification:


I) Basées sur le blanchissement de l’erreur de prédiction (ε)
II) Basées sur la décorrélation du vecteur Φ et de ε
I.D. Landau Commande des systèmes, Chapitre 5 35
Méthodes d’identification
• Il y a différentes structures « procédé + perturbation »
• Il n’y a pas une méthode d’identification unique utilisable
pour toute les structures
Conséquence:
En pratique il faut un systèmes interactif pour faire de l’identification
Il doit fournir:
• différentes structures « procédé + perturbation
• différentes méthodes d’identification
• des méthodes de validation des modèles identification
• un système d’acquisition et traitement des données E/S
• des outils d’analyse et de visualisation graphique
Exemple: WinPIM (Adaptech). Voir Annexe A.5 et site web Adaptech (pg. d’acceuil)
Des routines pour l’identification (Scilab et Matlab) sont téléchargeable à partir
du site web du livre (www-lag.ensieg.inpg.fr/landau/bookIC)
Le transparent suivant donne un aperçu des principales structures « procédé+
perturbation », de leur taux d’utilisation et des méthodes d’identifications appropriés
I.D. Landau Commande des systèmes, Chapitre 5 36
Structures « procédé + perturbation » et méthodes d’identification
S1 : A(q −1 ) y (t ) = q − d B ( q −1 )u (t ) + e(t ) S 3 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + C ( q −1 )e(t )
e(t)
e(t)

~ 2% ~ 64% C
1
A A
u(t) y(t)
u(t)
q-d B
+ y(t) q-d B +
+ A +
A

Moindres carrés récursifs (MCR) Moindres carrés étendus (MCE)


ES avec modèle de prédiction étendu (ESMPE)
Maximum de vraisemblance récursif (MVR)

S 2 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + A( q −1 ) w(t ) S 4 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + [1 / C ( q −1 )]e(t )
~ 33% e(t)
w(t)
u(t) y(t) 1
q-d B + ~ 1%
+ CA
A
u(t) y(t)
q-d B +

Variable instrumentale…(VIMA) A +

Erreur de sortie (ESCF, ESFO, ESFAO)


Moindres carrés généralisés (MCG)
I.D. Landau Commande des systèmes, Chapitre 5 37
Quelques remarques récapitulatives

- L’identification comporte 4 étapes (acquisition E/S, estimation


complexité modèle, estimation des paramètres, validation)
- L’estimation des paramètres peut se faire avec des algorithmes
récursifs ou non récursifs
- L’unicité des paramètres identifiés dépend du choix de l’entrée
- Entrée standard pour l’identification :
Séquence binaire pseudo-aléatoire (SBPA)
- Les perturbations et bruits sur la sortie peuvent provoquer des
erreurs d’estimation (biais)
- Il n’y a pas une structure unique « procédé + perturbation » pour
décrire toutes les situations rencontrés en pratique
- Il n’y a pas de méthode unique d’identification donnant des bons
résultats pour toutes les structures « procédé + perturbation »
- Il faut disposer d’un système interactif pour l’identification

I.D. Landau Commande des systèmes, Chapitre 5 38

Vous aimerez peut-être aussi