Vous êtes sur la page 1sur 20

Université Ferhat Abbas Sétif-1

Faculté de Technologie
Département d’Electrotechnique

Modélisation et Identification
des Systèmes
Cours licence automatique L3 (Rev1 Septembre
2017)

Bilal Sari
Table des matières
III.1. GENERALITES ............................................................................................................................. 4

III.1.1. POSITION DU PROBLEME ........................................................................................................ 4

III.1.2. OBJECTIFS DE L’IDENTIFICATION ET DE L’ESTIMATION PARAMETRIQUE ................................. 4

III.1.3. MODES OPERATOIRES D’IDENTIFICATION ............................................................................... 5

III.1.4. CRITERE D’IDENTIFICATION ..................................................................................................... 6

III.2. MODELES LP ET NLP ................................................................................................................... 6

III.2.1. MODELE LINEAIRE PAR RAPPORT AUX PARAMETRES (LP) ....................................................... 6

III.2.2. MODELE NON LINEAIRE PAR RAPPORT AUX PARAMETRES (NLP) ............................................ 6

III.3. METHODE DES MOINDRES CARRES SIMPLE (MCS) AVEC MODELE LP ........................................ 7

III.3.1. FORMULATION DU PROBLEME MCS ....................................................................................... 7

III.3.2. FORME DU CRITERE QUADRATIQUE DU MCS DANS LE CAS LP ................................................ 7

III.4. FORMULATION MATRICIELLE DU PROBLEME DES MOINDRES CARRES ...................................... 8

III.4.1. FORMULATION MATRICIELLE AVEC UN CRITERE QUADRATIQUE............................................. 8

III.4.2. FORMULATION MATRICIELLE AVEC UN CRITERE QUADRATIQUE PONDERE ............................ 9

III.4.2.1. PONDERATION DU CRITERE J................................................................................................ 9

III.4.2.2. MINIMISATION DU CRITERE J PONDERE .............................................................................. 9

III.5. PROPRIETES DE LA SOLUTION DE LA METHODE DES MOINDRES CARRES ................................. 10

IV.1. PROPRIETES DES ESTIMATEURS MCS ...................................................................................... 12

IV.1.1. ERREUR D’ESTIMATION......................................................................................................... 12

IV.1.2. HYPOTHESE SUR LE BRUIT {BK} ............................................................................................. 14

IV.1.3. CARACTERISATION DE θMC ................................................................................................. 14


IV.1.4. MATRICE DE COVARIANCE ................................................................................................... 14

IV.2. ESTIMATION DE VARIANCE MINIMALE ................................................................................... 15

V. FORMULATION DE LA METHODE MCR ......................................................................................... 16

V.1. POSITION DU PROBLEME MCR .................................................................................................. 16

V.2. FORMULATION ITERATIVE DE MCR ........................................................................................... 16

V.3. FORMULATION ITERATIVE DE MCR AVEC FACTEUR D’OUBLI .................................................... 18

2
Avant-propos
Ce document est conçu comme un support de cours destiné à des étudiants en
troisième année de licence en automatique. Il a été rédigé en particulier en vue d’un
enseignement de 22,5 heures au département d’électrotechnique (Faculté de
technologie de l’université de Sétif).

L’objectif de ce cours est d’aborder certains aspects de la modélisation et


l’identification des systèmes dynamique et ne se veut en aucun cas exhaustif. Les pré-
requis concernent des aspects mathématiques tels que la transformée de Laplace, la
transformée en Z, la manipulation de suites et de fonctions, le calcul intégral et les
séries ainsi qu’une bonne connaissance de l’automatique des systèmes linéaires à
temps continu et à temps discret. Partant des données expérimentales d’un procédé
physique (données entrée/sortie) et dans certains cas des équations différentielles ou
des fonctions de transfert en p (variable de Laplace) ou en Z nous aborderons
successivement quelques techniques d’identification du modèle correspondant au
procédé physique. Nous commencerons par des modèles d’ordre un et ordre 2 et des
techniques basiques d’identification et nous terminerons par des modèles d’ordre élevé
et l’utilisation des techniques plus générales que l’on peut utiliser en ligne.

Le premier chapitre est entièrement dédié à la modélisation. Il présente dans un


premier temps la notion de système en automatique, les différentes approches de
modélisation et d’identification avant d’introduire les types de modèles à savoir les
modèles de représentation et les modèles de connaissance.

Le chapitre 2 présente, dans un premier temps, un rappel des méthodes d’identification


de base en automatique basées sur l’utilisation d’une réponse temporelle d’un système.
Dans un deuxième temps il présente l’approche fréquentielle.
Le chapitre 3 quant à lui, s’intéresse au principe d'ajustement d’un modèle avec la
méthode des moindres carrés. Il commence par le rappel de quelques notions de base
à savoir un modèle linéaire par rapport aux paramètres, la Minimisation d’un critère
et le calcul d’une solution optimale et il propose par la suite l’écriture matricielle de la
méthode des moindres-carrés.

Par la suite, le chapitre 4 est consacré à l’analyse de la méthode des moindres-carrés, il


présente la notion du biais et de variance d'estimation. Enfin, le chapitre 5 aborde le
principe du calcul récursif, et il présente la Mise en œuvre de la méthode des moindres
carrés récursifs.

3
Chapitre 3 : Principe d'ajustement
du modèle (Moindres Carrés)

III.1. Généralités

III.1.1. position du problème

Soit y = f (θ , x ) le modèle mathématique d’un système, avec :

f : la structure du modèle

θ : ensemble des paramètres du modèle θ = [θ1 , θ2 ,…,θn ]

x : variable indépendante (généralement x représente le temps)

y : la sortie (la réponse) du système à une entrée donnée

y = f (θ , x ) est un modèle statique. Il peut décrire par exemple un phénomène


physique dépendant du temps (formulation explicite).

Exemple : charge d’un condensateur y = E (A − e −t /τ ) , c’est un modèle statique avec

f = E (A − e − )
θ =τ
x =t

Remarque : on parle de modèle dynamique pour les équations différentielles ou à


dérivées partielles.

Exemple :

dy
= f ( y ,θ , t ) ou y n’est pas formulé explicitement (ou de manière analytique)
dt
comme le cas statique.

III.1.2. Objectifs de l’identification et de l’estimation paramétrique


On dispose de mesures y * (t ) , et on veut à partir de K mesures y * (t k ) identifier le
système, c'est-à-dire trouver la structure de la loi mathématique et estimer ses

4
paramètres. En effet, le but est d’agir sur les paramètres du modèle de façon à réduire
ε (x k ) l’erreur entre les k mesures y * ( x k ) et la sortie du modèle y m (x k ).

Figure 1 : Principe d’ajustement d’un modèle

Remarque : il est à noter que souvent on se contente d’estimer les paramètres du


modèle en supposant que la loi mathématique (la structure) est connue ce qui n’est pas
toujours le cas. La fonction f est souvent inconnue ou très complexe. On se contente
d’une approximation fm et il en résulte une erreur de modélisation. Généralement on
estime θ m de fm et on peut en plus avoir une estimation (quantification de l’erreur
∆ m = f − f m . Pour pouvoir ajuster les paramètres du modèle, on utilise un critère
d’erreur J = f (ε (t )), ou bien J = f (ε (t k )).

Conclusion : à fin de simplifier le problème d’identification on fait les hypothèses


suivantes :

1. La loi mathématique f (ou plutôt sa structure) est supposée connue


2. L’erreur de modélisation est supposée nulle (négligée)

Le problème d’identification se résume ainsi à un problème d’estimation paramétrique.

Comme les k mesures y * sont bruitées, il est impossible en pratique d’obtenir le


vecteur des paramètres exactes θexact et ne peut que l’estimer par une variable
aléatoire θˆ.

III.1.3. Modes opératoires d’identification


III.1.3.1 Identification en temps différé : le modèle est le système n’évoluent pas
en même temps. On commence d’abord par l’enregistrement des données, ensuite on
fait l’identification hors ligne.

III.1.3.2 Identification en temps réel : le modèle est le système évoluent en même


temps. L’identification en temps réel est utile dans le cas ou le système n’est pas
intemporel (les paramètres internes du système évoluent avec le temps).

5
III.1.4. Critère d’identification
En général, on choisit un critère quadratique qui est sous la forme suivante :

J = ∑ ε K2 dans le cas discret, ou J = ∫ ε 2 (t ) dans le cas continu.

On peut, bien sur, choisir d’autres critères tels que :

J = ∑ ε k , J = max ε k ,....

Mais l’intérêt du critère quadratique est qu’il possède des propriétés mathématiques
intéressantes. Donc c’est le critère qui sera utilisé dans tout le reste du document.
L’objectif par la suite est de chercher le vecteur des paramètres (du modèle qu’on
cherche à identifier) qui minimise le critère quadratique J. C’est la méthode des
moindres carrés.

III.2. Modèles LP et NLP

Généralement on classe les modèles (loi f) en deux catégories :

1. Loi linéaire par rapport aux paramètres


2. Loi non linéaire par rapport aux paramètres

III.2.1. Modèle linéaire par rapport aux paramètres (LP)


C'est-à-dire on peut séparer les effets de θ et de x .

Le modèle est appelé linéaire par rapport aux paramètres (LP).

 θ1 
θ 
Soit f ( x , θ ) = ϕ1 ( x ).θ1 + ϕ 2 ( x ).θ 2 + …ϕ n ( x ).θ n = [ϕ1 ( x ) ϕ 2 ( x ) …ϕ n ( x )]  2 
⋮
φT  
θ n 
θ

Ce qui donne f (x ,θ ) = φT .θ

Où ϕi (x ) est appelé le regrésseur ou variable explicative du paramètre θi .

Et φ est la matrice regrésseur.

III.2.2. Modèle non linéaire par rapport aux paramètres (NLP)

Dans ce cas là, on ne peut pas séparer les effets de θ et de x .

Le modèle est appelé non linéaire par rapport aux paramètres (NLP).

6
x

Exemple : f (x ,θ ) = e θ où on ne peut pas séparer x et θ .

Par contre on peut linéariser un modèle NLP autour d’un point de fonctionnement
grâce à un développement en série de Taylor (partie n’est pas traitée dans ce cours).

III.3. Méthode des moindres carrés simple (MCS) avec modèle LP

III.3.1. Formulation du problème MCS


On cherche une formulation analytique du problème d’identification en utilisant un
critère J. Le minimum de J est obtenu en recherchant la valeur θ MC qui annule les
∂J
dérivées partielles par rapport à chacune des composantes de θ soit = 0.
∂θ

Soit y la sortie réelle du système, yˆ k la sortie estimée (sortie du modèle),

ε k = y k − yˆ k

J = ∑ ε k2

J = ∑ ( y k − yˆ k ) 2 = ∑ ( y k − ϕTk θ ) 2
∂J ∂ ∑ ( y k − yˆ k )
2

= = −2ϕk ∑ ( y k − ϕTk θ )
∂θ ∂θ
= −2∑ (ϕk y k − ϕk ϕTk θ ) = −2∑ ϕk y k − ∑ ϕk ϕTk θ
∂J
= 0 ⇒ θ = θ MC ⇒ −2∑ ϕk y k + ∑ ϕk ϕTk θ MC = 0
∂θ
⇒ ∑ ϕk y k = ∑ ϕk ϕTk θ MC
θ M C = ( ∑ ϕ k ϕ Tk ) ∑ϕ
−1
k yk

III.3.2. forme du critère quadratique du MCS dans le cas LP


En supposant que les mesures ne sont pas bruitées (la sortie mesurée= la sortie
exacte).

ε k = y k − yˆ k = ϕTk θ − ϕ Tk θˆ = ϕ Tk (θ − θˆ)
−d θ
⇒ ε k = −ϕ k d θ
T

avec d θ = θˆ − θ ⇒ θˆ = θ + d θ

7
alors J = ∑ ε k2 = ∑ ( −ϕTk d θ ) 2

comme (−ϕTk d θ ) 2 = (−ϕTk d θ )T (−ϕTk d θ ) = (−d θ T ϕk )(−ϕTk d θ ) = d θ T (ϕk ϕTk ) d θ


 
J = ∑ d θ T (ϕk ϕTk ) d θ =d θ T  ∑ (ϕ k ϕTk ) dθ
 
R
⇒ J = dθ R dθ
T

Cas particulier : si on à un seul paramètre à identifier (c'est-à-dire θ est un scalaire et

R = ∑ ϕk2 > 0 est un scalaire positif), alors J = R d θ 2 est une parabole dont le

minimum est nul (c'est-à-dire la valeur optimale de J =0, ce qui veut dire que l’erreur
d’estimation est nulle)

III.4. Formulation matricielle du problème des moindres carrés

III.4.1. Formulation matricielle avec un critère quadratique

Rappel : soit f une fonction telle que définit : f = X T A Y où A est une matrice
symétrique. Alors :

 ∂f ∂ (X T A Y )
 = = (X T A )T = A T X
 ∂Y ∂ Y

 ∂f = ∂ (X A Y ) = A Y
T

 ∂X ∂X

ε =Y * −Yˆ =Y * − φ θˆ
J = ε T .ε = (Y * − φ θˆ)T (Y * − φ θˆ)

dJ
On cherche θMC tel que =0
d θˆ

J =Y * Y * − θˆT φTY * −Y φ θˆ + θˆT φT φ θˆT


T
*T

8
dJ
= −φTY * − (Y *T φ )T + 2 φT φ θˆ = 0
dθˆ
=−2 φ Y
T *

⇒ θMC = (φT φ )−1φTY *

Remarque :

dJ
= 0 ⇒ φT (Y * − φθˆ) = 0
d θˆ
⇒ φT ε = 0

Ce qui signifie que φ et ε MC sont orthogonaux.

φ T ε M C = 0 : Relation d’orthogonalité.

III.4.2. Formulation matricielle avec un critère quadratique pondéré

III.4.2.1. Pondération du critère J


Un critère d'erreur quadratique pondéré est donné par l’équation suivante :

J = εT Q ε

avec Q matrice de pondération symétrique et définie positive (toutes ses valeurs


propres sont strictement positives).

III.4.2.2. Minimisation du critère J pondéré


ε =Y * −Yˆ =Y * − φ θˆ
J = ε T Q ε = (Y * − φ θˆ)T Q (Y * − φ θˆ)

dJ
On cherche θMC tel que =0
d θˆ

dJ
= − φT Q (Y * − φ θˆ) − (Y * − φ θˆ)T Q φ
dθˆ
= −2 φT Q (Y * − φ θˆ) = 0

⇒ θMC = (φT Q φ ) −1φTY *

9
III.5. Propriétés de la solution de la méthode des moindres carrés

Le minimum de J a été obtenu de manière analytique. Cela vient du fait des propriétés
géométriques de J (parabolique). De plus cette solution est unique (sommet d’un
paraboloïde).

Ces deux propriétés (solution analytique et unicité) font que la méthode des moindres
carrés est très appréciée mais malheureusement cette méthode ne s’applique qu’aux
modèles linéaires par rapport aux paramètres (LP).

Il faut que la matrice φ T φ soit inversible c'est-à-dire det(φ T φ ) ≠ 0 ⇒ En particulier,


les lignes de φ T φ doivent être linéairement indépendantes. On en déduit une condition
d’identifiabilité (c'est-à-dire est ce que le modèle qu’on cherche à identifier est
identifiable ou pas).

φ T φ est une matrice symétrique, et on peut utiliser cette propriété pour l’inverser
(en utilisant par exemple les méthodes du type racine carrée aussi appelées méthodes
de Choleski).

La section suivante est consacrée à quelques exercices d’applications.

Exercice 1 : soit un système linéaire dont la sortie yk = ϕkθ . On dispose de K


mesures yk . ε k est l'erreur entre la sortie réelle du processus y k et celle du modèle
yˆ k . On se propose d’estimer la valeur du vecteur paramètre θ en minimisant un
critère quadratique J.

1. Exprimer le critère J en fonction de yk* , ϕ k et de θˆ .


2. Exprimer θ MC minimisant J . (Le minimum de J est obtenu en recherchant la
valeur θ MC qui annule les dérivées partielles par rapport à chacune des
∂J
composantes de θ soit = 0 ).
∂θ
y1  ϕ1T   ε1 
     
3. On définit : Y =  ⋮  , φ T =  ⋮  et ε =  ⋮  , Exprimer θ MC en fonction de Y
y  ϕTk  ε k 
 k  
et φ ( formulation matricielle).

Exercice 2 on considère un système décrit par le modèle ARX suivant :


Y (z ) bz −2
= . U(z) et Y(z) sont l’entrée/sortie du système.
U (z ) 1 + a1z −1 + a2 z −2

10
1. Ecrire l’équation aux différences régissant l’évolution de la sortie yk et
exprimer yk sous la forme yk = ϕ kT θ , en précisant les expressions de ϕ k et de θ .
y 3  ϕT3 
On définit :   , φT  . Suite à un test expérimental on a récupéré les
Y = ⋮  = ⋮ 
y  ϕT6 
 6  
données d’entrée/sortie suivantes :

K 1 2 3 4 5 6

uk 2 2 2 2 2 2

yk 0 0 6 4.2 2.34 3.62

2. Donner les valeurs numériques de la matrice 4x3 φT et calculer la matrice


φ xY
3. Démontrer que ( φ x φT )= A (la matrice A est donnée en bas).
4. Sachant que le produit des deux matrices A et B (données en bas) donne la
matrice identité. Calculer le vecteur des paramètres θˆ par la méthode des
moindres-carrés et donner la fonction de transfert obtenue.
A=[59.11 35.03 -25.08

35.03 53.64 -20.4

-25.08 -20.4 16]

B[0.051 -0.0057 0.073

-0.0057 0.037 0.038

0.073 0.038 0.226]

A*B=[1 0 0

010

0 0 1]

5. Calculer les valeurs numériques de la sortie estimée yˆ k = ϕTk θˆ , k=3,..6 et


l’erreur entre la sortie mesurée et la sortie estimée ε k pour k=3,..,6.
Calculer la valeur numérique du critère quadratique J.

11
Chapitre 4 : Analyse de la méthode
des moindres carrés simple (MCS)
Dans ce chapitre une analyse de la méthode des moindres carrés est donnée en terme
statistique. Les différentes propriétés de la solution sont détaillées. L’erreur
d’estimation, la matrice de covariance, la variance minimale de la solution sont
abordés.

IV.1. Propriétés des estimateurs MCS

Une notion essentielle est la précision des estimateurs MCS. Elle est définie dans un
contexte de variables aléatoires grâce aux notions de moyenne et de matrice de
covariance.

IV.1.1. Erreur d’estimation


En présence du bruit, la sortie mesurée du système est bruitée y k* = y k + b k où {bk}
est une variable aléatoire (VA) représentant le bruit.

Nous avons montré dans le chapitre précédent que la solution optimale de la méthode
des moindres carrés (c'est-à-dire le vecteur des paramètres qui minimise le critère
quadratique J) est donnée par l’équation suivante :

θ M C = ( ∑ ϕ k ϕ Tk ) ∑ϕ
−1
k yk

En ajoutant le signal bruit à la sortie y k c'est-à-dire en remplaçant y k par


y k * = y k + b k on obtient l’équation suivante

θ M C = ( ∑ ϕ k ϕ Tk )
−1
∑ϕ y
k
*
k

(∑ ϕ )
−1
= k ϕ Tk ∑ ϕ (y
k k + bk )

= (∑ ϕ )
−1
k ϕ Tk ∑ (ϕ y k k + ϕk bk )

= (∑ ϕ ) (∑ ϕ ) ∑ (ϕ
−1 −1
k ϕ Tk ∑ (ϕ y k k )+ k ϕ Tk k bk )
θ ∆θ MC

θMC = θ + ∆θMC avec

12
∆θ MC = (∑ ϕk ϕ k T ) −1 ∑ (ϕk bk ) , donc à cause du bruit bk, θMC ≠ θ
h

Ou bien avec une formulation matricielle on obtient

∆θ MC = (φT φ ) −1φT b

Comme {bk} est une variable aléatoire (VA) donc θ M C , ∆ θ M C sont aussi des VA.

Forme du critère quadratique J en présence du bruit :

Dans le cas général, soit une estimation θˆ = θ + d θ , soit y k * = y k + b k et y k = ϕTk θ


alors

J = ∑ ε k2 = ∑ ( y k* − ϕTk θˆ) 2

= ∑ ( y k + b − ϕTk θˆ)2

En remplaçant θˆ = θ + d θ alors on obtient

J = ∑ ( y k + b − ϕTk θ − ϕTk d θ )2

Et comme y k = ϕTk θ alors on obtient

J = ∑ ( y k + b − ϕTk θ − ϕTk d θ )2

= ∑ (b k − ϕTk d θ ) 2 = ∑ (b k )2 − 2∑ b k ϕTk d θ + ∑ (ϕTk d θ ) 2

 
= ∑ (b k ) 2 − 2∑ b k ϕTk d θ + d θ T  ∑ (ϕk ϕTk )  d θ
 
influence du bruit bk R

On a déjà vu dans le chapitre précédent (cas déterministe, pas de bruit) que


J = d θ T R d θ , et d θ MC = 0.

∂ ∑ (bk − ϕTk d θ ) 2
∂J
En présence du bruit b k , on a = = −2ϕk (bk − ϕTk d θ ) soit
∂ (d θ ) ∂ (d θ )
d θ MC = ( ∑ ϕ k ϕTk ) ∑ (ϕ b
−1
k k ) = R −1 ∑ (ϕ k b k )

Donc d θMC = R −1 ∑ (ϕk bk ) est non nul à cause de la présence du bruit b k .

13
IV.1.2. Hypothèse sur le bruit {bk}
La perturbation (le bruit entachant la mesure yk) est supposée être une variable
indépendante de moyenne nulle et stationnaire.

La moyenne de {bk} est donnée par E{bk}=0,

Son indépendance et sa stationnarité impliquent que :

σ 2 si i = j
E {bi b j } = 
0 si i ≠ j

Par commandité on définit b T = [b1 , b 2 ,........., b k ] alors


 E [b] = 0

 σ 2 … 0 
  
Var{b} = E {b b } =  ⋮ ⋱ ⋮  = σ I
T 2

  0 ⋯ σ2
  

IV.1.3. Caractérisation de θMC


θ MC = θ + dθ MC

E {θ MC } = θ + E {dθ MC }

E {d θ MC } = E{(φT φ ) −1φT b }

Si φ ne dépend pas de b (cas du modèle appelé à réponse impulsionnelle finie ou FIR)


et si b ne dépend par de l’entrée u alors

E{d θ M C } = (φ T φ ) −1 φ T E{b} = 0.

On caractérise une variable aléatoire (VA) par sa matrice de covariance.

var {θ MC } = E {(θ MC – θ )(θ MC − θ ) T } = E {dθ MC dθ MC


T
}

IV.1.4. Matrice de covariance


var {θ MC } = E {(φT φ ) −1φT b bT (φT )T ((φT φ ) −1 )T }

= E {(φ T φ ) −1φ T b bT φ (φ T φ ) −1}

Comme φ est déterministe

var {θ MC } = (φT φ ) −1φ T E{b b T }φ (φT φ ) −1 = σ 2 (φT φ ) −1φT φ (φT φ ) −1

14
Soit var {θ MC } = σ 2 (φ T φ ) −1

var {θ MC } = σ 2 R −1

on dit que R est la matrice d’information.

J(θ MC )
σ 2 est inconnu, on l’estime par σˆ 2 =
k−I

Où J(θMC) critère à l’optimum

k nombre de points

I nombre de paramètre

var {θMC }= σˆ 2 (φ T φ ) −1

IV.2. Estimation de variance minimale


Dans le cadre des hypothèses précédentes on démontre que θMC est un estimateur à
variance minimale.

Il faut pour cela que {bk} soit une VA indépendante stationnaire uniquement caractérisé
par σ 2 .

Lorsque {bk} est un bruit corrélé de processus générateur G(z) tel que b(z)=G(z).v(z) ou
{vk} est une VA indépendante de variance σv2 alors θMC n’est plus un estimateur à
variance minimale.

En connaissant G(z) (ou la matrice de covariance {bk} ) et en filtrant {uk} et {yk*} par
{G-1(z)} on obtient de nouveau un estimateur à variance minimale (c’est l’estimateur
de Markov)

Comme G(z) n’est pas connu, on l’estime (principe de la méthode des moindres carrés
généralisée (MCG).

15
Chapitre 5 : Moindres Carrés
Récursifs (MCR)

V. Formulation de la méthode MCR

V.1. Position du problème MCR


Le but est la mise sous forme récursive la méthode des moindres carrés simple (MCS).

On veut donc, calculer θ à l’étape N en fonction de la commande u, de la réponse y et


de l’estimation de θ à l’étape N-1.

En d’autres termes on veut obtenir la relation suivante :

θN +1 = f (θN ,u K , y K | k = i ....N )

Le but est d’essayer d’éviter de reconstruire des matrices (telle que θ) dont la
dimension augmente en fonction du temps ce qui permettrait d’implanter cette
méthode sur des calculateurs à faibles capacité de mémoire et de calcul, tout en leurs
permettant de traiter un gros volume de calcul.

V.2. Formulation itérative de MCR

La formulation de la méthode des moindres carrés simple (MCS) présentée


précédemment dans ce cours donne le résultat suivant :

θ = (φT φ )−1φTY

 ϕN −1   y N −1 
   
Avec φ = ⋮  et Y = ⋮ 
ϕ  y 
 i   i 

ou ϕN −1 = (− y N −2 ⋯ − y N −n −1 ⋯u N −1 ⋯u N −m −1 )

Remarque : dorénavant par commodité d’écriture on notera plutôt yk a la place de y(k).

Notation : θˆN est l’estimation de θ à l’étape N.

16
 ϕ N −1   y N −1 
   
φN −1 = ⋮  et Y N −1 = ⋮ 
ϕ  y 
 i   i 

Les MCS s’écrivent alors : θˆN −1 = (φNT −1 φN −1 ) −1 φNT −1 Y N −1

donc θˆN = (φNT φN ) −1φNT Y N

Ce qui fait que :

 ϕN  yN 
   
 ϕ N −1   ϕ N   y N −1   y N 
φN = = = =
  φN −1   Y N −1 
et Y N
⋮ ⋮
   
 ϕi   yi 

On peut alors écrire :

θˆN = (φNT −1 φN −1 + ϕTN ϕN )−1 (φNT −1 Y N −1 + ϕTN y N )

En utilisant le lemme d’inversion suivant :

(A + B .C .D )−1 = A −1 − A −1.B .(C −1 + D .A −1.B )−1.D .A −1

θˆN peut être mise sous la forme suivante :

θˆN = [(φNT −1φN −1 )−1 − (φNT −1φN −1 )−1ϕTN a −1ϕN (φNT −1φN −1 )−1 )] (ϕTN −1Y N −1 + ϕTN y N )

1
avec : a −1 = (1 + ϕN (φNT −1φN −1 )−1ϕTN )−1 = ⇒
1 + ϕN (φ T
φ
N −1 N −1) ϕTN
−1

θˆN = θˆN −1 − (φNT −1φN −1 )−1ϕTN a −1ϕN θˆN −1 + (φNT −1φN −1 )−1ϕTN (1 − a −1ϕN (φNT −1φN −1 )−1ϕTN ) y N
=a −1

⇒ θˆN = θˆN −1 + (φNT −1φN −1 )−1ϕTN a −1 ( y N − ϕN θˆN −1 )

soit : K N = (φNT −1φN −1 )−1ϕTN a −1

Et PN −1 = (φN −1φN −1 ) ⇒ PN = (φN φN ) = PN −1 − K N ϕN PN −1


T −1 T −1

⇒ K N = PN −1ϕTN a −1
et θˆN = θN −1 + K N ( y N − ϕN θˆN −1 )

17
En résumé :

ϕN = (− y N −1 ⋯ − y N −n u N ⋯u N −M )

K N = PN −1 ϕ TN (1 + ϕ N PN −1 ϕTN ) −1
θˆ = θˆ + K ( y − ϕ θˆ )
N N −1 N N N N −1

PN = PN −1 − K N ϕ N PN −1

Pi = (φiT φi )−1 et θˆi = Pi φiT Y i


1ére initialisation :

Pi = α .I avec α >> I et θˆi = 0


2éme initialisation :

V.3. Formulation itérative de MCR avec facteur d’oubli


Si le système est non stationnaire (c'est-à-dire si ses paramètres varient dans le temps),
alors l’estimateur des moindres carrés ne peut convenir. On modifie cet estimateur pour
suivre la variation des paramètres.

Jusqu’à présente on a utilisé le critère J = ∑ ε N2 , soit J = ε12 + ε 22 + ⋯ + ε N2 , c'est-à-dire

que l’on a affecté le même poids à toutes les erreurs.

On va au contraire utiliser un critère affectant le poids maximum au dernier échantillon


et permettant d’oublier progressivement les anciennes valeurs grâce à un coefficient
λ <1.
N
Soit J λ = ε N2 + λ ε N2 −1 + λ 2 ε N2 −2 ⋯ + λ N −1 ε12 = ∑ λ N −i ε i2 ,
i =1

Plus λ est voisin de 0 (0 < λ < 1) , plus on oublie rapidement les anciennes valeurs de ε i2
Si λ = 0 alors J λ = ε N2

N
Si λ = 1 alors J λ = J = ∑ ε i2
i =1

Déterminons θMC correspondant à J λ .

∂J λ N
Soit
∂θˆ
= −2∑i =1
( y i − ϕTi θˆ) ϕi λ N −i ,

∂J λ
est défini par = 0 , soit
∂θ

18
N N −i 
N

∑ i i ϕ ϕ λ  MC ∑ϕi y i λ
θ N −i
T
=
 i =1  θˆ i =1
N
PN−1
QN

On retrouve l’expression générale θˆN = PN Q N .

De la même manière que la formulation de la méthode MCR donnée précédemment, et


après quelques manipulations mathématiques on retrouve la forme MCR avec facteur
d’oubli suivante :

PN = λ −1 PN −1 − PN −1 ϕN (λ + ϕTN PN −1 ϕN )1ϕTN PN −1 


  
 θˆN = θˆN −1 + PN ϕN  y k − ϕTN θˆN −1 

 KN

En choisissant λ < 1 on peut donc suivre les variations de θ .

Exemple d’utilisation de la méthode des moindres carrés récursifs en diagnostic

L’apparition d’un défaut au sein d’un système entraîne une modification de ses
caractéristiques physiques d’où résulte une évolution significative des paramètres par
rapport leurs valeurs nominales. Autrement dit, tout écart notable des paramètres par
rapport aux valeurs nominales est révélateur d’un défaut.

La recherche d’un estimateur paramétrique appliqué au diagnostic des systèmes


industriels, paraît donc, de ce fait, particulièrement intéressante. En effet, s’il est
possible de réaliser, en temps réel l’estimation du vecteur paramètre (en utilisant la
méthode des moindres carrés récursifs par exemple), celui-ci pourra être comparé en
permanence aux valeurs nominales correspondantes. Les déviations éventuelles ainsi
révélées pourront alors être exploitées à des fins de diagnostic.

19
Références bibliographiques

[1] L. Ljung, System identification. Theory for the user, 2nd ed. Upper Saddle River,
Prentice Hall, 1999.

[2] Jean-François Massieu, Philippe Dorléans, Modélisation et analyse des systèmes


linéaires, Ellipses 1998.

[3] Pierre Borne, Geneviève Dauphin-Tanguy, Jean-Pierre Richard, Modélisation et


identification des processus, Technip 1992.

[4] Ioan D. Landau, Identification des systèmes, Hermès 1998.

[5] S. Chouaba, Estimation des modèles LPV à Temps Continu Application à la


Modélisation des échangeurs de chaleur pour la détection de l’encrassement, EUE,
Septembre, 2013.

[6] E. Duflos, Ph. Vanheeghe, Estimation Prediction, Technip 2000.

[7] R. Ben Abdenour, P. Borne, M. Ksouri, M. Sahli, Identification et commande


numérique des procédés industriels, Technip 2001.

[8] Laïd ABED, Identification des Processus, cours d’identification, Université Ferhat
Abbas – Sétif, 2003.

[9] Thierry Poinot, Identification, cours de Master, université de Poitiers, France,


2006.

[10] Mourad Aït Ahmed, Identification, cours de Master, université de Nantes, France,
2007.

20

Vous aimerez peut-être aussi