Académique Documents
Professionnel Documents
Culture Documents
Faculté de Technologie
Département d’Electrotechnique
Modélisation et Identification
des Systèmes
Cours licence automatique L3 (Rev1 Septembre
2017)
Bilal Sari
Table des matières
III.1. GENERALITES ............................................................................................................................. 4
III.2.2. MODELE NON LINEAIRE PAR RAPPORT AUX PARAMETRES (NLP) ............................................ 6
III.3. METHODE DES MOINDRES CARRES SIMPLE (MCS) AVEC MODELE LP ........................................ 7
2
Avant-propos
Ce document est conçu comme un support de cours destiné à des étudiants en
troisième année de licence en automatique. Il a été rédigé en particulier en vue d’un
enseignement de 22,5 heures au département d’électrotechnique (Faculté de
technologie de l’université de Sétif).
3
Chapitre 3 : Principe d'ajustement
du modèle (Moindres Carrés)
III.1. Généralités
f : la structure du modèle
f = E (A − e − )
θ =τ
x =t
Exemple :
dy
= f ( y ,θ , t ) ou y n’est pas formulé explicitement (ou de manière analytique)
dt
comme le cas statique.
4
paramètres. En effet, le but est d’agir sur les paramètres du modèle de façon à réduire
ε (x k ) l’erreur entre les k mesures y * ( x k ) et la sortie du modèle y m (x k ).
5
III.1.4. Critère d’identification
En général, on choisit un critère quadratique qui est sous la forme suivante :
J = ∑ ε k , J = max ε k ,....
Mais l’intérêt du critère quadratique est qu’il possède des propriétés mathématiques
intéressantes. Donc c’est le critère qui sera utilisé dans tout le reste du document.
L’objectif par la suite est de chercher le vecteur des paramètres (du modèle qu’on
cherche à identifier) qui minimise le critère quadratique J. C’est la méthode des
moindres carrés.
θ1
θ
Soit f ( x , θ ) = ϕ1 ( x ).θ1 + ϕ 2 ( x ).θ 2 + …ϕ n ( x ).θ n = [ϕ1 ( x ) ϕ 2 ( x ) …ϕ n ( x )] 2
⋮
φT
θ n
θ
Ce qui donne f (x ,θ ) = φT .θ
Le modèle est appelé non linéaire par rapport aux paramètres (NLP).
6
x
−
Exemple : f (x ,θ ) = e θ où on ne peut pas séparer x et θ .
Par contre on peut linéariser un modèle NLP autour d’un point de fonctionnement
grâce à un développement en série de Taylor (partie n’est pas traitée dans ce cours).
ε k = y k − yˆ k
J = ∑ ε k2
J = ∑ ( y k − yˆ k ) 2 = ∑ ( y k − ϕTk θ ) 2
∂J ∂ ∑ ( y k − yˆ k )
2
= = −2ϕk ∑ ( y k − ϕTk θ )
∂θ ∂θ
= −2∑ (ϕk y k − ϕk ϕTk θ ) = −2∑ ϕk y k − ∑ ϕk ϕTk θ
∂J
= 0 ⇒ θ = θ MC ⇒ −2∑ ϕk y k + ∑ ϕk ϕTk θ MC = 0
∂θ
⇒ ∑ ϕk y k = ∑ ϕk ϕTk θ MC
θ M C = ( ∑ ϕ k ϕ Tk ) ∑ϕ
−1
k yk
ε k = y k − yˆ k = ϕTk θ − ϕ Tk θˆ = ϕ Tk (θ − θˆ)
−d θ
⇒ ε k = −ϕ k d θ
T
avec d θ = θˆ − θ ⇒ θˆ = θ + d θ
7
alors J = ∑ ε k2 = ∑ ( −ϕTk d θ ) 2
R = ∑ ϕk2 > 0 est un scalaire positif), alors J = R d θ 2 est une parabole dont le
minimum est nul (c'est-à-dire la valeur optimale de J =0, ce qui veut dire que l’erreur
d’estimation est nulle)
Rappel : soit f une fonction telle que définit : f = X T A Y où A est une matrice
symétrique. Alors :
∂f ∂ (X T A Y )
= = (X T A )T = A T X
∂Y ∂ Y
∂f = ∂ (X A Y ) = A Y
T
∂X ∂X
ε =Y * −Yˆ =Y * − φ θˆ
J = ε T .ε = (Y * − φ θˆ)T (Y * − φ θˆ)
dJ
On cherche θMC tel que =0
d θˆ
8
dJ
= −φTY * − (Y *T φ )T + 2 φT φ θˆ = 0
dθˆ
=−2 φ Y
T *
Remarque :
dJ
= 0 ⇒ φT (Y * − φθˆ) = 0
d θˆ
⇒ φT ε = 0
φ T ε M C = 0 : Relation d’orthogonalité.
J = εT Q ε
dJ
On cherche θMC tel que =0
d θˆ
dJ
= − φT Q (Y * − φ θˆ) − (Y * − φ θˆ)T Q φ
dθˆ
= −2 φT Q (Y * − φ θˆ) = 0
9
III.5. Propriétés de la solution de la méthode des moindres carrés
Le minimum de J a été obtenu de manière analytique. Cela vient du fait des propriétés
géométriques de J (parabolique). De plus cette solution est unique (sommet d’un
paraboloïde).
Ces deux propriétés (solution analytique et unicité) font que la méthode des moindres
carrés est très appréciée mais malheureusement cette méthode ne s’applique qu’aux
modèles linéaires par rapport aux paramètres (LP).
φ T φ est une matrice symétrique, et on peut utiliser cette propriété pour l’inverser
(en utilisant par exemple les méthodes du type racine carrée aussi appelées méthodes
de Choleski).
10
1. Ecrire l’équation aux différences régissant l’évolution de la sortie yk et
exprimer yk sous la forme yk = ϕ kT θ , en précisant les expressions de ϕ k et de θ .
y 3 ϕT3
On définit : , φT . Suite à un test expérimental on a récupéré les
Y = ⋮ = ⋮
y ϕT6
6
données d’entrée/sortie suivantes :
K 1 2 3 4 5 6
uk 2 2 2 2 2 2
A*B=[1 0 0
010
0 0 1]
11
Chapitre 4 : Analyse de la méthode
des moindres carrés simple (MCS)
Dans ce chapitre une analyse de la méthode des moindres carrés est donnée en terme
statistique. Les différentes propriétés de la solution sont détaillées. L’erreur
d’estimation, la matrice de covariance, la variance minimale de la solution sont
abordés.
Une notion essentielle est la précision des estimateurs MCS. Elle est définie dans un
contexte de variables aléatoires grâce aux notions de moyenne et de matrice de
covariance.
Nous avons montré dans le chapitre précédent que la solution optimale de la méthode
des moindres carrés (c'est-à-dire le vecteur des paramètres qui minimise le critère
quadratique J) est donnée par l’équation suivante :
θ M C = ( ∑ ϕ k ϕ Tk ) ∑ϕ
−1
k yk
θ M C = ( ∑ ϕ k ϕ Tk )
−1
∑ϕ y
k
*
k
(∑ ϕ )
−1
= k ϕ Tk ∑ ϕ (y
k k + bk )
= (∑ ϕ )
−1
k ϕ Tk ∑ (ϕ y k k + ϕk bk )
= (∑ ϕ ) (∑ ϕ ) ∑ (ϕ
−1 −1
k ϕ Tk ∑ (ϕ y k k )+ k ϕ Tk k bk )
θ ∆θ MC
12
∆θ MC = (∑ ϕk ϕ k T ) −1 ∑ (ϕk bk ) , donc à cause du bruit bk, θMC ≠ θ
h
∆θ MC = (φT φ ) −1φT b
Comme {bk} est une variable aléatoire (VA) donc θ M C , ∆ θ M C sont aussi des VA.
J = ∑ ε k2 = ∑ ( y k* − ϕTk θˆ) 2
= ∑ ( y k + b − ϕTk θˆ)2
J = ∑ ( y k + b − ϕTk θ − ϕTk d θ )2
J = ∑ ( y k + b − ϕTk θ − ϕTk d θ )2
= ∑ (b k ) 2 − 2∑ b k ϕTk d θ + d θ T ∑ (ϕk ϕTk ) d θ
influence du bruit bk R
∂ ∑ (bk − ϕTk d θ ) 2
∂J
En présence du bruit b k , on a = = −2ϕk (bk − ϕTk d θ ) soit
∂ (d θ ) ∂ (d θ )
d θ MC = ( ∑ ϕ k ϕTk ) ∑ (ϕ b
−1
k k ) = R −1 ∑ (ϕ k b k )
13
IV.1.2. Hypothèse sur le bruit {bk}
La perturbation (le bruit entachant la mesure yk) est supposée être une variable
indépendante de moyenne nulle et stationnaire.
σ 2 si i = j
E {bi b j } =
0 si i ≠ j
0 ⋯ σ2
E {θ MC } = θ + E {dθ MC }
E {d θ MC } = E{(φT φ ) −1φT b }
E{d θ M C } = (φ T φ ) −1 φ T E{b} = 0.
14
Soit var {θ MC } = σ 2 (φ T φ ) −1
var {θ MC } = σ 2 R −1
J(θ MC )
σ 2 est inconnu, on l’estime par σˆ 2 =
k−I
k nombre de points
I nombre de paramètre
var {θMC }= σˆ 2 (φ T φ ) −1
Il faut pour cela que {bk} soit une VA indépendante stationnaire uniquement caractérisé
par σ 2 .
Lorsque {bk} est un bruit corrélé de processus générateur G(z) tel que b(z)=G(z).v(z) ou
{vk} est une VA indépendante de variance σv2 alors θMC n’est plus un estimateur à
variance minimale.
En connaissant G(z) (ou la matrice de covariance {bk} ) et en filtrant {uk} et {yk*} par
{G-1(z)} on obtient de nouveau un estimateur à variance minimale (c’est l’estimateur
de Markov)
Comme G(z) n’est pas connu, on l’estime (principe de la méthode des moindres carrés
généralisée (MCG).
15
Chapitre 5 : Moindres Carrés
Récursifs (MCR)
θN +1 = f (θN ,u K , y K | k = i ....N )
Le but est d’essayer d’éviter de reconstruire des matrices (telle que θ) dont la
dimension augmente en fonction du temps ce qui permettrait d’implanter cette
méthode sur des calculateurs à faibles capacité de mémoire et de calcul, tout en leurs
permettant de traiter un gros volume de calcul.
θ = (φT φ )−1φTY
ϕN −1 y N −1
Avec φ = ⋮ et Y = ⋮
ϕ y
i i
ou ϕN −1 = (− y N −2 ⋯ − y N −n −1 ⋯u N −1 ⋯u N −m −1 )
16
ϕ N −1 y N −1
φN −1 = ⋮ et Y N −1 = ⋮
ϕ y
i i
ϕN yN
ϕ N −1 ϕ N y N −1 y N
φN = = = =
φN −1 Y N −1
et Y N
⋮ ⋮
ϕi yi
θˆN = [(φNT −1φN −1 )−1 − (φNT −1φN −1 )−1ϕTN a −1ϕN (φNT −1φN −1 )−1 )] (ϕTN −1Y N −1 + ϕTN y N )
1
avec : a −1 = (1 + ϕN (φNT −1φN −1 )−1ϕTN )−1 = ⇒
1 + ϕN (φ T
φ
N −1 N −1) ϕTN
−1
θˆN = θˆN −1 − (φNT −1φN −1 )−1ϕTN a −1ϕN θˆN −1 + (φNT −1φN −1 )−1ϕTN (1 − a −1ϕN (φNT −1φN −1 )−1ϕTN ) y N
=a −1
⇒ K N = PN −1ϕTN a −1
et θˆN = θN −1 + K N ( y N − ϕN θˆN −1 )
17
En résumé :
ϕN = (− y N −1 ⋯ − y N −n u N ⋯u N −M )
K N = PN −1 ϕ TN (1 + ϕ N PN −1 ϕTN ) −1
θˆ = θˆ + K ( y − ϕ θˆ )
N N −1 N N N N −1
PN = PN −1 − K N ϕ N PN −1
Plus λ est voisin de 0 (0 < λ < 1) , plus on oublie rapidement les anciennes valeurs de ε i2
Si λ = 0 alors J λ = ε N2
N
Si λ = 1 alors J λ = J = ∑ ε i2
i =1
∂J λ N
Soit
∂θˆ
= −2∑i =1
( y i − ϕTi θˆ) ϕi λ N −i ,
∂J λ
est défini par = 0 , soit
∂θ
18
N N −i
N
∑ i i ϕ ϕ λ MC ∑ϕi y i λ
θ N −i
T
=
i =1 θˆ i =1
N
PN−1
QN
L’apparition d’un défaut au sein d’un système entraîne une modification de ses
caractéristiques physiques d’où résulte une évolution significative des paramètres par
rapport leurs valeurs nominales. Autrement dit, tout écart notable des paramètres par
rapport aux valeurs nominales est révélateur d’un défaut.
19
Références bibliographiques
[1] L. Ljung, System identification. Theory for the user, 2nd ed. Upper Saddle River,
Prentice Hall, 1999.
[8] Laïd ABED, Identification des Processus, cours d’identification, Université Ferhat
Abbas – Sétif, 2003.
[10] Mourad Aït Ahmed, Identification, cours de Master, université de Nantes, France,
2007.
20