Vous êtes sur la page 1sur 7

Identification des systèmes non linéaires par une

nouvelle représentation BOG-Multimodèle découplé

Résumé—L’approche multi-modèle se présente comme un can- Vue ces résultats encourageantes, on propose dans ce
didat potentiel pour la modélisation des systèmes non linéaires. travail d’utiliser les bases orthogonales pour la modélisation
En effet l’utilisation de cet outil permet de décomposer un d’un système non linéaire par approche multi−modèle.
système de nature non linéaire en des sous systèmes linéaires, d’ou
on a fait recours à utiliser la base orthogonale généralisée BOG
qui est un outil recommandé pour l’identification des systèmes
II. L’ APPROCHE MULTIMODÈLE :
linéaires. Ce document présente une technique de modélisation A. Principe de l’approche multi-modèle :
des systèmes non linéaires par approche multi-modèle découplé,
tout en introduisant l’utilisation de la BOG lors de la phase L’approche multimodèle vise à substituer l’exploration d’un
d’identification des divers sous-modèles. modèle unique g(.) , souvent on affronte énormément de
difficultés pour en trouver, d’une part et d’autre part ce modèle
I. I NTRODUCTION : est très complexe à l’utiliser afin d’expliquer le fonctionnement
du système initial, par la recherche d’un groupe ou d’une
Le développement technologique augmente la complexité
famille de sous-modèles gi (.) et de fonctions de base µi (.) :
des processus industriels et multiplie des contraintes
économiques et environnementales. Cette complexité peut se L
X
présenter sous différents aspects tels que la forte non linéarité, g(ϕ(k), θ) = µi (.)gi (ϕ(k), θi ) (1)
la non stationnarité, le large domaine de fonctionnement. i=1
Ainsi, la modélisation des processus physiques se présente
En effet le système est décrit par :
comme étant une étape indispensable afin de proposer des
stratégies de commande ou de diagnostic. y(k) = g(ϕ(k), θ) (2)
L’approche multimodèle se présente comme étant un
candidat potentiel ; parmi des techniques de modélisation
des systèmes non linéaires tel que le modèle de NARMAX Où g(.), θ, et ϕ(k) sont respectivement le modèle complexe du
[CHE-89], le modèle de VOLTERRA [Alp-65], le modèle système, le vecteur regroupant les paramètres caractéristiques
Winner−Hammerstein [ER-02] ; en effet cette technique se du modèle et le vecteur des fonctions qui expliquent le
repose sur la représentation d’un système non linéaire par comportement du système initial, tel que les variables
un ensemble de modèles (sous-systèmes) simples valides d’entrées ou de sortie du modèle, il est souvent reconnu sous
dans des zones de fonctionnement issues de l’espace de le nom du vecteur de régression.
fonctionnement du système réel, assurant à la fois la
simplicité de modélisation et la fidélité de représentation du Le choix adéquat des fonctions gi , d’une part ainsi que
processus réel. le domaine de validité de chaque sous modèle traduit par les
En effet, à un tel niveau il se présente un problème fonctions de base µi () permettra d’obtenir un système qui
d’identification des systèmes linéaires, vue que chaque reflète le processus réel sans endommager ces caractéristiques
sous-modèle est à caractère linéaire, problème classique, initiales, ni apporter des modifications sur son comportement.
dans la littérature, plusieurs sont les solutions, on peut citer
à titre d’exemple la logique floue, les réseaux de neurones B. Structures des multi-modèles :
et les algorithmes génétiques ainsi que l’utilisation des bases Plusieurs sont les structures des multimodèles, des structures
orthogonales. qui se diffèrent principalement de la façon dont on inter-
Dans la littérature plusieurs sont les travaux de recherche connecte les sous-modèle, à titre d’exemple on peut citer le
publiés autour de la modélisation des systèmes linéaires multi-modèle de Takagi-Sugeno, le multi-modèle découplé et
en utilisant les bases orthogonales[Mbarek-08][Mal-99] le multi-modèle hirarchisé.
tel que la base de Laguerre, la base de Kautz, et la base Dans ce qui suit, on essayera de présenter l’architectures du
orthogonale généralisée BOG. Ces travaux montrent que multi-modèle découplé.
les bases orthogonales représente un outil puissant pour la 1) Multi-modèle découplé :: L’agrégation des sous-modèles
modélisation des systèmes complexes garantissant à la fois peut s’effectuer par le biais d’un deuxième mécanisme d’in-
la réduction paramétrique des modelés et la simplicité de terpolation. Filev [Filev-91] propose un multimodèle, issu de
manipulation des équations décrivant ces derniers. l’agrégation de sous-modèles, qui se présente sous la forme
d’une structure à états découplés.
La représentation dans l’espace d’état de ce multi-modèle est respectivement par :
donnée par :  
η11 ··· η1(N +1)
  η21 ··· η2(N +1) 

 xi (k + 1) = Ai xi (k) + bi u(k)  

 A= .. .. ..  (6)

  . . . 

 yi (k) = CiT xi (k) η(N +1)1 ··· η(N +1)(N +1)
(3)

 avec :

 XL 

 Q
i  
 y(k) =
 µi (ξ(k))CiT yi (k) 
 φt ϑij 1 − (βj )2
 ηij = (−1)i+j+1
i=1 t=j+1
(7)


ni
Où xi (k) ∈ R est le vecteur d’état correspondant au i ième 
ηii = βi
sous-modèle, yi ∈ Rm est le vecteur de sortie du iième sous- 
modèle, u ∈ Rm est le vecteur de commande, y ∈ Rm est le  ϑ Q
i−1
ij = βl si i − j ≥ 2
vecteur de sortie et ξ(k) la variable d’indexation des fonctions où l=j+1 (8)

de pondération µi (.). ϑij = 1 si i − j < 2
Les fonctions de pondération sont choisies de façon à vérifier
et  
les propriétés de somme convexes suivantes : ρ1
 ρ2 
L
X  
 .. 
µi (ξ(k)) = 1 et 0 ≤ µi (ξ(k)) ≤ 1, ∀i = 1 . . . L (4)  . 
i=1 b = d1 


 (9)
 ρi 
 .. 
L’appellation "multi-modèle découplé" provient du mécanisme  . 
d’interpolation mis en jeu lors de la prise en compte des contri- ρN +1
butions respectives des sous-modèles. Cette prise en compte
avec : p
s’effectue en effet à travers la somme pondérée des sorties
d1 = 1 − (β1 )2 , (10)
des sous-modèles, sans mélange des paramètres. Chaque sous-
modèle possède par conséquent un espace d’état qui lui est et :
propre et dans lequel il évolue indépendamment en fonction i
Y i−1
Y
de son état initial et du signal de commande appliqué. ρi = (−1)i+1 φt βl i = (2, · · · , N + 1) (11)
t=2 l=1
III. L A BASE O RTHOGONALE G ÉNÉRALISÉE BOG sachant que : p
La base orthogonale complète la plus utilisée en automa- 1 − (βi )2
φi = p (12)
tique est la base des fonctions delta de Dirac. La transformée 1 − (βi−1 )2
en z de ces dernières engendre les filtres à réponse impul-
sionnelle finie (RIF). Ces filtres présentent l’avantage d’une βi est le ième pôle réel.
implementation simple. Une approximation de toute fonction
de transfert d’un système stable peut être réalisée à l’aide et :
d’un modèle RIF. Cependant lorsqu’il s’agit de modéliser C = [ g1 ··· gN +1 ]T (13)
des systèmes à longue réponse impulsionnelle, le nombre des IV. I DENTIFICATION STRUCTURELLE D ’ UNE APPROCHE
paramètres nécessaires à la modélisation du système devient MULTI - MODÈLE DÉCOUPLÉ EN UTILISANT LA BOG :
élevé. D’où l’intérêt de trouver des modèles qui gênèrent
Il s’agit d’une méthode de modélisation qui profite à la fois
des approximations précises avec moins de paramètres. Pour
des avantages présentés à la fois de l’utilisation de l’approche
réduire la longueur des filtres RIF, l’utilisation des filtres de
multi-modèle ainsi que l’utilisation des bases orthogonales
Laguerre ou de BOG est envisagée.
(BOG). A ce niveau, on présentera la représentations d’état
d’un système modélisé avec une approche multi-modèle(cas
A. Représentation dans l’espace d’état de filtres BOG :
d’un multi-modèle découplé) dans la BOG.
La représentation d’état des filtres BOG est donnée par : La représentation du multi-modèle dans le cas découplé dans
 la BOG :
 x(k) = Ax(k − 1) + bu(k − 1) 

 x̂i (k) = Ai x̂i (k − 1) + bi u(k − 1)
(5) 

 

yN (k) = C T x(k) 
 ŷi (k) = CiT x̂i (k)
(14)
où x(k) est le vecteur d’état à l’instant k de dimension (N +1), 


 XL
sachant que N représente l’ordre de troncature dans la BOG. 

 ŷm (k) =
 µi (ξ(k))ŷi (k)
La matrice A, le vecteur b et le vecteur C sont donnés i=1
Avec L est le nombre de sous-modèles ζi le vecteur des pôles
où N est l’ordre de la troncature dans la base orthogonale, correspondant au iième sous-modèle est donné par :
x̂i (k) ∈ RN +1 correspond au vecteur d’état relatif au iième  
ζi = βi,1 βi,2 · · · βi,N i = 1, ..., L (22)
sous-modèle, ŷi (k) correspond à la sortie d’ iième sous-modèle,
Ai ∈ R(N +1)×(N +1) est donnée par l’équation (6) , bi ∈
RN +1 est donné par l’équation (9), Ci ∈ RN +1 vecteur de L’identification pose donc un problème d’optimisation d’un
coefficients de Fourier est donné par l’équation (13) , et ŷm critère J à partir des informations entrée/sortie extraites du
correspond à la sortie du multi-modèle. système c’est-à-dire :
A. identification paramétrique : ζ̂ = argmin(J(ζ)) (23)
La sortie du multi-modèle peut être réécrite : Où ζ̂ est l’estimé de ζ au sens du minimum de J(.).
T
ŷm (k) = C X(k) (15)
Il s’avère donc fondamental de définir le critère d’optimisation
J permettant d’évaluer la précision du multi-modèle
où C, le vecteur des paramétres est donné par : et d’estimer ces paramètres, sans craindre la perte des
 T performances du système initial. On définit alors :
C = C1T C2T · · · CLT ∈ RL(N +1) (16)
M
1X
JG = (ŷm (k) − y(k))2 (24)
et Ci correspond au vecteur des coefficients de Fourier relatif 2
k=1
au iième sous-modèle dans la base orthogonale.
et :  T Où y(k) est la sortie mesurée à l’instant k du système, ŷm (k)
Ci = gi0 gi1 · · · giN (17) est la sortie du multi-modèle au même instant et M est le
nombre de mesures.
Ce critère favorise une bonne caractérisation du comportement
où gin, n=0..N sont les coefficients de Fourier dans la base global du système par le multi-modèle sans chercher d’adé-
orthogonale représentant le iième sous-modèle. quation locale entre les comportements des sous-modèles et
et : le vecteur d’état X(k) est donné par : les comportements du système dans chaque zone de fonction-
 T nement. On obtient ainsi un multi-modèle comportemental ou
X(k) = µ1 (ξ(k))x̂1 (k)T ··· µL (ξ(k))x̂L (k)T de prédiction.
(18)
B. Procédure d’identification paramétrique :
où L est le nombre de sous-modèle, x̂i (k) correspond au La technique retenue pour identifier les pôles de la BOG
vecteur d’état relatif la base orthogonale représentant le iième correspondants à chaque sous-modèle est basée sur une pro-
sous-modèle, et qui peut être calculé en utilisant l’équation cédure itérative de minimisation d’un critère J mise en uvre
(??). au moyen de l’algorithme de Gauss-Newton. La mise à jour
du vecteur des pôles ζ est obtenue à partir de la formule
Par la suite le vecteur des paramètres C correspondant récurrence suivante :
au multi-modèle est déterminé en utilisant la méthode des
moindres carrées ordinaires : ζ(k + 1) = ζ(k) − H(ζ(k))−1 G(ζ(k)) (25)
où ζ(k) représente le vecteur des pôles de BOG à une
b = (X T XM )−1 X T y
C (19)
M M itération k, ζ(k + 1) représente le même vecteur à l’itération
avec M correspond au nombre de mesures effectuées, y est suivante.
la sortie du système et XM est une matrice de dimension ∂2J
(M × L(N + 1)) regroupant les vecteurs d’états des L sous- H(ζ(k)) = , la matrice hessienne.
∂ζ∂ζ T
modèles.
∂J
et :  T G(ζ) = , le vecteur du gradient.
∂ζ
XM = X T (1) · · · X T (M ) (20)
Les calculs du vecteur gradient G et de la matrice hessienne
V. O PTIMISATION : H sont réalisés à partir du calcul des fonctions de sensibilité
A. Algorithme d’identification : de la sortie du multi-modèle par rapport aux pôles relatifs à
Pour les besoins de la procédure d’optimisation, les para- chaque sous-modèle.
mètres ζi , qui sont les pôles relatifs aux sous-modèles, sont Cet algorithme présente une convergence rapide
regroupés dans un vecteur colonne ζ. (contrairement à un algorithme du gradient) et ce, même
 T quand le critère n’est pas quadratique en ζ. De plus, le calcul
ζ = ζ1 ζ2 · · · ζL ∈ RL (21) de la matrice hessiene fournit des informations utiles sur
l’incertitude avec laquelle les pôles sont estimés. Le vecteur gradient G s’obtient en dérivant le critère par
En revanche l’une des principales difficultés de cet approche rapport au vecteur des paramètres ζ :
porte sur la sensibilité de l’algorithme au choix des paramètres
X M
initiaux ζ(0). Il existe, en effet, un risque de divergence si ∂J ∂ ŷm (k)
les paramètres initiaux sont loin de l’optimum. G(ζ) = = ε(k) (29)
∂ζ ∂ζ
k=1

Quelques améliorations sont apportées à la procédure


initiale d’identification des pôles assurant, en effet, la
Sachant que :
convergence de l’algorithme :
L
∂ ŷm (k) X ∂ ŷi (k)
zUn coefficient de relaxation variable ∆(k) est introduit : = µi (ξ(k)) (30)
∂ζ i=1
∂ζ
−1
ζ(k + 1) = ζ(k) − ∆(k)H(ζ(k)) G(ζ(k)) (26)
ŷi (k) la sortie du iième sous-modèle à l’instant k et L est le
Où ∆(k) est le pas qui minimise le critère dans la direction nombre des sous-modèles.
du vecteur H(ζ(k))−1 G(ζ(k)) à l’itération courante. En
pratique, on peut modifier sa valeur afin d’améliorer la vitesse i (k)
Les ∂ ŷ∂ζ sont les fonctions dites de sensibilité du
de convergence. premier ordre du iième sous-modèle par rapport aux pôles de
la BOG inconnus.
zL’algorithme de Marquardt [Marquardt-63] permet de
surmonter les problèmes liés à l’inversion de la matrice La matrice hessienne H s’obtient en dérivant deux fois
hessienne H(ζ) lors de la mise à jour des paramètres. le critère par rapport au vecteur ζ soit :
L’algorithme de Levenberg-Marqurdt remplace la relation
récurrente précédente par : M
X M
∂ 2 ŷm (k) X ∂ ŷm (k) ∂ ŷm (k)
H(ζ(k)) = ε(k) + . (31)
ζ(k + 1) = ζ(k) − ∆(k)[H(ζ(k)) + λ(k).I]−1 G(ζ(k)) (27) ∂ζ∂ζ T ∂ζ ∂ζ T
k=1 k=1
Où λ(k) est un scalaire (paramètre de régularisation). Si la
valeur λ(k) est proche de zéro alors l’algorithme est proche Il est possible de négliger les dérivées du deuxième ordre sous
de celui de Gauss-Newton. λ(k) tend vers l’infini alors l’hypothèse que ε(k) tend vers zéro. Le calcul de la matrice
l’algorithme est proche de celui de gradient. Cet algorithme H se fait seulement à l’aide des fonctions de sensibilité du
tire à la fois profit de la stabilité de l’algorithme du gradient premier ordre. La matrice approchée du hessien est donnée
et rapidité de convergence de l’algorithme de Gauss-Newton. par :
XM
A chaque itération la valeur de λ(k) est régulé, si le critère ∂ ŷm (k) ∂ ŷm (k)
a tendance à augmenter, la valeur de λ(k) est augmenté de H ≈ Ĥ = . (32)
∂ζ ∂ζ T
k=1
façon à obtenir une bonne direction de recherche. Si le critère
décroît alors la valeur λ(k) est diminué afin d’améliorer la a) Calcul des fonctions de sensibilité :: Il convient alors
vitesse de convergence. de distinguer deux sortes de fonctions de sensibilité, à savoir
les fonctions de sensibilités de la sortie de chaque sous-modèle
zUn filtrage passe-bas des nouveaux pôles ζ(k + 1) par rapport ζi , et les fonctions de sensibilité du vecteur d’état
est introduit afin de limiter des éventuelles oscillations de chaque sous modèle par rapport ζi .
des paramètres qui pourrait conduire à un divergence de  T
l’algorithme : ∂ ŷi (k) ∂ ŷi (k) ∂ ŷi (k) ∂ ŷi (k)
= ···
∂ζv ∂ζ1 ∂ζ2 ∂ζL
ζ(k + 1) = pζ(k + 1) + (1 − p)ζ(k), 0 ≤ p ≤ 1 (28)
sachant que :
C. Optimisation des pôles de la BOG :
 T
La BOG engage plusieurs pôles qui interviennent de façon ζr = βr,1 ··· βr,N +1 , r = 1, . . . , L
non linéaire dans les fonctions définissant les filtres de cette
avec L et N correspondent respectivement au nombre de
base. Plus les pôles de la base sont proches des dynamiques
sous-modèle et l’ordre de troncature dans la base orthogonale
dominantes du système, plus l’ordre de troncature est réduit
généralisée BOG.
et de même pour le nombre de coefficients du modèle.
alors :
Le critère est donné par :
 T
M M ∂ ŷi (k) ∂ ŷi (k) ∂ ŷi (k) ∂ ŷi (k)
1X 1X 2 = ··· (33)
JG = (ŷm (k) − y(k))2 = ε (k) ∂ζr ∂βr,1 ∂βr,2 ∂βr,N +1
2 2
k=1 k=1
et :
Où ε(k) est l’erreur à l’instant k entre la sortie du multi- ∂ ŷi (k) ∂Ci ∂ x̂i (k)
= x̂i (k) + Ci (34)
modèle ŷm (k) et y(k) la sortie du système à identifier. ∂βr,h ∂βr,h ∂βr,h
où : VII. A PPLICATION NUMÉRIQUE :
∂ x̂i (k) ∂Ai ∂ x̂i (k + 1) ∂bi Soit le système défini par :
= x̂i (k) + Ai + u(k) (35) 
∂βr,h ∂βr,h ∂βr,h ∂βr,h 0.6 − 0.6y(k)


avec :  a (k) =
1 + 0.2y(k)
(41)
r = 1, . . . , L h = 1, . . . , N + 1 


y (k) = 0.6(0.1 − 0.6a(k))y(k) + a(k)u(k)
Donc en remarquant l’équation (35), et pour déterminer le
gradient du vecteur d’état, on doit déterminer le gradient de Avec y(k) est la sortie à l’instant k, u(k) est la commande
la matrice Ai donnée par l’équation (6) et le vecteur bi donné appliquée au même instant, et a(k) est une variable spécifique
par l’équation (9) par rapport βr,h . à ce système.
Les fonctions de pondérations sont obtenues en normalisant
Le gradient du vecteur des paramètres C est donné par : les fonctions de type gaussien :
 T
∂C ∂C ∂C ∂C (ξ(k) − ci )
= ··· (36) ωi (ξ(k)) = exp −( ) (42)
∂ζr ∂βr,1 ∂βr,2 ∂βr,N +1 σ2
avec : et :
ωi (ξ(k))
 T µi (ξ(k)) = (43)
∂C ∂C1 ∂C2 ∂CL L
X
= ··· (37) ωj (ξ(k))
∂βr,s ∂βr,s ∂βr,s ∂βr,s
j=1
s = 1, . . . , N + 1 r = 1, . . . , L
avec ci sont les centres des gaussiennes et σ est la dispersion,
et : coefficient qui reflète le degré d’interférence entre les
  différentes fonctions gaussiennes.
∂C T
−2 ∂XM T
T ∂XM
= (− XM XM XM + XM ) Influence de l’ordre de troncature N :
∂βr,s ∂βr,s ∂βr,s
(38) On a fixé le nombre de sous-modèle à L = 3, les
T T
−1 ∂XM T
centres des fonctions de pondérations respectivement
XM y + XM XM y
∂βr,s c1 = −0.5, c2 = 0 et c3 = 0, 5, et le coefficient de dispersion
où M est le nombre de mesures, X(M ) est donné par les σ = 1, et on a choisi comme variable d’indexation pour les
équations ((18) et (20)) ; et y est la sortie du système réel. fonctions de pondérations la sortie y(k), on a pu déterminer
l’erreur quadratique moyenne normalisée relative à chaque
VI. E TUDE DE LA STABILITÉ : ordre de troncature N , pour identifier un ordre optimal.
En examinant la figure (1), où on a représenté l’erreur
La représentation d’état d’un multi-modèle découplé en uti-
lisant les fonctions orthogonales de laBOG peut être reécrite
−28.5
de la façon suivante :
−29

x e + ebu(k)
e(k + 1) = A (39)
−29.5
e x(k)
EQMN dB

y(k) = C(k)e (40)


−30

avec : −30.5
   
A1 0 ... 0 b1 −31
 0 A2 ··· 0   b2 
e=
A  .. .. .. ..

, eb = 
 ..


−31.5
1 2 3 4 5 6 7 8 9 10
 . . . .   .  Ordre de troncature N

0 0 ··· AL bL F IGURE 1. Détermination de l’ordre de troncature optimal


et :
 T quadratique moyenne normalisée en fonction de l’ordre de
e=
C µ1 ()ξ(k)C1T ··· µL ()ξ(k)CLT
troncature, on opte pour un ordre de troncature N = 1,
 T ordre de troncature qui correspond à une erreur quadratique
e(k) =
x x1 (k) · · · xL (k)
moyenne normalisée correspondant à (EQM N = −28.6dB).
La stabilité du multi-modèle découplé est évaluée en détermi- Determination des pôles optimums :
e
nant les valeurs propres de la matrice A. On a tracé l’évolution de l’erreur quadratique moyenne
La structure de la matrice A e est diagonale par bloc, par normalisée, exprimée en décibels, pour un ordre de troncature
suite ses valeurs propres appartiennent au cercle unité si et N = 1 et en fixant le nombre des sous-modèles L = 3, en
seulement si les valeurs propres des matrices Ai appartiennent fonction des vecteurs des pôles, dont chaque vecteur est relatif
au cercle unité. à un sous-modèle. En effet les vecteurs des pôles relatifs aux
sous-modèles sont respectivement [0.1630 − 0.4463] ; R ÉFÉRENCES
[−0.3529 − 0.5536] et [−0.3631 − 0.3662]. [Alp-65] Alper.A, "A consideration of the discrete Volterra series". IEEE
Trans. Automatic control, vol.AC −10(3) : 322 − 327 , July1965.
−22

−23
[CHE-89] : Chen, S. and Billings, S. A, "Representation of non-
linear systems : the NARMAX model". International Journal of
−24 control,49, (3), 1012 − 1032, 1989 .
EQMN dB

−25

−26 [Delmo-97] :Delmotte F, "Analyse multi-modèle".Thèse de Doctorat, Uni-


−27
versité de Lille, France, 1997.

−28
[ER-02] : Er Wei Bai, Minyue Fu, "A Blind Approach to Hammerstein
−29
0 5 10 15 20 25 30 35 40 45 50 Model Identification". IEEE Transactions on signal processing, VOL,
n° d’itération
50, N O.7, JU LY 2002.

F IGURE 2. Variation de l’EQMN


[Fletcher-81] :Fletcher R, "Pratical Methods of Optimisation".Vol.2
Constrained Optimisation. John Wiley, 1981

Afin de confirmer la convergence de l’algorithme de [FC-00]


GAUSS-NEWTON qui a permis de trouver le vecteur des
pôles optimums, on a représenté l’erreur quadratique moyenne [Filev-91] :Filev. D, "Fuzzy modeling of complex systems". International
normalisée relative à chaque vecteur des pôles, en effet là Journal of Approximate Reasoning.5(3) ; pp. 281 - 290, 1991.
ou l’EQMN converge ça correspond au vecteur des pôles
optimums. En effet pour valider la technique de modélisation [Mal-99] : Malti R., "Représentation de systèmes discrets sur la base
des filtres orthogonaux - Application à la modélisation de systèmes
on représente le processus réel et la sortie du multi−modèle. dynamiques multi-variables". Thèse de doctorat de l’institut national
polytechnique de Lorraine 1999.

0.2 sortie réelle


0 [Mbarek-08] :Abdelkader MBAREK, "Commande préductive des systèmes
−0.2 linéaires et non linéaires utilisant les bases orthogonales". Thèse de
0 10 20 30 40 50 60 70 80 90 100 Doctorat, Université de Tunis-Manar, Tunisie, 2008.
0.2 sortie multimodèle

0
[Marquardt-63] :Marquardt, D., "An algorithm for least-squares estimation
−0.2 of nonlinear parameters". SIAM Journal on Applied Mathematics. Vol.
0.05
0 10 20 30 40 50 60 70 80 90 100 11, No. 4, pp. 431 − 441, 1963.
erreur de modélisation
0
−0.05
0 10 20 30 40 k 50 60 70 80 90 100 [MCS-85] : A. Morshedi, C. Cutler, and T. Skrovanek, "Optimal solution
of dynamic matrx control with linear programming techniques". In Proc.
ACC, Boston, USA, pp. 199 − 208, 1985.
F IGURE 3. Validation du multi−modèle découplé

[NG-97] : Ninness B. et Gaustafsson F., "A unifying construction of


orthonormal bases for system identification". IEEE Transaction on
Automatic Control. Vol. 42, No. 4, pp. 515 − 521, 1997.
En examinant la figure (3), l’erreur issue de la modélisation
est quasi-nulle, une performance qui assure la réussite de la
[Rod-08] :Rodolfo ORJUELA, "Contribution à l’estimation d’état et au
démarche de modélisation. diagnostic des systèmes représentés par des multi-modèles".Thèse de
Etude de la stabilité : Doctorat, Université de Nancy, France, 2008.
Les valeurs propres des matrices Ai sont respectivement :
 
[Tan-94] : N. Tanguy, " La transformation de Laguerre discrète ". Thèse de
−0.4463 −0.1630 −0.5536 −0.3529 −0.3362 −0.3361 doctorat de l’université de Bretagne Occidentale, Brest (France), 1994.

Il est calir que les module des valeurs propres relatives à


[T-S-85] :Takagi, T. et Sugeno, M., "Fuzzy identification of systems and
chaque sous modèle appartiennent au cercle unité, donc on its applications to model and control". IEEE Transactions. On Systems,
peut affirmer la stabilité du multi-modèle découplé. pp. 116 − 132 , 1985.

VIII. C ONCLUSION : [Yen-98] :Yen, J., Wang, L., et W., G. C., "Improving the interpretability
Ce travail n’était qu’une illustration de modélisation des of Takagi-Sugeno fuzzy models by combining global learning and local
learning". IEEE Transaction on Fuzzy Systems. Vol. 6, No. 4, pp. 530 −
systèmes non linéaires. En effet la technique utilisée est 537, 1998.
fondée sur l’utilisation l’approche multi-modèle dans une base
orthogonale (BOG) profitant à la fois des avantages proposés [YLM-08] Yong Feng, Liuping Wang, Wenguang Luo, "Laguerre Func-
par ces deux outils. tions based Nonlinear Model Predictive Control using Multi-Model
Approach". IEEE on Industrial Electronics. IECON 2008, 34th Annual
Conference of IEEE, 2008.

Vous aimerez peut-être aussi