Vous êtes sur la page 1sur 131

N dordre :

UNIVERSIT * MOHAMED BOUDIAF * DE MSILA


FACULT DES SCIENCES ET SCIENCES DE LINGENIEUR DPARTEMENT DLECTRONIQUE

MMOIRE
Prsent pour lobtention du diplme de :

MAGISTER EN GNIE LECTRONIQUE


Spcialit : Gnie lectronique Option : Contrle Par Abdelaziz AOUICHE

SUJET
REJECTION DES PERTURBATIONS DANS LES SYSTMES NON LINAIRES : TUDE COMPARATIVE
Soutenue publiquement Devant le jury compos de : Dr. Mohamed BOUAMAR, Dr. Farid BOUTTOUT, Pr. Djamel CHIKOUCHE, Pr. Djamel BENATIA, M. Kheiredine CHAFAA, Matre de confrence, Matre de confrence, Professeur, Professeur, Charg de cours, Universit de Msila, Prsident Universit de Msila, Rapporteur Universit de Stif, Universit de Batna, Universit de Msila Examinateur Examinateur invit

2005-2006

Je rends ma profonde gratitude dieu tout puissant qui ma aid raliser ce modeste travail. Jexprime ma profonde gratitude mes parents pour leurs encouragements, leur soutien et pour les sacrifices qu'ils ont endur. Je remercie vivement tous les membres du jury qui ont accept d'examiner mon travail de mmoire. J'exprime en particulier ma gratitude Monsieur BOUTOUT Farid et CHAFAA Kheireddine mes rapporteurs pour leurs conseils et

encouragements, leurs aides et leurs soutien. J'adresse par ailleurs mes vifs remerciements monsieur le doyen BOUAMAR Mohamed qui nous a accompagn durant tout le droulement de magister. Les autres membres permanents l'ensemble des enseignants du dpartement d'lectronique n'ont jamais t avares de leur temps ni de leurs connaissances, qu'ils en soient ici remercis. Je tiens enfin adresser ma profonde gratitude toutes les promotions dlectronique.

SOMMAIRE
INTRODUCTION GNRALE.......... CHAPITRE I : LES RSEAUX DE NEURONES
I.Introduction...... II. lments de base des rseaux de neurones ....... II-1. Historique.................. II-2. Les fondements biologiques...... II.3. Le modle de neurone formel........ II-4.Fonction d'activation ou de seuillage................ III.Les rseaux de neurone..... III.1. Proprits des Rseaux de neurones artificiels .......... III.1.1. Apprentissage et mmoire......... III.2. Le Perceptron Multi Couches (PMC) ............. III.2.1. Le Perceptron simple............ III.3. La rtro-propagation....... III.3.1.Adaline........... III.3.2.L'associateur linaire......... III.3.3.Les rseaux rcurrents........... III.3.4.Le rseau de Hopfield.... III.3.5.Les rseaux comptitifs.............. III.3.6. Le rseau de Kohonen........... III.3.7. Rseau de neurones Fonctions de base Radiales (RFR) ....... IV. Rseaux de neurones et rejection de perturbation.... V. Conclusion...... 5 5 5 6 8 9 10 10 10 11 11 14 18 18 18 18 19 20 21 22 23 1

CHAPITRE II : LA LOGIQUE FLOUE


I. Introduction......... II. Exemples introductifs ....... II.1. L'ge ....... III. Ensemble flou ....... III.1.Prototype d'un ensemble .......... III.2.Oprateurs............ IV. Partitionnement........ IV.1.Partition floue forte .............. V. Rgle floue ...... 25 25 25 29 30 30 31 31 31

Mamdani........ Takagi-Sugeno ...... V.2.Rgle incomplte ........... VI . Interface de fuzzification..................................................................................................... VII . Dfuzzification............ VII.1.Dfuzzification par calcul de centre de gravit .................................. VII.2.Dfuzzification par calcul du maximum . VIII. Lalgorithme de rtro-propagation a lidentification floue........................................... IX. La logique floue et la rejection de perturbation.......... X. Conclusion...........

31 32 33 33 35 35 36 37 41 42

CHAPITRE III : IDENTIFICATION ET REJECTION DES PERTURBATIONS DANS LES SYSTEMES DYNAMIQUES
I. Introduction................ II. tape de modlisation................ II.1.Caractrisation ......... II.2.Identification.......... Processus non-linaires .......... a. tape qualitative ...... b. tape quantitative......... III. La procdure didentification de systme............. IV. Mthodes indirectes.............. IV.1.Identification de processus ........... V. Rejection de la perturbation ................. V.1.Problmatique ........... Problme de la rejection de la perturbation................. V.2.tape 1............ V.3.tape 2............ V.4.tape3............. VI. Conclusion......................... 44 44 44 44 45 46 46 47 48 48 49 49 52 54 56 57 57

CHAPITRE IV : RSULTATS DE SIMULATION


I. Introduction......... II. Prsentation des systmes identifier.......... III. Rsultats........ IV. La simulation.... V. La courbe de la commande floue de systme 2........ a- la commande floue ....... b- la commande neuronale........ VI .La courbe de la commande floue de systme 3.............. a- la commande floue ....... b- la commande neuronale........ VII. La rejection de la perturbation par les rseaux de neurone et la logique floue VIII. La simulation. 60 60 62 67 69 69 69 70 70 70 71 71

VIII.1.tape 1 ....... VIII.1.1.la rejection de la perturbation par les rseaux de neurone ...... VIII.1.2. La rejection de la perturbation par la logique floue ...... VIII.1.3.Pas de rejection de perturbation q=0...... VIII.1.4.Pas de rejection de perturbation........... VIII.1.5.La structure de tout le systme q gal 2..... VIII.1.6. La structure du systme ou q gal 0...... VIII.1.7.la rejection de la perturbation par les rseaux de neurone ..... VIII.1.8.La rejection par la logique floue....... VIII.1.9.Pas de rejection de perturbation q=0...... VIII.1.10.Pas de rejection de perturbation ........ VIII.1.11.La structure de tout le systme pour q gal 4 ...... VIII.1.12.La structure de systme o q gal 0 ........ VIII.2.tape2.. .......... VIII.2.1.La rejection de la perturbation par les rseaux de neurone..... VIII.2.2.La rejection par la logique floue ......... VIII.2.3. Pas de rejection de perturbation q=0 .... VIII.2.4.Pas de rejection de perturbation........... VIII.2.5.La structure de tout le systme q gal 1............. VIII.2.6.La structure de tout le systme ou q gal 0....... VIII.2.7.La rejection de la perturbation par les rseaux de neurone .... VIII.2.8.La rejection par la logique floue ...... VIII.2.9.Pas de rejection de perturbation q=0 .......... VIII.2.10.Pas de rejection de perturbation......... VIII.2.11.La structure de tout le systme o q gal 2.. VIII.2 .12.La structure de tous le systme o q gal 0.... VIII.3. tape 3 .................................................................. VIII.3.1.La rejection de la perturbation par les rseaux de neurone .... VIII.3.2.La rejection par la logique floue....... VIII.3.3.Pas de rejection de perturbation q=0...... VIII.3.4.Pas de rejection de perturbation... VIII.3.5.La structure de tout le systme q gal 2..... VIII.3.6.La structure de tout le systme q gal 0..... IX.Organigramme dans le cas de rejection de perturbation par les rseaux de neurone ... X. Organigramme dans le cas de rejection de perturbation par la logique floue.. XI. Interprtation des rsultats .. XI.1. Identification.. XI.2.La rejection de la perturbation ...... XII. La discussion ....... XIII. Conclusion......

71 71 73 75 77 78 79 80 82 84 85 86 87 88 88 89 91 93 94 95 96 97 99 101 102 103 104 104 106 108 109 110 111 112 113 114 114 115 116 118 120

CONCLUSION GNRALE.......

INTRODUCTION GNRALE

Mmoire de Magister_______________________________________________________

INTRODUCTION GNRALE
Les rseaux neuronaux artificiels ont t utiliss avec succs comme blocs structurels dans larchitecture de lidentification et la commande des systmes dynamiques non linaires [1], [2]. Cette architecture est base sur lentranement du rseau utilisant les donnes dentre-sortie du systme. En gnral, les paramtres du rseau sont ajusts en utilisant la mthode du Gradient. Pour une classe spcifique de systmes non linaires, existe une relation proportionnelle entre lidentification et la rejection de perturbation des systmes non linaires [3]. La logique floue soulve un large intrt, tant thorique que pratique dans la commande des processus complexes et non linaires. Cela est d essentiellement trois faits : 1) Les systmes flous permettent une simple inclusion des informations qualitatives dans la conception des rgulateurs et des modles didentification, 2) les systmes flous nexigent pas lexistence dun modle mathmatique du processus contrler, et peu d'information suffit pour mettre en uvre la boucle de commande et 3) les systmes flous sont des systmes non linaires et de ce fait, sont adapts la commande des processus non linaires [4]. La logique floue na pas t utilise dans le problme de la rjection des perturbations et fera donc lobjet de la deuxime partie de notre tude. Ce travail est une tude comparative entre deux mthodes (Rseaux de neurone et la logique floue). Il est organis en quatre chapitres principaux : Dans le chapitre I, nous exposons les lments de base des rseaux de neurones, ces principales architectures, nous concentrons ltude dans ce chapitre sur lapproche de rtro-propagation de lerreur. Dans le chapitre II, aprs une prsentation succincte du principe de la logique floue nous dtaillons les diffrents types des rgles floues. Nous dtaillons, en particulier, les rgles floues de type Mamdani et Takagi-Sugeno. Nous accentuons ltude sur le modle flou de TS dordre 0 (modle singleton).

Mmoire de Magister_______________________________________________________

Le chapitre III aborde le problme de lidentification et le principe de la rejection de perturbation ainsi que la relation entre eux. Dans le chapitre IV, des rsultats de simulation pour des systmes tudis sont prsents et comments. Nous comparons galement les rseaux de neurones et la logique floue pour lidentification et la rejection des perturbations dans les systmes non linaire. Une conclusion gnrale est donne la fin de ce mmoire avec des perspectives pour des tudes futures.

Mmoire de Magister_______________________________________________________

Chapitre I

Les rseaux de neurone

CHAPITRE I
LES RSEAUX DE NEURONES

Mmoire de Magister__________________________________________________ 4

Chapitre I
I. Introduction

Les rseaux de neurone

Dans la plupart des modlisations des systmes industriels, des divergences persistent entre le comportement du systme rel et lvolution du modle. Ces divergences sont dues, dune part, aux manques de connaissances exhaustives sur le fonctionnement de lquipement et, dautre part, le modle ne prend en compte quune partie des paramtres qui influent lvolution de la sortie. Par ailleurs, dans certains cas, ce modle est quasiment impossible obtenir. Les rseaux de neurones peuvent fournir une solution pour les problmes de lidentification et de la rejection de la perturbation. Leur capacit de mmorisation, dapprentissage et dadaptation sont des fonctions utiles pour tout systme non linaire [5]. Ce chapitre est structur en deux parties. Une premire partie est consacre la prsentation des rseaux de neurones artificiels. Nous commenons par donner une brve prsentation de lvolution historique de cet axe de recherche dont la premire inspiration biologique remonte 1890. Avant de prsenter le principe de fonctionnement des neurones artificiels, nous dcrivons les bases essentielles des neurones biologiques. Nous concluons cette partie en prsentant les proprits les plus importantes des rseaux de neurones artificiels. La deuxime partie de ce chapitre est consacre aux architectures neuronales les plus utilises qui sont : le Perceptron Multicouche, les Rseaux Fonctions de Base Radiales, les mmoires auto associatives (modle de Hopflield), la carte de Kohonen, les rseaux comptitifs, les rseaux rcurrents et lassociateur linaire. II. Elments de base des rseaux de neurones II. 1. Historique Lorigine de linspiration des rseaux de neurones artificiels remonte 1890 lorsque James introduit le concept de mmoire associative. Il propose ce qui deviendra une loi de fonctionnement pour lapprentissage des rseaux de neurones, connue plus tard sous le nom de loi de Hebb. En 1949 Culloch et Pitts montrent que des rseaux de neurones formels simples peuvent raliser des fonctions logiques arithmtiques et symboliques complexes.

Mmoire de Magister__________________________________________________ 5

Chapitre I

Les rseaux de neurone

Cest ensuite que Hebb physiologiste amricain, prsente en 1949 la proprit des neurones par le conditionnement chez lanimal. Ainsi, un conditionnement de type pavlovien tel que, nourrir tous les jours la mme heure un chien, entrane chez cet animal la scrtion de salive cette heure prcise mme en labsence de nourriture. La loi de modification des proprits des connexions entre neurones quil propose, explique en partie ce type de rsultats exprimentaux. Les premiers succs de cette discipline remontent 1957, lorsque Rosenblatt dveloppe le modle du Perceptron. Il construit le premier neuro-ordinateur bas sur ce modle et lapplique au domaine de la reconnaissance des formes. En 1960, lautomaticien Widrow dveloppe le modle Adaline (Adaptative Linear Element). Dans sa structure, le modle ressemble au Perceptron, cependant la loi dapprentissage est diffrente. Celle-ci est lorigine de lalgorithme de rtro-propagation de gradient trs utilis aujourdhui. Cest un algorithme dapprentissage adapt au Perceptron Multicouche. Grce a cette dcouverte, nous avons la possibilit de raliser une fonction non linaire dentre/sortie sur un rseau, en dcomposant cette fonction en une suite dtapes linairement sparables. En 1989, Moody et Darken exploitent quelques rsultats de linterpolation multivariables pour proposer le Rseau Fonctions de base Radiales (Radial Basis Function Network ; RBF). Ce type de rseau se distingue par sa reprsentation locale [6]. II. 2. Fondements biologiques Les premires tudes faites par les philosophes grecs pour localiser le sige de lintelligence dans le corps humain attribuaient la capacit de raisonner au coeur et laissaient au cerveau un rle trs mineur. Cette croyance restera en vigueur jusque dans les crits de Descartes qui raffirme le rle prpondrant du coeur dans la capacit du raisonnement. Cependant, partir du dix-huitime sicle, La Mettrie et Cabanis affirment que le cerveau est lorgane de contrle central du corps humain reprenant ainsi des tudes de Platon, Hypocrate et Galien portes dans loubli. Des tudes plus rcentes, depuis le dbut du vingtime sicle et surtout aprs la deuxime guerre mondiale, sintressent au cerveau dun point de vue microscopique et cellulaire. Il sagit cette fois de relier les faits du comportement et les ractions lectriques et chimiques qui se produisent dans notre cerveau. Ceci a permis disoler la Mmoire de Magister__________________________________________________ 6

Chapitre I

Les rseaux de neurone

composante cellulaire de base du cerveau, le neurone qui est lunit de traitement de linformation. Les neurones constituent environ quarante pour cent de la masse totale du cerveau ; le reste tant constitu de cellules de support pour protger, nourrir et soutenir physiquement lensemble. Il y a diffrents types de neurones regroups dans diffrents organes pour raliser diffrentes fonctions: acqurir un signal du monde extrieur (nerf optique), le traiter (cerveau) ou envoyer des stimuli aux muscles (moelle pinire). Cependant, tous les neurones possdent les mmes constituants lmentaires, les dendrites, le noyau et laxone.

Figure I. 1 : un neurone

Chaque neurone reoit un ensemble de potentiels excitateurs ou inhibiteurs par lintermdiaire des synapses qui le relient aux neurones qui le prcdent. Les dendrites calculent une somme pondre de leurs entres. Selon le niveau dactivation obtenu, le neurone gnre ou non un potentiel daction qui se propage le long de laxone. De cette manire, le neurone ralise ses cinq fonctions : recevoir des signaux, les intgrer, engendrer un influx nerveux et le conduire le long de laxone pour le transmettre aux neurones suivants. Ce modle biologique simple sert de base au modle mathmatique du neurone formel. Les recherches en biologie ont des modles de fonctionnement du neurone vivant beaucoup plus complexes. Le rle du noyau sest rduit, passant dune unit de Mmoire de Magister__________________________________________________ 7

Chapitre I

Les rseaux de neurone

transformation de linformation une unit de maintien de la vie cellulaire, alors que dendrites, synapses et axone voyaient leur importance respective renforce, passant de simples units de transfert des units de traitement de linformation. Le neurone gnre non pas un potentiel unique mais des trains de potentiels et ce sont ces trains de potentiels qui transportent linformation. Lamplitude des potentiels est presque constante, la caractristique de linformation tant contenue dans la forme frquentielle du train dimpulsions gnr par le neurone. Les dendrites ralisent des combinaisons complexes des signaux transmis par les synapses. Laxone module des trains de potentiels et les rpartit diffremment sur ses diffrentes terminaisons, lensemble forme donc un filtre analogique non linaire [7]. II. 3. Modle du neurone formel Le modle du neurone formel utilis dans la plupart des rseaux actuels a t propos en 1943 par McCulloch et Pitts [5], partir des connaissances en neurobiologie de cette poque. La structure dun neurone formel est reprsente au Figure I.2 :

W1 Wi Wn S S = G (E )

E = Wi E i
i

Figure. I.2: Modle du neurone formel Le neurone formel est un simple automate qui se compose de plusieurs entres et dune sortie. Les entres et la sortie peuvent tre binaires ou relles. Lautomate ralise une somme pondre de ses entres. La sortie est obtenue ensuite en appliquant cette somme pondre la fonction dactivation G . Pour des sorties binaires, cette fonction est un seuil qui fait passer le neurone de ltat non activ ( S = 0 ou S = -1 ) ltat activ ( S = 1 ). Pour des sorties continues la fonction de Heaviside (fonction de seuil) est remplace par une fonction sigmode qui en plus dtre une approximation de celle-ci, elle est drivable. Cette proprit est ncessaire pour appliquer lalgorithme dapprentissage prsent plus loin. Les poids wi (Weights) sont des valeurs relles qui constituent les paramtres du neurone formel. Ces paramtres sont fixs par loprateur. Lintrt de ce modle est Mmoire de Magister__________________________________________________ 8

Chapitre I

Les rseaux de neurone

que lon dispose galement dun algorithme dapprentissage qui permet de modifier les valeurs des poids wi pour faire apprendre au neurone la fonction que lon dsire raliser. Les algorithmes dapprentissage reposent sur la rgle de Hebb : deux neurones relis par une connexion qui sactivent simultanment renforcent les poids wi de cette connexion. Le changement de valeur des poids est galement fonction de lerreur entre la sortie dsire par loprateur et la sortie propose par le neurone. Ce modle est simple et peu fidle la ralit biologique telle que nous la connaissons maintenant. Il fonctionne en fait comme un automate non linaire. Cependant, il est assez simple pour tre largement utilis tant en recherche que pour des applications commerciales. Cest autour de ce modle du neurone formel que sont construits la plupart des rseaux utiliss ce jour [8][9]. II. 4. Fonction dactivation ou de seuillage Une fonction de transfert calcule la valeur de ltat du neurone, cest cette valeur qui sera transmise aux neurones aval. Il existe plusieurs formes possibles pour la fonction de transfert. Les plus courantes sont prsentes dans la Figure.I.3. On remarque qu la diffrence des neurones biologiques dont ltat est binaire, la plupart des fonctions de transfert sont continues, offrant une infinit de valeurs possibles comprises dans lintervalle [0, +1] ou [ 1, +1] [10].
y = f (a)
+1 +1

y = f (a)
+1

y = f (a)

s
1

a
1

s
b
y = f (a)

a
1

s
c

+1

s
1

Figure I.3 : Diffrents types de fonctions de transfert pour le neurone artificiel. Mmoire de Magister__________________________________________________ 9

Chapitre I
-a- Fonction seuil du neurone de Mc Culloch-Pitts

Les rseaux de neurone

-b- linaire par morceaux du modle Adaline de Widrow-Hoff -c- sigmode dun rseau Perceptron Multicouches de Rosenblatt -d- gaussienne du rseau RFR de Moody-Darken III. Les rseaux de neurones Un Rseau de Neurones Artificiel RNA (Artificial Neural Network ;ANN) est un ensemble de neurones formels (dunits de calcul simples, de noeuds processeurs) associs en couches (ou sous-groupes) et fonctionnant en parallle. Dans un rseau, chaque sous-groupe fait un traitement indpendant des autres et transmet le rsultat de son analyse au sous-groupe suivant Linformation donne au rseau va donc se propager couche par couche, de la couche dentre la couche de sortie, en passant soit par aucune, une ou plusieurs couches intermdiaires (dites couches caches). Il est noter quen fonction de lalgorithme dapprentissage, il est aussi possible davoir une propagation de linformation reculons (backpropagation). Habituellement (except pour les couches dentre et de sortie), chaque neurone dans une couche est connect tous les neurones de la couche prcdente et de la couche suivante, les RNA ont la capacit de stocker de la connaissance empirique et de la rendre disponible lusage. Les habilets de traitement (et donc la connaissance) du rseau vont tre stockes dans les poids synaptiques, obtenus par des processus dadaptation ou dapprentissage. En ce sens, les RNA ressemblent donc au cerveau car non seulement, la connaissance est acquise au travers dun apprentissage mais de plus, cette connaissance est stocke dans les connexions entre les entits soit dans les poids synaptiques [8]. III.1. Proprits des Rseaux de neurones artificiels III.1.1. Apprentissage et mmoire Lune des caractristiques les plus complexes du fonctionnement de notre cerveau est bien la phase dapprentissage. Cest une phase au bout de laquelle certaines modifications soprent entre les connexions des neurones : certaines sont renforces et dautres affaiblies ou carrment inhibes. Le cerveau converge alors vers un comportement souhait : par exemple lapprentissage dune langue, ou encore lapprentissage par un enfant reconnatre son environnement. Ceci nous emmne la

Mmoire de Magister__________________________________________________ 10

Chapitre I

Les rseaux de neurone

notion de mmoire qui donne au cerveau la capacit de retrouver des expriences passes. Le cerveau possde plusieurs types de mmoires. Nous ne dveloppons pas ces diffrents types de mmoires mais ce que nous retiendrons est que le cerveau humain procde par association. Cela permet par exemple de retrouver une information partir dlments incomplets ou imprcis (bruits). Par exemple, le fait de voir un bout dune photographie quon connat dj est suffisant pour que notre cerveau soit capable de la reconnatre. Le mcanisme de lassociation permet aussi au cerveau de converger vers un tat partir dun autre tat. Par exemple, le fait de passer devant une boulangerie nous fait rappeler quon devait acheter du pain. Cette deuxime importante caractristique est aussi connue sous le nom de mmoire adresse par le contenu, dont le modle de Hopfield sen inspire. Par analogie avec les rseaux de neurones biologiques, les rseaux de neurones artificiels tentent de reproduire les caractristiques les plus importantes du comportement biologique, savoir lapprentissage, la gnralisation et lassociation. Lapprentissage des rseaux de neurones artificiels est une phase qui permet de dterminer ou de modifier les paramtres du rseau, afin dadopter un comportement dsir. Plusieurs algorithmes dapprentissage ont t dvelopps depuis la premire rgle dapprentissage de Hebb en 1949. Nous prsentons les types lapprentissage qui sont classs en deux catgories : supervis et non supervis. Dans lapprentissage supervis, un superviseur (ou expert humain) fournit une valeur ou un vecteur de sortie (appel cible ou sortie dsire) que le rseau de neurones doit associer au vecteur dentre X . Lapprentissage consiste dans ce cas modifier les paramtres du rseau de neurones afin de minimiser lerreur entre la sortie cible et la sortie relle du rseau de neurones. Dans lapprentissage
non supervis,

les

donnes

ne

contiennent

pas

dinformations sur une sortie dsire. Il ny a pas de superviseur. Il sagit de dterminer les paramtres du rseau de neurones suivant un critre dfinir [5]. III.2. Le Perceptron Multicouches (PMC) III.2.1. Le Perceptron simple Comme nous lavons nonc au dbut de ce chapitre, le premier modle de rseau de neurones a t introduit par McCulloch et Pitts en 1949. Les neurones de ce modle sont binaires. Ils reoivent des signaux excitateurs et inhibiteurs provenant des neurones Mmoire de Magister__________________________________________________ 11

Chapitre I

Les rseaux de neurone

en amont afin deffectuer une sommation. Si cette somme est suprieure un seuil, le neurone est dans un tat actif et met un signal vers les autres neurones. Si ce nest pas le cas, il est dans un tat inactif et nmet aucun signal. Aprs la description de ce premier modle de neurones, il fallait disposer dun moyen de raliser lapprentissage. Sinspirant du conditionnement de type pavlovien chez lanimal, Donald O. Hebb a introduit en 1949 la premire rgle dapprentissage qui permet de modifier les poids synaptiques. Le principe de cette rgle connue sous la rgle de Hebb . Lorsquune connexion entre deux cellules est trs forte, si la cellule mettrice sactive alors la cellule rceptrice sactive aussi. Pour lui permettre de jouer ce rle dterminant lors du mcanisme dapprentissage, il faut donc augmenter le poids de cette connexion. En revanche, si la cellule mettrice sactive sans que la cellule rceptrice le fasse, ou si la cellule rceptrice sactive alors que la cellule mettrice ne stait pas active, cela traduit le fait que la connexion entre ces deux cellules nest pas prpondrante dans le comportement de la cellule rceptrice. On peut donc, dans la phase dapprentissage, laisser un poids faible cette connexion . En dautres termes, si deux neurones connects entre eux sont activs en mme temps alors on renforce la connexion qui les relie. Dans le cas contraire, elle nest pas modifie. Cette rgle dapprentissage a t le point de dpart des travaux de Rosenblatt (1958) qui a dvelopp la premire version dun modle neuronal trs connu de nos jours, savoir le Perceptron. Cest un rseau deux couches (une couche dentre et une couche de sortie) de type feedforward (propagation avant). Les neurones de la couche dentre ont pour rle de fournir au rseau les donnes externes. Chaque neurone de la couche de sortie effectue une somme pondre de ses entres :
k=N k =1

oi = f (ai ) = f ( wik k )

(I-1)

O wik est le poids de la connexion qui relie lunit k lunit i , ai est lactivation de lunit i , f est la fonction dactivation des units (Figure.I-4). Cette fonction dactivation est du type fonction seuil avec lexpression suivante :

Mmoire de Magister__________________________________________________ 12

Chapitre I
+ 1 si f (x) = 1 si x x

Les rseaux de neurone

(I-2)

1
o1

o2
w jk

oi

Figure I.4 : Perceptron Simple, modle de Rosenblatt

Le rle de lapprentissage est de modifier les poids des connexions entre les neurones dentre et ceux de sortie, de manire obtenir une rponse que lon souhaite reproduire par le rseau de neurones. Rosenblatt sest inspir de la rgle de Hebb pour la modification des poids. Son principe est de rajouter, dans le cas o la sortie obtenue
o du rseau est diffrente de la sortie dsire i , une quantit wik aux poids de i

chaque connexion. Dans le cas contraire, les connexions demeurent inchanges. On peut exprimer ce principe par lquation suivante :
nouveau ancien wik = wik + wik

(I-3)

Mmoire de Magister__________________________________________________ 13

Chapitre I

Les rseaux de neurone

o wik est la quantit ajoute au poids wik . Pour chaque exemple de lensemble des exemples dapprentissage, on peut ainsi crire :
wik = (i o i ) k

(I-4)

Le paramtre est appel taux dapprentissage. Il dtermine la dynamique suivant laquelle les modifications vont avoir lieu. Cette procdure dapprentissage pour le Perceptron simple peut converger vers un tat des poids des connexions donnant de bons rsultats, la seule condition que le problme soit linairement sparable. Malheureusement, un grand nombre de problmes rencontrs en pratique, ne sont pas linairement sparables. Le Perceptron possde tout de mme une bonne capacit de gnralisation [5].

III.3. La rtro-propagation
Un des dsavantages du Perceptron est quil minimise une erreur en tout ou rien cause de sa fonction dactivation (I-2). Il ne prend donc pas en compte la notion de distance. De ce fait, il est trs peu robuste. La rgle dapprentissage de Widrow-Hoff (rgle de Delta) ne travaille plus en tout ou rien mais minimise une fonction derreur quadratique, donc plus robuste. Malheureusement, cette rgle ne peut sappliquer que sur des rseaux une seule couche de poids adaptatifs. Cest donc en tendant la rgle de Widrow-Hoff que plusieurs quipes de chercheurs (Le Cun, 1985) et (Werbos, 1974) ont dvelopp un algorithme dapprentissage appel rtro-propagation du gradient de lerreur, gnralis ensuite par lquipe de Rummelhart en 1986. Cet algorithme fournit une faon de modifier les poids des connexions de toutes les couches dun Perceptron Multicouches (PMC). Soit le rseau deux couches dcrit par la Figure.I-5 dans lequel les units de sortie sont notes o j les units caches v j et les units dentre k Les connexions des units dentre aux units caches sont notes w jk et celles des units caches aux units de sortie par wij .
lorsque la donne est prsente au rseau. Ces Lentre k a pour valeur k

valeurs peuvent tre binaires (0/1 ou +1/-1) ou continues.

Mmoire de Magister__________________________________________________ 14

Chapitre I

Les rseaux de neurone

1
v1 o1 v2 o2
S O R T I E S

2
E N T R E E S

vk

ok

k
w jk wij

Figure I.5 : Perceptron Multicouches

Pour la donne dentre , la valeur de sortie de lunit cache j est donne par :
v j = f ( a j ) = f ( w jk k ) k

(I-5)

Les units de sortie ont comme valeur :


o i = f ( ai ) = f ( wik v j ) k

(I-6)

Les fonctions derreurs partielles et globales sont alors dfinies par :


E = 1 2 (oi i ) et E = E 2 (I-7)

La minimisation de la fonction derreur globale va se faire par une descente de gradient. Par consquent, aprs la prsentation de tous les vecteurs dentre de la base dapprentissage, nous modifierons la valeur de chaque connexion par la rgle.

Mmoire de Magister__________________________________________________ 15

Chapitre I
E E = w w

Les rseaux de neurone

w =

(I-8)

Cette rgle dapprentissage est gnralement appele la rgle de delta gnralise. Dans lexpression (I-7), seule la sortie oi dpend du paramtre wij . Selon la position des poids des connexions, deux cas se prsentent : Cas des connexions entre la couche cache et celle de sortie ( wij ) : Pour le cas des neurones de sortie, lexpression (I-8) devient fonction du paramtre wij qui influe uniquement sur la sortie du neurone dindice i . Nous pouvons donc dcomposer la drive de lexpression (I-8) par :
E E o & i ai = = ( o i i ) f i ( ai ) v j wij oi ai wij

(I-9)

Lexpression (I-8) devient alors


wij = f i ' (a i )( i oi )v j

(I-10)

Cas des connexions entre la couche dentre et la couche cache ( wik ) : Pour le cas des neurones cachs, lexpression (I-8) est fonction du paramtre wik qui influe non seulement sur la sortie du neurone j de la deuxime couche, mais aussi sur tous les neurones j de la couche de sortie (en aval) qui lui sont connects. On obtient alors lquation suivante :
E E v j a j E = = f j' (a j ) k w jk v j a j w jk v j

(I-11)

Le premier terme de cette expression devient alors :

E o E o E ' i i ai = = = (o i i ) f i ( ai ) wij v j i oi v j i oi ai v j i

(I-12)

Mmoire de Magister__________________________________________________ 16

Chapitre I
On obtient alors la modification des poids :

Les rseaux de neurone

' w jk = f j' (a j ) i ( i oi ) f i (ai ) wij i

(I-13)

Aprs avoir calcul la variation des poids des connexions pour tous les neurones de sortie via lquation (I-10), on calcule alors la variation des poids des connexions de la couche cache par lquation (I-13). On met ainsi jour les poids des connexions de la couche de sortie jusqu la couche dentre : on rtropropage ainsi le signal derreur. Cest de l que vient le nom de cet algorithme : rtro-propagation du gradient de lerreur. Du fait de sommer les wij pour tous les vecteurs de la base dapprentissage puis de remettre jour les poids avec la variation totale ainsi calcule, lalgorithme est appel gradient total. Une autre faon de faire, appele version squentielle, modifie les poids des connexions aprs chaque prsentation dun vecteur dentre . Une version stochastique permet de prendre en compte les vecteurs dapprentissage dune faon alatoire. Lalgorithme de rtro-propagation du gradient de lerreur a permis de dpasser les limites du Perceptron simple. Il savre capable de rsoudre un grand nombre de problmes de classification et de reconnaissance des formes et a donn lieu beaucoup dapplications. Cet algorithme souffre nanmoins de nombreux dfauts, parmi lesquels : Temps de calcul excessif ; apprentissage trs long. Une grande sensibilit aux conditions initiales, cest--dire la manire dont sont initialiss les poids des connexions. De nombreux problmes sont dus la gomtrie de la fonction derreur: minimums locaux. Ce problme est en partie rsolu avec le gradient stochastique, mais il subsiste quand mme. Le problme de dimensionnement du rseau. La rtro-propagation apprend une base dapprentissage sur un rseau dont la structure est fixe a priori. La structure est dfinie par le nombre de couches caches, le nombre de neurones Mmoire de Magister__________________________________________________ 17

Chapitre I

Les rseaux de neurone

par couches et la topologie des connexions. Un mauvais choix de structure peut dgrader considrablement les performances du rseau [5]. III.3.1. Adaline Cest un autre type de rseau spcialis dans le traitement du signal fonctionnant partir dune rgle dapprentissage. Cette rgle permet de rduire lerreur observe entre ltat du rseau et la valeur correcte attendue par une modification des connexions des neurones de faon la minimiser (par un algorithme dit de descente de gradient) [11]. III.3.2. Lassociateur linaire Cest un modle de rseau deux couches avec une fonction dactivation linaire utilisant la rgle de Hebb. D. Hebb a propos en 1949 lide que le cerveau sadapte son environnement en modifiant lefficacit des connexions entre ses neurones. Le principe de Hebb postule quune synapse amliore son efficacit seulement quand lactivit des deux neurones quelle relie est corrle [11]. III.3.3. Rseaux rcurrents Permettent une interconnectivit quasi totale entre les neurones des diffrentes couches, y compris ventuellement en se bouclant sur eux-mmes. Ils permettent la rsolution de problmes qui ne peuvent tre rsolus de faon algorithmique [12]. III.3.4. Rseau de Hopfield Inspir des modles physiques des verres de spin sont constitus dlments bistables connexions symtriques voluant spontanment vers une rduction de lnergie totale du systme. Associ avec la rgle de Hebb, ce rseau peut apprendre mmoriser les exemples prsents en entre sous la forme dtats stables En phase dexploitation, les stimuli prsents en entre volueront dans le rseau vers ltat stable le plus ressemblant. Un rseau de Hopfield fonctionne ainsi comme un vritable classificateur mmoire associative, cependant il existe une marge non ngligeable derreurs due lexistence dtats mtastables, parfois trs proches des tats stables correspondant une classification correcte [11].

Mmoire de Magister__________________________________________________ 18

Chapitre I
III.3.5. Rseaux comptitifs

Les rseaux de neurone

Sont des rseaux o chaque neurone dentre est reli chaque neurone de sortie et chaque neurone de sortie inhibe tous les autres et sauto excite. Cette architecture gnre une comptition inter-neurones aboutissant ce que le rseau a tendance reproduire lorganisation topographique des formes dentre. En dautres termes, si lon prsente ce type de rseau des objets quelconques, le rseau va reproduire dans ses tats internes ses traits structuraux. Les rseaux comptitifs reproduisent une particularit du fonctionnement biologique des neurones, savoir linhibition latrale. On sait en effet que lorsquun neurone biologique est excit, il transmet son excitation aux neurones voisins dans un rayon trs court et inhibe par contre les neurones situs plus grande distance [11]. Interaction

Distance latrale

Figure I.6 Phnomne dinhibition latrale dans les neurones biologiques et formels Un neurone activ inhibe ses voisins. Il en rsulte un phnomne de comptition interneurones dont le rsultat est lextraction des classes constituantes. Biologiquement, le phnomne dcrit par la Figure.I-6 est la source des champs rcepteurs en neurophysiologie sensorielle. Le degr dinteraction latrale est donc une fonction de la distance. Ces interactions latrales engendrent des rponses de groupes de neurones rpartis autour du maximum local dexcitation. Les algorithmes dapprentissage dans les rseaux comptitifs sont des simplifications algorithmiques utilisant lide de rponses localises et dinteractions latrales. La forme la plus simple dapprentissage comptitif modifie le vecteur poids du meilleur neurone chaque tape de lapprentissage [11]. Mmoire de Magister__________________________________________________ 19

Chapitre I
III.3.6. Rseau de Kohonen

Les rseaux de neurone

Il a t observ que, dans de nombreuses zones du cortex crbral, des colonnes voisines ont tendance ragir des entres similaires. Dans les aires visuelles, par exemple, deux colonnes proches sont en correspondance avec deux cellules proches de la rtine (Hubel ,1977). Des observations identiques ont pu tre faites dans le bulbe olfactif ou dans lappareil auditif (Knudsen, 1979). Ces observations ont men Kohonen (Kohonen, 1989) proposer un modle de carte topologique auto-adaptative qui permet de coder des motifs prsents en entre, tout en conservant la topologie de lespace dentre. Dans la plupart des applications, les neurones dune carte de Kohonen sont disposs sur une grille 2D (Figure I.7). Chaque neurone i de la carte effectue un calcul de la distance euclidienne entre le vecteur dentre et le vecteur poids wi . Dans les rseaux de Kohonen, la mise jour des paramtres des neurones seffectue sur tout un voisinage dun neurone i . Un rayon de voisinage r reprsente donc la longueur du voisinage dun neurone i en terme de nombre de neurones. On dfinit alors une fonction h(i, k ) gale 1 pour tous les neurones k voisins du neurone
i compris dans le rayon r et gale zro pour tous les autres neurones. Lalgorithme

dapprentissage de la carte de Kohonen se prsente comme suit :

Initialiser alatoirement les vecteurs wi . On donne une valeur initiale au rayon r et au taux dapprentissage .

Calculer la distance euclidienne entre le vecteur prsent et le vecteur de poids de chaque neurone.

Choisir le neurone k ayant la distance la plus petite. Les vecteurs de pondration de tous les neurones i de la carte de Kohonen sont alors mis jour selon lquation :

wi wi + h ( i , k )( wi )

(I-14)

Mmoire de Magister__________________________________________________ 20

Chapitre I

Les rseaux de neurone

Rduire la taille du voisinage et reprendre lapprentissage du vecteur des pondrations. Aprs un long temps de convergence, le rseau volue de manire reprsenter au mieux la topologie de lespace de dpart. Il faut noter que la notion de conservation de la topologie est en fait abusive puisquen gnral, la taille du vecteur dentre est bien suprieure la dimension de la carte (souvent gale 2) et il est donc impossible de conserver parfaitement la topologie [6].

Figure I.7 : Carte topologique auto-adaptative de Kohonen. III.3.7. Rseau de neurones Fonctions de base Radiales (RFR) Les rseaux de neurones fonctions de base radiales sont des rseaux de type feedforward ( propagation avant) avec une seule couche cache (Figure I.8). Lutilisation de ces rseaux remonte aux annes soixante-dix par (Hardy, 1971), (Agteberg, 1974) et (Schagen, 1979) pour rsoudre des problmes dinterpolation multi variables. Les bases thoriques de ces rseaux ont t ensuite approfondies par (Powell, 1987), (Poggio, 1989) et (Moody, 1989). Dautres travaux se sont succds o lapplication des RFR a t largie dautres domaines, savoir la prdiction de lvolution des systmes dynamiques (Broomhead, 1988), (Casdagli, 1989) et la classification de phonmes (Renals, 1989). La particularit de ces rseaux rside dans le fait quils sont capables de fournir une reprsentation locale de lespace grce des fonctions de base radiales ( cet espace.

dont linfluence est restreinte une certaine zone de

reprsente la norme euclidienne.

Mmoire de Magister__________________________________________________ 21

Chapitre I

Les rseaux de neurone


j ( x) = ( x u j , j )

X1

X2

X3

Figure I.8 : Rseau fonctions de base radiales. Deux paramtres sont associs cette fonction de base : un vecteur de rfrence

j appel centre ou prototype et la dimension i du champ dinfluence appel rayon


dinfluence. La rponse de la fonction de base dpend donc de la distance du vecteur dentre X au vecteur prototype j , et de la taille du champ dinfluence :

(X )=

(I-15)

O la fonction j (

) est

gnralement maximale lorsque X = j et dcrot dune

faon monotone vers 0 quand r = X j . Pour quune fonction j ( r ) soit


utilise comme fonction de base et rsoudre le problme de linterpolation, il faudrait quelle soit dfinie positive (Micchelli, 1986) [13].

IV. Rseaux de neurones et rejection de perturbation


Les rseaux de neurones peuvent fournir des solutions trs intressantes essentiellement pour lidentification. Les seuls travaux prsents dans (S. Mukhopadhyay et K. S. Narendra) et (C. J. Goh et P. Podsiadlo) traitent le

Mmoire de Magister__________________________________________________ 22

Chapitre I

Les rseaux de neurone

problme de la rejection de la perturbation. Aprs une phase dapprentissage assez complexe, le rseau est capable de gnrer le modle cr pour la rejection de la perturbation. La perturbation qui est considr comme la sortie dun systme linaire ou non linaire. Lobjectif principal et ncessaire est de trouver le (le plan dynamique augment ADP) qui est nomm dans notre projet par la fonction f inc par lequel la commande sera gnre pour la rejection de la perturbation. Un Perceptron trois couches permet didentifier le ADP avec des rsultats efficaces. V. Conclusion Ce chapitre a t ddi la prsentation des rseaux de neurones artificiels. Aprs avoir introduit leurs concepts de base, nous avons prsent les applications des rseaux de neurones, qui sont alors utiliss pour lidentification des systmes dynamiques et pour donner un modle sous forme dune bote noire nous avons particulirement dtaill une seule architecture neuronale : Le Perceptron Multicouches (PMC) par laquelle nous avons concentr notre projet , dans le suivant chapitre on va entamer une autre mthode trs efficaces aussi appel la logique floue et en va consacrer notre tude sur lapproche de retro-propagation floue.

Mmoire de Magister__________________________________________________ 23

Chapitre II

La logique floue

CHAPITRE II
LA LOGIQUE FLOUE

Mmoire de Magister__________________________________________________ 24

Chapitre II
I. Introduction

La logique floue

La plupart des problmes rencontrs sont modlisables mathmatiquement. Cependant, ces modles ncessitent des hypothses parfois trop restrictives, rendant dlicate lapplication au monde rel. Les problmes du monde rel doivent tenir compte dinformations imprcises et incertaines. Prenons lexemple dune climatisation, si on veut obtenir une temprature frache, on peut se demander quelle gamme de tempratures conviendra (la demande est imprcise). De plus la fiabilit des capteurs entre en jeu (la mesure de la temprature ambiante est incertaine). On voit apparatre la difficult dinterprtation des variables linguistiques comme, frais, chaude,ainsi que le traitement de ces donnes entaches dincertitude [14]. Une approche fut dveloppe en 1965 par Lofti A. Zadeh, base sur sa thorie des sous-ensembles flous (fuzzy sets), gnralisant la thorie classique des ensembles. Dans la nouvelle thorie de Zadeh, un lment peut plus ou moins appartenir un certain ensemble. Les imprcisions et les incertitudes peuvent ainsi tre modlises, et les raisonnements acquirent une flexibilit que ne permet pas la logique classique : la Logique Floue tait ne [15]. Dans ce chapitre, nous dveloppons la thorie des sous-ensembles flous. Ensuite, nous illustrons le raisonnement en logique floue. Enfin, nous prsentons lapplication de la logique floue dans la rejection de la perturbation. II. Exemples introductifs II. 1. Lage Afin de mettre en vidence le principe fondamental de la logique floue, on prsente un exemple simple, celui de la classification des personnes en trois ensembles jeune, entre deux ges et g . Selon la logique classique (logique de Boole), qui nadmet pour les variables que les deux valeurs 0 et 1, une telle classification pourrait se faire comme le montre la Figure II.1. Toutes les personnes ges de mois de 25 ans sont alors considres des jeunes et toutes les personnes ayant plus de 50 ans comme des ges (vieilles).

Mmoire de Magister__________________________________________________ 25

Chapitre II

La logique floue

Fonctions dappartenanc e jeune

entre deux ages ag

20

40

50

60

80

age (ans)

Figure II.1 : Classification des personnes en trois ensembles selon la logique classique Cependant, une telle logique de classification nest pas raliste. Pourquoi une personne, lorsquelle a eu 50 ans, doit-elle tre considr comme appartenant lensemble gs? Dans la logique floue, les variables peuvent prendre nimporte quelle valeur entre 0 et 1. La Figure II.2 montre une classification possible pour lexemple prcdent, cette fois-ci laide de la logique floue. Ainsi, une personne de 25 ans appartient lensemble jeune avec une valeur = 0.75 de la fonction dappartenance et lensemble entre deux ges avec = 0.25. Par contre une personne ge de 65 ans appartient avec une valeur = 1 de la fonction dappartenance lensemble g.
Fonctions dappartenanc e jeune 0.75 0.25 entre deux ages ag

20

25

40

60

65

80

age (ans)

Figure II.2 : Classification des personnes en trois ensembles selon la logique floue. Mmoire de Magister__________________________________________________ 26

Chapitre II

La logique floue

Les grandeurs utilises dans un systme de rglages sont gnralement gnres par des capteurs. Il est ncessaire de convertir ces grandeurs en variables floues. Pour ce faire, on dfinit les deux notions suivantes : Les fonctions dappartenances qui permettent de dfinir le degr de vrit de la variable floue en fonction de la grandeur dentre. Les intervalles flous qui dterminent le nombre de variables floues. Dans lexemple de la Figure II.2, on fait intervenir trois intervalles flous : jeune entre deux age et g . En outre, chaque intervalle fait rfrence une fonction dappartenance qui permet de dfinir le degr de vrit de la variable floue correspondante en fonction de la taille [16]. On peut videmment choisir nimporte quelle forme pour les fonctions dappartenance [17]. Cependant, en pratique, on utilise trois types de fonctions dfinies comme suit : La fonction triangulaire : Elle est caractrise par trois paramtres (a, b, c) ; les sommets du triangle :

( x ) = max min

xa c x , , 0 b a c b

(II-1)

( x)
1

Figure II.3 : Fonction triangulaire La fonction trapzodale : dfinie par quatre paramtres (a, b, c, d) :

( x ) = max min

d x xa ,1, , 0 d c ba

(II-2)

Mmoire de Magister__________________________________________________ 27

Chapitre II

La logique floue

( x)

Figure II.4 : Fonction trapzodale La fonction Gaussienne : dfinie par c et le centre et lpaisseur

( x ) = exp ( x c ) 2
( x)
1

(II-3)

2
0

c
Figure II.5 : Fonction Gaussienne

Intervalles flous Ces intervalles dfinissent le nombre de variables floues associes une grandeur dentre. Dans le cas du rglage, trois cinq intervalles savrent suffisants. De faon gnrale, ils sont caractriss laide de symboles tels que ceux prsents dans le Tableau .1.

Mmoire de Magister__________________________________________________ 28

Chapitre II
Symbole NG NM EZ PM PG Signification Ngatif grand Ngatif moyen Ngatif zro Positif moyen Positif grand

La logique floue

Tableau 1 : Intervalles flous Cas particulier : grandeur de sortie La grandeur de sortie peut tre dfinie laide dun certain nombre dintervalles flous et diverses fonctions dappartenance. Toutefois, en pratique, cette dfinition peut sembler assez lourde et le concepteur (lexpert) peut choisir dassocier une seule valeur chaque intervalle flou. Par exemple, pour une grandeur cinq intervalles flous, on peut dfinir les valeurs suivantes (Tableau 2) [18] : Intervalle Trs petit Petit moyen grand Trs grand Valeur en % du maximum 0 25 50 75 100

Tableau 2 : Grandeur cinq intervalles flous III. Ensemble flou Un ensemble flou est dfini par sa fonction dappartenance. Un point de lunivers x appartient un ensemble A avec un degr dappartenance, 0 A 1 . La Figure II.6 montre un ensemble de forme triangulaire [19].

Mmoire de Magister__________________________________________________ 29

Chapitre II

La logique floue

( x)
1 A

A ( x)

Figure II.6 : Un ensemble flou de forme triangulaire III.1. Prototype dun ensemble Un point est un prototype dun ensemble flou si son degr dappartenance cet ensemble vaut un [19]. III.2. Oprateurs Les rgles dinfrence font appel aux oprateurs et, ou et non, qui sappliquent aux variables floues. Dans le cas de la logique binaire, ces oprateurs sont dfinis de faon simple et univoque. Dans le cas de la logique floue, la dfinition de ces oprateurs nest plus univoque et on utilise le plus souvent les relations prsentes dans le Tableau 3. oprateur Opration sur le degr de vrit des variables Et Minimum Produit Ou Maximum Valeur moyenne non Complment 1

Tableau 3 : Oprateur binaire et flou Les oprations minimum et maximum prsentent lavantage de la simplicit lors du calcul. Par contre, elles privilgient lune des deux variables. Les oprations de produit Mmoire de Magister__________________________________________________ 30

Chapitre II

La logique floue

et valeurs moyennes sont plus complexes calculer mais elles produisent un rsultat qui tient compte des valeurs des deux variables [20]. IV. Partitionnement Le dcoupage du domaine de dfinition dune variable en sous-ensembles flous est appel partitionnement. Ces ensembles sont nots A1 , A2 [19]. IV.1. Partition flou forte La partition de la variable X i sera appele une partition floue forte si :
x X i , Ai ( x) = 1 [19].
j
j

( x)
1

3 4

Figure II.7 : Exemple de partition floue forte V. Rgle floue


Une rgle floue est de la forme SI je rencontre telle situation ALORS jen tire telle conclusion. La situation, appele prmisse ou antcdent de la rgle, est dfinie par une combinaison de relations de la forme x est A pour chacune des composantes du vecteur dentre. La partie conclusion de la rgle est appele consquence, ou encore simplement conclusion [19].

V.1. Types de rgles


On distingue deux types de rgles floues

Mamdani
Une rgle floue de type Mamdani, dont la conclusion est un ensemble flou s'crit :
i SI x1 est A1i ET ... ET x p est Aip ALORS y1 est C1i ... ET yq est Cq o Aij et C ij sont

Mmoire de Magister__________________________________________________ 31

Chapitre II

La logique floue

des ensembles flous qui dfinissent le partitionnement des espaces d'entre et de sortie [19]. Takagi-Sugeno Dans le modle de Sugeno la conclusion de la rgle est nette. Celle de la rgle i pour la sortie j est calcule comme une fonction linaire des entres :

y ij = p ij 0 + p ij1 x1 + p ij 2 x2 + ... + p ijp x p , note aussi : y ij = f ji ( x)


La valeur numrique de la sortie de ce modle est donne par :

y=

l yl l =1 l l =1
M

(II-4)

o l est le degr de vrit du lme rgle floue SI ALORS qui peut tre obtenu par :
wi = Ai ( x1 ) ... Ai ( x p )
1 p

(II-5)

o A i ( x j ) est le degr d'appartenance de la valeur x j l'ensemble flou Aij [19].


j

Remarque : Pour une rgle donne i , son degr de vrit pour un exemple, galement
appel poids, et not wi , rsulte d'une opration de conjonction des lments de la prmisse .

Ou bien :

l = min { A 1 ( x1) , A2 ( x 2 ) ,..., A n ( x n )}

(II-6)

Lorsque p lj = 0 pour j = 1, 2,, n, le systme est dit Modle flou TS dordre zro
ou systme flou consquence singleton. Ainsi la valeur numrique de la sortie de ce modle sera donne par :

Mmoire de Magister__________________________________________________ 32

Chapitre II
l bl l =1 l l =1
M M

La logique floue

y =

(II-7)

Pour un choix de fonction dappartenance Gaussienne de la forme :

Al ( xi ) = exp ( ( xi c il ) il ) i

(II-8)

Et en utilisant lquation II-7, la sortie du systme flou sera donne par :

( x) = y= f

bl exp ( ( ( x c ) ) l =1 i =1
i l i l i

exp ( (( x c ) ) ) l =1 i =1
i l i l i 2

(II-9)

Pour toutes les simulations nous allons utiliser le modle flou de TS dordre 0 (modle singleton) dont la sortie est dfinie par lquation II-9 pour la modlisation des systmes non linaires [19].

V.2. Rgle incomplte


Une rgle floue sera dite incomplte si sa prmisse est dfinie par un sous1 ensemble des variables d'entre seulement. La rgle, SI x2 est A2 ALORS y est C2

est incomplte car la variable x1 n'intervient pas dans sa dfinition. Les rgles formules par les experts sont principalement des rgles incompltes. Formellement, une rgle incomplte est dfinie par une combinaison implicite de connecteurs logiques
ET et OU oprant sur l'ensemble des variables. Si l'univers de la variable x1 est dcoup

en 3 sous-ensembles flous, la rgle incomplte ci-dessus peut aussi s'crire de la faon


1 1 suivante : SI ( x1 est A1 OU x1 est A12 OU x1 est A13 ) ET x2 est A2 ALORS y est C2 [19].

VI. Interface de fuzzification


Les oprateurs utiliss dans la commande floue agissent sur des sous-ensembles flous. Par consquent, il est ncessaire de transformer les variables non floues provenant du mode extrieur en des sous-ensembles flous. Pour se faire, on utilise un oprateur dit

Mmoire de Magister__________________________________________________ 33

Chapitre II

La logique floue

de fuzzification qui associe une mesure de la variable x0 une fonction d'appartenance particulire x 0 ( x) . Le choix de l'oprateur de fuzzification dpend de la confiance que l'on accorde aux mesures effectues. Ainsi si la mesure x0 est exacte, le sous-ensemble flou A0 doit tre reprsente par un fait prcis. Par consquent, on utilise comme oprateur de fuzzification la transformation singleton. La fonction d'appartenance du sous-ensemble flous A0 est alors dfinie par:

x 0 : U U , x 0 ( x) = 1 Si x = x0 ; x 0 ( x) = 0 Si x x0
La Figure .II-8 montre l'aspect de cette fonction d'appartenance.

( x)
1

x0

Figure.II-8: Mthode de fuzzification pour une mesure exacte Ainsi, le sous ensemble floues A0 ralis par cette mthode de fuzzification ne comprend que l'lment x0 . Par contre, si la mesure de la variable est incertaine, par exemple cause de bruit, le sous-ensemble flou A0 doit tre reprsente par un fait imprcis. On utilise alors une mthode de fuzzification qui associe la variable mesure d'appartenance telle que, par exemple: x0 une fonction

x 0 ( x) = max 0;1

x x0

Mmoire de Magister__________________________________________________ 34

Chapitre II

La logique floue

La reprsentation graphique de cette fonction est reprsente par La Figure .II-9. Ce sous-ensemble flou comprend donc la mesure x0 avec une appartenance unit et les valeurs voisines de x0 avec une appartenance inversement proportionnelle l'cart avec x0 . La base du triangle ( ) est fonction de l'importance relative des erreurs de mesures. En effet, plus elles sont importantes, plus la mesure de la variable x0 devient imprcise, et donc, plus le triangle doit s'largir [21]-[22].

( x)
1

x0

Figure. II-9: Mthode de fuzzification pour une mesure incertaine VII. Dffuzification Les valeurs obtenues lors de la combinaison des rgles appliques aux intervalles flous de la variable de sortie dfini une fonction dappartenance. Il sagit de convertir cette information en une grandeur physique. Plusieurs faons de faire peuvent tre envisages mais, en pratique, on utilise surtout les deux mthodes suivantes : Dfuzzification par calcul du centre de gravit. Dfuzzification par calcul du maximum [18].

VII.1. Dffuzification par calcul du centre de gravit Il sagit de calculer le centre de gravit de la fonction dappartenance de la variable de sortie :

Mmoire de Magister__________________________________________________ 35

Chapitre II
Degr de vrit de la variable floue 1

La logique floue

0
Centre de gravit

Grandeur de sortie

Figure.II-10 : Centre de gravit de grandeur de sortie Le calcul du centre de gravit prsent dans la Figure. II-10 permet dobtenir une seule valeur pour la grandeur de sortie. Son calcul est, cependant, relativement complexe puisquil ncessite le calcul dune intgrale, ou dans le cas simple de fonctions dappartenance en raies, dune somme pondre [18]. Le dfuzzificateur dtermine le centre de gravit y de B et utilise cette valeur comme sortie du FLS (Fuzzy Logic System) [18]. Le centre de gravit est donn par :

y B ( y ) dy
y=
S

B ( y ) dy
S

(II-10)

O S reprsente le support deB. Lorsque S est discrtis, nous obtenons :


yi B ( yi ) i =1
L

y=

B ( yi ) i =1

(II-11)

VII.2. Dffuzification par calcul du maximum Il sagit de la faon la plus simple, du point de vue du volume de calcul, pour effectuer la dfuzzification. Tout dabord, la grandeur de sortie doit tre normalise (en pour-cent par exemple) et la dfinition des intervalles flous doit se rsumer une valeur : par exemple petit correspond 0 et moyen 0,5 (fonctions Mmoire de Magister__________________________________________________ 36

Chapitre II

La logique floue

dappartenance en forme de raies). Lopration de dfuzzification consiste prendre dabord le minimum entre la valeur produite par la rgle concerne et la valeur de la variable floue de sortie. La valeur de sortie est dfinie par la valeur maximale des variables floues de sortie [18]. VIII. Algorithme de rtro-propagation lidentification floue Soit un systme de paire entre-sortie donne par :
( x , d p ), x U R n , d p V R; notre tche est de dterminer un systme logique flou
p p

f ( x) dans la forme de lquation II.3, et dajuster les paramtres b l , cli , li de

telle sorte que le critre :

J =

1 d f ( x ) 2

(II-12)

( x) sous la forme de lquation II.7 soit minimis, afin de dterminer un systme flou f pour un couple dentre-sortie ( x, d ) donn [23]. Pour lajustement des paramtres b l selon lalgorithme dadaptation paramtrique:

b l (k + 1) = bl (k )

J bl

(II-13)

( x) sera not par f ). o l = 1,2, ... , M , k = 0,1,2, ... , ( f (et par consquent J ) dpend seulement Daprs la Figure. II.11, on dduit que f = A B , A = bl , B = de b l travers A , o f l l , tel que l est donn par
l =1 l =1 M M

lquation II-5 : Alors, en drivant J par rapport b l on aura :

J f A 1 l = d f = d f l l b A b B

(II-14)

Mmoire de Magister__________________________________________________ 37

Chapitre II
Do :
J e = l l B b

La logique floue

(II-15)

Substituant (II-14) dans (II-13), on obtient lalgorithme dajustement des b l comme suit :
e l B

b l (k + 1) = b l (k ) +

(II-16)

o l = 1,2, ... , M , k = 0,1, 2, ...

Mmoire de Magister__________________________________________________ 38

Chapitre II

La logique floue

=AB f
A B

couche 3

b1

bM

couche 2

couche 1
x1 xn

= exp (x c li ) li 2
2

Figure. II.11 : Reprsentation en couches dun systme flou

Mmoire de Magister__________________________________________________ 39

Chapitre II
Pour lajustement des paramtres cli on a : J c li

La logique floue

c i (k + 1) = c i (k )

(II-17)

o l = 1,2, ... , M , k = 0,1,2, ... , i = 1,2, ... , n


(et par consquent J ) dpend seulement de Daprs la Figure. II.11, on remarque que f
l ci travers l , donc :

J f l = d f l c li cli

(II-18)

Nous avons : B ( A l ) A ( B l ) ( A l ) ( A B )( B l ) f = = 2 l B B bl f f = B l Et nous avons encore :

(II-19)

l 2 (xi c li ) = l c li li 2
Par substitution de (II-19) et (II-20) dans (II-18) on aura : J d f l 2 (xi c li ) l = b f cli B li 2 On obtient alors lalgorithme dajustement des paramtres cli :

(II-20)

(II-21)

l c (k + 1) = c i (k ) +

l i

( d f ) (b f ) 2 ( x c )
l i l i

li 2

(II-22)

Mmoire de Magister__________________________________________________ 40

Chapitre II

La logique floue

En utilisant la mme mthode pour les carts types li des gaussiennes (largeurs), on obtient lalgorithme dajustement suivant :
l e l 2 ( xi c i ) l k + = k + b f ( 1) ( ) ( ) B li 3 l i l i 2

(II-23)

Lalgorithme dapprentissage (II-16), (II-22) et (II-23) excutent une procdure de rtro-propagation derreur [23]. Pour lajustement des paramtres b l , lerreur normalise
e est rtro propage B

vers la couche b l ensuite ce dernier est mis jours en utilisant (II-16) o l est lentre de b l (comme cest montr en Figure II. 11). Pour lajustement des paramtres cli et li , lerreur normalise
e ajuste b l f B

ensuite l est rtro propag vers lunit de traitement de la couche l dont la sortie est

l ; puis cli et li seront mis jours par (II-22) et (II-23).


Pour lidentification de tous les systmes nous avons utilis dans notre mmoire, le modle flou dcrit par (II-9) avec :

9 La fuzzification singleton. 9 Nombre de rgles floues sont 20 parfois 40, et pour chaque entre on ajuste deux
paramtres des fonctions dappartenance dentre correspondante et de sortie (gaussienne, singleton respectivement) qui sont le centre de la partie prmisse et le centre de la partie consquence.

9 Dfuzzification par la mthode de la moyenne floue (fuzzy mean) [17]. IX. La logique floue et la rejection de perturbation
Lobjectif principal et ncessaire est de trouver (le plant dynamique augment) qui est appel dans notre mmoire par la fonction f inc par lequel la commande floue sera gnr pour la rejection de la perturbation, lapproche de rtro-propagation floue trois couches permet didentifier le f inc avec des rsultats efficaces.

Mmoire de Magister__________________________________________________ 41

Chapitre II
X. Conclusion

La logique floue

Dans ce chapitre le systme flou entranable que nous appelons BackPropagation (rtro-propagation) de Systme flou (BP FS), t utilis comme un identificateur pour les systmes dynamique non linaires. Il a t prouv que Le BP FS est capable destimer toute vraie fonction continue non linaire. En utilisant le fait que les systmes flous peuvent tre reprsents comme un rseau trois couches, l'algorithme de back-propagation a t dvelopp pour former le systme flou pour identifier des paires entre-sortie dsires. Dans le prochain chapitre on va discuter la relation entre lidentification et la rejection de la perturbation.

Mmoire de Magister__________________________________________________ 42

Chapitre III

Identification et rejection des perturbations dans les systmes dynamiques

CHAPITRE III
IDENTIFICATION ET REJECTION DES PERTURBATIONS DANS LES SYSTMES DYNAMIQUES

Mmoire de Magister______________________________________________________ 43

Chapitre III
I. Introduction

Identification et rejection des perturbations dans les systmes dynamiques

Lidentification et la commande des systmes non linaires ne sont pas des taches triviales cause de la non linarit qui les caractrise. La commande et lidentification doivent tre appliqu par un systme capable de parier ce problme, La simulation tendue a montr qu'avec quelque information antrieure propos dun systme non linaire inconnu peut tre contrl, tels identificateurs et contrleurs rsultent en performance satisfaisante [6]. Pour une classe spcifique de systme non linaires, il a t montr que les lois adaptatives donnent la stabilit globale du systme total [10]. Dans ce chapitre, le problme de la rejection de la perturbation est trait, nous illustrons quil existe une grande relation entre la rejection de la perturbation et lidentification et la commande des systmes non linaires sachant que la perturbation considres comme la sortie dune quation diffrentielle linaire ou non linaire libre. II. tape de modlisation II.1.Caractrisation La premire tape du processus de modlisation consiste faire une hypothse sur la structure du systme, cest--dire choisir un type de relation mathmatique f liant les entres et les sorties. Les paramtres structuraux, au dpart inconnus, seront dtermins numriquement dans ltape suivante dite lidentification. Dans ce choix de structure, on peut tre guid par : Une analyse physique conventionnelle du processus. Les expriences et le rsultat qualitatif de tests simples. Des contraintes de calcul ou des contraintes conomiques. Cette tape, essentiellement qualitative, nest claire et valide que par le reste de la procdure. Cest souvent la plus difficile ; elle fait appel lexprience [24]. II.2.Identification L'identification de systme est le processus de dvelopper un modle mathmatique d'un systme dynamique bas sur les donnes d'entre et de rendement du processus rel. Ceci Mmoire de Magister______________________________________________________ 44

Chapitre III

Identification et rejection des perturbations dans les systmes dynamiques

signifie qu'il est possible de prlever l'entre et les signaux de sortie d'un systme et d'employer ces donnes pour produire un modle mathmatique. Une tape importante dans la conception de systme de commande est le

dveloppement d'un modle mathmatique du systme commander. Afin de dvelopper un contrleur, il faut quil soit possible d'analyser le systme commander. Cela est accompli en utilisant un modle mathmatique. Un autre avantage d'identification de systme est vident si le processus est chang ou modifi. L'identification de systme permet au vrai systme d'tre chang sans devoir calculer les quations dynamiques et modeler les paramtres une deuxime fois. L'identification de systme est concerne par les modles dvelopps. La Figure III.1 cidessous montre les entres et le rendement d'un systme.

perturbation

entre

y sortie

Figure III.1 : Systme montrant l'entre, la perturbation et les signaux de sortie Dans cet exemple, le modle mathmatique est la bote noire. Il dcrit le rapport entre l'entre et les signaux de sortie. Les systmes prsents dans notre travail sont des processus non linaires. Des mthodes non linaires employant les rseaux neurologiques et la logiques floue, les algorithmes gntiques,, peuvent tre employes. Les tudes dans l'identification de systme ont dmontr que plusieurs mthodes sont russies en modlisant beaucoup de systmes non linaires parmi eux les rseaux de neurone et la logique floue [25]. Processus non linaires Lidentification dun processus consiste dterminer un modle. La construction de ce modle est effectue en deux tapes :

Mmoire de Magister______________________________________________________ 45

Chapitre III
a. tape qualitative

Identification et rejection des perturbations dans les systmes dynamiques

Elle consiste fixer les formes des quations qui dcrivent le processus. On propose les modles suivants : 9 Modle 1
y (k + 1) = i y (k i ) + g [u (k ), u (k 1),..., u (k m + 1)]
i =0 n 1

(III-1)

9 Modle 2
y (k + 1) = f [ y (k ), y (k 1),..., y (k n + 1)] + iu (k i )
i =0 m 1

(III-2)

9 Modle 3

y (k + 1) = f [ y (k ), y (k 1),..., y (k n + 1)] + g [u (k ), u (k 1),..., u (k m + 1)]


9 Modle 4

(III-3)

y (k + 1) = f [ y (k ), y (k 1),..., y (k n + 1); u (k ), u (k 1),..., u (k m + 1)]

(III-4)

o u (k ) est lentre du systme identifier et y (k ) sa sortie, les fonctions f et g sont


supposes drivables par rapport a leurs arguments [17].

b. tape quantitative
Elle consiste dterminer les valeurs numriques des paramtres (poids des connexions) qui interviennent dans le modle didentification. On doit dfinir un critre qui exprime quantitativement lcart entre le systme et le modle. Ce critre devra tre minimis [26].

Mmoire de Magister______________________________________________________ 46

Chapitre III

Identification et rejection des perturbations dans les systmes dynamiques

III. La procdure didentification de systme Fondamentalement, l'identification de systme est ralise en ajustant les paramtres du modle jusqu' ce que le rendement du modle soit semblable au rendement du vrai systme. Ci-dessous, au Figure III-2, un organigramme expliquant le procd d'identification de systme [25].
Connaissance a priori Conception experimental

Donnes Mettre le choix du modle Choix du critre convenable

Calculer le modle rviser Validation du modle NON

OK Utilisation

Figure III. 2 : Organigramme du procd d'identification du systme

Il y a trois tapes principales du procd d'identification dun systme. 1) Produire des donnes exprimentales d'entre-sortie du processus. 2) Choisir une structure modle pour employer. Par exemple le modle suivant correspond la structure ARX
A. y (t ) = Bu (t ) + v(t )

Mmoire de Magister______________________________________________________ 47

Chapitre III

Identification et rejection des perturbations dans les systmes dynamiques

3) les paramtres A et B seront ajusts jusqu' ce que le rendement modle soit semblable au rendement du processus. Dans l'identification, il n'y a aucune structure modle parfaite employer. Les modles peuvent tre dvelopps en utilisant l'intuition de technologie ou la connaissance priori du processus [25]. IV. Mthodes indirectes IV.1.Identification de processus Nous entamons cette classification par une prsentation des mthodes d'identification de processus. Il ne s'agit pas proprement parler de mthodes de commande, mais plutt d'une premire phase ncessaire dans les approches indirectes. Par identification d'un processus, nous entendons l'entranement d'un rseau, reproduire une fonction donnant les sorties ou l'tat du processus partir des entres qui lui sont appliques. Le principe gnral de l'identification est simple et consiste placer en parallle le modle didentification et le processus identifier, comme le montre la Figure III.3. Le modle didentification reoit en entre la commande u (k ) applique et ventuellement la
sortie y (k 1) prcdente du processus. Il est entran produire la nouvelle sortie (ou le nouvel tat) y (k ) du processus, cette mthode d'identification est souvent appele mthode srie-parallle. Elle est aussi souvent considre comme plus stable car le modle didentification est rgulirement ((recalcul)) en utilisant l'tat rel du processus, donn par :

( y (k ), y (k 1), ... , y (k n + 1); u (k ), u (k 1), ... , u (k m + 1) (k + 1) = f y

(III-5)

Par opposition la mthode parallle prsente au Figure III.4. Dans cette dernire mthode, le modle didentification ne reoit pas en entre la sortie relle y (k 1) du (k 1) qu'il a lui-mme prdite au pas de temps prcde. processus mais la sortie y Cette approche sera dintrt si la boucle donnant l'tat du systme est remplace par une connexion rcurrente du modle didentification. Ce dernier est alors libre de dvelopper sa propre reprsentation de l'espace des tats du processus. Elle est donne par [17]:

(y (k + 1) = f (k ), y (k 1), ... , y (k n + 1); u (k ), u (k 1), ... , u (k m + 1) y

(III-6)

Mmoire de Magister______________________________________________________ 48

Chapitre III
u (k )

Identification et rejection des perturbations dans les systmes dynamiques

Systme

y (k )
ey

Modle didentification

(k ) y

z 1 Figure III.3 : Identification de processus par la mthode srie-parallle.


u (k )
Systme

y (k ) ey

Modle didentification

(k ) y

z 1

Figure III.4 : Identification de processus par la mthode parallle.

V.Rejection de la perturbation V.1.Problmatique Soit un systme dans labsence dune perturbation externe :
x p ( k + 1) = f1 x p ( k ) , u ( k ) y ( k ) = h1 x p ( k )

(III-7)

o x p (k ) n est ltat du systme linstant k , u (k ) est lentre applique linstant


k et y (k ) est la sortie observe linstant k . On peut dcrire le systme par lquation aux diffrences suivante :

Mmoire de Magister______________________________________________________ 49

Chapitre III

Identification et rejection des perturbations dans les systmes dynamiques

y (k + 1) = F1[Y (k ),U (k )]
T

(III-8)
T

o Y (k ) n = [ y (k ), y (k 1),... y (k n + 1)] et U (k ) n = [u (k ), u (k 1),..., u (k n + 1)]


La perturbation externe est reprsente par lquation suivante :

xv (k + 1) = f 2 [xv (k )] v(k ) = h2 [xv (k )]


(III-9)

o xv (k ) p est ltat de la perturbation gnr de systme et v(k ) est la sortie


correspondante. Dsormais v(k ) cest la perturbation considr comme la sortie de systme dynamique libre, telle que cette perturbation donne par lquation (III-9) soit reprsent par une forme autorgressive dcrite par : v(k + 1) = F2 V (k ) o

]
T

V (k ) = [v(k ), v(k 1),..., v(k p + 1)]

Si v(k ) est considr aussi comme ente externe du systme donne par lquation (III-7) alors le systme global peut tre reprsent par : x p (k + 1) = f 3 x p (k ), u (k ), v(k ) xv (k + 1) = f 2 [xv (k )] v(k ) = h2 [xv (k )] y (k ) = h1 x p (k )

(III-10)

Une reprsentation quivalente de III-11 est : x0 (k + 1) = f 4 [x0 (k ), u (k )]

Mmoire de Magister______________________________________________________ 50

Chapitre III

Identification et rejection des perturbations dans les systmes dynamiques

y (k ) = h1 x p (k ) = h4 [x0 (k )]

(III-11)

T n+ p est ltat de tout le systme, telle que l'entre et la sortie totales du o x0 = xT p , xv

systme sont les mmes que la perturbation libre. Lobjectif principal est de suivre la sortie d'un modle de rfrence. Le dernier est reprsent par la paire entre-sortie {r (k ), ym (k )}, o ym (k ) reprsente la sortie dsire. En d'autres termes, l'objectif thorique est de dterminer la commande dentre afin que l'erreur

e1 ( k ) = y ( k ) y ( k ) soit borne et tend asymptotiquement vers zro. Cependant, dans de nombreux cas pratiques, cependant, nous ne pouvons que dessayer de minimiser l'erreur au sens indiqu dans [3]. Le problme de la rejection de la perturbation, a t tudi largement dans le cas linaire. Le problme gnral de cas non linaire, comme donn dans lquation (III-10) et (III-11) (aussi bien que dans (III-13) de la forme entre-sortie) est un problme complexe. Pour cela, les mthodes dveloppes pour les systmes linaires seront tendues aux tels cas [3]. Dans ce mmoire, afin de considrer toutes les formes possibles des systmes, nous utilisons les modles donns ci-dessous :

tape 1

y (k + 1) = f [ y (k ),..., y (k n + 1)] + j [u (k j ) + v(k j )]


j =0

n 1

v ( k + 1) =

v (k i )
i i =0

p 1

(III-12)

tape 2
y (k + 1) = f [ y (k ),..., y (k n + 1)] + 0 [u (k ) + v(k )]

v(k + 1) = g [v(k ),..., v(k p + 1)]

(III-13)

Mmoire de Magister______________________________________________________ 51

Chapitre III
tape 3

Identification et rejection des perturbations dans les systmes dynamiques

y (k + 1) = i f i [ y (k ),..., y (k n + 1)] + j [u (k j ) + v(k j )]


i =0 p 1 j =0

n 1

v(k + 1) = i v(k i )
i =0

(III-14)

Dans la prsentation donne dans ltape 1, la fonction f est inconnue, et aprs la rejection de la perturbation elle devient augment, dans la simulation nous lavons appel f inc ou (plant dynamique augment ADP) et doit tre estim. La logique floue Fs et les rseaux neuronaux (MNN) peuvent tre utiliss pour le modle de l'identification, depuis que les paramtres ajustables contribuent linairement la sortie [1]. Un cas spcial o la perturbation peut tre dcrit par un modle non linaire est considr dans ltape 2. Dans ce cas, la sortie y (k + 1) dpend explicitement de u (k )
seulement et pas sur ses valeurs passes. Finalement, dans ltape 3, le problme gnral de la rejection de la perturbation est considr o la sortie y (k + 1) dpend explicitement de u (k ) et de ses valeurs passes. La perturbation linaire est encore suppose additive [3]. Le trois diffrentes tapes sont considres en dtail dans la section suivante :

Problme de la rejection de la perturbation


Quand une perturbation externe est prsente, le systme total est dcrit par les quations suivantes :

y (k + 1) = i f i [Y (k )] + D( z )[u (k ) + v(k )]
i =0

v(k + 1) = R ( z )v(k )

(III-15)

NB : La perturbation doit tre dans la forme auto rgressif :

v ( k + 1) = 1v ( k ) + 2 v ( k 1)
Mmoire de Magister______________________________________________________ 52

Chapitre III
o

Identification et rejection des perturbations dans les systmes dynamiques

R( z ) = 0 + 1 z 1 + ... + p 1 z ( p 1)
Cela implique que la perturbation est gnre comme la sortie dquation diffrentielle. Il est suppos que la perturbation est born cest dire que le polynme: R1 ( z ) = 1 z 1R( z ) est stable. De lquation (III-15), on tire
D( z )v(k ) = y (k + 1) i f i [Y (k )] D( z )u (k ) , k
i =1 N

do on dduit :
D ( z )v(k ) = D ( z ) R ( z )v(k 1)
N = 0 y(k ) 1 fi [Y (k 1)] D(z)u(k 1) + ... i =1 N + p 1 y(k p + 1) i fi [Y (k p)] D( z)u(k p) i =1

(III-16)

La sortie du systme donne par (III-15) peut alors scrire comme suit :

y (k + 1) = i f i Y (k ) + R( z ) y (k ) + D ( z )u (k )
i

y (k + 1) = i f i [Y (k )] + D ( z )u (k )
i

(III-17)

O le systme (III-17) devient un plant dynamique augment (ADP) par le degr (p) telle que : Y ( k ) = [ y ( k ), y ( k 1),..., y ( k p n + 1)] , N = ( p + 1) N , N = ( p + 1) N + p
T

Mmoire de Magister______________________________________________________ 53

Chapitre III

Identification et rejection des perturbations dans les systmes dynamiques

1 ( n + p 1) D( z ) = 0 + 1 z + ... + n + p 1 z .D( z ) doit tre stable. 0 = 0 . D'o, la mme

procdure peut tre utilise pour la commande adaptative des systmes dans la prsence des perturbations libres pour assurer que l'erreur d'asservissement tend ver zro.

V.2. tape 1
Un problme plus gnral est considr ici, avec la sortie de systme linstant k + 1
dpend linairement de l'entre u (k ) . En particulier, le systme avec la perturbation additive,

dcrit par l'quation diffrentielle suivante, est considre:

y (k + 1) = f [Y (k )] + D( z )[u (k ) + v(k )]
v(k + 1) = R ( z )v(k ) (III-18)

o u (k ) et y (k ) sont, respectivement, l'entre et la sortie du systme linstant k . Y (k ) , D ( z ) et R ( z ) sont dfinis prcdemment. La non linarit f du systme est suppose inconnue. Cependant, tant que les nombres entiers n et p et les coefficients { i }i =1,n 1 et

{i }i =0, p 1 sont supposs connus.


Dans ce cas, le systme compos peut tre dcrit par une reprsentation entre-sortie en liminant v(k ) de (III-18). Noter cela:

D( z )v(k i ) = y (k i + 1) f [Y (k i )] D( z )u (k i )
(III-18) peut tre crit comme :
p

(III-19)

y (k + 1) = f [Y (k )] + D( z )u (k ) + i 1D( z )v(k i )
i =1

(III-20)

D'o la reprsentation entre-sortie du systme dans la prsence de la perturbation devient :

y (k + 1) = f Y (k ) + D ( z )u (k )

(III-21)

Mmoire de Magister______________________________________________________ 54

Chapitre III
O:

Identification et rejection des perturbations dans les systmes dynamiques

Y (k ) = [ y (k ), y (k 1),..., y (k p n + 1)]
p

f Y (k ) = f [Y (k )] + i 1 ( y (k i + 1) f [Y (k i )])
i =1

D ( z ) = D( z ) R1 ( z ) = D( z ) 1 z 1R( z ) =

] z
i i=0

n + p 1

(III-22)

Comme le montre lquation (III-21), la reprsentation entre-sortie rsultante dans la prsence de la perturbation est augmente par p comparer avec le systme perturbation libre correspondant. Sachant que 0 est suppos connu et diffrent de zro, comme dcrit dans la section prcdente, la commande dentre peut tre calcule pour obtenir la rponse dsire. Le problme considr dans les trois tapes est que la fonction non linaire f (ADP) n'est pas connue, et par consquent elle va tre estime soit par un rseau de fonctions de bases radiales RBFN [27], ou par un rseau de neurones multicouches MNN [1] , ou par un systme flou (FS) [23]. Par la suite le cas 1 correspond au cas o un RBFN est utilis et cas 2 quand un MNN est utilis [28]-[31].

Cas 1
Si un RBFN est utilis pour approximer la fonction f ou (ADP) dans (III-22), la sortie du rseau avec les centres et les largeurs sont fixs exprimes comme :
N

N Y ( k ) = i i Y ( k )
i =1

o N est le nombre de fonctions de la base utilises.

i Reprsente les fonctions de base et i tant les poids ajustables du RBFN [27], si la
fonction dsire peut tre reprsente exactement par un RBFN, c'est possible de proposer un

Mmoire de Magister______________________________________________________ 55

Chapitre III

Identification et rejection des perturbations dans les systmes dynamiques

RBFN pour approximer f dans un domaine compact. Lerreur de l'approximation rsultante du RBFN converge seulement pour une petite perturbation borne (petit ordre) [32]-[33]. Cas 2 Quand la fonction de la base radiale est utilise comme expliqu dans le cas 1, l'erreur d'asservissement peut tre petite. Cependant, le nombre des fonctions de la base du RBFN devient grand dans les problmes daugmentation dordre et la complexit. C'est en particulier dans le problme de la rejection de la perturbation parce que l'ordre du systme total (i.e., la somme des ordres de systme et le systme gnrateur de la perturbation) peut tre haut, mme pour les systmes dordres bas. On exigera que le nombre de fonctions de la base augmente exponentiellement avec la dimension de l'espace de l'entre. Le placement adaptatif de fonction de base radiale pour soccuper avec la complexit exponentielle est encore un problme de recherche ouvert [39]-[40]. Dans cette section, nous discutons comment les rseaux neuronaux du multicouche peuvent tre utiliss dans les problmes de la haute dimension de la rejection de la perturbation. L'usage d'un MNN devient obligatoire quand le systme n'est pas linaire dans la commande de lentre. La mthode du gradient (back propagation) sera utilise pour lajustement des paramtres du rseau. Notre contribution porte sur la manire avec laquelle la logique floue est utilise dans la rejection de la perturbation en conjonction avec la mthode de back-propagation. V.3. tape 2 Dans la section (V-2) la perturbation dynamique tait suppose linaire. La linarit tait essentielle montrer l'existence d'une solution dans ltape 1, dans cette section nous considrons un cas spcial d'un problme plus complexe o la perturbation est modele comme la sortie d'un systme libre non linaire stable. quations diffrentielles non linaires bien connues lquation, de van der pol. Sont des exemples de tels modles non linaires de la perturbation. Le cas spcial qui est considr ici correspond un systme dont la reprsentation entre-sortie de la perturbation-libre dpend explicitement seulement de u (k )
et non pas de ses valeurs passes. Dans ce cas particulier, une solution peut tre trouve pour le problme de la rejection complte de la perturbation, bien que la perturbation dynamique soit complexe et non linaire. Le systme et la perturbation externe v(k ) , peuvent tre dcrits par lquation :

Mmoire de Magister______________________________________________________ 56

Chapitre III

Identification et rejection des perturbations dans les systmes dynamiques

y (k + 1) = f [Y (k )] + u (k ) + v(k ) v(k + 1) = g [v(k ),..., v(k p + 1)]


o (III-24) est une quation diffrentielle non linaire stable.

(III-23) (III-24)

Pour liminer la perturbation de (III-23), la description quivalente du systme est obtenue comme :

y (k + 1) = f [Y (k ),U (k 1)] + u (k )
o
Y (k ) = [ y (k ),..., y (k n p + 1)] et
T

(III-25)

U (k 1) = [u (k 1),..., u (k p )]

La reprsentation rsultante de systme donne par (III-25) est encore linaire dans la commande dentre u (k ) . Une procdure semblable est utilis au cas 2, qui sera adopte pour
identifier le systme. Par consquent, le modle de l'identification est utilis pour calculer la commande de lentre pour atteindre la rponse dsire [3], [35].

V.4. tape 3
Nous considrons, a prsent, le problme le plus gnral de ltude, le plus difficile rsoudre qui est un systme dont la reprsentation entre-sortie dpend de ( u (k ) , v(k ) ) et ses valeurs passes. Cest pour cela que nous avons considr une perturbation linaire [3].

VI.Conclusion
Lidentification et la commande des systmes dynamiques non linaires et la thorie de la rejection de la perturbation sont discutes dans ce chapitre. Vu les caractristiques intrinsques des RBFN et les inconvnients qui prsentent, nous ne les utilisons pas dans la rejection de la perturbation. Les perturbations externes sont modeles comme la sortie linaire ou non linaire des systmes dynamiques libres. La structure du contrleur pour compenser l'effet du la perturbation sur la sortie de systme a t fournie. Nous allons illustrer dans le prochain chapitre, par les rsultats de simulation, comment les rseaux de neurone (MNN) et

Mmoire de Magister______________________________________________________ 57

Chapitre III

Identification et rejection des perturbations dans les systmes dynamiques

la logique floue (Fs) seront utiliss pour arriver des rsultats efficaces. Pour chaque tape introduite prcdemment, un ou deux exemples seront donns.

Mmoire de Magister______________________________________________________ 58

Chapitre IV :

rsultats de simulation

CHAPITRE IV
RSULTATS DE SIMULATION

Mmoire de Magister____________________________________________________________ 59

Chapitre IV
I. Introduction

Rsultats de simulation

Plusieurs mthodes didentification ont t tablies pour les systmes non linaires. Lavnement de la mthode des rseaux de neurones (MNN), et la logique floue (Fs) prsentent des approches didentification trs efficace la non linarit des systmes. Dans ce chapitre on va appliquer les deux techniques d'identification sur quatre systmes non linaires selon leur complexit, et pour cela on va utiliser l'algorithme du rtro-propagation du gradient pour les deux mthodes qui est un algorithme d'apprentissage supervis, ainsi que la structure d'identification srie-parallle et on va calculer la commande floue et neuronale. En plus ce chapitre montre la rejection des perturbations des diffrents systmes avec diffrents types des perturbations linaires et non linaires par les deux mthodes prcdemment cites. En fin aprs que les rsultats de la simulation seront donns, une comparaison entre les deux mthodes sera faite. II. Prsentation des systmes identifier

Systme 1
Le systme 1 identifier sera donn par lquation rcurrente suivante :
y ( k + 1) = 0.3 y ( k ) + 0.6 y ( k 1) + f u ( k ) O la fonction inconnue f a la forme : (IV-1)

f ( u ) = 0.6sin ( u ) + 0.3sin ( 3 u ) + 0.1sin ( 5 u )


Pour identifier ce systme, le modle srie parallle suivant sera utilis :
[u (k )] (k + 1) = 0.3 y (k ) + 0.6 y (k 1) + f y

Systme 2
Le systme 2 identifier sera donn par lquation rcurrente suivante : y ( k + 1) = f y ( k ) , y ( k 1) + u (k ) (IV-2)

Mmoire de Magister __________________________________________________________ 60

Chapitre IV
O la fonction inconnue f a la forme :

Rsultats de simulation

f [ y (k ), y (k 1)] = y ( k ) y ( k 1) ( y ( k ) + 2.5 ) 1 + y 2 ( k ) + y 2 ( k 1)
Le modle didentification sera dcrit par lquation suivante :

(k + 1) = f [ y (k ), y (k 1)] + u (k ) y

Systme 3
Le systme 3 identifier sera donn par lquation rcurrente suivante :
y (k + 1) = F [ y (k )] + G[u (k )] O la fonction inconnue F est dfinie (pour la simulation) par : (IV-3)

F [ y (k )] = y (k ) 1 + y 2(k )
et la fonction inconnue G est dfinie (pour la simulation) par :
G[u (k )] = u (k )3

Le modle didentification est dcrit par lquation suivante :

[u (k )] [ y (k )] + G (k + 1) = F y

Systme 4
Le systme 4 identifier sera donn par lquation rcurrente suivante :

y ( k + 1) = f y ( k ) , y ( k 1) , y ( k 2 ) , u ( k ) , u ( k 1) O la fonction inconnue f a la forme :

(IV-4)

f ( x1 , x2 , x3 , x4 , x5 ) =

x1 x2 x3 x5 ( x3 1) + x4 2 1 + x3 + x2 2

Mmoire de Magister __________________________________________________________ 61

Chapitre IV
Le modle didentification est dcrit par lquation suivante :

Rsultats de simulation

(k + 1) = f [ y (k ), y (k 1), y (k 2), u (k ), u (k 1)] y


III. Rsultats : Systme 1 Pour le modle flou nous avons pris les paramtres suivants :

Lentre du systme et du modle doit tre u (k ) = sin(2k / 250) .


Pour lidentification nous avons trouv 3000 itrations pour minimiser lerreur avec une entre alatoire entre [-1,1] le rsultat est obtenu aprs 2.8473e+003s cest--dire (47.4550 minute). 20 rgles de la forme :

Ri : IF u (k ) est Ai THEN y (k + 1) est bi


Fonctions dappartenances gaussiennes dcart type 0.2. Gain dajustement des prmisses 0.05. Gain dajustement des consquences 0.01.

Pour le modle neuronal nous avons choisis les paramtres suivants : Lentre du systme et du modle doit tre u (k ) = sin(2k / 250) Pour lidentification nous avons trouv 20000 itrations pour minimiser lerreur avec une entre alatoire entre [-1,1], le rsultat est obtenu aprs 3.3111e+003s. 02 couches caches. 20 neurones dans la premire couche cache. 10 neurones dans la deuxime couche cache. Un seul neurone dans la couche de la sortie. La fonction dactivation utilise dans les deux couches caches est la fonction sigmode. Gain dajustement 0.1.

Mmoire de Magister __________________________________________________________ 62

Chapitre IV
Systme 2 Pour le modle flou nous avons pris les paramtres suivants :

Rsultats de simulation

Lentre du systme et du modle doit tre u (k ) = sin(2k / 25)


Pour lidentification nous avons trouv 6000 itrations pour minimiser lerreur avec une entre alatoire entre [-2,2], le rsultat est obtenu aprs 967.4380s. 20 rgles de la forme.
i Ri : IF y (k ) est A1i AND y (k 1) est A2 THEN y (k + 1) est bi

Fonctions dappartenances gaussiennes dcart type 0.9. Gain dajustement des prmisses 0.4. Gain dajustement des consquences 0.9.

Pour le modle neuronal nous avons choisis les paramtres suivants :

Lentre du systme et du modle doit tre u (k ) = sin(2k / 25) Pour lidentification nous avons trouv 10000 itrations pour minimiser lerreur avec une entre alatoire entre [-2,2], le rsultat est obtenu aprs 1.3111 e+003s. 02 couches caches. 20 neurones dans la premire couche cache. 10 neurones dans la deuxime couche cache. Un seul neurone dans la couche de la sortie. La fonction dactivation utilise dans les deux couches caches est la fonction sigmode. Gain dajustement 0.1.

Calcul La commande de poursuite


Le modle de rfrence est dcrit par lquation de diffrence de deuxime ordre :

ym (k + 1) = 0.6 ym (k ) + 0.2 ym (k 1) + r (k )
O

r (k ) = sin(2 k ) / 25)

Mmoire de Magister __________________________________________________________ 63

Chapitre IV

Rsultats de simulation

La commande de poursuite est calcul on utilisant la logique floue et les rseaux de neurone par:

[( y (k ), y (k 1)] + 0.6 y (k ) + 0.2 y (k 1) + r (k ) u (k ) = f


f : est la partie non linaire identifi par les rseaux de neurone et la logique floue, la commande

appliqu dans le systme:


[( y (k ), y (k 1)] + 0.6 y (k ) + 0.2 y (k 1) + r (k ) y (k + 1) = f [( y (k ), y (k 1)] f 1 4 4 4 4 4 4 4 4 4 2 4 4 4 4 4 4 4 4 43
u(k )

Systme 3
Pour le modle flou, lidentification de F est pris les paramtres suivants :

Lentre du systme et du modle doit tre u (k ) = sin( 2k / 25) + sin(2 k / 10)


Pour lidentification nous avons trouv 248 itrations pour minimiser lerreur avec une entre alatoire entre [-2,2], le rsultat est obtenu aprs 41.2960s. 40 rgles de la forme :

Ri : IF y (k ) est Ai THEN y (k + 1) est bi


Fonctions dappartenances gaussiennes dcart type 0.5. Gain dajustement des prmisses 0.5. Gain dajustement des consquences 0.01.

Pour le modle flou, lidentification de G est pris les paramtres suivants :

Lentre du systme et du modle doit tre u (k ) = sin( 2k / 25) + sin(2 k / 10) Pour lidentification nous avons trouv 2938 itrations pour minimiser lerreur avec une entre alatoire entre [-2,2], le rsultat est obtenu aprs 268.1720s. 20 rgles de la forme :
Ri : IF u (k ) est Ai THEN y (k + 1) est bi

Fonctions dappartenances gaussiennes dcart type 0.5. Gain dajustement des prmisses 0.9.

Gain dajustement des consquences 0.06. Mmoire de Magister __________________________________________________________ 64

Chapitre IV

Rsultats de simulation

Pour le modle neuronal, lidentification de F on a choisis les paramtres suivants : Lentre du systme et du modle doit tre u (k ) = sin( 2k / 25) + sin(2 k / 10)

Pour lidentification nous avons trouv 2000 itrations pour minimiser lerreur avec une entre alatoire entre [-2,2], le rsultat est obtenu aprs 139.3100s.

02 couches caches. 20 neurones dans la premire couche cache. 10 neurones dans la deuxime couche cache. Un seul neurone dans la couche de la sortie. La fonction dactivation utilise dans les deux couches caches est la fonction sigmode. Gain dajustement 0.1. Pour le modle neuronal lidentification de G on a choisis les paramtres suivants :

Lentre du systme et du modle doit tre u (k ) = sin( 2k / 25) + sin(2 k / 10) Pour lidentification nous avons trouv 50000 itrations pour minimiser lerreur avec une entre alatoire entre [-2,2], le rsultat est obtenu aprs 1.5111 e+003s.

02 couches caches. 20 neurones dans la premire couche cache. 10 neurones dans la deuxime couche cache. Un seul neurone dans la couche de la sortie. La fonction dactivation utilise dans les deux couches caches est la fonction sigmode. Gain dajustement 0.1

Calcul La commande de poursuite


Le modle de rfrence est dcrit par lquation de diffrence de premier ordre :

ym (k + 1) = 0.6 ym (k ) + r (k )
O

r (k ) = sin((2 k ) / 25)) + sin((2k ) / 10))

La commande de poursuite est calcul on utilisant la logique floue et les rseaux de neurone par:

1 F [ y ( k )] + 0 . 6 y ( k ) + r ( k ) u (k ) = G

Mmoire de Magister __________________________________________________________ 65

Chapitre IV
La commande applique dans le systme :

Rsultats de simulation

f : est la partie non linaire identifi par les rseaux de neurone et la logique floue

1 F [ y ( k )] + 0.6 y ( k ) + r ( k ) + F [ y ( k )] y ( k + 1) = G (k ) G 1 4 4 4 4 42 4 4 4 4 43
u(k )

Systme 4 Pour le modle flou nous avons pris les paramtres suivants : Lentre du systme et du modle doit tre u (k ) = sin(2 k / 250) pour k 500 et
u (k ) = 0.8 sin(2 k / 250) + 0.2 sin(2k / 25) pour k 500

Pour lidentification nous avons trouv 7000 itrations pour minimiser lerreur avec une entre alatoire entre [-1,1], le rsultat est obtenu aprs 1.6076 e+003s. 20 rgles de la forme :
i i Ri : IF y (k ) est A1i AND y (k 1) est A2 AND y (k 2) est A3 i i AND u (k ) est A4 AND u (k 1) est A5 THEN y (k + 1) est bi

Fonctions dappartenances gaussiennes dcart type 0.5. Gain dajustement des prmisses 0.5. Gain dajustement des consquences 1.

Pour le modle neuronal nous avons choisis les paramtres suivants : Lentre du systme et du modle doit tre u (k ) = sin(2 k / 250) pour k 500 et u (k ) = 0.8 sin(2 k / 250) + 0.2 sin(2k / 25) pour k 500 .

Pour lidentification nous avons trouv 21000 itrations pour minimiser lerreur avec une entre alatoire entre [-1,1], le rsultat est obtenu aprs 2.3473e+003s. 02 couches caches. 20 neurones dans la premire couche cache. 10 neurones dans la deuxime couche cache. Un seul neurone dans la couche de la sortie. La fonction dactivation utilise dans les deux couches caches est la fonction sigmode. Gain dajustement 0.1.

Mmoire de Magister __________________________________________________________ 66

Chapitre IV
IV. La simulation Systme 1 a- identification floue
6

Rsultats de simulation

b- identification neuronale
6
modle procd

modle procd

le modle et le procd

le modle et le procd
0 100 200 300 temps 400 500 600 700

-2

-2

-4

-4

-6

-6

100

200

300 temps

400

500

600

700

Figure.IV-1 : le modle et le procd 1


la figure de l'erreur 0.04 0.02

la figure de l'erreur 0.04

0.03
0 -0.02 -0.04

0.02

0.01 e 0 -0.01 -0.02


0 100 200 300 temps 400 500 600 700 -0.06 -0.08 -0.1 -0.12 -0.14 -0.16 e

-0.03

100

200

300 temps

400

500

600

700

Figure.IV-2 : la somme des erreurs moyennes MSE Systme 2 a- identification floue


4

b- identification neuronale
4 modle procd

modle procd

le modle et le procd
0 10 20 30 40 50 temps 60 70 80 90 100

le modle et le procd

-1

-1

-2

-2

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV-3 : le modle et le procd 2 Mmoire de Magister __________________________________________________________ 67

Chapitre IV
la figure de l'erreur 0.25

Rsultats de simulation
la figure de l'erreur 0.3

0.2

0.25

0.15

0.2

0.1 e

0.15 e

0.05

0.1

0.05

-0.05

-0.1

10

20

30

40

50 temps

60

70

80

90

100

-0.05

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV-4 : MSE entre le modle et le procd Systme 3 a- identification floue


8 modle procd
8

b- identification neuronale
modle procd

4 le m odle et le proc d
le m odle et le proc d

-2

-2

-4

-4

-6

-6

-8

-8

10

20

30

40

50 temps

60

70

80

90

100

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV-5 : le modle et le procd 3


0.035 0.03 0.025 0.02 0.015 l'erre ur 0.01 0.005 0 -0.005 -0.01 -0.015

14 12 10 8 6 l'erre ur 4 2 0 -2 -4 -6

x 10

-3

10

20

30

40

50 temps

60

70

80

90

100

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV-6 : MSE entre le modle et le procd Mmoire de Magister __________________________________________________________ 68

Chapitre IV
Systme 4 a- identification floue
0.6

Rsultats de simulation

b- identification neuronale
0.6
modle procd

modle procd

0.4

0.4

0.2

0.2 le modle et le procd


0 100 200 300 400 temps 500 600 700 800

le m odle et le proc d

-0.2

-0.2

-0.4

-0.4

-0.6

-0.6

-0.8

-0.8

-1

-1 0 100 200 300 400 temps 500 600 700 800

Figure.IV-7 : le modle et le procd 4


0.015

0.08

0.06
0.01

0.04
0.005

0.02
l'erreur

l'erreur
0 100 200 300 400 temps 500 600 700 800

-0.02
-0.005

-0.04
-0.01

-0.06
-0.015

-0.08 0 100 200 300 400 temps 500 600 700 800

Figure.IV-8 : MSE entre le modle et le procd V. la courbe de la commande floue de systme 2 a- la commande floue
1

b- la commande neuronale
1 0.5 0 la com m ande de pours uite

0.5 0 la com mande de poursuite

-0.5

-0.5

-1 -1.5

-1 -1.5

-2

-2

-2.5 -3

-2.5 -3

-3.5

-3.5
0 10 20 30 40 50 temps 60 70 80 90 100

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV-9 : la commande de poursuite Mmoire de Magister __________________________________________________________ 69

Chapitre IV
le procd et le modle de rfrence 4 le systme la sortie dsire

Rsultats de simulation
le modle de rfrence et le procd 4 le systme la sortie dsire

1 y et y m

y et y m 0

-1

-1

-2

-2

-3

10

20

30

40

50 temps

60

70

80

90

100

-3

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV-10 : le systme et le modle de rfrence


la figure de l'erreur 0.04

la figure de l'erreur 0.01

0.02

0.005

-0.02

-0.005

-0.04

e
0 10 20 30 40 50 temps 60 70 80 90 100

-0.01

-0.06

-0.015

-0.08

-0.02

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV-11 : MSE entre le systme et la sortie dsire VI. La courbe de la commande floue de systme 3 a- la commande floue
1000

b- la commande neuronale
300

200

-1000 la c om m ande de pours uite

100 la c o m m an de de po urs uite


0 10 20 30 40 50 temps 60 70 80 90 100

-2000

-3000

-100

-4000

-200

-5000

-300

-6000

-400

-7000

-500

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV- 12:la commande de poursuite Mmoire de Magister __________________________________________________________ 70

Chapitre IV
4 le systme la sortie dsir

Rsultats de simulation
4 le systme la sortie dsire

1 y et y m

1 y et y m
0 10 20 30 40 50 temps 60 70 80 90 100

-1

-1

-2

-2

-3

-3

-4

-4

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV-13 : le systme et le modle de rfrence


1.5
1.5

l'erreur de la c om m ande

l'e rre u r d e la c o m m a n de

0.5

0.5

-0.5

-0.5

-1

-1

10

20

30

40

50 temps

60

70

80

90

100

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV-14 : MSE entre le systme et la sortie dsire

VII. La rejection de la perturbation par les rseaux de neurone et la logique floue VIII. La simulation VIII.1.tape 1 VIII.1.1.La rejection de la perturbation par les rseaux de neurone Systme 1-1 Soit un systme du premier ordre dans la prsence dune perturbation linaire :
y (k ) + u (k ) + v(k ) 1 + y (k ) 2

y (k + 1) =

(IV-5)

Mmoire de Magister __________________________________________________________ 71

Chapitre IV

Rsultats de simulation

v(k ) : Cest la perturbation linaire de deuxime ordre considr comme la somme de deux sinusodes peut tre model comme la sortie du systme dynamique libre suivant :

v1(k + 1) = cos( )v1(k ) + sin( )v 2(k ) v 2(k + 1) = cos( )v 2(k ) sin( )v1(k )

v(k ) = v1 (k )
Telle que (2 ) / cest la priode de la perturbation sinusodale. Dans la simulation a t choisis gal 6

(IV-6)

et les conditions initiale de la perturbation sont

choisis comme [v10 , v20 ] = [1,0] , donc cest une perturbation damplitude gale 1 et frquence 12 .

9 La forme de cette perturbation


la perturbation externe 1.5

0.5

-0.5

-1

-1.5

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV-15:la perturbation v(k ) externe de deuxime ordre


La reprsentation entre-sortie du systme dans la prsence de la perturbation est :

yinc (k + 1) = f inc [ y (k ), y (k 1), y (k 2), u (k 1), u (k 2)] + u (k )


Pour identifier le systme avec la perturbation, on propose le modle didentification : (k + 1) = NN [ y (k ), y (k 1),..., y (k q ), u (k 1), u (k 2),..., u (k q )] + u (k ) y o NN (.) est ralis par MNN comme une approximation f inc , pour une identification exacte on choisis q 2 , lidentification dans la prsence de la perturbation se fait on choisis lentre u (k ) par des valeurs alatoires entre [-1,1].

Mmoire de Magister __________________________________________________________ 72

Chapitre IV

Rsultats de simulation

La forme de ce rseau neuronal est dcrite par : N (32 q +1), 40, 20,1 c'est--dire que le rseau comporte 3 couches avec (2q + 1) neurone dentre et une seule sortie. Avec un pas dapprentissage gal 0.05, les rsultats sont obtenus aprs 6417 itrations et temps dexcution gal 1.4378e+003s. Des 3 diffrentes valeurs de q ( q = 0, q = 2, q = 4) sont utilises pour la comparaisons. NB : yinc Indique (increased) cest--dire augment , y p : Le procd , y m : le modle de rfrence
Lobjectif est datteindre la sortie dsire :

ym (k + 1) = 0.6 ym (k ) + r (k )
Telle que lentre rfrence est :

r (k ) = 0.5 sin((2 k ) / 50)) + 0.5 sin((2 k ) / 10))

9 La commande dentre est calcul par


ur (k ) = ( ym (k + 1) NN [ y (k ), y (k 1),..., y (k q ), u (k 1), u (k 2),..., u (k q )])
Le rsultat de la commande montre que : Si q = 2 rejection complte de la perturbation ; erreur trs petite. Si q = 4 rejection pareil q = 2 .

VIII.1.2. La rejection de la perturbation par la logique floue Systme 1-1


La reprsentation entre-sortie de systme dans la prsence de la perturbation est :

yinc (k + 1) = f inc [ y (k ), y (k 1), y (k 2), u (k 1), u (k 2)] + u (k )


Pour identifier le systme avec la perturbation, on propose le modle didentification : (k + 1) = Fs[ y (k ), y (k 1),..., y (k q ), u (k 1), u (k 2),..., u (k q )] + u (k ) y o Fs (.) est ralis par la logique floue comme une approximation f inc , pour une identification exacte on choisis q 2 , lidentification dans la prsence de la perturbation se fait on choisis lentre u (k ) par des valeurs alatoires entre [-1, 1].

Mmoire de Magister __________________________________________________________ 73

Chapitre IV

Rsultats de simulation

Pour lidentification floue on a choisi les paramtres suivants : aprs 844 itrations et temps dexcution gal 2901s pour minimiser lerreur avec 20 rgles de la forme :
i i Ri : IF y (k ) est A1i AND y (k 1) est A2 AND y (k 2) est A3 i i AND u (k 1) est A4 AND u (k 2) est A5 THEN y (k + 1) est bi

Fonctions dappartenances gaussiennes dcart type 0.9. Gain dajustement des prmisses 0.03. Gain dajustement des consquences 0.1

9 La commande dentre est calcul par ur (k ) = ( ym (k + 1) Fs[ y (k ), y (k 1),..., y (k q ), u (k 1), u (k 2),..., u (k q )]) Le rsultat de la commande montre que : Si q = 2 donc rejection complte de la perturbation, erreur trs petite. a- rejection neuronale
la rejection complte de la perturbation q=2 2.5 2 1.5 1 0.5 y m et Y p la sortie dsire le systme

b- rejection floue
la rejection complte de la perturbation q=2 2.5 2 1.5 1 0.5 y m et Y p 0 -0.5 -1 -1.5 -2 -2.5 la sortie dsire le systme

0 -0.5 -1 -1.5 -2 -2.5

100

200

300 temps

400

500

600

100

200

300 temps

400

500

600

Figure.IV-16 : une rejection complte de la perturbation pour q gal 2

Mmoire de Magister __________________________________________________________ 74

Chapitre IV
a- la commande neuronale
la commande 3

Rsultats de simulation
b- la commande floue
la commande de poursuite 3

-1

u
0 100 200 300 temps 400 500 600

-1

-2

-2

-3

-3

100

200

300 temps

400

500

600

Figure.IV-17 : la commande de poursuite


l'erreur 0.6
0.6 l'erreur

0.5 0.4

0.5 0.4

0.3

0.3

0.2 e 0.1
e

0.2 0.1

-0.1 -0.2

-0.1 -0.2

-0.3

100

200

300 temps

400

500

600

-0.3

100

200

300 temps

400

500

600

Figure.IV-18 :lerreur entre y

et y m

VIII.1.3. Pas de rejection de la perturbation q=0 Par les rseaux de neurone (MNN) La reprsentation entre-sortie du systme est :
y (k + 1) = f [ y (k )] + u (k ) + v(k ) Pour identifier le systme, on propose le modle didentification : (k + 1) = NN [ y (k )] + u (k ) + v(k ) y

Mmoire de Magister __________________________________________________________ 75

Chapitre IV
lentre u (k ) par des valeurs alatoires entre [-1,1].

Rsultats de simulation

o NN (.) est ralis par MNN comme une approximation f , lidentification se fait on choisis

La forme de ce rseau neuronal est dcrite par : N13, 40, 20,1 cest--dire que le rseau comporte 3 couches avec une seule entre et une seule sortie. Avec un pas dapprentissage gal 0.05, les rsultats sont obtenus aprs 10.000 itrations.

9 La commande dentre est calcul par u (k ) = ym (k + 1) NN [ y (k )]


Le rsultat montre que : Si q = 0 donc pas de rjection de la perturbation.

Par la logique floue (Fs)


La reprsentation entre-sortie du systme est :

y (k + 1) = f [ y (k )] + u (k ) + v(k )
Pour identifier le systme, on propose le modle didentification : (k + 1) = Fs[ y (k )] + u (k ) + v(k ) y o Fs (.) est ralis par la logique floue comme une approximation f , pour lidentification floue on a choisi les paramtres suivants : aprs 2000 itrations et temps dexcution gal 698.8910 s pour minimiser lerreur et 20 rgles de la forme :

Ri : IF y (k ) est A1i THEN y (k + 1) est bi Fonctions dappartenances gaussiennes dcart type 1. Gain dajustement des prmisses 0.006. Gain dajustement des consquences 0.005. Lidentification se fait on choisis lentre u (k ) par des valeurs alatoires entre [-1, 1].

Mmoire de Magister __________________________________________________________ 76

Chapitre IV
9 La commande dentre est calcul par u (k ) = ym (k + 1) Fs[ y (k )] VIII.1.4. Pas de rejection de la perturbation a- Par MNN
pas de rejection de la perturbation q=0 3

Rsultats de simulation

b- Par Fs
pas de rejection de la perturbation q=0 4
la sortie dsire le systme avec la perturbation

la sortie dsire le systme avec la perturbation

3
2

2
1

1 y m et Y p
0 100 200 300 temps 400 500 600 y m et Y p

-1
-1

-2
-2

-3

-3

-4

100

200

300 temps

400

500

600

Figure.IV-19 : pas de rejection de la perturbation pour q gal 0

Mmoire de Magister __________________________________________________________ 77

Chapitre IV
VIII.1.5. La structure de tout le systme q gal 2 Modle de rfrence
+
+

Rsultats de simulation
ym ( k )

inc (k ) y
+

ei ( k )

finc

ec ( k ) +

v( k )

Z 1

yinc (k )

f inc
r (k )

Z 2 + +

Z 1
+
+

Z 2

Z 1
y p (k )

u (k )

Z 1 Z 2
f

Z 2

Z 1

Z 1

finc

am Mmoire de Magister __________________________________________________________ 78

Chapitre IV
VIII.1.6. La structure du systme ou q gal 0

Rsultats de simulation

Modle de rfrence

ym ( k )

+ +

p (k ) y
+e
i

(k )

r (k )

v( k )

ec ( k )

+ +

u (k )
+

y p (k )

f
+

am

Mmoire de Magister __________________________________________________________ 79

Chapitre IV
VIII.1.7. La rejection par les rseaux de neurone Systme 1-2

Rsultats de simulation

Soit le systme du premier ordre plus complexe dans la prsence dune perturbation linaire:
y (k ) cos( y (k )) + sin( y (k )) exp( y (k ) 2 ) + + u (k ) + v(k ) 2 1 + y (k ) 2 1 + sin( y (k ))

y (k + 1) =

( IV-7)

v(k ) : Cest la perturbation du quatrime ordre, cest la somme de 2 sinusodes et peut tre reprsent par :

0 cos 1 sin 1 sin cos 0 1 1 xv (k + 1) = 0 0 cos 2 0 sin 2 0


v(k ) = xv1 (k ) + xv 3 (k )

0 0 x (k ) sin 2 v cos 2

(IV-8)

o xv (k ) 4 , 1 et 2 reprsente la priode de 2 fonctions sinusodales constituent la

perturbation telle que :

1 =

et 2 = , xvi (k ) cest le i eme lment de xv ( k ) 6 12

9 La forme de la perturbation
la perturbation 1.5

0.5

-0.5

-1

-1.5

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV-20:la perturbation v(k ) externe de quatrime ordre Mmoire de Magister __________________________________________________________ 80

Chapitre IV

Rsultats de simulation

La reprsentation entre-sortie du systme dans la prsence de la perturbation est : yinc (k + 1) = f inc [ y (k ), y (k 1),..., y (k 4), u (k 1), u (k 2),..., u (k 4)] + u (k ) Pour identifier le systme avec la perturbation, on propose le modle didentification :
(k + 1) = NN [ y (k ), y (k 1),..., y (k 4), u (k 1), u (k 2),..., u (k 4)] + u (k ) y o NN (.) est ralis par MNN comme une approximation f inc , pour une identification exacte on choisis q 4 , lidentification dans la prsence de la perturbation se fait on choisis lentre u (k ) par des valeurs alatoires entre [-1,1]. La forme de ce rseau neuronal est dcrite par : N
3 ( 2 q + 1 ), 40 , 20 , 1

cest--dire que le rseau

comporte 3 couches avec ( 2q + 1 ) neurone dentre et une seule sortie, avec un pas dapprentissage gal 0.05 et temps dexcution gal 2.9717e+003s et nombre ditrations gal 12088 itrations la valeurs de q ( q = 4) . Lobjectif est datteindre la sortie dsire :
ym (k + 1) = 0.6 ym (k ) + r (k )

Telle que lentre rfrence est :


r (k ) = 0.25 sin( 2k / 25) + 0.25 sin(2 k / 10)

9 La commande de poursuite dentre est calcul par


ur (k ) = ( ym (k + 1) NN (..))

Si q = 4 : rejection complte de la perturbation.

Mmoire de Magister __________________________________________________________ 81

Chapitre IV
VIII.1.8. La rejection par la logique floue Systme 1-2

Rsultats de simulation

Pour identifier le systme avec la perturbation, on propose le modle didentification floue :


(k + 1) = Fs[ y (k ), y (k 1),..., y (k 4), u (k 1), u (k 2),..., u (k 4)] + u (k ) y o Fs (.) est ralis par la logique floue comme une approximation f inc , pour une identification exacte on choisis q 4 , lidentification dans la prsence de la perturbation se fait on choisis lentre u (k ) par des valeurs alatoires entre [-1, 1]. Pour lidentification floue on a choisi les paramtres suivants : aprs 8038 itrations et temps dexcution gal 1.8904e+003s pour minimiser lerreur avec 20 rgles de la forme :
i i i i Ri : IF y(k ) est A1i AND y(k 1) est A2 AND y(k 2) est A3 AND y(k 3) est A4 AND y(k 4) est A5 i i i i AND u(k 1) est A6 AND u(k 2) est A7 AND u(k 3) est A8 AND u(k 4) est A9 THEN y(k + 1) est bi

Fonctions dappartenances gaussiennes dcart type 0.9. Gain dajustement des prmisses 0.09. Gain dajustement des consquences 0.09

9 La commande de poursuite dentre est calcul par


ur (k ) = ( ym (k + 1) Fs (..)) Le rsultat de la commande montre que : Si q = 4 : rejection complte de la perturbation.

Mmoire de Magister __________________________________________________________ 82

Chapitre IV
a- rejection neuronale
la rejection complte de la perturbation q=4 1.5 la sortie dsire le systme
1 0.8 0.6 0.4

Rsultats de simulation
b- rejection floue
la rejection complte de la perturbation q=4 la sortie dsire le systme

0.5 y m et Y p
y m et Y p

0.2 0 -0.2 -0.4

-0.5

-0.6 -0.8

-1 0 50 100 150 200 250 temps 300 350 400 450 500

-1

50

100

150

200

250 temps

300

350

400

450

500

Figure.IV-21 : une rejection complte de la perturbation pour q gal 4 a- la commande neuronale


la commande de poursuite 1

b- la commande floue
la commande de poursuite 1

0.5

0.5

-0.5

-0.5

-1.5

u
0 50 100 150 200 250 temps 300 350 400 450 500

-1

-1

-1.5

-2

-2

-2.5

-2.5

-3

-3

50

100

150

200

250 temps

300

350

400

450

500

Figure.IV-22 : la commande de poursuite


l'erreur 0.5

l'erreur 0.5

0.4 0.3

0.4

0.3
0.2

0.1 e 0

0.2 e 0.1

-0.1

0
-0.2 -0.3

-0.1

-0.4

50

100

150

200

250 temps

300

350

400

450

500

-0.2

50

100

150

200

250 temps

300

350

400

450

500

Figure.IV- 23 : lerreur entre le systme et le modle de rfrence Mmoire de Magister __________________________________________________________ 83

Chapitre IV
VIII.1.9. Pas de rejection de la perturbation q=0 Par MNN La reprsentation entre-sortie du systme est :
y (k + 1) = f [ y (k )] + u (k ) + v(k )

Rsultats de simulation

Pour identifier le systme avec la perturbation, on propose le modle didentification : (k + 1) = NN [ y (k )] + u (k ) + v(k ) y o NN (.) est ralis par MNN comme une approximation f , lidentification dans la prsence de la perturbation se fait on choisis lentre u ( k ) par des valeurs alatoires entre [-1,1].
3 La forme de ce rseau neuronal est dcrite par : N 1 , 40 , 20 ,1 cest--dire que le rseau

comporte 3 couches avec une seule entre et une seule sortie et avec un pas dapprentissage gal 0.01, la valeurs de q ( q = 0 ) .

9 La commande dentre est calcul par u (k ) = ( ym (k + 1) NN (..))


Si q = 0 donc pas de rjection de perturbation.

Par Fs
La reprsentation entre-sortie du systme est :

y (k + 1) = f [ y (k )] + u (k ) + v(k )
Pour identifier le systme, on propose le modle didentification :

( k + 1) = Fs [ y ( k )] + u ( k ) + v ( k ) y
o Fs (.) est ralis par la logique floue comme une approximation f , pour lidentification floue on a choisi les paramtres suivants : pour minimiser lerreur 20 rgles de la forme :

Mmoire de Magister __________________________________________________________ 84

Chapitre IV
Ri : IF y (k ) est A1i THEN y (k + 1) est bi

Rsultats de simulation

Fonctions dappartenances gaussiennes dcart type 0.9. Gain dajustement des prmisses 0.6. Gain dajustement des consquences 0.5. Lidentification se fait on choisis lentre u (k ) par des valeurs alatoires entre [-1, 1].

9 La commande dentre est calcul par u (k ) = ym (k + 1) Fs[ y (k )]


Le rsultat de la commande montre que : Si q = 0 donc pas de rjection de la perturbation.

VIII.1.10. Pas de rejection de la perturbation a- Par MNN b- Par Fs

pas de rejection de la perturbation q=0 2 la sortie dsire le systme avec la perturbation

pas de rejection de la perturbation q=0 2 la sortie dsire le systme avec la perturbation

1.5

1.5

0.5

0.5 y m et Y p
0 50 100 150 200 250 temps 300 350 400 450 500

y m et Y p

-0.5

-0.5

-1

-1

-1.5

-1.5

-2

-2

50

100

150

200

250 temps

300

350

400

450

500

Figure.IV-24 : pas de rejection de la perturbation q gal 0

Mmoire de Magister __________________________________________________________ 85

Chapitre IV
VIII.1.11. La structure de tout le systme pour q gal 4

Rsultats de simulation
ym ( k ) inc (k ) y

Modle de rfrence
+
+

+

finc

ei ( k )

ec ( k ) +

Z 1

yinc (k )

v( k )

f inc
r (k )

u (k )

Z 4

Z 3

Z 2

Z 1
+ +

Z 4 Z
1

Z 3

Z 2

Z 1
y p (k )

+ +

Z 4

Z 3

Z 2

Z 1

Z 4
f

Z 3

Z 2

Z 1

finc

am Mmoire de Magister __________________________________________________________ 86

Chapitre IV
VIII.1.12. La structure du systme o q gal 0

Rsultats de simulation

Modle de rfrence

ym ( k )

+ +
r (k ) v( k )

p (k ) y
+

ei (k )

e (k ) c

u (k )

+
+

+
+

y p (k )

f
f

+
am

Mmoire de Magister __________________________________________________________ 87

Chapitre IV
VIII.2. tape 2 VIII.2.1. La rejection de la perturbation par les rseaux de neurone Systme 2-1

Rsultats de simulation

Le systme du premier ordre dans la prsence dune perturbation exponentielle :


y (k ) + u (k ) + v(k ) 1 + y (k ) 2

y (k + 1) =

(IV-9)

v(k ) : cest la perturbation non linaire du premier ordre. v(k + 1) = exp(v(k )) 2 (IV-10)

9 La forme de la perturbation
la perturbation externe 6

-1

-2

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV-25 : la perturbation non linaire v(k )

La reprsentation entre-sortie du systme dans la prsence de la perturbation est :

ym (k + 1) = f inc [ y (k ), y (k 1), u (k 1)] + u (k )


Pour identifier le systme avec la perturbation, on propose le modle didentification :
(k + 1) = NN[ y(k ), y(k 1),..., y(k q), u (k 1), u(k 2),...,u (k q)] + u(k ) y

Mmoire de Magister __________________________________________________________ 88

Chapitre IV

Rsultats de simulation

o NN (.) est ralis par MNN comme une approximation f inc , pour une identification exacte on
choisis q 1 , lidentification dans la prsence de la perturbation se fait on choisis lentre u(k ) par des valeurs alatoires entre [ 1.5, 1.5] . La forme de ce rseau neuronal est dcrite par : N (32 q +1), 40, 20,1 cest--dire que le rseau comporte 3 couches avec (2q + 1) neurone dentre et une seule sortie. Avec un pas dapprentissage gal 0.005, les rsultats sont obtenus aprs 1544 itrations et temps dexcution gal 970.3910s. Lobjectif est datteindre la sortie dsire :

ym (k + 1) = 0.6 ym (k ) + r (k )
Telle que lentre rfrence est :

r (k ) = 0.5 sin((2 k ) / 10)) + sin((2k ) / 50)) 9 La commande dentre est calcul par ur (k ) = ( ym (k + 1) NN [ y (k ), y (k 1),..., y (k q ), u (k 1), u (k 2),..., u (k q )])
Le rsultat de la commande montre que : Si q = 1 donc rejection complte de la perturbation, erreur trs petite.

VIII.2.2. La rejection par la logique floue Systme 2-1


Pour identifier le systme avec la perturbation, on propose le modle didentification : (k + 1) = Fs[ y (k ), y (k 1),..., y (k q ), u (k 1), u (k 2),..., u (k q )] + u (k ) y O Fs (.) est ralis par la logique floue comme une approximation f inc . Pour une identification exacte on choisis q 1 , lidentification dans la prsence de la perturbation se fait on choisis lentre u (k ) par des valeurs alatoires entre [-1.5, 1.5].

Mmoire de Magister __________________________________________________________ 89

Chapitre IV
dexcution 698.8910s et 20 rgles de la forme :

Rsultats de simulation

Pour lidentification floue on a choisi les paramtres suivants : aprs 900 itrations et temps

i i Ri : IF y (k ) est A1i AND y (k 1) est A2 AND u (k 1) est A3 THEN y (k + 1) est bi

Fonctions dappartenances gaussiennes dcart type 1.9. Gain dajustement des prmisses 0.5. Gain dajustement des consquences 0.05

9 La commande dentre est calcul par ur (k ) = ( ym (k + 1) Fs[ y (k ), y (k 1),..., y (k q ), u (k 1), u (k 2),..., u (k q )])
Le rsultat de la commande montre que : Si q = 1 donc rejection complte de la perturbation, erreur trs petite.

a- rejection neuronale

b- rejection floue

la rejection complte de la perturbation q=1 4 la sortie dsire le systme

la rejection complte de la perturbation q=1 4 la sortie dsire le systme

1 y m et Y p

1 y m et Y p
0 50 100 150 temps 200 250 300

-1

-1

-2

-2

-3

-3

-4

-4

50

100

150 temps

200

250

300

Figure.IV-26 : une rejection complte de la perturbation pour q gal 1

Mmoire de Magister __________________________________________________________ 90

Chapitre IV
a- la commande neuronale
la commandede poursuite 5

Rsultats de simulation
b- la commande floue
la commande de poursuite 6

2
0

-2

u
-5 -10 0 50 100 150 temps 200 250 300

-4

-6

-8

-10 0 50 100 150 temps 200 250 300

Figure.IV-27 : la commande de poursuite


l'erreur 0.3 0.25

l'erreur 0.1

0.05
0.2 0.15 0.1 0.05 0 -0.05 -0.1

-0.05 e -0.1 -0.15 -0.2 -0.25


0 50 100 150 temps 200 250 300

-0.15 -0.2

50

100

150 temps

200

250

300

Figure.IV-28 :lerreur entre y

et y m

VIII.2.3. Pas de rejection de la perturbation q=0 Par MNN La reprsentation entre-sortie du systme est :
y (k + 1) = f [ y (k )] + u (k ) + v(k ) Pour identifier le systme, on propose le modle didentification : (k + 1) = NN [ y (k )] + u (k ) + v(k ) y

Mmoire de Magister __________________________________________________________ 91

Chapitre IV
lentre u (k ) par des valeurs alatoires entre [-1.5, 1.5].

Rsultats de simulation

o NN (.) est ralis par MNN comme une approximation f , lidentification se fait on choisis

La forme de ce rseau neuronal est dcrite par : N13, 40, 20,1 cest--dire que le rseau comporte 3 couches avec une seule entre et une seule sortie et un pas dapprentissage gal 0.05, les rsultats sont obtenus aprs 5.000 itrations.

9 La commande dentre est calcul par u (k ) = ym (k + 1) NN [ y (k )]


Le rsultat de la commande montre que : Si q = 0 donc pas de rjection de la perturbation.

Par Fs
La reprsentation entre-sortie du systme est :

y (k + 1) = f [ y (k )] + u (k ) + v(k )
Pour identifier le systme, on propose le modle didentification : (k + 1) = Fs[ y (k )] + u (k ) + v(k ) y o Fs (.) est ralis par la logique floue comme une approximation f , pour lidentification floue on a choisi les paramtres suivants : aprs 1000 itrations et temps dexcution 698.8910s pour minimiser lerreur et 20 rgles de la forme :

Ri : IF y (k ) est A1i THEN y (k + 1) est bi Fonctions dappartenances gaussiennes dcart type 0.9. Gain dajustement des prmisses 0.05. Gain dajustement des consquences 0.05.

Lidentification se fait on choisis lentre u (k ) par des valeurs alatoires entre [-1.5, 1.5].

Mmoire de Magister __________________________________________________________ 92

Chapitre IV
9 La commande dentre est calcul par u (k ) = ym (k + 1) Fs[ y (k )] Le rsultat de la commande montre que : Si q = 0 donc pas de rjection de la perturbation. VIII.2.4. Pas de rejection de la perturbation a- Par MNN
pas de rejection de la perturbation q=0 10 la sortie dsire le systme avec la perturbation

Rsultats de simulation

b- Par Fs
pas de rejection de la perturbation q=0 10 la sortie dsire le systme avec la perturbation

4 y m et Y p

4 y m et Y p

-2

-2

-4

-4

-6 0 50 100 150 temps 200 250 300

-6

50

100

150 temps

200

250

300

Figure.IV-29 : pas de rejection de la perturbation pour q gal 0

Mmoire de Magister __________________________________________________________ 93

Chapitre IV
VIII.2.5. La structure de tout le systme q gal 1

Rsultats de simulation
ym ( k ) inc (k ) y
+

finc

Modle de rfrence
+
+

ei ( k )

e (k ) c +

v( k )

Z 1

yinc (k )

f inc
r (k )

Z 1 + +

Z 1
+

u (k )

y p (k )

Z 1 Z 1
f

Z 1

finc
+

am Mmoire de Magister __________________________________________________________ 94

Chapitre IV
VIII.2.6. La structure de tout le systme ou q gal 0 Modle de rfrence

Rsultats de simulation

ym ( k )

+ +

Z 1

p (k ) y
+e
i

(k )

v( k )

ec ( k )

r (k )

+ +

u (k )

+ + +

y p (k )

f
+

am

Mmoire de Magister __________________________________________________________ 95

Chapitre IV
VIII.2.7. La rejection de la perturbation par les rseaux de neurone Systme 2-2

Rsultats de simulation

Le systme du deuxime ordre dans la prsence dune perturbation non linaire :


cos( y (k )) y (k ) + sin( y (k 1)) exp( y (k ) 2 ) + + u (k ) + v(k ) 2 1 + sin( y (k 1)) 1 + y (k ) 2

y (k + 1) =

(IV-11)

v(k ) : cest la perturbation externe du deuxime ordre dfinit comme la sortie de systme non linaire de van der pol.

xv1 (k + 1) = xv1 (k ) + 0.2 xv 2 (k ) xv 2 (k + 1) = 0.2 xv1 (k ) + xv 2 (k ) 0.1( xv1 (k ) 2 1) xv 2 (k ) v(k ) = xv1 (k ) (IV-12)

9 La forme de la perturbation
la perturbation externe non-linaire
3

2.5 2

1.5 1

0.5
xv2 0

0 -0.5

-1

v
-2 -1.5 -1 -0.5 0 xv1 0.5 1 1.5 2 2.5

-1 -1.5

-2

-2
-3 -2.5

-2.5

50

100

150

200

250 temps

300

350

400

450

500

(a)

(b)

Figure.IV- 30 : :(a) perturbation : trajectoire dans 2 et (b) xv1 en fonction de temps.

La reprsentation entre-sortie du systme dans la prsence de la perturbation est :

yinc (k + 1) = f inc [ y (k ), y (k 1),..., y (k 3), u (k 1),..., u (k 2)] + u (k )


Pour identifier le systme avec la perturbation, on propose le modle didentification :

Mmoire de Magister __________________________________________________________ 96

Chapitre IV

Rsultats de simulation

(k + 1) = NN [ y (k ), y (k 1),..., y (k q 1), u (k 1), u (k 2),..., u (k q )] + u (k ) y o NN (.) est ralis par MNN comme une approximation f inc , pour une identification exacte on choisis q 2 , lidentification dans la prsence de la perturbation se fait on choisis lentre
u ( k ) par des valeurs alatoires entre [-2,2].

La forme de ce rseau neuronal est dcrite par : N (32 q + 2), 40, 20,1 cest--dire que le rseau comporte 3 couches avec ( 2q + 2 ) neurone dentre et une seule sortie. Avec un pas dapprentissage gal 0.04 et aprs un temps dexcution gal 2.7227e+003s et nombre ditrations gal 32789, de 3 diffrentes valeurs de q ( q = 0, q = 2, q = 4) sont utilises pour la comparaisons. Lobjectif est datteindre la sortie dsire :

ym (k + 1) = 0.6 ym (k ) + r (k )
Telle que lentre rfrence est :

r (k ) = sin((2 k ) / 10)) + sin((2 k ) / 25)) 9 La commande dentre est calcul par ur (k ) = ym (k + 1) NN [ y (k ), y (k 1),..., y (k q ), u (k 1), u (k 2),..., u (k q )]
Telle que ur (k ) est la commande de poursuite qui fait la rejection de la perturbation Si q = 2 donc rejection complte erreur trs petite. Si q = 4 rejection pareil q = 2 .

VIII.2.8. La rejection par la logique floue Systme 2-2


Pour identifier le systme avec la perturbation, on propose le modle didentification floue : (k + 1) = Fs[ y (k ), y (k 1),..., y (k 3), u (k 1),..., u (k 2)] + u (k ) y

Mmoire de Magister __________________________________________________________ 97

Chapitre IV

Rsultats de simulation

o Fs (.) est ralis par la logique floue comme une approximation f inc , pour une identification
exacte on choisis q 2 , lidentification dans la prsence de la perturbation se fait on choisis lentre u (k ) par des valeurs alatoires entre [-2, 2]. Pour lidentification floue on a choisi les paramtres suivants : aprs 3000 itrations et temps dexcution gal 2.2636e+003s pour minimiser lerreur avec 20 rgles de la forme :
i i i Ri : IF y (k ) est A1i AND y (k 1) est A2 AND y (k 2) est A3 AND y (k 3) est A4 i i AND u (k 1) est A5 AND u (k 2) est A6 THEN y (k + 1) est bi

Fonctions dappartenances gaussiennes dcart type 1. Gain dajustement des prmisses 0.4. Gain dajustement des consquences 0.05.

9 La commande de poursuite dentre est calcul par ur (k ) = ( ym (k + 1) Fs (..))

ur (k ) : La commande de poursuite qui fait la rejection.


Si q = 2 : rejection complte de la perturbation.

a- rejection neuronale

b- rejection floue

la rejection complte de la perturbation q=2 4 le systme la sortie dsire

la rejection complte de la perturbation q=2 4 le systme la sortie dsire

1 y m et Y p

1 y m et Yp
0 50 100 150 200 250 temps 300 350 400 450 500

-1

-1

-2

-2

-3

-3

-4

-4

50

100

150

200

250 temps

300

350

400

450

500

Figure.IV- 31: une rejection complte de la perturbation pour q gal 2

Mmoire de Magister __________________________________________________________ 98

Chapitre IV
a- la commande neuronale
la commande de poursuite 6

Rsultats de simulation
b- la commande floue
la commande de poursuite 6

-2

u
0 50 100 150 200 250 temps 300 350 400 450 500

-2

-4

-4

-6

-6

50

100

150

200

250 temps

300

350

400

450

500

Figure.IV- 32 : la commande de poursuite


l'erreur 1.8 1.6 1.4 1.2 1 0.8 0.6 0.4 0.2 0 -0.2 e

l'erreur 1.8 1.6 1.4 1.2 1 0.8 0.6 0.4 0.2 0 e

50

100

150

200

250 temps

300

350

400

450

500

-0.2 0 50 100 150 200 250 temps 300 350 400 450 500

Figure.IV-33 :lerreur entre le modle du rfrence et le systme

VIII.2.9. Pas de rejection de la perturbation q=0 Par MNN La reprsentation entre-sortie du systme est :
y (k + 1) = f [ y (k ), y (k 1)] + u (k ) + v(k ) Pour identifier le systme avec la perturbation, on propose le modle didentification : (k + 1) = NN [ y (k ), y (k 1)] + u (k ) + v(k ) y

Mmoire de Magister __________________________________________________________ 99

Chapitre IV
lentre u (k ) par des valeurs alatoires entre [-2,2].

Rsultats de simulation

o NN (.) est ralis par MNN comme une approximation f , lidentification se fait on choisis

La forme de ce rseau neuronal est dcrite par : N (32 ), 40, 20,1 cest--dire que le rseau comporte 3 couches avec deux entres et une seule sortie et un pas dapprentissage gal 0.05.

9 La commande dentre est calcul par u (k ) = ym (k + 1) NN [ y (k ), y (k 1)]


Le rsultat de la commande montre que : Si q = 0 donc pas de rjection de la perturbation.

Par Fs
La reprsentation entre-sortie du systme est :

y (k + 1) = f [ y (k ), y (k 1)] + u (k ) + v(k )
Pour identifier le systme, on propose le modle didentification : (k + 1) = Fs[ y (k ), y (k 1)] + u (k ) + v(k ) y o Fs (.) est ralis par la logique floue comme une approximation f , pour lidentification floue on a choisi les paramtres suivants : pour minimiser lerreur 20 rgles de la forme :
i Ri : IF y (k ) est A1i AND y (k 1) est A2 THEN y (k + 1) est bi

Fonctions dappartenances gaussiennes dcart type 0.5. Gain dajustement des prmisses 0.01. Gain dajustement des consquences 0.05. Lidentification se fait on choisis lentre u (k ) par des valeurs alatoires entre [-2, 2].

Mmoire de Magister __________________________________________________________ 100

Chapitre IV
9 La commande dentre est calcul par u (k ) = ym (k + 1) Fs[ y (k ), y (k 1)] VIII.2.10. Pas de rejection de la perturbation a- Par MNN

Rsultats de simulation

b- Par Fs

pas de rejection de perturbation q=0 6 le systme avec la perturbation la sortie dsire


6

pas de rejection de perturbation q=0 le systme avec la perturbation la sortie dsire

y m et y p

ym et y p

-2

-2

-4

-4

-6

-6

50

100

150

200

250 temps

300

350

400

450

500

50

100

150

200

250 temps

300

350

400

450

500

Figure.IV-34 : pas de rejection de la perturbation pour q gal 0

Mmoire de Magister __________________________________________________________ 101

Chapitre IV
VIII.2.11. La structure de tout le systme o q gal 2

Rsultats de simulation
ym ( k )

Modle de rfrence
+
inc (k ) y
+

finc

ei ( k )

ec ( k ) +

v( k )

Z 1

yinc (k )

f inc
r (k )

u (k )

Z 2

Z 1
+ +

Z 3 Z 1 Z 3
f

Z 2

Z 1
y p (k )

+ +

Z 2

Z 1

Z 2

Z 1

finc

am Mmoire de Magister __________________________________________________________ 102

Chapitre IV
VIII.2.12. La structure de tous le systme o q gal 0 Modle de rfrence

Rsultats de simulation
ym ( k )

p (k ) y

ei (k )

r (k )

f
v( k )

e ( k ) c

Z 1
+

u (k )

+ +

Z 1

y p (k ) Z 1

f
+

am

Mmoire de Magister __________________________________________________________ 103

Chapitre IV
VIII.3. tape 3 VIII.3.1. La rejection de la perturbation par les rseaux de neurone

Rsultats de simulation

Le systme du troisime ordre dans la prsence dune perturbation linaire: y (k + 1) = 1 y (k ) + sin [5 y (k 1)]exp cos [ y ( k 2 ) ] + D( z )[u (k ) + v(k )] Sachant que :
D ( z ) : Un polynme qui doit tre stable donc :

}
(IV-13)

+ 2 {y (k ) + y (k 1) + y (k 2) + sin [ y (k )]cos[2 y (k 1) + 3 y (k 2)]}

D( z ) = 2.2 Z 1 + 3Z 2 + 4 , alors 1 = 0.05 , 2 = 0.5 , 3 = 1 , 4 = 1.3 . v(k ) : cest la perturbation linaire du deuxime ordre considr comme un sinusodes et peut tre reprsent par :

v1(k + 1) = cos( )v1(k ) + sin( )v 2(k ) v 2(k + 1) = cos( )v 2(k ) sin( )v1(k )

v(k ) = v1 (k )
Telle que (2 ) / cest la priode de la perturbation sinusodale. Dans la simulation a t choisis gal choisis comme frquence 12 . 6

(IV-14)

et les conditions initiale de la perturbation sont

[v10 , v20 ] = [1.2,1.6]

donc cest une perturbation damplitude gal 2 et

9 La forme de la perturbation
la perturbation externe 2.5 2 1.5 1 0.5 0 -0.5 -1 -1.5 -2 -2.5 v

10

20

30

40

50 temps

60

70

80

90

100

Figure.IV- 35:la perturbation v(k ) de deuxime ordre Mmoire de Magister __________________________________________________________ 104

Chapitre IV

Rsultats de simulation

La reprsentation entre-sortie du systme dans la prsence de la perturbation est :


yinc (k + 1) = finc [ y(k ), y(k 1),..., y(k 4), u (k 1), u (k 2),....u (k 4))] + 2.2u (k 1) + u (k 2) + 1.3u (k )

Pour identifier le systme avec la perturbation, on propose le modle didentification :


(k + 1) = NN [ y(k ), y (k 1),..., y (k q), u (k 1), u (k 2),...,u (k q )] + 2.2u (k 1) + u (k 2) + 1.3u (k ) y

o NN (.) est ralis par MNN comme une approximation f inc , pour une identification exacte on
choisis q 2 , parce que la perturbation de deuxime ordre et le systme de troisime ordre donc le modle f inc dfinir pour la rejection de la perturbation il faut quil soit dordre 5 et plus, lidentification de modle f inc dans la prsence de la perturbation se fait on choisis lentre u (k ) par des valeurs alatoires entre [-2,2]. La forme de ce rseau neuronal est dcrite par : N (32 q + 5), 40, 20,1 cest--dire que le rseau comporte 3 couches avec ( 2q + 5 ) neurone dentre et une seule sortie. Avec un pas dapprentissage gal 0.007, les rsultats sont obtenus aprs un temps dexcution 2.9899e+003s et nombre ditrations gal 10603. Lobjectif est datteindre la sortie du rfrence ym telle que :

ym (k + 1) = 0.6 ym (k ) + 0.2 ym (k 1) + 0.1 ym (k 2) + r (k )


Et lentre rfrence est :

r (k ) = 0.75 sin((2 k ) / 50)) + sin((2k ) / 20)) 9 La commande de poursuite est calcul par

u(k ) = ( ym (k + 1) NN[ y(k ), y(k 1),...,y(k q),u(k 1),u(k 2),...,u(k q)] 2.2u(k 1) u(k 2)) /1.3
Telle que ec = ym y p tend vers zro Le rsultat de la commande montre que : Si q = 2 : une rejection complte de la perturbation.

Mmoire de Magister __________________________________________________________ 105

Chapitre IV
VIII.3.2. La rejection par la logique floue

Rsultats de simulation

Pour identifier le systme avec la perturbation, on propose le modle didentification :


(k + 1) = Fs[ y (k ), y (k 1),..., y (k q ), u (k 1), u (k 2),..., u (k q )] + 2.2u (k 1) + u (k 2) + 1.3u (k ) y o Fs (.) est ralis par la logique floue comme une approximation f inc , pour une identification exacte on choisis q 2 , lidentification de modle f inc dans la prsence de la perturbation se fait on choisis lentre u ( k ) par des valeurs alatoires entre [-2,2]. Pour lidentification floue on a choisi les paramtres suivants : aprs temps dexcution gal 4.8322e+003s et nombre ditrations gal 2566 pour minimiser lerreur avec 20 rgles de la forme :
i i i i Ri : IF y(k ) est A1i AND y(k 1) est A2 AND y(k 2) est A3 AND y(k 3) est A4 AND y(k 4) est A5 i i i i AND u(k 1) est A6 AND u(k 2) est A7 AND u(k 3) est A8 AND u(k 4) est A9 THEN y(k + 1) est bi

Fonctions dappartenances gaussiennes dcart type 2.5. Gain dajustement des prmisses 0.1. Gain dajustement des consquences 0.1.

9 La commande de poursuite est calcul par


u (k ) = ( ym (k + 1) Fs[ y (k ), y (k 1),..., y (k q ), u (k 1), u (k 2),..., u (k q )]

2.2u (k 1) u (k 2)) / 1.3


Si q = 2 : une rejection complte de la perturbation.

Mmoire de Magister __________________________________________________________ 106

Chapitre IV
a- rejection neuronale
la rejection complte de la perturbation q=2 8 la sortie dsire le systme

Rsultats de simulation
b- rejection floue
la rejection complte de la perturbation q=2 8 la sortie dsire le systme

ym et Y p
0 50 100 150 temps 200 250 300

y m et Y p

-2

-2

-4

-4

-6

-6

50

100

150 temps

200

250

300

Figure.IV- 36 : la rejection complte de la perturbation pour q = 2 ; ym identique y p a- la commande neuronale


la commande de poursuite 6

b- la commande floue
la commande de poursuite 6

-2

u
0 50 100 150 temps 200 250 300

-2

-4

-4

-6

-6

50

100

150 temps

200

250

300

Figure.IV- 37 : la commande de poursuite utilis pour la rejection de la perturbation


l'erreur 1.4

l'erreur 1.4

1.2

1.2 1

0.8
0.8

0.6 e 0.4
0.4 0.6 e

0.2
0.2

0
0

-0.2

-0.2

50

100

150 temps

200

250

300

-0.4

50

100

150 temps

200

250

300

Figure.IV- 38 :lerreur entre le modle du rfrence et le systme Mmoire de Magister __________________________________________________________ 107

Chapitre IV
VIII.3.3. Pas de rejection de la perturbation q=0 Par MNN La reprsentation entre-sortie du systme est :

Rsultats de simulation

y (k + 1) = f [ y (k ), y (k 1), y (k 2), u (k 1), u (k 2)] + 2.2v(k 1) + v(k 2) + 1.3v(k ) + 1.3u (k ) Pour identifier le systme avec la perturbation, on propose le modle didentification :

(k + 1) = NN [ y (k ), y (k 1), y (k 2), u (k 1), u (k 2)] + 2.2v(k 1) + v(k 2) + 1.3v(k ) + 1.3u (k ) y


o NN (.) est ralis par MNN comme une approximation f , lidentification de modle f dans la prsence de la perturbation se fait on choisis lentre u (k ) par des valeurs alatoires entre [-2,2]. La forme de ce rseau neuronal est dcrite par : N (35), 40, 20,1 cest--dire que le rseau comporte 3 couches avec cinq entre et une seule sortie. Avec un pas dapprentissage gal 0.007, les rsultats sont obtenus aprs un temps dexcution gal 6.8518e+003s et nombre ditrations gales 22123 itrations.

9 La commande dentre est calcul par u (k ) = ( ym (k + 1) NN [ y (k ), y (k 1), y (k 2), u (k 1), u (k 2)]) / 1.3
Le rsultat de la commande montre : Si q = 0 : pas de rejection de la perturbation

Par Fs
La reprsentation entre-sortie du systme est :

y (k + 1) = f [ y (k ), y (k 1), y (k 2), u (k 1), u (k 2)] + 2.2v(k 1) + v(k 2) + 1.3v(k ) + 1.3u (k )


Pour identifier le systme avec la perturbation, on propose le modle didentification : (k + 1) = Fs[ y (k ), y (k 1), y (k 2), u (k 1), u (k 2)] + 2.2v(k 1) + v(k 2) + 1.3v(k ) + 1.3u (k ) y

Mmoire de Magister __________________________________________________________ 108

Chapitre IV
o Fs (.) est ralis par la logique floue comme une approximation f .

Rsultats de simulation

Lidentification de modle f dans la prsence de la perturbation se fait on choisis lentre u ( k ) par des valeurs alatoires entre [-2,2]. Avec 20 rgles de la forme :
i i Ri : IF y (k ) est A1i AND y (k 1) est A2 AND y (k 2) est A3 i i AND u (k 1) est A4 AND u (k 2) est A5 THEN y (k + 1) est bi

Fonctions dappartenances gaussiennes dcart type 0.9. Gain dajustement des prmisses 0.002. Gain dajustement des consquences 0.007

9 La commande dentre est calcul par u (k ) = ( ym (k + 1) Fs[ y (k ), y (k 1), y (k 2), u (k 1), u (k 2)]) / 1.3
Le rsultat de la commande montre que : Si q = 0 : pas de rejection de la perturbation

VIII.3.4. Pas de rejection de la perturbation a- Par MNN


pas de rejection de la perturbation q=0 15 la sorite dsire le systme avec la perturbation

b-Par Fs
pas de rejection de la perturbation q=0 15 la sortie dsire le systme

10

10

y m et Y p

y m et Y p

-5

-5

-10

-10

-15

50

100

150 temps

200

250

300

-15

50

100

150 temps

200

250

300

Figure.IV-39 : pas de rejection de la perturbation pour q gal 0

Mmoire de Magister __________________________________________________________ 109

Chapitre IV
VIII.3.5. La structure de tout le systme q gal 2

Rsultats de simulation
ym ( k )

Modle de rfrence
+
inc (k ) y
+

finc

ei ( k )

ec ( k ) +

v( k )

Z 1

yinc (k )

f inc
r (k )

u (k )

Z 4

Z 3

Z 2

Z 1
+ +

Z 4 Z 1 Z 4
f

Z 3

Z 2

Z 1
y p (k )

+ +

Z 4

Z 3

Z 2

Z 1

Z 3

Z 2

Z 1

finc

am Mmoire de Magister __________________________________________________________ 110

Chapitre IV
VIII.3.6. La structure de tout le systme q gal 0

Rsultats de simulation

Modle de rfrence

ym ( k )

+ +
v( k )
r (k )

p (k ) y

ei (k )

ec (k )

Z 2

Z 1

Z 1

Z 2 y p (k )

u (k )

+
Z
2

+
Z
1

Z 1

Z 2

f
+

+
am

Mmoire de Magister __________________________________________________________ 111

Chapitre IV
Dbut

Rsultats de simulation

IX. Organigramme dans le cas de rejection de perturbation par les rseaux de neurone

Dclaration de systme non linaire avec la perturbation

Modlisation

Cration de modle identifier avec une augmentation de son ordre par q 1

apprentissage

Modlisation

validation

Dclaration des paramtres

Chargement des poids

Initiation des poids et des biais

Traitement

Traitement

Dfinir le modle de rfrence

Ajustement des paramtres

Calculer la commande de poursuite

E = Ed ?

Appliquer la commande dans le systme ral (perturb)

ter min er

Mmoriser les poids

La rejection complte de la perturbation

Fin Mmoire de Magister __________________________________________________________ 112

Chapitre IV
Dbut

Rsultats de simulation

X. Organigramme dans le cas de rejection de perturbation par la logique floue

Dclaration de systme non linaire avec la perturbation

Modlisation

Cration de modle identifier avec une augmentation de son ordre par q 1

apprentissage
Dclaration des paramtre et dfinir le nombre des rgles

Modlisation

validation

Chargement des paramtres

Initiation des centres de partie prmisse et centres de partie consquence

Traitement

Traitement

Dfinir le modle de rfrence

Ajustement des paramtres

Calculer la commande de poursuite

E = Ed ?

Appliquer la commande dans le systme ral (perturb)

ter min er

Mmoriser les centre de Partie prmisse et centre de partie consquence

La rejection complte de la perturbation

Fin Mmoire de Magister __________________________________________________________ 113

Chapitre IV
XI. Interprtation des rsultats XI.1. Identification

Rsultats de simulation

Nous avons tudi lidentification des systmes non linaires selon leur complexit. Le systme 1 qui est le plus simple est un systme TISO (Two Input Single Output), mais la partie non
. linaire identifier est un systme SISO (Single Input Single Output) dentre u (k ) et de sortie f
Le systme 2 est un systme TISO (Two Input Single Output), la partie identifier est un systme

. Le systme 3 est un systme SISO complexe contient TISO dentre [ y (k ) , y (k 1) ] et de sortie f , G (SISO) deux partie non linaire identifier F et G , F (SISO) dentre [ y (k ) ] et de sortie f . Le dernier systme est le plus complexe, car la partie non linaire dentre [ u (k ) ] et de sortie g identifier est un systme MISO dentres [ y (k ) , y (k 1) , y (k 2) , u (k ) , u (k 1) ] et de sortie
y (k + 1) .

La Figure (IV-1) montre les rsultats de la simulation du systme 1 pour les deux mthodes, dans la phase dapprentissage, nous remarquons que les deux modles convergents vers la sortie du systme 1. Comme excitation nous avons pris pour les deux cas la mme entre alatoire. Pour comparer les rsultats entre les deux mthodes nous avons opt comme critre la moyenne de la somme des erreurs au carr MSE (Mean Square Error). Pour lidentification floue le MSE gal 9.9702e-005, et pour lidentification neuronale le MSE gal 2.3727e-004, ce qui est un avantage pour lidentification floue. La Figure (IV-3) montre les rsultats didentification du systme 2 pour les deux mthodes. Nous remarquons toujours une convergence des sorties des modles vers la sortie du systme 2. Comme excitation nous avons pris pour les deux cas la mme entre alatoire. Pour lidentification floue nous avons trouv MSE gal 0.001, et pour lidentification neuronale nous avons obtenu MSE gal 6.7267e-004, ce qui est un avantage pour lidentification neuronale mais si en comparant le temps de calcul nous allons trouver que pour lidentification floue 967.4380s avec 6000 itrations par contre pour lidentification neuronale 1.3111e+003s avec 10000 itrations .Ce qui est un inconvnient pour lidentification neuronale. Pour la commande neuronale nous avons trouv la somme des erreurs moyennes entre la sortie dsir et la sortie du systme est de 5.6021e-005 pour la commande floue MSE gal 4.7050e-004 (figure.IV-10), toujours un avantage pour les rseaux de neurone mais si en compare

Mmoire de Magister __________________________________________________________ 114

Chapitre IV
la logique floue.

Rsultats de simulation

le temps dexcution aussi on trouve que la logique floue est plus rapide ce qui est un avantage pour

La Figure (IV-5) montre les rsultats didentification du systme 3. La convergence des modles vers le systme est toujours assure. Comme excitation nous avons pris pour les deux cas la mme entre alatoire pour F et G . Pour lidentification floue de F et G nous avons trouv MSE gal 4.9295e-005, tandis que pour lidentification neuronale nous avons obtenu MSE gal 1.2289e-005. Les rsultats montrent que lerreur didentification floue atteint des pics suprieurs ceux de lidentification neuronale. Pour la commande floue MSE gal 0.0366 et la commande neuronale MSE gal 0.0339 sont plus proche (Figure.IV-13), mais par la comparaisons de nombre ditrations et le temps de calcul on trouve que lidentification floue toujours plus rapide. La Figure (IV-7) montre les rsultats didentification du systme 4. La convergence des modles vers le systme est toujours assure. Comme excitation nous avons pris pour les deux cas la mme entre alatoire toujours. Pour lidentification floue nous avons trouv MSE gal 1.8362e-005, et pour lidentification neuronale nous avons obtenu MSE gal 4.2842e-004. Ici sans discussion lidentification floue est trs mieux. XI.2. La rejection de la perturbation tape 1 Pour la rejection de la perturbation par les rseaux de neurone et la logique floue des systmes non linaires selon leur complexit et la complexit de la perturbation. Systme 1-1 est un systme SISO avec une perturbation sinusodale de deuxime ordre, la partie identifier est un systme

. Le Systme 1-2 est un MISO dentre [ y (k ), y (k 1), y (k 2), u (k 1), u (k 2)] et de sortie f inc
systme SISO complexe mais avec une perturbation linaire de quatrime ordre ce pour cela pour rejeter cette perturbation il faut que la partie non linaire identifier soit un systme MISO dentre :

. [ y (k ), y (k 1), y (k 2), y (k 3), y (k 4), u (k 1), u (k 2), u (k 3), u (k 4)] et de sortie f inc

Mmoire de Magister __________________________________________________________ 115

Chapitre IV
tape 2

Rsultats de simulation

Le systme 2-1 qui est le mme systme 1-1 dans ltape prcdente mais avec une perturbation non linaire de premier ordre, mais pour la rejection la partie non linaire identifier

. Le systme 2-2 est le plus est un systme MISO dentre [ y (k ), y (k 1), u (k 1)] et de sortie f inc
complexe, car il est un systme TISO et la perturbation non linaire de van der pol donc la partie non linaire identifier est un systme MISO dentres :

. [ y (k ), y (k 1), y (k 2), y (k 3), u (k 1), u (k 2)] et de sortie f inc


tape 3
Le dernier systme cest le plus difficile et plus complexe car il est un systme MISO dorigine avec une perturbation sinusodale de deuxime ordre donc la partie identifier est un systme non linaire MISO de 9 entres :

. [ y (k ), y (k 1), y (k 2), y (k 3), y (k 4), u (k 1), u (k 2), u (k 3), u (k 4)] et de sortie f inc
XII. La discussion tape 1
La Figure (IV-16) montre les rsultats de la simulation du Systme 1-1 pour les deux mthodes, dans la phase de la rejection, nous remarquons que le rsultat de la commande montre que la sortie du systme converge vers la sortie dsire pour les deux mthodes. Comme excitation nous avons pris pour les deux cas la mme entre alatoire. Pour comparer les rsultats entre les deux mthodes nous avons opt comme critre MSE. Pour la rejection floue le MSE gal 0023, et pour la rejection neuronale le MSE gal 0.005. Ce qui est un avantage pour la rejection de la perturbation par la logique floue. La Figure (IV-21) montre les rsultats de la rejection de la perturbation du systme 1-2 par les deux mthodes. Nous remarquons toujours une convergence de la sortie du systme vers la sortie dsire. Comme excitation nous avons pris pour les deux cas la mme entre alatoire. Pour la rejection floue nous avons trouv MSE gal 0.0024, et pour la rejection neuronale nous avons obtenu MSE gal 0.0038, ce qui est un avantage pour la rejection floue.

Mmoire de Magister __________________________________________________________ 116

Chapitre IV
tape 2

Rsultats de simulation

La Figure (IV-26) montre les rsultats de la rejection de la perturbation du systme 2-1 par les deux mthodes. Nous remarquons toujours une convergence de la sortie du systme vers la sortie dsire. Comme excitation nous avons pris pour les deux cas la mme entre alatoire. Pour la rejection floue nous avons trouv MSE gal 3.2069e-004s, et pour la rejection neuronale nous avons obtenu MSE gal 0.0014, ce qui est un avantage pour la rejection floue. On trouve que la logique floue toujours mieux. La Figure (IV-31) montre les rsultats de la rejection de la perturbation du systme 2-2. La convergence de la sortie du systme vers la sortie dsire est toujours assure. Comme excitation nous avons pris pour les deux cas la mme entre alatoire toujours. Pour lidentification floue nous avons trouv MSE gal 0.0058, et pour lidentification neuronale nous avons obtenu MSE gal 0.0056. Ici la rejection neuronale mieux mais si on compare le rsultat par le temps de calcul on trouve que le temps dexcution de la rejection floue gal 2.2636e+003s aprs 3000 itrations et le temps dexcution de la rejection neuronale gal 6.27227e+003s aprs 32789 itrations donc une grande diffrence ce pour cela la logique floue est prfrable. tape 3 La Figure (IV-36) montre les rsultats de la rejection de la perturbation du systme du ltape 3. La convergence de la sortie du systme vers le modle de rfrence est toujours assure. Comme excitation nous avons pris pour les deux cas la mme entre alatoire toujours. Pour la rejection floue nous avons trouv MSE gal 0.0077, et pour la rejection neuronale nous avons obtenu MSE gal 0.0094. Ici la rejection neuronale est mieux aussi si on compare le rsultat par le temps de calcul on trouve que le temps dexcution de la rejection floue gal 5.8322e+003s (97,2033 minutes) aprs 2866 itrations et le temps dexcution de la rejection neuronale gal 2.9899e+003s (49,8317 minutes) aprs 22123 itrations donc une grande diffrence, presque le double par rapport la rejection neuronale, ce pour cela les rseaux de neurone ici est prfrable. Selon notre tude, nous remarquons que les performances des identificateurs neuronaux sont plus prcises que ceux des identificateurs flous. Cela ne peut pas tre absolument affirm dune faon gnrale (systme 1et 4) car notre tude a trait des cas particuliers des systmes. Mais pour la rejection nous avons vu que la logique floue a montr son efficacit que ceux de rseaux de

Mmoire de Magister __________________________________________________________ 117

Chapitre IV

Rsultats de simulation

neurone mais aussi pas affirm dune faon gnrale (systme 2-2 et le systme de ltape 3), Cela nempche pas de citer quelques proprits que nous avons remarques dans notre travail : Les paramtres des identificateurs flous ont des significations physiques, ce qui nest pas vrai pour le cas neuronal. Dans la logique floue on peut incorporer des connaissances dun expert notre identificateur. La vitesse dexcution des algorithmes flous est plus rapide que ceux des rseaux de neurones. Les identificateurs neuronaux sont moins sensibles aux conditions initiales par rapport ceux de la logique floue. La capacit dapproximation de la logique floue est meilleure par rapport celle de rseaux de neurone. Pour la rejection de la perturbation, la logique floue a montr son efficacit pour quelques systmes moins complexes mais pour les systmes plus complexes comme le dernier nous pensons que les rseaux de neurone sont prfrables. XIII. Conclusion Dans ce chapitre nous avons illustr lidentification et la commande et plus la rejection de la perturbation par la logique floue et les rseaux de neurone par la simulation, nous avons pris quelques systmes particulier de niveaux de complexit diffrent, ainsi dans ce chapitre nous avons discut les rsultats obtenus de la comparaison entre les deux mthodes tudi.

Mmoire de Magister __________________________________________________________ 118

CONCLUSION GNRALE

Mmoire de Magister______________________________________________________ 119

CONCLUSION GNRALE

Nous avons prsent dans ce mmoire une mthode de rjection des perturbations dans les systmes non linaires, on a montr que lobjectif cest lidentification de ADP (augmented plant dynamics), dans notre travail nous avons utilis la logique floue et les rseaux de neurone pour cet objectif. Nous avons compar entre la commande neuronale et la commande floue pour lidentification et la rejection de la perturbation, sachant que la perturbation est considr comme la sortie dun systme linaire ou non linaire libre. Le premier chapitre a t dsign pour les rseaux de neurone artificiel, principe et architecture. Le deuxime chapitre a t consacr pour la logique floue, notions de base, quelques explications thoriques. Le troisime chapitre a t orient pour lidentification, ltape de la modlisation, et le principe de la rejection des perturbations. Le quatrime chapitre cest le dernier et le plus important dans ce mmoire, il contient la description des systmes traits avec les types des perturbations rejet ainsi linterprtation des rsultats obtenus par la simulation sur un pc. Ce travail a montr que les rseaux de neurone et la logique floue sont trs efficaces pour lidentification et la rejection complte de la perturbation, nous avons concentr sur les valeurs de MSE et le temps de calcul comme des indices de comparaison. Les perspectives de ce travail sont nombreuses :

Mmoire de Magister______________________________________________________ 120

9 Sur laspect de lidentification ils existent plusieurs mthodes rcentes comme la logique floue type 2 et la mthode doptimisation des particules (PSO) bas sur la technique (SWARM). 9 Sur laspect systme on essayant dappliquer la mthode de la rejection de la perturbation sur les systmes physiques ; pendule invers, bras manipulateur,

Mmoire de Magister______________________________________________________ 121

Bibliographie
[1]-K. S. Narendra and K. Parthasarathy, "Identification and control of dynamical systems Using neural networks" , IEEE ns. Neural Networks, vol. 1, pp. 4-27, Mar. 1990. [2]-K. S. Narendra and S. Mukhopadhyay, "Intelligent Control Using Neural Networks", Proceedings of the American Control Conference, pp.1069-1073, 1991. [3]-S Mukhopadhyay and K. S. Narendra. "Disturbance Rejection in Nonlinear Systems Using Neural Networks", Tech. Report No. 9114, Center for Systems Science, Yale University. Also to appear in IEEE Trans. on Neural Neiworks. [4]-LEBOUKH djamel ET HEZZAT abdelghani Commande adaptative floue, mmoire dingniorat, Institut dlectronique. Universit Mohamed Boudiaf de Msila (2004). [5]-Mohamed Ryad ZEMOURI Contribution la surveillance des systmes de production laide des rseaux de neurones dynamiques : Application la maintenance , Thse de Doctorat, Ecole Doctorale Sciences Physiques pour lIngnieur et Microtechniques, luniversit de franche-comte, 28 novembre 2003. [11]-Benot Virole rseaux de neurones et psychomtrie Editions du Centre de Psychologie Applique ECPA , Juin 2001 [12]-Zemouri R, Racoceanu D., Zerhouni N. a Rseaux de neurones rcurrents fonctions de base radiales RRFR : Application la surveillance dynamique , Revue Systmes /JESA, Vol. 37, N1, pp. 49-81, 2003. [13]-Eric GAUTHIER Utilisation des Rseaux de Neurones Artificiels pour la Commande d'un Vhicule Autonome, Thse de Doctorat , Informatique, Systmes et Communications) ,de l'institut national polytechnique de Grenoble, 25 Janvier 1999. [17]-Khalida BENHARIRA Et Nawel HADJ BRAHIM tude comparative des mthodes d identification des systmes non linaires logique floue et rseaux de neurones mmoire dingniorat, Institut dlectronique. Universit Mohamed Boudiaf de Msila (2004).

[22]- H. Bhler Rglage par la logique floue, PPR 1994. [23]-Li-Xin Wang and Jerry M. Mendel ,back-propagation fuzzy system as nonlinear dynamic system identifiers Signal and Image Processing Institute Department of Electrical Engineering-Systems Universit,y of Southern California Los Angeles, CA 90089-2564. (1992). [24]-Oulaya BENNIA et Lilia MOHAMADI identification des systmes non linaires par les rseaux de neurones , mmoire dingniorat, Institut dlectronique. Mohamed Boudiaf de Msila (2002). [25]-Tim Callinan Artificial Neural Network identification and control of the inverted pendulum , Thse de Doctorat, august 2003. [26]-Saad REBOULI et Sofiane HAMOUDI , identification et contrle de la machine asynchrone par les rseaux de neurones flous mmoire dingniorat, Institut dlectronique. Universit Mohamed Boudiaf de Msila (2004). [27]-S.Chen,C.F.N,Cowan, and P.M. Grant , orthogonal least squares algorithms for radial basis function networks , IEEE Trans , Neural Neutworks ,vol.2,pp,302-309,19991. [28]-K. S. Narendra and K. Parthasarathy, "Stable Adaptive Control of a Class of Discrete Time Nonlinear Systems Using Radial Basis Neural Networks", Center for Systems Science, Yale University, CT, Technical Report No. 9103, 1991. [29]-S.Chen ,C.F.N .Cowan ,and P.M ,Grant orthogonal least squares algorithm for radial basis function networks ,IEEE trans neural networks ,vol2 ,pp.302-309,1991. [30]-S.Lee and R.M.Kil ,A Gaussian potential function network with hierarchically selforganization learning neural networks, Neural Networks ,vol ,4 ,pp.207-224,1991. [31]-C,J.Goh and P.Podiasdlo On disturbance Rejection in nonlinear control Universit

,Department of Mathematics, University of Western Australia , Proceedings of the American Control Conference, june 1994.

[32]-G.Cybenko ;Approximation by superposition of sigmoidal functions,mathematics of control ,signal and system ; vol .2 ,pp,303-314,1989. [33]-K .Funahashi , on the approximation realization of continious mappings by neural networks,Neural Networks ,vol.2.pp.183-192,1989. [34]-A.R.Gallant and H.white ,there exixts a neural networks tha does not make avoidable mistakes in IEEE second Int, conf,Neural Networks, San Diego,CA ,1988,pp,657-664. [35]-K.Hornij ,M,Stinchcombe, and H.White ,Multilayer feed forwared networks are universal approximations, neural networks ,vol.2,pp,183-192,1989.

Webographie
[6]-Introduction aux rseaux de neurones,master2005-2006/www.apstat.com/documents/ nnet .pdf. [7]-Les rseaux de neurones - Neuronebiologique.htm /http://www-igm.univ-mlv.fr/ ~dr/XPOSE2002/Neurones/index.php? . [8]-Les rseaux de neurones -Introduction/http://www-igm.univ-lv.fr/~dr/ XPOSE2002 /Neurones/index.php?. [9]-Les rseaux de neurones - Architecturedesreseauxdeneurones.htm /http://www-igm.univmlv.fr/~dr/XPOSE2002/Neurones/index.php?rubrique=Liens. [10]-Formation aux rseaux de neurones netra formation /espci/ -2fr.html. [14]-la logique _ floue/intro-http://www. tn .refer .org /hebergement / cours / logique floue /intro.html#. [15]-JITEC -Journal technologique BLofti ZADEH dans le JITEC-B.htm/ http :// www . thesame-innovation.com/Jitec/Jitec.php?Id=99. [16]-logique _ floue - Exemples /cours/logique_floue/bibli.html. [18]-Logique floue et processeur flou /http : //www.univ-perp.fr / SEE / ENS / I UPGS I /polit/chapo.html. [19]-Petit glossaire de la logique floue/http://www.inra.fr/Internet/ Departements / MIA /M/fispro/fisprodocfr/node31.html. [20]-la logique _ floue /les oprateurs flous/ http://www.tn.refer.org /hebergement / cours/logique_floue/_we_hinfo/opera.htm. [21]-la logique floue/structure d'une commande floue /http://www.tn.Refer.org/ introductifs /http :// www.tn.refer.org / hebergement ESPC I/http: //www.Netra l. com /

hebergement/cours/logique_floue/struc2.html.

   ,   

Rsum: Les rseaux neuronaux et la logique floue avec ces architectures diffrentes ont t utiliss avec succs ces dernires annes pour l'identification et la commande de systmes non linaires d'une classe large. Dans ce mmoire, nous considrons le problme de rejection des perturbations, une grande classe de perturbations, Lequel peut tre model comme les sortie des systmes dynamiques libre Linaires ou non linaires. L'objectif est dterminer le modle de l'identification et la loi du commande qui minimise l'effet du la perturbation la sortie. Plusieurs tapes de complexit croissante sont discutes en dtail, la justification thorique t fournie pour l'existence de solutions au problme de rejection complte de la perturbation dans les cas spciaux. Des systmes dans une forme de simulation sont tudi utilisant des rseaux neuronaux multi layer et la logique floue le modle de (Takagi-Sugeno) partout dans ce mmoire pour dmontrer l'efficacit des mthodes suggres. Mots cl: disturbance rejection, neural network, fuzzy logic, non-linear system, identification of non linear system.

Abstract: Neural networks and the fuzzy logic with different architectures have been successfully used in recent years for the identification and control of a wide class of nonlinear systems. In this thesis, we consider the problem of disturbance rejection, a large class of disturbances, which can be modelled as the outputs of unforced linear or nonlinear dynamic systems. The objective is to determine the identification model and the control law to minimize the effect of the disturbance at the output. Several stages of increasing complexity of the problem are discussed in detail, theoretical justification is provided for the existence of solutions to the problem of complete rejection of the disturbance in special cases. Examples in the form of simulation studies using both multilayer neural networks, fuzzy logic model (Takagi-Sugeno) are presented throughout this thesis to demonstrate the effectiveness of the methods suggested. .

Vous aimerez peut-être aussi