Vous êtes sur la page 1sur 41

FACULTE DES SCIENCES

U.F.R Sciences & Techniques : S.T.M.I.A


Ecole Doctorale : Informatique-Automatique-Electrotechnique-Electronique-Mathmatique
Dpartement de Formation Doctorale : Electrotechnique-Electronique

Thse
Prsente pour lobtention du titre de

Docteur de lUniversit Henri Poincar, Nancy-I


en Gnie Electrique
par Lotfi BAGHLI

Contribution la commande de la machine asynchrone,


utilisation de la logique floue, des rseaux de neurones
et des algorithmes gntiques

Soutenue publiquement le 14 Janvier 1999 devant la commission dexamen :
Membres du Jury :
Prsident :
Rapporteurs :
Examinateurs :

H. BUYSE
J. FAUCHER
J. P. HAUTIER
A. REZZOUG
H. RAZIK

Professeur, LEI, Louvain-la-Neuve, Belgique


Professeur, LEEI, INPT - ENSEEIHT, Toulouse
Professeur, L2EP, ENSAM, Lille
Professeur, IUFM de Lorraine, UHP, Nancy
Matre de Confrences, IUFM de Lorraine, UHP, Nancy

Groupe de Recherche en Electrotechnique et Electronique de Nancy


Facult des Sciences - 54500 Vanduvre-ls-Nancy

Table des matires

Introduction gnrale ________________________________________________________5


Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques____________11
1. Introduction ________________________________________________________________ 13
2. Logique floue _______________________________________________________________ 13
2.1. Principe et dfinitions _____________________________________________________________
2.2. Oprateurs et normes _____________________________________________________________
2.3. Infrence _______________________________________________________________________
2.4. Structure d'un rgulateur flou _______________________________________________________

13
15
16
20

3. Rseaux de neurones _________________________________________________________ 29


3.1. Principe et dfinitions _____________________________________________________________
3.2. Perceptrons multicouches __________________________________________________________
3.3. Rseaux de neurones fonction de base radiale ( RBF ) __________________________________
3.4. Applications ____________________________________________________________________

29
30
35
37

4. Algorithmes gntiques_______________________________________________________ 37
4.1. Principe et dfinitions _____________________________________________________________ 37
4.2. Applications ____________________________________________________________________ 38

5. Conclusion _________________________________________________________________ 40

Chapitre II : Application la commande de la machine asynchrone _________________41


1. Introduction ________________________________________________________________ 43
2. Identification des paramtres de la machine asynchrone ___________________________ 43
2.1. Essai 1 : dmarrage _______________________________________________________________
2.2. Essai 2 : chelon _________________________________________________________________
2.3. Discussion ______________________________________________________________________
2.4. Conclusion _____________________________________________________________________

43
51
55
57

3. Contrle vectoriel classique ___________________________________________________ 58


3.1. Introduction_____________________________________________________________________ 58
3.2. Modle de la machine asynchrone ___________________________________________________ 58
3.3. Mthodes de commande vectorielle des moteurs asynchrones ______________________________ 61

4. Rgulation, mthodes classiques _______________________________________________ 65


4.1. Introduction_____________________________________________________________________
4.2. Dcouplage _____________________________________________________________________
4.3. Rgulation des courants ___________________________________________________________
4.4. Rgulation de la vitesse____________________________________________________________
4.5. Conclusion _____________________________________________________________________

65
65
67
71
79

5. Rgulation par logique floue __________________________________________________ 79


5.1. Introduction_____________________________________________________________________
5.2. Rgulateur flou trois ensembles ____________________________________________________
5.3. Rgulateur flou cinq ensembles ____________________________________________________
5.4. Stabilit des systmes intgrant un rgulateur flou _______________________________________
5.5. Conclusion _____________________________________________________________________

79
79
87
89
90

6. Rgulation par rseau de neurones _____________________________________________ 95


6.1. Introduction_____________________________________________________________________ 95
6.2. Rseau de neurones du type perceptron _______________________________________________ 95
6.3. Rgulateur neuro-flou ( cinq ensembles flous ) ________________________________________ 98
6.4. Rseau de neurones fonction de base radiale ( RBF ) __________________________________ 101
6.5. Conclusion ____________________________________________________________________ 105

7. Conclusion ________________________________________________________________ 105

Table des matires


Chapitre III : Influence des changements de paramtres de la machine _____________107
1. Introduction _______________________________________________________________ 109
2. Paramtres mcaniques _____________________________________________________ 109
2.1. Moment d'inertie ( J ) ____________________________________________________________ 109
2.2. Coefficient de frottement sec ( a30 ) _________________________________________________ 113

3. Paramtres lectriques ______________________________________________________ 115


3.1. Rsistance statorique ( Rs ) ________________________________________________________
3.2. Coefficient de dispersion ( ) _____________________________________________________
3.3. Constante de temps statorique ( s ) _________________________________________________
3.4. Constante de temps rotorique ( r ) __________________________________________________

115
117
119
120

4. Conclusion ________________________________________________________________ 121

Chapitre IV : Machine avec dfauts au rotor ___________________________________123


1. Introduction _______________________________________________________________ 125
2. Modle mailles ___________________________________________________________ 125
2.1. Calcul des inductances ___________________________________________________________ 125
2.2. Mise en quation ________________________________________________________________ 127

3. Simulation de rupture de barres rotoriques _____________________________________ 132


3.1. Analyse par FFT du courant statorique en rgime quasi stationnaire ________________________ 135
3.2. Conclusion ____________________________________________________________________ 137

4. Commande vectorielle de la machine prsentant des barres dfectueuses ____________ 139


4.1. Introduction____________________________________________________________________
4.2. Mise en uvre__________________________________________________________________
4.3. Comparaison des rgulateurs ______________________________________________________
4.4. Conclusion ____________________________________________________________________

139
139
141
143

Chapitre V : Commande sans capteur mcanique _______________________________145


1. Introduction _______________________________________________________________ 147
2. Les mthodes de commande sans capteur mcanique _____________________________ 147
2.1. Mthodes base d'estimateur ______________________________________________________
2.2. Mthodes base d'observateur _____________________________________________________
2.3. Commande directe du couple ( DTC ) _______________________________________________
2.4. Systme adaptatif utilisant un modle de rfrence ( MRAS ) _____________________________
2.5. Filtre de Kalman ________________________________________________________________
2.6. Autres mthodes ________________________________________________________________

147
148
150
153
155
158

3. Mthode propose __________________________________________________________ 159


3.1. Commande vectorielle sans capteur avec rgulation de vitesse ____________________________ 167

4. Techniques "intelligentes" de commande sans capteur____________________________ 170


5. Conclusion ________________________________________________________________ 172

Conclusion gnrale _______________________________________________________173


Annexes _________________________________________________________________179
1. Annexe 1 : Paramtres des machines tudies ___________________________________ 181
1.1. Machine 1 _____________________________________________________________________ 181
1.2. Machine 2 _____________________________________________________________________ 181

2. Annexe 2 : Prsentation du logiciel MASVECT __________________________________ 182


3. Annexe 3 : Description du dispositif exprimental________________________________ 185

Table des matires


Nomenclature ____________________________________________________________189
Glossaire ________________________________________________________________193
Bibliographie_____________________________________________________________197

Table des matires

Introduction gnrale

Introduction gnrale
Introduction gnrale

Introduction gnrale

Introduction gnrale

La machine asynchrone, de par sa construction, est la machine la plus robuste et la moins


chre du march. Les progrs raliss en commande et les avances technologiques
considrables, tant dans le domaine de l'lectronique de puissance que dans celui de la microlectronique, ont rendu possible l'implantation de commandes performantes de cette machine
faisant d'elle un concurrent redoutable dans les secteurs de la vitesse variable et du contrle
rapide du couple.
Cependant, de nombreux problmes demeurent. L'influence des variations des paramtres de
la machine, le comportement en fonctionnement dgrad, la prsence d'un capteur mcanique
sont autant de difficults qui ont aiguis la curiosit des chercheurs dans les laboratoires. En
tmoigne, le nombre sans cesse grandissant des publications qui traitent le sujet.
Bien que dj prsents dans d'autres domaines, la logique floue, les rseaux de neurones et les
algorithmes gntiques constituaient, au dbut de notre travail de thse, une nouveaut dans le
domaine de l'lectrotechnique.
Nous avons voulu savoir quel pourrait tre l'apport de ces mthodes appliques
l'identification et la commande de la machine asynchrone.
Des questions se posent alors naturellement : ces mthodes qui ne relvent, en tout cas pas
premire vue, d'une logique cartsienne classique, peuvent elles conduire de meilleurs
rsultats ? Sinon, que prsentent elles comme avantages et inconvnients par rapport aux
techniques conventionnelles ?
Ce qui nous a le plus motiv dans ce travail, c'est qu'il comporte de nombreux volets et touche
plusieurs disciplines en mme temps. Il comporte par-dessus tout une partie exprimentale
forte en enseignements et qui nous permet, non seulement de voir concrtement
l'aboutissement et la finalit de l'tude, mais aussi de faire ressortir les problmes cruciaux de
mise en uvre.
Il est videmment impossible de cerner toutes les possibilits et les combinaisons o peuvent
intervenir ces techniques. Nous examinerons plus prcisment la rgulation ainsi que son
optimisation.
Il nous apparat ncessaire de commencer par prsenter ces mthodes puis d'expliciter les
manires les plus simples de les mettre en uvre.
Tout au long de ce travail, nous avons gard comme objectif l'implantation et
l'exprimentation des mthodes dveloppes. En effet, combien de procds donnent de trs
bons rsultats en simulation et ne fonctionnent pas du tout ds qu'il s'agit de les utiliser
concrtement. Nous essayerons aussi d'viter les procds trop complexes pour une
implantation raisonnable ou qui ne permettent pas de tirer des conclusions quant aux
performances obtenues.
L'aspect exprimental revt donc une trs grande importance. Il permet de valider les
mthodes tablies par un travail thorique et de simulation. Il met galement en vidence
certaines lacunes dues une mauvaise modlisation ou identification. Dans de nombreux cas,
les rsultats sont assez satisfaisants puisque la rgulation pallie ces erreurs, mais il arrive que
la mthode, une fois implante, ne fonctionne pas du tout. L'exprimentation en laboratoire
constitue donc un garde-fou avant l'tape d'industrialisation.

Introduction gnrale
Les diffrents travaux concernant le sujet font l'objet de cinq chapitres qui constituent ce
mmoire.
Le chapitre I prsente les diffrentes approches utilises dans cette tude. Ces techniques tant
relativement nouvelles dans la communaut lectrotechnique, il est important de bien prciser
les termes employs et de dvelopper suffisamment les mthodes utilises.
Nous commenons par dfinir et expliquer la terminologie utilise en logique floue, la thorie
des ensembles flous et ainsi que le mode de raisonnement propre aux variables floues. Nous
dveloppons une mthode de synthse d'un rgulateur flou et abordons les tapes ncessaires
la ralisation de l'infrence floue.
Nous prsentons par la suite les deux structures de rseaux de neurones auxquelles nous nous
sommes intresss dans ce travail. Les mthodes et proprits de l'apprentissage des rseaux
de neurones sont galement abordes.
Enfin, une mthode d'optimisation par algorithme gntique est prsente. Les notions,
directement inspires de la thorie de l'volution, qui interviennent dans ces algorithmes sont
explicites.
Dans ce chapitre, l'accent est mis aussi bien sur la conception des mthodes que sur leur
utilisation. Ceci afin de se familiariser avec une manire de raisonner diffrente par rapport
l'approche laquelle on est habitu dans la rsolution de certains problmes.
L'application de ces mthodes fait l'objet du chapitre II. En premier lieu, nous prsentons
l'identification de la machine asynchrone par algorithmes gntiques. Les mthodes bases sur
l'essai de dmarrage de la machine et sur des chelons de tension continue sont tudies. Une
analyse du comportement de l'algorithme ainsi que de la prcision des mthodes est mene.
Par la suite, la commande vectorielle de la machine asynchrone ainsi que les modles utiliss
pour la simulation de la machine et pour le contrle sont prsents. Une comparaison des
diffrentes mthodes sera aborde de manire plus dtaille dans le chapitre V.
Le fonctionnement et le rglage des diffrents contrleurs du schma classique sont explicits.
A chaque fois, les rsultats exprimentaux et de simulation sont compars et comments.
On s'intresse alors au remplacement du rgulateur classique de vitesse, au sein de la
commande vectorielle, par un rgulateur flou puis par un rgulateur neuronal. Les rgulateurs
flous trois puis cinq ensembles flous par variable sont compars par rapport aux
rgulateurs classiques du type Proportionnel-Intgral.
Les rgulateurs neuronaux de type perceptron sont ensuite utiliss afin de dupliquer la surface
de commande des rgulateurs flous. La procdure d'apprentissage, propre cette structure,
ainsi que son utilisation sont discutes.
Dans un premier temps, afin d'viter cette procdure d'apprentissage qui constitue une tape
lourde en terme de temps de calcul, des rgulateurs neuronaux fonction de base radiale
( RBF ) sont mis en uvre. Une amlioration de leurs performances, par optimisation de leurs
caractristiques l'aide d'algorithmes gntiques, est effectue et abouti au rgulateur RBF
retenu pour la suite de l'tude.
Les rsultats obtenus suite des essais lorsque des chelons de vitesse sont appliqus vide et
en charge ont permis de tirer des conclusions constructives.
Dans le chapitre III, nous prsentons une tude, par simulation, sur l'influence des
changements de paramtres de la machine sur la rponse du systme. Les diffrents
rgulateurs classiques, flous et neuronaux prcdemment retenus sont utiliss et les rsultats
obtenus sont compars. Les essais portent aussi bien sur des chelons de vitesse que sur des
chelons de couple rsistant. L encore, le comportement des rgulateurs est analys suivant

Introduction gnrale
leurs surfaces caractristiques et une confrontation des rsultats obtenus permet de complter
les conclusions du chapitre II sur les performances des rgulateurs.
Dans le chapitre IV, nous abordons le problme de la machine asynchrone prsentant des
dfaillances de structure. Nous nous intressons, plus spcialement, la rupture de barres
rotoriques et son impact sur le fonctionnement de la machine aussi bien en rgime non
command qu'en contrle vectoriel pour une rgulation de vitesse.
Nous verrons comment les rgulateurs envisags peroivent ces dfauts en rgime transitoire
et en rgime quasi permanent.
Le chapitre V prsente le problme de la commande vectorielle de la machine asynchrone
sans capteur mcanique. Un tat de l'art est dress et les diffrentes mthodes sont compares
et analyses. La solution que nous recherchons va dans le sens de la simplicit d'implantation
et de la robustesse vis vis des variations de paramtres. Une estimation du flux statorique
par intgration de la f.e.m. est alors propose. L'accent est mis sur l'influence des dcalages
des signaux de mesures, aussi minimes soient ils, sur le fonctionnement du dispositif. La mise
au point d'une mthode de compensation d'offset en ligne, rend possible l'utilisation de ce
procd. Des essais exprimentaux montrent l'efficacit d'une telle commande de couple.
Nous terminons par une conclusion sur l'ensemble de cette tude et nous proposons des
perspectives de travail.
Les annexes contiennent les paramtres des machines tudies, une prsentation du logiciel
que nous avons dvelopp au cours de cette tude et du dispositif exprimental labor. Des
problmes d'ordre pratique sont galement abords dans cette partie.

Introduction gnrale

10

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

Chapitre I

Logique floue, rseaux de neurones


et algorithmes gntiques
Chapitre I : Logique floue, rseaux
de neurones et algorithmes
gntiques

11

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

12

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

1. Introduction
On pourrait dire que la logique floue, les rseaux de neurones et les algorithmes gntiques
constituent des approches qui, tout compte fait, ne sont pas nouvelles. Leur dveloppement se
fait travers les mthodes par lesquelles l'homme essaye de copier la nature et de reproduire
des modes de raisonnement et de comportement qui lui sont propres. Bien que ces approches
paraissent "naturelles", et si elles se sont imposes dans des domaines allant du traitement de
l'image la gestion financire, elles commencent peine tre utilises dans les domaines de
l'lectrotechnique et de l'industrie afin de rsoudre les problmes d'identification, de
rgulation de processus, d'optimisation, de classification, de dtection de dfauts ou de prise
de dcision.
Considrant que la machine asynchrone cage et le convertisseur statique associ posent des
problmes difficiles tudier pour sa commande, nous nous proposons d'analyser ce que les
mthodes dcrites peuvent apporter comme solution cette commande. Il est videmment
impossible de cerner toutes les possibilits et les combinaisons o elles peuvent intervenir
dans un tel processus. Nous examinerons plus prcisment la rgulation ainsi que son
optimisation.
Il nous apparat ncessaire de commencer par prsenter ces mthodes puis d'expliciter les
manires les plus simples de les mettre en uvre. Plutt que dvelopper des mthodes trop
gnrales, nous cadrerons notre travail de faon rpondre l'objectif fix ici, la commande
vectorielle de la machine asynchrone, et d'analyser les avantages et les inconvnients lis
ces mthodes.

2. Logique floue
2.1. Principe et dfinitions
La logique floue repose sur la thorie des ensembles flous dveloppe par Zadeh [ZAD 65]. A
cot d'un formalisme mathmatique fort dvelopp, nous prfrons aborder la prsentation de
manire intuitive.
Les notions de temprature moyenne ou de courant faible sont relativement difficiles
spcifier de manire prcise. On peut fixer des seuils et considrer que l'on attribue tel ou tel
qualificatif en fonction de la valeur de la variable par rapport ces seuils. Ceci ne peut
exprimer qu'un avis trs tranch du qualificatif "temprature moyenne" par exemple. L'aspect
"vague" de ce qualificatif n'est pas reprsent ( figure 1.1 ).
On peut dfinir le degr d'appartenance de la variable temprature l'ensemble "faible"
comme le "degr de vrit" de la proposition "la temprature est faible".
En logique boolenne, le degr d'appartenance ( ) ne peut prendre que deux valeurs ( 0 ou
1 ). La temprature peut tre :
faible (T ) = 1, moyenne (T ) = 0, leve (T ) = 0
faible :
moyenne : faible (T ) = 0, moyenne (T ) = 1, leve (T ) = 0

faible (T ) = 0, moyenne (T ) = 0, leve (T ) = 1


leve :
Elle ne peut pas prendre deux qualificatifs la fois.

13

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


: Degr d'appartenance

1
faible

moyenne

leve

0
15

25

40 Temprature (C)

Figure 1.1 Exemple d'ensembles considrs en logique boolenne

En logique floue, le degr d'appartenance devient une fonction qui peut prendre une valeur
relle comprise entre 0 et 1 inclus.
moyenne (T ) , par exemple, permet de quantifier le fait que la temprature puisse tre
considre comme moyenne.
Dans ce cas, la temprature peut tre considre, la fois, comme faible avec un degr
d'appartenance de 0,2 et comme moyenne avec un degr d'appartenance de 0,8 ( figure 1.2 ).
faible (T ) = 0,2 , moyenne (T ) = 0,8 , leve (T ) = 0
: Degr d'appartenance

1
0,8
faible

moyenne

leve

0,2
0
15 T

25

40 Temprature (C)

Figure 1.2 Exemple d'ensembles considrs en logique floue

Pour la variable floue x, on dfinit un ensemble flou A sur un univers de discours X par une
fonction degr d'appartenance :

A : X [0,1]
x ! A(x)

( 1.1 )

L'univers de discours est l'ensemble des valeurs relles que peut prendre la variable floue x et
A(x) est le degr d'appartenance de l'lment x l'ensemble flou A ( figure 1.3 ).
Plus gnralement, le domaine de dfinition de A(x) peut tre rduit un sous-ensemble de
X [ZAD 65]. On peut ainsi avoir plusieurs fonctions d'appartenance, chacune caractrisant un
sous-ensemble flou. C'est par l'association de tous les sous-ensembles flous de l'univers de
discours, que l'on obtient l'ensemble flou de la variable floue x [MAM 75]. Par abus de
langage, les sous-ensembles flous sont fort souvent confondus avec l'ensemble flou.
14

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

A(x)
1

0
x

univers de discours

Figure 1.3 Reprsentation d'un ensemble flou par sa fonction d'appartenance

Dans notre exemple, la variable floue est la temprature, l'univers de discours est l'ensemble
des rels de l'intervalle [0, 40]. On attribue cette variable trois sous-ensembles flous : faible,
moyenne et leve. Chacun est caractris par sa fonction degr d'appartenance :
faible (T ), moyenne (T ) et leve (T ) .
moyenne(T)
1
0.5

0
15

20

25

40

T (C)

Figure 1.4 Cas de l'ensemble flou "moyenne" de la variable Temprature


On peut dfinir la fonction degr d'appartenance moyenne sur tout l'univers de discours :
1

1 + exp(15 x ) ; x [0,20]
moyenne ( x ) =
1
1
; x [20,40]
1 + exp( 25 x )

( 1.2 )

2.2. Oprateurs et normes


Comme dans la thorie des ensembles classiques, on dfinit l'intersection, l'union des
ensembles flous ainsi que le complmentaire d'un ensemble flou. Ces relations sont traduites
par les oprateurs "et", "ou" et "non". De nouvelles fonctions d'appartenance lies ces
oprateurs sont tablies :
x appartient A et B x A B A B (x )
x appartient A ou B x A B A B (x )
x appartient au complment de A x A A (x )
15

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

L'oprateur "et" se dfini par une norme triangulaire ( t-norme ) :


T : [0,1] [0,1] [0,1]
( x, y ) ! z = xTy
T possde les proprits suivantes :
commutativit : xTy = yTx
associativit : xT ( yTz ) = ( xTy )Tz
monotonie : xTz yTz si x y
admet 0 comme lment absorbant et 1 comme lment neutre : 0Tx = 0 , 1Tx = x
De mme, l'oprateur "ou" se dfini par une co-norme triangulaire ( T* ) qu'on appelle aussi
s-norme ( S ) :
S : [0,1] [0,1] [0,1]
( x, y ) ! z = xSy
S possde galement les proprits de commutativit, d'associativit et de monotonie. Elle
admet 1 comme lment absorbant et 0 comme lment neutre.
A l'aide de la loi de Morgan, on peut associer chaque t-norme, la s-norme dfinie par :
xSy = 1 (1 x )T (1 y ) .
Les oprateurs les plus utiliss en logique floue sont :
Loprateur "et" pour la t-norme, qui correspond lintersection de deux ensembles A et
B. Il peut tre ralis par :
La fonction "Min" : A B ( x ) = min( A ( x ), B ( x ))
La fonction arithmtique "Produit" : A B ( x ) = A ( x ) B ( x )

Loprateur "ou" pour la s-norme, qui correspond lunion de deux ensembles A et B. Il


peut tre ralis par :
La fonction "Max" : A B ( x ) = max( A ( x ), B ( x ))
La fonction arithmtique "Somme" : A B ( x ) = A ( x ) + B ( x )

Loprateur "non" est ralis par : A ( x ) = 1 A ( x ) .

2.3. Infrence
En logique classique, la rgle de raisonnement du modus ponens permet, partir des deux
assertions,
x est A
et
si x est A alors y est B,
de conclure que y est B.

16

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


En logique floue, la rgle s'appelle modus ponens gnralis et permet partir des assertions,
x est A'
et
si x est A alors y est B,
de conclure que y est B'.
L'infrence est l'opration d'agrgation des rgles.
Sans entrer dans les dtails de formalisation mathmatique, qui se basent sur les notions de
sous-ensembles flous, de graphes ( est le graphe dfinissant la relation (R) de A vers B ) et
de projection ( B' est la projection sur B de A' par le graphe ), il est possible de dfinir
l'ensemble B' par :
y B, B ' ( y ) = sup A' B ( x, y ) .
xA

C'est dire que le degr d'appartenance de chaque lment y de B l'ensemble flou B' est gal
au plus grand degr d'appartenance des couples ( x, y ) l'intersection de l'ensemble A' avec le
graphe de la relation R.
Ce dernier est calcul en utilisant la fonction "Min" pour l'oprateur "et" de l'intersection :
A' B ( x, y ) = min( A' ( x ), R ( x, y )) .
En ce qui nous concerne, nous allons nous intresser aux infrences avec plusieurs rgles. En
effet, dans le cas de la commande et de la rgulation, les variables floues ont plusieurs
ensembles d'appartenance. Ainsi plusieurs rgles peuvent tre actives en mme temps.
Les rgles d'infrences peuvent tre dcrites de plusieurs faons,
a) Linguistiquement :
On crit les rgles de faon explicite comme dans l'exemple suivant,
SI ( la temprature est leve ET la vitesse est faible ) ALORS la tension est grande
positive
OU
SI ( la temprature est moyenne ET la vitesse est faible ) ALORS la tension est positive
b) Symboliquement :
Il s'agit en fait d'une description linguistique o l'on remplace la dsignation des
ensembles flous par des abrviations.
c) Par matrice d'infrence :
Elle rassemble toutes les rgles d'infrences sous forme de tableau. Dans le cas d'un
tableau deux dimensions, les entres du tableau reprsentent les ensembles flous des
variables d'entres ( temprature : T et vitesse : V ). L'intersection d'une colonne et d'une
ligne donne l'ensemble flou de la variable de sortie dfinie par la rgle. Il y a autant de
cases que de rgles.

17

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


Exemple :
U

T
F

GP

Tableau 1.1
Les rgles que dcrit ce tableau sont ( sous forme symbolique ) :
SI ( T est F ET V est F ) ALORS U=Z
OU
SI ( T est M ET V est F ) ALORS U=P
OU
SI ( T est E ET V est F ) ALORS U=GP
OU
SI ( T est F ET V est E ) ALORS U=Z
OU
SI ( T est M ET V est E) ALORS U=Z
OU
SI ( T est E ET V est E) ALORS U=P
Dans l'exemple ci-dessus, on a reprsent les rgles qui sont actives un instant donn
par des cases sombres :
SI ( T est M ET V est F ) ALORS U=P
OU
SI ( T est E ET V est F ) ALORS U=GP
Il arrive que toutes les cases du tableau ne soient pas remplies, on parle alors de rgles
d'infrences incompltes. Cela ne signifie pas que la sortie n'existe pas, mais plutt que le
degr d'appartenance est nul pour la rgle en question.
Il s'agit maintenant de dfinir les degrs d'appartenance de la variable de sortie ses sousensembles flous. Nous allons prsenter les mthodes d'infrence qui permettent d'y arriver.
Ces mthodes se diffrencient essentiellement par la manire dont vont tre raliss les
oprateurs ( ici "ET" et "OU" ) utiliss dans les rgles d'infrence.
Nous prsentons les trois mthodes d'infrence les plus usuelles ; Max-Min, Max-Produit et
Somme-Produit :
2.3.1. Mthode d'infrence Max-Min
Cette mthode ralise l'oprateur "ET" par la fonction "Min", la conclusion "ALORS" de
chaque rgle par la fonction "Min" et la liaison entre toutes les rgles ( oprateur "OU" ) par
la fonction Max.
La dnomination de cette mthode, dite Max-Min ou "implication de Mamdani", est due la
faon de raliser les oprateurs ALORS et OU de l'infrence.
Reprenons l'exemple prcdent o seulement deux rgles sont actives :
18

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


ET

Min

ALORS

Min

GP

0,8

0,8
V

OU

Max

GP

ET

ALORS

Min

Min

GP

0,2

0,2
T

Figure 1.5 Exemple d'infrence Max-Min

La variable T est Eleve avec un degr d'appartenance de 0,8 et Moyenne avec un degr
d'appartenance de 0,2. La vitesse V est faible avec un degr d'appartenance de 1.
L'application de la premire rgle d'infrence donne un degr d'appartenance la condition de
0,8 ( minimum d l'oprateur ET entre les deux degrs d'appartenance ). On obtient ainsi
une "fonction d'appartenance partielle" dessine en gris qui est crte 0,8.
De manire similaire, la seconde rgle donne lieu une fonction d'appartenance crte 0,2.
La fonction d'appartenance rsultante correspond au maximum des deux fonctions
d'appartenance partielles puisque les rgles sont lies par l'oprateur OU.
2.3.2. Mthode d'infrence Max-Produit
La diffrence par rapport la mthode prcdente rside dans la manire de raliser la
conclusion "ALORS". Dans ce cas, on utilise le produit comme illustr par la figure 1.6.
On remarque que les fonctions d'appartenances partielles ici ont la mme forme que la
fonction d'appartenance dont elles sont issues multiplies par un facteur d'chelle vertical qui
correspond au degr d'appartenance obtenu travers l'oprateur "ET".
On l'appelle galement "implication de Larsen".

19

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


ET

Min

ALORS

Produit

GP

0,8

0,8
V

OU

Max

GP

ET

ALORS

Produit

Min

GP

0,2

0,2
T

Figure 1.6 Exemple d'infrence Max-Produit

2.3.3. Mthode d'infrence Somme-Produit


Dans ce cas, l'oprateur "ET" est ralis par le produit, de mme que la conclusion "ALORS".
Cependant, l'oprateur "OU" est ralis par la valeur moyenne des degrs d'appartenance
intervenant dans l'infrence.
D'autres mthodes ont t labores, ayant chacune une variante spcifique. Nanmoins, la
mthode Max-Min est de loin la plus utilise cause de sa simplicit.

2.4. Structure d'un rgulateur flou


2.4.1. Introduction
Aprs avoir nonc les concepts de base et les termes linguistiques utiliss en logique floue,
nous prsentons la structure d'un contrleur flou.
La ralisation d'un rgulateur flou pose un problme li aux nombreuses manires de raliser
les oprateurs flous et l'implication. Bien que la liste des mthodes prsentes ne soit pas
exhaustive, on se retrouve dj avec un grand nombre de variantes. Nous allons prsenter les
principales diffrences entre ces dernires et justifier, sinon expliquer, nos choix.
L'aboutissement une implantation exprimentale constitue le but atteindre aprs les tapes
de modlisation et de simulation.
Dans ce qui suit, nous nous intressons principalement au rgulateur de vitesse au sein d'une
commande vectorielle de la machine asynchrone [BAG 96b].
20

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


La vitesse de rfrence peut tre pilote par un oprateur externe. La grandeur de sortie de ce
rgulateur de vitesse est l'image du couple lectromagntique de rfrence que l'ensemble
commande-convertisseur-machine doit gnrer. A flux constant, ce couple est proportionnel
au courant Iqs* ( courant Iqs de rfrence ) impos en entre la boucle de rgulation de
courant.
Le schma de base du rgulateur repose sur la structure d'un rgulateur classique la
diffrence que l'on va retenir la forme incrmentale. Cette dernire donne en sortie, non pas le
couple ou le courant appliquer mais plutt l'incrment de cette grandeur.

FE

En

Contrleur

1-Z-1

dE

dEn
FdE

dUn

dU
FdU

flou

Iqs*

Figure 1.7 Schma synoptique d'un rgulateur flou de vitesse

Dans le schma ci-dessus comme dans ce qui suit, nous notons :


E : l'erreur, elle est dfinie par :
E ( k ) = * ( k ) ( k )

( 1.3 )

dE : la drive de l'erreur, elle est approche par :


E (k ) E ( k 1)
dE (k ) =
, Te tant la priode d'chantillonnage.
Te

( 1.4 )

La sortie du rgulateur est donne par :


I qs* ( k ) = I qs* ( k 1) + dU (k )

( 1.5 )

On retrouve en entre et en sortie du contrleur flou des gains dits "facteurs d'chelle" qui
permettent de changer la sensibilit du rgulateur flou sans en changer la structure. Les
grandeurs indices "n" sont donc les grandeurs normalises l'entre et la sortie du
contrleur flou.
Les rgles d'infrences permettent de dterminer le comportement du contrleur flou. Il doit
donc inclure des tapes intermdiaires qui lui permettent de passer des grandeurs relles vers
les grandeurs floues et vice versa ; ce sont les tapes de fuzzification et de defuzzification
( figure 1.8 ).

21

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


En

dEn

~
E

Moteur
d'infrence

~
dU

F-1

dUn

~
dE

Matrice
d'infrence
Figure 1.8 Structure du rgulateur flou

2.4.2. Fuzzification
Les ensembles flous des variables d'entre et leurs fonctions d'appartenance sont dfinir en
premier lieu.
L'tape de fuzzification permet de fournir les degrs d'appartenance de la variable floue ses
ensembles flous en fonction de la valeur relle de la variable d'entre.
Le choix du nombre des ensembles flous, de la forme des fonctions d'appartenance, du
recouvrement des ces fonctions et de leur rpartition sur l'univers de discours n'est pas
vident. Il y a cependant des facteurs qui sont plus important que d'autres ( cf. 2.4.5 ).
Une subdivision trs fine de l'univers de discours sur plus de sept ensembles flous n'apporte
en gnral aucune amlioration du comportement dynamique du systme rguler [BUH 94].
Par contre, on peut obtenir des comportements non linaires assez diffrents en fonction de la
manire dont les fonctions d'appartenance des ensembles flous sont disposes sur l'univers de
discours.
Nous avons opt pour des fonctions triangulaires et trapzodales pour les variables d'entres
( figure 1.9 ). Elles permettent une implantation facile et l'tape de fuzzification ne requiert
alors que peu de temps de calcul lors de son valuation en temps rel.

0,66
0,34
En

-1

P ( E n ) = E n = 0,66
Z ( E n ) = 1 P ( E n ) = 0,34
N ( En ) = 0

Figure 1.9 Fuzzification de l'erreur

22

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


Le recouvrement de deux fonctions d'appartenance voisines est de 1 ; c'est dire que leur
croisement s'effectue =0,5. Un recouvrement insuffisant voir inexistant conduit une zone
o aucune rgle d'infrence n'est sollicite. De mme, un recouvrement trop important, surtout
avec un degr d'appartenance prs de l'unit, conduit un aplatissement de la caractristique
du rgulateur [BUH 94]. Le passage d'une fonction d'appartenance sa voisine doit s'effectuer
en douceur de manire ce qu'il y ait au moins deux rgles d'infrences qui soient sollicites
en mme temps.
Il est galement indispensable de pouvoir fuzzifier la variable de sortie. En effet, lors de
l'infrence et de la defuzzification, on a besoin de connatre les ensembles flous de cette
variable ainsi que leurs fonctions d'appartenance.
Du point de vue implantation, [MAM 75] utilise une table de fuzzification donnant les degrs
d'appartenance aux ensembles flous pour des valeurs discrtes que prend la variable sur
l'univers de discours.
2.4.3. Infrence
Comme nous l'avons prcdemment voqu, nous allons nous baser sur une matrice ou table
d'infrence pour cette tape.
La construction d'une telle table d'infrence repose sur une analyse qualitative du processus.
Dans notre cas c'est une analyse dans le plan de phase de la trajectoire que l'on souhaite
donner au systme.
dEn

dUn <0

dUn <0

dUn =0

dUn =0

dUn >0

dUn >0

En

dUn <0

dUn <0

dUn =0

dUn =0

dUn >0

dUn >0

Figure 1.10 Trajectoire dans le plan de phase

Une action dans un sens ou dans l'autre de la commande provoque le dplacement dans une
direction indique par les flches ( figure 1.10 ). En pointills sont indiques les directions
que l'on ne souhaite pas donner au systme car il serait alors divergent.
Si l'on attribue trois ensembles flous, Ngatif, Zro et Positif, chacune des variables floues,
on peut crire pour chaque quadrant le comportement adopter.

23

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


Par exemple :
Quadrant 1 :
SI En est P ET dEn est P ALORS dUn est P
Quadrant 2 :
SI En est N ET dEn est P ALORS dUn est Z
On remarque cependant que dans le cas de ce quadrant, on pourrait souhaiter donner un
comportement diffrent en sollicitant la commande de manire freiner l'annulation de
l'erreur ; on pourrait tout aussi bien choisir comme rgle :
SI En est N ET dEn est P ALORS dUn est N
Si l'on ne retient que trois ensembles flous et deux entres, la matrice d'infrence est la
suivante :
dEn
dUn
N
Z
P

En

Tableau 1.2
Si par contre, on subdivise l'univers de discours avec plus d'ensembles flous et/ou qu'on
prenne en compte la drive seconde ( sdEn ), alors le choix des rgles devient plus vaste et
son optimisation dpend du systme rguler.
Dans le cas ou l'on attribue cinq ensembles flous ( GN, N, Z, P et GP )
choix possible est le suivant :
dEn
dUn

GN

GN GN GN

En

G signifie "Grand".

24

GP

GN

GP

GP

GP

GP

Tableau 1.3

aux variables, un

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

Ou
dEn
dUn

GN

GN GN GN GN GN

En

GP
Z

GN

GP

GP

GP

GP

GP

GP

Tableau 1.4

Celle qui suit ne possde que huit rgles qui donnent un incrment de commande non nul
( diffrent de l'ensemble flou Z ). Elle convient la rgulation de processus du type 1er ordre
[RAM 93].
dEn
dUn

En

GN

GP

GN

GN

GP

GP

Tableau 1.5

Si de plus, on ne retient que les rgles donnant un ensemble flou diffrent de Z, le processus
d'infrence se retrouve sensiblement allg. C'est un exemple de table d'infrence incomplte.
L'infrence se fait donc sur la base des matrices que l'on vient de dcrire. On commence par
utiliser un oprateur t-norme pour dfinir la description symbolique associe la prmisse de
la rgle ; C'est dire raliser le "ET". On passe ensuite l'infrence proprement dite qui
consiste caractriser la variable floue de sortie pour chaque rgle. C'est l'tape de la
conclusion "ALORS".
Enfin, la dernire tape de l'infrence, appele agrgation des rgles, permet de synthtiser ces
rsultats intermdiaires. On utilise une s-norme.
25

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

Comme nous l'avons vu, la manire de raliser les oprateurs va donner lieu des contrleurs
flous diffrents. Les rgulateurs les plus courants sont ceux de :
Mamdani :
Ces contrleurs sont dits symboliques car la prmisse et la conclusion sont symboliques
[MAM 75] [MAM 76]. Aprs l'infrence, il faut passer par une tape de "defuzzification"
afin d'obtenir la valeur relle de la commande appliquer.

Sugeno :
Ils sont dits de type procdural [TAK 83]. En effet, seule la prmisse est symbolique. La
conclusion, qui correspond la commande, est directement une constante relle ou une
expression polynomiale.

L'tablissement des rgles d'infrence est gnralement bas sur un des points suivants
[TAK 83] :
L'exprience de l'oprateur et/ou du savoir-faire de l'ingnieur en rgulation et contrle.
Un modle flou du processus pour lequel on souhaite synthtiser le rgulateur.
Les actions de l'oprateur ; s'il n'arrive pas exprimer linguistiquement les rgles qu'il
utilise implicitement.
L'apprentissage ; c'est dire que la synthse de rgle se fait par un procd automatique
galement appel superviseur. Souvent, des rseaux neuronaux y sont associs.
L'valuation des rgles d'infrence tant une opration dterministe, il est tout fait
envisageable de mettre sous forme de tableau ce contrleur.
Il reste, toutefois, intressant dans certains systmes complexes, de garder l'approche
linguistique plutt que d'avoir faire un nombre trop important de valeurs prcises
[KIN 77].
De plus, un algorithme linguistique peut tre examin et discut directement par quelqu'un qui
n'est pas l'oprateur mais qui possde de l'exprience sur le comportement du systme.
La formulation linguistique de la sortie permet galement d'utiliser le rgulateur flou en
boucle ouverte donnant ainsi l'oprateur les consignes adopter.
Si, aprs infrence, on se retrouve avec un ensemble flou de sortie caractris par l'apparition
de plus d'un maximum, cela rvle l'existence d'au moins deux rgles contradictoires ( figure
1.11 ). Une grande zone plate ( figure 1.12 ), moins grave de consquence, indiquerait que les
rgles, dans leur ensemble, sont faibles et mal formules.

GN

GP

GN

dUn

Figure 1.11

26

GP

dUn

Figure 1.12

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


2.4.4. Defuzzification
Par cette tape se fait le retour aux grandeurs de sortie relles. Il s'agit de calculer, partir des
degrs d'appartenance tous les ensembles flous de la variable de sortie, l'abscisse qui
correspond la valeur de cette sortie. Diffrentes mthodes sont utilises :
Mthode du centre de gravit :
C'est la mthode de defuzzification la plus courante. L'abscisse du centre de gravit de la
fonction d'appartenance rsultant de l'infrence correspond la valeur de sortie du
rgulateur.
x R ( x )dx
( 1.6 )
dU n =

(
x
)
dx
R

Il apparat que plus la fonction d'appartenance rsultante est complique, plus le processus
de defuzzification devient long et coteux en temps de calcul.

Mthode par valeur maximum :


Cette mthode est beaucoup plus simple. La valeur de sortie est choisie comme l'abscisse
de la valeur maximale de la fonction d'appartenance.

GN

GP

dUn

dUn

Figure 1.13 Defuzzification par valeur maximum

Mthode des hauteurs pondres :


Elle correspond la mthode de centre de gravit quand les fonctions d'appartenance ne se
recouvrent pas.
x Ri ( x )
dU n =
( 1.7 )
Ri ( x )
Cette mthode est surtout utilise quand les fonctions d'appartenance de la variable de
sortie sont des singletons.

27

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

GN

GP

dUn
dUn

Figure 1.14 Defuzzification par la mthode des hauteurs pondres

Dans ce cas, le calcul du centre de gravit ce trouve grandement simplifi. Le rgulateur


n'est plus de type Mamdani mais de type Sugueno de part la faon dont la sortie est
calcule.
Le rgulateur flou deux entres est reprsent par sa surface caractristique ( figure 1.15 ).
Cette dernire exprime les variations de la valeur relle de la sortie du rgulateur en fonction
des entres quand ces dernires parcourent l'univers de discours.

dE

Figure 1.15 Surface caractristique d'un rgulateur flou

2.4.5. Conclusion
L'obtention d'un contrle performant requiert une bonne formulation des rgles. Dans notre
cas, l'analyse dans le plan de phase permet de dgager rapidement un tableau de rgles
correct. Ceci n'est pas le cas pour des systmes non-linaires complexes o le modle est trs
compliqu sinon inexistant. Il convient galement d'accorder une grande importance au
processus prsentant des temps morts. Un exemple d'association d'un estimateur flou un
28

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


rgulateur PI flou est donn dans [AOK 90]. Il a permis de prendre en compte le retard
caractristique d'un four destin la fonte du verre.
D'un point de vue pratique, on peut rsumer dans les points suivants les lments qui ont peu
d'importance sur le comportement global du rgulateur flou [LUT 96] :
La forme des fonctions d'appartenance, d'o le choix de formes triangulaires cause de la
simplicit de mise en uvre.
Le choix des fonctions pour raliser les oprateurs et le mcanisme d'infrence
( agrgation des rgles : ALORS )
Le choix de la mthode de defuzzification ( hauteurs, C.G. )
Par contre, il faut faire prter une attention particulire, lors de la synthse du rgulateur flou :
Au nombre et surtout la rpartition des fonctions d'appartenance sur l'univers de
discours.
A la table des rgles.
Ces considrations pratiques ont guid le choix dvelopp au chapitre II.

3. Rseaux de neurones
3.1. Principe et dfinitions
L'origine des rseaux de neurones vient de l'essai de modlisation du neurone biologique par
Warren McCulloch et Walter Pitts [JOD 94]. Ils supposent que l'impulsion nerveuse est le
rsultat d'un calcul simple effectu par chaque neurone et que la pense ne grce l'effet
collectif d'un rseau de neurones interconnects.
Le schma suivant prsente un neurone formel :
x1
w1
x2

w2
:

wi

Sortie
x

xi
:

wn

xn

Figure 1.16 Reprsentation d'un neurone

Les entres du neurone sont dsignes par xi ( i=1..n ). Les paramtres wi reliant les entres
aux neurones sont appels poids synaptiques ou tout simplement poids. La sortie du neurone
est donne par :
n

Sortie = f (x ) avec x = wi xi
i =1

( 1.8 )

29

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

x est l'tat d'activation du neurone ( galement appel tat ou activit ).


f est la fonction d'activation du neurone. Conformment au modle biologique, les fonctions
d'activation sont gnralement croissantes et bornes. Les fonctions les plus connues sont la
fonction signe, la fonction linaire sature et la fonction sigmode.
Leur choix revt une importance capitale comme nous le verrons par la suite.
Les rseaux de neurones sont constitus des neurones lmentaires connects entre eux par
l'intermdiaire des poids qui jouent le rle des synapses. L'information est porte par la valeur
de ces poids tandis que la structure du rseau de neurones ne sert qu' traiter cette information
et l'acheminer vers la sortie.
Le rseau de neurones fait partie des Rseaux Adaptatifs Non-linaires, cela signifie que ses
agents ( neurones ) s'organisent et modifient leurs liens mutuels lors d'une procdure
fondamentale qu'est l'apprentissage. Pour une tche prcise, l'apprentissage du rseau de
neurones consiste donc adapter les diffrents poids wi.

3.2. Perceptrons multicouches


Ce sont les rseaux de neurones les plus connus. Un perceptron est un rseau de neurones
artificiel du type feedforward, c'est dire propagation directe. Sur l'exemple suivant nous
prsentons un perceptron trois couches. La premire est celle des entres ( elle n'est
cependant pas considre comme couche neuronale par certains auteurs car elle est linaire et
ne fait que distribuer les variables d'entres ). La deuxime est dite couche cache ( ou couche
intermdiaire ) et constitue le cur du rseau de neurones. Ses fonctions d'activation sont du
type sigmode. La troisime, constitue ici par un seul neurone est la couche de sortie. Sa
fonction d'activation est du type linaire borne.
Nous pouvons remarquer sur la figure 1.17, des termes x0m en entre des neurones 2. En fait,
sur chaque neurone, en plus de ses entres qui les lient avec les neurones prcdents, on
ajoute une entre particulire que l'on appelle polarisation du neurone. Elle correspond un
biais qui joue un rle de translation du domaine d'activit du neurone. Sa valeur est donc lie
la fonction d'activation puisqu'elle permet le dplacement de cette fonction.
Afin de garder une notation gnralise, nous reprsentons ces biais comme le produit d'une
entre x0m par les poids w0jm. Nous fixons l'entre x0m l'unit, le poids porte alors
l'information sur la polarisation du neurone.
Le perceptron multicouche est trs utilis en identification et en contrle. Avec une couche
cache, il constitue un approximateur universel. De rcentes recherches montrent qu'il peut
tre entran de manire approximer n'importe quelle fonction entres-sorties sous rserve
de mettre suffisamment de neurones dans la couche cache et d'utiliser des sigmodes pour les
fonctions d'activation [PIC 94]. Bien entendu, les thormes mathmatiques ne dmontrent
pas qu'un rseau une seule couche cache est optimal [THI 97].

Les termes en exposant reprsentent, non pas la fonction puissance, mais plutt l'indice ( m )
de la couche du rseau de neurones.
30

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

x0 1

w02
w011

x1 1

f1

w111

w12

w211
x0 0

y2
w02

w121

x1 0

w22
x2 1

f1

w221
w32

x2 0

w031
w131
w231

Couche d'entre

x3 1

f1

Couche cache

Couche de sortie

Figure 1.17 Rseau de neurones de type perceptron une couche cache

L'un des problmes de l'utilisation des rseaux de neurones consiste dans le choix de sa
topologie. Par exemple, il n'existe pas de rgle gnrale qui donne le nombre de neurones
retenir pour la couche intermdiaire. Ce choix est spcifique chaque application et, ce jour,
ce ne sont que des choix arbitraires dont on vrifie par la suite la validit.

3.2.1. Apprentissage
Une fois la structure fixe, il faut passer par le processus d'apprentissage, par lequel les poids
vont tre ajusts de manire satisfaire un critre d'optimisation.
Prenons le cas de l'identification d'un processus qui comporte deux entres et une sortie.
L'apprentissage va se faire sur un ensemble de triplet ( x10, x20, ys ) .

31

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


ys

Processus

(x10 , x20)

Rseau de
neurones

y2

Figure 1.18 Schma synoptique du procd d'apprentissage du rseau de neurones

Pour chaque triplet, l'erreur entre les deux sorties est calcule. Elle est utilise pour corriger
les poids de la couche de sortie puis par rtropropagation de l'erreur ( error backpropagation
), des erreurs intermdiaires, correspondant la couche cache sont ainsi calcules et
permettent l'ajustement des poids wij1 de la couche cache.
Nous prsentons, dans ce qui suit, un exemple de cet algorithme. Il est bas sur la mthode du
gradient. La notation adopte peut tre rsume comme suit :
Les entres xi0 sont notes yi0 pour permettre de gnraliser l'algorithme.
La fonction d'activation pour la sortie est f(x)=x.
( 1.9 )
x mj = wijm yim 1 reprsente l'activit du neurone j de la couche m.
i

y = f ( x mj ) est la sortie du neurone j de la couche m.


m
j

( 1.10 )

wijm est le poids reliant la sortie du neurone ( i ) de la couche prcdente ( m-1 ) au neurone
( j ) de la couche considre ( m ).
i, j, i', j', k et l sont des indices muets.
L'erreur globale sur l'ensemble d'apprentissage ( indic (k) ) est :
1
E = ( ys ( k ) y 2 ( k ))( ys ( k ) y 2 ( k ))
2 k

( 1.11 )

Les poids vont tre ajusts par une variation de wi2 et wij1 . La direction optimale est donne
par l'oppos du gradient de l'erreur par rapport aux poids :
wi2' =

1
= 2 {( ys ( k ) y 2 ( k ))( ys ( k ) y 2 ( k ))}
2
2 k wi '
wi '

= ( ys ( k ) y 2 ( k ))
k

y 2 ( k )
wi2'

Afin d'viter toute confusion entre les indices hauts et les exposants, nous crivons l'erreur quadratique sous sa
forme explicite ( Erreur * Erreur ).

32

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


y 2 ( k )
2 3 2 1
3 2 1
2
2
(
)
(
)
=
f
w
y
=
f
(
x
)
k
k

wi yi ( k )
i i
wi2'
wi2' i =0
wi2' i =0

= f 2 ( x 2 ( k )) yi1' ( k )

wi2' = ( ys ( k ) y 2 ( k )) f 2 ( x 2 ( k )) yi1' ( k )
k

( 1.12 )

De mme pour la couche cache :


E
1

wi1' j ' = 1 = 1 {( ys ( k ) y 2 ( k ))( ys ( k ) y 2 ( k ))}


wi ' j '
2 k wi ' j '
= ( ys ( k ) y 2 ( k ))
k

y 2 ( k ) x1j ( k )
y 2 ( k )
2

(
)
(
)
=
(
ys

y
)
k
k
1
k
1
wi1' j '
j x j ( k ) wi ' j '

= ( ys ( k ) y 2 ( k )) f 2 ( x 2 ( k )) 1 wi2 f 1 ( xi1 ( k )) yi0' ( k )


x j ' i =0

wi1' j ' = ( ys ( k ) y 2 ( k )) f 2 ( x 2 ( k )) w 2j ' f 1 ( x1j ' ( k )) yi0' ( k )


k

( 1.13 )

On peut introduire l'erreur lmentaire la couche m par jm (k ) , on a alors :

2 ( k ) = ( ys ( k ) y 2 ( k )) f 2 ( x 2 ( k ))
w =
2
i

(k )

1
i (k )

( 1.14 )
( 1.15 )

De mme

1j ( k ) = ( ys ( k ) y 2 ( k )) f 2 ( x 2 ( k )) w 2j f 1 ( x1j ( k ))

= 2 ( k ) w 2j f 1 ( x1j ( k ))
wij1 = 1j ( k ) yi0 ( k )

( 1.16 )
( 1.17 )

On voit bien que pour le calcul de 1j ( k ) , on utilise 2 ( k ) . En fait, de proche en proche, par
rtropropagation, on calcule une erreur correspondant chaque neurone pour une couche
donne. On peut remarquer cela plus explicitement sur un cas plus gnral o l'on a plusieurs
sorties dans la dernire couche. L'erreur est alors donne par :
1
E = ( ys j ( k ) y 2j ( k ))( ys j ( k ) y 2j ( k ))
( 1.18 )
2 k j

33

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


Dans la dernire couche :
y 2 ( k ))
E
wi2' j ' = 2 = ( ys j ( k ) y 2j ( k )) j 2
wi ' j '
wi ' j '
k
j
y 2j ( k )
wi2' j '
wi2' j '

2
f 2 ( x 2j ( k )) yi1' ( k ) si j = j '
2 1
=
f wij yi ( k ) =
wi2' j ' i
0 sinon

= ( ys j ' ( k ) y 2j ' ( k )) f 2 ( x 2j ' ( k )) yi1' ( k )


k

( 1.19 )

Dans l'avant-dernire couche :


y 2 ( k )
E
wi1' j ' = 1 = ( ys j ( k ) y 2j ( k )) j 2
wi ' j '
wi ' j '
k
j

y 2 ( k ) xi2 ( k ) xl1 ( k )
= ( ys j ( k ) y 2j ( k )) 2j
1
2
i l xi ( k ) xl ( k ) wi ' j '
k
j

wi1' j ' = ( ys j ( k ) y 2j ( k )) f 2 ( x 2j ( k )) w 2j ' j ( k ) f 1 ( x1j ' ( k )) yi0' ( k )


k

( 1.20 )

On a alors :

j2 ( k ) = ( ys j ( k ) y 2j ( k )) f 2 ( x 2j ( k ))
w =
2
ij

2
j (k )

1
i (k )

( 1.21 )
( 1.22 )

De mme


1j ( k ) = ( ysl ( k ) yl2 ( k )) f 2 ( xl2 ( k )) w 2jl ( k ) f 1 ( x1j ( k ))
l


= l2 ( k ) w 2jl ( k ) f 1 ( x1j ( k ))
l

1
1
0
wij = j ( k ) yi ( k )
k

( 1.23 )
( 1.24 )

On peut galement montrer que la relation gnrale pour toute couche diffrente de la couche
de sortie, on a :

jm1 ( k ) = lm ( k ) w mjl ( k ) f m 1 ( x mj 1 ( k ))
( 1.25 )
l

wijm1 = mj 1 ( k ) yim 2 ( k )
( 1.26 )
k

De ce qui prcde dcoule un certain nombre de remarques :


On peut choisir la vitesse avec laquelle se fait la mise jour des poids lors de
l'apprentissage en agissant sur . Il reprsente un facteur d'acclration appel ici facteur
d'apprentissage.
34

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques

Une variante permet l'introduction d'un terme inertiel qui aide la convergence [LUT 96],
( 1.27 )
wijm ( n ) = wijm ( n 1) + wijm (n ) + wijm ( n 1)
Le choix de ce facteur est cependant dlicat, on peut d'ailleurs aboutir des effets
inverses ; des oscillations ou un ralentissement de la convergence. Les performances
apportes par ce terme ne sont pas toujours convaincantes [REN 95].
L'algorithme de rtropropagation introduit la drive premire des fonctions d'activation.
Comme nous le verrons dans le chapitre suivant, nous utiliserons pour notre application
comme fonctions d'activation, la fonction sigmode pour la couche cache et la fonction
identit pour la sortie.
Il est cependant tout fait envisageable d'utiliser d'autres algorithmes qui ne ncessitent
pas de drivation. Par exemple [BUR 97] utilise un algorithme de changement alatoire
des poids. Bien que cet algorithme ne prenne pas la pente la plus grande, il y a toujours
une bonne probabilit pour qu'un petit nombre d'essais alatoires trouvent une direction
dans la quelle les poids sont ajusts de manire rduire l'erreur.
Dans [EL-S 94], les auteurs exposent une mthode gntique pour l'adaptation des poids.
Nous verrons l'utilisation des algorithmes gntiques par la suite.
Ces mthodes ont pour but de rduire les problmes rencontrs lors de la convergence. En
effet, l'algorithme du gradient est trs sensible aux minimums locaux. Le choix d'un
facteur d'apprentissage variable permet dans certains cas d'acclrer la convergence
[PIC 94]. Il arrive cependant qu'on reste au-dessus du critre d'arrt sans jamais l'atteindre.
C'est souvent le signe que le mcanisme d'apprentissage est inadapt, ou que la topologie
du rseau ne permet pas d'atteindre ce degr de prcision. Dans ce cas, il faut augmenter le
nombre de neurones de la couche cache ou changer de structure.
Villiers et al. [De V 92] pensent qu'il n'y a pas de raison d'utiliser deux couches caches
la place d'une seule couche cache pour une complexit de rseau 4 donne. De plus, les
rseaux de neurones deux couches caches sont plus sensibles au problme du minimum
local durant l'apprentissage ( utilisant les mthodes de rtropropagation de l'erreur et du
gradient-conjugu ).
Un autre phnomne li l'algorithme de rtropropagation utilis sous sa forme locale ( la
mise jour des poids se fait au fur et mesure du parcourt de l'ensemble d'apprentissage )
est que l'on se retrouve pour des surfaces symtriques ( ys =surface( x10, x20 ) ) avec un
dcalage en sortie pour ( x10, x20 )=( 0, 0 ). Nous mettrons en vidence ce phnomne dans
le chapitre II.

3.3. Rseaux de neurones fonction de base radiale ( RBF )


Les rseaux de neurones fonction de base radiale ( Radial Basis Functions ) sont des rseaux
de neurones une seule couche cache dont les fonctions d'activation sont des fonctions
base radiale, le plus souvent des gaussiennes. La fonction d'activation du neurone de la
couche de sortie est l'identit. Les entres sont directement connectes aux neurones de la
couche cache. La sortie d'un neurone de la couche cache est donne par :

La complexit du rseau de neurones peut tre estime par le nombre de poids utiliss dans l'architecture du
rseau.

35

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


X Cj
y 1j = f 1
j

X Cj
= exp 1
2

2j

( 1.28 )

0
2

1 ( xi cij )
y 1j = exp
i 2

2j

( 1.29 )

Et la sortie par :
y 2 = wi2 yi1

( 1.30 )

y1 1

w12

x1

y2 1

w22
x2

x2

y2

w32

y3 1

w42

y4 1

Couche d'entre

Couche cache

Couche de sortie

Figure 1.19 Rseau de neurones de type RBF


Les gaussiennes sont dfinies par leur centre cij et leur cart type j.
Ces derniers, avec les poids wi2, sont les paramtres optimiser en vue de l'apprentissage. Ce
rseau de neurones, par rapport aux perceptrons multicouches, a comme particularit la
localisation de l'excitation du neurone. En effet, un vecteur d'entre donn ne sollicitera que
les quelques neurones dont le domaine de rception ( dfini par les couples cij, j ) contient la
36

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


valeur de cette entre. La rponse de la fonction de base radiale ainsi positionne diminue
rapidement en fonction de l'loignement du vecteur d'entre par rapport au centre de la
fonction RBF [SPE 96].
Nous verrons dans le chapitre suivant que ces rseaux de neurones peuvent tre utiliss sans
passer par la lourde procdure d'apprentissage qui est ncessaire aux perceptrons.
Enfin, il est intressant de remarquer qu'il existe une quivalence fonctionnelle entre un
rseau de neurones RBF et un systme d'infrence flou bien que provenant d'origines
compltement diffrentes ( les rseaux RBF de la physiologie et l'infrence floue des sciences
cognitives ) [ROG 93]. Il faut dans ce cas choisir des fonctions d'appartenance gaussiennes de
mme cart type que celui des RBF ainsi qu'un nombre de neurones gal au nombre de rgles
d'infrence.

3.4. Applications
Les rseaux de neurones sont utiliss dans de plus en plus de domaines, citons la
classification, la reconnaissance de formes, l'identification et la commande de processus. Le
choix d'utiliser tel ou tel type de rseau de neurones dpend de l'application mais aussi des
capacits de traitement du processeur sur lequel ils s'excutent. Le caractre local des RBF,
par exemple, permet d'allger les calculs de la sortie du rseau de neurones. En effet, pour une
entre donne, il n'est pas ncessaire de calculer l'activation de tous les neurones de la couche
cache, mais uniquement ceux dont le domaine de rception couvre l'entre. Lorsque le
nombre de neurones d'un tel rseau est important pour couvrir tout l'espace d'entre, cette
rduction du temps de calcul devient non ngligeable.
Il existe videmment de nombreuses autres variantes de rseaux de neurones [CHE 96],
[PIC 94] mais elles ne sont que trs partiellement utilises en commande [MIL 96]. Ce sont
des structures moins connues, citons les rseaux de Hopfield ou de Hamming qui ne sont pas
du type "propagation directe". Ils ncessitent plus de temps de calcul et leur analyse est
moins directe. Les rseaux de Kohonen sont, quant eux, utiliss principalement en
classification.
Dans cette tude, nous nous sommes limits aux rseaux de neurones de type perceptrons et
RBF. Ils se prtent le mieux notre application. De plus, la relative facilit avec laquelle on
peut analyser de leur fonctionnement dans le cadre de la rgulation permet de mieux les
exploiter.

4. Algorithmes gntiques
4.1. Principe et dfinitions
Les algorithmes gntiques, comme les rseaux de neurones, font partie des "Rseaux
Adaptatifs Non-linaires" ( RAN ) [REN 95]. Ils sont composs d'un grand nombre d'units
lmentaires ou agents, qui sont dans notre cas des neurones ou des chromosomes. Ces agents
traitent l'information le plus souvent de faon parallle et distribue. Ils interagissent entre eux
d'une manire non-linaire et sans contrle central. Si l'environnement extrieur dans lequel
ils baignent est capable de leur fournir une rtroaction, alors les agents et leurs interactions

37

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


sont modifis par des "oprateurs" de telle sorte que le systme global s'adapte
progressivement son environnement et amliore sa rponse.
Les algorithmes gntiques sont dvelopps pour des fins d'optimisation. Ils permettent la
recherche d'un extremum global. Ces algorithmes s'inspirent des mcanismes de slection
naturelle ( Darwin ) et de la gntique de l'volution. Un algorithme gntique fait voluer
une population de gnes en utilisant ces mcanismes. Il utilise une fonction cot base sur un
critre de performance pour calculer une "qualit d'adquation" ( fitness ). Les individus les
plus "forts" seront mme de se reproduire et auront plus de descendants que les autres.
Chaque chromosome est constitu d'un ensemble d'lments appels caractristiques ou
gnes. Le but est de trouver la combinaison optimale de ces lments qui donne un "fitness"
maximum. A chaque itration ( gnration de population ), une nouvelle population est cre
partir de la population prcdente.
Il existe de nombreuses faons de procder. Chaque utilisateur conoit en fait sa variante qu'il
juge s'adapter le mieux son problme. Nous prsentons dans ce qui suit, la version finale de
l'algorithme gntique que nous avons dvelopp pour notre application.
Tout d'abord, tous les individus sont valus ; on calcule leur fonction d'adquation ( fitness )
et ils sont classs du meilleur au pire ( figure 1.20 ).
Plus l'individu se trouve en haut de la liste, plus il a de chance de se reproduire. Cette phase
de reproduction s'effectue en plusieurs tapes de mutation et de croisement.
La mutation consiste modifier alatoirement un ou plusieurs gnes d'un chromosome
( caractristiques d'un individu ). Alors que le croisement s'effectue en changeant plusieurs
gnes entre deux parents.
Originellement, le codage des individus se faisait en transcrivant en binaire les paramtres
optimiser afin de constituer un gne. Ces gnes sont alors mis bout bout pour former le
chromosome. Il existe cependant une approche appele codage rel, o les fonctions de
mutation et de croisement sont rcrites pour s'appliquer directement au vecteur de paramtres
sans passer par la forme binaire. Ces algorithmes se prtent d'ailleurs fort bien pour donner
naissance des mthodes hybrides qui allient mthodes classiques et algorithmes gntiques
[CHO 97]. Nous avons retenu un codage rel, plus souple et plus prcis. On vite certains
problmes dus au codage binaire. Le codage rel procure aussi une vision directe des
paramtres tout au long de l'volution de la population.

4.2. Applications
Nous avons utilis les algorithmes gntiques pour l'identification des paramtres du modle
des machines tudies ainsi que lors de l'optimisation des rgulateurs.
Nous avons travaill, pour la quasi-totalit des rsultats qui seront prsents au chapitre
suivant, sur une population de 55 individus.
Les taux de croisement et de mutation sont, non pas issus d'une probabilit qu'a un individu de
se croiser ou de se muter, mais plutt fixs par des tailles de sous-populations dont les
fonctions sont dtermines l'avance.
Le tableau 1.6 rsume la configuration retenue.

38

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


Nombre
d'individus
1
9

Position

Constitution de la sous-population

00
19

10 14

10

15 24

10

25 34

20

35 54

Recopie : on conserve le meilleur individu


Mutation au hasard d'individus choisis parmi les 10
premiers avec un facteur au maximum de 0,001
Mutation au hasard d'individus choisis parmi les 15
premiers avec un facteur au maximum de 0,1
Croisement au hasard de deux individus choisis parmi les
15 premiers sans favoriser un parent par rapport l'autre
Mutation au hasard d'individus choisis parmi les 35
premiers avec un facteur au maximum de 0,5
Mutation au hasard d'un seul gne du premier individu de la
population avec un facteur au maximum de 0,01

Tableau 1.6 Configuration de la population d'individus

La troisime colonne explique l'origine de la sous-population concerne. Par exemple, les


individus du rang 10 14 sont issus d'une mutation de plus ou moins 10 % partir d'un des
individus de la gnration prcdente. Ce parent se doit d'tre class parmi les 15 premiers, ce
qui signifie qu'on le juge apte se reproduire.
Chaque population est plus ou moins spcialiste d'une phase du processus d'optimisation. Il
apparat en effet, quand la population part d'une initialisation alatoire, que ce sont les
individus issus d'une mutation avec un fort facteur qui se retrouvent en haut de la liste aprs
valuation du "fitness" et classement. Quand les individus commencent tendre vers le
vecteur optimum, c'est plutt la dernire sous-population ( faible mutation au hasard d'un seul
gne ) qui est trs sollicite, en mme temps que les individus issus du croisement. Enfin, vers
la fin, le meilleur individu reste souvent au sommet de la liste. Ceci peut tre retenu comme
critre de convergence.
On pourrait croire, la vue de sous-populations peu actives, qu'il faille rduire leur taille ou
les liminer ; il n'en est rien. En effet, l'un des grands avantages des algorithmes gntiques,
c'est de pouvoir sortir des maximums locaux. Des mutations au hasard ainsi que le grand
nombre d'individus sont une ncessit si l'on tient garder cette proprit.
On notera galement que l'on a eu aucun moment besoin de driver une quelconque
fonction. C'est un autre avantage des algorithmes gntiques. Toute mdaille ayant son revers,
la convergence vers l'optimum demande un grand nombre de gnrations. Si l'valuation du
"fitness" de chaque individu demande un temps de calcul important, alors le processus devient
trs lourd. Il se prte cependant trs bien au calcul parallle puisque l'adquation d'un individu
n'est pas lie celle de son voisin.

39

Chapitre I : Logique floue, rseaux de neurones et algorithmes gntiques


initialisation au hasard
de la population

Evaluation du "fitness"
de chaque individu

Classement des individus


du meilleur au pire

Tolrance atteinte

oui

fin de
l'optimisation

non
Cration de la nouvelle population par
croisement et mutation des individus
de la population prcdente
considrs aptes se reproduire

Recopie de la population

Figure 1.20 Organigramme de l'algorithme gntique

5. Conclusion
Dans ce chapitre, nous avons prsent les bases ncessaires la comprhension des mthodes
base de logique floue, de rseaux de neurones et d'algorithmes gntiques. Le vocabulaire
utilis par les communauts qui tudient et dveloppent ces mthodes est assez vaste et non
encore uniformis. Il nous a donc sembl ncessaire de prciser celui utilis ici afin de
permettre une lecture claire et sans ambigut des chapitres qui vont suivre.
De nombreuses possibilits d'utilisation de ces techniques sont envisageables rien qu'en ce qui
concerne la machine asynchrone et sa commande. Nous prsenterons les mthodes pour
lesquelles nous les avons utilises et nous nous garderons de faire des conclusions trop htives
en ce qui concerne leur supriorit par rapport aux mthodes classiques. Ce n'est pas parce
qu'une mthode est nouvelle qu'elle est forcment plus efficace. Nous les comparerons donc
de manire objective aux mthodes plus classiques. Nous mettrons en lumire ce que ces
techniques apportent comme amliorations sans occulter leurs dsavantages.

40