Vous êtes sur la page 1sur 46

Systmes hybrides

Adapt de Michael Negnevitsky

Comparaison de modles
Critres de comparaison
proposes par Negnevitsky (2002) Caractristique
Comprhensibilit des reprsentations Tolrance lincertitude Tolrance limprcision Adaptabilit Capacit dapprentissage Capacit de dcouverte/fouille Capacit dexplication Facilit de dveloppement Maintenabilit Support de connaissances complexes

Description
Facilit de comprhension des connaissances reprsentes Robustesse face aux donnes manquantes Robustesse face aux donnes imprcises Support pour de nouveaux types de donnes et de nouveaux domaines Support pour lapprentissage automatique des connaissances Support pour dcouvrir des connaissances parmi beaucoup de donnes Support pour le traage du raisonnement Simplicit et rapidit du dveloppement Simplicit de la maintenance Support pour reprsenter des connaissances complexes

Adapt de M. Negnvistrsky et Benoit Lavoie.

Comparaison de modles
Approches et valuations possibles
Dcrtis par Negnevitsky (2002) Types dapproches SE: systme expert LC: logique classique LF: logique floue AD: arbres de dcisions ON: ontologies SC: schmas BC: systme base de cas valuation - -: mauvais - : plutt mauvais +: plutt bon ++: bon
Adapt de M. Negnvistrsky et Benoit Lavoie.

RN: rseau de neurones artificiels AG: algorithme gntique RB: rseau baysien

+/- : variable selon variantes

Comparaison de modles
Avantages et limites de chaque approche
valuation propose par Negnevitsky
Caractristiques Comprhensibilit des Reprsentations Tolrance lincertitude Tolrance limprcision Adaptabilit Capacit dapprentissage Capacit de dcouverte/fouille Capacit dexplication Facilit de dveloppement Maintenabilit Support de connaissances complexes SE LC Approches symboliques LF AD ON SC BC Approches soussymboliques RN AG RB

+ + +/---++ --+

++ ++ --++ + +

++ ++ ++ -++ + +

++ + + + ++ +/+ ++ ++ -

++ + +/+ + +/++

+ + --+ -++

+ + + +/+ -+ -+

-++ ++ ++ ++ ++ -++ --

++ ++ ++ ++ + + --

++ + + ++ +/+ + + --

Adapt de M. Negnvistrsky et Benoit Lavoie.

Comparaison de modles
Avantages et limites de chaque approche
points forts dmarquant les approches symb. / sous-symb.
Caractristiques Comprhensibilit des Reprsentations Tolrance lincertitude Tolrance limprcision Adaptabilit Capacit dapprentissage Capacit de dcouverte/fouille Capacit dexplication Facilit de dveloppement Maintenabilit Support de connaissances complexes
Adapt de M. Negnvistrsky et Benoit Lavoie.

Approches symboliques SE LC LF AD ON SC BC

Approches soussymboliques RN AG RB

+ + +/---++ --+

++ ++ --++ + +

++ ++ ++ -++ + +

++ + + + ++ +/+ ++ ++ +

++ + +/+ + +/++

+ + --+ -++

+ + + +/+ -+ -+

-++ ++ ++ ++ ++ -++ --

++ ++ ++ ++ + + --

++ + + ++ +/+ + + --

valuations globales
Caractristiques Comprhensibilit des reprsentations Tolrance lincertitude Tolrance limprcision Adaptabilit Capacit dapprentissage Capacit de dcouverte/fouille Capacit dexplication Facilit de dveloppement
Maintenabilit Support de connaissances
complexes

Comparaison de modles
Approches symboliques
Bonne ou plutt bonne Plutt bonne ou bonne Variant de bonne (LF,AD) mauvaise (LC) Variant de mauvaise (SE, SC) plutt bonne (AD, BC?) Variant de mauvaise (SE, LC, LF, SC) bonne (AD)

Approches sous-symboliques
Plutt mauvaise ou mauvaise Bonne Bonne ou plutt bonne Bonne Bonne Plutt bonne ou bonne (RB non spcifie) Variant de mauvaise (RN) plutt bonne (RB) Plutt mauvaise (RN,AG) ou bonne (RB) Plutt bonne ou bonne Mauvaise

Gnralement mauvaise ou plutt mauvaise (exception: AD et ON plutt bonne)


Plutt bonne ou bonne Gnralement mauvaise ou plutt mauvaise (exception: AD bonne) Variant de bonne (AD) mauvaise (SE) Gnralement bonne ou plutt bonne
(exception: AD plutt mauvaise)

Adapt de M. Negnvistrsky et Benoit Lavoie.

Les systmes hybrides




Exploitent les avantages respectifs de plusieurs paradigmes en combinant leurs algorithmes suivant une approche synergtique. Exemples de modles pouvant tre combins :
     

Systmes experts Raisonnement base de cas Arbres de dcision Algorithmes et programmation gntique Rseaux de neurones Techniques de rgression

     

Techniques statistiques Systmes logique floue Algorithmes de groupement Vie artificielle Techniques de simulation

Les systmes hybrides ne sont pas tous gaux


 

Un systme hybride peut tre bon ou mauvais, selon le choix et les rles de ses composantes Lotfi Zadeh est rput avoir dit quun bon systme hybride combine les qualit de la police britannique, de la mcanique allemande, de la cuisine franaise, du systme bancaire suisse, et de lamour italien. Par contre, la cuisine britannique, la police franaise, la mcanique suisse, lamour allemand et les finances italiennes seraient un mauvais choix ! Hybridations populaires
  

Systmes experts neuronaux Systmes neuro-flous, neuro-gntiques, flous-gntiques On peut aussi sauter du bateau : neuro-HMM, HMM-flou, neuro-bayesien

Types dhybridation


Modles squentiels
Entre p Paradigme 1 p Paradigme 2 p sortie Ex. : un module statistique passe ses rsultats un RNA. Forme la plus faible dhybridation

Modles auxiliaire
Entre p Paradigme 1 p Sortie o Paradigme 2 (appel par 1) Ex. : AG qui rglant les poids dun RNA. Forme dhybridation plus pousse

Modles imbriqus
Entre p Paradigme 1 + Paradigme 2 p sortie Ex. : un systme neuro-flou o le RNA est imbriqu dans le systme flou. Forme absolue dhybridation

Les modles peuvent tre combins pour crer des paradigmes plus complexes.

Systmes experts connexionistes




Les systmes experts reposent sur linfrence logique et les arbres de dcision pour modeler le raisonnement humain ; le savoir rside dans des rgles individuelles qui sont visibles et comprhensibles pour lusager. Le problme est de les trouver et de sassurer de leur gnralit sapplication. Les rseaux de neurones modlent le cerveau lui-mme par une architecture parallle de traitement de linformation ; le savoir est distribu et rside dans des poids synaptiques que lon sait calculer. Le problme est dexpliquer le processus cognitif sous jacent. Pourquoi ne pas compenser les faiblesses de lun par les qualits de lautres ?

Le raisonnement approximatif


Dans un systme expert classique, le moteur dinfrence applique lantcdent de chaque rgle aux donnes de sa base de connaissances. Lorsquil y a appariement, le consquent est excut. Lappariement doit tre exact. Dans un systme expert connexionniste, le moteur dinfrence utilise une base de connaissances neuronale pour arriver un appariement approximatif Le rsultat est que les donnes dentre nont plus correspondre exactement aux donnes dapprentissage pour que les rgles soient actives, do un raisonnement approximatif.

Structure dun systme expert connexionniste


Donnes dapprentissage Extraction de rgles Rgle: IF - THEN

Base de connaissances neuronale Donnes dentre

Moteur dinfrence

Facilits explicatives

Interface usager

Usager

La base de connaissances neuronale


Ailes
1 -0.8

Rgle 1
1.0

Oiseau
1

Queue
0

-1.6 -0.7 -0.2 -0.1

Bec
1

-1.1 2.2 -1.0

Rgle 2
0.0 1.0

Avion
1

Plumes
1

2.8 -2.9

-1.6

Rgle 3
1.0

Aroplaneur
1

oteur
1

-1.1 1.9 -1.3

Les poids dterminent la force/limportance des neurones associs au rgles Valeurs dentre = +1 (vrai), 1 (faux), or 0 (indtermin),

Avec les valeurs d entre +1 (vrai), 1 (faux), ou 0 (indtermin), il est possible de donner une interprtation smantique l activation de tout neurone de sortie. Ex. : Si l objet d entre possde des ailes (+1), un bec (+1) et des plumes (+1), mais pas de moteur (1), nous pouvons conclure q il s agit d un oiseau (+1) :

X Rgle 1 ! 1 ( 0.8 )  0 ( 0.2 )  1 2.2  1 2.8  ( 1 ) ( 1.1 ) ! 5.3 " 0 YRgle 1 ! YOiseau ! 1
Nous pouvons conclure de manire similaire qu il ne s agit pas d un avion :
Rgle 2

! 1 ( 0.7 )  0 ( 0.1 )  1 0.0  1 ( 1.6 )  ( 1 ) 1.9 ! 4.2 0

YRgle 2 ! Y Avion ! 1 Ou d un aroplane : X Rule 3 ! 1 ( 0.6)  0 ( 1.1)  1 ( 1.0)  1 ( 2.9)  (1) ( 1.3) ! 4.2 0 YRgle 3 ! Y Aeroplaneur ! 1

Importance de chaque lien synaptique


Heuristique : infrence positive si lactivation dun neurone de sortie due aux entres connues est plus importante que la somme des valeurs absolues des poids rattachs aux entres inconnues :

xi wi " w j
j !1 i !1 i entres connues, j entres connues et n = nombre dentres

Exemple :
Entrer la valeur de lentre lu es : " +1 CONNU = 12.8 = 2.8 UNCONNU = 0.8+0.2+2.2+1.1= 4.3 CONNU Entrer la valeur de lentre ec : " +1 CONNU = 12.8 + 12.2 = 5.0 UNCONNU = 0.8+0.2+1.1= 2.1 CONNU CONCLUSION: OISEAU est VRAI INCONNU INCONNU

Comment trouver les poids ?


Il faut dabord dfinir la topologie correspondante aux rgles Ensuite on applique un algorithme dapprentissage appropri (e.g. retropropagation)
Rule 1: IF a1 AND a3 THEN b1 (0.8) Rule 2: IF a1 AND a4 THEN b1 (0.2) Rule 3: IF a2 AND a5 THEN b2 (-0.1) Rule 4: IF a3 AND a4 THEN b3 (0.9)
Input La ye r C onjunction La ye r
1.0 1.0

Rule 5: IF a5 THEN b3 (0.6) Rule 6: IF b1 AND b3 THEN c1 (0.7) Rule 7: IF b2 THEN c1 (0.1) Rule 8: IF b2 AND b3 THEN c2 (0.9)
D isjunction La ye r C onjunction La ye r D isjunction La ye r

a1

R1

0.

a2

1.0 1.0

R2

0.

b1

1.0

R6

0.

a3

1.0 1.0

R3

-0.

0.

c1

b2

1.0 1.0 1.0 1.0

R7
0.

c2

a4

1.0 1.0

R4

0.

b3

R8

a5

1.0

R5

0.

Comment trouver les rgles minimales ?


Trouver et ordonner les poids contributeurs (ceux qui ne diminuent pas le rsultat) Identifier les antcdents en partant du poids le plus fort
+1

ec

Rgle 2
0.0 1.0

+1

. -1.0

lu es

- .

Rgle 3
1.0

Moteur
1

-1.1 1. -1.

Entrer la valeur de lentre lu es :


" +1

CONNU = 12.8 = 2.8 UNCONNU =0.8+0.2+2.2+1.1= 4.3 CONNU

Entrer la valeur de lentre ec :


" +1

CONNU = 12.8+12.2=5.0 UNCONNU=0.8+0.2+1.1=2.1 CONNU

CONCLUSION: SI plu es ET bec ALORS oiseau

+1

-1.

roplaneur
1

iles
-0.

Rgle 1
-0. -0.1 1.0

Oiseau
+1

ueue

-1. -0. -1.1

vion
1

Plumes : 2.8 (1 2.8=2.8) Bec : 2.2 (1 2.2=2.2) Moteur : 1.1 (-1 -2.1=2.1) Queue : 0.2 (0 -0.2=0) Ailes : 0.8 (1 -0.8= - 0.8)

INCONNU INCONNU

Systme neuro-flous


Combine les traitement parallle et les capacits dapprentissage des rseaux de neurones avec les raisonnement anthropomorphique et les capacits dexplication des systmes flous : Les RNA deviennent plus transparents, les systmes flou acquirent la capacit dapprendre. La topologie du RNA est fonctionnellement quivalente celle dun modle dinfrence flou, et on peut lentraner :
 

dvelopper des rgles floues SI-ALORS trouver les fonctions dappartenance de variables dentres/sorties en partant dun ensemble de donnes reprsentatives.

 

On peut aussi y inclure les connaissances dun expert. Structure similaire un PMC : 1 couche dentre, 1 couche de sortie et 3 couches caches pour les fonctions dappartenance et les rgles.

Architecture dun systme neuro-flou


C ouche 1 E ntr e C ouche 2 Floufication C ouche 3 Conjonction C ouche 4 Disjonction

x1 x1 x1 x1

1 QA1

R1
QR1

C ouche 5 Dfloufication (sortie)

2 Q A2 3 QA3 1 QB1

R2
QR2

wR3

C1

R3 QR3 R4 QR4
QR5

wR6 wR1 wR2 wR4

QC1

QC2

x2 x2 x2 x2

C2

QB2

R5
QR6

wR5

B3

QB3

R6

Couche 1 : Agit comme un tampon qui transmet simplement les donnes dentre la couche de floufication. On a :

yi(1) ! xi(1)
Couche 2 : Les neurones de cette couche ralisent chacun un ensemble flou qui servira dans les antcdents des rgles. Chaque neurone reoit une valeur dentre prcise et gnre son degr dappartenance lensemble flou reprsent par le neurone. Dans le cas densembles flous triangulaires, on peut utiliser des fonctions dappartenance de mme forme qui sont dfinies par deux paramtres {a, b} :

yi( 2)

b 0, i xi( 2) e a  2 2 xi( 2)  a b , i a xi( 2) ! 1  b 2 b 0, i xi( 2) u a  2

Q
1

Q
1

a = 4, b =6
0 .8

a = 4.5, b =6
0 .8

a = 4, b =6 a = 4, b =4

b a 2

0 .6

0 .6

0 .4

0 .4

0 .2

0 .2

0 0 1 2 3 4 5 6 7 8

0 0 1 2 3 4 5 6 7 8

(a) Effect of parameter a.

(b) Effect of parameter b.

Couche 3 : Elle ralise les conjonctions des antcdents de rgles floues. Chaque neurone dans la couche reoit comme entre les degrs dappartenance dfinis dans la couche 2. Lintersection floue est ralise avec loprateur produit :
( ( (3 yi(3) ! x1i3) v x23) v - v xki ) i
(3 y R1) ! Q A1 v Q B1 ! Q R1

Couche 4 : Elle ralise les disjonctions des antcdents de rgles floues. Chaque neurone dans cette couche reoit comme entre les degrs dappartenance dfinis dans la couche 3. Lunion floue est ralis laide de loprateur ou probabiliste :
( ( ( yi( 4) ! x1i4) x24) - xli4) i
( yC4) ! Q R 3 Q R 6 ! Q C1 1

QC1 reprsente la force combine des conjonctions implmentes par les neurones R3 et R6.

Couche 5 : Chaque neurone dans cette couche prend les ensembles flous prcdent, crts par la force des rgles correspondantes, et les combine en un seul ensemble flou. Ce dernier est alors dfloufi par une mthode standard.

Entranement dun systme neuro-flou


On utilise un algorithme de RNA (e.g. retropropagation) Exemple :

0 1 1

0 0

Mise en oeuvre avec un systme neuro-flou 5 rgles


S x2 L

1
0.99

1 0.8

wR5 wR3

wR1

2 3

0 0.72 0.61

W eight

0.6 0.4 0.2

wR4

S x2 L

4 5

wR2
0 10 20 E poch 30 40 50

0.79 0

(a) Five-rule system.

(b) Training for 50 epochs.

Noter que le systme a seulement retenu 4 rgles !

Inclusion de connaissance a priori




  

Linclusion de connaissances du domaine (e.g. intervention dun expert) peut amliorer considrablement lapprentissage, surtout lorsque les donnes sont rares et peu reprsentatives. Cependant, un expert peut se tromper, ou encore fournir des rgles redondantes ! Le systme devrait tre capable didentifier les mauvaises rgles et corriger la situation. Exemple du ou-exclusif
 

Un expert distrait suggre 8 rgles avec des poids initiaux de 0.5 pour les couches 3 et 4. Aprs lapprentissage, on limine les rgles dont le poids de sortie (facteur de certitude) est < 0.1.

Solution du problme du ou-exclusif avec 8 rgles


S x1 1 2 3 4 5 S x2 L 6 7 8
0.8 0 0.7 0.78 0.69 0 0.62 0 0 0.80 0.6

wR2 wR8 wR3 wR5

0.5 0.4 0.3 0.2 0.1 0 0 10 20 E poch 30 40 50

wR6 & wR7 wR1 wR4

(a) ight-rule system.

(b) Training or 50 epochs.

Comme seulement 4 rgles sont requises normalement, le systme limine les rgles excdentaires.

ANFIS: Adaptive Neuro-Fuzzy Inference System




Modle de gnration automatique de rgles floues bas sur le modle dinfrence de Sugeno : IF x1 is A1 AND x2 is A2 . . . AND xm is Am THEN y = f (x1, x2, . . . , xm) o x1, x2, . . . , xm sont des variables dentre et A1, A2, . . . , Am sont des ensembles flous. Lorsque :
 

y= constante, on obtient un modle de Sugeno dordre zro. Le consquent dune rgle est un singleton. y est une combinaison linaire des entres : y = k0 + k1 x1 + k2 x2 + . . . + km xm on obtient un modle de Sugeno de premier ordre.

Architecture du rseau ANFIS


C ouche 1 tr C ouche 2 Fl fic ti C ouche 3 l s fl s C ouche 4 r lis ti C ouche 5 D fl fic ti

x1 x2
1

C ouche 6 ti (s rti )

A1
x1

N1

A2

N2

B1
x2
3

N3

B2

N4

Couche 1 : Tampon pour les donnes dentre Couche 2 : Neurones de floufication pour les antcdents des rgles. Dans le modle de Jang, les fonctions dappartenance sont des gaussiennes. Couche 3 : Chaque neurone correspond une rgle floue de Sugeno. il reoit les sorties des neurones de floufication et calcule son activation. La conjonction des antcdents est ralise avec loprateur produit. Ainsi, la sortie du neurone i de la couche 3 est donne par
3 yi(3) ! x (ji ) j !1 k

et

y(3) = QA1 v QB1 = Q1, 41

o Q1 represente le degr de vrit de Rgle 1.

Couche 4 : Chaque neurone calcule le degr de vrit normalis dune rgle floue donne. La valeur obtenue reprsente la contribution de la rgle floue au rsultat final. Ainsi la sortie du neurone i de la couche 4 est :
yi( 4) !
( xii4) n

Qi
n

! Qi

4 x (ji ) j !1

( 4) y N1

Q j
j !1

Q1 ! ! Q1 Q1  Q 2  Q3  Q 4

Couche 5 : Chaque neurone i de cette couche est reli un neurone de normalisation correspondant et aux entres initiales du rseau. Il calcule le consquent pondr de la rgle sous jacente comme tant

yi(5) ! xi(5) ?ki 0  ki1 x1  ki 2 x 2A! Qi ?ki 0  ki1 x1  ki 2 x 2A


o les Xi sont les entres, et ki0, ki1 et ki2 sont des paramtres du consquent de la rgle i.

Couche 6 : Comprend un seul neurone qui fournit la sortie de ANFIS en calculant la somme des sorties de tous les neurones de dfloufication.

y!
i !1

( 6) xi

! Qi ?ki 0  ki1 x1  ki 2 x 2A
i !1

Entranement dun rseau ANFIS




Algorithme deux temps o on estime dabord les paramtres des consquents par une technique de moindres carrs et ensuite les poids du rseau par une descente de gradient. Chaque poque dentranement comprend une passe avant et une passe arrire. Durant la passe avant, les patrons dentre servent dterminer les sorties des neurones couche par couche, permettant de dterminer les valeurs des paramtres de consquents en bout de compte. Durant la passe arrire, lalgorithme de retropropagation derreur est appliqu pour rgler les poids des diffrentes couches.

Dtermination des paramtres des consquents




Partant de P paires dapprentissage, on peut former P quations linaires en fonction des paramtres des consquents :
d (1) ! y d (2) ! y y d (p) ! (P) ! y d Q(1) f(1)  Q(1) f(1)  Q(2) f(2)  Q(2) f(2)   Qn(1) fn(1)  Qn(2) fn(2)  Qn(p) fn(p)  Qn(P) fn(P)

/ Q(p) f(p)  Q(p) f(p)  / Q(P) f(P)  Q(P) f(P)  -

o Q i est la valeur moyenne de Qi, et fi() est la fonction de sortie dont on veut dterminer les paramtres.

On peut crire lquation prcdente sous la forme yd = A k, o yd est un vecteur dsir de dimension P v 1 :
yd (1) yd (2) yd ! / , y (p) d / yd (P)
Q(1) Q(2) A ! / Q (p)  / Q (P)  Q(1) x(1) - Q(1) xm(1) - Qn(1) Q n (1) x(1) - Q n (1) xm(1) Q(1) x(2) - Q(2) xm(2) - Qn(2) Q n (2) x(2) - Q n (2) xm(2) / / / / / - Q(p) xm(p) - Qn(p) Q n (p) x(p) - Q n (p) xm(p) Q(p) x(p) / / / / / Qn(P) Q n (P) x(P) Q n (P) xm(P) Q(P) x(P) Q(P) xm(P)

et k est le vecteur des paramtres de consquent inconnus de dimension n (1 + m) v 1 :


k = [k10 k11 k12 k1m k20 k21 k22 k2m kn0 kn1 kn2 kn m]T

 On a donc :
k = A-1 yd (en pratique k=(AtA)-1At yd )

Une fois le vecteur k dtermin, le vecteur de sortie du rseau y peut tre calcul ainsi que le vecteur derreur associ, e : e = yd  y Lors de la passe arrire, lalgorithme de retropropagation derreur est appliqu pour mettre jour les poids des antcdents des rgles. Dans lalgorithme ANFIS de Jang, on optimise aussi bien les paramtres de antcdents que ceux des consquents. Durant la passe avant, les paramtres des consquents sont adapts alors que les paramtres des antcdents sont maintenus constants ; durant la passe arrire, les rles sont changs.

Approximation de fonctions avec ANFIS




Ex. : suivre la trajectoire dfinie par la fonction non-linaire dfinie par

y!


cos(2 x1) e
x2

Dtermination de larchitecture :  Deux entres, x1 and x2, et une sortie, y.  Chaque entre possde deux valeurs linguistiques Donc le rseau ANFIS possde quatre rgles.

Modle ANFIS avec quatre rgles


La ye r 1 La ye r 2 La ye r 3 La ye r 4

x1 x2

La ye r 5

La ye r 6

A1
x1

N1

A2

N2

B1
x2
3

N3

B2

N4

Apprentissage du rseau


  

Lensemble dapprentissage comprend 101 chantillons reprsents par 101 triplets [x1 x2 yd] X1 va de 0 10 par pas de 0.1 X2 = sin(x1) pour donner des paires [x1 x2] qui sont raisonnablement distribues yd, est dtermin en solvant lquation.

Apprentissage sur 1 priode


y
2 1 0 -1 -2 -3 1 0 .5 0 -0 .5 4 -1 2 0 8 6 10 T ra ining D a ta AN F IS O utput

x2

x1

Apprentissage sur 100 priodes


y

2 0 2 1 0 -1 -2 -3 1 0 .5 0 -0 .5 4 -1 8 6 10 T ra ining D a ta FI utput

x2

x1

On peut amliorer la prcision dapproximation en augmentant le nombre de valeurs linguisitques par entre. Par exemple, pour 3 valeurs on obtient un rseau ANFIS 9 rgles :
x1 x2

A1
x1

1 2

N1 N2 N3 N4 N5 N6 N7 N8 N9

1 2 3 4 5 6 7 8 9

A2
3

A3

4 5

B1
x2

6 7

B2
8

B3

Apprentissage sur 1 priode en utilisant 3 fonctions dappartenance par variable dentre


y
 
2 0 2 1 0 -1 -2 -3 1 0 .5 0 -0 .5 4 -1 8 6 10 T ra ining D a ta FI utput

x2

x1

Apprentissage sur 100 priodes en utilisant 3 fonctions dappartenance par variable dentre
y
 
2 0 2 1 0 -1 -2 -3 1 0 .5 0 -0 .5 4 -1 8 6 10 T ra ining D a ta FI utput

x2

x1

Fonctions dappartenance initiales et finales


1 0.8 0.6 0.4 0.2 0 0 1 2 3 4 5 6 7 8 9 10 1 0.8 0.6 0.4 0.2 0 -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1

x1

x2
1 0.8 0.6 0.4 0.2

(a) Initial membership unctions.


1 0.8 0.6 0.4 0.2 0 0 1 2 3 4 5 6 7 8 9 10

0 -1

-0.8

-0.6

-0.4

-0.2

0.2

0.4

0.6

0.8

x1

x2

(b) Membership unctions a ter 100 epochs o training.

Et pourquoi pas dcision flou ?




neuroniser un arbre de

Arbre de classification/rgression neuro-flou


A1

An

RN de Floufication

DIT grand

rbre de dcision flou


0.35 NOM grand

0.65 CLD petit 0.2 0 0.2 0.65 1 0.35 0.8

0.7 1 0.3 0

0.3

RN de Dfloufication
Valeur/classe prdite

Floufication
Processus en deux tapes :
Trier les donnes par catgories (grand- petit) :

Carte de Kohonen Dcider de la forme et des points remarquables des fonctions dapparenance : Morphologie mathmatique
Donnes dentre Classification symbolique

SOM

Filtre morphologie mathmatique

Fonctions dappartenance

Dfloufication
Perceptron