Vous êtes sur la page 1sur 49

Universit du Qubec Rimouski

Richard Lepage
M.Sc.A. ingnierie
M.Sc. Ocanographie
tudiant au doctorat en Ingnierie

Rseaux de neurones formels


et logique floue
Dpartement de Mathmatiques, dInformatique et de Gnie.
DMIG

Universit du Qubec Rimouski


Universit du Qubec Chicoutimi

@2010

Plan de la discussion

Historique et concepts.

Les types de rseaux neuronaux.

Les champs dapplications.

volution future des rseaux de neurones.

Conclusion.

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Naissance du modle thorique du neurone biologique labor par 2


neurobiologistes (McCulloch et Pitts) en 1943.
Schmatisation dun
neurone biologique

Modlisation dun neurone


formel partir du modle
biologique
n

wi xi

w0 x0

w1 x1

sgn(S )

w2 x 2

i 0
Y

On associe un poids
chacune des entres xi.
Lensemble des entres-poids
est ensuite appliqu un
sommateur
suivi
dun
comparateur.

Y 0
1

Fonction dactivation
de la sortie Yj

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Neurone formel (automate seuil avec entres et sorties binaires).


Application la logique Boolenne.
Dans la configuration porte logique, le modle se comporte comme un sparateur linaire
entre deux classes distinctes. Les deux classes sont spares par une droite dont la pente
et lordonne sont dfinies par la valeur des poids. Dans cet exemple, la valeur des poids a
t pralablement dfinie.
d ( x, y )

ax by c

w1 x1 w2 x2
w0
w2

w1
x
w2

w0

x1

x,

x2

ou

mx

S=1

S=0

B (x2)

S(y)

S=0
x1

0.35

sgn(S )
x2

w2

w0

.3

x0

sgn(S )

ET logique

A (x1)

B (x2)

S(y)

wi xi

x1
w1

0.35

w2

0.35

i 1

sgn(S )
x2

Les poids w1 et w2
sont lis la pente
de la droite tandis
que w0 et w2 sont
lis lordonne
lorigine de la
droite.

0.35

Y 0

x2

S=1

i 1

w1

A(x1)

x1

wi xi

x1

OU logique

x2

w0
x0

Ncessit
dun
algorithme pour
automatiser
le
processus
de
modification des
poids.

.5
1

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX


Rgles du Perceptron

En 1949, dcouverte de la rgle dapprentissage de Hebb pour la mise jour


automatique des poids du rseau entrainant le dveloppement de lalgorithme du
Perceptron selon une sortie dsire d(i) durant un processus dapprentissage.
tape 1 Choisir des valeurs alatoires pour les poids w1 , w 2 ..w n et le biais w 0
tape 2 Appliquer le vecteur dentre x(i)
tape 3 -Calculer la valeur de S () S w1 x1 w 2 x2 ... w0
tape 4 Si S= d(i) on retourne ltape 2 sinon on passe ltape 5
tape 5 - dw0

d ( i ), dw i

x ( i )d ( i )

w0

w0 dw0 , w i

w i dw i pour i

1..n

tape 6 - Retourner ltape 2.

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Le perceptron de Rosenblatt (1958).


d (i )

Lobjectif premier
du Perceptron a t
de modliser la
perception visuelle.

Entres

x1
w1

0.1

sgn(S )
w2

x2

w0

.3

x0

err

Une couche linaire de


neurone formel soumis la
rgle dapprentissage de
Hebb

d (i )
xn

0 .1

Sortie dsire

Entres

sgn(S )
wn

xn

Modification des
biais et des
poids du rseau
selon lerreur
produite entre la
sortie dsire et
la sortie du
rseau

wn 1

Mise jour des poids


par la rgle de Hebb

Sortie dsire

w0

.3

x0

err

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Problme non linairement sparable (impossibilit de rsoudre le XOR logique)

En 1970, Minsky et Papert valurent les faiblesses du perceptron. Ils dcouvrirent


limpossibilit pour le perceptron de rsoudre un problme non linairement
sparable telle que la porte logique XOR.
d (i )
x2

x1

XOR logique
A(x1)

B(x2)

S=0

S=1

S=0

x1

S=1

w1

0.1

sgn(S )
x2

w2

w0

.3

x0

err

La droite de discrimination linaire ne peut sparer les deux


classes peut importe les valeurs donnes aux poids et au biais.

Minsky et Papert prconisrent dajouter dautres couches de neurones entre


lentre et la sortie. il fallait rsoudre le problme qui tait de trouver une
procdure qui permettrait de mettre jour les poids et les biais du rseau,
sapparentant un processus dapprentissage.
7

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

volution vers un rseau couches caches


En 1980, rvolution du perceptron couches multiples (MLP) utilisant la rgle de
rtropropagation du gradient de lerreur (back-propagation).
Gnralisation de lalgorithme de
Widrow et Hoff que lon nomme
galement rgle delta en minimisant
la somme des erreurs quadratiques.

wji

x1

y1

z1

x
wkj

x2

y2
z2

Couche dentre vers la couche cache


x3

w ji

xi

wkj

k 1

Couche cache vers la couche de sortie


wkj

yj

zk

f ' ( net j ) x i

y3
x4

Couche d'entre

t k - z k f ' (netk ) y j

Couche cache

Couche de sortie

Fonctions dactivations

f est la drive de la fonction dactivation.

Cette dcouverte revient deux quipes indpendantes:


Rumelhart et all et Le Cun et all

1
1 e

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Rsolution dun problme non linairement sparable avec le rseau MLP


Le cas de la porte logique XOR.
x2

XOR logique

S=1

S=0
D2
D1

S=0

x1

S=1

A(x1)

B(x2)

Couche N

x1

w11,1

y1
w12,1

w21,1

o
x2

w21,1

w12, 2

y2
Noeuds de sortie

Couche N-1
Le rseau MLP deux
entres permet de sparer
les deux classes du
problme XOR.

Couche 1
Couche 0
Rseau N-couches

Noeuds cachs
Branchements wi,j
Noeuds dentre
9

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Configuration optimale du rseau de neurone MLP


On relve nanmoins un problme majeur dans lutilisation des
rseaux neuronaux: la difficult doptimiser le nombre de
couches caches ainsi que le nombre de neurones pour
chaque couche.

Paramtres prendre en considration

Le pas dapprentissage
La vitesse dapprentissage
La capacit de gnralisation du rseau
Les fonctions dactivations des couches caches

Comment y remdier?

Par une mthode dessai et erreur (efficacit faible).


Par la mthode des plans dexpriences (mthode taguchi) (efficacit leve).
Par une optimisation conjointe des paramtres et de la topologie du rseau par
algorithme gntique hirarchiques (efficacit leve mais processus complexe) .
Par utilisation de lensemble de Pareto optimal (Vilfredo Pareto ) : problme
doptimisation sous contrainte (efficacit leve ncessitant beaucoup de calcul).
10

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Techniques dapprentissage ou de dtermination des poids.


Apprentissage supervis et non supervis.
Apprentissage supervis (Approche dterministe)
On enseigne au rseau ce quil doit prsenter comme information la sortie
selon les donnes prsentes lentre. Cela force les poids prendre des
valeurs distinctes selon les formes prsentes au rseau de neurones.

Avantages:
Le rseau atteint une prcision trs leve au niveau de la reconnaissance
et la base dexemple na pas besoin dtre trs grande.

Dsavantage:
On perd en gnralit car les formes sont reconnues dune manire trop
exacte. Si une forme proche de la cible est prsente au rseau, celle-ci ne
sera peut-tre pas reconnue. On ajoutera un bruit blanc au donnes pour
permettre une meilleure gnralisation.
11

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Techniques dapprentissage ou de dtermination des poids


Apprentissage non supervis (approche statistique)
Le rseau regroupe les donnes selon des algorithmes de calcul de distance
(distance Euclidienne, de Manhattan) par la mthode des moindres
carres ou selon une autre mthode. chaque groupe correspond une
classe. Aprs identification de toutes les classes, une valeur de sortie dicte
par lusager est associe chacune des classes. En utilisant une infrence
baysienne, on pourra produire des probabilits conditionnelles pour
chacune des variables alatoires tant donn les autres.

Avantages:
Le rseau atteint une prcision trs leve au niveau de la reconnaissance
et la gnralisation est trs bonne.

Dsavantage:
La base dexemple se devra dtre trs volumineuse et le temps
dapprentissage augmentera pour chaque nouvel exemple ajout au rseau
12
lors dun nouvel apprentissage.

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Mthode de minimisation pour le calcul des poids.

Mthode de descente du Gradient


2

wnj ,i

n
j

wnj ,i

f ( h nj ) xin

2
n
j

n
j

n
j

f ( h nj )

Mise jour des poids et des biais


wnj ,i ( new)
n
j

(new)

wnj ,i (old )
n
j

(old )

wnj ,i
n
j

13

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Mthode de minimisation pour le calcul des poids.

Mthode de descente du gradient avec terme dinertie


2

w(new)

wkj

w(old )

0<

<1

t k - z k f ' (netk ) y j Terme dinertie

yj

w convergera vers
2

w
14

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Mthode de minimisation pour le calcul des poids.

Mthode de Newton
Par lutilisation de la srie de Taylor
E (w)

E ( w0 ) ( w w0 )

E = fonction derreur ( 2)

o H = matrice Hessienne
2

E
wi w j

H ij

1
( w w0 ) 2 H
2

E ( w0 )

E ( w)

1
2

Yj d j

o Y j

wij xi
i 1

De la srie de Taylor, nous obtenons


E ( w)

et

E ( w0 ) H ( w w0 )

w0

E ( w0 )

( Mthode de Newton)
15

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Mthode de minimisation pour le calcul des poids.

Mise jour des poids par la mthode de Newton


Avantages:
w Convergence rapide (forme quadratique)
Dsavantages:
wCalculs intensifs (ncessit de calculer la matrice inverse
chaque pas ditration.
wLa matrice Hessienne est difficile calculer selon la
complexit de la fonction dactivation. Nous devons donc
choisir une fonction dactivation qui soit continment
drivable.
16

HISTORIQUE ET CONCEPT DES RSEAUX NEURONAUX

Mthode de minimisation pour le calcul des poids.

Mthode de Levenberg-Marquardt Backpropagation


JJ
JE
w

J ( w) J ( w)
J ( w) E
( JJ

I ) JE

J = Matrice Jacobienne
E = Toutes les erreurs
I = Matrice identit
= Taux dapprentissage

Avantages:
wConvergence trs rapide et gnralisation trs bonne.
wMthode la plus utilise jusqu maintenant.
Dsavantages:
Il ne faut pas que le nombre de poids constituant le rseau soit plus
grand que 200 car cette mthode devient inefficace en terme de
rapidit de calcul.
17

TYPES DE RSEAU NEURONAUX

MLP - Multilayer perceptron (perceptron multi-couches)


Rseau vu prcdemment.

RBF - Radial Basis Function ( fonction dactivation


gaussienne)
Approximation de fonctions plusieurs variables.

Rseau de Kohonen - (Rseau auto-organisateur)


Conservation topologique de la forme
Compression de donnes

Rseau de Hopfield - (Rseau pleine connection)


non prsent dans cette prsentation, utilis dans le
contrle dun systme non-linaire.

18

TYPES DE RSEAU NEURONAUX

Nouvelles tendances:
Combinaison de plusieurs types de rseaux pour la rsolution de problmes dans
un cadre plus spcifique.

Entre(s)

Rseau de Kohonen

Rseau MLP

Sortie(s)

Systme neuro-flou approchant le comportement humain.

Rseau MLP

Entre(s)

Sortie(s)
Logique floue

19

TYPES DE RSEAU NEURONAUX


Le rseau RBF (Radial Basis Function)
Broomhead et Lowe (1988) sont les concepteurs du rseau RBF.

Sert actuellement pour les applications dapproximation de fonction mais


sexplique mieux dans le contexte de la classification.
Le rseau RBF est un
rseau une couche
cache
(Couche avec
fonction
dactivation
gaussienne et couche de
sortie linaire).
La rgle Delta est utilise comme
technique dapprentissage du
rseau RBF.

Structure du rseau RBF


sortie linaire

x1
Entres

x2

La couche cache est constitue


de fonction-noyau de type gaussienne.
La fonction noyau doit tre paramtrise
convenablement.

20

TYPES DE RSEAU NEURONAUX


Modle linaire du rseau RBF

c: centre;
r: rayon;

f ( x)

w j h j ( x)
j 1

Fonction dactivation gaussienne

h( x ) exp

( x c) 2
r2

Fonction dactivation quadratique

h( x )
RBF gausienne

RBF quadratique

r 2 ( x c) 2
r

21

TYPES DE RSEAU NEURONAUX


Le rseau RBF (Radial Basis Function)

Pour dterminer le nombre et la position des neurones-noyau, on utilise


lalgorithme dcrit par Mustawi et all (1992).
1.

2.
3.
4.

5.

6.
7.

8.

On associe un neurone par donne du corpus dapprentissage


reprsentant un nuage distinct, lobjectif tant de regrouper des nuages
de donnes.
On choisie alatoirement un nuage (un neurone i)
On trouve un second nuage de la mme classe (un neurone j).
Regroupement des deux nuages en un nouveau nuage k et calcul du
barycentre Ck.
Calcul de la distance rk entre Ck et la donne de k la plus loigne.
Calcul de la distance dk entre Ck et le barycentre du nuage le plus
proche.
Si dk > Delta*rk, alors regroupement accept et nouveau nuage k qui
remplace les nuages i et j, sinon on rpte depuis ltape 3 jusqu ce
que le regroupement soit accept.
Rpter lopration partir de 2, en examinant tous les nuages jusqu
ce quaucun regroupement ne soit plus possible.
22

TYPES DE RSEAU NEURONAUX


Le rseau RBF (Radial Basis Function) utilis dans lapproximation dune fonction
Somme pondre des entres

Vecteurs dapprentissage
Fonction gaussienne

Rsultat aprs apprentissage


On prsente 20 vecteurs

(x,y)

que le rseau doit


apprendre.
Lorsque
lapprentissage
est
termin,
nimporte
laquelle
des
valeurs
prsentes lentre
donnera une valeur de
sortie qui sera prsente
sur la courbe.
23

TYPES DE RSEAU NEURONAUX


Le rseau SOM de Kohonen (rseaux comptitifs)
Kohonen (1990) dveloppa la carte topologique (Self-Organizing Map).
Le rseau SOM est constitu dune couche dentre et dune couche comptitive en sortie.

Le rseau apprentissage
comptitif
de
Kohonen
(spcialisation du neurone )
sapproche le plus du type
de structure observ dans le
cerveau.
La rgle dapprentissage
modifie les poids du
neurone 1 de faon le
rapprocher
du patron
prsent au rseau.

Poids
du
rseau

I1

I2

W1

0.6

0.4

W2

0.4

0.6

Patron 1

1.0

0.0

Patron 2

0.8

0.2

Patron 3

0.0

1.0

Patron 4

0.2

0.8

i1

w1,1

e1

w2,1
w1, 2
i2

Couche
dentre

w2, 2

e2

Couche de
comptition

Le rseau SOM est parfaitement adapt pour lanalyse des donnes (regroupement
sous forme de nuage de donnes).
24

TYPES DE RSEAU NEURONAUX


Le rseau SOM de Kohonen (rseaux comptitifs)

100 points de donnes formant


un cercle unitaire

2 entres et 10 neurones dans la


couche comptitive

w1,1

w2,1

Les vecteurs poids suivent la courbe


de donnes aprs apprentissage.

e1
e2

w1, 2

e9

w2, 2

e10

Le graphique reprsente les poids de chaque neurone. Ils suivent la


courbe de donnes en positionnant les poids de chacun des
neurones au barycentre des nuages de donnes qui ont t cr.

25

LES APPLICATIONS

Classification de donnes vectorielles


Reconnaissance des formes
Approximation de fonction
Dtection de patrons dans un signal
Prdiction future selon des donnes passs
Contrle robotique (PID)
Compression de donnes
rgression linaire et non-linaire

26

APPLICATIONS DES RSEAUX NEURONAUX

NNTOOL (commande Matlab du toolboxes neural network)

27

APPLICATIONS DES RSEAUX NEURONAUX

Classification de donnes par rseau MLP.


Commande Matlab : Cration des donnes dapprentissage
x = randn([
o = (x

Sortie dsire o:
Si (x1,x2) est dans un cercle
de rayon 1 centr lorigine
Alors
o=1
Sinon
o=0

Les composantes dentres x1 et x2 sont


gnres partir de nombres alatoires.

Class 1
Class 0

-1

-2

-3
-3

-2

-1

28

APPLICATIONS DES RSEAUX NEURONAUX

Classification par rseau MLP.


Commande Matlab : Cration dun rseau deux couches
PR = [min(x( ,:)) max(x(

bornes de chacune des entres

min(x( ,:)) max(x(


S

nbr. de noeuds dans la couche 1 et 2

S
TF = 'logsig';
TF = 'logsig';
BTF = 'traingd';
BLF = 'learngd';

PF = 'mse';

net = newff(PR,[S S ],{TF


TF },BTF,BLF,PF);

fonction dactivation de la couche 1 et 2


fonction dentrainement
fonction dapprentissage
fonction cot (mean square error ou mse)
commande de cration du rseau
29

APPLICATIONS DES RSEAUX NEURONAUX

Classification par rseau MLP.


nbr. dpoque de calcul

net.trainParam.epochs =
net.trainParam.goal =

erreur maximale dsire

net = train(net,x,o);

commande dapprentissage

y = sim(net,x);

calcul en continu des sorties du rseau


conversion en sortie binaire

netout = y>

Structure du rseau
Noeud de sortie (Sigmoide)

x1
Noeuds dentres
x2

Unit de seuil
Couche cache (pour sortie binaire)
(sigmoide)

30

APPLICATIONS DES RSEAUX NEURONAUX

Classification par rseau MLP.


Initialisation alatoire des poids avant
le dbut du calcul. Affichage alatoire
des droites de sparation avant le
processus dapprentissage.

Class 1
Class 0

-1

-2

-3
-3

-2

-1

Le rseau calculera la valeur des poids et des biais qui ajustera les
droites de sparation selon la sortie dsire.

31

APPLICATIONS DES RSEAUX NEURONAUX

Classification par rseau MLP (trois types dalgorithme).


Mthode de descente
par le gradient

10

10

10

-1

-2

10

10

-3

0.5

1
20000 Epochs

1.5

2
x 10

Performance is 0.151679, Goal is 0.002

10

-1

-2

-3

Class 1
Class 0

10

10

10

0.5

1
20000 Epochs

MSE vs poques dapprentissage

10

Levenberg-Marquardt
Backpropagation

Training-Blue Goal-Black

10

Performance is 0.151511, Goal is 0.002

Training-Blue Goal-Black

Training-Blue Goal-Black

10

Descente de gradient
avec terme dinertie

1.5

2
x 10

-1

-2

-3

Class 1
Class 0

-1

-1

-2

-2

Erreur de classification : 40/200

10

Class 1
Class 0

-1

-2

-3

-3
-1

-2

MSE vs poques dapprentissage


(convergence atteinte en 10 poques)

-3

4
10 Epochs

-3

MSE vs poques dapprentissage

Performance is 0.00172594, Goal is 0.002

-3

-2

-1

Erreur de classification : 40/200


6 noeuds seulement sont ncessaires !

-3

-2

-1

Erreur de classification : 0/200


32

APPLICATIONS DES RSEAUX NEURONAUX

Reconnaissance de forme avec rseau MLP


Schmas synoptiques dun systme de reconnaissance de formes

Prtraitement des donnes images (Phytoplancton)


1

Image originale
en couleurs

Niveau de gris

Remplissage des vides

Filtre Sobel

Rehaussement de contraste

Linarisation de lobjet

Segmentation de limage

33

APPLICATIONS DES RSEAUX NEURONAUX

Reconnaissance de forme avec rseau MLP


Extraction des caractristiques de forme

On recherche linvariance en translation, en rotation et en homothtie en


groupant des moments centrs dordre p,q, par exemple M20+M02
Moments centrs dordre p,q

Moments lmentaires dordre p,q

M10 et M01 dfinissent le


centre de gravit de la
surface et M00 dfinit la
surface de lobjet

Axes principaux dinertie

Allongement et orientation
de la forme
34

APPLICATIONS DES RSEAUX NEURONAUX

Reconnaissance de forme avec rseau MLP


Base des exemples soumettre au rseau.
Prtraitement des donnes et normalisation.
Application des paramtres caractristiques
invariantes de la forme dans ltape du
processus dapprentissage.
Classement de la forme selon une tiquette
prsente au rseau comme sortie dsire.
Aprs apprentissage de la premire forme, on
retourne la base dexemple pour
lapprentissage de la forme suivante.
35

APPLICATIONS DES RSEAUX NEURONAUX

Reconnaissance de forme avec rseau MLP


Amlioration de la reconnaissance des formes

Les donnes dentres et de sortie doivent tre normalises. La normalisation


des donnes est le processus par lequel les donnes dentre et de sortie ont
des valeurs voluant entre -1 et +1.
On utilise au minimum deux couches caches denviron
une dizaine de neurones pour viter le sur-apprentissage.

On peut ajouter un bruit blanc aux formes qui sont prsentes lors de
lapprentissage du rseau pour amliorer la gnralisation. On utilise un
algorithme dapprentissage de type Levenberg-Marquard qui est le plus
adquat pour le rseau MLP.
36

APPLICATIONS DES RSEAUX NEURONAUX

Reconnaissance des signaux par rseau MLP

Signal analyser

Patrons de signaux

Le signal analyser provient dune machine usinage. Pour viter


dendommager la pice, un rseau de neurones dtecte les bris des outils
usiner (mches, fraiseuses) en reconnaissant les signaux prcurseurs un
mauvais fonctionnement qui endommagerais les pices usines.

Signal analyser
en temps rel

Passage dune
fentre de 10
chantillons par
intervalle dun
chantillon.

Processus de
reconnaissance
selon les 10
patrons appris par
le rseau MLP

Dcision sur la
commande de
lappareil (sortie [0.1
1.0])

37

APPLICATIONS DES RSEAUX NEURONAUX

Reconnaissance des signaux par rseau MLP


On utilise un rseau dune couche cache de 5 neurones avec fonction
dactivation logsig et un neurone en sortie avec fonction dactivation linaire
purelin .

y1

Contrle de la
machine usiner
[0.1 1.0]

La mise jour des poids se


fait par lalgorithme de
Levenberg-Marquard durant
ltape dapprentissage.

10 chantillons
prsents

lentre
du
rseau selon une
fentre glissante

y10

38

AVENIR DES RSEAUX NEURONAUX


Rseau de neurones circuit intgr

Implantation sous forme de circuit intgr dun rseau de neurone


lectronique contrle universel.
Le DANA23 (Digital Adaptive Neuro ASIC) contient un rseau
complet avec modification et sauvegarde des poids et biais avec un
algorithme dapprentissage intgr de type backpropagation modifi.
Caractristiques gnrales
Technologie: 0,35 CMOS
Dimension substrat: 35 mm2
Tension dalimentation: 3,3 V
Frquence horloge: 33 MHz
Puissance consomme: 0,5 W
Boitier de type: CQFP 208
Dimensions: 30,6 mm x 30,6 mm x 4,1 mm
Vitesse de traitement 33MHz: 45MCUPS1
39

AVENIR DES RSEAUX NEURONAUX


Rseau de neurones en circuit intgr

40

AVENIR DES RSEAUX NEURONAUX


La logique floue
La logique floue a t conceptualise en 1965 par Lofti Zadeh
Technique utilise en intelligence artificielle
Logique boolenne: 0: faux, 1:vrai
Logique floue: niveau dappartenance entre 0 et 1 laide dune fonction dappartenance.
La logique floue est complmentaire de la thorie des probabilit
La thorie des possibilit a t introduite en 1978 par Lofti Zadeh

Modle Mamdani

(interprtabilit)
Modle TSK (Takagi-Sugeno-Kang)
(Prcision)

41

AVENIR DES RSEAUX NEURONAUX

Processus de fuzzification: Passage dune grandeur physique une variable


linguistique.
Identification des variables linguistiques
Identification des valeurs linguistiques
Exemple dutilisation dune variable linguistique que lon nomme Puissance
Valeurs linguistiques de la variable linguistique Puissance
P pour positif, N pour ngatif, M pour moyen, Z pour grand et A pour petit, par
exemple, PZ signifie grand positif, NA signifie petit ngatif

Exemple du graphique de degr dappartenance

Fonction dappartenance triangulaire

AVENIR DES RSEAUX NEURONAUX

Rgles dinfrences: Processus permettant de tracer la fonction de sortie laide


des fonctions logiques valeurs multiples selon la base de connaissances.
Dfuzzification: Processus permettant le passage dune variable linguistique en
une grandeur physique.

Il existe deux mthodes de dfuzzification couramment utilise:

Mthode du maximum

Mthode du centre de gravit

43

AVENIR DES RSEAUX NEURONAUX

Commande FUZZY de la librairie fuzzy logic de Matlab


Modle

Variables linguistiques

Rgles dinfrence

Fonctions membres
44

AVENIR DES RSEAUX NEURONAUX

Affichage des rgles dappartenance

Surface des possibilits

45

AVENIR DES RSEAUX NEURONAUX

Le rseau neuro-flou
Le rseau neuro-flou a t propos par J. S. R. Jang. Cest la combinaison dun rseau de neurones
artificielles associ un systme de logique floue. Cette combinaison sapproche du raisonnement
humain (logique floue) dot de lapprentissage connexionniste (rseau de neurones formels).

Diagramme de connexion dun systme neuro-flou.

AVENIR DES RSEAUX NEURONAUX


Rseau de neurones biologiques sur substrat de silicium (neurochips)
Un groupe de chercheur du Caltech (institut de technologie de Californie) ont
russi la greffe dun neurone sur un substrat de silicium en 1991.

La surface lisse du silicium est un


environnement
idal
pour
la
croissance des cellules crbrales.
Conception prochaine de circuits qui
excutent des calculs analogiques
massivement parallles

La vision et les capacits de la mmoire neurologique excutent massivement des


oprations parallles impossibles reproduire mme sur les plus grands
superordinateurs du monde.

47

CONCLUSION

Les rseaux de neurones formels sont en constante volution et la nouvelle


vogue est la combinaison de diffrents types de rseaux accomplissant des
tches spcifiques collaborant avec la logique floue .

Loptimisation de la configuration des rseaux de neurones est actuellement


un problme ouvert. Il existe diverses techniques mais il reste trouver celle
qui optimise vraiment la configuration selon un schma thorique prcis.

Des recherches intensives sont en cours pour appliquer les rseaux SOM
(auto-organisateur) dans le secteur de lindustrie. La comprhension des
rseaux SOM permettra dapprocher le comportement du cerveau humain
en hybridation avec la logique floue.

Nous sommes encore loin de lpoque o un cerveau humain sera remplac


par une machine car les fonctions humaines mme les plus simples
demeurent encore ce jour un norme dfis pour la technologie.
48

Vous avez des questions???


Vous pouvez obtenir copie de cette prsentation sur le site
http://rlepage.uqar.qc.ca/

49