Vous êtes sur la page 1sur 54

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/333200979

République Algérienne Démocratique et Populaire Ministère de


l'Enseignement Supérieur et de la Recherche Scientifique POLYCOPIE DE
COURS COMMANDE AVANCEE « Logique floue et réseaux...

Book · May 2019

CITATIONS READS

0 527

1 author:

Kheira Mendaz

6 PUBLICATIONS   2 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Electrical machines and drives View project

All content following this page was uploaded by Kheira Mendaz on 19 May 2019.

The user has requested enhancement of the downloaded file.


République Algérienne Démocratique et Populaire

Ministère de l'Enseignement Supérieur et de la Recherche


Scientifique

Centre universitaire Belhadj Bouchaib Ain Temouchent


Institut des sciences et de la technologie
Département génie électrique

POLYCOPIE DE COURS COMMANDE AVANCEE


« Logique floue et réseaux de Neurone ‘ application à
l’électrotechnique’»

Parcours : commande système électrique M1


Année Universitaire : 2016-2017

Préparé et enseigné par :

Dr : Mendaz Keira

kheiram76@yahoo.com.
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

Ce cours intitulé « Commande avancée » s’inscrit dans le cadre de la formation en


Première Année MASTER en Electrotechnique de Centre Universitaire
Belhadj Bouchaib d’Ain Temouchent. Je considère que le contenu s’adapte bien
à la plupart des profils de formation de MASTER 1 en Electrotechnique auquel je
suis confronté. Il a été rédigé originellement à l’attention des étudiants du
Commande système électrique (CSE).

Ce cours est composé de deux (02) parties :


Partie 1 : la logique flou
Partie 2 : Réseau de Neurone

La première partie de ce cours concerne la commande par logique floue, dans cette
partie en fait comprendre aux étudiants le principe et les étapes nécessaire pour
avoir cette commande, il s’agit aussi de permettre aux étudiants de savoir les
différentes calcule qui se passe dans cette commande, et même comment ils
peuvent appliquer ce régulateur sur logiciel Matlab /Simulink.

La deuxième partie parle sur le réseau de Neurones, nous intéressons dans cette partie à
donné au étudiants un aidé sur le réseau Neurones où en cite leurs différentes
structures ainsi les algorithmes utilisées dans cette commande. Finalement en
riche l’information de ses étudiants par des exercices qui leur permettent de
savoir et comprendre plus les algorithmes de calcul qui sont utilisés surtout dans
le réseau de neurones multicouches.

L’objectif est de permettre à l’étudiant de se familiariser rapidement avec ces


deux commandes avancées qui sont la logique floue et le réseau de neurones, ainsi
comprendre le contenu et le principe de chaque commande et la différence entre
eux.

Finalement, ce document est dynamique. Des mises à-jour seront rendues disponibles
sur une base régulière. Je suis ouvert à toute suggestion de correction ou de
modification de la part des lecteurs intéressés par les matières présentées, j’espère
qu’ils y trouvent un support utile et un outil de travail intéressant, comme j’apprécie
fortement leurs réactions, critiques et conseils. Toute erreur ou ambigüité relevée peut
être communiqué à l’adresse suivante : kheiram76@yahoo.com.

Page 2
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

Table des matières


Avant-propos
PARTIE01 : LA LOGIQUE FLOUE

1. INTRODUCTION……………………………………………………………………..05
2. PRINCIPE……………………………………………………………………………...05
2.1.1. DIFFERENTES FORMES POUR LES FONCTIONS D’APPARTENANCE………07
2.2. OPERATEUR DE LA LOGIQUE FLOUE………………………………………07
3. REGLAGE ET COMMANDE PAR LOGIQUE FLOUE: …………………………………………….09
3.1. STRUCTURE D’UNE COMMANDE PAR LOGIQUE FLOUE ……………………….09
3.1.1. FUZZIFICATION…………………………………………………………………………………10
3.1.2. BASES DE REGLE ET METHODES D’INFERENCE…………………………………10
3.1.2.1. REGLE D’INFERENCE……………………………………………………………………10
3.1.2.2. DESCRIPTION DES REGLES PAR MATRICE D’INFERENCE………………11
3.1.2.3. LE CHOIX DES METHODES D’INFERENCE ………………………………………11
3.1.2.4. DEFUZZIFICATION…………………………………………………………………………13
4. AVANTAGES ET INCONVENIENTS DU REGLAGE PAR LOGIQUE FLOUE……………..14
4.1. AVANTAGE ………………………………………………………………………………………..14
4.2. INCONVENIENTS…………………………………………………………………………………14
5. EXERCICE………………………………………………………………………………………………………14
5.1. Exercice : 01………………………………………………………………………………………14
6. EXEMPLE D’APPLICATION DE LA LOGIQUE FLOUE (REGULATION DE LA VITESSE)
SOUS MATLAB/SIMULINK:………………………………………………………………………………19

PARTIE02 : RESEAU DE NEURONE


7. INTRODUCTION………………………………………………………………………………………………24
7.1. DU NEURONE BIOLOGIQUE AU NEURONE ARTIFICIEL…………………………25
7.1.1. CORRESPONDANCE NEURONE BIOLOGIQUE/FORMEL…………………………25
7.2. NEURONE ARTIFICIEL…………………………………………………………………………26
7.3. DEFINITIONS………………………………………………………………………………………26
7.4. TOPOLOGIES……………………………………………………………………………………….28
7.4.1. LE PERCEPTRON MONO-COUCHE (ROSENBLATT, 1958)………………………28
7.4.2. LE PERCEPTRON MULTI COUCHES (M.MINSKY AND S.PAPERT, 1969)…29
7.4.3. RESEAU A CONNEXIONS LOCALES……………………………………………………….29
7.4.4. RESEAU A CONNEXIONS RECURRENTES……………………………………………...30
7.4.5. RESEAU A CONNEXION COMPLETE……………………………………………………...30
8. APPRENTISSAGE D’UN RESEAU DE NEURONES……………………………………………….30
8.1. DEFINITION APPRENTISSAGE SUPERVISE ET APPRENTISSAGE NON
SUPERVISE……………………………………………………………………………………...30
8.1.1. APPRENTISSAGE NON-SUPERVISE ……………………………………………………...31
8.1.2. APPRENTISSAGE SUPERVISE (La rétropropagation) ……………………………31
8.1.3. APPRENTISSAGE PAR RENFORCEMENT : ……………………………………………31
9. ALGORITHMES D’APPRENTISSAGE………………………………………………………………….32
9.1. PRE-APPRENTISSAGE …………………………………………………………………………32
9.2. APPRENTISSAGE CONTINU………………………………………………………………….32
10. APPRENTISSAGE D’UN RESEAU DE NEURONES……………………………………………….32

Page 3
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

11. LE PERCEPTRON MULTICOUCHE (MLP)……………………………………………………….32


11.1. LA RETROPROPAGATION PAR DESCENTE DE GRADIENT……………………33
11.1.1. AJUSTER LE POIDS………………………………………………………………………………36
11.1.2. AJUSTER LE SEUIL D’ACTIVITATION (BIAIS)…………………………36
12. LES MODES D’APPRENTISSAGE PAR RETROPROPAGATION DE
GRADIENT……………………………………………………………………………36
13. EXERCICE ………………………………………………………………………………………………………37
13.1. EXERCICE: 01 ……………………………………………………………………………………..37
13.2. EXERCICE: 02………………………………………………………………………………………38
13.3. EXERCICE: 03………………………………………………………………………………………45
14. EXEMPLE D’APPLICATION DE RESEAU NEURONE SOUS MATLAB…………………….45
15. CREATION DE RESEAU DE NEURONE SOUS MATLAB…………….................47

Page 4
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

1. INTRODUCTION

La logique floue (en anglais fuzzy logic) est de grande actualité aujourd’hui. En
réalité elle existait déjà depuis longtemps et nous pouvons diviser son histoire de
développement en trois étapes. Ce sont les paradoxes logiques et les principes de
l’incertitude d’hersnberg qui ont conduit au développement de la « logique à
valeur multiples » ou » logique floue » dans les années 1920 et 1930.

Les bases théoriques de la logique floue ont été établies en 1965 par les
professeur Lotfi Zadeh. A cette époque, la théorie de la logique floue n’a pas été
prise au sérieux. Ses principes ont été appliqués en 1974 par E.H.Mamdani à la
construction d’un premier contrôleur flou.

Des 1975, on trouve les premières applications au niveau des systèmes de réglage.
A partir de 1985 environ, ce sont les Japonais qui commencent à utiliser la logique
floue dans des produits industriels pour résoudre des problèmes de réglage et de
commande.

2. PRINCIPE

Dans la théorie des ensembles conventionnelle, une chose appartient ou


n’appartient pas à un certain ensemble. Par exemple, ou exactement la différence
entre les notions de température moyenne ou plutôt faible ? Elles sont
relativement difficiles à spécifier de manière précise. C’est à partir de ce genre de
constatation que L. A. Zadeh a développé sa théorie. Il a défini les ensembles flous
comme étant des termes linguistiques du genre négatif, zéro, positif, petit,
grand…..Ces termes existant aussi dans les ensembles conventionnels. Cependant
ce qui différencie ces deux théories sur les ensembles proviennent des limites des
ensembles. Dans les ensembles flous, il permet qu’une chose appartienne
partiellement à un certain ensemble ; ceci s’appelle le degré d’appartenance qui
peut varier entre 0 et1. Dans les ensembles conventionnels le degré
d’appartenance est de 0 et1. Un exemple simple d’ensembles flous est la
classification des températures en trois ensembles : faible, moyenne, élevée. La
façon d’établir cette classification est présentée à la figure (I.1). [1][2] [3] [8]

Page 5
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

µ:Degré appartenance
µ:Degré appartenance

1
1 0.8

Moyenne Elevée
Faible
0.2

0 0
15 25 40 Température (0 c) 15 25 40 Température (0 c)

Logique floue Logique classique

Figure I.1. Classification des ensembles

En logique booléenne, le degré d'appartenance (µ) ne peut prendre que deux


valeurs (0 ou 1). La température peut être :

• Faible :  faible (T )  1,  moyenne(T )  0,  élevée (T )  0

• Moyenne :  faible (T )  0,  moyenne(T )  1,  élevée (T )  0

• élevée :  faible (T )  0,  moyenne(T )  0,  élevée (T )  1

Elle ne peut pas prendre deux qualificatifs à la fois.

En logique floue, le degré d'appartenance devient une fonction qui peut prendre
une valeur réelle comprise entre 0 et 1 inclus.

On note que les limites entre les trois sous ensembles ne varient pas
soudainement, mais progressivement.

Par exemple,  moyenne (T ) permet de quantifier le fait que la température puisse être
considérée, à la fois, comme faible avec un degré d’appartenance de 0,2 et comme
moyenne avec un degré d’appartenance de 0,8(figure I.1)

 faible (T )  0,2,  moyenne(T )  0,8,  élevée (T )  0

Page 6
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

2.1.DIFFERENTES FORMES POUR LES FONCTIONS D’APPARTENANCE

En générale, on utilise pour les fonctions d'appartenance trois formes


géométriques : trapézoïdale, triangulaire et de cloche. Les deux premières formes
sont les plus souvent employées en raison de leur simplicité. [3][4][10]

P2 = P3
P2 P3 P2 P3 P2 P3 P2 P3

P1 P4 P1 P4 P1 P4 P1 P4 P1 P4
Triangle Rectangle
Trapézoïdes

Figure I.2. Fonction d’appartenance de forme trapézoïdale, triangulaire,


rectangulaire

Dans la plupart des cas, en particulier pour le réglage par logique floue, ces deux
formes sont suffisantes pour délimiter des ensembles flous. Cependant, la forme
de cloche Fig (I.3) qui donne dans certains cas une meilleure représentation des
ensembles flous, peut être utilisée. [1] [4]

Cloche(Gaussienne )

Figure I.3. Fonction d’appartenance en forme cloche

2.2 OPERATEUR DE LA LOGIQUE FLOUE

Une fois ensemble flou définis on définit ensuite l’intersection, l’union de ces
ensembles ainsi que le complémentaire d’un ensemble flou. [8] [4] [6]

Ces relations sont traduites par les opérateurs « et », « ou » et « non »

 opérateur Non
 (I-01)
C  a  Non (a)
 c ( x)  1   a ( x)

Page 7
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

 opérateur Et

L’opérateur Et correspond à l’intersection de deux ensembles a et b et on écrit

C  a b

Dans le cas de la logique floue, l’opérateur Et est réalisé dans la plupart des cas par
la formation de minimum, qui est appliquée aux fonctions d’appartenance
 a ( x) et  b ( x) des ensembles a et b, à savoir :

c  min a .b  (I-02)

Ou  a ,  b et  c signifient respectivement le degré d’appartenance à l’ensemble a,


b et c on parle alors d’opérateur minimum.

 opérateur Ou

L’opérateur Ou correspond à l’union de deux ensembles a et b et on écrit :

C  a b

Il faut maintenant calculer le degré d’appartenance à l’ensemble c selon les degrés


des ensembles a et b. Cela réalise par la formation du maximum. On a donc
l’opérateur maximum.

 c  max  a . b  (I-03)

µa µa

1 1

0 0
x x
µb µb
1 1

0 0
x x
µc µc

1 1

0 0
x x
Opérateur ET Opérateur OU

x
0
X
Opérateur NON

Figure I.4.Opérateur de la logique floue

Page 8
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

3. REGLAGE ET COMMANDE PAR LOGIQUE FLOUE:

Des expériences ont montré que, dans de nombreux cas, les résultats obtenus avec
un régulateur flou (technique non conventionnelle) sont meilleurs que ceux
obtenus avec des algorithmes de contrôle conventionnels. Ainsi, le contrôle par la
logique floue peut être vu comme un pas vers un rapprochement entre le contrôle
mathématique précis et la prise de décision humaine. La commande par logique
floue est en pleine expansion. En effet, cette méthode permet d'obtenir une loi de
réglage souvent très efficace sans devoir faire des modélisations approfondies. Par
opposition à un régulateur standard ou à un régulateur à contre-réaction d'état, le
régulateur par logique flou (RLF) ne traite pas une relation mathématique bien
définie, mais utilise des inférences avec plusieurs règles, se basant sur des
variables linguistiques. Par des inférences avec plusieurs règles, il est possible de
tenir compte des expériences acquises par les opérateurs d'un processus
technique. [6] [7] [8]

Consigne + Erreur commande Sortie


Contrôleur Systéme
Flou
-

Figure I.5. Structure d’un réglage par logique floue

3.1 STRUCTURE D’UNE COMMANDE PAR LOGIQUE FLOUE

Un régulateur flou est un système à base de connaissance particulière composé de


quatre modules principaux à savoir : la base de règle, la Fuzzification, le moteur
d’inférence et la Defuzzification comme il est montré par la Fig (I.6): [8] [5] [4]

Figure I.6.Structure d’un contrôleur flou

Page 9
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

3.1.1 FUZZIFICATION

Dans ce bloc s’effectue la transformation des variables déterministes d’entrée en


variables linguistiques (en variables floues) avec la définition des fonctions
d’appartenances pour ces différentes variables d’entrée. Il n’existe pas de réglages
précis pour la définition des fonctions d’appartenances qui peuvent avoir
différentes formes. Les formes issues du modèle mathématiques sont les plus
utilisés : triangulaire, trapézoïdales, etc.……Les variables physiques d’entrée X
sont réduites en variables normalisés x dans une plage de variation, [-1, 1],
appelée univers de discours. Souvent, cet univers de discours est borné x  1
dans le but à pallier aux problèmes de variations de X. En générale, on introduit
pour une variable x trois, cinq, ou sept ensembles flous avec les désignations
standards suivantes :
NG (négatif grand ), NM (négatif moyen), NP(négatif petit ), EZ (environ zéro),
PP ( positif petit ), PM ( positif moyen), PG ( positif grand ).

On note qu’une subdivision très fine de l’univers de discours sur plus de sept
ensembles flous n’apporte en général aucune amélioration du comportement
dynamique de système à régules.

Ces ensembles flous n’ayant pas de supports disjoints et les fonctions


d’appartenance ne sont pas obligatoirement symétriques. [8] [1] [3] [10]

3.1.2 BASES DE REGLE ET METHODES D’INFERENCE

La base de règles représente la stratégie de commande et le but désiré par le biais


des règles commande linguistiques. Les règles proviennent donc des sources
suivantes: expériences d'experts et connaissances de commande, actions des
opérateurs de commande et apprentissage du régulateur. [4] [6] [7] [9]

3.1.2.1 REGLE D’INFERENCE

Nous pouvons établir les règles de commande, qui relient la sortie avec les
entrées. Comme nous l'avons constaté, il y a sept ensembles flous, ce qui implique
quarante-neuf combinaisons possibles de ces entrées, d'où quarante-neuf règles.
Les règles sont du genre: [3] [7] [8]

Régle1 : Si E  NG ET dE  NG alors dI sq  NG

Règle 2 : Si E  NG ET dE  NM alors dI sq  NG

Régle3 : Si E  PG ET dE  PG alors dI sq  PG

Définition des fonctions d’appartenance

NG : négatif grand.
N M: négatif moyen.
NP : petit positif.

Page 10
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

Z : zéro.
PP : petit positif.
PM: positif moyen.
PG: positif grand
3.1.2.2. DESCRIPTION DES REGLES PAR MATRICE D’INFERENCE.

E

PG
NG NM NP EZ PP PM
dE
NG NG NG NG NG NM NP EZ

NM NG NG NG NM NP EZ PP

NP NG NG NM NP EZ PP PM

EZ NG NM NP EZ PP PM PG
PP PG
NM NP EZ PP PM PG
G
PM NP EZ PP PM PG PG PG

PG EZ PP PM PG PG PG PG

Ex : Règle 35 : Si E = PG et
dE = PP

dI PG
alors qs =

Tableau I-1 : Table de règle pour RLF

3.1.2.3 LE CHOIX DES METHODES D’INFERENCE :

Il existe plusieurs possibilités pour réaliser les opérateurs qui s'appliquent aux
fonctions d'appartenance. On introduit alors la notion de méthode d'inférence.
Elle détermine la réalisation des différents opérateurs dans une inférence,
permettant ainsi un traitement numérique de cette dernière. [1] [4] [6] [8]

Pour le réglage la logique floue, on utilise en général une des méthodes suivantes :

 METHODE D'INFERENCE MAX-MIN « METHODE DE MAMDANI »

La méthode d’inférence max-min est réalisée, au niveau de la condition l’opérateur


« ET » par la formulation du minimum. La conclusion dans chaque règle, introduite
par « ALORS », lie le facteur d’appartenance de la prémisse avec la fonction
d’appartenance de la variable de sortie est réalisé par la formation du minimum.
Enfin l’opérateur «OU» qui lie les différentes règles est réalisé par la formation du
maximum. [6] [7] [9] [11]

Page 11
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

 METHODE D'INFERENCE MAX-PROD « METHODE DE LARSEN »

La méthode d’inférence max-produit est réalisée, au niveau de la condition,


l’opérateur «ET» par la formation du produit. La condition dans chaque règle,
introduite par «ALORS» est réalisée par la formation du produit. L’opérateur «OU»,
qui lie les différentes règles, est réalisé par la formation du maximum. [5] [1] [3]
[7]

Figure I.8.Exemple d’inférence Max-Prod

 METHODE D'INFERENCE SOMME-PROD

Dans cette méthode, l’opérateur « Et » est réalisé par le produit, de même que la
conclusion « Alors ». Cependant, l’opérateur « Ou » est réalisé par la valeur
moyenne des degrés d’appartenance intervenant dans l’interférence. [7] [5] [24]

3.1.2.4. DEFUZZIFICATION

Par cette étape se fait le retour aux grandeurs de sortie réelles. Il s'agit de calculer,
à partir des degrés d'appartenance à tous les ensembles flous de la variable de
sortie, l'abscisse qui correspond à la valeur de cette sortie. Différentes méthodes
sont utilisées : [2] [3] [9] [10]

 Méthode du centre de gravité :

C'est la méthode de Defuzzification la plus courante. L'abscisse du centre de


gravité de la fonction d'appartenance résultant de l'inférence correspond à la
valeur de sortie du régulateur. [1] [8] [11]

Page 12
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

 dI .  (dI ) . d (dI
ref ref ref
a a a )
dI ref
 (I-4)
  (dI ). d (dI )
a ref ref
a a

Il apparaît que plus la fonction d'appartenance résultante n’est compliquée, plus le


processus de Defuzzification devient long et coûteux en temps de calcul.

 Méthode par valeur maximum :

Cette méthode est beaucoup plus simple. La valeur de sortie est choisie
comme l'abscisse de la valeur maximale de la fonction d'appartenance. [1][2] [10]

Figure I-9-Defuzzification par valeur maximum


 Méthode des hauteurs pondérées :

Elle correspond à la méthode de centre de gravité quand les fonctions


d'appartenance ne se recouvrent pas. [3] [5] [24]
m

 Ri (dI aref ). dI aref


dI aref  i 1
m
(I-5)

i 1
Ri (dI ref
a )

Cette méthode est surtout utilisée quand les fonctions d'appartenance de la


variable de sortie sont des singletons. [7] [6] [10] [11] [24]

4. AVANTAGES ET INCONVENIENTS DU REGLAGE PAR LOGIQUE FLOUE

4.1. AVANTAGE :
 Pas besoin de modèle mathématique.
 Possibilité d’implémenter des connaissances linguistiques.
 Maîtrise de systèmes à régler avec un comportement complexe.
 Disponibilité des systèmes de développement efficaces, soit pour microprocesseur
ou PC « solution logiciel », soit pour les circuits intégrés (processeurs dédicacés,
fuzzy processors), « solution matérielle ».

Page 13
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

4.2. INCONVENIENTS :
 Manque de directives précises pour la conception d’un réglage.
 Les règles doivent être disponibles.
 Approche artisanale et non systématique.
 Aucune méthode formelle pour l’ajustement.

5. EXERCICE
5.1. Exercice : 01

Nous voudront réguler la vitesse de la machine à courant continue en utilisant le


régulateur logique floue, la figure (I.10) montre la fonction d’appartenance des deux
entrées de régulateur qui son la vitesse (W) et la dérivé de la vitesse (dW), ainsi la sortie
qui sera la tension(u).

 La vitesse à une degree appartenance de 0.5 à la fonction d’appartenance A1


(μW(A1) = 0.5), une degree appartenance de 0.33 a la fonction d’appartenance A2
(μW(A2) = 0.33) et une degree appartenance de 0.85 a la fonction d’appartenance
A3 (μW(A3) = 0.85).
 La dérivé vitesse à une degree appartenance de 0.25 à la fonction
d’appartenance B1 (μW(B1) = 0.25), une degree appartenance de 0.75 a la fonction
d’appartenance B2 (μW(B2) = 0.75) et une degree appartenance de 0.6 a la
fonction d’appartenance B3 (μW(B3) = 0.6).

Règle d’inférence
SI W est A1 OU dW est B1 ALORS u est C1
SI W est A2 ET dW est B2 ALORS u est C2
SI W est A3 ET dW est B3 ALORS u est C3

1. Déterminer la fonction d’appartenance résultant avec leur degré d’appartenance ?


2. En utilisant la Defuzzification (centre de gravité, hauteurs pondérées, maximum)
calculer la sortie en valeur réel ?

µ (W)
µ (dW)

1
Degré de vérité

1
Degré de vérité

0.8
0.8
0.6 A1
A2
A3 0.6
B1 B3
0.4 B2
0.4

0.2 0.2

14 15 16 17 18 19 20 21 22 23 24 25 26 0 10 20 30 40 50 60 70 80 90 100

Première entrée de régulateur deuxième entrée de régulateur


logique floue : Vitesse de MCC logique floue : la dérivé Vitesse
(W) de MCC(dW)

Page 14
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

µ( u )

Degré de vérité
1

0.8

0.6
C1 C3
C2
0.4

0.2

0 10 20 30 40 50 60 70 80 90 100 110

Sortie de régulateur logique floue


: La tension MCC ( u )

Figure I.10 Fonctions d’appartenance des deux l’entrées (vitesse (W) et dérivé de
vitesse (dW)) et de la sortie (tension)

SOLUTION

Le premier règle SI W est A1 OU dW est B1 ALORS u est C1

Dans ce premier règle en grade la fonction d’appartenance de la sortie u (la


tension) qui est C1 mais avec un degré d’appartenance de l’une de fonction
d’appartenance des entrées qui sera maximal par ce que nous avons utilisé
l’opérateur OU : W (vitesse) aura une fonction d’appartenance A1 avec un degré
d’appartenance μW(A1) = 0.5, dW aura une fonction d’appartenance B1 avec un
degré d’appartenance μW(B1) = 0.25 et nous avons utilisé l’opérateur OU entre ces
deux fonctions d’appartenances qui jouent le rôle de prendre le degré
d’appartenance maximal de l’une de fonction d’appartenance qui sera μW(A1) =
0.5, qui est illustré par la figure(I.10a).

Page 15
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

µ(W)
OU
µ( dW)

Degré de vérité
1

Degré de vérité
1
0.8
0.8
0.6 A1
A2
0.5 A3 0. 6
B1 B3
0.4 B2
0.4

0.2 0. 25
0.2

14 15 16 17 18 19 20 21 22 23 24 25 26 0 10 20 30 40 50 60 70 80 90 100

Première entrée de régulateur deuxième entrée de régulateur


logique floue
: Vitesse de MCC logique floue
: la dérivé Vitesse
(W) de MCC ( dW)

Alors

µ( u )
Dégré de vérité

0.8

0.6
0.5 C1 C3
C2
0.4

0.2

0 10 20 30 40 50 60 70 80 90 100 110

Sortie de régulateur logique floue


La tension de MCC ( u )

Figure I.10a : La fonction d’appartenance résultante avec leur degré d’appartenance pour
la première règle

La deuxième règle SI W est A2 ET dW est B2 ALORS u est C2

Dans La deuxième règle en grade la fonction d’appartenance de la sortie u (la


tension) qui est C2 mais avec un degré d’appartenance de l’une de fonction
d’appartenance des entrées qui sera minimal par ce que nous avons utilisé
l’opérateur ET : W (vitesse) aura une fonction d’appartenance A2 avec un degré
d’appartenance μW(A2) = 0.33, dW aura une fonction d’appartenance B2 avec un
degré d’appartenance μW(B2) = 0.75 et nous avons utilisé l’opérateur ET entre ces
deux fonctions d’appartenances qui jouent le rôle de prendre le degré
d’appartenance minimal de l’une de fonction d’appartenance qui sera μW(A2) =
0.33, qui est illustré par la figure(I.10b).

Page 16
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

µ( W)
ET
µ( dW)
Degré de vérité

Degré de vérité
1
0.8
0.8
0.6 A1 0. 75
A2
A3 0.6
B1 B3
0.4 B2
0. 33 0.4

0.2 0.2

14 15 16 17 18 19 20 21 22 23 24 25 26 0 10 20 30 40 50 60 70 80 90 100

Première entrée de régulateur deuxième entrée de régulateur


logique floue
: Vitesse de MCC logique floue
: la dérivé Vitesse
( W) de MCC (dW )

Alors

µ( u )
Dégré de vérité

0.8

0.6
C1 C3
C2
0.4
0. 33
0.2

0 10 20 30 40 50 60 70 80 90 100 110

Sortie de régulateur logique floue


La tension de MCC ( u )

Figure I.10b : La fonction d’appartenance résultante avec leur degré d’appartenance pour
la deuxième règle.

SI W est A3 ET dW est B3 ALORS u est C3

Dans La deuxième règle en grade la fonction d’appartenance de la sortie u (la


tension) qui est C3 mais avec un degré d’appartenance de l’une de fonction
d’appartenance des entrées qui sera minimal par ce que nous avons utilisé
l’opérateur ET : W (vitesse) aura une fonction d’appartenance A3 avec un
degré d’appartenance μW(A3) = 0.85, dW aura une fonction d’appartenance B3
avec un degré d’appartenance μW(B3) = 0.6 et nous avons utilisé l’opérateur ET
entre ces deux fonctions d’appartenances qui jouent le rôle de prendre le
degré d’appartenance minimal de l’une de fonction d’appartenance qui sera
μW(B3) = 0.6, qui est illustré par la figure(I.10C).

Page 17
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

µ(W)
ET
µ( dW)

Degré de vérité
1
0. 85

Degré de vérité
1
0.8
0.8
0.6 A1
A2 0.6
A3
B1 B3
0.4 B2
0.4

0.2 0.2

14 15 16 17 18 19 20 21 22 23 24 25 26 0 10 20 30 40 50 60 70 80 90 100

Première entrée de régulateur deuxième entrée de régulateur


logique floue
: Vitesse de MCC logique floue
: la dérivé Vitesse
(W) de MCCdW)
(

Alors

µ( u )
Dégré de vérité

0.8

0.6
C1 C3
C2
0.4
0. 33
0.2

0 10 20 30 40 50 60 70 80 90 100 110

Sortie de régulateur logique floue


le tension de MCC(u)
Figure I.10c : La fonction d’appartenance résultante avec leur degré d’appartenance pour
la troisième règle.

Donc la fonction d’appartenance résultante donnée par la figure suivante :

µ( u )

1
Degré de vérité

0.8

0.6
0.5 C1 C3
C2
0.4
0.33
0.2

0 10 20 30 40 50 60 70 80 90 100 110

Sortie de régulateur logique floue : la


tension
Figure I.10d: La fonction d’appartenance résultante.
Page 18
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

Calculant la sortie en utilisant la méthode de centre de gravité

Calculant la sortie en utilisant la méthode hauteurs pondérées

Calculant la sortie en utilisant la méthode valeur maximum

6. EXEMPLE D’APPLICATION DE LA LOGIQUE FLOUE (REGULATION DE LA


VITESSE) SOUS MATLAB/SIMULINK:

On présente ici le cas de réglage de vitesse de la machine à courant continue par


un régulateur logique flou (Figure I.11). Dans ce but, on mesure la vitesse avec un
capteur qui fournit la valeur de la grandeur à régler. On modélise le système avec
Matlab/Simulink.

Dans cet exemple nous avons utilisé deux régulateurs pour la régulation de vitesse
(régulateur proportienel intégral « PI » et régulateur logique floue) , en raison de tester la
performance de régulateur logique floue .

Les entrées de ce régulateur son l’erreur qui est la différence entre la vitesse de référence
(step)et la vitesse mésurée ( et aussi la dérivée de l’erreur, la sortie de ce
régulateur sera le couple électromagnétique (Ce), les fonctions d’appartenances des
entrées et sorties son illustré par la figure I.13.

Nous avons utilisé la méthode d’inférence max-min , comme nous appliquons l’opérateur
« ET » la figure I.12 montre les régles utilisent (neuf régles)ainsi la fonction
d’appartenance résultante, pour le calcul de la fonction d’appartenance résultante sous
form d’un paramétre nous avons utilisé la méthode de déffuzification « centre de
gravité ».

D’après le résultat obtenu (figure I.12) en vois la preformate de régulateur logique floue
par rapport au régulateur proportienel intégral « PI », et cette performance se voit dans la
stabilisation de signal de vitesse ainsi le temps de montée plus rapide que le temps de
montée pendant l’utilisation de régulateur proportienel intégral « PI ».

Page 19
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

I Ce

Step Scope1 courant couple Scope


1
W
Scope2
1 1
6 K
Wr
erreur1 v L.s+R
J.s+f
Gain2 transfert function1 Gain W1
transfert function

régulateur de vitesse
logique flou
charge

Gain1

t
Clock t

du/dt 1
Derivative1 v
Saturation1
Fuzzy Logic
1 Controller
erreur1

Figure I.11 Régulation de vitesse de MCC par logique flou et régulateur logique
floue.

Page 20
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

250

200

réponse de vitesse avec regulateurRLF


vitesse(rd/s)

150

réponse de vitesse son régulation


100

50

0
0 0.5 1 1.5 2 2.5 3
temps(s)

Page 21
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

Figure I.12 résultat de simulation de vitesse ainsi Interface de la logique floue


sous Matlab
ng ez pg
1

0.8
Degree of membership

0.6

0.4

0.2

-150 -100 -50 0 50 100 150


de

ng ez pg
1

0.8
Degree of membership

0.6

0.4

0.2

-250 -200 -150 -100 -50 0 50 100 150 200 250


e

Page 22
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

ng ez pg
1

0.8

Degree of membership 0.6

0.4

0.2

-15 -10 -5 0 5 10 15
du

Figure I.13 Fonctions d’appartenance de l’entrée (erreur « e » et sa dérivé « de »)


et de la sortie (commande « du »)

Page 23
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

7. INTRODUCTION

Un neurone est une cellule nerveuse constituant la base du système nerveux


spécialisée dans le traitement des signaux électriques. C'est en 1881 que le terme
de neurone fut inséré dans le vocabulaire médical par l'anatomiste allemand
Heinrich Wilhelm Waldeyer. En biologie, le cerveau humain contient un grand
nombre de neurones fortement interconnectés constituant des réseaux de
neurones. Chaque neurone est une entité autonome au sein du cerveau. Un
neurone comprend un corps cellulaire ou cellule somatique ou soma, centre de
contrôle de celui-ci, qui fait la somme des informations qui lui parviennent. Il
traite ensuite l'information et renvoie le résultat sous forme de signaux
électriques, du corps cellulaire à l'entrée des autres neurones au travers de son
axone. Les axones reliant les neurones entre eux jouent donc un rôle important
dans le comportement logique de l'ensemble. Le neurone est également constitué
de plusieurs branches nommées dendrites, qui sont les récepteurs principaux du
neurone, par lesquelles transite l'information venue de l'extérieur vers le corps
cellulaire. Les synapses du neurone quant à eux reçoivent les informations des
autres neurones via l'axone et permettent donc aux neurones de communiquer
entre eux. [12] [17] [18][21]
Les synapses ont une espèce de «mémoire» qui leur permet d'ajuster leur
fonctionnement. En fonction de leur activation répétée ou non entre deux
neurones, les connexions synaptiques vont se modifier. Certaines synapses vont
être excitatrices et activer les neurones et d'autres vont être inhibitrices et
stopper le signal électrique appelé aussi influx nerveux. Les synapses inhibitrices
assurent le contrôle du neurone et son bon fonctionnement. L'action inhibitrice
d’une synapse peut être suspendue temporairement dans certains cas tel que
l’apprentissage. Chez certaines personnes, le mécanisme responsable de
l'inhibition est altéré et entraîne une excitation durable des neurones pouvant
conduire à l’épilepsie.
Le traitement de l'information par chaque neurone montre que celle-ci n’est pas
stockée dans les neurones mais est bien le résultat du comportement de tout le
réseau interconnecté. L'information est donc principalement dans l'architecture et
dans la force des connexions neuronales.
Les neurones biologiques ont deux propriétés qui peuvent être appliquées au
niveau des neurones artificiels :
 l'excitabilité : c'est-à-dire la capacité de réagir sous l'effet de stimulations
extérieures et de convertir celles-ci en impulsions

Page 24
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

 la conductivité : c'est-à-dire la capacité de transmettre les impulsions nerveuses.

Figure 1.14: Schéma d'un neurone biologique

7.1. DU NEURONE BIOLOGIQUE AU NEURONE ARTIFICIEL

Les réseaux de neurones biologiques qui constituent le cerveau humain réalisent


simplement de nombreuses applications telles que la reconnaissance de formes, le
traitement du signal, la mémorisation, la généralisation, l'apprentissage par
l'exemple, etc. Or ces applications sont actuellement à la limite de leurs
possibilités actuelles, même en tenant compte de tous les efforts déployés en
algorithmique ou en intelligence artificielle. C'est à partir de l'hypothèse que le
comportement intelligent humain est le résultat de la structure et des éléments de
bases du système nerveux central (que sont les neurones), que l’on a développé
les réseaux de neurones artificiels. Cette inspiration à partir du modèle biologique
provient du fait que le cerveau humain est un système apprenant basé sur une
structure contenant environ 100 milliards de neurones reliés entre eux par 10000
contacts synaptiques ce qui représente un million de milliards de synapses.
Les réseaux de neurones artificiels sont donc un moyen de modéliser le
mécanisme d'apprentissage et de traitement de l'information qui se produit dans
le cerveau humain. [12]13] [18] [20]

Comportement Structure du Réseau de Comportement


du cerveau système nerveux Neurone intelligent
humain

7.1.2. Correspondance neurone biologique/formel


On peut résumer la modélisation du neurone formel à partir du neurone
biologique à l'aide du tableau suivant.
Neurone Neurone
biologique artificiel

Axones Signal de sortie


Dendrites Signal d'entrée
Synapses Poids de la
connexion

Tableau 1.3: Correspondance neurone biologique/formel

Page 25
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

7.2. NEURONE ARTIFICIEL

Un réseau de neurones est un outil puissant de la modélisation des


relations complexes entre les données d’entrée et de sortie. Le développement de
cette technologie a été motivé par l’ambition d’avoir un système artificiel capable
d’accomplir des tâches "intelligentes" de manière semblable à celles qui sont
exécutées par le cerveau humain. Un réseau de neurones ressemble au cerveau
humain dans le sens où il apprend des connaissances par apprentissage, et ses
connaissances sont stockées dans des connexions inter-neurones connues sous le
nom « poids synaptiques ». [12] [15] [16]
L'avantage des réseaux de neurones se situe dans leur capacité d'apprendre
à résoudre des problèmes complexes à partir la modélisation des exemples
d’apprentissage réels.

7.3. DEFINITIONS

Les réseaux de neurones sont des algorithmes d’apprentissage et


d'optimisation basés sur des concepts inspirés du fonctionnement d’un cerveau
humain. Ils se sont généralement constitués des cinq composants suivants : [12]
[14] [21]
1. Un graphe dirigé qui représente la topologie du réseau.
2. Une variable d'état associée à chaque nœud.
3. Un poids associé à chaque connexion.
4. Un biais associé à chaque nœud.
5. Une fonction de transfert pour chaque nœud qui détermine l'état d'un nœud en
fonction des poids de ses liens entrants, son biais et les états des nœuds reliés à ce
nœud. Cette fonction est habituellement une fonction sigmoïde.
Un réseau de neurones possède les avantages suivants :
un apprentissage adaptatif : qui est sa capacité d'apprendre comment résoudre de
nouvelles tâches basée sur l'expérience initiale ou les données d’apprentissage.
l’auto-Organisation : qui est la capacité d’un réseau de neurones à créer sa propre
architecture ou sa propre représentation d'information qu'il reçoit au cours de la
phase d’apprentissage.
exécution en temps réel : les calculs d’un réseau de neurones se font en temps réel
comme ils peuvent être effectués en parallèle à l’aide des dispositifs particuliers
Un neurone artificiel est une unité élémentaire qui reçoit un nombre
d'entrées ou des sorties en provenance des autres neurones du réseau, un poids
est associé à chacune de ces entrées qui représente la puissance de sa connexion
avec un neurone.
La figure 1.15 montre le modèle du neurone artificiel.

Page 26
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

Poids synaptique
Biais
b
X1
X2 w1
w2 Y=f(v)
Entrée

∑ v X

Sortie
Fonction
d’activation
wn
Xn Neurone additive

Figure 1.15: Le neurone artificiel

La sortie du neurone est une somme pondérée, de ses entrées plus un biais,
propagée par une fonction d’activation qui peut être (sigmoïde, tangente ou
hyperbolique, etc.) [11][16] [17]
(I-6)
(I-7)
: Est la valeur de la jeme
entrée du neurone, Est le poids synaptique
correspondant au neurone j, désigne le biais et la fonction d’activation. La
fonction la plus utilisée est du type sigmoïde. Elle est définie par :
(I-8)
Où δ dénote le paramètre de la sigmoïde qui définit le degré de non-linéarité.
L’utilisation d’une fonction d’activation non-linéaire permet au RNA de modéliser
des équations dont la sortie n’est pas une combinaison linéaire des entrées.
Cette caractéristique confère au RNA de grandes capacités de modélisation
fortement appréciées pour la résolution de problèmes non-linéaires. Voici
quelques exemples de fonctions d’activation :

5
0.9

4
0.8
3

0.7
2

0.6 1

0.5 0

-1
0.4
-2
0.3
-3

0.2 -4

0.1 -5
-5 -4 -3 -2 -1 0 1 2 3 4 5

0
-8 -6 -4 -2 0 2 4 6 8

Page 27
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0

-0.2 -0.2

-0.4 -0.4

-0.6 -0.6

-0.8 -0.8

-1 -1
-5 -4 -3 -2 -1 0 1 2 3 4 5 -5 -4 -3 -2 -1 0 1 2 3 4 5

7.4. TOPOLOGIES

Un réseau de neurones résulte de l'arrangement du modèle de base du neurone


individuel dans diverses configurations. Plusieurs architectures sont donc
envisageables.
On doit cependant réaliser que les algorithmes utilisés pour entraîner les RNA ont
une adéquation très forte avec une architecture donnée, c'est-à-dire qu'ils leurs
sont intimement liés. Jusqu'à ce jour, plusieurs topologies et algorithmes
d'apprentissage ont été imaginés et conçus : [16] [18]

7.4.1. LE PERCEPTRON MONO-COUCHE (ROSENBLATT, 1958) :

Développé par Rosenblatt en 1958, c’est le premier réseau à avoir vu le jour. De


type feedforward, il ne contient qu’une couche de neurones d’entrée et une couche
de sortie. Tous les neurones de la couche d’entrée sont reliés à ceux de la couche
de sortie. Ils ne manipulent que des valeurs binaires et la fonction d’activation
consiste en un simple seuil. [12] [13] [17]
Il est capable de simuler des opérations logiques simples comme les portes
logiques And ou Or qui sont linéairement séparables. Son apprentissage s’effectue
selon la règle de renforcement de Hebb.

X1 Y1

X2 Y2

X3 Y3

La Couche La Couche
d’entrée de sortie

Figure 1.16: Le perceptron de Rosenblatt

Page 28
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

7.4.2. LE PERCEPTRON MULTI COUCHES (M.MINSKY AND S.PAPERT, 1969)

Un réseau de neurones est un ensemble de processeurs élémentaires, les


neurones qui sont largement connectés les uns aux autres et qui sont capables
d'échanger des informations au moyen des connexions qui les relient. Les
connexions sont directionnelles et à chacune d'elle est associé un réel appelé poids
de la connexion. [12] [13] [15]
L'information est ainsi transmise de manière unidirectionnelle du neurone j vers
le neurone i, affectée du coefficient pondérateur wij.
Un neurone calcule son état à d'informations venues de l'extérieur, ou bien il
détermine son entrée à partir des neurones auxquels il est connecté et calcule son
état comme une transformation souvent non linéaire de son entrée.
Il transmet à son tour son état vers d'autres neurones ou vers l'environnement
extérieur.

1
X1
Out1
Y1

X2 1
Out2
Y2
X3 1

Out3
Y3

Input Hiden Output


layer layer layer

Couche Couche Couche de


d’entrée caché sortie

Figure 1.17: Topologie d’un réseau multicouche (MLP)

7.4.3. RESEAU A CONNEXIONS LOCALES

Il s'agit d'une structure multi couche mais qui, à l'image de la rétine, conserve une
certaine topologie. Chaque neurone entretient des relations avec un nombre
réduit et localisé de neurones de la couche avale (Figure 1.18). Les connexions
sont donc moins nombreuses que dans le cas d'un réseau multicouche classique.
[12][14] [15]
1
X1
Out1
Y1

X2 1
Out2
Y2
X3 1

Out3
Y3

Input Hiden Output


layer layer layer

Couche Couche Couche de


d’entrée caché sortie

Figure 1.18: Réseau à connexion local.

Page 29
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

7.4.4. RESEAU A CONNEXIONS RECURRENTES

Les connexions récurrentes ramènent l'information en arrière par rapport au sens


de propagation défini dans un réseau multicouches. Ces connexions sont le plus
souvent locales (Figure 1.19). [12] [15]

1
Out1
Y1

1
Out2
Y2
1

Out3
Y3

Figure 1.19: Réseau à connexions récurrentes

7.4.5. RESEAU A CONNEXION COMPLETE

C’est la structure d'interconnexion la plus générale (Figure 1.20).Chaque neurone


est connecté à tous les neurones du réseau (et à lui-même). [13] [14] [12]

Figure 1.20: Réseau à connexion complète.

8. APPRENTISSAGE D’UN RESEAU DE NEURONES

8.1. DEFINITION APPRENTISSAGE SUPERVISE ET APPRENTISSAGE NON


SUPERVISE

L’apprentissage est une phase du développement d’un réseau de neurones durant


laquelle le comportement du réseau est modifié jusqu’à l’obtention du
comportement désiré. [19] [20] [21]
On distingue deux grandes classes d’algorithmes d’apprentissage :
 L’apprentissage supervisé
 L’apprentissage non supervisé

Page 30
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

8.1.1. APPRENTISSAGE NON-SUPERVISE :

Il n’y pas de connaissances à priori des sorties désirés pour des entrées données.
En fait, c’est de l’apprentissage par exploration où l’algorithme d’apprentissage
ajuste les poids des liens entre neurones de façon à maximiser la qualité de
classification des entrées. [18] [20] [23]
ENTREES

réseau sortie obtenue

Figure 1.21: Apprentissage supervisé

8.1.2. APPRENTISSAGE SUPERVISE (La rétropropagation) :

Cet algorithme d’apprentissage ne peut être utilisé que lorsque les combinaisons
d’entrées-sorties désirés sont connues. [20] [21] [22]

L’apprentissage est alors facilité et par là, beaucoup plus rapide que pour les deux
autres algorithmes puisque l’ajustement des poids est fait directement à partir de
l’erreur, soit la différence entre la sortie obtenue par le RNA et la sortie désirée.

superviseur sortie désirée


ENTREES

erreur

réseau sortie obtenue

Figure 1.22: Apprentissage supervisé

8.1.3. APPRENTISSAGE PAR RENFORCEMENT :

Dans ce cas, bien que les sorties idéales ne soient pas connues directement, il y a
un moyen quelconque de connaître si les sorties du RNA s’approchent ou
s’éloignent du but visé. Ainsi, les poids sont ajustés de façons plus ou moins
aléatoire et la modification est conservée si l’impact est positif ou rejetée sinon.
[17] [18] [20]

Page 31
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

9. ALGORITHMES D’APPRENTISSAGE

9.1. PRE-APPRENTISSAGE :

Une fois l’apprentissage terminé, la structure et les poids entre les neurones sont
fixés. Lorsque la tâche à effectuer par le RNA ne change pas significativement avec
le temps, un RNA statique peut être très efficace et beaucoup plus simple
d’implémentation. Par ailleurs, il n’est alors pas aussi important de se soucier de la
simplicité de la fonction d’apprentissage et de la rapidité de convergence du RNA.
[20] [21] [27]

9.2. APPRENTISSAGE CONTINU :

Un apprentissage continu est requis lorsque les combinaisons d’entrées-sorties


idéales risquent de changer avec le temps ou selon diverses conditions externes.
Le gain de flexibilité inhérent à la capacité d’adaptation du RNA s’obtient au
détriment d’une implémentation plus complexe du système puisque l’algorithme
d’apprentissage doit alors être intégré à la structure de calcul du RNA.
pour un système en temps réel, la rapidité d’adaptation ou de convergence de la
fonction d’apprentissage devient alors un facteur très important.
la complexité d’implémentation de la fonction d’apprentissage devient également
un élément à considérer dans le choix de l’algorithme d’apprentissage, parfois au
détriment de la performance. [18] [22][24]

10. APPRENTISSAGE D’UN RESEAU DE NEURONES

L’apprentissage est une phase du développement d’un réseau de neurones durant


laquelle le comportement du réseau est modifié jusqu’à l’obtention du
comportement désiré. [16] [18] [23] [26]
L’ajustement du poids des liens entre les neurones peut s’effectuer selon diverses
équations mathématiques, dont la plus populaire est sans aucun doute la loi de
Hebb.
 le choix de l’équation d’adaptation des poids dépend en grande partie de la
topologie du réseau de neurones utilisé.
 Notons qu’il est aussi possible de faire évoluer l’architecture du réseau, soit le
nombre de neurones et les interconnexions, mais avec d’autres types
d’algorithmes d’apprentissage.

11. LE PERCEPTRON MULTICOUCHE (MLP)

Le perceptron multicouche (MLP) est l’exemple le plus répandu des


classificateurs neuronaux employés dans le domaine de la reconnaissance. Un
MLP est composé d'une couche d'entrée dont la taille est égale à la taille des
données d'entrée, une ou plusieurs couches cachées dont la taille est déterminée
par essai et la couche de sortie dont la taille est égale au nombre de classes du
problème à résoudre.[14] [15] [18] [20] [25]

Page 32
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

Dans les réseaux MLP, chaque neurone est relié à un certain nombre d'entrées qui
peuvent être les données d'entrée ou les sorties des couches précédentes (Figure
I.23).
Chacune de ces entrées est pondérée par un poids synaptique ; le poids total d’un
neurone est le produit scalaire entre les entrées et leurs poids correspondant avec
addition d’un biais (b) :
(I-9)

X1
Y1

X2
Y2

X3 Y3

La Couche
La Couche La Couche de sortie
d’entrée caché

Figure 1.23: Structure d’un MLP

Un algorithme d’apprentissage tel que la rétropropagation de gradient est


appliqué pour ajuster les poids en réduisant au minimum une fonction d’erreur
qui est, en général, la somme des erreurs quadratiques entre la sortie du réseau de
neurones et la sortie attendue.

11.1. LA RETROPROPAGATION PAR DESCENTE DE GRADIENT

Cet algorithme évalue l'erreur de gradient pour chaque neurone dans le


réseau depuis la dernière couche jusqu’à la première. Les poids produisant une
erreur significative seront modifiés en grande valeur par rapport aux poids
produisant une erreur marginale. La rétropropagation par descente de gradient a
été efficacement employée pour l’apprentissage d’un MLP ; son principe est de
converger de manière itérative vers un ensemble optimal des poids synaptiques.
Dans le cas de l’apprentissage supervisé, les sorties sont fournies à l'avance ; la
différence entre ces sorties et les sorties du réseau (après propagation de
l'information par une fonction d'activation) constitue l'erreur à réduire au
minimum par rétropropagation tout en ajustant les poids. [13] [15] [20] [21] [22]
Cette étape est répétée plusieurs fois jusqu'à ce que le réseau puisse offrir
la meilleure prévision.
Dans certains cas l'algorithme de la rétropropagation de gradient ne peut
pas échapper des optimums locaux, pour cette raison, un poids momentum a été

Page 33
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

ajouté à la formule de rétropropagation permettant à l'algorithme d'échapper aux


optimums locaux.
Pour des raisons de simplicité, nous avons choisi de schématiser ce processus de
recherche à travers la figure suivante qui résume les étapes principales de l’algorithme
de la rétropropagation de gradient :

Initialisation de poids et biais

Propagation de l’information à travers des fonctions


d’activation

Calcul des sorties correspondantes


Pour un Nbr dépoques

Calcul Fitness = somme des erreurs quadratiques entre les sorties


trouvées et les sorties prévues

Retour en arriére pour la correction des poids basée


gradient

Memoriser les meilleurs poids et biais

Non
OUI
n
Fi

Tester le réseau basé sur les meilleurs poids et biais

Figure 1.24 : L’algorithme de la rétro-propagation de gradient

Page 34
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

L'algorithme de rétropropagation par descente de gradient suit les étapes


suivantes : [22] [23] [24] [26]
 De chaque neurone, l'information est propagée à la couche suivante en utilisant
une fonction d'activation (habituellement une fonction sigmoïde) appliquée au
produit scalaire des entrées et les poids correspondants :
b1 b3
+1
+1

δh1
W31 δθ3
W11 Y3 d3: valeur désiré (mesuré)
X1 W3
W12 2
1
W21 W4 Y4 d4: valeur désiré(mesuré)
W42 δθ4
δh2
X2 W22
+1 +1
b2 b4

La Couche La Couche
d’entrée La Couche de sortie
caché

Figure I.25 : principe d’une structure multicouche


(I-10)
(Fonction sigmoïde) (I-11)
δ: dégrée de non linéarité=1
(I-12)
(I-13)
(I-14)
(I-15)
(I-16)
(I-17)
(I-18)
(Erreur) (I-19)
(Erreur) (I-20)
(Gradient) (I-21)
(I-22)

(I-23)
(Gradient) (I-24)

Page 35
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

(I-25)
(I-26)
(Gradient) (I-27)
(I-28)
(Gradient) (I-29)
(I-30)

11.1.1 AJUSTER LE POIDS

(I-31)

0 et 1. L’introduction de ce terme aide aussi le réseau à ne pas rester emprisonné dans


le minimum local.

(I-32)
(I-33)
(I-34)
(I-35)
(I-36)
(I-37)
(I-38)
(I-39)

11.1.2. AJUSTER LE SEUIL D’ACTIVITATION (BIAIS)

(I-40)
(I-41)
(I-42)
(I-43)
(I-45)

12. LES MODES D’APPRENTISSAGE PAR RETROPROPAGATION DE


GRADIENT

Il existe trois principaux modes d’apprentissage par descente de gradient, selon la


manière dans laquelle les poids synaptiques sont mis à jour :
Le premier est l’apprentissage "en ligne" : il consiste à mettre à jour les poids
synaptiques après chaque présentation d’un caractère au hasard. Dans ce cas, le
gradient instantané de la fonction de performance est employé pour l'adaptation
des poids. [23] [24] [27][15]

Page 36
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

L’apprentissage en ligne rend la recherche stochastique, il est donc moins


probable de tomber dans des minima locaux.
Le deuxième mode dit "hors ligne" consiste à accumuler les gradients consécutifs
et puis de mettre à jour les poids après que tous les caractères d’apprentissage
sont présentés.
Le troisième mode d’apprentissage connu "semi-ligne" semble être comme
solution de compromis entre les deux modes précédents en ligne et hors-ligne. Il
consiste à présenter consécutivement les exemples de chaque classe, pour
accumuler les gradients instantanés, et puis de mettre à jour les poids. Ce procédé
est ainsi répété pour d’autres exemples d'une autre classe et ainsi de suite.
Des expérimentations sur le perceptron multicouche pour la classification de 26
lettres latines ont montré que le mode en ligne et le mode "semi-ligne" sont plus
efficaces que le mode hors-ligne

13. EXERCICE
13.1 EXERCICE: 01

Voici une perception MLP qui constitue d’une couche d’entrée porté trois
neurones et couche cachée aura deux neurones, et la couche de sortie constitue
un seul neurone qui est montré par la figure suivante (Figure I.26) :
Avec δ=1 (dégrée de non linéarité)

Yd=1 (valeur
désiré)

5
4
5=
W15=2

W2
.39
=-3

3 4
5
W0

=5
=1

=4
=3

W24
3

23
W0

=6
W13

W
4

=-6
W1

4
W0
0 1 2
X0=1 X1=1
X2=0

Figure 1.26: structure multicouche (trois neurones d’entrées, deux neurones


cachés, un neurone de sortie)

 Calculer l’erreur ?
La sortie de neurone 3

La fonction d’activitation de la sortie de neurone3

Page 37
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

La sortie de neurone 4

La fonction d’activitation de la sortie de neurone3

La sortie de neurone 5

La fonction d’activitation de la sortie de neurone3

Donc l’erreur égale :


(Erreur=valeur désiré-valeur de sortie)

13.2 EXERCICE: 02

Voici une perception MLP qui constitue d’une couche d’entrée porté deux
neurones et couche cachée aura deux neurones, et la couche de sortie constitue
un seul neurone qui est montré par la figure suivante (Figure I.27) :

δ=1 (dégrée de non linéarité)

Trouver la valeur minimale de l’erreur après trois itérations ?

b1=0.1 b3=0.2
+1
+1

δh1
W11=-0.2 W31=0.2 δθ1
Y3 d3: valeur désiré (traget
X1=0.1 input)=0.9
W12
=- 0 .3
0.1 0 .1 2=
2 1= W3
W
3 δh2
X2=0.9 W2 2=0.

+1
b2=0.1

La Couche La Couche
d’entrée La Couche de sortie
caché

Figure 1.27: structure multicouche (deux neurones d’entrées, deux neurones


cachés, un neurone de sortie)

Page 38
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

SOLUTION

1ERE ITERATION

(Fonction sigmoïde)

- =0.281

Calcule le gradient de chaque neurone :

AJUSTE LE POIDS

Page 39
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

AJUSTE LE SEUIL D’ACTIVITATION

Page 40
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

Alors la structure MLP porte des nouveaux poids et seuil d’activitation qui sont
calculé dans la 1ére itération (le poids et biais ajusté), à partir des ces paramètres
on peut passer à la 2éme itération.

b’1=0.1008 b’3=0.2066
+1
+1

δ’h1
W’11=-0.1999 W’31=0.2090 δ’θ1
Y’3 d3: valeur désiré (traget
X1=0.1 8 input)=0.9
W’12 08 .3 09
= 0.1 =0
0.09 - = ’32
99 21
W’ W
011 δ’h2
=0.3
X2=0.9 W’22
+1
b’2=0.1012

La Couche La Couche
d’entrée La Couche de sortie
caché

Figure 1.28: nouvel structure multicouche après ajustement de poids et biais


dans la 1ére itération

2EMEITERATION

(Fonction sigmoïde)

Page 41
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

Calcule le gradient de chaque neurone :

AJUSTE LE POIDS

Page 42
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

AJUSTE LE SEUIL D’ACTIVITATION

3EMEITERATION

Après l’ajustement de poids et de seuil d’activitation (biais) en peut passer à la


troisième itération pour calculer l’erreur. Donc dans cette itération la structure
MLP doit porter des nouveaux poids et biais qui sont ajusté dans la deuxième
itération (Fig 1.29).

Page 43
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

b’’1=0.1011 b’’3=0.234
+1
+1

δ’’h1
W’’11=-0.1998 W’’31=0.2184 δ’’θ1
Y’’3 d3: valeur désiré (traget
X1=0.1 9 input)=0.9
W’’1 9
83 . 31
2=
0.09 - . 10 =0
=0 ’32
W’
98 ’2 1
W’ 3019 δ’’h2
2=0.
X2=0.9 W’’2
+1
b’’2=0.1021

La Couche La Couche
d’entrée La Couche de sortie
caché

Figure 1.29: nouvel structure multicouche après ajustement de poids et biais


dans la 2éme itération

Page 44
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

REMARQUE

D’après les trois itérations par l’utilisation de l’algorithme gradient en vois


l’ajustement de poids et le seuil d’activitation nous permet d’avoir une
minimisation de l’erreur.

13.3 EXERCICE: 03

Voici une perception MLP qui constitue d’une couche d’entrée porté deux
neurones et couche cachée aura trois neurones, et la couche de sortie constitue un
seul neurone qui est montré par la figure suivante (Figure I.30) :

δ=1 (dégrée de non linéarité)

Yd=1 (valeur
désiré)

5
.39
= -3
=4
5
W2
=2

45
W35

2 W
3
4

4
=
12
W
=5
W02

=3
=1

=6
W13
03

14

6
4=-
W

W0
0 1
X0=1 X1=1

Figure 1.30: structure multicouche (deux neurones d’entrées, trois neurones


cachés, un neurone de sortie)

Trouver la valeur minimale de l’erreur après cinq itérations en utilisant la


méthode de Gradient ainsi donné pour chaque nouvelle itération leur structure?
Que vous remarquez?
14 EXEMPLE D’APPLICATION DE RESEAU NEURONE SOUS MATLAB.

La fonction rands crée des neurones dans un modèle hasard bidimensionnelle. La


figure I.29 montre la génération d’un motif hasard de neurones.

P = rands(2,9) : création de neuf neurones qui son en rouge connecté en bleu d’un
modèle hasard bidimensionnelle.

Page 45
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

plotsom(P) : montre comment afficher une couche bidimensionnelle avec des


neurones disposés d’un modèle hasard.

P = rands(2,9);

plotsom(P)

Neuron Positions

0.4

0.2

0
position(2,i)

-0.2

-0.4

-0.6

-0.8

-0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8


position(1,i)

P = rands(2,15); création de quinze neurones qui son en rouge connecté en bleu d’un
un modèle hasard bidimensionnelle.
P = rands(2,15);
plotsom(P)
Neuron Positions

0.8

0.6

0.4

0.2
position(2,i)

-0.2

-0.4

-0.6

-0.8
-0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1 1.2
position(1,i)

Figure 1.31 : position de Neurone

Page 46
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

15 Création de réseau de Neurone sous Matlab

Nous souhaitons construire un réseau de neurone artificiel multi couche pour


l’approximation d’une fonction sinus et exponentiel, premièrement nous avons
utilisé meshgrid pour créer un graphique de surface de cette fonction (Figure1.31)
(Meshgrid est limité à l'espace cartésien bidimensionnel ou tridimensionnel).
Après en construire un réseau de neurone multi couche qui contient dans la
couche d’entrée 02 neurones, couche cachés 12 neurones et la couche de sortie 02
neurones. Le réseau utilise par défaut l’algorithme de Levenberg-Marquardt pour
la formation de réseau neurone en utilise la fonction « trainlm » qui met à jour le
poids et des valeurs des seuils d’activitation selon l'optimisation Levenberg-
Marquardt. Pour former le réseau, entrer: Nnet = train (Nnet, X, D) (Figure 1.32)
Pendant la formation, la fenêtre de formation suivante s'ouvre. Ces affichages de
fenêtre formant le progrès et vous permettant d'interrompre la formation à
n'importe quel point en cliquant StopTraining. Cette formation s'est arrêtée
quand l'erreur de validation a augmenté durant 50 itérations, si vous cliquez
Performance dans la fenêtre de formation, un affichage des erreurs d’une
formation et des erreurs de tests apparaît, comme indiqué dans la figure (1.33).
Dans cet exemple, le résultat est raisonnable à cause des considérations suivantes :
 L'erreur carrée moyenne finale est petite.
 où on a obtenu la meilleure performance de validation a l’itération 50.
Si vous cliquez Regression dans la fenêtre de formation (training window), Vous
pouvez exécuter une régression linéaire entre les productions de réseau et les
cibles correspondantes.
La figure 1.34 montre le résultat. En remarque l’affichage des sorties du réseau
en fonction des cibles pour la formation, où les sorties du réseau sont égales aux
cibles. Pour ce problème, l'ajustement est raisonnablement bon pour tous les
ensembles de données, avec des valeurs R dans chaque cas de 0.97 ou plus. Si des
résultats encore plus précis étaient nécessaires.
La figure 1.35 montre un graphique de surface avec des lignes de contour 2-D ci-
dessous avant l’apprentissage. La barre de couleurs à droite indique comment les
valeurs de données de l'axe z correspondent aux couleurs des graphiques de
surface et de contour. Après l’apprentissage la surface se modifie et sera plus
améliorée même contiennent moins des contours comparant aux surfaces avant
l’apprentissage.
*net.trainParam.epochs : nombre d’époque de calcul
*net.trainParam.goal : erreur maximale désirée
*net = train (net, x, D) : commande d’apprentissage
*y = sim (Nnet, x) : calcul en continu des sorties du réseau
*MnMx = [-2 2; -2 2]: Gamme d'entrées
*Number of inputs excluding bias : Nombre de neurone de la couche d'entrées
excluant les biais (seuil d’activitation).
*Number of hidden signals excluding bias: Nombre de neurone de la couche cachés
excluant les biais (seuil d’activitation).
*Number of output : Nombre de neurone de la couche de sortie.
 %Generation of training points
na = 16; N = na^2; nn = 0:na-1;
X1 = nn*4/na - 2;

Page 47
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

[X1 X2] = meshgrid(X1);


R = -(X1.^2 + X2.^2 +0.00001);
D1 = X1 .* exp(R); D = (D1(:))';
D2 = 0.25*sin(2*R)./R ; D = [D ; (D2(:))'];
Y = zeros (size(D)) ;
X = [X1(:)'; X2(:)'];
figure(1), % myfigA(1, 11, 10)
surfc([X1-2 X1+2], [X2 X2], [D1 D2]),
title('Two 2-D target functions'),
grid on, drawnow
% print(1, '-depsc2', 'p2LM1')
% network specification
p = 2 ; % Number of inputs excluding bias
L = 12; % Number of hidden signals excluding bias
m = 2 ; % Number of outputs
MnMx = [-2 2; -2 2] ;
Nnet = newff (MnMx, [L, m]); % Network creation
Nnet.trainParam.epochs = 50;
Nnet.trainParam.goal = 0.0016;
Nnet = train(Nnet, X, D) ; % Training
grid on, hf = gcf ;
set(hf, 'PaperUnits', 'centimeters', 'PaperPosition', [0 0 10 11] );
% print(hf, '-depsc2', 'p2LM3')
Y = sim(Nnet , X) ; % Validation
D1(:)=Y(1,:)'; D2(:)=Y(2,:)';
% Two 2-D approximated functions are plotted side by side
figure(2), % myfigA(2, 11, 10)
surfc([X1-2 X1+2], [X2 X2], [D1 D2])
title('function approximation')
grid on, drawnow

Page 48
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

Figure 1.32 Création réseau de neurone

Page 49
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

Best Training Performance is 0.0023312 at epoch 50


0
10
Train
Best
Goal

Mean Squared Error (mse)


-1
10

-2
10

-3
10
0 5 10 15 20 25 30 35 40 45 50
50 Epochs

Figure 1.33 réponse de meilleur résultat d’erreur après 50 itérations

Training: R=0.9735

Y=T
Fit
Output ~= 0.94*Target + 0.0019

0.4
Data

0.2

-0.2

-0.4
-0.4 -0.2 0 0.2 0.4
Target
Figure 1.34 résultat effectuer une régression linéaire entre les sorties du réseau et la
valeur désiré

Page 50
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

Two 2-D target functions

0.5

-0.5
2
1 4
0 2
0
-1 -2
-2 -4

function approximation

0.5

-0.5

-1
2
1 4
0 2
0
-1 -2
-2 -4

Figure 1.35 Surfaces modélisées par le réseau de neurones après apprentissage.

Page 51
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

BIBLIOGRAPHIE

[1] Isabelle Borne


« Introduction à la commande floue », Edition: Technip,01-03-1998.
[2] Bernadette Bouchon-Meunier
« La logique floue », Edition: PUF,15-08-2007.
[3] Bernadette Bouchon-Meunier, Laurent Foulloy, Mohammed Ramdani
« Logique floue ‘Exercices corrigés et exemples d'applications’ »,
Edition: Cépaduès,15-01-1998.
[4] Louis Gacogne
« Eléments de logique floue», Edition: Hermès - Lavoisier,22-01-1997.
[5] Jelena Godjevac
« Idées nettes sur la logique floue», première édition: Presse Polytechnique et
universitaire Romandes, 1999.
[6] Henk Scholten
« Logique floue et régulation PID», Edition: Publitronic-Elektor, 01-12-1995.
[7] Buhler Hansruedi
« Réglage par logique floue», Edition: Presse Polytechnique et universitaire
Romandes, 1994.
[8] Constantin Von Altrok
« Fuzzy Logic and Neuro Fuzzy Applications Explained », Edition: illustrée,
réimprimée, 01-01-1995.
[9] Timothy J. Ross
« Fuzzy Logic with Engineering Applications», 3 éme Edition: Publishers Wiley,
2010.
[10] Bhargava A.K.
« Fuzzy Set Theory Fuzzy Logic and their Applications», Edition: S Chand &
Company, 01-12-2013.
[11] Shinghal Rajjan
«Introduction to Fuzzy Logic», Edition: Prentice Hall India Learning Private
Limited, 2012.
[12] Roland Longchamp
« Commande numérique de systèmes dynamiques: cours d'automatique ‘Méthode
Avancée 2», Volume 2, Edition: Presse Polytechnique et universitaire Romandes,
2006.
[13] Pierre Borne, Mohamed Benrejeb, Joseph Haggège
« Les réseaux de neurones ‘Présentation et applications’ », Méthodes et pratiques
de l'ingénieur, Edition: Technip,30-07-2007.
[14] Jean-Philippe Rennard
« Réseaux neuronaux ‘Une introduction accompagnée d'un modèle Java’» Edition:
Vuibert , 13-02-2006.

Page 52
Cours commande avancée « logique floue et réseaux de Neurone’’ application à l’électrotechnique’’»

[15] Alain Faure


« Classification et commande par réseaux de neurones» Edition: Hermès -
Lavoisier, 14-11-2006.
[16] Wulfram Gerstner
« Réseaux de neurones artificiels ’une introduction à l’apprentissage automatique»,
4éme édition, 2006.
[17] Verginie Mathivet
« L'Intelligence Artificielle pour les développeurs » Edition: ENI, décembre 2014.
[18] François Blayo et Michel Verleysen
«Les réseaux de neurones artificiels», Edition: PUF, 1996.
[19] LUGER George F
“Artificial Intelligence: Structures & Strategies for complex problem solving”,
4ème edition, Addison-Wesley, 2002.
[20] Jean –Michel Renders
« Algorithmes génétiques et réseaux de neurones : applications à la commande de
processus”, Edition: Lavoisier,15-04-1996.
[21] Laurent Miclet et Antoine Cornuéjols
« Apprentissage artificiel - Concepts et algorithmes Broché », 2ème
édition: EYROLLES, 03-06-2010.
[22] Stuart Russel et Peter Norvig
« Intelligence artificielle», 3ème édition: Pearson éducation, 10-12-2010.
[23] Jean-Claude Heudin
« Comprendre le Deep Learning: Une introduction aux réseaux de neurones »,
Edition: Science eBook, 02-11-2016.
[24] Groussard Thierry, Rohaut Sébastien
« Java - Comprendre et mettre en place les principes de base de l'intelligence
Artificielle», Edition: ENI, 02-11-2016.
[25] NORGAARD. M, RAVN. O, Poulsen. N.K et Hansen. L. K
« Neural networks for modelling & control of dynamic systems (POD)»,
Edition: Springer, 02-2000.
[26] J.HINES Wesley
« Matlab supplement to fuzzy and neural approaches in engineering»,
Edition: Series, Simon. Hayken, 08- 1997.
[27] J. Stuart Russell, Peter Norvig
« Artificial Intelligence: A Modern Approach», Edition: Pearson, 2015.

Page 53

View publication stats

Vous aimerez peut-être aussi