net/publication/338517191
CITATIONS READS
0 219
1 author:
Radhwane Sadouni
Université de Ghardaia
15 PUBLICATIONS 41 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
DTC-SVM Multi-level, DPC-SVM Rectifier, PVG with MPPT, robust control, DSIM View project
All content following this page was uploaded by Radhwane Sadouni on 10 January 2020.
Université de Ghardaia
Cours
Commande Intelligente
Spécialité:
Master 2_Automatique et Systèmes
Par:
Dr. Radhwane SADOUNI
Avant-propos
1. Introduction…………………………………………………………………..…....2
2. Bref historique…………………………………………………….……………....2
3. Logique classique et logique floue…………………………………….…….….3
4. Principe de la commande floue………………………………….……………...4
5. Structure d’un contrôleur flou……………………………………….………….5
5.1. Bloc de fuzzification…………………..……………….……...……….....5
5.2. Base des règles et mécanisme d’inférence……………………...……..6
5.2.1. Méthode d’inférence max-min (méthode de MAMDANI)………...7
5.2.2. Méthode d’inférence max-produit (méthode de LARSEN.......…...7
5.2.3. Méthode de SUGENO………………………………………………….7
5.3. Bloc de Défuzzification……………………………………………….…..8
5.3.1. Méthode du centre de gravite…………………………………..…….8
5.3.2. Méthode par valeur maximale………………………………..…..…..8
5.3.3. Méthode de la moyenne des maximums…………………………….9
6. Avantages et inconvénients de la logique floue………………………………9
6.1. Avantages de la logique floue………………………………...…………9
6.2. Inconvénients de la logique floue…………………………………........9
7. Exemples d’application de la logique floue…….…………..………………..10
7.1. Réglage de la vitesse d’un moteur à courant continu……………...10
7.2. Réglage de niveau dans un réservoir d’eau…………………..….....18
7.3. Régulation de la température……………………………………..…. 22
8. Conclusion………………………………………………………...……………...24
1. Introduction:
De nos jours, la logique floue (en anglais fuzzy logic) est un axe de recherche
important sur lequel se focalisent de nombreux chercheurs. Des applications
technologiques sont maintenant disponibles, tant dans le domaine grand public
(appareils photos, machines à laver, fours à micro-onde, … etc.), que dans le
domaine industriel (réglage et commande de processus complexes liés à l’énergie,
aux transports, à la transformation de la matière, à la robotique, aux machines-
outils).
La logique floue est une logique qui substitue à la logique binaire une logique
fondée sur des variables pouvant prendre, outre les valeurs (vrai 1) ou (faux 0),
les valeurs intermédiaires «vrai» ou «faux» avec une certaine probabilité (un
certain degré d’appartenance).
Les performances que la commande floue peut apporter par comparaison avec
les commandes classiques, sont essentiellement dues à la méthode de conception
de ces régulateurs. En effet, ces derniers ne nécessitent pas la connaissance des
modèles mathématiques du système. Par contre ils ont besoin d’un ensemble de
règles basées essentiellement sur les connaissances d’un opérateur qualifié
manipulant le système.
2. Bref historique:
Les origines de la logique floue se trouvent dans le principe de l’incertitude de
Heisenberg dans les années 20, les physiciens ont introduit la troisième valeur ½
dans le système logique bivalent {0, 1}. Au début des années 30, le logicien
polonais Jan Lukasiewicz a développé le système logique avec trois valeurs.
En ce qui suit, un bref historique sur la parution et les premières applications
de la logique floue:
1965: Le Professeur: L.A. Zadeh de l’Université de Berkeley (Californie) pose
les bases théoriques de la logique floue.
1973: L.A. Zadeh propose d’appliquer la logique floue aux problèmes de
réglage.
1974: Première application du réglage par la logique floue appliquée à une
turbine à vapeur. Suivie en 1980 par une application sur un four à ciment et en
1983 sur un épurateur d’eau.
1
Froid Chaud
T(°C)
0 20 40
Fig. I.1: Classification selon la logique classique
20,1°C est chaude? Alors que en réalité que ces deux valeurs sont presque les
mêmes.
La logique floue envisage le problème d’une autre façon:
μ(T)
Froid Chaud
1
0.5
T(°C)
0 10 20 30 40
Fig. I.2: Classification selon la logique floue
Cette représentation indique que la valeur de 20°C est considérée «froid» avec
un degré d’appartenance µ= 0,5 (50%) à la fonction d’appartenance «froid», et
«chaud» avec le même degré d’appartenance (même taux de présence). Ainsi, la
valeur 30°C considérée «chaud» à µ=1 et «froid» à µ=0.
Contrôleur flou
Mécanisme
Fuzzification d’inférence Défuzzification
Base des
règles
Exemple:
La figure (Fig. I.4) illustre un exemple de fuzzification d’une variable x en
cinq (5) sous-ensembles flous.
NG NP EZ PP PG
1
0.5
0
-1 -0.5 0 0.5 1
E
du
NG NP EZ PP PG
NG NG NG NP NP EZ
NP NG NP NP EZ PP
de EZ NP NP EZ PP PP
PP NP EZ PP PP PG
PG EZ PP PP PG PG
x ( x)dx
xG u x0
x1
(I.1)
( x)dx
x0
(x)
x
x0 xG x1
u(x)
1.0
0.8
0.6
0.4
0.2
x*=1.9
0
0 2 4 6 8 10
Où: M est l’ensemble des points pour lesquels la fonction d’appartenance est
maximale.
Le schéma électrique d’un moteur à courant continu à excitation série est donné
par la figure ci-dessous:
La
id
Bobinage d’inducteur
Ra Bobinage
d’induit ud
MCC e
Paramètres du moteur:
Ra=8 Ω: La résistance d’induit.
La=0.0597 H: L’inductance de l’inducteur.
J=0.003 kg.m²: L’inertie.
f=0.002 Nms/rd: Le coefficient de frottement.
Le schéma bloc du MCC sans réglage de la vitesse est donné par la
figure suivante:
Ud + La partie Id Cm + La partie w
X- Km X-
électrique mécanique
E Cr
di d ( t )
ud ( t ) e( t ) R a .i d ( t ) L a . En appliquant la transformée de Laplace, on
dt
aura:
Ud (s) E(s) Ra .Id (s) La .s.Id (s)
Ud + La partie Id
X-
électrique
E
1
I d (s ) I d (s ) 1 Ra
G(s)
U d (s) E(s) (R a L a .s)Id (s) (R a L a .s) (1 Te .s)
La
Te : Constante du temps électrique.
Ra
Cm + La partie w
X-
mécanique
Cr
w 1
F(s)
Cm (s) Cr (s) f j.s
e
K1
K3 ___
1 Sortie
w +* s
Erreur du
___ K2 de
X-
dt Fuzzy Logic
w Controller
(a) (b)
Fig. I.11: FIS editor
Les opérations de
base de la logique
floue
NB:
- Le mot Aggregation (en français Agrégation) veut dire: rassemblement,
collecte.
- Le mot Inference (en français Inférence) vient du verbe: inférer qui veut
dire: tirer une conséquence de quelque chose, conclure, déduire.
NG EZ PG NG EZ PG
1 1
Degree of membership
Degree of membership
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
-200 -100 0 100 200 -200 -100 0 100 200
e de
NG EZ PG
1
Degree of membership
0.8
0.6
0.4
0.2
0
-15 -10 -5 0 5 10 15
du
Fig. I.12: Fuzzification des entrées et de la sortie en 3 sous ensembles flous
e
du NG: Négatif Grand
NG EZ PG
NG NG NG EZ EZ: Environ Zéro
de EZ NG EZ PG PG: Positif Grand
PG EZ PG PG
On a 2 entrées avec 3 sous ensembles flous pour chacune, donc on aura 9 règles.
Exemple d’une règle:
Dans la logique floue, les règles sont de la forme: si (condition sur l’entrée) alors
(action sur la sortie).
If (de is NG) and (e is NG) then (du is NG)
Après le chargement des règles qui est l’étape finale du projet de conception d’un
régulateur flou, on doit le nommer et le sauvegarder, pour pouvoir l’utiliser par la
suite.
Remarques:
- Le projet a une extension: .fis (exemple: TP1.fis).
- Pour pouvoir l’utiliser dans le Simulink, on doit introduire un bloc qui
s’appelle «Fuzzy Logic Controller» et qui se trouve dans:
Library_Fuzzy Logic_Toolbox, ce bloc doit porter le même nom du projet
(TP1).
- Le projet est inconnu par l’espace de travail (Workspace), et pour le rendre
connu on doit l’exporter vers le Workspace en cliquant sur:
File_Export_To Workspace.
NG N Z P PG NG N Z P PG
1
Degree of membership
1
Degree of membership
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
-200 -100 0 100 200 -150 -100 -50 0 50 100 150
e de
NG N Z P PG
1
Degree of membership
0.8
0.6
0.4
0.2
0
-200 -100 0 100 200
du
e
du
NG N EZ P PG
NG NG NG NG N EZ
N NG NG N EZ P
de EZ NG N EZ P PG
P N EZ P PG PG
PG EZ P PG PG PG
Résultats de simulation:
150 160
Vitesse (rad/s)
155
100
Zoom 150
50 w* 145
w.PI
w.FLC
140
2 3 4 5 6
0
0 1 2 3 4 5 6
Temps(s)
150
160
100
155
Vitesse(rad/s)
50
Zoom
0 150
-50
w* 145
-100 w.PI
w.FLC
140
-150 1.6 1.8 2 2.2 2.4 2.6 2.8
0 1 2 3 4 5 6
Temps(s)
Fig. I.14: Régulation de la vitesse d’un MCC avec application d’un Cr à t=2s
40
La commande (V)
150
20
100
0
Vitesse(rad/s)
50 -20
0 -40
-50 -60
w* 0 2 4 6
10
-100 w.PI Temps(s)
w.FLC
-150
0 1 2 3 4 5 6 Zoom 0
Temps(s)
-10
- Variation de la charge: [0, 1, 3, 0] N.m : 0 2 4 6
150
Vitesse(rad/s)
100
50 w*
w.PI
w.FLC
0
0 1 2 3 4 5 6
Temps(s)
D’après les résultats on remarque que le réglage flou donne des meilleures
performances par apport au régulateur classique PI, en termes de poursuite de la
consigne, le temps de montée et le rejet de perturbation. En plus il est insensible
aux variations paramétriques du système (dans ce cas (cas d’un MCC) l’influence
de la variation paramétrique ne se voit pas clairement, par contre elle est bien
claire dans la machine asynchrone par exemple), ceci revient au fait que la
conception d’un régulateur flou ne tient pas en compte les paramètres du système
à commander.
Schéma de principe:
Réservoir d’eau
Entrée de l’eau
Le niveau H
Données:
La vitesse d’entrée est proportionnelle à la tension V appliquée à la pompe:
Wentrée = b.V
La vitesse de sortie est proportionnelle à la racine carrée de la hauteur:
Wsortie =
Modèle mathématique:
L’équation différentielle de la hauteur d’eau H dans le réservoir est donnée par:
dV ol dH
V ol A.H A. b.V a. H
dt dt
Est une fonction du temps à cause de la différence entre les débits entrants et les
débits sortants.
Simulink:
Perturbations
V Réservoir H
H
dH
A. b.V a. H
dt
dH b a
.V . H
dt A A
dH b a
dt
A .V A . H
b a
H A .V A . H
Input Output
+
b/A X 1/s
V - H
+ +
Hréf +X err V V H X Hréelle
- -
PID Flou Réservoir
Open Block
e
V
N Z P
N NG N Z
de Z N Z P
P Z P PG
N Z P N Z P
1 1
Degree of membership
Degree of membership
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
-50 0 50 -50 0 50
e de
1NG N Z P PG
Degree of membership
0.8
0.6
0.4
0.2
0
-50 0 50
V
Fig. I.15: Fonctions d’appartenance des entrées et de la sortie
Résultats de simulation:
- Choisissant une hauteur de référence (le niveau d’eau désiré) égale à 70m.
- Appliquant une perturbation égale à -10 à t=3s, et une autre perturbation
égale à +10 à t=8s.
Avec: a=10; b=20; A=25;
Voici les résultats de simulation obtenus:
400
La commande
80
200
La hauteur (m)
60
0
Hréelle Href
40 0 2 4 6 8 10
Temps(s)
10
20
0
Zoom 0
0 2 4 6 8 10
-10
Temps(s) 0 5 10
80
60
Hauteur (m)
40 Hréelle
20
Href
0
0 2 4 6 8 10
Temps (s)
Fig. I.17: Poursuite du niveau d’eau avec une consigne variable
20 80
Température (°C)
La commande
60
15
40
10 20
0
T* 0 5 10 15 20 25
5
T.PI Temps(s)
T.FLC3
T.FLC5
0
0 5 10 15 20 25
Temps(s)
25
20
Température (°C)
15
10
T*
5 T.PI
T.FLC3
T.FLC5
0
0 5 10 15 20 25
Temps(s)
8. Conclusion:
La logique floue est l’une des techniques de l’intelligence artificielle qui nous
permet de modéliser les connaissances d’un expert humain ayant une parfaite
maitrise sur le système à commander.
Le régulateur flou possède de très bonnes performances dynamiques par
apport au régulateur classique, en outre, il est robuste vis-à-vis la variation
paramétrique du modèle. Ceci revient au fait que la synthèse du contrôleur flou
ne se repose pas sur la connaissance a priori du modèle de synthèse décrivant la
dynamique réelle du système à commander.
L’inconvénient majore de cette technique est le manque des directives précises
pour la conception d’un régulateur floue.
1. Introduction………………………………….…………………………...……...25
2. Le neurone biologique……………………………….………………………….25
3. Le neurone formel (Artificiel)…..……………………………………....……..26
4. Différents modèles des réseaux de neurones………………………………..27
4.1. Réseaux de neurone monocouches…………………………………….27
4.2. Réseaux de neurone multicouches…………………………....……….28
5. Structure des réseaux de neurones…………………………………………..29
6. L’apprentissage d’un réseau de neurones…………………………………...30
6.1. Apprentissage supervisé…………………………...………………...…30
6.2. Apprentissage non supervisé……………………...…….…………..…31
7. Méthodes d’apprentissage des réseaux de neurones……………………....31
7.1. Apprentissage des RNA monocouche…………………………………31
7.2. Apprentissage des RNA multicouche…………………………………35
8. Utilisation des instructions sous Matlab pour le calcul
neuronal…………………………………………………...…………………...…38
8.1. Les réseaux de neurone monocouche……………………….…………38
8.2. Les réseaux de neurone multicouche…………………….……………40
9. Exemples d’application des RNA dans la commande…………………...…41
9.1. Réglage de niveau dans un réservoir d’eau …………………………41
9.2. Régulation de la température……………………………………….....43
10. Conclusion………………………………………………………………………..44
1. Introduction:
L’origine des réseaux de neurones vient de l’essai de modélisation
mathématique du cerveau humain. Les premiers travaux datent de 1943, ils
supposent que l’impulsion nerveuse est le résultat d’un calcul simple effectué par
chaque neurone et que la pensée née grâce à l’effet collectif d’un réseau de
neurones interconnectés. Ils ont connu des débuts prometteurs vers la fin des
années 50, mais le manque d’approfondissement de la théorie a gelé ces travaux
jusqu’aux années 80.
Les réseaux de neurones artificiels, ou réseaux neuromimétiques, sont des
modèles inspirés du fonctionnement cérébral de l’être humain et de ses capacités
d’apprentissage. Ce sont des structures organisées autour d’un ensemble de
cellules (les neurones) interconnectées selon une certaine architecture par des
liens pondérés et modifiables lors d’une procédure appelée apprentissage.
Ils sont employés dans toutes sortes d’applications et dans divers
domaines. Ils sont d’excellent candidat pour résoudre les problèmes de
modélisation, d’identification et de contrôle des processus non linéaires et
complexes.
2. Le neurone biologique:
Le neurone biologique comprend essentiellement:
- Les dendrites: qui sont les récepteurs principaux du neurone, captant les
signaux qui lui parviennent.
- Le corps cellulaire: qui fait la somme des influx qui lui parviennent; si cette
somme dépasse un certain seuil, il envoie lui-même un influx par l’intermédiaire
de l’axone.
- L’axone: qui permet de transmettre les signaux émis par le corps cellulaire
aux autres neurones.
- Les synapses: qui permettent aux neurones de communiquer avec les autres
via les axones et les dendrites.
La figure (Fig. II.1) présente les éléments principaux d’un neurone biologique:
x1 w1
x2 w2 Sommation
xi wi
Σ u
f(x) y
Sortie
Fonction
Seuil d’activation
xn wn
Les entrées Poids
synaptiques
Le neurone formel peut être défini, d’une façon plus générale, par les
éléments suivants:
1- Les entrées du réseau neurone: Elles peuvent être binaires (0, 1) ou
réelles.
2- Fonction d’activation: Est une fonction mathématique qui permet de
définir l’état interne du neurone en fonction de son entrée totale, la figure ci-
dessous présente quelques fonctions les plus souvent utilisées:
Cours: Commande Intelligente 26 Master2_Automatique et Systèmes
Partie II Réseaux de Neurones Artificiels
Biais 1 w0
x1 w1 Σ y
x2 w2
x x o x x o
o x o o o x
OR AND XOR
Entrées Sorties
Structure simple
monocouche ou multicouche Structure complexe
(Feed forward) (Hopfield et Kohonen)
(Fig. II.4 et Fig. II.6) (Fig. II.7 et Fig. II.8)
x1 y1
x2 y2
xn yn
d(n)
w
x(n) y(n) +
RNA
-
e(n)
Algorithme
d’adaptation
w
x(n) y(n)
RNA
Algorithme
d’adaptation
Méthodes d’apprentissage
Méthode de la Méthode de la
descente de gradiant rétro-propagation du
gradiant
Méthode Widrow-Hoff
Exemple:
Le tableau suivant montre une classification de deux catégories représentées
par deux couleurs différentes rouge et bleu:
1+
Signum x 0 1
x 0 1
-1
Schéma synoptique:
Bias
X0 1 w0
X1 R w1
Σ Sig y
X2 V w2
X3 B w3
Entrées Poids
La phase d’apprentissage:
Voici les étapes à suivre pour faire l’apprentissage du neurone:
1- Initialisation des poids (on donne des poids initiaux).
2- Application des entrées.
3- Calcul de la somme des produits (SOP).
4- Calcul de la réponse de la fonction d’activation, ce qui va nous donner la
sortie yj.
5- Adaptation des poids (uniquement dans le cas où la sortie calculée est
différente de la sortie désirée) on utilisant la formule (II.1).
6- Retour à l’étape numéro 2.
- Step n=1
X(n)=X(1)=[X0, X1, X2, X3]=[+1, 248, 80, 68]
W(n)=W(1)=[ W0,W1, W2, W3]=[-1, -2, 1, 6.2]
d(n)=d(1)= -1
SOP=(+1)(-1)+(248)(-2)+(80)(1)+(68)(6.2)= 4.6
y(n)= y(1)=Sig(SOP)= Sig(4.6)= +1 donc:
Lorsque n=1, y(n)≠d(n), c-à-d: la sortie mesurée est différente de la sortie
désirée, donc les poids sont incorrectes, donc une adaptation des poids est
nécessaire.
Adaptation des poids:
W(n+1)= W(n)+α[d(n)-y(n)].X(n)
Quand n=1:
W(1+1)= W(1)+0.001[d(1)-y(1)].X(1)
W(2)= [-1, -2, 1, 6.2]+0.001[-1-(+1)] [+1, 248, 80, 68]
W(2)= [-1, -2, 1, 6.2]-0.002[+1, 248, 80, 68]
W(2)= [-1.002, -2.496, 0.84, 6.064]: les nouveaux poids (on va les utiliser dans
les prochaines étapes).
- Step n=2
X(n)=X(2)= [+1, 0, 0, 255]
W(n)=W(2)= [-1.002, -2.496, 0.84, 6.064]
d(n)=d(2)= +1
SOP= 1545.32
y(n)= y(2)=Sig(SOP)= Sig(1545.32)= +1 donc:
Lorsque n=2, y(n)=y(2)=d(2)= +1 c-à-d: la sortie mesurée=la sortie désirée,
donc les nouveaux poids sont correctes, donc pas d’adaptation des poids.
- Step n=3
X(n)=X(3)= [+1, 67, 15, 210]
W(n)=W(3)= [-1.002, -2.496, 0.84, 6.064]
d(n)=d(3)= +1
SOP= 1349.542
y(n)= y(3)=Sig(SOP)= Sig(1349.542)= +1 donc:
Lorsque n=3, y(n)=y(3)=d(3)= +1 c-à-d: la sortie mesurée=la sortie désirée,
donc les poids sont correctes, donc pas d’adaptation des poids.
NB: On n’a pas encore terminé, il faut appliquer les nouveaux poids sur les
deux premiers cas (n=0 et n=1) (il faut que les nouveaux poids soient valables
avec tous les cas).
- Step n=4
X(n)=X(4)= [+1, 255, 0, 0]
W(n)=W(4)= [-1.002, -2.496, 0.84, 6.064]
d(n)=d(4)= -1
SOP= -637.482
y(n)= y(4)=Sig(SOP)= Sig(-637.482)= -1 donc:
Lorsque n=4, y(n)=y(4)=d(4)= -1 c-à-d: la sortie mesurée=la sortie désirée,
donc les poids sont correctes, donc pas d’adaptation des poids.
- Step n=5
X(n)=X(5)= [+1, 248, 80, 68]
W(n)=W(5)= [-1.002, -2.496, 0.84, 6.064]
d(n)=d(5)= -1
SOP= -31.306
y(n)= y(5)=Sig(SOP)= Sig(-31.306)= -1 donc:
Lorsque n=5, y(n)=y(5)=d(5)= -1 c-à-d: la sortie mesurée=la sortie désirée,
donc les poids sont correctes, donc pas d’adaptation des poids.
Comme ça, les poids sont vérifiées avec tous les cas, et dans tous les cas on a
trouvé que la sortie mesurée=la sortie désirée et donc:
[-1.002, -2.496, 0.84, 6.064]: poids optimaux.
Calcul de l’erreur
e=ydésirée-yactuelle
Calcul des Δj
Δj=e*der[Sig(yj)]
y4=Sig(x1.W14+x2.W24-1.θ4)=Sig(0.89853+0.99853+0.09853)=0.8803
y5=Sig(y3.W35+y4.W45-1.θ5)=Sig(0.5278*-1.2067+0.8803*1.0888-0.3127)=0.00887
Donc:
e=ydés-ycal=0-0.00887= -0.00887→ de l’ordre de 10-3
neuronal:
8.1. Les réseaux de neurone monocouche:
- Définir les entrées et les sorties (Target):
P = [0 0 1 1; 0 1 0 1];
T = [0 1 1 1];
- Création du réseau:
Net = newp(P,T)
NB: Par défaut la fonction d’activation est: Step (hardlim), elle peut être:
- hardlims: Fonctions signe: Net=newp(P,T,'hardlims')
- logsig: Fonction logarithme sigmoïde.
- tansig: Fonction tangente sigmoïde.
- pureline: Fonction linéaire.
- satlins: Fonction linéaire à seuil.
- Voir la sortie (avant l’apprentissage):
Y = sim(Net,P)
- Phase d’apprentissage:
Net = train(Net,P,T);
- Options:
Net.trainParam.epochs = 20; % Maximum number of epochs to train.
Net.trainParam.goal = 1e-5; % Performance goal.
- Voir la sortie (après l’apprentissage):
Y = sim(Net,P)
Remarques:
- Tracer et voir si les états sont linéairement séparables:
P = [-0.5 -0.5 0.3 0; -0.5 0.5 -0.5 1];
T = [1 1 0 0];
plotpv(P,T);
1 C’est un problème
linéairement séparable, il
P(3)
0.5
peut être donc traité avec un
0
réseau monocouche
1.5
1 1.5
0.5 1
0 0.5
0
P(2) -0.5 -0.5 P(1)
Net = newp(P,T);
Y = sim(Net,P)
Y=
1 1 1 1 1 1 1 1 différente de la sortie désirée: 0 1 0 1 0 1 1 1
[W,b] = initp(P,T) calcul des poids initiaux pour les entrés et le bais
W=
0.8268 0.2647 -0.8049
b=
-0.4430
Net = train(Net,P,T);
Y = sim(Net,P)
Y=
0 1 0 1 0 1 1 1 égale à la sortie désirée: 0 1 0 1 0 1 1 1
[W,b] = trainp(W,b,P,T) poids finaux pour les entrés et le bais
W=
-1.1732 -1.7353 -4.8049
b=
5.5570
Vectors to be Classified
1.5
-0.5
-0.5 0 0.5 1 1.5
P(1)
Fig. II.16: Les poids et les biases de la couche cachée du contrôleur neuronal
80
La hauteur (m)
60
Href
Hréelle
40
20
0
0 2 4 6 8 10
Le temps(s)
60
La hauteur (m)
Hréelle
40
Href
20
0
0 2 4 6 8 10
Le temps(s)
25
20
La température (°C)
15
T* T-PI T-RNA
10
0
0 5 10 15 20 25
Le temps(s)
25
20
La température (°C)
15
T*
10
T-RNA
5
T-PI
0
0 5 10 15 20 25
Le temps(s)
Critères
Type de
Rejet de
régulateur Rapidité Dépassement
perturbation
PI Lent 20% 2s
FLC Rapide 5% 0.6s
ANNC Très rapide 0.4% 0.09s
10. Conclusion:
Considérée comme l’un des outils de l’intelligence artificielle, la technique de
réglage basée sur les réseaux de neurones artificiels présente des bonnes
performances et de meilleur robustesse vis-à-vis les perturbations internes et
externes.
Le problème du sur-apprentissage, et l’absence d’une méthode systématique
permettant de définir la meilleure topologie du réseau et le nombre de neurones à
placer dans la (ou les) couche(s) cachée(s), restent les inconvénients majors de
cette technique de commande.
µ Degré d’appartenance
e L’erreur
Ra Résistance d’induit
La Inductance de l’inducteur
j L’inertie.
f Coefficient de frottement
Id Courant d’induit
k Constante du flux
w Vitesse du moteur
Cr Couple résistant
Cf Couple de frottement
NG Négatif Grand
EZ Environ Zéro
PG Positif Grand
H Hauteur d’eau
Xm Les entrées
Wm Les poids
α Taux d’apprentissage
I
Bibliographie