Vous êtes sur la page 1sur 48

Les Réseaux Neuro-Flous

Yann MORERE
17 mai 2001
2

c 98 Yann MORERE le 17 mai 2001 à 08h 24


Résumé
Les réseaux de neuro-ous ont connu un essor considérable. Un résumé sur tout ce qu'il
faut savoir sur les réseau de neuro-ous contenu dans ces pages. Après une introduction à
la logique oue, on détaillera les diérents modèles d'identication oue et de commandes
oue. On terminera par une présentation des réseaux neuro-ous et de leurs principes
d'apprentissage ainsi que leurs avantages.
Table des matières
1 Réseaux de Neurones et Systèmes Flous 6
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 La Théorie Floue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Théorie Floue au XXème Siècle . . . . . . . . . . . . . . . . . . . 7
1.2.2 Degré d'Appartenance et Probabilité . . . . . . . . . . . . . . . . 8
1.2.3 Dénitions de Notions sur les Ensembles Flous . . . . . . . . . . . 8
1.2.3.1 Dénition d'un Ensemble Flou . . . . . . . . . . . . . . 8
1.2.3.2 Support d'un Ensemble Flou . . . . . . . . . . . . . . . 8
1.2.3.3 Noyau d'un Ensemble Flou . . . . . . . . . . . . . . . . 9
1.2.3.4 Hauteur d'un Ensemble Flou . . . . . . . . . . . . . . . 9
1.2.3.5 Cardinal d'un Ensemble Flou . . . . . . . . . . . . . . . 9
1.2.4 Opérations sur les Ensembles Flous . . . . . . . . . . . . . . . . . 9
1.2.4.1 Égalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.4.2 Inclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4.3 Intersection . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4.4 Union . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4.5 Propriétés de l'Union et l'Intersection . . . . . . . . . . . 10
1.2.4.6 Complément d'un Sous-Ensemble Flou . . . . . . . . . . 10
1.2.4.7 Propriétés du Complément d'un Sous-Ensemble Flou . . 11
1.2.4.8 Propriétés des Opérateurs sur les Ensembles Flous . . . 11
1.2.5 Coupe de Niveau ou -coupe . . . . . . . . . . . . . . . . . . . 11
1.2.6 Sous-Ensembles Flous Convexes . . . . . . . . . . . . . . . . . . . 11
1.2.7 Produit Cartésien de Sous-Ensemble Flou . . . . . . . . . . . . . 12
1.2.8 Projection d'un Sous-Ensemble Flou . . . . . . . . . . . . . . . . 12
1.2.9 Normes et Conormes Triangulaires . . . . . . . . . . . . . . . . . 12
1.2.9.1 Dénition des Normes et Conormes Triangulaires . . . . 12
1.3 Les Variables Linguistiques et Propositions Floue . . . . . . . . . . . . . 13
1.3.1 Les Variables Linguistiques . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Propositions Floues . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2.1 Propositions Floues Élémentaires . . . . . . . . . . . . . 14
1.3.2.2 Propositions Floues Générales . . . . . . . . . . . . . . . 14
1.3.2.3 Distribution de Possibilité Associée à une Proposition Floue 14
1.3.3 Raisonnement en Logique Floue . . . . . . . . . . . . . . . . . . . 15
1.3.3.1 Implication Floue . . . . . . . . . . . . . . . . . . . . . . 15
1.3.3.2 Modus Ponens Généralisé . . . . . . . . . . . . . . . . . 15
1.4 La Commande Floue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.2 Caractéristiques de la Commande Floue . . . . . . . . . . . . . . 16
TABLE DES MATIÈRES 3
1.4.3 Le Contrôleur Flou . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.4 Principe de la Commande Floue . . . . . . . . . . . . . . . . . . . 17
1.4.4.1 Formalisation . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.4.2 La Commande Floue, un Approximateur Universel . . . 17
1.4.5 Méthodes de Calcul de la Commande . . . . . . . . . . . . . . . . 18
1.4.5.1 Méthode Logique . . . . . . . . . . . . . . . . . . . . . . 18
1.4.5.2 Méthode de Mandani et de Larsen . . . . . . . . . . . . 19
1.4.5.3 Méthode par Interpolation . . . . . . . . . . . . . . . . . 19
1.4.5.4 Méthode de Takagi et Sugeno . . . . . . . . . . . . . . . 20
1.5 Apprentissage des Systèmes Flous . . . . . . . . . . . . . . . . . . . . . . 21
1.5.1 introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5.2 Apprentissage de Systèmes Flou par Rétropropagation . . . . . . 22
1.5.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5.2.2 Rétropropagation pour les Systèmes Flous . . . . . . . . 22
1.5.2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5.3 Moindres Carrés Orthogonaux pour les Systèmes Flous . . . . . . 23
1.5.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5.3.2 Du Système Flou à la Série de Fonctions à Base Floue . 23
1.5.3.3 Apprentissage par Moindres Carrés Orthogonaux . . . . 24
1.5.3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5.4 Apprentissage par Base de Règles Floues . . . . . . . . . . . . . . 26
1.5.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5.4.2 Création des Règles Floues avec les Données Numériques 26
1.5.4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5.5 Apprentissage de Système Flou par Agrégation avec le Plus Proche
Voisin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5.5.2 Système Flou Optimal . . . . . . . . . . . . . . . . . . . 28
1.5.5.3 Système Flou Optimal Adaptatif . . . . . . . . . . . . . 28
1.5.5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.6 Logique Floue et Réseaux de Neurones . . . . . . . . . . . . . . . . . . . 30
1.6.1 Méthodes Neuro-Floues . . . . . . . . . . . . . . . . . . . . . . . 30
1.6.1.1 Première Méthode . . . . . . . . . . . . . . . . . . . . . 30
1.6.1.2 Seconde Méthode . . . . . . . . . . . . . . . . . . . . . . 31
1.6.1.3 Troisième Méthode . . . . . . . . . . . . . . . . . . . . . 31
1.7 Système Flou Adaptatif et Réseau de Neurones . . . . . . . . . . . . . . 31
1.7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.7.2 Perceptron et Système Flou Adaptatif . . . . . . . . . . . . . . . 32
1.7.2.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.7.2.2 Avantages et Inconvénients . . . . . . . . . . . . . . . . 33
1.7.3 Réseau à Fonctions à Base Radiale et Système Flou Adaptatif . . 34
1.7.3.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.8 Commande Floue Adaptative à Stabilité Indirecte de Systèmes Non-Linéaires 35
1.8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.8.2 Les diérents Types de Commandes Floues . . . . . . . . . . . . . 35
1.8.2.1 Commande Floue Adaptative . . . . . . . . . . . . . . . 35
1.8.2.2 Commande Adaptative Floue Directe et Indirecte . . . . 36
1.8.2.3 Types de Commande oue Adaptative . . . . . . . . . . 36
L.A.M.I.H. c 98 Yann MORERE
4 TABLE DES MATIÈRES
1.8.3 Conception de Régulateur Flou Adaptatif Indirect basé sur l'ap-
proche de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.8.3.1 Méthode de Lyapunov . . . . . . . . . . . . . . . . . . . 37
1.8.3.2 Application à l'Automatique dans le Cas d'un Système
Libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.8.3.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.8.3.4 Application à l'Automatique dans le Cas Général . . . . 38
1.8.3.5 Application à la Conception de Régulateurs Flous . . . . 39
1.8.3.6 Synthèse de Régulateur Flou d'après Wang . . . . . . . 40
1.8.3.7 conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 44

c 98 Yann MORERE le 17 mai 2001 à 08h 24


Table des gures
1.1 Exemple de variable linguistique (V; X; TV ) utilisé pour décrire la surface
d'un appartement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Conguration générale d'un contrôleur ou . . . . . . . . . . . . . . . . . 16
1.3 Schéma d'un régulateur ou basé sur le raisonnement ou par inférences 17
1.4 Représentation graphique de la méthode de Mandani . . . . . . . . . . . 20
1.5 Représentation de la méthode de Takagi & Sugeno . . . . . . . . . . . . . 21
1.6 Modélisation neuronale d'un système ou . . . . . . . . . . . . . . . . . . 22
1.7 Partitions des variables d'entrée et de sorties en régions oues . . . . . . 27
1.8 Exemple de réseau de neurones pour la commande oue . . . . . . . . . . 30
1.9 Exemple d'association en série d'un réseau de neurone et d'un système ou 31
1.10 Exemple d'association en parallèle d'un réseau de neurone et d'un système
ou . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.11 Perceptron à deux couches cachées . . . . . . . . . . . . . . . . . . . . . 32
1.12 Réseau à Fonctions à Base Radiale . . . . . . . . . . . . . . . . . . . . . 34
1.13 Domaine de stabilité du système . . . . . . . . . . . . . . . . . . . . . . . 39
1.14 Schéma d'un système complexe contrôlé par régulateur ou . . . . . . . . 40
1.15 Schéma complet de la commande adaptative oue indirecte . . . . . . . . 44
Chapitre 1
Réseaux de Neurones et Systèmes Flous
1.1 Introduction
La théorie des réseaux de neurones et des systèmes ous ont été développée depuis
plusieurs année. Mais la plupart du temps dans des domaines séparés et diérents. Depuis
peu les chercheurs utilisent ces techniques conjointement dans domaines qui ne touchent
ni le ou ni les réseaux de neurones. Ils utilisent donc les réseaux de neurones et la théorie
oue d'un manière uniée. Au départ ces techniques sont utilisées pour le calcul élémen-
taire, algèbre linéaire et la probabilité, elles sont alors utilisées dans des techniques plus
complexes comme le traitement du signal, procédés aléatoires ainsi que pour l'identica-
tion et la commande de système complexes.
Les systèmes á base de réseaux de neurones et de logique oue font de bons approxi-
mateurs de fonctions á partir de données d'échantillons.
Mais ils apportent une chose en plus par rapport á l'approche statistique : ils n'ont pas
besoin de connaissance a priori sur le fonctionnement interne du système. Les systèmes
ous et neuronaux n'ont pas besoin de modèle mathématique. Ce sont de purs estimateurs.
Les systèmes neuronaux et ous sont des estimateurs numériques et des systèmes
dynamiques. La théorie neuronal noie dans la sémantique mathématiques des systèmes
dynamiques, la commande adaptative et les statistiques. La théorie oue, elle, se che-
vauche avec ces sémantiques et en plus avec les probabilités, la logique mathématiques et
les théorie de mesure.
En général les systèmes neuronaux et ous sont utilisés pour améliorer les perfor-
mances des systèmes réels.

1.2 La Théorie Floue


La théorie des ensembles ous est une théorie mathématiques qui permet de modé-
liser des notions vagues du langage naturel pour pallier l'inadéquation de la théorie des
ensembles classiques dans ce domaine. En eet cette dernière dénit de façon abrupte
une frontière entre deux catégories d'éléments : ceux qui appartiennent à l'ensemble et
ceux qui sont à l'extérieur.
Contrairement la logique oue á sa base considère que tout est aaire de degrés. En
logique oue rien n'est manichéen. Tout peut être coder en niveau de gris. Elle donne
un interprétation déterministe des probabilités et de la stochastique. Mathématiquement
en logique oue, les variables oues sont multivaluées et possède une multivalance (on
1.2 La Théorie Floue 7
peut pendre comme exemple la vérité, le mensonge et la valeur qui correspond au cas ou
on ne sais rien) Le degrés de cette valeur indéterminée correspond á la multivaluation
de la variable oue. Par exemple dans une approche oue la paradoxe correspond á la
valeur intermédiaire entre les deux valeurs antithétiques. Il s'agit ici d'un paradoxe a 2
dimensions (2 valeurs antithétiques) mais on peut imaginer de créer des points médiants
entre plusieurs valeurs antithétiques (> 2).

1.2.1 Théorie Floue au XXème Siècle


Les paradoxes logiques et le principe d'incertitude d'Heisenberg ont permis le déve-
loppement de la logique oue dans les années 1920 et 1930. A cette époque les théoristes
quantiques avaient introduit l'incertitude d'un système bivalent en la valeur médiane
de cette bivalence. La deuxième étape fût l'énoncé de l'incertitude comme une suite de
diérents degrés d'incertitude bornés par les valeur bivalente de la relation.
Le logicien polonais Jan Lukasiewicz a développé un système multivalué composé de
3 valeurs au début des années 30. Ensuite Lukasiewicz a étendue le champ des valeurs de
f0; 1=2; 1g á tous les rationnels compris en [0; 1]
En 1930, le philosophe quantique Max Black a appliqué cette logique continue du
point de vue des composants á des ensembles d'éléments. Historiquement il a crée les
premières fonctions d'appartenance d'un ensemble ou.
En 1965 Lofti Zadeh a publié l'article "Fuzzy Sets" qui développe la théorie d'en-
sembles multivalués et qui introduit le terme ou dans la littérature scientique.
Zadeh a donc étendu la fonction indicateur bivalent IA d'un sous-ensemble non-ou
A de X

IA(x) = 1 si x 2 A (1.1)
0 si x 62 A
en une fonction indicateur multivaluée ou fonction d'appartenance mA : X ! [0; 1].
On peut donc combiner ces ensembles ous avec l'opérateur "point" des fonctions indi-
cateurs
IA\B (x) = min (IA(x); IB (x)) (1.2)

IA[B (x) = max (IA(x); IB (x)) (1.3)

IA (x) = 1 , IA(x)
c (1.4)

A  B ssi IA(x)  IB (x) pour tout x 2 X (1.5)


La valeur d'appartenance mA(x) mesure le degrés avec lequel l'élément x appartient
á l'ensemble A.

mA(x) = degres(x 2 A) (1.6)

L.A.M.I.H. c 98 Yann MORERE


8 Réseaux de Neurones et Systèmes Flous
1.2.2 Degré d'Appartenance et Probabilité
Ce sont deux notions qu'il ne faut pas confondre étant diérente par nature. Ce sont
dans les deux cas des nombres réels pris dans l'intervalle fermé [0; 1] et mesure tous les
deux une incertitude mais avec des objectifs diérents.
 Le degrés d'appartenance mesure l'incertitude ou la croyance par rapport à une
notion vague. Cette mesure indique suivant l'univers du discours considéré et les
conventions adoptées, l'appartenance à des degrés divers des individus aux sous-
ensembles considérés.
 La probabilité est associée à la notion d'événement. C'est la mesure associée à
l'occurrence d'un événement. Les chances de réalisation de cette événement dépend
directement de la valeur attribuée à la probabilité correspondante.
On note la valeur d'appartenance d'un sous-ensemble A á un ensemble B par
S (A; B ) = Degres(A  B ). La théorie des sous-ensemble ore un environnement d'en-
semble théorique uniée. Par exemple si l'ensemble A n'est composé que de l'ensemble des
singletons fxig alors l'appartenance de fxi g dans B est la valeur d'appartenance mB (xi ).
Le comportement aléatoire équivaut á l'incertitude que l'on a lorsque l'on a un en-
semble non-ou B qui est partiellement contenu dans l'un de ses sous-ensembles non-ous
A. On a donc S (A; B ) = 1 car A est un sous-ensemble de B . Mais on a aussi S (B; A)
non nul car B est une partie de
A et 0 < S (B; A) < 1 (1.7)
La théorie des ensembles classiques interdit l'inégalité stricte dans 1.7. En eet soit chaque
ensemble est une partie de l'autre ou alors ils sont disjoints. La théorie des ensembles ous
l'autorise tout à fait.

1.2.3 Dénitions de Notions sur les Ensembles Flous


1.2.3.1 Dénition d'un Ensemble Flou
Dénition 1.2.1: Soit un univers X , on dénit un ensemble ou A dans X par
l'application de A de X dans l'intervalle [0; 1]. A tout élément x 2 X on associe la
valeur A(x) telle que
0  A  1 (A : X ! [0; 1])
L'application A est appelée fonction d'appartenance de l'ensemble ou A.
 A(x) = 0; x n'appartient pas à A.
 A(x) = 1; x appartient à A il satisfait pleinement la propriété A.
 A 6= 0; 1 alors A(x) est une valeur intermédiaire entre 0 et 1. x appartient à
l'ensemble ou A. On dit que x 2 A avec le degrés A(x)
1.2.3.2 Support d'un Ensemble Flou
Dénition 1.2.2: Soit un ensemble ou A dans l'univers X , le support de A noté
supp(A) est un sous-ensemble ordinaire de X dont chacun des éléments à une degrés
d'appartenance non nul, par rapport a A.
supp(A) = fx 2 X ; A(x) 6= 0g

c 98 Yann MORERE le 17 mai 2001 à 08h 24


1.2 La Théorie Floue 9
1.2.3.3 Noyau d'un Ensemble Flou
Dénition 1.2.3: Le noyau d'un ensemble ou A de X est un sous-ensemble ordinaire
de X dont chaque élément a un degrés d'appartenance égal à 1.
Ker(A) = fx 2 X ; A(x) = 1g
Lorsque le noyau n'est pas vide Ker(A) 6= ;, on dit que l'ensemble ou A est normal ou
normalisé.
1.2.3.4 Hauteur d'un Ensemble Flou
Dénition 1.2.4: La hauteur d'un ensemble ou A dans X est la valeur maximum
de la fonction d'appartenance : C'est la plus grand degrés d'appartenance de A.
H (A) = max (A(x); x 2 X )

1.2.3.5 Cardinal d'un Ensemble Flou


Dénition 1.2.5: Le cardinal d'un ensemble ou A de support ni est égal à la
somme des degrés d'appartenance des éléments de ce support :
X
Card(A) = A(x) on note aussi jAj
x2supp(A)
Dans le cas d'un support inni on a :
Z Z
Card(A) = A(x)dm(x) avec dm(x) = 1
X X
Le cardinal d'un ensemble ou A de support ni peut être déni comme un ensemble
ou appelé nombre ou. Ce cardinal est noté FCard(A) et vaut :
X
FCard(A) = frac ii aussi note kAk
i2supp(A)

1.2.4 Opérations sur les Ensembles Flous


Les opérations sur les ensembles ous sont des extensions des opérations connues sur
les ensembles classiques.
1.2.4.1 Égalité
Dénition 1.2.6: Soit deux ensembles ous A et B dans un univers X . On dit que
A et B sont égaux (A = B ) si leurs fonctions d'appartenance ont la même valeur en tout
point x de X :
A(x) = B (x)8x 2 X:Si9xtelqueA (x) 6= B (x) ) A 6= B

L.A.M.I.H. c 98 Yann MORERE


10 Réseaux de Neurones et Systèmes Flous
1.2.4.2 Inclusion
Dénition 1.2.7: Soit deux ensembles ous A et B dans un univers X . On dit que
A est inclus dans B noté A  B si leurs fonctions d'appartenance sont telles que :
8x 2 X ; A(x)  B (x)
L'inclusion dénit une relation d'ordre.

1.2.4.3 Intersection
Dénition 1.2.8: L'intersection de deux sous-ensembles ous A et B de X est la
sous-ensemble de X qui contient tous les éléments x de X appartenant à la fois à A et
B . L'intersection de deux sous-ensemble ous A et B (A \ B ) de X est le sous-ensemble
ou C tel que :
8x 2 X ; C (x) = min (A(x); B (x))

1.2.4.4 Union
Dénition 1.2.9: L'union de deux sous-ensemble ous A et B de X est le sous-
ensemble ou de X qui contient tous les éléments appartenant ou bien à A ou bien à B .
L'union de deux sous-ensemble ous A et B (A [ B ) de X est le sous-ensemble ou D de
X tel que :
8x 2 X ; C (x) = max (A(x); B (x))

1.2.4.5 Propriétés de l'Union et l'Intersection


Propriété 1.2.1: 8AetBdeX
 associativité de \ et [
 commutativité de \ et [
 A \ X = A; A \ ; = ;
 A [ ; = A; A [ X = X
 A[B AA\B
 A \ (B 0 [ B 00) = (A \ B 0 ) [ (A \ B 00 )
 A [ (B 0 \ B 00) = (A [ B 0 ) \ (A [ B 00 )
 jAj + jB j = jA \ B j + jA [ B j
1.2.4.6 Complément d'un Sous-Ensemble Flou
Dénition 1.2.10: Soit un sous-ensemble ou A de X , son complément est le sous-
ensemble contenant tous le x n'appartenant pas à A. Le complément AC d'un sous-
ensemble ou A de X est dénit comme le sous-ensemble ou de X de fonction d'appar-
tenance :
8x 2 X ; A (x) = 1 , A(x)
C

On peut énoncés les propriétés suivantes AC \ A 6= ; et AC [ A 6= X


c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.2 La Théorie Floue 11
1.2.4.7 Propriétés du Complément d'un Sous-Ensemble Flou
Propriété 1.2.2: 8AetBdeX
 Loi de Morgan : (A \ B )C = AC [ B C ; (A [ B )C = AC \ B C
, C C
 A =A
 ;C = X
 XC = ;
 ,jAj + jAC j = jX j
 ,supp(AC ) C = Ker(A)
 Ker(AC ) C = supp(A)
1.2.4.8 Propriétés des Opérateurs sur les Ensembles Flous
Propriété 1.2.3: Les choix des opérateur min pour l'intersection, max pour l'union,
complementationa1 pour le complément permet de préserver le structure de la théorie
classique des ensembles.

1.2.5 Coupe de Niveau ou -coupe


Dénition 1.2.11: Une coupe de niveau ou -coupe de l'ensemble ou A pour une
valeur donnée 2 [0; 1] est le sous-ensemble classique A de X dénit par
A = fx; A(x)  g
On appelle -niveau une -coupe telle que A(x) = pour tout x 2 A Et on note
A = fx; A(x) = g On peut en déduire que A0 = supp(A) et A1 = Ker(A).
On peut montrer qu'un ensemble ou A peut être représenté par C (A) l'ensemble de
toutes ses -coupes.
Propriétés des -coupes Propriété 1.2.4: Les -coupes de A sont des parties non-
oues de X emboitées par rapport à la valeur du niveau , si 0  alors A  A .
0

Les -coupes des sous-ensembles ous vérient :


 (A \ B ) = A \ B
 (A [ B ) = A [ B
 si A  B alors A  B
1.2.6 Sous-Ensembles Flous Convexes
 Dénition 1.2.12: Un sous-ensemble ou A de X des nombres réels est convexes,
si pour tout couple d'éléments a et b de X , et pour tout nombre  de [0; 1] la
fonction d'appartenance A vérie :
A(a + (1 , )b)  min (A(a); A(b))
 Dénition 1.2.13:Un sous-ensemble ou A de R est convexe si toutes ses -coupes
A sont convexes, c-à-d si, pour tout élément a et b de A et pour tout nombre 
de [0; 1]; x = a + (1 , )b appartient aussi à A
 Dénition 1.2.14:Si A et B sont deux sous-ensemble ous convexes de R alors
leur intersection est convexe.
L.A.M.I.H. c 98 Yann MORERE
12 Réseaux de Neurones et Systèmes Flous
1.2.7 Produit Cartésien de Sous-Ensemble Flou
Dénition 1.2.15: Soit des sous-ensembles ous A1; A2;    ; Ar respectivement dé-
nis sur X1; X2 ;    ; Xr , on dénit leur produit cartésien A = A1  A2      Ar , comme
un sous-ensemble ou de X de fonction d'appartenance :
8 x = (x1 ; x2 ;    ; xr ) 2 X; A(x) = min (A1 (x1);    ; A (xr ))
r

1.2.8 Projection d'un Sous-Ensemble Flou


Dénition 1.2.16: Soit un sous-ensemble ou A déni sur un univers X1  X2 ,
produit cartésien des deux sous-ensembles de références X1 et X2.
La projection sur X 1 du sous-ensemble ou A de X1  X2 est le sous-ensemble ou
ProjX1 (A) de X1, dont la fonction d'appartenance est dénie par :
8 x1 2 X1; Prog 1 (A) (x1 ) = xmax
X
2
 ((x ; x )) :
2X A 1 2
2

1.2.9 Normes et Conormes Triangulaires


On peut remplacer les opérations usuelles sur les sous-ensembles ous (intersection,
union : : : ) par d'autres opérateurs que le min; max et complément à 1.
1.2.9.1 Dénition des Normes et Conormes Triangulaires
Dénition 1.2.17: Une norme triangulaire (t-norme) est une fonction T :
[0; 1]  [0; 1] ! [0; 1]
qui vérie pour tout u; v et w de [0; 1]:
 T (u; v) = T (v; u) (Commutativité)
 T (u; T (v; w)) = T (T (u; v); w) (Associativité)
 T (u; v)  T (w; t) si u  w et v  t (Isotonie)
 T (u; 1) = u (Élément neutre 1)
Cas particulier : L'opérateur T = min est une norme triangulaire.
Dénition 1.2.18: Une conorme triangulaire (t-conorme) est une fonction ?:
[0; 1]  [0; 1] ! [0; 1]
qui vérie pour tout u; v et w de [0; 1]:
 ?(u; v) = ?(v; u) (Commutativité)
 ? (u; ?(v; w)) = ? (?(u; v); w) (Associativité)
 ?(u; v)  ?(w; t) si u  w et v  t (Isotonie)
 ?(u; 0) = u (Élément neutre 0)
Cas particulier : L'opérateur ? = max est une conorme triangulaire.
Propriété 1.2.5: Toute t-normes T et toutes t-conormes ? vérient:
T (0; 0) = 0; T (1; 1) = 1; ?(0; 0) = 0; ?(1; 1) = 1

c 98 Yann MORERE le 17 mai 2001 à 08h 24


1.3 Les Variables Linguistiques et Propositions Floue 13
1.3 Les Variables Linguistiques et Propositions Floue
1.3.1 Les Variables Linguistiques
Une variable linguistiques sert à modéliser les connaissances imprécises ou vagues sur
une variable dont la valeur précise peut être inconnue.
Dénition 1.3.1: Une variable linguistique est un triplé (V; X; TV ) dans lequel V est
une variable dénie sur un ensemble X . L'ensemble TV = fA1; A2 ; : : : g, ni ou inni,
contient des sous-ensembles ous normalisé de X , utilisables pour caractériser V (Cf.
gure 1.1).

fonctions d'appartenance

Minuscule Petite Moyenne Grande Immense


1

0,3

20 30 50 53 60 80 90 110 120 X
+
V=surface, X=R , Tv ={Minuscule, Petite, Moyenne, Grande, Immense}

Fig.1.1  Exemple de variable linguistique (V; X; TV ) utilisé pour décrire la surface d'un
appartement
Toutes les descriptions imprécises d'une même variable V ne peuvent être décrites
par la liste TV . Il faut donc à partir de ces données de bases, construire des caractérisa-
tions intermédiaires à l'aide de modicateurs qui atténuent ou renforcent une description
donnée.
Dénition 1.3.2: Un modicateur linguistique est un opérateur mod qui permet à
partir de toute caractérisation oue de A de V , de produire une nouvelle caractérisation
oue mod(A). Si la fonction d'appartenance de A est fA , celle de mod(A) est fmod(A) =
tmod (fA), obtenue par l'intermédiaire d'une transformation mathématique tmod attachée
à mod.
La dénition d'un modicateur linguistique est générale et ne correspond pas néces-
sairement à une faible variation autour de la qualication initiale A. Mais l'intérêt d'un
modicateur est de pouvoir engendrer des caractérisations voisines les unes de autres.
Ces modicateur peuvent aaiblir ou renforcer une caractérisation.
Dénition 1.3.3: Un modicateur linguistique mod est dit restrictif si la transfor-
mation associée vérie :
8u 2 [0; 1] tmod (u)  u:
Un modicateur simple mis en évidence par L.A. ZADEH est déni par tmod (u) = u2.
Ce modicateur préserve le support et le noyau du sous-ensemble ou et ne modie la
fonction d'appartenance de A sur les partie de X où elle est strictement comprise entre
0 et 1.
Un modicateur restrictif renforce la caractérisation à laquelle il est appliqué c-à-d
Supp (mod(A))  Supp(A).
L.A.M.I.H. c 98 Yann MORERE
14 Réseaux de Neurones et Systèmes Flous
Dénition 1.3.4: Un modicateur linguistique mod est dit expansif si la transfor-
mation associée vérie :
8u 2 [0; 1] tmod (u)  u:
Un modicateur simple mis en évidence par L.A. ZADEH est déni par tmod (u) = u1=2 .
Ce modicateur préserve le support et le noyau du sous-ensemble ou et ne modie la
fonction d'appartenance de A sur les partie de X où elle est strictement comprise entre
0 et 1.
Un modicateur restrictif aaiblit la caractérisation à laquelle il est appliqué c-à-d
Supp (mod(A))  Supp(A).

1.3.2 Propositions Floues


1.3.2.1 Propositions Floues Élémentaires
Dénition 1.3.5: Étant donné une ensemble L de variables linguistiques et un en-
semble M de modicateurs, une proposition oue élémentaire est dénie à partir d'une
variable linguistique (V; X; TV ) de L par la qualication "V est A", où A est une carac-
térisation oue appartenant à TV ou à M (TV ).

1.3.2.2 Propositions Floues Générales


Dénition 1.3.6: Une proposition oue générale est obtenue par l'utilisation
conjointe de propositions oues élémentaires.
On peut construire des propositions oues par conjonction, disjonction ou implication
portant sur des propositions oues quelconques.
Dénition 1.3.7: Une règle oue est une proposition oue de la forme "si p alors q"
utilisant une implication entre deux propositions oues quelconques p et q
Les règles oues les plus utilisées sont de la forme "Si V est A et U est B et : : : alors
W est C ", où "V est A","U est B ", : : : sont les prémisses de la règle et "W est C " sa
conclusion.

1.3.2.3 Distribution de Possibilité Associée à une Proposition Floue


Dénition 1.3.8: Étant donnée une proposition oue élémentaire "V est A", la
distribution de possibilité V;A qui lui est associée est dénie sur X à partir de la fonction
d'appartenance fA de A par :
8x 2 X V;A(x) = fA(x)

V;A ainsi dénie est une distribution de possibilité.


Dénition 1.3.9: Un quanticateur ou est un sous-ensemble ou Q de l'ensemble
R des nombres réels qui décrit un nombre de cas approximatif, ou un sous-ensemble ou
de [0; 1] qui décrit une proportion approximative.
Dénition 1.3.10: Soit un quanticateur ou Q, de fonction d'appartenance fQ.
Une proposition quantiée est de la forme "QW est B ", pour une proposition oue "Q
est B " dénie à partir d'une variable linguistique (W; X; TW ). La valeur de vérité de la
proposition oue quantiée "QW est B " est égale à la valeur de fQ(p).
c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.3 Les Variables Linguistiques et Propositions Floue 15
1.3.3 Raisonnement en Logique Floue
La logique oue permet le traitement souple de connaissances imprécises ou incer-
taines, ce qui serait impossible avec le logique classique.
La première tentative pour assouplir la logique classique vient de Lukasiewicz. C'est
une logique à trois valeurs de vérité :
 0 pour le faux
 1 pour le vrai
 1=2 pour le doute
D'autres logiques multivalentes ont ensuite été développées.
On peut considérer que la logique oue est une extension de la logique classique. Les
propositions sont des propositions oues dénies à partir d'un ensemble L de variables
linguistiques (V; X; TV ) et d'un ensemble M de modicateurs. Leurs valeurs de vérité
appartient à tout l'intervalle [0; 1] et elle est fournie par la fonction d'appartenance de la
caractérisation oue utilisée dans la proposition oue.
1.3.3.1 Implication Floue
Dénition 1.3.11: L'implication oue entre deux propositions oues élémentaires "V
est A" et "W est B " est une proposition oue concernant le couple de variables (V; W ),
dont la valeur de vérité est donnée par la fonction d'appartenance fR d'une relation oue
R entre X et Y dénie, pour tout (x; y) de X  Y par :
fR (x; y) =  (fa(x); fb (y)) pour une fonction  de [0; 1]  [0; 1] ! [0; 1]

1.3.3.2 Modus Ponens Généralisé


Le modus ponens de la logique classique ne permet d'obtenir une conclusion à la seule
condition que la proposition soit exactement vériée. Il convient donc d'adapter cette
forme de raisonnement à nos ensembles ous. Il convient donc d'utiliser le modus ponens
généralisé énoncé sous la forme :
Règles oue (R1) si V est A alors W est B
Fonction d'appartenance fA fB
Fait observé V est A0
Fonction d'appartenance fA 0

Conclusion W est B0
Fonction d'appartenance fB 0

Tab. 1.1  Condition d'utilisation du modus ponens généralisé


Dénition 1.3.12: En présence d'une règle de la forme "si V est A alors W est
B ", et d'une observation de la forme "V est A0", la conclusion dénie par le modus
ponens généralisé est la proposition oue "W est B 0 ", B 0 ayant la fonction d'appartenance
suivante :
8y 2 Y fB = supx2X T (fA (x); fR (x; y))
0 0

pour une t-norme T qui est un opérateur de modus ponens généralisé.


L.A.M.I.H. c 98 Yann MORERE
16 Réseaux de Neurones et Systèmes Flous
1.4 La Commande Floue
1.4.1 Introduction
Son principe a été introduit par Mandani et Assilian sur l'exemple d'une machine
à vapeur expérimentale. Depuis ce a été exploité dans plusieurs domaines comme la
commande d'une usine d'eau chaude, échangeur de chaleur, régulation de vitesse d'un
moteur, four à ciment. La commande oue a aussi été largement développée au Japon au
début des année 80.

1.4.2 Caractéristiques de la Commande Floue


Son but est de traiter les problèmes de commande de processus avec une approche
diérente de l'automatique classique. Le plus souvent elle se sert de la connaissance des
experts du processus. La spécicité de la commande oue réside dans les points suivants :
 La connaissance mathématique du fonctionnement du processus n'est pas néces-
saire. C'est le savoir faire de l'opérateur qui est pris en compte.
 Des variables subjectives sont utilisables. Il est possible de modéliser les sens hu-
mains.
L'intérêt de la commande oue apparaît clairement dans le cas de système mal connu
ou dicile à décrire. De même manière lorsque les variables sont décrites de façon impré-
cise ou en langage naturel.
Intérêt de la commande oue :
 La commande est simple à réaliser, facilement adaptable aux conditions de fonction-
nement. La plupart du temps un petit nombre de règle sut à décrire le système.
 La coordination de plusieurs objectifs est possible ( système multivariable ).
 Cette commande est reconnue comme robuste.

1.4.3 Le Contrôleur Flou


Le contrôleur ou peut être considéré comme un système expert simple Cf. gure
1.2: La représentation des connaissances est basée sur les ensembles ous dont les règles
fournissent directement les conclusions. L'interface avec le ou assure la conversion des
variables linguistiques du système en variables oues compréhensibles par le régulateur (
Fuzzycation ). Le contrôleur ou, grâce à sa base de règle génère alors la conclusion qui
sera rendu compréhensible pour le système par l'interface non oue ( Défuzzycation ).

Base de Connaissance

Interface avec le flou Interface avec le non flou

Raisonnement Flou

Etat du Commande
Système commandé
Système non floue

Fig. 1.2  Conguration générale d'un contrôleur ou


c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.4 La Commande Floue 17
Le contrôleur ( ou régulateur )ou peut être représentée de la façon suivante ( Cf.
gure 1.3 ):
Choix du "ET", de l'inférence et du Choix de la méthode
"SINON" (T-normes, Lukasiewicz,...) de défuzzification

Fuzzyfication Inférences : Défuzzyfication


Entrées Sorties

Règles du type
12345
Si e est E et ∆e est ∆E alors ∆u est ∆U 12345
12345
Gains 12345 Gains

Nombre et forme des Nombre et forme des


variables linguistiques variables linguistiques
des entrées des sorties

Fig. 1.3  Schéma d'un régulateur ou basé sur le raisonnement ou par inférences

1.4.4 Principe de la Commande Floue


Le principe consiste à caractériser le mieux possibles les variables qui agissent sur le
processus en fonction de tous les états du processus à commander et des avis et recom-
mandations des experts.
1.4.4.1 Formalisation
Les connaissances du processus sont décrites à partir des variables linguistiques
(V1; X1; T1 ); (V2; X2; T2) dénies sur un univers X1 ; X2 correspondant aux variables d'en-
trées du processus.
Les connaissances sont ensuite sous formes de règles de la forme :
 (R1) si V1 est A11 et V2 est A12 alors W est B1
 (R2) si V1 est A21 et V2 est A22 alors W est B2
ou les Aij sont des sous-ensembles ous des univers Xi appartenant aux caractérisations
oues Ti et représentant une partition oue des valeurs possibles des variables oues
Vi et ou les sous-ensembles ous Bi des univers Yi appartenant aux caractérisations Tw
représentent les valeurs possibles prise par la variables oue de sortie W .
On peut remarquer que la partition de l'univers est plus ou moins n suivant le nombre
de sous-ensembles ous.
Avec la donnée de l'état du système (le plus souvent fournie par des capteurs) on dé-
termine une caractérisation non oue de la variable de commande en sortie du régulateur.
Cette réalisation se fait en trois étapes :
1. Pour chaque règle on utilise la caractérisation de l'état du système pour obtenir un
résultat intermédiaire.
2. Agrégation des résultats intermédiaires.
3. Déduction de l'action non oue du résultat agrégé.
1.4.4.2 La Commande Floue, un Approximateur Universel
Plusieurs chercheurs ont montrés que la commande oue peut être considérée
comme un approximateur universel [KOSKO, 1992a]. Alors pour une fonction W =
f (V1; V2; : : : ; Vn) et un niveau d'approximation  il est possible de construire un ensemble
ni de règles R1 ; R2 ; : : : ; Rn du type
L.A.M.I.H. c 98 Yann MORERE
18 Réseaux de Neurones et Systèmes Flous
 (R1) si V1 est A11 et V2 est A12 alors W est B1
 (R2) si V1 est A21 et V2 est A22 alors W est B2
 etc.
qui permet d'approcher f à  près, quand f est une fonction continue dénie sur un com-
pact de dimension nie. Le théorème suivant [WANG, 1995] montre que les systèmes ous
sont capable d'approximer n'importe quelle fonction non-linéaire sur U avec n'importe
quel précision si U est compacte.
Théorème 1.4.1. Pour toute fonction continue réelle g sur un ensemble compact U 
R n et  arbitraire (assez petit), il existe un système ou f de la forme :
   2 
PM Qn x ,x
l=1 yl i=1 al;i exp , 
i l;i

f (x) = (1.8)
l;i

   2 
PM Qn x ,x
l=1 i=1 al;i exp , i

 l;i
l;i

tel que :
sup jf (x) , g(x)j < 
x2U
où yl; al;i et l;i sont les paramètres ajustables du système ou sous les contraintes
suivantes : yl 2 V; al;i 2 [0; 1]; xl;i 2 Ui; et l;i > 0.
On peut étendre ce théorème au cas discret.

1.4.5 Méthodes de Calcul de la Commande


Il existe plusieurs méthodes de calculs de la commande oue de processus. La première
d'entre elle vient directement des méthodes d'inférence des systèmes experts.

1.4.5.1 Méthode Logique


Obtention du Résultat Intermédiaire La première étape consiste à eectuer un
modus ponens généralisé, donc de choisir l'une des implications oues R. La partie condi-
tion des règles étant complexe, ( plusieurs variables oues V1; V2; : : : ) on doit choisir un
opérateur de conjonction pour dénir le sous-ensemble ou conjoint associé à la partie de
condition de la règle Ri. Cette étape fournit une caractérisation oue Bi0 de la variable
de commande Vi pour chaque Règle Ri .

Agrégation des Résultats Intermédiaires Chacune des règles Ri donnent une ca-
ractérisation de la variable de commande W en présence d'une donnée d'entrée précise.
Il faut faire la synthèse de ces caractérisations pour parvenir à une décision. Pour cela
on choisit un opérateur d'agrégation pour obtenir une caractérisation oue générale à
partir des résultats intermédiaires.Ces opérateurs sont le plus souvent la t-norme ( res-
pectivement la t-conorme ) dénies par ZADEH, donnant un résultat agrégé de fonction
d'appartenance :
 8 y 2 Y fA(B1 ;B2 ;::: )(y) = maxi=1;2;::: fB (y)
0 0
i
0

respectivement
 8 y 2 Y fA(B1 ;B2 ;::: )(y) = mini=1;2;::: fB (y)
0 0 0
i

c 98 Yann MORERE le 17 mai 2001 à 08h 24


1.4 La Commande Floue 19
Calcul du Résultat Non-Flou ou Défuzzication Il faut maintenant déduire une
action de commande du résultat agrégé ou obtenu par l'opération précédente. Pour
déterminer cette valeur y0 plusieurs méthodes sont disponibles mais la plus couramment
utilisée est la méthode du centre de gravité donnée par :
R
fA B ;B ;::: (y) y dy
y0 = Yf ( 1 2 )(y) dy
0 0

A(B1 ;B2 ;::: )


0 0

en continu et P
y 2Y fA B ;B ;::: (yj ) yj
y0 = P f( 1 2 ) (y )
0 0
j

y 2Y A(B1 ;B2 ;::: ) j


j
0 0

en échantillonné.
D'autres méthodes sont utilisables :
 Le maximum, dans le cas où i réduit à un élément avec max(Y ) = fy0g
hP max(Y )y est
 Le maximum moyen y0 = j max( max( )
yj 2

Y )j
Y j

 Le milieu des maxima y0 = (y0 + y00) =2 avec y0 et y00 respectivement le plus petit et
le plus grand des éléments de max(Y )
 Le premier maximum y0
Certaines méthodes permettent de réaliser en même temps les étapes 2 et 3 en choi-
sissant pour représentant de l'ensemble des résultats intermédiaires la moyenne pondérée
des représentants des résultats intermédiaires Bi0 obtenus par chacune des règles Ri.
 La méthode des hauteurs y0P= [ i yih(Bi0 )]P= [Pi h(Bi0)]
P

 La méthode des aires y0 = [ i yiS (Bi0)] = [ i S (Bi0)]


1.4.5.2 Méthode de Mandani et de Larsen
Cette méthode est historiquement la première à avoir été proposée et est assez simple
à mettre en ÷uvre. Elles peuvent être regardée comme des méthodes logiques particulières
reposant sur le choix de la fonction d'agrégation
 la t-norme de ZADEH pour la méthode de Mandani
 la t-norme probabiliste pour la méthode de Larsen
Avec la méthode de Mandani le résultat intermédiaire est obtenu par
8 y 2 Y; fB1 (y) = min [min (f11(x1 ); f12 (x2)) ; f1(y)]
0

et par la méthode de Larsen


8 y 2 Y; fB1 (y) = min [min (f11 (x1 ):f12 (x2)) :f1 (y)]
0

1.4.5.3 Méthode par Interpolation


Cette méthode est complètement diérente et est seulement utilisable dans le cas
où les fonctions d'appartenance caractérisant les variables sont des fonctions monotones.
Cette monotonie permet de procéder par interpolation entre les valeurs de Y obtenues
grâce aux diverses règles Ri. Ainsi pour une observation telle que V1 = x01 ; V2 = x02 on
utilise les valeurs suivantes :
1 = min (f11 (x1 ); f12(x2 )) ; 2 = min (f21 (x1 ); f22(x2 )) : : :
et les points y1; y2; : : : tels que :
1 = f1(y1); 2 = f2 (y2); : : :
L.A.M.I.H. c 98 Yann MORERE
20 Réseaux de Neurones et Systèmes Flous

SI x1 TG ET x2 EZ ALORS x R =EZ µ (x )
µ µ µ R1 R
TP TG TP TG Règle
E Z E Z TP E Z TG

0.67 min 0.33 min 0.33 1234567890


1234567890
1234567890
1234567890
-1 0 1 x1 -1 0 1 x2 -1 0 1 xR

µ
x1 =0.44 TP E Z TG µ (x )
12345678901234 RES R
x 2 =-0.67 12345678901234
12345678901234 max OU
12345678901234
12345678901234
12345678901234
-1 0 1 xR

µ µ µ
TP E Z TG TP E Z TG TP E Z TG

min 1234567890
1234567890
0.33 max 0.67 1234567890
1234567890 µ (x ) Règle
1234567890
1234567890 R2 R
-1 0 1 x1 -1 0 1 x2 -1 0 1 xR

SI x1 EZ OU x2 TP ALORS x =TP
R

Fig. 1.4  Représentation graphique de la méthode de Mandani

1.4.5.4 Méthode de Takagi et Sugeno


La plupart des implications oues utilisent des variables oues avec fonctions d'appar-
tenances monomodales. L'utilisation de l'agrégation par inférence des règles ne permet
pas d'avoir de bon résultat dans la commande de système multivariable. Il faut alors
augmenter considérablement le nombre de variables oues et donc le nombre de règles.
L'implication oue présentée par Takagi et Sugeno est basée sur la partition oue de
l'ensemble des entrées. Dans chaque sous-ensemble ou une équation linéaire lie les entrées
et les sorties. La sortie non oue de ce raisonnement ou est donnée par l'agrégation des
valeurs oues résultantes des règles utilisées par les entrées.
Forme des Règles Floues Utilisées par Takagi & Sugeno Soit A(x) la fonction
d'appartenance à un sous-ensemble ou A avec x 2 X univers du discours. On dénit la
valeur réelle de "x est A et y est B " par l'expression suivante :
jx est A et y est B j = A(x) ^ B (y)
La règle oue R est de la forme :
R : si f (x1 est A1; : : : ; xk est Ak ) alors y = g(x1; : : : ; xk )

 y est la variable de conclusion
 x1 ; : : : ; xk Variables de prémices utilisées aussi dans la conclusion
 A1; : : : ; Ak Ensembles ous avec fonctions d'appartenances linéaires représentant
un sous-espace ou dans lequel la règle R peut être vue comme le raisonnement
 f fonction logique qui lie les propositions dans les prémices
 g fonction qui calcule la valeur de y lorsque x1 ; : : : ; xk vérient les prémices
Dans le cas de Takagi & Sugeno la règle R s'écrit :
Si x1 est A1 et : : : xk est Ak alors y = p0 + p1x1 + : : : + pk xk
Ensuite la valeur réelle nale de la sortie y inférée depuis n règles est Q calculée comme
la moyenne de tous les sorties de chaque règle yi avec les poids !i = i(x0i ) avec (x)
c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.5 Apprentissage des Systèmes Flous 21
fonction d'appartenance du sous-ensemble ou Ai :
P i i
y= !y
P i
!
L'approximation linéaire faite par les règles Ri prises séparément, avec le raisonnement
ou, ces équations linéaires liant entrées et sorties permettent de passer de façon continue
de l'une des équations à l'autre. Ceci est aussi un moyen de réduire le nombre de règles.

Exemple d'Utilisation de Règles Floue T & S Soit les trois règles oues suivantes :
R1 Si x1 est petit1 et x2 est petit2 alors y = x1 + x2
R2 Si x1 est grand1 alors y = 2  x1
R2 Si x2 est grand2 alors y = 3  x2

Règle Prémice Conclusion Valeur Réelle

petit1 petit 2 y = 12 + 5 min(0.25,0.375)


R1 0.25
0.375 = 17 =0.25

0 16 0 8

grand1

R2 0.2
y = 2 x 12
= 24 0.2

10 20

grand 2
y= 3x5
R3 0.375 = 15 0.375

x1 = 12 10 x2 = 5 20

Fig. 1.5  Représentation de la méthode de Takagi & Sugeno


et les valeurs d'entrées x1 = 12; x2 = 5 alors la valeur résultante des inférences des
règles oues est Cf. 1.5:

y = 0:25  170:25
+ 0:2  24 + 0:375  15 = 17:8
+ 0:2 + 0:375

1.5 Apprentissage des Systèmes Flous


1.5.1 introduction
Pour tous les systèmes complexes qui utilisent des données numériques, la connaissance
a priori du système par concertation avec les experts donne une bonne base pour la
dénition du contrôleur ou, mais il peut être très intéressant d'ajuster les paramètres
de ce dernier an d'obtenir de meilleurs résultats. On parle alors d'apprentissage ou
entraînement de systèmes ous. La suite de cette section donne un série d'algorithme
d'adaptation pour les systèmes ous.
L.A.M.I.H. c 98 Yann MORERE
22 Réseaux de Neurones et Systèmes Flous
1.5.2 Apprentissage de Systèmes Flou par Rétropropagation
1.5.2.1 Introduction
Au départ l'algorithme de rétropropagation était appliqué à l'adaptation des poids
des réseaux de neurones articiels multicouches. L'idée est donc de représenter le système
ou comme un réseau de neurones et de lui appliquer l'algorithme [WANG, 1995].
Avec la forme oue de l'équation 1.8, on peut représenter le système ou par un réseau
de neurones à trois couches comme le montre la gure 1.6.

f
couche 3

f=a/b
b
a

M
y 1 ....... y couche 2

µ
j j2
zM g µ =exp[-(x-x j ) 2 / σ i ]
i
z1 i

.......
g g g g
....... .......
couche 1

x1 xn

Fig. 1.6  Modélisation neuronale d'un système ou

1.5.2.2 Rétropropagation pour les Systèmes Flous


Soit une paire d'entrées/sorties (xp; dp); xp 2 U  R n ; dp 2 V  R . On doit alors
dénirr un système ou f (x) du type 1.8 tel que
ep = 12 [f (xp) , dp]2 (1.9)
soit minimisé.
On suppose que M est connu et al;i = 1, le problème devient alors l'apprentissage des
paramètres yl; xl ; l;i qui minimise ep de 1.9. An d'ajuster les paramètres yl ; i on utilise
la relation suivante :
yl (k + 1) = yl(k) , @ y@e(k) jk (1.10)
l
où l = 1; 2; : : : ; M et k = 1; 2; : : : et est le pas d'apprentissage.
c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.5 Apprentissage des Systèmes Flous 23
P P
D'après la gure 1.6 on a f = a=b et a = Ml=1 (yl zl ); b = Ml=1 zl et zl =


Qn x ,x 2
exp ,
j
i
i=1
i

 j
i

La loi d'adaptation devient alors :


yl (k + 1) = yl (k) , f ,b d zl (1.11)
De la même façon on utilise les équations suivantes pour ajuster les paramètres de xl;i
et l;i

xl;i(k + 1) = xl;i(k) , f ,b d (yl , f )zl 2(xi;p,2 (xkl;i) (k))


2
(1.12)
l;i

l;i(k + 1) = l;i(k) , f ,b d (yl , f )zl 2(xi;p,3 (xkl;i) (k))


2
(1.13)
l;i
La mise à jour des paramètres xl;i et l;i se font suivant les équations 1.12 et 1.13.
1.5.2.3 Conclusion
Cet algorithme peut être appliqué pour l'identication de système non linéaire dy-
namique. En eet comme les systèmes ous sont des approximateurs universelles et que
l'on possède maintenant l'algorithme de rétropropagation, par analogie avec les réseaux
de neurones articiels il est possible comme ces derniers d'approximer n'importe quelle
système. L'intérêt par rapport au réseaux de neurones est que l'identication oue des
paramètres à une signication physique. Les yl;i sont les centres des conclusions oues.
Les xl;i et l;i sont les centres et rayons des prémices oues. De plus la construction d'un
modèle oue initial est basé sur les connaissances des experts, ce qui permet d'intégrer
des données propres au système et donc lors de la phase d'apprentissage d'accélérer la
convergence de l'algorithme.

1.5.3 Moindres Carrés Orthogonaux pour les Systèmes Flous


1.5.3.1 Introduction
Le principal inconvénient de la rétropropagation du gradient de l'erreur est que l'al-
gorithme peut se bloquer dans des minima locaux lors de la phase d'apprentissage et sa
convergence est assez lente (si le pas de calcul est très petit). Ici On adapte le système ou
en le rendant équivalent à une série de fonctions à base oue(FBF). Ce développement
en série de FBFs permet d'utiliser l'algorithme des moindres carrés orthogonaux (OLS :
Orthogonal Least Square)car le système est alors linéaire par rapport à ses paramètres
ajustables. Cet algorithme est plus rapide que la rétropropagation et ne nécessite qu'une
seule itération.
1.5.3.2 Du Système Flou à la Série de Fonctions à Base Floue
Soit le système ou dénit par l'équation 1.8 on dénit une fonction à base oue par
la relation : Qn
F (xi)
pi(x) = PM i=1 ; j = 1; 2; : : : ; M
j

Qn
i
(1.14)
j =1 i=1 F (xi ) j
i

L.A.M.I.H. c 98 Yann MORERE


24 Réseaux de Neurones et Systèmes Flous
  2 
où F (xi ) = ai;j exp
j
i
, 21 x ,x
i i;j

i;j
sont des fonctions d'appartenances gaussiennes. Le
système ou s'écrit alors :
M
X
f (x) = pj (x)j (1.15)
j =1
où les j = yj 2 R sont des constantes.
D'après 1.14 le système ou peut être vu comme non linéaire par rapport à ses pa-
ramètres i;j ; ai;j ; xi;j et alors on doit utiliser des algorithmes d'optimisation non linéaire
comme la rétropropagation. Mais d'un autre côté si l'on xe certains paramètres comme
les centres et les rayons des fonctions FBFs on obtient un système linéaire par rapport
à ses paramètres suivant l'équation 1.15. L'avantage de ce point de vue est qu'il permet
d'utiliser l'algorithme des moindres carrés orthogonaux très puissant pour l'estimation
des paramètres.
1.5.3.3 Apprentissage par Moindres Carrés Orthogonaux
Le développement en fonction à bases oues peut être vu comme un cas particulier
d'un modèle de régresseur linéaire du type :
M
X
d(t) = pj (t)j + e(t) (1.16)
j =1
où d(t) est la sortie du système, j les paramètres réels du système ou et pj (t) les
régresseurs qui sont des fonctions xées par rapport aux entrées x(t) et e(t) est l'erreur
entre le système réel et le système identié.
Si l'on applique N paires d'entrées/sorties aux systèmes décrit dans l'équation 1.16
on obtient la forme matricielle suivante
D = P + E (1.17)
où D = [d(1) : : : d(N )]T ; P = [p1 : : : pn] avec pi = [pi(1); : : : ; pi(N )]T ;  =
[1 : : : N ]T ; E = [e(1) : : : e(N )]T .
An d'exécuter l'algorithme OLS sur notre équation 1.17, il faut commencer par xer
les paramètres i;j ; ai;j et xi;j dans les FBFs qui caractérisent pj (x).
On choisit pour cela très simplement tous les ai;j = 1 car les fonctions d'appartenances
du système ou sont supposées avoir la valeur maximale 1 en leurs centres.
Les xi;j centres des FBFs sont initialisées aux premières valeurs des entrées c-à-d
xi;j = xi;0 et les rayons des FBFs sont initialisés aux valeurs i;j = [max(xi;0(j ); j =
1; 2; : : : ; N ) , min(xi;0(j ); j = 1; 2; : : : ; N )]=MS où i = 1; 2; : : : ; n; j = 1; 2; : : : ; N et
MS est le nombre de FBFs qui est le plus souvent déni par les contraintes (M << N ).
Ensuite après cette phase d'initialisation il sut d'appliquer l'algorithme OLS pour
sélectionner les fonction FBFs les plus représentatives de N fonction FBFs déterminées
par la phase d'initialisation.
 A la première itération, pour 1  i  N on calcul
 T  T 
!1(i) = pi; g1(i) = !1(i) d0 = !1(i) !1(i) (1.18)

c 98 Yann MORERE le 17 mai 2001 à 08h 24


1.5 Apprentissage des Systèmes Flous 25
   
(i) 2 (i) T (i) , T 
[err]i1 = g1 !1 !1 = d0 d0 (1.19)
où pi = [pi(x0 (1)); : : : ; pi(x0 (N ))]T et les pi(x0 (t)) sont donné par la méthode de
détermination de FBF initiales. On cherche ensuite
, 
[err]i11 = max [err]i1 ; 1  i  N (1.20)
et on sélectionne
!1 = !1i1 = pi1 ; g1 = g1i1 (1.21)
 A l'étape k avec 2  k  Ms, pour 1  i  N; i 6= i1; : : : ; i 6= ik,1 on calcul
, 
jk(i) = !jT pi= !jT !j ; 1  j  k (1.22)

k ,1     
X (i) T (i) T (i)
!k(i) = pi , jk !j ; gk(i)
(i)
= !k d0= ! k !k (1.23)
j =1

 2  T   , 
[err](ki) = gk(i) !k(i) !k(i) = dT0 d0 (1.24)
On cherche alors
 
[err]ik = max [err](ki) ; 1  i  N; i 6= i1 ; : : : ; i 6= ik,1
k
(1.25)
et on sélectionne
!k = !k(i ); gk = gk(i ) k k
(1.26)
On résout le système triangulaire suivant
A(M )(M ) = g(M ) S S S
(1.27)

2 3
1 12 (i2 )
13(i3 ) : : : 1(iM ) MS

6 (i ) 7
s
(i3 )
6 0 1 23 : : : 2 M 7 MS

A(M ) = 666 : : : : : : : : : : : : : : : 777 (1.28)


s
S

4 0 0 : : : 1 M(i ,)1 M 5 MS

0 0 0 ::: 1
S S

avec
g(M ) = [g1; : : : ; gM ]T ; (M ) = [(1M ) ; : : : ; (MM ) ]T
S
S
S S S

S
(1.29)
Le développement en FBF nal est donné par
MS
X
f (x) = pi (x)(M
j
S ) (1.30)
j =1
où pi (x) est le sous ensemble nal des FBFs séléctionnées par l'algorithme OLS.
j

L.A.M.I.H. c 98 Yann MORERE


26 Réseaux de Neurones et Systèmes Flous
1.5.3.4 Conclusion
On peut donc représenter un système ou comme un combinaison linéaire de fonc-
tions à bases oues et avec l'algorithme des moindres carrés orthogonaux déterminer un
contrôleur ecace.

1.5.4 Apprentissage par Base de Règles Floues


1.5.4.1 Introduction
Ici l'algorithme développé consiste à dénir un système oue adaptatif basé sur des
paires de données d'entrées/sorties et des règles oues linguistiques de type "Si-Alors".
L'idée principale consiste à générer des règles oues à partir des paires d'entrées/sorties
et de les combiner avec les règles linguistiques dans un base de règle.
1.5.4.2 Création des Règles Floues avec les Données Numériques
La tâche consiste donc à transformer des données numériques en données oues sous la
formes de règles. L'approche de transformation des données se décompose en cinq étapes.
Étape 1: Division des espaces d'entrées et de sorties en régions oues
On suppose que l'on peut bornés les domaines d'appartenance des variables d'entrées
et sorties sur des intervalles du types [x,i ; x+i ] pour les entrées et [yi,; yi+] pour les sorties.
On divise alors chacun des ces intervalles en 2N + 1 régions (N peut être diérent pour
chaque variable) Cf. gure 1.7.
Le choix de la fonction d'appartenance autres que des triangles est tout à fait possible.
Étape 2: Création des règles oues à partir des données (Tout d'abord il faut
déterminer les valeurs d'appartenance de chaque variable d'entrées x1 ; x2 ; : : : ; x(ni) et de
i) (i )
sorties y1(i); y2(i); : : : ; yn(i) dans chaque région.
Ensuite on xe pour variable xi ; yj ont la région qui lui correspond le mieux en terme
de valeur d'appartenance.
Finalement on obtient un règle pour chaque paire d'entrée/sortie du type :
Règle 1 : Si x1 est A1 et x2 est B1 Alors y est U1.
Étape 3: Détermination de la valeur d'appartenance de chaque règle Comme
chaque paire de données entraîne la création de d'une règle il est fort probable que des
règles contradictoires apparaissent, il faut donc créer une sorte de compétition entre les
règles en leur aectant une valeur d'appartenance. Cette valeur d'appartenance est dénie
de la manière suivante : Pour une règle R1 du type "Si x1 est A et x2 est B Alors y est
C " on à la valeur suivante :
D(R1) = A(x1)B (x2 )C (y)
Lorsque deux règles rentrent en concurrence on choisit celle qui possède la plus grande
valeur d'appartenance.
Étape 4: Création de la base de règle combinée Il faut donc maintenant remplir
le tableau de la bas de règle : pour cela il faut maintenant prendre en compte les règles
linguistiques décrites par les experts (ce type de règle possède aussi une valeur d'appar-
tenance qui ici serait plus une valeur de croyance aux dires des experts). Si pour une
même conclusion deux règles entre en concurrence (celle crée par les donnée numériques
et celle extraite des dires des experts ) on choisit celle qui possède la plus grande valeurs
d'appartenance.
c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.5 Apprentissage des Systèmes Flous 27

1.0 µ (x i )

0.0 - +
xi xi xi

1.0 µ (y i )

0.0 - +
yi yi yi

Fig. 1.7  Partitions des variables d'entrée et de sorties en régions oues

On voit bien ici que les deux types d'information sont codées dans la même base de
règle.
Étape 5: Création d'une cartographie basée sur la base de règle An de dé-
terminer la valeur réelle de la sortie du système oue on utilise la défuzzication suivante :
 Premièrement pour une paires de données d'entrées/sorties, on combine les prémices
de la règle i en utilisant le produit pour obtenir le degrés d'appartenance de la
sortie iO = I1 (x1 )I2 (x2)où Oi représente la région de la sortie de la règle i et Iji
i i i

représente les régions des des entrées de la règles i pour le j e composant.


 La formule de défuzzication est un moyenne centrée :
PM
i=1 O yi
i
y= PM
i

i=1 O
i
i

où yi représente le centre de la région Oi.

1.5.4.3 Conclusion
Cette procédure en cinq étapes peut être facilement étendue au cas multivariable. Avec
cette méthode il est possible de codé ensemble sous la forme d'un système ou unique
des données diérentes. L'avantage principale de cette méthode est la simplicité de mise
en ÷uvre
L.A.M.I.H. c 98 Yann MORERE
28 Réseaux de Neurones et Systèmes Flous
1.5.5 Apprentissage de Système Flou par Agrégation avec le Plus
Proche Voisin
1.5.5.1 Introduction
Cette méthode permet la conguration d'un système ou de façon optimal par l'ap-
prentissage de ces paires d'entrées/sorties à n'importe quel degrés d'acuité. L'idée est très
simple, au départ on considère le système ou composé d'autant de règle oue qu'il y a
de paires d'entrées-sorties.
Ensuite il faut agrégé les données échantillonnées entre elles par la méthodes des plus
proches voisins. Il sut ensuite de choisir le meilleur des systèmes ous pour ce groupe
de données. On appelle cela aussi système ou adaptatif.
1.5.5.2 Système Flou Optimal
On suppose que pour N paires d'entrées/sorties (avec N assez petit), on peut
construire un système oue qui copie les paires d'entrées/sorties à la précision . Ce
système ou est donné par l'équation 1.31 :

PN  2
jx,x j
l=1 yl exp , 2
l

f (x) = PN 
jx,x j 2
 (1.31)
l=1 exp , 2
l

Il est à noter que  est un paramètre que l'on peut faire varier. Si  est très petit
alors l'erreur jf (x)l , ylj devient très petite, mais alors la fonction f (x) devient très
chaotique. Il faut donc choisir  avec en vue le problème de minimisation de l'erreur et
de généralisation.
On peut remarquer que f (x) est une fonction de régression non-linéaire qui permet
une interpolation douce entre les données d'entrées/sorties.
1.5.5.3 Système Flou Optimal Adaptatif
On a pu voir que le système ou optimal utilise une règle pour chaque paire d'en-
trée/sortie. Ceci devient impraticable lorsque les données deviennent nombreuses. Il
convient alors d'utiliser les techniques d'agrégation de données et chaque groupe de don-
nées sera représenté par une règle bien choisie.
Méthode d'Agrégation
 On commence avec la première paire d'entrée/sortie (x1 ; y1), on xe le centre du
groupe x1;0 en x1 et on xe A1(1) = y1 et B1 (1) = 1. On choisit un rayon r.
 On suppose que lorsque l'on choisit la ke paire d'entrée/sortie il y a déjà M groupe
de données de créés avec M centres x1;0 ; x2;0 ; x3;0; : : : ; xM;0 . Il faut alors calculer
la distance de xk à tous les centres des groupes par jxk , xl;0j; l = 1; 2; : : : ; M et
on considère la plus petite distance jxk , xl ;0j qui corresponds au groupe le plus
proche de xk et celui dont le centre est xl ;0.
k

1. Si jxk , xl ;0j > r,on xe xk comme un nouveau centre de groupe xM +1;0 , et on
xe AM +1(k) = yk ; BM +1(k) = 1 et on conserve Al (k) = Al (k , 1); Bl (k) =
k

Bl (k , 1) pour l = 1; 2; : : : ; M
c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.5 Apprentissage des Systèmes Flous 29
2. Si jxk , xl ;0j  r on calcul de la manière suivante :
k

Al (k) = Al (k , 1) + yk
k k
(1.32)

Bl (k) = Bl (k , 1) + 1
k k
(1.33)
et on xe
Al (k) = Al (k , 1) (1.34)

Bl (k) = Bl (k , 1) (1.35)
pour l = 1; 2; : : : ; M avec l 6= lk .
 Le système ou à l'étape k est calculer de la manière suivante :
 
PM j x,x 0j 2
l=1 Al (k) exp 2, l;

fk (x) = PM 
jx,x 0 j 2
 (1.36)
l=1 B l ( k ) exp ,  2
l;

si xk ne crée pas de nouveau groupe. Si xk crée un nouveau groupe alors M de vient


M + 1 dans 1.36.
On peut remarquer que le rayon r est la variable qui permet de régler la complexité
du système ou. Plus r est petit plus il y a de groupes et donc de règles oues.
On peut aussi voir que l'apprentissage de fait autant au niveau des paramètres que
sur la structure : en eet la principale caractéristique est la possibilité d'ajouter des règles
puisque l'on ajoute des groupes.
Il est possible d'ajouter un facteur d'oubli au équations des coecients A et B
1.32,1.33,1.34,1.35. Ceci peut être très pratique dans le cas d'un système ou est uti-
lisé pour modéliser un système variant dans le temps.
les équations 1.32,1.33,1.34,1.35 deviennent alors :
Al (k) =  , 1 Al (k , 1) + 1 yk
k k
(1.37)

Bl (k) =  , 1 Bl (k , 1) + 1
k k
(1.38)
et on xe alors
Al (k) =  , 1 Al (k , 1) (1.39)

Bl (k) =  , 1 Bl (k , 1) (1.40)
où  peut être considérer comme une constante temporelle d'une fonction de retard
exponentiel.
L.A.M.I.H. c 98 Yann MORERE
30 Réseaux de Neurones et Systèmes Flous
1.5.5.4 Conclusion
Il est donc possible de construire un système ou performant grâce à cette algorithme.
Ce type de système ou adaptatif est utilisé pour construire des régulateurs de systèmes
non-linéaires dynamiques.

1.6 Logique Floue et Réseaux de Neurones


L'utilisation conjointe des réseaux de neurones et de la logique oue permet de tirer
avantage des deux méthodes. Les capacités d'apprentissage de la première et la lisibilité
et la souplesse de la seconde.
Diverses associations de ces deux méthodes ont été développées de puis 1988 et sont
le plus souvent orientées vers la commandes de systèmes complexes et les problèmes de
classication.

1.6.1 Méthodes Neuro-Floues


1.6.1.1 Première Méthode
L'une des premières méthodes est le codage du système d'inférences oues sous la
forme d'un réseau de neurone multicouche dans lequel les poids correspondent aux pa-
ramètres du système. L'architecture du réseau dépend du type de règle et des méthodes
d'inférence, d'agrégation et de défuzzication choisies (Cf. gure 1.8).

fA
11
et
x1 ...
W1
fA
1n
Wi W
et agrégation
...
fA
21 ...
x2 Wp
...
et
fA
2n

Fig. 1.8  Exemple de réseau de neurones pour la commande oue


D'après la gure 1.8 pour des règles de la formes "si V1 est A1i et V2 est A2i alors
W = wi", on a un réseau de neurones qui admet pour entrée les valeurs x1 et x2 prises par
les variables V1 et V2 et dont les deux couches cachées correspondent respectivement au
calcul de la valeur des fonctions d'appartenance A1i pour l'entrée x1 et A2i pour l'entrée x2
et à celui de la valeur prise par la conjonction des conditions de chaque règle utilisant un
opérateur adéquat. Les fonctions d'appartenance sont considérées comme des paramètres,
ajustées par les poids entrant dans la première couche cachée. Les conclusions Wi des
règles sont également des paramètres ajustables par l'intermédiaire des poids associés à
la dernière couche.
c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.7 Système Flou Adaptatif et Réseau de Neurones 31
1.6.1.2 Seconde Méthode
Cette seconde approche consiste à utiliser les réseaux de neurones pour remplacer
chacune des composantes d'un système de commande oue. Ces réseaux servent d'ap-
prentissage des fonctions d'appartenance, au calcul de l'inférence à la réalisation de la
phase d'agrégation et de défuzzication. Ils peuvent réaliser l'extraction des règles oues
en analysant la corrélation qui existe entre les entrées et les sorties du réseau de neurones.
Ces approches permettent de résoudre deux problèmes important de la logique oue :
 Détermination des fonction d'appartenance
 Adaptation a l'environnement du système
1.6.1.3 Troisième Méthode
Elle utilise des réseaux de neurones et des systèmes ous associés en série ou en
parallèle. Plusieurs variantes d'utilisation sont possibles :
 Le réseau de neurones fonctionne en amont du système ou. Les variables d'entrées
du système ou sont déterminées à partir des sorties du réseau de neurones (dans le
cas où elles ne sont pas mesurables directement) Cf. gure 1.9 ou encore un réseau
de neurones eectue une tâche de classication ou de reconnaissances de formes,
qui est suivit d'un système ou d'aide à la décision.
 Un réseau de neurones qui fonctionne en aval du système ou, dans le but d'ajuster
les sortie d'un système de commande oue à de nouvelles connaissances obtenues,
les variables de sortie étant les erreurs sur les variable de sortie du système ou Cf.
gure 1.10

Réseau
x1
y1
x2
y2 Système
... Flou Z1
xk ... Z2
Neuronal
y 1'

y 'k

Fig. 1.9  Exemple d'association en série d'un réseau de neurone et d'un système ou

1.7 Système Flou Adaptatif et Réseau de Neurones


1.7.1 Introduction
Les systèmes ous et les réseaux de neurones ont le même objectif, tous les deux
tentent de modéliser le fonctionnement du cerveau humain. Mais il y une nuance entre
les deux. Les réseaux de neurones tentent de modéliser l'architecture du cerveau en créant
un modélisation de l'entité du cerveau : le neurone. Les systèmes ous eux modélisent le
cerveau par son mode de fonctionnement (apprentissage et déduction).
L.A.M.I.H. c 98 Yann MORERE
32 Réseaux de Neurones et Systèmes Flous

Système
x1 Flou z1 Z1
x2
z2 Z2
...
xk

Réseau
x1
dz 1
x2
dz 2
...
xn+k
Neuronal

Fig. 1.10  Exemple d'association en parallèle d'un réseau de neurone et d'un système
ou
1.7.2 Perceptron et Système Flou Adaptatif
Un perceptron est un réseau de neurones multicouche à propagation de signal avant
Cf. 1.11 Le signal se propage donc de la couche d'entrées vers la couche de sortie. Les

x '1 x''1
x1 y1

Entrées Sorties

xn ym
'
xn1 ''
xn2

Couche Couche Couche Couche


d'entrée Cachée 1 Cachée 2 de sortie
n2
y =f( Σ ω '' x '' − θ )
j i=1 ij i j
n1
x '' =f( Σ ω ' x ' − θ )
j i=1 ij i j
n
x ' =f( Σ ω x − θ )
j i=1 ij i j

Fig. 1.11  Perceptron à deux couches cachées


!ij représentent les poids des neurones, j un seuillage et enn la fonction f () qui est le
plus souvent une sigmoïde.
1
f (x) = 1 + exp( (1.41)
,x)
Ainsi pour un vecteur d'entrée x = (x1; : : : ; xn)T on calcule successivement les sorties
des deux couches cachées x0 = (x01 ; : : : ; x0n1)T et x00 = (x001 ; : : : ; x00n2)T et enn le sortie du
réseau y = (y1; : : : ; ym)T
c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.7 Système Flou Adaptatif et Réseau de Neurones 33
Si on utilise des données d'entrées/sorties pour l'apprentissage du réseau de neurones,
il est alors possible d'utiliser l'algorithme de rétropropagation du gradient de l'erreur an
de minimiser une erreur quadratique.
A chaque couple entrée/sortie, une erreur est calculée, le gradient, ou pente, de l'erreur
est déterminé. Ensuite les poids et les biais sont modiés en ligne sur le réseau. On réitère
ces calculs jusqu'à l'obtention du critère d'arrêt.
1.7.2.1 Algorithme
1. Initialisation des poids !ijq à des petites valeurs aléatoires
2. Présentation d'une entrée xk et de la sortie désirée dk .
3. Calcul
P
de la sortie

actuelle par propagation à travers les couches par yj[q] =
f i !ji[q]  yi[q,1] où f est la fonction de transfert du neurone et [q] la qe couche
du réseau.
P  
4. Accumulation des erreurs en sortie  = k dk , yk[s] Où dk est la sortie désirée
associée au vecteur d'entrée xk . Où yk[s] est la sortie obtenue sur la dernière couche
au temps t.  est l'erreur cumulée pour k présentations de couples (xk ; dk ).
5. Rétropropagation du gradient de l'erreur () depuis la dernière couche vers la pre-
mière couche    
 F Pour chaque cellule de sortie i[s] = , di , yi[s]  f 0 p[is]
P  
 F Pour chaque cellule cachée i[q] = , k k[q+1]  !ki  f 0 i[p]
 
6. Mise à jour des poids selon la règle : !ij[q] =  k[q]  x[jq] où est le coecient
d'apprentissage compris dans l'intervalle [0; 1].
7. Retour à 2 tant qu'il y a des couples à présenter.
Choix du critère à minimiser
Dans le cas de la rétropropagation de l'erreur, le critère à minimiser est une erreur qua-
dratique. L'application de l'algorithme du gradient nécessité la dérivabilité de la fonction
P  2
de transfert. Le critère de minimisation d'erreur est le suivant  = k dk , yk[s]

1.7.2.2 Avantages et Inconvénients


Avantages Ce fût un des premiers algorithmes développés pour l'apprentissage des
réseaux de neurones multicouches de type feedforward. Il permet de pallier une carence
de l'algorithme du perceptron qui est incapable de modier les poids des couches cachées
[DAVALO et NAÏM, 1993]. L'implémentation informatique ne présente pas de dicultés.
Il a surtout permis de sortir le connexionnisme de l'impasse que représente l'apprentissage
des réseaux de types feedforward multicouches en permettant la modication des poids
des couches cachées.
Inconvénients En ce qui concerne l'algorithme
 L'algorithme de rétro-propagation du gradient de l'erreur suit la descente du gra-
dient de l'erreur : un minimum local peut rapidement bloquer la recherche des
optima globaux.
L.A.M.I.H. c 98 Yann MORERE
34 Réseaux de Neurones et Systèmes Flous
 L'algorithme de rétropropagation est gourmand en temps de calcul.
 Importance du choix du coecient d'apprentissage, si le coecient est trop grand
la dynamique du réseau va osciller autour de l'optimum, si il est trop petit, la
convergence est lente et elle va se faire piéger dans un minimum local.
 Les fonctions de transfert doivent être dérivables.
1.7.3 Réseau à Fonctions à Base Radiale et Système Flou Adap-
tatif
Basé sur une réalité biologique, Moody et Darken [MOODY et DARKEN, 1988] ont
proposé un réseau de neurone nommé "Radial Basis Function Network (RBF Network)
".

ω ij
y1
x1

yj

xn
ym

Fig. 1.12  Réseau à Fonctions à Base Radiale


Chaque sortie yi peut être calculée de deux manières :
n
X
yi = ! , ijRj (x) (1.42)
j =1
la plus simple ou
Pn
=1 ! , ijRj (x)
jP
yi = n R (x) (1.43)
j =1 j
qui donne une réponse normée avec Rj (x) tel que
n !
Rj = exp
X ( x , c
, i 2 i;j ) 2
(1.44)
i=1 i;j
ou
Rj = P
1 (1.45)
2
1 + exp ni=1 , (x ,2c ) i

i;j
i;j

c 98 Yann MORERE le 17 mai 2001 à 08h 24


1.8 Commande Floue Adaptative à Stabilité Indirecte de Systèmes
Non-Linéaires 35
Après avoir ecrit ces équations (1.10 et 1.43, il est très facile de se rendre compte de
la similitude entre les réseaux RBF et les systèmes ous dénit par Wang 1.8.
Mais ces deux approches sont diérentes en ce sens que les réseaux RBF sont un cas
particulier des systèmes ous adaptatifs du fait des restrictions choisie par [WANG, 1995].
De plus les fonctions d'appartenance peuvent prendre diérentes formes (gaussienne,
triangulaire, trapézoïdale, ...) alors que dans un réseau RBF les fonctions de transferts
sont toujours gaussiennes.
1.7.3.1 Conclusion
Bien que les deux approches soit diérentes, l'une basée sur l'architecture du cerveau
humain et l'autre sur son mode de fonctionnement, les équations résultantes sont très
semblables.
Mais on peut remarquer que les systèmes ous comparés aux réseaux RBF sont plus
généraux.
De plus les réseaux de neurones ne peuvent prendre intégrer facilement de la connais-
sances linguistiques, ils sont basés sur un apprentissage des entrées/sorties.

1.8 Commande Floue Adaptative à Stabilité Indirecte


de Systèmes Non-Linéaires
1.8.1 Introduction
Lorsque les systèmes ous développés précédemment sont utilisés comme régulateurs
on parle alors de régulateurs ous. Ces régulateurs sont largement utilisés dans l'industrie
[TANAKA et al., 1995]
La commande oue possède des avantages indéniables. Dans le cas d'un modèle ma-
thématique du système dicile à obtenir, il est très pratique d'utiliser les informations
que l'on peut obtenir facilement (mesures numériques des variables utiles, description
linguistiques du système par les experts humains). Par dénition le système ou peut
prendre en compte les deux types de données.
Cette approche ne nécessite pas de modèle mathématique du système.
La commande oue génère des régulateurs non-linéaires qui est en concordance avec
le fait qu'il sont des approximateurs universels. Il devient alors possible de construire un
régulateur ou pour n'importe quel système non-linéaire.
La commande oue est aussi simple à comprendre car elle reprend le langage humain
dans ses dénitions de règles.
Ce type de commande reste simple à mettre en ÷uvre avec les ordinateur et calculateur
dont nous disposons de nos jours ce qui contribue à en faire approche très bon marché
pour les entreprise.

1.8.2 Les diérents Types de Commandes Floues


1.8.2.1 Commande Floue Adaptative
Le plus souvent les régulateurs ous sont utilisés dans des systèmes qui possèdes des
variations inconnues intrinsèques. L'objectif est donc de conserver de bonne performance
du système complet en adaptant le régulateur en fonction des variations du système.
L.A.M.I.H. c 98 Yann MORERE
36 Réseaux de Neurones et Systèmes Flous
La commande oue adaptative se compose donc d'un régulateur ou adaptatif (soit
unique soit choisi parmi un groupe de régulateur en fonction de sa performance). La chose
la plus importante qui diérencie un régulateur ou adaptatif et un régulateur adaptatif
conventionnel est que le premier peut prendre en compte des données linguistiques. Ce
qui est très important lorsque le système possède des incertitudes que l'opérateur humain
à appris à anticiper.
1.8.2.2 Commande Adaptative Floue Directe et Indirecte
D'après NARENDRA et PARTHASARATHY [NARENDRA et PARTHASARATHY,
1990], les régulateurs ous sont séparés en deux classes :
 Les régulateurs adaptatifs directs : ici les paramètres du régulateurs sont modiés
en ligne an de minimiser l'erreur entre le modèle de référence et le système réel.
Donc si le régulateur possède un système à base de logique oue on parle alors de
régulateur ou adaptatif direct.
 Les régulateurs adaptatifs indirects : les paramètres du système réel sont estimés
et le régulateur est choisi en supposant que les valeurs estimées du sont les vrais
valeurs du système réel. Si le modèle du procédé réel utilise un système à base de
logique oue on parle alors de régulateur ou adaptatif indirect.
1.8.2.3 Types de Commande oue Adaptative
Trouver un bon régulateur ou dépend de la facilité de trouver les bons paramètres
de celui-ci par les diérentes méthodes d'apprentissage décrites précédemment.
Il est aisé de comprendre qu'il estplus simple de trouvé un régulateur ou optimal
(qui répond le mieux au critère de performance choisi) s'il est linéaire par rapport à ces
paramètres ajustables. D'un autre coté un régulateurs ou non-linéaire par rapport à ces
paramètres sera beaucoup plus dicile à trouver mais ses performances seront sans doute
meilleures.
On classe donc ces régulateurs ous en deux types :
 Les régulateurs ous comprenant des systèmes ous linéaires par rapport à leurs
paramètres ajustables sont dit Régulateur Flou Adaptatif du Premier Type.
 Les régulateurs ous comprenant des systèmes ous non-linéaires par rapport à
leurs paramètres ajustables sont dit Régulateur Flou Adaptatif du Second Type.
Dans le cas du premier type de régulateur on utilise le système ou décrit par l'équa-
tion suivante :
M
X
f (x) = l l (x) = T (x) (1.46)
l=1
où  = (1 ; : : : ; M )T ;  = (1(x); : : : ; M (x))T ; l(x) est n fonction à base oue dénie
par
Qn
F (xi)
 (x) = PM i=1 (1.47)
l

Qn
i

l=1 i=1 F (xi ) l


i

l sont les paramètres ajustables et F sont des fonctions d'appartenance données.


l

Dans le cas du second type de régulateur on utilise le système ou décrit par l'équation
i

suivante
c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.8 Commande Floue Adaptative à Stabilité Indirecte de Systèmes
Non-Linéaires 37
   2 
PM Qn x ,x
l=1 yl i=1 al;i exp , 
i l;i

f (x) = (1.48)
l;i

   2 
PM Qn x ,x
l=1 i=1 al;i exp , i

 l;i
l;i

où yl ; xl;i et l;i sont les paramètres ajustables.


On peut remarquer d'après les équations que les deux types de régulateurs ous adap-
tatifs sont non-linéaires.

1.8.3 Conception de Régulateur Flou Adaptatif Indirect basé sur


l'approche de Lyapunov
1.8.3.1 Méthode de Lyapunov
La méthode de Lyapunov permet d'étudier la stabilité de systèmes complexes (régit
par des systèmes diérentielles).
L'étude la stabilité des systèmes diérentielle est énoncé de la manière suivante.
Théorème 1.8.1. Soit V (x) une fonction candidate de Lyapunov.
a) V (x) > 0; et 8x 6= 0; V (0) = 0
b) 9 (:); (:) fonctions scalaires R (n) ! R continues telles que (kxk)  V (x) 
(kxk)
c) quand kxk ! 1 alors V (x) ! 1 fonction indéniment croissante.
Si V_ (x) < 0; 8x 2 Dn domaine de stabilité, la solution de su système diérentiel est
asymptotiquement stable.

1.8.3.2 Application à l'Automatique dans le Cas d'un Système Libre


En Continu Soit le système décrit par la représentation d'état suivante
X_ = AX (t)
Il s'agit d'un système libre (pas de commande sur ce système la matrice B est nulle). Soit
Q une matrice positive.
Théorème 1.8.2. Le système est stable si et seulement si 9P > 0; AT P + PA + Q = 0
(Equation de Lyapunov).
R 1 DeT plus V (X ) = X T PX est une fonction candidate de Lyapunov décroissante et
0 X QX dA = X(0) PX(0) avec min kX k  X PX  max kX k
T 2 T 2

En Discret Soit le système décrit par la représentation d'état suivante


X (k + 1) = AX (k)
Il s'agit d'un système libre (pas de commande sur ce système la matrice B est nulle). Soit
Q une matrice positive.
L.A.M.I.H. c 98 Yann MORERE
38 Réseaux de Neurones et Systèmes Flous
Théorème 1.8.3. Le système est stable si et seulement si 9P > 0; AT PA , P + Q = 0
(Equation de Lyapunov en discret).
P1
De plus V (X ) = X T PX est une fonction candidate de Lyapunov décroissante et
i=0 X (i)QX (i) = X(0) PX(0) et V devient
T T

V (X (k)) = V (X (k + 1)) , V (X (k + 1))


= X (k + 1)T PX (k + 1) , X (t)T PX (k)
= X T (AT PA , P )X
1.8.3.3 Exemples
1. Soit l'équation diérentielle suivante :
x_ = ,x + 21 sin x; avec x 2 R
Soit V (x) = 12 kxk2 = 12 xT x. On a alors
_ = ,x2 + 12 x sin x
V_ (x) = xx
| {z }
| {z
<x2 }
<0
La dérivée est donc strictement décroissante. La solution de l'équation est donc
asymptotiquement stable.
2. Soit le système diérentiel suivant :
    
x_ 1 = 0 1 x1
x_ 2 ,1 ,1 + x21 (t) x2
Soit V (x) = 21 (x21 + x22). On a alors
V_ (x) = x1 x_ 1 + x1 x_ 1
= x1 x2 , x1 x2 + x| 22 (x{z
2 , 1)
1 }
<0?
Le domaine de stabilité Ds est tel que jx1 j < 1
Le système est donc asymptotiquement stable si x(0) 2 Ds Cf. gure 1.13.
1.8.3.4 Application à l'Automatique dans le Cas Général
Soit le système décrit par la représentation d'état suivante
X_ = AX (t) + Bu(t)
. Soit Q  0 et R > 0.
Soit l'équation de Riccati : AT P + PA , PBR,1B T P + Q = 0
Théorème 1.8.4. Si les matrices A et B sont sous la forme commandable alors 9!P >
0 = la loi uR(t1) = ,R,1 B T PX (t) stabilise le système en boucle fermée et minimise le
critère J = 0 X T QX + U T RU dt.
R 1 DeT plus V = TX PX est une fonction
T candidate de Lyapunov décroissante et
0 X QX dA = X(0) PX(0) avec minkX k  X PX  max kX k
2 T 2

c 98 Yann MORERE le 17 mai 2001 à 08h 24


1.8 Commande Floue Adaptative à Stabilité Indirecte de Systèmes
Non-Linéaires 39
1234567890123456789012 123456789012345678901
1234567890123456789012
1234567890123456789012 x2 123456789012345678901
123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012
1234567890123456789012
1234567890123456789012
1234567890123456789012
Dn 123456789012345678901
123456789012345678901
123456789012345678901
123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 1 123456789012345678901
1234567890123456789012
1234567890123456789012 -1 123456789012345678901
x
123456789012345678901
1234567890123456789012
1234567890123456789012
123456789012345678901
123456789012345678901 1
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012
1234567890123456789012 123456789012345678901
123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901
1234567890123456789012 123456789012345678901

Fig. 1.13  Domaine de stabilité du système

1.8.3.5 Application à la Conception de Régulateurs Flous


Soit le système ou décrit par les règles suivantes Ri : i 2 f1; : : : ; rg de la forme :
si z1 (t) est F1i et : : : zp(t) est Fpi
Sa solution est décrite par le système suivant :

X_ (t) = Ai X (t) + Biu(t)
Y (t) = Ci(t)
Qp
Et d'après la dénition des règles oues on a !i (z(t)) = j =1 F i (zj (t)) d'où
P =1 ! (z(t))(A X (t)+B u(t))
j

8
>
< X_ (t) = P =1 ! (z(t))
r
i i
r
i

i
i

(1.49)
i

> P
: Y (t) = =1P!=1(z(!t))((zC(t))X (t))
r
i i i
r
i i

P
Posons h(t) tel que 0  hi (z(t)) = P !=1(!z(t())z(t))  1 et ri=1 hi (z(t)) = 1
r
i

le système devient alors


i i

 P
X_ (t) = Pri=1 hi (z(t)) (Ai X (t) + Biu(t)) (1.50)
Y (t) = ri=1 hi (z(t)) (CiX (t))
Cas du système libre Soit le système libre décrit par Pri=1 hi (z(t)) (AiX (t)) D'après
le théorème de Lyapunov soit V = X T PX on a alors
r
X , 
V_ = z(t))}[X T ATi P + PAi X ]
h| i ({z
i=1 | {z }
0 8i;<0
Pour assurer la stabilité il faut donc trouver P telle que 8i; 9 P ; ATi P + PAi < 0
L.A.M.I.H. c 98 Yann MORERE
40 Réseaux de Neurones et Systèmes Flous

Régulateur
Flou Système

Fig. 1.14  Schéma d'un système complexe contrôlé par régulateur ou

Cas du système général Soit le système de la gure 1.14 décrit par


8 Pr
< X_ (t) = i=1 hi (z (t)) (Ai X (t) + Bi u(t))
Pr
(1.51)
:
U (t) = , i=1 hi (z (t)) (Fi X (t))
P
On a u(t) = ri=1 hi (z(t)) (FiX (t))
Donc X_ devient :
P P
X_ = Pri=1 hi (z(t)) (AiXP(t) , Bi Pri=1 hi (z(t)) Fi) X (t)
= Pri=1 P hiAiX (t) , ri=1 hiBi ri=1 hi FiX
= ri=1 rj=1 hihj (Ai , BiFi) X (t)
P
de plus on hi = 1 D'après Lyapunov il faut trouver P telle que :
8i; 8j 2 R ; (Ai , Bi Fj )T P + P (Ai , Bi Fj ) < 0
Mais X_ peut s'écrire :
Pr Pr
X_ = i=1 hi (Ai , Bi Fi ) X (t) + j>i hi hj (Ai , Bi Fj + Aj , Bj Fi ) X (t)
2

1.8.3.6 Synthèse de Régulateur Flou d'après Wang


Soit le système d'ordre n sous sa forme commandable :
x_ 1 = x2
x_ 2 = x3
:::
x_ n,2 = xn,1

x_ n = f (x1; : : : ; xn) + g(x1; : : : ; xn )u; y = x1 (1.52)


ou la forme équivalente
x(n) = f (x; x;_ : : : ; x(n,1) ) + g(x; x;_ : : : ; x(n,1) )u; y = x (1.53)
où f et g sont des fonctions inconnues, u 2 R et y 2 R sont les entrées et les sorties du
système. x = (x1; : : : ; xn)T = (x1 ; : : : ; xn)T 2 R est le vecteur d'état du système supposé
mesurable.
c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.8 Commande Floue Adaptative à Stabilité Indirecte de Systèmes
Non-Linéaires 41
Stabilité du régulateur On suppose aussi pour la commandabilité du système que
8x 2 Uc  R n ; g(x) =6 0 et par commodité on prendra g(x) > 0; 8x 2 Uc région certaine
de controllabilité.
On doit maintenant déterminer une commande u = u(u j ) oue et une loi d'adap-
tation des paramètres du vecteur  telles que :
1. Le système en boucle fermée doit être asymptotiquement stable c-à-d que toutes
les variables x(t); (t) et u(x j doivent être bornées.
2. L'erreur entre la sortie réelle et la sortie simulée, e = ym , y doit être minimisée.
Soit e = (e; e;_ : : : ; en,1)T vecteur des dérivées n-ième et k = (kn; : : : ; k1)T 2 R tels
que toutes les racines du polynômes de stabilité h(s) = sn + k1sn,1 + : : : + kn soient dans
le demi-plan gauche.
Si les fonction f et g sont connues alors la loi de commande est :

u = g(1x) ,f (x) + ym(n) + kT e


 
(1.54)
en remplaçant u de 1.54 dans 1.52 on obtient :

y(n) = ,kT e , ym(n)e(n) + k| 1e(n,1) +{z: : : + kne} = 0 (1.55)


e:k T

donc limt!1 e(t) = 0 qui est l'objectif de la commande.


Régulateur équivalent On remplace f et g inconnue par par les systèmes ous f^(x j )
et g^(x j ) du types de 1.46 et 1.48.
f^(x j ) et g^(x j ) sont donc le la forme :
f^(x j f ) = f (x):f
g^(x j g ) = g (x):g
et la loi de commande devient :
h i
uc = g^(x1j ) ,f^(x j f ) + ym(n) + kT e (1.56)
En remplaçant uc de 1.56 dans 1.52 on obtient :
g^(x j g ) , g(x)  ^ 
e =ym , f (x) , g^(x j  ) : ,f (x j f ) + k e + ym
( n ) (n ) T ( n)
g
+ f^(x j f ) , k e , ym
T (n) (1.57)
, 
= , kT e + f^(x j f ) , f (x) + g^(x j g ) , g(x) uc
ou de façon équivalente on peut écrire
h 
,  i
e_ = ce + bc f^(x j f ) , f (x) + g^(x j g ) , g(x) uc (1.58)

L.A.M.I.H. c 98 Yann MORERE


42 Réseaux de Neurones et Systèmes Flous
avec
2 3
0 1 0 0 ::: 0 0 2
0
3
6 0 0 1 0 ::: 0 0 7 7
c = 6 : : : : : : : : : : : : l : : : : : : : : : 77 ; bc = 64 : 0: : 75
6 6 7
6 (1.59)
4 0 0 0 0 ::: 0 1 5 1
,kn ,kn,1 : : : : : : : : : : : : ,k1
On sait alors que si c est une matrice stable, alors 9P une matrice dénie positive
unique qui satisfait l'équation de Lyapunov :
Tc P + P c = ,Q (1.60)
ou Q est une matrice dénie positive.
Prenons V = eT Pe la dérivée V_ s'écrit d'après 1.58 donc :
,    , 
V_ = eT Tc P + P c e + 2eT Pbc f^(x j f ) , f (x) + g^(x j g ) , g(x) uc
  , 
=, T
e Qe T ^
+ 2e Pbc f (x j f ) , f (x) + g^(x j g ) , g(x) uc
| {z } | {z }
<0 pour la stabilite <0 ce qui est difficile a assurer

Commande de supervision Pour simplier le problème on remplace u par u = uc +us.


Le terme additionnel us est une commande forte dont le but est de forcer V_  0 et en
reprenant le calcul on obtient :
h  ,  i
^
e_ = ce + bc f (x j f ) , f (x) + g^(x j g ) , g(x) uc , g(x)us (1.61)
de même V_ devient :
,   
V_ = eT Tc P + P c e + 2eT Pbc f^(x j f ) , f (x)
,  
 g^(x j  g ) , g (x) uc , g (x)us
+ (1.62)
 ,eT Qe + 2jeT Pbcj jf^(x j f )j + jf (x)j

+jg^(x j g )ucj + jg(x)ucj , 2eT Pbcg(x)us
Hypothèse On suppose qu'il existe f U (x); gU (x) et gL(x) telles que 8x 2 R ; jf (x)j 
f U (x); 0 < gL(x)  g(x)  gU (x) < 1
On choisit alors us de la manière suivante :
h i
us = I1 sign eT Pbc g 1(x) jf^(x j f )j + f U (x) + jg^(x j g )ucj + jgU (x)ucj
, 
L
avec us 6= 0 si Ve > V c-à-d I1 = 1 si Ve > V et I1 = 0 sinon.
et d'après l'équation 1.62 on obtient :
h 
V_  ,eT Qe + 2jeT Pbcj jf^j + jf j + jg^ucj + jgucj
 i
, gg jf^j + f U + jg^ucj + jgU ucj (1.63)
L

 ,eT Qe < 0
c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.8 Commande Floue Adaptative à Stabilité Indirecte de Systèmes
Non-Linéaires 43
Loi d'adaptation des paramètres du régulateur ou On dénit les relations sui-
vantes :
 

f = argmin 2
sup jf^(x j f ) , f (x)j (1.64)
x2U
f f
c

 
 = argmin
g  2
sup jg^(x j g ) , g(x)j (1.65)
x2U
g g
c


f et
g sont les espaces de contraintes de f et g dénit tels que


f = ff : jf j  Mf g (1.66)


g = fg : jg j  Mg g (1.67)
On dénit alors l'erreur d'approximation minimum par
   
! = f^(x j f ) , f (x) + f^(x j g )g(x), uc (1.68)
On peut alors réécrire l'équation 1.61 :
h 
e_ =ce + bcg(x)us + bc f^(x j f ) , f^(x j f )
,   (1.69)
+ g^(x j g ) , g^(x j g ) uc , !
Si les systèmes ous f^ et g^ sont choisi de la forme de 1.46 on peut écrire :
h i
e_ =ce + bcg(x)us + bc! + bc Tf (x) + Tg  (x)uc (1.70)
où f = f , f et g = g , g et (x) est le vecteurs des fonctions à bases oues.
On choisi alors la fonction candidate de Lyapunov V :
V = eT Pe + 1 Tf f + 1 Tg g
1 2
avec 1 > 0 et 2 > 0.
 
V_ = ,eT Q e + eT P bc Tf (x) + Tg (x)uc + !
+ 2 Tf _f + 2 Tg _g , 2eT P bc g(x) us
1 2
V_ = ,e Q e |,2e P {zbc g(x) u}s + 2eT P bc !
T T
(1.71)
<0
 _ 
2 1 f + 1 eT P bc (x)
T

+ f

  
+ 2 1 _g + 1 eT P bc (x) uc
T
g

L.A.M.I.H. c 98 Yann MORERE


44 Réseaux de Neurones et Systèmes Flous
On choisi alors la loi d'adaptation des paramètres suivantes :


_f = , 1ePbc (x) (1.72)
_g = , 2ePbc (x)uc
Ceci a pour eet d'annuler une partie de l'équation 1.71 qui devient :

V_  ,eT Qe + eT Pbc! (1.73)


Le terme eT Pbc! est de l'ordre de l'erreur d'approximation minimum.

. (n-1)
(ym ,ym ,...,ym )

u x - +
Procédé
(n)
x =f(x)+g(x)u,y=x
e

+ Régulateur flou
^ (n) ^ θ )
+ u c =[-f(x| θ f ) + y m + kT e] / g(x| g

θ f θg

θ f (0)et θg(0) Loi d'Adaptation


initiaux déterminés par .
les informations linguistiques θ f =h ( θ f ,e,x)
. f
θg =h g ( θg,e,x)

θ f θg
I1* =0 I1* =1
Commande de Supervision
^ ^
0 u s =sign(eT P b c )[ |f| +f U+|guc | + |gUuc |]/g L

Fig. 1.15  Schéma complet de la commande adaptative oue indirecte

1.8.3.7 conclusion
An de mener à bien cette approche le vecteur d'état x doit être accessible. Dans le
même odre d'idée la commande u.
Si la connaissance a priori du système est très faible la convergence de l'algorithme
sera beaucoup plus longue.
Cette méthode permet de déterminer un régulateur ou adaptatif qui assure la stabi-
lité en boucle fermée.
c 98 Yann MORERE le 17 mai 2001 à 08h 24
1.8 Commande Floue Adaptative à Stabilité Indirecte de Systèmes
Non-Linéaires 45

,   
V_ = eT Tc P + P c e + 2 eT Pbc f^(x j f ) , f (x)
,  
+ g^(x j g ) , g(x) uc , g(x)us
(1.74)
T 
 , eT Q e +2 e Pbc f^(x j f ) + jf (x)j

+ g^(x j g )uc + jg(x) ucj , 2 eT Pbc g(x) us

L.A.M.I.H. c 98 Yann MORERE


Bibliographie
[BERTOLD, 1994] M. R. BERTOLD. A time delay radial basis function network for pho-
neme recognition. In Proceedings of the international conference on Neural Networks,
Orlando, 1994. Intel Corporation, Santa Clara.
[BOUCHON-MEUNIER, 1995] B. BOUCHON-MEUNIER. La Logique Floue et ses ap-
plications. Vie Articielle. Addison-Wesley, 1995.
[DAVALO et NAÏM, 1993] E. DAVALO et P. NAÏM. Des Réseaux de Neurones. EY-
ROLLES, 1993.
[HARP et SAMAD, 1992] S. HARP et T. SAMAD. Genetic synthesis of neural network
architecture. L. DAVIS. Van Nostrand Reinhold, New-York, 1992.
[KOSKO, 1992a] B. KOSKO. Fuzzy systems are universal approximators. In 1st Inter-
national IEEE Conference on Fuzzy Systems, pages 11531162, 1992. San Diego.
[KOSKO, 1992b] B. KOSKO. Neural Networks and Fuzzy Systems : A Dynamical Ap-
proach to Machnie Intelligence. Prentice Hall, 1992.
[MOODY et DARKEN, 1988] J. MOODY et C. DARKEN. Learning with localized re-
ceptive elds. In 1988 Connectionnist Models Summer School, Carnegie Mellon Uni-
versity, 1988.
[NARENDRA et PARTHASARATHY, 1990] K. S NARENDRA et K. PARTHASARA-
THY. Identication and control using neural networks. In IEEE Transactions On
Neural Networks, volume 1, pages 427, 1990.
[ORR, ] M. J. L. ORR. Introduction to radial basis function networks.
[TANAKA et al., 1995] K. TANAKA, M. SANO, et H. WATANABE. Modeling and
control of carbon monoxide concentration using neuro-fuzzy technique. In IEEE Tran-
sactions On Fuzzy Systems, volume 3, pages 271279, 1995.
[TONG-TONG, 1992] J. R. TONG-TONG. La Logique Floue. Edition Hermès, 1992.
[UNAR et MURRAY-SMITH, ] M. ALI UNAR et D. J. MURRAY-SMITH. Radial basis
function networks for ship steering control.
[WANG, 1995] L. X. WANG. Adaptative Fuzzy System And Control : Design And Sta-
bility Analysis. PRENTICE HALL, 1995.