Vous êtes sur la page 1sur 19

École Nationale d'Ingénieurs de Monastir Département de Génie Électrique

 
   ­€

‚ƒ„…†‡„„


   
 
Sommaire

Chapitre I : La logique floue

I.1. Introduction 1
I.2. Théorie des ensembles flous 1
I.3. Raisonnement flou 6
I.4. Applications de la logique floue 11

Chapitre II : Les réseaux de neurones

II.1. Introduction 13
II.2. Historique 13
II.2. Neurones biologiques 13
II.3. Neurone formel 14
II.4. Architecture des RNA 17
II.5. Apprentissage des RNA 20
II.6. Domaines d’application des RN 26

Chapitre III : Les algorithmes génétiques

III.1. Introduction 30
III.2. Analogie avec l’évolution biologique 30
III.3. Principe de fonctionnement d’un AG 30
III.4. Opérateurs génétiques 31
III.5. Types de codage 33
III.6. Fonction d’évaluation et critère d’arrêt 34
CHAPITRE II

Les réseaux de neurones


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

II.1. Introduction
L’étude des réseaux de neurones a pris ses origines de l’étude des systèmes nerveux des
êtres vivants. L’intention d’une telle étude est d’imiter certaines fonctions du cerveau humain.
Les réseaux de neurones artificiels (RNA) sont composés de modèles de neurones biologiques
interconnectés fonctionnant de manière coordonnée et contribuant chacun à la production
d’un résultat.

II.2. Historique
Les premiers à proposer un modèle de neurone formel sont Mac Culloch et Pitts. Pour cette
architecture Hebb a proposé en 1949 une formulation de mécanisme d’apprentissage sous la
forme d’une règle de modification des connexions synaptiques (règle de Hebb). Ensuite, en
1958, le premier réseau de neurone artificiel a apparu suite aux travaux de Rosenblatt qui a
conçu le fameux perceptron inspiré du système visuel. Ce système parvient à apprendre à
identifier des formes simples et à calculer certaines fonctions logiques. En 1969, Minsky et
Papert ont critiqués le perceptron en montrant toutes les limites de ce modèle et soulevant
particulièrement la capacité de perceptron à résoudre non linéairement séparables tel que le
problème de XOR. Après en 1982, l’intérêt de ce domaine est de nouveau présent grâce aux
travaux de Hopfield qui a démontré tout l’intérêt d’utiliser des réseaux récurrents. En parallèle
des travaux de Hopfield un mécanisme d’apprentissage pour les réseaux multicouches de type
perceptron a été conçu en 1986 par Rumelhart dit algorithme de retro-propagation de l’erreur
fournissant un moyen simple d’entraîner les neurones de couches cachées.

II.3. Neurones biologiques


II.3.1. Structure du neurone biologique

La structure d’un neurone biologique est donnée par la figure II.1 suivante :

Corps cellulaire
Noyau

Dentrites
Axone Synapse

Figure II.1 : Structure du neurone biologique

A. SAKLY & F. HAMDAOUI 13 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

Le neurone est composé de quatre éléments :


- Corps cellulaire : contient le noyau du neurone ainsi que la machine biochimique
nécessaire à la synthèse des enzymes et d’autres molécules qui assurent la vie du
neurone.

- Dendrites : ce sont les principaux récepteurs du neurone, captant les signaux qui lui
parviennent et les acheminant vers le corps du neurone.

- L’axone : permet de transmettre les signaux émis par le corps cellulaire aux autres
neurones.

- Les synapses : C’est une jonction entre l’axone d’un neurone et les dendrites d’autres
neurones permettant la communication entre neurones.

II.3.2. Fonctionnement du neurone

Les messages nerveux (influx) se propagent des dendrites vers le corps cellulaire puis vers
l’axone du neurone :
Dendrites→Corps cellaire→Axone
Le corps cellulaire est un sommateur à seuil. Il effectue la somme de tous les influx
nerveux provenant à travers les dendrites. Si la somme est supérieure à un certain seuil le
neurone répond par un influx nerveux qui se propage le long de son axone. Le schéma de
principe d’un traitement cellulaire est donné par la figure II.2 suivante :

Corps cellulaire

Dentrites  Axone

Sommation Seuillage
Figure II.2 : Schéma d’un traitement cellulaire

Le neurone formel ou artificiel est un modèle de calcul inspiré du fonctionnement de


neurone biologique. Un réseau de neurones artificiels (RNA) est formé d’un ensemble de
neurones formels.

II.4.1. Modèle de Mac Culloch et Pitts

Inspiré du neurone biologique, le modèle de base du neurone formel proposé par Mac
Culloch et Pitts est représenté par la figure II.3 suivante :

A. SAKLY & F. HAMDAOUI 14 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

x1 w1
 wi
xi  y
 wn
xn

Figure II.3 : Modèle de base d’un neurone formel
avec : x1,…,xn : entrées du neurones
w1,…,wn : poids synaptiques de neurones

 : seuil
n
z =  wi xi −  : entrée totale du neurone
i =1

1 si z  0
y : sortie du neurone ; y =  TOR
0 si z  0

Le seuil  peut être considéré comme une entrée supplémentaire notée :

x0=1 de poids w0 = − = b (biais).

Dans ces conditions, le modèle neuronal de la figure II.3 devient celui de la figure II.4
suivante :
x0=1 w =b
0
x1 w 1
 wi  y
xi
 wn
xn 
Figure II.4 : Modèle du neurone formel avec biais

II.4.2. Modèle général du neurone formel

Dans le modèle de base y en fonction z est une fonction de type TOR. Une généralisation
de ce modèle est obtenue en définissant une fonction f dite fonction d’activation, tel que
y = f (z ) , et on obtient le modèle de la figure II.5 :
1 b
x1 w1
 wi  f y
xi
 wn
xn
Figure II.5 : Modèle général du neurone formel

A. SAKLY & F. HAMDAOUI 15 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

n
avec z =  wi xi + b .
i =1

y = f (z )

Les fonctions d’activations les plus utilisées sont les suivantes :


y y
1 1

0 z z

−1

a) fonction tout ou rien b) fonction signe


y y
1

z z

−1

c) fonction linéaire d) fonction linéaire avec saturation


y y
1 1

0 z z

−1

e) fonction sigmoïde f) fonction tangente hyperbolique

Figure II.6 : Différentes formes de fonctions d’activation

• Fonction linéaire : y = z

 z si − z 0  z  z 0

• Fonction linéaire avec saturation : y = 1 si z  z 0
− 1 si z  − z
 0

1
• Fonction sigmoïde : y = f ( z ) =
1 + e−z

1 − e−z
• Fonction tangente hyperbolique : y = f ( z ) =
1 + e−z

A. SAKLY & F. HAMDAOUI 16 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

Plusieurs types de RNA existent et se distinguent par leur architecture et par leur
algorithme d’apprentissage. L’architecture d’un RNA est la façon avec laquelle les neurones
sont arrangés et interconnectés. L’apprentissage est l’adaptation des poids synaptiques. Tous
les deux permettant d’avoir un comportement bien déterminé du réseau.

II.5.1. Les RNA non bouclés (Feed-forward)

Ce sont les réseaux dans lesquels l’information se propage de couche en couche sans retour
en arrière possible.

II.5.1.1. Les perceptrons

1. Le perceptron monocouche

C’est le premier réseau de neurones artificiel (RNA) qui peut être utilisé pour résoudre des
opérations logiques simples ("ET" et "OU"). Il comporte une seule couche de neurones
comportant plusieurs entrées et plusieurs sorties.

La figure II.7 présente l’architecture du perceptron.


b1
1  f y1
w11
b2
w21
x1  f y2
wm1

  
bn

xn  f ym
wmn

Figure II.7 : Architecture du perceptron

Ce réseau comporte n+1 entrées et m sorties. On note wij le poids reliant la jème entrée au iéme
neurone de la couche de sortie. Soit :
n
zi =  wij x j + bi et yi = f ( zi ) i = 1,2,...,m
j =1

1 si z i  0
 f :lin yi = f ( zi ) réseau linéaire
f : TOR : yi =  i = 1,2,..., m
0 si z  0
 i

A. SAKLY & F. HAMDAOUI 17 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

2. Le perceptron multicouche (PMC)

C’est une extension du perceptron monocouche avec une ou plusieurs couches cachées
(couches intermédiaires) entre l’entrée et la sortie. Chaque neurone dans une couche cachée et
connecté à tous les neurones e la couche précédente et de la couche suivante. Il peut résoudre
des problèmes non linéairement séparables tel le cas de la fonction logique XOR.
La figure II.8 présente l’architecture d’un réseau de neurones à trois couches, une couche
d’entrée, une couche cachée et une couche de sortie.

1
b1( 2)
y1(1)
b1(1)
1  f1  f2 y1( 2)

(1) y 2(1)
w21
x1  f1  f2 y 2( 2)

   
yl(1)
xn  f1  f2 y m( 2)
wln(1) ( 2)
wml
Figure II.8 : Architecture d’un réseau multicouche (à trois couches)

où :

x T = x1 , x2 ,, xn  : vecteur des entrées


T

T

y (1) = y1(1) , y 2(1) ,, yl(1) T
: vecteur des sorties de la couche intermédiaire (cachée)

T

y ( 2) = y1( 2) , y 2( 2) ,, y m( 2) 
T
: vecteur des sorties

f1 et f2 : fonctions d’activation respectivement de la couche intermédiaire et de la couche de


sortie.

yi( 2) = f 2 ( zi ( 2) )
l
zi( 2) =  wij (2) x j + bi (2)
j =1
i = 1, 2, ...., m
y (j1) = f 1 ( zi (1) )
n
z (j1) =  w (jk
1)
xk + b (j1)
k

A. SAKLY & F. HAMDAOUI 18 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

II.5.1.2 Les réseaux à fonction radiale

Ces réseaux possèdent la même architecture que celle des PMC avec l’utilisation
particulière des fonctions d’activations gaussienne pour la couche cachée et linéaire pour la
couche de sortie.
La figure II.9 suivante présente l’architecture d’un tel réseau :

1
b1( 2)
y1(1)
b1(1)
1   y1( 2)

y2(1)
w21(1)
x1   y 2( 2)

   
yl(1)
xn   y m( 2)
wln(1) wml( 2)
Figure II.9 : Architecture d’un réseau à fonction radiale de base

où :

yi( 2) =  wij( 2) y (j1) + bi( 2)


j
2
1  z j −c j 
(1)

−  
( )
y (j1) = f z (j1) = e
2   j 

z (j1) =  w (jk
1)
x k + b (j1)
k

Dans cette écriture, cj est le centre de la fonction gaussienne et j caractérise la dispersion.


L’apprentissage de ce réseau consiste à ajuster les paramètres de la fonction radiale cj et j
ainsi que les poids des connections wij. L’algorithme d’apprentissage le plus utilisé est celui
de rétropropagation de l’erreur.

II.5.2. Les RNA bouclés (Feed-back)

Appelés aussi réseaux récurrents. Ce sont des réseaux dans lesquels il y a retour en arrière
de l’information.

A. SAKLY & F. HAMDAOUI 19 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

II.5.2.1 Les réseaux de Hopfield

Ce sont des réseaux récurrents et entièrement connectés. Chaque neurone est connecté à
chaque autre neurone et il n’y a aucune différence entre les neurones d’entrée et de sortie.
L’application principale des réseaux de Hopfield est la résolution des problèmes
d’identification et d’optimisation. Un réseau de Hopfield avec une seule entrée et sortie est
donné par la figure II.10 suivante :

Figure II.10 : Architecture du réseau de Hopfield

n
zi =  wij y j + bi i = 1,2,..., n
j =i
j i

y j = f ( zi ) (f souvent la fonction signe)

II.5.2.2 Les cartes auto-organisatrices de Kohonen

Cette architecture de réseau de neurones proposée par Kohonen en 1982 est basée sur la
définition d’un voisinage spatial pour chaque neurone de sortie. Les neurones sont disposés
régulièrement selon une topologie de dimension D. Pour D=1, les neurones sont disposés sur
un segment de droite et ont au maximum deux voisins immédiats et pour D=2 les neurones
sont disposés selon un plan et ont au maximum quatre voisins immédiats. Chaque architecture
est utilisée dans les problèmes de classification.
L’apprentissage d’un RNA consiste à mettre à jour les poids synaptiques des connexions
au sein du réseau.
Pour les RNA, il existe essentiellement deux types d’apprentissage :
➢ Apprentissage non supervisé

A. SAKLY & F. HAMDAOUI 20 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

➢ Apprentissage supervisé.

II.6.1 Apprentissage non supervisé

Dans ce type d’apprentissage, les exemples ou prototypes sont présentés au réseau que l’on
laisse s’auto-organiser au moyen de lois locales qui régissent l’évolution des poids
synaptiques. Ce mode s’appelle parfois : apprentissage par compétition. Il existe de
nombreuses méthodes d’apprentissage non supervisés. On cite les deux les plus connues.

II.6.1.1 Règle de HEBB

La loi d’apprentissage la plus simple est basée sur la règle de Hebb. On considère deux
neurones i et j de sorties respectivement yi et yj, dont la fonction d’activation est de type tout
ou rien. On note :
wij(t) : la valeur à l’instant t du poids synaptique de connexion qui lie les neurones i et j.
L’apprentissage se fait par modification des poids selon l’équation suivante :

wij (t ) = wij (t − 1) + wij (t )

où :wij(t) : le nouveau poids ; wij(t−1) : l’ancien poids ; wij(t) : modifications du poids

Le tableau suivant récapitule la loi de Hebb :

yi yj wij
0 0 0
0 1 0
1 0 0
1 1 1 Renforcement de la connexion

Ainsi, on peut utiliser la loi suivante :

wij (t ) = yi (t ) y j (t )

Il s’agit dans ce cas d’un apprentissage non supervisé dont l’algorithme comprend les
étapes suivantes :

• Initialisation des poids (à des valeurs nulles par exemple : wij(0)=0)

• Boucle itérative d’apprentissage :

- Présentation d’un exemple à l’entrée du réseau


- Calcul du nouvel état (sortie du réseau)
- Modification des poids :

wij (t ) = wij (t − 1) + yi (t ) y j (t )

A. SAKLY & F. HAMDAOUI 21 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

Il existe une forme généralisée pour ce type d’apprentissage :

wij (t ) =  yi (t ) y j (t )

avec : α taux d’apprentissage

II.6.1.2 Règle de Kohenen

Cette règle s’écrit :

wij (t ) = wij (t − 1) +  ( yi (t ) - wij (t )) avec α taux d’apprentissage

Elle permet au neurone d’apprendre les données présentées en entrées et donc d’être utilisé
en reconnaissance de formes.

II.6.2 Apprentissage supervisé

Dans ce type d’apprentissage supervisé, on cherche à imposer au réseau un fonctionnement


donné en forçant à partir des entrées qui lui sont présentées, des sorties à prendre des valeurs
données en modifiant les poids synaptiques.

II.6.2.1 Règle de perceptron

Pour ce type d’apprentissage, la sortie désirée yd(t) est connue. Ainsi, la différence mesurée
entre cette sortie et la sortie réelle représente l’erreur notée par ei(t) et elle se détermine par :

ei (t ) = y di (t ) − yi (t )

Ainsi, la règle du perceptron permettant la mise à jour des poids synoptiques prend la
forme suivante :

wij (t ) = wij (t − 1) + wij (t )

avec :

wij (t ) = ei (t ) x j (t )

Particulièrement, pour le poids b :

bi (t ) = bi (t − 1) + bi (t )

Ce perceptron permet, comme démontré par Minsky et Papert en 1969, de séparer des
exemples linéairement séparables seulement.

A. SAKLY & F. HAMDAOUI 22 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

II.6.2.2 L’adaline ou règle de Widrow Hoff

L’adaline (Adaptive Linear Neuron) est un système d’apprentissage supervisé des réseaux
linéaires. Les poids sont calculés de façon à minimiser l’erreur entre la sortie désirée et la
sortie effective du réseau.
On considère le réseau linéaire de la figure II.7 (f étant la fonction linéaire). A l’instar de
la règle du perceptron, l’objectif est d’apprendre les K entrées xk, avec la notation x(t) de
l’entrée présentée à l’instant t, yd(t) de la sortie désirée et y(t) de la sortie réelle.

1 b

w1 y
x1 


wn -
+
xn
Algorithme
de gradient

Figure II.11 : Principe de l’algorithme de gradient

L’erreur quadratique moyenne est donnée par :


K K
 e(k ) 2 = 2K  ( yd (k ) − y(k ))
1 1
E=
2
2K k =1 k =1

La dérivée partielle de l’erreur quadratique par rapport aux poids de la kème présentation est
donnée par :

e(k ) 2 e(k )
= 2e(k )
wij wij
i=1,2,…,m et j=1,2,…,n
e(k ) 2 e(k )
= 2e(k )
bi bi

wij étant le poids de la connexion de la jème entrée au ième neurone.


On a alors :

e(k )   
( y d (k ) − y(k )) =   y d (k ) −  wij x j (k ) + bi 
n
=
wij wij wij j =1
 
e(k )   
( y d (k ) − y(k )) =   y d (k ) −  wij x j (k ) + bi 
n
=
bi bi b j =1
 

A. SAKLY & F. HAMDAOUI 23 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

où xi(k) est la iéme entrée de la kème neurone.


Et il vient finalement :

e(k )
= − x j (k )
wij
e(k )
= −1
bi

La modification des poids synaptiques s’effectue selon l’équation suivante :

E K
wij (t ) = wij (t − 1) −  = wij (t − 1) +   ei (k ) x j (k )
wij k =1
E K
bi (t ) = bi (t − 1) −  = bi (t − 1) +   ei (k )
bi k =1

où  est le taux d’apprentissage.

Cette règle s’appelle règle Delta ou règle de Widrow-Hoff. Elle est basée sur la
minimisation de l’erreur quadratique moyenne dont l’outil d’optimisation utilisé est la
méthode du gradient.

Si  est grand, l’apprentissage se fait rapidement. Et si  est choisi très grand, il peut y
avoir l’instabilité et l’erreur augmente d’autant plus.
Tout comme le perceptron, l’adaline ne permet l’apprentissage que des exemples
linéairement séparables. Sinon on peut utiliser le madaline, constitué de plusieurs adaline,
avec éventuellement des fonctions d’activation non linéaires.

II.6.3 Apprentissage par l’algorithme de rétropropagation de l’erreur

L’algorithme de rétropropagation de l’erreur est une généralisation de la règle delta de


Widrow-Hoff. A chaque étape, un exemple est présenté au réseau. Une sortie réelle est
calculée en propageant le calcul des poids de connexion d’une couche à une autre jusqu’à la
couche de sortie. Puis la somme quadratique des erreurs sur chaque cellule de sortie sera
calculée. Cette erreur est ensuite rétropropagée dans le réseau en modifiant les poids de
connexion et en opérant couche par couche pour chaque neurone en commençant par la
couche de sortie pour remonter vers la couche d’entrée.
On considère le réseau à trois couches de la figure II.8. Notons E(t) l’erreur quadratique
commise à la tème neurone :

1 m
E (t ) =  ei (t ) 2
2 i =1

A. SAKLY & F. HAMDAOUI 24 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

avec :

ei (t ) = y d i (t ) − yi( 2) (t )

(
yi( 2) (t ) = f 2 z i( 2) (t ) )
l
z i( 2) (t ) =  wij
( 2) (1)
y j (t ) + bi( 2)
j =1

(
yi(1) (t ) = f1 zi(1) (t ) )
l
zi(1) (t ) =  wij(1) x j (t ) + bi(1)
j =1

L’application de la méthode du gradient pour les poids d’une couche q conduit à l’équation
suivante :

E (t )
wij( q ) (t ) = wij( q ) (t − 1) − 
wij( q )
E (t )
bi( q ) (t ) = bi( q ) (t − 1) − 
bi( q )

où  est le taux où intensité d’apprentissage.

Il vient pour la couche de sortie (q=2) :

E (t ) E (t ) yi( 2) z i( 2)
= = − e (t )
f 2 z i( 2) (t ) (1)
y j (t )
( )
i
wij( 2) yi( 2) z i( 2) wij( 2) z i( 2) (t )
E (t ) E (t ) yi( 2) z i( 2)
= = − e (t )
f 2 z i( 2) (t ) ( )
i
bi( 2) yi( 2) z i( 2) bi( 2) z i( 2) (t )

Soit la modification des poids de la couche de sortie :

wij( 2) (t ) = wij( 2) (t − 1) + i( 2) (t ) y (j1) (t )


bi( 2) (t ) = bi( 2) (t − 1) + i( 2) (t )

en posant :  i( 2) = ei (t )
(
f 2 z i( 2) (t ) ) = (y ) fz(z
( 2)
i (t ) )
di (t ) − yi (t )
( 2) 2
z i( 2) (t ) ( 2)
i (t )

Pour la couche cachée (q=1) :

E (t ) E (t ) yi(1) z i(1)
= (1)
 m

= −  e p (t ) w pi 
(
f 2 z (p2) (t ) ( 2)  f1 z i(1) (t )
x (t )
) ( )
wij(1) yi z i(1) wij(1)  p =1  z ( 2)
(t )  z i(1) (t ) j
 p 
E (t ) E (t ) yi(1) z i(1)
= (1)
 m

= −  e p (t )
(
f 2 z (p2) (t ) ( 2)  f1 z i(1) (t )
w pi 
) ( )
bi(1) yi z i(1) bi(1)  p =1  z ( 2)
(t )  z i(1) (t )
 p 

A. SAKLY & F. HAMDAOUI 25 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

Et il vient la modification des poids de la couche cachée :

wij(1) (t ) = wij(1) (t − 1) + i(1) (t ) x j (t )


bi(1) (t ) = bi(1) (t − 1) + i(1) (t )

en posant :  i(1)
 m

=  e p (t )
( ) (
f 2 z (p2) (t ) ( 2)  f1 z i(1) (t )
w pi 
)
 p =1 z p (t )
( 2)  z i(1) (t )
 

On peut remarquer que les fonctions d’activation f1 et f2 doivent être dérivables. Souvent,
on utilise les fonctions linéaires et les fonctions sigmoïdes (unipolaires ou bipolaires). En
particulier, on démontre que :
f ( z )
= f ( z )(1 − f ( z ) ) : pour les sigmoïdes unipolaires
z

f ( z ) 1
z
( )
= 1 − f 2 ( z ) : pour les sigmoïdes bipolaires (fonction arctangente)
2
Cet algorithme peut nécessiter plusieurs passages sur les différents patrons et le temps de
convergence peut être long. Il n’existe pas d’arguments théoriques de la convergence de
l’algorithme. La surface à minimiser est irrégulière et l’algorithme peut converger ou non vers
un minimum local.
Le réglage initial des paramètres de l’algorithme (l’intensité d’apprentissage et les valeurs
initiales des poids) peut avoir une grande influence sur la convergence de l’algorithme.
Comme pour l’algorithme d’apprentissage de Widrow-Hoff, des valeurs faibles de l’intensité
d’apprentissage  conduisent à une convergence très lente. Inversement, si  est trop élevé,
des oscillations peuvent survenir et l’algorithme peut diverger (instabilité).
Les applications des RN ont couvert plusieurs domaines. On distingue les applications des
RN linéaires et celles des RN non linéaires.

II.7.1 Applications des RN linéaires

Les premières applications réussies des RN adaptatifs étaient développées par Widrow et
Hoff en 1960. Ils ont employé des réseaux avec un seul neurone linéaire entraîné par
l’algorithme de moindres carrés. L’apprentissage de ces réseaux est aisé. Ces réseaux ont été
largement appliqués dans :

•Les télécommunications : les modems utilisés dans les lignes téléphoniques pour la
transmission rapide de données numériques se servent d’égalisateurs de ligne et des
compensateurs d’écho adaptatifs. Ces systèmes adaptatifs sont essentiellement constitués
de réseau mono-neurone linéaires.

A. SAKLY & F. HAMDAOUI 26 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

•Le contrôle du son et de la vibration : le contrôle actif de vibration est accompli en


moyennant des actionneurs adaptatifs à RN pour générer une vibration ou bruit apposé
d’intensité égale. Les systèmes d’air conditionné, systèmes automobiles en sont des
exemples d’application.

•Le contrôle d’un accélérateur de faisceau de particules : des techniques adaptatives


(basées sur des RN linéaires) ont été utilisées pour minimiser l’effet des perturbations sur
la précision de faisceaux dans une machine de collision de particules.

II.7.2 Applications des RN non linéaires

Les applications des RN non linéaires n’ont fait leur apparition que récemment. Ceci est
essentiellement dû à la publication de l’algorithme de rétropropagation en 1986. Malgré qu’ils
ne sont pas autant utilisés que les réseaux linéaires, les applications des réseaux non linéaires
couvrent une gamme plus large de problèmes qui comportent des relations complexes non
linéaires pour lesquels les solutions classiques ne sont pas valables. Trois catégories de
problèmes ont été traités : la classification ; la prédiction et l’analyse financière ; le contrôle,
la commande et l’optimisation. On décrira des exemples d’applications de chaque catégorie.
1. La classification : on peut citer les applications suivantes :

•Détection de fraude par les cartes de crédit : American Express, Mellon Bank, First USA
Bank et d’autres compagnies bancaires utilisent actuellement les RN pour étudier l’usage
des cartes de crédit et détecter les transactions qui sont potentiellement frauduleuses. Ils Ils
utilisent soit des logiciels internes ou des produits commercialisés par des sociétés
spécialisées telles que Nestor, HNC, etc.

•Reconnaissance des caractères imprimés et manuscrits : plusieurs compagnies ont mis en


œuvre de tels produits (Sharp Corp.. Mitsubishi Electric Corp., VeriFone Inc., Hecht-
Nielsen Corp., Nestor Inc., etc.). Le système optique de reconnaissance de caractères
imprimés de Sharp Corp. Est utilisé pour reconnaître les caractères japonais. Il contient dix
millions de poids et utilise une variante de l’algorithme LVQ de Kohonen. Il dépasse les
systèmes conventionnels existants en précision et en vitesse. Cardiff Software a offert un
produit appelé Teleform qui utilise le système de reconnaissance des caractères manuscrits
de Nestor pour convertir un télécopieur (Fax) en un OCR (Optical Character Recognition)
ou scanner.

•Contrôle de qualité : les RN ont été appliqués dans des problèmes divers de contrôle de
qualité (industries chimiques, évaluation de la pureté du jus d’orange par le Florida
Department of Citrus, reconnaissance par vision artificielle).

A. SAKLY & F. HAMDAOUI 27 2019-2020


Cours de Soft Computing Chapitre II. Les réseaux de neurones 2éme année GE – ENIM

•Explorations pétrolières : Les RN ont été utilisés pour la localisation des gisements de
pétrole et de gaz par des compagnies Arco et Texaco.

•Applications médicales : divers produits utilisant les RNs ont été commercialisés pour des
applications médicales telles que le dépistage (recherche systèmatique de quelques
maladies) (Neuromedical systems Inc.).
2. La prédiction et l’analyse financière des firmes d’investissement et des entités
financières ont utilisé les RN pour les prévisions, l’évaluation des risques de prêts,
optimisation de la stratégie du marketing.
3. Le contrôle, la commande et l’optimisation : dans ce contexte différentes applications
ont vu le jour. Citons par exemple : la commande de la position d’électrodes d’un four à arc
électrique, le contrôle du procédé de dopage des semi-conducteurs, le contrôle d’une
raffinerie de pétrole, le contrôle d’un procédé de production d’acier.
Un grand nombre de programmes de recherche sont en cours de développer des produits
soit pour le futur proche soit pour des applications militaires. On peut en citer : guidage de
missiles, contrôle de trajectoire, diagnostic des moteurs des automobiles et des moteurs
électriques, etc.

A. SAKLY & F. HAMDAOUI 28 2019-2020

Vous aimerez peut-être aussi