Vous êtes sur la page 1sur 28

Master Spécialisé 

: Management de l’Information en Intelligence Economique et


Logistique

Module : Analyse de données

Rapport sous le thème

L’application des réseaux neuronaux

Préparé par : Prof du module :

Najlae CHTEBI FERRANO Zakaria

Loubna SMAHI

Badr Eddine LKOURCHI

Année universitaire : 2021 – 2022


Sommaire

Introduction générale
I. Réseaux Neuronaux : définitions , historique et propriétés
- Les neurones
- Les réseaux de neurones ou les réseaux neuronaux

II. Les neurones biologiques


III. Les neurones formels
- Le modèle Mc Culloch et Pitts

IV. Architecture des réseaux neurones : Techniques et méthodolgie de conception de


modèle statique et dynamique
- Modèle statique (réseaux non bouclés)
- Modèle dynamique (réseaux bouclés ou récurrents)

V. à quoi servent les réseaux de neurones à l'apprentissage supervisé et non


supervisé?
- Modélisation statistique et discrimination
- Analyse et virtualisation de données

VI. Quelque modèles de réseaux de neurones


- La perception multicouche
- Le modèle de Hopefied
- Les cartes de Kohonen

VII. Application des réseaux neuronaux


- Exemple d'application

Conclusion générale
Bibliographie et Webographie
Introduction 

Un réseau de neurones formel, couramment appelé réseau de neurones, est un calcul (ou
algorithme), généralement réalisé à l'aide d'un ordinateur, dont le résultat reproduit ou prévoit
aussi fidèlement que possible, le comportement de n'importe quel processus en fonction des
facteurs qui déterminent ce comportement. On entend par « processus » tout système, naturel
ou artificiel, et par « facteur » toute grandeur qui est susceptible d'avoir une influence sur le
processus. Ainsi, un réseau de neurones est capable de prévoir l'évolution de la température
d'un four en fonction de l'intensité du courant électrique dans la résistance chauffante, la
vitesse d'un véhicule en fonction du déplacement de la pédale d'accélérateur et de la pente de
la route, le cours d'une valeur mobilière en fonction des taux de change du dollar et du yen
ainsi que de ses cours passés, la dureté d'un matériau en fonction de sa composition chimique
et de sa température d'élaboration, la solvabilité d'une entreprise en fonction de son chiffre
d'affaires, etc.
Dans le calcul effectué par le réseau de neurones interviennent des nombres, appelés
paramètres ou poids du réseau, qui doivent être calculés de telle sorte que l'imitation et la
prévision soient aussi fidèles que possible. Pour effectuer cet ajustement, on utilise des
exemples du comportement que l'on veut imiter : on dit que l'on effectue ainsi l'«
apprentissage » du réseau de neurones à partir d'exemples judicieusement choisis. Une fois
l'apprentissage terminé, le réseau doit être capable non seulement de restituer les exemples de
comportement appris, mais surtout de prévoir avec précision des comportements non appris :
c'est la faculté de « généralisation ».
Les réseaux de neurones résolvent donc un problème statistique : fondamentalement, la
problématique qu'ils abordent n'est pas différente de celle des instituts de sondage qui, après
interrogation d'un échantillon représentatif de la population, généralisent les réponses à
l'ensemble de la population.

1
L'aptitude des réseaux de neurones à imiter et à prévoir des comportements, après
apprentissage par l'exemple, leur permet d'avoir des applications dans des domaines très
divers :
– pour simuler sur ordinateur, et donc prévoir, le comportement de processus complexes,
qu'ils soient industriels (robots, installations industrielles, circuits électroniques...), qu'ils
intéressent la vie quotidienne (voitures, installations de climatisation...) ou l'activité financière
(marketing, investissement, sélection d'informations...), ou qu'ils régissent les milieux naturels
ou sociaux (écosystèmes, systèmes sociaux ou politiques...), etc. ;
– pour reconnaître des formes, des signaux, des événements (lecture automatique de codes
postaux ou de chèques, reconnaissance d'images, reconnaissance de parole, etc.).
Toutes ces applications, en dépit de leur diversité, possèdent un substrat mathématique et
statistique commun : il s'agit toujours d'obtenir une capacité de généralisation aussi
satisfaisante que possible compte tenu de la qualité et de la pertinence des exemples utilisés
au cours de l'apprentissage. Les réseaux de neurones permettent de résoudre de façon efficace
et précise ce type de problèmes ; il serait toutefois exagéré de prétendre qu'ils représentent une
forme d'intelligence.

2
I. Réseaux Neuronaux : définitions, historique et propriétés
1. Définition :

Les réseaux neuronaux, également connus sous le nom de réseaux de neurones artificiels
(ANN) ou de réseaux de neurones à impulsions (SNN) constituent un sous-ensemble de
l'apprentissage machine et sont au cœur des algorithmes de l'apprentissage en profondeur.
Leur nom et leur structure sont inspirés par le cerveau humain. En effet, ces réseaux imitent la
façon dont les neurones biologiques s'envoient mutuellement des signaux.
Les réseaux de neurones artificiels (ANN) sont constitués de différentes couches de nœud (ou
neurone artificiel), contenant une couche en entrée, une ou plusieurs couches cachées et une
couche en sortie. Chaque nœud, ou neurone artificiel, se connecte à un autre et possède un
poids et un seuil associés. Si la sortie d'un nœud est supérieure à la valeur de seuil spécifiée,
ce nœud est activé et envoie des données à la couche suivante du réseau. Sinon, aucune
donnée n'est transmise à la couche suivante du réseau.

Les réseaux neuronaux utilisent des données de formation pour apprendre et améliorer leur
précision au fil du temps. Cependant, une fois ces algorithmes d'apprentissage suffisamment
affinés, ils constituent de puissants outils pour l'informatique et l'intelligence artificielle,
permettant de classer et de regrouper très rapidement les données. Les tâches de
reconnaissance de la parole ou de l'image peuvent s'exécuter en quelques minutes seulement,
alors qu'une identification manuelle par des experts humains nécessite plusieurs heures. L'un
des réseaux neuronaux les plus connus est l'algorithme de recherche de « Google ».

3
2. Un bref historique :

On peut, bien sûr, faire commencer l'historique des réseaux de neurones avec Aristote, mais
ce serait un peu excessif. Bien qu'on puisse trouver des ancêtres (de Galton à James, CY.
Anderson & Rosenfeld, 1988), l'histoire des réseaux de neurones est étroitement reliée au
développement de l'informatique.
➢ En 1890, W. Jones a introduit le concept de mémoires associatives et proposa ce qui est
devenu par la suite la loi de fonctionnement et d’apprentissage des réseaux de neurones,
connue plus tard sous le nom de « Loi de Hebb ».
➢ Le neurologue Warren Sturgis McCulloch et le logicien Walter Pitts ont mené les premiers
travaux sur les réseaux de neurones à la suite de leur article fondateur : « What the frog’s
eye tells to the frog’s brain » en 1943. Ils ont constitué un modèle simplifié de neurone
biologique appelé neurone formel. Ils ont montré théoriquement que les neurones formels
simples peuvent réaliser des fonctions logiques, arithmétiques et symboliques complexes. Ils
voulaient prouver que le cerveau est équivalent à une machine de turing.
➢ En 1949, D. Hebb a présenté dans son ouvrage « The Organization of Behavior » une règle
d’apprentissage. De nombreux modèles de réseaux aujourd’hui s’inspirent encore de la règle
de Hebb.
➢ Le premier succès est apparu en 1957 quand Frank Rosenblatt a inventé le premier modèle
artificiel nommé « le Perceptron ». C’est un réseau de neurones inspiré du système visuel. Il
possède deux couches de neurones : une couche de perception et une couche liée à la prise de
décision. C'était le premier système artificiel qui pouvait apprendre par expérience, y compris
lorsque son instructeur commettait des erreurs.
➢ L’année 1960 a été marquée par la création d’un modèle ressemblant à celui de Rosenblatt
mais dont la loi d’apprentissage est différente, ce modèle fut développé par B. Widrow et
Hoff, il est connu sous le nom de modèle «Adaline » (Adaptative Linear Element). Ce modèle
sera par la suite le modèle de base des réseaux multicouches. Sa loi d’apprentissage est à
l’origine de l’algorithme de « Rétro propagation du gradient »
➢ Le succès des modèles connexionnistes a vite atteint ses limites technologiques. En 1969
Marvin Lee Minski et Seymour Papert publièrent un ouvrage nommé « Perceptrons ». Ils ont
montré les limitations théoriques des modèles de Perceptron et plus particulièrement de
l'impossibilité de traiter par ce modèle des problèmes non linéaires.

4
Ils ont étendu implicitement ces limitations à tous les modèles de réseaux de neurones
artificiels. Face à ces obstacles les recherches dans ce domaine se sont déguisées sous le
couvert de divers domaines comme par exemple : Le traitement adaptatifs du signal, la
reconnaissance des formes, la modélisation en neurobiologique, etc. [78]. Jusqu’en 1972, où
T. Kohonen a présenté ses travaux sur les mémoires associatives et proposa des applications à
la reconnaissance des formes.
➢ Dès le début des années 80, l’approche connexionniste s’est relancée grâce aux travaux de
J.J. Hopfield ; qui a présenté son étude sur un réseau complètement rebouclé. Depuis,
Un avancement considérable fut reconnu et beaucoup de modèles ont été mis au point ; dont
on peut citer : La Machine de Boltzmann en 1983, l’algorithme de Rétro propagation du
gradient en 1985, celui de l’estimation par Rétro propagation de l’erreur par Hopkins en
1982, l’analogie de la phase d’apprentissage avec les modèles Markoviens des systèmes de
particules de la mécanique statistique par Hopfield en 1982.
Vers la fin des années 90, su peut dire que les réseaux de neurones sont maintenant devenus
un domaine attractif, qui réunit autour d'un thème commun des psychologues, des physiciens,
des mathématiciens, des biologistes, des ingénieurs et des informaticiens

3. Neurone et le réseau de neurones

Cette figure montre un schéma comportant la structure générale d'un neurone artificiel.

Un neurone artificiel est considéré comme un élément élémentaire de traitement de


l’information, Il reçoit les entrées et produit un résultat à la sortie u w x   W X  

5
y u x1, x2, ..., xn ; sont les entrées externes. y est
la sortie. w1, w2, ..., wn sont les poids associés à
chaque connexion. X est le vecteur d'entrée, W' est le vecteur poids, θ est appelé le biais. La
fonction φ est appelée fonction d'activation, c'est une fonction non linéaire. Différentes
fonctions d'activation peuvent être utilisées, parmi lesquelles on peut citer : fonction signe,
sigmoïde, tangente hyperbolique, Gaussienne et le choix d'un type de fonction dépend de
l'application.

Les réseaux de neurones artificiels sont des combinaisons de fonctions élémentaires appelées
neurones formels, ou simplement neurones associés en couches et fonctionnant en parallèle.
Chaque processeur élémentaire calcule une sortie unique sur la base des informations qu'il
reçoit. Toute structure hiérarchique de réseaux est évidemment un réseau.

 Propriétés des réseaux de neurones


Les réseaux de neurones artificiels possèdent une propriété fondamentale qui justifient
l'intérêt croissant qui leur est accordé et que sont capable d’intervenir dans des domaines très
divers, et qui les distingue des techniques classiques de traitement des données.
- Les réseaux de neurones sont des approximateurs universels : Cette propriété peut être
énoncée comme suit : Toute fonction bornée suffisamment régulière peut être approchée
uniformément, avec bonne précision, dans un domaine fini de l'espace de ses variables, par un
réseau de neurones qui comporte une couche de neurones cachée en nombre fini, possédant
toute la même fonction d'activation et un neurone de sortie linéaire.
-Parcimonie : Lors de la modélisation d’un processus à partir de ses données, on cherche
toujours à obtenir les résultats les plus satisfaisants possibles avec un nombre minimum de
paramètres. On dit que l'on cherche l'approximation la plus parcimonieuse. Pour obtenir un
modèle non linéaire de précision donnée, un RN a besoin de moins de paramètres ajustables
que les méthodes de régression classiques (par exemple la régression polynomiale). Or le
nombre de données nécessaires pour ajuster le modèle est directement lié au nombre de ses
paramètres

4. Comment fonctionnent les réseaux neuronaux :

Chaque nœud individuel peut être considéré comme étant son propre modèle de régression
linéaire, composé de données d'entrée, de poids, d'un biais (ou d'un seuil) et d'une sortie. La
formule peut se présenter comme suit :

6
Formule mathématique utilisée pour déterminer la totalisation

∑wixi + biais = w1x1 + w2x2 + w3x3 + biais

Formule mathématique utilisée pour déterminer la sortie

output = f(x) = 1 if ∑w1x1 + b> = 0; 0 if ∑w1x1 + b < 0

Lorsqu'une couche en entrée est déterminée, des poids sont affectés. Ces poids permettent de
déterminer l'importance d'une variable donnée, les poids les plus importants contribuant de
façon plus significative à la sortie par rapport aux autres entrées. Toutes les entrées sont
ensuite multipliées par leurs poids respectifs, puis additionnées. Par la suite, la sortie est
transmise via une fonction d'activation qui détermine la sortie. Si cette sortie dépasse un seuil
donné, elle "déclenche" (ou active) le nœud, et transmet les données à la couche suivante du
réseau. La sortie d'un nœud devient alors l'entrée du nœud suivant. Ce processus, qui consiste
à transmettre les données d'une couche à la couche suivante, définit ce réseau neuronal
comme un réseau à propagation avant, en anglais feedforward.
À l'aide de valeurs binaires, analysons la façon dont se présente un nœud unique. Nous
pouvons appliquer ce concept à un exemple plus concret : par exemple, vous devez décider si
vous allez faire du surf (Oui : 1, Non : 0). La décision d'aller surfer ou non est notre résultat
prévu, ou valeur y-hat. Supposons qu'il y a trois facteurs qui influencent votre prise de
décision :
Y a-t-il de grosses vagues ? (Oui : 1, Non : 0)
Le spot est-il tranquille ? (Oui : 1, Non : 0)

7
Y a-t-il eu une attaque récente de requins ? (Oui : 1,
Non : 0)

Ensuite, prenons l'hypothèse ci-dessous, ce qui nous donne les entrées suivantes :
X1 = 1, parce que les vagues sont grosses
X2 = 0, parce qu'il y a peu de monde sur place
X3 = 1, parce qu'il n'y a pas eu d'attaque récente de requin
Nous devons maintenant affecter des poids pour déterminer l'importance. Les poids plus
élevés signifient que certaines variables sont plus importantes pour la décision ou le résultat.
W1 = 5, parce que les grosses houles sont rares
W2 = 2, parce que vous êtes habitué à la foule
W3 = 4, parce que vous avez peur des requins
Enfin, nous prenons aussi comme hypothèse une valeur de seuil de 3, ce qui se traduit par une
valeur de biais de -3. Maintenant que nous disposons de toutes les entrées, nous pouvons
commencer à inclure les valeurs dans la formule pour obtenir le résultat en sortie souhaité.
Y-hat = (1*5) + (0*2) + (1*4) – 3 = 6
Si nous utilisons la fonction d'activation depuis le début de cette section, nous pouvons
déterminer que la sortie de ce nœud sera 1, car 6 est supérieur à 0. Dans ce cas, vous iriez
surfer, mais si nous ajustons les poids ou le seuil, nous pouvons obtenir des résultats différents
à partir du modèle. Lorsque nous observons une décision, comme dans l'exemple ci-dessus,
nous pouvons voir comment un réseau neuronal peut prendre des décisions de plus en plus
complexes en fonction du résultat en sortie des décisions ou des couches précédentes.
Dans l'exemple ci-dessus, nous avons utilisé des perceptrons pour illustrer certaines des
formules mathématiques en jeu ici, mais les réseaux neuronaux utilisent des neurones
sigmoïdes, qui se distinguent par des valeurs comprises entre 0 et 1. Étant donné que les
réseaux neuronaux se comportent de la même façon que les arbres de décision, en
transmettant en cascade les données d'un nœud à un autre, le fait d'avoir x valeurs comprises
entre 0 et 1 atténue l'impact de tout changement d'une variable unique sur la sortie de tout
nœud, et par conséquent, sur la sortie du réseau neuronal.

8
Alors que nous commençons à réfléchir davantage à
des cas d'utilisation pratiques des réseaux neuronaux,
comme la reconnaissance ou la classification d'images, nous allons tirer parti de
l'apprentissage supervisé, ou des ensembles de données étiquetés pour former l'algorithme.

Au fur et à mesure que nous formons le modèle, nous aurons besoin d'évaluer son exactitude à
l'aide d'une fonction de coût (ou de perte). C'est ce que l'on appelle généralement l'erreur
quadratique moyenne (MSE). Dans l'équation ci-dessous,
i représente l'index de l'échantillon,
y-hat est le résultat prévu,
y est la valeur réelle, et
m est le nombre d'échantillons.

Fonction de coût = 𝑀𝑆𝐸 =1/2𝑚 ∑129_(𝑖 =1)^𝑚▒(𝑦 ̂^((𝑖) )−𝑦^((𝑖) ) )^2


En définitive, l'objectif est de minimiser notre fonction de coût afin d'assurer l'exactitude de
l'ajustement pour toute observation donnée. À mesure que le modèle ajuste ses poids et ses
biais, il utilise la fonction de coût et l'apprentissage par renforcement pour atteindre le point
de convergence, ou le minimum local. La méthode utilisée par l'algorithme pour ajuster ses
poids est celle de la descente de gradient. Elle permet au modèle de déterminer la direction à
prendre pour réduire les erreurs (ou minimiser la fonction de coût). Avec chaque exemple de
formation, les paramètres du modèle s'ajustent afin de converger progressivement au
minimum.
La plupart des
réseaux
neuronaux
profonds sont
des réseaux à
propagation

9
avant (feedforward), ce qui signifie qu'ils
fonctionnent dans une seule direction, de l'entrée
vers la sortie. Cependant, vous pouvez aussi former votre modèle par rétropropagation, c'est-
à-dire en le faisant fonctionner dans la direction opposée, de la sortie vers l'entrée. La
rétropropagation nous permet de calculer et d'attribuer l'erreur associée à chaque neurone.
Nous pouvons ainsi ajuster et adapter correctement les paramètres d'un ou de plusieurs
modèles.

II. Généralité sur les


réseaux de neurones

1.

Neurones biologiques
Le neurone est une cellule composée d’un corps cellulaire et d’un noyau. Le corps cellulaire
ramifie pour former ce que l’on nomme les dendrites. Celles-ci sont parfois si nombreuses que
l’on parle alors de chevelure dendritique ou d’arborisation dendritique. C’est par les dendrites
que l’information est acheminée de l’extérieur vers le soma, corps du neurone. L’information
traitée par le neurone chemine ensuite le long de l’axone (unique) pour être transmise aux
autres neurones. La transmission entre deux neurones n’est pas directe. En fait, il existe un
espace intercellulaire de quelques dizaines d’Angströms (10-9m) entre l’axone du neurone
afférent et les dendrites (on dit une dendrite) du neurone efférent. La jonction entre deux
neurones est appelée la synapse :

10
2. Neurones artificiels
Le neurone artificiel est un processeur élémentaire. Il reçoit un nombre variable d'entrées en
provenance des neurones appartenant à un niveau situé en amont (on parlera de neurones
"amont"), a chacune des entrées est associé un poids w représentatif de la force de la
connexion. Chaque processeur élémentaire est doté d'une sortie unique, qui se ramifie ensuite
pour alimenter un nombre variable de neurones appartenant à un niveau situé en aval (on
parlera de neurones "avals"). À chaque connexion est associé un poids.

Les R entrées du neurone correspondent au vecteur p=[ p1, p2, p….], alors que w=[W1, W2,
W…, ] représente le vecteur des poids du neurone.

 On pourra résumer une modélisation de tel neurone par le tableau suivant, qui nous
permettra de voir clairement le passage du neurone biologique vers le neurone formel :

Neurone Axones Neurone artificiel

Synapses Poids de connexions

Axones Signal de sortie

Dendrite Signal d’entrée

Somma Fonction d’activation

11
 Le passage du neurone biologique vers le
neurone forme ;

III. Les neurones Formels : (Le modèle de McCulloch et le Pitts) :

En 1943, Warren McCulloch et Walter Pitts , forts des récentes découvertes de la


neurobiologie , proposèrent une théorie du cerveau où les cellules nerveuses pouvaient être
comparés
à fonctions
logiques

[ McCulloch & Pitts , 1943 ) .


On sait que le neurone communique avec ses voisins essentiellement à l'aide d’une impulsion
nerveuse émise le long de son axone quand on potentiel de membrane dépasse un certain
seuil. Ceci est en général dû aux impulsions incitatrices reçus par le neurone en provenance
d’autres cellules nerveuses. Les imputions de certaines cellules nerveuses ont un effet
contraire : elles étouffent (inhibent) l’activité de la cellule réceptrice, en hyperpolarisant sa
membrane : en général l’effet d’une cellule inhibitrice est très puissant.

 Un neurone formel est caractérisé par :

• des entrées E :

12
. Binaires
. Réelles
• une fonction sommatrice h :
. Pondérée, chaque entrée est affectée d'un coefficient Wi
. Avec une correction -seuil
• une fonction de calcul de sortie F
. À seuil (-> 0/1 ou -1/+1)
. Linéaire à saturation et à seuil ou multi-seuils
. Sigmoïde
. Stochastique
S = F (somme (WiEi) -seuil)

→ Les automates les plus utilisés sont les automates :

•booléen : premier modèle de Mac Culloch et Pitts datant des années quarante, avec les
entrées, les sorties, les fonctions, sont booléens.
•à seuil : sortie binaire calculée par une fonction de sortie heaviside (0/1) ou signe (- 1/+1).
• linéaires : entrées sorties réelles.
• à saturation : entrées sorties réelles ou entières, fonction linéaire à saturation.
• continus : entrées sorties réelles, fonction sommatrice linéaire, fonction de calcul sigmoïde,
• probabilistes : les sorties sont binaires, calculées par une fonction stochastique.

 Les structures de connexion :

Les deux modes les plus classiques sont :


• les réseaux à couches : les neurones d'une couche ne sont connectés qu'aux neurones de la
couche précédente.
• les réseaux entièrement connectés : chaque neurone est connecté à tous les autres
neurones.
IV. Architecture des réseaux de neurones : Techniques et méthodologie de conception de
modèle statique et dynamique

13
Comme pour les neurones biologiques, les neurones
artificiels peuvent être organisés en réseaux. Il en
existe deux types, les réseaux de neurones bouclés et les réseaux de neurones non bouclés.

1. Modèle statique (réseaux non bouclés)


Un réseau de neurone non bouclé est représenté graphiquement par un ensemble de neurones
connectés entre eux, l’information circulant des entrées vers la ou les sortie(s) sans retour en
arrière.

Ceci est un perceptron multicouche. Il est défini grâce à une architecture vérifiant les
propriétés suivantes : La première couche est composée par n cellules d’entrées, qui
correspondent aux n variables. Les couches C1…Cq-1 sont les couches dites cachées et Cq est
la couche de sortie(s). Les entrées d’une cellule d’une couche i (i≥1) sont toutes les cellules de
la couche précédente et aucune autre cellule.
Ce type de réseau peut par exemple effectuer des classes de classification ou pour calculer le
XOR d’une fonction booléenne.
Le XOR d’une fonction booléenne (ou OU exclusif) est défini de manière suivante a est Vrai
ou b est Vrai mais pas les deux.

b/a 0 1
0 0 1
1 1 0

Perceptron calculant le XOR d'une fonction booléenne :

2. Modèle dynamique (réseaux bouclés ou


récurrents) :
14
En revanche ce sont des réseaux de neurones dans
lesquels il y a une liaison vers l'arrière. Les connexions de ces réseaux forment des boucles.
Ainsi la fonction d'activation peut circuler le long de ces boucles et affecter le réseau pendant
une période arbitrairement longue. Pour cette raison les comportements des réseaux récurrents
sont potentiellement plus complexes que ceux des réseaux à couches.
En général, les réseaux bouclés sont plus difficiles à entraîner que les réseaux non bouclés.
L’apprentissage est cependant généralement assez complexe dans ces réseaux, et leurs
propriétés sont souvent moins bien connues que celles des réseaux non bouclés.
Pendant les dernières années, depuis le premier réseau récurrent de Hopfield, beaucoup
d’intérêt a été accordé aux réseaux récurrents, en raison de leur aptitude à gérer des taches
complexes et de la richesse de leur comportement dynamique.
Trois classes importantes de réseaux récurrents sont présentées dans ce paragraphe :
 Les réseaux récurrents à couches (le réseau de Elman et le réseau de Jordan).

 les réseaux à compétition (réseaux ART et réseaux de Kohonen, « Self-organisation


mapping »).
 les réseaux à connexions symétriques (réseau de Hopfield).

a) Les réseaux récurrents à couches :


Le réseau de Jordan [est le réseau récurrent le plus ancien. Architecture de réseau de Jordan :
Ce réseau a pour but d'effectuer une séquence d'actions par rapport à une tâche donnée par
l'utilisateur. La tâche est constante durant l'exécution de la séquence ; le réseau doit toutefois
retenir sa position dans la séquence. Pour mener sa tâche à bien, il lui faut donc une mémoire
du contexte représentée par une couche nommée « couche de contexte ». Les neurones de
sorties sont reliés vers cette couche. Le nombre de neurone de cette couche dépend du nombre
des couches de sortie. Elle retient l'état du réseau au temps précédent et sa propre activation
par une boucle récurrente locale. Il en résulte que la couche de contexte retient une trace des
événements passés. L'apprentissage a lieu aussi bien au niveau des connexions entre les
couches d'entrée et les couches cachées qu’entre les couches cachées et les couches de sortie.
Ainsi on peut utiliser toutes les règles d'apprentissage décrit par un Perceptron multicouche
pour entraîner ce réseau.

15
b) Le réseau d'Elman :
Le réseau d'Elman a été introduit par Elman à 1990
et est présenté sur la figure ci-après. Ce réseau est très semblable au réseau de Jordan, mais
son architecture est plus adaptée au traitement de séquence structurée. Là où le réseau de
Jordan bouclait ses sorties sur ses entrées, le réseau d'Elman fait boucler sa couche cachée sur
elle-même. L'effet de cette boucle est de recopier sans autre traitement la valeur de la couche
cachée dans la couche de contexte, de telle sorte que l'état de la couche de contexte à un temps
t est égal à l'état de la couche cachée au temps (t-1 ). Dans le réseau d'Elman, comme dans le
réseau de Jordan, cette boucle récurrente permet de retenir une trace d'événements passés.
Pour l'apprentissage du réseau on applique une rétro propagation classique pour corriger les
poids, sans tenir compte de la recopie de l'activation de la couche cachée vers la couche de
contexte.
c) Les réseaux à compétition :
Les réseaux à compétition sont composés d'une couche de neurones qui reflète passivement
les données d'entrée présentée au réseau, et une couche de neurones de sortie en compétition.
On utilise le réseau de la façon suivante : une donnée d'entrée est présentée au réseau,
provoquant des réponses variées de la part des neurones de sortie. La compétition s'installe
alors entre ces derniers, et prend la forme d'un combat d'influence qui doit éventuellement se
stabiliser, grâce à la force des liens inhibiteurs. A la fin de la compétition, le ou les neurones
de sortie les plus activés sont déclarés "vainqueurs". Des exemples de réseaux ART (Adaptive
Resonance Theory) et de réseaux de Kohonen (Self-organisation mapping) sont présentés ci-
après.
d) Les réseaux ART
Les réseaux ART sont des réseaux à compétition. Le problème majeur qui se pose dans ce
type de réseaux est le dilemme stabilité/plasticité. En effet dans un apprentissage par
compétition, rien ne garantit que les catégories formées vont rester stable. La seule possibilité
pour assurer une stabilité, serait que le taux d'apprentissage tende vers zéro, mais alors le
réseau perd sa plasticité. C'est pour résoudre ce problème, qu'on utilise les réseaux ART. Les
valeurs de poids ne sont adaptées que s'il y a une approximation suffisante entre l'entrée du
réseau et le prototype déjà connu par le réseau. Alors il existe une résonance. Sinon, l'entrée
du système est très éloignée du prototype, on fonde alors une nouvelle classe. Le mode
d'apprentissage peut être supervisé ou non.

16
On va présenter deux types de ces réseaux :
 ART-1 : est un système binaire dont la fonction est d'associer à une donnée d'entrée binaire
un seul neurone de sortie. Les autres membres de cette famille ne sont pas si limités. Le but le
plus connu de ce réseau est de modéliser la reconnaissance d'un objet perçu, ainsi que de
stocker une information. Mais ces réseaux sont très sensibles aux bruits qui apparaissent sur
les données. Pour y échapper, on doit mettre en place une couche de filtrage.
 ART-2 : traite des valeurs continues, mais il a le même but que le réseau précédent.
Cependant les calculs utilisés sont beaucoup plus difficiles à comprendre.

IV. À quoi servent les réseaux de neurones à l'apprentissage supervisé et non supervisé ?
L’apprentissage dans le contexte des réseaux de neurones, est le processus de modification
des poids de connexions (y compris les biais) ou plus rarement du nombre de couches et de
neurones, afin d’adapter le traitement effectué par le réseau à une tâche particulière.
On distingue trois familles d’apprentissage :
- Apprentissage supervisé
- Apprentissage non supervisé
- Apprentissage Auto-supervisé ou hybride

1. Apprentissage supervisé
Un superviseur, ou professeur, fournit au réseau des couples d’entrées-sorties. Il fait
apprendre au réseau l’ensemble de ces couples, par une méthode d’apprentissage, comme la
rétropropagation du gradient de l’erreur, en comparant pour chacun d’entre eux la sortie
effective du réseau et la sortie désirée. L’apprentissage est terminé lorsque tous les couples
entrées-sorties sont reconnus par le réseau.

2. Apprentissage non supervisé


Cet apprentissage consiste à détecter automatiquement des régularités qui figurent dans les
exemples présentés et à modifier les poids des connexions pour que les exemples ayant les
mêmes caractéristiques de régularité provoquent la même sortie.
Les réseaux auto-organisateurs de Kohonen sont les réseaux à apprentissage non supervisé les
plus connus

17
3. Apprentissage Auto-supervisé ou Hybride

Le réseau de neurones évalue lui-même ses performances, sans l’aide d’un « expert », un
objet est présenté à l’entrée du réseau de neurones, à qui on a indiqué la classe à laquelle
appartient cet objet. Si le réseau ne le classe pas correctement, il mesure lui-même l’erreur, et
propage cette erreur vers l’entrée. Le réseau procède à autant d’itérations qu’il est nécessaire
jusqu’à obtenir la réponse valide.

V. Quelques modèles de réseaux de neurones :


1. Le perceptron multicouche :

Le perceptron Multicouche est un réseau orienté de neurones artificiels organisé en couches et


où l’information voyage dans un seul sens, de la couche d’entrée vers la couche de sortie.

La figure donne l’exemple d’un réseau contenant une couche d’entrée, deux couches cachées
et une couche de sortie. La couche d’entrée représente toujours une couche virtuelle associée
aux entrées du système. Elle ne contient aucun neurone. Les couches suivantes sont des
couches de neurones. Dans l’exemple illustre, il y a 3 entrées, 4 neurones sur la première
couche cachée, trois neurones sur la deuxième couche cachée et quatre neurones sur la couche
de sortie. Les sorties des neurones de la dernière couche correspondent toujours aux sorties du
système. Dans le cas général, un perceptron Multicouche peut posséder un nombre de couches
quelconque et un nombre de neurones (ou d’entrées) par couche également quelconque.

2. Le modèle de Hopefied :

Les réseaux de Hopfield sont des réseaux récurrents et entièrement connectés. Dans ce type de
réseau, chaque neurone est connecté à chaque autre neurone et il n'y a aucune différenciation
entre les neurones d'entrée et de sortie.

18
Ils fonctionnent comme une mémoire associative non
linéaire et sont capables de trouver un objet stocké en
fonction de représentations partielles ou bruitées. L'application principale des réseaux de
Hopfield est l'entrepôt de connaissances mais aussi la résolution de problèmes d'optimisation.
Le mode d'apprentissage utilisé ici est le mode non supervisé.

3. Les cartes de Kohonen :

Utilisent la carte de Kohonen. Cette carte est composée de deux couches dont la première
constitue l'entrée du réseau et la seconde la sortie. On peut voir la structure de cette carte sur
la figure ci-après. Les neurones de cette carte sont disposés en une topologie déterminée.
Plusieurs topologies sont possibles, par exemple une carte carrée ou une carte rectangulaire.

VI. Application des réseaux neurones


Les réseaux de neurones ont des nombreuses applications dans des domaines très variés :
 Traitement d'images : compression d'images, reconnaissance de caractères et de
signatures, reconnaissance Formes et motifs, cryptage, classification ;
 Traitement du signal : traitement de la parole, identification de source, filtrage,
classification ;
 Traitement automatique du langage : segmentation en mots, représentation sémantique
des mots (Word embeddings), étiquetage morphosyntaxique, traduction automatique ;
 Contrôle : diagnostic de panne, contrôle de processus, contrôle qualité, robotique ;
 Optimisation : allocation des ressources, planification, contrôle du trafic, gestion,
finances ;
 Simulation : simulation de boîte noire, prévisions météorologiques ;
 Classification des espèces animales soumises à l'analyse de l'ADN ;
 Modéliser les apprentissages et améliorer les méthodes d'enseignement ;
 Approximation de fonctions inconnues ou modélisation de fonctions connues mais
complexes sur le plan informatique ;
Application dans le domaine financier :
- Les réseaux de neurones en finance : En finance, les réseaux de neurones artificiels
peuvent être utilisés pour résoudre une variété de problèmes. Depuis 1990, Hawley a envisagé
de l'appliquer à une variété de sujets, y compris l'identification difficile des entreprises, la
gestion de portefeuille, l'évaluation des introductions en bourse et l'identification des
opportunités d'arbitrage.

19
Depuis lors, de nombreux autres domaines ont été découverts, notamment les évaluations
d'actifs, les notations d'obligations et l'analyse des marchés boursiers. Cependant, les réseaux
de neurones semblent donner les résultats les plus satisfaisants dans la prévention et la
détection des entreprises problématiques.
Exemple : Les estimations boursières
Les réseaux de neurones peuvent être utilisés comme outil d'estimation boursière. L'analyse
boursière est basée sur les principes suivants : Les informations sur l'évolution des cours
boursiers sont incluses dans les valeurs obtenues à partir de celles-ci à des moments
antérieurs. Comment puis-je déterminer l'impact de ces valeurs ? Le but est que le réseau de
neurones apprenne l'évolution des cours boursiers dans un certain nombre de cas et guide
ultérieurement l'évolution des cours boursiers par imitation. Par conséquent, les actions
suivantes sont possibles avec les réseaux de neurones :
 Déterminez la valeur de votre entreprise en fonction des données disponibles telles que les
bénéfices, les ventes, la dette à court et moyen terme et le nombre de commandes.
 Prévisions sur la périodicité des cours boursiers
 Ils accompagnent donc la prise de décision d'achats boursiers en fonction de l'évolution
des cours.
- La reconnaissance de formes : La reconnaissance de formes nous aide à comprendre
comment fonctionnent les réseaux de neurones et à quel point ils apprennent. Tout d'abord,
"apprenez" la forme, l'image et la silhouette au réseau de neurones. Présentez ensuite l'une des
images formées au système comme étant incomplète ou défectueuse afin que vous puissiez
reconnaître de quoi il s'agit. Les exemples suivants vous aideront à comprendre.

Reconnaissance d'images

20
Reconnaissance de chiffres

La première colonne est constituée d'images « apprises » par le réseau de neurones. La


deuxième colonne est l'image de test (incomplète) envoyée au système pour reconnaissance
en fonction de ce que le système a appris. La troisième colonne est constituée des images
renvoyées par le système. En fait, le système a reconstruit la première image entraînée, même
si les données transmises étaient incomplètes.

Reconnaissance de formes

Les trois petites images à gauche représentent le "B" manuscrit présenté dans le réseau de
neurones. Les lettres noires sur fond gris au centre de l'image représentent les lettres de
l'alphabet qui sont « apprises » par le réseau et en constituent la base. À droite, ce sont les
probabilités que « B » corresponde à une telle lettre. Cette application peut vous aider à
reconnaître, par exemple, l'emplacement d'un code postal ou d'une lettre envoyée par un
bureau de poste. À partir de chiffres ou de lettres manuscrites, le réseau de neurones a appris à
reconnaître de quel chiffre ou de quelle lettre il s'agit. L'e-mail peut alors arriver à la bonne
destination de manière automatisée.
Il y a 92% de chances que la lettre manuscrite corresponde à un "B" (ce qui est le cas).
Il y a 32% de chances que la lettre manuscrite corresponde à un "E".
Il y a 51% de chances que la lettre manuscrite corresponde à un "P".
Il y a 45% de chances que la lettre manuscrite corresponde à un "R".

21
La neuro-informatique : Comment les nouvelles technologies comme les réseaux de
neurones peuvent-elles nous aider à mieux comprendre le cerveau humain ? Cette synergie est
si importante que l'un des domaines où les neurosciences ont vraiment besoin de réseaux de
neurones artificiels est l'étude des fonctions du corps humain telles que les fonctions visuelles
et motrices. Depuis plusieurs années, la recherche scientifique recueille des données sur la
composition des neurones impliqués dans ces fonctions (structure, nombre et type de
connexions, poids des connexions, etc.). La modélisation via des réseaux de neurones
artificiels permet d'ajuster toutes ces données pour recréer l'activité cérébrale afin de tester
différentes hypothèses.
Le groupe de recherche franco-britannique-suisse, dirigé par Henry Kennedy (Inserm U 371,
Bron, France), applique ces méthodes aux études visuelles. La modélisation du contrôle
moteur par le cerveau humain et la moelle épinière est étudiée par un groupe dirigé par Yves
Burnod (Inserm U 483, Paris, France). « L'enjeu de cette étude est de développer une nouvelle
hypothèse sur le contrôle spontané des mouvements du bras, qui soit adaptée à la fois à des
applications cliniques (visuelles, motrices) et techniques en robotique par exemple. »

VII. Quelques exemples d'applications des réseaux de neurones :


Modélisation statique :
De nombreux exemples de modélisation de phénomènes statiques à l'aide de réseaux de
neurones peuvent être trouvés. Ainsi, dans le domaine des « relations structure-activité » (ou
Q.S.A.R. pour Quantitative Structure-Activity Relationship), les réseaux de neurones peuvent
s'appuyer sur des descripteurs chimiques de molécules (qui sont eux-mêmes des nombres
réels). Par exemple, il peut être basé sur la masse moléculaire, le moment dipolaire, la charge
portée par divers atomes, le "volume de la molécule", etc.
Certains de ces descripteurs sont mesurables, d'autres sont calculés par des méthodes semi-
empiriques. De nombreuses extensions de cette approche peuvent être imaginées : prédiction
des propriétés pharmacologiques de molécules, formulation de mélanges, prédiction de
propriétés mécaniques ou optiques de matériaux, etc.

22
Modélisation dynamique :
Les propriétés parcimonieuses d'approximation universelle des réseaux de neurones peuvent
être avantageusement utilisées pour la modélisation dynamique non linéaire de processus très
divers. On distingue généralement :
–   modèle "boîte noire", qui repose entièrement sur la mesure du processus étudié, sans
l'intervention d'autres connaissances ;
–  Les modèles de connaissances, dont les expressions mathématiques contiennent un petit
nombre de paramètres ajustables, issus de l'analyse des processus (physique, chimie, biologie,
économie, etc.).
Les réseaux de neurones sont souvent utilisés comme modèles de boîte noire. Néanmoins, ils
peuvent également implémenter des connaissances, constituant ainsi un compromis parfait
entre les modèles de boîte noire et les modèles de connaissances : on les appelle les modèles
de connaissances neuronales.
Pour réaliser un modèle dynamique, vous devez utiliser un réseau en boucle, qui est lui-
même un système dynamique. Comme les réseaux statiques, l'apprentissage est une estimation
des paramètres du réseau. Le but est d'obtenir un réseau reproduisant le plus fidèlement
possible le comportement qu'aurait un processus sans bruit ni interférence, même lorsque
l'apprentissage s'effectue en présence de ceux-ci. Les résultats théoriques montrent que cet
objectif est atteignable en principe, et de nombreux exemples (modélisation de procédés
industriels, modélisation de robots) montrent qu'il est effectivement atteint.
- Les modèles dynamiques « boîtes noires » : L'une des propriétés particulièrement utiles
des réseaux de neurones est la capacité d'intégrer les connaissances mathématiques acquises à
partir de l'analyse des processus dans la conception même du réseau. Ces connaissances sont
très courantes et il est déraisonnable de ne pas les utiliser. De cette façon, vous pouvez
bénéficier à la fois de l'intelligibilité du modèle de connaissances et de l'adaptabilité du réseau
de neurones. Ce dernier n'est pas une boîte noire, mais un véritable modèle de connaissances
neuronales. Les applications d'une telle approche incluent la modélisation du comportement
de la colonne de distillation et la modélisation du mouvement du poisson pour créer des
images générées par ordinateur.

23
- Les modèles neuronaux de connaissances : L'une des propriétés particulièrement utiles des
réseaux de neurones est la capacité d'intégrer les connaissances mathématiques acquises à
partir de l'analyse des processus dans la conception même du réseau. Ces connaissances sont
très courantes et il est déraisonnable de ne pas les utiliser.

De cette façon, vous pouvez bénéficier à la fois de l'intelligibilité du modèle de connaissances


et de l'adaptabilité du réseau de neurones. Ce dernier n'est pas une boîte noire, mais un
véritable modèle de connaissances neuronales. Les applications d'une telle approche incluent
la modélisation du comportement de la colonne de distillation et la modélisation du
mouvement du poisson pour créer des images générées par ordinateur.
- Commande de processus : Contrôler un processus signifie décider quelle commande
appliquer au processus pour assurer un comportement particulier en cas de défaillance.
Par conséquent, contrôler un véhicule autonome signifie que les actionneurs du volant, de
l'accélérateur et du frein fournissent les signaux de commande nécessaires pour que le
véhicule se déplace, malgré les obstacles tels que les pentes de la route, les pentes, les rafales
et les éventuels dérapages. Le réseau de cette connexion provient directement de la capacité à
effectuer des fonctions non linéaires.
Le but ici est de trouver la relation non linéaire qui existe entre la valeur de consigne
(comme la vitesse que doit avoir le véhicule) et la commande donnée au processus. Elle est
transmise (par exemple, la pression appliquée au circuit de freinage).

24
Conclusion générale :

Des réseaux de neurones artificiels inspirés du comportement du cerveau


humain permettent de créer une intelligence artificielle. Spécialement appliqués
à l'exploration de données principalement via un apprentissage non supervisé, ils
sont utilisés pour prédire, identifier et classer des données. L'apprentissage est le
moteur fondamental des systèmes, qui leur permet de prendre en charge le
traitement de l'information à travers une fonction et de le reproduire sous forme
de données qui lui seront présentées. Les réseaux de neurones sont largement
utilisés dans la finance et la gestion comme outils d'aide à la décision, mais ils
peuvent être utilisés dans de nombreuses autres applications dans des domaines
tels que l'archéologie, la médecine et les télécommunications. Plus important
encore, ils offrent de l'espoir à celui qui les a inspirés : le cerveau humain.
Avec la neuro informatique, ils peuvent reproduire cela pour tester différentes
voies, ce qui leur permet de faire des avancées biotechnologiques considérables.

25
Bibliographie / Webographie

- "Principe et application neurones" Denis THUILLIER


- Hinton, G.E 1989 ''Connectionnism learning Procedures'', Artificial Intelligence;
- A. Cornuéjols, L. Miclet, Y. Kodratoff, Apprentissage artificiel,Eyrolles
- Réseaux neuronaux et traitement du signal / Jeanny Hérault, Christain Jutten / Hermès/
1994
- Les réseaux de neurones : contribution à théorie / Olivier Sarzeaud / Ouest éditions / 1995
- Les réseaux de neurones : principes et définitions / Jean-Francois Jodouin / Hermès / 1994
- https://www.universalis.fr/encyclopedie/reseaux-de-neurones-formels/
- https://scilogs.fr/intelligence-mecanique/architecture-des-reseaux-de-neurones-reseaux-
de-neurones-artificiels-classiques-2-3/
- https://hal-amu.archives-ouvertes.fr/hal01338010/file/
Les_reseaux_de_neurones_artificiels
- https://fr.slideserve.com/guang/les-reseaux-de-neurones
- https://fr.wikiversity.org/wiki/Réseaux_de_neurones/
Applications_des_réseaux_de_neurones
- https://www.ibm.com/fr-fr/cloud/learn/neural-networks
- https://123dok.net/article/r%C3%A9seaux-boucl%C3%A9s-r%C3%A9seaux-r
%C3%A9currents.yjd21lmy
- https://tpe-neurones.webnode.fr/les-reseaux-de-neurones/
- https://123dok.net/article/r%C3%A9seaux-boucl%C3%A9s-r%C3%A9seaux-r
%C3%A9currents.yjd21lmy
- https://fr.slideserve.com/guang/les-reseaux-de-neurones

26

Vous aimerez peut-être aussi