Académique Documents
Professionnel Documents
Culture Documents
Loubna SMAHI
Introduction générale
I. Réseaux Neuronaux : définitions , historique et propriétés
- Les neurones
- Les réseaux de neurones ou les réseaux neuronaux
Conclusion générale
Bibliographie et Webographie
Introduction
Un réseau de neurones formel, couramment appelé réseau de neurones, est un calcul (ou
algorithme), généralement réalisé à l'aide d'un ordinateur, dont le résultat reproduit ou prévoit
aussi fidèlement que possible, le comportement de n'importe quel processus en fonction des
facteurs qui déterminent ce comportement. On entend par « processus » tout système, naturel
ou artificiel, et par « facteur » toute grandeur qui est susceptible d'avoir une influence sur le
processus. Ainsi, un réseau de neurones est capable de prévoir l'évolution de la température
d'un four en fonction de l'intensité du courant électrique dans la résistance chauffante, la
vitesse d'un véhicule en fonction du déplacement de la pédale d'accélérateur et de la pente de
la route, le cours d'une valeur mobilière en fonction des taux de change du dollar et du yen
ainsi que de ses cours passés, la dureté d'un matériau en fonction de sa composition chimique
et de sa température d'élaboration, la solvabilité d'une entreprise en fonction de son chiffre
d'affaires, etc.
Dans le calcul effectué par le réseau de neurones interviennent des nombres, appelés
paramètres ou poids du réseau, qui doivent être calculés de telle sorte que l'imitation et la
prévision soient aussi fidèles que possible. Pour effectuer cet ajustement, on utilise des
exemples du comportement que l'on veut imiter : on dit que l'on effectue ainsi l'«
apprentissage » du réseau de neurones à partir d'exemples judicieusement choisis. Une fois
l'apprentissage terminé, le réseau doit être capable non seulement de restituer les exemples de
comportement appris, mais surtout de prévoir avec précision des comportements non appris :
c'est la faculté de « généralisation ».
Les réseaux de neurones résolvent donc un problème statistique : fondamentalement, la
problématique qu'ils abordent n'est pas différente de celle des instituts de sondage qui, après
interrogation d'un échantillon représentatif de la population, généralisent les réponses à
l'ensemble de la population.
1
L'aptitude des réseaux de neurones à imiter et à prévoir des comportements, après
apprentissage par l'exemple, leur permet d'avoir des applications dans des domaines très
divers :
– pour simuler sur ordinateur, et donc prévoir, le comportement de processus complexes,
qu'ils soient industriels (robots, installations industrielles, circuits électroniques...), qu'ils
intéressent la vie quotidienne (voitures, installations de climatisation...) ou l'activité financière
(marketing, investissement, sélection d'informations...), ou qu'ils régissent les milieux naturels
ou sociaux (écosystèmes, systèmes sociaux ou politiques...), etc. ;
– pour reconnaître des formes, des signaux, des événements (lecture automatique de codes
postaux ou de chèques, reconnaissance d'images, reconnaissance de parole, etc.).
Toutes ces applications, en dépit de leur diversité, possèdent un substrat mathématique et
statistique commun : il s'agit toujours d'obtenir une capacité de généralisation aussi
satisfaisante que possible compte tenu de la qualité et de la pertinence des exemples utilisés
au cours de l'apprentissage. Les réseaux de neurones permettent de résoudre de façon efficace
et précise ce type de problèmes ; il serait toutefois exagéré de prétendre qu'ils représentent une
forme d'intelligence.
2
I. Réseaux Neuronaux : définitions, historique et propriétés
1. Définition :
Les réseaux neuronaux, également connus sous le nom de réseaux de neurones artificiels
(ANN) ou de réseaux de neurones à impulsions (SNN) constituent un sous-ensemble de
l'apprentissage machine et sont au cœur des algorithmes de l'apprentissage en profondeur.
Leur nom et leur structure sont inspirés par le cerveau humain. En effet, ces réseaux imitent la
façon dont les neurones biologiques s'envoient mutuellement des signaux.
Les réseaux de neurones artificiels (ANN) sont constitués de différentes couches de nœud (ou
neurone artificiel), contenant une couche en entrée, une ou plusieurs couches cachées et une
couche en sortie. Chaque nœud, ou neurone artificiel, se connecte à un autre et possède un
poids et un seuil associés. Si la sortie d'un nœud est supérieure à la valeur de seuil spécifiée,
ce nœud est activé et envoie des données à la couche suivante du réseau. Sinon, aucune
donnée n'est transmise à la couche suivante du réseau.
Les réseaux neuronaux utilisent des données de formation pour apprendre et améliorer leur
précision au fil du temps. Cependant, une fois ces algorithmes d'apprentissage suffisamment
affinés, ils constituent de puissants outils pour l'informatique et l'intelligence artificielle,
permettant de classer et de regrouper très rapidement les données. Les tâches de
reconnaissance de la parole ou de l'image peuvent s'exécuter en quelques minutes seulement,
alors qu'une identification manuelle par des experts humains nécessite plusieurs heures. L'un
des réseaux neuronaux les plus connus est l'algorithme de recherche de « Google ».
3
2. Un bref historique :
On peut, bien sûr, faire commencer l'historique des réseaux de neurones avec Aristote, mais
ce serait un peu excessif. Bien qu'on puisse trouver des ancêtres (de Galton à James, CY.
Anderson & Rosenfeld, 1988), l'histoire des réseaux de neurones est étroitement reliée au
développement de l'informatique.
➢ En 1890, W. Jones a introduit le concept de mémoires associatives et proposa ce qui est
devenu par la suite la loi de fonctionnement et d’apprentissage des réseaux de neurones,
connue plus tard sous le nom de « Loi de Hebb ».
➢ Le neurologue Warren Sturgis McCulloch et le logicien Walter Pitts ont mené les premiers
travaux sur les réseaux de neurones à la suite de leur article fondateur : « What the frog’s
eye tells to the frog’s brain » en 1943. Ils ont constitué un modèle simplifié de neurone
biologique appelé neurone formel. Ils ont montré théoriquement que les neurones formels
simples peuvent réaliser des fonctions logiques, arithmétiques et symboliques complexes. Ils
voulaient prouver que le cerveau est équivalent à une machine de turing.
➢ En 1949, D. Hebb a présenté dans son ouvrage « The Organization of Behavior » une règle
d’apprentissage. De nombreux modèles de réseaux aujourd’hui s’inspirent encore de la règle
de Hebb.
➢ Le premier succès est apparu en 1957 quand Frank Rosenblatt a inventé le premier modèle
artificiel nommé « le Perceptron ». C’est un réseau de neurones inspiré du système visuel. Il
possède deux couches de neurones : une couche de perception et une couche liée à la prise de
décision. C'était le premier système artificiel qui pouvait apprendre par expérience, y compris
lorsque son instructeur commettait des erreurs.
➢ L’année 1960 a été marquée par la création d’un modèle ressemblant à celui de Rosenblatt
mais dont la loi d’apprentissage est différente, ce modèle fut développé par B. Widrow et
Hoff, il est connu sous le nom de modèle «Adaline » (Adaptative Linear Element). Ce modèle
sera par la suite le modèle de base des réseaux multicouches. Sa loi d’apprentissage est à
l’origine de l’algorithme de « Rétro propagation du gradient »
➢ Le succès des modèles connexionnistes a vite atteint ses limites technologiques. En 1969
Marvin Lee Minski et Seymour Papert publièrent un ouvrage nommé « Perceptrons ». Ils ont
montré les limitations théoriques des modèles de Perceptron et plus particulièrement de
l'impossibilité de traiter par ce modèle des problèmes non linéaires.
4
Ils ont étendu implicitement ces limitations à tous les modèles de réseaux de neurones
artificiels. Face à ces obstacles les recherches dans ce domaine se sont déguisées sous le
couvert de divers domaines comme par exemple : Le traitement adaptatifs du signal, la
reconnaissance des formes, la modélisation en neurobiologique, etc. [78]. Jusqu’en 1972, où
T. Kohonen a présenté ses travaux sur les mémoires associatives et proposa des applications à
la reconnaissance des formes.
➢ Dès le début des années 80, l’approche connexionniste s’est relancée grâce aux travaux de
J.J. Hopfield ; qui a présenté son étude sur un réseau complètement rebouclé. Depuis,
Un avancement considérable fut reconnu et beaucoup de modèles ont été mis au point ; dont
on peut citer : La Machine de Boltzmann en 1983, l’algorithme de Rétro propagation du
gradient en 1985, celui de l’estimation par Rétro propagation de l’erreur par Hopkins en
1982, l’analogie de la phase d’apprentissage avec les modèles Markoviens des systèmes de
particules de la mécanique statistique par Hopfield en 1982.
Vers la fin des années 90, su peut dire que les réseaux de neurones sont maintenant devenus
un domaine attractif, qui réunit autour d'un thème commun des psychologues, des physiciens,
des mathématiciens, des biologistes, des ingénieurs et des informaticiens
Cette figure montre un schéma comportant la structure générale d'un neurone artificiel.
5
y u x1, x2, ..., xn ; sont les entrées externes. y est
la sortie. w1, w2, ..., wn sont les poids associés à
chaque connexion. X est le vecteur d'entrée, W' est le vecteur poids, θ est appelé le biais. La
fonction φ est appelée fonction d'activation, c'est une fonction non linéaire. Différentes
fonctions d'activation peuvent être utilisées, parmi lesquelles on peut citer : fonction signe,
sigmoïde, tangente hyperbolique, Gaussienne et le choix d'un type de fonction dépend de
l'application.
Les réseaux de neurones artificiels sont des combinaisons de fonctions élémentaires appelées
neurones formels, ou simplement neurones associés en couches et fonctionnant en parallèle.
Chaque processeur élémentaire calcule une sortie unique sur la base des informations qu'il
reçoit. Toute structure hiérarchique de réseaux est évidemment un réseau.
Chaque nœud individuel peut être considéré comme étant son propre modèle de régression
linéaire, composé de données d'entrée, de poids, d'un biais (ou d'un seuil) et d'une sortie. La
formule peut se présenter comme suit :
6
Formule mathématique utilisée pour déterminer la totalisation
Lorsqu'une couche en entrée est déterminée, des poids sont affectés. Ces poids permettent de
déterminer l'importance d'une variable donnée, les poids les plus importants contribuant de
façon plus significative à la sortie par rapport aux autres entrées. Toutes les entrées sont
ensuite multipliées par leurs poids respectifs, puis additionnées. Par la suite, la sortie est
transmise via une fonction d'activation qui détermine la sortie. Si cette sortie dépasse un seuil
donné, elle "déclenche" (ou active) le nœud, et transmet les données à la couche suivante du
réseau. La sortie d'un nœud devient alors l'entrée du nœud suivant. Ce processus, qui consiste
à transmettre les données d'une couche à la couche suivante, définit ce réseau neuronal
comme un réseau à propagation avant, en anglais feedforward.
À l'aide de valeurs binaires, analysons la façon dont se présente un nœud unique. Nous
pouvons appliquer ce concept à un exemple plus concret : par exemple, vous devez décider si
vous allez faire du surf (Oui : 1, Non : 0). La décision d'aller surfer ou non est notre résultat
prévu, ou valeur y-hat. Supposons qu'il y a trois facteurs qui influencent votre prise de
décision :
Y a-t-il de grosses vagues ? (Oui : 1, Non : 0)
Le spot est-il tranquille ? (Oui : 1, Non : 0)
7
Y a-t-il eu une attaque récente de requins ? (Oui : 1,
Non : 0)
Ensuite, prenons l'hypothèse ci-dessous, ce qui nous donne les entrées suivantes :
X1 = 1, parce que les vagues sont grosses
X2 = 0, parce qu'il y a peu de monde sur place
X3 = 1, parce qu'il n'y a pas eu d'attaque récente de requin
Nous devons maintenant affecter des poids pour déterminer l'importance. Les poids plus
élevés signifient que certaines variables sont plus importantes pour la décision ou le résultat.
W1 = 5, parce que les grosses houles sont rares
W2 = 2, parce que vous êtes habitué à la foule
W3 = 4, parce que vous avez peur des requins
Enfin, nous prenons aussi comme hypothèse une valeur de seuil de 3, ce qui se traduit par une
valeur de biais de -3. Maintenant que nous disposons de toutes les entrées, nous pouvons
commencer à inclure les valeurs dans la formule pour obtenir le résultat en sortie souhaité.
Y-hat = (1*5) + (0*2) + (1*4) – 3 = 6
Si nous utilisons la fonction d'activation depuis le début de cette section, nous pouvons
déterminer que la sortie de ce nœud sera 1, car 6 est supérieur à 0. Dans ce cas, vous iriez
surfer, mais si nous ajustons les poids ou le seuil, nous pouvons obtenir des résultats différents
à partir du modèle. Lorsque nous observons une décision, comme dans l'exemple ci-dessus,
nous pouvons voir comment un réseau neuronal peut prendre des décisions de plus en plus
complexes en fonction du résultat en sortie des décisions ou des couches précédentes.
Dans l'exemple ci-dessus, nous avons utilisé des perceptrons pour illustrer certaines des
formules mathématiques en jeu ici, mais les réseaux neuronaux utilisent des neurones
sigmoïdes, qui se distinguent par des valeurs comprises entre 0 et 1. Étant donné que les
réseaux neuronaux se comportent de la même façon que les arbres de décision, en
transmettant en cascade les données d'un nœud à un autre, le fait d'avoir x valeurs comprises
entre 0 et 1 atténue l'impact de tout changement d'une variable unique sur la sortie de tout
nœud, et par conséquent, sur la sortie du réseau neuronal.
8
Alors que nous commençons à réfléchir davantage à
des cas d'utilisation pratiques des réseaux neuronaux,
comme la reconnaissance ou la classification d'images, nous allons tirer parti de
l'apprentissage supervisé, ou des ensembles de données étiquetés pour former l'algorithme.
Au fur et à mesure que nous formons le modèle, nous aurons besoin d'évaluer son exactitude à
l'aide d'une fonction de coût (ou de perte). C'est ce que l'on appelle généralement l'erreur
quadratique moyenne (MSE). Dans l'équation ci-dessous,
i représente l'index de l'échantillon,
y-hat est le résultat prévu,
y est la valeur réelle, et
m est le nombre d'échantillons.
9
avant (feedforward), ce qui signifie qu'ils
fonctionnent dans une seule direction, de l'entrée
vers la sortie. Cependant, vous pouvez aussi former votre modèle par rétropropagation, c'est-
à-dire en le faisant fonctionner dans la direction opposée, de la sortie vers l'entrée. La
rétropropagation nous permet de calculer et d'attribuer l'erreur associée à chaque neurone.
Nous pouvons ainsi ajuster et adapter correctement les paramètres d'un ou de plusieurs
modèles.
1.
Neurones biologiques
Le neurone est une cellule composée d’un corps cellulaire et d’un noyau. Le corps cellulaire
ramifie pour former ce que l’on nomme les dendrites. Celles-ci sont parfois si nombreuses que
l’on parle alors de chevelure dendritique ou d’arborisation dendritique. C’est par les dendrites
que l’information est acheminée de l’extérieur vers le soma, corps du neurone. L’information
traitée par le neurone chemine ensuite le long de l’axone (unique) pour être transmise aux
autres neurones. La transmission entre deux neurones n’est pas directe. En fait, il existe un
espace intercellulaire de quelques dizaines d’Angströms (10-9m) entre l’axone du neurone
afférent et les dendrites (on dit une dendrite) du neurone efférent. La jonction entre deux
neurones est appelée la synapse :
10
2. Neurones artificiels
Le neurone artificiel est un processeur élémentaire. Il reçoit un nombre variable d'entrées en
provenance des neurones appartenant à un niveau situé en amont (on parlera de neurones
"amont"), a chacune des entrées est associé un poids w représentatif de la force de la
connexion. Chaque processeur élémentaire est doté d'une sortie unique, qui se ramifie ensuite
pour alimenter un nombre variable de neurones appartenant à un niveau situé en aval (on
parlera de neurones "avals"). À chaque connexion est associé un poids.
Les R entrées du neurone correspondent au vecteur p=[ p1, p2, p….], alors que w=[W1, W2,
W…, ] représente le vecteur des poids du neurone.
On pourra résumer une modélisation de tel neurone par le tableau suivant, qui nous
permettra de voir clairement le passage du neurone biologique vers le neurone formel :
11
Le passage du neurone biologique vers le
neurone forme ;
• des entrées E :
12
. Binaires
. Réelles
• une fonction sommatrice h :
. Pondérée, chaque entrée est affectée d'un coefficient Wi
. Avec une correction -seuil
• une fonction de calcul de sortie F
. À seuil (-> 0/1 ou -1/+1)
. Linéaire à saturation et à seuil ou multi-seuils
. Sigmoïde
. Stochastique
S = F (somme (WiEi) -seuil)
•booléen : premier modèle de Mac Culloch et Pitts datant des années quarante, avec les
entrées, les sorties, les fonctions, sont booléens.
•à seuil : sortie binaire calculée par une fonction de sortie heaviside (0/1) ou signe (- 1/+1).
• linéaires : entrées sorties réelles.
• à saturation : entrées sorties réelles ou entières, fonction linéaire à saturation.
• continus : entrées sorties réelles, fonction sommatrice linéaire, fonction de calcul sigmoïde,
• probabilistes : les sorties sont binaires, calculées par une fonction stochastique.
13
Comme pour les neurones biologiques, les neurones
artificiels peuvent être organisés en réseaux. Il en
existe deux types, les réseaux de neurones bouclés et les réseaux de neurones non bouclés.
Ceci est un perceptron multicouche. Il est défini grâce à une architecture vérifiant les
propriétés suivantes : La première couche est composée par n cellules d’entrées, qui
correspondent aux n variables. Les couches C1…Cq-1 sont les couches dites cachées et Cq est
la couche de sortie(s). Les entrées d’une cellule d’une couche i (i≥1) sont toutes les cellules de
la couche précédente et aucune autre cellule.
Ce type de réseau peut par exemple effectuer des classes de classification ou pour calculer le
XOR d’une fonction booléenne.
Le XOR d’une fonction booléenne (ou OU exclusif) est défini de manière suivante a est Vrai
ou b est Vrai mais pas les deux.
b/a 0 1
0 0 1
1 1 0
15
b) Le réseau d'Elman :
Le réseau d'Elman a été introduit par Elman à 1990
et est présenté sur la figure ci-après. Ce réseau est très semblable au réseau de Jordan, mais
son architecture est plus adaptée au traitement de séquence structurée. Là où le réseau de
Jordan bouclait ses sorties sur ses entrées, le réseau d'Elman fait boucler sa couche cachée sur
elle-même. L'effet de cette boucle est de recopier sans autre traitement la valeur de la couche
cachée dans la couche de contexte, de telle sorte que l'état de la couche de contexte à un temps
t est égal à l'état de la couche cachée au temps (t-1 ). Dans le réseau d'Elman, comme dans le
réseau de Jordan, cette boucle récurrente permet de retenir une trace d'événements passés.
Pour l'apprentissage du réseau on applique une rétro propagation classique pour corriger les
poids, sans tenir compte de la recopie de l'activation de la couche cachée vers la couche de
contexte.
c) Les réseaux à compétition :
Les réseaux à compétition sont composés d'une couche de neurones qui reflète passivement
les données d'entrée présentée au réseau, et une couche de neurones de sortie en compétition.
On utilise le réseau de la façon suivante : une donnée d'entrée est présentée au réseau,
provoquant des réponses variées de la part des neurones de sortie. La compétition s'installe
alors entre ces derniers, et prend la forme d'un combat d'influence qui doit éventuellement se
stabiliser, grâce à la force des liens inhibiteurs. A la fin de la compétition, le ou les neurones
de sortie les plus activés sont déclarés "vainqueurs". Des exemples de réseaux ART (Adaptive
Resonance Theory) et de réseaux de Kohonen (Self-organisation mapping) sont présentés ci-
après.
d) Les réseaux ART
Les réseaux ART sont des réseaux à compétition. Le problème majeur qui se pose dans ce
type de réseaux est le dilemme stabilité/plasticité. En effet dans un apprentissage par
compétition, rien ne garantit que les catégories formées vont rester stable. La seule possibilité
pour assurer une stabilité, serait que le taux d'apprentissage tende vers zéro, mais alors le
réseau perd sa plasticité. C'est pour résoudre ce problème, qu'on utilise les réseaux ART. Les
valeurs de poids ne sont adaptées que s'il y a une approximation suffisante entre l'entrée du
réseau et le prototype déjà connu par le réseau. Alors il existe une résonance. Sinon, l'entrée
du système est très éloignée du prototype, on fonde alors une nouvelle classe. Le mode
d'apprentissage peut être supervisé ou non.
16
On va présenter deux types de ces réseaux :
ART-1 : est un système binaire dont la fonction est d'associer à une donnée d'entrée binaire
un seul neurone de sortie. Les autres membres de cette famille ne sont pas si limités. Le but le
plus connu de ce réseau est de modéliser la reconnaissance d'un objet perçu, ainsi que de
stocker une information. Mais ces réseaux sont très sensibles aux bruits qui apparaissent sur
les données. Pour y échapper, on doit mettre en place une couche de filtrage.
ART-2 : traite des valeurs continues, mais il a le même but que le réseau précédent.
Cependant les calculs utilisés sont beaucoup plus difficiles à comprendre.
IV. À quoi servent les réseaux de neurones à l'apprentissage supervisé et non supervisé ?
L’apprentissage dans le contexte des réseaux de neurones, est le processus de modification
des poids de connexions (y compris les biais) ou plus rarement du nombre de couches et de
neurones, afin d’adapter le traitement effectué par le réseau à une tâche particulière.
On distingue trois familles d’apprentissage :
- Apprentissage supervisé
- Apprentissage non supervisé
- Apprentissage Auto-supervisé ou hybride
1. Apprentissage supervisé
Un superviseur, ou professeur, fournit au réseau des couples d’entrées-sorties. Il fait
apprendre au réseau l’ensemble de ces couples, par une méthode d’apprentissage, comme la
rétropropagation du gradient de l’erreur, en comparant pour chacun d’entre eux la sortie
effective du réseau et la sortie désirée. L’apprentissage est terminé lorsque tous les couples
entrées-sorties sont reconnus par le réseau.
17
3. Apprentissage Auto-supervisé ou Hybride
Le réseau de neurones évalue lui-même ses performances, sans l’aide d’un « expert », un
objet est présenté à l’entrée du réseau de neurones, à qui on a indiqué la classe à laquelle
appartient cet objet. Si le réseau ne le classe pas correctement, il mesure lui-même l’erreur, et
propage cette erreur vers l’entrée. Le réseau procède à autant d’itérations qu’il est nécessaire
jusqu’à obtenir la réponse valide.
La figure donne l’exemple d’un réseau contenant une couche d’entrée, deux couches cachées
et une couche de sortie. La couche d’entrée représente toujours une couche virtuelle associée
aux entrées du système. Elle ne contient aucun neurone. Les couches suivantes sont des
couches de neurones. Dans l’exemple illustre, il y a 3 entrées, 4 neurones sur la première
couche cachée, trois neurones sur la deuxième couche cachée et quatre neurones sur la couche
de sortie. Les sorties des neurones de la dernière couche correspondent toujours aux sorties du
système. Dans le cas général, un perceptron Multicouche peut posséder un nombre de couches
quelconque et un nombre de neurones (ou d’entrées) par couche également quelconque.
2. Le modèle de Hopefied :
Les réseaux de Hopfield sont des réseaux récurrents et entièrement connectés. Dans ce type de
réseau, chaque neurone est connecté à chaque autre neurone et il n'y a aucune différenciation
entre les neurones d'entrée et de sortie.
18
Ils fonctionnent comme une mémoire associative non
linéaire et sont capables de trouver un objet stocké en
fonction de représentations partielles ou bruitées. L'application principale des réseaux de
Hopfield est l'entrepôt de connaissances mais aussi la résolution de problèmes d'optimisation.
Le mode d'apprentissage utilisé ici est le mode non supervisé.
Utilisent la carte de Kohonen. Cette carte est composée de deux couches dont la première
constitue l'entrée du réseau et la seconde la sortie. On peut voir la structure de cette carte sur
la figure ci-après. Les neurones de cette carte sont disposés en une topologie déterminée.
Plusieurs topologies sont possibles, par exemple une carte carrée ou une carte rectangulaire.
19
Depuis lors, de nombreux autres domaines ont été découverts, notamment les évaluations
d'actifs, les notations d'obligations et l'analyse des marchés boursiers. Cependant, les réseaux
de neurones semblent donner les résultats les plus satisfaisants dans la prévention et la
détection des entreprises problématiques.
Exemple : Les estimations boursières
Les réseaux de neurones peuvent être utilisés comme outil d'estimation boursière. L'analyse
boursière est basée sur les principes suivants : Les informations sur l'évolution des cours
boursiers sont incluses dans les valeurs obtenues à partir de celles-ci à des moments
antérieurs. Comment puis-je déterminer l'impact de ces valeurs ? Le but est que le réseau de
neurones apprenne l'évolution des cours boursiers dans un certain nombre de cas et guide
ultérieurement l'évolution des cours boursiers par imitation. Par conséquent, les actions
suivantes sont possibles avec les réseaux de neurones :
Déterminez la valeur de votre entreprise en fonction des données disponibles telles que les
bénéfices, les ventes, la dette à court et moyen terme et le nombre de commandes.
Prévisions sur la périodicité des cours boursiers
Ils accompagnent donc la prise de décision d'achats boursiers en fonction de l'évolution
des cours.
- La reconnaissance de formes : La reconnaissance de formes nous aide à comprendre
comment fonctionnent les réseaux de neurones et à quel point ils apprennent. Tout d'abord,
"apprenez" la forme, l'image et la silhouette au réseau de neurones. Présentez ensuite l'une des
images formées au système comme étant incomplète ou défectueuse afin que vous puissiez
reconnaître de quoi il s'agit. Les exemples suivants vous aideront à comprendre.
Reconnaissance d'images
20
Reconnaissance de chiffres
Reconnaissance de formes
Les trois petites images à gauche représentent le "B" manuscrit présenté dans le réseau de
neurones. Les lettres noires sur fond gris au centre de l'image représentent les lettres de
l'alphabet qui sont « apprises » par le réseau et en constituent la base. À droite, ce sont les
probabilités que « B » corresponde à une telle lettre. Cette application peut vous aider à
reconnaître, par exemple, l'emplacement d'un code postal ou d'une lettre envoyée par un
bureau de poste. À partir de chiffres ou de lettres manuscrites, le réseau de neurones a appris à
reconnaître de quel chiffre ou de quelle lettre il s'agit. L'e-mail peut alors arriver à la bonne
destination de manière automatisée.
Il y a 92% de chances que la lettre manuscrite corresponde à un "B" (ce qui est le cas).
Il y a 32% de chances que la lettre manuscrite corresponde à un "E".
Il y a 51% de chances que la lettre manuscrite corresponde à un "P".
Il y a 45% de chances que la lettre manuscrite corresponde à un "R".
21
La neuro-informatique : Comment les nouvelles technologies comme les réseaux de
neurones peuvent-elles nous aider à mieux comprendre le cerveau humain ? Cette synergie est
si importante que l'un des domaines où les neurosciences ont vraiment besoin de réseaux de
neurones artificiels est l'étude des fonctions du corps humain telles que les fonctions visuelles
et motrices. Depuis plusieurs années, la recherche scientifique recueille des données sur la
composition des neurones impliqués dans ces fonctions (structure, nombre et type de
connexions, poids des connexions, etc.). La modélisation via des réseaux de neurones
artificiels permet d'ajuster toutes ces données pour recréer l'activité cérébrale afin de tester
différentes hypothèses.
Le groupe de recherche franco-britannique-suisse, dirigé par Henry Kennedy (Inserm U 371,
Bron, France), applique ces méthodes aux études visuelles. La modélisation du contrôle
moteur par le cerveau humain et la moelle épinière est étudiée par un groupe dirigé par Yves
Burnod (Inserm U 483, Paris, France). « L'enjeu de cette étude est de développer une nouvelle
hypothèse sur le contrôle spontané des mouvements du bras, qui soit adaptée à la fois à des
applications cliniques (visuelles, motrices) et techniques en robotique par exemple. »
22
Modélisation dynamique :
Les propriétés parcimonieuses d'approximation universelle des réseaux de neurones peuvent
être avantageusement utilisées pour la modélisation dynamique non linéaire de processus très
divers. On distingue généralement :
– modèle "boîte noire", qui repose entièrement sur la mesure du processus étudié, sans
l'intervention d'autres connaissances ;
– Les modèles de connaissances, dont les expressions mathématiques contiennent un petit
nombre de paramètres ajustables, issus de l'analyse des processus (physique, chimie, biologie,
économie, etc.).
Les réseaux de neurones sont souvent utilisés comme modèles de boîte noire. Néanmoins, ils
peuvent également implémenter des connaissances, constituant ainsi un compromis parfait
entre les modèles de boîte noire et les modèles de connaissances : on les appelle les modèles
de connaissances neuronales.
Pour réaliser un modèle dynamique, vous devez utiliser un réseau en boucle, qui est lui-
même un système dynamique. Comme les réseaux statiques, l'apprentissage est une estimation
des paramètres du réseau. Le but est d'obtenir un réseau reproduisant le plus fidèlement
possible le comportement qu'aurait un processus sans bruit ni interférence, même lorsque
l'apprentissage s'effectue en présence de ceux-ci. Les résultats théoriques montrent que cet
objectif est atteignable en principe, et de nombreux exemples (modélisation de procédés
industriels, modélisation de robots) montrent qu'il est effectivement atteint.
- Les modèles dynamiques « boîtes noires » : L'une des propriétés particulièrement utiles
des réseaux de neurones est la capacité d'intégrer les connaissances mathématiques acquises à
partir de l'analyse des processus dans la conception même du réseau. Ces connaissances sont
très courantes et il est déraisonnable de ne pas les utiliser. De cette façon, vous pouvez
bénéficier à la fois de l'intelligibilité du modèle de connaissances et de l'adaptabilité du réseau
de neurones. Ce dernier n'est pas une boîte noire, mais un véritable modèle de connaissances
neuronales. Les applications d'une telle approche incluent la modélisation du comportement
de la colonne de distillation et la modélisation du mouvement du poisson pour créer des
images générées par ordinateur.
23
- Les modèles neuronaux de connaissances : L'une des propriétés particulièrement utiles des
réseaux de neurones est la capacité d'intégrer les connaissances mathématiques acquises à
partir de l'analyse des processus dans la conception même du réseau. Ces connaissances sont
très courantes et il est déraisonnable de ne pas les utiliser.
24
Conclusion générale :
25
Bibliographie / Webographie
26