Vous êtes sur la page 1sur 30

Introduction

au Réseau de Neurones
Neurone formel
Le neurone biologique
Nombre de neurones dans le cerveau humain :
100 milliards

Nombre moyen de connexions par neurone :


10 000
Un neurone est une cellule capable
de transme8re des informa:ons à
d’autres neurones au travers de ses
différentes connexions.
Historique et généralités
• Le neurone formel a été définit par Mc Culloch et Pi7s en 1943. Le
premier réseau de neurone date de 1958, c'est le perceptron de
Rosenbla7.
• Les réseaux de neurones ont connus leur essor dans les années 80 et
sont largement uGlisés en milieu industriel depuis les années 90.
Le neurone formel
• Il s'agit d'un neurone binaire: la sor1e vaut 0 ou 1.
• Pour calculer ce8e sor1e, le neurone effectue une somme
pondérée de ses entrées (qui, en tant que sor1es d'autres
neurones formels, valent aussi 0 ou 1) puis applique une
fonc1on d'ac1va1on à seuil : si la somme pondérée dépasse
une certaine valeur, la sor1e du neurone est 1, sinon elle
vaut 0.
D’inspiration biologique, les neurones artificiels sont des petites unités de
traitement composés d’une ou plusieurs entrées, d’une sortie et d’un corps de
cellule qui effectue des calculs `a partir des données de l’entrée pour produire la
sortie. En pratique, un neurone est capable de discriminer deux classes, c’est à dire
de produire 1 ou −1 à sa sortie.
Le Perceptron
Le perceptron de Rosenbla8
• Un algorithme d'appren:ssage supervisé de type classifier binaire (sépara:on en 2 classes).

• Inventer en 1957 par Frank Rosenbla8, chercheur au laboratoire d'aéronau:que de


l'université Cornell.

• Un neurone formel muni d'une règle d'appren:ssage perme8ant de trouver une


séparatrice entre les deux classes par la détermina:on automa:quement des poids
synap:ques de manière à séparer un problème d'appren:ssage supervisé.
Structure d’un neurone

Neurone de biais:
À pour objectif d’ajuster les résultats réels aux résultats attendus

Entrées:
Cellule :
Sortie :
Perceptron simple
Fonc%ons d'ac%va%on
(ou fonc(on de transfert)
Perceptron simple: appren%ssage
supervisé
Exemple
Algorithme
Exercice
Exercice
Limite
• Le perceptron simple ne peut résoudre que des
problèmes linéairement séparables. Pour aller plus
loin, il est nécessaire d’ajouter des couches.

à Problème
Structure
• Un réseau de neurones est un ensemble de neurones formels
connectés entre eux (par des synapses).
• Chaque variable en entrée correspond à un neurone: c'est la
couche d'entrée ainsi que chaque variable à expliquer: c'est la
couche de sorGe.
• Entre ces deux couches, il peut éventuellement y avoir d'autres
couches dites cachées.

Réseau de neurone simplifié


Structure
• Un réseau de neurone particulier est caractérisé par :
– la définition des neurones formels le constituant (type de
fonction de combinaison ou d'activation)
– sa structure (couches cachées ou non), nombre de
connexions
– son mode d'apprentissage (utilise plusieurs fois les
données ou non par exemple)
– son mode : supervisé (modèle prédictif) ou non supervisé
(modèle descriptif)
Le perceptron mul7couches
Perceptron mul%couches
(en anglais Mul+ Layer Perceptron, MLP)
• Le perceptron mul4couches (Mul4 Layer Perceptron)
généralise le perceptron afin d'apprendre des modèles
plus complexes, non linéaires.
• Un MLP est cons4tué :
– d'une couche d'entrée (un neurone par variable plus un
pour le biais)
– une ou plusieurs couches cachées (avec un nombre
arbitraire de neurones)
– une couche de sor>e (un neurone pour la regréssion ou la
discrimina>on, un neurone par classe dans le mul>classe)
– il est acyclique (ne contenant aucun cycle)
– il est complètement connecté

Vous aimerez peut-être aussi