Académique Documents
Professionnel Documents
Culture Documents
MODULE 2
MASTER BIBDA
M1 – 2017/2018
M1 – 2018/2019
M1 – 2019/2020
M1 – 2020/2021
M1 – 2021-2022
INTRODUCTION
3
LE NEURONE
BIOLOGIQUE
Le neurone biologique
4
Le corps cellulaire
Les dendrites
L ’axone
Fondements Biologiques
Fonctionnement des neurones
7
Le Neurone Artificiel
Pourquoi les réseaux de neurones ?
11
1943 :
Modèle de McCulloch et Pitts
1960 :
Rosenblatt : perceptron et théorème de convergence
Minsky et Papert : limites du perceptron mono-couche
1980 :
Modèle de Hopefield
Classification :
répartir en plusieurs classes des objets
données quantitatives informations qualitatives
reconnaissance des formes
Recherche Opérationnelle
résoudre des problèmes dont on ne connaît pas la solution
Mémoire Associative
restituer une donnée à partir d’informations incomplètes
et/ou bruitées.
Analogie entre neurone biologique/Artificiel
17
Le Neurone formel
18
Par définition un réseau neuromimétique est constitué de neurones
formels et ceux-ci sont reliés entre eux via des flèches ce qui donne
un graphe orienté.
En comparaison avec son homologue biologique, le neurone formel
est constitué de synapses qui sont représentées par des flèches
pondérées, d’un centre qui est l’équivalent du noyau cellulaire où se
déroule les activités mathématiques telles que la sommation des
entrées ainsi que la fonction d’activation (f(a)) qui s’applique à la
sommation des entrées pour être comparée au seuil d’activité ‘’Θ’’,
et d’une sortie qui est l’équivalent de l’axone.
Chaque neurone formel est un automate complètement indépendant,
dont l’état, une valeur scalaire, définie son activité ou activation a.
Le Neurone formel
19
maximum maximum
La fonction sigmoïde :
Architecture générale d’un RNA
25
Pattern Pattern
d'entrée de sortie
0 1
1 1
0 Réseau 0
Stimulus 1 0 Réponse
1 1 décodage
codage 1 0
0 1
0 0
Structure d’Interconnexion
propagation avant (feedforward)
26
couche d’entrée
couche cachée
couche de sortie
réseau à connections
réseau multicouche
locales
DÉFINITION
APPRENTISSAGE SUPERVISÉ
APPRENTISSAGE NON SUPERVISÉ
RÈGLES D’APPRENTISSAGE
Définition
29
L’apprentissage supervisé
L’apprentissage non supervisé
Apprentissage supervisé
30
erreur
i j
Wij
Loi de Hebb :
Si deux unités connectées sont actives simultanément, le poids de
leur connexion est augmenté ou diminué. R est une constante
positive qui représente la force d'apprentissage (learning rate).
ai = -1 ai = 1 j i
w ij
aj = -1 Wij = R Wij = -R
aj = 1 Wij = -R Wij = R
Wij Rai a j
Règles d’apprentissage
34
Loi de Grossberg :
On augmente les poids qui entrent sur l'unité gagnante ai
s'ils sont trop faibles, pour les rapprocher du vecteur
d'entrée aj. C’est la règle d’apprentissage utilisée dans les
cartes auto-organisatrices de Kohonen
. Le perceptron
1
1.1. Description
1.2. Loi d’apprentissage du perceptron
3. Le perceptron multicouche
3.1. Description
3.2. La rétropropagation ou algorithme d’apprentissage de « Backpropagation »
ai
aj
x j w jiai
j
a j f (x j )
W ji Wbi as
bias = 1
1
a f x e x e x
a f x x
1 e x e e x
a j f S j
j
Unités a Unités a
d'entrée i Unités a de sortie k
cachées j
Calcul Erreur 3
entre
sorties désirée s
et ek d k ak
sorties obtenues
Wij j ai W jk k a j
Les réseaux de neurones à fonctions radiales de base
(Radial Basis Network)
42
Le réseau de Elman à des neurones tansig dans sa couche cachée récurrente et un neurone
linéaire dans sa couche de sortie. Ce type de réseau peut aussi approximer n’importe qu’elle
type de fonction pourvu que la couche cachée ait assez de neurones.
Puisque ce réseau peut enregistrer de l’information pour une référence future, il est capable
d’apprendre des associations aussi bien temporelles que spatiales.
Réseau de Hopfield
44
Le modèle de Hopfield
la théorie des verres de spin : un modèle dynamique
45
La renaissance du connexionnisme
Wij Rai a j
Le rappel associatif se fait en minimisant une fonction d’énergie pour
tomber dans l’un des attracteurs correspondant aux formes mémorisées
Si on a N unités dans le réseau, on peut mémoriser 0,14 pattern différents
Réseau de Hopfield
46
1, si x > 0
F(x) =
-1, sinon
1
Wij W ji
P
s
pP
i
p
s p
j
Wii 0
Utilisation :
jN
si Wij .s j 0 alors si 1
t 1 t
jN t 1
si Wij .s j 0 alors si si
t t 1
jN
Energie du réseau
1
E
2 i , jN
Wij .s j .si
Le modèle de Hopfield
les mémoires associatives
50
4. Validation et Tests