Point 1 : Par ailleurs, les physiologistes se posaient le problème de l'emploi de ces recherches
pour comprendre le fonctionnement du système nerveux.
Ceux sont les premiers à montrer que des réseaux de neurones formels simples peuvent réaliser des
fonctions logiques, arithmétiques et symboliques complexes (tout au moins au niveau théorique).
On pensait alors que toutes les opérations de la pensée pouvaient être décrites par l'algèbre de
Boole puisque toutes pouvaient faire l'objet d'algorithmes.. Et donc que toutes les propriétés
du cerveau pouvaient être décrites par l'algèbre logique. Les recherches étaient très ouvertes,
l'ordinateur n'avait pas été inventé. Et à partir de ce qu'ils savait alors de la structure du
système nerveux et des propriétés du neurone qui en est le constituant, Mac CULLOCH &
PITTS conçurent en 1941 un modèle logique de neurone réalisable artificiellement.
la mémorisation associative
le travail en parallèle
d’apprendre
VIDEO
Le neurone est une cellule vivante connectée au milieu environnant par d'une part
des dendrites qui reçoivent des informations et d'autre part une longue fibre transmettrice,
l'axone qui peut aller agir loin sur les dendrites d'autres neurones. Les liaisons axone- dendrite
sont appelées synapses. Lorsqu'une majorité de dendrites a été excitée, le neurone « flashe »,
s'active entièrement et envoie un signal sur son axone, lequel va le transmettre aux diverses
synapses donc aux dendrites d'autres neurones. Par ailleurs certaines dendrites dites
inhibitrices ont un effet soustractif. Ce modèle ultra- simple rend suffit à rendre compte des
propriétés d'une classe de systèmes artificiels de stockage et traitement d'information
appelés automates neuronaux.
Fig;1
Fig.2
On peut voir qu'un réseau constitué d'un grand nombre de neurones interconnectés peut avoir
des propriétés de mémorisation par établissement de boucles actives, et de traitement selon les
actions préalablement reçues, etc.
- 1949 : D. Hebb, physiologiste américain explique le conditionnement chez l’animal par les
propriétés des neurones eux-mêmes. Ainsi, un conditionnement de type pavlovien tel que, nourrir
tous les jours à la même heure un chien, entraîne chez cet animal la sécrétion de salive à 7 cette
heure précise même en l’absence de nourriture. La loi de modification des propriétés des connexions
entre neurones qu’il propose explique en partie ce type de résultats expérimentaux.
La première grande question qui s'est posée est celle de la stabilité ou convergence de
l'automate vers un état stable. Et au début des années 60, on introduisit la règle de
HEBB stipulant que si deux neurones interconnectés sont validés en même temps par leurs
autres conditionnements, alors leur liaison est renforcée. On introduit donc une pondération
qui assure la stabilité. Puis pour assurer une stratégie d'apprentissage efficace, une règle de
rétropropagation faisant remonter en interne les résultats corrects ou erronés. Plusieurs
réalisations célèbres surtout en 1962 le Perceptron de ROSENBLATT. C'est un automate
neuronal à 3 couches :
- senseurs à l'entrée,
Pour des raisons techniques, on ne put réaliser aucun modèle de perceptron présentant un
intérêt pratique : il eût fallu assembler des dizaines de milliers de neurones, ce qu'on ne savait
pas faire. On a simplement fait des simulations, traité des cas simples et résolu ainsi des
problèmes booléens.
- 1969 : M. Minsky et S. Papert publient un ouvrage qui met en exergue les limitations théoriques du
perceptron. Limitations alors connues, notamment concernant l’impossibilité de traiter par ce
modèle des problèmes non linéaires. Ils étendent implicitement ces limitations à tous modèles de
réseaux de neurones artificiels. Leur objectif est atteint, il y a abandon financier des recherches dans
le domaine (surtout aux U.S.A.), les chercheurs se tournent principalement vers l’IA et les systèmes à
bases de règles.