Vous êtes sur la page 1sur 2

Introduction

Pourquoi les rseaux de neurones? Capter une image, la numriser, la segmenter en lments de contours, dtecter un objet mobile, le reconnatre quelle que soit sa position et estimer sa profondeur. Capter le son d'une voix au milieu d'un brouhaha et du bruit ambiant et reconnatre les mots qui sont prononcs. Capter et analyser les deux cents signaux issus d'un processus industriel et en dduire si tout est conforme ou si une avarie se prpare : voici quelques problmes pourtant courants dans les sciences de l'informatique mais dont les solutions, encore incompltes, impliquent de multiples efforts de recherche dans la communaut scientifique. Malgr la constante augmentation de puissance des calculateurs, malgr les approches thoriques de plus en plus sophistiques, un certain nombre de tches rsistent encore aux algorithmes et aux mthodes classiques de traitement des signaux et des donnes. Ces tches relvent typiquement du traitement, en temps rel, de trs grands flots de donnes souvent multidimensionnelles et arrivant des cadences leves. Le grand nombre des donnes, leur variabilit, le fait qu'elles ne rpondent pas des modles physiques connus nous laissent souvent dmunis devant des tches de caractrisation, de reconnaissance et de prise de dcision. Il y a des centaines d'exemples nous montrant la fois combien on peut esprer de la modlisation du systme nerveux mais aussi combien il sera difficile d'imaginer et de comprendre les divers aspects des problmes de perception. Il parat donc naturel d'essayer de comprendre comment les systmes biologiques sont capables de telles performances, et si possible, de s'inspirer de leurs principes pour imaginer de nouveaux algorithmes ou de nouvelles machines plus efficaces que ceux dont nous disposons actuellement. Les techniques de rseaux de neurones relvent d'une telle approche : comprendre les principes selon lesquels les systmes biologiques traitent l'information et s'en inspirer pour laborer de nouvelles techniques en sciences de l'ingnieur. C'est donc une double dmarche, la fois cognitive et synthtique o le monde biologique doit tre considr comme une source de rfrence et de connaissance. D'un point de vue technique, il est clair que seuls les principes seront importants. Il ne sera gnralement pas ncessaire, pour modliser telle ou telle fonction, de simuler toutes les molcules chimiques et les enzymes qu'elle implique, l'adquation fine aux modles biologiques ne sera retenue que dans la mesure o elle conduit des ralisations techniquement conomiques. Les caractristiques essentielles des rseaux de neurones rels que nous conserverons dans les modles mathmatiques tudis, concernent le grand nombre de connexions, la nonlinarit des relations entre-sortie et la facult de "plasticit" ou d'adaptabilit. Ces caractristiques, mme simplifies, leur confrent dj de multiples possibilits en traitement des signaux et des informations ainsi que la facult d'apprendre classer, reconnatre des formes ou raliser des tches complexes.

Historique Les premiers proposer un modle sont deux bio-physiciens de Chicago, McCulloch et Pitts, qui inventent en 1943 le premier neurone formel qui portera leurs noms (neurone de McCulloch-Pitts). Quelques annes plus tard, en 1949, Hebb propose une formulation du mcanisme d'apprentissage, sous la forme d'une rgle de modification des connexions synaptiques (rgle de Hebb). Cette rgle, base sur des donnes biologiques, modlise le fait que si des neurones, de part et d'autre d'une synapse, sont activs de faon synchrone et rpte, la force de la connexion synaptique va aller croissant. Le premier rseau de neurones artificiels apparait en 1958, grce aux travaux de Rosenblatt qui conoit le fameux Perceptron. Le Perceptron est inspir du systme visuel (en terme d'architeture neuro-biologique) et possde une couche de neurones d'entre ("perceptive") ainsi qu'une couche de neurones de sortie ("dcisionelle"). Ce rseau parvient apprendre identifier des formes simples et calculer certaines fonctions logiques. Il constitue donc le premier systme artificiel prsentant une facult jusque l rserve aux tres vivants : la capacit d'apprendre par l'exprience. Malgr tout l'enthousiasme que soulve le travail de Rosenblatt dans le dbut des annes 60, la fin de cette dcennie sera marque en 1969, par une critique violente du Perceptron par Minsky et Papert. Ils montrent dans un livre ( Perceptrons ) toutes les limites de ce modle, et soulvent particulirement l'incapacit du Perceptron rsoudre les problmes non linairement sparables, tels que le clbre problme du XOR (OU exclusif). Il s'en suivra alors, face la dception, une priode noire d'une quinzaine d'annes dans le domaine des rseaux de neurones artificiels. Il faudra attendre le dbut des annes 80 et le gnie de Hopfield pour que l'intrt pour ce domaine soit de nouveau prsent. En effet, Hopfield dmontre en 1982 tout l'intrt d'utiliser des rseaux rcurrents (dits "feed-back") pour la comprhension et la modlisation des processus mnsiques. Les rseaux rcurrents constituent alors la deuxime grande classe de rseaux de neurones, avec les rseaux type perceptron (dits "feed-forward"). En parallle des travaux de Hopfield, Werbos conoit son algorithme de rtropropagation de l'erreur, qui offre un mcanisme d'apprentissage pour les rseaux multi-couches de type Perceptron (appels MLP pour Multi-layer Perceptron), fournissant ainsi un moyen simple d'entraner les neurones des couches caches. Cet algorithme de "back-propagation" ne sera pourtant popularis qu'en 1986 par Rumelhart.