Académique Documents
Professionnel Documents
Culture Documents
Une Brève Histoire de L'apprentissage en Profondeur - DATAVERSITY PDF
Une Brève Histoire de L'apprentissage en Profondeur - DATAVERSITY PDF
Sujets de données
Big Data | BI / Data Science | Base de données | Architecture de données | Stratégie
de données | La modélisation des données | EIM | Gouvernance & Qualité | Smart
Data
Page d'accueil > Education aux données > Smart Data Nouvelles, articles et éducation >
https://www.dataversity.net/brief-history-deep-learning/# 1/8
26/03/2019 Une brève histoire de l'apprentissage en profondeur - DATAVERSITY
L'histoire de Deep Learning remonte à 1943, lorsque Walter Pitts et Warren McCulloch
avaient créé un modèle informatique basé sur les réseaux de neurones du cerveau
humain. Ils ont utilisé une combinaison d'algorithmes et de mathématiques qu'ils ont
appelés «logique de seuil» pour imiter le processus de pensée. Depuis ce temps, Deep
Learning a évolué régulièrement, avec seulement deux ruptures significatives dans son
développement. Tous deux étaient liés aux hivers infâmes de l'intelligence artificielle .
Henry J. Kelley est reconnu pour avoir développé les bases d'un modèle de propagation
arrière continue en 1960. En 1962, Stuart Dreyfus développa une version plus simple
basée uniquement sur la règle de chaîne. Le concept de propagation en arrière
(propagation en amont des erreurs à des fins d’entraînement) existait déjà au début des
années 60, mais il était lourd et inefficace et ne deviendrait utile qu’en 1985.
Les premiers efforts dans le développement d' algorithmes profonds d'apprentissage sont
venus de Alexey Grigoryevich Ivakhnenko (développé la méthode Groupe du traitement
des données ) et Valentin Grigor'evich Lapa (auteur de Cybernétique et techniques de
prévision) en 1965. Ils ont utilisé des modèles avec polynôme (équations complexes) des
fonctions d'activation, que ont ensuite été analysés statistiquement. À partir de chaque
couche, les meilleures caractéristiques choisies statistiquement ont ensuite été transmises
à la couche suivante (processus lent et manuel).
Au cours des années 1970, le premier hiver de l'IA a débuté, résultat de promesses qui ne
pouvaient être tenues. L’impact de ce manque de financement a limité les recherches sur
le DL et l’IA. Heureusement, il y a eu des individus qui ont poursuivi la recherche sans
financement.
Les premiers « réseaux de neurones convolutifs » ont été utilisés par Kunihiko
Fukushima. Fukushima a conçu des réseaux de neurones avec plusieurs couches de
pooling et de convolution. En 1979, il développe un réseau de neurones artificiels, appelé
Neocognitron, qui utilise un modèle hiérarchique et multicouche. Cette conception a permis
à l'ordinateur d'apprendre à reconnaître les modèles visuels. Les réseaux ressemblaient
aux versions modernes, mais ont été formés à une stratégie de renforcement consistant en
une activation récurrente sur plusieurs couches, qui s'est renforcée au fil du temps. De
plus, la conception de Fukushima a permis d’ajuster manuellement d’importantes fonctions
en augmentant le «poids» de certaines connexions.
https://www.dataversity.net/brief-history-deep-learning/# 2/8
26/03/2019 Une brève histoire de l'apprentissage en profondeur - DATAVERSITY
peut également compléter l'image en ajoutant les informations manquantes. Cela pourrait
être décrit comme une «inférence».
C'est également à cette époque que le deuxième hiver de l'IA (1985-90) a débuté, ce qui a
également permis d'effectuer des recherches sur les réseaux de neurones et
l'apprentissage en profondeur. Divers individus trop optimistes avaient exagéré le potentiel
«immédiat» de l'intelligence artificielle, dépassant les attentes et suscitant la colère des
investisseurs. La colère était si intense que la phrase Intelligence artificielle a atteint le
statut de pseudoscience. Heureusement, certaines personnes ont continué à travailler sur
l'IA et la DL, et des progrès importants ont été réalisés. En 1995, Dana Cortes et Vladimir
Vapnik ont mis au point la machine à vecteurs de support (système permettant de mapper
et de reconnaître des données similaires). La LSTM (mémoire à court et long terme) pour
les réseaux de neurones récurrents a été développée en 1997 par Sepp Hochreiter et
Juergen Schmidhuber.
Vers l'an 2000, le problème du gradient disparaissant apparu. On a découvert que les
«couches» (leçons) formées dans les couches inférieures n'étaient pas apprises par les
couches supérieures, car aucun signal d'apprentissage n'atteignait ces couches. Ce n'était
https://www.dataversity.net/brief-history-deep-learning/# 3/8
26/03/2019 Une brève histoire de l'apprentissage en profondeur - DATAVERSITY
pas un problème fondamental pour tous les réseaux de neurones, juste ceux avec des
méthodes d'apprentissage basées sur des gradients. La source du problème s’est avérée
être certaines fonctions d’activation. Un certain nombre de fonctions d’activation ont
condensé leur entrée, ce qui a réduit la plage de sortie d’une manière quelque peu
chaotique. Cela a produit de grandes zones d’intrants cartographiées sur une plage
extrêmement petite. Dans ces domaines, un changement important sera réduit à un léger
changement de la production, entraînant une disparition progressive du gradient. Deux
solutions ont été utilisées pour résoudre ce problème: la formation préalable couche par
couche et le développement de la mémoire à court terme.
Également en 2012, Google Brain a publié les résultats d'un projet inhabituel appelé
The Cat Experiment . Le projet à l'esprit libre a exploré les difficultés de «l'apprentissage
non supervisé». Deep Learning utilise «l'apprentissage supervisé», ce qui signifie que le
réseau de neurones convolutifs est formé à l'aide de données étiquetées (pensez aux
images d'ImageNet). En utilisant l'apprentissage non supervisé, un réseau neuronal
convolutionnel reçoit des données non étiquetées, puis il lui est demandé de rechercher
des modèles récurrents.
The Cat Experiment used a neural net spread over 1,000 computers. Ten million
“unlabeled” images were taken randomly from YouTube, shown to the system, and then the
training software was allowed to run. At the end of the training, one neuron in the highest
layer was found to respond strongly to the images of cats. Andrew Ng, the project’s founder
https://www.dataversity.net/brief-history-deep-learning/# 4/8
26/03/2019 Une brève histoire de l'apprentissage en profondeur - DATAVERSITY
said, “We also found a neuron that responded very strongly to human faces.” Unsupervised
learning remains a significant goal in the field of Deep Learning.
The Cat Experiment works about 70% better than its forerunners in processing unlabeled
images. However, it recognized less than a 16% of the objects used for training, and did
even worse with objects that were rotated or moved.
0 Comments DATAVERSITY
1 Login
LOG IN WITH
OR SIGN UP WITH DISQUS ?
Name
ALSO ON DATAVERSITY
Machine Learning and Artificial How Can the Chief Data Officer Facilitate
Intelligence Trends in 2019 Data Literacy and Data Democracy?
1 comment • 2 months ago 1 comment • 7 months ago
Samson — Great article! More of this in the Richord1 — The term Data Literacy in this
Avatarfuture please. Also, robot bosses? That Avatararticle is not suitably defined. What skills,
would be something! knowledge and experience does it require …
Boosting Interest in Data by Branding the Cloud Architecture and Cloud Computing
Importance of Data Literacy Trends in 2019
1 comment • 3 months ago 1 comment • 6 months ago
Pat Hennel — It’s true that we need to boost Hanča Valuš Zýková — I can really
Avatarinterest in data by elevating it. To do this, Avatarrecommend MyAirBridge for sharing and
data literacy is an important piece of the … storing data online. It´s reliable and safe to …
✉ Subscribe d Add Disqus to your siteAdd DisqusAdd 🔒 Disqus' Privacy PolicyPrivacy PolicyPrivacy
https://www.dataversity.net/brief-history-deep-learning/# 5/8
26/03/2019 Une brève histoire de l'apprentissage en profondeur - DATAVERSITY
Search … Chercher
Communauté DATAVERSITY
1:20
Publicité
1:01
https://www.dataversity.net/brief-history-deep-learning/# 6/8
26/03/2019 Une brève histoire de l'apprentissage en profondeur - DATAVERSITY
PLUS DE DATAVERSITY
Enterprise Data
World 2019
Boston, MA USA
17 au 22 mars 2019
www.enterprisedataworld.com
Suivez nous
https://www.dataversity.net/brief-history-deep-learning/#
DMRADIO biz 7/8
26/03/2019 Une brève histoire de l'apprentissage en profondeur - DATAVERSITY
DMRADIO.biz
DATAVERSITY.net TDAN.com
de concept et d'objet
(COMN)
Press Room
© 2011 – 2019 DATAVERSITY Education, LLC | All Rights Reserved. Cookies Settings
Privacy Policy Terms of Service
https://www.dataversity.net/brief-history-deep-learning/# 8/8