Académique Documents
Professionnel Documents
Culture Documents
l'apprentissage en
profondeur
Cours 6
Réseaux de neurones convolutifs
Aperçu du cours
1. Introduction (Cours 1) 3. Réglage des réseaux profonds (Cours 5)
Qu'est-ce que l'intelligence artificielle? Introduction
Concevoir une architecture réseau profond
2. Fondations Autres facteurs de conception réseau profond
2.1. Fondations de l'apprentissage automatique (Cours 1) Détecter les problèmes de formation
Qu'est-ce que l'apprentissage automatique?
Régression linéaire 4. Architectures d'apprentissage profond (Cours 5)
Régression logistique Modèles d'images
2.2. Fondations des réseaux neuronaux (Cours 2) Modèles de séquence
Le Perceptron Modèles génératifs
Réseaux neuronaux peu profonds Modèles de renforcement profond
2.3. Fondations de l'apprentissage profond (Cours 3,4) 5. Modèles d'image
Qu'est-ce que l'apprentissage profond? 5.1. Réseaux neuronaux convolutionnels (Cours 6)
Validation du modèle Éléments fondamentaux des blocs de construction
Normalisation des entrées Couches réseau
Surajustement et Sous-ajustement Réseaux célèbres
Régularisation Techniques de formation
Initialisation du poids
5.2. Applications CNN (Cours 7)
Fonctions d'activation
Détection d'objets
Fonctions de perte
Reconnaissance faciale
Algorithmes d'optimisation
Génération d'œuvres d'art
Normalisation des lots
Aperçu du cours
6. Modèles séquence 7. Modèles génératifs (Cours 10)
6.1. Neural récurrent Réseaux (Cours 8) Introduction
Réseaux neuronaux récurrents en avant AutoEncodeurs
Réseaux contradictoires génératifs
Unités récurrentes fermées
Applications de réseaux contradictoires génératifs
Mémoire à long terme
Réseaux neuronaux récurrents bidirectionnels 8. Modèles de renforcement profond (Cours 11)
Réseaux neuronaux récurrents profonds Principes fondamentaux de l'apprentissage par
renforcement
6.2. Incorporations de mots (Cours 9) Processus de décision Markov
Principes de base des incorporations de mots Q-Apprentissage
L'apprentissage de l’incorporations de mots Gradient de politique
Algorithme Word2Vec Applications d'apprentissage de renforcement profond
Algorithme GloVe
Applications de l’incorporations de mots 9. Limitations et de nouveaux Frontières (Cours 12)
6.3. Modèles séquence à séquence (Cours 9) Limitations de l'apprentissage en profondeur
Apprentissage profond Bayesian
Introduction
Apprendre à apprendre
Modèle de traduction automatique
Évaluation de la traduction automatique
Modèle d'attention pour la traduction
automatique
Bords verticaux
Bords horizontaux
Convolutions dans les réseaux de neurones de
convolution
Détection de bord vertical dans des images en niveaux de gris
Opérateur de "Filtre" ou
convolution "Noyau"
-5 -5 -4
-5 -4 0 8
-10
Convolutions dans les réseaux de neurones de
convolution
Le détecteur de bord vertical peut également détecter les transitions de
lumière à sombre et de sombre à lumière
Convolutions dans les réseaux de neurones de
convolution
Détecteur de bord vertical Détecteur de bord horizontal
91
𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠 𝑠𝑠 = 2
91 100
Convolutions avec rembourrage (padding) et
foulée (stride)
𝑛𝑛 + 2𝑝𝑝 − 𝑓𝑓 𝑛𝑛 + 2𝑝𝑝 − 𝑓𝑓
𝑛𝑛 × 𝑛𝑛 𝑓𝑓 × 𝑓𝑓 +1 × +1
𝑠𝑠 𝑠𝑠
Padding 𝑝𝑝
Foulée s
Convolutions volumétriques dans les réseaux de
neurones convolutionnels
Convolutions pour les images couleur RGB
Paramètres à apprendre:
Poids: W
Biais: b
Une couche convolutive (CONV) est utilisée pour extraire les entités
Couche pooling (POOL) d'un CNN
Max Pooling Pooling moyenne
Couche pooling d'un CNN
Max Pooling
9 9
8 9
Couche pooling (POOL) d'un CNN
HyperParamètres:
Taille du filtre: f
Foulée: s
Max Pooling ou Average Pooling
Paramètres à apprendre:
Aucun
Une couche pooling (POOL) est utilisée pour réduire la taille du volume
d'entrée
Couche entièrement connectée (FC) d'un CNN
Une couche entièrement connectée a une connexion entre tous ses
neurones et chaque neurone de la couche précédente
Couche entièrement connectée (FC) d'un CNN
HyperParamètres:
Nombre de neurones
Paramètres à apprendre:
Poids: W
Biais: b
Paramètres: 60.000
Fonctions d'activation: sigmoïde / tanh
L'architecture AlexNet
Paramètres: 60.000.000
Fonctions d'activation: ReLU
L'architecture VGG-16
Paramètres: 138.000.000
Architecture simplifiée:
L'architecture ResNet - Blocs résiduels
L'architecture ResNet
GoogLeNet (Inception)
Nommé d'après le film Inception
"Nous devons aller plus loin" est une
expression du film Inception
GoogLeNet - La philosophie du réseau
En utilisant 1 x 1
CONV, il nécessite
12,4 millions
d'opérations
GoogLeNet - Le bloc de création
L'architecture de GoogLeNet (Inception)
Les blocs Softmax garantissent que même les fonctionnalités intermédiaires fonctionnent bien pour prévoir le résultat final
Réseaux de neurones convolutifs
Techniques de formation
Formation de réseaux de neurones convolutifs
Que pouvez-vous faire si vous ne disposez pas d'assez d'images de
données d'entraînement?
Apprentissage par transfert (transfer learning)
Prenez un réseau existant avec des poids qui ont été formés sur un autre ensemble de
données de formation, puis modifiez et entraînez à nouveau seulement une petite partie de ce
réseau en utilisant votre propre ensemble de données
Augmentation de données
Modifier votre ensemble de données de formation pour créer de nouvelles images de
formation
• Transformations Affines
• Changement de couleur
Apprentissage par transfert
Prendre le réseau existant et les poids pour 1000 classes de sortie
softmax 1000
classes
Si vous avez très peu de données pour vos 5 classes, remplacez le calque
softmax et entraînez uniquement cette partie.
softmax 1000
classes
softmax 1000
classes
Recadrage aléatoire
(random cropping)
Augmentation de données - Transformations Affine
Tonte
(shearing)
Rotation
Augmentation de données - Changement de couleur
Matériel de lecture
LeNet: «Apprentissage basé sur les gradients appliqué à la reconnaissance de
documents»
http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf
AlexNet: «Classification ImageNet avec des réseaux de neurones à convolution
profonde»
https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-
networks.pdf
VGGNet: “Réseaux convolutionnels très profonds pour la reconnaissance d'images à
grande échelle”
https://arxiv.org/pdf/1409.1556v6.pdf
GoogleNet: «Aller plus loin avec les convolutions»
https://www.cv-
foundation.org/openaccess/content_cvpr_2015/papers/Szegedy_Going_Deeper_With_2015_CVP
R_paper.pdf
ResNet: «Apprentissage résiduel en profondeur pour la reconnaissance d'images»
https://arxiv.org/pdf/1512.03385.pdf