Académique Documents
Professionnel Documents
Culture Documents
profond
apprentissage
Cours 2
Fondements des réseaux de neurones
Aperçu du cours
1. Introduction (Cours 1) 3. Réglage des réseaux profonds (Cours 5)
Qu'est-ce que l'intelligence artificielle? Introduction
Concevoir une architecture réseau profond
2. Fondations Autres facteurs de conception réseau profond
2.1. Fondations de l'apprentissage automatique (Cours 1) Détecter les problèmes de formation
Qu'est-ce que l'apprentissage automatique?
Régression linéaire 4. Architectures d'apprentissage profond (Cours 5)
Régression logistique Modèles d'images
2.2. Fondations des réseaux neuronaux (Cours 2) Modèles de séquence
Le Perceptron Modèles génératifs
Réseaux neuronaux peu profonds Modèles de renforcement profond
2.3. Fondations de l'apprentissage profond (Cours 3,4) 5. Modèles d'image
Qu'est-ce que l'apprentissage profond? 5.1. Réseaux neuronaux convolutionnels (Cours 6)
Validation du modèle Éléments fondamentaux des blocs de construction
Normalisation des entrées Couches réseau
Surajustement et Sous-ajustement Réseaux célèbres
Régularisation Techniques de formation
Initialisation du poids
5.2. Applications CNN (Cours 7)
Fonctions d'activation
Détection d'objets
Fonctions de perte
Reconnaissance faciale
Algorithmes d'optimisation
Génération d'œuvres d'art
Normalisation des lots
Aperçu du cours
6. Modèles séquence 7. Modèles génératifs (Cours 10)
6.1. Neural récurrent Réseaux (Cours 8) Introduction
Réseaux neuronaux récurrents en avant AutoEncodeurs
Réseaux contradictoires génératifs
Unités récurrentes fermées
Applications de réseaux contradictoires génératifs
Mémoire à long terme
Réseaux neuronaux récurrents bidirectionnels 8. Modèles de renforcement profond (Cours 11)
Réseaux neuronaux récurrents profonds Principes fondamentaux de l'apprentissage par
renforcement
6.2. Incorporations de mots (Cours 9) Processus de décision Markov
Principes de base des incorporations de mots Q-Apprentissage
L'apprentissage de l’incorporations de mots Gradient de politique
Algorithme Word2Vec Applications d'apprentissage de renforcement profond
Algorithme GloVe
Applications de l’incorporations de mots 9. Limitations et de nouveaux Frontières (Cours 12)
6.3. Modèles séquence à séquence (Cours 9) Limitations de l'apprentissage en profondeur
Apprentissage profond Bayesian
Introduction
Apprendre à apprendre
Modèle de traduction automatique
Évaluation de la traduction automatique
Modèle d'attention pour la traduction
automatique
corps
Fil de sortie
Le neurone biologique
Synapses
Les synapses sont la jonction de connexion entre l'axone et les dendrites. La majorité
de synapses envoyer des signaux de l'axone d'un neurone à la dendrite d'un autre
dendrite.
Dendrites
Les dendrites permettent à la cellule de recevoir le signal des neurones voisins
connectés et chaque dendrite peut effectuer une multiplication par la valeur de poids
de ce dendrite.
Axones
Les axones sont la seule fibre longue partant du corps de la cellule principale (soma).
Finalement, l'axone se branche et se connecte à d'autres dendrites. Les neurones sont
capables d’envoyer des signaux qui se déplacent le long de l’axone de la cellule et
activent les connexions synaptiques avec d’autres neurones.
Modélisation du neurone biologique
Le Perceptron a été inventé en 1957 au Cornell Aeronautical
Laboratory par Frank Rosenblatt. Il est à l'origine comme une tentative
d'imiter le cerveau.
Le précurseur au perceptron était l'unité logique de seuil (TLU)
développé par McCulloch et Pitts en 1943, qui pouvaient apprendre l'ET
et OU fonctions logiques.
Le Perceptron à une seule couche est un classificateur binaire à
modèle linéaire avec une simple relation entrée-sortie. C'est la forme la
plus simple des réseaux neuronaux. Son principal inconvénient était
qu'elle ne pouvait pas résoudre les problèmes non linéaires
Il a ensuite évolué vers des réseaux de neurones multicouches dotés
de capacités non linéaires
Modélisation du neurone biologique
Le Mark I Perceptron a été conçu pour la reconnaissance d’images à des fins
militaires par la US Navy. Le Mark I Perceptron avait 400 photocellules
connectées à des neurones artificiels dans la machine et les poids étaient
appliqués par des potentiomètres. Les mises à jour du poids ont été
effectuées physiquement par des moteurs électriques.
Le New York Times a cité: "L'embryon d'un ordinateur électronique qui,
selon la Marine, sera capable de marcher, de parler, de voir, d'écrire, de se
reproduire et de prendre conscience de son existence"
L’hiver AI du 1974-1980: l'incompréhension des capacités de perceptron
multicouches a constitué un premier échec pour le public et a nui à l'intérêt
et au financement des réseaux de neurones pour la prochaine décennie. Ce
n’est que lors de la résurgence des réseaux de neurones au milieu des années
80 que la rétropropagation est devenue populaire et que les réseaux de
neurones ont suscité une deuxième vague d’intérêt.
Modélisation du neurone biologique
Fonction d'activation :
- Fonction d'étape heaviside avec Seuil 0,5
gr
Fonction d'activation :
- Une fonction plus généralisée g(z)
0.01
-4.6 4.6 𝑧𝑧
Un Réseau neuronal multi-couches
Représenté à l'aide de plusieurs couches contenant des neurones
interconnectés
1
Θ10
𝑥𝑥1
1
Θ11
𝑥𝑥2 1
Θ12 2
𝑎𝑎1
1
Θ13
𝑥𝑥3
(2)
𝑧𝑧1
(2)
𝑧𝑧2
(2)
𝑧𝑧3
Calcul (approximant) des fonctions logiques
𝑔𝑔 𝑧𝑧
0.99
Exemple 1 : calculer la function ET
0.01
-30
-4.6 4.6 𝑧𝑧
20
𝒙𝒙𝟏𝟏 𝒙𝒙𝟐𝟐 ℎΘ 𝑥𝑥
0 0 g(-30)≈ 0 ℎΘ 𝑥𝑥 = 𝑥𝑥1 𝐴𝐴𝐴𝐴𝐴𝐴 𝑥𝑥2
20
0 1 g(-10)≈ 0
1 0 g(-10)≈ 0
ℎΘ 𝑥𝑥 = 𝑔𝑔 −30 + 20𝑥𝑥1 + 20𝑥𝑥2 1 1 g(10)≈ 1
Calcul (approximant) des fonctions logiques
𝑔𝑔 𝑧𝑧
0.99
Exemple 2 : calculer la function OU
0.01
-10
-4.6 4.6 𝑧𝑧
20
𝒙𝒙𝟏𝟏 𝒙𝒙𝟐𝟐 ℎΘ 𝑥𝑥
20 0 0 g(-10)≈ 0 ℎΘ 𝑥𝑥 = 𝑥𝑥1 𝑂𝑂𝑂𝑂 𝑥𝑥2
0 1 g(10)≈ 1
1 0 g(10)≈ 1
ℎΘ 𝑥𝑥 = 𝑔𝑔 −10 + 20𝑥𝑥1 + 20𝑥𝑥2 1 1 g(30)≈ 1
Calcul (approximant) des fonctions logiques
𝑔𝑔 𝑧𝑧
0.99
Exemple 3 : calculer la function PAS
0.01
10
-4.6 4.6 𝑧𝑧
-20
𝒙𝒙𝟏𝟏 ℎΘ 𝑥𝑥
ℎΘ 𝑥𝑥 = 𝑁𝑁𝑁𝑁𝑁𝑁 𝑥𝑥1
0 g(10)≈ 1
ℎΘ 𝑥𝑥 = 𝑔𝑔 10 − 20𝑥𝑥1 0 g(-10)≈ 0
Calcul (approximant) des fonctions logiques
𝑔𝑔 𝑧𝑧
0.99
Exemple 4 :
0.01
10
-4.6 4.6 𝑧𝑧
-20
𝒙𝒙𝟏𝟏 𝒙𝒙𝟐𝟐 ℎΘ 𝑥𝑥
0 0 g(10)≈ 1
-20
0 1 g(-10)≈ 0
1 0 g(-10)≈ 0
ℎΘ 𝑥𝑥 = 𝑔𝑔 10 − 20𝑥𝑥1 − 20𝑥𝑥2 1 1 g(-30)≈ 0
Calcul (approximant) des fonctions logiques
Exemple 5 : construire un réseau pour calculer les éléments suivants :
𝒙𝒙𝟏𝟏 𝒙𝒙𝟐𝟐 ℎΘ 𝑥𝑥
0 0 1
0 1 0
1 0 0
1 1 1
Calcul (approximant) des fonctions logiques
Exemple 5 : Mettre tout cela ensemble
Calcul (approximant) des fonctions logiques
Exemple 5 : Construire les couches une par une
+1
-10 𝒙𝒙𝟏𝟏 𝒙𝒙𝟐𝟐 2
𝑎𝑎1
2
𝑎𝑎2 ℎΘ 𝑥𝑥
-30 0 0 0 1 1
20 20
𝑎𝑎1
2 3 0 1 0 0 0
𝑎𝑎1
20 10 1 0 0 0 0
-20 20
1 1 1 0 1
-20 2
𝑎𝑎2
Fonction de perte dans Réseaux neuronaux
La perte d'entropie croisée peut être utilisée avec des modèles générant une
probabilité comprise entre 0 et 1
Perte d'erreur quadratique moyenne dans les
réseaux de neurones
La perte d'erreur quadratique moyenne peut être utilisée avec des modèles
de régression qui produisent des nombres réels continus
Origines de la fonction de coût dans les
réseaux de neurones
Commencer par la fonction coût pour la régression logistique :
où
Optimisation des pertes en utilisant la descente de
gradient dans les réseaux de neurones
Minimiser la fonction de coût :
Nous voulons trouver les poids du réseau qui atteignent le plus bas
perte:
Optimisation des pertes en utilisant la descente de
gradient dans les réseaux de neurones
𝜕𝜕𝐽𝐽(𝑾𝑾)
Calculer le gradient
𝜕𝜕𝑾𝑾
Optimisation des pertes en utilisant la descente de
gradient dans les réseaux de neurones
(𝑙𝑙)
Au lieu de cela, initialiser Θ𝑖𝑖𝑖𝑖 ∈ −𝜖𝜖, 𝜖𝜖
Formation des réseaux neuronaux
Intuition:
Nous voulons calculer la sortie de l’exemple d’entrée avec un transfert en avant sur le
réseau.
Si la sortie correspond à l'étiquette, nous ne faisons rien.
Si la sortie ne correspond pas à l'étiquette, nous devons alors ajuster les poids sur les
connexions du réseau de neurones.
Encodage à un chaud
piéton
1 0
voiture ℎΘ 𝑥𝑥 ≈ 0 ℎΘ 𝑥𝑥 ≈ 0
0 1
0 0
moto
0 0
camion ℎΘ 𝑥𝑥 ≈ 1 ℎΘ 𝑥𝑥 ≈ 0
0 0
0 1