Académique Documents
Professionnel Documents
Culture Documents
Data Mining
Classification - Partie 4
Plan du cours
2. Deep Learning
3. Neurone Formel
5. Perceptron et MLP
6. L’algorithme de Backpropagation
Classification
Connaissances
Données
Réseaux de Neurones
Réseaux de Neurones
➢ Bio mimétisme.
➢ Biomimicry: innovation inspired by nature, Jeanine Benyus.
➢ « A chaque fois que vous rencontrez un problème, observez la nature. »
Réseaux de Neurones
➢ Les modèles de Deep Learning ont tendance à bien fonctionner avec une
grande quantité de données alors que les modèles d’apprentissage
automatique plus classique cessent de s’améliorer après un point de
saturation.
Neurone Formel
➢ Fonctions d’activation:
Heaviside
Neurone Formel
➢ Exemple :
i1 i2 W1 W3 b1
https://theneuralblog.com/forward-pass-backpropagation-example/
Réseaux de Neurones Artificiels
Activation - Seuil
Réseaux de neurones artificiels
Activation - Sigmoïde
▪ Apprentissage - Entrainement
▪ Fonctionnement optimal - Utilisation
➢ Apprentissage :
▪ Apprendre via un processus itératif et répétitif d’ajustement des
poids Wi ;
L’algorithme Backpropagation:
✓ Forward Propagation
✓ Back Propagation
3. Les réseaux neuronaux répètent les deux propagations jusqu'à ce que les
poids soient calibrés pour prédire avec précision une sortie.
Réseaux de neurones artificiels
L’algorithme Backpropagation: Pseudo-code
Réseaux de neurones artificiels
L’algorithme Backpropagation: Pseudo-code
T: Target value
Réseaux de neurones artificiels
L’algorithme Backpropagation: Pseudo-code
Réseaux de neurones artificiels
4 – Backpropagate Error :
▪ Le calcul des erreurs est représentée par une fonction qu’on appelle
fonction de coût (ou fonction de perte) : Loss fonction en anglais.
4 – Backpropagate Error :
▪ Bien choisir sa valeur. Car : Si la vitesse est trop lente (petite), le modèle
peut mettre longtemps à être entraîné; si la vitesse est trop grande, alors la
distance parcourue est trop longue et le modèle peut ne jamais converger.
Réseaux de neurones artificiels
c – Ajuster les poids (y compris les biais) selon les erreurs calculées, avec
Delta Rule (Règle de Widrow-Hoff), optimisation de la fonction coût.
Observations
Domaines d’application
Ressources
✓ https://machinelearningmastery.com/implement-backpropagation-
algorithm-scratch-python/