z
z
L’Inévitable IA
➢ La surface de décision d'un classifieur est la surface qui sépare les deux
régions classifiées dans les deux classes différentes.
z
Propriétés du perceptron
➢ Convergence et séparabilité
➢ Si les exemples sont linéairement séparables(gauche), le perceptron est
garanti de convergé à une solution avec une erreur nulle sur l'ensemble
d'entrainement, pour tout a
f(x,y)
z
Descente de gradient
f(x,y)
z
Apprentissage vue comme la
minimisation d'une perte
➢ En apprentissage automatique on souhaite optimiser :
1
σ Loss(Yt, hw(Xt))
𝐷
𝑥𝑡 , 𝑦𝑡 ∈ 𝐷
Devrait calculer la moyenne des dérivées sur tous les exemples d'entrainements avant
de faire la MAJ des paramètres
Descente
z de gradient stochastique
- Pour T itérations
➢ Cette procédure est plus efficace lorsque l'ensemble d'entrainement est grand
➢ On fait |D| mises à jour des paramètres à chaque parcours de l'ensemble
d'entrainement, plutôt qu'une seule mise à jour avec la descente du gradient normale
z
Retour sur le perceptron
Perceptron multicouches
Rappel du perceptron simple
z
Pour pouvoir entraîner ces systèmes, il faut savoir comment ajuster les
paramètres de chaque couche de neurones. La rétropropagation permet de
calculer le gradient de l’erreur pour chaque neurone, de la dernière couche
vers la première. Cela permet de corriger les erreurs selon l’importance des
éléments qui ont justement participé à la réalisation de ces erreurs.
• Étapes pour former notre
réseau:
1. Préparer l'entrée de la
et poids).
2. Sortie de la fonction
d'activation.
z
Sum Of Products(SOP)
𝒔 = 𝑿1 ∗ 𝑾1 + 𝑿2 ∗ 𝑾2 + 𝒃
𝒔 = 𝟎. 𝟏 ∗ 𝟎. 𝟓 + 𝟎. 𝟑 ∗ 𝟎. 𝟐 + 𝟏. 𝟖𝟑 𝒔 =
𝟏. 𝟗4
d’activation.
z
Fonction d’activation:
Dans cet exemple, la fonction d’activation sigmoïde est utilisée
.
il y a deux passes :
➢ Foraward et backward
z
Backward Pass
Y=X²Z+H