Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 1

En répétant le calcul de coût pour (Theta1, Theta2) tous des

uns, puis tous des zéros, on observe que le coût est très
différent dans les deux cas. Lorsque les poids sont initialisés à
tous des uns le réseau de neurones est en mesure d’obtenir
une précision de formation élevée pur une précision de
validation faible ce qui veut dire que le modèle est surajusté
aux données d’entraînement et qu’il ne généralise pas bien
aux données de validation.

Lorsque les poids sont initialisés à tous des zéros, les réseaux
de neurone est incapable de d’apprendre à partir des données
d’entraînement ce qui veut dire une précision de formation
très faible et une précision de validation très faible aussi.
On arrive à observer toutes les couches cachées et que la
Afficher la couche cachée : 1ére et la 5éme couche cachée en font effectivement partie.

Q1 : affichage de la première unité cachée et la cinquième L’affichage des unités cachées permet de visualiser les
différents motifs que le réseau de neurones a appris à
unité cachée en rajoutant cette ligne au programme
reconnaitre à partir des données d’entraînement. Chaque
initial
unité cachée peut être considérée comme un filtre qui
extrait les caractéristiques des données d’entrée. La
visualisation permet de comprendre comment le réseau de
neurones traite les données et comment il effectue les
prédictions et aussi identifier des caractéristiques
intéressantes qui pourraient être utilisées pour améliorer le
modèle.

Prédiction :
Q1 : Compléter la fonction et calculer la précision de
validation

Q2 : affichage de l’image correspondante à toute les


couches cachées en rajoutant cette ligne à notre
programme initial
On rajoute cette ligne à notre programme initial

On aura une précision de 97.52%

Vous aimerez peut-être aussi