Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Expliquer cela plus tard en utilisant du texte peut causer plus de confusion.
Examinons un exemple simple pour mieux comprendre le mécanisme du réseau
de neurones. Considérons un nœud (un neurone) qui reçoit trois entrées, comme
illustré à la figure 2-2.
Cette équation indique que le signal avec un poids supérieur a un effet plus
important. Par exemple, si le poids w1 est égal à 2 et que w2 est égal à 10, l'effet
du signal x2 est cinq fois plus important que celui de x1. Lorsque w1 est égal à
zéro, x1 n'est pas du tout transmis au nœud(NEURONE). Cela signifie que x1 est
déconnecté du nœud. Cet exemple montre que les poids du réseau de neurones
imitent la manière dont le cerveau modifie l'association des neurones. L'équation
de la somme pondérée peut être écrite avec des matrices comme :
𝑣 = 𝑤𝑥 + 𝑏
Où 𝑤 = [𝑤1 𝑤2 𝑤3 ] et 𝑥 = [𝑥1 𝑥2 𝑥3 ]
Juste pour des raisons pratiques, la fonction d'activation de chaque nœud est
supposée ici, dans cet exemple, être une fonction linéaire illustrée à la figure 2-6.
Cette fonction permet aux nœuds d’envoyer la somme pondérée elle-même.
𝑣 = (3 × 1) + (1 × 2) + 1 = 6
Comme la fonction d’activation est supposée linéaire, y=v=6
Pour le deuxième nœud de la couche cachée :
𝑣 = (2 × 1) + (4 × 2) + 1 = 11
Comme la fonction d’activation est supposée linéaire, y=v=11
3 1 1 1 6
𝑌=[ ][ ] + [ ] = [ ]
2 4 2 1 11
Les poids du premier nœud de la couche masquée sont dans la première ligne
et les poids du deuxième nœud sont dans la deuxième ligne. Ce résultat peut être
généralisé comme l'équation suivante :
𝑦 = 𝑣 = 𝑊𝑥 + 𝑏
3 2 6 1 41
𝑌=[ ][ ]+ [ ] = [ ]
5 1 11 1 42
Le processus peut être un peu lourd, mais le calcul en soi n’est pas difficile.
Comme nous venons de le voir, le réseau de neurones n'est rien d'autre qu'un
réseau de nœuds en couches, qui effectue uniquement des calculs simples. Cela
n'implique aucune équation difficile ni une architecture compliquée. Bien que cela
semble simple, le réseau de neurones a battu tous les records de performance
pour les principaux domaines du Machine Learning, tels que la reconnaissance
d'images et la reconnaissance vocale. N'est-ce pas intéressant ? On dirait que la
citation «Toute la vérité est simple» est une description pertinente.
Je dois laisser un dernier commentaire avant de terminer la section. Nous
avons utilisé une équation linéaire pour l'activation des nœuds cachés, simplement
par commodité. Ce n'est pas pratiquement correct. L'utilisation d'une fonction
linéaire pour les nœuds annule l'effet de l'ajout d'une couche. Dans ce cas, le
modèle est mathématiquement identique à un réseau de neurones à une seule
couche, qui ne comporte pas de couches cachées. Voyons ce qui se passe
réellement. En substituant l'équation de la somme pondérée de la couche masquée
à l'équation de la somme pondérée de la couche en sortie, on obtient l'équation
suivante (un petit détail est donné dans la diapo du cours avec une explication en
cours) :
Cette équation matricielle indique que cet exemple de réseau de neurones est
équivalent à un réseau de neurones à une seule couche, comme illustré à la figure
2-9.
Gardez à l'esprit que la couche masquée devient inefficace lorsque les nœuds
masqués ont des fonctions d'activation linéaire. Cependant, les nœuds de sortie
peuvent, et doivent parfois, utiliser des fonctions d'activation linéaires.
Figure 2-12. Un réseau de neurones monocouche avec trois noeuds d'entrée et un noeud de
sortie
Notez que le premier numéro de l'indice (1) indique le numéro du nœud dans
lequel l'entrée est entrée. Par exemple, le poids entre le nœud d'entrée 2 et le nœud
de sortie 1 est noté w12. Cette notation permet des opérations plus simples avec
des matrices ; les poids associés au nœud i sont attribués au rang i-ème de la
matrice de poids. L'application de la règle delta de l'équation 2.1 à l'exemple de
réseau neuronal donne le renouvellement des pondérations sous la forme:
𝑤11 = 𝑤11 + 𝛼 𝑒1 𝑥1
𝑤12 = 𝑤12 + 𝛼 𝑒1 𝑥2
𝑤13 = 𝑤13 + 𝛼 𝑒1 𝑥3