vivants
Les réseaux de neurones profonds, souvent critiqués comme des
«boîtes noires», aident les neuroscientifiques à comprendre
l'organisation des cerveaux vivants.
C'est l'objectif de
McDermott. Son équipe,
qui comprenait Alexander Kell et Yamins, a commencé à concevoir
des filets profonds pour classer deux types de sons: la parole et la
musique. Tout d'abord, ils ont codé en dur un modèle de la
cochlée - l'organe de transduction du son dans l'oreille interne,
dont le fonctionnement est compris en détail - pour traiter l'audio
et trier les sons en différents canaux de fréquence en tant
qu'entrées d'un réseau neuronal convolutif. Le CNN a été formé à
la fois pour reconnaître les mots dans les clips audio de discours et
pour reconnaître les genres de clips musicaux mélangés avec du
bruit de fond. L'équipe a recherché une architecture de réseau
profond capable d'exécuter ces tâches avec précision sans avoir
besoin de beaucoup de ressources.
Trois ensembles d'architectures semblaient possibles. Les deux
tâches du deep net pouvaient partager uniquement la couche
d'entrée, puis se diviser en deux réseaux distincts. À l'autre extrême,
les tâches pourraient partager le même réseau pour tout leur
traitement et se diviser uniquement à l'étape de sortie. Ou ce
pourrait être l'une des dizaines de variantes intermédiaires, où
certaines étapes du réseau étaient partagées et d'autres étaient
distinctes.
Sans surprise, les réseaux qui avaient des voies dédiées après la
couche d'entrée ont surpassé les réseaux qui partageaient
entièrement les voies. Cependant, un réseau hybride - un avec sept
couches communes après l'étape d'entrée, puis deux réseaux
séparés de cinq couches chacun - a fait presque aussi bien que le
réseau entièrement séparé. McDermott et ses collègues ont choisi
le réseau hybride comme celui qui fonctionnait le mieux avec le
moins de ressources informatiques.
Samuel Velasco / Quanta Magazine
Quand ils ont opposé ce réseau hybride aux humains dans ces
tâches, cela correspondait bien. Cela correspondait également aux
résultats antérieurs d'un certain nombre de chercheurs qui
suggéraient que le cortex auditif non primaire avait des régions
distinctes pour le traitement de la musique et de la parole. Et dans
un test clé publié en 2018, le modèle a prédit l'activité cérébrale
chez les sujets humains: les couches intermédiaires du modèle
anticipaient les réponses du cortex auditif primaire, et les couches
plus profondes anticipaient des zones plus élevées dans le cortex
auditif. Ces prédictions étaient nettement meilleures que celles des
modèles non basés sur l'apprentissage en profondeur.
L'équipe a découvert
que le réseau profond formé pour reconnaître les visages était
mauvais pour reconnaître les objets et vice versa, ce qui suggère que
ces réseaux représentent les visages et les objets
différemment. Ensuite, l'équipe a formé un seul réseau sur les deux
tâches. Ils ont constaté que le réseau s'était organisé en interne pour
séparer le traitement des visages et des objets dans les dernières
étapes du réseau. «VGG se sépare spontanément davantage aux
stades ultérieurs», a déclaré Kanwisher. «Il n'est pas nécessaire de
faire la ségrégation aux premiers stades.»
Cela concorde avec la façon dont le système visuel humain est
organisé: la ramification se produit uniquement en aval des étapes
antérieures partagées de la voie visuelle ventrale (le noyau géniculé
latéral et les zones V1 et V2). «Nous avons constaté que la
spécialisation fonctionnelle du traitement des visages et des objets a
émergé spontanément dans des filets profonds entraînés sur les
deux tâches, comme dans le cerveau humain», a déclaré Dobs, qui
travaille maintenant à l'Université Justus Liebig de Giessen, en
Allemagne.
«Ce qui est le plus excitant pour moi, c'est que je pense
que nous avons maintenant un moyen de répondre
aux questions sur la raison pour laquelle le cerveau est
tel qu'il est», a déclaré Kanwisher.
Couches de parfums
De plus en plus de preuves de ce type émergent de la recherche
portant sur la perception des odeurs. L'année dernière, le
neuroscientifique informatique Robert Yang et ses collègues de
l'Université de Columbia ont conçu un réseau profond pour
modéliser le système olfactif d'une mouche des fruits, qui a été
cartographié en détail par des neuroscientifiques.
La première couche de traitement des odeurs implique des neurones
sensoriels olfactifs, dont chacun n'exprime qu'un seul des quelque 50
types de récepteurs d'odeur. Tous les neurones sensoriels du même
type, environ 10 en moyenne, atteignent un seul cluster nerveux dans
la couche suivante de la hiérarchie de traitement. Parce qu'il y a
environ 50 de ces groupes de nerfs de chaque côté du cerveau dans
cette couche, cela établit une cartographie un-à-un entre les types
de neurones sensoriels et les groupes de nerfs correspondants. Les
grappes nerveuses ont de multiples connexions aléatoires aux
neurones de la couche suivante, appelée couche de Kenyon, qui
compte environ 2500 neurones, dont chacun reçoit environ sept
entrées. On pense que la couche de Kenyon est impliquée dans des
représentations de haut niveau des odeurs.
Pour voir s'ils pouvaient concevoir un modèle de calcul pour imiter
ce processus, Yang et ses collègues ont d'abord créé un ensemble
de données pour imiter les odeurs, qui n'activent pas les neurones
de la même manière que les images. Si vous superposez deux
images de chats, en les ajoutant pixel par pixel, l'image résultante
peut ne rien ressembler à un chat. Cependant, si vous mélangez une
odeur de deux pommes, elle sentira probablement toujours la
pomme. «C'est un aperçu critique que nous avons utilisé pour
concevoir notre tâche d'olfaction», a déclaré Yang.