Vous êtes sur la page 1sur 43

INTRODUCTION

Il y a 6 systèmes que l’on va devoir connaitre. Chaque système sensoriel a une fonction
spécifique. Le système somesthésique sa fonction est le toucher mais aussi le système
thermique et nociceptif.

Tous ses systèmes sensoriels sont très différents les uns des autres mais il y a des règles de
bases communes qui régissent la façon dont le cerveau gère ces différents systèmes sensoriels.

Nos différents systèmes sensoriels nous permettent d’avoir différentes sensibilités. Et nous
percevons ces différentes sensibilités grâce à des cellules nerveuses hautement spécialisé, que
l’on appelle des récepteurs, ces récepteurs sont spécifiques de chaque système sensoriels.
Les récepteurs ont 2 fonctions :
 Capter l’information relative à la sensibilité, le récepteur capte l’énergie qui provient
de la stimulation
 Convertir l’énergie en signaux nerveux
Mais les énergies diffèrent suivant les différentes sensibilités

Aux différentes sensibilités sont associées différentes énergies qui sont capturer par les
récepteurs (cellules nerveuses hautement spécialisés), qui vont transcrire l’énergie en signaux
nerveux.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 1 sur 43


Par la suite, ces signaux sont transmis au système nerveux centrale (SNC).
Direction récepteurs vers le SNC par les nerfs, il s’agit de message sensoriels afférents. Il
existe le sens inverse, c’est-à-dire du SNC au récepteurs, il s’agit de messages nerveux
efférents (pas traiter donc le cour). Par la suite, ces messages sensoriels afférents activent des
neurones centraux ce qui permet l’interprétation des propriétés des stimulus, qui bien sûr à
déclencher l’expression du système sensoriel en cause. Cette interprétation est basée sur les
propriétés qualitative et quantitative du stimulus.
Dans chaque système sensoriel sont présent des circuits centraux de traitement qui s’organise
sous forme de carte.

Lorsque que l’on s’intéresse à l’humain pathologique il faut réussir à évaluer dans un domaine
données les différentes pathologies. Par exemple, les déficit sensoriels et émotionnels.
Cela va nous donner des indication sur la nature du dysfonctionnement du système sensoriel
en cause mais aussi sur la localisation des structure impliquer dans ce traitement déficitaire.

Pour comprendre et traiter les troubles, il faut connaitre


 La transduction (où et comment elle s’opère) : transmissions du signal dans sa
membrane et sa traduction en message
 Les relais et les projections sur le cortex
 Le traitement des informations aux niveau cortical

Pour comprendre… il faut connaître


 La nature des récepteurs spécialisés selon les différents système sensoriel
 Capture de l’énergie d’un stimulus par les récepteurs
 Conversion de l’énergie en signaux nerveux
 Acheminement (par le biais de relais) des signaux nerveux jusqu’à des zones
spécialisées du SNC (=aires)

Cela implique pour chaque systèmes sensoriels :


 Présentation anatomique des différents systèmes sensoriels
 Présentations des mécanismes de transduction
 Présentation de certains codages opérés au niveau du SNC

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 2 sur 43


CHAPITRE 1 : LE SYSTEME AUDITIF

Le système auditif est le premier système de relation avec les monde, on entend avant de voir.
Il est mature dès 5 mois de gestation (contrairement au visuel qui est immature à la
naissance). Ce qui explique qu’un fœtus entend ce qu’entend sa mère mais de manière
différente à cause du placenta. Extrêmement important chez l’Humain car il a un rôle essentiel
dans la parole et la musique.

I. L’UNIVERS SONORE : NOTIONS D’ACOUSTIQUE


A. Sons et vibrations : définitions
Pour le physicien, un son est une vibration physique d’un matériel, c’est donc le mouvement
d’un objet d’un point de l’espace à un autre avec retour au premier point.
Exemple d’un pendule

Sous certaines conditions ces vibrations peuvent produire des sons, il y a émissions
sonore lorsque la vibration produit par l’objet est un son audible pour l’oreille
humaine.
Pour les psychologue, un son est une vibration dans le spectres audibles des
acoustiques. De fait, il y a plein de vibration que l’oreille ne peut détecter.

Pour qu’un objet puisse entrée en vibrations il doit posséder deux propriété :
 Inertie : force minimal qu’il faut exercer sur l’objet pour qu’il commence à bouger,
autrement dit vibrer.
 Élasticité : la capacité de l’objet à revenir à l’état initiale après déformation

Quasiment tous les objets de notre environnement possèdent c’est deux propriétés, peuvent
bouger et donc produire des sons, mais en tant que humain nous ne pouvons pas entendre tous
les sons produits, enfaite il faut que certaines conditions soit respecter pour que l’oreille
humaine puisse entendre ces sons.

B. Transmissions des sons


Pour qu’un son soit entendu par l’oreille, il faut qu’il soit transmis d’un point à un autre. Pour
cela, il faut 2 facteurs, qui peuvent affecter la transmission d’un son :
 Le milieu : il n’y a pas de son dans le vide car il faut des molécules, donc un milieu,
car le son résulte des déplacements des molécules dans l’environnement où il est émis.
1èr facteur à jouer un rôle dans la propagation de son
 Le température : 2ème facteur à jouer un rôle dans la propagation de son

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 3 sur 43


Ce son ne se déplace pas toujours à la même vitesse (célérité) cela dépend de la densité du
milieu dans lequel il est. Les sons se propagent plus lentement dans un milieu froid et plus
vite dans une forte densité.

Dans l’air à 0° la célérité est d’environ 332m/sec. Dans l’eau, le son à une célérité de 1 420
m/sec. Le son se déplace le plus rapidement dans l’acier, avec une vitesse de 5 600 m/sec.
Dans l’oreille humaine nous avons des liquides que nous pouvons considéré comme étant
quasiment

RAPPEL : vitesse de la lumière = 300 000 Km/sec. La lumière se déplace donc beaucoup plus
vite que le son, c’est pourquoi on voit l’éclaire et on entend le tonnerre après lors d’un orage.

Analogie pour savoir comment se propage le son. Cette analogie est ce qu’on appelle les
boules du berceau de Newton.

Boule numéro 1 est étiré vers la gauche, puis lâcher et va frapper la boule numéro 2 c’est le
phénomène de compression. Puis la 2 va taper la 3, il y aura une raréfaction ou phase de
détente entre la boule 1 et 2.
C’est cette alternance des phases de compression et de raréfaction au niveau des molécules
qui permet au son de se propager dans l’espace.

On a une source sonore qui va diffuser le son. On retrouve les phases de compression et de
raréfaction (ou de détente, de relâchement) des molécules (ici d’air). Dans les zones de
compression des molécules, c’est dernières sont très denses donc une densité élevé qui
correspond à une forte pression, proches les unes des autres.
En revanche, dans les zones de raréfaction, les molécules sont plus espacées, il y a donc une
densité qui diminue, on observe donc une pression qui elle aussi diminue.
Dans la propagation d’un son il y a donc alternance de compression et de raréfaction.
Autrement dit, il y a alternance des zones de pression élevé et de pression faible. Mais que
veulent dire ses terme ? lorsque que la pression de l’air est élevé l’amplitude est forte, en
revanche quand la pression de l’air est faible, l’amplitude du son est plus faible qu’avant.
On peut mesurer cette différence de pression entre le pic et le creux, ça correspond à
l’amplitude des variations de pressions, c’est-à-dire correspond au volume d’un son.

DONC : la propagation d’un son correspond à l’alternance des deux phases en un point donné
de l’espace. Cette propagation se fait temporellement (retrouve cela sur la partie basse du
document). Au fur à mesure de la propagation du son va finir par atteindre la membrane du
tympan de l’auditeur, cette membrane va se mettre à vibrer et c’est la vibration de la
membrane du tympan qui est en partie à l’origine de notre audition.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 4 sur 43


C. Vibrations sinusoïdales
Pour un physicien, un son est une vibration physique d’un objet mais il a aussi besoin de
décrire la forme de la vibration (ex. une sinusoïde, voir le doc au-dessus).
Pour connaître la forme d’une vibration, il faut donc décrire la stimulation acoustique :
représenter avec une représentation de la variation de l’amplitude (pression) en fonction du
déplacement des particules (distance)
Lorsque d’on est face à un son extrêmement simple (document au-dessus) le déplacement du
son dans le temps est représenté par une et une seule sinusoïde traduisant qu’on est en
présence d’un son les plus simples possibles (n’existe quasiment pas dans la nature).
A partir d’une telle sinusoïde on peut faire plusieurs mesure et en particulier la durée d’un
cycle sinusoïdale. La durée d’un cycle sinusoïdale correspond à la distance entre deux zones
successibles identiques (ex. les sommets des sinusoïdes). Cette durée s’appelle la période et
est notée N, elle est principalement exprimée en ms (milliseconde).
Dans le document ci-dessus, on est en présence d’un son particulier car il n’y a qu’une seule
sinusoïde, très rare dans la nature, dans la plus part du temps les vibrations sont très
complexes.
Mais que le son soit simple ou complexe, on peut en extraire plusieurs informations, qui sont
les caractéristiques du son :
 Fréquence
 Amplitude
 Phase de départ

1. Fréquence
La fréquence est le nombre de compression et de raréfaction des molécules d’aire qui atteint
l’oreille en 1sec, c’est-à-dire le nombre de cycles par seconde. Elle est notée F.
La fréquence est l’inverse de la période, sa formule est :
1
F= ,où N est la période.
N

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 5 sur 43


On peut donc déduire la fréquence de la période et réciproquement la période de la fréquence.
L’unité physique est le Hertz (Hz) (de Heinrich Hertz, 1857-1894).

La fréquence d’un son, nous renseigne sur sa hauteur, ce qui correspond aux termes « grave »
et « aigu » dans le langage courant. Le corrélat perceptif est la hauteur d’un son.

SI la fréquence d’un son est élevé, c’est-à-dire aigue, cela signifie que l’objet oscille
beaucoup (sommets ou creux rapprochés). C’est pour cela que le corrélat perceptif perçoit un
son aigu.
SI la fréquence d’un son est faible, c’est-à-dire grave, cela signifie que l’objet oscille
lentement (sommets ou creux éloignés). C’est pour cela que le corrélat perceptif perçoit un
son grave.

Les fréquences audibles chez l’humain sont celles comprises entre 20 et 20 000 Hz. Les
fréquences inférieurs sont appelées des infra-sons et celles supérieur sont des ultra-sons.
On décompose les fréquences audibles en 3 grandes catégories :
 Graves, fréquences entre 20 et 400 Hz
 Moyennes , fréquences entre 400 et 1 600 Hz
 Aiguës , fréquences entre 1 600 et 20 000 Hz
Notre système auditif est très peu sensible aux hautes fréquences et y devient de moins en
moins sensible très rapidement.

2. Amplitudes
L’amplitude est la différence de pression mesurée entre le maximum de compression et celui
de la raréfaction des molécules d’air.
Elle exprime l’intensité (I) d’un son et nous renseigne sur sa pression sonore (ou force
sonore), ce qui correspond au terme « volume » dans le langage courant, qui peut être fort
et/ou faible.
L’unité physique de l’intensité sonore est le décibel (dB) (de Alexander Graham Bell, 1847-
1922, inventeur du téléphone en 1876 mais aussi l’inventeur de la première oreille artificielle
capable d’enregistrer des sons en 1874).

Les intensités audibles chez l’humain sont les intensités comprises entre 0 dB (10-12W/m2 ou
2x10-5 Pa) (seuil d’audition) et 120 dB (1 W/m2 ou 20 Pa) (seuil de douleur).

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 6 sur 43


Cette valeur de 120 dB est à ne pas dépasser car le risque est d’abîmer de manière irréversible
notre oreille, en quelque sorte à la tuer.

3. Phase de départ
La phase de départ correspond à la position de l’objet au moment où il commence à vibrer.
Elle se mesure en degrés d’angle (i.e. de 0° à 360°). Un cycle complet de vibration comprend
360°.
Elle a son importance quand on doit détecter un ou des sons dans l’espace car les sons ne vont
pas arrivée de manière simultanée à vos oreilles (entre la gauche et la droite) et cette
différence va permettre de localiser la source sonore.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 7 sur 43


4. Fréquence et intensité

Un objet peut osciller beaucoup plus ou moins qu’un autre.


Peu d’intensité sera de faible amplitude et contrario.

D. Sons purs et sons complexes


Toutes les figures présentées sur les documents pour l’instant sont simples, mais dans la
nature ce n’est pas aussi simple que cela.

1. Sons purs : formes d’onde et spectre


Les sons purs sont représentés par toutes les figures vues jusqu’à maintenant. On en a une
nouvelle représentation ici.

Ces sons sont dit « purs » car il y a


qu’une seule sinusoïde donc ce son
présente qu’une et une seule fréquence
(caractéristique du son pur). Ces derniers
ne sont pas présent dans la nature, on les
générèrent avec des outils Adoc
notamment grâce à des outils comme un
audiomètre (appareil audio-acoustique
qui permet de mesurer la sensibilité
auditive).

Il existe néanmoins un son pur dans la


nature il s’agit du son du diapason qui a une fréquence unique le la 440 Hz.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 8 sur 43


Le spectre est une représentation de l’intensité (I) en fonction des Hertz (Hz). On peut voir sur
la figure 5, la représentation du spectre du diapason.

2. Sons complexes

Les sons complexes, contrairement au purs, sont plus courant dans la nature. La figure 6 nous
présente à gauche un son pur et un son complexe à droite.
La parole, la musique, et toutes les stimulations produites dans la nature par des machines
sont des sont complexes, leur forme d’onde est donc plus complexe, mais il y a quelque chose
qui se répète quand même, on peut voir une périodicité.
Grâce à cette périodicité on va pouvoir décomposé ses sons complexes en ces différentes
sinusoïdes, car on sait que la plus part des sons naturelles sont des sons complexes sont
composé de sinusoïdes.

On décompose un son complexe, depuis le XIXème siècle grâce à Jean-Baptiste-Joseph


Fourier, il a été le premier à proposer une catégorisation des différentes vibrations en fondant
son théorème sur le fait que n’importe quelle vibration est la somme de n vibrations
particulières dites « vibrations sinusoïdales ». Lorsque nous sommes face à un son complexe
on va chercher à identifier les différentes vibrations sinusoïdales de se son. Pour le composer
on fait une analyse de Fourier. L’analyse de Fourier permet de dériver les sinusoïdes d’un
son complexe. Si on a plusieurs sinusoïdes et qu’on en fait la somme on récupère le son
complexe, celui de départ, c’est la série de Fourier.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 9 sur 43


Sons complexes, qui se répète à l’identique.

Grâce à l’analyse de Fourier on extrait les fréquences de ce


son.

Ici le son complexe est constitué de 3 fréquences (100, 200


et 300 Hz), chacune à son amplitude.

Phase de départ.

Avec les fréquences on peut tracer la sinusoïde car on


connait sa période.
Ex. pour une fréquence de 100 Hz
N = 1/100 = 0,01 s = 100 ms
On fait pareil pour 200 et 300 Hz.
Dérivation des sinusoïdes de chaque fréquence composant
le son complexe (analyse de Fourier).

Si on fait la somme de ces 3 sinusoïdes, c’est-à-dire si on


réalise une série de Fourier, on retrouve à nouveau le son
complexe de départ.

3. La modulation de fréquence et d’amplitude


Tous les sons naturels, de parole et
musicaux, sont des sons qui ne sont
jamais constant au cours du temps.
Autrement dit, la parole comme la
musique change continuellement de
fréquence et d’amplitude au cours du
temps, c’est pourquoi on parle de
modulation de fréquence et d’amplitude.
Dans le cas de la parole, on peut
chercher à voir les différentes sinusoïdes
mais ce ne va pas nous renseigner plus
sur le son lui-même. On utilise, donc
pour la parole, une représentation
particulière sous le nom de
représentation spectrographique.

Dans cette représentation, on a la


modulation de la fréquence et de

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 10 sur 43


l’amplitude au cours du temps, elle représente les modulations des fréquence en fonction du
déroulement temporel. L’intensité figure à l’intérieur de la représentation, ce sont les zones de
contraste noir et blanc, plus c’est noir plus c’est intense. Les étagements de noirs
correspondent à des voyelles. Un phonème sifflant à pour caractéristique d’être dégrader de
blanc en noir quand on monte dans les fréquences.
Cette représentation résume l’intensité, le déroulement temporel et la fréquence, on a donc
une représentation extrêmement complète du son prononcer. Plus complète que celle de la
figure 9.

II. L’ANATOMIE DE L’OREILLE HUMAINE


Dans le système auditif, on distingue bien sûr un système périphérique et un centrale. C’est
vrai pour tous les systèmes.
Le système auditif périphérique peut être grossièrement divisé en quatre parties :
 Oreille externe
 Oreille moyenne
 Oreille interne

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 11 sur 43


 Nerf auditif
Le système auditif centrale peut être grossièrement divisé en deux parties :
 Voies auditives
 Cortex auditif
Chacune de ces parties remplies un rôle spécifique.

A. Oreille externe
L’oreille externe comporte :
 Le pavillon situé à l’extérieur, suivie de
 Le conduit auditif externe

Le pavillon de l’oreille externe est unique d’un individu à un autre, l’organisation des
circonvolution est unique, c’est pourquoi on parle d’empreinte de l’oreille. Sa conformation
est fait de telle sorte que les différentes sources sonores sont capturées pour être rassemblées à
l’entrée du conduit auditif externe.
Donc le pavillon conduit les ondes sonores vers le conduit auditif externe.

Les ondes sonores vont s’acheminer dans le conduit jusqu’à la membrane du tympan (zone
blanche du schéma). L’oreille externe est fermée vers l’intérieur par la membrane du tympan.

La conformation de notre oreille externe est telle qu’il va y avoir une amplification des
pression sonore, elle se fait pour les fréquences comprises en 1 000 et 4 000 Hz. Dès lors
qu’on change la conformation du pavillon externe on détruit cette amplification sélective pour
les fréquences comprises en 1 000 et 4 000 Hz. Cela explique que l’humain est susceptible de
lésions acoustiques pour ces fréquences-là et ça explique aussi pourquoi l’humain est
extrêmement sensible à ces fréquences-là.
Pourquoi ces fréquences ? on sait que ce sont les sons les plus utiliser dans la parole et la
musique.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 12 sur 43


B. Oreille moyenne
Derrière le tympan, se trouve l’oreille moyenne.

L’oreille moyenne est une cavité qui contient de l’air et qui communique avec l’arrière-gorge
(plus exactement le pharynx), par ce qui est légendé en 6 sur la figure, et qui s’appelle le
trompe d’Eustache.
L’oreille moyenne est unie à la gorge.
Dans cette oreille moyenne on trouve donc :
 La membrane du tympan (4)
 La chaine des 3 osselets
- Le marteau (1), est solidaire de la membrane et est directement articulé à
l’enclume
- L’enclume (2), est directement articulé à l’étrier
- L’étrier (3), qui cache derrière lui la membrane de la fenêtre ovale
 La fenêtre ronde (5)

Autrement dit, si la membrane du tympan se met à vibrer, comme le marteau est accroché à se
tympan, le marteau vibre qui lui-même fait vibrer l’enclume qui fait vibrer l’étrier. L’étrier
vient appuyer sur la membrane de la fenêtre ovale, il est donc envoyer de la pression dans
l’oreille interne, située juste derrière. Pour s’évacuer il y a la membrane de la fenêtre ronde.
Pour que notre audition soir parfaite, il faut que les osselets vibrent de manière maximale. La
vibration de ses 3 osselets est optimal lorsque la pression dans l’oreille moyenne est identique
à celle de l’atmosphère.
Comment cette égalité est possible ? possible grâce à cette trompe d’Eustache. Ce ne sont pas
les oreille mais la trompe d’Eustache qui se bouche quand on prend l’avion par exemple car il
y a rupture de l’égalité des pressions entre l’oreille moyenne et l’extérieur, qu’il faut rétablir à
l’aide d’une stratégie comme déglutir.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 13 sur 43


Cette membrane est mince souple, élastique résistante mais a des limites, qui se déforme sous
l’action de la pression sonore, elle a la particularité de vibrer à la même fréquence que le son
entrant.

Par ailleurs si on regarde un peu plus précisément ce qu’il y a dans cette oreille moyenne, les
3 osselets sont maintenus en place par des ligaments et des muscles. Enfaite il y a deux
ligaments, celui du marteau (2) et celui de l’enclume (4). Auquel s’ajoute deux muscles, le
muscle du marteau (9) et le muscle stapédien (5). Le muscle du marteau a un rôle faible chez
l’humain, en revanche le muscle stapédien lui est important chez l’humain. L’étrier en latin ce
dit stapes d’où le terme de muscle stapédien.

Pourquoi le muscle stapédien est important chez l’Humain ? ce muscle sous l’effet de son
intense il a, comme tous les muscles, la propriété de présenter une contraction réflexe et cette
contraction prend différent nom :
 Réflexe stapédien
 Réflexe d’atténuation
 Réflexe ossiculaire
Que se passe-t-il quand ce muscle se contracte ? il rigidifier la chaine des 3 osselets, donc
vibrent moins facilement et permet d’atténuer l’amplitude des vibrations qui arrivent au
niveau de l’étrier. Une diminution de l’amplitude des vibration au niveau de l’étrier fait qu’il
a moins de puissance sonore qui va pénétrer dans l’oreille interne.
Ce réflexe n’est pas une protection à toute épreuve pour notre oreille humaine pour 3 raisons :

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 14 sur 43


 Ce réflexe ne se déclenche qu’à partir d’une certaine intensité. Cette intensité est de
+80 dB SL (SL = Sensation Level) (voir TD pour explication des dB)
 Il est efficace que pour les fréquences < 1 000 Hz, dans ce cas on observe une
atténuation de 10 à15 dB, ce réflexe attenu les basses fréquences, il est alors plus
facile de discerner les hautes fréquences dans un environnement de basses fréquences.
 Il n’est pas efficace pour les sons à caractère impulsionnel (ex. explosions, armes à
feu), Pourquoi ? car il s’agit d’un réflexe, hors pour qu’un réflexe est lieux il a un
certain délai, pour le réflexe stapédien c’est environ 150ms. Hors ces sons à caractère
impulsionnel ont la capacité de s’établir en 35ms. Le réflexe ne peut pas se mettre en
place et laisse passer toute l’intensité dans l’oreille interne

Ce réflexe est bilatéral, c’est-à-dire que lorsque nous envoyons un son sur une seule oreille, le
réflexe ce met en place sur les deux oreilles, ça nous protège complètement.

Sur la partie haute de la Figure 13, on peut constater c’est la cas de quand on est auditeur, un
son arrive de notre environnement, si il a les caractéristiques décrites avant le réflexe va se
mettre en place, au bout d’un certain temps.

Sur la partie basse, c’est ce qu’il se passe lorsqu’on est l’occulteur, il faut qu’on protège nos
oreille en permanence, le muscle de l’étrier se contracte avant que la personne se mette à
parler lorsqu’elle est l’occulteur.

Ce muscle stapédien est donc essentiel au bon fonctionnement de notre oreille, pour atténuer
les vibrations qui seront transmises par la suite dans le l’oreille interne.

EN RESUME :
Le son de l’environnement est capté par le pavillon conduit par le conduit auditif jusqu’à la
membrane du tympan qui se met à vibrer, qui fait vibrer les 3 osselets, où l’étrier appuis sur

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 15 sur 43


membrane de la fenêtre ovale. C’est donc une pression sonore qui entre dans l’oreille interne,
cette entrée de pression suggère qu’elle doit être évacuée par la membrane de la fenêtre ronde.
C. Oreille interne
L’oreille interne regroupe 2 organes de sensibilité distincts ou 2 grandes structuration
anatomique :
 Cochlée
 Vestibule
L’oreille interne présente 2 grandes fonctions :
 L’audition, qui se fait par la cochlée
 L’équilibration qui se fait par le vestibule

1. Labyrinthe osseux et labyrinthe membraneux


Avant tout précisons que notre oreille interne est composé de 2 labyrinthes :
 Osseux (non légendé)
 Membraneux (légendé)
Ces deux labyrinthe sont de formes identiques et sont imbriqué l’un dans l’autre. Le
labyrinthe membraneux est inclus dans l’osseux.

On distingue, pour les 2 labyrinthe, 3 canaux semi-circulaires (CSC). Les CSC du labyrinthe
osseux sont appelés CSC osseux et idem pour le membraneux. D’après la légende, c’est 3
canaux sont :
 1 : canal antérieur ou supérieur
 8 : canal postérieur ou inférieur
 7 : canal latéral ou horizontal
A ces 3 CSC, on trouve :
 14 : l’utricule
 4 : le saccule
L’utricule et le saccule sont contenue dans le vestibule (partie entourée en bleu).
La dernière particularité que l’on peut trouver est le 5 est le canal cochléaire (entouré en rose),
il est intégré dans la cochlée.

La pression entre par le numéro 10, soit la fenêtre ovale, et monte dans les différents étages de
la cochlée et devra s’évacuer par le numéro 11, soit la fenêtre ronde.

C’est parce qu’il y a des liquides dans la cochlée qui vont être soumis à des pression sonores
qu’il faut qu’il y est un équilibre sonore entre les différents compartiments de cette cochlée.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 16 sur 43


2. Cochlée
La cochlée c’est la structure la plus importante de l’oreille interne. On parle de cochlée car
vient du grec « kochlos » qui veut dire escargot. C’est cette enroulement en spirale au cours
du développement qui lui vaut son nom.

C’est la photo d’un cochlée d’un


fœtus de 5mois. Dès 5mois de
gestation, le développement de la
cochlée est achevé, la cochlée est
mature. Cette enroulement en spiral
se fait depuis la base jusqu’à
l’apex.
Flèche bleu : membrane de la
fenêtre ovale, endroit ou pénètre les
sons. Puis les sons montent dans
les différents étages pour
redescendre et s’évacuer dans la
membrane de la fenêtre ronde
(flèche jaune).

La cochlée est un tube hélicoïdal, c’est-


à-dire qui a la forme d’une hélice, qui
s’enroule autour d’un axe creux, soit la
columelle. Cette enroulement en spirale
ne comporte pas le même nombre de
tour en fonction de l’espèce animal,
chez l’Humain c’est 2,5 tours.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 17 sur 43


Dans cette coupe axiale de la cochlée, on retrouve donc les 2,5 tours. On trouve aussi 3
compartiments, enfaite on parle de 3 rampes ou canaux :
 1 : (en rouge) le canal cochléaire
 2 : rampe vestibulaire
 3 : rampe tympanique
Entre les deux rampes on trouve le canal cochléaire, il les séparent.
Le son rentre par la fenêtre ovale puis va se propager depuis la base de la cochlée vers l’apex
(flèche rouge) et elle redescend (flèche bleu) pour s’évacuer par la fenêtre ronde.
En son centre on trouve un axe creux, soit la columelle, on trouve dedans les fibres auditives.

Au niveau d’une seule spire de cochlée que ce passe-t-il ?

Il s’agit d’une section transversale au niveau d’un trou de spire de cochlée.


Il y a des structures :
 2 : rampe vestibulaire, c’est-à-dire elle aboutit au vestibule, du côté de la fenêtre ovale.
Elle est rempli de liquide : le périlymphe
 3 : la rampe tympanique, c’est-à-dire elle aboutit du côté de la fenêtre ronde, et est
rempli aussi de périlymphe.
 1 : canal cochléaire, il sépare les deux rampes, en réalité cette séparation est
incomplète car il faut que les liquides se cossent. Cet échange des liquides se fait par
un petit trou : l’hélicotréma. Il contient aussi un liquide : l’endolymphe.
 4 : membrane de Reissner : elle sépare le canal cochléaire de la rampe vestibulaire.
 5 : membrane basilaire : elle isole le canal cochléaire de la rampe tympanique.
 Entourer en vert : l’organe de Corti, il vient reposer sur la membrane basilaire.
 6 : au-dessus de l’organe de Corti : membrane tectoriale (qui veux dire « toit de »,
« au-dessus de »), elle couvre l’organe de Corti.
La périlymphe et l’endolymphe ont des concentration ioniques en potassium et en sodium
différentes.
Toutes ses membranes sont importantes, et doivent toujours rester en bonne état. En cas de
problème, il peut avoir les liquides qui se mélangent et cela peut créer des problèmes
d’audition.
3. Organe de Corti
On doit cet organe de Corti à Monsieur Corti, c’était un anatomiste italien

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 18 sur 43


Zoom sur l’organe de Corti

Il est essentiel car il contient les éléments responsable de notre audition. Dans cet organe de
Corti on retrouve :
 4 : membrane basilaire qui isole le canal cochléaire de la rampe tympanique.
 Entourer de bleu claire : pilier de Corti : deux grande cellule qui aide le maintien de la
forme de l’organe de Corti en s’appuyant sur la membrane basilaire.
 1 et 2 : cellules ciliées, se sont les cellules auditives proprement dit, ce sont donc les
récepteurs auditifs. Elles portent se nom car à l’extrémité de ces cellules il y a des
stéréocils (entourer en jaune), ce sont eux qui sont essentiel pour notre audition. Elles
converties l’énergie mécanique en électrique, en modifiant la polarisation de la
membrane.
 6 : membrane pectoriale, le toit de l’organe de Corti

Revenons sur les cellules ciliées :


 1 : cellule ciliée interne (CCI), ne sont pas en contact avec la membrane pectoriale
 2 : cellules ciliées externes (CCE), sont situé du près de la fenêtre ovale ? les cils des
CCE sont enchâssées dans la membrane pectoriale, ils sont directement en son contact.
3 CCE pour 1 CCI.

Il existe des différences entre les CCI et CCE :


 Les CCI sont moins nombreuses (environ 3500) que les CCE (environ 15 000 à 25
000).
 Les CCI sont disposées que sur une seule rangée alors que les CCE eux sont sur 3
rangées. Ceci explique pourquoi sur le schéma il y a 1 CCI de dessinée pour 3 CCE.
 La forme des CCI sont plus grandes et rondes que les CCE. De plus le noyau est plutôt
central chez les CCI alors que plutôt excentré chez les CCE
 Le nombre de cils varie, les CCI (environ 40 à 60) comportent moins de cils que les
CCE (environ une centaine).
Les CC sont sensibles à toutes sortes d’agents destructeurs (e.g., drogues ototoxiques (de
« otos » = oreille), antibiotiques, manque d’oxygène et bruits intenses)

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 19 sur 43


Sur la photo 3, on peut voir
que les CCE ont des formes
en « V » alors que les CCI
sont linéaires. C’est très
caractéristiques.
Sur la figure 18, on retrouve
aussi la disposition en 3
rangées pour les CCE et 1
pour les CCI.
Sens d’entrée en bleu foncé.

Pour finir, sur la figure 17, on


retrouve à la base des cellules
ciliées un réseaux de fibres
nerveuses afférentes (30 000 à
50 000) qui relient les cellules
ciliées (CC) aux système
nerveux central (SNC). Elles
sont logées dans la columelle
et forme le nerf auditif.
Les corps cellulaires des fibres nerveuses sont situés dans le ganglion de Corti (ou ganglion
spiral).
Le nerf auditif n’est pas tout seul, il s’accole
au nerf vestibulaire. Cet ensemble constitue
la VIIIème paires de nerfs crâniens (NC).
Cette VIIIème paires de nerfs on parle de
nerfs stato-acoustique ou cochléo-
vestibulaire.
L’organe auditif est un transducteur
codeur de type 2, c’est-à-dire le site
transducteur et générateur sont localisés
sur 2 endroits distincts séparés par une
synapse :
 Site transducteur est au niveau des
CC
 Site générateur est située au niveau
de la terminaison nerveuse
afférente

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 20 sur 43


D. Organisation des voies auditives afférentes (ascendantes)

Les informations du nerfs auditif sont d’abord acheminés jusqu’au noyau cochléaire.
Il y a plusieurs partie dans le noyau cochléaire : dorsal et ventral. Les informations
aboutissent aux deux parties.
Les informations qui aboutissent au niveau du noyaux cochléaire ventral sont acheminées à
l’olive supérieur, sous divisées en olive supérieur latérale et médiane. La projection dans
l’olive supérieur ce fait de manière ipsilatérale (du même côté) et de manière controlatéral
(opposé à la stimulation) par rapport à la ligne de décussation, autrement dit la projection se
fait des deux côtés du tronc cérébrale. La projection suivante se fait au niveau du noyau du
lemnisque latéral (noyau droit et gauche sont sollicités).
Les informations qui aboutissent au niveau du noyaux cochléaire dorsal sont projetées de
manière controlatéral sur la noyau du lemnisque latéral. Autrement dit la différence entre la
partie dorsale et ventrale du noyaux cochléaire est que la partie dorsale évite l’olive supérieur,
il n’y a pas de passage par l’olive supérieur quand les informations proviennent du noyaux
cochléaire dorsal.

A partir de ce noyaux du lemnisque latéral (informations du noyaux cochléaire ventral et


dorsal) les informations sont acheminées au colliculus inférieur, puis au corps genouillé (ou
géniculé) médian du thalamus.
Ce passage par le thalamus est un passage obligé pour les systèmes sensoriels, mais ce n’est
jamais la même zone qui est impliquée.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 21 sur 43


Depuis ce corps genouillé, l’information est envoyer jusqu’au cortex primitif primaire, qui est
situé dans le lobe temporal, plus précisément les aires auditives sont enfouies dans le Sillon
Sylvien. C’est le point d’aboutissement des informations auditives.

A partir de la figure 19on peut dire que les voies auditives ascendantes :
 Sont complexes et redondantes, avec des projections bilatérales, les informations
auditives provenant de l’organe de Corti projette sur les deux hémisphères cérébraux.
Ceci explique que seul les atteintes bilatérales entraine des sourdités importantes.
 Comporte de nombreux relai :
- Relai bulbaires (noyaux cochléaire et le complexe de l’olive supérieur)
- Relai mésencéphalique (noyau du lemnisque latéral et des colliculis
inférieurs)
- Relai diencéphalique (corps genouillé médian du thalamus)
 Projettent dans le lobe temporal :
- Aire auditive primaire (i.e. noté l’aire A1) puis
- Aire auditives secondaires (i.e. noté l’aires AAF = Anterior Auditory Field)

Le point terminal des informations auditives se fait aux aires auditive enfoui dans le scissure
de Sillus. Il a donc fallu inventer des techniques pour explorer le fonctionnement de ces aires
auditives, on utilise les potentiels évoqués auditifs (voir TD).

Il existe également des voies auditive efférente (descendante) qui parte du cortex, mais ne
sont pas présenter dans le cours.

L’entrée du son par la fenêtre ovale fait vibrer le liquide mais surtout les cils des CC, c’est
grâce à cette vibration qu’il va y avoir un mécanisme mécano-électrique au niveau des CC.

III. LA TRANSDUCTION MECANO-ELECTRIQUE AU


NIVEAU DE LA COCHLEE
A. Phénomènes mécaniques cochléaires
Quand on dit mécanique cochléaire c’est qu’on s’intéresse à ce qu’il se passe quand les
vibrations arrivent sur la membrane de la fenêtre ovale.
Pour ce qu’on comprenne ce qu’il se passe à ce moment, on se base sur le modèle de George
von Békésy (1899-1972, bio-physicien américano-hongrois), et son modèle de la cochlée
déroulée. Un modèle simplifie
les choses, c’est donc un
inconvénient mais ce modèle a
permis de comprendre ce qu’il
se passe dans la cochlée.
La première réduction est que le
modèle ne tient compte que de
la membrane basilaire, donc le
fonctionnement de la cochlée est
réduit au fonctionnement de
cette membrane car elle possède
des propriété particulière qui ont
permis de comprendre comment
cela fonctionne.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 22 sur 43


Lorsqu’une onde se propage dans la cochlée c’est de la base à l’apex.
Dans cette cochlée il y a des fluides, dont la célérité est similaire à l’eau, c’est-à-dire 1 400
m/s.
La rampe vestibulaire et la rampe tympanique sont séparer par le canal cochléaire mais elle
est incomplète il y a un trou, c’est l’hélicotréma (entourer en jaune).
Il a proposé ce modèle car il a essayé de comprendre si la membrane basilaire vibrer de
manière identique quelle que soit la fréquence du son, la distance le long de la membrane
basilaire parcourue par l’onde de pression est la même quelle que soit la fréquence du son ?

La membrane basilaire à deux propriétés structurales :


1. Sa largeur : elle n’a pas la même largeur sur toute sa longueur, elle est plus large à
l’apex qu’à la base (environ d’un facteur 5)
2. Sa rigidité : elle n’a pas la même rigidité sur toute sa longueur, elle est plus rigide à la
base qu’à l’apex (environ d’un facteur 100)
Par analogie d’une vibration, par exemple, la palme d’un nageur.
La propagation d’une vibration se fait de la partie la plus rigide vers la moins rigide, donc de
la base à l’apex.
Du fait de ces deux propriétés, la distance parcourue par l’onde de pression le long de la
membrane basilaire n’est pas la même selon la fréquence des sons.

Sur la figure 20, si on présente à la membrane basilaire :


 Un son de basse fréquence (50 Hz) on constate que la fréquence basilaire va vibrer
sur toute sa longueur, toute la membrane est sollicitée, et l’amplitude maximale de
vibration se situe du côté de l’apex de la cochlée.
 Un son de fréquence moyenne (1 600 Hz) on constate que la membrane basilaire ne
vibre que sur une partie de sa longueur et l’amplitude maximum est quelque part entre
la base et l’apex.
 Un son de haute fréquence (3 000 Hz) on constate que la membrane basilaire ne vibre
que du côté de la base et l’amplitude est maximal du côté de la base de la cochlée. Ici
seul la base de la membrane vibre.

La distance parcourue par l’onde de pression le long de la membrane basilaire n’est pas la
même le long de la membrane. La base vibre pour les hauts fréquences tandis que l’apex vibre
pour les basses fréquences.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 23 sur 43


Apex

Base

C’est ce qu’on appelle la carte de la distribution des maxima sur la membrane basilaire.

C’est grâce à cette propriété que l’on est capable de coder les différentes fréquences (grave
VS aigu) dans notre environnement.

B. Phénomènes électriques au niveau de la cochlée


1. Cochlée au repos

Au repos c’est-à-dire sans activité, sans son, sans vibration sonore qui l’active.
Il y a plusieurs rampes : vestibulaire en 2 et tympanique en 3, plusieurs canaux : cochléaire en
1 qui sépare les deux rampes. Les rampes contiennent le périlymphe et le canal cochléaire
contient de l’endolymphe. Ces deux liquides n’ont pas les mêmes concentration ionique. La
périlymphe (composition ressemblant au liquide extracellulaire, ex. céphalo-rachidien) est

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 24 sur 43


riche en sodium et pauvre en potassium, inversement pour l’endolymphe (ressemble au
milieu intracellulaire, alors qu’en réalité il s’agir d’un milieu extracellulaire). C’est une
particularité du système auditif.
On va donc observer des différence de potentielle importantes entre les différents
compartiment de la cochlée. Pour comprendre ces différences de potentiel entre les différents
compartiments de la cochlée, on prend la rampe tympanique comme potentiel de référence, on
fixe donc à 0mV dans le périlymphe. On regarde à partir de cette référence, ce qu’il se passe
dans le rampe vestibulaire en 2 et dans le canal cochléaire en 1. On constate que la
périlymphe dans la rampe vestibulaire, le 2, est proche de 0mV. En revanche dans le canal
cochléaire, le 1, qui contient de l’endolymphe, le potentiel es fortement positif : +80mV.
L’organe de Corti, ce potentiel est très fortement négatif, il est à -60mV.
Autrement dit entre l’organe de Corti et le milieu dans lequel il baigne, soit l’endolymphe, il
existe une énorme différence de potentielle de 140mV.
Il existe au repos une très grande différence entre l’organe de Corti et le liquide dans
lequel il baigne.

2. Cochlée stimulée

Les cils des cellules ciliés externes sont enchâssés dans la membrane tectoriale. Ce n’est pas
le cas pour les cils des cellules ciliés internes.
Lorsqu’une vibration sonore arrive dans l’oreille interne, elle va se propager le long de la
membrane basilaire et elle va déformer cette membrane, ce qui entraine soit le soulèvement
vers la membrane tectoriale (partie basse du document), soit l’éloigner de la membrane
tectoriale. Lorsque cette membrane basilaire se met à bouger, ceci va provoquer une force de
cisaillement au niveau des cils des cellules ciliées.
Dans la partie haute du document, on peut remarquer que les cils s’inclinent vers la droite,
tant dis qu’en bas, ils s’inclinent vers la gauche.
Ces cils lors d’un mouvement vibratoire de la membrane basilaire sont soumis à cette force de
cisaillement parce que tous les éléments situées dans l’organe de Corti sont tous reliés entre
eux, donc si un truc bouge tous bouge.
Dans la figure 22, on est dans l’organe de Corti qui baigne dans l’endolymphe, autrement dit
quand la membrane basilaire va se mettre à bouger cela va faire bouger l’endolymphe dans le

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 25 sur 43


canal cochléaire et va s’écouler, ce qui va permettre également aux CC internes de s’incliner,
et ce sont ces CC internes qui sont responsable du système de transduction.
Il y a donc un mouvement de la membrane basilaire vers la membrane tectoriale où à l’opposé
de la membrane tectoriale respectant le mouvement sinusoïdale du son qui arrive dans
l’oreille interne, il va donc y avoir une activation des CC qui va aller dans un sens et dans un
autre.

On constate qu’il y a les cils courts à une extrémité et les cils longs à l’autre. Autrement dit,
dans cette touffe ciliaire, les stéréocils sont pas du tout ranger correctement, ils sont rangés
par taille croissant. En plus d’être relié par taille croissante, chaque cil est relié à son voisin
par des petits filaments. De ce fait, à cause de ces filaments, qui relie les cils des cellules
ciliées, si un seul cils bougent tous les cils vont se mettre à bouger à l’unisson, ils vont tous
fléchir en même temps. Ils vont soit se fléchir dans un certain sens ce qui va permettre
l’entrée d’ions potassium dans la cellule, soit s’incline dans l’autre sens ce qui provoque la
fermeture des canaux potassiques.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 26 sur 43


On retrouve ici la taille croissante des stéréocils, et on retrouve les filaments qui relient les
cils entre eux. Chaque filaments relient les canaux potassiques de chaque CC.
La première image, de la figure 23, représente une CC au repos, on observe donc que les
canaux potassique sont légèrement ouvert, autrement dit il y a un petit peu de potassium qui
rentre en permanence dans la CC. Il y a donc dans les CC une activité de repos.
Soit les stéréocils s’inclinent tous vers le stéréocils le plus long, soit c’est l’inverse.
La deuxième image, de la figure 23, représente les stéréocils qui s’inclinent verse le cils le
plus long, cela accroit la tension sur le filament et cela permet un plus grande ouverture des
canaux potassiques. Un fléchissement des cils vers le stéréocils le plus long augmente le
courant potassique entrant.
La troisième image, de la figure 23, représente l’inverse de la 2ème, si cette fois si les stéréocils
s’inclinent à l’opposé du stéréocils le plus long, cela réduit le tension sur le filament et
provoque la fermeture des canaux potassique, il n’y a plus du tout de potassium qui entre dans
la CC.
On retrouve sur cette figure 24, nos stéréocils de la cellule ciliés avec le filament qui relie
chaque cils à son voisin, à gauche il s’agit d’une inclinaison des stéréocils vers le cils le plus
long donc la tension des filaments est accroit, ce qui permet l’ouverture large des canaux
potassium et permet un flux entrant massif
et très rapide de potassium dans la CC. Il
faut se souvenir que dans le canal
cochléaire il y a de l’endolymphe possède
la propriété d’être très charger en
potassium. Cette entrée massive d’ions
potassiums dans la CC va alors provoquer
une modification du potentiel de repos de
la CC, autrement dit va provoquer une
dépolarisation, ceci correspond au
potentiel de récepteur.
ATTENTION, en cas générale l’entrée de
potassium provoque une
hyperpolarisation, on est donc sur une
spécificité du système sensoriel auditif,
car dans ce système l’entrée massive
d’ions potassiums provoque une dépolarisation dans la CC.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 27 sur 43


Cette dépolarisation se propage dans la CC, ce qui permet l’ouverture de canaux calcium, ou
calciques, activés par le voltage, il y a donc une ouverture des canaux calcium, ce qui permet
au calcium d’entrée massivement dans la CC. Cette entrée massive d’ions calcium, va
permettre l’accolement des vésicules synaptiques à la partie basale de la CC, ce qui permet la
libération du NT (neurotransmetteur) par exocytose. Le NT libéré par les CC internes est du
glutamate. Les CC internes sont les seules CC à déverser un NT et qui est récupéré sur les
dendrite des neurones auditifs et qui va permettre le mécanisme de transduction lui-même. Ce
sont vraiment les CC internes qui sont responsable de notre audition.

A droite de cette figure 23, les stéréocils s’inclinent à l’opposé du stéréocils le plus long, dans
ce cas cela réduit la tension sur les filament, ce qui provoque alors la fermeture des canaux
potassiques, il n’y a donc aucun ions potassium qui peut entrer dans la CC, ce qui se traduit
par une hyperpolarisation.

Les cils des CC vont s’incliner alternativement soit vers le cils le plus long, soit en son
opposé, ce qui renvoi au signal sinusoïdal, ce sont les CC qui vont codés se mouvement
d’alternance. Les CC externes codent en particulier ce qui relève du codage temporelle car on
reçoit dans notre oreille, entre autre une fréquence qui est déterminée par sa période donc qui
possède un codage temporelle. Cette alternance va permettre de coder les aspects temporels
du son.

L’écoute des sons violent, toute la vibration sonore passe dans l’oreille interne et va déchirer
cette touffe cilienne, en déchirant les connexions entre les cils alors que tous les cils
s’inclinent à l’unisson pour que cela marche correctement. Si cette touffe est déchirée le
codage ne pourra plus être effectué.

Chez l’homme ces lésions des CC sont des lésions irréversibles contrairement à certains
poissons ou oiseaux, les CC ne peuvent pas se régénérer. Dès qu’on a été confronté à un son
violent, le risque est de déchirer la touffe et de devenir sourd. Le NT qui se déverse grâce au
CC internes est du glutamate.

3. Innervation afférente des cellules ciliées


On sait qu’à la base de toutes les CC (internes ou externes) on trouve les axones des neurones
qui vont donner naissances au nerf auditif. Ces neurones vont transmettre des PA (potentiel
d’action) pour fournir l’information auditive qu’on a besoin pour comprendre le son qu’on est
en train d’entendre.
Dans les spécificité des CC, on a vu qu’il y avait plusieurs différences entre les internes et les
externes :
 Le nombre de CC externes (15 000 à 25 000) est 5 fois supérieur à celui des CC
internes (3 500)
Autrement dit les CCE sont en nombre
supérieur, on pourrait penser que ce
sont ces CCE qui sont responsable de
la transmission de l’information
auditive. Mais il n’en est rien. Ce sont
les CCI.
Dans la partie basse de ce document,
on trouve deux types de fibres dans le
ganglion de Corti :

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 28 sur 43


 De type I : sont des fibres grosses et myélinisées, ce sont de gros neurones
 De type II : sont des petit neurones non myélinisés
On constate qu’une 10aine de fibre de type I du ganglion spirale reçoit des information d’une
et d’une seule CCI. Autrement dit, l’information qui arrive sur 1 CCI va redistribuer de
manière très précise son information à cette 10aine de fibre.
A l’opposé pour les fibres de type II, une et une seule fibre de type II va aller contacter une
10aine de CCE, généralement de la même rangé.
C’est grâce à cette innervation et au mécanisme de transduction que l’on sait maintenant que
la major partie de l’information, qui fait que l’on peut coder l’intensité…, provient des CCI.
Autrement dit, si l’on a pas de CCI on est sourd, les CCE ne joue pas de rôle dans le
mécanisme de transduction lui-même.
Les CCE permettent d’amplifier la stimulation sonore, si nous n’avons pas de CCE nous
entendons beaucoup moins bien car il n’y a plus de système d’amplificateur, qui se réalise
grâce au CCE.

4. Rôles assurés par les cellules ciliées internes et les cellules ciliées
externes
Sur les membranes des CCE, il y a des protéines motrices.

Lorsqu’un son va arriver dans la cochlée, les CCE vont donc se mettre à bouger de droite à
gauche, les protéines motrices vont soit ce contractées, soit s’allongées et ce mouvement qui
est dû au protéines motrices va permettre d’amplifier la réponse de la membrane basilaire. Ces
CC jouent un énorme rôle dans notre audition, elles ne sont peut-être pas responsable du
système de transduction mais facilite et améliore notre audition. Ceci est également dû au
différentes sensibilités des deux types de CC au son. Les CCI sont pas sensible au son, enfaite
pour que les CCI puissent correctement décharger il faut envoyer un son très très fort, c’est
pour cela que l’on dit qu’elle ne sont pas très sensible. En revanche, les CCE sont
extrêmement sensible au son, un son de faible intensité les fera de suite réagir, c’est parce que
justement elles sont très sensible qu’elles vont pourvoir facilement ce contracter grâce à ces
protéines motrices par rétroaction elles informent les CCI des caractéristiques du son entrant.
On dit que les CCE ont un rôle d’amplificateur cochléaire.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 29 sur 43


Ce que montre la partie basse de ce document 26, c’est justement que l’on peut venir bloquer
ce phénomène d’amplification cochléaire.
On peut bloquer l’action d’amplification en bloquant l’action des protéines motrices, c’est ce
qu’il se passe quand on injecte du furosémide. Il est injecter au niveau des protéines motrices,
le résultats et l’image (d) de la figure 26. On sait que les CCE jouent un rôle d’amplification
des sons.
Des chercheurs ont montré que si on donne aux animaux à répétition des antibiotiques d’une
certaine nature, cela va venir léser ces protéines motrices ce qui entraîne la surdité. On le sait
maintenant aussi pour les humains, que la prise longue durée de certain antibiotique va venir
détruire cette amplificateur cochléaire, lié à la modification de la membrane basilaire, et que
donc on devient un peu sourd, car les CCI sont toujours là donc on entend toujours les sons.

IV. LE CODAGE DE L’INFORMATION AUDITIVE


On sait que nos connaissances sur le codage de l’information auditives, nous le devons à des
données issues d’enregistrements électrophysiologique réalisés chez des animaux, et on
transfert nos connaissance dans le domaine animal à l’Humain.

Une spécificité du système auditif est que l’on observe de premiers éléments de codage dès la
CC, donc la CC elle-même est responsable de codage. Puis on va trouver des codages aux
niveau des fibres cochléaire, il sera plus élaborer que dans les CC. Par la suite, au fur et à
mesure que l’on monte dans les différents étage des voies auditives ascendantes, on a vu
qu’on avait différents relai par lesquels transiter l’information auditive, et bien chaque relai
auditif va avoir une spécificité de codage.

A. Codage au niveau des cellules ciliées


Les CCI et les CCE ne codent pas la même chose. Le codage qui nous sert à évaluer un son
est dû aux CCI parce que se sont ces CCI qui sont responsable de la transduction du son. Pour
les CCI il y a une PR (potentiel de récepteur) qui présente pour chaque CCI une sélectivité
fréquentielle. Cela veut dire qu’on va présenter sur une CC un son d’une certaine fréquence,
et on va chercher à savoir pour quelle fréquence elle réagit de manière maximal (intensité la
plus faible). Pour la plus petite intensité que l’on puisse utilisé on constante que pour une CC
donnée le PR n’apparait que pour une et une seule fréquence particulière, c’est ce qu’on
appelle la fréquence caractéristique (Fc) de la CC. Chaque CC a une fréquence qui lui est
caractéristique.
On retrouve des CC qui réagisse au haute fréquence à la base et aux basses fréquence à
l’apex. Mais cette organisation vient de l’organisation des CC sur la membrane basilaire.
Cette notion de fréquence caractéristique est importante car comme on observe ce phénomène
dès la CC et bien on va retrouver cet aspect au niveau de la fibre.
Pour les CCE, rien de tel ne se produit, enfaite les CCE vont bouger de droite à gauche pour
suivre le rythme sinusoïdale, il n’y a pas de PR en tant que tel, les CCE sont chargées de ce
contracter pour envoyer un message aux CCI.
B. Codage au niveau des fibres
Au niveau de la fibre deux codages sont à considérer :
 Codage au niveau de la fréquence
 Codage au niveau de l’intensité

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 30 sur 43


1. Codage de la fréquence réalisé par les fibres
Il existe deux mécanisme complémentaires, on a besoin des 2 pour coder toutes les fréquences
de notre environnement :
 Repose sur le tonotopie, il est appelé le codage spatiale ou tonotopique, il renvoie à la
« théorie de la place »
 Repose sur la distribution temporelle des PA, il est appelé codage temporel, il renvoie
à la « théorie de la volée »

a) Codage spatial ou tonotopique (théorie de la place)


La tonotopie vient du grec « tonos » qui veut dire tonalité, fréquence et du grec « topos » qui
signifie lieu ou place. Littéralement on peut le traduire par « place de la fréquence ». elle
correspond à l’existence d’une organisation systématique fondée sur la fréquence
caractéristique (Fc). Cette notion de Fc existe au milieu des CCI elle-même, mais existe aussi
au niveau des fibres, le terme « systématique » signifie que l’information récupérée par la
fibre va par la suite être transmise dans tous les autres relais.

Pour montrer l’existence d’une telle tonotopie au niveau des fibres, on procède à des
enregistrement électrophysiologiques, on mesure des courbes d’accord. La courbe d’accord
est une courbe intensité en ordonnée et fréquence en abscisse. On place un électrode et on
commence à présenter un son de 32 000Hz, à une intensité de 70dB : c’est le point de départ
de l’enregistrement. On garde l’intensité et on diminue progressivement la fréquence du son.
Plus le nombre d’influx est élevé plus la fibre réagit au son.
Donc de 32 000 à 6 000Hz la zone est bleu cela signifie que la fibre répond que légèrement.
De 2 000 à 5 000 Hz la zone est rouge cela signifie que la fibre réagit fortement au son. Dès
qu’il y a une inversion de couleur, on diminue l’intensité de 10dB (ex. de 70 à 60 dB) et on
balaye mais seulement dans la zone rouge de l’intensité de dessus. Et on continue jusqu’à
tomber à presque 0 dB. A l’issue de cela, ça permet de dessiner la courbe d’accord. On dit que
cette fibre, dont on vient d’enregistrer les résultats, est accordée sur une fréquence, ça
fréquence d’accord ici est de 5 000 Hz à peu près.
Cette fréquence caractéristique, qui existe pour les CC, on le retrouve pour la fibre, la fibre est
accordée sur une fréquence qui lui est propre. Cette fréquence caractéristique de la fibre
correspond à la fréquence où la fibre répond de manière maximale, autrement dit cela
correspond à l’intensité minimum à laquelle il faut lui présenter le son pour qu’elle réponde
quand même.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 31 sur 43


On retrouve des courbes d’accord, sur la figure 27. A gauche il n’y en a qu’une et à droite il y
a une représentation faite pour 4 fibres différentes.
On retrouve le « V » dissymétrique qui correspond au Fc, la réaction maximal de la fibre
puisque l’on se trouve dans le creux de la courbe. C’est à cette fréquence que la fibre réagit de
manière maximale, mais cette fibre réagit également à d’autre fréquence pour peu que l’on
augmente l’intensité. Ce V dissymétrique, traduit l’idée, sur la plan fonctionnelle, que lorsque
qu’une fibre a une Fc particulière peut répondre assez facilement à des fréquence inférieur à la
Fc mais a plus de mal pour répondre à des fréquences supérieures.
Chaque fibre à une Fc, mais ce n’est pas parce qu’elle a une Fc qu’elle ne va répondre
qu’à cette seule fréquence là, elle peut répondre à d’autre fréquences pour peu qu’on
augmente l’intensité.

Le son parcourt la membrane basilaire de la base, zone étroite et rigide, à l’apex, zone large et
souple. La distance parcouru par l’onde de pression dépend de la fréquence du son, les son de
basses fréquences sont codés du côtés de l’apex et les autres de la bases. On retrouve cette
idée sur la figure 28.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 32 sur 43


Le long de la membrane basilaire les CC sont réparties en fonction de leur fréquence. On est
passé au niveau des fibres, les fibres ne s’emmêlent par entre elles, chacune envoie son
information à une fibre bien spécifique. Il y préservation de la Fc au niveau du nerf auditif.
Cette préservation on la retrouve également au niveau du noyau cochléaire, car on peut
s’apercevoir que ce n’est pas toujours la même zone qui est sollicitées cela dépend du son
coder initialement par la CC.
On observe donc une organisation systématique, c’est très bien rangé jusqu’au cortex auditif.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 33 sur 43


Sur la partie droite du document, on trouve au niveau de notre cortex des cartes tonotopiques
qui rangent les fréquences de 500 à 16 000 Hz, de manière ordonnée. La première carte
indiqué sur le schéma est celle de 500 Hz, aucune carte en dessous de cette fréquence est
indiquée car elle n’existe pas.
Cette organisation systématique sur les Fc a conduit les chercheurs à chercher une théorie, qui
porte le nom de : théorie de la place. Selon cette théorie, notre perception de la fréquence
dépend de l’endroit où le son provoque le déplacement maximum de la membrane basilaire,
en fonction de l’endroit de la membrane basilaire sollicité cela correspond à des CC
particulières, ces CC particulières activent à leur tour une population de neurones
particulières, qui active des régions particulières dans les différents relai auditif et qui activent
à leur tour une région particulière au niveau cortical. D’où cette notion d’organisation
systématique fondée sur la Fc que l’on retrouve depuis la membrane basilaire jusqu’au niveau
cortical.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 34 sur 43


L’existence de tel cartes tonotopiques n’est pas le propre de l’Homme, on les retrouve aussi
chez les animaux (ex. le chat, document 30) qui ont de la même manière des cartes
tonotopiques qui correspondent au fréquences qu’ils sont capable de codées. Chez le chat on
utilise la technique du 2-DG, on administre donc du 2-desoxyglucose, on expose l’animal à
une fréquence particulière, le 2-DG est capturée par les CC comme si c’était du glucose (mais
il est non métabolisé), il reste dans les cellules et donc on peut par la suite les cellules qui ont
été activé. La technique est de moins en moins utilisée car elle nécessite de tuer l’animal.
Les fibres ont une Fc mais pour peu on augmente l’intensité elles peuvent répondre à d’autre
fréquences, autrement dit le principe de la tonotopie n’est pas suffisant pour expliquer le
codage des sons, on ne trouve pas de cartes tonotopiques inférieurs à 500 Hz, c’est forcément
que l’on dispose d’un autre codage nous permettant de faire le distinction entre des fréquences
qui sont inférieurs à 500 Hz et en plus on sait que lorsqu’on active notre membrane basilaire
elle ne va pas vibrer de la même manière selon l’intensité du son.

Ici, sur la figure 31, en noir on a la réponse maximal de la membrane basilaire pour la Fc. En
violet, on voit que lorsque l’on augmente l’intensité du son, l’enveloppe de la membrane
basilaire est beaucoup plus large. Autrement dit, en augmentant l’intensité du son, il va
solliciter beaucoup plus de CC. C’est là que le codage temporel va rentrer en jeu.

b) Codage temporel (théorie de la volée)


Théorie de la volée insiste sur les relation entre la fréquence des stimuli auditifs et la
distribution temporelle des PA, autrement dit elle s’appuie sur le codage temporel.
Ce codage n’est pas étrange pour le système auditif car c’est un codage temporel est
particulier et spécifique des stimulations sonores car par nature les stimulations sonores
contiennent une information temporel : la période, qui est l’inverse de la fréquence ou encore
qui correspond à la durée du cycle de pression qui se répète. De manière générale on peut dire
que ce codage temporelle réside dans la synchronisation des PA sur les cycles de pression.
Le terme de synchronisation renvoie au fait que les PA sont émis à des moments bien
particulier, ils ne sont donc pas aléatoire.
Sur la partie haute du document, on a
l’évolution des pression de l’onde sonore au
cours du temps, et juste en dessous on a la
distribution temporel des PA. Les PA
apparaissent toujours au même moment u
cycle de pression. Ici sur le document 32 a)
les PA apparaissent toujours entre le creux et
le pics de la sinusoïde. ATTENTION, il n’y

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 35 sur 43


a pas pour autant un PA à chaque cycle de pression. Les PA sont toujours présents à des
multiples de la période du stimulus.

La partie basse du document reprend cette idée qui représente les distributions temporelles des
PA pour la fréquence 408Hz. On a en ordonner l’effectif c’est-à-dire le nombre d’intervalle
entre les PA et en abscisse la durée d’intervalle entre les PA en ms. Sa représentation est sous
la forme d’un histogramme. Pour comprendre la distorsion temporelle il faut donc calculer la
période. La période de se son est égale à 1/408 soit 2,45 ms.
Ces PA n’arrive pas n’importe comment, le 1er arrive à 2,45ms et les suivant arrive sur les
multiple (ex. 4,9 ; 7,35 ; 9,8 ; …) de cette même période.
La fréquence des charges qu’on obtient pour un son de 408Hz est caractéristique pour cette
fréquence. Cette fréquence de décharge change en fonction de la fréquence. La représentation
change en fonction de la fréquence. Les patterns des décharges neuronales dépendent de la
fréquence du son entrant.

Pour comprendre ce codage temporel, il faut savoir que la durée d’un PA est d’1 ms, pour
chaque PA émis il existe une période réfractaire d’une durée environ d’1 ms. Autrement dit
cela prend 2 ms par PA. On peut donc dire en 1s un neurone ne peut pas émettre plus de 500
PA. Si une fibre émet un PA à chaque cycle de pression (qui vaut maximum de 2 ms) la
synchronisation de cette fibre ne pourra pas dépasser la fréquence de 500Hz. Ce résonnement
tient pout toutes les fréquences comprises entre 20 et 500Hz.
Exemple :
Si F = 20 Hz N = 1/F = 1/20 = 0,05 s = 50 ms, donc > à 2 ms
Si F = 200 Hz N = 1/F = 1/200 = 0,005 s = 5 ms, donc > à 2 ms
Si F = 300 Hz N = 1/F = 1/300 = 0,0033 s = 3,3 ms, donc > à 2 ms
Si F = 400 Hz N = 1/F = 1/400 = 0,0025 s = 2,5 ms, donc > à 2 ms
Si F = 500 Hz N = 1/F = 1/500 = 0,002 s = 2 ms
Dans les cas où les fréquences sont comprises entre 20 et 500 Hz comme la période est
supérieur à 2 ms, une seule fibre peut coder en codage temporelle. Pour ces fréquences-là, il
s’agit d’un codage temporelle à chaque cycle de pression.
Prenons l’exemple d’une fréquences de 600 Hz :
Si F = 600 Hz N = 1/F = 1/600 = 0,0016 s = 1,6 ms, donc < à 2 ms -> ça ne marche
plus
On est en dessous des 2 ms, cette fibre unique ne peut pas coder seule cette fréquence de 600
Hz. Le codage temporelle existe pour les fréquences supérieurs à 500 Hz, il faut que plusieurs
fibres se relaient pour qu’il fonctionne.
Autres exemples :
Si F = 600 Hz N = 1/F = 1/600 = 0,0016 s = 1,6 ms, donc < à 2 ms -> il faut donc 2
fibres recrutées minimum pour coder cette fréquence
Si F = 1 000 Hz N = 1/F = 1/1 000 = 0,001 s = 1 ms, donc < à 2 ms -> il faut
donc 2
fibres recrutées minimum pour coder cette fréquence
Si F = 2 000 Hz N = 1/F = 2 000 = 0,0005 s = 0,5 ms, donc < à 2 ms -> il faut
donc 4
fibres recrutées minimum pour coder cette fréquence
Si F = 3 000Hz N = 1/F = 1/3 000 = 0,00033 s = 0,33 ms, donc < à 2 ms -> il
faut donc 6
fibres recrutées minimum pour coder cette fréquence
Si F = 4 000 Hz N = 1/F = 1/4 000 = 0,00025 s = à,25 ms, donc < à 2 ms -> il
faut donc 8

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 36 sur 43


fibres recrutées minimum pour coder cette fréquence
Si F = 5 000 Hz N = 1/F = 1/5 000 = 0,0002 s = 0,2 ms, donc < à 2 ms -> il faut
donc 10
fibres recrutées minimum pour coder cette fréquence
Les fibres recrutées correspondent au fibres de type I, responsable du mécanisme de
transduction, c’est le nombre minimum de fibre de type I qui contacte habituellement une
même CCI. Grâce au recrutement plus en plus important du nombre de fibres, il va pouvoir y
avoir une synchronisation collectives des réponses des différentes fibres. Avec 10 fibres, on
peut aller à une synchronisation collective permettant le codage de la fréquence 5 000 Hz.
Chaque fibre va répondre sur un cycle de pression bien particulier, par exemple, la fibre
numéro 1 va répondre au premier cycle de pression, la 2ème au 2ème cycle, etc. jusqu’à que la
fibre 1 puisse à nouveau répondre car il se sera écouler 2 ms.
Pour les fréquences comprises entre 500 et 5 000 Hz, une fibre donnée doit nécessairement
sauté des cycles de pression, cela implique que le codage pour ces fréquences-là nécessite la
participation d’un ensemble de fibre. C’est parce qu’il y a participation d’un ensemble de
fibres que l’on parle de « volée », plusieurs fibres simultanément répondent pour le codage
des fréquences comprises entre 500 et 5 000 Hz.

On retrouve ces caractéristiques de corrélation de phase sur la figure 33.

Pour les fréquences inférieures à 500 Hz, (a), soit entre 20 et 500 Hz, les neurones génèrent
des PA à chaque cycle de pression et toujours au même moment de ce cycle de pression.
Pour les fréquences sonores comprises entre 500 et 5 000 Hz, (b), les PA ne peuvent pas
être émis à chaque cycle de pression. Mais plusieurs fibres vont contribuer au codage.
L’activité d’une population de neurones qui est mise en jeu, cela correspond au codage de la
volée.
Pour les fréquences sonores supérieures à 5 000 Hz, (c), on constate que les PA sont
générés au hasard, elle peut être générer au pique, au creux ou entre les deux. Il n’y a pas de
synchronisation sur les cycles de pression lorsque les fréquences sont supérieures à 5 000 Hz.

Pour résumé sur le codage tonotopique et temporel :


 Pour les fréquences inférieures à 500 Hz, il n’existe pas de carte tonotopique,
autrement dit il n’y a pas de codage tonotopique. Mais grâce à l’émission des PA à
tous les cycles de pression le codage temporel est possible. C’est uniquement un
codage temporel pour les fréquences inférieures à 500 Hz.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 37 sur 43


 Pour les fréquences comprises entre 500 et 5 00 Hz, il existe des cartes tonotopiques
donc le codage tonotopique est possible. De plus, grâce aux réponses de plusieurs
fibres simultanément le codage temporel est également possible. Pour les fréquences
entre 500 et 5 000 Hz, les deux codages existent.
 Pour les fréquences supérieures à 5 000 Hz, il n’y a pas de synchronisation des PA sur
les cycles de pression, le codage temporel n’est donc pas possible. En revanche, on
dispose de cartes tonotopiques. C’est uniquement le codage tonotopique qui existe
pour les fréquences supérieures à 5 000 Hz.

On a donc besoin des deux codages simultanément pour coder efficacement les fréquences
sonores. On parle alors de la théorie duplexe de la perception de la fréquence, puisqu’il nous
faut c’est deux modèle là pour coder.

2. Codage de l’intensité réalisé par les fibres


2 mécanisme distincts mais complémentaires pour coder l’intensité d’un son :
 Fréquence de décharge des neurones
 Nombre de neurones activés en fonction de l’intensité de la stimulation sonore

a) Fréquence de décharge des neurones


FIGURE 31
La figure 31 indique que lorsque l’intensité d’un son
augmente, les vibration s’étendent sur une plus grandes surface
de la membrane basilaire ce qui provoque l’activation d’un
plus grand nombre de CC. La membrane basilaire vibre avec
une amplitude plus grande ce qui va provoquer une
dépolarisation plus forte du potentiel de membrane des CC qui
seront activées. Cela implique qu’il va y avoir des décharge
plus forte dans les fibres
nerveuses.

Sur la figure 34, on a en abscisse l’intensité de la stimulation et


en ordonné la fréquence de décharge du neurone. On voit que
la relation est simple, plus l’intensité sonore augmente et plus
la fréquence de décharge des neurones est importante. Ceci est
vrai quel que soit le niveau où ces neurones soit situer, au
niveau des fibres, du nerfs auditif, au niveau du relai bulbaire
ou thalamique, au niveau du cortex cérébrale, cette relation
simple existe.

A côté de ce mécanisme de fréquence de décharge des


neurones, il en existe un deuxième qui est le nombre de neurones activés.

b) Nombre de neurones activés


Chaque fibre dispose d’une gamme dynamique de réponse d’intensité, chaque fibre réponse à
une gamme dynamique qui ne peut pas excédé 30 dB. Autrement dit, on a des fibres dont leur
seuil est à 0 dB et puisqu’elles sont toutes cette gamme dynamique, cela veut dire qu’elle va
saturer à 30 dB. Une autre catégorie de fibres à un seuil à 10 dB est sature donc à 40 dB, etc.
on a des catégorie de fibres dans notre système auditif qui répondent à certain seuil et dont la

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 38 sur 43


saturation est 30 dB au-dessus de ce seuil. Tant que les 30 dB ne sont pas dépassés, on peut
imaginer qu’une seule fibre puisse coder l’intensité.
En revanche, dès lors que l’intensité dépasse 30 dB, la fibre sature, c’est-à-dire elle va émettre
à son taux maximum soit 500 PA/s. Or l’oreille humaine perçoit une gamme dynamique
d’intensité de 0 à 120 dB, soit bien au-delà des 30 dB. Pour pouvoir coder un son dont
l’intensité dépasse 30 dB cela va nécessiter le recrutement simultané de plusieurs fibres. A
l’identique du codage temporel vu tout à l’heure, c’est la participation d’un ensemble de fibre
qui va pouvoir coder l’intensité. cette ensemble de fibre n’est pas de même seuil, il faut que
les seuils de réponses des fibres d’un même groupe soit différentes.
Exemple d’un son de 60 dB, on est au de la de la gamme dynamique de 30 dB, plusieurs fibre
vont devoir participer au codage de l’intensité. Par exemple, une première fibre dont le seuil
est à 0 dB et qui sature à 30 dB, une deuxième dont le seuil est à 20 dB et qui sature à 50 dB
et une dernière à un seuil à 40 dB et saturant à 70 dB. Dans le codage de se son de 60 dB les
deux première fibres vont saturées, et la 3ème va avoir un taux de PA moyen.
Lorsque l’intensité d’un son augmente il y a alors de plus en plus de neurones sollicités
qui rentre en action selon leur seuil et leur saturation.

En plus de cette fréquence et de cette intensité qui sont les bases même de la compréhension
sonore du monde dans lequel nous évoluons, il faut également qu’on soit en mesure de
localiser une source sonore.

Dans le plan verticale c’est l’attitude, l’estimation d’une altitude dépend beaucoup de la
composition spectrale de la vibration. Les sons vont être présentés face ou dos à l’auditeur de
manière verticale, mais on déplace pas la source sonore. Les études sont effectuées dans un
plan sagittal médian car pas de différence iteraurales
Sons complxes avec spextre rich en fréquences élevées sont les mieux localisés (précision
d’envirion 10°)
3. Localisation d’un son dans l’espace
La localisation d’un son dans l’espace est réaliser par les noyaux auditifs. On localisa un son
dans l’espace selon deux plans :
 Plan horizontal qui porte le nom d’azimut autrement dit que gauche à droite
 Plan vertical, on parle d’altitude, autrement dit au haut en bas
Par analogie avec le domaine de la vision, il faut savoir que l’on peut avoir une perception de
la profondeur avec un seul œil mais dès que l’on utilise les deux la perception de la
profondeur est de meilleur qualité. Pour la localisation d’un son dans l’espace marche de la
même manière, on peut localiser un son dans l’espace avec une seule oreille mais dès lors que
l’on utilise les deux cette localisation devient optimal. Les localisation sonores sont mieux
localisées en écoute binaurale (avec nos deux oreilles) qu’en écoute monaurale (avec une
seule oreille).

a) Localisation d’un son dans le plan horizontal


Plusieurs indices sont utilisés pour localiser des sons dans le plan horizontal, en particulier
deux indices sont essentiels :
 La différence de temps interaurale, ou délai interaural
 La différence d’intensité interaurale
La localisation nécessite également le pavillon de l’oreille et la différence de phase (3ème
paramètre de la sinusoïde)

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 39 sur 43


i. Différence de temps interaurale
Le principe est simple, on est sur l’azimut (de gauche à droite), dans un plan horizontale.

Le son arrive au niveau des oreille de l’individu.


Si on présente un son face à l’auditeur, la distance parcourue pour atteindre chacune des
deux oreilles est la même. Autrement dit, la différence de temps, soit le délai interaurale est
nul.
Si on déplace la source sonore d’un côté de l’auditeur, le temps de propagation du son
pour atteindre l’oreille la plus éloignée est plus important que pour atteindre l’oreille la plus
proche. Il existe donc un décalage temporelle qui porte le nom de différence de temps
interaurale.
Sur la partie inférieur de la figure 35, on a des mesure qui ont été rapportées, on peut savoir le
délai interaurale entre l’oreille gauche et droite selon la position du son.

La localisation de son est traiter par les noyaux auditifs, dans le cas du délai interaural les
neurones impliqués sont ceux de l’olive supérieur médiane (OSM). Le délai interaurale joue
seulement pour les fréquences comprises entre 20 et 2 000 Hz.
On dispose donc d’un deuxième indice pour coder les son supérieur à 2 000 Hz : la différence
d’intensité interaurale.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 40 sur 43


ii. Différence d’intensité interaurale

Pour les fréquences supérieures à 2 000 Hz, la tête est un obstacle acoustique car on est en
présence de longueur d’onde trop courte pour contourner la tête. Autrement dit, pour des sons
dont la fréquence est supérieures à 2 000 Hz, l’oreille qui se trouve de l’autre côté de l’arrivée
du son se trouve dans une ombre acoustique, c’est le phénomène d’ombre portée. Les
ondes sont trop courtes, elles ne peuvent contournées la tête, on est en présence d’ombre
acoustique. Comme la tête constitue un obstacle pour ces fréquences-là, il va y avoir un
affaiblissement de l’intensité à l’oreille la plus éloignée de la source sonore. De la même
manière que tout à l’heure, si le son arrive directement de son ou de dos ce phénomène
n’existe pas, mais si le son vient d’un côté, l’oreille qui est situé dans l’ombre acoustique va
coder cette différence d’intensité, ce qui nous permet de dire d’où vient le son.
Les neurones impliqués dans ce codage sont les neurones de l’olive supérieur latérale.

Pour localiser une onde sonore dans le plan horizontal on possède 2 processus simultanés :
 Pour les fréquences comprises entre 20 et 2 000 Hz c’est la différence de temps
interaurale
 Pour les fréquences comprises entre 2 000 et 20 000 Hz c’est la différence de
l’intensité interaurale
On a besoin de ces deux codages pour localiser correctement un son dans le plan horizontal.
Le fait que l’on est besoin de ces deux codage a donné lieu à la théorie double de la
localisation des sons.

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 41 sur 43


b) Localisation d’un son dans le plan vertical
Dans le plan vertical, l’estimation de l’attitude d’une source dépend beaucoup de la
composition spectrale, du spectre de la vibration. Les études sont réduites à leur plus simples
expression car les sons vont être présentés face ou dos à l’auditeur de manière verticale, vers
le bas, vers le haut mais on ne déplace pas la source sonore sur les côtés. Les études sont donc
effectuées dans un plan sagittal médian, pour qu’il n’y est pas de différences interaurales.

Le principe expérimentale est on bande les yeux de l’auditeur, on le pace dans une chambre
sourdes, sans sons parasites. On présente donc les sons, face ou dos de l’auditeur, a différentes
altitudes et on demande à l’individu de pointer d’où vient la source sonore. On fait les mesure
en degré d’angle. Les sons complexes riches en fréquences élevées sont les mieux localisées
avec une précision d’environ 10°, c’est-à-dire qu’on ne se trompe pas beaucoup quand on
indique la source sonore. On ignore les raisons une telle précision de la localisation qui ne se
révèle pas pour les fréquences graves.

Les sons purs ont présente le son directement face à lui et on lui demande d’indiqué d’où
vient le son, ils sont localisés en fonction de leur hauteur tonale :
 Pour les sont graves ils vont être localisés en bas de l’espace
 Pour les sons aigue ils vont être localisés en haut de l’espace

Le pavillon de l’oreille joue un rôle essentiel dans la localisation dans l’espace sonore,
particulièrement dans le plan vertical, et en particulier on peut refaire les même étude en
faisant le moulage de l’oreille des individu et en modifiant ce moulage au niveau du pavillon
et on compare ces résultats au résultats précédant. On montre quand modifiant le pavillon de
l’oreille on diminue l’acquitté de la personne à localisé un son dans l’espace.

C. Traitements dans les centres nerveux


L’olive supérieure pour la partie médiane (OSM) code des différences de temps
interaurales, pour les fréquences inférieures à 2 000 Hz, et la partie latérale (OSL) code des
différences d’intensité interaurale, pour les fréquences supérieures à 2 000 Hz.

Les noyaux qui vient ensuite est : les lemnisque latéraux (LL), on a des neurones qui
signalent le début du son, peu importe la fréquence et l’intensité, qui sont spécialisé pour
signalés le début d’un son et d’autre neurones qui traitent l’aspect temporel du son, comme la
durée.

Après les LL, vient les colliculi inférieurs (CI), on en est toujours à des hypothèses, qui se
confirmes de plus en plus, dans ces colliculi inférieures nous avons des neurones sensible à
l’altitude et à l’azimut, autrement dit ils participerait à la représentation de l’espace auditif.
Ces CI disposent de neurones qui traitent des sons dont les configurations temporelles sont
relativement complexes mais aussi des neurones qui répondent à des modulations de
fréquence. Et enfin, on des neurones qui répondent à des sons de durée spécifiques, neurones
toniques VS phasiques. Ils répondent également au sens du déplacement de la source sonore,
impliquées dans les mouvement d’orientation de la tête vers la source sonore.

Au niveau du corps genouillé médian du thalamus (CGM), on va encore trouvé des


traitements plus sophistiqués. On a des neurones sélectifs pour :
 Des combinaisons de fréquence

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 42 sur 43


 D’autres qui codent les intervalles de temps spécifique entre deux fréquences
Ces neurones-là intègrent les aspects fréquentiel et temporel du son, qui ont été prétraités dans
les noyaux précédant.

Au niveau du cortex auditif, on observe des aires spécialisées pour traiter :


 Des combinaison de fréquence
 Des modulations d’amplitude (intensité)
 Des modulations de fréquences
Les intégrations sensorielles sont essentiels pour comprendre l’univers dans lequel nous
vivons.

V. QUESTIONS AUTO-FORMATIVES SUR LE


SYSTEME AUDITIF

L3 – S6 Neurobiologie – Introduction et Chapitre 1 Page 43 sur 43

Vous aimerez peut-être aussi