Académique Documents
Professionnel Documents
Culture Documents
Il y a 6 systèmes que l’on va devoir connaitre. Chaque système sensoriel a une fonction
spécifique. Le système somesthésique sa fonction est le toucher mais aussi le système
thermique et nociceptif.
Tous ses systèmes sensoriels sont très différents les uns des autres mais il y a des règles de
bases communes qui régissent la façon dont le cerveau gère ces différents systèmes sensoriels.
Nos différents systèmes sensoriels nous permettent d’avoir différentes sensibilités. Et nous
percevons ces différentes sensibilités grâce à des cellules nerveuses hautement spécialisé, que
l’on appelle des récepteurs, ces récepteurs sont spécifiques de chaque système sensoriels.
Les récepteurs ont 2 fonctions :
Capter l’information relative à la sensibilité, le récepteur capte l’énergie qui provient
de la stimulation
Convertir l’énergie en signaux nerveux
Mais les énergies diffèrent suivant les différentes sensibilités
Aux différentes sensibilités sont associées différentes énergies qui sont capturer par les
récepteurs (cellules nerveuses hautement spécialisés), qui vont transcrire l’énergie en signaux
nerveux.
Lorsque que l’on s’intéresse à l’humain pathologique il faut réussir à évaluer dans un domaine
données les différentes pathologies. Par exemple, les déficit sensoriels et émotionnels.
Cela va nous donner des indication sur la nature du dysfonctionnement du système sensoriel
en cause mais aussi sur la localisation des structure impliquer dans ce traitement déficitaire.
Le système auditif est le premier système de relation avec les monde, on entend avant de voir.
Il est mature dès 5 mois de gestation (contrairement au visuel qui est immature à la
naissance). Ce qui explique qu’un fœtus entend ce qu’entend sa mère mais de manière
différente à cause du placenta. Extrêmement important chez l’Humain car il a un rôle essentiel
dans la parole et la musique.
Sous certaines conditions ces vibrations peuvent produire des sons, il y a émissions
sonore lorsque la vibration produit par l’objet est un son audible pour l’oreille
humaine.
Pour les psychologue, un son est une vibration dans le spectres audibles des
acoustiques. De fait, il y a plein de vibration que l’oreille ne peut détecter.
Pour qu’un objet puisse entrée en vibrations il doit posséder deux propriété :
Inertie : force minimal qu’il faut exercer sur l’objet pour qu’il commence à bouger,
autrement dit vibrer.
Élasticité : la capacité de l’objet à revenir à l’état initiale après déformation
Quasiment tous les objets de notre environnement possèdent c’est deux propriétés, peuvent
bouger et donc produire des sons, mais en tant que humain nous ne pouvons pas entendre tous
les sons produits, enfaite il faut que certaines conditions soit respecter pour que l’oreille
humaine puisse entendre ces sons.
Dans l’air à 0° la célérité est d’environ 332m/sec. Dans l’eau, le son à une célérité de 1 420
m/sec. Le son se déplace le plus rapidement dans l’acier, avec une vitesse de 5 600 m/sec.
Dans l’oreille humaine nous avons des liquides que nous pouvons considéré comme étant
quasiment
RAPPEL : vitesse de la lumière = 300 000 Km/sec. La lumière se déplace donc beaucoup plus
vite que le son, c’est pourquoi on voit l’éclaire et on entend le tonnerre après lors d’un orage.
Analogie pour savoir comment se propage le son. Cette analogie est ce qu’on appelle les
boules du berceau de Newton.
Boule numéro 1 est étiré vers la gauche, puis lâcher et va frapper la boule numéro 2 c’est le
phénomène de compression. Puis la 2 va taper la 3, il y aura une raréfaction ou phase de
détente entre la boule 1 et 2.
C’est cette alternance des phases de compression et de raréfaction au niveau des molécules
qui permet au son de se propager dans l’espace.
On a une source sonore qui va diffuser le son. On retrouve les phases de compression et de
raréfaction (ou de détente, de relâchement) des molécules (ici d’air). Dans les zones de
compression des molécules, c’est dernières sont très denses donc une densité élevé qui
correspond à une forte pression, proches les unes des autres.
En revanche, dans les zones de raréfaction, les molécules sont plus espacées, il y a donc une
densité qui diminue, on observe donc une pression qui elle aussi diminue.
Dans la propagation d’un son il y a donc alternance de compression et de raréfaction.
Autrement dit, il y a alternance des zones de pression élevé et de pression faible. Mais que
veulent dire ses terme ? lorsque que la pression de l’air est élevé l’amplitude est forte, en
revanche quand la pression de l’air est faible, l’amplitude du son est plus faible qu’avant.
On peut mesurer cette différence de pression entre le pic et le creux, ça correspond à
l’amplitude des variations de pressions, c’est-à-dire correspond au volume d’un son.
DONC : la propagation d’un son correspond à l’alternance des deux phases en un point donné
de l’espace. Cette propagation se fait temporellement (retrouve cela sur la partie basse du
document). Au fur à mesure de la propagation du son va finir par atteindre la membrane du
tympan de l’auditeur, cette membrane va se mettre à vibrer et c’est la vibration de la
membrane du tympan qui est en partie à l’origine de notre audition.
1. Fréquence
La fréquence est le nombre de compression et de raréfaction des molécules d’aire qui atteint
l’oreille en 1sec, c’est-à-dire le nombre de cycles par seconde. Elle est notée F.
La fréquence est l’inverse de la période, sa formule est :
1
F= ,où N est la période.
N
La fréquence d’un son, nous renseigne sur sa hauteur, ce qui correspond aux termes « grave »
et « aigu » dans le langage courant. Le corrélat perceptif est la hauteur d’un son.
SI la fréquence d’un son est élevé, c’est-à-dire aigue, cela signifie que l’objet oscille
beaucoup (sommets ou creux rapprochés). C’est pour cela que le corrélat perceptif perçoit un
son aigu.
SI la fréquence d’un son est faible, c’est-à-dire grave, cela signifie que l’objet oscille
lentement (sommets ou creux éloignés). C’est pour cela que le corrélat perceptif perçoit un
son grave.
Les fréquences audibles chez l’humain sont celles comprises entre 20 et 20 000 Hz. Les
fréquences inférieurs sont appelées des infra-sons et celles supérieur sont des ultra-sons.
On décompose les fréquences audibles en 3 grandes catégories :
Graves, fréquences entre 20 et 400 Hz
Moyennes , fréquences entre 400 et 1 600 Hz
Aiguës , fréquences entre 1 600 et 20 000 Hz
Notre système auditif est très peu sensible aux hautes fréquences et y devient de moins en
moins sensible très rapidement.
2. Amplitudes
L’amplitude est la différence de pression mesurée entre le maximum de compression et celui
de la raréfaction des molécules d’air.
Elle exprime l’intensité (I) d’un son et nous renseigne sur sa pression sonore (ou force
sonore), ce qui correspond au terme « volume » dans le langage courant, qui peut être fort
et/ou faible.
L’unité physique de l’intensité sonore est le décibel (dB) (de Alexander Graham Bell, 1847-
1922, inventeur du téléphone en 1876 mais aussi l’inventeur de la première oreille artificielle
capable d’enregistrer des sons en 1874).
Les intensités audibles chez l’humain sont les intensités comprises entre 0 dB (10-12W/m2 ou
2x10-5 Pa) (seuil d’audition) et 120 dB (1 W/m2 ou 20 Pa) (seuil de douleur).
3. Phase de départ
La phase de départ correspond à la position de l’objet au moment où il commence à vibrer.
Elle se mesure en degrés d’angle (i.e. de 0° à 360°). Un cycle complet de vibration comprend
360°.
Elle a son importance quand on doit détecter un ou des sons dans l’espace car les sons ne vont
pas arrivée de manière simultanée à vos oreilles (entre la gauche et la droite) et cette
différence va permettre de localiser la source sonore.
2. Sons complexes
Les sons complexes, contrairement au purs, sont plus courant dans la nature. La figure 6 nous
présente à gauche un son pur et un son complexe à droite.
La parole, la musique, et toutes les stimulations produites dans la nature par des machines
sont des sont complexes, leur forme d’onde est donc plus complexe, mais il y a quelque chose
qui se répète quand même, on peut voir une périodicité.
Grâce à cette périodicité on va pouvoir décomposé ses sons complexes en ces différentes
sinusoïdes, car on sait que la plus part des sons naturelles sont des sons complexes sont
composé de sinusoïdes.
Phase de départ.
A. Oreille externe
L’oreille externe comporte :
Le pavillon situé à l’extérieur, suivie de
Le conduit auditif externe
Le pavillon de l’oreille externe est unique d’un individu à un autre, l’organisation des
circonvolution est unique, c’est pourquoi on parle d’empreinte de l’oreille. Sa conformation
est fait de telle sorte que les différentes sources sonores sont capturées pour être rassemblées à
l’entrée du conduit auditif externe.
Donc le pavillon conduit les ondes sonores vers le conduit auditif externe.
Les ondes sonores vont s’acheminer dans le conduit jusqu’à la membrane du tympan (zone
blanche du schéma). L’oreille externe est fermée vers l’intérieur par la membrane du tympan.
La conformation de notre oreille externe est telle qu’il va y avoir une amplification des
pression sonore, elle se fait pour les fréquences comprises en 1 000 et 4 000 Hz. Dès lors
qu’on change la conformation du pavillon externe on détruit cette amplification sélective pour
les fréquences comprises en 1 000 et 4 000 Hz. Cela explique que l’humain est susceptible de
lésions acoustiques pour ces fréquences-là et ça explique aussi pourquoi l’humain est
extrêmement sensible à ces fréquences-là.
Pourquoi ces fréquences ? on sait que ce sont les sons les plus utiliser dans la parole et la
musique.
L’oreille moyenne est une cavité qui contient de l’air et qui communique avec l’arrière-gorge
(plus exactement le pharynx), par ce qui est légendé en 6 sur la figure, et qui s’appelle le
trompe d’Eustache.
L’oreille moyenne est unie à la gorge.
Dans cette oreille moyenne on trouve donc :
La membrane du tympan (4)
La chaine des 3 osselets
- Le marteau (1), est solidaire de la membrane et est directement articulé à
l’enclume
- L’enclume (2), est directement articulé à l’étrier
- L’étrier (3), qui cache derrière lui la membrane de la fenêtre ovale
La fenêtre ronde (5)
Autrement dit, si la membrane du tympan se met à vibrer, comme le marteau est accroché à se
tympan, le marteau vibre qui lui-même fait vibrer l’enclume qui fait vibrer l’étrier. L’étrier
vient appuyer sur la membrane de la fenêtre ovale, il est donc envoyer de la pression dans
l’oreille interne, située juste derrière. Pour s’évacuer il y a la membrane de la fenêtre ronde.
Pour que notre audition soir parfaite, il faut que les osselets vibrent de manière maximale. La
vibration de ses 3 osselets est optimal lorsque la pression dans l’oreille moyenne est identique
à celle de l’atmosphère.
Comment cette égalité est possible ? possible grâce à cette trompe d’Eustache. Ce ne sont pas
les oreille mais la trompe d’Eustache qui se bouche quand on prend l’avion par exemple car il
y a rupture de l’égalité des pressions entre l’oreille moyenne et l’extérieur, qu’il faut rétablir à
l’aide d’une stratégie comme déglutir.
Par ailleurs si on regarde un peu plus précisément ce qu’il y a dans cette oreille moyenne, les
3 osselets sont maintenus en place par des ligaments et des muscles. Enfaite il y a deux
ligaments, celui du marteau (2) et celui de l’enclume (4). Auquel s’ajoute deux muscles, le
muscle du marteau (9) et le muscle stapédien (5). Le muscle du marteau a un rôle faible chez
l’humain, en revanche le muscle stapédien lui est important chez l’humain. L’étrier en latin ce
dit stapes d’où le terme de muscle stapédien.
Pourquoi le muscle stapédien est important chez l’Humain ? ce muscle sous l’effet de son
intense il a, comme tous les muscles, la propriété de présenter une contraction réflexe et cette
contraction prend différent nom :
Réflexe stapédien
Réflexe d’atténuation
Réflexe ossiculaire
Que se passe-t-il quand ce muscle se contracte ? il rigidifier la chaine des 3 osselets, donc
vibrent moins facilement et permet d’atténuer l’amplitude des vibrations qui arrivent au
niveau de l’étrier. Une diminution de l’amplitude des vibration au niveau de l’étrier fait qu’il
a moins de puissance sonore qui va pénétrer dans l’oreille interne.
Ce réflexe n’est pas une protection à toute épreuve pour notre oreille humaine pour 3 raisons :
Ce réflexe est bilatéral, c’est-à-dire que lorsque nous envoyons un son sur une seule oreille, le
réflexe ce met en place sur les deux oreilles, ça nous protège complètement.
Sur la partie haute de la Figure 13, on peut constater c’est la cas de quand on est auditeur, un
son arrive de notre environnement, si il a les caractéristiques décrites avant le réflexe va se
mettre en place, au bout d’un certain temps.
Sur la partie basse, c’est ce qu’il se passe lorsqu’on est l’occulteur, il faut qu’on protège nos
oreille en permanence, le muscle de l’étrier se contracte avant que la personne se mette à
parler lorsqu’elle est l’occulteur.
Ce muscle stapédien est donc essentiel au bon fonctionnement de notre oreille, pour atténuer
les vibrations qui seront transmises par la suite dans le l’oreille interne.
EN RESUME :
Le son de l’environnement est capté par le pavillon conduit par le conduit auditif jusqu’à la
membrane du tympan qui se met à vibrer, qui fait vibrer les 3 osselets, où l’étrier appuis sur
On distingue, pour les 2 labyrinthe, 3 canaux semi-circulaires (CSC). Les CSC du labyrinthe
osseux sont appelés CSC osseux et idem pour le membraneux. D’après la légende, c’est 3
canaux sont :
1 : canal antérieur ou supérieur
8 : canal postérieur ou inférieur
7 : canal latéral ou horizontal
A ces 3 CSC, on trouve :
14 : l’utricule
4 : le saccule
L’utricule et le saccule sont contenue dans le vestibule (partie entourée en bleu).
La dernière particularité que l’on peut trouver est le 5 est le canal cochléaire (entouré en rose),
il est intégré dans la cochlée.
La pression entre par le numéro 10, soit la fenêtre ovale, et monte dans les différents étages de
la cochlée et devra s’évacuer par le numéro 11, soit la fenêtre ronde.
C’est parce qu’il y a des liquides dans la cochlée qui vont être soumis à des pression sonores
qu’il faut qu’il y est un équilibre sonore entre les différents compartiments de cette cochlée.
Il est essentiel car il contient les éléments responsable de notre audition. Dans cet organe de
Corti on retrouve :
4 : membrane basilaire qui isole le canal cochléaire de la rampe tympanique.
Entourer de bleu claire : pilier de Corti : deux grande cellule qui aide le maintien de la
forme de l’organe de Corti en s’appuyant sur la membrane basilaire.
1 et 2 : cellules ciliées, se sont les cellules auditives proprement dit, ce sont donc les
récepteurs auditifs. Elles portent se nom car à l’extrémité de ces cellules il y a des
stéréocils (entourer en jaune), ce sont eux qui sont essentiel pour notre audition. Elles
converties l’énergie mécanique en électrique, en modifiant la polarisation de la
membrane.
6 : membrane pectoriale, le toit de l’organe de Corti
Les informations du nerfs auditif sont d’abord acheminés jusqu’au noyau cochléaire.
Il y a plusieurs partie dans le noyau cochléaire : dorsal et ventral. Les informations
aboutissent aux deux parties.
Les informations qui aboutissent au niveau du noyaux cochléaire ventral sont acheminées à
l’olive supérieur, sous divisées en olive supérieur latérale et médiane. La projection dans
l’olive supérieur ce fait de manière ipsilatérale (du même côté) et de manière controlatéral
(opposé à la stimulation) par rapport à la ligne de décussation, autrement dit la projection se
fait des deux côtés du tronc cérébrale. La projection suivante se fait au niveau du noyau du
lemnisque latéral (noyau droit et gauche sont sollicités).
Les informations qui aboutissent au niveau du noyaux cochléaire dorsal sont projetées de
manière controlatéral sur la noyau du lemnisque latéral. Autrement dit la différence entre la
partie dorsale et ventrale du noyaux cochléaire est que la partie dorsale évite l’olive supérieur,
il n’y a pas de passage par l’olive supérieur quand les informations proviennent du noyaux
cochléaire dorsal.
A partir de la figure 19on peut dire que les voies auditives ascendantes :
Sont complexes et redondantes, avec des projections bilatérales, les informations
auditives provenant de l’organe de Corti projette sur les deux hémisphères cérébraux.
Ceci explique que seul les atteintes bilatérales entraine des sourdités importantes.
Comporte de nombreux relai :
- Relai bulbaires (noyaux cochléaire et le complexe de l’olive supérieur)
- Relai mésencéphalique (noyau du lemnisque latéral et des colliculis
inférieurs)
- Relai diencéphalique (corps genouillé médian du thalamus)
Projettent dans le lobe temporal :
- Aire auditive primaire (i.e. noté l’aire A1) puis
- Aire auditives secondaires (i.e. noté l’aires AAF = Anterior Auditory Field)
Le point terminal des informations auditives se fait aux aires auditive enfoui dans le scissure
de Sillus. Il a donc fallu inventer des techniques pour explorer le fonctionnement de ces aires
auditives, on utilise les potentiels évoqués auditifs (voir TD).
Il existe également des voies auditive efférente (descendante) qui parte du cortex, mais ne
sont pas présenter dans le cours.
L’entrée du son par la fenêtre ovale fait vibrer le liquide mais surtout les cils des CC, c’est
grâce à cette vibration qu’il va y avoir un mécanisme mécano-électrique au niveau des CC.
La distance parcourue par l’onde de pression le long de la membrane basilaire n’est pas la
même le long de la membrane. La base vibre pour les hauts fréquences tandis que l’apex vibre
pour les basses fréquences.
Base
C’est ce qu’on appelle la carte de la distribution des maxima sur la membrane basilaire.
C’est grâce à cette propriété que l’on est capable de coder les différentes fréquences (grave
VS aigu) dans notre environnement.
Au repos c’est-à-dire sans activité, sans son, sans vibration sonore qui l’active.
Il y a plusieurs rampes : vestibulaire en 2 et tympanique en 3, plusieurs canaux : cochléaire en
1 qui sépare les deux rampes. Les rampes contiennent le périlymphe et le canal cochléaire
contient de l’endolymphe. Ces deux liquides n’ont pas les mêmes concentration ionique. La
périlymphe (composition ressemblant au liquide extracellulaire, ex. céphalo-rachidien) est
2. Cochlée stimulée
Les cils des cellules ciliés externes sont enchâssés dans la membrane tectoriale. Ce n’est pas
le cas pour les cils des cellules ciliés internes.
Lorsqu’une vibration sonore arrive dans l’oreille interne, elle va se propager le long de la
membrane basilaire et elle va déformer cette membrane, ce qui entraine soit le soulèvement
vers la membrane tectoriale (partie basse du document), soit l’éloigner de la membrane
tectoriale. Lorsque cette membrane basilaire se met à bouger, ceci va provoquer une force de
cisaillement au niveau des cils des cellules ciliées.
Dans la partie haute du document, on peut remarquer que les cils s’inclinent vers la droite,
tant dis qu’en bas, ils s’inclinent vers la gauche.
Ces cils lors d’un mouvement vibratoire de la membrane basilaire sont soumis à cette force de
cisaillement parce que tous les éléments situées dans l’organe de Corti sont tous reliés entre
eux, donc si un truc bouge tous bouge.
Dans la figure 22, on est dans l’organe de Corti qui baigne dans l’endolymphe, autrement dit
quand la membrane basilaire va se mettre à bouger cela va faire bouger l’endolymphe dans le
On constate qu’il y a les cils courts à une extrémité et les cils longs à l’autre. Autrement dit,
dans cette touffe ciliaire, les stéréocils sont pas du tout ranger correctement, ils sont rangés
par taille croissant. En plus d’être relié par taille croissante, chaque cil est relié à son voisin
par des petits filaments. De ce fait, à cause de ces filaments, qui relie les cils des cellules
ciliées, si un seul cils bougent tous les cils vont se mettre à bouger à l’unisson, ils vont tous
fléchir en même temps. Ils vont soit se fléchir dans un certain sens ce qui va permettre
l’entrée d’ions potassium dans la cellule, soit s’incline dans l’autre sens ce qui provoque la
fermeture des canaux potassiques.
A droite de cette figure 23, les stéréocils s’inclinent à l’opposé du stéréocils le plus long, dans
ce cas cela réduit la tension sur les filament, ce qui provoque alors la fermeture des canaux
potassiques, il n’y a donc aucun ions potassium qui peut entrer dans la CC, ce qui se traduit
par une hyperpolarisation.
Les cils des CC vont s’incliner alternativement soit vers le cils le plus long, soit en son
opposé, ce qui renvoi au signal sinusoïdal, ce sont les CC qui vont codés se mouvement
d’alternance. Les CC externes codent en particulier ce qui relève du codage temporelle car on
reçoit dans notre oreille, entre autre une fréquence qui est déterminée par sa période donc qui
possède un codage temporelle. Cette alternance va permettre de coder les aspects temporels
du son.
L’écoute des sons violent, toute la vibration sonore passe dans l’oreille interne et va déchirer
cette touffe cilienne, en déchirant les connexions entre les cils alors que tous les cils
s’inclinent à l’unisson pour que cela marche correctement. Si cette touffe est déchirée le
codage ne pourra plus être effectué.
Chez l’homme ces lésions des CC sont des lésions irréversibles contrairement à certains
poissons ou oiseaux, les CC ne peuvent pas se régénérer. Dès qu’on a été confronté à un son
violent, le risque est de déchirer la touffe et de devenir sourd. Le NT qui se déverse grâce au
CC internes est du glutamate.
4. Rôles assurés par les cellules ciliées internes et les cellules ciliées
externes
Sur les membranes des CCE, il y a des protéines motrices.
Lorsqu’un son va arriver dans la cochlée, les CCE vont donc se mettre à bouger de droite à
gauche, les protéines motrices vont soit ce contractées, soit s’allongées et ce mouvement qui
est dû au protéines motrices va permettre d’amplifier la réponse de la membrane basilaire. Ces
CC jouent un énorme rôle dans notre audition, elles ne sont peut-être pas responsable du
système de transduction mais facilite et améliore notre audition. Ceci est également dû au
différentes sensibilités des deux types de CC au son. Les CCI sont pas sensible au son, enfaite
pour que les CCI puissent correctement décharger il faut envoyer un son très très fort, c’est
pour cela que l’on dit qu’elle ne sont pas très sensible. En revanche, les CCE sont
extrêmement sensible au son, un son de faible intensité les fera de suite réagir, c’est parce que
justement elles sont très sensible qu’elles vont pourvoir facilement ce contracter grâce à ces
protéines motrices par rétroaction elles informent les CCI des caractéristiques du son entrant.
On dit que les CCE ont un rôle d’amplificateur cochléaire.
Une spécificité du système auditif est que l’on observe de premiers éléments de codage dès la
CC, donc la CC elle-même est responsable de codage. Puis on va trouver des codages aux
niveau des fibres cochléaire, il sera plus élaborer que dans les CC. Par la suite, au fur et à
mesure que l’on monte dans les différents étage des voies auditives ascendantes, on a vu
qu’on avait différents relai par lesquels transiter l’information auditive, et bien chaque relai
auditif va avoir une spécificité de codage.
Pour montrer l’existence d’une telle tonotopie au niveau des fibres, on procède à des
enregistrement électrophysiologiques, on mesure des courbes d’accord. La courbe d’accord
est une courbe intensité en ordonnée et fréquence en abscisse. On place un électrode et on
commence à présenter un son de 32 000Hz, à une intensité de 70dB : c’est le point de départ
de l’enregistrement. On garde l’intensité et on diminue progressivement la fréquence du son.
Plus le nombre d’influx est élevé plus la fibre réagit au son.
Donc de 32 000 à 6 000Hz la zone est bleu cela signifie que la fibre répond que légèrement.
De 2 000 à 5 000 Hz la zone est rouge cela signifie que la fibre réagit fortement au son. Dès
qu’il y a une inversion de couleur, on diminue l’intensité de 10dB (ex. de 70 à 60 dB) et on
balaye mais seulement dans la zone rouge de l’intensité de dessus. Et on continue jusqu’à
tomber à presque 0 dB. A l’issue de cela, ça permet de dessiner la courbe d’accord. On dit que
cette fibre, dont on vient d’enregistrer les résultats, est accordée sur une fréquence, ça
fréquence d’accord ici est de 5 000 Hz à peu près.
Cette fréquence caractéristique, qui existe pour les CC, on le retrouve pour la fibre, la fibre est
accordée sur une fréquence qui lui est propre. Cette fréquence caractéristique de la fibre
correspond à la fréquence où la fibre répond de manière maximale, autrement dit cela
correspond à l’intensité minimum à laquelle il faut lui présenter le son pour qu’elle réponde
quand même.
Le son parcourt la membrane basilaire de la base, zone étroite et rigide, à l’apex, zone large et
souple. La distance parcouru par l’onde de pression dépend de la fréquence du son, les son de
basses fréquences sont codés du côtés de l’apex et les autres de la bases. On retrouve cette
idée sur la figure 28.
Ici, sur la figure 31, en noir on a la réponse maximal de la membrane basilaire pour la Fc. En
violet, on voit que lorsque l’on augmente l’intensité du son, l’enveloppe de la membrane
basilaire est beaucoup plus large. Autrement dit, en augmentant l’intensité du son, il va
solliciter beaucoup plus de CC. C’est là que le codage temporel va rentrer en jeu.
La partie basse du document reprend cette idée qui représente les distributions temporelles des
PA pour la fréquence 408Hz. On a en ordonner l’effectif c’est-à-dire le nombre d’intervalle
entre les PA et en abscisse la durée d’intervalle entre les PA en ms. Sa représentation est sous
la forme d’un histogramme. Pour comprendre la distorsion temporelle il faut donc calculer la
période. La période de se son est égale à 1/408 soit 2,45 ms.
Ces PA n’arrive pas n’importe comment, le 1er arrive à 2,45ms et les suivant arrive sur les
multiple (ex. 4,9 ; 7,35 ; 9,8 ; …) de cette même période.
La fréquence des charges qu’on obtient pour un son de 408Hz est caractéristique pour cette
fréquence. Cette fréquence de décharge change en fonction de la fréquence. La représentation
change en fonction de la fréquence. Les patterns des décharges neuronales dépendent de la
fréquence du son entrant.
Pour comprendre ce codage temporel, il faut savoir que la durée d’un PA est d’1 ms, pour
chaque PA émis il existe une période réfractaire d’une durée environ d’1 ms. Autrement dit
cela prend 2 ms par PA. On peut donc dire en 1s un neurone ne peut pas émettre plus de 500
PA. Si une fibre émet un PA à chaque cycle de pression (qui vaut maximum de 2 ms) la
synchronisation de cette fibre ne pourra pas dépasser la fréquence de 500Hz. Ce résonnement
tient pout toutes les fréquences comprises entre 20 et 500Hz.
Exemple :
Si F = 20 Hz N = 1/F = 1/20 = 0,05 s = 50 ms, donc > à 2 ms
Si F = 200 Hz N = 1/F = 1/200 = 0,005 s = 5 ms, donc > à 2 ms
Si F = 300 Hz N = 1/F = 1/300 = 0,0033 s = 3,3 ms, donc > à 2 ms
Si F = 400 Hz N = 1/F = 1/400 = 0,0025 s = 2,5 ms, donc > à 2 ms
Si F = 500 Hz N = 1/F = 1/500 = 0,002 s = 2 ms
Dans les cas où les fréquences sont comprises entre 20 et 500 Hz comme la période est
supérieur à 2 ms, une seule fibre peut coder en codage temporelle. Pour ces fréquences-là, il
s’agit d’un codage temporelle à chaque cycle de pression.
Prenons l’exemple d’une fréquences de 600 Hz :
Si F = 600 Hz N = 1/F = 1/600 = 0,0016 s = 1,6 ms, donc < à 2 ms -> ça ne marche
plus
On est en dessous des 2 ms, cette fibre unique ne peut pas coder seule cette fréquence de 600
Hz. Le codage temporelle existe pour les fréquences supérieurs à 500 Hz, il faut que plusieurs
fibres se relaient pour qu’il fonctionne.
Autres exemples :
Si F = 600 Hz N = 1/F = 1/600 = 0,0016 s = 1,6 ms, donc < à 2 ms -> il faut donc 2
fibres recrutées minimum pour coder cette fréquence
Si F = 1 000 Hz N = 1/F = 1/1 000 = 0,001 s = 1 ms, donc < à 2 ms -> il faut
donc 2
fibres recrutées minimum pour coder cette fréquence
Si F = 2 000 Hz N = 1/F = 2 000 = 0,0005 s = 0,5 ms, donc < à 2 ms -> il faut
donc 4
fibres recrutées minimum pour coder cette fréquence
Si F = 3 000Hz N = 1/F = 1/3 000 = 0,00033 s = 0,33 ms, donc < à 2 ms -> il
faut donc 6
fibres recrutées minimum pour coder cette fréquence
Si F = 4 000 Hz N = 1/F = 1/4 000 = 0,00025 s = à,25 ms, donc < à 2 ms -> il
faut donc 8
Pour les fréquences inférieures à 500 Hz, (a), soit entre 20 et 500 Hz, les neurones génèrent
des PA à chaque cycle de pression et toujours au même moment de ce cycle de pression.
Pour les fréquences sonores comprises entre 500 et 5 000 Hz, (b), les PA ne peuvent pas
être émis à chaque cycle de pression. Mais plusieurs fibres vont contribuer au codage.
L’activité d’une population de neurones qui est mise en jeu, cela correspond au codage de la
volée.
Pour les fréquences sonores supérieures à 5 000 Hz, (c), on constate que les PA sont
générés au hasard, elle peut être générer au pique, au creux ou entre les deux. Il n’y a pas de
synchronisation sur les cycles de pression lorsque les fréquences sont supérieures à 5 000 Hz.
On a donc besoin des deux codages simultanément pour coder efficacement les fréquences
sonores. On parle alors de la théorie duplexe de la perception de la fréquence, puisqu’il nous
faut c’est deux modèle là pour coder.
En plus de cette fréquence et de cette intensité qui sont les bases même de la compréhension
sonore du monde dans lequel nous évoluons, il faut également qu’on soit en mesure de
localiser une source sonore.
Dans le plan verticale c’est l’attitude, l’estimation d’une altitude dépend beaucoup de la
composition spectrale de la vibration. Les sons vont être présentés face ou dos à l’auditeur de
manière verticale, mais on déplace pas la source sonore. Les études sont effectuées dans un
plan sagittal médian car pas de différence iteraurales
Sons complxes avec spextre rich en fréquences élevées sont les mieux localisés (précision
d’envirion 10°)
3. Localisation d’un son dans l’espace
La localisation d’un son dans l’espace est réaliser par les noyaux auditifs. On localisa un son
dans l’espace selon deux plans :
Plan horizontal qui porte le nom d’azimut autrement dit que gauche à droite
Plan vertical, on parle d’altitude, autrement dit au haut en bas
Par analogie avec le domaine de la vision, il faut savoir que l’on peut avoir une perception de
la profondeur avec un seul œil mais dès que l’on utilise les deux la perception de la
profondeur est de meilleur qualité. Pour la localisation d’un son dans l’espace marche de la
même manière, on peut localiser un son dans l’espace avec une seule oreille mais dès lors que
l’on utilise les deux cette localisation devient optimal. Les localisation sonores sont mieux
localisées en écoute binaurale (avec nos deux oreilles) qu’en écoute monaurale (avec une
seule oreille).
La localisation de son est traiter par les noyaux auditifs, dans le cas du délai interaural les
neurones impliqués sont ceux de l’olive supérieur médiane (OSM). Le délai interaurale joue
seulement pour les fréquences comprises entre 20 et 2 000 Hz.
On dispose donc d’un deuxième indice pour coder les son supérieur à 2 000 Hz : la différence
d’intensité interaurale.
Pour les fréquences supérieures à 2 000 Hz, la tête est un obstacle acoustique car on est en
présence de longueur d’onde trop courte pour contourner la tête. Autrement dit, pour des sons
dont la fréquence est supérieures à 2 000 Hz, l’oreille qui se trouve de l’autre côté de l’arrivée
du son se trouve dans une ombre acoustique, c’est le phénomène d’ombre portée. Les
ondes sont trop courtes, elles ne peuvent contournées la tête, on est en présence d’ombre
acoustique. Comme la tête constitue un obstacle pour ces fréquences-là, il va y avoir un
affaiblissement de l’intensité à l’oreille la plus éloignée de la source sonore. De la même
manière que tout à l’heure, si le son arrive directement de son ou de dos ce phénomène
n’existe pas, mais si le son vient d’un côté, l’oreille qui est situé dans l’ombre acoustique va
coder cette différence d’intensité, ce qui nous permet de dire d’où vient le son.
Les neurones impliqués dans ce codage sont les neurones de l’olive supérieur latérale.
Pour localiser une onde sonore dans le plan horizontal on possède 2 processus simultanés :
Pour les fréquences comprises entre 20 et 2 000 Hz c’est la différence de temps
interaurale
Pour les fréquences comprises entre 2 000 et 20 000 Hz c’est la différence de
l’intensité interaurale
On a besoin de ces deux codages pour localiser correctement un son dans le plan horizontal.
Le fait que l’on est besoin de ces deux codage a donné lieu à la théorie double de la
localisation des sons.
Le principe expérimentale est on bande les yeux de l’auditeur, on le pace dans une chambre
sourdes, sans sons parasites. On présente donc les sons, face ou dos de l’auditeur, a différentes
altitudes et on demande à l’individu de pointer d’où vient la source sonore. On fait les mesure
en degré d’angle. Les sons complexes riches en fréquences élevées sont les mieux localisées
avec une précision d’environ 10°, c’est-à-dire qu’on ne se trompe pas beaucoup quand on
indique la source sonore. On ignore les raisons une telle précision de la localisation qui ne se
révèle pas pour les fréquences graves.
Les sons purs ont présente le son directement face à lui et on lui demande d’indiqué d’où
vient le son, ils sont localisés en fonction de leur hauteur tonale :
Pour les sont graves ils vont être localisés en bas de l’espace
Pour les sons aigue ils vont être localisés en haut de l’espace
Le pavillon de l’oreille joue un rôle essentiel dans la localisation dans l’espace sonore,
particulièrement dans le plan vertical, et en particulier on peut refaire les même étude en
faisant le moulage de l’oreille des individu et en modifiant ce moulage au niveau du pavillon
et on compare ces résultats au résultats précédant. On montre quand modifiant le pavillon de
l’oreille on diminue l’acquitté de la personne à localisé un son dans l’espace.
Les noyaux qui vient ensuite est : les lemnisque latéraux (LL), on a des neurones qui
signalent le début du son, peu importe la fréquence et l’intensité, qui sont spécialisé pour
signalés le début d’un son et d’autre neurones qui traitent l’aspect temporel du son, comme la
durée.
Après les LL, vient les colliculi inférieurs (CI), on en est toujours à des hypothèses, qui se
confirmes de plus en plus, dans ces colliculi inférieures nous avons des neurones sensible à
l’altitude et à l’azimut, autrement dit ils participerait à la représentation de l’espace auditif.
Ces CI disposent de neurones qui traitent des sons dont les configurations temporelles sont
relativement complexes mais aussi des neurones qui répondent à des modulations de
fréquence. Et enfin, on des neurones qui répondent à des sons de durée spécifiques, neurones
toniques VS phasiques. Ils répondent également au sens du déplacement de la source sonore,
impliquées dans les mouvement d’orientation de la tête vers la source sonore.