Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
INTRODUCTION
La psychoacoustique tente d'étudier les rapports entre les phénomènes observés par
les acousticiens et la perception de l'auditeur. Désormais quand nous parlerons de
Son, il s'agira de son perçus.
L'oreille externe
L’oreille externe comprend le pavillon et le conduit auditif. Elle cumule les fonctions
de protection, d’amplification et de filtrage.
On s'aperçoit tout d'abord que le pavillon, qui est la partie la plus visible de l’oreille,
est asymétrique et a une forme compliquée. Présentant l’allure d’un cornet
acoustique orienté latéralement, il permet de collecter les sons en canalisant les
ondes sonores vers le conduit auditif et joue même le rôle d’amplificateur dans la
zone d’intelligibilité correspondant à la voix humaine (environ 10 dB pour les
fréquences comprises entre 2 kHz et 3,5 kHz).
Mais son rôle ne se réduit pas à cela comme on a pu longtemps le penser. Depuis la
deuxième moitié du XXe siècle, les recherches sur l’audition directionnelle ont
accordé une attention toute particulière à la fonction de l’oreille externe dans
l’évaluation directionnelle du son. Et ainsi en 1967 le scientifique Wayne Batteau
montra son rôle dans la localisation des sons.
Son expérience consistait à remplir les convolutions du pavillon d'un sujet avec de la
cire. Celui-ci, après qu’on lui ait bandé les yeux, ne pouvait plus distinguer à quelle
hauteur (en bas, devant ou au-dessus de sa tête) tintait le cliquetis d'un jeu de clefs.
Plus récemment, Jens Blauert explique dans “Spatial Hearing – The Psychophysics
of Human Sound Localization” :
1. Hélix
2. Fosse triangulaire
3. Anthélix
4. Branche de l'anthélix
5. Conque
6. Antitragus
7. Lobule
8. Tragus
9. Branche de l'hélix
L'oreille moyenne est séparée de l'oreille externe par le tympan, et est protégée dans
une cavité osseuse appelée caisse du tympan. Elle est chargée de transformer
mécaniquement les vibrations aériennes en vibrations solidiennes.
A. Tenseur du tympan
B. Marteau
C. Enclume
D. Muscle de l'étrier
E. Nerf facial
F. Platine du muscle de l'étrier
G. Membrane du tympan
Elle comprend la chaine des osselets, décrits par Leipp comme des leviers articulés
qui a pour rôle premier de transmettre les vibrations du tympan à la fenêtre ovale,
porte d'entrée de l'oreille interne. Nous distinguons le marteau, solidaire du tympan,
dont le muscle est régulateur des sons graves, puis l'enclume, elle-même articulée à
l’étrier, dont le muscle est un extenseur et un régulateur des sons aigus et qui est
en contact avec la membrane de la fenêtre ovale qui permet la communication avec
l’oreille interne. La mécanique résultante produit une amplification des mouvements
du tympan. La chaine des osselets et les muscles en assurant la tension (tenseur
tympanique ou muscle stapédien) servent aussi à protéger temporairement le
système auditif contre les fortes intensités (en modifiant la raideur du système lors de
variations fortes d'intensité (c’est une boucle nerveuse de contre réaction). La
paralysie ou le relâchement de ces muscles rendent le sujet intolérant au bruit.
Notons que les osselets reliés par des ligaments aux os de la tête transmettent aussi
les vibrations osseuses de celle-ci.
L'oreille interne
L'oreille interne ou labyrinthe, séparée de l'oreille moyenne par la fenêtre ovale, est
un ensemble complexe de cavités osseuses, creusées dans l'os mastoïde et
remplies de divers liquides. Elle est le siège de l'organe transducteur de l'audition
Son mécanisme est si complexe qu’on n’en connaît pas le fonctionnement exact et il
est toujours un sujet d'études.
Les canaux semi-circulaires et le limaçon avec ses deux fenêtres
La cochlée ou limaçon est une cavité spiralée contenant des liquides qui vont
transmettre les vibrations provenant du tympan. Elle contient l'organe transducteur
mécanique-neuronal : l'organe de Corti, fixé sur la membrane basilaire, est constitué
d'environ 16 000 cellules, appelées cellules ciliées ; ces capteurs essentiels ont la
propriété d’être sensibles aux micromouvements mécaniques de la membrane
tectoriale par le moyen d’un cil (d’où leur nom) et transmettent ainsi l’information
sonore sous forme d’impulsions électriques au nerf auditif. Elles sont disposées sur
quatre rangées le long de toute la membrane basilaire.
Les cellules externes sont liées à des fibres descendantes venant du cerveau.
Contractiles et adaptatrices, elles font partie du système efférent du cerveau. Leur
altération par l’âge compromet l’intelligibilité du langage. Situées en plusieurs
rangées, leur rôle est de se contracter en fonction d’une fréquence reçue, c’est à dire
que pour telle zone de la membrane basilaire, tel ensemble de fibres est activé.
Celles-ci, représentant 5% de fibres non myélinisées, sont donc en nombre infime
mais elles ont un rôle considérable, c’est à dire un rôle adaptateur, à la manière d'un
pré-ampli vis-à-vis du son plus ou moins organisé, qui a subi un premier
acheminement via le cerveau. Elles peuvent aussi affaiblir un son, l’amortir, si celui-
ci est d’une intensité trop forte ou s’il se situe dans des fréquences trop graves. Cette
mobilisation répond à une fréquence particulière selon le lieu de la membrane
basilaire envisagé (tonotopie). Les fréquences aigues feraient plutôt réagir les
cellules ciliées placées à la base de la membrane basilaire, c’est-à-dire près de la
fenêtre ovale, tandis que les fréquences aigues exciteraient plutôt les cellules
placées au bout.
Schéma de la cochlée montrant, sur la partie gauche les cellules ciliées internes (1) sur une
seule rangée et sur la partie droite, les cellules ciliées externes (2) sur trois rangées. Les
autres cellules sont des cellules de soutien
Ce qui circule sur les fibres du nerf optique ne ressemble pas du tout aux
vibrations....
Sans en dire plus, les axones auditifs rejoignent les premières aires auditives du
cerveau dans lesquels il y a concurrence avec des axones venant de nombreuses
autres régions...
Les canaux semi-circulaires renseignent le cerveau sur l'orientation de la tête par
rapport au sol c'est à dire par rapport a la pesanteur et jouent donc un rôle dans
l'équilibre du corps et dans la spatialisation visuelle et auditive. De petits organes
donnent en plus des informations sur les composantes des accélérations que la tête
subit.
Pour comprendre le "premier temps" : Réfléchissez au sifflet à ultra-son qui n'a pas
de sens pour vous mais qui est reconnu et identifié par un chien.
Naturellement on attribue au son les adjectifs d'autres sensations (un son brillant,
doux, chaud, acide, pointu, sourd, coloré, liquide etc.)
On dit qu'un son est plus grave ou plus aigu qu'un autre. Cette sensation varie avec
différents paramètres acoustiques
- La hauteur d'un son croit comme la fréquence acoustique.
N.B. : Nous pouvons percevoir des fréquences sinusoïdales allant théoriquement de
20 Hz à 20000 Hz. Le seuil supérieur baisse avec l'âge dès 20 ans : à 80 ans
entendre 10000Hz est une belle performance... Notre seuil de sensibilité en
fréquence (discrimination) dépend de la fréquence mais est de l'ordre de 12 pour
1000. A titre indicatif nous sommes plus sensibles pour des fréquences autour de
1000 Hz.
- La hauteur varie avec l'intensité acoustique. Lorsque l'on augmente l'intensité d'un
son sa tonie est accentuée.
- La hauteur varie avec le timbre: les sons brillants semblent plus aigus que les sons
sourds.
Nous ne percevons pas de "phases" entre deux sons simultanés sans doute par
absence de références mais nous détectons des différences de "début " très
courtes - 20 microsecondes !
2.3 Le Timbre
On identifie le timbre à une catégorie de sources. Par exemple : une voix féminine,
le tonnerre, un violon, une trompette, un son nouveau... Comme toute les catégories
humaines les timbres ont des frontières floues bien que parfaitement identifiables par
chaque individus.
Nous relions ensemble les sensations de même timbre : dans un son complexe nous
ressentons la continuité d'une voix - ou d'un instrument- dûment identifié.
Nous ressentons une " coloration " du timbre. Cela participe à l'identification.
Les acousticiens du siècle dernier ont tenté d'expliquer le timbre par une répartition
d'amplitudes de fréquences sinusoïdales :
Le fondamental responsable de la Hauteur, les harmoniques responsables du
Timbre...
Le timbre semble lié au centre de gravité de la répartition des fréquences
acoustiques des harmoniques, et la "couleur" du timbre à l'extension des
harmoniques.
Ces résultats intéressants découlent de la description du son physique par
l'utilisation des transformées de Fourier et de mesures statistiques des sensations de
nombreux sujets.
Cela n'explique pas pourquoi un timbre fortement altéré par diverses distorsions (cf.
walkman de mauvaise qualité) peut-être tout de même reconnu bien que ses
composés harmoniques sont très différents.
On dit qu'un son est plus fort ou plus faible qu'un autre.
Cette sensation est fortement liée à la puissance acoustique et semble mesurable
par comparaison à un étalon. Mais cependant d'autres paramètres interviennent de
façon notable (hauteur, auditeur, l'environnement sonore).
2.5 La localisation
Cependant du fait de la nature ondulatoire des sons, ces deux moyens ne sont pas
d’une égale efficacité pour toutes les fréquences. En effet, les sons basses
fréquences ont une longueur d’onde grande par rapport à la taille de la tête qui ne
représente donc pas un obstacle à la progression du son. Au contraire, dans les
hautes fréquences, là où la longueur d’onde est très petite, la tête constituera un
écran.
En 1907, John Strutt, plus connu sous le nom de Lord Rayleigh, développe sur ces
bases sa « duplex théorie », confirmée et affinée par la suite par Mills et Woodworth.
Cette théorie met en évidence l’importance des disparités binaurales en précisant le
rôle des différences de temps (ITD) et d’intensité (ILD) en fonction d’une échelle
fréquentielle. L’idée de cette théorie est que ILD et ITD sont complémentaires ; les
différences de temps ne procurent des résultats utilisables que pour des fréquences
inférieures à 1500 Hz (ce qui correspond à une longueur d’onde d’environ 23 cm,
proche de la distance interaurale), alors que les différences d’intensité sont les plus
importantes dans les hautes fréquences, au-dessus de 1500 Hz et peuvent atteindre
jusqu’à 20 dB (fig. 2).
Fig.2 : Évolution de la différence interaurale d’intensité en fonction de la position de
la source sonore pour 4 fréquences d’après Federson, Sandel, Teas et Jefress.
Alors que les principaux indices de la localisation dans le plan horizontal sont
binauraux, ceux concernant la sensation d’élévation sont souvent dits monauraux.
En effet, dans le plan médian, les différences interaurales sont inexistantes et le
repérage spatial s’en voit considérablement affecté ; l’incertitude de localisation peut
aller jusqu’à 20° (Damaske 1969) dans le cas d’une source sonore placée juste au-
dessus de la tête. De plus la direction perçue ne correspond pas forcément avec
l’incidence réelle de la source.
En réalité Blauert en 1970 et Château en 1995 ont remarqué que le système auditif
semblait localiser la source émise dans une direction imposée par le spectre de son
signal. Ainsi « la sensation de direction dans le plan vertical est déterminée par les
zones spectrales ou le signal possède le maximum de son énergie ; s’il se trouve que
le signal est un son pur, ou à spectre étroit, il peut être localisé dans une direction
tout autre que sa direction réelle » (Canévet).
Fig.3 : Probabilité relative de réponses « devant » (v), « dessus » (o), « derrière » (h)
en fonction de la fréquence centrale du signal p110 (Blauert).
La localisation hors du plan horizontal est en fait basé en grande partie sur le codage
induit par la géométrie de l’oreille externe, la tête et le torse qui provoquent un
filtrage lié à des phénomènes de diffraction et d’interférences permettant au cerveau
de localiser le son en soustrayant la fonction de transfert de la dégradation au
message sonore. Cela suppose évidemment que le son est déjà connu et mémorisé
par le cerveau. Ce filtrage qui dépend à la fois de la direction et de la distance de la
source est appelé HRTF pour Head Related Transfert Fonction et son équivalent
dans l’échelle temporelle est nommé HRIR pour Head Related Impulse Response.
L’effet acoustique du pavillon est basé sur des phénomènes variés tels que
réflexions, masquage, dispersion, diffraction, interférences et résonances. En fait, il
fonctionne exactement comme un filtre car il est constitué comme un système de
réflecteurs multiples. La combinaison résultante des ondes directes et réfléchies va
dépendre des différentes valeurs de retard induit par le pavillon, et donc, de
l’incidence primaire de l’onde sonore. Pour des retards faibles, le signal retardé
introduit une atténuation des hautes fréquences, tandis que pour les retards plus
grands on observe un filtrage en peigne. Ces déformations spectrales ne sont pas
perçues par le système auditif comme des modifications de timbre, mais bien comme
des changements de direction d’un même signal.
Fig. 4 : réponses en fréquence pour une source placée au-dessus ou de face [20]
Fig. 5 : autre de deux sujets pour une source à 0°d’azimut et d’élévation. Notons les
différences considérables dans les hautes fréquences (Begault, 1991)
Le flou de localisation n'est pas uniforme sur toute la sphère de perception et varie
en fonction des mécanismes de localisation qui sont sollicités. La localisation dans le
plan horizontal fait appel à la différence interaurale de temps et à la différence
interaurale d'intensité. Mesuré avec des impulsions de bruit blanc de durée 100 ms,
le flou de localisation dans le plan horizontal est de 8° pour une source placée
devant l'auditeur, de 20° pour une source face aux oreilles et de 11° pour une source
placée derrière l'auditeur. Le flou de localisation variera de façon graduelle et
continue entre ces azimuts.
On peut s'attendre à ce que le flou de localisation dans le plan médian, où seules les
modifications apportées par les fonctions de transfert donnent l'information
nécessaire, soit plus grand que dans le plan horizontal. Comme le mentionne
Blauert, l'expérience auditive préalable des sujets devrait alors jouer un rôle
important dans la diminution du flou de localisation dans le plan médian. Cela a
effectivement été vérifié. Mesuré avec la voix d'une personne connue comme source
sonore, le flou de localisation dans le plan médian est, pour la partie se situant
devant la tête, de 18° pour une source à 0° d'élévation, de 20° pour une source à 30°
d'élévation et de 26° pour une source à 75° d'élévation. Pour la partie du plan
médian se situant derrière la tête, le flou de localisation est de 30° pour une source à
27° d'élévation et de 44° pour une source à 68° d'élévation. Toutefois, même la
connaissance de la source sonore ne peut contrer les situations où cette source
présente une largeur de bande spectrale trop étroite : à moins de 2/3 d'octave,
l'évaluation de la direction dans le plan médian devient impossible.
Quoi qu’il en soit, la zone critique de fréquences où le flou de localisation est le plus
grand, et ce, peu importe l'azimut ou l'élévation de la source, est aux alentours de
2000 Hz. Puisque la différence interaurale de phase diminue graduellement
d'efficacité à partir de 800 Hz et que la différence interaurale d'intensité n'est pas
vraiment fonctionnelle avant 2000 Hz, il y a un manque de chevauchement des
zones couvertes efficacement par ces mécanismes de localisation. Notre manque de
discrimination directionnelle autour de 2000 Hz explique aussi, en partie, que notre
plus grande sensibilité à l'amplitude acoustique se situe dans ce secteur de
fréquences, tel que confirmé par les courbes d'isosonie (fig.17).
Les HRTFs
Theile insiste sur le fait que les HRTFs sont indispensables pour externaliser les
sons. De fait les variations de transfert interaurale et plus particulièrement les
différences interaurales d’intensité peuvent être importantes lorsque la distance tête-
source varie : plus la source est proche plus la différence interaurale d’intensité sera
importante. Cela est très significatif pour des distances inférieures à un mètre.
L’intensité
Lorsque deux sons brefs sont émis dans un intervalle très court, ils sont perçus
comme un seul son : c’est l’effet de fusion (Wallach 1949). L’intervalle maximum pour
que cet effet fonctionne et appelé temps de fusion, il est de l’ordre de 5 ms pour des
transitoires (clic) et de 40 ms pour les sons plus complexes. Lorsqu’il y a fusion, nous
interprétons ce mélange comme le timbre apparent, c'est pour cela que la nature des
premières réflexions (dues à l'acoustique de la pièce) change en grande partie le
timbre. De plus, la localisation du son résultant est déterminée par l’incidence du
premier : c’est l’effet de précédence, appelé également loi du premier front d’onde
par Blauert (1983) ou « effet Haas » d’après Haas (1951). Le scientifique allemand,
lors d’expérience sur les échos montra que pour que le son délayé soit perçu au
même niveau que le premier émis, il faut qu’il soit jusqu’à une dizaine de dB plus fort.
Niveaux relatifs requis pour une source secondaire en fonction de son retard par
rapport à sa source primaire afin que les deux paraissent de niveau égal.
S’il y a une trop importante décorrélation entre les deux signaux l’effet de
précédence ne pourra bien sûr fonctionner. À l’opposé si l’intervalle d’arrivée des
signaux est inférieur à 1 ms alors l’effet de précédence ne fonctionne plus (Blauert
1974).
Il est clair que l’effet de précédence joue un rôle très important dans notre perception
quotidienne du son. Il nous permet de localiser, d’interpréter et d’identifier les sons
malgré les transformations qu’ils peuvent subir dans les conditions acoustiques très
différentes que nous rencontrons. Mais parfois cet effet peut devenir un
inconvénient ; il suffit de constater le décalage de l’image stéréo lorsque l’on ne se
situe pas au milieu des deux enceintes.
Cependant on notera que les aveugles développent une écoute fine distinguant plus
précisément les premiers échos (dus aux obstacles) des sons directs. En frappant le
sol avec leur canne ils peuvent appréhender un obstacle avec l'Echos qu'il provoque.
Un son masquant de hauteur donné augmente l'intensité que doit avoir un son pour
être perçu. Son effet sera maximum pour des sons de hauteur proche ou plus aigus.
On conçoit qu'un bruit ayant une large répartition de fréquence masquera presque
tous les sons. Réfléchissez à l'utilisation du "chut!" pour masquer une conversation.
Remarquons que dans l'harmonie et l'orchestration ces notions sont connues depuis
longtemps.
2.12 Le rythme
Nous éprouvons une sensation vaguement agréable lorsque nous reconnaissons
quelque chose de sonore, et à l’opposé, lorsqu’une nouveauté absolue apparait cela
nous interpelle.
Peut être cela est-il lié au travail interne diffèrent entre mémorisation et
remotorisation
Les stimuli qui provoquent une réaction de l’attention auditive sont de trois sortes :
-stimulus présentant une saillance physique (dynamique ou fréquentielle),
-stimulus à caractère nouveau : nouveauté spectrale, temporelle ou cognitive.
-stimulus présentant une saillance cognitive mettant en jeu les automatismes
et réflexes attentionnels,
La saillance physique
La saillance cognitive